Вектор значений зависимой переменной

Здесь Y - вектор-столбец размерности п наблюдений зависимой переменной Y X - матрица размерности п х (т + 1), в которой 1-я строка (i = 1, 2,. .., п) представляет наблюдение вектора значений независимых переменных Хь Х2,. .., Хт единица соответствует переменной при свободном члене bo В - вектор-столбец размерности (т  [c.145]


Задача состоит в предсказании изолированного значения зависимой переменной у0 для заданного вектора-строки х0. Мы можем записать  [c.210]

Рассмотрим геометрическую интерпретацию регрессии. Предположим, что мы имеем и=3 наблюдения уь у2, уз — зависимой переменной У и х, х2,х — объясняющей переменной X. Рассматривая трехмерное пространство с осями координат 1, 2, 3, можно построить векторы Y=(y, у2, уз), Х=(х, х2, х ), а также вектор S O ) (рис. 3.7). Тогда значения у, у2,у3, получаемые по уравнению регрессии у = Ь0 + Ь х, можно рассматривать как  [c.76]

Наряду с интервальным оцениванием коэффициентов регрессии по (4.23 ) весьма важным для оценки точности определения зависимой переменной (прогноза) является построение доверительного интервала для функции регрессии или для условного математического ожидания зависимой переменной Л/Х(У), найденного в предположении, что объясняющие переменные Х, Х2,..., Хр приняли значения, задаваемые вектором X Q =(l x10 x20. .. хр0).  [c.98]


Значения экономических переменных определяются обычно влиянием не одного, а нескольких объясняющих факторов. В таком случае зависимость у =Дх) означает, что х - вектор, содержащий т компонентов х = (х,, х2,. .., хт). Задача оценки статистической взаимосвязи переменных у и х"= (х(, х,,. .., хга) формулируется аналогично случаю парной регрессии. Записывается функция у = Да,х)+е, где а - вектор параметров, е - случайная ошибка. Предполагается, что эта функция связывает переменную у с вектором независимых переменных х для данных генеральной совокупности. Как и в случае парной регрессии, предполагается, что ошибки е являются случайными величинами с нулевым математическим ожиданием и постоянной дисперсией е( и е статистически независимы при ij. Кроме того, для проверки статистической значимости оценок а обычно предполагается, что ошибки е( нормально распределены. Поданным наблюдений выборки размерности л требуется оценить значения параметров а, то есть провести параметризацию выбранной формулы (спецификации) зависимости.  [c.307]

До сих пор мы безоговорочно предполагали, что переменные X измерены без ошибок и что единственной допустимой формой ошибок в рассматриваемом соотношении могут быть возмущения и. Последнее было продиктовано стремлением учесть воздействие различных объясняющих переменных, не включенных явно в это соотношение. Можно, конечно, ввести составляющую, которая отражает ошибку измерения зависимой переменной Y, и не нарушить все полученные ранее результаты. Выясним теперь, к чему приведет предположение о наличии ошибки измерения у переменных X. Мы предполагаем, что р есть вектор коэффициентов, полученных для точно измеренных значений переменных X. Что произойдет, если воспользоваться нашей техникой наименьших квадратов в применении к имеющимся в наличии реальным измерениям переменных X и переменной У Ответ на этот вопрос таков оценки, полученные обыкновенным методом наименьших квадратов, будут не только смещенными, но и несостоятельными. Это можно продемонстрировать следующим образом.  [c.280]


При X] =0 имеем булев вектор <1011>, с учетом весов этот вектор интерпретируется как число 13. При Х = 1 имеем <01 1 1>, что соответствует числу 14. Тогда значение первого столбца булевой матрицы в зависимости от значения переменной Х] можно изобразить как  [c.30]

В качестве значений зависимой переменной в момент t мы можем использовать yt или, например, прогноз yt. Матрица ковариаций вектора у по условию модели равна V(y) = <72In. Матрица ковариаций вектора прогноза равна  [c.77]

Здесь р = (p0, pi,. .., pm) - вектор размерности (m + 1) неизвестных параметров, pj, j = 1, 2,. .., m, называетсяj-м теоретическим коэффициентом регрессии (частичным коэффициентом регрессии). Он характеризует чувствительность величины Y к изменению Xj. Другими словами, он отражает влияние на условное математическое ожидание M(Y хь х2,. .., хт) зависимой переменной Y объясняющей переменной Xj при условии, что все другие объясняющие переменные модели остаются постоянными. р0 - свободный член, определяющий значение Y, в случае, когда все объясняющие переменные Xj равны нулю.  [c.141]

Внутренность этого конуса К есть совокупность направлений убывания F. Для метода движения по О. Г. наиболее трудны ситуации, в которых конус К становится очень узким. Это происходит при малых значениях / в ситуации, близкой к оптимальной, а при больших значениях / и вдалеке от минимума. Кстати, необходимым признаком оптимальности является вырождение конуса К — его внутренность пуста. Нетрудно понять, что при этом совокупность векторов f x, i M] оказывается линейно зависимой. Как правило, это наступает в ситуации, когда число входящих в М индексов / сравнивается с разменростыо пространства х, хотя, в принципе, не исключена линейная зависимость векторов (Txi i iM и при 7, меньшем размерности х. Объяснение медленной сходимости метода О. Г. узостью конуса К послужило основой для одного из методов ускорения его сходимости. Этот метод, предложенный и разработанный Шором [83], основан на подходящем [преобразовании пространства х с тем, чтобы в новых переменных конус К стал шире. Это достигается операциями последовательного растяжения пространства х по направлениям последовательных О. Г. Суть дела поясняет рис. 75, на котором изображен (для 1=2) конус К до и после растяжения пространства в направлении g. Операция растяжения не вполне детерминирована — остается произвол в выборе коэффициента растяжения. Так или иначе, этот прием был отработан, усложнен растяжением в направлении разности двух последовательных градиентов, что в совокупности с некоторой техникой подбора шагов движения по О. Г. существенно повысило эффективность и надежность метода О. Г. Читатель может познакомиться с подробностями по работам [83], [84]. Здесь мы этих деталей не излагаем, поскольку автор не является сторонником подобных методов, полагая, что вычислительные методы, явно использующие достаточно полный анализ конуса К, должны быть более эффективными. Метод Ньютона как раз и основан на анализе конуса К. Для подтверждения этой точки зрения мы сейчас проведем сравнение решения некоторой модельной задачи методом обобщенного градиента с растяжением пространства и методом Ньютона.  [c.414]

Корреляционно-регрессионная зависимость между случайными векторами ц — результирующим показателем и J — предикторной переменной (схема С). В данном типе моделей и компоненты вектора результирующего показателя г , и компоненты вектора объясняющих переменных зависят от множества неконтролируемых факторов, так что являются случайными по своей физической сущности. Мы уже сталкивались с такой ситуацией в примере, в котором исследовалась связь между производительностью мартеновских печей и процентным содержанием углерода в металле (см. рис. В. 4). Зависимости такого типа вообще характерны для описания хода технологических процессов, реальные значения параметров которых — ( (1), (2),. .., (р)), равно как и характеризующие их результирующие показатели ц (<п<1), n(2)> <П(т))/ как правило, флюктуируют случайным (но взаимосвязанным) образом около установленных номиналов.  [c.39]

Эконометрика (2002) -- [ c.83 ]