Остатки регрессии

В число регрессоров в моделях временных рядов могут быть включены и константа, и временной тренд, и какие-либо другие объясняющие переменные. Ошибки регрессии могут коррелировать между собой, однако, мы предполагаем, что остатки регрессии образуют стационарный временной ряд.  [c.179]


Для практического применения обобщенного метода наименьших квадратов следует оценить матрицу . Это можно сделать, применив метод наименьших квадратов сначала к уравнениям (9.18), (9.19) по отдельности, найти остатки регрессии и принять в качестве оценок матриц Z/, выборочные ковариации 6v(e,,e7). Очевидно, эти оценки будут состоятельными.  [c.237]

В табл. 4,24 указаны остатки регрессии.  [c.177]

Анализ остатков регрессии 155-166,  [c.338]

Yt = Yt + t — о + bXt + t- He следует путать остатки регрессии с ошибками регрессии в уравнении модели Yt = a+bXt+ t- Остатки et, так же как и ошибки t, являются случайными величинами, однако разница состоит в том, что остатки, в отличие от ошибок, наблюдаемы.  [c.44]

Кажется вполне естественной гипотеза, что оценка сг2 связана с суммой квадратов остатков регрессии et = Yt — a — bXt. В самом деле,  [c.44]


Подставив (2.18) в уравнение регрессии У = а + ЬХ, получим следующую формулу для остатков регрессии  [c.47]

Так как оценка дисперсии ошибок s2 является функцией от остатков регрессии et, то для того чтобы доказать независимость s2 и (2,6), достаточно доказать независимость et и (2,6). Оценки 2, 6 так же, как и остатки регрессии et, являются линейными функциями ошибок t (см. (2.4а), (2.46), (2.20)) и поэтому имеют совместное нормальное распределение. Известно (приложение МС, п. 4, N4), что два случайных вектора, имеющие совместное нормальное распределение, независимы тогда и только тогда, когда они некоррелированы. Таким образом, чтобы доказать независимость s2 и (а, 6), нам достаточно доказать некоррелированность et и (2,6).  [c.48]

Замечание. Вектор остатков регрессии ортогонален константе, т. е. г е = Z et = 0, вообще говоря, только в том случае, когда константа включена в число объясняющих параметров регрессии. Поэтому (2.26) справедливо, вообще говоря, только в случае, когда константа включена в число объясняющих параметров регрессии.  [c.51]

N = X(X X)-1X. (3.10) Вектор остатков регрессии  [c.72]

Мы видим, что квадраты остатков регрессии е2, которыми оперируют тесты на гетероскедастичность, зависят от значения переменной xt, и, соответственно, тесты отвергают гипотезу гомоскедастичности, что в данном случае является следствием ошибки спецификации модели.  [c.181]

Как и в случае выделения тренда, методы моделирования стационарных временных рядов применяются далее к ряду остатков регрессии (11.58).  [c.286]

Во-вторых, согласно модели ошибки et являются белым шумом. Соответственно их оценки, т. е. остатки регрессии et, должны быть также похожи на белый шум. Поэтому остатки должны иметь нулевую автокорреляцию.  [c.306]

Как и в обычной линейной модели, в качестве оценки дисперсии <7g можно взять сумму квадратов остатков регрессии (13.9) (или (13.10)), деленную на число степеней свободы  [c.365]


Остатки регрессии, 43, 51, 72 Оценка максимального  [c.573]

Если на реальных данных гипотеза о нормальности остатков регрессии будет отклонятся, то можно перейти к оцениванию модели в логарифмах.  [c.71]

Вектор e = Y -Y = (у1 -у1, у2 -у2,..., у" -у" называется вектором остатков регрессии.  [c.76]

Коэффициенты (аг) выбираются так, чтобы сумма квадратов остатков регрессии была минимальной. Если ввести функцию  [c.76]

Вектор остатков регрессии будет равен  [c.77]

Проблема отбора факторных признаков для построения моделей взаимосвязи может быть решена с помощью эвристических или многомерных статистических методов анализа. Наиболее приемлемым методом отбора факторных признаков является шаговая регрессия (шаговый регрессионный анализ). Сущность данного метода заключается в последовательном включении факторов в уравнение регрессии и последующей проверке их значимости. Факторы поочередно вводятся в уравнение так называемым прямым методом . При проверке значимости введенного фактора определяется, насколько уменьшается сумма квадратов остатков и увеличивается величина множественного коэффициента корреляции (R). Одновременно используется и обратный метод, т.е. исключение факторов, ставших незначимыми на основе -крите-рия Стьюдента. Фактор является незначимым, если его включение в уравнение регрессии только изменяет значение коэффициентов регрессии, не уменьшая суммы квадратов остатков и не увеличивая их значения. Если при включении в модель соответствующего факторного признака величина множественного коэффициента корреляции увеличивается, а коэффициент регрессии не изменяется (или меняется несущественно), то данный признак существен и его включение в уравнение регрессии необходимо.  [c.118]

Таблица 6.9 содержит условные обозначения рассчитываемых показателей для регрессии, остатка и итога  [c.470]

Q MS — дисперсия, рассчитывается как отношение SS/Df Q F — отношение дисперсии регрессии к дисперсии остатка  [c.471]

Получим более удобные, чем (3.40), формулы для сумм квадратов Q, QR и Qe, не требующие вычисления значений j>,-, обусловленных регрессией, и остатков ef.  [c.102]

Идея теста заключается в том, что абсолютные величины остатков регрессии е/ являются оценками а/, поэтому в случае ге-тероскедастичности абсолютные величины остатков е/ и значения регрессоров х/ будут коррелированы.  [c.159]

Тест Дарбина— Уотсона основан на простой идее если корреляция ошибок регрессии не равна нулю, то она присутствует и в остатках регрессии et, получающихся в результате применения обычного метода наименьших квадратов. В тесте Дарбина— Уотсона для оценки корреляции используется статистика вида  [c.170]

Вернемся к примеру формирования курса ценной бумаги А. Приведенные в 7.8 значения автокорреляционной и частной автокорреляционной функций указывают на то, что модель ARMA остатков регрессии имеет порядок заведомо не выше второго.  [c.180]

Объяснение здесь очень простое тест Дарбина—Уотсона неприменим в том случае, если имеется корреляция между регрессо-рами и ошибками регрессии. В самом деле, идея теста заключается в том, что корреляция ошибок регрессии имеет место в том и только том случае, когда она значимо присутствует в остатках регрессии. Но для того, чтобы это было действительно так, необходимо, чтобы набор значений остатков можно было бы интерпретировать как набор наблюдений ошибок. Между тем это не так, если регрессоры коррелируют с ошибками.  [c.213]

Обозначим через YL = о + bXt прогноз (fitted value) значения Yt в точке Xt. Остатки регрессии et определяются из уравнения  [c.43]

Третье слагаемое в (2.25) равно нулю, так как у — у = е, — вектор остатков регрессии, ортогонален константе г и вектору х (см. J2J)) B самом деле, ег(У4 - F) = е (о + lxt - F) -(а + ЪХ — Y) 5H et + b S etxt = 0- Поэтому верно равенство  [c.51]

Уравнение У = а + (3Xi + e, оценивается методом наименьших квадр атов Остатки регрессии равны i, yt = У - У, Xj = Xi — X, yi = Yi — Y — отклонения от средних. Докажите, что следующие меры качества подгонки совпадают  [c.59]

Графические возможности представляются не очень существенным фактором при выборе пакета. Достаточно иметь графические средства, необходимые для анализа и понимания данных, моделей (например, графики остатков регрессии, автокорреляционная функция остатков, гистограмма остатков и т.п.), а их предоставляют практически все статистические пакеты. Больше внимания, на наш взгляд, следует уделить легкости получения необходимых графиков (например, сразу из меню пострегрессионного анализа) и интерактивным возможностям графического интерфейса (графический курсор, графический редактор и т.д.). Если же для отчета необходима презентационная графика, то лучше обратиться к специализированным графическим пакетам или к мощным табличным процессорам, например к Ex el.  [c.543]

В главе 7 представлены обобщенная линейная модель множественной регрессии и обобщенный метод наименьших квадратов. Исследуется комплекс вопросов, связанных с нарушением предпосылок классической модели регрессии — гетероскедастично-стью и автокоррелированностью остатков временного ряда, их тестированием и устранением, идентификацией временного ряда.  [c.4]

Эконометрика начальный курс (2004) -- [ c.43 , c.51 , c.72 ]