Классическая модель регрессии нормальная

Классическая нормальная линейная модель множественной регрессии  [c.82]

Как уже отмечено в 4.1, модель (4.2), удовлетворяющая приведенным предпосылкам 1—6, называется классической нормальной линейной моделью множественной регрессии если же среди приведенных не выполняется лишь предпосылка 5 о нормальном законе распределения вектора возмущений е, то модель (4.2) называется просто классической линейной моделью множественной регрессии.  [c.87]


Таким образом, критерий Jarque - Bera можно использовать не только в рамках классической модели регрессии (с фиксированными значениями объясняющих переменных), но и для проверки нормальности инноваций в моделях временных рядов, помня, конечно, о том, что это всего лишь асимптотический критерий. Для улучшения приближения статистики критерия распределением хи-квадрат, в пакете EVIEWS в статистике критерия вместо множителя Т используется множитель (Т- К), где К -количество коэффициентов, оцениваемых при построении модели исследуемого ряда.  [c.52]

Модели AR H и GAR H удовлетворяют всем условиям классической модели, и метод наименьших квадратов позволяет получить оптимальные линейные оценки. В то же время можно получить более эффективные нелинейные оценки методом максимального правдоподобия. В отличие от модели с независимыми нормально распределенными ошибками регрессии в AR H-модели оценки максимального правдоподобия отличаются от оценок, полученных методом наименьших квадратов.  [c.217]


В цитированной работе доказывается асимптотическая нормальность соответствующим образом нормированной оценки наименьших квадратов для вектора (а, /J)T. Если ряд UI KQ является процессом белого шума, то для применения этого результата необходимо скорректировать значения -статистик, вычисляемых по стандартным формулам, соответствующим предположениям классической линейной модели регрессии.  [c.207]

Одним из условий классической регрессионной модели является предположение о линейной независимости объясняющих переменных, что означает линейную независимость столбцов матрицы регрессоров X или (эквивалентно) что матрица (Х Х) 1 имеет полный ранг k. При нарушении этого условия, т. е. когда один из столбцов матрицы X есть линейная комбинация остальных столбцов, говорят, что имеет место полная коллинеарность. В этой ситуации нельзя построить МНК-оценку параметра (3, что формально следует из сингулярности матрицы X X и невозможности решить нормальные уравнения. Нетрудно также понять и содержательный смысл этого явления. Рассмотрим следующий простой пример регрессии (Greene, 1997) С = fa + faS + foN + /34Т + е, где С — потребление, S — зарплата, N — доход, получаемый вне работы, Т — полный доход. Поскольку выполнено равенство Т = S + N, то для произвольного числа h исходную регрессию можно переписать в следующем виде С = (3i+/3 2S+/3 3iN+/3 4T-1r , где / 2 = 02 + h, /% = Рз + h, /3 4 = 04 — h. Таким образом, одни и те же наблюдения могут быть объяснены различными наборами коэффициентов /3. Эта ситуация тесно связана с проблемой идентифицируемости системы, о чем более подробно будет говориться позднее. Кроме того, если с учетом равенства Т — S + N переписать исходную систему в виде С = fa + (/% + 0 )S + (/Зз + /3 )N + е, то становится ясно, что оценить можно лишь три параметра fa, (Дз + Д ) и (/ 3 + /3[c.109]


Смотреть страницы где упоминается термин Классическая модель регрессии нормальная

: [c.82]    [c.548]   
Эконометрика (2002) -- [ c.61 ]