Доказательство теоремы Гаусса—Маркова в общем виде приведено в 4.4. [c.62]
Теорема Гаусса— Маркова, рассмотренная выше для парной регрессионной модели, оказывается верной и в общем виде для модели (4.2) множественной регрессии [c.87]
Не включая предпосылку 5 — требование нормальности закона распределения вектора возмущений Е, которая в теореме Гаусса—Маркова не требуется. [c.87]
Доказательство теоремы Гаусса— Маркова. Оценка дисперсии возмущений [c.94]
Теперь мы имеем возможность привести доказательство теоремы Гаусса— Маркова, сформулированной в 4.2. [c.94]
Оценки, определяемые вектором (4.8), обладают в соответствии с теоремой Гаусса—Маркова минимальными дисперсиями в классе всех линейных несмещенных оценок, но при наличии мультиколлинеарности эти дисперсии могут оказаться слишком большими, и обращение к соответствующим смещенным оценкам может повысить точность оценивания параметров регрессии. На рис. 5.1 показан случай, когда смещенная оценка Ру, [c.110]
Оценка Ь, определенная по (4.8), хотя и будет состоятельной, но не будет оптимальной в смысле теоремы Гаусса— Маркова. Для получения наиболее эффективной оценки нужно использовать другую оценку, получаемую так называемым обобщенным методом наименьших квадратов. [c.152]
Следовательно, на основании теоремы Гаусса— Маркова наиболее эффективной оценкой в классе всех линейных несмещенных оценок является оценка (4.8), т. е. [c.154]
Напомним также ( 7.1), что оценка Ь (7.16), оставаясь несмещенной и состоятельной, не будет оптимальной в смысле теоремы Гаусса— Маркова, т. е. наиболее эффективной. Это означает, что при небольших выборках мы рискуем получить оценку Ь, существенно отличающуюся от истинного параметра р. [c.157]
ТЕОРЕМА ГАУССА-МАРКОВА [c.322]
Теорема Гаусса- Маркова 323 [c.323]
Теорема Гаусса- Маркова 325 [c.325]
Теорема Гаусса-Маркова. Если предпосылки 7 -5 выполнены, то оценки, полученные по МНК, обладают следующими свойствами [c.115]
Теорема Гаусса-Маркова. Оценка дисперсии ошибок сг2 [c.41]
Теорема Гаусса-Маркова. В предположениях модели 1-ЗаЬ [c.41]
Итак, теперь у нас есть наилучшие (в смысле теоремы Гаусса-Маркова) оценки коэффициентов регрессии а, Ь. Однако в регрессионном уравнении есть еще один параметр — дисперсия оши- [c.43]
Метод наименьших квадратов. Теорема Гаусса-Маркова 69 [c.69]
Теорема Гаусса-Маркова. Предположим, что [c.70]
Пусть истинная модель, yt = fa Ч- а+ 3 3+ 41 4 + 1 удовлетворяет условиям теоремы Гаусса-Маркова. Оценки /3, fa, fa являются МНК-оценками в регрессии у на ж2 и жз. Покажите, что [c.98]
Известно, что процесс, порождающий данные (истинная модель), описывается классической линейной моделью регрессии у = Х(3 + е. Оценка /Зй получается регрессией у на X (МНК-оценка) при ограничении Hf3 = г. Найдите матрицу ковариаций V(/3R) и сравните ее с матрицей ковариаций V(/3) — МНК-оценки в регрессии без ограничений. Как полученный вами результат соотносится с теоремой Гаусса-Маркова [c.99]
Нетрудно также доказать соответствующий вариант теоремы Гаусса-Маркова, а именно, что среди всех линейных условно несмещенных оценок вектора /3 его МНК-оценка обладает наименьшей условной ковариационной матрицей. Итак, при выполнении условий 1), 2), 3) МНК-оценка в модели со стохастическими регрессорами обладает свойствами, аналогичными свойствам МНК-оценки в классической модели. [c.151]
Гаусса-Маркова теорема, 324 Главные компоненты, 443 [c.488]
Гаусса — Маркова теорема о наи-. меньших квадратах 31, 32 Гетероскедастичность возмущений [c.439]
Тейла — Нагара гипотезы 2 Тейла процедура проверки корреляцию 253 Текущие переменные 13 Теорема Гаусса — Маркова [c.441]