Сравнивая обобщенную модель с классической ( 4.2), видим, что она отличается от классической только видом ковариационной матрицы вместо ]Г Е= а2Е для [c.151]
В заключение отметим, что для применения обобщенного метода наименьших квадратов необходимо знание ковариационной матрицы вектора возмущений Q, что встречается крайне редко в практике эконометрического моделирования. Если же считать все я(л+1)/2 элементов симметричной ковариационной матрицы Q неизвестными параметрами обобщенной модели (в дополнении к (р+l) параметрам (3/), то общее число параметров значительно превысит число наблюдений я, что сделает оценку этих параметров неразрешимой задачей. Поэтому для практической реализации обобщенного метода наименьших квадратов необходимо вводить дополнительные условия на структуру матрицы Q. Так мы приходим к практически реализуемому (или доступному) обобщенному методу наименьших квадратов, рассматриваемому в 7.11. [c.155]
Определитель var(x) часто называют обобщенной дисперсией х. Ковариационная матрица для случайной матрицы X размера т х п определяется как матрица ковариации для ve X. Заметим, что ее порядок равен тп. [c.310]
Указанный тип уравнения — единственный, для которого может быть построен алгоритм нахождения оценок максимального правдоподобия и точечного прогноза (см. [16, 24 — 25]). Однако и для этого вида уравнений неприменимы методы ковариационного анализа (см. [16]), а экспериментальные оценки методом Монте-Карло в [24] привели к заключению о наибольшей пригодности двухшагового метода обобщенных наименьших квадратов. Но фактические вычисления [25] — правда, по более сложным типам моделей — не подтвердили в столь категорической форме этого вывода. С другой стороны, как следует из анализа аналогичной проблемы для регрессионных уравнений с текущими значениями переменных [16], двухшаговые процедуры даже в этом более простом случае не приводят хотя бы к асимптотическим оценкам наибольшего правдоподобия. [c.81]
Является ли правильным следующее доказательство несмещенности оценок обобщенного МНК с использованием оценки ковариационной матрицы [c.314]
Эффективную оценку можно было бы получить, используя здесь вместо OLS обобщенный метод наименьших квадратов, (GLS), но для этого надо знать ковариационную матрицу вектора е. Поскольку же эта матрица неизвестна, мы можем довольствоваться только ее оценкой, и такая оценка должна быть состоятельной, если мы хотим получить в итоге асимптотически эффективную оценку вектора д. [c.168]
В многомерной ситуации обобщенная дисперсия есть определитель ковариационной матрицы. Подход Навара состоит в минимизации обобщенного второго момента. [c.391]
Применение формулы (7.28) для отыскания параметра р, т. е. обобщенный метод наименьших квадратов для модели с гете-роскедасттностъю, когда ковариационная матрица возмущений ZE= есть диагональная матрица (7.26), называется взвешенным методом наименьших квадратов. [c.164]
Замечание. Фактически теорема 2 обобщает теорему 1 в двух направлениях. Во-первых, рассматривается более общий вид ковариационной матрицы для у, а именно
Эта глава посвящена изучению двух важных классов обобщенных регрессионных моделей. Первый составляют модели с гетероске-дастичностью. Этот термин применяется в ситуации, когда матрица ковариаций вектора ошибок является диагональной, но элементы главной диагонали, вообще говоря, различны. Иными словами, ошибки в разных наблюдениях некоррелированы, но их дисперсии — разные. Модели второго класса, как правило, используются при анализе данных, имеющих характер временных рядов. В этих случаях часто приходится принимать во внимание то обстоятельство, что наблюдения в разные моменты времени статистически зависимы (типичный пример — ежедневный обменный курс доллара по отношению к рублю). Следовательно, ошибки, относящиеся к разным наблюдениям (разным моментам времени), могут быть коррелированы, и ковариационная матрица вектора ошибок не является диагональной. Формально проблему оценивания неизвестных параметров решает обобщенный метод наименьших квадратов, рассмотренный в предыдущей главе. Однако, как там отмечалось, его применение требует знания матрицы ковариаций П вектора ошибок, что бывает крайне редко. Поэтому, помимо те- [c.167]
Мы предпочитаем оценки коэффициентов регрессии у г, которые эффективны и для которых можно проверить значимость. Оценки эффективны, если они являются наилучшими линейными несмещенными оценками (НЛНО). Термин наилучшие относится к свойству минимальности дисперсии. Оценки обобщенного МНК, будут такими оценками (НЛНО), но они требуют знания ковариационной матрицы ошибок наблюдений (2г и 2 в (2.8) и (2.17) в дополнении 2). К сожалению, нам ковариационная матрица неизвестна. Мы можем оценить элементы этой матрицы. (Ее диагональные элементы, т. е. дисперсии, оцениваются величинами sfr, обобщенный МНК для системы уравнений также требует оценивания ковариаций эти ковариации не оценивались в данном эксперименте, но они оценивались в дополнительном эксперименте.) Замена ковариационной матрицы в обобщенном методе ковариационной матрицей оценок позволяет получить несмещенные оценки 7о-> но эти оценки не лучше оценок (НЛНО). Мы не знаем, имеют ли они еще и меньшую дисперсию, чем обычные МНК-оценки (сравните с литературой)9. Мы знаем, что МНК-оценки обладают преимуществом простоты вычислений, поскольку при ортогональной матрице независимых переменных не нужна обратная матрица. Обращение матрицы с помощью ЭВМ может приводить к значительным ошибкам [c.300]