Оценка наименьших квадратов обобщенная

Сам процесс оценки начинается с перехода к обобщенной оценке наименьших квадратов, а последний — с выбора инструментальных переменных. Если вводятся инструментальные переменные  [c.74]


Окончание шага 36 показывает, что переход от двухшаговой процедуры к трехшаговой позволяет найти обобщенные оценки наименьших квадратов, идентичные по своим свойствам оценкам наибольшего правдоподобия, и,  [c.77]

Следовательно, шаг 4 заключается в вычислении (50), (53), (59) — (60). Таким образом, для регрессионных уравнений первого порядка с запаздывающей переменной продолжение итеративного процесса от первичных обобщенных оценок наименьших квадратов приводит к асимптотическим оценкам наибольшего правдоподобия, а последующее применение техники оценки ошибки спецификации дает возможность получить оценки и доверительные интервалы прогноза также и при наличии ошибок в переменных.  [c.80]

Обобщенная оценка наименьших квадратов (GLS-оценка) вектора в находится по формуле  [c.228]

Мы можем ожидать, что обобщенная оценка наименьших квадратов (GLS-оценка), учитывающая такую коррелированность,  [c.251]

Обобщенные оценки наименьших квадратов 207  [c.440]

Оценка Ь, определенная по (4.8), хотя и будет состоятельной, но не будет оптимальной в смысле теоремы Гаусса— Маркова. Для получения наиболее эффективной оценки нужно использовать другую оценку, получаемую так называемым обобщенным методом наименьших квадратов.  [c.152]


При выполнении предпосылки 5 о нормальном законе распределения вектора возмущений е можно убедиться в том, что оценка Ь обобщенного метода наименьших квадратов для параметра р при известной матрице Q совпадает с его оценкой, полученной методом максимального правдоподобия.  [c.154]

В заключение отметим, что для применения обобщенного метода наименьших квадратов необходимо знание ковариационной матрицы вектора возмущений Q, что встречается крайне редко в практике эконометрического моделирования. Если же считать все я(л+1)/2 элементов симметричной ковариационной матрицы Q неизвестными параметрами обобщенной модели (в дополнении к (р+l) параметрам (3/), то общее число параметров значительно превысит число наблюдений я, что сделает оценку этих параметров неразрешимой задачей. Поэтому для практической реализации обобщенного метода наименьших квадратов необходимо вводить дополнительные условия на структуру матрицы Q. Так мы приходим к практически реализуемому (или доступному) обобщенному методу наименьших квадратов, рассматриваемому в 7.11.  [c.155]

Для получения наиболее эффективных оценок параметра р в такой модели, если параметр р известен, можно применить обобщенный метод наименьших квадратов.  [c.183]

Таким образом, оценкой доступного обобщенного метода наименьших квадратов вектора р есть  [c.187]

Анализируя систему (7.50)—(7.52), видим, что оценки Р и ст2 метода максимального правдоподобия совпадают с оценками Ь и 52 обобщенного метода наименьших квадратов (правда, если  [c.187]

Для практического применения обобщенного метода наименьших квадратов следует оценить матрицу . Это можно сделать, применив метод наименьших квадратов сначала к уравнениям (9.18), (9.19) по отдельности, найти остатки регрессии и принять в качестве оценок матриц Z/, выборочные ковариации 6v(e,,e7). Очевидно, эти оценки будут состоятельными.  [c.237]


При несоблюдении основных предпосылок МНК приходится корректировать модель, изменяя ее спецификацию, добавлять (исключать) некоторые факторы, преобразовывать исходные данные для того, чтобы получить оценки коэффициентов регрессии, которые обладают свойством несмещенности, имеют меньшее значение дисперсии остатков и обеспечивают в связи с этим более эффективную статистическую проверку значимости параметров регрессии. Этой цели, как уже указывалось, служит и применение обобщенного метода наименьших квадратов, к рассмотрению которого мы и переходим в п. 3.11.  [c.169]

Обобщенный метод наименьших квадратов применяется к преобразованным данным и позволяет получать оценки, которые обладают не только свойством несмещенности, но и имеют мень-  [c.169]

Шаг 2. С помощью определения я(1 из (6) и (11), г1 из (3) оценивается первое приближение nсостоятельная оценка обобщенного метода наименьших квадратов.  [c.76]

Формула (49) и позволяет начать шаг 4а, заменив Х1г на инструментальную переменную W,, и получив оценку обобщенного метода наименьших квадратов  [c.79]

Указанный тип уравнения — единственный, для которого может быть построен алгоритм нахождения оценок максимального правдоподобия и точечного прогноза (см. [16, 24 — 25]). Однако и для этого вида уравнений неприменимы методы ковариационного анализа (см. [16]), а экспериментальные оценки методом Монте-Карло в [24] привели к заключению о наибольшей пригодности двухшагового метода обобщенных наименьших квадратов. Но фактические вычисления [25] — правда, по более сложным типам моделей — не подтвердили в столь категорической форме этого вывода. С другой стороны, как следует из анализа аналогичной проблемы для регрессионных уравнений с текущими значениями переменных [16], двухшаговые процедуры даже в этом более простом случае не приводят хотя бы к асимптотическим оценкам наибольшего правдоподобия.  [c.81]

При исследовании параметрических моделей регрессии наиболее распространенным типом оптимизируемого (с целью нахождения оценок неизвестных значений параметров регрессии) критерия адекватности модели является взвешенный (или обобщенный) критерий наименьших квадратов (см. (9.1), (9.2)). Следует стремиться к построению таких вычислительных алгоритмов решения оптимизационных задач, которые  [c.318]

Применяя к (14.32) обобщенный метод наименьших квадратов, получаем оценку  [c.419]

Обобщенный метод наименьших квадратов. Ответ на вопрос об эффективной линейной несмещенной оценке вектора (3 для модели (5.3) дает следующая теорема.  [c.156]

Шаг 3. Используется существующая для спецификации гг в виде (3) эквивалентность обобщенных оценок наименьших квадратов и оценок Кокрэна — Оркатта (см. их определение, например, в [19]), позволяющая записать уравнение (1) — (3) при q = v = 0 в виде, пригодном для быстрого итеративного нахождения А, и Р  [c.76]

Отсюда название метода - обобщенный метод наименьших квадратов. Сама оценка 9 называется обобщенной оценкой наименьших квадратов (GLS - generalized least squares).  [c.106]

Таким образом, обобщенная оценка наименьших квадратов J3GLS в RE-модели учитывает и внутригрупповую и межгрупповую изменчивость. Она является взвешенным средним "межгрупповой" оценки /Зь (учитывающей только межгрупповую изменчивость) и  [c.253]

Обобщенные оценки наименьших квадратов Эйткена  [c.207]

Как и в случае любой обобщенной модели множественной регрессии, метод наименьших квадратов при наличии коррели-рованности ошибок регрессии дает несмещенные и состоятельные (хотя, разумеется, неэффективные) оценки коэффициентов  [c.169]

Если удастся построить АКМ4-модель для ряда остатков, то можно получить эффективные оценки параметра р, а также несмещенные и состоятельные оценки дисперсий р с помощью обобщенного метода наименьших квадратов. Мы рассмотрим эту процедуру на простейшей (и в то же время наиболее часто встречающейся) авторегрессионной модели первого порядка.  [c.181]

Использование AR H- и СЛЛСЯ-моделей оказывается в ряде случаев экономико-математического моделирования (например, процессов инфляции и внешней торговли, механизмов формирования нормы процента и т. п.) более адекватным действительности, что позволяет строить более эффективные оценки параметров рассматриваемых моделей по сравнению с оценками, полученными обычным и даже обобщенным методом наименьших квадратов.  [c.217]

Замечание. Фактически теорема 2 обобщает теорему 1 в двух направлениях. Во-первых, рассматривается более общий вид ковариационной матрицы для у, а именно аффинная несмещенная оценка для /3 имеет вид /3 = (X V lX) lX V ly, если r(X) = k. Оценка /3 обычно называется оценкой Айткена (или оценкой по обобщенному методу наименьших квадратов). Во-вторых, доказывается, что наилучшей аффинной несмещенной оценкой произвольной линейной комбинации W/3 компонент вектора /3 является W/3.  [c.327]

Если вектор ошибок е имеет многомерное нормальное распределение, то можно проверить, что оценка вектора /9, получаемая с помощью обобщенного метода наименьших квадратов, совпадает с оценкой максимального правдоподобия (естественно, при известной матрице fi) /SQLS ftwL-  [c.158]

Эконометрика (2002) -- [ c.13 ]

Экономика для начинающих (2005) -- [ c.106 ]