Заметим, что информационная матрица вычисляется при истинном значении 7о- Асимптотическая информационная матрица для 7о определяется как [c.392]
ML-оценка для 70 в нелинейной регрессионной модели (1) получается как решение векторного уравнения /(7) = 0. Информационная матрица имеет вид 7"п(7о) и асимптотическая матрица ковариаций ML-оценки для 7 равна [c.406]
Подсчет информационной матрицы в теореме 8 нужен только как промежуточный результат для получения асимптотической ковариационной матрицы, которая выводится в следующей теореме. [c.434]
Доказательство. Из теоремы 8 мы знаем, как выглядит информационная матрица. Асимптотическая информационная матрица F равна пределу (l/n)Fn при п —> оо. Поэтому [c.435]
Шаг 3. Получение оценок максимального правдоподобия. 1. Так как асимптотическая информационная матрица для описываемой модели равна [c.82]
Заметим, что информационная матрица вычислена в точке истинного значения параметра во. Асимптотическая информационная матрица для параметра во определяется как [c.247]
Таким образом, асимптотическая информационная матрица имеет вид [c.252]
Шестая часть посвящена оценкам максимального правдоподобия, которые, конечно, являются идеальным объектом для демонстрации мощи развиваемой техники. В первых трех главах исследуется несколько моделей, среди которых есть многомерное нормальное распределение, модель с ошибками в переменных и нелинейная регрессионная модель. Рассматриваются методы работы с симметрией и положительной определенностью, специальное внимание уделено информационной матрице. Вторая глава этой части содержит обсуждение одновременных уравнений при условии нормальности ошибок. В ней рассматриваются проблемы оценивания и идентифицируемости параметров при различных (не)линейных ограничениях на параметры. В этой части рассматривается также метод максимального правдоподобия с полной информацией (FIML) и метод максимального правдоподобия с ограниченной информацией (LIML), особое внимание уделено выводу асимптотических ковариационных матриц. Последняя глава посвящена различным проблемам и методам психометрики, в том числе методу главных компонент, мультимодальному компо- [c.16]
Теорема 5 говорит о виде информационной матрицы Fn FIML-оценки , в случае, когда В, Г и XI являются (нелинейными) функциями параметра в. Однако бывает интересна не столько Fn сама по себе, сколько обращение ее предела, известное как асимптотическая ковариационная матрица. Для дальнейшего рассмотрения понадобится предположить кое-что еще относительно функций В, Г и X, а именно предположим, что В и Г зависят от некоего параметра, скажем , функционально независимого от г>(Х). Отметим также, что если и на X есть ограничение, скажем X = Х(сг), где а и независимы, то результат будет менее изящным (см. упр. 3). [c.424]
Такое понижение может осуществляться, например, путем последовательной редукции расширенной модели за счет исключения из нее незначимых (на 10% уровне) запаздывающих разностей (GS-стратегия перехода от общего к частному) или путем сравнения (оцененных) полной и редуцированных моделей с различными р < ртах по информационному критерию Шварца (SI ). В работах [Hall (1994)] и [Ng, Perron (1995)] показано, что если /7тах > ро, то тогда в пределе (при Т —> °°) SI выбирает правильный порядок модели, а стратегия GS выбирает модель с р > ро при этом факт определения порядка модели на основании имеющихся данных не влияет на асимптотическое распределение статистики Дики — Фуллера. Таблицы критических [c.136]