Информационная матрица

Умножив исходную матрицу на транспонированную слева, получаем информационную матрицу.  [c.164]

Как видим, информационная матрица является диагональной. Это значит, что система нормальных уравнений распадается на ряд независимых векторов-строчек и, значит, коэффициенты регрессии вычисляются независимо друг от друга.  [c.167]


При планировании второго порядка и выше информационная матрица уже не является диагональной. Например, рассматриваем зависимость вида  [c.168]

Вычисляем информационную матрицу, для чего транспонированную матрицу умножаем на исходную  [c.188]

Если было бы применено ортогональное центральное композиционное планирование, то информационная матрица была бы строго диагональной.  [c.188]

При проведении вторичных исследований значимость внутренней или внешней информации определяется в зависимости от целей и объекта исследования. Ряд отечественных и зарубежных информационных изданий предлагает для выбора источников информации при проведении вторичных исследований маркетинговых мероприятий применять информационную матрицу, в которой показана возможность (вероятность) использования внутренней и внешней информации в зависимости от некоторых объектов исследования.  [c.39]


Метод максимального правдоподобия интуитивно привлекателен и дает оценки с желаемыми асимптотическими свойствами. Оценки получаются в результате максимизации функции правдоподобия, и их асимптотическая точность измеряется с помощью обратной информационной матрицы. В связи с этим необходимо найти как первый, так и второй дифференциалы функции правдоподобия, что послужит прекрасной иллюстрацией применения нашей техники.  [c.391]

Заметим, что информационная матрица вычисляется при истинном значении 7о- Асимптотическая информационная матрица для 7о определяется как  [c.392]

Таким образом, информационной матрицей для /л0 и i (fto) будет Тп = nJ-, где  [c.398]

Информационная матрица для ve BQ и г (Л0) выглядит следующим образом  [c.401]

Информационная матрица и обратная к ее пределу легко получаются из (18).  [c.402]

ML-оценка для 70 в нелинейной регрессионной модели (1) получается как решение векторного уравнения /(7) = 0. Информационная матрица имеет вид 7"п(7о) и асимптотическая матрица ковариаций ML-оценки для 7 равна  [c.406]

Информационная матрица для /30 and о имеет вид. Fn(/3o, OQ), где  [c.408]

В теореме 6 предполагалось, что и //, и П зависят от всех параметров системы, в теореме 7 полагалось, что ц, зависит от параметров /3, а П зависит от параметров , и в то же время ц, не зависит от , а П — от /3. В наиболее общем случае, который рассматривается в этом параграфе, предполагается, что (3 и О могут частично пересекаться. Следующие две теоремы дают условия первого порядка и информационную матрицу для этого случая.  [c.409]

Информационная матрица для /Зо, Со и о в нелинейной регрессионной модели (1) имеет вид Рп(/3о, Со, о), где  [c.410]

Доказательство. Структура информационной матрицы следует из теоремы 6 и равенства (10.3). Обратная матрица ее предела получается из теоремы 1.3.  [c.411]


Сначала найдем информационную матрицу для общего случая, когда каждый элемент В, Г и S является известной функцией некоторого векторного параметра 0.  [c.422]

Тогда информационная матрица J-n(9o), определенная как  [c.422]

Если в условиях теоремы 7 положить тг = ve П и г/ = (Ф), то информационная матрица в терминах параметризации (а, тг, г/ ) будет равна  [c.431]

Подсчет информационной матрицы в теореме 8 нужен только как промежуточный результат для получения асимптотической ковариационной матрицы, которая выводится в следующей теореме.  [c.434]

Доказательство. Из теоремы 8 мы знаем, как выглядит информационная матрица. Асимптотическая информационная матрица F равна пределу (l/n)Fn при п —> оо. Поэтому  [c.435]

Внесите показания TWR в левую часть колонки, в строки покупки и продажи, а данные по MA D Profitunity с периодами 5/34/5 - в правую часть колонки, в строки покупок и продаж (Рисунок 10-5). Так создается информационная матрица "Ритма", которая содержит четыре части информации о движущей силе. Левая часть будет иметь стрелку наверх, стрелку вниз, либо ноль, а правая часть будет содержать только стрелку вверх или стрелку вниз.  [c.147]

Как видим, информационная матрица ХтХцля ортогонального планирования второго порядка не является диагональной, что затрудняет вычисление коэффициентов регрессии.  [c.171]

Шестая часть посвящена оценкам максимального правдоподобия, которые, конечно, являются идеальным объектом для демонстрации мощи развиваемой техники. В первых трех главах исследуется несколько моделей, среди которых есть многомерное нормальное распределение, модель с ошибками в переменных и нелинейная регрессионная модель. Рассматриваются методы работы с симметрией и положительной определенностью, специальное внимание уделено информационной матрице. Вторая глава этой части содержит обсуждение одновременных уравнений при условии нормальности ошибок. В ней рассматриваются проблемы оценивания и идентифицируемости параметров при различных (не)линейных ограничениях на параметры. В этой части рассматривается также метод максимального правдоподобия с полной информацией (FIML) и метод максимального правдоподобия с ограниченной информацией (LIML), особое внимание уделено выводу асимптотических ковариационных матриц. Последняя глава посвящена различным проблемам и методам психометрики, в том числе методу главных компонент, мультимодальному компо-  [c.16]

Первое доказательство теоремы 1 показывает, что даже если мы не предполагаем симметричности (или положительной определенности) матрицы П, решение И будет симметрично и неотрицательно определено (на самом деле, положительно определено с вероятностью 1). Поэтому нет никакого смысла предполагать симметрию на этом шаге. Тем не менее мы приводим два доказательства теоремы 1, где используется симметричность. Эти результаты нам понадобятся при обсуждении условий второго порядка (матрица Гессе и информационная матрица).  [c.394]

Чтобы получить информационную матрицу, мы должны принять во внимание симметричность П, явно или неявно. Будем предпочитать неявный подход с использованием дуплицирующей матрицы.  [c.396]

МЕТОД МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ ПРИ ПОЛНОЙ ИНФОРМАЦИИ (FIML) ИНФОРМАЦИОННАЯ МАТРИЦА (ОБЩИЙ СЛУЧАЙ)  [c.422]

Теорема 5 говорит о виде информационной матрицы Fn FIML-оценки , в случае, когда В, Г и XI являются (нелинейными) функциями параметра в. Однако бывает интересна не столько Fn сама по себе, сколько обращение ее предела, известное как асимптотическая ковариационная матрица. Для дальнейшего рассмотрения понадобится предположить кое-что еще относительно функций В, Г и X, а именно предположим, что В и Г зависят от некоего параметра, скажем , функционально независимого от г>(Х). Отметим также, что если и на X есть ограничение, скажем X = Х(сг), где а и независимы, то результат будет менее изящным (см. упр. 3).  [c.424]

МЕТОД МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ ПРИ ОГРАНИЧЕННОЙ ИНФОРМАЦИИ (LIML) ИНФОРМАЦИОННАЯ МАТРИЦА  [c.431]

Имея условия первого порядка для LIML-оценок из предыдущего пункта, можно понять, как выглядит информационная матрица.  [c.431]

Матричное дифференциальное исчисление с приложениями к статистике и эконометрике (2002) -- [ c.392 ]

Эконометрика начальный курс (2004) -- [ c.247 ]