Рассмотрим линейную регрессионную модель (г/, Х(3, а2 V), где /3 удовлетворяет совместным линейным ограничениям R/3 = г. Пусть V Ф 0. Тогда наилучшая линейная несмещенная оценка строго оцениваемой параметрической функции W/3 равна W/3, при этом [c.340]
Рассмотрим схему Гаусса-Маркова (у, Xf3, <т2/), где r(X) = k. В 3 мы получили наилучшую аффинную несмещенную оценку для /3, /3 = (Х Х) 1Х у (оценка Гаусса-Маркова), минимизируя квадратичную форму (след ковариационной матрицы оценки) при линейном ограничении (несмещенность). В 4 мы показали, что оценка Гаусса— Маркова может быть также получена минимизацией (у — Х(3) (у — Х/3) по всем /3 из R. Тот факт, что метод наименьших квадратов (который является методом аппроксимации, а не оценивания) приводит к наилучшим аффинным оценкам, является довольно неожиданным и, конечно, не тривиальным. [c.355]
Г. Крамер [18.336—337] пишет Корреляция между величинами i, и характеризуется коэффициентом корреляции р12, который иногда называется также полным коэффициентом корреляции j и 2. Если рассматривать t и 2 совместно с остальными п—2 величинами 3,. .., , то можно считать, что изменение величин t и 2 вызывается в какой-то мере изменением остальных величин. Остатки rjj 34 / " и Па. 34 я представляют. .. те части величин j и 2, которые остаются после вычитания из них их наилучших линейных оценок величинами 3,. .., . Таким образом, коэффициент корреляции между этими двумя остатками можно рассматривать как характеристику корреляции между величинами и 2 после устранения изменений, вызванных влиянием, 3, > п- Он называется частным. [c.8]
Метод, используемый чаще других для нахождения параметров уравнения регрессии и известный как метод наименьших квадратов, дает наилучшие линейные несмещенные оценки. Он называется так потому, что при расчете параметров прямой линии, которая наиболее соответствует фактическим данным, с помощью этого метода стараются найти линию, минимизирующую сумму квадратов значений ошибок или расхождений между величинами Y, которые рассчитаны по уравнению прямой и обозначаются Y, и фактическими наблюдениями. Это показано на рис. 6.2. [c.265]
В случае когда Vb известны и Мп определенное (7.67), начиная с некоторого п, имеет полный ранг, наилучшая линейная оценка для в имеет вид [1171 [c.232]
В соответствии с 115] (случай коррелированных наблюдений) наилучшие линейные оценки имеют следующий вид [c.247]
Отсюда следует, что с ростом п роль "прошлой информации" Н = J (.. . , n i, Q) в предсказании значений величины hn становится "все меньше и меньше" и в пределе (п — > оо) в качестве наилучшей линейной оценки надо брать просто математическое ожидание, т.е. О в рассматриваемом случае. [c.177]
Модель (7.5) является линейной моделью, подробно рассмотренной в гл. 4, 5. Если все необходимые предпосылки классической линейной регрессионной модели для (7.5) выполнены, то по МНК можно определить наилучшие линейные несмещенные оценки коэффициентов ро и р. [c.182]
Следовательно, для преобразованной модели (8.10) выполняются предпосылки 1° - 5° МНК. В этом случае оценки, полученные по МНК, будут наилучшими линейными несмещенными оценками. [c.220]
Так как по предположению коэффициент р известен, то очевидно, yt, xt, ut вычисляются достаточно просто. В силу того, что случайные отклонения ut удовлетворяют предпосылкам МНК, то оценки ро и pi будут обладать свойствами наилучших линейных несмещенных оценок. [c.237]
Далее мы установим, что оценки, полученные методом наименьших квадратов, представляют собой наилучшие линейные несмещенные оценки, т. е. что в классе всех линейных несмещенных операторов оценивания оценки наименьших квадратов обладают наименьшей дисперсией. Определим произвольную линейную оценку параметра (5 как [c.29]
Доказательство только что установленного факта можно получить иным способом, взяв сразу же наилучшие линейные несмещенные оценки и показав их совпадение с оценками наименьших квадратов. Этот подход иллюстрирует метод, который будет плодотворно применяться при решении последующих задач. При тех же предположениях (2.5), что и прежде, определим. [c.30]
Итак, мы доказали, что оцека Ь метода наименьших квадратов является наилучшей линейной оценкой параметра р. Перейдем теперь к оценке еще одного параметра — дисперсии возмущений ст2. [c.95]
Замечание. Фактически теорема 2 обобщает теорему 1 в двух направлениях. Во-первых, рассматривается более общий вид ковариационной матрицы для у, а именно
Какие оценки называются наилучшими линейными несмещенными (BLUE-оценками) [c.86]
Это позволяет получать не только наилучшие линейные несмещенные точечные оценки (BLUE) bo и bi коэффициентов р0 и pi линейного уравнения регрессии, но и находить их интервальные оценки, что дает определенные гарантии точности. [c.123]
В чем суть наилучших линейных несмещенных оценок (BLUE) [c.135]
Как отмечалось в разделе 5.1, при рассмотрении классической линейной регрессионной модели МНК дает наилучшие линейные несмещенные оценки (BLUE-оценки) лишь при выполнении ряда предпосылок, одной из которых является постоянство дисперсии отклоне- [c.212]
Оценки параметров, оставаясь линейными и несмещенными, перестают быть эффективными. Следовательно, они перестают обладать свойствами наилучших линейных несмещенных оценок (BLUE-оценок). [c.230]
Как известно, при выполнении определенных предпосылок МНК дает наилучшие линейные несмещенные оценки (BLUE-оценки). Причем свойство несмещенности и эффективности оценок остается в силе даже, если несколько коэффициентов регрессии оказываются статистически незначимыми. Однако несмещенность фактически означает лишь то, что при многократном повторении наблюдений (при постоянных объемах выборок) за исследуемыми величинами средние значения оценок стремятся к их истинным значениям. К сожалению, повторять наблюдения в одинаковых условиях в экономике практически невозможно. Поэтому это свойство ничего не гарантирует в каждом конкретном случае. Наименьшая возможная дисперсия вовсе не означает, что дисперсия оценок будет мала по сравнению с самими оценками. В ряде случаев такая дисперсия достаточно велика, чтобы оценки коэффициентов стали статистически незначимыми. [c.247]
Однако если для моделей данного типа использовать обыкновенный МНК, то оценки, получаемые с его помощью, не обладают свойствами наилучших линейных несмещенных оценок (BLUE). Поэтому для определения коэффициентов в этом случае используются другие методы. [c.268]
В случае когда n x n нормированная1 матрица ковариаций fi полностью известна, то, как было показано в разделе 5.2, наилучшая линейная несмещенная оценка (а также оценка максимального правдоподобия для J3) задается формулой (см. (5.4)) [c.160]
Мы предпочитаем оценки коэффициентов регрессии у г, которые эффективны и для которых можно проверить значимость. Оценки эффективны, если они являются наилучшими линейными несмещенными оценками (НЛНО). Термин наилучшие относится к свойству минимальности дисперсии. Оценки обобщенного МНК, будут такими оценками (НЛНО), но они требуют знания ковариационной матрицы ошибок наблюдений (2г и 2 в (2.8) и (2.17) в дополнении 2). К сожалению, нам ковариационная матрица неизвестна. Мы можем оценить элементы этой матрицы. (Ее диагональные элементы, т. е. дисперсии, оцениваются величинами sfr, обобщенный МНК для системы уравнений также требует оценивания ковариаций эти ковариации не оценивались в данном эксперименте, но они оценивались в дополнительном эксперименте.) Замена ковариационной матрицы в обобщенном методе ковариационной матрицей оценок позволяет получить несмещенные оценки 7о-> но эти оценки не лучше оценок (НЛНО). Мы не знаем, имеют ли они еще и меньшую дисперсию, чем обычные МНК-оценки (сравните с литературой)9. Мы знаем, что МНК-оценки обладают преимуществом простоты вычислений, поскольку при ортогональной матрице независимых переменных не нужна обратная матрица. Обращение матрицы с помощью ЭВМ может приводить к значительным ошибкам [c.300]
Простой метод наименьших квадратов для одного уравнения регрессии, т. е. мы пренебрегаем неоднородностью дисперсий и существованием более чем одного уравнения регрессии. Тогда наилучшей линейной несмещенной оценкой (НЛНО) будет простая, или обычная, оценка по методу наименьших квадратов (МНК-оценка). Регрессионные уравнения (76) в матричной записи имеют вид [c.311]
Эти оценки имеют при фиксированных значениях yit и xit нормальное распределение и являются наилучшими линейными несмещенными оценками (BLUE). [c.226]