Метод, используемый чаще других для нахождения параметров уравнения регрессии и известный как метод наименьших квадратов, дает наилучшие линейные несмещенные оценки. Он называется так потому, что при расчете параметров прямой линии, которая наиболее соответствует фактическим данным, с помощью этого метода стараются найти линию, минимизирующую сумму квадратов значений ошибок или расхождений между величинами Y, которые рассчитаны по уравнению прямой и обозначаются Y, и фактическими наблюдениями. Это показано на рис. 6.2. [c.265]
Модель (7.5) является линейной моделью, подробно рассмотренной в гл. 4, 5. Если все необходимые предпосылки классической линейной регрессионной модели для (7.5) выполнены, то по МНК можно определить наилучшие линейные несмещенные оценки коэффициентов ро и р. [c.182]
Следовательно, для преобразованной модели (8.10) выполняются предпосылки 1° - 5° МНК. В этом случае оценки, полученные по МНК, будут наилучшими линейными несмещенными оценками. [c.220]
Так как по предположению коэффициент р известен, то очевидно, yt, xt, ut вычисляются достаточно просто. В силу того, что случайные отклонения ut удовлетворяют предпосылкам МНК, то оценки ро и pi будут обладать свойствами наилучших линейных несмещенных оценок. [c.237]
Далее мы установим, что оценки, полученные методом наименьших квадратов, представляют собой наилучшие линейные несмещенные оценки, т. е. что в классе всех линейных несмещенных операторов оценивания оценки наименьших квадратов обладают наименьшей дисперсией. Определим произвольную линейную оценку параметра (5 как [c.29]
Доказательство только что установленного факта можно получить иным способом, взяв сразу же наилучшие линейные несмещенные оценки и показав их совпадение с оценками наименьших квадратов. Этот подход иллюстрирует метод, который будет плодотворно применяться при решении последующих задач. При тех же предположениях (2.5), что и прежде, определим. [c.30]
При условии, что значения л известны, предпочтительнее оценивать b по формуле (7.26), нежели пользоваться оценкой, найденной обыкновенным методом наименьших квадратов р из (7.30), поскольку первая формула дает наилучшую линейную несмещенную оценку. По- [c.214]
Предложенный метод требует ответа на ряд вопросов. Необходимо установить, что формальная оценка b из (7.44) представляет собой наилучшую линейную несмещенную оценку вектора р из (7.42), где наилучшая относится к выборочной и предварительной информации одновременно. На первый взгляд эта задача кажется тупиковой, поскольку модель (7.42) объединяет два качественно различных типа данных, а именно выборочные наблюдения для у и X и несколько априорных значений статистических оценок, указанных в г и R. В ряде обычных прикладных ситуаций переменная Y, а следовательно, и возмущение и, измеряются в постоянных долларах, приходящихся на душу населения в год, в то время как ошибка и относится к эластичности от дохода, и следовательно, является безразмерной величиной. Однако применение обобщенного метода наименьших квадратов означает, что минимизируется взвешенная сумма квадратов [c.221]
Для некоторой заданной матрицы группировки G оценка Ь, полученная обобщенным методом наименьших квадратов (см. (7.58)), является наилучшей линейной несмещенной оценкой. Выборочные дисперсии оцененных коэффициентов необходимо оказываются больше соответствующих дисперсий для оценок, полученных методом наименьших квадратов в применении к исходным несгруппированным наблюдениям (если получение таких оценок возможно). Потеря эффективности [c.228]
Так как (uu ) = V, то из гл. 7 ясно, что обобщенный метод наименьших квадратов дает наилучшую линейную несмещенную оценку, когда матрица V известна. Обыкновенный метод наименьших квадратов приводит нас в этом случае к неэффективным оценкам и к неэффективным прогнозам. Мы вернемся к этому в параграфах 8.5 и 8.6. [c.248]
Так как дисперсионная матрица для и не является скалярной, обыкновенный метод наименьших квадратов оказывается неэффективным и наилучшая линейная несмещенная оценка вектора р достигается с помощью обобщенного метода наименьших квадратов. Если, например, известно, что возмущения формируются в рамках авторегрессионной схемы первого порядка и значение параметра р задано, то обобщенный метод [c.257]
В чем суть наилучших линейных несмещенных оценок (BLUE) [c.135]
Как отмечалось в разделе 5.1, при рассмотрении классической линейной регрессионной модели МНК дает наилучшие линейные несмещенные оценки (BLUE-оценки) лишь при выполнении ряда предпосылок, одной из которых является постоянство дисперсии отклоне- [c.212]
Оценки параметров, оставаясь линейными и несмещенными, перестают быть эффективными. Следовательно, они перестают обладать свойствами наилучших линейных несмещенных оценок (BLUE-оценок). [c.230]
Как известно, при выполнении определенных предпосылок МНК дает наилучшие линейные несмещенные оценки (BLUE-оценки). Причем свойство несмещенности и эффективности оценок остается в силе даже, если несколько коэффициентов регрессии оказываются статистически незначимыми. Однако несмещенность фактически означает лишь то, что при многократном повторении наблюдений (при постоянных объемах выборок) за исследуемыми величинами средние значения оценок стремятся к их истинным значениям. К сожалению, повторять наблюдения в одинаковых условиях в экономике практически невозможно. Поэтому это свойство ничего не гарантирует в каждом конкретном случае. Наименьшая возможная дисперсия вовсе не означает, что дисперсия оценок будет мала по сравнению с самими оценками. В ряде случаев такая дисперсия достаточно велика, чтобы оценки коэффициентов стали статистически незначимыми. [c.247]
Однако если для моделей данного типа использовать обыкновенный МНК, то оценки, получаемые с его помощью, не обладают свойствами наилучших линейных несмещенных оценок (BLUE). Поэтому для определения коэффициентов в этом случае используются другие методы. [c.268]
В случае когда n x n нормированная1 матрица ковариаций fi полностью известна, то, как было показано в разделе 5.2, наилучшая линейная несмещенная оценка (а также оценка максимального правдоподобия для J3) задается формулой (см. (5.4)) [c.160]
Мы предпочитаем оценки коэффициентов регрессии у г, которые эффективны и для которых можно проверить значимость. Оценки эффективны, если они являются наилучшими линейными несмещенными оценками (НЛНО). Термин наилучшие относится к свойству минимальности дисперсии. Оценки обобщенного МНК, будут такими оценками (НЛНО), но они требуют знания ковариационной матрицы ошибок наблюдений (2г и 2 в (2.8) и (2.17) в дополнении 2). К сожалению, нам ковариационная матрица неизвестна. Мы можем оценить элементы этой матрицы. (Ее диагональные элементы, т. е. дисперсии, оцениваются величинами sfr, обобщенный МНК для системы уравнений также требует оценивания ковариаций эти ковариации не оценивались в данном эксперименте, но они оценивались в дополнительном эксперименте.) Замена ковариационной матрицы в обобщенном методе ковариационной матрицей оценок позволяет получить несмещенные оценки 7о-> но эти оценки не лучше оценок (НЛНО). Мы не знаем, имеют ли они еще и меньшую дисперсию, чем обычные МНК-оценки (сравните с литературой)9. Мы знаем, что МНК-оценки обладают преимуществом простоты вычислений, поскольку при ортогональной матрице независимых переменных не нужна обратная матрица. Обращение матрицы с помощью ЭВМ может приводить к значительным ошибкам [c.300]
Простой метод наименьших квадратов для одного уравнения регрессии, т. е. мы пренебрегаем неоднородностью дисперсий и существованием более чем одного уравнения регрессии. Тогда наилучшей линейной несмещенной оценкой (НЛНО) будет простая, или обычная, оценка по методу наименьших квадратов (МНК-оценка). Регрессионные уравнения (76) в матричной записи имеют вид [c.311]
Эти оценки имеют при фиксированных значениях yit и xit нормальное распределение и являются наилучшими линейными несмещенными оценками (BLUE). [c.226]
Следовательно, наилучшая линейная несмещенная оценка вектора р если мы ограничены данными у и X, будет найдена применением обоб щенното метода наименьших квадратов к уравнению (7.54), так чт< [c.227]