Оценка коэффициентов линейной регрессии по вы

Оценка коэффициентов линейной регрессии по выборке случайных величин.  [c.99]

Докажем, что полученные в предыдущем параграфе оценки коэффициентов линейной регрессии Y на X определяют такую прямую линию, что сумма квадратов отклонений величины 7 от этой прямой имеет минимальное значение, по сравнению с суммой квадратов отклонений величины 7 от любой другой прямой.  [c.99]


Определите точечные оценки коэффициентов линейного уравнения регрессии методом максимального правдоподобия, методом моментов. Сравните результаты с МНК.  [c.111]

При оценке значимости коэффициента линейной регрессии на начальном этапе можно использовать следующее "грубое" правило, позволяющее не прибегать к таблицам.  [c.122]

Интервальные оценки коэффициентов линейного уравнения регрессии  [c.123]

При оценке парной линейной регрессии Y = (Зо + PiX + s по МНК получена завышенная оценка t>i коэффициента (Зь Какая оценка в этом случае более вероятна для коэффициента PQ завышенная, заниженная или несмещенная Ответ поясните графически.  [c.136]

При оценке значимости коэффициента линейной регрессии можно использовать следующее грубое правило. Если стандартная ошибка коэффициента больше его модуля (t < 1), то он не может быть признан хорошим (значимым), поскольку доверительная вероятность здесь при двусторонней альтернативной гипотезе составляет лишь менее, чем приблизительно 0,7. Если стандартная ошибка меньше модуля коэффициента, но больше его половины (1 < t < 2), то сделанная оценка может рассматриваться как более или менее значимая. Доверительная вероятность здесь примерно от 0,7 до 0,95. Значение t от 2 до 3 свидетельствует о весьма значимой связи (дове-  [c.303]


Регрессионный анализ - это статистическая процедура для математической усредненной оценки функциональной зависимости между зависимой переменной и независимой переменной (независимыми переменными). Простая регрессия рассматривает одну независимую переменную цену или затраты на рекламу в функции спроса, а множественная регрессия рассматривает две или большее количество переменных, например, цену и затраты на рекламу совместно. В этой главе обсуждается простая (линейная) регрессия, например, Y = а + ЬХ и показывается, как метод наименьших квадратов применяется для расчета коэффициентов регрессии.  [c.257]

Полученные в этой главе формулы для выборочных коэффициентов однофакторной линейной регрессии дают лишь оценки истинных значений этих коэффициентов.  [c.115]

В нашем примере г2 = 0,982. Следовательно, уравнением регрессии объясняется 98,2% дисперсии результативного признака, а на долю прочих факторов приходится лишь 1,8% ее дисперсии (т.е. остаточная дисперсия). Величина коэффициента детерминации служит одним из критериев оценки качества линейной модели. Чем больше доля объясненной вариации, тем соответственно меньше роль прочих факторов, и, следовательно, линейная модель хорошо аппроксимирует исходные данные и ею можно воспользоваться для прогноза значений результативного признака. Так, полагая, что объем продукции предприятия может составить 5 тыс. ед., прогнозное значение для издержек производства окажется 178,4 тыс. руб.  [c.48]

Модели парной регрессии. Парная линейная регрессия. Методы оценки коэффициентов регрессии. Метод наименьших квадратов (МНК). Свойства оценок МНК. Оценка статистической значимости коэффициентов регрессии. Элементы корреляционного анализа. Измерители тесноты связи (коэффициенты ковариации, корреляции и детерминации). Оценка значимости коэффициента корреляции. Дисперсионный анализ результатов регрессии. Оценка статистической значимости уравнения регрессии. Анализ ряда остатков условия Гаусса-Маркова. Нелинейные модели регрессии и их линеаризация. Выбор функции регрессии тесты Бокса-Кокса. Корреляция в случае нелинейной регрессии. Средняя ошибка аппроксимации.  [c.3]


Решение системы нормальных уравнений (8.60") или (8.60 ") начали применять для получения оценок коэффициентов регрессии раньше, чем непосредственное решение системы линейных уравнений (8.60). Последний метод стали использовать примерно с середины шестидесятых годов [193, 194] (см. также более поздние работы [142, 143]). Основанием для актив-йой пропаганды непосредственного решения системы (8.60), минуя этап получения нормальных уравнений, является доказанная в [193] большая устойчивость численного решения уравнения (8.60) при наличии ошибок округления и представления данных в ЭВМ по сравнению с решением системы нормальных уравнений. Однако, как показано далее, увеличение устойчивости может быть обосновано лишь при некоторых предположениях относительно свойств системы уравнений (8.60), которые далеко не всегда имеют место на практике.  [c.273]

Интерпретация параметров интенсивности влияния факторов fli в многомерных регрессионных моделях определяется наличием и теснотой внутренних связей системы факторных показателей. Хотя наиболее распространенный метод оценки коэффициентов регрессииметод наименьших квадратов — предполагает статистическую независимость факторных показателей, в практических попытках моделирования хозяйственной деятельности данное требование трудно выполнять и поэтому в общем случае им пренебрегают. Изучаются лишь пути устранения явных искажений, когда направление влияния фактора в модели прямо противоречит сущности моделируемого явления или теоретическим представлениям о сущности моделируемой связи. Такое положение создается из-за наличия тесной связи между факторами (какой-нибудь фактор выражается линейной комбинацией других факторов, включенных в мо-  [c.120]

В пятой главе рассматриваются предпосылки классической линейной регрессионной модели, выполнимость которых обеспечивает получение качественных оценок параметров линейных уравнений регрессии на базе МНК. Приводится схема определения точности оценок коэффициентов регрессии. Анализируются прогнозные качества парной линейной регрессии. Описывается схема оценки общего качества уравнения регрессии с помощью коэффициента детерминации.  [c.8]

Прежде чем перейти к описанию алгоритма нахождения оценок коэффициентов регрессии, напомним о желательности выполнимости ряда предпосылок МНК, которые позволят проводить анализ в рамках классической линейной регрессионной модели. Эти предпосылки подробно обсуждались в разделе 5.1. Напомним ряд из них.  [c.143]

Оценивая линейное уравнение регрессии, мы предполагаем, что реальная взаимосвязь переменных линейна, а отклонения от регрессионной прямой являются случайными, независимыми друг от друга величинами с нулевым математическим ожиданием и постоянной дисперсией. Если эти предположения не выполняются, то оценки коэффициентов регрессии не обладают свойствами несмещенности, эффективности и состоятельности, и анализ их значимости будет неточным.  [c.164]

По 25 наблюдениям оценена парная линейная регрессия со свободным членом. При этом R = 0.8. В уравнение добавили еще одну объясняющую переменную и оценили по тем же 25 наблюдениям новое уравнение. Коэффициент детерминации для новой модели составил 0.9, а оцененный коэффициент регрессии при добавленной переменной оказался равным -2.0. Какова дисперсия оценки  [c.177]

Рассмотрим теперь задачу оценки коэффициентов парной линейной регрессии более формально. Предположим, что связь между х и у линейна у = а+рх. Здесь имеется в виду связь между всеми возможными значениями величин х и у, то есть для генеральной совокупности. Наличие случайных отклонений, вызванных воздействием на переменную у множества других, неучтенных в нашем уравнении факторов и ошибок измерения, приведет к тому, что связь наблюдаемых величин х( и j/ приобретет вид yt = а. + РХ + е(. Здесь е - случайные ошибки (отклонения, возмущения). Задача состоит в следующем по имеющимся данным наблюдений х , (у) оценить значения параметров айв, обеспечивающие минимум величины Q. Если бы были известны точные значения отклонений е(, то можно было бы (в случае правильности предполагаемой линейной формулы) рассчитать значения параметров аир. Однако значения случайных отклонений в выборке неизвестны, и по наблюдениям х и у, можно получить оценки параметров аир, которые сами являются случайными величинами, поскольку соответствуют случайной выборке. Пусть а - оценка параметра а, Ь - оценка параметра р. Тогда оцененное уравнение регрессии будет иметь вид y=a+bx+et, где е - наблюдаемые значения ошибок е.  [c.296]

Если (п-т- ), то есть число степеней свободы, достаточно велико (не менее 8-10), то при 5%-ном уровне значимости и двусторонней альтернативной гипотезе критическое значение f-статистики приблизительно равно двум. Здесь, как и в случае парной регрессии, можно приближенно считать оценку незначимой, если /-статистика по модулю меньше единицы, и весьма надежной, если модуль t-статистики больше трех. Другие критерии качества полученного уравнения регрессии будут рассмотрены в следующей главе. Там же будут приведены и примеры статистического анализа значимости коэффициентов множественной линейной регрессии.  [c.309]

Теперь мы предпримем для иллюстрации шаг, который впоследствии окажется ошибочным, но поможет при этом показать очень важное явление в оценивании множественной регрессии - мульти-коллинеарность. Мультиколлинеарность - это коррелированность двух или нескольких объясняющих переменных в уравнении регрессии. Проблема мультиколлинеарности возникает только для случая множественной регрессии, поскольку в парной регрессии лишь одна объясняющая переменная. Оценка коэффициента регрессии может оказаться незначимой не только из-за несущественности данного фактора, но и из-за того, что трудно разграничить воздействие на зависимую переменную двух или нескольких факторов. Это бывает в том случае, когда какие-то факторы линейно связаны между собой (коррелированы) и меняются синхронно. Связь зависимой переменной с изменениями каждого из них можно определить, только если в число объясняющих переменных включается лишь один из этих факторов.  [c.347]

Объединение двух или нескольких переменных осуществляется в уравнении множественной линейной регрессии в том случае, если коэффициенты их близки по абсолютной величине, а новая переменная имеет ясный содержательный смысл Например, если оценка производственной функции в темповой записи дала результат у = 1.2 + 0,52 k - 0,49 / (у, k, 1 - темпы прироста выпуска, капитала и труда), то можно оценить у как функцию от (k - I). Величина (k - I) - темп прироста капиталовооруженности труда (приближенная оценка).  [c.363]

Пусть выполняется условие нормальной линейной регрессионной модели ЛГ(0,<72/П), т.е. е — многомерная нормально распределенная случайная величина, или, что то же самое, Yt имеют совместное нормальное распределение. Тогда МНК-оценки коэффициентов регрессии a, b также имеют совместное нормальное распределение, так как они являются линейными функциями (2.4а), (2.46) от Yt  [c.46]

Аппарат линейной регрессии достаточно хорошо разработан и, как правило, имеется в наборе стандартных программ оценки взаимосвязи для ЭВМ. Важен смысл параметров а, — это коэффициент регрессии, характеризующий влияние, которое оказывает изменение X на У. Он показывает, на сколько единиц в среднем изменится У при изменении X на одну единицу. Если а, больше 0, то наблюдается положительная связь. Если а, имеет отрицательное значение, то увеличение X на единицу влечет за собой уменьшение У в среднем на а,. Параметр а, обладает размерностью отношения У к X.  [c.133]

Если проводить аналогию между непараметрической у(х) оценкой и стандартной линейной регрессией у=а +а х, то в непараметрическом случае оценивается зависимость вида y=a0(x)+ai(x)x, т.е. коэффициенты рассчитываются в зависимости от значения независимой переменной. Подобного функционального вида добиваются тем, что оценка уравнения происходит не по всему массиву наблюдений, а лишь по его части, находящейся в окрестности точки х. Доля наблюдений, которые используются для оценки, характеризуется параметром диапазона о или числом точек N, которые используются для оценки зависимости при конкретном значении незави-  [c.145]

Коэффициенты регрессии, как и коэффициенты корреляции, — случайные величины, зависящие от объема выборки. Поэтому для проверки надежности коэффициента регрессии выдвигается гипотеза о том, что коэффициент регрессии в генеральной совокупности равен нулю (нулевая гипотеза), т. е. связь, установленная по данным выборки, в генеральной совокупности отсутствует. Простейшая схема проверки этой гипотезы при линейной форме связи сводится к построению доверительного интервала для каждого коэффициента регрессии. Если граничные значения данного коэффициента регрессии в этом интервале имеют противоположные знаки, то принятая гипотеза подтверждается и тогда соответствующий этому параметру уравнения фактор исключается из модели. Для нелинейной формы связи имеются другие методы оценки значимости факторов  [c.18]

Представленная модель себестоимости добычи нефти линейна только относительно коэффициентов регрессии, что нельзя сказать о факторах. Поэтому возникают определенные трудности при оценке силы влияния на исследуемый показатель отдельных факторов. Для решения этой задачи необходимо воспользоваться относительными показателями частными коэффициентами эластичности Э и коэффициентами (табл. 6).  [c.30]

В определенных обстоятельствах можно использовать коэффициент ранговой корреляции в качестве альтернативного показателя оценки зависимости между двумя наборами значений. Так, часто трудно получить точные показатели некоторых значений, и поэтому единственный надежный метод состоит в расстановке переменных по порядку, иначе говоря — в ранжировании значений. Коэффициент корреляции ранжированных значений называется коэффициентом ранговой корреляции, и он вычисляется по упрощенной формуле, которая приведена в этой главе. Значимая корреляция между двумя переменными подразумевает наличие линейной зависимости между ними. Методы регрессии можно использовать для определения уравнения наилучшей прямой линии, линии регрессии. Уравнение регрессии записывается в виде у = а + Ьх. Это уравнение можно использовать для оценки значения у при заданном значении х. Так, например, объем выручки от реализации можно рассчитать исходя из заданной суммы расходов на рекламу. Нелинейная зависимость между переменными должна быть преобразована в линейную, и только потом следует проводить базовый анализ регрессии.  [c.128]

Оценка с помощью f-критерия Стьюдента значимости коэффициентов Ь и Ъг связана с сопоставлением их значений с величиной их случайных ошибок т й] и т . Расчет значений случайных ошибок достаточно сложен и трудоёмок. Поэтому предлагается более простой способ расчет значения -критерия Стьюдента для коэффициентов регрессии линейного уравнения как квадратного корня из соответствующего частного F-критерия Фишера  [c.64]

Парабола второй степени, как и полином более высокого порядка, при линеаризации принимает вид уравнения множественной регрессии. Если же нелинейное относительно объясняемой переменной уравнение регрессии при линеаризации принимает форму линейного уравнения парной регрессии, то для оценки тесноты связи может быть использован линейный коэффициент корреляции, величина которого в этом случае совпадет с индексом корреляции Ryx = ryv где z — преобразованная величина  [c.81]

Индекс детерминации R2n можно сравнивать с коэффициентом детерминации г2 для обоснования возможности применения линейной функции. Чем больше кривизна линии регрессии, тем величина коэффициента детерминации г2 меньше индекса детерминации R2 , Близость этих показателей означает, что нет необходимости усложнять форму уравнения регрессии и можно использовать линейную функцию. Практически если величина (Л2 — г2 ) не превышает 0,1, то предположение о линейной форме связи считается оправданным. В противном случае проводится оценка существенности различия R2 , вычисленных по одним и тем же исходным данным, через /-критерий Стьюдента  [c.86]

Итак, цель задачианализ статистической связи шести параметров полупроводникового прибора. Обозначим эти параметры Xi, xz, x3, 4> хь, хв. Между собой они причинно не связаны. В соответствии с нормами технических условий из общей массы выделялись годные приборы и анализировалась как вся масса приборов, так и годные. Это позволило попытаться уловить различие во взаимосвязи параметров приборов до и после их отбраковки. Эмпирические корреляционные отношения рассчитывались только для годных приборов, поскольку разброс параметров для всей совокупности приборов был настолько велик, что подсчитывать корреляционные отношения не имело смысла. Доверительные интервалы ввиду большого объема выборки подсчитывались по формуле [37]. Сравнение парных коэффициентов корреляции с эмпирическими отношениями использовалось для проверки линейности связи между параметрами. Эмпирическому корреляционному отношению приписывается тот знак, который имеет парный коэффициент корреляции. Связь считается линейной, если корреляционное отношение попадает в доверительный интервал для парного коэффициента корреляции. Может показаться, что мы противоречим высказанному выше утверждению о том, что не существует формальных методов, позволяющих определить форму связи. Однако в данном случае мы говорим не об определении формы связи с целью, например, нахождения параметров уравнения регрессии и дальнейшей интерпретации или экстраполяции в каком-либо виде. Единственная наша забота состоит в том, чтобы парные коэффициенты корреляции (или иные оценки тесноты связи) были действительными характеристиками связи. В табл. 94 приведены в первой строке каждой клетки — парный коэф-  [c.188]

Если при решении той или иной задачи можно ограничиться линейным приближением, то полный факторный эксперимент типа 2 также оказывается недостаточно эффективным, особенно при большом k. При линейном росте числа независимых переменных число опытов для полного факторного эксперимента растет по показательной функции, в результате слишком много степеней свободы остается на проверку гипотезы адекватности. Например, при k = 2, при линейном приближении, для проверки гипотезы адекватности используется только одна степень свободы, тогда как при k = fj — уже 57 степеней свободы. Правда, при постановке таких больших экспериментов резко снижается ошибка в определении коэффициентов регрессии, так как при факторном планировании все опыты используются для оценки каждого из коэффициентов регрессии. Но это обстоятельство далеко не всегда является достаточным основанием для постановки большого числа опытов. Часто, особенно на первых этапах исследования, бывает нужно получить некоторую, хотя бы и не очень точную, информацию о процессе при минимальной затрате труда на проведение экспериментов. Если можно ограничиться линейным приближением, то число опытов можно резко снизить, используя для планирования так называемые дробные реплики от полного факторного эксперимента [1].  [c.215]

Вопрос о выборе способа численного решения имеет смысл лишь в том случае, когда погрешность вычисления оценок коэффициентов регрессии на ЭВМ сравнима по величине с их статистическим разбросом, который определяется формулой (8.8). Необходимым для этого условием, как мы увидим далее, является наличие мультиколлинеарности. Но при выраженной мультиколлинеарности с точки зрения статистической устойчивости оценок лучше переходить к решению регуляризован-ных (тем или иным способом) систем уравнений (8.60), (8.60 ), (8.60"), (8.60" ). Для систем нормальных уравнений методами регуляризации будут уже рассмотренные метод главных компонент (см. 8.2) и гребневая регрессия (см. 8.5). 8.6.2. Оценки величин возмущений для решений центрированной и соответствующей ей нормальной системы уравнений. Пусть А в = С некоторая система линейных уравнений, матрица А которой имеет размерность q X k (k не обязательно равно q), 6 — вектор размерности fe, правая часть С — вектор размерности q.  [c.273]

Айвазян С. А., Розанов Ю. А. Некоторые замечания к асимптотически-эффективным линейным оценкам коэффициентов регрессии. — Труды Математического института им. В. А. Стек-лова АН СССР, 1964, т. LXXI, с. 24—36.  [c.460]

Ортогональность плана гарантирует отсутствие корреляции между факторами, поэтому кажется, что все оценки коэффициентов регрессии независимы и свободны от посторонних влияний. Однако это справедливо, если описываемая область факторного пространства действительно линейна (при данной ошибке опыта) и, следовательно, все члены уравнения, отражающие кривизну, имеют нулевые коэффициенты. В действительности кривизна может существовать, например, если интервалы варьирования велики и хотя бы некоторые коэффициенты при эффектах взаимодействия окажутся отличными от нуля. Тогда может получиться, что столбцы этих взаимодействий в матрице планирования будут закоррели-рованы с некоторыми столбцами линейных эффектов. В дробном факторном эксперименте, в отличие от полного, всегда существует такая корреляция хотя бы для некоторых столбцов. Это приводит к тому, что по результатам данного эксперимента оказывается невозможно разделить коэффициент регрессии между линейным эффектом и взаимодействием. Такие оценки называются смешанными (совместными), а сам факт корреляции — смешиванием. Смешиваемость оценок —дань за сокращение числа опытов. Экспериментатор может бороться со смешиванием путем уменьшения дробности реплики, уменьшения интервалов варьирования, выбора вида модели. Экспериментатор стремится к тому, чтобы максимальное число линейных эффектов оказалось не смешанным с парными взаимодействиями. Число линейных эффектов, которые не смешаны в данном плане, будем называть разрешающей способностью плана.  [c.224]

В шестой главе описывается метод наименьших квадратов нахождения оценок параметров уравнения множественной линейной регрессии. Рассматриваются узловые моменты анализа качества построенного уравнения регрессии (эконометрической модели). Приводится схема оценки значимости коэффициентов регрессии. Исследуются различные аспекты использования коэффициента детерминации. Обозначается достаточно острая проблема, встречающаяся в эконометри-ческих моделях, - проблема автокорреляции остатков.  [c.8]

Как известно, при выполнении определенных предпосылок МНК дает наилучшие линейные несмещенные оценки (BLUE-оценки). Причем свойство несмещенности и эффективности оценок остается в силе даже, если несколько коэффициентов регрессии оказываются статистически незначимыми. Однако несмещенность фактически означает лишь то, что при многократном повторении наблюдений (при постоянных объемах выборок) за исследуемыми величинами средние значения оценок стремятся к их истинным значениям. К сожалению, повторять наблюдения в одинаковых условиях в экономике практически невозможно. Поэтому это свойство ничего не гарантирует в каждом конкретном случае. Наименьшая возможная дисперсия вовсе не означает, что дисперсия оценок будет мала по сравнению с самими оценками. В ряде случаев такая дисперсия достаточно велика, чтобы оценки коэффициентов стали статистически незначимыми.  [c.247]

В скобках указаны стандартные ошибки соответствующих коэффициентов. Можно отметить, что статистическое качество полученного уравнения регрессии практически идеально. Все г-статистики превышают 5 по абсолютной величине (а, грубо говоря, границей для очень хорошей оценки является 3). Очень высока доля дисперсии зависимой переменной, объясненная с помощью уравнения регрессии, - 94,2% - особенно с учетом того, что уравнение регрессии связывает относительные величины, не имеющие выраженного временного тренда. Статистика Дарбина-Уотсона ЯИ очень близка к 2, и, даже не прибегая к таблицам, здесь ясно, что гипотеза об отсутствии автокорреляции остатков первого порядка будет принята при любом разумно малом уровне значимости. Итак, мы имеем хороший пример линейной регрессии, когда можно оценить ее статистическую значимость, не прибегая к таблицам распределений Стьюден-та, Фишера или Дарбина-Уотсона, а лишь по общему порядку полученных статистик.  [c.330]

Отметим, что мы не вводим четвертую бинарную переменную бЦ, относящуюся к осени, иначе тогда для любого месяца t выполнялось бы тождество dt + dfz + dt + 4 = 1, что означало бы линейную зависимость регрессоров в (4.3) и, как следствие, невозможность получения МНК-оценок. (Такая ситуация, когда сумма фиктивных переменных тождественно равна константе, также включенной в регрессию, называется dummy trap .) Иными словами, среднемесячный объем потребления есть 0о для осенних месяцев, 0о+01 — для зимних, 00+02 для весенних и 0о+0з — для летних. Таким образом, оценки коэффициентов 0j, г = 1,2,3, показывают средние сезонные отклонения в объеме потребления по  [c.114]

Здесь ut = t — Ae -i- Уравнение (11.9) линейно по комбинациям параметров, через которые эти параметры можно выразить. Однако (11.9) содержит лагированную эндогенную переменную и ошибки, не удовлетворяющие условиям классической модели линейной регрессии. Поэтому можно показать, что МНК-оценки коэффициентов уравнения являются несостоятельными. Для получения состоятельных оценок можно применить метод инструментальных переменных (п. 8.1), взяв, например, Xt— в качестве инструмента для yt-i, или воспользоваться методом максимального правдоподобия (глава 10).  [c.268]

Поскольку к моменту появления теоретических моделей распределения налогового бремени, вычислительные мощности не позволяли строить большие эмпирические модели общего равновесия, делались попытки проверки выводов теоретических моделей на основе регрессионного анализа. Подобный подход к исследованию перемещения налогового бремени используется, в частности, в работе Krzyzaniak, Musgrave (1963). В этой работе исследуется зависимость посленалоговой доходности капитала от отношения налоговых обязательств корпоративного сектора к объему капитала, а также от эффективной ставки налогообложения прибыли. Авторы проводили оценку линейной регрессии методом инструментальных переменных, в которой отношение налоговых обязательств к объему капитала использовалось как объясняющая переменная, а эффективная ставка налогообложения прибыли - в качестве инструмента. Соответствующий коэффициент при эффективной ставке в указанной зависимости, полученный авторами, при оценке на интервале 1935-1959 гг. оказался равным 1,43. Таким образом, бремя налогообложения капитала более чем полностью перемещено, т.е. владельцы капитала фактически выигрывают, получая больший доход вследствие роста ставки налогообложения прибыли.  [c.86]

Мы предпочитаем оценки коэффициентов регрессии у г, которые эффективны и для которых можно проверить значимость. Оценки эффективны, если они являются наилучшими линейными несмещенными оценками (НЛНО). Термин наилучшие относится к свойству минимальности дисперсии. Оценки обобщенного МНК, будут такими оценками (НЛНО), но они требуют знания ковариационной матрицы ошибок наблюдений (2г и 2 в (2.8) и (2.17) в дополнении 2). К сожалению, нам ковариационная матрица неизвестна. Мы можем оценить элементы этой матрицы. (Ее диагональные элементы, т. е. дисперсии, оцениваются величинами sfr, обобщенный МНК для системы уравнений также требует оценивания ковариаций эти ковариации не оценивались в данном эксперименте, но они оценивались в дополнительном эксперименте.) Замена ковариационной матрицы в обобщенном методе ковариационной матрицей оценок позволяет получить несмещенные оценки 7о-> но эти оценки не лучше оценок (НЛНО). Мы не знаем, имеют ли они еще и меньшую дисперсию, чем обычные МНК-оценки (сравните с литературой)9. Мы знаем, что МНК-оценки обладают преимуществом простоты вычислений, поскольку при ортогональной матрице независимых переменных не нужна обратная матрица. Обращение матрицы с помощью ЭВМ может приводить к значительным ошибкам  [c.300]

Смотреть страницы где упоминается термин Оценка коэффициентов линейной регрессии по вы

: [c.184]    [c.108]    [c.306]    [c.308]    [c.67]    [c.170]    [c.215]    [c.521]