Для доказательства оптимальных свойств оценки Ь преобразуем исходные данные — матрицу X, вектор Y и возмущение Е к виду, при котором выполнены требования классической модели регрессии. [c.153]
Классическая модель регрессии 19, 61 [c.300]
Использование традиционных регрессионных моделей (линейных при многомерном X и параболических в одномерном случае) в применении к относительно большим подобластям изменения регрессора позволяет сочетать простоту расчетов, свойственную классическим моделям регрессии, с эффективным использованием выборочной информации. Эти методы получили название локально параметрических. [c.335]
В такой форме модели ошибка vit состоит из двух компонент щ и uit. Как и в модели с фиксированными эффектами, случайные эффекты at также отражают наличие у субъектов исследования некоторых индивидуальных характеристик, не изменяющихся со временем в процессе наблюдений, которые трудно или даже невозможно наблюдать или измерить. Однако теперь значения этих характеристик встраиваются в состав случайной ошибки, как это делается в классической модели регрессии, в которой наличие случайных ошибок интерпретируется как недостаточность включенных в модель объясняющих переменных для полного объяснения изменений объясняемой переменной. К прежним предположениям о том, что [c.249]
Наиболее хорошо изучены линейные регрессионные модели, удовлетворяющие условиям (1.6), (1.7) и свойству постоянства дисперсии ошибок регрессии, — они называются классическими моделями. [c.19]
Прежде чем изучать основные разделы эконометрики — классическую и обобщенную модели регрессии, временные ряды и системы одновременных уравнений (гл. 3—10), рассмотрим в следующей главе (гл. 2) основные понятия теории вероятностей и математической статистики, составляющие основу математического инструментария эконометрики. Подготовленный соответствующим образом читатель может сразу перейти к изучению гл. 3. [c.23]
В предыдущих главах была изучена классическая линейная модель регрессии, приведена оценка параметров модели и проверка статистических гипотез о регрессии. Однако мы не касались некоторых проблем, связанных с практическим использованием модели множественной регрессии. К их числу относятся мультиколлинеарность, ее причины и методы устранения использование фиктивных переменных при включении в регрессионную модель качественных объясняющих переменных, линеаризация модели, вопросы частной корреляции между переменными. Изучению указанных проблем посвящена данная глава. [c.108]
При моделировании реальных экономических процессов мы нередко сталкиваемся с ситуациями, в которых условия классической линейной модели регрессии оказываются нарушенными. В частности, могут не выполняться предпосылки 3 и 4 регрессионного анализа (см. (3.24) и (3.25)) о том, что случайные возмущения (ошибки) модели имеют постоянную дисперсию и не коррелированы между собой. Для линейной множественной модели эти предпосылки означают (см. 4.2), что ковариационная матрица вектора возмущений (ошибок) е имеет вид [c.150]
Пусть SML = Y et/ n и OLS — ] et/ (n — 1 — оценки методов максимального правдоподобия и наименьших квадратов для дисперсии ошибок <т2 в классической модели парной регрессии Yt = [c.62]
Рассмотрим классическую модель линейной регрессии у = Xft+e с ограничением Н/3 — г на вектор коэффициентов. [c.95]
Известно, что процесс, порождающий данные (истинная модель), описывается классической линейной моделью регрессии у = Х(3 + е. Оценка /Зй получается регрессией у на X (МНК-оценка) при ограничении Hf3 = г. Найдите матрицу ковариаций V(/3R) и сравните ее с матрицей ковариаций V(/3) — МНК-оценки в регрессии без ограничений. Как полученный вами результат соотносится с теоремой Гаусса-Маркова [c.99]
Все наши предыдущие рассуждения и выводы, касающиеся схемы классической множественной регрессии, основывались явно или неявно на предположении, что мы имеем дело с правильной спецификацией модели. Иными словами, мы считали, что зависимая переменная у, регрессоры X и оцениваемые параметры ft связаны соотношением [c.124]
Обычный метод наименьших квадратов. Рассмотрим классическую модель линейной регрессии [c.392]
Если бы мы находились в рамках классической модели линейной регрессии, то [c.129]
Оцененные коэффициенты статистически значимы, коэффициент детерминации высокий, проверка на адекватность не выявляет нарушений стандартных предположений классической линейной модели регрессии. [c.173]
Предположим для примера, что анализируется влияние различных факторов на изменение производительности труда. Среди этих факторов — показатели, связанные с техническим обеспечением производственной деятельности, технологическим уровнем производства, уровнем организации производства, уровнем квалификационной и общеобразовательной подготовки работников и т.п. Все факторы влияют на изменение производительности труда, но вместе с тем они, без сомнения, не являются независимыми друг от друга. В рамках классического корреляционно-регрессионного анализа методом пошаговой регрессии можно отбросить коррелирующие и незначимые факторы, однако не исключено, что модель существенно упростится, причем значимые (по логике) направления (например, факторы, связанные с технологией производства) могут вообще быть не представлены в модели. [c.128]
Классическая нормальная линейная модель множественной регрессии [c.82]
Как уже отмечено в 4.1, модель (4.2), удовлетворяющая приведенным предпосылкам 1—6, называется классической нормальной линейной моделью множественной регрессии если же среди приведенных не выполняется лишь предпосылка 5 о нормальном законе распределения вектора возмущений е, то модель (4.2) называется просто классической линейной моделью множественной регрессии. [c.87]
Убедимся в том, что модель (7.11) удовлетворяет всем требованиям классической линейной модели множественной регрессии ( 4.2) [c.153]
Расчетно-статистическим методом нормы определяются путем анализа статистических фактических данных о расходе ТЭР и факторов, влияющих на их использование. Основным недостатком используемых экономико-статистических моделей (экстраполяция динамических рядов и модели множественной регрессии) является невозможность в прямом виде учесть глубокие структурные изменения в перспективе. В последнее время сделано несколько попыток в направлении дополнения классических экономико-статистических моделей способами, позволяющими заложить в модели качественную информацию о перспективе поведения того или иного экономического показателя [27, 9]. [c.119]
Наряду с приведенным выше классическим определением функции регрессии в теории и практике статистического исследования зависимостей используются функции -регрессии, являющиеся наилучшими прогностическими моделями для анализируемого результирующего показателя rj (X) в смысле минимизации заданного критерия адекватности (агрегированной ошибки прогноза) Д (/а). Функции Д-регрессии позволяют подбирать наилучшие аппроксимации для неизвестной истинной функции регрессии. Кроме того, они представляют и самостоятельный интерес, позволяя строить и анализировать иную, чем условное среднее, условную характеристику места группирования результирующего показателя т) (X) = (г — X), обладающую в ряде ситуаций определенными преимуществами перед условной средней. [c.174]
В пятой главе рассматриваются предпосылки классической линейной регрессионной модели, выполнимость которых обеспечивает получение качественных оценок параметров линейных уравнений регрессии на базе МНК. Приводится схема определения точности оценок коэффициентов регрессии. Анализируются прогнозные качества парной линейной регрессии. Описывается схема оценки общего качества уравнения регрессии с помощью коэффициента детерминации. [c.8]
Прежде чем перейти к описанию алгоритма нахождения оценок коэффициентов регрессии, напомним о желательности выполнимости ряда предпосылок МНК, которые позволят проводить анализ в рамках классической линейной регрессионной модели. Эти предпосылки подробно обсуждались в разделе 5.1. Напомним ряд из них. [c.143]
Главы 2-4 содержат классическую теорию линейных регрессионных моделей. Этот материал является ядром эконометрики, и студенты должны хорошо освоить его перед тем, как перейти к изучению остальных частей книги. В главе 2 рассматривается простейшая модель с двумя регрессорами, глава 3 посвящена многомерным моделям. В определенном смысле глава 2 избыточна, однако с педагогической точки зрения крайне полезно изучить сначала регрессионные модели с двумя переменными. Тогда, например, можно обойтись без матричной алгебры, в двумерном случае легче также понять графическую интерпретацию регрессии. Глава 4 содержит несколько дополнительных разделов (проблема мультиколлинеарности, фиктивные переменные, спецификация модели), однако ее материал также можно отнести к стандартным основам эконометрики. [c.15]
Дана модель парной регрессии Yt — а + (3Xt + t, t = 1,..., га, для которой выполнены стандартные условия классической линейной модели. Известно, что га — 2т. Все множество наблюдений (Yt, Xt) разбито на две группы а и 6 по т наблюдений в каждой группе. Обозначим Xa,Xb,Ya, УЬ выборочные средние наблюдений X, Y по группам о, Ъ, соответственно. В качестве оценки параметра 13 берется величина [c.64]
Предлагаемый здесь подход позволяет сохранить, по существу, все основные свойства МНК-оценок в классической регрессии. Условия, накладываемые на систему со стохастическими регрессорами, почти дословно повторяют ограничения стандартной модели, но только теперь их следует понимать, говоря не совсем стро- [c.149]
В главе 7 представлены обобщенная линейная модель множественной регрессии и обобщенный метод наименьших квадратов. Исследуется комплекс вопросов, связанных с нарушением предпосылок классической модели регрессии — гетероскедастично-стью и автокоррелированностью остатков временного ряда, их тестированием и устранением, идентификацией временного ряда. [c.4]
Таким образом, критерий Jarque - Bera можно использовать не только в рамках классической модели регрессии (с фиксированными значениями объясняющих переменных), но и для проверки нормальности инноваций в моделях временных рядов, помня, конечно, о том, что это всего лишь асимптотический критерий. Для улучшения приближения статистики критерия распределением хи-квадрат, в пакете EVIEWS в статистике критерия вместо множителя Т используется множитель (Т- К), где К -количество коэффициентов, оцениваемых при построении модели исследуемого ряда. [c.52]
Найденное уравнение регрессии значимо на 5%-ном уровне по /-критерию, так как фактически наблюдаемое значение статистики F= 24,32 > /o,05 i i9 = 4,35. Можно показать (например, с помощью критерия Дарбина—Уотсона) (см. далее, 7.7)), что возмущения (ошибки) е/ в данной модели удовлетворяют условиям классической модели и для проведения прогноза могут быть использованы уже изученные нами методы. [c.148]
Модели AR H и GAR H удовлетворяют всем условиям классической модели, и метод наименьших квадратов позволяет получить оптимальные линейные оценки. В то же время можно получить более эффективные нелинейные оценки методом максимального правдоподобия. В отличие от модели с независимыми нормально распределенными ошибками регрессии в AR H-модели оценки максимального правдоподобия отличаются от оценок, полученных методом наименьших квадратов. [c.217]
Одно из предположений классической регрессионной модели состоит в том, что случайные ошибки некоррелированы между собой и имеют постоянную дисперсию. В тех случаях, когда наблюдаемые объекты достаточно однородны, не сильно отличаются друг от друга, такое допущение оправдано. Однако во многих ситуациях такое предположение нереалистично. Например, если исследуется зависимость расходов на питание в семье от ее общего дохода, то естественно ожидать, что разброс в данных будет выше для семей с более высоким доходом. Это означает, что дисперсии зависимых величин (а следовательно, и случайных ошибок) не постоянны. Это явление в эконометрике называется гетерос-кедастичностью (в отличие от гомоскедастичности — равенства дисперсий). Кроме того, при анализе временных рядов в довольно редких случаях можно считать, что наблюдения некоррелированы во времени. Как правило, значение исследуемой величины в текущий момент времени статистически зависит от ее значений в прошлом, что означает наличие корреляции между ошибками. Поэтому естественно изучать модели регрессии без предположения, что V(e) = и2/. [c.154]
В случае, когда х детерминированы, а ошибки j независимые, одинаково распределенные с нулевым средним и дисперсией r2 (independent identi ally distributed), модель (11.5) удовлетворяет условиям классической модели линейной регрессии (п. 3.1), однако на практике при ее оценивании могут встретиться трудности. Во-первых, может оказаться, что количество коэффициентов q + 2 слишком велико, если по смыслу задачи ожидается влияние с большим запаздыванием. Во-вторых, в том случае, если ряд xt имеет некоторую структуру, например, автокорреляцию или сезонность, матрица Х Х может оказаться близкой к вырожденной, и мы оказываемся в ситуации мультиколлинеарности (см. п. 4.1). [c.266]
Здесь ut = t — Ae -i- Уравнение (11.9) линейно по комбинациям параметров, через которые эти параметры можно выразить. Однако (11.9) содержит лагированную эндогенную переменную и ошибки, не удовлетворяющие условиям классической модели линейной регрессии. Поэтому можно показать, что МНК-оценки коэффициентов уравнения являются несостоятельными. Для получения состоятельных оценок можно применить метод инструментальных переменных (п. 8.1), взяв, например, Xt— в качестве инструмента для yt-i, или воспользоваться методом максимального правдоподобия (глава 10). [c.268]
В цитированной работе доказывается асимптотическая нормальность соответствующим образом нормированной оценки наименьших квадратов для вектора (а, /J)T. Если ряд UI KQ является процессом белого шума, то для применения этого результата необходимо скорректировать значения -статистик, вычисляемых по стандартным формулам, соответствующим предположениям классической линейной модели регрессии. [c.207]
При j = i это есть просто RSS /T, и, как известно, такая оценка для дисперсии ошибки в i -м уравнении имеет смещение, а несмещенной оценкой для этой дисперсии является RSS /(т — р), где р - количество объясняющих переменных в уравнении регрессии. (Конечно, при этом должно выполняться условие Т > р. ) При соответствующих условиях на матрицу X, требующихся и в классической модели линейной регрессии, обе оценки 9GLS и 9FGLS при Т —> °° состоятельны. [c.229]
В учебнике излагаются основы эконометрики. Большое внимание уделяется классической (парной и множественной) и обобщенной моделям линейной регрессии, классическому и обобщенному методам наименьших квадратов, анализу временных рядов и систем одновременных уравнений. Обсуждаются различные аспекты многомерной регрессии мультиколлине-арность, фиктивные переменные, спецификация и линеаризация модели, частная корреляция. Учебный материал сопровождается достаточным числом решенных задач и задач для самостоятельной работы. [c.2]
Как уже отмечалось выше, равенство дисперсий возмущений (ошибок) регрессиии е/ (гомоскедастичность) является существенным условием линейной классической регрессионной модели множественной регрессии, записываемым в виде У е [c.155]
По сравнению с 13-2-1 сетью значения MSE и на обучающем, и на проверочном множествах получаются чуть-чуть лучше. Перед тем, как делать выводы собственно о структуре сети, разумно сравнить ее результаты с такими классическими методами, как многомерная регрессия или модель ARIMA (собственной разработки MoF). [c.102]
Классическая линейная модель множественной регрессии (КЛММР). Оценка неизвестных параметров КЛММР, статистические свойства оценок. Отбор наиболее существенных объясняющих переменных в КЛММР. Признаки и причины мультиколлинеарности. Методы устранения мультиколлинеарности. Множественная корреляция. Частная корреляция. Оценка [c.3]
Классический эвристический подход представлен методом управляющих коэффициентов Боумана. Этот уникальный подход создает формализованную модель принятия решений на основе опыта и интуиции менеджера. Теоретически принимается, что прошлые представления менеджера достаточно адекватны, и они могут быть использованы как базис для будущих решений. Проводится регрессионный анализ решений прошлого периода, принятых менеджером, и прогнозируется будущее решение. Линия регрессии обеспечивает связь между переменными (скажем, спросом и трудом) для будущих периодов. [c.537]
Общая математическая модель линейной регрессии имеет вид Y = X + е, где Y — (п X 1)-вектор наблюдений, X = (Xi... Хп) — (п X р)-матрица плана экспериментов, Xk — регрессор й-го наблюдения, в — (р X 1) -вектор неизвестных параметров, s — (п X 1) — вектор случайных ошибок. В классической постановке задачи линейной регрессии предполагается, что г N (0, сг21п), где 1П — (п X п)-единичная матрица. Оценки по методу наименьших квадратов (мнк-оценки) отыскиваются из условия минимизации по 0 величины Y — Х0 . Когда Х Х =т О (ранг X равен р), [c.249]
Предположим, что модель Yt = а + f3Xt + t, t = 1,. . . , п, удовлетворяет условиям классической регрессии. Пусть а, (3 — оценки метода наименьших квадратов. Оценка (3 получена по методу наименьших квадратов при дополнительном (вообще говоря, неверном) предположении, что а = 0. [c.66]
Одним из условий классической регрессионной модели является предположение о линейной независимости объясняющих переменных, что означает линейную независимость столбцов матрицы регрессоров X или (эквивалентно) что матрица (Х Х) 1 имеет полный ранг k. При нарушении этого условия, т. е. когда один из столбцов матрицы X есть линейная комбинация остальных столбцов, говорят, что имеет место полная коллинеарность. В этой ситуации нельзя построить МНК-оценку параметра (3, что формально следует из сингулярности матрицы X X и невозможности решить нормальные уравнения. Нетрудно также понять и содержательный смысл этого явления. Рассмотрим следующий простой пример регрессии (Greene, 1997) С = fa + faS + foN + /34Т + е, где С — потребление, S — зарплата, N — доход, получаемый вне работы, Т — полный доход. Поскольку выполнено равенство Т = S + N, то для произвольного числа h исходную регрессию можно переписать в следующем виде С = (3i+/3 2S+/3 3iN+/3 4T-1r , где / 2 = 02 + h, /% = Рз + h, /3 4 = 04 — h. Таким образом, одни и те же наблюдения могут быть объяснены различными наборами коэффициентов /3. Эта ситуация тесно связана с проблемой идентифицируемости системы, о чем более подробно будет говориться позднее. Кроме того, если с учетом равенства Т — S + N переписать исходную систему в виде С = fa + (/% + 0 )S + (/Зз + /3 )N + е, то становится ясно, что оценить можно лишь три параметра fa, (Дз + Д ) и (/ 3 + /3[c.109]