Линейная модель множественной

Классическая нормальная линейная модель множественной регрессии  [c.82]

Как уже отмечено в 4.1, модель (4.2), удовлетворяющая приведенным предпосылкам 1—6, называется классической нормальной линейной моделью множественной регрессии если же среди приведенных не выполняется лишь предпосылка 5 о нормальном законе распределения вектора возмущений е, то модель (4.2) называется просто классической линейной моделью множественной регрессии.  [c.87]


Обобщенная линейная модель множественной регрессии  [c.150]

Убедимся в том, что модель (7.11) удовлетворяет всем требованиям классической линейной модели множественной регрессии ( 4.2)  [c.153]

Как было отмечено в 7.1, b — несмещенная и состоятельная оценка параметра р для обобщенной линейной модели множественной регрессии следовательно, и в частном случае, когда мо-  [c.156]

Лаг 19, 230, 291, 293, 297, 307, 309 Лаговые переменные 291, 307, 311 Линеаризация 62-63, 66, 69-71, 103 Линейная модель множественной регрессии 90 Линейность 15-16, 70-71 Ложная корреляция 19, 222  [c.339]

Рассматривается стандартная линейная модель множественной регрессии у = Х/3 + е, где X — п х k матрица ранга f .  [c.97]

До сих пор мы рассматривали проблемы, связанные с оценками, получающимися в результате процедуры предварительного тестирования. Конечно, все рассмотренные выше проблемы возникают и при прогнозировании. Рассмотрим, например, стандартную линейную модель множественной регрессии  [c.425]


Линейная модель множественной регрессии имеет общий вид  [c.134]

Рассмотрим вопрос о регрессии. В ряде случаев именно от его решения — оценки уравнений регрессии — зависят оценки тесноты связи, а они, в свою очередь, дополняют результаты регрессионного анализа. Прежде всего следует определить перечень независимых переменных X, включаемых в уравнение. Это должно делаться на основе теоретических положений. Список X может быть достаточно широк и ограничен только исходной информацией. На практике теоретические положения о сути взаимосвязи подкрепляются парными коэффициентами корреляции между зависимой и независимыми переменными. Отбор наиболее значимых из них можно провести с помощью ЭВМ, выбирая в соответствии с коэффициентами корреляции и другими критериями факторы, наиболее тесно связанные с У. Параллельно решается вопрос о форме уравнения. Современные средства вычислительной техники позволяют за относительно короткое время рассчитать достаточно много вариантов уравнений. В ЭВМ вводятся значения зависимой переменной У и матрица независимых переменных X, принимается форма уравнения, например линейная. Ставится задача включить в уравнение k наиболее значимых X. В результате получим уравнение регрессии с k наиболее значимыми факторами. Аналогично можно выбрать наилучшую форму связи. Этот традиционный прием, называемый пошаговой регрессией, если он не противоречит качественным посылкам, достигает приемлемых результатов. Первоначально обычно берется линейная модель множественной регрессии  [c.134]

Временной ряд st можно представить в эквивалентном (1.62) виде, при котором он получается в виде классической линейной модели множественной регрессии, в которой в качестве объясняющих переменных выступают его собственные значения во все прошлые моменты времени  [c.41]


Модели множественной линейной регрессии  [c.91]

Обозначим /-е наблюдение зависимой переменной у/, а объясняющих переменных — хц, хд,..., xip. Тогда модель множественной линейной регрессии можно представить в виде  [c.82]

В предыдущих главах была изучена классическая линейная модель регрессии, приведена оценка параметров модели и проверка статистических гипотез о регрессии. Однако мы не касались некоторых проблем, связанных с практическим использованием модели множественной регрессии. К их числу относятся мультиколлинеарность, ее причины и методы устранения использование фиктивных переменных при включении в регрессионную модель качественных объясняющих переменных, линеаризация модели, вопросы частной корреляции между переменными. Изучению указанных проблем посвящена данная глава.  [c.108]

При моделировании реальных экономических процессов мы нередко сталкиваемся с ситуациями, в которых условия классической линейной модели регрессии оказываются нарушенными. В частности, могут не выполняться предпосылки 3 и 4 регрессионного анализа (см. (3.24) и (3.25)) о том, что случайные возмущения (ошибки) модели имеют постоянную дисперсию и не коррелированы между собой. Для линейной множественной модели эти предпосылки означают (см. 4.2), что ковариационная матрица вектора возмущений (ошибок) е имеет вид  [c.150]

Повсеместно слышимые споры между сторонниками линейной модели, когда "наука ведет к инновациям", и приверженцами идеи о "второстепенном значении науки" ни к чему не ведут, так как они слишком упрощают множественную природу связей между фундаментальными исследованиями и технологическим развитием. В частности, фундаментальные исследования приносят пользу технологическому развитию через создание и перенос знаний, навыков, инструментов, а также сети профессиональных контактов и, кроме того, через создание и перенос готовой к применению письменной информации.  [c.125]

Модель множественной корреляции линейного вида может быть записана в следующей форме  [c.35]

Тогда независимо от того, что фактор х задан линейно, а факторы х2, хг, х4 — в логарифмах, оценка тесноты связи может быть произведена с помощью линейного коэффициента множественной корреляции. Так, если рассматриваемая модель в стандартизованном виде оказалась следующей  [c.117]

При применении метода исключения переменных уравнение рефессии желательно представить сразу в полной квадратичной или кубичной форме с предварительным вычислением коэффициентов регрессии и корреляции и проверкой линейности модели по / -критерию. Исключение начинают с фактора, имеющего наименьший t-критерий. На каждом этапе после исключения каждого фактора для нового уравнения регрессии вычисляется множественный коэффициент корреляции, остаточная дисперсия и F-критерий. Для прекращения исключения факторов следует следить за изменением остаточной дисперсии. Как только она начнет увеличиваться — исключение факторов следует прекратить. Используется также метод контроля значений /-критерия. Для исключения следующего фактора мы сравниваем его значение ( ) с /-критерием предыдущего исключенного фактора и, если они отличаются незначительно, то фактор исключается. Если же различия /-критериев значительны, то исключение факторов прекращают.  [c.121]

Опираясь на (6.8), можно предложить следующую процедуру определения оптимального состава и числа предикторов модели множественной линейной регрессии.  [c.191]

Выбор уравнения связи в многофакторных моделях задача сложная, поэтому предварительный качественный анализ характера связи каждого из п факторов с удельной фондоемкостью во многом определяет реальность получаемых результатов. При линейной или близкой к ней связи, применяется линейное уравнение множественной корреляции  [c.524]

В десятой главе анализируются последствия линейной зависимости между объясняющими переменными в модели множественной линейной регрессии - мультиколлинеарности. Приводятся способы обнаружения и преодоления мультиколлинеарности.  [c.8]

Рассмотрим самую употребляемую и наиболее простую из моделей множественной регрессии — модель множественной линейной регрессии.  [c.141]

Как определяется модель множественной линейной регрессии  [c.173]

Приведенные выше рассуждения и примеры дают основания более детально рассмотреть возможные нелинейные модели. В рамках вводного курса мы ограничимся рассмотрением нелинейных моделей, допускающих их сведение к линейным. Обычно это так называемые линейные относительно параметров модели. Для простоты изложения и графической иллюстрации будем рассматривать модели парной регрессии с последующим естественным переходом к моделям множественной регрессии.  [c.180]

Коэффициент множественной корреляции для данной линейной модели может быть получен по следующей формуле  [c.137]

В моделях множественной линейной регрессии при увеличении количества параметров регрессии (бета-весов) по отношению к размеру выборки увеличивается степень вредной подгонки и уменьшается достоверность результатов модели. Другими словами, чем выше степень подгонки под исторические данные, тем сложнее добиться статистической значимости. Исключением является случай, когда повышение результативности модели, вызванное подгонкой, компенсирует потерю значимости при добавлении параметров. Оценка степени ожидаемого снижения корреляции при использовании данных вне выборки может производиться напрямую, исходя из объема данных и количества параметров корреляция снижается с увеличением числа параметров и увеличивается с рос-  [c.73]

В рамках множественной корреляции находятся уравнение регрессии, которые бывают линейными, степенными и логарифмическими. В линейных моделях коэффициенты при неизвестных называются коэффициентами регрессии, а в степенных и логарифмических - коэффициентами эластичности. Первые показывают, насколько единиц изменяется функция с изменением соответствующего фактора на одну единицу при неизменных значениях остальных. Вторые - отражают, на сколько процентов изменяется функция с изменением каждого аргумента на 1 % при неизменных значениях остальных.  [c.15]

Одним из наиболее распространенных способов получения многофакторных прогнозов является упоминавшийся ранее классический метод наименьших квадратов и построение на его основе модели множественной регрессии [16]. Для линейного случая модель множественной регрессии записывается в виде  [c.33]

В главе 7 представлены обобщенная линейная модель множественной регрессии и обобщенный метод наименьших квадратов. Исследуется комплекс вопросов, связанных с нарушением предпосылок классической модели регрессии — гетероскедастично-стью и автокоррелированностью остатков временного ряда, их тестированием и устранением, идентификацией временного ряда.  [c.4]

Классическая линейная модель множественной регрессии (КЛММР). Оценка неизвестных параметров КЛММР, статистические свойства оценок. Отбор наиболее существенных объясняющих переменных в КЛММР. Признаки и причины мультиколлинеарности. Методы устранения мультиколлинеарности. Множественная корреляция. Частная корреляция. Оценка  [c.3]

Обобщённая линейная модель множественной регрессии (ОЛММР).  [c.4]

В дальнейшем в данной главе мы будем рассматривать линейную модель множественной регресии (см. п. 3-1)  [c.400]

Как уже отмечалось выше, равенство дисперсий возмущений (ошибок) регрессиии е/ (гомоскедастичность) является существенным условием линейной классической регрессионной модели множественной регрессии, записываемым в виде У е  [c.155]

X на Хь X на Х2,. .., Хт на Хт, получаем вместо (7.18) модель множественной линейной регрессии с m переменными Х15Х2,..., Хт  [c.187]

Естественным обобщением линейной регрессионной модели с двумя переменными (см. п. 2.3) является многомерная регрессионная модель (multiple regression model), или модель множественной регрессии  [c.67]

Модели линейной регрессии (6.4.4-6.4.5), с одной стороны, очень просты и это является их достоинством, но с другой стороны их простота оборачивается потерей точности предсказаний из-за не учёта ведущего фактора (состояния рынка в целом) и других факторов, влияющих в той или иной степени на эффективность ценных бумаг. Учёт нескольких факторов, безусловно, можно осуществить в рамках моделей множественной линейной или же нелинейной регрессии, но это усложнит для конечного пользователя вид моделей и обозримость результатов. Поэтому для того, чтобы повысить точность предсказания модели линейной регрессии для всего спектра ценных бумаг, функционирующих на рынке США, пошли не по пути усложнения моделей, а путём введения дополнительных поправок к коэффициентам линейной регрессии в моделях (6.4.4 - 6.4.5). Статистические исследования рынка США[8] показали, например, что эффективной для коррекции коэффициента/ , в выражении (6.4.5) является формула  [c.124]

Программа REG является общей для выполнения регрессионного анализа, которая подходит для парных и множественных регрессионных моделей при использовании метода наименьших квадратов. Она позволяет вычислить все соответствующие статистики и построить график расположения остаточных членов. Могут быть реализованы ступенчатые методы. Метод рекомендуют для регрессии в случае некорректных данных, Программа использует метод наименьших квадратов для подгонки общих линейных моделей, ее также можно использовать для регрессионного анализа. С помощью программы NLIN вычисляют параметры нелинейных моделей, используя методы наименьших тов или взвешенных наименьших квадратов.  [c.675]

Функция Анализ данных системы EXEL позволяет получать матрицу коэффициентов корреляции, модели простой линейной и множественной регрессии и их статистические характеристики.  [c.81]

Эконометрика (2001) -- [ c.0 ]