Как уже отмечено в 4.1, модель (4.2), удовлетворяющая приведенным предпосылкам 1—6, называется классической нормальной линейной моделью множественной регрессии если же среди приведенных не выполняется лишь предпосылка 5 о нормальном законе распределения вектора возмущений е, то модель (4.2) называется просто классической линейной моделью множественной регрессии. [c.87]
Обобщенная линейная модель множественной регрессии [c.150]
Убедимся в том, что модель (7.11) удовлетворяет всем требованиям классической линейной модели множественной регрессии ( 4.2) [c.153]
Как было отмечено в 7.1, b — несмещенная и состоятельная оценка параметра р для обобщенной линейной модели множественной регрессии следовательно, и в частном случае, когда мо- [c.156]
Лаг 19, 230, 291, 293, 297, 307, 309 Лаговые переменные 291, 307, 311 Линеаризация 62-63, 66, 69-71, 103 Линейная модель множественной регрессии 90 Линейность 15-16, 70-71 Ложная корреляция 19, 222 [c.339]
Рассматривается стандартная линейная модель множественной регрессии у = Х/3 + е, где X — п х k матрица ранга f . [c.97]
До сих пор мы рассматривали проблемы, связанные с оценками, получающимися в результате процедуры предварительного тестирования. Конечно, все рассмотренные выше проблемы возникают и при прогнозировании. Рассмотрим, например, стандартную линейную модель множественной регрессии [c.425]
Линейная модель множественной регрессии имеет общий вид [c.134]
Рассмотрим вопрос о регрессии. В ряде случаев именно от его решения — оценки уравнений регрессии — зависят оценки тесноты связи, а они, в свою очередь, дополняют результаты регрессионного анализа. Прежде всего следует определить перечень независимых переменных X, включаемых в уравнение. Это должно делаться на основе теоретических положений. Список X может быть достаточно широк и ограничен только исходной информацией. На практике теоретические положения о сути взаимосвязи подкрепляются парными коэффициентами корреляции между зависимой и независимыми переменными. Отбор наиболее значимых из них можно провести с помощью ЭВМ, выбирая в соответствии с коэффициентами корреляции и другими критериями факторы, наиболее тесно связанные с У. Параллельно решается вопрос о форме уравнения. Современные средства вычислительной техники позволяют за относительно короткое время рассчитать достаточно много вариантов уравнений. В ЭВМ вводятся значения зависимой переменной У и матрица независимых переменных X, принимается форма уравнения, например линейная. Ставится задача включить в уравнение k наиболее значимых X. В результате получим уравнение регрессии с k наиболее значимыми факторами. Аналогично можно выбрать наилучшую форму связи. Этот традиционный прием, называемый пошаговой регрессией, если он не противоречит качественным посылкам, достигает приемлемых результатов. Первоначально обычно берется линейная модель множественной регрессии [c.134]
Временной ряд st можно представить в эквивалентном (1.62) виде, при котором он получается в виде классической линейной модели множественной регрессии, в которой в качестве объясняющих переменных выступают его собственные значения во все прошлые моменты времени [c.41]
В предыдущих главах была изучена классическая линейная модель регрессии, приведена оценка параметров модели и проверка статистических гипотез о регрессии. Однако мы не касались некоторых проблем, связанных с практическим использованием модели множественной регрессии. К их числу относятся мультиколлинеарность, ее причины и методы устранения использование фиктивных переменных при включении в регрессионную модель качественных объясняющих переменных, линеаризация модели, вопросы частной корреляции между переменными. Изучению указанных проблем посвящена данная глава. [c.108]
Рассмотрим самую употребляемую и наиболее простую из моделей множественной регрессии — модель множественной линейной регрессии. [c.141]
Приведенные выше рассуждения и примеры дают основания более детально рассмотреть возможные нелинейные модели. В рамках вводного курса мы ограничимся рассмотрением нелинейных моделей, допускающих их сведение к линейным. Обычно это так называемые линейные относительно параметров модели. Для простоты изложения и графической иллюстрации будем рассматривать модели парной регрессии с последующим естественным переходом к моделям множественной регрессии. [c.180]
Одним из наиболее распространенных способов получения многофакторных прогнозов является упоминавшийся ранее классический метод наименьших квадратов и построение на его основе модели множественной регрессии [16]. Для линейного случая модель множественной регрессии записывается в виде [c.33]
Модели множественной линейной регрессии [c.91]
Обозначим /-е наблюдение зависимой переменной у/, а объясняющих переменных — хц, хд,..., xip. Тогда модель множественной линейной регрессии можно представить в виде [c.82]
При моделировании реальных экономических процессов мы нередко сталкиваемся с ситуациями, в которых условия классической линейной модели регрессии оказываются нарушенными. В частности, могут не выполняться предпосылки 3 и 4 регрессионного анализа (см. (3.24) и (3.25)) о том, что случайные возмущения (ошибки) модели имеют постоянную дисперсию и не коррелированы между собой. Для линейной множественной модели эти предпосылки означают (см. 4.2), что ковариационная матрица вектора возмущений (ошибок) е имеет вид [c.150]
Так, в качестве модели относительных изменений объемов экспорта и относительного изменения экспортных цен широко используют зарекомендовавшую себя линейную множественную регрессию с двумя причинными и одной результативной переменными, включенными в модель в виде значений натуральных логарифмов соответствующих признаков [c.114]
Сравнивая коэффициенты множественной регрессии с коэффициентами парной корреляции по отдельным факторам, находим, что для четвертого фактора знаки при коэффициентах разные. Такое положение экономически противоречиво. Если исходить из парных коэффициентов корреляции, то с увеличением числа филиалов уровень торгово-управленческих расходов должен уменьшаться, а согласно коэффициенту множественной регрессии — расти. Такое явление может быть объяснено незначительным влиянием этих факторов (их несущественностью) или коллинеарностью модели (наличием тесной связи между двумя факторными признаками). Для исключения этого явления (различных знаков коэффициентов парной корреляции и множественной регрессии при. одном и том же факторном признаке) исключаем фактор 4 из модели. После решения новой системы линейных уравнений получим следующие коэффициенты множественной регрессии для оставшихся факторов pi = 0,l 49 02 = 0,721 р3=— 0,161 р5 = 0,130. [c.179]
При применении метода исключения переменных уравнение рефессии желательно представить сразу в полной квадратичной или кубичной форме с предварительным вычислением коэффициентов регрессии и корреляции и проверкой линейности модели по / -критерию. Исключение начинают с фактора, имеющего наименьший t-критерий. На каждом этапе после исключения каждого фактора для нового уравнения регрессии вычисляется множественный коэффициент корреляции, остаточная дисперсия и F-критерий. Для прекращения исключения факторов следует следить за изменением остаточной дисперсии. Как только она начнет увеличиваться — исключение факторов следует прекратить. Используется также метод контроля значений /-критерия. Для исключения следующего фактора мы сравниваем его значение ( ) с /-критерием предыдущего исключенного фактора и, если они отличаются незначительно, то фактор исключается. Если же различия /-критериев значительны, то исключение факторов прекращают. [c.121]
Определение оптимального числа предикторов в модели линейной множественной регрессии. Пусть мы строим линейную множественную регрессию результирующего показателя г по предикторам (л 1), х(2>,. .., л (р>), используя для этого выборку ограниченного объема [c.191]
Опираясь на (6.8), можно предложить следующую процедуру определения оптимального состава и числа предикторов модели множественной линейной регрессии. [c.191]
При изучении вопроса статистической оценки взаимосвязанных источников доказательств обычно используют три статистические модели [78] линейную множественную регрессию нелинейную регрессию условные вероятности. [c.80]
На втором этапе проведены исследования линейной корреляционной зависимости цеховой удельной фондоемкости от производственных фактор-аргументов, включенных в соответствующую экономико-математическую модель. Так, уравнение множественной регрессии для определения цеховой удельной фондоемкости единицы изделия-представителя включено 8 факторов-аргументов [c.523]
В десятой главе анализируются последствия линейной зависимости между объясняющими переменными в модели множественной линейной регрессии - мультиколлинеарности. Приводятся способы обнаружения и преодоления мультиколлинеарности. [c.8]
Как определяется модель множественной линейной регрессии [c.173]
В моделях множественной линейной регрессии при увеличении количества параметров регрессии (бета-весов) по отношению к размеру выборки увеличивается степень вредной подгонки и уменьшается достоверность результатов модели. Другими словами, чем выше степень подгонки под исторические данные, тем сложнее добиться статистической значимости. Исключением является случай, когда повышение результативности модели, вызванное подгонкой, компенсирует потерю значимости при добавлении параметров. Оценка степени ожидаемого снижения корреляции при использовании данных вне выборки может производиться напрямую, исходя из объема данных и количества параметров корреляция снижается с увеличением числа параметров и увеличивается с рос- [c.73]
При использовании технологии нейронных сетей двумерная плоскость или n-мерная гиперплоскость множественной линейной регрессии заменяется гладкой n-мерной изогнутой поверхностью с пиками и провалами, хребтами и оврагами. Например, нам требуется найти оптимальное решение для набора переменных, и задача будет сводиться к построению многомерной карты. В нейронной сети решение достигается при помощи нейронов — взаимосвязанных нелинейных элементов, связи которых сбалансированы так, чтобы подгонять поверхность подданные. Алгоритм обучения производит регулировку весов связей для получения максимально вписывающейся в исходные данные конфигурации поверхности. Как и в случае со стандартной множественной регрессией, где коэффициенты регрессии необходимы для определения наклона гиперповерхности, для нейронной модели требуются параметры (в виде весов связей), чтобы обеспечить наилучшее совпадение построенной поверхности, всех ее возвышений и впадин, с входными данными. [c.254]
В рамках множественной корреляции находятся уравнение регрессии, которые бывают линейными, степенными и логарифмическими. В линейных моделях коэффициенты при неизвестных называются коэффициентами регрессии, а в степенных и логарифмических - коэффициентами эластичности. Первые показывают, насколько единиц изменяется функция с изменением соответствующего фактора на одну единицу при неизменных значениях остальных. Вторые - отражают, на сколько процентов изменяется функция с изменением каждого аргумента на 1 % при неизменных значениях остальных. [c.15]
Если проверка остатков выявит, что лежащие в основе регрессионной модели допущения не выполняются, то исследователь может преобразовать переменные таким образом, чтобы эти предположения выполнялись. Такие преобразования, как логарифмирование, извлечение квадратного корня или вычисление обратных величин, могут стабилизировать дисперсию, сделать распределение нормальным и зависимость линейной. В дальнейшем мы проиллюстрируем применение множественной регрессии на примере. [c.666]
В главе 7 представлены обобщенная линейная модель множественной регрессии и обобщенный метод наименьших квадратов. Исследуется комплекс вопросов, связанных с нарушением предпосылок классической модели регрессии — гетероскедастично-стью и автокоррелированностью остатков временного ряда, их тестированием и устранением, идентификацией временного ряда. [c.4]
Классическая линейная модель множественной регрессии (КЛММР). Оценка неизвестных параметров КЛММР, статистические свойства оценок. Отбор наиболее существенных объясняющих переменных в КЛММР. Признаки и причины мультиколлинеарности. Методы устранения мультиколлинеарности. Множественная корреляция. Частная корреляция. Оценка [c.3]
Обобщённая линейная модель множественной регрессии (ОЛММР). [c.4]
Как уже отмечалось выше, равенство дисперсий возмущений (ошибок) регрессиии е/ (гомоскедастичность) является существенным условием линейной классической регрессионной модели множественной регрессии, записываемым в виде У е [c.155]
Естественным обобщением линейной регрессионной модели с двумя переменными (см. п. 2.3) является многомерная регрессионная модель (multiple regression model), или модель множественной регрессии [c.67]
Функция Анализ данных системы EXEL позволяет получать матрицу коэффициентов корреляции, модели простой линейной и множественной регрессии и их статистические характеристики. [c.81]
Учитывая матричную форму изложения в учебнике вопросов множественной регрессии, в приложении (главе 11) приведены основные сведения из линейной алгебры. Кроме того, в ыаве 12 рассмотрено применение компьютерных пакетов для оценивания эконометрических моделей, а также проведение эксперимента по методу Монте-Карло, основанного на компьютерном моделировании случайных величин. [c.4]
X на Хь X на Х2,. .., Хт на Хт, получаем вместо (7.18) модель множественной линейной регрессии с m переменными Х15Х2,..., Хт [c.187]
Модели линейной регрессии (6.4.4-6.4.5), с одной стороны, очень просты и это является их достоинством, но с другой стороны их простота оборачивается потерей точности предсказаний из-за не учёта ведущего фактора (состояния рынка в целом) и других факторов, влияющих в той или иной степени на эффективность ценных бумаг. Учёт нескольких факторов, безусловно, можно осуществить в рамках моделей множественной линейной или же нелинейной регрессии, но это усложнит для конечного пользователя вид моделей и обозримость результатов. Поэтому для того, чтобы повысить точность предсказания модели линейной регрессии для всего спектра ценных бумаг, функционирующих на рынке США, пошли не по пути усложнения моделей, а путём введения дополнительных поправок к коэффициентам линейной регрессии в моделях (6.4.4 - 6.4.5). Статистические исследования рынка США[8] показали, например, что эффективной для коррекции коэффициента/ , в выражении (6.4.5) является формула [c.124]
Программа REG является общей для выполнения регрессионного анализа, которая подходит для парных и множественных регрессионных моделей при использовании метода наименьших квадратов. Она позволяет вычислить все соответствующие статистики и построить график расположения остаточных членов. Могут быть реализованы ступенчатые методы. Метод рекомендуют для регрессии в случае некорректных данных, Программа использует метод наименьших квадратов для подгонки общих линейных моделей, ее также можно использовать для регрессионного анализа. С помощью программы NLIN вычисляют параметры нелинейных моделей, используя методы наименьших тов или взвешенных наименьших квадратов. [c.675]