Среди мер по устранению или уменьшению мультиколлинеарности отметим следующие 1) построение уравнений регрессии по отклонениям от тренда или конечным разностям 2) преобразование множества независимых переменных в несколько ортогональных множеств при помощи методов многомерного статистического анализа (факторного анализа или метода главных компонент) 3) исключение из рассмотрения одного или нескольких линейно связанных аргументов. [c.71]
Мы привели достаточно подробное изложение процедуры действий в том случае, если построение уравнения регрессии осуществляется без применения технических средств. Если имеется в наличии персональный компьютер или специализированный калькулятор, то большая часть приведенных действий возлагается на техническое средство. Следует отметить, что в среде персональных компьютеров имеются специализированные пакеты, которые выполняют большую часть приведенных действий в полном объеме (например, пошаговый регрессионный анализ позволяет автоматически отсеивать незначимые факторы). Что касается специализированных финансовых калькуляторов, то в этом случае происходит лишь механический расчет коэффициентов регрессии и статистик в соответствии с заданными алгоритмами никаких проверок мультиколлинеарности и отсеивания факторов не делается, т.е. эти процедуры возлагаются на исследователя. [c.127]
В эту группу входят методы анализа многофакторных зависимостей в условиях, когда факторы существенно коррелируют между собой. Дело в том, что практическое применение классических регрессионных моделей в экономическом анализе сопряжено с необходимостью преодоления ряда трудностей, основная из которых — мультиколлинеарность факторов. Особенность экономического анализа заключается в тесной взаимосвязи и взаимообусловленности показателей, поэтому бездумное и необоснованное включение в регрессионную модель бессистемно отобранных показателей нередко приводит к искусственности модели, невозможности ее использования на практике. Если пытаться следовать формальным требованиям регрессионного анализа в полном объеме, то, например, устранение мультиколлинеарности нередко сводится к отбрасыванию существенно коррелирующих факторов. В этом случае, во-первых, имеет место потеря информации и, во-вторых, анализ чаще всего выхолащивается, в некотором роде теряет смысл, поскольку модель сводится к одно- или двухфакторной. [c.128]
Сложность и взаимное переплетение отдельных факторов, обусловливающих исследуемое экономическое явление (процесс), могут проявляться в так называемой мультиколлинеарности, под которой понимается тесная зависимость между факторными признаками, включенными в модель. [c.118]
Наличие мультиколлинеарности между признаками приводит к [c.118]
В решении проблемы мультиколлинеарности можно выделить несколько этапов [c.119]
Устранение мультиколлинеарности может реализовываться путем исключения из корреляционной модели одного или. нескольких линейно-связанных факторных признаков или введения в модель времени как независимой переменной. [c.119]
В главе 5 рассмотрен ряд проблем, связанных с использованием регрессионных моделей, таких, как мультиколлинеарность, фиктивные переменные, линеаризация модели, частная корреляция. [c.4]
В предыдущих главах была изучена классическая линейная модель регрессии, приведена оценка параметров модели и проверка статистических гипотез о регрессии. Однако мы не касались некоторых проблем, связанных с практическим использованием модели множественной регрессии. К их числу относятся мультиколлинеарность, ее причины и методы устранения использование фиктивных переменных при включении в регрессионную модель качественных объясняющих переменных, линеаризация модели, вопросы частной корреляции между переменными. Изучению указанных проблем посвящена данная глава. [c.108]
При функциональной форме мультиколлинеарности по крайней мере одна из парных связей между объясняющими переменными является линейной функциональной зависимостью. В этом случае матрица Х Х особенная, так как содержит линейно зависимые векторы-столбцы и ее определитель равен нулю, т. е. нарушается предпосылка 6 регрессионного анализа. Это приводит к невозможности решения соответствующей системы нормальных уравнений и получения оценок параметров регрессионной модели. [c.108]
Однако в экономических исследованиях мультиколлинеарность чаще проявляется в стохастической форме, когда между хотя бы двумя объясняющими переменными существует тесная корреляционная связь. Матрица Х Х в этом случае является неособенной, но ее определитель очень мал. [c.108]
Точных количественных критериев для определения наличия или отсутствия мультиколлинеарности не существует. Тем не менее имеются некоторые эвристические подхо-д ы по ее выявлению. [c.109]
Один из таких подходов заключается в анализе корреляционной матрицы между объясняющими переменными Х, Х ,..., Хр и выявлении пар переменных, имеющих высокие коэффициенты корреляции (обычно больше 0,8). Если такие переменные существуют, то говорят о мультиколлинеарности между ними. [c.109]
Полезно также находить множественные коэффициенты детерминации между одной из объясняющих переменных и некоторой группой из них. Наличие высокого множественного коэффициента детерминации (обычно больше 0,6) свидетельствует о мультиколлинеарности. [c.109]
Для устранения или уменьшения мультиколлинеарности используется ряд методов. Самый простой из них (но далеко не всегда возможный) состоит в том, что из двух объясняющих переменных, имеющих высокий коэффициент корреляции (больше 0,8), одну переменную исключают из рассмотрения. При этом, какую переменную оставить, а какую удалить из анализа, решают в первую [c.109]
Оценки, определяемые вектором (4.8), обладают в соответствии с теоремой Гаусса—Маркова минимальными дисперсиями в классе всех линейных несмещенных оценок, но при наличии мультиколлинеарности эти дисперсии могут оказаться слишком большими, и обращение к соответствующим смещенным оценкам может повысить точность оценивания параметров регрессии. На рис. 5.1 показан случай, когда смещенная оценка Ру, [c.110]
Ортогональность главных компонент предотвращает проявление эффекта мультиколлинеарности. Кроме того, применяемый метод позволяет ограничиться малым числом главных компонент при сравнительно большом количестве исходных объясняющих переменных. [c.111]
Еще одним из возможных методов устранения или уменьшения мультиколлинеарности является использование пошаговых процедур отбора наиболее информативных переменных. Например, [c.111]
В случае обнаружения мультиколлинеарности принять меры по ее устранению (уменьшению), используя пошаговую процедуру отбора наиболее информативных переменных. [c.112]
Анализируя матрицу парных коэффициентов корреляции, можно отметить тесную корреляционную связь между переменными А и Х2 (ri2= 0,85), Xi и Х3 (пз = 0,98), Х2 и Х3 (/ = 0,88), что, очевидно, свидетельствует о мультиколлинеарности объясняющих переменных. [c.114]
Для устранения мультиколлинеарности применим процедуру пошагового отбора наиболее информативных переменных. [c.114]
Используя пошаговую процедуру отбора наиболее информативных объясняющих переменных, определить подходящую регрессионную модель, исключив при этом мультиколлинеарность. Оценить значимость коэффициентов регрессии полученной модели по f-критерию. [c.131]
Мощность критерия 47 Мультиколлинеарность 21, 108—111 [c.302]
Для полного ряда из 15 значений критерий однородности (Var < 0,33) не выполняется, следовательно, использовать полный ряд значений прибыли нельзя. Лишь исключив по четыре наибольших и наименьших значения, можно привести этот ряд к однородности. Проверка нормальности для усеченной совокупности данных (по 7 оставшимся магазинам) показывает, что все три ряда значений нормальны Правда, при этом вызывает сомнение правомочность использования статистических процедур на столь малой выборке. Однако если отвлечься от этого факта, то и в этом случае зависимость вида z = а + Ь х + Ь2у не даст аналитику значимой информации, поскольку между факторами хну наблюдается сильная взаимозависимость (мультиколлинеарность) - об этом свидетельствует высокое значение парного коэффициента корреляции (на усеченной выборке г = -0,88). [c.104]
Коэффициенты парной и частной корреляции по абсолютной величине во всех случаях ниже соответствующих им парных. Это обусловлено очень тесной положительной зависимостью между данными факторами, что свидетельствует о наличии мультиколлинеарности. [c.178]
При построении уравнения множественной регрессии может возникнуть проблема мультиколлинеарности факторов, их тесной линейной связанности. [c.53]
При построении многофакторных моделей по временным рядам часто возникает проблема мультиколлинеарности. Под мультикол-линеарностью понимается наличие сильной корреляции между факторами — аргументами, входящими в уравнение регрессии. Это явление часто представляет собой серьезную угрозу для правильного определения и оценки взаимосвязей. [c.71]
Принцип обозримости предполагает наличие некоторого набора показателей, оптимального для данного предприятия. В результате качественного анализа необходимо построить такую систему, которая охватывала бы все существенные стороны изучаемого явления. При этом показатели системы должны взаимно дополнять, а не дублировать друг друга, быть существенными и, по возможности, незначительно коррелирующими между собой. Последнее, кроме того, означает, что система показателей должна отвечать также и принципу допустимой мультиколлинеарности. Невы-прлнение данного принципа приводит к информационной перегруженное- [c.91]
Одним из индикаторов наличия мультиколлинеарности между признаками является превышение парным коэффициентом корреляции (rxixj) между ними величины 0,8. [c.119]
Под мулыпикаллинеарностью понимается высокая взаимная коррелированностъ объясняющих переменных. Мультиколлинеарность может проявляться в функциональной (явной) и стохастической (скрытой) формах. [c.108]
Другой подход состоит в исследовании матрицы Х Х. Если определитель матрицы Х Х либо ее минимальное собственное значение A.min близки к нулю (например, одного порядка с накапливающимися ошибками вычислений), то это говорит о наличии мультиколлинеарности. О том же может свидетельствовать и значительное отклонение максимального собственного значения Хтах матрицы Х Х от ее минимального собственного значения Хт-т. [c.109]
Для устранения мультиколлинеарности может быть использован переход от исходных объясняющих переменных Х, А ,..., Х , связанных между собой достаточно тесной корреляционной зависимостью, к новым переменным, представляющим линейные комбинации исходных. При этом новые переменные должны быть слабокоррелированными либо вообще некоррелированными. В качестве таких переменных берут, например, так называемые главные компоненты вектора исходных объясняющих переменных, изучаемые в компонентном анализе, и рассматривают регрессию на главных компонентах,. в которой последние выступают в качестве обобщенных объясняющих переменных, подлежащих в дальнейшем содержательной (экономической) интерпретации. [c.111]
Заметим, что переменные X не коррелируют с ошибками Е, так что, применив обратное преобразование Койка, мы решили проблему коррелированности регрессоров со случайными членами. Однако применение обычного метода наименьших квадратов к модели (8.32) оказывается на практике невозможным из-за бесконечно большого количества регрессоров. Разумеется, в силу того, что коэффициенты входящего в модель ряда убывают в геометрической прогрессии, и, стало быть, сам ряд быстро сходится, можно было бы ограничиться сравнительно небольшим числом лагов. Однако и в этом случае мы столкнулись бы по крайней мере с двумя трудно решаемыми проблемами. Во-первых, возникла бы сильная мультиколлинеарность, так как естественно ожидать, что лаговые переменные сильно коррели-рованы. Во-вторых, уравнение оказалось бы неидентифицируемым. В модели на самом деле присутствует всего четыре параметра. Между тем как, взяв всего лишь три лага, мы бы получили оценки пяти параметров. [c.203]
Изучение этой дисциплины предполагает приобретение студентами опыта построения эконометрических моделей, принятия решений о спецификации и идентификации модели, выбора метода оценки параметров модели, интерпретации результатов, получения прогнозных оценок. Студенты должны также научиться давать статистическую оценку значимости таких искажающих эффектов, как гетероскеда-стичность остатков зависимой переменной, мультиколлинеарность объясняющих переменных, автокорреляция. В связи с этим курс эконометрики обязательно включает решение задач. Соответственно методическое обеспечение курса должно состоять из учебника и практикума. [c.3]
Смотреть страницы где упоминается термин Мультиколлинеарность
: [c.222] [c.327] [c.127] [c.254] [c.547] [c.119] [c.119] [c.119] [c.108] [c.118] [c.45] [c.100] [c.128] [c.251]Смотреть главы в:
Эконометрика -> Мультиколлинеарность
Количественные методы в финансах -> Мультиколлинеарность
Вводный курс эконометрики -> Мультиколлинеарность
Математические методы в экономике Издание 2 -> Мультиколлинеарность
Эконометрика (2002) -- [ c.21 , c.108 ]
Эконометрика (2001) -- [ c.24 , c.95 , c.311 ]
Экономико-математический словарь Изд.5 (2003) -- [ c.207 ]
Матричное дифференциальное исчисление с приложениями к статистике и эконометрике (2002) -- [ c.329 ]
Прикладная статистика Исследование зависимостей (1985) -- [ c.50 , c.252 ]
Математические методы моделирования экономических систем Изд2 (2006) -- [ c.151 ]
Эконометрика начальный курс (2004) -- [ c.109 , c.110 ]
Маркетинговые исследования Издание 3 (2002) -- [ c.0 ]