Мультиколлинеарность

Кроме того, должны быть исключены краткосрочные (циклические колебания) и аномальные наблюдения, обеспечено достаточное число наблюдений по сравнению с количеством факторов и, наконец, должна отсутствовать парная корреляция между факторами (мультиколлинеарность).  [c.138]


Среди мер по устранению или уменьшению мультиколлинеарности отметим следующие 1) построение уравнений регрессии по отклонениям от тренда или конечным разностям 2) преобразование множества независимых переменных в несколько ортогональных множеств при помощи методов многомерного статистического анализа (факторного анализа или метода главных компонент) 3) исключение из рассмотрения одного или нескольких линейно связанных аргументов.  [c.71]

Мы привели достаточно подробное изложение процедуры действий в том случае, если построение уравнения регрессии осуществляется без применения технических средств. Если имеется в наличии персональный компьютер или специализированный калькулятор, то большая часть приведенных действий возлагается на техническое средство. Следует отметить, что в среде персональных компьютеров имеются специализированные пакеты, которые выполняют большую часть приведенных действий в полном объеме (например, пошаговый регрессионный анализ позволяет автоматически отсеивать незначимые факторы). Что касается специализированных финансовых калькуляторов, то в этом случае происходит лишь механический расчет коэффициентов регрессии и статистик в соответствии с заданными алгоритмами никаких проверок мультиколлинеарности и отсеивания факторов не делается, т.е. эти процедуры возлагаются на исследователя.  [c.127]


В эту группу входят методы анализа многофакторных зависимостей в условиях, когда факторы существенно коррелируют между собой. Дело в том, что практическое применение классических регрессионных моделей в экономическом анализе сопряжено с необходимостью преодоления ряда трудностей, основная из которых — мультиколлинеарность факторов. Особенность экономического анализа заключается в тесной взаимосвязи и взаимообусловленности показателей, поэтому бездумное и необоснованное включение в регрессионную модель бессистемно отобранных показателей нередко приводит к искусственности модели, невозможности ее использования на практике. Если пытаться следовать формальным требованиям регрессионного анализа в полном объеме, то, например, устранение мультиколлинеарности нередко сводится к отбрасыванию существенно коррелирующих факторов. В этом случае, во-первых, имеет место потеря информации и, во-вторых, анализ чаще всего выхолащивается, в некотором роде теряет смысл, поскольку модель сводится к одно- или двухфакторной.  [c.128]

Сложность и взаимное переплетение отдельных факторов, обусловливающих исследуемое экономическое явление (процесс), могут проявляться в так называемой мультиколлинеарности, под которой понимается тесная зависимость между факторными признаками, включенными в модель.  [c.118]

Наличие мультиколлинеарности между признаками приводит к  [c.118]

В решении проблемы мультиколлинеарности можно выделить несколько этапов  [c.119]

Устранение мультиколлинеарности может реализовываться путем исключения из корреляционной модели одного или. нескольких линейно-связанных факторных признаков или введения в модель времени как независимой переменной.  [c.119]

В главе 5 рассмотрен ряд проблем, связанных с использованием регрессионных моделей, таких, как мультиколлинеарность, фиктивные переменные, линеаризация модели, частная корреляция.  [c.4]


В предыдущих главах была изучена классическая линейная модель регрессии, приведена оценка параметров модели и проверка статистических гипотез о регрессии. Однако мы не касались некоторых проблем, связанных с практическим использованием модели множественной регрессии. К их числу относятся мультиколлинеарность, ее причины и методы устранения использование фиктивных переменных при включении в регрессионную модель качественных объясняющих переменных, линеаризация модели, вопросы частной корреляции между переменными. Изучению указанных проблем посвящена данная глава.  [c.108]

При функциональной форме мультиколлинеарности по крайней мере одна из парных связей между объясняющими переменными является линейной функциональной зависимостью. В этом случае матрица Х Х особенная, так как содержит линейно зависимые векторы-столбцы и ее определитель равен нулю, т. е. нарушается предпосылка 6 регрессионного анализа. Это приводит к невозможности решения соответствующей системы нормальных уравнений и получения оценок параметров регрессионной модели.  [c.108]

Однако в экономических исследованиях мультиколлинеарность чаще проявляется в стохастической форме, когда между хотя бы двумя объясняющими переменными существует тесная корреляционная связь. Матрица Х Х в этом случае является неособенной, но ее определитель очень мал.  [c.108]

Точных количественных критериев для определения наличия или отсутствия мультиколлинеарности не существует. Тем не менее имеются некоторые эвристические подхо-д ы по ее выявлению.  [c.109]

Один из таких подходов заключается в анализе корреляционной матрицы между объясняющими переменными Х, Х ,..., Хр и выявлении пар переменных, имеющих высокие коэффициенты корреляции (обычно больше 0,8). Если такие переменные существуют, то говорят о мультиколлинеарности между ними.  [c.109]

Полезно также находить множественные коэффициенты детерминации между одной из объясняющих переменных и некоторой группой из них. Наличие высокого множественного коэффициента детерминации (обычно больше 0,6) свидетельствует о мультиколлинеарности.  [c.109]

Для устранения или уменьшения мультиколлинеарности используется ряд методов. Самый простой из них (но далеко не всегда возможный) состоит в том, что из двух объясняющих переменных, имеющих высокий коэффициент корреляции (больше 0,8), одну переменную исключают из рассмотрения. При этом, какую переменную оставить, а какую удалить из анализа, решают в первую  [c.109]

Оценки, определяемые вектором (4.8), обладают в соответствии с теоремой Гаусса—Маркова минимальными дисперсиями в классе всех линейных несмещенных оценок, но при наличии мультиколлинеарности эти дисперсии могут оказаться слишком большими, и обращение к соответствующим смещенным оценкам может повысить точность оценивания параметров регрессии. На рис. 5.1 показан случай, когда смещенная оценка Ру,  [c.110]

Ортогональность главных компонент предотвращает проявление эффекта мультиколлинеарности. Кроме того, применяемый метод позволяет ограничиться малым числом главных компонент при сравнительно большом количестве исходных объясняющих переменных.  [c.111]

Еще одним из возможных методов устранения или уменьшения мультиколлинеарности является использование пошаговых процедур отбора наиболее информативных переменных. Например,  [c.111]

В случае обнаружения мультиколлинеарности принять меры по ее устранению (уменьшению), используя пошаговую процедуру отбора наиболее информативных переменных.  [c.112]

Анализируя матрицу парных коэффициентов корреляции, можно отметить тесную корреляционную связь между переменными А и Х2 (ri2= 0,85), Xi и Х3 (пз = 0,98), Х2 и Х3 (/ = 0,88), что, очевидно, свидетельствует о мультиколлинеарности объясняющих переменных.  [c.114]

Для устранения мультиколлинеарности применим процедуру пошагового отбора наиболее информативных переменных.  [c.114]

Используя пошаговую процедуру отбора наиболее информативных объясняющих переменных, определить подходящую регрессионную модель, исключив при этом мультиколлинеарность. Оценить значимость коэффициентов регрессии полученной модели по f-критерию.  [c.131]

Мощность критерия 47 Мультиколлинеарность 21, 108—111  [c.302]

Для полного ряда из 15 значений критерий однородности (Var < 0,33) не выполняется, следовательно, использовать полный ряд значений прибыли нельзя. Лишь исключив по четыре наибольших и наименьших значения, можно привести этот ряд к однородности. Проверка нормальности для усеченной совокупности данных (по 7 оставшимся магазинам) показывает, что все три ряда значений нормальны Правда, при этом вызывает сомнение правомочность использования статистических процедур на столь малой выборке. Однако если отвлечься от этого факта, то и в этом случае зависимость вида z = а + Ь х + Ь2у не даст аналитику значимой информации, поскольку между факторами хну наблюдается сильная взаимозависимость (мультиколлинеарность) - об этом свидетельствует высокое значение парного коэффициента корреляции (на усеченной выборке г = -0,88).  [c.104]

Коэффициенты парной и частной корреляции по абсолютной величине во всех случаях ниже соответствующих им парных. Это обусловлено очень тесной положительной зависимостью между данными факторами, что свидетельствует о наличии мультиколлинеарности.  [c.178]

При построении уравнения множественной регрессии может возникнуть проблема мультиколлинеарности факторов, их тесной линейной связанности.  [c.53]

При построении многофакторных моделей по временным рядам часто возникает проблема мультиколлинеарности. Под мультикол-линеарностью понимается наличие сильной корреляции между факторами — аргументами, входящими в уравнение регрессии. Это явление часто представляет собой серьезную угрозу для правильного определения и оценки взаимосвязей.  [c.71]

Принцип обозримости предполагает наличие некоторого набора показателей, оптимального для данного предприятия. В результате качественного анализа необходимо построить такую систему, которая охватывала бы все существенные стороны изучаемого явления. При этом показатели системы должны взаимно дополнять, а не дублировать друг друга, быть существенными и, по возможности, незначительно коррелирующими между собой. Последнее, кроме того, означает, что система показателей должна отвечать также и принципу допустимой мультиколлинеарности. Невы-прлнение данного принципа приводит к информационной перегруженное-  [c.91]

Одним из индикаторов наличия мультиколлинеарности между признаками является превышение парным коэффициентом корреляции (rxixj) между ними величины 0,8.  [c.119]

Под мулыпикаллинеарностью понимается высокая взаимная коррелированностъ объясняющих переменных. Мультиколлинеарность может проявляться в функциональной (явной) и стохастической (скрытой) формах.  [c.108]

Другой подход состоит в исследовании матрицы Х Х. Если определитель матрицы Х Х либо ее минимальное собственное значение A.min близки к нулю (например, одного порядка с накапливающимися ошибками вычислений), то это говорит о наличии мультиколлинеарности. О том же может свидетельствовать и значительное отклонение максимального собственного значения Хтах матрицы Х Х от ее минимального собственного значения Хт-т.  [c.109]

Для устранения мультиколлинеарности может быть использован переход от исходных объясняющих переменных Х, А ,..., Х , связанных между собой достаточно тесной корреляционной зависимостью, к новым переменным, представляющим линейные комбинации исходных. При этом новые переменные должны быть слабокоррелированными либо вообще некоррелированными. В качестве таких переменных берут, например, так называемые главные компоненты вектора исходных объясняющих переменных, изучаемые в компонентном анализе, и рассматривают регрессию на главных компонентах,. в которой последние выступают в качестве обобщенных объясняющих переменных, подлежащих в дальнейшем содержательной (экономической) интерпретации.  [c.111]

Заметим, что переменные X не коррелируют с ошибками Е, так что, применив обратное преобразование Койка, мы решили проблему коррелированности регрессоров со случайными членами. Однако применение обычного метода наименьших квадратов к модели (8.32) оказывается на практике невозможным из-за бесконечно большого количества регрессоров. Разумеется, в силу того, что коэффициенты входящего в модель ряда убывают в геометрической прогрессии, и, стало быть, сам ряд быстро сходится, можно было бы ограничиться сравнительно небольшим числом лагов. Однако и в этом случае мы столкнулись бы по крайней мере с двумя трудно решаемыми проблемами. Во-первых, возникла бы сильная мультиколлинеарность, так как естественно ожидать, что лаговые переменные сильно коррели-рованы. Во-вторых, уравнение оказалось бы неидентифицируемым. В модели на самом деле присутствует всего четыре параметра. Между тем как, взяв всего лишь три лага, мы бы получили оценки пяти параметров.  [c.203]

Изучение этой дисциплины предполагает приобретение студентами опыта построения эконометрических моделей, принятия решений о спецификации и идентификации модели, выбора метода оценки параметров модели, интерпретации результатов, получения прогнозных оценок. Студенты должны также научиться давать статистическую оценку значимости таких искажающих эффектов, как гетероскеда-стичность остатков зависимой переменной, мультиколлинеарность объясняющих переменных, автокорреляция. В связи с этим курс эконометрики обязательно включает решение задач. Соответственно методическое обеспечение курса должно состоять из учебника и практикума.  [c.3]

Смотреть главы в:



Эконометрика  -> Мультиколлинеарность

Матричное дифференциальное исчисление с приложениями к статистике и эконометрике  -> Мультиколлинеарность

Количественные методы в финансах  -> Мультиколлинеарность

Вводный курс эконометрики  -> Мультиколлинеарность

Математические методы в экономике Издание 2  -> Мультиколлинеарность

Эконометрика начальный курс  -> Мультиколлинеарность

Финансовый анализ - методы и процедуры (2001) -- [ c.91 , c.127 , c.128 ]

Эконометрика (2002) -- [ c.21 , c.108 ]

Эконометрика (2001) -- [ c.24 , c.95 , c.311 ]

Экономико-математический словарь Изд.5 (2003) -- [ c.207 ]

Матричное дифференциальное исчисление с приложениями к статистике и эконометрике (2002) -- [ c.329 ]

Прикладная статистика Исследование зависимостей (1985) -- [ c.50 , c.252 ]

Математические методы моделирования экономических систем Изд2 (2006) -- [ c.151 ]

Эконометрика начальный курс (2004) -- [ c.109 , c.110 ]

Маркетинговые исследования Издание 3 (2002) -- [ c.0 ]