Суть мультиколлинеарности

Факторы не должны быть тесно связаны между собой, т. е. не должно быть мультиколлинеарности.  [c.135]


Кроме того, должны быть исключены краткосрочные (циклические колебания) и аномальные наблюдения, обеспечено достаточное число наблюдений по сравнению с количеством факторов и, наконец, должна отсутствовать парная корреляция между факторами (мультиколлинеарность).  [c.138]

Проверка мультиколлинеарности факторов может быть проведена методом испытания гипотезы о независимости переменных  [c.55]

Оценка значимости мультиколлинеарности факторов может быть проведена методом испытания гипотезы о независимости переменных Но Det Щ = 1. Доказано, что величина  [c.96]

Чрезвычайно важным является и требование относительно матрицы исследуемых факторов. Она должна быть свободна от мультиколлинеарности. Во множественной регрессии предполагается, что матрица факторов представляет собой невырожденную матрицу, определитель которой отличен от нуля. Наличие мультиколлинеарности может исказить правильную экономическую интерпретацию параметров регрессии (см. п. 3.2).  [c.169]


К каким трудностям приводит мультиколлинеарность факторов, включенных в модель, и как они могут быть разрешены  [c.175]

При мультиколлинеарности коэффициенты регрессии нестабильны как в отношении статистической значимости, так и по величине и знаку. Следовательно, они ненадежны. Значения коэффициентов R2 могут быть высокими, но стандартные ошибки тоже высоки, и отсюда r-критерии малы, отражая недостаток значимости.  [c.290]

В отношении мультиколлинеарности может быть принято несколько мер  [c.290]

Все эти эффекты затрудняют и без того сложную задачу интерпретации коэффициентов регрессии или вообще делают невозможным ее решение без привлечения новых способов обработки и дополнительной информации. В этих условиях нельзя применять уравнение регрессии и для прогноза значений переменной у. В то же время если уравнение регрессии предполагается использовать для целей прогноза значений переменной у только в точках, близких к значениям объясняющих переменных х(1 . .., х из матрицы данных X, то оно может оказаться вполне удовлетворительным независимо от степени связи между предсказывающими переменными качество уравнения регрессии определяется значением коэффициента множественной корреляции Ry.x между переменной у и переменными X (хотя при этом может быть необходимо принять некоторые предосторожности чисто вычислительного характера). Таким образом, последствия мультиколлинеарности тем серьезнее, чем больше информации мы хотим получить из имеющейся совокупности наблюдений.  [c.254]

Мультиколлинеарность может быть проблемой лишь в случае множественной регрессии. Ее суть можно представить на примере совершенной мультиколлинеарности.  [c.245]

Существует несколько признаков, по которым может быть установлено наличие мультиколлинеарности.  [c.248]


В ряде случаев проблема мультиколлинеарности может быть решена изменением спецификации модели либо изменением формы модели, либо добавлением объясняющих переменных, которые не учтены в первоначальной модели, но существенно влияющие на зависимую переменную. Если данный метод имеет основания, то его использование уменьшает сумму квадратов отклонений, тем самым сокращая стандартную ошибку регрессии. Это приводит к уменьшению стандартных ошибок коэффициентов.  [c.252]

Но в этой ситуации между переменными DI и D2 существует строгая линейная зависимость D2 = 1 - DI. Мы попадаем в ситуацию совершенной мультиколлинеарности, при которой коэффициенты bi и однозначно определены быть не могут. Простейшим способом пре-  [c.259]

Природа мультиколлинеарности нагляднее всего может быть продемонстрирована на примере совершенной мультиколлинеарности, то есть строгой линейной связи между объясняющими переменными. Например, если в уравнении  [c.347]

Принцип обозримости предполагает наличие некоторого набора показателей, оптимального для данного предприятия. В результате качественного анализа необходимо построить такую систему, которая охватывала бы все существенные стороны изучаемого явления. При этом показатели системы должны взаимно дополнять, а не дублировать друг друга, быть существенными и, по возможности, незначительно коррелирующими между собой. Последнее, кроме того, означает, что система показателей должна отвечать также и принципу допустимой мультиколлинеарности. Невы-прлнение данного принципа приводит к информационной перегруженное-  [c.91]

Для устранения мультиколлинеарности может быть использован переход от исходных объясняющих переменных Х, А ,..., Х , связанных между собой достаточно тесной корреляционной зависимостью, к новым переменным, представляющим линейные комбинации исходных. При этом новые переменные должны быть слабокоррелированными либо вообще некоррелированными. В качестве таких переменных берут, например, так называемые главные компоненты вектора исходных объясняющих переменных, изучаемые в компонентном анализе, и рассматривают регрессию на главных компонентах,. в которой последние выступают в качестве обобщенных объясняющих переменных, подлежащих в дальнейшем содержательной (экономической) интерпретации.  [c.111]

Заметим, что переменные X не коррелируют с ошибками Е, так что, применив обратное преобразование Койка, мы решили проблему коррелированности регрессоров со случайными членами. Однако применение обычного метода наименьших квадратов к модели (8.32) оказывается на практике невозможным из-за бесконечно большого количества регрессоров. Разумеется, в силу того, что коэффициенты входящего в модель ряда убывают в геометрической прогрессии, и, стало быть, сам ряд быстро сходится, можно было бы ограничиться сравнительно небольшим числом лагов. Однако и в этом случае мы столкнулись бы по крайней мере с двумя трудно решаемыми проблемами. Во-первых, возникла бы сильная мультиколлинеарность, так как естественно ожидать, что лаговые переменные сильно коррели-рованы. Во-вторых, уравнение оказалось бы неидентифицируемым. В модели на самом деле присутствует всего четыре параметра. Между тем как, взяв всего лишь три лага, мы бы получили оценки пяти параметров.  [c.203]

Первая точка зрения исходит из того, что модель регрессии (8.1) является истинной, и несмещенная оценка коэффициентов регрессии получается мнк путем решения системы уравнений (8.3) (в условиях мультиколлинеарности эта оценка может быть неудовлетворительной, но тем не менее несмещенной). Тогда принудительное приравнивание части коэффициентов регрессионного уравнения к 0, что и происходит при отборе переменных, естественно, приводит, если матрица S недиаго-йальна, к смещенным оценкам коэффициентов при оставшихся переменных, т. е. мы приходим к классу смещенных оценок, рассмотренных в 8.3.  [c.281]

На практике исследователю нередко приходится сталкиваться с ситуацией, когда полученная им регрессия является плохой , т. е. i-статистики большинства оценок малы, что свидетельствует о незначимости соответствующих независимых переменных (ре-грессоров). В то же время F-статистика (3.36) может быть достаточно большой, что говорит о значимости регрессии в целом. Одна из возможных причин такого явления носит название муль-тиколлинеарности и возникает при наличии высокой корреляции между регрессорами. Проблеме мультиколлинеарности посвящено начало этой главы.  [c.108]

Допустимая мультиколлинеарность. Показатели системы должны взаимно дополнять, а не дублировать друг друга, быть существенными и по возможности незначитель-по коррелирующими между собой. Невыполнение данного принципа приводит к информационной перегруженности отобранной совокупности показателей, поскольку коррелирующие индикаторы ведут себя в динамике одинаково, а потому полезность их одновременного включения в систему может оказаться сомнительной. Безусловно, речь не идет о том, что, формируя совокупность показателей, необходимо всегда рассчитывать коэффициенты парной корреляции просто это обстоятельство следует иметь в виду и по возможности учитывать.  [c.180]

Смотреть страницы где упоминается термин Суть мультиколлинеарности

: [c.254]    [c.95]    [c.301]    [c.347]