Мы привели достаточно подробное изложение процедуры действий в том случае, если построение уравнения регрессии осуществляется без применения технических средств. Если имеется в наличии персональный компьютер или специализированный калькулятор, то большая часть приведенных действий возлагается на техническое средство. Следует отметить, что в среде персональных компьютеров имеются специализированные пакеты, которые выполняют большую часть приведенных действий в полном объеме (например, пошаговый регрессионный анализ позволяет автоматически отсеивать незначимые факторы). Что касается специализированных финансовых калькуляторов, то в этом случае происходит лишь механический расчет коэффициентов регрессии и статистик в соответствии с заданными алгоритмами никаких проверок мультиколлинеарности и отсеивания факторов не делается, т.е. эти процедуры возлагаются на исследователя. [c.127]
В эту группу входят методы анализа многофакторных зависимостей в условиях, когда факторы существенно коррелируют между собой. Дело в том, что практическое применение классических регрессионных моделей в экономическом анализе сопряжено с необходимостью преодоления ряда трудностей, основная из которых — мультиколлинеарность факторов. Особенность экономического анализа заключается в тесной взаимосвязи и взаимообусловленности показателей, поэтому бездумное и необоснованное включение в регрессионную модель бессистемно отобранных показателей нередко приводит к искусственности модели, невозможности ее использования на практике. Если пытаться следовать формальным требованиям регрессионного анализа в полном объеме, то, например, устранение мультиколлинеарности нередко сводится к отбрасыванию существенно коррелирующих факторов. В этом случае, во-первых, имеет место потеря информации и, во-вторых, анализ чаще всего выхолащивается, в некотором роде теряет смысл, поскольку модель сводится к одно- или двухфакторной. [c.128]
Сложность и взаимное переплетение отдельных факторов, обусловливающих исследуемое экономическое явление (процесс), могут проявляться в так называемой мультиколлинеарности, под которой понимается тесная зависимость между факторными признаками, включенными в модель. [c.118]
Для полного ряда из 15 значений критерий однородности (Var < 0,33) не выполняется, следовательно, использовать полный ряд значений прибыли нельзя. Лишь исключив по четыре наибольших и наименьших значения, можно привести этот ряд к однородности. Проверка нормальности для усеченной совокупности данных (по 7 оставшимся магазинам) показывает, что все три ряда значений нормальны Правда, при этом вызывает сомнение правомочность использования статистических процедур на столь малой выборке. Однако если отвлечься от этого факта, то и в этом случае зависимость вида z = а + Ь х + Ь2у не даст аналитику значимой информации, поскольку между факторами хну наблюдается сильная взаимозависимость (мультиколлинеарность) - об этом свидетельствует высокое значение парного коэффициента корреляции (на усеченной выборке г = -0,88). [c.104]
Коэффициенты парной и частной корреляции по абсолютной величине во всех случаях ниже соответствующих им парных. Это обусловлено очень тесной положительной зависимостью между данными факторами, что свидетельствует о наличии мультиколлинеарности. [c.178]
При построении уравнения множественной регрессии может возникнуть проблема мультиколлинеарности факторов, их тесной линейной связанности. [c.53]
Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами. [c.54]
Чем ближе к 0 определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии. И наоборот, чем ближе к 1 определитель матрицы межфакторной корреляции, тем меньше мультиколлинеарность факторов. [c.54]
Проверка мультиколлинеарности факторов может быть проведена методом испытания гипотезы о независимости переменных [c.55]
Оценка значимости мультиколлинеарности факторов может быть проведена методом испытания гипотезы о независимости переменных Но Det Щ = 1. Доказано, что величина [c.96]
Через коэффициенты множественной детерминации можно найти переменные, ответственные за мультиколлинеарность факторов. Для этого в качестве зависимой переменной рассматривается каждый из факторов. Чем ближе значение коэффициента множественной детерминации к единице, тем сильнее проявляется мультиколлинеарность факторов. Сравнивая между собой коэффициенты множественной детерминации факторов [c.97]
Решению проблемы устранения мультиколлинеарности факторов может помочь и переход к уравнениям приведенной формы. С этой целью в уравнение регрессии производится подстановка рассматриваемого фактора через выражение его из другого уравнения. [c.99]
Чрезвычайно важным является и требование относительно матрицы исследуемых факторов. Она должна быть свободна от мультиколлинеарности. Во множественной регрессии предполагается, что матрица факторов представляет собой невырожденную матрицу, определитель которой отличен от нуля. Наличие мультиколлинеарности может исказить правильную экономическую интерпретацию параметров регрессии (см. п. 3.2). [c.169]
К каким трудностям приводит мультиколлинеарность факторов, включенных в модель, и как они могут быть разрешены [c.175]
Назовите методы устранения мультиколлинеарности факторов. [c.175]
Снова возникает задача оценки параметров уравнения множественной регрессии. Действительно, исходя из экономического смысла значения (/ = 1 >..., 14) представляют собой агрегированные экономические показатели, которые находятся в тесной взаимосвязи и взаимозависимости. Изменение одного из них ведет к изменению всех остальных. Это выводит на проблему мультиколлинеарности, вызванную экономическим содержанием задачи. Для разрешения этой проблемы используется метод главных компонент. Суть метода — сократить число объясняющих переменных до наиболее существенно влияющих факторов. [c.314]
Метод главных компонент также применяется для исключения или уменьшения мультиколлинеарности объясняющих переменных регрессии. Основная идея заключается в сокращении числа объясняющих переменных до наиболее существенно влияющих факторов. Это достигается путем линейного преобразования всех объясняющих переменных У (/ = 0,..., п) в новые переменные, так называемые главные компоненты. При этом требуется, чтобы выделению первой главной компоненты соответствовал максимум обшей дисперсии всех объясняющих переменных У (/ = 0,. .., я). Второй компоненте — максимум оставшейся дисперсии, после того как влияние первой главной компоненты исключается и т. д. [c.314]
В пакете предусмотрены возможность анализа статистической информации проверка наблюдаемых значений параметров на аномальность (при этом аномальные значения устраняются, а в некоторых случаях сглаживаются) проверка факторов на мультиколлинеарность с последующим ее устранением путем исключения отдельных факторов из модели проверка случайной компоненты на стационарность, автокорреляцию и нормальность. Пакет разработан для ЕС ЭВМ на ФОРТРАНе. [c.185]
Однако, только на основе логического отбора нельзя установить насколько коллинеарно связаны все отобранные факторы. Чтобы исключить мульти-коллинеарность необходимо рассчитать парные коэффициенты корреляции. На практике обычно считается наличие мультиколлинеарности при величине парных коэффициентов корреляции, не превышающей 0,85. [c.518]
Мало факторов - тоже плохо. Это может привести к ошибкам при принятии решений в ходе анализа модели. Поэтому необходимо выбирать более рациональный перечень факторов. При этом проводят анализ факторов на мультиколлинеарность. [c.151]
Анализ и способы снижения влияния мультиколлинеарности на значимость модели. Мультиколлинеарность - попарная корреляционная зависимость между факторами. [c.151]
При отсутствии мультиколлинеарности факторов [c.152]
Чем меньше эта разность, тем меньше мультиколлинеарность. Для устранения мультиколлинеарности используется метод исключения переменных. Этот метод заключается в том, что высоко коррелированные объясняющие переменные (факторы) устраняются из регрессии и она заново оценивается. Отбор переменных, подлежащих исключению, производится с помощью коэффициентов парной корреляции. Опыт показывает, что если I ryj 0,70, то одну из переменных можно исключить, но какую переменную исключить из анализа, решают исходя из управляемости факторов на уровне предприятия. [c.152]
Постройте уравнение регрессии, характеризующее зависимость цены от всех факторов, в линейной и степенной форме. Установите, какие факторы мультиколлинеарны. В какой модели мультиколли-неарность проявляется сильнее [c.96]
Постройте матрицу парных коэффициентов корреляции. Рассчитайте коэффициенты множественной детерминации, используя в качестве зависимой переменной каждый фактор. Установите, какие факторы мультиколлинеарны. [c.97]
При построении многофакторных моделей по временным рядам часто возникает проблема мультиколлинеарности. Под мультикол-линеарностью понимается наличие сильной корреляции между факторами — аргументами, входящими в уравнение регрессии. Это явление часто представляет собой серьезную угрозу для правильного определения и оценки взаимосвязей. [c.71]
По величине парных коэффициентов корреляции обнаруживается лишь явная коллинеарность факторов. Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факторов. Чем сильнее мультикол-линеарность факторов, тем менее надежна оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов. [c.54]
Включение в модель мультиколлинеарных факторов нежелательно в силу следующих последствий [c.95]
В-третьих, переменные z, которые определяются как линейные комбинации исходных переменных х, будут коррелировать между собой в случаях, когда наблюдается высокая связь между самими исходными переменными. Поэтому оценку параметров модели (7.15) приходится проводить в условиях мультиколлине-арности факторов. Однако мультиколлинеарностьфакторов ,,..., Zk в модели (7.15) сказывается на оценках параметров b0,..., bt в несколько меньшей степени, чем если бы эти оценки были получены путем применения обычного МНК непосредственно к модели (7.3) в условиях мультиколлинеарности факторов х ..., х, ,. Это связано с тем, что в модели (7.15) мультиколлинеарность ведет к снижению эффективности оценок с0,..., ск, поэтому каждый из параметров b0,..., bh которые определяются как линейные комбинации оценок с0,..., ск, будет представлять собой более точную [c.301]
Для того чтобы получить хорошие в статистическом смысле оценки параметров, необходимо, чтобы факторные признаки были независимы. Наличие в уравнении лаговых значений для каждого фактора, а также зависимость факторов между собой вследствие экономической специфики задачи приводят к тому, что объясняющие переменные оказываются мультиколлинеарными. Для решения этой проблемы использован, во-первых, метод Койка во-вторых, метод главных компонент. [c.311]
В скобках указаны стандартные ошибки параметров уравнения регрессии. Применение метода инструментальных переменных привело к статистической незначимости параметра С[ = 0,109 при переменной yf . Это произошло ввиду высокой мультиколлинеарности факторов, иyt v. Несмотря на то что результаты, полученные обычным МНК, на первый взгляд лучше, чем результаты применения метода инструментальных переменных, результатам обычного МНК вряд ли можно доверять вследствие нарушения в данной модели его предпосылок. Поскольку ни один из методов не привел к получению достоверных результатов расчетов параметров, следует перейти к получению оценок параметров данной модели авторегрессии методом максимального правдоподобия. [c.328]
МУЛЬТИКОЛЛИНЕАРНОСТЬ [multi olline-arity] — понятие математической статистики — тесная корреляционная взаимосвязь (см. Корреляция) между отбираемыми для анализа факторами, совместно воздействующими на общийрезуль-тат. Эта связь затрудняет оценивание параметров регрессии в частности, при анализе эконометрической модели. [c.207]
Но необходимо указать на некоторые недостатки данного подхода. Во-первых, статистические трудности составления структурных моделей статистическая зависимость (мультиколлинеарность) факторных показателей обусловливает нестабильность и низкую надежность параметров уравнений связи [31, 87]. Во-вторых, аналитические трудности полученные параметры многомерных структурных уравнений в случае статистической взаимозависимости факторов практически невозможно применять в аналитических целях [64]. В результате процесс формирования конкретных альтернатив остается непознанным. В-третьих, объективные и субъективные трудности в процессе принятия решений субъект управления по объективным причинам не может проследить и целенаправленно управлять процессом формирования альтернативы. На этой основе возникает субъективное недоверие к полученным результатам, в частности, в том случае, если формализованное решение противоречит опыту или интуиции субъекта хозяйствования. В таком положении субъект предпочитает руководствоваться своим опытом и интуицией. В литературе данные трудности рассматриваются в рамках проблемы акцептации. В-четвсртых, информационные трудности структурные уравнения отражают лишь причинно-следственные зависимости между показателями. Но ценную информацию носят и другие статистические связи (обусловливаемые неизмеримыми внутренними свойствами явления) между показателями. Данная информация в структурных уравнениях не отражается, в результате чего могут возникать существенные неточности в разграничении границ факторного пространства. [c.95]
Обычно в модели оставляют тот фактор, на который можно разработать мероприятие, обеспечивающее улучшение значения этого фактора в планируемом году. Возможна ситуация, когда оба мультиколлинеарных фактора управляемы на уровне предприятия. Решить вопрос об исключении того или иного фактора можно только в соответствии с процедурой отбора главных факторов. [c.152]
Допустим, исключению подлежит один из мультиколлинеарных факторов х,- или Xj. Оба фактора управляемы на уровне предприятия, коэффициенты регрессии ai и а,- статистически значимы. Фактор х,- более тесно связан с у, т. е. гх/у > гх , но при этом х < Зх. В этом случае обычно исключению подлежит фактор х/. J [c.154]
Считают, что при расчете необходимо проводить элиминирование мультиколлинеарности в матрице входных параметров (yt , yt 2,. .., yt m). Для улучшения прогнозирующих свойств модели (6.2) в нее можно ввести фактор времени в виде самостоятельной переменной. Подобный подход в ряде случаев существенно увеличивает точность прогноза, что объясняется учетом линейного тренда. [c.161]
Совершенная мультиколлинеарность является скорее теоретическим примером. Реальна же ситуация, когда между объясняющими переменными существует довольно сильная корреляционная зависимость, а не строгая функциональная. Такая зависимость называется несовершенной мулътиколлинеарностъю. Она характеризуется высоким коэффициентом корреляции р между соответствующими объясняющими переменными. Причем, если значение р по абсолютной величине близко к единице, то говорят о почти совершенной мульти-коллинеарности. В любом случае мультиколлинеарность затрудняет разделение влияния объясняющих факторов на поведение зависимой переменной и делает оценки коэффициентов регрессии ненадежными. Данный вывод наглядно подтверждается с помощью диаграммы Вен-на (рис. 10.1). [c.246]