Полная коллинеарность

Полученный результат xl = 2,52 х2 = 1,00 Z- 10,35 можно считать оптимальным его можно уточнить дальнейшими шагами до полной коллинеарности градиентов целевой и граничной функций.  [c.358]


Подобные матрицы, 497 Полная коллинеарность, 109,  [c.573]

Группы мероприятий по совершенствованию производства независимы. Формальные методы анализа позволяют исключить коллинеарные (дублирующие) и несущественные факторы регрессионных и корреляционных моделей, однако оставленные в модели факторы очень часто не позволяют в полной мере пользоваться полученными данными при планировании. Если, например, на основе корреляционной модели найдено, что производительность труда растет с увеличением электровооруженности рабочего, то орган управления еще не имеет информации о том, какие мероприятия по совершенствованию производства необходимы для роста производительности труда в будущем.  [c.204]

Дисперсия выборочных распределений коэффициентов возрастает с повышением уровня агрегирования, причем скорость этого роста больше той, которую можно было ожидать в результате простой потери числа степеней свободы. Авторы считают это проявлением того факта, что объясняющие переменные У и М сильнее коррелируют на уровне полного агрегирования, чем на микроуровне, поскольку каждая переменная на макроуровне должна быть менее подвержена резким колебаниям. Таким образом, агрегирование ведет к увеличению коллинеарности объясняющих переменных, а следовательно, и к росту выборочных дисперсий коэффициентов.  [c.236]


Одним из условий классической регрессионной модели является предположение о линейной независимости объясняющих переменных, что означает линейную независимость столбцов матрицы регрессоров X или (эквивалентно) что матрица (Х Х) 1 имеет полный ранг k. При нарушении этого условия, т. е. когда один из столбцов матрицы X есть линейная комбинация остальных столбцов, говорят, что имеет место полная коллинеарность. В этой ситуации нельзя построить МНК-оценку параметра (3, что формально следует из сингулярности матрицы X X и невозможности решить нормальные уравнения. Нетрудно также понять и содержательный смысл этого явления. Рассмотрим следующий простой пример регрессии (Greene, 1997) С = fa + faS + foN + /34Т + е, где С — потребление, S — зарплата, N — доход, получаемый вне работы, Т — полный доход. Поскольку выполнено равенство Т = S + N, то для произвольного числа h исходную регрессию можно переписать в следующем виде С = (3i+/3 2S+/3 3iN+/3 4T-1r , где / 2 = 02 + h, /% = Рз + h, /3 4 = 04 — h. Таким образом, одни и те же наблюдения могут быть объяснены различными наборами коэффициентов /3. Эта ситуация тесно связана с проблемой идентифицируемости системы, о чем более подробно будет говориться позднее. Кроме того, если с учетом равенства Т — S + N переписать исходную систему в виде С = fa + (/% + 0 )S + (/Зз + /3 )N + е, то становится ясно, что оценить можно лишь три параметра fa, (Дз + Д ) и (/ 3 + /3[c.109]

На практике полная коллинеарность встречается исключительно редко. Гораздо чаще приходится сталкиваться с ситуацией, когда матрица X имеет полный ранг, но между регрес-сорами имеется высокая степень корреляции, т. е. когда матрица Х Х, говоря нестрого, близка к вырожденной. Тогда говорят о наличии мультиколлинеарности. В этом случае МНК-оценка формально существует, но обладает плохими свойствами. Это нетрудно объяснить, используя геометрическую интерпретацию метода наименьших квадратов. Как уже отмечалось, регрессию можно рассматривать как проекцию в пространстве Rn вектора у на подпространство, порожденное столбцами матрицы X. Если между этими векторами существует приблизительная линейная зависимость, то операция проектирования становится неустойчивой небольшое изменение в исходных данных может привести к существенному изменению оценок. Рисунок 4.1 наглядно это демонстрирует. Векторы у к у мало отличаются друг от друга, но в  [c.110]


Если бы мы сохранили Ёсе Манные компоненты, то коэффициенты ttpii переменных х в уравнении (11.17) совпали бы с- коэффициентами, найденными прямой регрессией Y на все переменные х. Возникает вопрос, как мы должны принять решение о том, какие компоненты сохранить и сколько их оставить Простейшее решение на основе величин характеристических корней в случае рассмотренного Кендаллом иллюстративного примера трудно достижимо. Может быть, воспользоваться для этой регрессии критерием (11.14), или обычным дисперсионным анализом Это приведет к бессмысленным результатам при наличии полной коллинеарности между переменными. Пусть, например, х2 = 2хг и пусть  [c.330]

Смотреть страницы где упоминается термин Полная коллинеарность

: [c.110]    [c.238]    [c.323]    [c.330]   
Эконометрика начальный курс (2004) -- [ c.109 , c.238 ]