Но чем больше переменных включает модель, тем больше среди них оказывается взаимосвязанных и взаимозависимых регрессоров. Корреляция между регрессорами снижает точность. Модель, для построения которой использованы сильно коррелированные данные, может быть вообще ошибочной. На практике переменные да- [c.91]
Частный коэффициент корреляции, как известно, интерпретируется как корреляция между переменной-регрессором и зависимой переменной, когда эффекты корреляции других переменных элиминированы. [c.92]
Четвертая бинарная переменная, относящаяся к осени, не вводится, так как тогда для любого месяца будет выполняться тождество dt + d2 + d + 4 = 1, что означало бы линейную зависимость регрессоров и как следствие невозможность получения оценок параметров модели методом наибольших общих квадратов, используемым в большинстве статистических пакетов. [c.93]
До сих пор мы рассматривали регрессионную модель, в которой в качестве объясняющих переменных (регрессоров) выступали количественные переменные (производительность труда, себестоимость продукции, доход и т. п.). Однако на практике достаточно часто возникает необходимость исследования влияния качественных признаков, имеющих два или несколько уровней (градаций). К числу таких признаков можно отнести пол (мужской, женский), образование (начальное, среднее, высшее), фактор сезонности (зима, весна, лето, осень) и т. п. [c.115]
Для данного временного ряда далеко не всегда удается подобрать адекватную модель, для которой ряд возмущений Е, будет удовлетворять основным предпосылкам регрессионного анализа. До сих пор мы рассматривали модели вида (6.7), в которых в качестве регрессора выступала переменная t — время . В эконометрике достаточно широкое распространение получили и другие [c.146]
Рассмотрим еще один пример, в котором исследуется зависимость дохода индивидуума (У) от уровня его образования Х, принимающего значения от 1 до 5, по данным п = 150 наблюдений. В число объясняющих переменных (регрессоров) включен также и возраст Xi. [c.158]
Упорядочим п наблюдений в порядке возрастания значений регрессора Хи выберем т первых и т последних наблюдений. [c.159]
Сначала следует применить обычный метод наименьших квадратов к модели (7.25), затем надо найти регрессию квадратов остатков на квадратичные функции регрессоров, т. е. найти уравнение регрессии (7.21), где / — квадратичная функция, аргументами которой являются квадраты значений регрессоров и их попарные произведения. После чего следует вычислить прогнозные значения ё по полученному уравнению регрессии и [c.165]
Однако существуют два пороговых значения dB и dH, зависящие только от числа наблюдений, числа регрессоров и уровня значимости, такие, что выполняются следующие условия. [c.172]
Одной из причин автокорреляции ошибок регрессии является наличие скрытых регрессоров, влияние которых в результате проявляется через случайный член. Выявление этих скрытых регрессоров часто позволяет получить регрессионную модель без автокорреляции. [c.178]
В число регрессоров в моделях временных рядов могут быть включены и константа, и временной тренд, и какие-либо другие объясняющие переменные. Ошибки регрессии могут коррелировать между собой, однако, мы предполагаем, что остатки регрессии образуют стационарный временной ряд. [c.179]
Переменная время / здесь выступает в роли регрессора. [c.184]
При осуществлении регрессии квадратов остатков на квадраты регрессоров получено уравнение вида [c.189]
Стохастические регрессоры До сих пор мы предполагали, что в регрессионной модели (4.2) [c.191]
Подобное предположение, приводящее к значительным техническим упрощениям, может быть оправдано в том случае, когда экспериментальные данные представляют собой пространственную выборку. В самом деле, мы можем считать, что значения переменных Xj мы выбираем заранее, а затем наблюдаем получающиеся при этом значения Y (здесь имеется некоторая аналогия с заданием функции по точкам — значения независимой переменной выбираются произвольно, а значения зависимой вычисляются). В случае временного ряда, регрессоры которого представляют собой временной тренд, циклическую и сезонную компоненты, объясняющие переменные также, очевидно, не случайны. [c.191]
Однако в тех случаях, когда среди регрессоров временного ряда присутствуют переменные, значения которых сами образуют временной ряд, предположение об их детерминированности неправомерно. Так что в моделях временных рядов мы, как правило, должны считать наблюдения х (t = 1,..., п j = 1,..., р) случайными величинами. [c.191]
Предположим пока для простоты, что имеется всего один регрессор X, т. е. модель имеет вид [c.192]
Рассмотрим отдельно три случая. 1. Регрессоры Хи ошибки регрессии е не коррелируют, т. е. генеральная ковариация ov (xi )=0 для всех s, t = I,..., n. [c.192]
Значения регрессоров X не коррелированы с ошибками регрессии Е в данный момент времени, но коррелируют с ошибками регрессии в более ранние моменты времени t — т. [c.193]
Значения регрессоров Xt коррелированы с ошибками zt. [c.193]
Таким образом, коррелированность регрессоров и ошибок регрессии оказывается значительно более неприятным обстоятельством, чем, например, гетероскедастичность или автокорреляция. Неадекватными оказываются не только результаты тестирования гипотез, но и сами оценочные значения параметров. [c.194]
Мы рассмотрим две наиболее часто встречающиеся причины коррелированности регрессоров и ошибок регрессии. [c.194]
На случайный член е воздействуют те же факторы, что и на формирование значений регрессоров. [c.194]
Насколько достоверны полученные результаты Очевидно, и доставка сырья в город В, и доставка конечного продукта в город С связаны с перевозками, а значит, такие факторы, как затраты на топливо, зарплата водителей, состояние дорог и т. д. будут влиять и на формирование цены X, и на конечную цену Y при заданном А, т. е. на величину ошибок регрессии модели. Таким образом, регрессоры и ошибки регрессии оказываются коррелированными, и оценки, полученные методом наименьших квадратов, несостоятельны. [c.195]
Ошибки при измерении регрессоров. Пусть при измерении регрессора X/ допускается случайная ошибка U/, удовлетворяющая условию М(м0)=0, т. е. в обработку поступает не истинное наблюдаемое значение х,/, а искаженное [c.195]
Тест ранговой корреляции Спирмена использует наиболее общие предположения о зависимости дисперсий ошибок регрессии от значений регрессоров [c.158]
Идея теста заключается в том, что абсолютные величины остатков регрессии е/ являются оценками а/, поэтому в случае ге-тероскедастичности абсолютные величины остатков е/ и значения регрессоров х/ будут коррелированы. [c.159]
Тест Уайта. Тест ранговой корреляции Спирмена и тест Голдфелда—Квандта позволяют обнаружить лишь само наличие гетероскедастичности, но они не дают возможности проследить количественный характер зависимости дисперсий ошибок регрессии от значений регрессоров и, следовательно, не представляют каких-либо способов устранения гетероскедастичности. [c.161]
Наиболее простой и часто употребляемый тест на гетероске-дастичность — тест Уайта. При использовании этого теста предполагается, что дисперсии ошибок регрессии представляют собой одну и ту же функцию от наблюдаемых значений регрессоров, т.е. [c.161]
Чаще всего функция / выбирается квадратичной, что соответствует тому, что средняя квадратическая ошибка регрессии зависит от наблюдаемых значений регрессоров приближенно линейно. Гомоскедастичной выборке соответствует случай /= onst. [c.161]
В большинстве современных пакетов, таких, как E onometri Views , регрессию (7.21) не приходится осуществлять вручную — тест Уайта входит в пакет как стандартная подпрограмма. В этом случае функция / выбирается квадратичной, регрессоры в (7.21) — это регрессоры рассматриваемой модели, их квадраты и, возможно, попарные произведения. [c.161]
Другим недостатком тестов Уайта и Глейзера является то, что факт невыявления ими гетероскедастичности, вообще говоря, не означает ее отсутствия. В самом деле, принимая гипотезу Щ, мы принимаем лишь тот факт, что отсутствует определенного вида зависимость дисперсий ошибок регрессии от значений регрессоров. [c.166]
Тест Дарбина—Уотсона имеет один существенный недостаток — распределение статистики d зависит не только от числа наблюдений, но и от значений регрессоров Xj (j= I,. .., р). Это означает, что тест Дарбина—Уотсона, вообще говоря, не представляет собой статистический критерий, в том смысле, что нельзя указать критическую область, которая позволяла бы отвергнуть гипотезу об отсутствии корреляции, если бы оказалось, что в эту область попало наблюдаемое значение статистики d. [c.172]
Как видно, значимым оказывается только регрессор е , т. е. существенное влияние на результат наблюдения е, оказывает только одно предыдущее значение е . Положительность оценки соответствующего коэффициента регрессии указывает на положительную корреляцию между ошибками регрессии etvi е,-. К такому же выводу приводит и значение статистики Дарбина— Уотсона, полученное в 7.7. [c.175]
Наиболее часто скрытыми регрессорами оказываются лаго-вые объясняемые переменные (см. 6.5). В случае временного ряда вполне естественно предположить, что значения объясняемых переменных зависят не только от включенных уже регрессоров, но и от предыдущих значений объясняемой переменной. Рассмотренные тесты показывают, что это почти всегда имеет место в случае автокорреляции. [c.178]
Идентификацией временного ряда мы будем называть построение для ряда остатков адекватной ARMA-модели, т. е. такой А/Ш4-модели, в которой остатки представляют собой белый шум, а все регрессоры значимы. Такое представление, как правило, не единственное, например, один и тот же ряд может быть идентифицирован и с помощью А/ -модели, и с помощью М4-модели. В этом случае выбирается наиболее простая модель. [c.179]
В этом случае естественно возникает вопрос о коррелиро-ванности между регрессорами и ошибками регрессии е. Покажем, что от этого существенно зависят результаты оценивания — причем не только количественно, но и качественно. [c.191]
Естественно ожидать в этом случае коррелированность регрессоров Хи ошибок регрессии е ( ov (X, е) — yS ov( /, /)). Рассмотрим следующий модельный пример. [c.194]
Смотреть страницы где упоминается термин Регрессор
: [c.88] [c.89] [c.91] [c.91] [c.52] [c.147] [c.160] [c.162] [c.189] [c.194] [c.194] [c.196]Эконометрика начальный курс (2004) -- [ c.38 , c.67 , c.68 ]