Регрессор

Регрессионная модель. Во многих практических задачах анализа, изучая различного рода связи в экономических системах, необходимо на основании статистических или учетных данных выразить зависимую переменную в виде некоторой математической функции от независимых переменных— регрессоров, т.е. построить регрессионную модель. Регрессионный анализ позволяет  [c.88]


Но чем больше переменных включает модель, тем больше среди них оказывается взаимосвязанных и взаимозависимых регрессоров. Корреляция между регрессорами снижает точность. Модель, для построения которой использованы сильно коррелированные данные, может быть вообще ошибочной. На практике переменные да-  [c.91]

Частный коэффициент корреляции, как известно, интерпретируется как корреляция между переменной-регрессором и зависимой переменной, когда эффекты корреляции других переменных элиминированы.  [c.92]

Четвертая бинарная переменная, относящаяся к осени, не вводится, так как тогда для любого месяца будет выполняться тождество dt + d2 + d + линейную зависимость регрессоров и как следствие невозможность получения оценок параметров модели методом наибольших общих квадратов, используемым в большинстве статистических пакетов.  [c.93]

До сих пор мы рассматривали регрессионную модель, в которой в качестве объясняющих переменных (регрессоров) выступали количественные переменные (производительность труда, себестоимость продукции, доход и т. п.). Однако на практике достаточно часто возникает необходимость исследования влияния качественных признаков, имеющих два или несколько уровней (градаций). К числу таких признаков можно отнести пол (мужской, женский), образование (начальное, среднее, высшее), фактор сезонности (зима, весна, лето, осень) и т. п.  [c.115]


Для данного временного ряда далеко не всегда удается подобрать адекватную модель, для которой ряд возмущений Е, будет удовлетворять основным предпосылкам регрессионного анализа. До сих пор мы рассматривали модели вида (6.7), в которых в качестве регрессора выступала переменная t — время . В эконометрике достаточно широкое распространение получили и другие  [c.146]

Рассмотрим еще один пример, в котором исследуется зависимость дохода индивидуума (У) от уровня его образования Х, принимающего значения от 1 до 5, по данным п = 150 наблюдений. В число объясняющих переменных (регрессоров) включен также и возраст Xi.  [c.158]

Упорядочим п наблюдений в порядке возрастания значений регрессора Хи выберем т первых и т последних наблюдений.  [c.159]

Сначала следует применить обычный метод наименьших квадратов к модели (7.25), затем надо найти регрессию квадратов остатков на квадратичные функции регрессоров, т. е. найти уравнение регрессии (7.21), где / — квадратичная функция, аргументами которой являются квадраты значений регрессоров и их попарные произведения. После чего следует вычислить прогнозные значения ё по полученному уравнению регрессии и  [c.165]

Однако существуют два пороговых значения dB и dH, зависящие только от числа наблюдений, числа регрессоров и уровня значимости, такие, что выполняются следующие условия.  [c.172]

Одной из причин автокорреляции ошибок регрессии является наличие скрытых регрессоров, влияние которых в результате проявляется через случайный член. Выявление этих скрытых регрессоров часто позволяет получить регрессионную модель без автокорреляции.  [c.178]

В число регрессоров в моделях временных рядов могут быть включены и константа, и временной тренд, и какие-либо другие объясняющие переменные. Ошибки регрессии могут коррелировать между собой, однако, мы предполагаем, что остатки регрессии образуют стационарный временной ряд.  [c.179]


Переменная время / здесь выступает в роли регрессора.  [c.184]

При осуществлении регрессии квадратов остатков на квадраты регрессоров получено уравнение вида  [c.189]

Стохастические регрессоры До сих пор мы предполагали, что в регрессионной модели (4.2)  [c.191]

Подобное предположение, приводящее к значительным техническим упрощениям, может быть оправдано в том случае, когда экспериментальные данные представляют собой пространственную выборку. В самом деле, мы можем считать, что значения переменных Xj мы выбираем заранее, а затем наблюдаем получающиеся при этом значения Y (здесь имеется некоторая аналогия с заданием функции по точкам — значения независимой переменной выбираются произвольно, а значения зависимой вычисляются). В случае временного ряда, регрессоры которого представляют собой временной тренд, циклическую и сезонную компоненты, объясняющие переменные также, очевидно, не случайны.  [c.191]

Однако в тех случаях, когда среди регрессоров временного ряда присутствуют переменные, значения которых сами образуют временной ряд, предположение об их детерминированности неправомерно. Так что в моделях временных рядов мы, как правило, должны считать наблюдения х (t = 1,..., п j = 1,..., р) случайными величинами.  [c.191]

Предположим пока для простоты, что имеется всего один регрессор X, т. е. модель имеет вид  [c.192]

Рассмотрим отдельно три случая. 1. Регрессоры Хи ошибки регрессии е не коррелируют, т. е. генеральная ковариация ov (xi )=0 для всех s, t = I,..., n.  [c.192]

Значения регрессоров X не коррелированы с ошибками регрессии Е в данный момент времени, но коррелируют с ошибками регрессии в более ранние моменты времени t — т.  [c.193]

Значения регрессоров Xt коррелированы с ошибками zt.  [c.193]

Таким образом, коррелированность регрессоров и ошибок регрессии оказывается значительно более неприятным обстоятельством, чем, например, гетероскедастичность или автокорреляция. Неадекватными оказываются не только результаты тестирования гипотез, но и сами оценочные значения параметров.  [c.194]

Мы рассмотрим две наиболее часто встречающиеся причины коррелированности регрессоров и ошибок регрессии.  [c.194]

На случайный член е воздействуют те же факторы, что и на формирование значений регрессоров.  [c.194]

Насколько достоверны полученные результаты Очевидно, и доставка сырья в город В, и доставка конечного продукта в город С связаны с перевозками, а значит, такие факторы, как затраты на топливо, зарплата водителей, состояние дорог и т. д. будут влиять и на формирование цены X, и на конечную цену Y при заданном А, т. е. на величину ошибок регрессии модели. Таким образом, регрессоры и ошибки регрессии оказываются коррелированными, и оценки, полученные методом наименьших квадратов, несостоятельны.  [c.195]

Ошибки при измерении регрессоров. Пусть при измерении регрессора X/ допускается случайная ошибка U/, удовлетворяющая условию М(м0)=0, т. е. в обработку поступает не истинное наблюдаемое значение х,/, а искаженное  [c.195]

Тест ранговой корреляции Спирмена использует наиболее общие предположения о зависимости дисперсий ошибок регрессии от значений регрессоров  [c.158]

Идея теста заключается в том, что абсолютные величины остатков регрессии е/ являются оценками а/, поэтому в случае ге-тероскедастичности абсолютные величины остатков е/ и значения регрессоров х/ будут коррелированы.  [c.159]

Тест Уайта. Тест ранговой корреляции Спирмена и тест Голдфелда—Квандта позволяют обнаружить лишь само наличие гетероскедастичности, но они не дают возможности проследить количественный характер зависимости дисперсий ошибок регрессии от значений регрессоров и, следовательно, не представляют каких-либо способов устранения гетероскедастичности.  [c.161]

Наиболее простой и часто употребляемый тест на гетероске-дастичность — тест Уайта. При использовании этого теста предполагается, что дисперсии ошибок регрессии представляют собой одну и ту же функцию от наблюдаемых значений регрессоров, т.е.  [c.161]

Чаще всего функция / выбирается квадратичной, что соответствует тому, что средняя квадратическая ошибка регрессии зависит от наблюдаемых значений регрессоров приближенно линейно. Гомоскедастичной выборке соответствует случай /= onst.  [c.161]

В большинстве современных пакетов, таких, как E onometri Views , регрессию (7.21) не приходится осуществлять вручную — тест Уайта входит в пакет как стандартная подпрограмма. В этом случае функция / выбирается квадратичной, регрессоры в (7.21) — это регрессоры рассматриваемой модели, их квадраты и, возможно, попарные произведения.  [c.161]

Другим недостатком тестов Уайта и Глейзера является то, что факт невыявления ими гетероскедастичности, вообще говоря, не означает ее отсутствия. В самом деле, принимая гипотезу Щ, мы принимаем лишь тот факт, что отсутствует определенного вида зависимость дисперсий ошибок регрессии от значений регрессоров.  [c.166]

Тест Дарбина—Уотсона имеет один существенный недостаток — распределение статистики d зависит не только от числа наблюдений, но и от значений регрессоров Xj (j= I,. .., р). Это означает, что тест Дарбина—Уотсона, вообще говоря, не представляет собой статистический критерий, в том смысле, что нельзя указать критическую область, которая позволяла бы отвергнуть гипотезу об отсутствии корреляции, если бы оказалось, что в эту область попало наблюдаемое значение статистики d.  [c.172]

Как видно, значимым оказывается только регрессор е , т. е. существенное влияние на результат наблюдения е, оказывает только одно предыдущее значение е . Положительность оценки соответствующего коэффициента регрессии указывает на положительную корреляцию между ошибками регрессии etvi е,-. К такому же выводу приводит и значение статистики Дарбина— Уотсона, полученное в 7.7.  [c.175]

Наиболее часто скрытыми регрессорами оказываются лаго-вые объясняемые переменные (см. 6.5). В случае временного ряда вполне естественно предположить, что значения объясняемых переменных зависят не только от включенных уже регрессоров, но и от предыдущих значений объясняемой переменной. Рассмотренные тесты показывают, что это почти всегда имеет место в случае автокорреляции.  [c.178]

Идентификацией временного ряда мы будем называть построение для ряда остатков адекватной ARMA-модели, т. е. такой А/Ш4-модели, в которой остатки представляют собой белый шум, а все регрессоры значимы. Такое представление, как правило, не единственное, например, один и тот же ряд может быть идентифицирован и с помощью А/ -модели, и с помощью М4-модели. В этом случае выбирается наиболее простая модель.  [c.179]

В этом случае естественно возникает вопрос о коррелиро-ванности между регрессорами и ошибками регрессии е. Покажем, что от этого существенно зависят результаты оценивания — причем не только количественно, но и качественно.  [c.191]

Естественно ожидать в этом случае коррелированность регрессоров Хи ошибок регрессии е ( ov (X, е) — yS ov( /, /)). Рассмотрим следующий модельный пример.  [c.194]

Эконометрика (2002) -- [ c.52 ]

Эконометрика начальный курс (2004) -- [ c.38 , c.67 , c.68 ]