Авторегрессионное преобразование

Основной причиной наличия случайного члена в модели являются несовершенные знания о причинах и взаимосвязях, определяющих то или иное значение зависимой переменной. Поэтому свойства случайных отклонений, в том числе и автокорреляция, в первую очередь зависят от выбора формулы зависимости и состава объясняющих переменных. Так как автокорреляция чаще всего вызывается неправильной спецификацией модели, то для ее устранения необходимо, прежде всего, попытаться скорректировать саму модель. Возможно, автокорреляция вызвана отсутствием в модели некоторой важной объясняющей переменной. Необходимо попытаться определить данный фактор и учесть его в уравнении регрессии (см. пример из параграфа 6.7). Также можно попробовать изменить формулу зависимости (например, линейную на лог-линейную, линейную на гиперболическую и т. д.). Однако если все разумные процедуры изменения спецификации модели, на ваш взгляд, исчерпаны, а автокорреляция имеет место, то можно предположить, что она обусловлена какими-то внутренними свойствами ряда et . В этом случае можно воспользоваться авторегрессионным преобразованием. В линейной регрессионной модели либо в моделях, сводящихся к линейной, наиболее целесообразным и простым преобразованием является авторегрессионная схема первого порядка AR(1).  [c.236]


Отметим, что авторегрессионное преобразование может быть обобщено на произвольное число объясняющих переменных, т. е. использовано для уравнения множественной регрессии.  [c.237]

Авторегрессионное преобразование первого порядка AR(1) может быть обобщено на преобразования более высоких порядков AR(2), AR(3) и т. д.  [c.237]

О целесообразности применения авторегрессионного преобразования говорит некоррелированность полученных отклонений (. Однако даже в этом случае истинной причиной первоначальной автокорреляции остатков может быть нелинейность формулы или неучтенный фактор. Мы же, вместо поиска этой причины, ликвидируем её бросающееся в глаза следствие. В этом - основной недостаток метода AR и содержательное ограничение для его применения.  [c.362]

Это формула для преобразования MA q-ro порядка, или MA(q) МА(1), например, имеет вид et = et + 0,е(, . Параметры 0,, как и в случае авторегрессионного преобразования, могут оцениваться итерационными методами.  [c.362]

Что такое авторегрессионное преобразование и в каких случаях оно применяется  [c.365]


Доказать, что в случае автокорреляции ошибок 1-го порядка матрица ковариации ошибок по наблюдениям и матрица авторегрессионного преобразования имеют указанную форму.  [c.31]

Сочетание преобразований AR и МА называется авторегрессионным преобразованием со скользящей средней ARMA. Например, для переменной Y преобразование ARMA(1 Д) будет иметь вид  [c.292]

В случае, когда остатки также автокоррелированы, авторегрессионное преобразование может быть применено ещё раз. Это означает использование авторегрессионного преобразования более высокого порядка, которое заключается в оценке коэффициентов авторегрессии соответствующего порядка для отклонений et и использовании их для построения новых переменных. Такое преобразование вместо AR(l) называется AR(s) - если используется авторегрессия порядка s.  [c.362]

Кроме авторегрессионного преобразования, для устранения автокорреляции остатков и уточнения формулы регрессионной зависимости может использоваться метод скользящих средних (Moving Averages, или MA). В этом случае считается, что отклонения от линии регрессии е описываются как скользящие средние случайных нормально распределенных ошибок е( предполагается, что  [c.362]

Тогда естественно применить к i -му уравнению авторегрессионное преобразование (Кохрейна-Оркатта). Состоятельную оценку для р можно получить, оценивая обычным методом наименьших квадратов (OLS) уравнение  [c.177]

Обобщает процедуру последовательных авторегрессионных преобразований метод Кочрена-Оркарта, который заключается в следующем.  [c.30]

Полученное расчетное значение d сравнивается с нижней и верхней границей di и di, критерия. Если d < di, то гипотеза отсутствия автокорреляции отвергается если d > di, то гипотеза отсутствия автокорреляции принимается если di< d < di, то необходимо дальнейшее исследование. Одним из известных способов уменьшения автокорреляции является авторегрессионное преобразование для исходной информации или переход к разностям, т. е. AYt=Yt+i-Yt AXt=Xt+i-Xt. Если же автокорреляцию устранить не удается, то полученные оценки считаются состоятельными, и среднеквадратиче-ское отклонение корректируется на величину Aj для j-ro коэффициента.  [c.37]


В общем случае преобразование ARMA(p,q) включает в себя р авторегрессионных членов и q скользящих средних.  [c.292]

Важной проблемой при оценивании регрессии является автокорреляция остатков в., которая говорит об отсутствии первоначально предполагавшейся их взаимной независимости. Автокорреляция остатков первого порядка, выявляемая с помощью статистики Дарби-на-Уотсона, говорит о неверной спецификации уравнения либо о наличии неучтенных факторов. Естественно, для её устранения нужно попытаться выбрать более адекватную формулу зависимости, отыскать и включить важные неучтенные факторы или уточнить период оценивания регрессии. В некоторых случаях, однако, это не даст результата, а отклонения е. просто связаны авторегрессионной зависимостью. Если это авторефессия первого порядка, то её формула имеет вид е.=ре , + и. (р - коэффициент авторефессии, р <1), и мы предполагаем, что остатки ut в этой формуле обладают нужными свойствами, в частности - взаимно независимы. Оценив р, введем новые переменные /,=>>, - pj>M х =х - рх., (это преобразование называется авторегрессионным (AR), или преобразованием Бокса-Дженкинса). Пусть мы оцениваем первоначально формулу линейной рефессии у.= а + bxt + er Тогда  [c.361]

Для преобразования в простанстве наблюдений, называемом в данном случае авторегрессионным, используют обычно указанную матрицу без 1-й строки, что ведет к сокращению количества наблюдений на одно. В результате такого преобразования из каждого наблюдения, начиная со 2-го, вычитается предыдущее,  [c.30]