Отметим, что авторегрессионное преобразование может быть обобщено на произвольное число объясняющих переменных, т. е. использовано для уравнения множественной регрессии. [c.237]
Авторегрессионное преобразование первого порядка AR(1) может быть обобщено на преобразования более высоких порядков AR(2), AR(3) и т. д. [c.237]
О целесообразности применения авторегрессионного преобразования говорит некоррелированность полученных отклонений (. Однако даже в этом случае истинной причиной первоначальной автокорреляции остатков может быть нелинейность формулы или неучтенный фактор. Мы же, вместо поиска этой причины, ликвидируем её бросающееся в глаза следствие. В этом - основной недостаток метода AR и содержательное ограничение для его применения. [c.362]
Это формула для преобразования MA q-ro порядка, или MA(q) МА(1), например, имеет вид et = et + 0,е(, . Параметры 0,, как и в случае авторегрессионного преобразования, могут оцениваться итерационными методами. [c.362]
Что такое авторегрессионное преобразование и в каких случаях оно применяется [c.365]
Доказать, что в случае автокорреляции ошибок 1-го порядка матрица ковариации ошибок по наблюдениям и матрица авторегрессионного преобразования имеют указанную форму. [c.31]
Сочетание преобразований AR и МА называется авторегрессионным преобразованием со скользящей средней ARMA. Например, для переменной Y преобразование ARMA(1 Д) будет иметь вид [c.292]
В случае, когда остатки также автокоррелированы, авторегрессионное преобразование может быть применено ещё раз. Это означает использование авторегрессионного преобразования более высокого порядка, которое заключается в оценке коэффициентов авторегрессии соответствующего порядка для отклонений et и использовании их для построения новых переменных. Такое преобразование вместо AR(l) называется AR(s) - если используется авторегрессия порядка s. [c.362]
Кроме авторегрессионного преобразования, для устранения автокорреляции остатков и уточнения формулы регрессионной зависимости может использоваться метод скользящих средних (Moving Averages, или MA). В этом случае считается, что отклонения от линии регрессии е описываются как скользящие средние случайных нормально распределенных ошибок е( предполагается, что [c.362]
Тогда естественно применить к i -му уравнению авторегрессионное преобразование (Кохрейна-Оркатта). Состоятельную оценку для р можно получить, оценивая обычным методом наименьших квадратов (OLS) уравнение [c.177]
Обобщает процедуру последовательных авторегрессионных преобразований метод Кочрена-Оркарта, который заключается в следующем. [c.30]
Полученное расчетное значение d сравнивается с нижней и верхней границей di и di, критерия. Если d < di, то гипотеза отсутствия автокорреляции отвергается если d > di, то гипотеза отсутствия автокорреляции принимается если di< d < di, то необходимо дальнейшее исследование. Одним из известных способов уменьшения автокорреляции является авторегрессионное преобразование для исходной информации или переход к разностям, т. е. AYt=Yt+i-Yt AXt=Xt+i-Xt. Если же автокорреляцию устранить не удается, то полученные оценки считаются состоятельными, и среднеквадратиче-ское отклонение корректируется на величину Aj для j-ro коэффициента. [c.37]
В общем случае преобразование ARMA(p,q) включает в себя р авторегрессионных членов и q скользящих средних. [c.292]
Важной проблемой при оценивании регрессии является автокорреляция остатков в., которая говорит об отсутствии первоначально предполагавшейся их взаимной независимости. Автокорреляция остатков первого порядка, выявляемая с помощью статистики Дарби-на-Уотсона, говорит о неверной спецификации уравнения либо о наличии неучтенных факторов. Естественно, для её устранения нужно попытаться выбрать более адекватную формулу зависимости, отыскать и включить важные неучтенные факторы или уточнить период оценивания регрессии. В некоторых случаях, однако, это не даст результата, а отклонения е. просто связаны авторегрессионной зависимостью. Если это авторефессия первого порядка, то её формула имеет вид е.=ре , + и. (р - коэффициент авторефессии, р <1), и мы предполагаем, что остатки ut в этой формуле обладают нужными свойствами, в частности - взаимно независимы. Оценив р, введем новые переменные /,=>>, - pj>M х =х - рх., (это преобразование называется авторегрессионным (AR), или преобразованием Бокса-Дженкинса). Пусть мы оцениваем первоначально формулу линейной рефессии у.= а + bxt + er Тогда [c.361]
Для преобразования в простанстве наблюдений, называемом в данном случае авторегрессионным, используют обычно указанную матрицу без 1-й строки, что ведет к сокращению количества наблюдений на одно. В результате такого преобразования из каждого наблюдения, начиная со 2-го, вычитается предыдущее, [c.30]
Смотреть страницы где упоминается термин Авторегрессионное преобразование
: [c.291] [c.291] [c.291] [c.291] [c.291] [c.350] [c.361] [c.91] [c.30] [c.25] [c.240] [c.305]Смотреть главы в:
Математические методы в экономике Издание 2 -> Авторегрессионное преобразование