Считается, что ошибки регрессии представляют собой стационарный авторегрессионный процесс первого порядка. Можно ли сделать вывод, что коэффициент Я. а) больше 0,5 б) больше 0,7 Объем выборки достаточно велик. [c.222]
Квартальные прибыли как авторегрессионный процесс [c.1002]
Уравнение (5.8) является авторегрессионным процессом порядка 2, или AR(2), поскольку изменение во времени п связано, с изменением в последние два периода. Процесс AR(q) возможен там, где изменение С во времени п зависит от предыдущих q периодов. Для проверки вероятности процесса AR строится регрессия там, где изменение во времени п является зависимой переменной, и изменения в предыдущие q периоды (задержки) используются как независимые переменные. [c.82]
Во вторых, мы получили важное представление об американской фондовой бирже - представление, которое мы можем применить и к другим рынкам, хотя мы оставляем такой анализ для будущих исследований. Как всегда и предполагалось, при анализе на высокой частоте рынки представляют собой некоторую форму авторегрессионного процесса. Эффект долговременной памяти, видимый на высокой частоте, является настолько маленьким, что он едва виден. Таким образом, мы можем [c.141]
Авторегрессионные процессы принято выражать в терминах оператора сдвига назад В. Для белого шума дискретного времени B(xt) = x ц, так что [c.184]
Векторные авторегрессионные процессы и векторные процессы скользящей средней [c.313]
Авторегрессионный процесс и процесс скользящей средней, который мы проанализируем в следующем параграфе, предполагают, что анализируемые данные являются стационарными. Интегрирование означает, какого порядка разности должны быть рассчитаны для того, чтобы получить стационарный временной [c.321]
В нашем анализе многофакторной коинтеграции мы показали, что при помощи простых алгебраических действий можно выразить векторный авторегрессионный процесс X, = А[Х, [ + А Х,, + А3Х, 3 в следующем виде [c.370]
На практике матрица П почти никогда неизвестна. Мы предположим, что нам задана структура матрицы fi (т. е. форма ее функциональной зависимости от сравнительно небольшого количества параметров), но не сами значения параметров. Например, мы можем знать (или допустить), что ошибки в (5.10) порождаются авторегрессионным процессом первого порядка, так что [c.160]
Авторегрессионный процесс первого порядка [c.184]
Один из наиболее простых способов учета коррелированно-сти ошибок (в разные моменты времени) состоит в предположении, что случайная последовательность et, t = 1,. . . , п образует авторегрессионный процесс первого порядка. Это означает, что ошибки удовлетворяют рекуррентному соотношению [c.184]
В заключение остановимся на задаче прогнозирования, когда ошибки в исходной модели (7.1), (7.2) коррелированы по времени, а именно, образуют авторегрессионный процесс первого порядка [c.209]
Такой процесс называется авторегрессионным процессом первого порядка, AR(1). В главе б (п. 6.2) мы рассматривали подобную модель для ошибок регрессии. Как и ранее, мы предполагаем, что /3 < 1, тогда [c.269]
В предыдущем разделе мы рассматривали проблемы, возникающие в авторегрессионных процессах с единичными корнями. Рассмотрим еще один пример регрессии, в которой участвуют нестационарные временные ряды. Возьмем два независимых случайных блуждания [c.282]
Возьмем в качестве примера авторегрессионного процесса высокого порядка процесс АП(2) (для простоты положим свободный член равным нулю) [c.294]
GAR H наряду с авторегрессионным процессом - это доступный инструмент [c.109]
Авторегрессионный процесс - это процесс, в котором изменение переменной в некоторой точке времени является линейно коррелированым с предыдущим изменением. Вообще, корреляция уменьшается экспоненциально со временем и исчезает за относительно короткий период. Отсюда следует общая форма [c.82]
Авторегрессионный процесс скользящего среднего (ARMA). Стационарный стохастический процесс, который может быть смешанной моделью процессов AR и МА. Процесс ARMA(p,q)o6beflHHfler процесс AR(q) и процесс MA(q). [c.284]
Начнем анализ ARIMA с рассмотрения авторегрессионного процесса. Авторегрессионным называется процесс, при котором значение ряда находится в линейной зависимости от предыдущих значений. Например, если текущее наблюдаемое значение является функцией всего лишь одного значения, непосредственно предшествующего наблюдению, т.е. процесс зависит всего лишь от одного значения рассматриваемой переменной, то процесс называется авторегрессионным процессом первого порядка и обозначается AR(1). Это можно обобщить следующим образом если анализируемый динамический процесс зависит от значений, отстоящих от 1 до п временных лагов назад, то это авторегрессионный процесс порядка и, т.е. AR(w). Например, процесс AR(3) можно отобразить следующим образом [c.321]
Поскольку ARIMA включает в себя авторегрессионные процессы, модели скользящей средней и интегрирование, то многие динамические процессы можно рассматривать как ARIMA-процессы. Мы уже отметили, что данные могут иметь авторегрессионный компонент (AR). Ряд может обладать определенной степенью интегрирования 7(1), ДО) и даже 7(2). В случае 7(1) и 7(2) нужно единожды или дважды рассчитать разности, чтобы получить стационарный ряд. Наконец, может присутствовать компонент скользящей средней (МА). [c.325]
Векторные авторегрессионные процессы п векторные процессы скользяшей средней [c.326]
При анализе временных рядов часто приходится учитывать статистическую зависимость наблюдений в разные моменты времени. Иными словами, для многих временных рядов предположение о некоррелированности ошибок не выполняется. В этом разделе мы рассмотрим наиболее простую модель, в которой ошибки образуют так называемый авторегрессионный процесс первого порядка (точное определение будет дано ниже). Как было показано ранее (глава 5), применение обычного метода наименьших квадратов к этой системе дает несмещенные и состоятельные оценки параметров, однако можно показать (см., например, Johnston and DiNar-do, 1997), что получаемая при этом оценка дисперсии оказывается смещенной вниз, что может отрицательно сказаться при проверке гипотез о значимости коэффициентов. Образно говоря, МНК рисует более оптимистичную картину регрессии, чем есть на самом деле. [c.184]
Представим МА(1) процесс в виде авторегрессионного процесса e(L)-1ift = e(L)-15 + et (11.79) [c.296]