Вектор случайных ошибок

ST - (s, s2,..., )- вектор случайных ошибок.  [c.33]

Р = (Ро Pi. .. Рр) — матрица-столбец, или вектор, параметров размера (р+1) е = (EI EI— л) — матрица-столбец, или вектор, возмущений (случайных ошибок, остатков) размера п.  [c.83]


При моделировании реальных экономических процессов мы нередко сталкиваемся с ситуациями, в которых условия классической линейной модели регрессии оказываются нарушенными. В частности, могут не выполняться предпосылки 3 и 4 регрессионного анализа (см. (3.24) и (3.25)) о том, что случайные возмущения (ошибки) модели имеют постоянную дисперсию и не коррелированы между собой. Для линейной множественной модели эти предпосылки означают (см. 4.2), что ковариационная матрица вектора возмущений (ошибок) е имеет вид  [c.150]

В качестве целевого функционала прогноза выбирается функция от первых и вторых моментов ошибок прогноза J ( ,-j , m). При заданных статистических характеристиках случайных процессов (tf) и Ч (0 значения kn и nii однозначно определяются вектором оценок = упрежденных точек. Последние в свою очередь обусловлены значениями параметров р = рц . Поэтому.  [c.40]


Здесь матрица А размера пХп определяет характеристики объекта, подлежащие определению x(t) — наблюдаемый со случайной погрешностью вектор координат состояния объекта w(t) — случайные возмущения. Статистические характеристики ошибок наблюдения и случайных возмущений w(t) предполагаются известными.  [c.47]

Так как оценка дисперсии ошибок s2 является функцией от остатков регрессии et, то для того чтобы доказать независимость s2 и (2,6), достаточно доказать независимость et и (2,6). Оценки 2, 6 так же, как и остатки регрессии et, являются линейными функциями ошибок t (см. (2.4а), (2.46), (2.20)) и поэтому имеют совместное нормальное распределение. Известно (приложение МС, п. 4, N4), что два случайных вектора, имеющие совместное нормальное распределение, независимы тогда и только тогда, когда они некоррелированы. Таким образом, чтобы доказать независимость s2 и (а, 6), нам достаточно доказать некоррелированность et и (2,6).  [c.48]

Векторы случайных ошибок 8 = (еф, еф, ..., ej1)) взаим-  [c.231]

Общая математическая модель линейной регрессии имеет вид Y = X + е, где Y — (п X 1)-вектор наблюдений, X = (Xi... Хп) — (п X р)-матрица плана экспериментов, Xk — регрессор й-го наблюдения, в — (р X 1) -вектор неизвестных параметров, s — (п X 1) — вектор случайных ошибок. В классической постановке задачи линейной регрессии предполагается, что г N (0, сг21п), где 1П — (п X п)-единичная матрица. Оценки по методу наименьших квадратов (мнк-оценки) отыскиваются из условия минимизации по 0 величины Y — Х0 . Когда Х Х =т О (ранг X равен р),  [c.249]

Классические схемы стохастической аппроксимации разработаны для случая, когда оптимизируемая функция f(x) представляет собой функцию регрессии некоторой случайной величины у(х), зависящей от параметров — составляющих вектора к. Межлу тем различные прикладные задачи порождают необходимость в безусловной или условной оптимизации функций R(f(x)) от функции регрессии и более сложных целевых функционалов. Так, например, обобщенные задачи фильтрации и прогноза, рассмотренные в гл. 14, сводятся к оптимизации функционала вида R( kij , т), где т=тх, kij = kij(x) —первые и вторые моменты случайных ошибок прогноза, зависящие как от параметров (конечно-мерных или бесконечномерных), так и от характеристик механизма сглаживания и упреждения. Решение некоторых двухэтажных задач стохастического программирования сводится к оптимизации функционала вида  [c.372]


В некоторых случаях условия 4), 5) достаточно легко проверяются. Пусть, например, строки матрицы X независимы и одинаково распределены (как случайные f -мерные векторы), вектор ошибок состоит из независимых и одинаково распределенных компонент, Ее = О, X и е независимы. Иными словами, значения объясняющих переменных в каждом наблюдении выбираются из одной и той же генеральной совокупности, причем наблюдения между собой независимы и не зависят от случайных ошибок. Обозначим а = E(xtjX(j), i,j — l,...,k (эти числа не зависят от i, поскольку строки матрицы X одинаково распределены), и пусть А — (% ). Тогда по закону больших чисел plimn 00(l/n)X. X" = А, и если распределение каждой  [c.152]

Программный пакет SAS Neural Network Appli ation предназначен для обучения множества разновидностей нейронных сетей и включает в себя графический интерфейс пользователя. Данный пакет предусматривает возможность обучения на месте и настраивается с учетом потребностей пользователя. Основные функции пакета включают в себя многослойные перцептроны, сети радиального базиса, статистические версии обратного распространения ошибки и дискретизации обучаемого вектора, множество встроенных функций активации и ошибок, множественные скрытые слои, прямые связи между входами и выходами, обработку ситуаций с пропущенными данными, категориальные переменные, стандартизацию входных данных и целей и предварительную оптимизацию с помощью случайных начальных данных с целью избежать попадания в локальные минимумы. Обучение осуществляется с использованием стандартных численных алгоритмов оптимизации вместо более трудоемкого метода обратного распространения ошибки.  [c.260]

Эконометрика (2002) -- [ c.83 ]