Переменная предсказывающая

Обозначим J),. выход сети-предиктора, предсказывающей значение переменной у,.. Целевой  [c.79]

И наконец, в раздел IV включены глава, посвященная описанию методов статистического анализа так называемых систем одновременных эконометрических уравнений (т. е. набора одновременно выполняющихся соотношений, в которых одни и те же переменные могут участвовать в разных соотношениях и в роли результирующего показателя, и в роли предсказывающей переменной), и глава, в которой дается обзор наиболее интересного отечественного и зарубежного программного обеспечения методов статистического исследования зависимостей.  [c.7]


Этап 5 (анализ мультиколлинеарности предсказывающих переменных и отбор наиболее информативных из них.) Под явлением мультиколлинеарности в регрессионном анализе понимается наличие тесных статистических связей между предсказывающими переменными х(1 х(2),. .., х(р что, в частности, проявляется в близости к нулю (слабой обусловленности) определителя их корреляционной матрицы, т. е. матрицы размера р X р, составленной из парных коэффициентов корреляции rtj = r (x(i х(] )) ([14, с. 155], а также гл. 1—3 данного издания). Поскольку этот определитель входит в знаменатель выражений для ряда важных характеристик анализируемых моделей (см. гл. 7—11), то мультиколлинеарность создает трудности и неудобства при статистическом исследовании зависимостей по меньшей мере в двух направлениях  [c.50]

Поэтому исследователь старается перейти к такой новой системе предсказывающих переменных (отобранных из числа исходных переменных д (1>, д (2>,. .., х(р) или представленных  [c.50]


Анализируемые переменные величины по своей роли в исследовании подразделяются на результирующие (прогнозируемые) Y и объясняющие (предсказывающие, или предиктор-ные) X. Среди компонент векторов У и X могут быть и количественные, и порядковые (ординальные), и классификационные (номинальные).  [c.54]

Предыдущий раздел (гл. 1—4) посвящен описанию математического аппарата, привлекаемого для реализации 3-го этапа статистического исследования зависимостей (см. Корреляционный анализ в п. В.6), на котором исследователь пытается проанализировать структуру связей между рассматриваемыми переменными и измерить степень их тесноты. После того как он убедится в наличии статистически значимых связей между анализируемыми переменными, он приступает к выявлению и математическому описанию конкретного вида интересующих его зависимостей подбирает класс функций, в рамках которого будет вести свой дальнейший анализ (этап 4) производит, если это необходимо, отбор наиболее информативных предсказывающих переменных (этап 5) вычисляет оценки для неизвестных значений параметров, участвующих в записи уравнения искомой зависимости (этап 6) анализирует точность полученного уравнения связи (этап 7). Этапы 4—7 и составляют содержание регрессионного анализа, описанию которого посвящен данный раздел.  [c.164]

Функция / (х(1>, (2),. .., х(/>)), описывающая зависимость условного среднего значения t/ p (X) результирующего показателя т] (вычисленного при условии, что величины предсказывающих переменных зафиксированы на уровнях х(1 <2>, ...,. .., х(р)) от заданных фиксированных значений предсказывающих переменных, называется функцией регрессии.  [c.166]

С одной стороны, мы уже знаем (см. (1.30)), что присоединение каждой новой предсказывающей переменной может только увеличить величину множественного коэффициента корреляции R между результирующим показателем т] и предикторами и, следовательно, уменьшить ошибку в предсказании -q (X) (см. (1.26)). С другой стороны, нам известны не точные значения теоретических характеристик R, участвующих в (1.26) — (1.30), а лишь их выборочные аналоги — статистические  [c.191]


Пусть теперь X = (х(1. ..у х(р)) — вектор, компоненты которого суть средние значения предсказывающих переменных  [c.251]

Все эти эффекты затрудняют и без того сложную задачу интерпретации коэффициентов регрессии или вообще делают невозможным ее решение без привлечения новых способов обработки и дополнительной информации. В этих условиях нельзя применять уравнение регрессии и для прогноза значений переменной у. В то же время если уравнение регрессии предполагается использовать для целей прогноза значений переменной у только в точках, близких к значениям объясняющих переменных х(1 . .., х из матрицы данных X, то оно может оказаться вполне удовлетворительным независимо от степени связи между предсказывающими переменными качество уравнения регрессии определяется значением коэффициента множественной корреляции Ry.x между переменной у и переменными X (хотя при этом может быть необходимо принять некоторые предосторожности чисто вычислительного характера). Таким образом, последствия мультиколлинеарности тем серьезнее, чем больше информации мы хотим получить из имеющейся совокупности наблюдений.  [c.254]

Два метода получения мнк-оценок. Когда набор предсказывающих переменных и модель определены, мнк-оценки неизвестных параметров линейного уравнения регрессии можно определить путем решения одной из следующих четырех систем линейных уравнений  [c.272]

В предположении, что матрица данных X является неслучайной, возможны две точки зрения на оценку уравнения регрессии, полученную после отбора существенных предсказывающих переменных.  [c.280]

С другой стороны, процесс отбора существенных переменных можно рассматривать как процесс выбора истинной модели из множества возможных линейных моделей, которые могут быть построены с помощью набора предсказывающих переменных, и тогда полученные после отбора оценки коэффициентов можно рассматривать как несмещенные, хотя сама процедура отбора вводит некоторое смещение [931. Этой точки зрения мы будем придерживаться далее.  [c.281]

Недостаток Ry.x как критерия качества уравнения регрессии состоит в том, что значение коэффициента детерминации не убывает (по крайней мере) с ростом числа предсказывающих переменных, входящих в модель. Таким образом, модели, в которых больше переменных, будут более предпочтительными, ес-  [c.282]

В отличие от обычного коэффициента детерминации скорректированный уменьшается с ростом числа предсказывающих переменных q, если в результате введения дополнитель-  [c.283]

Схемы генерации наборов переменных. Когда критерий качества набора предсказывающих переменных фиксирован для выбора оптимального или хотя бы хорошего набора, необходимо провести сравнение достаточно большого числа различных наборов переменных и выбрать среди них наилучший. Рассмотрим некоторые схемы генерации наборов, применяющиеся в настоящее время.  [c.284]

Схемы полного перебора ( всех возможных регрессий , метод ветвей и границ ). Задачу полного перебора можно сформулировать следующим образом для q = I,. .., р — i найти набор из q предсказывающих переменных с минимальным значением остаточной суммы квадратов AX<коэффициента детерминации Ry.x(g)- Так как критерии, приведенные в  [c.284]

На первом шаге из исходного набора предсказывающих переменных X (р) — ( (1),. .., (р)) выбирается переменная ( >, имеющая максимальное значение квадрата коэффициента парной корреляции с у, т. е.  [c.286]

Признак x(J i) составляет информативный набор предсказывающих переменных X (1), Применяя теперь к матрице А  [c.286]

Второй шаг состоит в следующем. Пусть уже построен информативный набор из q предсказывающих переменных  [c.287]

X (р — q) с у Ry.x(q)) — квадрат коэффициента множественной корреляции между переменной у и предсказывающими переменными из X (q).  [c.293]

Пассивные наблюдения 235, 241 Переменные входные (объясняющие, предсказывающие, предиктор-ные) 9  [c.473]

Еще выделяют прогноз на предстоящий период, выработанный в ходе исследования настоящего и прошлого, и прогноз, предсказывающий прошлые (уже известные) значения исследуемых переменных на основе данных, предшествовавших последним. Этот прогноз нужен для проверки точности всей прогнозной модели, а значит, для оценки точности прогноза на будущее.  [c.507]

Одним из инструментов, которыми пользуются политики для прогнозирования будущего нвправления изменения реального ВВП, служит месячный индекс группы переменных, предсказывавших изменения ВВП в прошлом.  [c.268]

ПРОГНОЗ EX POST — прогноз, предсказывающий прошлые (уже известные) значения исследуемых переменных на основе данных, предшествовавших последним. Предназначается для проверки точности прогнознойлюдели и — на этой основе—для оценки точности собственно прогноза на будущее.  [c.282]

Регрессионная зависимость случайного результирующего показателя г) от неслучайных предсказывающих переменных X (схема В). Природа такой связи может носить двойственный характер а) регистрация результирующего показателя г неизбежно связана с некоторыми случайными ошибками измерения е, в то время как предикторные (объясняющие) переменные X = (х(1) лс(2),. .., х(р ) измеряются без ошибок (или величины этих ошибок пренебрежимо малы по сравнению с со-ответствукмвдми ошибками измерения результирующего показателя) б) значения результирующего показателя г) зависят не только от соответствующих значений X, но и еще от  [c.35]

Весь процесс статистического исследования зависимостей может быть разбит на семь последовательно реализуемых основных этапов, хронологический характер связей которых дополняется связями итерационного взаимодействия (см. рис. В.8) этап I (постановочный) этап 2 (информационный) этап 3 (корреляционный анализ) этап 4 (определение класса допустимых решений) этап 5 (анализ мультиколлине-арности предсказывающих переменных и отбор наиболее информативных из них) этап 6 (вычисление оценок неизвестных параметров, входящих в исследуемое уравнение статистической связи) этап 7 (анализ точности полученных уравнений связи).  [c.55]

Измерителем степени тесноты связи любой формы является корреляционное отношение, для вычисления которого необходимо разбить область значений предсказывающей переменной X на интервалы (гиперпараллелепипеды) группирования. Возможна параметрическая модификация корреляционного отношения, при которой вычисление соответствующих выборочных значений не требует предварительного разбиения на интервалы группирования.  [c.98]

Используя оценку коэффициента множественной корреляции между у и X, множитель Стейна можно записать в виде, инвариантном относительно преобразования предсказывающих переменных  [c.263]

Влияние отбора переменных на оценку уравнения регрессии. Один из подходов к оцениванию параметров уравнения регрессии при наличии мультиколлинеарности состоит в сокращении количества входящих в модель предсказывающих переменных путем отбора подмножества предсказывающих переменных, существенных для прогноза значений переменной у. Каким бы способом ни проводился отбор переменных, число обусловленности уменьшается с уменьшением числа регрессо-ров. Процедура отбора существенных переменных, рассматриваемая как процедура выбора модели, полезна и когда исходная матрица Х Х хорошо обусловлена. Но особенно она эффективна в условия мультиколлинеарности, когда объясняющие переменные сильно коррелированы. Так, если две какие-либо переменные сильно коррелированы с у и друг с другом, то час-То бывает достаточно включения в модель одной из них, а дополнительным вкладом от включения другой можно пренебречь.  [c.280]

Статистика Мэллоуза q. В [225] предложено использовать так называемую q статистику как меру качества уравнения регрессии с q предсказывающими переменными. В принятых здесь обозначениях  [c.283]

Предположим, что в результате работы какой-либо процедуры отбора получен информативный набор X (q) из q предсказывающих переменных и при этом применялся пересчет элементов матрицы А с помощью соответствующей последовательности операторов выметания Wh, Uh. Для упрощения обозначений будем считать, что в набор X (q) включены q первых переменных х(1 . .., x(Q) (этого всегда можно добиться перенумерацией переменных из X). Тогда результирующая матрица А7 будет иметь следующую структуру  [c.292]

Смотреть страницы где упоминается термин Переменная предсказывающая

: [c.52]    [c.93]    [c.95]    [c.253]    [c.286]    [c.291]    [c.123]   
Эконометрика (2002) -- [ c.52 ]