Функция регрессии

Рис. 1.1 иллюстрирует два выбора функции регрессии — линейной и квадратичной. Как видно, имеющееся множество экспериментальных данных (точек) парабола сглаживает, пожалуй, даже лучше, чем прямая. Однако парабола быстро удаляется от корреляционного поля и для добавленного наблюдения (обозначенного крестиком) теоретическое значение может очень значительно отличаться от эмпирического.  [c.18]


Условное математическое ожидание случайной величины Y при Х=х, т. е. Мх( Y), есть функция от х, называемая функцией регрессии или просто регрессией Y по X аналогично Му(Х) называется функцией регрессии или просто регрессией X по Y. Графики этих функций называются соответственно линиями регрессии (или кривыми регрессий) Г по Хи X по Y.  [c.38]

Задачами регрессионного анализа являются установление формы зависимости между переменными, оценка функции регрессии, оценка неизвестных значений (прогноз значений) зависимой переменной.  [c.50]

Уравнение (3.1) называется модельным уравнением регрессии (или просто уравнением регрессий), а функция <р(х) — модельной функцией регрессии (или просто функцией регрессии), а ее график — модельной линией регрессии (или просто линией регрессий).  [c.52]

При правильно определенной аппроксимирующей функции ф(х, bo, b, ..., bp) с увеличением объема выборки (л-юо) она будет сходиться по вероятности к функции регрессии ф(х).  [c.52]


В силу воздействия неучтенных случайных факторов и причин отдельные наблюдения переменной Убудут в большей или меньшей мере отклоняться от функции регрессии ф(ЛТ) В этом  [c.60]

Предположим, что для оценки параметров линейной функции регрессии (3.21) взята выборка, содержащая п пар значений  [c.60]

Интервальная оценка функции регрессии и ее параметров  [c.64]

Доверительный интервал для функции регрессии. Построим доверительный интервал для функции регрессии, т.е. для условного математического ожидания M Y), который с заданной надежностью (доверительной вероятностью) у = 1— а накрывает неизвестное значение Mx(Y).  [c.64]

Наряду с интервальным оцениванием функции регрессии иногда представляет интерес построение доверительных интервалов для параметров регрессионной модели, в частности для параметров регрессионной модели, в частности для pi и о2.  [c.67]

Определение доверительных интервалов для коэффициентов и функции регрессии  [c.97]

Наряду с интервальным оцениванием коэффициентов регрессии по (4.23 ) весьма важным для оценки точности определения зависимой переменной (прогноза) является построение доверительного интервала для функции регрессии или для условного математического ожидания зависимой переменной Л/Х(У), найденного в предположении, что объясняющие переменные Х, Х2,..., Хр приняли значения, задаваемые вектором X Q =(l x10 x20. .. хр0).  [c.98]

Сравнивая новый доверительный интервал для функции регрессии MX(Y), полученный с учетом двух объясняющих переменных, с аналогичным интервалом с учетом одной объясняющей переменной (см. пример 3.3), можно заметить уменьшение его величины. Это связано о тем, что включение в модель новой объясняющей переменной позволяет несколько повысить точность модели за счет увеличения взаимосвязи зависимой и объясняющей переменных (см. ниже).  [c.100]


Если функцию регрессии можно удовлетворительным образом аппроксимировать линейной зависимостью, то такая регрессия  [c.92]

Заметим, что функции регрессии X на 7 и 7 на X не являются взаимно обратными и соответствующие линии регрессии совпадают только в случае, когда величины 7 и X связаны функционально. Если эти величины связаны корреляционно, то линии регрессии X на 7 и 7 на X различны.  [c.93]

В дальнейшем мы ограничимся рассмотрением только тех случаев, когда функция регрессии является линейной.  [c.93]

Корреляционная зависимость между случайными величинами X и 7 называется линейной корреляцией, если обе функции регрессии Хна 7 и 7 на X являются линейными.  [c.93]

Функция регрессии как комбинация нескольких функций.  [c.130]

На практике может оказаться, что функцию регрессии невозможно описать удовлетворительным образом ни линейной зависимостью, ни любой из перечисленных в предыдущем параграфе нелинейных функций. Тогда стоит попытаться аппроксимировать ее комбинацией этих функций. Делается это следующим образом  [c.130]

Если исследователя не устраивает предлагаемый стандартной программой набор функций регрессии, то можно использовать любые другие функции, приводимые путем соответствующих преобразований к линейному виду, например  [c.104]

Функция регрессии Значения коэффициентов Критерий качества связи  [c.73]

Функция регрессии и описание переменных  [c.110]

Модели парной регрессии. Парная линейная регрессия. Методы оценки коэффициентов регрессии. Метод наименьших квадратов (МНК). Свойства оценок МНК. Оценка статистической значимости коэффициентов регрессии. Элементы корреляционного анализа. Измерители тесноты связи (коэффициенты ковариации, корреляции и детерминации). Оценка значимости коэффициента корреляции. Дисперсионный анализ результатов регрессии. Оценка статистической значимости уравнения регрессии. Анализ ряда остатков условия Гаусса-Маркова. Нелинейные модели регрессии и их линеаризация. Выбор функции регрессии тесты Бокса-Кокса. Корреляция в случае нелинейной регрессии. Средняя ошибка аппроксимации.  [c.3]

Пусть Уг(х . .., xr), i=, ...,r, — семейство случайных величин с функциями распределения Flx v. Соответствующие функции регрессии равны  [c.351]

При этом как функции регрессии /г-, так и функции распределения  [c.351]

В [277] предлагается метод стохастической аппроксимации точки, определяющей минимум функции регрессии f(x) на множестве -G — = х g(x) .Q]. Здесь схема стохастической аппроксимации сочетается с методом штрафных функций..  [c.357]

Рассмотренные обобщения стохастической аппроксимации на случай условных экстремальных задач конструктивны, если область определения стохастической задачи задается жесткими ограничениями. Дополнительные трудности возникают в том случае, когда не только целевой функционал, но и функции, определяющие ограничения задачи, являются функциями регрессии некоторых случайных величин, зависящими от векторного параметра х.  [c.360]

Для точного описания уравнения регрессии необходимо знать условный закон распределения зависимой переменной Y при условии, что переменная X примет значение дс, т. е. Х=х. В статистической практике такую информацию получить, как правило, не удается, так как обычно исследователь располагает лишь выборкой пар значений (х/, у,) ограниченного объема п. В этом случае речь может идти об оценке (приближенном выражении, аппроксимаций) по выборке функции регрессии. Такой оценкой1 является выборочная линия (кривая) регрессии  [c.52]

Рассмотрим итеративный процесс Кифера — Вольфовица для отыскания точки единственного максимума функции регрессии,/(х).  [c.345]

Чтобы процесс (2.11) сходился к точке, в которой достигается максимум f(x), следует подчинить функцию регрессии некоторым ограничениям. В схеме Кифера — Вольфовица не требуется дифференцируе-мость f(x) (именно поэтому процедуры вычисления экстремума [(А ) не вытекают непосредственно из схем отыскания корня уравнения f (x) =0). Однако если производная f(x) существует, то она должна равняться нулю в точке х—- , в которой достигается максимум f(x). Поэтому естественно в общем случае потребовать от f(x), чтобы ее производная не была чрезмерно большой в окрестности х— . Формально это условие записывается в следующем виде.  [c.345]

Т. Блум [31], Ж. Сакс [244] и другие обобщили схемы стохастической аппроксимации на многомерный случай. Кратко опишем не только многомерный аналог процедуры Кифера — Вольфовица оптимизации одноэкстремальной функции регрессии, но и многомерный аналог схемы Роббинса — Монро. Оба эти процесса могут быть использованы для построения итеративных методов решения задач стохастического программирования (см. 7).  [c.351]

Задачи стохастического программирования представляют собой условные экстремальные задачи. Поэтому подход к стохастической аппроксимации как к системе итеративных методов стохастического программирования требует обобщения процедур, разработанных для без-1 условных экстремальных задач, на случай задач с ограничениями. В [9] этот вопрос обходится, поскольку здесь с самого начала предполагается, что рассматриваемые итеративные алгоритмы не выводят траектории процесса из некоторого ограниченного замкнутого множества. В [304] предложены алгоритмы стохастической аппроксимации для условных экстремальных задач, в которых ограничения представляют собой равенства, содержащие функции регрессии некоторых величин, зависящих от искомого набора параметров. Алгоритмы используют классические схемы стохастической аппроксимации применительно к функции Лаграижа условной экстремальной задачи. Однако условия сходимости в [304] не сформулированы.  [c.357]

В [106—109] процедура типа стохастической аппроксимации, основанная на понятии стохастического квазиградиента, используется для вычисления условного экстремума функции регрессии некоторой случайной величины, зависящей от векторного параметра. В этих работах оптимизируемая функция предполагается выпуклой, но не обязательно всюду дифференцируемой. Кроме того, здесь принято, что значения целевого функционала в каждой точке наблюдаются без ошибок,  [c.358]

Эконометрика (2002) -- [ c.38 , c.50 ]

Прикладная статистика Исследование зависимостей (1985) -- [ c.19 , c.155 , c.166 , c.167 , c.173 ]

Математические методы моделирования экономических систем Изд2 (2006) -- [ c.139 ]

Эконометрика начальный курс (2004) -- [ c.517 ]