Линейная парная регрессия [c.52]
В случае линейной парной регрессии т = 2, и уравнение регрессии значимо на уровне а, если [c.73]
Уравнение парной линейной корреляционной связи называется уравнением парной регрессии и имеет вид [c.238]
ПРИМЕНЕНИЕ ПАРНОГО ЛИНЕЙНОГО УРАВНЕНИЯ РЕГРЕССИИ [c.250]
Стандартное уравнение парной регрессии линейного вида ух = о + b x. [c.468]
Построить линейное уравнение парной регрессии у от х. [c.16]
Рассчитайте параметры уравнений линейной, степенной, экспоненциальной, полулогарифмической, обратной, гиперболической парной регрессии. [c.37]
Постройте парные линейные уравнения регрессии, принимая душевой доход в качестве объясняющей переменной. Постройте графики остатков. Сделайте выводы. [c.48]
Эта операция проводится с помощью инструмента анализа данных Регрессия. Она аналогична расчету параметров парной линейной регрессии, описанной в 1-м разделе практикума, только в отличие от парной регрессии в диалоговом окне при заполнении параметра входной интервал X следует указать не один столбец, а все столбцы, содержащие значения факторных признаков. Результаты анализа представлены на рис. 2.9. [c.73]
Постройте линейные уравнения парной регрессии, оцените их значимость с помощью F-критерия Фишера. [c.88]
Парабола второй степени, как и полином более высокого порядка, при линеаризации принимает вид уравнения множественной регрессии. Если же нелинейное относительно объясняемой переменной уравнение регрессии при линеаризации принимает форму линейного уравнения парной регрессии, то для оценки тесноты связи может быть использован линейный коэффициент корреляции, величина которого в этом случае совпадет с индексом корреляции Ryx = ryv где z — преобразованная величина [c.81]
Модели парной регрессии. Парная линейная регрессия. Методы оценки коэффициентов регрессии. Метод наименьших квадратов (МНК). Свойства оценок МНК. Оценка статистической значимости коэффициентов регрессии. Элементы корреляционного анализа. Измерители тесноты связи (коэффициенты ковариации, корреляции и детерминации). Оценка значимости коэффициента корреляции. Дисперсионный анализ результатов регрессии. Оценка статистической значимости уравнения регрессии. Анализ ряда остатков условия Гаусса-Маркова. Нелинейные модели регрессии и их линеаризация. Выбор функции регрессии тесты Бокса-Кокса. Корреляция в случае нелинейной регрессии. Средняя ошибка аппроксимации. [c.3]
Оцените параметры уравнений линейной, степенной, обратной, экспоненциальной, логарифмической, парной регрессии. [c.8]
Линейное уравнение в случае множественной регрессии довольно часто, но далеко не всегда подходит для описания статистической взаимосвязи экономических. показателей. Действительно линейное уравнение предполагает 1) что анализируемый показатель может принимать любое значение 2) что он меняется пропорционально изменению показателей,-включенных в уравнение регрессии, на любом интервале их изменения. Если первое ограничение не слишком важно, поскольку можно заранее договориться о пределах экстраполяции, второе ограничение часто вступает в противоречие с экономической интерпретацией связи. (Этот факт мы уже отмечали в связи с парной регрессией.) По тем же причинам иногда целесообразно прибегать. к множественной нелинейной регрессии. [c.136]
Уравнение парной регрессии при линейной зависимости [c.26]
В пятой главе рассматриваются предпосылки классической линейной регрессионной модели, выполнимость которых обеспечивает получение качественных оценок параметров линейных уравнений регрессии на базе МНК. Приводится схема определения точности оценок коэффициентов регрессии. Анализируются прогнозные качества парной линейной регрессии. Описывается схема оценки общего качества уравнения регрессии с помощью коэффициента детерминации. [c.8]
Приведите формулы расчета коэффициентов эмпирического парного линейного уравнения регрессии по МНК. [c.107]
Проинтерпретируйте коэффициенты эмпирического парного линейного уравнения регрессии. [c.107]
Как и в случае парной регрессии (см. раздел 5.3, формула (5.16)), статистическая значимость коэффициентов множественной линейной [c.153]
Приведенные выше рассуждения и примеры дают основания более детально рассмотреть возможные нелинейные модели. В рамках вводного курса мы ограничимся рассмотрением нелинейных моделей, допускающих их сведение к линейным. Обычно это так называемые линейные относительно параметров модели. Для простоты изложения и графической иллюстрации будем рассматривать модели парной регрессии с последующим естественным переходом к моделям множественной регрессии. [c.180]
Итак, если коэффициент г уже рассчитан, то легко рассчитать коэффициент парной регрессии, не решая системы уравнений. Ясно также, что если рассчитаны линейные регрессии х(у) и у(х), то произведение коэффициентов Ьх и Ь равно г [c.298]
Из рис. 16.5 можно видеть, что, возможно, есть некоторая отрицательная связь показателей 1NF и V, но вряд ли этот рисунок подтверждает наличие статистически значимой линейной связи. Для проверки этого вывода оценена парная регрессия INF= 5,07 - 0,32 U. Оценена величина [c.302]
На рисунке 16.6 явно просматривается четкая линейная зависимость объема частного потребления от величины располагаемого дохода. Уравнение парной линейной регрессии, оцененное по этим данным, имеет вид С= -217,6 + 1,007 Yf Стандартные ошибки для свободного члена и коэффициента парной регрессии равны, соответственно, 28,4 и 0,012, а -статистики - -7,7 и 81 9. Обе они по модулю существенно превышают 3, следовательно, их статистическая значимость весьма высока. Впрочем, несмотря на то, что здесь удалось оценить статистически значимую линейную функцию потребления, в ней нарушены сразу две предпосылки Кейнса - уровень автономного потребления С0 оказался отрицательным, а предель- [c.304]
Задача построения множественной линейной регрессии состоит в нахождении (т+1)-мерного вектора а, элементы которого есть оценки соответствующих элементов вектора а. Критерии оценивания, как и в случае парной регрессии, могут быть различными мы будем вновь использовать метод наименьших квадратов (МНК). [c.308]
Для анализа статистической значимости полученных коэффициентов множественной линейной регрессии необходимо, как и в случае парной регрессии, оценить дисперсию и стандартные отклонения коэффициентов а. [c.309]
Если (п-т- ), то есть число степеней свободы, достаточно велико (не менее 8-10), то при 5%-ном уровне значимости и двусторонней альтернативной гипотезе критическое значение f-статистики приблизительно равно двум. Здесь, как и в случае парной регрессии, можно приближенно считать оценку незначимой, если /-статистика по модулю меньше единицы, и весьма надежной, если модуль t-статистики больше трех. Другие критерии качества полученного уравнения регрессии будут рассмотрены в следующей главе. Там же будут приведены и примеры статистического анализа значимости коэффициентов множественной линейной регрессии. [c.309]
Для анализа общего качества оцененной линейной регрессии используют обычно коэффициент детерминации /Р, называемый также квадратом коэффициента множественной корреляции. Для случая парной регрессии это квадрат коэффициента корреляции переменных х и у. Коэффициент детерминации рассчитывается по формуле [c.312]
Отметим, что в случае парной регрессии проверка нулевой гипотезы для 1 - статистики коэффициента регрессии равносильна проверке нулевой гипотезы для F-статистики (и, соответственно, показателя Я2). В этом случае F-статистика равна квадрату /-статистики. В случае парной регрессии статистическая значимость величин Л2 и /-статистики коэффициента регрессии определяется коррелирован-ностью переменных х и у. Самостоятельную важность показатель Л2 приобретает в случае множественной линейной регрессии. [c.318]
Теперь мы предпримем для иллюстрации шаг, который впоследствии окажется ошибочным, но поможет при этом показать очень важное явление в оценивании множественной регрессии - мульти-коллинеарность. Мультиколлинеарность - это коррелированность двух или нескольких объясняющих переменных в уравнении регрессии. Проблема мультиколлинеарности возникает только для случая множественной регрессии, поскольку в парной регрессии лишь одна объясняющая переменная. Оценка коэффициента регрессии может оказаться незначимой не только из-за несущественности данного фактора, но и из-за того, что трудно разграничить воздействие на зависимую переменную двух или нескольких факторов. Это бывает в том случае, когда какие-то факторы линейно связаны между собой (коррелированы) и меняются синхронно. Связь зависимой переменной с изменениями каждого из них можно определить, только если в число объясняющих переменных включается лишь один из этих факторов. [c.347]
Формула Q записана для парной регрессии аналогичный вид она имеет и для множественной линейной регрессии. При использовании WLS оценки параметров не только получаются несмещенными (они будут таковыми и для обычного МНК), но и более точными (имеют меньшую дисперсию), чем невзвешенные оценки. [c.355]
Наряду с методом наименьших квадратов (МНК) возможен и другой подход к оцениванию параметров линейного регрессионного уравнения по данным наблюдений — метод максимального правдоподобия. Этот метод будет рассмотрен детально в главе 10. В данном разделе мы рассмотрим его применение к оцениванию параметров парной регрессии. [c.55]
Дана модель парной регрессии Yt — а + (3Xt + t, t = 1,..., га, для которой выполнены стандартные условия классической линейной модели. Известно, что га — 2т. Все множество наблюдений (Yt, Xt) разбито на две группы а и 6 по т наблюдений в каждой группе. Обозначим Xa,Xb,Ya, УЬ выборочные средние наблюдений X, Y по группам о, Ъ, соответственно. В качестве оценки параметра 13 берется величина [c.64]
Уравнение парной регрессии линейного характера имеет общий вид [c.127]
В большинстве случаев необходимо идентифицировать более одного фактора, влияющего на стоимость объекта оценки. Количественные измерения влияния множества факторов на зависимую переменную (у) можно осуществить на основе методики многофакторного регрессионного анализа. В данном случае, так же как и в парной регрессии, зависимость может характеризоваться как линейной, так и нелинейной связью. [c.134]
Игнорирование этого обстоятельства является причиной многих недоразумений и неудач в прикладных исследованиях, опирающихся на аппарат регрессионного анализа. Для объяснения этого обстоятельства представим себе, что при исследовании линейной парной регрессионной зависимости исходные данные (xt, /0 /=Т л фиксировались при переключающемся (в неизвестные для исследователя моменты времени) режиме типа условий эксперимента либо в режиме 1, в котором (при весьма высокой корреляции) регрессия имела монотонно возрастающий характер, либо в режиме 2, в котором (при столь же высокой корреляции) регрессия имела монотонно убывающий характер (см. рис. 13.1). Очевидно, попытки выявить связь между у и х по такой смешанной выборке не увенчаются успехом вычисления покажут, что связи нет. В то же время, если предварительно (или одновременно с решением задач регрессии) разбить имеющиеся данные на однородные (по условиям эксперимента) подвыборки и строить функции регрес- [c.395]