Разбираясь с регрессионным анализом, мы сначала обсудим самый простой его тип — двумерную регрессию, опишем процедуры оценки, нормирования коэффициентов регрессии, проверку и определение тесноты и значимости связи между а также точность прогноза и которые лежат в основе регрессионного анализа. Затем мы разберем модель множественной регрессии, уделив особое внимание интерпретации параметров, тесноте связи, проверкам значимости и анализу остатков. [c.640]
Нормированный коэффициент регрессии [c.654]
Нормирование представляет собой процедуру, посредством которой исходные данные преобразуют в новые переменные со значением средней, равным нулю, и дисперсией, равной 1 (глава 14). После нормирования данных, отрезок, отсекаемый на оси OY, принимает значение 0. Нормированный коэффициент регрессии обозначают как или взвешенный "бета В этом случае угловой коэффициент регрессии обозначаемый тот же, что и угловой коэффициент регрессии по Y, обозначаемый Более того, каждый из этих коэффициентов регрессии равен простому (линейному) коэффициенту корреляции между . г [c.654]
Объясните значение нормированных коэффициентов регрессии. [c.679]
Ответ зависит от того, с какой вы проводите анализ и зачем вам нужны результаты. Если вы хотите узнать, какие из предикторов наиболее сильно влияют на зависимую переменную, то лучше всего это покажет изучение нормированных коэффициентов регрессии [c.819]
Нормированный коэффициент регрессии, 650 Нулевая 563 [c.952]
Нормированные матрицы применяются при определении коэффициентов регрессии. Пусть имеется модель [c.164]
Нетрудно видеть, что путем замены на 2 и дальнейших простых преобразований можно прийти к системе нормальных уравнений в стандартизованном масштабе. Подобное преобразование мы будем применять в дальнейшем, поскольку нормирование, с одной стороны, позволяет нам избежать слишком больших чисел и, с другой стороны, сама вычислительная схема при определении коэффициентов регрессии становится стандартной. [c.136]
Отбор существенных переменных в пространстве главных компонент рассмотрен в п. 8.3. Как там показано, он приводит к следующим результатам с одной стороны, к некоторому увеличению наблюдаемого значения нормированной суммы квадратов отклонений Д , но одновременно к уменьшению средне-квадратического отклонения от соответствующих истинных значений параметров и к уменьшению средней ошибки прогноза для векторов X, не входящих в матрицу плана X (т. е. в обучающую выборку, см. п. 11.3). Последнего можно достичь и при отборе существенных переменных в исходном пространстве (опять-таки за счет увеличения нормированной суммы квадратов отклонений на обучающей выборке). Фактически отбор переменных означает, что исходное множество из р переменных делится на два подмножества X (р—q) и X (q), состоящих из таких р — q и q переменных, что коэффициенты регрессии при р — q переменных, входящих в первое подмножество, полагаются равными нулю, а коэффициенты при q переменных из второго подмножества оцениваются по мнк (по окончании процедуры отбора для оценки можно использовать и методы, изложенные в 8.2—8.5). [c.280]
О/)) — -мерный вектор коэффициентов регрессии нормированной переменной у на нормированные переменные из [c.293]
Существует простая связь между нормированным и ненормированным коэффициентами регрессии [c.654]
В общем случае, чтобы сделать коэффициенты регрессии сопоставимыми, применяют нормированные коэффициенты регрессии fy Коэффициент ft показывает величину изменения результативного фактора в значениях средней квадратической ошибки при изменении факторного признака на одну среднюю квадратичес-кую ошибку (СКО) [c.327]
Нормированный коэффициент регрессии. Также называется бета-коэффициентом, или взве-бета-коэффициентом. Показывает изменение У в зависимости от изменения X (угол наклона прямой уравнения регрессии) при условии, что все данные нормированы. [c.650]
С помощью парной регрессии устанавливается математическая зависимость (в виде уравнения) между метрической зависимой (критериальной) переменной и метрической независимой переменной (предиктором). Уравнение описывает прямую линиию, и для его вывода используют метод наименьших В случае построения регрессии с нормированными данными отрезок, отсекаемый на оси OY, принимает значение, равное 0, и коэффициенты регрессии называют взвешенными Силу тесноты связи измеряют ко-детерминации который получают, вычисляя отношение к Стандартную ошибку уравнения регрессии используют для оценки точности предсказания, и ее можно интерпретировать как род средней ошибки, сделанной при теоретическом предсказании Y, исходя из уравнения регрессии. [c.678]
Ад— нормированный коэффициент множественной регрессии переменной г по общему факторуу [c.719]
Разумеется, что при недостаточно квалифицированной постановке наблюдений и их обработке в коэффициентах эластичности (регрессии) примешивается влияние субъективных, отрицательных факторов. Но при высоком уровне под-тотовки исходных данных и их обработке результаты, как правило, достигают высокой степени надежности и эффективности для нормирования. В коэффициентах эластичности учитывается влияние не одного, а многих факторов. В этом универсальность математических моделей. Использование этих моделей на протяжении ряда лет оправдало себя в точности, скорости и простоте счета при нормировании расхода стального талевого каната для бурения. [c.33]