Метод ортогональной матрицы

Метод ортогональной матрицы  [c.54]

В методе ортогональной матрицы одновременно исследу-  [c.55]

Методы построения ортогональных матриц и их линейных  [c.79]


Посмотрим, что произойдет с расчетными формулами, если наложить на Х-матрицу условие ортогональности. Можно показать, что в этом случае матрица нормальных уравнений метода наименьших квадратов будет диагональной. Элементы обратной матрицы для диагональной матрицы равны обратным величинам соответствующих элементов прямой матрицы. Именно это обстоятельство позволяет при планировании экспериментов пользоваться простейшими расчетными формулами и делать операцию обращения матрицы практически в уме. Кроме того, как мы уже отмечали, это дает возможность независимо друг от друга оценивать все коэффициенты регрессии.  [c.228]

Имеется несколько подходов, приводящих к методу главных компонент. Поскольку наблюдения, образующие матрицу X, как правило, коррелированы между собой, можно поставить вопрос о ее реальной размерности или о числе реально независимых переменных, образующих эту матрицу. Точнее, мы рассмотрим преобразование переменных X в новое множество попарно некоррелированных переменных, среди которых первая соответствует направлению максимально возможной дисперсии, вторая — направлению максимально возможной дисперсии в подпространстве, ортогональном первому направлению, и т. д. Пусть через  [c.322]


Как уже отмечалось, представление ковариационной матрицы в виде Л = А А + Ф не единственно. Действительно, если умножить матрицу нагрузки А на ортогональную матрицу Т, то (AT)(AT) = AA. Таким образом, всегда можно применить ортогональное преобразование к Л, так что Л = AT даст ту же матрицу П. Было развито несколько методов, использующих эту неопределенность в факторном анализе для того, чтобы получить максимальное различие между столбцами А. Широко известный метод, предложенный Кайзером, состоит в максимизации так называемого VARIMAX критерия.  [c.468]

Общая простота s = si + s +. . . + sm и, согласно VARIMAX методу, нужно найти такую ортогональную матрицу Т, для которой s максимально.  [c.468]

Мы предпочитаем оценки коэффициентов регрессии у г, которые эффективны и для которых можно проверить значимость. Оценки эффективны, если они являются наилучшими линейными несмещенными оценками (НЛНО). Термин наилучшие относится к свойству минимальности дисперсии. Оценки обобщенного МНК, будут такими оценками (НЛНО), но они требуют знания ковариационной матрицы ошибок наблюдений (2г и 2 в (2.8) и (2.17) в дополнении 2). К сожалению, нам ковариационная матрица неизвестна. Мы можем оценить элементы этой матрицы. (Ее диагональные элементы, т. е. дисперсии, оцениваются величинами sfr, обобщенный МНК для системы уравнений также требует оценивания ковариаций эти ковариации не оценивались в данном эксперименте, но они оценивались в дополнительном эксперименте.) Замена ковариационной матрицы в обобщенном методе ковариационной матрицей оценок позволяет получить несмещенные оценки 7о-> но эти оценки не лучше оценок (НЛНО). Мы не знаем, имеют ли они еще и меньшую дисперсию, чем обычные МНК-оценки (сравните с литературой)9. Мы знаем, что МНК-оценки обладают преимуществом простоты вычислений, поскольку при ортогональной матрице независимых переменных не нужна обратная матрица. Обращение матрицы с помощью ЭВМ может приводить к значительным ошибкам  [c.300]


Число выделяемых факторов определяется, исходя из предварительной информации собственных значений факторов критерия осыпи" процента объясненной дисперсии метода расщепления критериев значимости. Несмотря на то, что матрица исходных или неповернутых указывает на взаимосвязь факторов и отдельных она редко приводит к факторам, которые можно интерпретировать, поскольку факторы коррелируют со многими переменными. Поэтому вращением матрицу факторных коэффициентов преобразуют в более которую легче интерпретировать. Самый распространенный метод вращения матрицы — метод варимакс (вращение, максимизирующее дисперсию), который приводит к ортогональным факторам. Если факторы в совокупности  [c.741]

В этой главе мы уделим внимание в основном качественному анализу финансовой отчетности. Для целей визуального представления данных мы широко использовали метод СОК, детально описываемый во второй части книги. Представление в виде компонентных плоскостей СОК, объяснение которого дается в гл. 3, позволяет получить ценную информацию посредством выделения отдельных нейронов различными оттенками серого цвета. Полезными здесь могут оказаться также и описанная в третьей главе проекция Саммона, и представление в виде ортогональной матрицы. Представление с помощью ортогональной матрицы позволяет судить об относительных расстояниях между элементами карты векторы весовых коэффициентов элементов карты отстоят друг от друга тем дальше, чем темнее окраска соответствующих элементов. Таким образом, отдельные кластеры данных на карте будут разделены более темными областями. Внешне это напоминает горный хребет, разделяющий два плато на географической карте.  [c.106]

В настоящей главе изучаются некоторые оптимизационные проблемы, которые встречаются в психометрике. Большинство этих задач связано со структурой собственных векторов и собственных значений ковариационной матрицы. Теоремы, встречающиеся в данной главе, можно разделить на четыре категории. Параграфы 2-7 имеют дело с методом главных компонент. Здесь применяется линейное ортогональное преобразование к р случайным величинам х, . . . , хр так, чтобы в результате получились новые переменные vi,. . . , vp, некоррелированные между собой. Первая главная компонента vi и есть нормированная линейная комбинация переменных из ж с максимальной дисперсией, вторая главная компонента v — нормированная линейная комбинация, имеющая максимальную дисперсию из комбинаций некоррелированных с v и т. д. Можно надеяться, что первые несколько компонент вносят основной вклад в разброс переменных х. На метод главных компонент можно взглянуть и по-другому предположим, что известна ковариационная матрица ж, скажем 7, и попытаемся приблизить ее другой неотрицательно определенной матрицей меньшего ранга. Если же 1 не известна, то воспользуемся оценкой S для Л, построенной по выборке из ж, и будем приближать S.  [c.442]

Смотреть страницы где упоминается термин Метод ортогональной матрицы

: [c.82]    [c.317]    [c.290]