Собственное ортогональной матрицы

Все собственные значения идемпотентной матрицы равны 0 или 1. Все собственные значения ортогональной матрицы по модулю равны 1.  [c.36]


Пусть А — вещественная симметрическая матрица порядка п. Тогда существуют ортогональная матрица S порядка п (т.е. Sf S = /п), столбцы которой являются собственными векторами Л, и диагональная матрица Л, диагональные элементы которой являются собственными значениями Л, такие что  [c.38]

Доказательство. Поскольку А А есть вещественная симметрическая (и, более того, неотрицательно определенная) матрица порядка т и в силу (7.3) имеющая ранг г, то все ее ненулевые собственные значения положительны (теорема 8). По теореме 13 существует ортогональная матрица (S 5 ) порядка га, такая что  [c.41]

Пусть х есть случайный р х 1 вектор со средним л и матрицей ковариации 1. Предположим, что 1 известна. Пусть AI A2 . . . Хр > 0 — собственные значения Л, а Т = (ti, 2, tp) — ортогональная матрица порядка р, такая что  [c.443]


В самом деле, так как 1 1 симметрична, то существует ортогональная матрица S, такая что fi"1 = S AS, где Л — диагональная матрица, на главной диагонали которой стоят собственные числа AJ, г = 1,..., п, матрицы 1 1. В силу положительной определенности 1 все они положительны, поэтому можно определить диагональную матрицу Л1 2, на главной диагонали которой стоят числа А/, г = 1,..., п. Теперь достаточно взять Р = Л S. Заметим, что представление (5.5) не единственно, но для наших рассуждений это несущественно. Умножим равенство (5.3) слева на Р и обозначим у = Ру, X = РХ, Е = Ре. Таким образом,  [c.156]

Пусть х N(m, S). Поскольку матрица S симметрична и неотрицательно определена, то, как известно (приложение ЛА, п. 15), все ее собственные значения AJ, г = 1,..., п, неотрицательны и существует ортогональная матрица Р, такая что Л = Р ЛР, где Л — диагональная матрица, на главной диагонали которой стоят числа AJ, г = 1,..., п. Тогда вектор s = Р х — Р т в силу N5) является гауссовским, а из (МС.7) следует, что Es = 0 и V(s) = Л. Это означает, что компоненты вектора s некоррелированы, а в силу N4) и независимы. Таким образом,  [c.525]

Пусть А есть вещественная симметрическая п х п матрица с собственными значениями AI А2 . . . Ап. Пусть S = (si, 2,. . . , sn) есть ортогональная п х п матрица, которая приводит А к диагональному виду, так что  [c.263]

Обозначим собственные значения S как /i > /2 >. .. > /р, и заметим, что они различны с вероятностью 1, даже если не все собственные значения 1 различны. Пусть Q = (gi, 2, , qp) — ортогональная р х р матрица, такая что  [c.447]

Предложение. Симметричная п х п матрица А имеет п собственных чисел (некоторые из них могут совпадать), которым соответствуют п собственных векторов i,..., n, которые могут быть выбраны попарно ортогональными. (Собственные векторы, соответствующие разным собственным значениям симметричной матрицы, всегда ортогональны.)  [c.499]


Тогда матрицу собственных факторов этой модели представляет табл.34 соответствующая плану 2а для исходных факторов. Из этой таблицы видно, что не все столбцы собственных факторов ортогональны, так что независимая оценка параметров YI и уа невозможна.  [c.83]

Показать, что МНК в ортогональной регрессии сводится к поиску собственных чисел и векторов ковариационной матрицы. Почему остаточная дисперсия равна минимальному собственному числу этой матрицы  [c.17]

Симметрическая матрица А порядка п имеет собственные значения Аь Я2,. .., Хп, не обязательно различные между собой. Этим значениям соответствует система ортогональных собственных векторов х1( х2,. .., х , таких, что  [c.107]

Собственные векторы симметрической матрицы, принадлежащие различным собстве зн н ым значениям, ортогональны..  [c.68]

Лемма 1. Пусть qab — произврльный тензор, (лаь — компоненты собственной ортогональной матрицы  [c.177]

Теорема Шура гласит, что для всякой квадратной матрицы А существует унитарная (возможно, ортогональная) матрица 5, которая переводит А в верхнетреугольную матрицу М, диагональные элементы которой являются собственными значениями А.  [c.40]

Доказательство. Пусть X есть произвольная неотрицательно определенная пхп матрица, удовлетворяющая условию tr Xq = 1. Пусть S есть ортогональная матрица, такая что SfXS = Л, где Л диагональная и имеет собственные значения X как диагональные элементы. Определим В = (bij = S AS. Тогда  [c.280]

Токажите, что матрица А идемпотентная и определите ее ранг. Найдите собствен-[ые значения н соответствующие им собственные векторы матрицы А, а затем юстройте ортогональную матрицу, которая приводит А к диагональному виду.  [c.121]

Мы можем продолжать этот процесс до тех пор, пока не используе все k собственных значений матрицы Х Х, а полученные в результаг k векторов объединим в ортогональную матрицу  [c.324]

Замечание. Для k = 1 теорема 10 сводится к теореме 4. Для k = п мы получаем известный результат, что симметрические матрицы А и G1AG имеют один и тот же набор собственных значений, если G ортогональна (см. теорему 1.5).  [c.267]

В настоящей главе изучаются некоторые оптимизационные проблемы, которые встречаются в психометрике. Большинство этих задач связано со структурой собственных векторов и собственных значений ковариационной матрицы. Теоремы, встречающиеся в данной главе, можно разделить на четыре категории. Параграфы 2-7 имеют дело с методом главных компонент. Здесь применяется линейное ортогональное преобразование к р случайным величинам х, . . . , хр так, чтобы в результате получились новые переменные vi,. . . , vp, некоррелированные между собой. Первая главная компонента vi и есть нормированная линейная комбинация переменных из ж с максимальной дисперсией, вторая главная компонента v — нормированная линейная комбинация, имеющая максимальную дисперсию из комбинаций некоррелированных с v и т. д. Можно надеяться, что первые несколько компонент вносят основной вклад в разброс переменных х. На метод главных компонент можно взглянуть и по-другому предположим, что известна ковариационная матрица ж, скажем 7, и попытаемся приблизить ее другой неотрицательно определенной матрицей меньшего ранга. Если же 1 не известна, то воспользуемся оценкой S для Л, построенной по выборке из ж, и будем приближать S.  [c.442]

Так как А А симметрическая, ее можно диагонализовать. Следовательно, если IJLI, / 2, , Mr — собственные значения А А, то существует ортогональная г х г матрица , такая что  [c.446]

Число выделяемых факторов определяется, исходя из предварительной информации собственных значений факторов критерия осыпи" процента объясненной дисперсии метода расщепления критериев значимости. Несмотря на то, что матрица исходных или неповернутых указывает на взаимосвязь факторов и отдельных она редко приводит к факторам, которые можно интерпретировать, поскольку факторы коррелируют со многими переменными. Поэтому вращением матрицу факторных коэффициентов преобразуют в более которую легче интерпретировать. Самый распространенный метод вращения матрицы — метод варимакс (вращение, максимизирующее дисперсию), который приводит к ортогональным факторам. Если факторы в совокупности  [c.741]

А - остальная часть матрицы А, это - П—k старших главных компонент или собственно главных компоненет A=E[AE,AF] хА = 0 - гиперплоскость ортогональной регрессии размерности П—k  [c.15]

Вообще мы будем иметь дело лишь с действительными симметрическими матрицами. Эти два свойства — существование действительных корней и ортогональность собственных векторов — имеют место и в общем случае действительной симметрической матрицы 2 порядка п. Более того, если характеристический корень Я имеет кратность k (т. е. повторяется k раз), то имеется k соответствующих ему ортогональных собственных векторов3.  [c.107]

Смотреть страницы где упоминается термин Собственное ортогональной матрицы

: [c.177]    [c.337]    [c.502]    [c.498]   
Матричное дифференциальное исчисление с приложениями к статистике и эконометрике (2002) -- [ c.36 ]