Рассмотрим стандартизованную дисперсионно-ковариационную матрицу четырех активов, которые мы рассматривали в качестве примера применения метода главных компонент [c.311]
Хотя в методе главных компонент и факторном анализе используется дисперсионно-ковариационная матрица, они отличаются от анализа дисперсии — математического ожидания, рассмотренных в гл. 4 и 9, тем, что анализ дисперсии — математического ожидания измеряет общую изменчивость группы переменных без определения особого вклада подгруппы переменных в эту изменчивость. Метод главных компонент определяет и ранжирует подгруппы по их вкладу в совокупную изменчивость. Каждая из этих подгрупп — это "главная компонента" и определяется степенью ковариации между компонентами подгруппы. Вклад каждой из главных компонент в совокупную изменчивость ранжируется согласно совокупной дисперсии подгруппы. [c.494]
Первая стадия — это нахождение собственных векторов и соответствующих собственных значений дисперсионно-ковариационной матрицы С. Мы должны найти собственные векторы, потому что они дают нам линейно независимые комбинации переменных — главные компоненты, которые влияют на совокупную дисперсию. Мы должны найти собственные значения, потому что они показывают, за какую долю совокупного риска отвечает каждая главная компонента. [c.497]
Подобная проблема может появиться при использовании метода главных компонент, базирующегося на ковариационной матрице, составленной из нестандартизованных данных. По этой причине, в случае если данные по разным переменным обладают [c.502]
Теперь, используя метод главных компонент, определим темы совместных изменений, которые имеют влияние на дисперсию, преобразуем дисперсионно-ковариационную матрицу в группу из трех матриц Q, D и Q l и определим совокупную дисперсию, умножая вектор весов 1 х п на матрицы Q, D и Qr п x n и затем полученное произведение — на вектор весов п х 1 [c.508]
Сравнивая два способа решения систем (8.60) (непосредственно с матрицей X и с переходом к системе нормальных уравнений), можно сделать вывод, что несогласованные системы (8.60), как правило, лучше решать, используя переход к нормальной системе уравнений. В статистической практике несогласованные системы возникают, когда матрица данных X переопределена, т. е. число объектов (столбцов) в ней больше числа переменных (строк), и при этом линейные уравнения, входящие в систему (8.60), не могут выполняться точно. Но превышение числа объектов над числом переменных — типичная ситуация в регрессионном анализе. Второе условие несогласованности также часто выполняется, так как обычно системы линейных уравнений используются для оценки параметров линейных моделей типа (8.1), являющихся лишь приближением действительных соотношений между переменными (мерой этого приближения как раз и является дисперсия случайной компоненты е). Для обоснования перехода к нормальной системе уравнений существенно и то, что матрица Х Х тесно связана с ковариационной матрицей, которая является исходным объектом для различных видов многомерного анализа (главных компонент, факторного анализа и т. д.). [c.275]
Совпадают ли полученные по ковариационной и корреляционной матрице оценки ортогональной регрессии и главных компонент с точностью до обратного преобразования [c.18]
Шестая часть посвящена оценкам максимального правдоподобия, которые, конечно, являются идеальным объектом для демонстрации мощи развиваемой техники. В первых трех главах исследуется несколько моделей, среди которых есть многомерное нормальное распределение, модель с ошибками в переменных и нелинейная регрессионная модель. Рассматриваются методы работы с симметрией и положительной определенностью, специальное внимание уделено информационной матрице. Вторая глава этой части содержит обсуждение одновременных уравнений при условии нормальности ошибок. В ней рассматриваются проблемы оценивания и идентифицируемости параметров при различных (не)линейных ограничениях на параметры. В этой части рассматривается также метод максимального правдоподобия с полной информацией (FIML) и метод максимального правдоподобия с ограниченной информацией (LIML), особое внимание уделено выводу асимптотических ковариационных матриц. Последняя глава посвящена различным проблемам и методам психометрики, в том числе методу главных компонент, мультимодальному компо- [c.16]
В настоящей главе изучаются некоторые оптимизационные проблемы, которые встречаются в психометрике. Большинство этих задач связано со структурой собственных векторов и собственных значений ковариационной матрицы. Теоремы, встречающиеся в данной главе, можно разделить на четыре категории. Параграфы 2-7 имеют дело с методом главных компонент. Здесь применяется линейное ортогональное преобразование к р случайным величинам х, . . . , хр так, чтобы в результате получились новые переменные vi,. . . , vp, некоррелированные между собой. Первая главная компонента vi и есть нормированная линейная комбинация переменных из ж с максимальной дисперсией, вторая главная компонента v — нормированная линейная комбинация, имеющая максимальную дисперсию из комбинаций некоррелированных с v и т. д. Можно надеяться, что первые несколько компонент вносят основной вклад в разброс переменных х. На метод главных компонент можно взглянуть и по-другому предположим, что известна ковариационная матрица ж, скажем 7, и попытаемся приблизить ее другой неотрицательно определенной матрицей меньшего ранга. Если же 1 не известна, то воспользуемся оценкой S для Л, построенной по выборке из ж, и будем приближать S. [c.442]
Из полученной дисперсионно-ковариационной матрицы мы находим собственные векторы и связанные с ними собственные значения. На рынке государственных облигаций три главные компоненты отвечают за 99% риска временной структуры. В вышеупомянутых исследованиях Кана, Кана и Гульраджани и Карки и Рейеса первая компонента может быть интерпретирована как изменение общего уровня временной структуры аналогично параллельному смещению, вторая компонента — как изменение угла наклона кривой временной структуры, третья компонента — как изменение изгиба кривой временной структуры. [c.507]