Ортогональные векторы

Лишь 5 и в являются ортогональными векторами. 3. Вектор v является линейной комбинацией векторов а -, если  [c.135]


Следствие. Гиперплоскость, проведенная через точку х (t ) ортогонально вектору , строго отделяет D (t ) от X другими словами,  [c.195]

Теорема 2. Пусть Qi и Qz — выпуклые замкнутые ограниченные тела, не имеющие общих точек (< 1П< 2=0)- Тогда существует гиперплоскость G (проходящая через некоторую точку q ортогонально вектору g), строго разделяющая тела Q u Qz в том смысле, что  [c.371]

С геометрической точки зрения идемпотентная матрица соответствует оператору проектирования на векторное подпространство. Так, например, матрица М = I — гг является проектором на подпространство, ортогональное вектору г = (1,..., 1).  [c.503]

Вектор ОР есть ортогональная проекция вектора Y на вектор S. Из векторной алгебры известно, что длина такого вектора равна отношению скалярного произведения векторов Y и S к длине вектора S, т. е.  [c.77]

Вектор Y есть ортогональная проекция вектора Уна плоскость п. По известной в стереометрии теореме о трех перпендикулярах  [c.78]


Два вектора называются ортогональными, если их скалярное произведение равно нулю.  [c.271]

Векторы е, в2,..., е n-мерного евклидова пространства образуют ортонормированный базис, или ортонормированную систему векторов, если эти векторы попарно ортогональны и длина каждого из них равна 1, т. е. если (et, е ) = 0 при / Ф и et = 1, / = 1,..., п.  [c.271]

В ортогональной матрице как строки, так и столбцы образуют ортонормированную систему векторов ( 11.6).  [c.274]

Построение матриц планирования. При планировании экспериментов используются некоторые матричные формы. Рассмотрим их. Ортогональными называются два вектора, если  [c.162]

Отсюда видно, что при перемножении транспонированной матрицы на исходную (при условии, что столбцы исходной матрицы ортогональны) получаемая результирующая матрица является диагональной. Это свойство используется при планировании экспериментов уровни факторов выбираются так, чтобы векторы-столбцы исходной матрицы были ортогональны.  [c.163]

Какие из следующих векторов являются ортогональными  [c.133]

На рис. 3.1, а два вектора включают в себя угол, который меньше 90 градусов. Это приводит к тому, что скалярное произведение этих двух векторов положительно. Векторы, расположенные друг к другу перпендикулярно, называются ортогональными (рис. 3.1, в). Их скалярное произведение равно нулю. Векторы, которые образуют друг с другом угол, превышающий 90 градусов, имеют отрицательное скалярное произведение (рис. 3.1, б). Если обозначить включенный угол символом а, то мы можем обобщенно записать  [c.134]

Xit то это равно умножению вектора на скалярную величину Я г, т. е. СХ. = Я X.. Симметричность матрицы С означает, что существует N таких векторов (при условии, что С — это не невырожденная матрица, т. е. обладает обратной матрицей) и что они ортогональны.  [c.303]


Докажите, что матрица (v — вектор-столбец) — ортогональная матрица. Проверьте для нее свойства ортогональной матрицы. В качестве v возьмите первый столбец матрицы А из задания 1.  [c.59]

Покажите, что векторы-столбцы матрицы Н имеют единичную длину и попарно ортогональны. Убедитесь, что выполняется равенство det Н = I.  [c.59]

Пусть А — вещественная симметрическая матрица порядка п. Тогда существуют ортогональная матрица S порядка п (т.е. Sf S = /п), столбцы которой являются собственными векторами Л, и диагональная матрица Л, диагональные элементы которой являются собственными значениями Л, такие что  [c.38]

Пусть х есть случайный р х 1 вектор со средним л и матрицей ковариации 1. Предположим, что 1 известна. Пусть AI A2 . . . Хр > 0 — собственные значения Л, а Т = (ti, 2, tp) — ортогональная матрица порядка р, такая что  [c.443]

Сразу бросается в глаза проблема идентификации А в А А1, поскольку, если Л = AT есть ортогональное преобразование Л, то Л Л = Л Л. В дальнейшем ( 15) будет показано, как эта неоднозначность может быть разрешена. Предположим, что получена выборка из п > р наблюдений Ж] ,. . . , хп вектора х. Логарифмическая функция правдоподобия имеет вид  [c.459]

Вычисление Р13 несколько сложнее. Вначале мы должны найти вектор Да, ортогональный к вектору  [c.154]

Затем отыскиваем вектор Д ) ортогональный к Д2. Наилучшее линейное приближение вектора ts вектором Д2 есть  [c.154]

Для вычисления Р13 найдем вначале вектор Д3, ортогональный к вектору tz  [c.154]

Определение 3. Гиперплоскость G, проходящую через точку (ft dQ ортогонально некоторому вектору g, будем называть опорной к Q в точке дг, если  [c.370]

В самом деле, пусть g — вектор, ортогональный опорной к Q в точке Ae 8Q гиперплоскости G. Тогда  [c.374]

Двойственный симплекс-метод. Начнем с анализа геометрической картины, связанной с задачей линейного программирования. На рис. 76 изображен (качественно) многогранник Р, причем одна ось — прямая е, в качестве второй оси на рис. 76 принято иг-мерное пространство. Граница Р состоит из т мерных граней (на рис. 76 они изображены отрезками). Каждая грань определяется вектором g, ортогональным данной грани. Мы будем считать этот вектор нормированным условием (g, е) = 1. Такие векторы определяют нижние грани Р, при нормировке (g, e) =—1 получим верхние. Это следует понимать так коль скоро задан вектор g, соответствующая ему грань определяется как совокупность точек х вида  [c.426]

Если диагональная матрица является результирующей от перемножения транспонированной на исходную, то непременным условием этого является ортогональность векторов-столбцов исходной матрицы. Например, если векторы-столбцы взаимноортого-нальны  [c.163]

Замена искомых функций. Можно было бы, как это делалось при построении теории оболочек, начать с поиска множества Жобщей схемы вариа-, ционно-асимптотического метода. При этом на первом шаге получилось бы, что функции х (1-а, ) не зависят от а х = г ( ), на втором шаге — что ( "> ) являются линейными функциями i-a х 1 = т а(%) а, где векторы т и Тг перпендикулярны и ортогональны вектору dr /di- и, таким образом, содержат дополнительный пр9извол. На следующем шаге функции х " полностью определяются по г и т а, и, таким образом, множество JT состоит из функций / ( ) и Та( )- Мы пропустим эти рассуждения, "угадав" множество Jf, и сразу перейдем к нужной замене искомых функций.  [c.335]

Мы можем нормализовать эти векторы так, чтобы х/х,- = 1 для всех i. Систему нормализованных ортогональных векторов называют ортонор шальной системой. Запишем теперь условия, которым должна удовлетворять ортонормальная система векторов  [c.107]

Чтобы еще более усложнить ФА, можно показать, что для данной совокупности факторов любое ортогональное преобразование (т. е. вращение) этих векторов будет иметь тот же самый эффект. Следовательно, мы вольны выбирать, какие из доходностей представляют собой наиболее значимый результат. Процедура, известная под названием варимаксной (varimax pro edure), применяется для того, чтобы выбрать факторы так, что нагрузка одних факторов велика, а других — мала. Это связывает переменные с меньшим числом более различающихся факторов.  [c.315]

Векторы х и у называются ортогональными, если их скалярное произведение равно нулю. Равенство В. — компонентное, т. е. два В. равны, если равны их соответствующие компоненты. Вектор 0 — (0,. .., 0) нулевой и-мерный В. — положительный (х > 0), если все его компоненты х больше нуля, неотрицательный (х > 0), если все его компоненты х. больше 0 или равны нулю, т. е. х. > 0 и полуположительный, если при этом хотя бы одна компонента х > 0 (обозначение х > 0) если В. имеют равное количество компонент, возможно их упорядочение (полное или частичное), т. е. введение на множестве векторов бинарного отношения ">" х > у, х > у, х > у в зависимости от того, положительна, полуположительна или неотрицательна разность х - у.  [c.42]

В настоящей главе изучаются некоторые оптимизационные проблемы, которые встречаются в психометрике. Большинство этих задач связано со структурой собственных векторов и собственных значений ковариационной матрицы. Теоремы, встречающиеся в данной главе, можно разделить на четыре категории. Параграфы 2-7 имеют дело с методом главных компонент. Здесь применяется линейное ортогональное преобразование к р случайным величинам х, . . . , хр так, чтобы в результате получились новые переменные vi,. . . , vp, некоррелированные между собой. Первая главная компонента vi и есть нормированная линейная комбинация переменных из ж с максимальной дисперсией, вторая главная компонента v — нормированная линейная комбинация, имеющая максимальную дисперсию из комбинаций некоррелированных с v и т. д. Можно надеяться, что первые несколько компонент вносят основной вклад в разброс переменных х. На метод главных компонент можно взглянуть и по-другому предположим, что известна ковариационная матрица ж, скажем 7, и попытаемся приблизить ее другой неотрицательно определенной матрицей меньшего ранга. Если же 1 не известна, то воспользуемся оценкой S для Л, построенной по выборке из ж, и будем приближать S.  [c.442]

Оператор Фредгол ма с ядром k (to — TI, 4 — 12) обладает в гильбертовом пространстве (согласно теореме Гильберта) полной ортогональной системой собственных векторов. Это значит, что фг(т) образуют полный базис в Lz(to, Т). Поэтому Я сЯ .  [c.304]

Эконометрика (2002) -- [ c.27 , c.302 ]

Экономико-математический словарь Изд.5 (2003) -- [ c.42 ]