Умножение на число, умножение на скалярную матрицу [c.55]
Hi) (скалярная матрица ковариаций) var(w) =
Примером может служить критерий Дур-бина — Уотсона на основе наилучших линейных несмещенных остатков со скалярной матрицей ковариации. [c.324]
Матрица п х 1 называется вектором-столбцом матрица 1 х п, — вектором-строкой 1x1 матрица называется скалярной матрицей. Далее, если не оговорено противное, мы будем везде рассматривать вектор как вектор-столбец. [c.488]
Произведение Y Xb есть матрица размера (1хл)[лх(р+1)]х x[(p+l)xl]=(lxl), т.е. величина скалярная, следовательно, оно не меняется при транспонировании, т.е. Y Xb = (Y Xb) = b X Y. Поэтому условие минимизации (4.3) примет вид [c.84]
Если уравнения (9.18), (9.19) по отдельности удовлетворяют условиям классической модели, матрицы Z// — скалярные. Тогда [c.237]
Например, матрица А А неотрицательно определена, так как для любого вектора хх (А А)х (х А ) Ах = (Ах) Ах = у у > О, ибо у у представляет скалярный квадрат вектора у = Ах. [c.273]
Доказательство заметим, что скалярное произведение векторов-столбцов а и b может быть записано в виде произведения матриц либо как аТЬ, либо как Ъта. На этом основании можно записать [c.263]
Перрона следует, что существует неотрицательный вектор р, такой, что Ар = ЛАр. Выше было доказано, что неотрицательный собственный вектор положительной матрицы является положительным. Поэтому в действительности р >0. Рассмотрим скалярное произведение (р,Ау). Имеем [c.264]
Xit то это равно умножению вектора на скалярную величину Я г, т. е. СХ. = Я X.. Симметричность матрицы С означает, что существует N таких векторов (при условии, что С — это не невырожденная матрица, т. е. обладает обратной матрицей) и что они ортогональны. [c.303]
Пример приведен ниже. Матрица 2 х 2 в левой части — это дисперсионно-ковариационная матрица, использованная ранее. Если эта матрица может быть помножена на вектор, так, что произведение будет равно произведению собственного вектора на скалярную величину, например [c.303]
S > 0 — коэффициент дисконтирования), минимизация которого соответствует некоторому компромиссу между желаниями иметь поменьше загрязнений и побольше выпусков предприятий . При этом С1 — матрица-строка длины / с положительными компонентами, соответствующими вредности каждого типа загрязнений, С, — скалярные положительные величины, соответствующие ценности выпуска каждого предприятия. Эти коэффициенты находятся в ведении Центра и в данной постановке считаются заданными. [c.49]
В этой главе X всегда будет обозначать матрицу (обычно квадратную) вещественных переменных, a Z — матрицу комплексных переменных. Мы рассмотрим дифференциалы скалярных функций X (собственные значения, определитель), векторных функций X (собственные векторы), а также матричных функций X (обратная, МП-обратная, сопряженная матрицы). [c.196]
Мы будем рассматривать скалярные функции 0, векторные функции / и матричные функции F. Каждая из них может зависеть от одной вещественной переменной , вектора вещественных переменных х или матрицы вещественных переменных X. Таким образом, мы получаем классификацию функций и переменных, представленную в табл. 1. [c.223]
Безусловно, определение 2 имеет некоторые достоинства. Во-первых, если F является матричной функцией только одной переменной , то dF( )/д имеет тот же размер, что и F( ). Во-вторых, если ф — скалярная функция матрицы X, то размер дф(Х /дХ снова совпадает с размером X. В частности, если ф — скалярная функция вектор-столбца ж, то дф/дх — вектор-столбец, а дф/дх — вектор-строка. Кроме того, это определение предлагает четыре способа для упорядочения тп частных производных векторной функции f(x) размера т х 1, где х — вектор переменных размера п х 1 df/dx (матрица размера га х n), df /dx (матрица размера п х га), df/dx (тп х 1 вектор) и df /dx ( 1 х ran вектор). [c.225]
В этой таблице ф — скалярная функция, / — векторная функция размера 7П х 1 и F — матричная функция размерности т х р — скаляр, х — п х 1 вектор и X — матрица размера п х q а — скаляр, а — вектор-столбец и А — матрица, которая может быть функцией от X, х или . [c.230]
Рассмотрим несколько примеров. Два наиболее важных случая скалярных функций от вектора х — это линейная форма а х и квадратичная форма х Ах. Пусть ф(х) = а х, где а — постоянный вектор. Тогда 6ф(х) = a dx, следовательно Оф(х) = а . Далее, пусть ф(х) = х Ах, где А — постоянная квадратная матрица. Тогда [c.230]
Скалярные функции от матрицы, I. След 231 [c.231]
СКАЛЯРНЫЕ ФУНКЦИИ ОТ МАТРИЦЫ, I. СЛЕД [c.231]
В интересных примерах скалярных функций от матриц нет недостатка. В этом параграфе рассматриваются дифференциалы от следа для некоторых матричных функций. В 10 будут рассмотрены определители, а в 11 — собственные значения. [c.231]
Скалярные функции от матрицы, II. Определитель 233 [c.233]
СКАЛЯРНЫЕ ФУНКЦИИ ОТ МАТРИЦЫ, П. ОПРЕДЕЛИТЕЛЬ [c.233]
Скалярные функции от матрицы, III. Собственное значение 235 [c.235]
СКАЛЯРНЫЕ ФУНКЦИИ ОТ МАТРИЦЫ, III. СОБСТВЕННОЕ ЗНАЧЕНИЕ [c.235]
В этой таблице ф есть скалярная функция, / — векторная функция размера т х 1 и F — матричная функция размера т х р — скаляр, ж — n x 1 вектор и X — n x g матрица /3 — скаляр, b — вектор-столбец и В — матрица, которые могут зависеть от X, х или . В случае векторной функции / имеем [c.247]
Критерий оптимальности (3) имеет очевидный недостаток он не дает метода построения оценки — мы не можем минимизировать матрицу. Однако можно минимизировать скалярную функцию от матрицы ее след, определитель или наибольшее собственное значение. Подход, использующий минимизацию следа, оказывается наиболее привлекательным с практической точки зрения. [c.322]
Основным недостатком прогноза, определенного в (5), является то, что ковариационная матрица не будет скалярной. В самом деле, [c.378]
Поэтому хотелось бы найти такой прогноз б (или, в более общем случае, б), чтобы он был не только несмещенным и линейным, но и имел скалярную ковариационную матрицу. [c.378]
Математически собственные векторы — это векторы X., каждый из которых обладает4 соответствующим скалярным значением Я. — собственным значением, таким, что когда дисперсионно-ковариационная матрица С умножается на вектор [c.302]
Третья часть является прикладным ядром книги. Она содержит правила работы с дифференциалами, список дифференциалов от важных скалярных, векторных и матричных функций (включая собственные числа, собственные векторы и обратные матрицы Мура—Пенроуза). Также приведены таблицы идентификации для матриц Гессе и Якоби. [c.16]
Пусть AI, А2,. . . , Ап — собственные значения матрицы ZQ G Спхп и А — простое собственное значение. Тогда существует скалярная функция Л ), определенная в окрестности N(ZQ) С Спхп матрицы Z0, такая что X (ZQ) = i и A(i)(Z) — (простое) собственное значение Z для всех Z N(ZQ). Кроме того, А( ) дифференцируема бесконечное число раз на N(ZQ), и [c.215]
Вторая теорема об идентификации (теорема 6.6) позволяет найти матрицу Гессе скалярной функции по ее дифференциалу второго порядка. Более точно, она утверждает, что равенство [c.245]
Статистический анализ возмущений е = у — Х/3 обсуждается в 11-14, там будет найден наилучший линейный несмещенный прогноз в случае, когда про ковариационную матрицу известно только то, что она скалярна (BLUS) l, и в случае, когда ковариационная матрица известна (BLUF) 2. [c.361]