Скалярная матрица

Скалярной матрицей называется диагональная матрица с одинаковыми числами на главной диагонали единичная матрица — частный случай скалярной матрицы.  [c.54]


Умножение на число, умножение на скалярную матрицу  [c.55]

Hi) (скалярная матрица ковариаций) var(w) = [c.379]

Примером может служить критерий Дур-бина — Уотсона на основе наилучших линейных несмещенных остатков со скалярной матрицей ковариации.  [c.324]

Матрица п х 1 называется вектором-столбцом матрица 1 х п, — вектором-строкой 1x1 матрица называется скалярной матрицей. Далее, если не оговорено противное, мы будем везде рассматривать вектор как вектор-столбец.  [c.488]

Произведение Y Xb есть матрица размера (1хл)[лх(р+1)]х x[(p+l)xl]=(lxl), т.е. величина скалярная, следовательно, оно не меняется при транспонировании, т.е. Y Xb = (Y Xb) = b X Y. Поэтому условие минимизации (4.3) примет вид  [c.84]

Если уравнения (9.18), (9.19) по отдельности удовлетворяют условиям классической модели, матрицы Z// — скалярные. Тогда  [c.237]

Например, матрица А А неотрицательно определена, так как для любого вектора хх (А А)х (х А ) Ах = (Ах) Ах = у у > О, ибо у у представляет скалярный квадрат вектора у = Ах.  [c.273]


Доказательство заметим, что скалярное произведение векторов-столбцов а и b может быть записано в виде произведения матриц либо как аТЬ, либо как Ъта. На этом основании можно записать  [c.263]

Перрона следует, что существует неотрицательный вектор р, такой, что Ар = ЛАр. Выше было доказано, что неотрицательный собственный вектор положительной матрицы является положительным. Поэтому в действительности р >0. Рассмотрим скалярное произведение (р,Ау). Имеем  [c.264]

Xit то это равно умножению вектора на скалярную величину Я г, т. е. СХ. = Я X.. Симметричность матрицы С означает, что существует N таких векторов (при условии, что С — это не невырожденная матрица, т. е. обладает обратной матрицей) и что они ортогональны.  [c.303]

Пример приведен ниже. Матрица 2 х 2 в левой части — это дисперсионно-ковариационная матрица, использованная ранее. Если эта матрица может быть помножена на вектор, так, что произведение будет равно произведению собственного вектора на скалярную величину, например  [c.303]

S > 0 — коэффициент дисконтирования), минимизация которого соответствует некоторому компромиссу между желаниями иметь поменьше загрязнений и побольше выпусков предприятий . При этом С1 — матрица-строка длины / с положительными компонентами, соответствующими вредности каждого типа загрязнений, С, — скалярные положительные величины, соответствующие ценности выпуска каждого предприятия. Эти коэффициенты находятся в ведении Центра и в данной постановке считаются заданными.  [c.49]

В этой главе X всегда будет обозначать матрицу (обычно квадратную) вещественных переменных, a Z — матрицу комплексных переменных. Мы рассмотрим дифференциалы скалярных функций X (собственные значения, определитель), векторных функций X (собственные векторы), а также матричных функций X (обратная, МП-обратная, сопряженная матрицы).  [c.196]


Мы будем рассматривать скалярные функции 0, векторные функции / и матричные функции F. Каждая из них может зависеть от одной вещественной переменной , вектора вещественных переменных х или матрицы вещественных переменных X. Таким образом, мы получаем классификацию функций и переменных, представленную в табл. 1.  [c.223]

Безусловно, определение 2 имеет некоторые достоинства. Во-первых, если F является матричной функцией только одной переменной , то dF( )/д имеет тот же размер, что и F( ). Во-вторых, если ф — скалярная функция матрицы X, то размер дф(Х /дХ снова совпадает с размером X. В частности, если ф — скалярная функция вектор-столбца ж, то дф/дх — вектор-столбец, а дф/дх — вектор-строка. Кроме того, это определение предлагает четыре способа для упорядочения тп частных производных векторной функции f(x) размера т х 1, где х — вектор переменных размера п х 1 df/dx (матрица размера га х n), df /dx (матрица размера п х га), df/dx (тп х 1 вектор) и df /dx ( 1 х ran вектор).  [c.225]

В этой таблице ф — скалярная функция, / — векторная функция размера 7П х 1 и F — матричная функция размерности т х р — скаляр, х — п х 1 вектор и X — матрица размера п х q а — скаляр, а — вектор-столбец и А — матрица, которая может быть функцией от X, х или .  [c.230]

Рассмотрим несколько примеров. Два наиболее важных случая скалярных функций от вектора х — это линейная форма а х и квадратичная форма х Ах. Пусть ф(х) = а х, где а — постоянный вектор. Тогда 6ф(х) = a dx, следовательно Оф(х) = а . Далее, пусть ф(х) = х Ах, где А — постоянная квадратная матрица. Тогда  [c.230]

Скалярные функции от матрицы, I. След 231  [c.231]

СКАЛЯРНЫЕ ФУНКЦИИ ОТ МАТРИЦЫ, I. СЛЕД  [c.231]

В интересных примерах скалярных функций от матриц нет недостатка. В этом параграфе рассматриваются дифференциалы от следа для некоторых матричных функций. В 10 будут рассмотрены определители, а в 11 — собственные значения.  [c.231]

Скалярные функции от матрицы, II. Определитель 233  [c.233]

СКАЛЯРНЫЕ ФУНКЦИИ ОТ МАТРИЦЫ, П. ОПРЕДЕЛИТЕЛЬ  [c.233]

Скалярные функции от матрицы, III. Собственное значение 235  [c.235]

СКАЛЯРНЫЕ ФУНКЦИИ ОТ МАТРИЦЫ, III. СОБСТВЕННОЕ ЗНАЧЕНИЕ  [c.235]

В этой таблице ф есть скалярная функция, / — векторная функция размера т х 1 и F — матричная функция размера т х р — скаляр, ж — n x 1 вектор и X — n x g матрица /3 — скаляр, b — вектор-столбец и В — матрица, которые могут зависеть от X, х или . В случае векторной функции / имеем  [c.247]

Критерий оптимальности (3) имеет очевидный недостаток он не дает метода построения оценки — мы не можем минимизировать матрицу. Однако можно минимизировать скалярную функцию от матрицы ее след, определитель или наибольшее собственное значение. Подход, использующий минимизацию следа, оказывается наиболее привлекательным с практической точки зрения.  [c.322]

Основным недостатком прогноза, определенного в (5), является то, что ковариационная матрица не будет скалярной. В самом деле,  [c.378]

Поэтому хотелось бы найти такой прогноз б (или, в более общем случае, б), чтобы он был не только несмещенным и линейным, но и имел скалярную ковариационную матрицу.  [c.378]

Математически собственные векторы — это векторы X., каждый из которых обладает4 соответствующим скалярным значением Я. — собственным значением, таким, что когда дисперсионно-ковариационная матрица С умножается на вектор  [c.302]

Третья часть является прикладным ядром книги. Она содержит правила работы с дифференциалами, список дифференциалов от важных скалярных, векторных и матричных функций (включая собственные числа, собственные векторы и обратные матрицы Мура—Пенроуза). Также приведены таблицы идентификации для матриц Гессе и Якоби.  [c.16]

Пусть AI, А2,. . . , Ап — собственные значения матрицы ZQ G Спхп и А — простое собственное значение. Тогда существует скалярная функция Л ), определенная в окрестности N(ZQ) С Спхп матрицы Z0, такая что X (ZQ) = i и A(i)(Z) — (простое) собственное значение Z для всех Z N(ZQ). Кроме того, А( ) дифференцируема бесконечное число раз на N(ZQ), и  [c.215]

Вторая теорема об идентификации (теорема 6.6) позволяет найти матрицу Гессе скалярной функции по ее дифференциалу второго порядка. Более точно, она утверждает, что равенство  [c.245]

Статистический анализ возмущений е = у — Х/3 обсуждается в 11-14, там будет найден наилучший линейный несмещенный прогноз в случае, когда про ковариационную матрицу известно только то, что она скалярна (BLUS) l, и в случае, когда ковариационная матрица известна (BLUF) 2.  [c.361]

Эконометрика начальный курс (2004) -- [ c.488 ]