Нелинейное программирование - обобщение случая линейного программирования, когда критерий — нелинейная функция решений с нелинейными ограничениями. Общих методов решения здесь не существует. Более или менее приемлемые способы решения имеются для случая, когда функция критерия К и ограничения — вогнутые функции и когда К — квадратичная функция решений, а ограничения линейны (квадратичное программирование). [c.308]
Функции случайных величин — это функции, значениями которых являются случайные величины. Для оценки ожидаемых результатов и рисков достаточно определить их числовые характеристики как математическое ожидание, дисперсию, стандартное квадратичное отклонение и коэффициент вариации. Если функция не является случайной и может быть задана аналитически или иным путем, например в форме таблиц, то ее числовые характеристики могут быть легко определены по значениям числовых характеристик входящих в ее состав случайных величин. [c.45]
При решении задачи можно выбрать метод экстраполяции оценок переменных для каждого шага поиска — линейная или квадратичная (для задач с нелинейной целевой функцией), метод численного дифференцирования для целевой функции — прямые или центральные разности (для задач с нелинейной целевой функцией), метод поиска — метод Ньютона (требуется много оперативной памяти) или метод сопряженных градиентов (больше итераций). Основным ограничением модели является максимальное число переменных — 200. Несколько оптимизационных моделей на одном листе можно сохранять и загружать по мере необходимости. [c.457]
Рис. 1.1 иллюстрирует два выбора функции регрессии — линейной и квадратичной. Как видно, имеющееся множество экспериментальных данных (точек) парабола сглаживает, пожалуй, даже лучше, чем прямая. Однако парабола быстро удаляется от корреляционного поля и для добавленного наблюдения (обозначенного крестиком) теоретическое значение может очень значительно отличаться от эмпирического. [c.18]
Сначала следует применить обычный метод наименьших квадратов к модели (7.25), затем надо найти регрессию квадратов остатков на квадратичные функции регрессоров, т. е. найти уравнение регрессии (7.21), где / — квадратичная функция, аргументами которой являются квадраты значений регрессоров и их попарные произведения. После чего следует вычислить прогнозные значения ё по полученному уравнению регрессии и [c.165]
Причины этого очевидны. Во-первых, далеко не всегда оказывается справедливым само предположение (7.21) или (7.23). Во-вторых, функция/в формуле (7.21) или (7.23), вообще говоря, не обязательно степенная (и уж тем более, не обязательно квадратичная), и в этом случае ее подбор может оказаться далеко не столь простым. [c.166]
Из задач выпуклого программирования подробно разработаны задачи квадратичного программирования, в которых требуется найти максимум (или минимум) квадратичной функции при условии, что ее переменные удовлетворяют некоторой системе линейных уравнений. [c.104]
Рассматриваемая стохастическая задача при этом преобразуется в детерминированную задачу выпуклого программирования с линейной целевой функцией и квадратичными ограничениями. [c.69]
По аналогии с рассмотренным выше случаем, введя условие viv = = М -[ (aiv-aiv) (fi - < /,/,) , учитывающее корреляцию между aiv и Vi , при 7 >0,5 и нормальном распределении случайных параметров стохастической задачи получим детерминированный аналог с линейной целевой функцией и квадратичными ограничениями [c.70]
Для построения приближенного решения предлагается алгоритм, зависящий также от введенных в рассмотрение вспомогательных параметров а и Л, т. е. ищется х " G х , такой, что А" =Х(А, Ь, с, а, X), где для любого заданного е>0 1(Х — Х° <е, если а и X согласованы с б и5. Элемент х " определяется как точка, доставляющая минимум квадратичной функции [c.145]
Дискриминантный анализ основывается на формировании функции, разделяющей различные классы объектов [121]. Используются квадратичные и линейные разделяющие функции, непараметрические методы, правила ближайшего соседа, оптимизация по критерию ошибки, иерархическое разделение, а также адаптивные разделяющие функции. [c.203]
Анализ динамики снижения дебитов после проявления дефекта оборудования позволил установить, что функция Q,(t.) является выпуклой, т.е. d2Q/dt2 <0, что указывает на увеличение темпов развития дефекта. Простейшей, и в большинстве случаев достаточно точной аппроксимирующей функцией оказалась квадратичная зависимость [c.129]
В предыдущем параграфе было показано, что в случае, когда коэффициент корреляции между активами меньше 1, диверсификация портфеля может улучшить соотношение между ожидаемым доходом и ожидаемым риском. Это связано с тем, что ожидаемый доход портфеля является линейной комбинацией ожидаемых доходов по входящим в портфель активам, а дисперсия портфеля является квадратичной функцией от с.к.о. входящих в портфель активов. [c.226]
Кластеризация или квантование требуют настройки гораздо большего количества весов - из-за неэффективного способа кодирования. Зато такое избыточное кодирование упрощает алгоритм обучения. Действительно, квадратичная функция ошибки в этом случае диагональна и в принципе достижение минимума возможно за О( ) шагов (например в пакетном режиме), что в данном случае потребует — PW операций. Число весов, как и прежде, равно W dm, но степень сжатия информации в данном случае определяется по-другому К — t/6/1og т. [c.82]
Апостериорная характеристическая кривая, приведенная на рис. 25.8(а), является квадратичной функцией, в которой значения а, и и с были оценены с помощью стандартных регрессионных методов [c.902]
Коль скоро обучение основывается на минимизации значения некоторой функции (показывающей, насколько результат, который выдает сеть на данном обучающем множестве, далек от образцового значения), нужно, прежде всего, выбрать меру ошибки, соответствующую сути задачи. Удачный выбор меры погрешности обычно приводит к более гладкой поверхности невязки и упрощает задачу обучения (см. [269]). Обычно в качестве меры погрешности берется средняя квадратичная ошибка (MSE), которая определяется как сумма квадратов разностей между желаемой величиной выхода dk и реально полученными на сети значениями yk для каждого примера f [c.27]
Априорную плотность вероятности можно оценить различными способами. В параметрических методах предполагается, что плотность вероятности (PDF) является функцией определенного вида с неизвестными параметрами. Например, можно попробовать приблизить PDF при помощи гауссовой функции. Для того чтобы произвести классификацию, нужно предварительно получить оценочные значения для вектора среднего и матрицы ковариаций по каждому из классов данных и затем использовать их в решающем правиле. В результате получится полиномиальное решающее правило, содержащее только квадраты и попарные произведения переменных. Вся описанная процедура называется квадратичным дискриминантным анализом (QDA). В предположении, что матрицы ковариаций у всех классов одинаковы, QDA сводится к линейному дискриминантному анализу (LDA). [c.47]
Пример 1. Пусть агенты имеют квадратичные функции затрат [c.26]
Пример 1. Пусть имеются два АЭ с квадратичными функция- [c.27]
Пример 2. Пусть имеются п АЭ с квадратичными функциями [c.31]
Пример 3. Пусть АЭ имеют квадратичные функции затрат ти- [c.48]
Пример 11. Пусть агенты имеют квадратичные функции за- [c.135]
Функция затрат г -го агента является квадратичной [c.43]
Такие свойства присущи квадратичным функциям, функциям [c.73]
При квадратичных функциях затрат агентов оптимальная с [c.123]
В нижней части рисунка показана зависимость выручки от цены R = = P(QD) Q. Это квадратичная функция, достигающая максимума, как было показано выше, в середине отрезка ОД, при единичной ценовой эластичности спроса. Отсюда наглядно видно, что при эластичном спросе, то есть слева от середины линии спроса, выручка с увеличением количества и уменьшением цены растет, а при неэластичном, то есть справа от середины, — падает. [c.101]
Соотношения (1.4) и (1.6) определяют знаки главных миноров матрицы Гессе для нашей функции и тем самым являются достаточным условием неположительной определенности соответствующей квадратичной формы (1.3). Поэтому для вогнутости линейно однородных функций с двумя ресурсами условие (1.4) достаточно. [c.96]
Чаще всего функция / выбирается квадратичной, что соответствует тому, что средняя квадратическая ошибка регрессии зависит от наблюдаемых значений регрессоров приближенно линейно. Гомоскедастичной выборке соответствует случай /= onst. [c.161]
В большинстве современных пакетов, таких, как E onometri Views , регрессию (7.21) не приходится осуществлять вручную — тест Уайта входит в пакет как стандартная подпрограмма. В этом случае функция / выбирается квадратичной, регрессоры в (7.21) — это регрессоры рассматриваемой модели, их квадраты и, возможно, попарные произведения. [c.161]
И лишь оценивание параметров квадратичных форм функции общей полезности делает задачу более сложной, поскольку возникает необходимость построения системы уравнений, аналогичной (11.7.4) за ряд лет, и оценивание параметров этих уравнений по методу наименьших квадратов (методу максимального правдоподобия) и иным двух- и трехшаговым вычислительным процедурам. И хотя показанный метод обладает рядом существенных недостатков, его сравнительная простота делает его широкоиспользуемым [129.242] в прикладных статистических исследованиях. [c.248]
Для устранения этой сверхчувствительности к наибольшему проигрышу были разработаны разнообразные алгоритмы. Многие из этих алгоритмов заключаются в изменении наибольшего проигрыша в большую или меньшую сторону, чтобы сделать наибольший проигрыш функцией текущей волатильности рынка. Эта связь, как утверждают некоторые, квадратичная, то есть абсолютное значение наибольшего проигрыша, по всей видимости, увеличивается с большей скоростью, чем волатильность. Волатильность чаще всего определяется как средний дневной диапазон цен за последние несколько недель или как среднее абсолютное дневное изменение за последние несколько недель. Однако об этой зависимости нельзя говорить с полной уверенностью. То, что волатильность сегодня составляет X, не означает, что наш наибольший проигрыш будет X л Y. Можно говорить лишь о том, что он обычно где-то около X Л Y. Если бы мы могли заранее определить сегодняшний наибольший проигрыш, то, безусловно, могли бы лучше использовать методы управления деньгами1. Это тот самый случай, когда мы должны рассмотреть сценарий худшего случая и отталкиваться от него. Проблема состоит в том, что мы не знаем точно, каким будет сегодня наибольший [c.71]
При более последовательном подходе для улучшения процесса обучения можно использовать информацию о производных второго порядка от функции невязки. Соответствующие методы оптимизации называются квадратичными. Вся указанная информация собрана в матрице гессиана Н, имеющей размеры Nw х Nw, где Nw — число весов. Эта матрица содержит информацию о том, как изменяется градиент при малых смещениях по различным направлениям в пространстве весов. Прямое вычисление матрицы требует большого времени, поэтому разработаны методы, позволяющие избежать вычисления и хранения матрицы (спуск по сопряженному градиенту, масштабированный метод сопряженных градиентов (см. [197]), RBa kProp (см. [212]), квази-ньютоновский метод, метод Левенбер-га-Маркара). [c.32]
Вигенд ввел фактор Q-распределения, который представляет собой отношение квадратичного и линейного членов в разложении Тейлора функции активации по степеням потенциала. В случае сигмоидальной функции с единичным наклоном эта величина равна [c.73]