Оценивание параметров уравнения регрессии в случае сильной мультиколлинеарности основано на различных методах регуляризации задачи — модификациях регрессии на главные компоненты, гребневых и редуцированных оценках. Со статистической точки зрения получаемые оценки являются, в отличие от мнк-оценок, смещенными. Однако они обладают рядом оптимальных свойств, в частности обеспечивают лучшие прогностические свойства оцененного уравнения регрессии на объектах, не вошедших в обучающую выборку. [c.297]
Остается воспользоваться леммой 3.3 и предположениями (3.6), (3.7) относительно параметров шага и регуляризации. [c.50]
Альтернативой методу регуляризации с его сложными правилами согласования шаговых параметров может служить экстраполяционный метод проекции, в котором в процесс вычислений вовлечены сразу две последовательности. Одна из них [c.50]
Здесь а, А, N — параметры регуляризации, выбор которых далеко не прост и существенно влияет на результат. Все перечисленные выше задачи являются, в сущности, вариационными задачами. Наконец, отметим и развиваемый французским математиком Лионсом метод квазиобращения. Применительно к задаче теплопроводности он состоит в следующем функция и (х) определяется [c.357]
Процесс постепенного уменьшения параметра регуляризации можно и целесообразно совместить с процессом решения регуляризованного неравенства. Это соображение реализуется в методе итеративной регуляризации А.Б.Бакушинского, соотношения которого имеют вид [c.48]
При малом изменении параметров должны сохранять свою работоспособность и алгоритмы, лежащие в основе расчета характеристик СУ, для чего задачи определения этих характеристик должны быть корректно поставленными (по Адамару) ( Прежде чем решать задачу, посмотри условия (Адамар), Ищи луну на небе, а не в пруду . Восточная мудрость) Теория регуляризации алгоритмов, Принцип минимальной сложности . [c.244]