Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Методы с переменной метрикой

Глава 1. МЕТОДЫ ОПТИМИЗАЦИИ В ЭЛЕКТРОНИКЕ СВЧ | Классификация методов оптимизации | Методы одномерного поиска | Методы исключения интервалов | Методы полиномиальной аппроксимации | Методы с использованием производных | Метод Розенброка | Метод Пауэлла | Симплексный метод | Метод Ньютона |


Читайте также:
  1. D.2. Методы оценки технических уязвимостей
  2. I 7 D I РЕЛИГИЯ И НАУЧНЫЕ МЕТОДЫ
  3. I РЕЛИГИЯ И НАУЧНЫЕ МЕТОДЫ
  4. I РЕЛИГИЯ И НАУЧНЫЕ МЕТОДЫ
  5. I РЕЛИГИЯ И НАУЧНЫЕ МЕТОДЫ
  6. I РЕЛИГИЯ И НАУЧНЫЕ МЕТОДЫ
  7. Абсцесс легкого, основные синдромы, методы диагностики.

В методах с переменной метрикой заложена идея метода Ньютона, а именно в них итерационным способом находится матрица, обратная матрице вторых производных, т.е. G-1 ~ Hk, где Hk - матрица порядка n´n, которая носит название метрики. Поисковое направление определяется по формуле:

(1.5.7)

Методы поиска вдоль направлений, определяемых этой формулой, называются методами с переменной метрикой, поскольку матрица Hk изменяется на каждой итерации. С другой стороны методы с переменной метрикой представляют собой квази-ньютоновские методы, если в соответствии с ними перемещение текущей точки удовлетворяет условию, следующему из формул (1.1.6) и (1.4.3):

D X =G-1×D g (1.5.8)

Для аппроксимации матрицы, обратной матрице Гессе, воспользуемся следующим рекуррентным соотношением:

Hk+1=Hk+Ek, (1.5.9)

где Ek - корректирующая матрица.

Исходя из важного свойства квадратичной функции (1.5.8), можно потребовать, чтобы новое приближение Hk+1 удовлетворяло соотношению:

Hk+1× y k= s k, (1.5.10)

где y k= g k+1- g k, s k= X k+1- X k.

Выражение (1.5.10) можно переписать в виде:

Hk× y k+Ek× y k= s k. (1.5.11)

Решение уравнения (1.5.11) для корректирующей матрицы Ek является не однозначным и может иметь следующий вид:

Здесь v k и w k - произвольные вектора, т.е. формула (1.5.12) определяет некоторое семейство решений. Если положить

v k= s k и w k =Hk× y k, (1.5.13)

то получим формулу, реализующую известный и широко применяемый метод Давидона-Флетчера-Пауэлла [16 ]:

(1.5.14)

Можно показать, что формула (1.5.14) сохраняет свойства симметрии и положительной определенности матрицы Hk. Поэтому, если H0 - симметрическая и положительно определенная матрица, то матрицы H1, H2,... также будут симметричными и положительно определенными при отсутствии ошибок округления; обычно полагают H0=I, где I - единичная диагональная матрица.

Первая вариация J(X) равна

DJ(X)=gkT×D X.

Используя формулы (1.5.7) и (1.1.1), получим

DJ(X)=-ak× g kT×Hk× g k.

Из (1.5.16) видно, что неравенство J(X k+1)<J(X k) выполняется при

любых значениях ak>0, если Hk - положительно определенная матрица. Таким образом, алгоритм обеспечивает убывание целевой функции при переходе от итерации к итерации.

В силу того, что существует определенный произвол в выборе векторов v и w в (1.5.12), то можно учесть какие-то дополнительные условия, улучшающие работу методов с переменной метрикой. Например, в методе Гольдфарба [19] накладывается дополнительное требование минимальности нормы корректирующей матрицы:

(1.5.17)

где Q i={0,0,..,0,1i,0,..,0}T. Это приводит к повышению устойчивости метода к ошибкам вычислений значений целевой функции, градиента и минимума в поисковом направлении. Так практически на тестовых примерах и задачах оптимизации процессов в электронных приборах было установлено, что алгоритм Гольдфарба оказался существенно более устойчивым к ошибкам вычислений, чем алгоритм Давидона-Флетчера-Пауэлла. Корректирующая матрица алгоритма Гольдфарба рассчитывается по формуле:

(1.5.18)

В приложении 1 приведены основные алгоритмы расчета корректирующих матриц для наиболее известных методов с переменной метрикой.

Алгоритм методов с переменной метрикой следующий.

{{{ Начало алгоритма.

1 0....0)

1) Полагаем k=1, X k= X init,

Рассчитываем J(X k), g k=PxJ(X k).

2) Определяем поисковое направление

P k= - Hk× g k и находим минимум в этом направлении:

ak: mina(J(X k+ak× P k)

Новое приближение вектора поисковых параметров находится как

Xk+1= X k+ak× P k.

3) Если |ak× P k|<e, то процесс оптимизации окончен, иначе переходим к следующему пункту.

4) Рассчитываем в новой точке J(X k+1) и g k+1.

Пересчитываем метрику Hk+1=Hk+Ek по одной из формул приложения 1, увеличиваем k на единицу k=k+1 и переходим опять к пункту 2).

}}} Конец алгоритма.

Работа метода с переменной метрикой показана на рис.1.5.2

Методы с переменной метрикой, как и ожидалось, хорошо себя показали на только на функциях близких к квадратичным, но и на сложных более высокого порядка функциях. Это можно объяснить тем, что в методах с переменной метрикой на каждой итерации находится очередное приближение обратной матрицы Гессе, которая дает квадратичную аппроксимацию целевой функции около текущей поисковой точки. В процессе оптимизации это приближение меняется в соответствии с изменением рельефа целевой функции, при этом рассчитываются только первые производные, что существенно проще и быстрее сделать, чем рассчитывать вторые производные, как в методе Ньютона. Пересчет матрицы Hk на каждой итерации приводит к адаптации метода к текущему рельефу целевой функции, что и позволяет ему успешно работать на функциях далеких от квадратичных. Как показали тестовые испытания методы с переменной метрикой оказались более быстродействующими даже по сравнению с методом Ньютона-Рафсона при численном расчете производных.

Рис.1.5.2

Поиск минимума методом с переменной метрикой

 

В настоящее время методы с переменной метрикой наиболее широко используются на практике при оптимизации различных приборов и устройств. Единственным недостатком методов с переменной метрикой является необходимость хранить в памяти ЭВМ половину симметричной матрицы Hk

Следует отметить также, что методы с переменной метрикой позволяют получить, как побочный результат, квадратичную аппроксимацию целевой функции вблизи точки минимума:

J(X)=J(Xmin)+ g T(Xmin)×(X - Xmin)+(X - Xmin)T×G×(X - Xmin)/2. (1.5.19)


Дата добавления: 2015-11-14; просмотров: 104 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Метод наискорейшего спуска| Методы условной оптимизации

mybiblioteka.su - 2015-2024 год. (0.012 сек.)