Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Проблема глобальной оптимизации

Методы с использованием производных | Метод Розенброка | Метод Пауэлла | Симплексный метод | Метод Ньютона | Метод наискорейшего спуска | Методы с переменной метрикой | Методы условной оптимизации | Метод множителей Лагранжа | Метод штрафных функций |


Читайте также:
  1. Problem1.проблема, задача; problem getting printer information from the system
  2. А так же для достижения наилучших результатов на глобальной карте.
  3. АӨК-нің басымды салаларының проблемаларын талдау
  4. А.С.Пушкин как литературный критик. Проблематика его литературно-критических статей и заметок; жанровое, стилевое своеобразие. Типологический анализ одной из работ.
  5. Азақстан Республикасының жағдайларына бар проблемаларды шешу бойынша бейімделуі мүмкін оң шетелдік тәжірибені шолу
  6. Антропологія Аквіната як проблема душі і тіла.
  7. Безсполучникові складні речення і проблема їх класифікації.

В настоящее время не существует строгих методов поиска глобальной оптимизации, т.е. методов поиска минимального минимума из всех возможных минимумов заданной целевой функции. Обычно такая задача решается многократным использованием метода локальной оптимизации с различных начальных поисковых точек и определением оптимальной точки, где достигается минимальное из всех найденных минимальных значений целевой функции. Начальные поисковые точки можно выбирать или из каких-то физических соображений или случайным образом.

Можно, однако, использовать свойство методов оптимизации с переменной метрикой состоящее в том, что вблизи оптимальной точки целевую функцию можно представить в виде квадратичной аппроксимации вида (1.5.19). Тогда можно искать другой ближайший минимум целевой функции вдоль основных осей квадратичной аппроксимации, а начинать надо с оси с наибольшим значением второй производной, т.е. оси с наибольшим собственным значением li собственного вектора Q i матрицы Hk-1 (см.(1.1.6)). Это ось или вектор Q i указывает направление наиболее быстрого возрастания целевой функции. Если пройти вдоль этого направления, то можно с достаточно большой вероятностью и наиболее быстро пройти перевал и оказаться в области притяжения ближайшего, но уже другого, локального минимума. Начальный шаг вдоль этого направления можно приближенно оценить исходя из квадратичной аппроксимации по формуле:

(1.7.1)

С точки притяжения к новому минимуму осуществляем поиск локального минимума одним из методов с переменной метрикой и т.д.. В конце каждого m-ного локального поиска следует запоминать найденные оптимальные значения вектора поисковых параметров X m* и найденное приближение матрице Гессе Hm-1*. В процессе поиска следует проверять текущее значение вектора поисковых параметров X k на его принадлежность к области притяжения найденных ранее локальных минимумов, чтобы исключить зацикливание алгоритма. Под областью притяжения можно принимать те значения вектора X k, которые удовлетворяют следующему неравенству:

J(X m0)-J(X m*)> (X k- X m*)T×Hm-1*×(X k- X m*)/2. (1.7.2)

Предложенный алгоритм позволяет существенно быстрее и надежнее определять глобальный минимум целевой функции, чем метод случайного бросания начальных точек для локальной оптимизации, однако он требует значительных объемов запоминаемой информации.


Дата добавления: 2015-11-14; просмотров: 37 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Метод разделения параметров| Конечно-разностный метод

mybiblioteka.su - 2015-2024 год. (0.005 сек.)