Читайте также:
|
Рассматриваемый градиентный метод носит также название метода Коши, поскольку Коши первым использовал аналогичный алгоритм для решения систем линейных уравнений.
Стратегия данного метода состоит в построении последовательности точек
, таких, что
.
Точку
задаёт пользователь. Остальные точки последовательности
вычисляются по правилу:
,
где
- градиент функции
, вычисленный в точке
.
Величина шага
определяется для каждого значения k из условия
.
Решение этой задачи одномерной минимизации можно осуществить либо из условия
. Такой путь может быть использован либо при достаточно простой минимизируемой функции
, либо при предварительной аппроксимации достаточно сложной функции
полиномом
(как правило, второй или третьей степени), и тогда условия будут такими:
.
Другой путь решения этой задачи связан с использованием численных методов, когда ищется
.
Границы интервала [ a, b ] задаются пользователем. При этом степень близости найденного значения
к оптимальному значению
, удовлетворяющему условиям
, зависит от задания интервала [ a, b ] и точности методов одномерной минимизации.
Теорема 2 Пусть функция
удовлетворяет условиям теоремы 1. Тогда при произвольной начальной точке
для метода наискорейшего градиентного спуска имеем
.
Эта теорема гарантирует сходимость последовательности
к стационарной точке
, где
. Следовательно, найденную в результате применения метода точку
нужно дополнительно исследовать с целью ее классификации.
Метод наискорейшего спуска гарантирует сходимость последовательности
к точке минимума для сильно выпуклых функций.
Оценки скорости сходимости получены только для сильно выпуклых функций, когда последовательность
сходится к точке минимума
со скоростью геометрической прогрессии (линейная сходимость):

где M и m – оценки наибольшего и наименьшего собственных значений матрицы H (x) функции
.
Если функция
является строго выпуклой, то поиск глобального минимума аналогичен поиску локального минимума этой функции. Если же
имеет несколько локальных минимумов, то поиск глобального минимума осуществляется в результате перебора всех локальных минимумов.
Метод обеспечивает высокую надежность по сравнению с простейшим градиентным методом, однако скорость его сходимости при решении ряда практических задач остается недопустимо низкой. Это вполне объяснимо, поскольку изменения переменных непосредственно зависят от величины градиента, которая стремится к нулю в окрестности точки минимума, и отсутствует механизм ускорения движения к точке минимума на последних итерациях. Одно из главных преимуществ метода Коши связано с его устойчивостью. Метод обладает важным свойством, которое заключается в том, что при достаточно малой длине шага итерации обеспечивают выполнение неравенства
.
С учетом этого свойства заметим, что метод Коши, как правило, позволяет уменьшить значение целевой функции при движении из точек, расположенных на значительных расстояниях от точки минимума, и поэтому часто используется при реализации градиентных методов в качестве начальной процедуры.
Также важной отличительной особенностью этого метода является равенство
,
согласно которому используемые на соседних итерациях направления убывания
и
взаимно ортогональны. Таким образом, спуск в данном методе происходит «зигзагообразно».
Алгоритм:
Шаг 1. Задать: начальную точку
-малые положительные числа, M – предельное число итераций. Найти градиент
в произвольной точке.
Шаг 2. Положить k =0.
Шаг 3. Вычислить
.
Шаг 4. Проверить выполнение критерия окончания
:
а) если критерий выполняется,
, расчет окончен;
б) если нет, то перейти к шагу 5.
Шаг 5. Проверить условие
:
а) если неравенство выполняется, то
, расчет окончен;
б) если нет, перейти к шагу 6.
Шаг 6. Вычислить величину шага
из условия
.
Шаг 7. Вычислить
.
Шаг 8. Проверить выполнение условий
:
а) если выполняются оба условия в двух последовательных итерациях с номерами k и k -1, то расчет окончен, найдена точка
;
б) если не выполняется хотя бы одно из условий, то положить k = k + 1 и перейти к шагу 3.
Геометрическая интерпретация метода для n = 2 приведена на рисунке 4.3.

Рисунок 4.3.
Пример: Методом Коши найти локальный минимум функции

Решение:
1. Зададим
, M:
,
, M =10.
Найдем градиент функции в произвольной точке 
2. Положим k = 0.
30. Вычислим
:
.
40. Проверим условие
:
.
50. Проверим условие
:
.
60. Следующая точка находится по формуле
.
Подставим полученные выражения
для координат в
:
. Найдем минимум функции
по
с помощью необходимых условий безусловного экстремума:

Отсюда
. Так как
, найденное значение шага обеспечивает минимум функции
по
.
Заметим, что можно получить формулу для вычисления наилучшей величины шага
на любой итерации из условия
.
Имеем

,
.
Из условия
получаем
.
Определим
:
.
70. Вычислим
:
.
80. Вычислим
и
:
.
Вывод: полагаем k = 1 и переходим к шагу 3.
31. Вычислим
:
.
41. Проверим условие
:
.
51. Проверим условие
:
.
61. Определим
(см. п. 60).
71. Вычислим
:
.
81. Вычислим
и
:
.
Вывод: полагаем k = 2 и переходим к шагу 3.
32. Вычислим
:
.
42. Проверим условие
:
.
52. Проверим условие
:
.
62. Определим
(см. п. 60).
72. Вычислим
:
.
82. Вычислим
и
:
.
Вывод: полагаем k = 3 и переходим к шагу 3.
33. Вычислим
:
.
43. Проверим условие
:
. Расчет окончен. Найдена точка 
Проанализируем полученную точку:
В примере 1 было показано, что функция
является строго выпуклой и, следовательно, точка
является найденным приближением точки глобального минимума
.
Геометрическая интерпретация решения задачи представлена на рисунке 4.4.

Рисунок 4.4.
Дата добавления: 2015-07-20; просмотров: 794 | Нарушение авторских прав
| <== предыдущая страница | | | следующая страница ==> |
| Метод градиентного спуска с постоянным шагом | | | Метод Гаусса - Зейделя |