Метод сопряжённых градиентов
Материал из MachineLearning.
(→Линейный метод сопряжённых градиентов) |
(→Нелинейный метод сопряжённых градиентов) |
||
Строка 99: | Строка 99: | ||
::<tex> p_{k+1} = - F'(x_{k}) + \beta_{k} p_{k} </tex> | ::<tex> p_{k+1} = - F'(x_{k}) + \beta_{k} p_{k} </tex> | ||
<tex> \beta_k </tex> можно вычислять по одной из трёх формул: <br/> | <tex> \beta_k </tex> можно вычислять по одной из трёх формул: <br/> | ||
- | #<tex> \beta_k = - \frac{\langle F'(x_{k | + | #<tex> \beta_k = - \frac{\langle F'(x_{k} ), F'(x_{k}) \rangle}{\langle F'(x_{k-1}), F'(x_{k-1}) \rangle} </tex> - ''Метод Флетчера - Ривса'' (''Fletcher–Reeves method'') |
- | #<tex> \beta_k = \frac{\langle F'(x_{k | + | #<tex> \beta_k = \frac{\langle F'(x_{k}), F'(x_k) - F'(x_{k-1}} ) \rangle}{\langle F'(x_{k - 1}), F'(x_{k - 1}) \rangle} </tex> - ''Метод Полака - Райбера'' (''Polak–Ribi`ere method'') |
- | #<tex> \beta_k = \frac{\langle F''( | + | #<tex> \beta_k = \frac{\langle F''(x_k) p_k, F'(x_k) \rangle}{\langle F''(x_{k - 1})p_k, p_k \rangle} </tex> |
Если функция <tex>F(x)</tex> - квадратичная и строго выпуклая, то все три формулы дают одинаковый результат. Если <tex>F(x)</tex> - | Если функция <tex>F(x)</tex> - квадратичная и строго выпуклая, то все три формулы дают одинаковый результат. Если <tex>F(x)</tex> - | ||
произвольная функция, то каждой из формул cоответствует своя модификация метода сопряжённых градиентов. Третья формула используется редко, так как она требует, чтобы функция <tex>F(x) \in C^2(R^n)</tex> и вычисления гессиана функции <tex>F(x)</tex> на каждом шаге метода. <br/> | произвольная функция, то каждой из формул cоответствует своя модификация метода сопряжённых градиентов. Третья формула используется редко, так как она требует, чтобы функция <tex>F(x) \in C^2(R^n)</tex> и вычисления гессиана функции <tex>F(x)</tex> на каждом шаге метода. <br/> | ||
Строка 122: | Строка 122: | ||
::<tex> \lim \limits_{k \to \infty} inf ||F'(x_k)| = 0 </tex> | ::<tex> \lim \limits_{k \to \infty} inf ||F'(x_k)| = 0 </tex> | ||
Для метода Полака-Райбера доказана сходимость в предположении, что <tex>F(x)</tex> - строго выпуклая функция. В общем случае доказать сходимость метода Полака - Райбера невозможно. Напоротив, верна следующая теорема: <br/> | Для метода Полака-Райбера доказана сходимость в предположении, что <tex>F(x)</tex> - строго выпуклая функция. В общем случае доказать сходимость метода Полака - Райбера невозможно. Напоротив, верна следующая теорема: <br/> | ||
- | ''' Теорема ''' | + | ''' Теорема. ''' <br/> |
Предположим, что в методе Полака-Райбера значения <tex>\alpha_k</tex> на каждом шаге вычисляются точно. Тогда | Предположим, что в методе Полака-Райбера значения <tex>\alpha_k</tex> на каждом шаге вычисляются точно. Тогда | ||
существует функция <tex>F \: R^3 \mapsto R, \quad F(x) \in C^2(R^3)</tex>, и начальное приближение <tex>x_0 </tex>, такие что | существует функция <tex>F \: R^3 \mapsto R, \quad F(x) \in C^2(R^3)</tex>, и начальное приближение <tex>x_0 </tex>, такие что | ||
Строка 138: | Строка 138: | ||
показывает лучшую скорость сходимости. | показывает лучшую скорость сходимости. | ||
- | + | === Числовой пример=== | |
+ | Будем искать методом сопряжённых градиентов минимум функции <tex>F(x_1, x2) = (x_1 - 5)^2 (x_2 - 4)^2 + (x_1 - 5)^2 + (x_2 - 4)^2 + 1</tex>. Минимум этой фнкции равен 1 и достигается в точке (5, 4). | ||
+ | Сравним на примере этой функции методы Полака-Райбера и Флетчера-Ривса. | ||
+ | Итерации в обоих методах прекращаются, когда на текущем шаге квадрат нормы градиента становится меньше <tex>\varepsilon</tex>. | ||
+ | Для выбора <tex> \alpha_k </tex> используется метод золотого сечения | ||
+ | {|class = "standard" | ||
+ | ! rowspan = 2 | <tex> \varepsilon </tex> | ||
+ | ! colspan = 3 | Метод Флетчера - Ривса | ||
+ | ! colspan = 3 | Метод Полака - Райбера | ||
+ | |- | ||
+ | !Число итераций | ||
+ | !Найденное решение | ||
+ | !Значение функции | ||
+ | !Число итераций | ||
+ | !Найденное решение | ||
+ | !Значение функции | ||
+ | |- | ||
+ | | 0.01 | ||
+ | | 18 || (5.01382198,3.9697932) || 1.00110367 | ||
+ | | 15 || (5.03942877,4.00003512) || 1.00155463 | ||
+ | |- | ||
+ | | 0.001 | ||
+ | | 20 || (5.01056482,3.99018026) || 1.00020805 | ||
+ | | 18 || (4.9915894,3.99999044) || 1.00007074 | ||
+ | |- | ||
+ | | 0.0001 | ||
+ | | 24 || (4.9979991,4.00186173) || 1.00000747 | ||
+ | | 20 || (5.00336181,4.0000018) ||1.0000113 | ||
+ | |- | ||
+ | | 0.00001 | ||
+ | | 25 || (4.99898277,4.00094645) || 1.00000193 | ||
+ | | 22 || (4.99846808,3.99999918) || 1.00000235 | ||
+ | |- | ||
+ | | 0.00001 | ||
+ | | 29 || (4.99974658,4.0002358) || 1.00000012 | ||
+ | | 26 || (4.99955034,3.99999976) ||1.0000002 | ||
+ | |- | ||
+ | |} | ||
+ | |||
+ | === Рекомендации программисту === | ||
+ | |||
+ | ===Заключение === | ||
+ | В методе сопряжённых градиентов используется информация только о линейной части приращения в точке, как и в методах градиентного спуска. При этом, метод сопряжённых градиентов позволяет решать квадратичные задачи за конечное число шагов. На многих других задачах метод сопряжённого градиента также превосходит метод градиентного спуска. | ||
+ | Сходимость метода градиентов существенно зависит от того, насколько точно решается задача одномерной оптимизации <tex>F(x_{k - 1} + \alpha_k p_k) \to min \limits_{\alpha_k \geq 0} </tex>. Возможные зацикливания метода устраняются с помощью обновлений. Тем не менее, если метод попадёт в локальный минимум функции, скорее всего, ему не удастся из него выбраться. | ||
==Рекомендации программисту == | ==Рекомендации программисту == |
Версия 22:27, 24 ноября 2008
Содержание |
Постановка задачи оптимизации
Пусть задано множество и на этом множестве определена целевая функция (objective function) . Задача оптимизации состоит в нахождении на множестве точной верхней или точной нижней грани целевой функции.
Множество точек, на которых достигается нижняя грань целевой функции обозначается .
Если , то задача оптимизации называется безусловной (unconstrained). Если , то задача оптимизации называется условной (constrained).
Метод сопряжённых градиентов
Метод сопряжённых градиентов (conjugate gradient method) первоначально был разработан для решения систем линейных уравнений с положительно определённой матрицей. Позже этот метод обобщили для решения задач безусловной оптимизации в
Линейный метод сопряжённых градиентов
Изложение метода
Рассмотрим сначала метод сопряжённых градиентов для решения следующей задачи оптимизации:
Здесь - симметричная положительно определённая матрица размера .
Такая задача оптимизации называется квадратичной.
Заметим, что . Условие экстремума функции эквивалентно системе
Функция достигает своей нижней грани в единственной точке , определяемой уравнением . Таким образом, данная задача оптимизации сводится к решению системы линейных уравнений
Идея метода сопряжённых градиентов состоит в следующем:
Пусть - базис в . Тогда для любой точки вектор раскладывается по базису
Таким образом, представимо в виде
Каждое следующее приближение вычисляется по формуле:
Определение. Два вектора и называются сопряжёнными относительно симметричной матрицы B, если
Опишем способ построения базиса в методе сопряжённых градиентов
В качестве начального приближения выбираем произвольный вектор.
На каждой итерации выбираются по правилу:
Базисные вектора вычисляются по формулам:
Коэффициенты выбираются так, чтобы векторы и были сопряжёнными относительно А.
Если обозначить за , то после нескольких упрощений получим окончательные формулы, используемые при применении метода сопряжённых градиентов на практике:
Анализ метода
Для метода сопряжённых градиентов справедлива следующая теорема:
Теорема
Пусть , где - симметричная положительно определённая матрица размера . Тогда метод сопряжённых градиентов сходится не более чем за шагов
и справедливы следующие соотношения:
Сходимость метода
Если все вычисления точные, и исходные данные точны то метод сходится к решению системы не более чем за итераций, где - размерность системы. Более тонкий анализ показывает, что число итераций не превышает , где - число различных собственных значений матрицы A.
Для оценки скорости сходимости верна следующая (довольно грубая) оценка:
- , где
. Она позволяет оценить скорость сходимости, если известны оценки для максимального и минимального собственных значений матрицы На практике чаще всего используют следующий критерий останова:
- .
Вычислительная сложность
На каждой итерации метода выполняется операций. Такое количество операций требуется для вычисления произведения - это самая трудоёмкая процедура на каждой итерации. Отальные вычисления требуют O(n) операций. Суммарная вычислительная сложность метода не превышает - так как число итераций не больше n.
Численный пример
Применим метод сопряжённых градиентов для решения системы , где
C помощью метода сопряжённых градиентов решение этой системы
получается за две итерации. Собственные числа матрицы - 5, 5, -5 - среди них два различных, поэтому, согласно теоретической оценке, число итераций не могло превышать двух
Заключение
Метод сопряжённых градиентов - один из наиболее эффективных методов решения СЛАУ с положительно определённой матрицей. Метод гарантирует сходимость за конечное число шагов, а нужная точность может быть достигнута значительно раньше. Основная проблема заключается в том, что из-за накопления погрешностей может нарушаться перпендикулярность базисных веторов , что ухудшает сходимость
Нелинейный метод сопряжённых градиентов
Расссмотрим теперь модификацию метода сопряжённых градиентов, для случая, когда минимизируемый функционал не является квадратичным: Будем решать задачу:
- .
- непрерывно дифференцируемая в функция. Чтобы модифицировать метод сопряжённых градиентов для решения этой задачи, необходимо получить для формулы, в кторые не входит матрица А:
можно вычислять по одной из трёх формул:
- - Метод Флетчера - Ривса (Fletcher–Reeves method)
- - Метод Полака - Райбера (Polak–Ribi`ere method)
Если функция - квадратичная и строго выпуклая, то все три формулы дают одинаковый результат. Если -
произвольная функция, то каждой из формул cоответствует своя модификация метода сопряжённых градиентов. Третья формула используется редко, так как она требует, чтобы функция и вычисления гессиана функции на каждом шаге метода.
Анализ метода
Если функция - не квадратичная, метод сопряжённых градиентов может и не сходиться за конечное число шагов. Кроме того, точное вычисление на каждом шаге возможно только в редких случаях. Поэтому накопление погрешностей приводит к тому, что вектора перестают указывать направление убывания функции . Тогда на какои-то шаге полагают . Совокупность всех номеров , при которых принимается обозначим за . Номера называются моментами обновления метода. На практике часто выбирают , где - размерность пространства.
Сходимость метода
Для метода Флетчера - Ривса существует теорема о сходимости, накладывающая не слишком жёсткие условия на минимизируемую функцию :
Теорема.
Пусть и выполняются следующие условия:
- удовлетворяет строгим условиям Вольфа:
-
- где
-
- Множество ограничено
- Производная удовлетворяет условию Липшица с константой в некоторой окрестности
множества M: .
Тогда
Для метода Полака-Райбера доказана сходимость в предположении, что - строго выпуклая функция. В общем случае доказать сходимость метода Полака - Райбера невозможно. Напоротив, верна следующая теорема:
Теорема.
Предположим, что в методе Полака-Райбера значения на каждом шаге вычисляются точно. Тогда
существует функция , и начальное приближение , такие что
.
Тем не менее, на практике метод Полака-Райбера работает лучше.
Наиболее распространённые критерии останова на практике:
Норма градиента становится меньше некоторого порога
Значение функции в течении m последовательных итераций почти не изменилось
Вычислительная сложность
На каждой итерации методов Полака-Райбера или Флетчера-Ривса по одному разу вычисляются функция и её градиент , решается задача одномерной оптимизации . Таким образом, сложность одного шага метода споряжённых градиентов имеет тот же порядок что и сложность шага метода скорейшего спуска. На практике, метод сопряжённых градиентов показывает лучшую скорость сходимости.
Числовой пример
Будем искать методом сопряжённых градиентов минимум функции . Минимум этой фнкции равен 1 и достигается в точке (5, 4). Сравним на примере этой функции методы Полака-Райбера и Флетчера-Ривса. Итерации в обоих методах прекращаются, когда на текущем шаге квадрат нормы градиента становится меньше . Для выбора используется метод золотого сечения
Метод Флетчера - Ривса | Метод Полака - Райбера | |||||
---|---|---|---|---|---|---|
Число итераций | Найденное решение | Значение функции | Число итераций | Найденное решение | Значение функции | |
0.01 | 18 | (5.01382198,3.9697932) | 1.00110367 | 15 | (5.03942877,4.00003512) | 1.00155463 |
0.001 | 20 | (5.01056482,3.99018026) | 1.00020805 | 18 | (4.9915894,3.99999044) | 1.00007074 |
0.0001 | 24 | (4.9979991,4.00186173) | 1.00000747 | 20 | (5.00336181,4.0000018) | 1.0000113 |
0.00001 | 25 | (4.99898277,4.00094645) | 1.00000193 | 22 | (4.99846808,3.99999918) | 1.00000235 |
0.00001 | 29 | (4.99974658,4.0002358) | 1.00000012 | 26 | (4.99955034,3.99999976) | 1.0000002 |
Рекомендации программисту
Заключение
В методе сопряжённых градиентов используется информация только о линейной части приращения в точке, как и в методах градиентного спуска. При этом, метод сопряжённых градиентов позволяет решать квадратичные задачи за конечное число шагов. На многих других задачах метод сопряжённого градиента также превосходит метод градиентного спуска. Сходимость метода градиентов существенно зависит от того, насколько точно решается задача одномерной оптимизации . Возможные зацикливания метода устраняются с помощью обновлений. Тем не менее, если метод попадёт в локальный минимум функции, скорее всего, ему не удастся из него выбраться.
Рекомендации программисту
Линейный метод сопряженных градиентов, исходный код [1кб]
Нелинейный метод сопряжённых градиентов, исходный код [1кб]
Библиотека алгоритмов линейной алгебры [180кб]
Список литературы
- Васильев Ф. П. Методы оптимизации - Издательство «Факториал Пресс», 2002
- Nocedal J., Wright S.J. Numerical Optimization ,Springer, 1999