Метод сопряжённых градиентов
Материал из MachineLearning.
(→Нелинейный метод сопряжённых градиентов) |
м |
||
(13 промежуточных версий не показаны.) | |||
Строка 1: | Строка 1: | ||
+ | ==Введение== | ||
+ | Метод сопряжённых градиентов — итерационный метод для безусловной оптимизации в многомерном пространстве. Основным достоинством метода является то, что он решает квадратичную задачу оптимизации за конечное число шагов. Поэтому, сначала описывается метод сопряжённых градиентов для оптимизации квадратичного функционала, выводятся итерационные формулы, приводятся оценки скорости сходимости. После этого показывается, как метод сопряжённых обобщается для оптимизации произвольного функционала, рассматриваются | ||
+ | различные варианты метода, обсуждается сходимость. | ||
+ | |||
==Постановка задачи оптимизации== | ==Постановка задачи оптимизации== | ||
- | Пусть задано множество <tex> X \subset R^n </tex> и на этом множестве определена ''целевая функция'' (''objective function'') <tex>f : R^n \mapsto R</tex>. Задача оптимизации состоит в нахождении на множестве <tex>X</tex> точной верхней или точной нижней грани ''целевой функции''. <br/> | + | Пусть задано множество <tex> X \subset R^n </tex> и на этом множестве определена ''целевая функция'' (''objective function'') <tex>f \: R^n \mapsto R</tex>. Задача оптимизации состоит в нахождении на множестве <tex>X</tex> точной верхней или точной нижней грани ''целевой функции''. <br/> |
Множество точек, на которых достигается нижняя грань целевой функции обозначается <tex>X_* </tex>. <br/> | Множество точек, на которых достигается нижняя грань целевой функции обозначается <tex>X_* </tex>. <br/> | ||
::<tex>X_* = \{x \in X| f(x) = inf \limits_{x \in X} f(x) \} </tex> <br/> | ::<tex>X_* = \{x \in X| f(x) = inf \limits_{x \in X} f(x) \} </tex> <br/> | ||
Строка 7: | Строка 11: | ||
Если <tex> X \neq R^n </tex>, то задача оптимизации называется ''условной'' (''constrained''). | Если <tex> X \neq R^n </tex>, то задача оптимизации называется ''условной'' (''constrained''). | ||
- | ==Метод сопряжённых градиентов | + | ==Метод сопряжённых градиентов для квадратичного функционала== |
- | + | ||
- | + | ||
- | + | ||
- | + | ||
=== Изложение метода === | === Изложение метода === | ||
- | Рассмотрим | + | Рассмотрим следующую задачу оптимизации: <br/> |
::<tex>F(x) = \frac{1}{2} \langle Ax, x \rangle - \langle b, x \rangle \to inf, \quad x \in R^n</tex> <br/> | ::<tex>F(x) = \frac{1}{2} \langle Ax, x \rangle - \langle b, x \rangle \to inf, \quad x \in R^n</tex> <br/> | ||
Здесь <tex>A</tex> - симметричная положительно определённая матрица размера <tex>n \times n</tex>. | Здесь <tex>A</tex> - симметричная положительно определённая матрица размера <tex>n \times n</tex>. | ||
Строка 25: | Строка 25: | ||
::<tex>x_* = x_0 + \alpha_1 p_1 + \dots \alpha_n p_n </tex> | ::<tex>x_* = x_0 + \alpha_1 p_1 + \dots \alpha_n p_n </tex> | ||
Каждое следующее приближение вычисляется по формуле: <br/> | Каждое следующее приближение вычисляется по формуле: <br/> | ||
- | ::<tex>x_k = x_0 + \alpha_1 p_1 + \dots \ | + | ::<tex>x_k = x_0 + \alpha_1 p_1 + \dots \alpha_k p_k </tex> <br/> |
'''Определение.''' Два вектора <tex>p</tex> и <tex>q</tex> называются ''сопряжёнными'' относительно симметричной матрицы B, если <tex> \langle Bp,q \rangle = 0</tex> | '''Определение.''' Два вектора <tex>p</tex> и <tex>q</tex> называются ''сопряжёнными'' относительно симметричной матрицы B, если <tex> \langle Bp,q \rangle = 0</tex> | ||
Строка 38: | Строка 38: | ||
::<tex>\beta_k = \frac{ \langle F'(x_{k}), Ap_k \rangle}{ \langle Ap_k, p_k \rangle} </tex> | ::<tex>\beta_k = \frac{ \langle F'(x_{k}), Ap_k \rangle}{ \langle Ap_k, p_k \rangle} </tex> | ||
<br/> | <br/> | ||
- | Если обозначить за <tex>r_k = b - Ax_k = - | + | Если обозначить за <tex>r_k = b - Ax_k = -F'(x_{k})</tex> , то после нескольких упрощений получим окончательные формулы, используемые при применении метода сопряжённых градиентов на практике: <br/> |
<p align = "center"> | <p align = "center"> | ||
<tex>r_1 = b - Ax_0</tex> <br/> | <tex>r_1 = b - Ax_0</tex> <br/> | ||
Строка 85: | Строка 85: | ||
x =\begin{bmatrix} 0.92 \\ \\ -0.44 \\ \\ 1.80 \end{bmatrix}, | x =\begin{bmatrix} 0.92 \\ \\ -0.44 \\ \\ 1.80 \end{bmatrix}, | ||
</tex> | </tex> | ||
- | получается за две итерации. Собственные числа матрицы <tex>A</tex> - 5, 5, -5 - среди них два различных, поэтому, согласно теоретической оценке | + | получается за две итерации. Собственные числа матрицы <tex>A</tex> - 5, 5, -5 - среди них два различных, поэтому, согласно теоретической оценке число итераций не могло превышать двух |
=== Заключение === | === Заключение === | ||
- | Метод сопряжённых градиентов - один из наиболее эффективных методов решения СЛАУ с положительно определённой матрицей. Метод гарантирует сходимость за конечное число шагов, а нужная точность может быть достигнута значительно раньше. Основная проблема заключается в том, что из-за накопления погрешностей может нарушаться | + | Метод сопряжённых градиентов - один из наиболее эффективных методов решения СЛАУ с положительно определённой матрицей. Метод гарантирует сходимость за конечное число шагов, а нужная точность может быть достигнута значительно раньше. Основная проблема заключается в том, что из-за накопления погрешностей может нарушаться ортогональность базисных веторов <tex>p_k</tex>, что ухудшает сходимость |
- | == | + | == Метод сопряжённых градиентов в общем случае == |
- | Расссмотрим теперь модификацию метода сопряжённых градиентов | + | Расссмотрим теперь модификацию метода сопряжённых градиентов для случая, когда минимизируемый функционал не является квадратичным: |
Будем решать задачу: | Будем решать задачу: | ||
::<tex>F(x) \to min, \quad x \in R^n </tex>. | ::<tex>F(x) \to min, \quad x \in R^n </tex>. | ||
<tex>F(x) </tex> - непрерывно дифференцируемая в <tex>R^n </tex> функция. | <tex>F(x) </tex> - непрерывно дифференцируемая в <tex>R^n </tex> функция. | ||
- | Чтобы модифицировать метод сопряжённых градиентов для решения этой задачи | + | Чтобы модифицировать метод сопряжённых градиентов для решения этой задачи необходимо получить для <tex>p_k, \alpha_k, \beta_k </tex> формулы, в которые не входит матрица А: |
::<tex>\alpha_k = argmin \limits_{\alpha_k} F(x_{k-1} + \alpha_k p_k)</tex> | ::<tex>\alpha_k = argmin \limits_{\alpha_k} F(x_{k-1} + \alpha_k p_k)</tex> | ||
::<tex> p_{k+1} = - F'(x_{k}) + \beta_{k} p_{k} </tex> | ::<tex> p_{k+1} = - F'(x_{k}) + \beta_{k} p_{k} </tex> | ||
<tex> \beta_k </tex> можно вычислять по одной из трёх формул: <br/> | <tex> \beta_k </tex> можно вычислять по одной из трёх формул: <br/> | ||
#<tex> \beta_k = - \frac{\langle F'(x_{k} ), F'(x_{k}) \rangle}{\langle F'(x_{k-1}), F'(x_{k-1}) \rangle} </tex> - ''Метод Флетчера - Ривса'' (''Fletcher–Reeves method'') | #<tex> \beta_k = - \frac{\langle F'(x_{k} ), F'(x_{k}) \rangle}{\langle F'(x_{k-1}), F'(x_{k-1}) \rangle} </tex> - ''Метод Флетчера - Ривса'' (''Fletcher–Reeves method'') | ||
- | #<tex> \beta_k = \frac{\langle F'(x_{k}), F'(x_k) - F'(x_{k-1 | + | #<tex> \beta_k = \frac{\langle F'(x_{k}), F'(x_k) - F'(x_{k-1} ) \rangle}{\langle F'(x_{k - 1}), F'(x_{k - 1}) \rangle} </tex> - ''Метод Полака - Райбера'' (''Polak–Ribi`ere method'') |
#<tex> \beta_k = \frac{\langle F''(x_k) p_k, F'(x_k) \rangle}{\langle F''(x_{k - 1})p_k, p_k \rangle} </tex> | #<tex> \beta_k = \frac{\langle F''(x_k) p_k, F'(x_k) \rangle}{\langle F''(x_{k - 1})p_k, p_k \rangle} </tex> | ||
Если функция <tex>F(x)</tex> - квадратичная и строго выпуклая, то все три формулы дают одинаковый результат. Если <tex>F(x)</tex> - | Если функция <tex>F(x)</tex> - квадратичная и строго выпуклая, то все три формулы дают одинаковый результат. Если <tex>F(x)</tex> - | ||
Строка 106: | Строка 106: | ||
===Анализ метода=== | ===Анализ метода=== | ||
- | Если функция <tex>F(x)</tex> - не квадратичная, метод сопряжённых градиентов может и не сходиться за конечное число шагов. Кроме того, точное вычисление <tex>\alpha_k</tex> на каждом шаге возможно только в редких случаях. Поэтому накопление погрешностей приводит к тому, что вектора <tex> p_k</tex> перестают указывать направление убывания функции <tex>F(x)</tex>. Тогда на | + | Если функция <tex>F(x)</tex> - не квадратичная, метод сопряжённых градиентов может и не сходиться за конечное число шагов. Кроме того, точное вычисление <tex>\alpha_k</tex> на каждом шаге возможно только в редких случаях. Поэтому накопление погрешностей приводит к тому, что вектора <tex> p_k</tex> перестают указывать направление убывания функции <tex>F(x)</tex>. Тогда на каком-то шаге полагают <tex>\beta_k = 0</tex>. Совокупность всех номеров <tex>k</tex>, при которых принимается <tex>\beta_k = 0</tex>, обозначим за <tex>I_0</tex>. Номера <tex>k \in I_0</tex> называются ''моментами обновления метода''. На практике часто выбирают |
<tex>I_0 = \{n, 2n, 3n, \dots \}</tex>, где <tex>n</tex> - размерность пространства. | <tex>I_0 = \{n, 2n, 3n, \dots \}</tex>, где <tex>n</tex> - размерность пространства. | ||
Строка 135: | Строка 135: | ||
На каждой итерации методов Полака-Райбера или Флетчера-Ривса по одному разу вычисляются функция <tex>F(x)</tex> и её градиент | На каждой итерации методов Полака-Райбера или Флетчера-Ривса по одному разу вычисляются функция <tex>F(x)</tex> и её градиент | ||
<tex>F'(x)</tex>, решается задача одномерной оптимизации | <tex>F'(x)</tex>, решается задача одномерной оптимизации | ||
- | <tex>F(x_{k - 1} + \alpha_k p_k) \to min \limits_{\alpha_k \geq 0} </tex> . Таким образом, сложность одного шага метода | + | <tex>F(x_{k - 1} + \alpha_k p_k) \to min \limits_{\alpha_k \geq 0} </tex> . Таким образом, сложность одного шага метода сопряжённых градиентов имеет тот же порядок, что и сложность шага метода скорейшего спуска. На практике метод сопряжённых градиентов |
показывает лучшую скорость сходимости. | показывает лучшую скорость сходимости. | ||
=== Числовой пример=== | === Числовой пример=== | ||
- | Будем искать методом сопряжённых градиентов минимум функции <tex>F(x_1, x2) = (x_1 - 5)^2 (x_2 - 4)^2 + (x_1 - 5)^2 + (x_2 - 4)^2 + 1</tex>. Минимум этой | + | Будем искать методом сопряжённых градиентов минимум функции <tex>F(x_1, x2) = (x_1 - 5)^2 (x_2 - 4)^2 + (x_1 - 5)^2 + (x_2 - 4)^2 + 1</tex>. Минимум этой функции равен 1 и достигается в точке (5, 4). |
Сравним на примере этой функции методы Полака-Райбера и Флетчера-Ривса. | Сравним на примере этой функции методы Полака-Райбера и Флетчера-Ривса. | ||
Итерации в обоих методах прекращаются, когда на текущем шаге квадрат нормы градиента становится меньше <tex>\varepsilon</tex>. | Итерации в обоих методах прекращаются, когда на текущем шаге квадрат нормы градиента становится меньше <tex>\varepsilon</tex>. | ||
Строка 176: | Строка 176: | ||
|- | |- | ||
|} | |} | ||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | ==Рекомендации программисту == | + | == Рекомендации программисту == |
+ | Реализовано два варианта метода сопряжённых градиентов: для минимизации квадратичного функционала, и для минимизации произвольной функции. | ||
+ | В первом случае метод реализуется функцией <br/> | ||
+ | <code>vector<double> FindSolution(matrix<double> A, vector<double> b)</code> <br/> | ||
+ | Здесь '''A''' и '''b''' - матрица и вектор, фигурирющие в определении квадратичной задачи оптимизации. <br/> | ||
+ | Для минимизации произвольного функционала можно использовать одну из двух функций: <br/> | ||
+ | <code>vector<double> FletcherRievesMethod(int spaceSize, Function F, vector<double> (*GradF) (vector<double>)) </code> <br/> | ||
+ | <code>vector<double> PolakRibiereMethod(int spaceSize, Function F, vector<double> (*GradF) (vector<double>)) </code> <br/> | ||
+ | Параметры для обеих функций совпадают и имеют следующий смысл: <br/> | ||
+ | ''' spaceSize ''' - размерность пространства( число переменных, от которых зависит минимизируемый функционал) <br/> | ||
+ | ''' F ''' - указатель на минимизируемую функцию. Функция должна иметь вид <code> double <имя функции>( vector<double>) </code> <br/> | ||
+ | ''' GradF ''' - указатель на функцию, вычисляющую градиент минимизируемого функционала <br/> | ||
+ | Оба метода используют вспомогательную функцию для решения задачи одномерной оптимизации. В программе реализована одномерная оптимизация методом золотого сечения. | ||
+ | |||
+ | Исходный код программ: | ||
[[Media:Slimper_LinearGradient.zip|Линейный метод сопряженных градиентов, исходный код [1кб]]] <br/> | [[Media:Slimper_LinearGradient.zip|Линейный метод сопряженных градиентов, исходный код [1кб]]] <br/> | ||
[[Media:Slimper_NonLinearGradient.zip|Нелинейный метод сопряжённых градиентов, исходный код [1кб] ]]<br/> | [[Media:Slimper_NonLinearGradient.zip|Нелинейный метод сопряжённых градиентов, исходный код [1кб] ]]<br/> | ||
- | [ | + | При написании программ использовалась библиотека Boost, скачать которую можно по адресу [http://www.boost.org http://www.boost.org] |
+ | == Заключение == | ||
+ | В методе сопряжённых градиентов используется информация только о линейной части приращения в точке, как и в методах градиентного спуска. При этом метод сопряжённых градиентов позволяет решать квадратичные задачи за конечное число шагов. На многих других задачах метод сопряжённого градиента также превосходит метод градиентного спуска. | ||
+ | Сходимость метода градиентов существенно зависит от того, насколько точно решается задача одномерной оптимизации <tex>F(x_{k - 1} + \alpha_k p_k) \to min \limits_{\alpha_k \geq 0} </tex>. Возможные зацикливания метода устраняются с помощью обновлений. Тем не менее, если метод попадёт в локальный минимум функции, скорее всего, ему не удастся из него выбраться. | ||
+ | |||
+ | == См. также == | ||
+ | * [[Метод Нелдера-Мида]] | ||
+ | * [[Метод Ньютона. Метод Стеффенсена]] | ||
== Список литературы == | == Список литературы == | ||
* '' Васильев Ф. П. '' Методы оптимизации - Издательство «Факториал Пресс», 2002 <br/> | * '' Васильев Ф. П. '' Методы оптимизации - Издательство «Факториал Пресс», 2002 <br/> | ||
* '' Nocedal J., Wright S.J. '' Numerical Optimization ,Springer, 1999 | * '' Nocedal J., Wright S.J. '' Numerical Optimization ,Springer, 1999 | ||
+ | |||
+ | [[Категория:Численные методы безусловной оптимизации|Сопряжённых градиентоа]] |
Текущая версия
Содержание |
Введение
Метод сопряжённых градиентов — итерационный метод для безусловной оптимизации в многомерном пространстве. Основным достоинством метода является то, что он решает квадратичную задачу оптимизации за конечное число шагов. Поэтому, сначала описывается метод сопряжённых градиентов для оптимизации квадратичного функционала, выводятся итерационные формулы, приводятся оценки скорости сходимости. После этого показывается, как метод сопряжённых обобщается для оптимизации произвольного функционала, рассматриваются различные варианты метода, обсуждается сходимость.
Постановка задачи оптимизации
Пусть задано множество и на этом множестве определена целевая функция (objective function) . Задача оптимизации состоит в нахождении на множестве точной верхней или точной нижней грани целевой функции.
Множество точек, на которых достигается нижняя грань целевой функции обозначается .
Если , то задача оптимизации называется безусловной (unconstrained). Если , то задача оптимизации называется условной (constrained).
Метод сопряжённых градиентов для квадратичного функционала
Изложение метода
Рассмотрим следующую задачу оптимизации:
Здесь - симметричная положительно определённая матрица размера .
Такая задача оптимизации называется квадратичной.
Заметим, что . Условие экстремума функции эквивалентно системе
Функция достигает своей нижней грани в единственной точке , определяемой уравнением . Таким образом, данная задача оптимизации сводится к решению системы линейных уравнений
Идея метода сопряжённых градиентов состоит в следующем:
Пусть - базис в . Тогда для любой точки вектор раскладывается по базису
Таким образом, представимо в виде
Каждое следующее приближение вычисляется по формуле:
Определение. Два вектора и называются сопряжёнными относительно симметричной матрицы B, если
Опишем способ построения базиса в методе сопряжённых градиентов
В качестве начального приближения выбираем произвольный вектор.
На каждой итерации выбираются по правилу:
Базисные вектора вычисляются по формулам:
Коэффициенты выбираются так, чтобы векторы и были сопряжёнными относительно А.
Если обозначить за , то после нескольких упрощений получим окончательные формулы, используемые при применении метода сопряжённых градиентов на практике:
Анализ метода
Для метода сопряжённых градиентов справедлива следующая теорема:
Теорема
Пусть , где - симметричная положительно определённая матрица размера . Тогда метод сопряжённых градиентов сходится не более чем за шагов
и справедливы следующие соотношения:
Сходимость метода
Если все вычисления точные, и исходные данные точны то метод сходится к решению системы не более чем за итераций, где - размерность системы. Более тонкий анализ показывает, что число итераций не превышает , где - число различных собственных значений матрицы A.
Для оценки скорости сходимости верна следующая (довольно грубая) оценка:
- , где
. Она позволяет оценить скорость сходимости, если известны оценки для максимального и минимального собственных значений матрицы На практике чаще всего используют следующий критерий останова:
- .
Вычислительная сложность
На каждой итерации метода выполняется операций. Такое количество операций требуется для вычисления произведения - это самая трудоёмкая процедура на каждой итерации. Отальные вычисления требуют O(n) операций. Суммарная вычислительная сложность метода не превышает - так как число итераций не больше n.
Численный пример
Применим метод сопряжённых градиентов для решения системы , где
C помощью метода сопряжённых градиентов решение этой системы
получается за две итерации. Собственные числа матрицы - 5, 5, -5 - среди них два различных, поэтому, согласно теоретической оценке число итераций не могло превышать двух
Заключение
Метод сопряжённых градиентов - один из наиболее эффективных методов решения СЛАУ с положительно определённой матрицей. Метод гарантирует сходимость за конечное число шагов, а нужная точность может быть достигнута значительно раньше. Основная проблема заключается в том, что из-за накопления погрешностей может нарушаться ортогональность базисных веторов , что ухудшает сходимость
Метод сопряжённых градиентов в общем случае
Расссмотрим теперь модификацию метода сопряжённых градиентов для случая, когда минимизируемый функционал не является квадратичным: Будем решать задачу:
- .
- непрерывно дифференцируемая в функция. Чтобы модифицировать метод сопряжённых градиентов для решения этой задачи необходимо получить для формулы, в которые не входит матрица А:
можно вычислять по одной из трёх формул:
- - Метод Флетчера - Ривса (Fletcher–Reeves method)
- - Метод Полака - Райбера (Polak–Ribi`ere method)
Если функция - квадратичная и строго выпуклая, то все три формулы дают одинаковый результат. Если -
произвольная функция, то каждой из формул cоответствует своя модификация метода сопряжённых градиентов. Третья формула используется редко, так как она требует, чтобы функция и вычисления гессиана функции на каждом шаге метода.
Анализ метода
Если функция - не квадратичная, метод сопряжённых градиентов может и не сходиться за конечное число шагов. Кроме того, точное вычисление на каждом шаге возможно только в редких случаях. Поэтому накопление погрешностей приводит к тому, что вектора перестают указывать направление убывания функции . Тогда на каком-то шаге полагают . Совокупность всех номеров , при которых принимается , обозначим за . Номера называются моментами обновления метода. На практике часто выбирают , где - размерность пространства.
Сходимость метода
Для метода Флетчера - Ривса существует теорема о сходимости, накладывающая не слишком жёсткие условия на минимизируемую функцию :
Теорема.
Пусть и выполняются следующие условия:
- удовлетворяет строгим условиям Вольфа:
-
- где
-
- Множество ограничено
- Производная удовлетворяет условию Липшица с константой в некоторой окрестности
множества M: .
Тогда
Для метода Полака-Райбера доказана сходимость в предположении, что - строго выпуклая функция. В общем случае доказать сходимость метода Полака - Райбера невозможно. Напоротив, верна следующая теорема:
Теорема.
Предположим, что в методе Полака-Райбера значения на каждом шаге вычисляются точно. Тогда
существует функция , и начальное приближение , такие что
.
Тем не менее, на практике метод Полака-Райбера работает лучше.
Наиболее распространённые критерии останова на практике:
Норма градиента становится меньше некоторого порога
Значение функции в течении m последовательных итераций почти не изменилось
Вычислительная сложность
На каждой итерации методов Полака-Райбера или Флетчера-Ривса по одному разу вычисляются функция и её градиент , решается задача одномерной оптимизации . Таким образом, сложность одного шага метода сопряжённых градиентов имеет тот же порядок, что и сложность шага метода скорейшего спуска. На практике метод сопряжённых градиентов показывает лучшую скорость сходимости.
Числовой пример
Будем искать методом сопряжённых градиентов минимум функции . Минимум этой функции равен 1 и достигается в точке (5, 4). Сравним на примере этой функции методы Полака-Райбера и Флетчера-Ривса. Итерации в обоих методах прекращаются, когда на текущем шаге квадрат нормы градиента становится меньше . Для выбора используется метод золотого сечения
Метод Флетчера - Ривса | Метод Полака - Райбера | |||||
---|---|---|---|---|---|---|
Число итераций | Найденное решение | Значение функции | Число итераций | Найденное решение | Значение функции | |
0.01 | 18 | (5.01382198,3.9697932) | 1.00110367 | 15 | (5.03942877,4.00003512) | 1.00155463 |
0.001 | 20 | (5.01056482,3.99018026) | 1.00020805 | 18 | (4.9915894,3.99999044) | 1.00007074 |
0.0001 | 24 | (4.9979991,4.00186173) | 1.00000747 | 20 | (5.00336181,4.0000018) | 1.0000113 |
0.00001 | 25 | (4.99898277,4.00094645) | 1.00000193 | 22 | (4.99846808,3.99999918) | 1.00000235 |
0.00001 | 29 | (4.99974658,4.0002358) | 1.00000012 | 26 | (4.99955034,3.99999976) | 1.0000002 |
Рекомендации программисту
Реализовано два варианта метода сопряжённых градиентов: для минимизации квадратичного функционала, и для минимизации произвольной функции.
В первом случае метод реализуется функцией
vector<double> FindSolution(matrix<double> A, vector<double> b)
Здесь A и b - матрица и вектор, фигурирющие в определении квадратичной задачи оптимизации.
Для минимизации произвольного функционала можно использовать одну из двух функций:
vector<double> FletcherRievesMethod(int spaceSize, Function F, vector<double> (*GradF) (vector<double>))
vector<double> PolakRibiereMethod(int spaceSize, Function F, vector<double> (*GradF) (vector<double>))
Параметры для обеих функций совпадают и имеют следующий смысл:
spaceSize - размерность пространства( число переменных, от которых зависит минимизируемый функционал)
F - указатель на минимизируемую функцию. Функция должна иметь вид double <имя функции>( vector<double>)
GradF - указатель на функцию, вычисляющую градиент минимизируемого функционала
Оба метода используют вспомогательную функцию для решения задачи одномерной оптимизации. В программе реализована одномерная оптимизация методом золотого сечения.
Исходный код программ:
Линейный метод сопряженных градиентов, исходный код [1кб]
Нелинейный метод сопряжённых градиентов, исходный код [1кб]
При написании программ использовалась библиотека Boost, скачать которую можно по адресу http://www.boost.org
Заключение
В методе сопряжённых градиентов используется информация только о линейной части приращения в точке, как и в методах градиентного спуска. При этом метод сопряжённых градиентов позволяет решать квадратичные задачи за конечное число шагов. На многих других задачах метод сопряжённого градиента также превосходит метод градиентного спуска. Сходимость метода градиентов существенно зависит от того, насколько точно решается задача одномерной оптимизации . Возможные зацикливания метода устраняются с помощью обновлений. Тем не менее, если метод попадёт в локальный минимум функции, скорее всего, ему не удастся из него выбраться.
См. также
Список литературы
- Васильев Ф. П. Методы оптимизации - Издательство «Факториал Пресс», 2002
- Nocedal J., Wright S.J. Numerical Optimization ,Springer, 1999