Нелинейная регрессия
Материал из MachineLearning.
(Новая: '''Нелинейная регрессия''' - частный случай регрессионного анализа, в которо...) |
(→Постановка задачи) |
||
Строка 15: | Строка 15: | ||
<center><tex>\frac{\partial S}{\partial w_j}=2\sum_i r_i\frac{\partial r_i}{\partial w_j}=0 \ (j=1,\ldots,n). (*)</tex></center> | <center><tex>\frac{\partial S}{\partial w_j}=2\sum_i r_i\frac{\partial r_i}{\partial w_j}=0 \ (j=1,\ldots,n). (*)</tex></center> | ||
- | Так как функция <tex>S</tex> в общем случае не имеет единственного минимума<ref name="">Демиденко, Е. З. Оптимизация и регрессия. М.: Наука. 1989. 296 с.</ref>, то предлагается назначить начальное | + | Так как функция <tex>S</tex> в общем случае не имеет единственного минимума<ref name="one">Демиденко, Е. З. Оптимизация и регрессия. М.: Наука. 1989. 296 с.</ref>, то предлагается назначить начальное |
значение вектора параметров <tex>w_0</tex> и приближаться к оптимальному вектору по шагам: | значение вектора параметров <tex>w_0</tex> и приближаться к оптимальному вектору по шагам: | ||
<center><tex>w_j \approx w_j^{k+1} =w^k_j+\Delta w_j.</tex></center> | <center><tex>w_j \approx w_j^{k+1} =w^k_j+\Delta w_j.</tex></center> | ||
Строка 31: | Строка 31: | ||
Подставляя последнее выражение в выражение (*), получаем | Подставляя последнее выражение в выражение (*), получаем | ||
<center><tex>-2\sum_{i=1}^{m}J_{ij} \left( \Delta y_i-\sum_{s=1}^{n} J_{is}\Delta w_s \right)=0.</tex></center> | <center><tex>-2\sum_{i=1}^{m}J_{ij} \left( \Delta y_i-\sum_{s=1}^{n} J_{is}\Delta w_s \right)=0.</tex></center> | ||
- | Преобразуя, получаем систему из <tex>n</tex> линейных уравнений, которые называются [[метод наименьших квадратов|нормальным уравнением | + | Преобразуя, получаем систему из <tex>n</tex> линейных уравнений, которые называются [[метод наименьших квадратов|нормальным уравнением]] |
<center><tex>\sum_{i=1}^{m}\sum_{s=1}^{n} J_{ij}J_{is}\Delta w_s=\sum_{i=1}^{m} J_{ij}\Delta y_i (j=1,n).</tex></center> | <center><tex>\sum_{i=1}^{m}\sum_{s=1}^{n} J_{ij}J_{is}\Delta w_s=\sum_{i=1}^{m} J_{ij}\Delta y_i (j=1,n).</tex></center> | ||
Строка 42: | Строка 42: | ||
<center><tex>\mathbf{\left(J^TWJ\right)\Delta \mathbf{w}=J^TW\Delta y}.</tex></center> | <center><tex>\mathbf{\left(J^TWJ\right)\Delta \mathbf{w}=J^TW\Delta y}.</tex></center> | ||
- | Для нахождения оптимальных параметров используются | + | Для нахождения оптимальных параметров нелинейных регрессионных моделей используются |
[[метод сопряженных градиентов|метод сопряженных градиентов]], | [[метод сопряженных градиентов|метод сопряженных градиентов]], | ||
[[алгоритм Гаусса-Ньютона|алгоритм Гаусса-Ньютона]] или | [[алгоритм Гаусса-Ньютона|алгоритм Гаусса-Ньютона]] или |
Версия 16:43, 3 ноября 2008
Нелинейная регрессия - частный случай регрессионного анализа, в котором рассматриваемая регрессионная модель есть функция, зависящая от параметров и от одной или нескольких свободных переменных. Зависимость от параметров предполагается нелинейной.
Постановка задачи
Задана выборка из пар . Задана регрессионная модель , которая зависит от параметров и свободной переменной . Требуется найти такие значения параметров, которые доставляли бы минимум сумме квадратов регрессионных остатков
где остатки для .
Для нахождения минимума функции , приравняем к нулю её первые частные производные параметрам :
Так как функция в общем случае не имеет единственного минимума[1], то предлагается назначить начальное значение вектора параметров и приближаться к оптимальному вектору по шагам:
Здесь - номер итерации, - вектор шага.
На каждом шаге итерации линеаризуем модель с помощью приближения рядом Тейлора относительно параметров
Здесь элемент матрицы Якоби - функция параметра ; значение свободной переменной фиксировано. В терминах линеаризованной модели
и регрессионные остатки определены как
Подставляя последнее выражение в выражение (*), получаем
Преобразуя, получаем систему из линейных уравнений, которые называются нормальным уравнением
Запишем нормальное уравнение в матричном обозначении как
В том случае, когда критерий оптимальности регрессионой модели задан как взвешенная сумма квадратов остатков
нормальное уравнение будет иметь вид
Для нахождения оптимальных параметров нелинейных регрессионных моделей используются метод сопряженных градиентов, алгоритм Гаусса-Ньютона или алгоритм Левенберга-Марквардта.
Литература
- Демиденко, Е. З. Оптимизация и регрессия. М.: Наука. 1989. 296 с.