Нелинейная регрессия
Материал из MachineLearning.
м (викификация) |
|||
Строка 1: | Строка 1: | ||
{{TOCright}} | {{TOCright}} | ||
- | '''Нелинейная регрессия''' | + | '''Нелинейная регрессия''' — частный случай [[регрессионный анализ|регрессионного анализа]], |
в котором рассматриваемая [[регрессионная модель|регрессионная модель]] есть функция, | в котором рассматриваемая [[регрессионная модель|регрессионная модель]] есть функция, | ||
зависящая от параметров и от одной или нескольких свободных переменных. | зависящая от параметров и от одной или нескольких свободных переменных. | ||
Строка 6: | Строка 6: | ||
== Постановка задачи == | == Постановка задачи == | ||
- | |||
Задана [[выборка|выборка]] из <tex>m</tex> пар <tex>(\mathbf{x}_i,y_i)</tex>. Задана [[регрессионная модель|регрессионная модель]] <tex>f(\mathbf{w},\mathbf{x})</tex>, | Задана [[выборка|выборка]] из <tex>m</tex> пар <tex>(\mathbf{x}_i,y_i)</tex>. Задана [[регрессионная модель|регрессионная модель]] <tex>f(\mathbf{w},\mathbf{x})</tex>, | ||
которая зависит от параметров <tex>\mathbf{w}=(w_1,...,w_W)</tex> и свободной переменной <tex>x</tex>. | которая зависит от параметров <tex>\mathbf{w}=(w_1,...,w_W)</tex> и свободной переменной <tex>x</tex>. | ||
Строка 44: | Строка 43: | ||
Для нахождения оптимальных параметров нелинейных регрессионных моделей используются | Для нахождения оптимальных параметров нелинейных регрессионных моделей используются | ||
- | [[ | + | [[Метод сопряжённых градиентов|метод сопряжённых градиентов]], |
- | [[ | + | [[Алгоритм Гаусса-Ньютона|алгоритм Гаусса-Ньютона]] или |
- | [[ | + | [[Алгоритм Левенберга-Марквардта|алгоритм Левенберга-Марквардта]]. |
== Литература == | == Литература == |
Версия 10:11, 8 ноября 2008
|
Нелинейная регрессия — частный случай регрессионного анализа, в котором рассматриваемая регрессионная модель есть функция, зависящая от параметров и от одной или нескольких свободных переменных. Зависимость от параметров предполагается нелинейной.
Постановка задачи
Задана выборка из пар . Задана регрессионная модель , которая зависит от параметров и свободной переменной . Требуется найти такие значения параметров, которые доставляли бы минимум сумме квадратов регрессионных остатков
где остатки для .
Для нахождения минимума функции , приравняем к нулю её первые частные производные параметрам :
Так как функция в общем случае не имеет единственного минимума[1], то предлагается назначить начальное значение вектора параметров и приближаться к оптимальному вектору по шагам:
Здесь - номер итерации, - вектор шага.
На каждом шаге итерации линеаризуем модель с помощью приближения рядом Тейлора относительно параметров
Здесь элемент матрицы Якоби - функция параметра ; значение свободной переменной фиксировано. В терминах линеаризованной модели
и регрессионные остатки определены как
Подставляя последнее выражение в выражение (*), получаем
Преобразуя, получаем систему из линейных уравнений, которые называются нормальным уравнением
Запишем нормальное уравнение в матричном обозначении как
В том случае, когда критерий оптимальности регрессионой модели задан как взвешенная сумма квадратов остатков
нормальное уравнение будет иметь вид
Для нахождения оптимальных параметров нелинейных регрессионных моделей используются метод сопряжённых градиентов, алгоритм Гаусса-Ньютона или алгоритм Левенберга-Марквардта.
Литература
- Seber G.A.F Wild C.J. Nonlinear Regression. New York: John Wiley and Sons, 1989.