Метод наименьших квадратов
Материал из MachineLearning.
(Новая: '''Метод наименьших квадратов'''~--- метод нахождения оптимальных параметров [[регрессионный анализ|лин...) |
|||
Строка 1: | Строка 1: | ||
- | '''Метод наименьших квадратов''' | + | '''Метод наименьших квадратов''' — метод нахождения оптимальных параметров [[регрессионный анализ|линейной регрессии]], таких, что [[регрессионный анализ|невязка]] [[анализ регрессионных остатков|регрессионных остатков]] минимальна. Метод заключается в минимизации евклидова расстояния <tex>\|A\mathbf{w}-\mathbf{y}\|</tex> между двумя векторами. |
- | {{ | + | == Постановка задачи == |
+ | |||
+ | Задача метода наименьших квадратов состоит выборе вектора <tex>\mathbf{w}</tex>, минимизирующего ошибку (длину [[регрессионный анализ|вектора невязки]]) <tex>S=\|A\mathbf{w}-\mathbf{y}\|^2</tex>. | ||
+ | Эта ошибка есть расстояние от вектора <tex>\mathbf{y}</tex> до вектора <tex>A\mathbf{w}</tex>. | ||
+ | Вектор <tex>A\mathbf{w}</tex> лежит в простанстве столбцов матрицы <tex>A</tex>, | ||
+ | так как <tex>A\mathbf{w}</tex> есть линейная комбинация столбцов этой матрицы коэффициентами <tex>w_1,...,w_N</tex>. | ||
+ | Отыскание решения <tex>\mathbf{w}</tex> по методу наименьших квадратов эквивалентно задаче отыскания такой точки <tex>\mathbf{p}=A\mathbf{w}</tex>, | ||
+ | которая лежит ближе всего к <tex>\mathbf{y}</tex> и находится при этом в пространстве столбцов матрицы <tex>A</tex>. | ||
+ | Таким образом, вектор <tex>\mathbf{p}</tex> должен быть проекцией <tex>\mathbf{y}</tex> на пространство столбцов и вектор невязки <tex>A\mathbf{w}-\mathbf{y}</tex> | ||
+ | должен быть ортогонелен этому пространству. Ортогональность состоит в том, что каждый вектор в пространстве столбцов | ||
+ | есть линейная комбинация столбцов с некоторыми коэффициентами <tex>v_1,...,v_N</tex>, то есть это вектор <tex>A\mathbf{v}</tex>. | ||
+ | Для всех <tex>v</tex> в пространстве <tex>A\mathbf{v}</tex>, эти векторы должны быть перпендикулярны невязке <tex>A{\mathbf{w}}-\mathbf{y}</tex>: | ||
+ | <center><tex>(A\mathbf{v})^T(A{\mathbf{w}}-\mathbf{y})=\mathbf{v}^T(A^TA{\mathbf{w}}-A^T\mathbf{y})=0.</tex></center> | ||
+ | Так как это равентсво должно быть справедливо для произвольного вектора <tex>\mathbf{v}</tex>, то | ||
+ | <center><tex>A^TA{\mathbf{w}}-A^T\mathbf{y}=0.</tex></center> | ||
+ | Решение по методу наименьших квадратов несовместной системы <tex>A\mathbf{w}=\mathbf{y}</tex>, | ||
+ | состоящей из <tex>M</tex> уравнений с <tex>N</tex> неизвестными, есть уравнение | ||
+ | <center><tex>A^TA\mathbf{w}=A^T\mathbf{y},</tex></center> | ||
+ | которое называется <i>нормальным уравнением</i>. | ||
+ | Если столбцы матрицы <tex>A</tex> линейно независимы, то матрица <tex>A^TA</tex> обратима | ||
+ | и единственное решение | ||
+ | <center><tex>\mathbf{w}=(A^TA)^{-1}A^T\mathbf{y}.</tex></center> | ||
+ | Проекция вектора <tex>\mathbf{y}</tex> на пространство столбцов матрицы имеет вид | ||
+ | <center><tex>\mathbf{p}=A{\mathbf{w}}=A(A^TA)^{-1}A^T\mathbf{y}=P\mathbf{y}.</tex></center> | ||
+ | Матрица <tex>P=A(A^TA)^{-1}A^T</tex> называется матрицей проектирования вектора <tex>\mathbf{y}</tex> на пространство столбцов матрицы <tex>A</tex>. | ||
+ | Эта матрица имеет два основных свойства: она идемпотентна, <tex>P^2=P</tex>, и симметрична, <tex>P^T=P</tex>. | ||
+ | Обратное также верно: матрица, обладающая этими двумя свойствами есть матрица проектирования на свое пространство столбцов. | ||
+ | |||
+ | == Пример постоения линейной регрессии == | ||
+ | |||
+ | Задана выборка — таблица | ||
+ | <center><tex>D=\left(\begin{array}{cc} x_1 & y_1 \\ x_2 & y_2 \\ \dots & \dots \\ x_M & y_M \\ \end{array}\right).</tex></center> | ||
+ | Задана регрессионная модель — квадратичный полином | ||
+ | <center><tex> f = w_3x^2+w_2x+w_1 =\sum_{j=1}^3w_jx^{j-1}.</tex></center> | ||
+ | Назначенная модель является линейной. Для нахождения оптимального | ||
+ | значения вектора параметров <tex>\mathbf{w}=\langle{w_1,...,w_3}\rangle^T</tex> выполняется следующая подстановка: | ||
+ | <center><tex>x^0_i{\mapsto}a_{i1},</tex> <tex>x^1_i{\mapsto}a_{i2},</tex> <tex>x^2_i{\mapsto}a_{i3}.</tex></center> | ||
+ | Тогда матрица <tex>A</tex> значений подстановок свободной переменной <tex>x_i</tex> | ||
+ | будет иметь вид | ||
+ | <center><tex>A= \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ \cdots & \cdots & \cdots \\ a_{M 1} & a_{M 2} & a_{M 3} \\ \end{array} \right). </tex></center> | ||
+ | |||
+ | Задан критерий качества модели: функця ошибки | ||
+ | <center><tex> S=\sum_{i=1}^M(f(\mathbf{w},x_i)-y_i)^2=\|A\mathbf{w}-\mathbf{y}\|^2\longrightarrow\min. </tex></center> | ||
+ | Здесь вектор <tex>\mathbf{y}=\langle y_1,\ldots,y_M\rangle</tex>. Требуется найти такие параметры <tex>\mathbf{w}</tex>, которые бы доставляли | ||
+ | минимум этому функционалу, | ||
+ | <center><tex> \mathbf{w}=\arg\min\limits_{\mathbf{w}\in\R^3}(S).</tex></center> | ||
+ | |||
+ | Требуется найти такие параметры <tex>\mathbf{w}</tex>, которые доставляют минимум <tex>S</tex> — норме вектора | ||
+ | невязок <tex>A\mathbf{w}-\mathbf{y}</tex>. | ||
+ | <center><tex> \begin{array}{l} S = \|A\mathbf{w}-\mathbf{y}\|^2=(A\mathbf{w}-\mathbf{y})^T(A\mathbf{w}-\mathbf{y})= \\ =\mathbf{y}^T\mathbf{y}-\mathbf{y}^TA\mathbf{w}-\mathbf{w}^TA^T\mathbf{y}+\mathbf{w}^TA^TA\mathbf{w}= \\ =\mathbf{y}^T\mathbf{y}-2\mathbf{y}^TA\mathbf{w}+\mathbf{w}^TA^TA\mathbf{w}. \end{array} </tex></center> | ||
+ | Для того, чтобы найти минимум функции невязки, требуется | ||
+ | приравнять ее производные к нулю. Производные данной функции | ||
+ | по <tex>\mathbf{w}</tex> составляют | ||
+ | <center><tex> \frac{\partial S}{\partial\mathbf{w}}=-2A^T\mathbf{y}+2A^TA\mathbf{w}=0. </tex></center> | ||
+ | Это выражение также называется нормальным уравнением. Решение | ||
+ | этой задачи должно удовлетворять системе линейных уравнений | ||
+ | <center><tex> A^TA\mathbf{w}=A^T\mathbf{y}, </tex></center> то есть, <center><tex> \mathbf{w}=(A^TA)^{-1}(A^T\mathbf{y}). </tex></center> | ||
+ | После получения весов можно построить график найденной функции. | ||
+ | |||
+ | При обращении матрицы <tex>(A^TA)^{-1}</tex> предполагается, что эта | ||
+ | матрица невырождена и не плохо обусловлена. О том, как работать с плохо обусловленными матрицами см. в статье [[Сингулярное разложение]]. | ||
+ | |||
+ | == Смотри также == | ||
+ | * [[Регрессионный анализ]] | ||
+ | * [[Анализ регрессионных остатков]] | ||
+ | * [[Сингулярное разложение]] | ||
+ | |||
+ | == Литература == | ||
+ | * Стренг Г. Линейная алгебра и ее применения. М.: Мир. 1980. | ||
+ | * Каханер Д., Моулер К., Нэш С. Численные методы и программное обеспечение. М.: Мир. 1998. | ||
+ | |||
+ | == Внешние ссылки == | ||
+ | Wikipedia.org, Least squares http://en.wikipedia.org/wiki/Least_squares | ||
+ | |||
+ | [[Категория:Регрессионный анализ]] |
Версия 12:01, 16 марта 2008
Метод наименьших квадратов метод нахождения оптимальных параметров линейной регрессии, таких, что невязка регрессионных остатков минимальна. Метод заключается в минимизации евклидова расстояния между двумя векторами.
Содержание |
Постановка задачи
Задача метода наименьших квадратов состоит выборе вектора , минимизирующего ошибку (длину вектора невязки) . Эта ошибка есть расстояние от вектора до вектора . Вектор лежит в простанстве столбцов матрицы , так как есть линейная комбинация столбцов этой матрицы коэффициентами . Отыскание решения по методу наименьших квадратов эквивалентно задаче отыскания такой точки , которая лежит ближе всего к и находится при этом в пространстве столбцов матрицы . Таким образом, вектор должен быть проекцией на пространство столбцов и вектор невязки должен быть ортогонелен этому пространству. Ортогональность состоит в том, что каждый вектор в пространстве столбцов есть линейная комбинация столбцов с некоторыми коэффициентами , то есть это вектор . Для всех в пространстве , эти векторы должны быть перпендикулярны невязке :
Так как это равентсво должно быть справедливо для произвольного вектора , то
Решение по методу наименьших квадратов несовместной системы , состоящей из уравнений с неизвестными, есть уравнение
которое называется нормальным уравнением. Если столбцы матрицы линейно независимы, то матрица обратима и единственное решение
Проекция вектора на пространство столбцов матрицы имеет вид
Матрица называется матрицей проектирования вектора на пространство столбцов матрицы . Эта матрица имеет два основных свойства: она идемпотентна, , и симметрична, . Обратное также верно: матрица, обладающая этими двумя свойствами есть матрица проектирования на свое пространство столбцов.
Пример постоения линейной регрессии
Задана выборка таблица
Задана регрессионная модель квадратичный полином
Назначенная модель является линейной. Для нахождения оптимального значения вектора параметров выполняется следующая подстановка:
Тогда матрица значений подстановок свободной переменной будет иметь вид
Задан критерий качества модели: функця ошибки
Здесь вектор . Требуется найти такие параметры , которые бы доставляли минимум этому функционалу,
Требуется найти такие параметры , которые доставляют минимум норме вектора невязок .
Для того, чтобы найти минимум функции невязки, требуется приравнять ее производные к нулю. Производные данной функции по составляют
Это выражение также называется нормальным уравнением. Решение этой задачи должно удовлетворять системе линейных уравнений
После получения весов можно построить график найденной функции.
При обращении матрицы предполагается, что эта матрица невырождена и не плохо обусловлена. О том, как работать с плохо обусловленными матрицами см. в статье Сингулярное разложение.
Смотри также
Литература
- Стренг Г. Линейная алгебра и ее применения. М.: Мир. 1980.
- Каханер Д., Моулер К., Нэш С. Численные методы и программное обеспечение. М.: Мир. 1998.
Внешние ссылки
Wikipedia.org, Least squares http://en.wikipedia.org/wiki/Least_squares