Метод наименьших квадратов
Материал из MachineLearning.
м (→Пример построения линейной регрессии) |
|||
(19 промежуточных версий не показаны.) | |||
Строка 1: | Строка 1: | ||
- | '''Метод наименьших квадратов''' — метод нахождения оптимальных параметров [[регрессионный анализ|линейной регрессии]], таких, что | + | '''Метод наименьших квадратов''' — метод нахождения оптимальных параметров [[регрессионный анализ|линейной регрессии]], таких, что сумма квадратов ошибок ([[анализ регрессионных остатков|регрессионных остатков]]) минимальна. Метод заключается в минимизации евклидова расстояния <tex>\|A\mathbf{w}-\mathbf{y}\|</tex> между двумя векторами — вектором восстановленных значений зависимой переменной и вектором фактических значений зависимой переменной. |
== Постановка задачи == | == Постановка задачи == | ||
- | Задача метода наименьших квадратов состоит выборе вектора <tex>\mathbf{w}</tex>, минимизирующего ошибку | + | Задача метода наименьших квадратов состоит в выборе вектора <tex>\mathbf{w}</tex>, минимизирующего ошибку <tex>S=\|A\mathbf{w}-\mathbf{y}\|^2</tex>. |
Эта ошибка есть расстояние от вектора <tex>\mathbf{y}</tex> до вектора <tex>A\mathbf{w}</tex>. | Эта ошибка есть расстояние от вектора <tex>\mathbf{y}</tex> до вектора <tex>A\mathbf{w}</tex>. | ||
Вектор <tex>A\mathbf{w}</tex> лежит в простанстве столбцов матрицы <tex>A</tex>, | Вектор <tex>A\mathbf{w}</tex> лежит в простанстве столбцов матрицы <tex>A</tex>, | ||
- | так как <tex>A\mathbf{w}</tex> есть линейная комбинация столбцов этой матрицы коэффициентами <tex>w_1,...,w_N</tex>. | + | так как <tex>A\mathbf{w}</tex> есть линейная комбинация столбцов этой матрицы с коэффициентами <tex>w_1,...,w_N</tex>. |
Отыскание решения <tex>\mathbf{w}</tex> по методу наименьших квадратов эквивалентно задаче отыскания такой точки <tex>\mathbf{p}=A\mathbf{w}</tex>, | Отыскание решения <tex>\mathbf{w}</tex> по методу наименьших квадратов эквивалентно задаче отыскания такой точки <tex>\mathbf{p}=A\mathbf{w}</tex>, | ||
которая лежит ближе всего к <tex>\mathbf{y}</tex> и находится при этом в пространстве столбцов матрицы <tex>A</tex>. | которая лежит ближе всего к <tex>\mathbf{y}</tex> и находится при этом в пространстве столбцов матрицы <tex>A</tex>. | ||
Таким образом, вектор <tex>\mathbf{p}</tex> должен быть проекцией <tex>\mathbf{y}</tex> на пространство столбцов и вектор невязки <tex>A\mathbf{w}-\mathbf{y}</tex> | Таким образом, вектор <tex>\mathbf{p}</tex> должен быть проекцией <tex>\mathbf{y}</tex> на пространство столбцов и вектор невязки <tex>A\mathbf{w}-\mathbf{y}</tex> | ||
- | должен быть | + | должен быть ортогонален этому пространству. Ортогональность состоит в том, что каждый вектор в пространстве столбцов |
есть линейная комбинация столбцов с некоторыми коэффициентами <tex>v_1,...,v_N</tex>, то есть это вектор <tex>A\mathbf{v}</tex>. | есть линейная комбинация столбцов с некоторыми коэффициентами <tex>v_1,...,v_N</tex>, то есть это вектор <tex>A\mathbf{v}</tex>. | ||
Для всех <tex>v</tex> в пространстве <tex>A\mathbf{v}</tex>, эти векторы должны быть перпендикулярны невязке <tex>A{\mathbf{w}}-\mathbf{y}</tex>: | Для всех <tex>v</tex> в пространстве <tex>A\mathbf{v}</tex>, эти векторы должны быть перпендикулярны невязке <tex>A{\mathbf{w}}-\mathbf{y}</tex>: | ||
<center><tex>(A\mathbf{v})^T(A{\mathbf{w}}-\mathbf{y})=\mathbf{v}^T(A^TA{\mathbf{w}}-A^T\mathbf{y})=0.</tex></center> | <center><tex>(A\mathbf{v})^T(A{\mathbf{w}}-\mathbf{y})=\mathbf{v}^T(A^TA{\mathbf{w}}-A^T\mathbf{y})=0.</tex></center> | ||
- | Так как это | + | Так как это равенство должно быть справедливо для произвольного вектора <tex>\mathbf{v}</tex>, то |
<center><tex>A^TA{\mathbf{w}}-A^T\mathbf{y}=0.</tex></center> | <center><tex>A^TA{\mathbf{w}}-A^T\mathbf{y}=0.</tex></center> | ||
Решение по методу наименьших квадратов несовместной системы <tex>A\mathbf{w}=\mathbf{y}</tex>, | Решение по методу наименьших квадратов несовместной системы <tex>A\mathbf{w}=\mathbf{y}</tex>, | ||
Строка 29: | Строка 29: | ||
Обратное также верно: матрица, обладающая этими двумя свойствами есть матрица проектирования на свое пространство столбцов. | Обратное также верно: матрица, обладающая этими двумя свойствами есть матрица проектирования на свое пространство столбцов. | ||
- | == Пример | + | == Пример построения линейной регрессии == |
Задана выборка — таблица | Задана выборка — таблица | ||
Строка 42: | Строка 42: | ||
<center><tex>A= \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ \cdots & \cdots & \cdots \\ a_{M 1} & a_{M 2} & a_{M 3} \\ \end{array} \right). </tex></center> | <center><tex>A= \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ \cdots & \cdots & \cdots \\ a_{M 1} & a_{M 2} & a_{M 3} \\ \end{array} \right). </tex></center> | ||
- | Задан критерий качества модели: | + | Задан критерий качества модели: функция ошибки |
<center><tex> S=\sum_{i=1}^M(f(\mathbf{w},x_i)-y_i)^2=\|A\mathbf{w}-\mathbf{y}\|^2\longrightarrow\min. </tex></center> | <center><tex> S=\sum_{i=1}^M(f(\mathbf{w},x_i)-y_i)^2=\|A\mathbf{w}-\mathbf{y}\|^2\longrightarrow\min. </tex></center> | ||
Здесь вектор <tex>\mathbf{y}=\langle y_1,\ldots,y_M\rangle</tex>. Требуется найти такие параметры <tex>\mathbf{w}</tex>, которые бы доставляли | Здесь вектор <tex>\mathbf{y}=\langle y_1,\ldots,y_M\rangle</tex>. Требуется найти такие параметры <tex>\mathbf{w}</tex>, которые бы доставляли | ||
Строка 55: | Строка 55: | ||
по <tex>\mathbf{w}</tex> составляют | по <tex>\mathbf{w}</tex> составляют | ||
<center><tex> \frac{\partial S}{\partial\mathbf{w}}=-2A^T\mathbf{y}+2A^TA\mathbf{w}=0. </tex></center> | <center><tex> \frac{\partial S}{\partial\mathbf{w}}=-2A^T\mathbf{y}+2A^TA\mathbf{w}=0. </tex></center> | ||
- | Это выражение | + | Это выражение совпадает с нормальным уравнением. Решение |
этой задачи должно удовлетворять системе линейных уравнений | этой задачи должно удовлетворять системе линейных уравнений | ||
<center><tex> A^TA\mathbf{w}=A^T\mathbf{y}, </tex></center> то есть, <center><tex> \mathbf{w}=(A^TA)^{-1}(A^T\mathbf{y}). </tex></center> | <center><tex> A^TA\mathbf{w}=A^T\mathbf{y}, </tex></center> то есть, <center><tex> \mathbf{w}=(A^TA)^{-1}(A^T\mathbf{y}). </tex></center> | ||
Строка 64: | Строка 64: | ||
== Смотри также == | == Смотри также == | ||
+ | * [[Линейная регрессия (пример)]] | ||
+ | * [[Нелинейная регрессия]] и метод наименьших квадратов | ||
* [[Регрессионный анализ]] | * [[Регрессионный анализ]] | ||
* [[Анализ регрессионных остатков]] | * [[Анализ регрессионных остатков]] | ||
Строка 71: | Строка 73: | ||
* Стренг Г. Линейная алгебра и ее применения. М.: Мир. 1980. | * Стренг Г. Линейная алгебра и ее применения. М.: Мир. 1980. | ||
* Каханер Д., Моулер К., Нэш С. Численные методы и программное обеспечение. М.: Мир. 1998. | * Каханер Д., Моулер К., Нэш С. Численные методы и программное обеспечение. М.: Мир. 1998. | ||
+ | * Стрижов В. В. Методы индуктивного порождения регрессионных моделей. М.: ВЦ РАН. 2008. 55 с. [[Media:strijov08ln.pdf|Брошюра, PDF]]. | ||
== Внешние ссылки == | == Внешние ссылки == | ||
- | + | [http://en.wikipedia.org/wiki/Least_squares Wikipedia.org, Least squares] | |
[[Категория:Регрессионный анализ]] | [[Категория:Регрессионный анализ]] | ||
+ | [[Категория:Энциклопедия анализа данных]] | ||
+ | [[Категория:Популярные и обзорные статьи]] |
Текущая версия
Метод наименьших квадратов метод нахождения оптимальных параметров линейной регрессии, таких, что сумма квадратов ошибок (регрессионных остатков) минимальна. Метод заключается в минимизации евклидова расстояния между двумя векторами — вектором восстановленных значений зависимой переменной и вектором фактических значений зависимой переменной.
Содержание |
Постановка задачи
Задача метода наименьших квадратов состоит в выборе вектора , минимизирующего ошибку . Эта ошибка есть расстояние от вектора до вектора . Вектор лежит в простанстве столбцов матрицы , так как есть линейная комбинация столбцов этой матрицы с коэффициентами . Отыскание решения по методу наименьших квадратов эквивалентно задаче отыскания такой точки , которая лежит ближе всего к и находится при этом в пространстве столбцов матрицы . Таким образом, вектор должен быть проекцией на пространство столбцов и вектор невязки должен быть ортогонален этому пространству. Ортогональность состоит в том, что каждый вектор в пространстве столбцов есть линейная комбинация столбцов с некоторыми коэффициентами , то есть это вектор . Для всех в пространстве , эти векторы должны быть перпендикулярны невязке :
Так как это равенство должно быть справедливо для произвольного вектора , то
Решение по методу наименьших квадратов несовместной системы , состоящей из уравнений с неизвестными, есть уравнение
которое называется нормальным уравнением. Если столбцы матрицы линейно независимы, то матрица обратима и единственное решение
Проекция вектора на пространство столбцов матрицы имеет вид
Матрица называется матрицей проектирования вектора на пространство столбцов матрицы . Эта матрица имеет два основных свойства: она идемпотентна, , и симметрична, . Обратное также верно: матрица, обладающая этими двумя свойствами есть матрица проектирования на свое пространство столбцов.
Пример построения линейной регрессии
Задана выборка таблица
Задана регрессионная модель квадратичный полином
Назначенная модель является линейной. Для нахождения оптимального значения вектора параметров выполняется следующая подстановка:
Тогда матрица значений подстановок свободной переменной будет иметь вид
Задан критерий качества модели: функция ошибки
Здесь вектор . Требуется найти такие параметры , которые бы доставляли минимум этому функционалу,
Требуется найти такие параметры , которые доставляют минимум норме вектора невязок .
Для того, чтобы найти минимум функции невязки, требуется приравнять ее производные к нулю. Производные данной функции по составляют
Это выражение совпадает с нормальным уравнением. Решение этой задачи должно удовлетворять системе линейных уравнений
После получения весов можно построить график найденной функции.
При обращении матрицы предполагается, что эта матрица невырождена и не плохо обусловлена. О том, как работать с плохо обусловленными матрицами см. в статье Сингулярное разложение.
Смотри также
- Линейная регрессия (пример)
- Нелинейная регрессия и метод наименьших квадратов
- Регрессионный анализ
- Анализ регрессионных остатков
- Сингулярное разложение
Литература
- Стренг Г. Линейная алгебра и ее применения. М.: Мир. 1980.
- Каханер Д., Моулер К., Нэш С. Численные методы и программное обеспечение. М.: Мир. 1998.
- Стрижов В. В. Методы индуктивного порождения регрессионных моделей. М.: ВЦ РАН. 2008. 55 с. Брошюра, PDF.