Метод наименьших квадратов
Материал из MachineLearning.
(→Литература) |
м (→Пример построения линейной регрессии) |
||
(12 промежуточных версий не показаны.) | |||
Строка 1: | Строка 1: | ||
- | '''Метод наименьших квадратов''' — метод нахождения оптимальных параметров [[регрессионный анализ|линейной регрессии]], таких, что | + | '''Метод наименьших квадратов''' — метод нахождения оптимальных параметров [[регрессионный анализ|линейной регрессии]], таких, что сумма квадратов ошибок ([[анализ регрессионных остатков|регрессионных остатков]]) минимальна. Метод заключается в минимизации евклидова расстояния <tex>\|A\mathbf{w}-\mathbf{y}\|</tex> между двумя векторами — вектором восстановленных значений зависимой переменной и вектором фактических значений зависимой переменной. |
== Постановка задачи == | == Постановка задачи == | ||
- | Задача метода наименьших квадратов состоит в выборе вектора <tex>\mathbf{w}</tex>, минимизирующего ошибку | + | Задача метода наименьших квадратов состоит в выборе вектора <tex>\mathbf{w}</tex>, минимизирующего ошибку <tex>S=\|A\mathbf{w}-\mathbf{y}\|^2</tex>. |
Эта ошибка есть расстояние от вектора <tex>\mathbf{y}</tex> до вектора <tex>A\mathbf{w}</tex>. | Эта ошибка есть расстояние от вектора <tex>\mathbf{y}</tex> до вектора <tex>A\mathbf{w}</tex>. | ||
Вектор <tex>A\mathbf{w}</tex> лежит в простанстве столбцов матрицы <tex>A</tex>, | Вектор <tex>A\mathbf{w}</tex> лежит в простанстве столбцов матрицы <tex>A</tex>, | ||
Строка 10: | Строка 10: | ||
которая лежит ближе всего к <tex>\mathbf{y}</tex> и находится при этом в пространстве столбцов матрицы <tex>A</tex>. | которая лежит ближе всего к <tex>\mathbf{y}</tex> и находится при этом в пространстве столбцов матрицы <tex>A</tex>. | ||
Таким образом, вектор <tex>\mathbf{p}</tex> должен быть проекцией <tex>\mathbf{y}</tex> на пространство столбцов и вектор невязки <tex>A\mathbf{w}-\mathbf{y}</tex> | Таким образом, вектор <tex>\mathbf{p}</tex> должен быть проекцией <tex>\mathbf{y}</tex> на пространство столбцов и вектор невязки <tex>A\mathbf{w}-\mathbf{y}</tex> | ||
- | должен быть | + | должен быть ортогонален этому пространству. Ортогональность состоит в том, что каждый вектор в пространстве столбцов |
есть линейная комбинация столбцов с некоторыми коэффициентами <tex>v_1,...,v_N</tex>, то есть это вектор <tex>A\mathbf{v}</tex>. | есть линейная комбинация столбцов с некоторыми коэффициентами <tex>v_1,...,v_N</tex>, то есть это вектор <tex>A\mathbf{v}</tex>. | ||
Для всех <tex>v</tex> в пространстве <tex>A\mathbf{v}</tex>, эти векторы должны быть перпендикулярны невязке <tex>A{\mathbf{w}}-\mathbf{y}</tex>: | Для всех <tex>v</tex> в пространстве <tex>A\mathbf{v}</tex>, эти векторы должны быть перпендикулярны невязке <tex>A{\mathbf{w}}-\mathbf{y}</tex>: | ||
<center><tex>(A\mathbf{v})^T(A{\mathbf{w}}-\mathbf{y})=\mathbf{v}^T(A^TA{\mathbf{w}}-A^T\mathbf{y})=0.</tex></center> | <center><tex>(A\mathbf{v})^T(A{\mathbf{w}}-\mathbf{y})=\mathbf{v}^T(A^TA{\mathbf{w}}-A^T\mathbf{y})=0.</tex></center> | ||
- | Так как это | + | Так как это равенство должно быть справедливо для произвольного вектора <tex>\mathbf{v}</tex>, то |
<center><tex>A^TA{\mathbf{w}}-A^T\mathbf{y}=0.</tex></center> | <center><tex>A^TA{\mathbf{w}}-A^T\mathbf{y}=0.</tex></center> | ||
Решение по методу наименьших квадратов несовместной системы <tex>A\mathbf{w}=\mathbf{y}</tex>, | Решение по методу наименьших квадратов несовместной системы <tex>A\mathbf{w}=\mathbf{y}</tex>, | ||
Строка 29: | Строка 29: | ||
Обратное также верно: матрица, обладающая этими двумя свойствами есть матрица проектирования на свое пространство столбцов. | Обратное также верно: матрица, обладающая этими двумя свойствами есть матрица проектирования на свое пространство столбцов. | ||
- | == Пример | + | == Пример построения линейной регрессии == |
Задана выборка — таблица | Задана выборка — таблица | ||
Строка 42: | Строка 42: | ||
<center><tex>A= \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ \cdots & \cdots & \cdots \\ a_{M 1} & a_{M 2} & a_{M 3} \\ \end{array} \right). </tex></center> | <center><tex>A= \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ \cdots & \cdots & \cdots \\ a_{M 1} & a_{M 2} & a_{M 3} \\ \end{array} \right). </tex></center> | ||
- | Задан критерий качества модели: | + | Задан критерий качества модели: функция ошибки |
<center><tex> S=\sum_{i=1}^M(f(\mathbf{w},x_i)-y_i)^2=\|A\mathbf{w}-\mathbf{y}\|^2\longrightarrow\min. </tex></center> | <center><tex> S=\sum_{i=1}^M(f(\mathbf{w},x_i)-y_i)^2=\|A\mathbf{w}-\mathbf{y}\|^2\longrightarrow\min. </tex></center> | ||
Здесь вектор <tex>\mathbf{y}=\langle y_1,\ldots,y_M\rangle</tex>. Требуется найти такие параметры <tex>\mathbf{w}</tex>, которые бы доставляли | Здесь вектор <tex>\mathbf{y}=\langle y_1,\ldots,y_M\rangle</tex>. Требуется найти такие параметры <tex>\mathbf{w}</tex>, которые бы доставляли | ||
Строка 55: | Строка 55: | ||
по <tex>\mathbf{w}</tex> составляют | по <tex>\mathbf{w}</tex> составляют | ||
<center><tex> \frac{\partial S}{\partial\mathbf{w}}=-2A^T\mathbf{y}+2A^TA\mathbf{w}=0. </tex></center> | <center><tex> \frac{\partial S}{\partial\mathbf{w}}=-2A^T\mathbf{y}+2A^TA\mathbf{w}=0. </tex></center> | ||
- | Это выражение | + | Это выражение совпадает с нормальным уравнением. Решение |
этой задачи должно удовлетворять системе линейных уравнений | этой задачи должно удовлетворять системе линейных уравнений | ||
<center><tex> A^TA\mathbf{w}=A^T\mathbf{y}, </tex></center> то есть, <center><tex> \mathbf{w}=(A^TA)^{-1}(A^T\mathbf{y}). </tex></center> | <center><tex> A^TA\mathbf{w}=A^T\mathbf{y}, </tex></center> то есть, <center><tex> \mathbf{w}=(A^TA)^{-1}(A^T\mathbf{y}). </tex></center> | ||
Строка 65: | Строка 65: | ||
== Смотри также == | == Смотри также == | ||
* [[Линейная регрессия (пример)]] | * [[Линейная регрессия (пример)]] | ||
+ | * [[Нелинейная регрессия]] и метод наименьших квадратов | ||
* [[Регрессионный анализ]] | * [[Регрессионный анализ]] | ||
* [[Анализ регрессионных остатков]] | * [[Анализ регрессионных остатков]] | ||
Строка 79: | Строка 80: | ||
[[Категория:Регрессионный анализ]] | [[Категория:Регрессионный анализ]] | ||
[[Категория:Энциклопедия анализа данных]] | [[Категория:Энциклопедия анализа данных]] | ||
+ | [[Категория:Популярные и обзорные статьи]] |
Текущая версия
Метод наименьших квадратов — метод нахождения оптимальных параметров линейной регрессии, таких, что сумма квадратов ошибок (регрессионных остатков) минимальна. Метод заключается в минимизации евклидова расстояния между двумя векторами — вектором восстановленных значений зависимой переменной и вектором фактических значений зависимой переменной.
Содержание[убрать] |
Постановка задачи
Задача метода наименьших квадратов состоит в выборе вектора , минимизирующего ошибку
.
Эта ошибка есть расстояние от вектора
до вектора
.
Вектор
лежит в простанстве столбцов матрицы
,
так как
есть линейная комбинация столбцов этой матрицы с коэффициентами
.
Отыскание решения
по методу наименьших квадратов эквивалентно задаче отыскания такой точки
,
которая лежит ближе всего к
и находится при этом в пространстве столбцов матрицы
.
Таким образом, вектор
должен быть проекцией
на пространство столбцов и вектор невязки
должен быть ортогонален этому пространству. Ортогональность состоит в том, что каждый вектор в пространстве столбцов
есть линейная комбинация столбцов с некоторыми коэффициентами
, то есть это вектор
.
Для всех
в пространстве
, эти векторы должны быть перпендикулярны невязке
:
Так как это равенство должно быть справедливо для произвольного вектора , то
Решение по методу наименьших квадратов несовместной системы ,
состоящей из
уравнений с
неизвестными, есть уравнение
которое называется нормальным уравнением.
Если столбцы матрицы линейно независимы, то матрица
обратима
и единственное решение
Проекция вектора на пространство столбцов матрицы имеет вид
Матрица называется матрицей проектирования вектора
на пространство столбцов матрицы
.
Эта матрица имеет два основных свойства: она идемпотентна,
, и симметрична,
.
Обратное также верно: матрица, обладающая этими двумя свойствами есть матрица проектирования на свое пространство столбцов.
Пример построения линейной регрессии
Задана выборка — таблица
Задана регрессионная модель — квадратичный полином
Назначенная модель является линейной. Для нахождения оптимального
значения вектора параметров выполняется следующая подстановка:
Тогда матрица значений подстановок свободной переменной
будет иметь вид
Задан критерий качества модели: функция ошибки
Здесь вектор . Требуется найти такие параметры
, которые бы доставляли
минимум этому функционалу,
Требуется найти такие параметры , которые доставляют минимум
— норме вектора
невязок
.
Для того, чтобы найти минимум функции невязки, требуется
приравнять ее производные к нулю. Производные данной функции
по составляют
Это выражение совпадает с нормальным уравнением. Решение этой задачи должно удовлетворять системе линейных уравнений
После получения весов можно построить график найденной функции.
При обращении матрицы предполагается, что эта
матрица невырождена и не плохо обусловлена. О том, как работать с плохо обусловленными матрицами см. в статье Сингулярное разложение.
Смотри также
- Линейная регрессия (пример)
- Нелинейная регрессия и метод наименьших квадратов
- Регрессионный анализ
- Анализ регрессионных остатков
- Сингулярное разложение
Литература
- Стренг Г. Линейная алгебра и ее применения. М.: Мир. 1980.
- Каханер Д., Моулер К., Нэш С. Численные методы и программное обеспечение. М.: Мир. 1998.
- Стрижов В. В. Методы индуктивного порождения регрессионных моделей. М.: ВЦ РАН. 2008. 55 с. Брошюра, PDF.