Машина опорных векторов
Материал из MachineLearning.
(→Линейно разделимая выборка) |
(→Линейно неразделимая выборка) |
||
Строка 108: | Строка 108: | ||
В 1992 году в работе Бернарда Бозера (Boser B.), Изабелл Гийон (Guyon I.) и [[Вапник, Владимир Наумович|Владимира Вапника]] был предложен способ адаптации машины опорных векторов для нелинейного разделения классов. В этом случае нужно вложить пространство признаков <tex>R^n </tex> в пространство <tex>H</tex> большей размерности с помощью отображения <tex>\varphi:R^n \to H</tex>. Будем считать, что <tex>H</tex> пространство со скалярным произведением. Тогда, рассматривая алгоритм опорных векторов для образов <tex>\varphi ({\bf{x}}_i ) </tex> обучающей выборки, сведем решение задачи к линейно разделимому случаю, т.е. разделяющую функцию будем искать в виде | В 1992 году в работе Бернарда Бозера (Boser B.), Изабелл Гийон (Guyon I.) и [[Вапник, Владимир Наумович|Владимира Вапника]] был предложен способ адаптации машины опорных векторов для нелинейного разделения классов. В этом случае нужно вложить пространство признаков <tex>R^n </tex> в пространство <tex>H</tex> большей размерности с помощью отображения <tex>\varphi:R^n \to H</tex>. Будем считать, что <tex>H</tex> пространство со скалярным произведением. Тогда, рассматривая алгоритм опорных векторов для образов <tex>\varphi ({\bf{x}}_i ) </tex> обучающей выборки, сведем решение задачи к линейно разделимому случаю, т.е. разделяющую функцию будем искать в виде | ||
- | + | ::<tex>f({\bf{x}}) = \left( {{\bf{w}},\varphi ({\bf{x}})} \right) + b</tex>, <tex>{\bf{w}} = \sum\limits_{i = 1}^N {\lambda _i y_i \varphi ({\bf{x}}_i )} </tex>, | |
где коэффициенты <tex>\lambda _i </tex> зависят от <tex>y_i </tex> и от значения <tex>\left( {\varphi ({\bf{x}}_i ),\varphi ({\bf{x}}_j )} \right) </tex>. Таким образом, для нахождения решающей функции нужно знать значения скалярных произведений <tex>\left( {\varphi ({\bf{x}}_i ),\varphi ({\bf{x}}_j )} \right) </tex>. Для этого исследуем свойства функции <tex>K({\bf{x}},{\bf{y}}) = \left( {\varphi ({\bf{x}}),\varphi ({\bf{y}})} \right) </tex>, которая называется ядром. Следующая теорема, известная в теории интегральных операторов и доказанная [http://en.wikipedia.org/wiki/James_Mercer_(mathematician) Джеймсом Мерсером] в 1909 году, полностью характеризует ядро. | где коэффициенты <tex>\lambda _i </tex> зависят от <tex>y_i </tex> и от значения <tex>\left( {\varphi ({\bf{x}}_i ),\varphi ({\bf{x}}_j )} \right) </tex>. Таким образом, для нахождения решающей функции нужно знать значения скалярных произведений <tex>\left( {\varphi ({\bf{x}}_i ),\varphi ({\bf{x}}_j )} \right) </tex>. Для этого исследуем свойства функции <tex>K({\bf{x}},{\bf{y}}) = \left( {\varphi ({\bf{x}}),\varphi ({\bf{y}})} \right) </tex>, которая называется ядром. Следующая теорема, известная в теории интегральных операторов и доказанная [http://en.wikipedia.org/wiki/James_Mercer_(mathematician) Джеймсом Мерсером] в 1909 году, полностью характеризует ядро. | ||
Строка 114: | Строка 114: | ||
'''Теорема 1.''' Функция <tex>K({\bf{x}},{\bf{y</tex> является ядром тогда и только тогда, когда она удовлетворяет условиям: | '''Теорема 1.''' Функция <tex>K({\bf{x}},{\bf{y</tex> является ядром тогда и только тогда, когда она удовлетворяет условиям: | ||
- | + | # <tex>K({\bf{x}},{\bf{y}}) = K({\bf{y}},{\bf{x}})</tex> (симметричность); | |
- | + | # <tex>K({\bf{x}},{\bf{y}})</tex> неотрицательно определена, т.е. матрица <tex>K = (K_{i,j} ) </tex>, <tex>K_{i,j} = K({\bf{x}}_i ,{\bf{x}}_j ) </tex> является неотрицательно определенной для любых векторов <tex>{\bf{x}}_1 ,...,{\bf{x}}_m </tex>. | |
- | + | ||
'''Упражнение.''' Докажите, что следующие функции являются ядрами: | '''Упражнение.''' Докажите, что следующие функции являются ядрами: | ||
- | + | # <tex>K({\bf{x}},{\bf{y}}) = ({\bf{x}},{\bf{y}})</tex>; | |
- | + | # <tex>K({\bf{x}},{\bf{y}}) = \varphi ({\bf{x}})\varphi ({\bf{y}})</tex>; | |
- | + | # <tex>K({\bf{x}},{\bf{y}}) = C > 0</tex>. | |
- | + | ||
- | + | ||
'''Теорема 2.''' Справедливы следующие свойства ядер: | '''Теорема 2.''' Справедливы следующие свойства ядер: | ||
- | + | # сумма ядер – ядро; | |
- | + | # произведение ядер – ядро; | |
- | + | # сумма равномерно сходящегося ряда ядер – ядро; | |
- | + | # композиция ядра и любого отображения (т.е. <tex>K(\psi ({\bf{x}}),\psi ({\bf{y}}))</tex>) – ядро. | |
- | + | ||
- | + | ||
- | + | ||
'''Следствие.''' | '''Следствие.''' | ||
- | + | # многочлен с положительными коэффициентами от ядра – ядро; | |
+ | # экспонента от ядра – ядро; | ||
+ | # функция <tex>e^{ - \left\| {{\bf{x}} - {\bf{y}}} \right\|^2 } </tex> ядро. | ||
- | 2) | + | '''Доказательство.''' Утверждения 1 и 2 следуют из пунктов 1, 2 и 3 теоремы. Справедливость утверждения 3 вытекает из того, что <tex>e^{ - \left\| {{\bf{x}} - {\bf{y}}} \right\|^2 } = e^{ - (x_1 - y_1 )^2 } \cdot ... \cdot e^{ - (x_n - y_n )^2 } </tex>, а симметричность и положительная определенность функций <tex>e^{ - (x_i - y_i )^2 } </tex> проверяется непосредственно. |
- | |||
- | |||
- | |||
Любые <tex>m + 1 </tex> векторов могут быть разделены на любые два класса с помощью мономиального отображения степени не больше <tex>m</tex>. Поэтому, если <tex>\varphi:{\bf{x}} \to \left\{ {x_1^{i_1 } ...x_n^{i_n } } \right\}</tex>, <tex>i_1 + ... + i_n \le m</tex> такое отображение, то ядро, соответствующее этому отображению можно искать в виде | Любые <tex>m + 1 </tex> векторов могут быть разделены на любые два класса с помощью мономиального отображения степени не больше <tex>m</tex>. Поэтому, если <tex>\varphi:{\bf{x}} \to \left\{ {x_1^{i_1 } ...x_n^{i_n } } \right\}</tex>, <tex>i_1 + ... + i_n \le m</tex> такое отображение, то ядро, соответствующее этому отображению можно искать в виде | ||
- | + | ::<tex>K({\bf{x}},{\bf{y}}) = \left( {\varphi ({\bf{x}}),\varphi ({\bf{y}})} \right) = \left( {({\bf{x}},{\bf{y}}) + 1} \right)^m </tex>. | |
Таким образом, это ядро гарантирует разделение любых <tex>m + 1</tex> векторов на любые два класса. В этом случае нахождение разделяющих функций осуществляется следующим образом: | Таким образом, это ядро гарантирует разделение любых <tex>m + 1</tex> векторов на любые два класса. В этом случае нахождение разделяющих функций осуществляется следующим образом: | ||
Строка 154: | Строка 147: | ||
1) найдем наибольшее значение функции | 1) найдем наибольшее значение функции | ||
- | + | ::<tex>\Phi ({\bf{\lambda }}) = \sum\nolimits_{i = 1}^N {\lambda _i } - 0.5\sum\nolimits_{i,j = 1}^N {\lambda _i \lambda _j y_i y_j K({\bf{x}}_i ,{\bf{x}}_j )} </tex> | |
при условии <tex>\sum\nolimits_{i = 1}^N {\lambda _i y_i } = 0</tex> в области <tex>\lambda _i \ge 0\;\;(i = 1,...,N) </tex>, получим вектор <tex>{\bf{\lambda }}^{(0)} = \left( {\lambda _1^{(0)} ,...,\lambda _N^{(0)} } \right) </tex>; | при условии <tex>\sum\nolimits_{i = 1}^N {\lambda _i y_i } = 0</tex> в области <tex>\lambda _i \ge 0\;\;(i = 1,...,N) </tex>, получим вектор <tex>{\bf{\lambda }}^{(0)} = \left( {\lambda _1^{(0)} ,...,\lambda _N^{(0)} } \right) </tex>; | ||
Строка 160: | Строка 153: | ||
2) разделяющую функцию ищем в виде | 2) разделяющую функцию ищем в виде | ||
- | + | ::<tex>f({\bf{x}}) = ({\bf{w}},\varphi ({\bf{x}})) + b = \left( {\sum\nolimits_{i = 1}^N {\lambda _i^0 y_i \varphi ({\bf{x}}_i )} ,\varphi ({\bf{x}})} \right) + b = </tex> | |
- | + | ::<tex>\sum\nolimits_{i = 1}^N {\lambda _i^0 y_i \left( {\varphi ({\bf{x}}_i ),\varphi ({\bf{x}})} \right)} + y_r^{ - 1} - \sum\nolimits_{i = 1}^N {\lambda _i^0 y_i \left( {\varphi ({\bf{x}}_i ),\varphi ({\bf{x}}_r )} \right)} = </tex> | |
- | + | ::<tex>\sum\nolimits_{i = 1}^N {\lambda _i^0 y_i K({\bf{x}}_i ,{\bf{x}})} + y_r^{ - 1} - \sum\nolimits_{i = 1}^N {\lambda _i^0 y_i K({\bf{x}}_i ,{\bf{x}}_r )} </tex>. | |
'''Преимущества и недостатки SVM:''' | '''Преимущества и недостатки SVM:''' | ||
- | + | * это наиболее быстрый метод нахождения решающих функций; | |
- | + | * метод сводится к решению задачи квадратичного программирования в выпуклой области, которая всегда имеет единственное решение; | |
- | + | * метод находит разделяющую полосу максимальной ширины, что позволяет в дальнейшем осуществлять более уверенную классификацию; | |
- | + | * метод чувствителен к шумам и стандартизации данных; | |
- | + | * не существует общего подхода к автоматическому выбору ядра (и построению спрямляющего подпространства в целом) в случае линейной неразделимости классов. | |
- | + | ||
- | + | ||
- | + | ||
- | + | ||
'''Пример.''' Методом опорных векторов разделите классы <tex>\omega _1 = \left\{ {{\bf{x}}_1 ,{\bf{x}}_2 } \right\}</tex> и <tex>\omega _2 = \left\{ {{\bf{x}}_3 } \right\}</tex>, если <tex>{\bf{x}}_1 = (0,0)^T </tex>, <tex>{\bf{x}}_2 = (2,0)^T </tex>, <tex>{\bf{x}}_3 = (1,0)^T </tex> (рис.1).[[Изображение:Pic_n_1.jpg|thumb]] | '''Пример.''' Методом опорных векторов разделите классы <tex>\omega _1 = \left\{ {{\bf{x}}_1 ,{\bf{x}}_2 } \right\}</tex> и <tex>\omega _2 = \left\{ {{\bf{x}}_3 } \right\}</tex>, если <tex>{\bf{x}}_1 = (0,0)^T </tex>, <tex>{\bf{x}}_2 = (2,0)^T </tex>, <tex>{\bf{x}}_3 = (1,0)^T </tex> (рис.1).[[Изображение:Pic_n_1.jpg|thumb]] | ||
Строка 182: | Строка 171: | ||
'''Решение.''' Так как количество векторов обучающей выборки равно трем, то <tex>m = 2</tex> и в качестве ядра возьмем функцию <tex>K({\bf{x}},{\bf{y}}) = (({\bf{x}},{\bf{y}}) + 1)^2 </tex>. Тогда | '''Решение.''' Так как количество векторов обучающей выборки равно трем, то <tex>m = 2</tex> и в качестве ядра возьмем функцию <tex>K({\bf{x}},{\bf{y}}) = (({\bf{x}},{\bf{y}}) + 1)^2 </tex>. Тогда | ||
- | + | ::<tex>\Phi ({\bf{\lambda }}) = \lambda _1 + \lambda _2 + \lambda _3 - 0.5(\lambda _1^2 + 25\lambda _2^2 + 4\lambda _3^2 + 2\lambda _1 \lambda _2 - 2\lambda _1 \lambda _3 - 18\lambda _2 \lambda _3 ) = \left| \begin{matrix}{l} \\ \lambda _1 + \lambda _2 =\lambda _3\\\\\end{matrix}\right|= </tex> <tex>2\lambda _1 + 2\lambda _2 - 0.5(3\lambda _1^2 + 11\lambda _2^2 - 10\lambda _1 \lambda _2 )</tex>. | |
Составим нормальную систему | Составим нормальную систему | ||
- | + | ::<tex>\left\{\begin{matrix}{l}\frac{{\partial\Phi}}{{\partial\lambda_1}}=0,\\\frac{{\partial\Phi}}{{\partial\lambda_2}}=0\\\end{matrix}\right.\Leftrightarrow\left\{\begin{matrix}{l}2-3\lambda_1 + 5\lambda_2=0,\\2-11\lambda_2+5\lambda_1=0\\\end{matrix}\right.\Leftrightarrow \left\{\begin{matrix}{l}\lambda_1^{(0)}= 4,\\\lambda_2^{(0)}=2,\\\lambda_3^{(0)}=6.\\\end{matrix}\right.</tex> | |
Можно показать, что в точке <tex>{\bf{\lambda }}^{(0)} </tex> будет достигаться наибольшее значение функции <tex>\Phi ({\bf{\lambda }})</tex> при условии <tex>\lambda _1 + \lambda _2 = \lambda _3 </tex> в области <tex>\lambda _i \ge 0\;\;(i = 1,2,3) </tex>. Следовательно, | Можно показать, что в точке <tex>{\bf{\lambda }}^{(0)} </tex> будет достигаться наибольшее значение функции <tex>\Phi ({\bf{\lambda }})</tex> при условии <tex>\lambda _1 + \lambda _2 = \lambda _3 </tex> в области <tex>\lambda _i \ge 0\;\;(i = 1,2,3) </tex>. Следовательно, | ||
- | + | ::<tex>f({\bf{x}}) = 4K({\bf{x}}_1 ,{\bf{x}}) + 2K({\bf{x}}_2 ,{\bf{x}}) - 6K({\bf{x}}_3 ,{\bf{x}}) + 1 - </tex><tex>\left({4K({\bf{x}}_1 ,{\bf{x}}_1 ) + 2K({\bf{x}}_2 ,{\bf{x}}_1 ) - 6K({\bf{x}}_3 ,{\bf{x}}_1 )} \right) = </tex> | |
- | + | ::<tex>4 \cdot 1 + 2(2x_1 + 1)^2 - 6(x_1 + 1)^2 + 1 - </tex><tex> (4 + 2 - 6) = 2x_1^2 - 4x_1 + 1</tex>. | |
Таким образом, <tex>f({\bf{x}}) = 2x_1^2 - 4x_1 + 1</tex> и <tex>f({\bf{x}}) = 0 \Leftrightarrow x_1 = 1 \pm {{\sqrt 2 }/2</tex>, <tex>f_1 ({\bf{x}}) = f({\bf{x}}) + 1 = (x_1 - 1)^2 </tex>, <tex>f_2 ({\bf{x}}) = f({\bf{x}}) - 1 = </tex> <tex>2x_1 (x_1 - 2) </tex>. [[Изображение:Pic_n_2.jpg|thumb]]Тогда <tex>f_1 ({\bf{x}}) = 0 \Leftrightarrow </tex> <tex>x_1 = 1</tex>, <tex>f_2 ({\bf{x}}) = 0 \Leftrightarrow x_1 = 0</tex> или <tex>x_1 = 2</tex>. Если рассмотреть вложение двумерного пространства признаков в трехмерное по правилу <tex> (x_1 ,x_2 ) \to (x_1 ,x_2 ,y) </tex> и проекцию последнего на плоскость <tex>x_1 Oy</tex>, то можно проиллюстрировать разделение элементов обучающей выборки графиками функций <tex>y = f(x_1 ) </tex>, <tex>y = f_i (x_1 ) </tex> <tex> (i = 1,2) </tex> (см. рис.2). | Таким образом, <tex>f({\bf{x}}) = 2x_1^2 - 4x_1 + 1</tex> и <tex>f({\bf{x}}) = 0 \Leftrightarrow x_1 = 1 \pm {{\sqrt 2 }/2</tex>, <tex>f_1 ({\bf{x}}) = f({\bf{x}}) + 1 = (x_1 - 1)^2 </tex>, <tex>f_2 ({\bf{x}}) = f({\bf{x}}) - 1 = </tex> <tex>2x_1 (x_1 - 2) </tex>. [[Изображение:Pic_n_2.jpg|thumb]]Тогда <tex>f_1 ({\bf{x}}) = 0 \Leftrightarrow </tex> <tex>x_1 = 1</tex>, <tex>f_2 ({\bf{x}}) = 0 \Leftrightarrow x_1 = 0</tex> или <tex>x_1 = 2</tex>. Если рассмотреть вложение двумерного пространства признаков в трехмерное по правилу <tex> (x_1 ,x_2 ) \to (x_1 ,x_2 ,y) </tex> и проекцию последнего на плоскость <tex>x_1 Oy</tex>, то можно проиллюстрировать разделение элементов обучающей выборки графиками функций <tex>y = f(x_1 ) </tex>, <tex>y = f_i (x_1 ) </tex> <tex> (i = 1,2) </tex> (см. рис.2). |
Версия 09:32, 8 августа 2008
Машина опорных векторов — является одной из наиболее популярных методологий обучения по прецедентам, предложенной В. Н. Вапником и известной в англоязычной литературе под названием SVM (Support Vector Machine).
Оптимальная разделяющая гиперплоскость. Понятие зазора между классами (margin). Случай линейной разделимости. Задача квадратичного программирования. Опорные векторы. Случай отсутствия линейной разделимости. Функции ядра (kernel functions), спрямляющее пространство, теорема Мерсера. Способы построения ядер. Примеры ядер. Сопоставление SVM и нейронной RBF-сети. Обучение SVM методом активных ограничений. SVM-регрессия.
Содержание |
Машина опорных векторов в задачах классификации
Понятие оптимальной разделяющей гиперплоскости
Линейно разделимая выборка
Рассмотрим задачу нахождения наилучшего в некотором смысле разделения множества векторов на два класса с помощью линейной решающей функции. Пусть имеется множество прецедентов , где - обучающая выборка, а - множество меток двух классов и . Требуется по обучающей выборке построить линейную решающую функции, т.е. такую линейную функцию , которая удовлетворяла бы условию
- для всех ,
- для всех .
Без ограничения общности можно считать, что метки классов равны
Тогда поставленную выше задачу можно переформулировать следующим образом. Требуется найти линейную решающую функцию , которая бы удовлетворяла условию
- для всех
Умножая, если нужно функцию на некоторое положительное число нетрудно видеть, что система неравенств (1) равносильна системе
- для всех .
Кроме того, так как линейная функция, то последняя система неравенств примет вид
- ,
Для надежного разделения классов необходимо чтобы расстояние между разделяющими гиперплоскостями было как можно большим, т.е. была как можно меньше. Таким образом, ставится задача нахождения минимума квадратичного функционала (коэффициент 0.5 вводится для удобства дифференцирования) в выпуклом многограннике, задаваемым системой неравенств (2). В выпуклом множестве квадратичный функционал всегда имеет единственный минимум (если это множество не пусто). Из теоремы Куна-Таккера следует, что решение этой оптимизационной задачи равносильно поиску седловой точки лагранжиана
в ортанте по множителям Лагранжа , при условии, что
- .
Последнее условие равносильно тому, что
- или
Из необходимых условий существования седловой точки (полагая ) имеем
Откуда следует, что вектор следует искать в виде
- ,
причем
- .
В силу (3) в сумму (4) с ненулевыми коэффициентами входят только те векторы, для которых . Такие векторы называют опорными, так как это именно те векторы, через которые будут проходить граничные гиперплоскости, разделяющие классы. Для найденного весового вектора смещение можно вычислить как для любого опорного вектора .
Найдем значения множителей Лагранжа, как критических точек лагранжиана. Для этого подставим (4) и (5) в лагранжиан, получим
- .
Таким образом, задача сводится к нахождению критических точек функции
- .
Так как эта функция представляет собой разность линейной и квадратичной функций, причем квадратичная функция отрицательно определена, то требуется найти наибольшее значение функции при условии в области . Существует много алгоритмов (в теории оптимизации) решения этой задачи (например, градиентные методы, метод покоординатного спуска и т.д.).
- Замечания.
- Суммирования в (6) осуществляются не по всем векторам, а только по опорным, которых может быть гораздо меньше, чем обучающих.
- Линейная решающая функция в результате имеет вид , где зависят только и от значений скалярного произведения , причем суммирования осуществляются только по опорным векторам.
- После того, как решающая функция вычислена, вектор следует относить классу , если и классу , если . Вероятность неправильной классификации можно оценить с помощью некоторой непрерывно убывающей функции , удовлетворяющей условиям: , при . Тогда вероятность неправильной классификации вектора будет равна , если (), где : , . То есть , если .
- В такой постановке алгоритм линейный классификации был разработан В. Вапником в 1963 году.
- Пример. Методом опорных векторов разделите классы и , если , , .
- Решение. Положим , , . Тогда функция будет иметь вид
- ,
причем . Тогда . Составим и решим нормальную систему для функции :
Если же , то и , при . Следовательно, , и .
Таким образом, наибольшее значение функции в области при условии достигается в точке . В этом случае,
Таким образом, и . Ширина разделяющей полосы будет равна , а прямые и будут ее границами (см. рис.2).
Линейно неразделимая выборка
В 1992 году в работе Бернарда Бозера (Boser B.), Изабелл Гийон (Guyon I.) и Владимира Вапника был предложен способ адаптации машины опорных векторов для нелинейного разделения классов. В этом случае нужно вложить пространство признаков в пространство большей размерности с помощью отображения . Будем считать, что пространство со скалярным произведением. Тогда, рассматривая алгоритм опорных векторов для образов обучающей выборки, сведем решение задачи к линейно разделимому случаю, т.е. разделяющую функцию будем искать в виде
- , ,
где коэффициенты зависят от и от значения . Таким образом, для нахождения решающей функции нужно знать значения скалярных произведений . Для этого исследуем свойства функции , которая называется ядром. Следующая теорема, известная в теории интегральных операторов и доказанная Джеймсом Мерсером в 1909 году, полностью характеризует ядро.
Теорема 1. Функция является ядром тогда и только тогда, когда она удовлетворяет условиям:
- (симметричность);
- неотрицательно определена, т.е. матрица , является неотрицательно определенной для любых векторов .
Упражнение. Докажите, что следующие функции являются ядрами:
- ;
- ;
- .
Теорема 2. Справедливы следующие свойства ядер:
- сумма ядер – ядро;
- произведение ядер – ядро;
- сумма равномерно сходящегося ряда ядер – ядро;
- композиция ядра и любого отображения (т.е. ) – ядро.
Следствие.
- многочлен с положительными коэффициентами от ядра – ядро;
- экспонента от ядра – ядро;
- функция ядро.
Доказательство. Утверждения 1 и 2 следуют из пунктов 1, 2 и 3 теоремы. Справедливость утверждения 3 вытекает из того, что , а симметричность и положительная определенность функций проверяется непосредственно.
Любые векторов могут быть разделены на любые два класса с помощью мономиального отображения степени не больше . Поэтому, если , такое отображение, то ядро, соответствующее этому отображению можно искать в виде
- .
Таким образом, это ядро гарантирует разделение любых векторов на любые два класса. В этом случае нахождение разделяющих функций осуществляется следующим образом:
1) найдем наибольшее значение функции
при условии в области , получим вектор ;
2) разделяющую функцию ищем в виде
- .
Преимущества и недостатки SVM:
- это наиболее быстрый метод нахождения решающих функций;
- метод сводится к решению задачи квадратичного программирования в выпуклой области, которая всегда имеет единственное решение;
- метод находит разделяющую полосу максимальной ширины, что позволяет в дальнейшем осуществлять более уверенную классификацию;
- метод чувствителен к шумам и стандартизации данных;
- не существует общего подхода к автоматическому выбору ядра (и построению спрямляющего подпространства в целом) в случае линейной неразделимости классов.
Решение. Так как количество векторов обучающей выборки равно трем, то и в качестве ядра возьмем функцию . Тогда
- .
Составим нормальную систему
Можно показать, что в точке будет достигаться наибольшее значение функции при условии в области . Следовательно,
- .
Ядра и спрямляющие пространства
Наиболее распространенные ядра:
- Полиномиальное:
- Полиномиальное:
- Радиальное: , для
Алгоритмы настройки
Машина опорных векторов в задачах регрессии
Программные реализации
Литература
- Вапник В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979. — 448 с. (подробнее)
- Hastie, T., Tibshirani, R., Friedman, J. The Elements of Statistical Learning, 2nd edition. — Springer, 2009. — 533 p. (подробнее)