< Участник:Allegra(Различия между версиями)
|
|
Строка 1: |
Строка 1: |
- | '''Теорема Новикова'''-теорема сходимости персептрона.
| |
| | | |
- | == Историческая справка ==
| |
- | В 1957 г. Ф. Розенблатт предложил эвристику обучения нейрона, основанную на принципах нейрофизиологии: при ошибках алгоритма на обучающей выборке «веса» соответствующих обучающих объектов изменяются определенным образом, чтобы «связь» не ослабевала, подобно связи между двуми нейронами. Обучение происходит до тех пор, пока веса не перестанут изменяться. В этом состоит суть [[Однослойный персептрон (пример)|однослойного персептрона Розенблатта]].
| |
- |
| |
- | == Правило Хэбба ==
| |
- | Рассматривается некоторая модификация [[Метод стохастического градиента|метода стохастического градиента]].
| |
- |
| |
- | Пусть множество ответов алгоритма <tex>$ Y=\{-1,+1\}$</tex>, <tex>$x$</tex>- некоторый объект обучающей выборки <tex>$X^l=\{x_i, y_i\}_{i=1}^l$</tex>, <tex>$ y_i=y_{i}^*(x_i)\in Y $</tex>- классы, которым принадлежат эти объекты.
| |
- |
| |
- | И пусть алгоритм классификации имеет вид <tex>$a(x, w)=sign(\<x,w\>)$</tex>, где <tex>$\<x,w\>$</tex>- скалярное произведение объекта и его «веса». Таким образом, алгоритм классификации ошибается, если знак этого скалярного произведения не совпал со знаком класса, которому принадлежит объект <tex>$x$</tex>, то есть если <tex>$\<x,w\>y<0$</tex>.
| |
- |
| |
- | Тогда правило модификации весов примет вид:
| |
- | : если <tex>$\<x,w\>y<0$</tex>, то:
| |
- | :: <tex>$w:=w+\eta x y$</tex>.
| |
- | Это правило носит название '''правила Хэбба'''.
| |
- |
| |
- | Для правила Хэбба справедлива теорема Новикова о сходимости.
| |
- |
| |
- | == Теорема сходимости (теорема Новикова) ==
| |
- | Пусть <tex>$X=R^{n+1}, Y=\{-1,+1\}$</tex> и выборка <tex>$X^l$</tex> линейно разделима, то есть существует вектор <tex>$w*$</tex> и число <tex>$\delta >0$</tex> такие, что <tex>$\<x_i,w*\>y_i>\delta$</tex> <tex>$\forall i=1\dots l$</tex>.
| |
- |
| |
- | Тогда алгоритм, основанный на [[Метод стохастического градиента|методе стохастического градиента]], с правилом Хэбба находит вектор весов, разделяющий обучающую выборку безошибочно за конечное число итераций при любом начальном приближении <tex>$w^{0}$</tex> и при любом <tex>$\eta>0$</tex>, независимо от порядка предъявления объектов обучающей выборки.
| |
- |
| |
- | В частности, при нулевом начальном приближении <tex>$w^{0}=0$</tex> число итераций алгоритма не превосходит
| |
- | <tex>$n_{max}=$</tex>
| |
- | <tex>$ (\frac D \delta) ^{2}$ </tex>, где <tex>$D=max||x||$</tex>, где <tex>$x\in X^{l}$ </tex>.
| |
- | {{Задание|Allegra|Константин Воронцов|8 января 2009}}
| |