Нейросеть
Материал из MachineLearning.
(→Персептрон Розенблатта) |
(→Персептрон Розенблатта) |
||
Строка 17: | Строка 17: | ||
====Персептрон Розенблатта==== | ====Персептрон Розенблатта==== | ||
Как и моделе МакКаллока-Питтса на вход подается вектор признаков x и мы имеем нейрон с вектором весов w. | Как и моделе МакКаллока-Питтса на вход подается вектор признаков x и мы имеем нейрон с вектором весов w. | ||
- | Идея обучения: Если <tex>a(x_i)=y_i</tex>, то вектор весов не изменяется. Если <tex>a(x_i)=0, y_i=1</tex>, то вектор весов увеличивается, в случае наоборот - уменьшается. | + | Идея обучения: Если <tex>a(x_i)=y_i</tex>, то вектор весов не изменяется. Если <tex>a(x_i)=0, y_i=1</tex>, то вектор весов увеличивается, в случае наоборот - уменьшается. |
Так как пока рассматриваются бинарные признаки, то верна формула: | Так как пока рассматриваются бинарные признаки, то верна формула: | ||
- | <tex>w:=w-\ | + | <tex>w:=w-\eta(a(x_i)-y_i)x_i</tex> |
===Многослойная нейросеть=== | ===Многослойная нейросеть=== | ||
{{STUB}} | {{STUB}} |
Версия 20:25, 17 декабря 2008
Содержание |
Нейросеть
Однослойная нейросеть
Модель МакКаллока–Питтса. Пусть X - пространство объектов; Y - множество допустимых ответов; y∗ : X → Y - целевая зависимость, известная только на объектах обучающей выборки . Требуется построить алгоритм a: X → Y , аппроксимирующий целевую зависимость y∗ на всём множестве X. Будем предполагать, что объекты описываются n числовыми признаками . Вектор называется признаковым описанием объекта x.
Модель МакКаллока и Питтса
Алгоритм принимает на вход вектор . Для простоты полагаем все признаки бинарными. Каждому нейрону соответствует вектор весов . вектор признаков скалярно перемножается с вектором весов. Если результат превышает 'порог активации', результат работы нейрона равен 1, иначе 0. Введем дополнительный константный признак
,где .
Модель МакКалока-Питтса эквивалентна линейному пороговому классификатору.
Персептрон Розенблатта
Как и моделе МакКаллока-Питтса на вход подается вектор признаков x и мы имеем нейрон с вектором весов w. Идея обучения: Если , то вектор весов не изменяется. Если , то вектор весов увеличивается, в случае наоборот - уменьшается. Так как пока рассматриваются бинарные признаки, то верна формула: