Нейросеть
Материал из MachineLearning.
(Новая: ==Нейросеть== ===Однослойная нейросеть=== Модель МакКаллока–Питтса. Пусть X � пространство объектов; Y ...) |
(→Модель МакКаллока и Питтса) |
||
Строка 10: | Строка 10: | ||
описанием объекта x. | описанием объекта x. | ||
====Модель МакКаллока и Питтса==== | ====Модель МакКаллока и Питтса==== | ||
- | Алгоритм принимает на вход вектор <tex>x=(x^1,\dots,x^n)</tex>. Для простоты полагаем все признаки бинарными. Каждому нейрону соответствует вектор весов <tex>w=(w_1,w_2,\ | + | Алгоритм принимает на вход вектор <tex>x=(x^1,\dots,x^n)</tex>. Для простоты полагаем все признаки бинарными. Каждому нейрону соответствует вектор весов <tex>w=(w_1,w_2,\ldots,w_n)</tex>. вектор признаков скалярно перемножается с вектором весов. Если результат превышает 'порог активации', результат работы нейрона равен 1, иначе 0. |
- | <tex>a(x)=\phi(\sum^n_j=1)</tex> | + | <tex>a(x)=\phi(\sum^n_j=1 w_j x^j-w_0)</tex> |
+ | |||
+ | |||
+ | {{STUB}} | ||
===Многослойная нейросеть=== | ===Многослойная нейросеть=== |
Версия 19:44, 17 декабря 2008
Содержание |
Нейросеть
Однослойная нейросеть
Модель МакКаллока–Питтса. Пусть X � пространство объектов; Y � множество допустимых ответов; y∗ : X → Y � целевая зависимость, известная только на объек- тах обучающей выборки Xℓ = (xi, yi)ℓi=1, yi = y∗(xi). Требуется построить алгоритм a: X → Y , аппроксимирующий целевую зависимость y∗ на всём множестве X. Будем предполагать, что объекты описываются n числовыми признаками fj : X → R, j = 1, . . . , n. Вектор (f1(x), . . . , fn(x))∈ Rn называется признаковым описанием объекта x.
Модель МакКаллока и Питтса
Алгоритм принимает на вход вектор . Для простоты полагаем все признаки бинарными. Каждому нейрону соответствует вектор весов . вектор признаков скалярно перемножается с вектором весов. Если результат превышает 'порог активации', результат работы нейрона равен 1, иначе 0.