Нейросеть
Материал из MachineLearning.
 (→Модель МакКаллока и Питтса)  | 
				 (викификация)  | 
			||
| (8 промежуточных версий не показаны.) | |||
| Строка 2: | Строка 2: | ||
===Однослойная нейросеть===  | ===Однослойная нейросеть===  | ||
| - | Модель МакКаллока–Питтса. Пусть X   | + | Модель МакКаллока–Питтса. Пусть X - пространство объектов; Y - множество  | 
| - | допустимых ответов; y∗ : X → Y   | + | допустимых ответов; y∗ : X → Y  - целевая зависимость, известная только на объектах обучающей выборки <tex> X_l = (x_i, y_i)^l_{n=1}, y_i = y^*(x_i)</tex>. Требуется построить алгоритм a: X → Y , аппроксимирующий целевую зависимость y∗ на всём множестве X.  | 
| - | + | ||
| - | a: X → Y , аппроксимирующий целевую зависимость y∗ на всём множестве X.  | + | |
Будем предполагать, что объекты описываются n числовыми признаками  | Будем предполагать, что объекты описываются n числовыми признаками  | ||
| - | + | <tex>f_j : X -> R, j = 1,\ldots, n</tex>. Вектор <tex>(f_1(x), . . . , f_n(x))\ge R</tex> называется признаковым описанием объекта x.  | |
| - | описанием объекта x.  | + | |
====Модель МакКаллока и Питтса====  | ====Модель МакКаллока и Питтса====  | ||
Алгоритм принимает на вход вектор <tex>x=(x^1,\dots,x^n)</tex>. Для простоты полагаем все признаки бинарными. Каждому нейрону соответствует вектор весов <tex>w=(w_1,w_2,\ldots,w_n)</tex>. вектор признаков скалярно перемножается с вектором весов. Если результат превышает 'порог активации', результат работы нейрона равен 1, иначе 0.  | Алгоритм принимает на вход вектор <tex>x=(x^1,\dots,x^n)</tex>. Для простоты полагаем все признаки бинарными. Каждому нейрону соответствует вектор весов <tex>w=(w_1,w_2,\ldots,w_n)</tex>. вектор признаков скалярно перемножается с вектором весов. Если результат превышает 'порог активации', результат работы нейрона равен 1, иначе 0.  | ||
| + | Введем дополнительный константный признак <tex>x_0=-1</tex>  | ||
| - | <tex>a(x)=\phi(\sum^  | + | <tex>a(x)=\phi(\sum^{n}_{j=0} w_j x^j)</tex>,где <tex>phi(z)=[z\ge 0]</tex>.  | 
| + | Модель МакКалока-Питтса эквивалентна линейному пороговому классификатору.  | ||
| - | + | ====Персептрон Розенблатта====  | |
| + | Как и моделе МакКаллока-Питтса на вход подается вектор признаков x и мы имеем нейрон с вектором весов w.  | ||
| + | Идея обучения: Если <tex>a(x_i)=y_i</tex>, то вектор весов не изменяется. Если <tex>a(x_i)=0,  y_i=1</tex>, то вектор весов увеличивается, в случае наоборот - уменьшается.  | ||
| + | Так как пока рассматриваются бинарные признаки, то верна формула:  | ||
| + | |||
| + | <tex>w:=w-\eta(a(x_i)-y_i)x_i</tex>  | ||
===Многослойная нейросеть===  | ===Многослойная нейросеть===  | ||
| + | |||
| + | {{Stub}}  | ||
| + | |||
| + | [[Категория:Машинное обучение]]  | ||
| + | [[Категория:Нейронные сети]]  | ||
Текущая версия
Содержание | 
Нейросеть
Однослойная нейросеть
Модель МакКаллока–Питтса. Пусть X - пространство объектов; Y - множество
допустимых ответов; y∗ : X → Y  - целевая зависимость, известная только на объектах обучающей выборки . Требуется построить алгоритм a: X → Y , аппроксимирующий целевую зависимость y∗ на всём множестве X.
Будем предполагать, что объекты описываются n числовыми признаками
. Вектор 
 называется признаковым описанием объекта x.
Модель МакКаллока и Питтса
Алгоритм принимает на вход вектор . Для простоты полагаем все признаки бинарными. Каждому нейрону соответствует вектор весов 
. вектор признаков скалярно перемножается с вектором весов. Если результат превышает 'порог активации', результат работы нейрона равен 1, иначе 0.
Введем дополнительный константный признак 
,где 
.
Модель МакКалока-Питтса эквивалентна линейному пороговому классификатору.
Персептрон Розенблатта
Как и моделе МакКаллока-Питтса на вход подается вектор признаков x и мы имеем нейрон с вектором весов w.
Идея обучения: Если , то вектор весов не изменяется. Если 
, то вектор весов увеличивается, в случае наоборот - уменьшается.
Так как пока рассматриваются бинарные признаки, то верна формула:

