Нейросеть
Материал из MachineLearning.
(Различия между версиями)
												
			
			 (→Однослойная нейросеть)  | 
				 (→Однослойная нейросеть)  | 
			||
| Строка 3: | Строка 3: | ||
===Однослойная нейросеть===  | ===Однослойная нейросеть===  | ||
Модель МакКаллока–Питтса. Пусть X - пространство объектов; Y - множество  | Модель МакКаллока–Питтса. Пусть X - пространство объектов; Y - множество  | ||
| - | допустимых ответов; y∗ : X → Y  - целевая зависимость, известная только на   | + | допустимых ответов; y∗ : X → Y  - целевая зависимость, известная только на объектах обучающей выборки <tex> X_l = (x_i, y_i)^l_{n=1}, y_i = y^*(x_i)</tex>. Требуется построить алгоритм a: X → Y , аппроксимирующий целевую зависимость y∗ на всём множестве X.  | 
| - | + | ||
Будем предполагать, что объекты описываются n числовыми признаками  | Будем предполагать, что объекты описываются n числовыми признаками  | ||
<tex>f_j : X → R, j = 1,\ldots, n</tex>. Вектор <tex>(f_1(x), . . . , f_n(x))∈ R</tex> называется признаковым описанием объекта x.  | <tex>f_j : X → R, j = 1,\ldots, n</tex>. Вектор <tex>(f_1(x), . . . , f_n(x))∈ R</tex> называется признаковым описанием объекта x.  | ||
Версия 20:01, 17 декабря 2008
Содержание | 
Нейросеть
Однослойная нейросеть
Модель МакКаллока–Питтса. Пусть X - пространство объектов; Y - множество
допустимых ответов; y∗ : X → Y  - целевая зависимость, известная только на объектах обучающей выборки . Требуется построить алгоритм a: X → Y , аппроксимирующий целевую зависимость y∗ на всём множестве X.
Будем предполагать, что объекты описываются n числовыми признаками
. Вектор 
 называется признаковым описанием объекта x.
Модель МакКаллока и Питтса
Алгоритм принимает на вход вектор . Для простоты полагаем все признаки бинарными. Каждому нейрону соответствует вектор весов 
. вектор признаков скалярно перемножается с вектором весов. Если результат превышает 'порог активации', результат работы нейрона равен 1, иначе 0.
где 

