Вопрос 23. Нейросети. Основы

Нейросеть состоит из входного слоя, одного или нескольких скрытых слоев и выходного слоя. Один из параметров, используемых для обучения – ошибка сети. В прямом направлении идут функциональные сигналы, обратно идут сигналы об ошибке.

При разработке нейронной сети надо определить модель, определить топологию сети, в том числе количество входных и выходных сетей, а так же количество нейронов во внутреннем слое. Выбрать шаг.

Нейронные сети (НС) – это раздел искусственного интеллекта, в котором для обработки сигналов используются явления, аналогичные происходящим в нейронах живых существ. Важнейшая особенность сети, свидетельствующая о ее широких возможностях и огромном потенциале, состоит в параллельной обработке информации всеми звеньями сети . При громадном количестве межнейронных связей это позволяет значительно ускорить процесс обработки информации.

Другое не менее важное свойство – способность к обучению и обобщению накопленных знаний. Нейронная сеть обладает чертами искусственного интеллекта. Натренированная на ограниченном множестве данных сеть способна обобщать полученную информацию и показывать хорошие результаты на данных, не использовавшихся в процессе обучения.

Одной из первых моделей нейрона, называемой моделью МакКаллока-Питтса (предложенной в 1943 году), нейрон считается винрарным элементом.

В данной модели входные сигналы xj (j = 1, 2, …,N) суммируются с учетом соответствующих весов wij (сигнал поступает в направлении от узла i к узлу j) в сумматоре, после чего результат сравнивается с пороговым значением wi0. выходной сигнал нейрона yi определяется при этом зависимостью

yi = f( å wij xj(t) + wi0).

Модель МакКаллока-Питтса – это дискретная модель, в которой состояние нейрона в момент (t+1) рассчитывается по значениям его входных сигналов в предыдущий момент t. Через несколько лет Д. Хебб в процессе исследований ассоциативной памяти предложил теорию обучения (подбора весов wij) нейронов. При этом он использовал наблюдение, что веса межнейронных соединений при активации нейронов могут возрастать. В модели Хебба приращение всех весов Dwij в процессе обучения пропорционально произведению выходных сигналов yi и yj нейронов, связанных весом wij:

wij(k+1) = wij(k) + h yi(k )yj(k),

где k обозначает номер цикла, а h - коэффициент обучения.