Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
1.2.4. Нейросети обратного распространения (backpropagation)<br />
1.2.4.1. Общая характеристика<br />
К середине 80-ых годов стало ясно, что одна из причин неудач кроется в<br />
конкретном виде пороговой функции активации (2). Оказалось, что замена пороговой<br />
функции (2) на непрерывную, ограниченную и монотонновозрастающую,<br />
например, сигмоидную функцию (3), способна привести к построению<br />
многослойных персептронов, все веса связей которых способны эффективно<br />
обучаться при помощи алгоритма обратного распространения ошибок<br />
(error backpropagation) [41, 42]. Именно благодаря открытию (точнее, переоткрытию)<br />
этого алгоритма, с конца 80-ых годов начался этап активного развития<br />
и использования аппарата искусственных нейронных сетей в разных областях<br />
науки и техники (см. книги и учебные пособия [10-24]), а с начала 90-ых – в<br />
различных областях химии (см. [30-34]) и, в частности, в области исследования<br />
зависимости структура-свойство для органических соединений [35-39].<br />
f ( x)<br />
= 1<br />
(3)<br />
1 −x<br />
+ e<br />
Кроме чисто математических причин, переход к подобным непрерывным<br />
дифференцируемым функциям имеет и определенное нейрофизиологическое<br />
обоснование. С точки зрения способа передачи информации, сигнал реальных<br />
биологических нейронов модулирован не по амплитуде, а по частоте, и, к тому<br />
же, является стохастическим, что вполне согласуется с уравнениями (1) и (3)<br />
при условии, что уровень сигнала (активации) o i показывает, с какой вероятностью<br />
нейрон i переходит в возбужденное состояние.<br />
Алгоритм обратного распространения ошибки (см. ниже) сыграл настолько<br />
важную роль в истории становления многослойных персептронов, что сами<br />
нейросети этого типа часто стали называть нейросетями с обратным распространением<br />
(backpropagation neural networks).<br />
К основным достоинствам таких нейросетей можно отнести их способность<br />
находить нелинейные и многопараметрические линейные зависимости,<br />
характеризующиеся высокой точностью интерполяции, даже в тех случаях, ко-<br />
19