Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
ции, приводящего, по мере обучения, к накоплению влияния градиента на изменение весов: Δw ∂E w η , (16) p ( t) ( ) ( t−1) ji = − + μ Δw ji ∂w ji где: µ - параметр момента инерции. Типичное значение этого параметра 0.9, и оно не меняется по ходу обучения. Хотя формально допустимы любые значения в интервале 0≤µ
Рис. 5. Введение момента инерции позволяет благодаря появившейся возможности адаптивно менять эффективную скорость обучения значительно быстрее продвигаться к минимуму Благодаря введению параметра µ, у нейросети появляется также способность преодолевать мелкие локальные минимумы на гиперповерхности функционала ошибки в пространстве весов. Чтобы понять причину этого, запишем разностное уравнение (15) в виде дифференциального: ∂E( w) w& ji = −η (19) ∂w ji Уравнение (19), описывающее обучение нейросети по дельта-правилу, математически эквивалентно дифференциальному уравнению движения неинерционного тела в вязкой среде. Введение момента соответствует появлению у такого тела инерции (т.е. массы µ), и процесс обучения при помощи расширенного дельта-правила уже описывается дифференциальным уравнением движения инерционного тела в вязкой среде: μ w& ji ∂E( w) + ( 1− μ) w& ji = −η ∂w & (20) ji Таким образом, гипотетическое тело, уравнение движения которого описывается уравнением (20), может, разогнавшись, преодолевать по инерции небольшие локальные минимумы, застревая лишь в относительно глубоких минимумах функционала ошибки, соответствующих статистически значимым нейросетевым моделям. Тем не менее, не смотря на все успехи, достигнутые при помощи расширенного дельта-правила с включенным параметром момента, данный метод все равно не лишен недостатков. Прежде всего, в методе присутствуют две «магические» константы, обоснованный выбор точных значений которых сделать не- 27
- Page 1 and 2: На правах рукописи
- Page 3 and 4: 2.2.6. Классификация
- Page 5 and 6: 5.4. Псевдофрагментн
- Page 7 and 8: 7.4.3. Примеры разных
- Page 9 and 10: ВВЕДЕНИЕ На соврем
- Page 11 and 12: более точного прог
- Page 13 and 14: ГЛАВА 1. ИСКУССТВЕН
- Page 15 and 16: входными; нейроны,
- Page 17 and 18: Таким образом, урав
- Page 19 and 20: 1.2.4. Нейросети обра
- Page 21 and 22: Значения весов объ
- Page 23 and 24: Таким образом, знач
- Page 25: жения в статье Руме
- Page 29 and 30: адаптивно настраив
- Page 31 and 32: 1.2.4.7. Квазиньютонов
- Page 33 and 34: (химических соедин
- Page 35 and 36: на границах решетк
- Page 37 and 38: ными значениями со
- Page 39 and 40: рующие один и тот ж
- Page 41 and 42: дящихся на 2-ом, 3-м и
- Page 43 and 44: всех RBF-нейронов, а
- Page 45 and 46: чающей выборки, при
- Page 47 and 48: Рис. 10. Архитектура
- Page 49 and 50: 1.2.5.4. Нейросети на о
- Page 51 and 52: ми связями, занимае
- Page 53 and 54: практически важных
- Page 55 and 56: ния классического
- Page 57 and 58: ческому мозгу во вр
- Page 59 and 60: лаждения системы и
- Page 61 and 62: чем в качестве прог
- Page 63 and 64: ГЛАВА 2. ФРАГМЕНТНЫ
- Page 65 and 66: му типу биологичес
- Page 67 and 68: тему опубликовано
- Page 69 and 70: В настоящее время п
- Page 71 and 72: ниях QSPR/QSAR/SAR. И дейс
- Page 73 and 74: В качестве характе
- Page 75 and 76: Некоторые типы ЦАФ
Рис. 5. Введение момента инерции<br />
позволяет благодаря появившейся<br />
возможности адаптивно<br />
менять эффективную скорость<br />
обучения значительно быстрее<br />
продвигаться к минимуму<br />
Благодаря введению параметра µ, у нейросети появляется также способность<br />
преодолевать мелкие локальные минимумы на гиперповерхности функционала<br />
ошибки в пространстве весов. Чтобы понять причину этого, запишем<br />
разностное уравнение (15) в виде дифференциального:<br />
∂E(<br />
w)<br />
w& ji<br />
= −η<br />
(19)<br />
∂w<br />
ji<br />
Уравнение (19), описывающее обучение нейросети по дельта-правилу, математически<br />
эквивалентно дифференциальному уравнению движения неинерционного<br />
тела в вязкой среде. Введение момента соответствует появлению у<br />
такого тела инерции (т.е. массы µ), и процесс обучения при помощи расширенного<br />
дельта-правила уже описывается дифференциальным уравнением движения<br />
инерционного тела в вязкой среде:<br />
μ w&<br />
ji<br />
∂E(<br />
w)<br />
+ ( 1−<br />
μ)<br />
w&<br />
ji<br />
= −η<br />
∂w<br />
& (20)<br />
ji<br />
Таким образом, гипотетическое тело, уравнение движения которого описывается<br />
уравнением (20), может, разогнавшись, преодолевать по инерции небольшие<br />
локальные минимумы, застревая лишь в относительно глубоких минимумах<br />
функционала ошибки, соответствующих статистически значимым<br />
нейросетевым моделям.<br />
Тем не менее, не смотря на все успехи, достигнутые при помощи расширенного<br />
дельта-правила с включенным параметром момента, данный метод все<br />
равно не лишен недостатков. Прежде всего, в методе присутствуют две «магические»<br />
константы, обоснованный выбор точных значений которых сделать не-<br />
27