На правах рукописи

На правах рукописи На правах рукописи

cdn.scipeople.com
from cdn.scipeople.com More from this publisher
19.11.2014 Views

возможно. Кроме того, эффективная скорость обучения, хотя и существенно выше, чем у первоначального дельта-правила, но все равно существенно уступает более совершенным методам обучения, рассмотренным ниже. Последнее обстоятельство отчасти связано еще и с тем, что методы обучения, основанные на последовательной адаптации, менее эффективны по сравнению с методами группового обучения, каковыми являются все рассматриваемые ниже алгоритмы. 1.2.4.5. Метод эластичного распространения (RPROP) При обучении по методу эластичного распространения для настройки весовых коэффициентов используется только информация о знаках частных производных функции ошибки нейросети [46, 47]. Тем самым, методу RPROP удается избежать замедление темпа обучения на плоских «равнинах» ландшафта функции ошибки, что характерно для схем, где изменения весов пропорциональны величине градиента. Величина, на которую изменяются весовые коэффициенты, вычисляется следующим образом: Δ ( t ) w ij ⎧ ⎪ ( t ) − Δ ⎪ ij , ⎪ ( t ) = ⎨ + Δ ij , ⎪ ⎪ 0 , ⎪ ⎪⎩ ∂E ( t ) если > 0 ∂wij ∂E ( t ) если < 0 ∂wij иначе , (21) где ( t) Δij ⎧ ⎪ + ( t −1) η * Δ ⎪ ij , ⎪ − ( t −1) = ⎨η * Δ ij , ⎪ ⎪ ( t −1) ⎪Δ ij , ⎪⎩ ∂E ( t −1) ∂E ( t) если * ∂w ij ∂w ij ∂E ( t −1) ∂E ( t) если * ∂w ij ∂w ij иначе > 0 < 0 , (22) где: ∂E ∂w ij - величина, характеризующая суммарный градиент для всех входных векторов из обучающей выборки; η - и η + - факторы уменьшения и увеличения (t) скорости обучения; t – счетчик итераций; Δ - величина индивидуального ij 28

адаптивно настраиваемого темпа обучения на t-ой итерации для связи, соединяющей нейрон i c нейроном j. Если знак производной по данному весу изменил направление, то это означает, что величина шага по данной координате слишком велика, и поэтому алгоритм уменьшает ее в η - раз. В противном же случае шаг увеличивается в η + раз для ускорения обучения вдали от минимума. 1.2.4.6. Методы сопряженных градиентов Методы сопряженных градиентов [48, 49], так же как и в случае расширенного дельта-правила, осуществляют на каждом шаге обучения движение в направлении, получаемом путем комбинирования направления антиградиента и направления движения на предыдущем шаге. Принципиальное же отличие методов сопряженных градиентов от последнего заключается в том, что размер шага в выбранном направлении не является фиксированным, а определяется на каждой итерации при помощи процедуры одномерного поиска минимума вдоль выбранного направления. Все алгоритмы методов сопряженных градиентов на первой итерации начинают поиск в направлении антиградиента: ⎛ ∂E( w) ⎞ ⎜ ⎟ ⎜ ∂w j(1) i(1) ⎟ (1) (1) p = −g = −∇E( w) = −⎜ M ⎟ (23) ⎜ ∂E( w) ⎟ ⎜ ∂w ⎟ j( M ) i( M ) ⎝ ⎠ где: p (t) – вектор направления, вдоль которой ведется поиск на t-ой итерации; g (t) – вектор градиента функционала ошибки нейросети в пространстве весов связей на t-ой итерации; j(m) – номер нейрона, из которого выходит связь m; i(m) – номер нейрона, в который входит связь m; M – число связей в нейросети. После выбора направления определяется оптимальный шаг поиска α (t) , на величину которого меняются все веса связей по формуле: w ( t + 1) ( t) ( t) ( t) j( m) i( m) = w j( m) i( m) + α p , (24) m 29

возможно. Кроме того, эффективная скорость обучения, хотя и существенно<br />

выше, чем у первоначального дельта-правила, но все равно существенно уступает<br />

более совершенным методам обучения, рассмотренным ниже. Последнее<br />

обстоятельство отчасти связано еще и с тем, что методы обучения, основанные<br />

на последовательной адаптации, менее эффективны по сравнению с методами<br />

группового обучения, каковыми являются все рассматриваемые ниже алгоритмы.<br />

1.2.4.5. Метод эластичного распространения (RPROP)<br />

При обучении по методу эластичного распространения для настройки весовых<br />

коэффициентов используется только информация о знаках частных производных<br />

функции ошибки нейросети [46, 47]. Тем самым, методу RPROP удается<br />

избежать замедление темпа обучения на плоских «равнинах» ландшафта<br />

функции ошибки, что характерно для схем, где изменения весов пропорциональны<br />

величине градиента. Величина, на которую изменяются весовые коэффициенты,<br />

вычисляется следующим образом:<br />

Δ<br />

( t )<br />

w ij<br />

⎧<br />

⎪<br />

( t )<br />

− Δ<br />

⎪<br />

ij<br />

,<br />

⎪<br />

( t )<br />

= ⎨ + Δ<br />

ij<br />

,<br />

⎪<br />

⎪ 0 ,<br />

⎪<br />

⎪⎩<br />

∂E<br />

( t )<br />

если > 0<br />

∂wij<br />

∂E<br />

( t )<br />

если < 0<br />

∂wij<br />

иначе<br />

, (21)<br />

где<br />

( t)<br />

Δij<br />

⎧<br />

⎪<br />

+ ( t −1)<br />

η * Δ<br />

⎪<br />

ij<br />

,<br />

⎪<br />

− ( t −1)<br />

= ⎨η<br />

* Δ<br />

ij<br />

,<br />

⎪<br />

⎪ ( t −1)<br />

⎪Δ<br />

ij<br />

,<br />

⎪⎩<br />

∂E<br />

( t −1)<br />

∂E<br />

( t)<br />

если *<br />

∂w ij ∂w ij<br />

∂E<br />

( t −1)<br />

∂E<br />

( t)<br />

если *<br />

∂w ij ∂w ij<br />

иначе<br />

> 0<br />

< 0<br />

, (22)<br />

где:<br />

∂E<br />

∂w ij<br />

- величина, характеризующая суммарный градиент для всех входных<br />

векторов из обучающей выборки; η - и η + - факторы уменьшения и увеличения<br />

(t)<br />

скорости обучения; t – счетчик итераций; Δ - величина индивидуального<br />

ij<br />

28

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!