19.11.2014 Views

На правах рукописи

На правах рукописи

На правах рукописи

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

строится кубическая интерполяция, и ее минимум выбирается в качестве новой<br />

оптимальной точки. Этот процесс продолжается до тех пор, пока не будет достигнуто<br />

существенное уменьшение функционала ошибки.<br />

1.2.4.8. Метод Левенберга-Марквардта<br />

Метод Левенберга-Марквардта (LM) (Levenberg-Marquardt) [53] реализует<br />

специальный способ аппроксимации матрицы Гессе для случая, когда функционал<br />

ошибки определяется как сумма квадратов ошибок, что как раз и имеет<br />

место при обучении нейросетей обратного распространения. В рамках данного<br />

метода матрица Гессе H аппроксимируется как<br />

T<br />

H ≅ J J , (31)<br />

а вектор градиента g может быть рассчитан по формуле<br />

T<br />

g = J e , (32)<br />

где: J – матрица Якоби производных функционалов ошибки отдельно для каждого<br />

выходного нейрона (т.е. для каждого свойства) и для каждого объекта (т.е.<br />

химического соединения) в обучающей выборке по настраиваемым параметрам<br />

(т.е. весам нейросети); e – вектор ошибок нейросети. Матрицу Якоби можно записать<br />

в следующем виде:<br />

⎛ ∂e<br />

⎜<br />

⎜ ∂wi<br />

(1)<br />

⎜ M<br />

⎜ ∂eK<br />

⎜<br />

⎜<br />

∂wi<br />

(1)<br />

J = ⎜ M<br />

⎜ ∂e1<br />

⎜ ∂wi<br />

(1)<br />

⎜<br />

⎜ M<br />

⎜ ∂e<br />

⎜<br />

⎝ ∂wi<br />

(1)<br />

11<br />

j(1)<br />

1<br />

j(1)<br />

P<br />

j(1)<br />

KP<br />

j(1)<br />

L<br />

L<br />

L<br />

L<br />

L<br />

L<br />

L<br />

∂e<br />

∂wi<br />

( M )<br />

M<br />

∂eK<br />

∂wi<br />

( M )<br />

M<br />

∂e1<br />

∂wi<br />

( M )<br />

M<br />

∂e<br />

∂w<br />

11<br />

j(<br />

M )<br />

1<br />

j(<br />

M )<br />

P<br />

j(<br />

M )<br />

KP<br />

i(<br />

M ) j(<br />

M )<br />

⎞<br />

⎟<br />

⎟<br />

⎟<br />

⎟<br />

⎟<br />

⎟<br />

⎟<br />

⎟<br />

⎟<br />

⎟<br />

⎟<br />

⎟<br />

⎟<br />

⎠<br />

где: функция i(m) показывает номер нейрона, из которого исходит связь m; j(m)<br />

-номер нейрона, в который входит связь m; M – число связей (т.е. число настраиваемых<br />

параметров) в нейросети; e kp – ошибка прогноза для k-го выходного<br />

нейрона и p-го объекта из обучающей выборки; K – число выходных нейронов<br />

(равное числу одновременно прогнозируемых свойств); P – число объектов<br />

32<br />

(33)

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!