19.11.2014 Views

На правах рукописи

На правах рукописи

На правах рукописи

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

всех RBF-нейронов, а также их дисперсии. Для этого проводится кластерный<br />

анализ исходных данных либо при помощи нейросети Кохонена, либо, чаще<br />

всего, алгоритма k-means [70, 71], после чего центры найденных кластеров используются<br />

как центры радиально-базисных функций, ширины которых можно,<br />

в частности, определить как средние расстояния между центрами кластеров и<br />

его ближайшими соседями. Второй этап обучения RBF-сетей проводится «с<br />

учителем» - либо итерационно, в соответствии с алгоритмом обратного распространения<br />

ошибки, либо с использованием одного из алгоритмов построения<br />

линейных регрессионных моделей, в частности, при помощи регрессии на<br />

главных компонентах (SVD-регрессии) [72]. Различные варианты RBF-сетей<br />

различаются выбором: а) метода кластеризации (если она вообще проводится);<br />

б) способов определения положения центра и ширины радиально-базисной<br />

функции; в) способов построения линейно-регрессионной модели для обучения<br />

выходных нейронов. Ширина радиально-базисной функции иногда берется<br />

единой для всех RBF-нейронов, и ее значение, обеспечивающее наибольшую<br />

прогнозирующую способность нейронной сети, определяется с помощью процедуры<br />

скользящего контроля.<br />

Важными модификациями RBF-сетей являются вероятностная нейронная<br />

сеть (Probabilistic Neural Network – PNN, P-нейросеть), предложенная Спехтом<br />

(Specht) в 1990 г. [73], и нейронная сеть обобщенной регрессии (Generalized Regression<br />

Neural Network – GRNN, GR-нейросеть), введенная этим же автором<br />

годом позже [74].<br />

GR-нейросети. Функционирование GR-нейросетей основано на использовании<br />

математического аппарата непараметрической ядерной регрессии Надарая-Ватсона<br />

(Nadaraya-Watson) [75, 76], идея которой заключается в оценке<br />

функции плотности вероятности совместного распределения случайной векторной<br />

величины x и случайной скалярной величины y по методу Парзена (Parzen)<br />

[77]:<br />

N<br />

T<br />

1<br />

⎡ ( x − x ⎤ ⎡<br />

i<br />

) ( x − xi<br />

) −<br />

= ⋅∑<br />

⎢−<br />

⎥ ⋅ ( y yi<br />

)<br />

( x,<br />

y)<br />

exp<br />

exp⎢−<br />

( M + 1) / 2 ( M + 1)<br />

2<br />

2<br />

N(2π<br />

) σ i=<br />

1 ⎣ 2σ<br />

⎦ ⎣ 2σ<br />

f , (41)<br />

2<br />

⎤<br />

⎥<br />

⎦<br />

43

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!