На правах рукописи

На правах рукописи На правах рукописи

cdn.scipeople.com
from cdn.scipeople.com More from this publisher
19.11.2014 Views

ций и классификации (распознавания образов) [68, 69]. Как и нейросети встречного распространения, RBF-сети состоят из 3 слоев: входного, скрытого (служащего для кластеризации входных векторов) и выходного для формирования выходных сигналов (см. Рис. 8). Рис. 8. Нейронная сеть с радиальной базисной функцией (RBF-сеть) Скрытый слой у RBF-сетей состоит из RBF-нейронов, функционирование каждого из которых можно описать следующей формулой: ⎛ ⎜ y ⎜ i = exp ⎜ − ⎜ ⎝ M ∑ j= 1 ( x j 2σ −w 2 i ji ) 2 ⎞ ⎟ ⎟ ⎟ , (40) ⎟ ⎠ где: x j – j-ый компонент вектора входных значений; w ji - j-ый компонент вектора весов RBF-нейрона i; σ i – дисперсия, характеризующая ширину радиальнобазисной функции для RBF-нейрона i; M – размерность входного вектора. Вектор весов i-ого RBF-нейрона W = w , w , Kw } задает положение центра его ра- i { 1i 2i Mi диально-базисной функции. Выходные нейроны RBF-сети обычно берутся линейными, т.е. обладающими линейной активационной (передаточной) функцией. Обучение RBF-сети проводится в два этапа. На первом, проходящем «без учителя», определяются положения центров радиально-базисных функций для 42

всех RBF-нейронов, а также их дисперсии. Для этого проводится кластерный анализ исходных данных либо при помощи нейросети Кохонена, либо, чаще всего, алгоритма k-means [70, 71], после чего центры найденных кластеров используются как центры радиально-базисных функций, ширины которых можно, в частности, определить как средние расстояния между центрами кластеров и его ближайшими соседями. Второй этап обучения RBF-сетей проводится «с учителем» - либо итерационно, в соответствии с алгоритмом обратного распространения ошибки, либо с использованием одного из алгоритмов построения линейных регрессионных моделей, в частности, при помощи регрессии на главных компонентах (SVD-регрессии) [72]. Различные варианты RBF-сетей различаются выбором: а) метода кластеризации (если она вообще проводится); б) способов определения положения центра и ширины радиально-базисной функции; в) способов построения линейно-регрессионной модели для обучения выходных нейронов. Ширина радиально-базисной функции иногда берется единой для всех RBF-нейронов, и ее значение, обеспечивающее наибольшую прогнозирующую способность нейронной сети, определяется с помощью процедуры скользящего контроля. Важными модификациями RBF-сетей являются вероятностная нейронная сеть (Probabilistic Neural Network – PNN, P-нейросеть), предложенная Спехтом (Specht) в 1990 г. [73], и нейронная сеть обобщенной регрессии (Generalized Regression Neural Network – GRNN, GR-нейросеть), введенная этим же автором годом позже [74]. GR-нейросети. Функционирование GR-нейросетей основано на использовании математического аппарата непараметрической ядерной регрессии Надарая-Ватсона (Nadaraya-Watson) [75, 76], идея которой заключается в оценке функции плотности вероятности совместного распределения случайной векторной величины x и случайной скалярной величины y по методу Парзена (Parzen) [77]: N T 1 ⎡ ( x − x ⎤ ⎡ i ) ( x − xi ) − = ⋅∑ ⎢− ⎥ ⋅ ( y yi ) ( x, y) exp exp⎢− ( M + 1) / 2 ( M + 1) 2 2 N(2π ) σ i= 1 ⎣ 2σ ⎦ ⎣ 2σ f , (41) 2 ⎤ ⎥ ⎦ 43

ций и классификации (распознавания образов) [68, 69]. Как и нейросети<br />

встречного распространения, RBF-сети состоят из 3 слоев: входного, скрытого<br />

(служащего для кластеризации входных векторов) и выходного для формирования<br />

выходных сигналов (см. Рис. 8).<br />

Рис. 8. Нейронная сеть с радиальной базисной функцией (RBF-сеть)<br />

Скрытый слой у RBF-сетей состоит из RBF-нейронов, функционирование<br />

каждого из которых можно описать следующей формулой:<br />

⎛<br />

⎜<br />

y<br />

⎜<br />

i<br />

= exp<br />

⎜<br />

−<br />

⎜<br />

⎝<br />

M<br />

∑<br />

j=<br />

1<br />

( x<br />

j<br />

2σ<br />

−w<br />

2<br />

i<br />

ji<br />

)<br />

2<br />

⎞<br />

⎟<br />

⎟<br />

⎟<br />

, (40)<br />

⎟<br />

⎠<br />

где: x j – j-ый компонент вектора входных значений; w ji - j-ый компонент вектора<br />

весов RBF-нейрона i; σ i – дисперсия, характеризующая ширину радиальнобазисной<br />

функции для RBF-нейрона i; M – размерность входного вектора. Вектор<br />

весов i-ого RBF-нейрона W = w , w , Kw<br />

} задает положение центра его ра-<br />

i<br />

{<br />

1i<br />

2i<br />

Mi<br />

диально-базисной функции. Выходные нейроны RBF-сети обычно берутся линейными,<br />

т.е. обладающими линейной активационной (передаточной) функцией.<br />

Обучение RBF-сети проводится в два этапа. На первом, проходящем «без<br />

учителя», определяются положения центров радиально-базисных функций для<br />

42

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!