11.07.2015 Views

формат Adobe PDF, размер 2173 Кб - Информационно ...

формат Adobe PDF, размер 2173 Кб - Информационно ...

формат Adobe PDF, размер 2173 Кб - Информационно ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

ISBN 5–7262–0471–9ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕв случае асинхронной (последовательной) динамики, свободный от предположения,сделанного в теориях Amari-Maginu и Okada, что распределениесинаптических возбуждений нейронов является гауссовским. НедавноKoyama et al. [21] предложили разумное приближение к теории, построеннойв работе [12], и вывели нейродинамические уравнения для полногопроцесса воспроизведения с параллельной динамикой. Как и указаннаятеория, этот метод дает достаточно точную оценку информационных идинамических свойств сети Хопфилда с неразреженным кодированием.Имеются лишь несколько статей, в которых исследуется размер областейпритяжения в сетях хопфилдового типа с разреженным кодированием.Horner et al. [16] исследовали их для асинхронной, а Okada [22] —для синхронной динамики. Метод, предложенный в работе [16], основанна интерполяции между первыми шагами воспроизведения (когда можетбыть сделано разложение по степеням шага воспроизведения) и последнимишагами воспроизведения (когда может использоваться стационарноерешение). Okada использовал SN-приближение, близкое к предложенномуAmari-Maginu для плотного кодирования. К сожалению, влияние разреженностина размер области притяжения систематически в этих статьях неанализировалось.Обобщенной характеристикой способности сети выполнять функциюавтоассоциативной памяти является информация I g , извлекаемая из сетиза счет коррекции искаженных записанных эталонов. Следуя Дунину-Барковскому [1], относительную информацию, извлекаемую из сети E =I g /N 2 , где N 2 — общее количество элементов, способных к модификации(для хопфилдовой сети — число синаптических связей), мы называеминформационной эффективностью. Информация, извлеченная из сети,не может, очевидно, превысить информацию, загруженную в сеть I l =LNh(p), где L — количество записанных эталонов, и h(p) = −p log 2 p −(1 − p) log 2 (1 − p) — функция Шеннона. Как относительную информационнуюнагрузку мы используем α = I l /N 2 = Lh(p)/N. Эта мера информационнойнагрузки учитывает, что возрастание разреженности приводитк убыванию энтропии эталонов, в отличие от параметра α, определенногокак L/N, который часто используется в качестве меры нагрузки сети, начинаяс появления статьи Хопфилда [14]. В случае плотного кодирования обеэти меры совпадают, так как h(0.5) = 1. Для разреженного кодирования мыпредпочитаем учитывать энтропию эталонов при расчете информационнойнагрузки по двум причинам. Во-первых, в этом случае относительная информационнаянагрузка измеряется в тех же единицах (бит/синапс), что и32 УДК 004.032.26 (06) Нейронные сети

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!