формат Adobe PDF, размер 2173 Кб - Информационно ...

формат Adobe PDF, размер 2173 Кб - Информационно ... формат Adobe PDF, размер 2173 Кб - Информационно ...

neurolectures.narod.ru
from neurolectures.narod.ru More from this publisher
11.07.2015 Views

А. А. ФРОЛОВ 1) , Д. ГУСЕК 2) , И. П. МУРАВЬЕВ 1)1) Институт высшей нервной деятельности и нейрофизиологии РАН,Москва,2) Институт информатики Академии наук Чешской республики,ПрагаE-mail: aafrolov@mail.ruИНФОРМАЦИОННАЯ ЭФФЕКТИВНОСТЬ АССОЦИАТИВНОЙПАМЯТИ ТИПА ХОПФИЛДА С РАЗРЕЖЕННЫМКОДИРОВАНИЕМАннотацияАттракторная нейронная сеть хопфилдового типа исследуется аналитическии путем компьютерного моделирования. Вычисляются информационнаяемкость, качество воспроизведения и размер областей притяжения. Выявляютсяасимптотические свойства нейронных сетей путем компьютерногомоделирования для больших размеров сетей (до 15000 нейронов). Показано,что существующие аналитические подходы недостаточны для случаябольшой разреженности. Основная причина их недостатков заключается вигнорировании различия в поведении нейронов, активных и неактивныхна предшествующих тактах процесса воспроизведения. Показано, что размеробластей притяжения меняется немонотонно при возрастании разреженности:вначале он возрастает, а потом — убывает. Поэтому в пределе приp → 0 разреженность ухудшает способность сети к коррекции эталонов, вто же время повышая информационную емкость и качество воспроизведения.Информационная эффективность сети, достигаемая за счет коррекцииискаженных эталонов, используется как обобщенная характеристика способностисети выполнять функцию автоассоциативной памяти. Существуетоптимальная разреженность, для которой информационная эффективностьмаксимальна. Оптимальная разреженность оказывается близкой к уровнюнервной активности мозга.28 УДК 004.032.26 (06) Нейронные сети

А. А. ФРОЛОВ, Д. ГУСЕК, И. П. МУРАВЬЕВA. FROLOV 1) , D. HUSEK 2) , I. MURAVIEV 1)1) Institute of Higher Nervous Activity and Neurophysiologyof the Russian Academy of Sciences, Moscow2) Institute of Computer Science,Academy of Sciencies of the Czech Republik, PragueE-mail: aafrolov@mail.ruINFORMATIONAL EFFICIENCY OF SPARSELY ENCODEDHOPFIELD-LIKE ASSOCIATIVE MEMORYAbstractA sparsely encoded Hopfield-like attractor neural network is investigatedanalytically and by computer simulation. Informational capacity, recall qualityand attractor basin sizes are evaluated. Asymptotic properties of the neuralnetwork are revealed by computer simulation for a large network size (up to 15000of neurons). This shows that all existing analytical approaches fail in the caseof a large sparseness. The main reason of their invalidity is that they ignore thedifference in behavior of previously active and nonactive neurons during the recallprocess. It is shown that the size of attraction basins changes nonmonotonicallywhile sparseness increases: it increases initially and then decreases. Thus at thelimit case for p → 0 sparseness worsens the network ability to correct distortedprototypes while it improves both informational capacity and recall quality. Thegain of information provided by the network due to correction of the distortedprototypes is used as cumulative index of the network ability to perform thefunctions of autoassociative memory. There exists an optimal sparseness forwhich the gain is maximal. Optimal sparseness obtained is corresponded to brainneural activity.ВведениеИсследуемая нейронная сеть хопфилдового типа является полносвязнойсетью, которая действует как автоассоциативная память для статистическинезависимых бинарных паттернов на основе корреляционного правилаобучения Хебба. Кодирование называется разреженным, если количествоактивных нейронов n в записанных паттернах (эталонах) мало по сравнениюс общим количеством нейронов в сети N. Типичные вопросы, возникающиепри исследовании свойств сетей такого типа:УДК 004.032.26 (06) Нейронные сети 29

А. А. ФРОЛОВ, Д. ГУСЕК, И. П. МУРАВЬЕВA. FROLOV 1) , D. HUSEK 2) , I. MURAVIEV 1)1) Institute of Higher Nervous Activity and Neurophysiologyof the Russian Academy of Sciences, Moscow2) Institute of Computer Science,Academy of Sciencies of the Czech Republik, PragueE-mail: aafrolov@mail.ruINFORMATIONAL EFFICIENCY OF SPARSELY ENCODEDHOPFIELD-LIKE ASSOCIATIVE MEMORYAbstractA sparsely encoded Hopfield-like attractor neural network is investigatedanalytically and by computer simulation. Informational capacity, recall qualityand attractor basin sizes are evaluated. Asymptotic properties of the neuralnetwork are revealed by computer simulation for a large network size (up to 15000of neurons). This shows that all existing analytical approaches fail in the caseof a large sparseness. The main reason of their invalidity is that they ignore thedifference in behavior of previously active and nonactive neurons during the recallprocess. It is shown that the size of attraction basins changes nonmonotonicallywhile sparseness increases: it increases initially and then decreases. Thus at thelimit case for p → 0 sparseness worsens the network ability to correct distortedprototypes while it improves both informational capacity and recall quality. Thegain of information provided by the network due to correction of the distortedprototypes is used as cumulative index of the network ability to perform thefunctions of autoassociative memory. There exists an optimal sparseness forwhich the gain is maximal. Optimal sparseness obtained is corresponded to brainneural activity.ВведениеИсследуемая нейронная сеть хопфилдового типа является полносвязнойсетью, которая действует как автоассоциативная память для статистическинезависимых бинарных паттернов на основе корреляционного правилаобучения Хебба. Кодирование называется разреженным, если количествоактивных нейронов n в записанных паттернах (эталонах) мало по сравнениюс общим количеством нейронов в сети N. Типичные вопросы, возникающиепри исследовании свойств сетей такого типа:УДК 004.032.26 (06) Нейронные сети 29

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!