ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ...
ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ... ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ...
ISBN 5–7262–0471–9ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕномера активных нейронов вместо векторов длины N с компонентами состояния(0 или 1) всех нейронов. Тогда более удобно представлять пересеченияв видеm(X l , X(t)) =1[ ∑XNp (1 − p)iX l i (t) − Np 2] =i=1,N1[ ∑=X i(j) (t) − Np 2] ,Np (1 − p)j=1,nгде i(j) — номер активного нейрона, задаваемый вектором, представляющимl-тый эталон. Поэтому требуется только n сложений для вычислениякаждого пересечения и Ln сложений для вычисления всех пересечений.Аналогично, для вычисления всех N величин A i и B i требуется только2Ln сложений и в целом требуется примерно 3Ln сложений для вычислениявсех N величин синаптических возбуждений η i . Заметим, что дляобычной процедуры, основанной на прямом вычислении η i согласно (3),необходимо nN сложений. Таким образом, для малых информационныхнагрузок (L < N/3) модифицированная процедура имеет преимуществоперед обычной даже по числу вычислений.Описанная процедура позволяет обойтись без записи матрицы связей,но не набора эталонов. Однако компьютерная память, требуемая для записиматрицы связей и требуемая для записи набора эталонов, сравнимы. Фактически,для записи около N 2 /2 независимых коэффициентов матрицы связейкак действительных чисел требуется 2N 2 байтов памяти (если положить,что для записи каждого числа требуется 4 байта). В то же время для записиLn индексов активных нейронов в эталонах как переменных типа «слово»требуется 2Ln байтов (если положить, что для записи слова требуется 2байта). Для разреженного кодирования мы имеем L ≃ αN/|p log 2 p|. Поэтому,память, требуемая для записи набора эталонов, по порядку только в| log 2 p| раз меньше, чем требуемая для записи матрицы связей. Чтобы обойтисьбез записи эталонов, мы использовали процедуру, в которой эталонызаново генерируются на каждом шаге воспроизведения, с помощью однойи той же последовательности псевдослучайных величин. Для генерацииL эталонов требуется Ln псевдослучайных величин. Для этого требуетсяпримерно то же компьютерное время, что и для вычисления синаптическихвозбуждений по уравнению (7). Таким образом, при моделированииработы сети можно обойтись не только без записи в компьютерную память38 УДК 004.032.26 (06) Нейронные сети
А. А. ФРОЛОВ, Д. ГУСЕК, И. П. МУРАВЬЕВматрицы связей, но и без записи набора эталонов, оплачивая эту экономиюпамяти уменьшением скорости счета примерно в два раза.Информация, извлекаемая из сети за счет коррекцииискаженных эталоновДля вычисления количества информации, извлекаемой из памяти за счеткоррекции искаженных эталонов, мы применяем основные понятия теорииинформации. Взаимная информация случайных величин A и B вычисляетсяпо формулеI(A, B) = H(A) − H(A|B) = H(B) − H(B|A) .Взаимная условная информация случайных величин A и B при условии,что задана случайная величина C, вычисляется по формулегдеI(A, B|C) = H(A|C) − H(A|B, C) ,H(A) = − ∑ AP{A} log 2 P{A}есть энтропия случайной величины A иH(A|B) = − ∑ A,BP{A, B} log 2 P{A|B}есть условная энтропия случайной величины A.Информация, полученная из сети за счет коррекции входного паттерна,задается выражениемi g = I(X l , X f |X in ) = H(X l |X in ) − H(X l |X in , X f ) , (8)где X in и X f — начальный и финальный паттерны в процессе воспроизведенияэталона X l , соответственно. В (8) первый член дает величинуинформации, требуемой для нахождения эталона, когда известен лишь начальныйпаттерн (начальная неопределенность восстанавливаемого эталона),а второй — остаточную неопределенность, когда становится известнымУДК 004.032.26 (06) Нейронные сети 39
- Page 1 and 2: МИНИСТЕРСТВО ОБРАЗ
- Page 4 and 5: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 6 and 7: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 8 and 9: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 10 and 11: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 12 and 13: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 14 and 15: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 16 and 17: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 18 and 19: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 20 and 21: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 22 and 23: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 24 and 25: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 26 and 27: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 28 and 29: А. А. ФРОЛОВ 1) , Д. ГУ
- Page 30 and 31: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 32 and 33: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 34 and 35: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 36 and 37: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 40 and 41: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 42 and 43: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 44 and 45: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 46 and 47: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 48 and 49: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 50 and 51: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 52 and 53: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 54 and 55: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 56 and 57: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 58 and 59: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 60 and 61: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 62 and 63: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 64 and 65: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 66 and 67: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 68 and 69: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 70 and 71: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 72 and 73: Б. В. КРЫЖАНОВСКИЙ,
- Page 74 and 75: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 76 and 77: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 78 and 79: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 80 and 81: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 82 and 83: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 84 and 85: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 86 and 87: Н. Г. МАКАРЕНКОИнст
ISBN 5–7262–0471–9ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕномера активных нейронов вместо векторов длины N с компонентами состояния(0 или 1) всех нейронов. Тогда более удобно представлять пересеченияв видеm(X l , X(t)) =1[ ∑XNp (1 − p)iX l i (t) − Np 2] =i=1,N1[ ∑=X i(j) (t) − Np 2] ,Np (1 − p)j=1,nгде i(j) — номер активного нейрона, задаваемый вектором, представляющимl-тый эталон. Поэтому требуется только n сложений для вычислениякаждого пересечения и Ln сложений для вычисления всех пересечений.Аналогично, для вычисления всех N величин A i и B i требуется только2Ln сложений и в целом требуется примерно 3Ln сложений для вычислениявсех N величин синаптических возбуждений η i . Заметим, что дляобычной процедуры, основанной на прямом вычислении η i согласно (3),необходимо nN сложений. Таким образом, для малых информационныхнагрузок (L < N/3) модифицированная процедура имеет преимуществоперед обычной даже по числу вычислений.Описанная процедура позволяет обойтись без записи матрицы связей,но не набора эталонов. Однако компьютерная память, требуемая для записиматрицы связей и требуемая для записи набора эталонов, сравнимы. Фактически,для записи около N 2 /2 независимых коэффициентов матрицы связейкак действительных чисел требуется 2N 2 байтов памяти (если положить,что для записи каждого числа требуется 4 байта). В то же время для записиLn индексов активных нейронов в эталонах как переменных типа «слово»требуется 2Ln байтов (если положить, что для записи слова требуется 2байта). Для разреженного кодирования мы имеем L ≃ αN/|p log 2 p|. Поэтому,память, требуемая для записи набора эталонов, по порядку только в| log 2 p| раз меньше, чем требуемая для записи матрицы связей. Чтобы обойтисьбез записи эталонов, мы использовали процедуру, в которой эталонызаново генерируются на каждом шаге воспроизведения, с помощью однойи той же последовательности псевдослучайных величин. Для генерацииL эталонов требуется Ln псевдослучайных величин. Для этого требуетсяпримерно то же компьютерное время, что и для вычисления синаптическихвозбуждений по уравнению (7). Таким образом, при моделированииработы сети можно обойтись не только без записи в компьютерную память38 УДК 004.032.26 (06) Нейронные сети