Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
ром» внутри каждого «глаза», содержащая только взаимно независимые подгоночные параметры (веса связей и пороги активации нейронов), называется минимальной. Минимальная конфигурация может не соответствовать какой-либо конкретной молекуле – ее можно рассматривать как шаблон, с помощью которого можно образовать конфигурацию для любой конкретной молекулы путем размножения рецепторов внутри глаз. Следует отметить, что понятие минимальной конфигурации играет ключевую роль при эмуляции работы данного нейронного устройства на компьютере, поскольку только минимальная конфигурация сети с относительно малым и фиксированным числом нейронов и синапсов может быть размещена в компьютерной памяти и эффективно обработана. При обучении нейронного устройства как только какой-либо настроечный параметр (вес связи либо порог активации) внутри рецептора принимает новое значение, соответствующие параметры во всех других рецепторах внутри этого же «глаза» принимают то же самое значение. Благодаря этому, обучение всего нейронного устройства может быть представлено как минимизация функции ошибки в пространстве подстроечных параметров, относящихся к минимальной конфигурации. Таким образом, минимальной конфигурации достаточно для хранения всех подстроечных параметров нейронного устройства и для его воспроизведения в любой из необходимых конфигураций. На практике для больших n это число может быть существенно сокращено путем введения фильтров, представляющих собой дополнительного условия на использование «рецепторов» (например, требование наличия внутри рецепторного поля определенной подструктуры). Например, наложение требования наличия внутри «рецептивного поля» определенных подструктур хотя может и увеличить число «глаз» (в соответствии с количеством таких подструктур), но значительно уменьшает число «рецепторов» внутри каждого из них. Обработанные сигналы со всех «рецепторов» внутри «глаза» накапливаются в «коллекторах», которые определяются как нейроны, суммирующие и, возможно, трансформирующие сигналы, получаемые со всех «рецепторов» внутри «глаза». Таким образом, в поле зрения «глаза» попадает либо все «сенсорное поле», либо, в случае простейшего «глаза», воспринимающего сигналы 280
только с атомных сенсоров, - диагональ «сенсорного поля». При произвольной перенумерации атомов, при которой атом i получает номер P(i), «рецептор» (v 1 , v 2 , …, v i , …, v n ) получает новый идентификатор (P(v 1 ), P(v 2 ), …, P(v i ), …, P(v n )). Если в глазе присутствуют «рецепторы» со всеми возможными идентификаторами, которые могут быть получены таким образом, то результатом подобной перенумерации станет лишь перестановка «рецепторов» внутри «глаза». Поскольку при суммировании в «коллекторах» сигналов, сформированных «рецепторами», при перестановке слагаемых сумма не меняется, то полная идентичность строения и характеристик всех «рецепторов» внутри «глаза» обеспечивает инвариантность формируемых «коллекторами» сигналов относительно перенумерации атомов в химической структуре. Каждый «рецептор» внутри нейронного устройства представляет собой многослойную нейронную сеть с обратным распространением ошибки при обучении (т.н. многослойный персептрон), состоящую из одного скрытого и одного выходного слоя. Число скрытых нейронов (т.е. принадлежащих этому скрытому слою) неограниченно, тогда как число выходных нейронов равно числу «коллекторов» внутри «глаза». Каждый скрытый нейрон принимает сигналы от сенсоров, расположенных в соответствующем «рецептивном поле», обрабатывает их и передает результат на каждый из выходных нейронов. Каждый выходной нейрон, в свою очередь, тоже обрабатывает свои входные сигналы и передает результат на соответствующий «коллектор». «Мозг» также является многослойной нейронной сетью с обратным распространением сигнала при обучении (многослойным персептроном), содержащий один выходной и, возможно, один скрытый слой нейронов. Сигналы, формируемые «коллекторами», поступают на скрытый слой «мозга», оттуда на слой выходных нейронов, каждый из которых формирует сигнал, соответствующий прогнозируемому свойству химического соединения. Распространение сигналов внутри сети и динамика ее обучения описываются точно такими же математическими выражениями, как и в случае обычной многослойной нейронной сети с обратным распространением ошибки при обучении [42]. 281
- Page 229 and 230: ного моделирования
- Page 231 and 232: ля и даже более сов
- Page 233 and 234: ного цианинового к
- Page 235 and 236: Значения констант
- Page 237 and 238: делена на обучающу
- Page 239 and 240: ность. Основной цел
- Page 241 and 242: На Рис. 50 приводятс
- Page 243 and 244: молекул с конденси
- Page 245 and 246: 7.1.4. Прогнозировани
- Page 247 and 248: сивов разрозненных
- Page 249 and 250: используются как т
- Page 251 and 252: были модифицирован
- Page 253 and 254: зависимости давлен
- Page 255 and 256: Объединенный набор
- Page 257 and 258: Оба механизма вклю
- Page 259 and 260: творителя, а также
- Page 261 and 262: Табл. 29. Характерис
- Page 263 and 264: набора дескрипторо
- Page 265 and 266: угодно сложные зав
- Page 267 and 268: симостей «структур
- Page 269 and 270: лей, хотя все модел
- Page 271 and 272: одновременно решае
- Page 273 and 274: Как видно приведен
- Page 275 and 276: принципе гарантиро
- Page 277 and 278: мерации атомов дос
- Page 279: бор сигналов, соотв
- Page 283 and 284: 7.4.3. Примеры разных
- Page 285 and 286: Рис. 66. Минимальная
- Page 287 and 288: ров» ведет к ухудше
- Page 289 and 290: бензол, было отброш
- Page 291 and 292: на атому. После 4000 э
- Page 293 and 294: фов), то и все нейро
- Page 295 and 296: проведения линейно
- Page 297 and 298: тате чего NASAWIN прев
- Page 299 and 300: 8.2.3. Химически-орие
- Page 301 and 302: 8.2.7. Нейросетевые п
- Page 303 and 304: 8.2.11. Кластеризация
- Page 305 and 306: нейросетевом прогр
- Page 307 and 308: 18 p1_Nlp Количество не
- Page 309 and 310: 43 p 4 _ SPR = ∑ R( a ) ⋅ R( a
- Page 311 and 312: делей. Программа та
- Page 313 and 314: позволяющая прогно
- Page 315 and 316: ЛИТЕРАТУРА 1. Гилле
- Page 317 and 318: 31. Aoyama T.; Ichikawa H. Neural N
- Page 319 and 320: 54. Karelson M.; Dobchev D.A.; Kuls
- Page 321 and 322: 79. Carpenter G.A.; Grossberg S. A
- Page 323 and 324: 103. Ежов А.А.; Токаев
- Page 325 and 326: 126. Benson S.W.; Buss J.H. Additiv
- Page 327 and 328: 148. Fisanick W.; Lipkus A.H.; Rusi
- Page 329 and 330: 169. Klopman G.; Macina O.T.; Levin
только с атомных сенсоров, - диагональ «сенсорного поля». При произвольной<br />
перенумерации атомов, при которой атом i получает номер P(i), «рецептор» (v 1 ,<br />
v 2 , …, v i , …, v n ) получает новый идентификатор (P(v 1 ), P(v 2 ), …, P(v i ), …, P(v n )).<br />
Если в глазе присутствуют «рецепторы» со всеми возможными идентификаторами,<br />
которые могут быть получены таким образом, то результатом подобной<br />
перенумерации станет лишь перестановка «рецепторов» внутри «глаза». Поскольку<br />
при суммировании в «коллекторах» сигналов, сформированных «рецепторами»,<br />
при перестановке слагаемых сумма не меняется, то полная идентичность<br />
строения и характеристик всех «рецепторов» внутри «глаза» обеспечивает<br />
инвариантность формируемых «коллекторами» сигналов относительно<br />
перенумерации атомов в химической структуре.<br />
Каждый «рецептор» внутри нейронного устройства представляет собой<br />
многослойную нейронную сеть с обратным распространением ошибки при обучении<br />
(т.н. многослойный персептрон), состоящую из одного скрытого и одного<br />
выходного слоя. Число скрытых нейронов (т.е. принадлежащих этому скрытому<br />
слою) неограниченно, тогда как число выходных нейронов равно числу<br />
«коллекторов» внутри «глаза». Каждый скрытый нейрон принимает сигналы от<br />
сенсоров, расположенных в соответствующем «рецептивном поле», обрабатывает<br />
их и передает результат на каждый из выходных нейронов. Каждый выходной<br />
нейрон, в свою очередь, тоже обрабатывает свои входные сигналы и передает<br />
результат на соответствующий «коллектор».<br />
«Мозг» также является многослойной нейронной сетью с обратным распространением<br />
сигнала при обучении (многослойным персептроном), содержащий<br />
один выходной и, возможно, один скрытый слой нейронов. Сигналы,<br />
формируемые «коллекторами», поступают на скрытый слой «мозга», оттуда на<br />
слой выходных нейронов, каждый из которых формирует сигнал, соответствующий<br />
прогнозируемому свойству химического соединения. Распространение<br />
сигналов внутри сети и динамика ее обучения описываются точно такими же<br />
математическими выражениями, как и в случае обычной многослойной нейронной<br />
сети с обратным распространением ошибки при обучении [42].<br />
281