На правах рукописи

На правах рукописи На правах рукописи

cdn.scipeople.com
from cdn.scipeople.com More from this publisher
19.11.2014 Views

ром» внутри каждого «глаза», содержащая только взаимно независимые подгоночные параметры (веса связей и пороги активации нейронов), называется минимальной. Минимальная конфигурация может не соответствовать какой-либо конкретной молекуле – ее можно рассматривать как шаблон, с помощью которого можно образовать конфигурацию для любой конкретной молекулы путем размножения рецепторов внутри глаз. Следует отметить, что понятие минимальной конфигурации играет ключевую роль при эмуляции работы данного нейронного устройства на компьютере, поскольку только минимальная конфигурация сети с относительно малым и фиксированным числом нейронов и синапсов может быть размещена в компьютерной памяти и эффективно обработана. При обучении нейронного устройства как только какой-либо настроечный параметр (вес связи либо порог активации) внутри рецептора принимает новое значение, соответствующие параметры во всех других рецепторах внутри этого же «глаза» принимают то же самое значение. Благодаря этому, обучение всего нейронного устройства может быть представлено как минимизация функции ошибки в пространстве подстроечных параметров, относящихся к минимальной конфигурации. Таким образом, минимальной конфигурации достаточно для хранения всех подстроечных параметров нейронного устройства и для его воспроизведения в любой из необходимых конфигураций. На практике для больших n это число может быть существенно сокращено путем введения фильтров, представляющих собой дополнительного условия на использование «рецепторов» (например, требование наличия внутри рецепторного поля определенной подструктуры). Например, наложение требования наличия внутри «рецептивного поля» определенных подструктур хотя может и увеличить число «глаз» (в соответствии с количеством таких подструктур), но значительно уменьшает число «рецепторов» внутри каждого из них. Обработанные сигналы со всех «рецепторов» внутри «глаза» накапливаются в «коллекторах», которые определяются как нейроны, суммирующие и, возможно, трансформирующие сигналы, получаемые со всех «рецепторов» внутри «глаза». Таким образом, в поле зрения «глаза» попадает либо все «сенсорное поле», либо, в случае простейшего «глаза», воспринимающего сигналы 280

только с атомных сенсоров, - диагональ «сенсорного поля». При произвольной перенумерации атомов, при которой атом i получает номер P(i), «рецептор» (v 1 , v 2 , …, v i , …, v n ) получает новый идентификатор (P(v 1 ), P(v 2 ), …, P(v i ), …, P(v n )). Если в глазе присутствуют «рецепторы» со всеми возможными идентификаторами, которые могут быть получены таким образом, то результатом подобной перенумерации станет лишь перестановка «рецепторов» внутри «глаза». Поскольку при суммировании в «коллекторах» сигналов, сформированных «рецепторами», при перестановке слагаемых сумма не меняется, то полная идентичность строения и характеристик всех «рецепторов» внутри «глаза» обеспечивает инвариантность формируемых «коллекторами» сигналов относительно перенумерации атомов в химической структуре. Каждый «рецептор» внутри нейронного устройства представляет собой многослойную нейронную сеть с обратным распространением ошибки при обучении (т.н. многослойный персептрон), состоящую из одного скрытого и одного выходного слоя. Число скрытых нейронов (т.е. принадлежащих этому скрытому слою) неограниченно, тогда как число выходных нейронов равно числу «коллекторов» внутри «глаза». Каждый скрытый нейрон принимает сигналы от сенсоров, расположенных в соответствующем «рецептивном поле», обрабатывает их и передает результат на каждый из выходных нейронов. Каждый выходной нейрон, в свою очередь, тоже обрабатывает свои входные сигналы и передает результат на соответствующий «коллектор». «Мозг» также является многослойной нейронной сетью с обратным распространением сигнала при обучении (многослойным персептроном), содержащий один выходной и, возможно, один скрытый слой нейронов. Сигналы, формируемые «коллекторами», поступают на скрытый слой «мозга», оттуда на слой выходных нейронов, каждый из которых формирует сигнал, соответствующий прогнозируемому свойству химического соединения. Распространение сигналов внутри сети и динамика ее обучения описываются точно такими же математическими выражениями, как и в случае обычной многослойной нейронной сети с обратным распространением ошибки при обучении [42]. 281

только с атомных сенсоров, - диагональ «сенсорного поля». При произвольной<br />

перенумерации атомов, при которой атом i получает номер P(i), «рецептор» (v 1 ,<br />

v 2 , …, v i , …, v n ) получает новый идентификатор (P(v 1 ), P(v 2 ), …, P(v i ), …, P(v n )).<br />

Если в глазе присутствуют «рецепторы» со всеми возможными идентификаторами,<br />

которые могут быть получены таким образом, то результатом подобной<br />

перенумерации станет лишь перестановка «рецепторов» внутри «глаза». Поскольку<br />

при суммировании в «коллекторах» сигналов, сформированных «рецепторами»,<br />

при перестановке слагаемых сумма не меняется, то полная идентичность<br />

строения и характеристик всех «рецепторов» внутри «глаза» обеспечивает<br />

инвариантность формируемых «коллекторами» сигналов относительно<br />

перенумерации атомов в химической структуре.<br />

Каждый «рецептор» внутри нейронного устройства представляет собой<br />

многослойную нейронную сеть с обратным распространением ошибки при обучении<br />

(т.н. многослойный персептрон), состоящую из одного скрытого и одного<br />

выходного слоя. Число скрытых нейронов (т.е. принадлежащих этому скрытому<br />

слою) неограниченно, тогда как число выходных нейронов равно числу<br />

«коллекторов» внутри «глаза». Каждый скрытый нейрон принимает сигналы от<br />

сенсоров, расположенных в соответствующем «рецептивном поле», обрабатывает<br />

их и передает результат на каждый из выходных нейронов. Каждый выходной<br />

нейрон, в свою очередь, тоже обрабатывает свои входные сигналы и передает<br />

результат на соответствующий «коллектор».<br />

«Мозг» также является многослойной нейронной сетью с обратным распространением<br />

сигнала при обучении (многослойным персептроном), содержащий<br />

один выходной и, возможно, один скрытый слой нейронов. Сигналы,<br />

формируемые «коллекторами», поступают на скрытый слой «мозга», оттуда на<br />

слой выходных нейронов, каждый из которых формирует сигнал, соответствующий<br />

прогнозируемому свойству химического соединения. Распространение<br />

сигналов внутри сети и динамика ее обучения описываются точно такими же<br />

математическими выражениями, как и в случае обычной многослойной нейронной<br />

сети с обратным распространением ошибки при обучении [42].<br />

281

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!