На правах рукописи

На правах рукописи На правах рукописи

cdn.scipeople.com
from cdn.scipeople.com More from this publisher
19.11.2014 Views

Cl N N Cl Br Br Cl N N Cl Cl Br Br Cl Br N Cl Cl N Br Br Br Br Br Cl N Cl Cl N Cl Рис. 30. Структуры из левой колонки таблицы должны быть дополнены структурами из правой колонки для того, чтобы нейронная сеть могла обучиться необходимым свойствам симметрии. В некоторых случаях, когда общая подструктура замещена симметрично (как в четвертой строке), это означает, что подобные структуры должны быть дублированы (либо им приписан весовой фактор 2). В этом случае нейронные сети обучаются строить нелинейные зависимости «структура-активность» с необходимыми свойствами симметрии. В начале обучения нейронные сети дают разные предсказания активности для соединений с перестановкой заместителей в эквивалентных положениях (например, для 2- и 6-хлорпиридинов, которые, очевидно, эквивалентны), поскольку подгоночные параметры нейросети инициализируются случайными числами, однако в процессе обучения эта разность становится незначительной. Следует отметить, что при построении реальных количественных зависимостей «структураактивность» на выборках небольшого размера эта разность исчезает не полностью, поскольку максимально приемлемое число скрытых нейронов, не приводящее к сильному «переучиванию», обычно меньше минимального числа скрытых нейронов, необходимого для полного ее исчезновения. На практике, одна- 136

ко, эта разница всегда оказывается значительно меньшей, чем погрешность нейросетевой модели. Следовательно, при осуществлении прогноза по такой нейросетевой модели для нового соединения необходимо сделать прогнозы для всех копий соединения и результирующие значения усреднить. Пример 1. Блокаторы кальциевых каналов L-типа. В этом примере рассматривается применение концепции обучаемой симметрии к изучению количественных соотношений «структура-активность» для принадлежащих к 1,4- дигидропиридиновому ряду блокаторов кальциевых каналов L-типа (II). R5 R4 R3 R6 R2 H 3 COOC COOCH 3 H 3 C N H CH 3 II Данные по биологической активности были взяты со статьи [353]. Ранее эти данные уже были обработаны с использованием констант заместителей в качестве дескрипторов и линейного регрессионного анализа для получения статистической модели [354], однако оценки прогнозирующей способности построенной модели в этой работе сделано не было. В работе [353] в дополнение к константам заместителей в качестве дескрипторов были использованы еще и топологические индексы, а для построения количественной модели «структураактивность» была применена искусственная нейронная сеть в комбинации с факторным анализом для предобработки дескрипторов. Прогнозирующая способность полученной нейросетевой модели оказалась в этой работе не очень высокой (хотя и значительно лучшей по сравнению с линейно-регрессионной моделью, построенной на том же наборе дескрипторов): наилучшее значение коэффициента корреляции 0.733, а наименьшая среднеквадратичная ошибка прогноза 1.019 логарифмических единиц. В нашем исследовании исходная выборка, состоящая из 46 соединений, была расширена в 2 раза за счет добавления копий соединений с переставлен- 137

Cl N<br />

N Cl<br />

Br<br />

Br<br />

Cl<br />

N<br />

N<br />

Cl<br />

Cl<br />

Br<br />

Br<br />

Cl<br />

Br<br />

N<br />

Cl<br />

Cl<br />

N<br />

Br<br />

Br<br />

Br<br />

Br<br />

Br<br />

Cl<br />

N<br />

Cl<br />

Cl<br />

N<br />

Cl<br />

Рис. 30. Структуры из левой колонки таблицы должны быть дополнены структурами<br />

из правой колонки для того, чтобы нейронная сеть могла обучиться необходимым<br />

свойствам симметрии. В некоторых случаях, когда общая подструктура<br />

замещена симметрично (как в четвертой строке), это означает, что<br />

подобные структуры должны быть дублированы (либо им приписан весовой<br />

фактор 2).<br />

В этом случае нейронные сети обучаются строить нелинейные зависимости<br />

«структура-активность» с необходимыми свойствами симметрии. В начале<br />

обучения нейронные сети дают разные предсказания активности для соединений<br />

с перестановкой заместителей в эквивалентных положениях (например, для<br />

2- и 6-хлорпиридинов, которые, очевидно, эквивалентны), поскольку подгоночные<br />

параметры нейросети инициализируются случайными числами, однако в<br />

процессе обучения эта разность становится незначительной. Следует отметить,<br />

что при построении реальных количественных зависимостей «структураактивность»<br />

на выборках небольшого размера эта разность исчезает не полностью,<br />

поскольку максимально приемлемое число скрытых нейронов, не приводящее<br />

к сильному «переучиванию», обычно меньше минимального числа скрытых<br />

нейронов, необходимого для полного ее исчезновения. На практике, одна-<br />

136

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!