Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
Cl N N Cl Br Br Cl N N Cl Cl Br Br Cl Br N Cl Cl N Br Br Br Br Br Cl N Cl Cl N Cl Рис. 30. Структуры из левой колонки таблицы должны быть дополнены структурами из правой колонки для того, чтобы нейронная сеть могла обучиться необходимым свойствам симметрии. В некоторых случаях, когда общая подструктура замещена симметрично (как в четвертой строке), это означает, что подобные структуры должны быть дублированы (либо им приписан весовой фактор 2). В этом случае нейронные сети обучаются строить нелинейные зависимости «структура-активность» с необходимыми свойствами симметрии. В начале обучения нейронные сети дают разные предсказания активности для соединений с перестановкой заместителей в эквивалентных положениях (например, для 2- и 6-хлорпиридинов, которые, очевидно, эквивалентны), поскольку подгоночные параметры нейросети инициализируются случайными числами, однако в процессе обучения эта разность становится незначительной. Следует отметить, что при построении реальных количественных зависимостей «структураактивность» на выборках небольшого размера эта разность исчезает не полностью, поскольку максимально приемлемое число скрытых нейронов, не приводящее к сильному «переучиванию», обычно меньше минимального числа скрытых нейронов, необходимого для полного ее исчезновения. На практике, одна- 136
ко, эта разница всегда оказывается значительно меньшей, чем погрешность нейросетевой модели. Следовательно, при осуществлении прогноза по такой нейросетевой модели для нового соединения необходимо сделать прогнозы для всех копий соединения и результирующие значения усреднить. Пример 1. Блокаторы кальциевых каналов L-типа. В этом примере рассматривается применение концепции обучаемой симметрии к изучению количественных соотношений «структура-активность» для принадлежащих к 1,4- дигидропиридиновому ряду блокаторов кальциевых каналов L-типа (II). R5 R4 R3 R6 R2 H 3 COOC COOCH 3 H 3 C N H CH 3 II Данные по биологической активности были взяты со статьи [353]. Ранее эти данные уже были обработаны с использованием констант заместителей в качестве дескрипторов и линейного регрессионного анализа для получения статистической модели [354], однако оценки прогнозирующей способности построенной модели в этой работе сделано не было. В работе [353] в дополнение к константам заместителей в качестве дескрипторов были использованы еще и топологические индексы, а для построения количественной модели «структураактивность» была применена искусственная нейронная сеть в комбинации с факторным анализом для предобработки дескрипторов. Прогнозирующая способность полученной нейросетевой модели оказалась в этой работе не очень высокой (хотя и значительно лучшей по сравнению с линейно-регрессионной моделью, построенной на том же наборе дескрипторов): наилучшее значение коэффициента корреляции 0.733, а наименьшая среднеквадратичная ошибка прогноза 1.019 логарифмических единиц. В нашем исследовании исходная выборка, состоящая из 46 соединений, была расширена в 2 раза за счет добавления копий соединений с переставлен- 137
- Page 85 and 86: множества различны
- Page 87 and 88: при проведении вир
- Page 89 and 90: 21 01 12 12 21 01 Рис. 17. Ре
- Page 91 and 92: ределенных атомных
- Page 93 and 94: элементам, что може
- Page 95 and 96: наличие или отсутс
- Page 97 and 98: использовались в н
- Page 99 and 100: ложенные в 1985 г. ато
- Page 101 and 102: 2.3. Ограничения фра
- Page 103 and 104: ГЛАВА 3. МАТЕМАТИЧЕ
- Page 105 and 106: качестве меток исп
- Page 107 and 108: ной нумерации граф
- Page 109 and 110: нейронной сети с пр
- Page 111 and 112: ГЛАВА 4. РАЗРАБОТКА
- Page 113 and 114: линейные комбинаци
- Page 115 and 116: таться внешней по о
- Page 117 and 118: Предсказанное знач
- Page 119 and 120: рипторе, то он пере
- Page 121 and 122: Для решения этой пр
- Page 123 and 124: • D x - среднее значе
- Page 125 and 126: R 1 R 2 R 1 R 2 X R 6 X R N + 3 (CH
- Page 127 and 128: В соответствии с вы
- Page 129 and 130: зовании рассмотрен
- Page 131 and 132: R4 R5 R3 R6 N (a) R2 6 N 2 6 2 6 2
- Page 133 and 134: f ( x, y) ≡ f ( y, x) ⇔ f ( x,
- Page 135: R3 R2 R5 R6 Общая формул
- Page 139 and 140: переставленными эк
- Page 141 and 142: лей приведен в рабо
- Page 143 and 144: деленными» атомами
- Page 145 and 146: 5.1.2. Иерархическая
- Page 147 and 148: водородного соседа
- Page 149 and 150: Атом кислорода в со
- Page 151 and 152: PA1 -PH 2 Атом фосфора,
- Page 153 and 154: Br2 -Br= Формально нез
- Page 155 and 156: то в дальнейшем буд
- Page 157 and 158: После нахождения п
- Page 159 and 160: 5.2.1. Прогнозировани
- Page 161 and 162: зей, а также учитыв
- Page 163 and 164: Эксперимент 50 40 30 20
- Page 165 and 166: Построение QSPR-моде
- Page 167 and 168: работе [268], но с при
- Page 169 and 170: ляются удобным инс
- Page 171 and 172: чета этого свойств
- Page 173 and 174: База 2 (88 соединений
- Page 175 and 176: «редких фрагментов
- Page 177 and 178: пользовании 25 деск
- Page 179 and 180: Tf расч. о С, Tf calc. o C 30
- Page 181 and 182: На первом этапе раб
- Page 183 and 184: 0,935; s = 0,76 кДж·моль -1
- Page 185 and 186: пример использован
Cl N<br />
N Cl<br />
Br<br />
Br<br />
Cl<br />
N<br />
N<br />
Cl<br />
Cl<br />
Br<br />
Br<br />
Cl<br />
Br<br />
N<br />
Cl<br />
Cl<br />
N<br />
Br<br />
Br<br />
Br<br />
Br<br />
Br<br />
Cl<br />
N<br />
Cl<br />
Cl<br />
N<br />
Cl<br />
Рис. 30. Структуры из левой колонки таблицы должны быть дополнены структурами<br />
из правой колонки для того, чтобы нейронная сеть могла обучиться необходимым<br />
свойствам симметрии. В некоторых случаях, когда общая подструктура<br />
замещена симметрично (как в четвертой строке), это означает, что<br />
подобные структуры должны быть дублированы (либо им приписан весовой<br />
фактор 2).<br />
В этом случае нейронные сети обучаются строить нелинейные зависимости<br />
«структура-активность» с необходимыми свойствами симметрии. В начале<br />
обучения нейронные сети дают разные предсказания активности для соединений<br />
с перестановкой заместителей в эквивалентных положениях (например, для<br />
2- и 6-хлорпиридинов, которые, очевидно, эквивалентны), поскольку подгоночные<br />
параметры нейросети инициализируются случайными числами, однако в<br />
процессе обучения эта разность становится незначительной. Следует отметить,<br />
что при построении реальных количественных зависимостей «структураактивность»<br />
на выборках небольшого размера эта разность исчезает не полностью,<br />
поскольку максимально приемлемое число скрытых нейронов, не приводящее<br />
к сильному «переучиванию», обычно меньше минимального числа скрытых<br />
нейронов, необходимого для полного ее исчезновения. На практике, одна-<br />
136