Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
ными позициями присоединения заместителей, а полученная выборка из 92 соединений<br />
была случайным образом разбита на обучающую выборку из 84 соединений<br />
и контрольную выборку из 8 соединений. Было использовано 5 дескрипторов,<br />
описывающих заместители: π-константы для пара- (R 4 ) и двух метаположений<br />
(R 3 и R 5 ) и E s -константы двух орто-положений (R 2 и R 6 ). Эффективная<br />
концентрация, вызывающая 50% блокирование кальциевых каналов<br />
(log(1/EC 50 )), была взята в качестве биологической активности, которая была<br />
нами скоррелирована со значениями этих пяти дескрипторов при помощи многослойной<br />
нейросети с обратным распространением ошибок, включающей два<br />
скрытых нейрона (при большем числе скрытых нейронов наблюдалась худшая<br />
предсказательная способность нейросетевых моделей). Нейросеть была обучена<br />
по стандартному алгоритму «обобщенного дельта-правила». В процессе обучения<br />
не было «переучивания» (среднеквадратичная ошибка на контрольной выборке<br />
все время уменьшалась), и оно было остановлено после 200.000 итераций,<br />
когда изменение среднеквадратичной ошибки на обучающей выборке на<br />
100 последовательных итерациях стало меньше 0.001 логарифмических единиц.<br />
В результате обучения нейросети среднеквадратичная ошибка на обучающей<br />
выборке составила 0.79 логарифмических единиц (коэффициент корреляции<br />
0.832), а на контрольной выборке – 0.71 логарифмическая единица.<br />
Для сравнения мы провели аналогичное исследование с тем же самым набором<br />
дескрипторов при той же самой разбивке базы на обучающую и контрольную<br />
выборки, но без дублирования соединений. В этом случае среднеквадратичная<br />
ошибка на обучающей выборке оказалась 0.70 логарифмических<br />
единиц (коэффициент корреляции 0.87), а на контрольной выборке – 1.59 логарифмических<br />
единиц. Таким образом, расширение базы за счет добавления копий<br />
соединений с переставленными эквивалентными позициями присоединения<br />
заместителей обеспечило значительное повышение прогнозирующей способности<br />
нейросетевой модели (среднеквадратичная ошибка на контрольной<br />
выборке упала с 1.59 до 0.71 логарифмической единицы). Далее, мы применили<br />
построенную на исходной (нерасширенной) выборке нейросетевую модель для<br />
прогнозирования активности всех клонов (т.е. тех же самых соединений, но с<br />
138