Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
пользовано в этом вычислительном эксперименте. Для обучения нейронного устройства было применено «обобщенное дельто-правило» [41] в рассмотренной выше модификации, параметр скорости обучения был взят равным 0.05, а параметр момента – 0.9 (см. [41]). Обучение было прекращено по достижению значения коэффициента корреляции между предсказанными и экспериментальными значениями температуры кипения равного 0.994 (когда значения коэффициента корреляции и среднеквадратичных ошибок на обоих выборках перестали меняться). Эта величина больше любого коэффициента корреляции, который был достигнут на этой же выборке при использовании какого-либо одного топологического индекса в качестве молекулярного дескриптора, но сравнима с коэффициентами корреляции, которые на этой выборке могут быть получены при помощи множественной линейной регрессии сразу с несколькими топологическими индексами. Этот же вывод можно было бы сделать и при рассмотрении среднеквадратичных ошибок на обеих выборках (5.2 градуса на обучающей выборке и 5.1 градус на контрольной выборке). Тем не менее, этот результат хуже того, который был ранее нами достигнут для температуры кипения алканов при использовании стандартного многослойного персептрона и набора топологических индексов либо фрагментных дескрипторов [406]. Кроме того, обучение нейронного устройства происходило крайне медленно (несколько часов на компьютере Pentium-100). Для поиска путей улучшения работы нейронного устройства мы изучили влияние его архитектуры на производительность. Оказалось, что число «коллекторов» внутри каждого «глаза» существенным образом влияет на время (несколько минут вместо часов на компьютере Pentium-100) и на качество обучения. При использовании той же самой архитектуры нейронного устройства, но с пятью «коллекторами» внутри каждого из двух «глаз», было достигнуто очень высокое значение коэффициента корреляции, равное 0.9994, и очень низкие среднеквадратичные ошибки на обучающей (1.6 градусов) и на контрольной (2.4 градуса) выборках. Подобная прогнозирующая способность находится на уровне лучших результатов, которые были когда-либо достигнуты для температуры кипения алканов. Тем не менее, дальнейшее увеличение числа «коллекто- 286
ров» ведет к ухудшению прогнозирующей способности нейронного устройства, по-видимому, вследствие неоправданного увеличения числа настраиваемых параметров при небольшом размере обучающей выборки. При изучении работы нейронного устройства мы также обнаружили, что скорость и стабильность обучения можно существенно улучшить при использовании отдельных значений параметра скорости обучения для «мозга» и «глаз». Как оказалось, для стабильного обучения необходимо, чтобы параметр скорости обучения для «глаз» был на порядок меньше, чем для «мозга». Что же касается абсолютных значений параметра фактора обучения для «мозга», то 0.25 в начале и 0.05 в конце обучения являются, по-видимому, оптимальными. Вязкость углеводородов. В следующем примере выборка, состоящая из 81 представителя разнообразных углеводородов С 6 -С 21 [504] (циклических и ациклических, насыщенных и ненасыщенных, ароматических и алифатических) была использована для построения нейросетевой модели, позволяющей прогнозировать их вязкость при 40 о С. Как и в предыдущем случае, выборка была разбита на обучающую (65 соединений) и контрольную (16 соединений) выборки. Нейронное устройство, содержащее «мозг» с двумя скрытыми нейронами и один глаз E2 с тремя скрытыми нейронами в каждом «рецепторе» и пятью «коллекторами», было выбрано для этого исследования. После 1100 эпох обучения коэффициент корреляции стал 0.996, среднеквадратичная ошибка на обучающей выборке достигла 0.15 сантипуаз, а на контрольной выборке – 0.18 сантипуаз. Подобные статистические показатели по предсказанию вязкости углеводородов до сих пор являются, по-видимому, одними из лучших. Теплота испарения углеводородов. В следующем примере выборка из 267 углеводородов C 4 -C 26 [505] (как и в предыдущем примере, циклических и ациклических, насыщенных и ненасыщенных, ароматических и алифатических) была использована для обучения нейронного устройства прогнозированию теплоты испарения. Из этой выборки 54 соединения были случайным образом отобраны в контрольную выборку, тогда как оставшиеся 213 соединений образовали обучающую выборку. Нейронное устройство, содержащее «мозг» с тремя скрытыми нейронами и два «глаза», E1 и E2, каждый из которых содержит по 287
- Page 235 and 236: Значения констант
- Page 237 and 238: делена на обучающу
- Page 239 and 240: ность. Основной цел
- Page 241 and 242: На Рис. 50 приводятс
- Page 243 and 244: молекул с конденси
- Page 245 and 246: 7.1.4. Прогнозировани
- Page 247 and 248: сивов разрозненных
- Page 249 and 250: используются как т
- Page 251 and 252: были модифицирован
- Page 253 and 254: зависимости давлен
- Page 255 and 256: Объединенный набор
- Page 257 and 258: Оба механизма вклю
- Page 259 and 260: творителя, а также
- Page 261 and 262: Табл. 29. Характерис
- Page 263 and 264: набора дескрипторо
- Page 265 and 266: угодно сложные зав
- Page 267 and 268: симостей «структур
- Page 269 and 270: лей, хотя все модел
- Page 271 and 272: одновременно решае
- Page 273 and 274: Как видно приведен
- Page 275 and 276: принципе гарантиро
- Page 277 and 278: мерации атомов дос
- Page 279 and 280: бор сигналов, соотв
- Page 281 and 282: только с атомных се
- Page 283 and 284: 7.4.3. Примеры разных
- Page 285: Рис. 66. Минимальная
- Page 289 and 290: бензол, было отброш
- Page 291 and 292: на атому. После 4000 э
- Page 293 and 294: фов), то и все нейро
- Page 295 and 296: проведения линейно
- Page 297 and 298: тате чего NASAWIN прев
- Page 299 and 300: 8.2.3. Химически-орие
- Page 301 and 302: 8.2.7. Нейросетевые п
- Page 303 and 304: 8.2.11. Кластеризация
- Page 305 and 306: нейросетевом прогр
- Page 307 and 308: 18 p1_Nlp Количество не
- Page 309 and 310: 43 p 4 _ SPR = ∑ R( a ) ⋅ R( a
- Page 311 and 312: делей. Программа та
- Page 313 and 314: позволяющая прогно
- Page 315 and 316: ЛИТЕРАТУРА 1. Гилле
- Page 317 and 318: 31. Aoyama T.; Ichikawa H. Neural N
- Page 319 and 320: 54. Karelson M.; Dobchev D.A.; Kuls
- Page 321 and 322: 79. Carpenter G.A.; Grossberg S. A
- Page 323 and 324: 103. Ежов А.А.; Токаев
- Page 325 and 326: 126. Benson S.W.; Buss J.H. Additiv
- Page 327 and 328: 148. Fisanick W.; Lipkus A.H.; Rusi
- Page 329 and 330: 169. Klopman G.; Macina O.T.; Levin
- Page 331 and 332: 189. Nilakantan R.; Bauman N.; Dixo
- Page 333 and 334: 209. Татевский В.М. Кл
- Page 335 and 336: ces and Related Descriptors in QSAR
ров» ведет к ухудшению прогнозирующей способности нейронного устройства,<br />
по-видимому, вследствие неоправданного увеличения числа настраиваемых параметров<br />
при небольшом размере обучающей выборки.<br />
При изучении работы нейронного устройства мы также обнаружили, что<br />
скорость и стабильность обучения можно существенно улучшить при использовании<br />
отдельных значений параметра скорости обучения для «мозга» и<br />
«глаз». Как оказалось, для стабильного обучения необходимо, чтобы параметр<br />
скорости обучения для «глаз» был на порядок меньше, чем для «мозга». Что же<br />
касается абсолютных значений параметра фактора обучения для «мозга», то<br />
0.25 в начале и 0.05 в конце обучения являются, по-видимому, оптимальными.<br />
Вязкость углеводородов. В следующем примере выборка, состоящая из<br />
81 представителя разнообразных углеводородов С 6 -С 21 [504] (циклических и<br />
ациклических, насыщенных и ненасыщенных, ароматических и алифатических)<br />
была использована для построения нейросетевой модели, позволяющей прогнозировать<br />
их вязкость при 40 о С. Как и в предыдущем случае, выборка была разбита<br />
на обучающую (65 соединений) и контрольную (16 соединений) выборки.<br />
Нейронное устройство, содержащее «мозг» с двумя скрытыми нейронами и<br />
один глаз E2 с тремя скрытыми нейронами в каждом «рецепторе» и пятью<br />
«коллекторами», было выбрано для этого исследования. После 1100 эпох обучения<br />
коэффициент корреляции стал 0.996, среднеквадратичная ошибка на обучающей<br />
выборке достигла 0.15 сантипуаз, а на контрольной выборке – 0.18 сантипуаз.<br />
Подобные статистические показатели по предсказанию вязкости углеводородов<br />
до сих пор являются, по-видимому, одними из лучших.<br />
Теплота испарения углеводородов. В следующем примере выборка из<br />
267 углеводородов C 4 -C 26 [505] (как и в предыдущем примере, циклических и<br />
ациклических, насыщенных и ненасыщенных, ароматических и алифатических)<br />
была использована для обучения нейронного устройства прогнозированию теплоты<br />
испарения. Из этой выборки 54 соединения были случайным образом отобраны<br />
в контрольную выборку, тогда как оставшиеся 213 соединений образовали<br />
обучающую выборку. Нейронное устройство, содержащее «мозг» с тремя<br />
скрытыми нейронами и два «глаза», E1 и E2, каждый из которых содержит по<br />
287