11.07.2015 Views

формат Adobe PDF, размер 2173 Кб - Информационно ...

формат Adobe PDF, размер 2173 Кб - Информационно ...

формат Adobe PDF, размер 2173 Кб - Информационно ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

С. А. ТЕРЕХОВЭта процедура аналогична действиям инженера по знаниям при построенииэкспертной системы в некоторой предметной области. Отношениязависимости, априорные и условные вероятности соответствуют фактам иправилам в базе знаний ЭС.Построенная априорная байесова сеть формально готова к использованию.Вероятностные вычисления в ней проводятся с использованием ужеописанной процедуры маргинализации полной вероятности.Дальнейшее улучшение качества прогнозирования может быть достигнутопутем обучения байесовой сети на имеющихся экспериментальныхданных. Обучение традиционно разделяется на две составляющие — выборэффективной топологии сети, включая, возможно, добавление новыхузлов, соответствующих скрытым переменным, и настройка параметровусловных распределений для значений переменных в узлах.Обучение байесовых сетей на экспериментальных данныхЕсли структура связей в сети зафиксирована, то обучение состоит в выборесвободных параметров распределений условных вероятностей P [x j |pa(x j )]. Для случая дискретных значений переменных x j , в основном рассматриваемогов лекции, неизвестными параметрами являются значенияматричных элементов распределений (см., например, табл. 1).Максимально правдоподобными оценками этих матричных элементовмогут служить экспериментальные частоты реализации соответствующихнаборов значений переменных. Вспомним, однако, ситуацию с любительницейчая со сливками и профессиональным музыкантом, описанную вовводной части лекции. Статистические частоты, абсолютизируемые в методемаксимального правдоподобия, не учитывают различия в экспертномопыте для разных экспериментальных ситуаций.Для учета априорных знаний эксперта в вероятностном моделированииобратимся к байесову подходу к обучению. Рассмотрим сначала обаподхода — классический и байесов на примере простой задачи 14 обученияоднопараметрической модели.Пусть в нашем распоряжении имеется монета, свойства которой намдостоверно не известны. Проведем N экспериментов по подбрасыванию14 Описание этой задачи, восходящей еще к классикам, можно в том или ином виденайти во многих работах по теории вероятности. Но задача эта столь показательна, чтокомментарий к ней кажется просто необходимым при иллюстрации особенностей байесоваподхода.УДК 004.032.26 (06) Нейронные сети 169

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!