формат Adobe PDF, размер 2173 Кб - Информационно ...

формат Adobe PDF, размер 2173 Кб - Информационно ... формат Adobe PDF, размер 2173 Кб - Информационно ...

neurolectures.narod.ru
from neurolectures.narod.ru More from this publisher
11.07.2015 Views

ISBN 5–7262–0471–9ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕАналогично,P (W = t) =∑R={t,f}P (R) · P (W = t | R) = 0.31 .Теперь, если мы достоверно знаем, что ночью был дождь, то эта информацияизменит (увеличит) вероятности наблюдения влаги на траве:P (C = t | R = t) =∑P (S) · P (C = t | R = t, S) = 0.82 ,S={t,f}P (W = t | R = t) = 0.8 .С другой стороны, пусть Холмсу известно, что трава у его дома влажная.Каковы вероятности того, что был дождь, и что дело — в поливальнойустановке? Вычисления дают:P (R = t | C = t) =P (R = t, C = t)P = (C = t)=0.054 + 0.1920.4= 0.615 .P (S = t | C = t) =P (S = t, C = t)P = (C = t)=0.054 + 0.0980.4= 0.38 .Числитель этой формулы получен, как обычно, путем маргинализации —суммирования по значениям переменных S и W , причем суммирование попоследней фактически тривиально из-за нормированности матрицы P (W |R).Значения апостериорных вероятностей и для дождя, и для поливальноймашины выше соответствующих величин 0.3 и 0.2 для априорных вероятностей,как и следовало ожидать. Если теперь Холмс обнаружит, что травау дома Ватсона влажная, то вероятности снова изменятся:P (R = t, C = t, W = t)P (R = t | C = t, W = t) = =P (C = t, W = t)0.8 · 0.3 · (0.18 + 0.64)=0.8 · (0.054 + 0.192) + 0.1 · (0.098 + 0.056) = 0.19680.2122 = 0.9274 ,P (S = t | C = t, W = t) = 0.2498 .Ясно, что вероятность дождя возросла вследствие дополнительной информациио влаге на траве у дома Ватсона. Так как высокая вероятность дождя162 УДК 004.032.26 (06) Нейронные сети

С. А. ТЕРЕХОВобъясняет влажность травы у дома самого Холмса, то объяснений при помощидругой причины (т. е. включенной поливальной установки) большене требуется и вероятность ее понижается почти до исходного значения0.2. Это и есть пример «попутного объяснения», о котором говорилось впредыдущих параграфах.В общем случае при росте числа переменных в сети, задача точного нахождениявероятностей в сети является крайне вычислительно сложной 8 .Это вызвано комбинаторным сочетанием значений переменных в суммахпри вычислении маргиналов от совместного распределения вероятностей,а также потенциальным наличием нескольких путей, связывающих парупеременных на графе. На практике часто используются приближенные методыдля оценок комбинаторных сумм, например вариационные методы имногочисленные вариации методов Монте-Карло. Одним из таких приближенныхподходов является метод выборок из латинских гиперкубов 9 .Выборочное оценивание вероятностей на латинских гиперкубахВыборки из латинских гиперкубов начали широко использоваться послеудачных решений в области планирования эксперимента, где их применениепозволяет уменьшить взаимную зависимость факторов без увеличениячисла экспериментов [19].Представим вначале, что нам требуется разместить 8 фигур на 64 клеткахшахматной доски так, чтобы в одномерных проекциях на вертикаль игоризонталь фигуры были распределены максимально равномерно. Решениеэтой классической задачи дается 8 ладьями, расположенными так, что,в соответствии с шахматными правилами, ни одна из них не бьет другую.Любое из 8! решений годится для приведенных условий. Однако, если мыдобавим требование, чтобы двумерное распределение на доске было какможно ближе к равномерному, не все решения окажутся пригодными. Вчастности, решение, в котором все ладьи выстроились на одной диагонали,существенно недооценивает области двух противоположных углов.Более удовлетворительное решение можно получить, многократно меняяместами строки для пар наудачу выбираемых ладей. При этом отбираютсяконфигурации, удовлетворяющие некоторым специальным услови-8 Эта задача относится к классу NP-полных. (Cooper G. F. The computational complexityof probabilistic inference using Bayesian belief networks // Artificial Intelligence. 1990. –42, (2–3). – pp. 393–405).9 LHS — Latin Hypercube Sampling.УДК 004.032.26 (06) Нейронные сети 163

С. А. ТЕРЕХОВобъясняет влажность травы у дома самого Холмса, то объяснений при помощидругой причины (т. е. включенной поливальной установки) большене требуется и вероятность ее понижается почти до исходного значения0.2. Это и есть пример «попутного объяснения», о котором говорилось впредыдущих параграфах.В общем случае при росте числа переменных в сети, задача точного нахождениявероятностей в сети является крайне вычислительно сложной 8 .Это вызвано комбинаторным сочетанием значений переменных в суммахпри вычислении маргиналов от совместного распределения вероятностей,а также потенциальным наличием нескольких путей, связывающих парупеременных на графе. На практике часто используются приближенные методыдля оценок комбинаторных сумм, например вариационные методы имногочисленные вариации методов Монте-Карло. Одним из таких приближенныхподходов является метод выборок из латинских гиперкубов 9 .Выборочное оценивание вероятностей на латинских гиперкубахВыборки из латинских гиперкубов начали широко использоваться послеудачных решений в области планирования эксперимента, где их применениепозволяет уменьшить взаимную зависимость факторов без увеличениячисла экспериментов [19].Представим вначале, что нам требуется разместить 8 фигур на 64 клеткахшахматной доски так, чтобы в одномерных проекциях на вертикаль игоризонталь фигуры были распределены максимально равномерно. Решениеэтой классической задачи дается 8 ладьями, расположенными так, что,в соответствии с шахматными правилами, ни одна из них не бьет другую.Любое из 8! решений годится для приведенных условий. Однако, если мыдобавим требование, чтобы двумерное распределение на доске было какможно ближе к равномерному, не все решения окажутся пригодными. Вчастности, решение, в котором все ладьи выстроились на одной диагонали,существенно недооценивает области двух противоположных углов.Более удовлетворительное решение можно получить, многократно меняяместами строки для пар наудачу выбираемых ладей. При этом отбираютсяконфигурации, удовлетворяющие некоторым специальным услови-8 Эта задача относится к классу NP-полных. (Cooper G. F. The computational complexityof probabilistic inference using Bayesian belief networks // Artificial Intelligence. 1990. –42, (2–3). – pp. 393–405).9 LHS — Latin Hypercube Sampling.УДК 004.032.26 (06) Нейронные сети 163

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!