ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ...
ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ... ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ...
ISBN 5–7262–0471–9ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕАналогично,P (W = t) =∑R={t,f}P (R) · P (W = t | R) = 0.31 .Теперь, если мы достоверно знаем, что ночью был дождь, то эта информацияизменит (увеличит) вероятности наблюдения влаги на траве:P (C = t | R = t) =∑P (S) · P (C = t | R = t, S) = 0.82 ,S={t,f}P (W = t | R = t) = 0.8 .С другой стороны, пусть Холмсу известно, что трава у его дома влажная.Каковы вероятности того, что был дождь, и что дело — в поливальнойустановке? Вычисления дают:P (R = t | C = t) =P (R = t, C = t)P = (C = t)=0.054 + 0.1920.4= 0.615 .P (S = t | C = t) =P (S = t, C = t)P = (C = t)=0.054 + 0.0980.4= 0.38 .Числитель этой формулы получен, как обычно, путем маргинализации —суммирования по значениям переменных S и W , причем суммирование попоследней фактически тривиально из-за нормированности матрицы P (W |R).Значения апостериорных вероятностей и для дождя, и для поливальноймашины выше соответствующих величин 0.3 и 0.2 для априорных вероятностей,как и следовало ожидать. Если теперь Холмс обнаружит, что травау дома Ватсона влажная, то вероятности снова изменятся:P (R = t, C = t, W = t)P (R = t | C = t, W = t) = =P (C = t, W = t)0.8 · 0.3 · (0.18 + 0.64)=0.8 · (0.054 + 0.192) + 0.1 · (0.098 + 0.056) = 0.19680.2122 = 0.9274 ,P (S = t | C = t, W = t) = 0.2498 .Ясно, что вероятность дождя возросла вследствие дополнительной информациио влаге на траве у дома Ватсона. Так как высокая вероятность дождя162 УДК 004.032.26 (06) Нейронные сети
С. А. ТЕРЕХОВобъясняет влажность травы у дома самого Холмса, то объяснений при помощидругой причины (т. е. включенной поливальной установки) большене требуется и вероятность ее понижается почти до исходного значения0.2. Это и есть пример «попутного объяснения», о котором говорилось впредыдущих параграфах.В общем случае при росте числа переменных в сети, задача точного нахождениявероятностей в сети является крайне вычислительно сложной 8 .Это вызвано комбинаторным сочетанием значений переменных в суммахпри вычислении маргиналов от совместного распределения вероятностей,а также потенциальным наличием нескольких путей, связывающих парупеременных на графе. На практике часто используются приближенные методыдля оценок комбинаторных сумм, например вариационные методы имногочисленные вариации методов Монте-Карло. Одним из таких приближенныхподходов является метод выборок из латинских гиперкубов 9 .Выборочное оценивание вероятностей на латинских гиперкубахВыборки из латинских гиперкубов начали широко использоваться послеудачных решений в области планирования эксперимента, где их применениепозволяет уменьшить взаимную зависимость факторов без увеличениячисла экспериментов [19].Представим вначале, что нам требуется разместить 8 фигур на 64 клеткахшахматной доски так, чтобы в одномерных проекциях на вертикаль игоризонталь фигуры были распределены максимально равномерно. Решениеэтой классической задачи дается 8 ладьями, расположенными так, что,в соответствии с шахматными правилами, ни одна из них не бьет другую.Любое из 8! решений годится для приведенных условий. Однако, если мыдобавим требование, чтобы двумерное распределение на доске было какможно ближе к равномерному, не все решения окажутся пригодными. Вчастности, решение, в котором все ладьи выстроились на одной диагонали,существенно недооценивает области двух противоположных углов.Более удовлетворительное решение можно получить, многократно меняяместами строки для пар наудачу выбираемых ладей. При этом отбираютсяконфигурации, удовлетворяющие некоторым специальным услови-8 Эта задача относится к классу NP-полных. (Cooper G. F. The computational complexityof probabilistic inference using Bayesian belief networks // Artificial Intelligence. 1990. –42, (2–3). – pp. 393–405).9 LHS — Latin Hypercube Sampling.УДК 004.032.26 (06) Нейронные сети 163
- Page 112 and 113: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 114 and 115: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 116 and 117: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 118 and 119: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 120 and 121: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 122 and 123: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 124 and 125: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 126 and 127: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 128 and 129: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 130 and 131: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 132 and 133: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 134 and 135: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 136 and 137: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 138 and 139: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 140 and 141: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 142 and 143: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 144 and 145: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 146 and 147: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 148 and 149: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 150 and 151: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 152 and 153: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 154 and 155: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 156 and 157: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 158 and 159: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 160 and 161: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 164 and 165: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 166 and 167: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 168 and 169: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 170 and 171: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 172 and 173: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 174 and 175: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 176 and 177: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 178 and 179: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 180 and 181: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 182 and 183: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 184 and 185: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 186 and 187: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 188: НАУЧНАЯ СЕССИЯ МИФ
ISBN 5–7262–0471–9ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕАналогично,P (W = t) =∑R={t,f}P (R) · P (W = t | R) = 0.31 .Теперь, если мы достоверно знаем, что ночью был дождь, то эта информацияизменит (увеличит) вероятности наблюдения влаги на траве:P (C = t | R = t) =∑P (S) · P (C = t | R = t, S) = 0.82 ,S={t,f}P (W = t | R = t) = 0.8 .С другой стороны, пусть Холмсу известно, что трава у его дома влажная.Каковы вероятности того, что был дождь, и что дело — в поливальнойустановке? Вычисления дают:P (R = t | C = t) =P (R = t, C = t)P = (C = t)=0.054 + 0.1920.4= 0.615 .P (S = t | C = t) =P (S = t, C = t)P = (C = t)=0.054 + 0.0980.4= 0.38 .Числитель этой формулы получен, как обычно, путем маргинализации —суммирования по значениям переменных S и W , причем суммирование попоследней фактически тривиально из-за нормированности матрицы P (W |R).Значения апостериорных вероятностей и для дождя, и для поливальноймашины выше соответствующих величин 0.3 и 0.2 для априорных вероятностей,как и следовало ожидать. Если теперь Холмс обнаружит, что травау дома Ватсона влажная, то вероятности снова изменятся:P (R = t, C = t, W = t)P (R = t | C = t, W = t) = =P (C = t, W = t)0.8 · 0.3 · (0.18 + 0.64)=0.8 · (0.054 + 0.192) + 0.1 · (0.098 + 0.056) = 0.19680.2122 = 0.9274 ,P (S = t | C = t, W = t) = 0.2498 .Ясно, что вероятность дождя возросла вследствие дополнительной информациио влаге на траве у дома Ватсона. Так как высокая вероятность дождя162 УДК 004.032.26 (06) Нейронные сети