ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ...
ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ... ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ...
ISBN 5–7262–0471–9ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕустановка, C — влажная ли трава у дома Холмса, и W — влажная ли травау дома Ватсона.Все четыре переменные принимают булевы значения 0 — ложь, (f) или1 — истина (t). Совместная вероятность P (R, S, C, W ), таким образом, даетсясовокупной таблицей из 16 чисел. Таблица вероятностей нормирована,так что∑P (R, S, C, W ) = 1 .R={t,f},...,W ={t,f}Зная совместное распределение, легко найти любые интересующие насусловные и частичные распределения. Например, вероятность того, чтоночью не было дождя при условии, что трава у дома Ватсона — влажная,дается простым вычислением:=P (R = f | W = t) =∑S={t,f},C={t,f}∑R={t,f},S={t,f},C={t,f}P (R = f, W = t)P (W = t)=P (R = f, S, C, W = t).P (R, S, C, W = t)Из теоремы об умножении вероятностей [7, с. 45] полная вероятность представляетсяцепочкой условных вероятностей:P (R, S, C, W ) = P (R) · P (S | R) · P (C | R, S) · P (W | R, S, C) .В описанной ранее байесовой сети ориентированные ребра графа отражаютсуть те обусловливания вероятностей, которые реально имеют место взадаче. Поэтому формула для полной вероятности существенно упрощается:P (R, S, C, W ) = P (R) · P (S) · P (C | R, S) · P (W | R) .Порядок следования переменных в соотношении для полной вероятности,вообще говоря, может быть любым. Однако на практике целесообразновыбирать такой порядок, при котором условные вероятности максимальноредуцируются. Это происходит, если начинать с переменных-«причин»,постепенно переходя к «следствиям». При этом полезно представлять себенекоторую «историю», согласно которой причины влияют на следствия 6 .6 Существуют методики частичной автоматизации выбора порядка переменных и синтезатопологии байесовой сети, основанные на большом объеме экспериментальных данных— примеров связей между переменными в данной задаче.160 УДК 004.032.26 (06) Нейронные сети
С. А. ТЕРЕХОВТАБЛИЦА 1. Априорные условные вероятности в байесовой сетиP (R = t) P (R = f)0.7 0.3P (S = t) P (S = f)0.2 0.8R P (W = t | R) P (W = f | R)t 0.8 0.2f 0.1 0.9R S P (R = t) P (R = f)t t 0.9 0.1t f 0.8 0.2f t 0.7 0.3f f 0.1 0.9В этом смысле, исключая связь между двумя переменными в сети, мыудаляем зависимость от этой переменной в конкретном выражении дляусловной вероятности, делая переменные условно независимыми 7 .В байесовой сети для описания полной вероятности требуется указаниетаблиц локальных условных вероятностей для всех дочерних переменныхв зависимости от комбинации значений их предков на графе.Эта таблица (по случайности!) также содержит 16 чисел, однако вследствиеразбиения задачи на мелкие подзадачи с малым числом переменныхв каждой, нагрузка на эксперта по их оцениванию значительно снижена.Перейдем к вычислениям. Найдем сначала полные вероятности двухсобытий: трава у дома Холмса оказалась влажной, и у дома Ватсона наблюдаетсято же самое.P (C = t) =∑P (R) · P (S) · P (C = t | R, S) =R={t,f}S={t,f}= 0.3 · 0.2 · 0.9 + 0.3 · 0.8 · 0.8 + 0.7 · 0.2 · 0.7 + 0.7 · 0.8 · 0.1 = 0.4 .7 В литературе часто встречается утверждение «отсутствие ребра в байесовой сетиозначает независимость между соответствующими переменными». Понимать его следуеткак условную независимость этих переменных при отсутствии прочей информации.Однако, как отмечено в тексте, эти две переменных могут оказаться зависимыми, еслиони являются предками конвергентного узла, при наличии информации о значении вэтом узле.УДК 004.032.26 (06) Нейронные сети 161
- Page 110 and 111: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 112 and 113: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 114 and 115: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 116 and 117: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 118 and 119: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 120 and 121: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 122 and 123: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 124 and 125: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 126 and 127: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 128 and 129: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 130 and 131: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 132 and 133: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 134 and 135: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 136 and 137: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 138 and 139: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 140 and 141: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 142 and 143: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 144 and 145: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 146 and 147: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 148 and 149: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 150 and 151: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 152 and 153: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 154 and 155: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 156 and 157: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 158 and 159: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 162 and 163: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 164 and 165: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 166 and 167: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 168 and 169: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 170 and 171: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 172 and 173: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 174 and 175: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 176 and 177: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 178 and 179: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 180 and 181: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 182 and 183: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 184 and 185: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 186 and 187: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 188: НАУЧНАЯ СЕССИЯ МИФ
ISBN 5–7262–0471–9ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕустановка, C — влажная ли трава у дома Холмса, и W — влажная ли травау дома Ватсона.Все четыре переменные принимают булевы значения 0 — ложь, (f) или1 — истина (t). Совместная вероятность P (R, S, C, W ), таким образом, даетсясовокупной таблицей из 16 чисел. Таблица вероятностей нормирована,так что∑P (R, S, C, W ) = 1 .R={t,f},...,W ={t,f}Зная совместное распределение, легко найти любые интересующие насусловные и частичные распределения. Например, вероятность того, чтоночью не было дождя при условии, что трава у дома Ватсона — влажная,дается простым вычислением:=P (R = f | W = t) =∑S={t,f},C={t,f}∑R={t,f},S={t,f},C={t,f}P (R = f, W = t)P (W = t)=P (R = f, S, C, W = t).P (R, S, C, W = t)Из теоремы об умножении вероятностей [7, с. 45] полная вероятность представляетсяцепочкой условных вероятностей:P (R, S, C, W ) = P (R) · P (S | R) · P (C | R, S) · P (W | R, S, C) .В описанной ранее байесовой сети ориентированные ребра графа отражаютсуть те обусловливания вероятностей, которые реально имеют место взадаче. Поэтому формула для полной вероятности существенно упрощается:P (R, S, C, W ) = P (R) · P (S) · P (C | R, S) · P (W | R) .Порядок следования переменных в соотношении для полной вероятности,вообще говоря, может быть любым. Однако на практике целесообразновыбирать такой порядок, при котором условные вероятности максимальноредуцируются. Это происходит, если начинать с переменных-«причин»,постепенно переходя к «следствиям». При этом полезно представлять себенекоторую «историю», согласно которой причины влияют на следствия 6 .6 Существуют методики частичной автоматизации выбора порядка переменных и синтезатопологии байесовой сети, основанные на большом объеме экспериментальных данных— примеров связей между переменными в данной задаче.160 УДК 004.032.26 (06) Нейронные сети