ÐÐ ÐÐЦÐÐ ÐÐ ÐÐÐÐЬÐЫХ ÐÐÐÐЩÐÐÐÐ: меÑодологиÑ, задаÑи ...
ÐÐ ÐÐЦÐÐ ÐÐ ÐÐÐÐЬÐЫХ ÐÐÐÐЩÐÐÐÐ: меÑодологиÑ, задаÑи ... ÐÐ ÐÐЦÐÐ ÐÐ ÐÐÐÐЬÐЫХ ÐÐÐÐЩÐÐÐÐ: меÑодологиÑ, задаÑи ...
216 предельным синдромным моделям знаний. Построим редуцированные по тестам модели знаний. Пусть в произвольной синдромной базе знаний {S} заключению z j отвечает подмножество синдромов {S} j (j = 1,…,N). Каждому {S} j отвечает множество тестов {τ} {S}j = ∪ S ∈ {S}j {τ} S . (5.38) Для каждого подмножества номеров I={i 1 ,…, i N-1 } ⊂ Z определено объединение тестов: Найдем такое подмножество номеров I # решение следующей задачи: {τ} I = ∪ j∈I {τ} {S}j . (5.39) ⊂ Z, которое обеспечивает |{τ} # {S}| = min I ⊂ Z |{τ} I |, при условии |{τ} # {S}| < |{τ} {S} |. (5.40) Из-за ограничения решение задачи (5.40) может не существовать. Отсутствие решения означает, что за счет редуцирования не удается уменьшить число тестов. Отметим, что редуцированная синдромная модель знаний существует всегда. Для произвольной синдромной модели знаний {S}=∪ j∈Z {S} j определим редуцированную по тестам модель знаний {S} # следующим образом: {S} # = ∪ j ∈ I# {S} j , (5.41) z k , где k = Z\I # ⇔ & j ∈ I# ¬z j = true, (5.42) где множество I # определяются путем решения задачи (5.40). Правило (5.42) позволяет установить заключение z k в том случае, когда доказано отсутствие всех заключений из I # . Модель {S} # существует только тогда, когда существует решение задачи (5.40). Строя редуцированные модели для всех моделей {S}’ ⊆ {S}, можно найти решение следующей задачи: |{τ # } # {S}| = min {S}’ ⊂ {S} |{τ} # {S}’|, (5.43) {{S} ## } = argmin {S}’ ⊂ {S} |{τ} # {S}’|. (5.44) В качестве {S} может быть выбрана, например, {S} Full в рамках любого описания Ω({τ/T}). Приведем пример построения максимально редуцированных по тестам моделей знаний {{S} ## }. В таблице 5.7 представлена простая схема синдромной модели знаний.
217 Таблица 5.7 – Пример схемы синдромной модели знаний S \ τ τ 1 τ 2 τ 3 τ 4 τ 5 z Ω 1 Ω 2 S 1 + + 1 1 1 S 2 + + 2 2 2 S 3 + 3 3 3 S 4 + 3 4 4, 5 S 5 + + 3 5 5 Дано: {S} = {S 1 ; S 2 ; S 3 ; S 4 ; S 5 } и две базы прецедентов: Ω 1 и Ω 2 . Необходимо найти все максимально редуцированные по тестам модели знаний {{S} ## } для каждой из баз прецедентов. Легко убедиться, что для базы прецедентов Ω 1 существует единственная максимально редуцированная по тестам модель {S} ## : {τ} {S}1 = {τ 1 ; τ 2 }; {τ} {S}2 = {τ 2 ; τ 4 }; {τ} {S}3 = {τ 3 ; τ 4 ; τ 5 }; I # = {1, 2}; {τ} # {S} = {τ 1 ; τ 2 ; τ 4 }; |{τ} # {S}|= |{τ # } # {S}| =3; {S} # = {S} ## = {S 1 ; S 2 } & (z 3 ⇔ ¬z 1 & ¬z 2 = true). Таким образом, всего трех тестов из пяти достаточно, чтобы провести полную классификацию на Ω 1 . Для базы прецедентов Ω 2 существуют уже две модели {S} ## . Первая модель описана выше, вторая модель имеет вид: {S} ## = {S 2 ; S 3 ; S 4 } & (z 1 ⇔ ¬z 2 & ¬z 3 = true); I # = {2, 3}; {τ # } # {S} = {τ 2 ; τ 3 ; τ 4 }; |{τ # } # {S}|= 3. Отметим, что число синдромов в обеих моделях {S} ## разное. Что касается сути оптимизации, то первая и вторая модели отличаются только тестами τ 1 и τ 2 . Если необходимо выбрать одну из двух моделей, то следует привлекать для анализа дополнительные характеристики тестов τ 1 и τ 2 , например, стоимость или сроки выполнения. Предложение 5.26. Все абсолютно минимальные наборы тестов, которые достаточны для решения задачи классификации на Ω, определяются из решения задач (5.40) – (5.43) для {S} = {S * } Full . Минимальное количество тестов определяется величиной |{τ # } # {S}|. Величина L # = |{τ # } # {S}|, где {S} = {S * } Full , является важной константой на . Она показывает, каково минимальное число тестов, которое необходимо и достаточно для полной классификации на базовом уровне всех прецедентов из Ω. Поиск всех минимальных наборов тестов {τ # } # {S} и соответствующих редуцированных моделей знаний {{S} ## } является важной задачей в рамках метода предельных обобщений.
- Page 165 and 166: 165 - фактические пер
- Page 167 and 168: G(Показатель) = {1 → 2
- Page 169 and 170: 169 Урожайность (г) {3
- Page 171 and 172: 171 «Эффективность»
- Page 173 and 174: 173 4.3.1 Описание мето
- Page 175 and 176: 175 Построим (автома
- Page 177 and 178: 177 Таблица 4.14 - Фраг
- Page 179 and 180: 179 объединить все т
- Page 181 and 182: 181 - стартовая тяга -
- Page 183 and 184: 183 вершины, определ
- Page 185 and 186: 185 спортсменов спри
- Page 187 and 188: 187 ГЛАВА 5. МЕТОД ПРЕ
- Page 189 and 190: 189 синдромов в меди
- Page 191 and 192: 191 существует единс
- Page 193 and 194: 193 Сведем в один алг
- Page 195 and 196: 195 Описание «T1 - B3» О
- Page 197 and 198: 197 описания {τ/T 0 } мо
- Page 199 and 200: 199 Видно, что {τ/T} {S} =
- Page 201 and 202: 201 «T3 - B2» S = (τ 1 /T3 Но
- Page 203 and 204: 203 for α ∈ Ω do {S * } Full :=
- Page 205 and 206: 205 модель знаний {S},
- Page 207 and 208: 207 которые классифи
- Page 209 and 210: 209 предельных обобщ
- Page 211 and 212: 211 один синдром. В р
- Page 213 and 214: 213 Выход: Модель зна
- Page 215: 215 минимальное числ
- Page 219 and 220: 219 Пусть α({τ/T}, z/Z) - н
- Page 221 and 222: 221 и {τ} S’ ({S, S’}⊆{S}),
- Page 223 and 224: 223 предполагать для
- Page 225 and 226: 225 Описание {τ/T} наз
- Page 227 and 228: 227 доминирование. П
- Page 229 and 230: 229 Выход: Маркер кри
- Page 231 and 232: 231 произвольный арт
- Page 233 and 234: 233 3 {Сниженное ^a; Но
- Page 235 and 236: 235 Главный результа
- Page 237 and 238: 237 понятия) устроен
- Page 239 and 240: 239 синдромной модел
- Page 241 and 242: 241 существуют i, j та
- Page 243 and 244: 243 {α}’| F = {b/B} F = F ({α},
- Page 245 and 246: 245 B3») является такж
- Page 247 and 248: 247 Таблица 5.13 - Обуч
- Page 249 and 250: 249 2} 2 {Норма ^0 [1,40; 2,10
- Page 251 and 252: 251 ГЛАВА 6. МНОГОУРО
- Page 253 and 254: 253 обезразмеривани
- Page 255 and 256: 255 получаемой чувст
- Page 257 and 258: 257 предпоследнем сл
- Page 259 and 260: 259 «заколок» в опер
- Page 261 and 262: 261 то K(W) = 0 и FS(W) ≡ W,
- Page 263 and 264: 263 На рис. 6.3 показан
- Page 265 and 266: 265 (V/Gs(W)) -1 = {P’ | ∃T ∈
217<br />
Таблица 5.7 – Пример схемы синдромной модели знаний<br />
S \ τ τ 1 τ 2 τ 3 τ 4 τ 5 z Ω 1 Ω 2<br />
S 1 + + 1 1 1<br />
S 2 + + 2 2 2<br />
S 3 + 3 3 3<br />
S 4 + 3 4 4, 5<br />
S 5 + + 3 5 5<br />
Дано: {S} = {S 1 ; S 2 ; S 3 ; S 4 ; S 5 } и две базы прецедентов: Ω 1 и Ω 2 . Необходимо<br />
найти все максимально редуцированные по тестам модели знаний {{S} ## }<br />
для каждой из баз прецедентов.<br />
Легко убедиться, что для базы прецедентов Ω 1 существует единственная<br />
максимально редуцированная по тестам модель {S} ## :<br />
{τ} {S}1 = {τ 1 ; τ 2 }; {τ} {S}2 = {τ 2 ; τ 4 }; {τ} {S}3 = {τ 3 ; τ 4 ; τ 5 };<br />
I # = {1, 2}; {τ} # {S} = {τ 1 ; τ 2 ; τ 4 }; |{τ} # {S}|= |{τ # } # {S}| =3;<br />
{S} # = {S} ## = {S 1 ; S 2 } & (z 3 ⇔ ¬z 1 & ¬z 2 = true).<br />
Таким образом, всего трех тестов из пяти достаточно, чтобы провести<br />
полную классификацию на Ω 1 .<br />
Для базы прецедентов Ω 2 существуют уже две модели {S} ## . Первая<br />
модель описана выше, вторая модель имеет вид:<br />
{S} ## = {S 2 ; S 3 ; S 4 } & (z 1 ⇔ ¬z 2 & ¬z 3 = true);<br />
I # = {2, 3}; {τ # } # {S} = {τ 2 ; τ 3 ; τ 4 }; |{τ # } # {S}|= 3.<br />
Отметим, что число синдромов в обеих моделях {S} ## разное. Что касается<br />
сути оптимизации, то первая и вторая модели отличаются только тестами τ 1<br />
и τ 2 . Если необходимо выбрать одну из двух моделей, то следует<br />
привлекать для анализа дополнительные характеристики тестов τ 1 и τ 2 ,<br />
например, стоимость или сроки выполнения.<br />
Предложение 5.26. Все абсолютно минимальные наборы тестов,<br />
которые достаточны для решения задачи классификации на Ω,<br />
определяются из решения задач (5.40) – (5.43) для {S} = {S * } Full .<br />
Минимальное количество тестов определяется величиной |{τ # } # {S}|.<br />
Величина L # = |{τ # } # {S}|, где {S} = {S * } Full , является важной константой<br />
на . Она показывает, каково минимальное число тестов,<br />
которое необходимо и достаточно для полной классификации на базовом<br />
уровне всех прецедентов из Ω.<br />
Поиск всех минимальных наборов тестов {τ # } # {S} и соответствующих<br />
редуцированных моделей знаний {{S} ## } является важной задачей в рамках<br />
метода предельных обобщений.