ÐÐ ÐÐЦÐÐ ÐÐ ÐÐÐÐЬÐЫХ ÐÐÐÐЩÐÐÐÐ: меÑодологиÑ, задаÑи ...
ÐÐ ÐÐЦÐÐ ÐÐ ÐÐÐÐЬÐЫХ ÐÐÐÐЩÐÐÐÐ: меÑодологиÑ, задаÑи ...
ÐÐ ÐÐЦÐÐ ÐÐ ÐÐÐÐЬÐЫХ ÐÐÐÐЩÐÐÐÐ: меÑодологиÑ, задаÑи ...
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
z2)}.<br />
204<br />
Легко убедиться, что |{{S * } * Min}| = 3⋅2⋅2⋅2 = 24. Можно также убедиться в<br />
том, что из 24 минимальных моделей только две модели ({S * } * Min) 2 и<br />
({S * } * Min) 3 обладают максимально возможным уровнем обобщения и,<br />
следовательно, только они претендуют на статус инвариантных моделей.<br />
Пусть Ω j = {α({τ/T}, z j )}, j ∈ Z. Ясно, что Ω = ∪ j ∈ Z Ω j . Определим ядро<br />
синдромов для каждого j ∈ Z (директивная зона)<br />
{S * } Ωj = ∩ α ∈ Ωj {S * } α , j ∈ Z. (5.16)<br />
Предложение 5.12. Если для любого j ∈ Z, {S * } Ωj ≠ ∅, то справедливо<br />
следующее<br />
{{S * } * Min} = {S * } Ω1 × {S * } Ω2 ×…× {S * } ΩN . (5.17)<br />
∀{S * } * Min, |{S * } * Min| = N, (5.18)<br />
|{{S * } * Min}| = Π j=1,…,N |{S * } Ωj |. (5.19)<br />
Соотношение (5.18) дает оценку мощности любой {S * } * Min.<br />
Важной задачей метода предельных обобщений является построение<br />
директивных зон (ядер) {S * } Ωj , j ∈ Z. Дело в том, что ядра содержат, как<br />
правило, предельные синдромы максимального уровня общности и не<br />
содержат информационный «шум», т.е. редкие и малозначащие синдромы.<br />
Ядра могут существовать не для каждого j ∈ Z.<br />
Важными задачами метода предельных обобщений является также<br />
построение {S * } Min и {S * } * Min по разным критериям (например, с<br />
максимальными весами). Конечная цель исследований будет достигнута,<br />
когда хотя бы одна из минимальных моделей знаний не будет изменяться с<br />
неограниченным увеличением базы прецедентов Ω. Данный факт означает<br />
инвариантность или корректность соответствующей модели знаний.<br />
Отметим одно важное обстоятельство, касающееся представительности<br />
базы прецедентов Ω. Корректные модели знаний могут быть построены на<br />
, даже если не будет выполняться условие<br />
∀τ ∈ {G(τ)}, ∪ α ∈ Ω (τ/T 0 ) α . = T 0 .<br />
Другими словами, если по каждому тесту не будет покрытия области<br />
возможных значений (на уровне базовых доменов). Обобщение в рамках<br />
банка тестов {G(τ)} позволяет преодолеть такую неполноту информации.<br />
Кроме того, минимальные синдромные модели знаний используют, как<br />
правило, далеко не все тесты, что еще более ослабляет требования к<br />
полноте априорной информации.<br />
Будем говорить, что синдромная модель знаний {S’} доминирует