31.01.2015 Views

ПРИНЦИП ПРЕДЕЛЬНЫХ ОБОБЩЕНИЙ: методология, задачи ...

ПРИНЦИП ПРЕДЕЛЬНЫХ ОБОБЩЕНИЙ: методология, задачи ...

ПРИНЦИП ПРЕДЕЛЬНЫХ ОБОБЩЕНИЙ: методология, задачи ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

z2)}.<br />

204<br />

Легко убедиться, что |{{S * } * Min}| = 3⋅2⋅2⋅2 = 24. Можно также убедиться в<br />

том, что из 24 минимальных моделей только две модели ({S * } * Min) 2 и<br />

({S * } * Min) 3 обладают максимально возможным уровнем обобщения и,<br />

следовательно, только они претендуют на статус инвариантных моделей.<br />

Пусть Ω j = {α({τ/T}, z j )}, j ∈ Z. Ясно, что Ω = ∪ j ∈ Z Ω j . Определим ядро<br />

синдромов для каждого j ∈ Z (директивная зона)<br />

{S * } Ωj = ∩ α ∈ Ωj {S * } α , j ∈ Z. (5.16)<br />

Предложение 5.12. Если для любого j ∈ Z, {S * } Ωj ≠ ∅, то справедливо<br />

следующее<br />

{{S * } * Min} = {S * } Ω1 × {S * } Ω2 ×…× {S * } ΩN . (5.17)<br />

∀{S * } * Min, |{S * } * Min| = N, (5.18)<br />

|{{S * } * Min}| = Π j=1,…,N |{S * } Ωj |. (5.19)<br />

Соотношение (5.18) дает оценку мощности любой {S * } * Min.<br />

Важной задачей метода предельных обобщений является построение<br />

директивных зон (ядер) {S * } Ωj , j ∈ Z. Дело в том, что ядра содержат, как<br />

правило, предельные синдромы максимального уровня общности и не<br />

содержат информационный «шум», т.е. редкие и малозначащие синдромы.<br />

Ядра могут существовать не для каждого j ∈ Z.<br />

Важными задачами метода предельных обобщений является также<br />

построение {S * } Min и {S * } * Min по разным критериям (например, с<br />

максимальными весами). Конечная цель исследований будет достигнута,<br />

когда хотя бы одна из минимальных моделей знаний не будет изменяться с<br />

неограниченным увеличением базы прецедентов Ω. Данный факт означает<br />

инвариантность или корректность соответствующей модели знаний.<br />

Отметим одно важное обстоятельство, касающееся представительности<br />

базы прецедентов Ω. Корректные модели знаний могут быть построены на<br />

, даже если не будет выполняться условие<br />

∀τ ∈ {G(τ)}, ∪ α ∈ Ω (τ/T 0 ) α . = T 0 .<br />

Другими словами, если по каждому тесту не будет покрытия области<br />

возможных значений (на уровне базовых доменов). Обобщение в рамках<br />

банка тестов {G(τ)} позволяет преодолеть такую неполноту информации.<br />

Кроме того, минимальные синдромные модели знаний используют, как<br />

правило, далеко не все тесты, что еще более ослабляет требования к<br />

полноте априорной информации.<br />

Будем говорить, что синдромная модель знаний {S’} доминирует

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!