5.3 Rozhodovací pravidla - Sorry

5.3 Rozhodovací pravidla - Sorry 5.3 Rozhodovací pravidla - Sorry

12.07.2015 Views

Použijeme-li uvedený algoritmus pro naše oblíbená data (Obr. 3), získáme pravidla uvedená na Obr.11 24 . Výpis (převzatý ze systému KEX) ukazuje hodnoty n(Ant) (frequency left), n(Class) (frequencyright) a n(Ant∧Class) (frequency both), váhu pravidla a vlastní pravidlo. První pravidlo s předpokladem0- je tzv. prázdné pravidlo (implicitní pravidlo, default); toto pravidlo zařadí každý příklad domajoritní třídy (tedy úvěr(ano)). V zápise pravidla je každá kategorie uvedena jako dvojice [pořadovéčíslo atributu, písmeno označující hodnotu], tedy stejně jako v podkapitole věnované generováníkombinací u asociačních pravidel. Pravidla, která rozhodují o tom, kdy půjčit jsou tedy 25 :1. úvěr(ano) (0.6667)2. IF příjem(vysoký) THEN úvěr(ano) (0.9802)3. IF konto(vysoké) THEN úvěr(ano) (0.9753)4. IF nezaměstnaný(ne) ∧ pohlaví(žena) THEN úvěr(ano) (0.9512)6. IF konto(střední) ∧ nezaměstnaný(ne) THEN úvěr(ano) (0.9512)GENERATED RULESFrequenciesno. left right both weight Implication------------------------------------------------------1 120.00 80.00 80.00 0.6667 0- ==> 5a2 50.00 80.00 50.00 0.9802 1v ==> 5a3 40.00 80.00 40.00 0.9753 2v ==> 5a4 20.00 80.00 20.00 0.9512 4n3z ==> 5a5 20.00 80.00 0.00 0.0127 2s4a ==> 5a6 20.00 80.00 20.00 0.9512 2s4n ==> 5a7 20.00 80.00 0.00 0.0127 2n1n ==> 5a8 10.00 80.00 0.00 0.0256 2s3z1n ==> 5aObr. 11 Pravidla nalezená systémem KEXUvedená pravidla odpovídají zadání l max = 4, n min = 1 a P min = 0.9 26 . Zde je třeba říci, že vhodná volbatěchto parametrů vyžaduje jistou zkušenost. Neplatí totiž, že se zvyšujícím se rozsahemprozkoumaných implikací se zlepšuje chování nalezené báze znalostí. Dochází zřejmě k přeučenísystému. Jsou ale jakési standardní strategie, jak volit vstupní parametry pro tvorbu báze pravidel:• plná analýza (l max = počet všech atributů, které se nevyskytují v cíli, n min = 1, P min = 0),• minimální analýza (l max = 1, n min = 1, P min = 0),• analýza "bez šumu" (P min = 1); toto zadání znamená, že se do báze zařadí pouze 100%vztahy 27 .24 Dopustili jsme se přitom malého triku. Vzhledem k tomu, že algoritmus používá statistický test, je pro jeho správnoučinnost potřeba dostatečný počet trénovacích příkladů. Zde jsme tedy každý příklad vážili (násobili) vahou 10.25 Jedná se o pravidla, která mají váhu w>0.5.26 Připomeňme, že kombinační analýza nalezla pro totéž zadání celkem 46 implikací se závěrem úvěr(ano).27 Tato strategie je vhodná, víme-li apriori, že data neobsahují žádné kontradikce. Budeme pak do báze znalostí zařazovatpouze pravidla s velikou diskriminační silou.14

Při klasifikaci nového příkladu použijeme všechna 28 aplikovatelná pravidla a pomocí funkce ⊕poskládáme jejich váhy. Příklad zařadíme ke třídě, pro kterou odvodíme nejvyšší váhu; v případějedné třídy příklad patří k této třídě, pokud odvodíme váhu w ⊕ >0.5. Kolem hodnoty w ⊕ =0.5 lze zvolitjakési „pásmo nerozhodnutelnosti“. Příklady pro které se odvodí váha v tomto pásmu nebudousystémem zařazeny do žádné třídy.Jestliže porovnáme algoritmus ESOD s dříve uvedenými klasickými algoritmy strojového učení protvorbu rozhodovacích stromů a pravidel, nalezneme následující odlišnosti:1. vzhledem k použitému statistickému testu je potřeba dostatečný počet příkladů,2. pro jeden příklad lze nalézt více použitelných pravidel (z trénovacích dat se neodstraňují pokrytéobjekty),3. v bázi pravidel se mohou objevit jako pravidla vztah i jeho prodloužení (redundance je měřenastatistickým testem),4. při konzultaci může systém pro jeden příklad doporučit (odvodit s pozitivní vahou) více cílů 29 .Algoritmus tedy vytváří více pravidel, což umožňuje různé pohledy na danou úlohu a umožňujeprovést konzultaci i v případě neúplně (nebo částečně chybně) popsaného případu. Redundance (vtomto smyslu) je také výhodná při klasifikaci objektů, které nebyly zahrnuty v trénovacích datech.5.3.5 Chybějící hodnotyPodobně jako v případě rozhodovacích stromů, i v případě rozhodovacích pravidel se chybějícíhodnoty ošetřují ve fázi předzpracování dat (často implementované jako součást systému pro tvorbupravidel). Brůha [Bruha, 1996] uvádí tyto relativně vyčerpávající možnosti, jak nakládá s chybějícíhodnotou systém CN4:1) ignoruje příklad s nějakou chybějící hodnotou,2) nahradí chybějící hodnotu novou hodnotou „nevím“,3) nahradí chybějící hodnotu některou z existujících hodnot atributu a sice:a) nejčetnější hodnotou,b) proporcionálním podílem všech hodnot,c) libovolnou hodnotou.V systému KEX se používá pouze nejjednodušší možnost – ignorování příkladů s chybějícími údaji.28 To je výrazný rozdíl ve srovnání s jinými algoritmy pro tvorbu rozhodovacích pravidel a stromů, kde se použije jedinépravidlo resp. cesta stromem.29 V případě, že se cíle navzájem nevylučují (např. pacient je imunní, pacient nemá infekci [Berka,1993d]), lze to objevit.15

Při klasifikaci nového příkladu použijeme všechna 28 aplikovatelná <strong>pravidla</strong> a pomocí funkce ⊕poskládáme jejich váhy. Příklad zařadíme ke třídě, pro kterou odvodíme nejvyšší váhu; v případějedné třídy příklad patří k této třídě, pokud odvodíme váhu w ⊕ >0.5. Kolem hodnoty w ⊕ =0.5 lze zvolitjakési „pásmo nerozhodnutelnosti“. Příklady pro které se odvodí váha v tomto pásmu nebudousystémem zařazeny do žádné třídy.Jestliže porovnáme algoritmus ESOD s dříve uvedenými klasickými algoritmy strojového učení protvorbu rozhodovacích stromů a pravidel, nalezneme následující odlišnosti:1. vzhledem k použitému statistickému testu je potřeba dostatečný počet příkladů,2. pro jeden příklad lze nalézt více použitelných pravidel (z trénovacích dat se neodstraňují pokrytéobjekty),3. v bázi pravidel se mohou objevit jako <strong>pravidla</strong> vztah i jeho prodloužení (redundance je měřenastatistickým testem),4. při konzultaci může systém pro jeden příklad doporučit (odvodit s pozitivní vahou) více cílů 29 .Algoritmus tedy vytváří více pravidel, což umožňuje různé pohledy na danou úlohu a umožňujeprovést konzultaci i v případě neúplně (nebo částečně chybně) popsaného případu. Redundance (vtomto smyslu) je také výhodná při klasifikaci objektů, které nebyly zahrnuty v trénovacích datech.<strong>5.3</strong>.5 Chybějící hodnotyPodobně jako v případě rozhodovacích stromů, i v případě rozhodovacích pravidel se chybějícíhodnoty ošetřují ve fázi předzpracování dat (často implementované jako součást systému pro tvorbupravidel). Brůha [Bruha, 1996] uvádí tyto relativně vyčerpávající možnosti, jak nakládá s chybějícíhodnotou systém CN4:1) ignoruje příklad s nějakou chybějící hodnotou,2) nahradí chybějící hodnotu novou hodnotou „nevím“,3) nahradí chybějící hodnotu některou z existujících hodnot atributu a sice:a) nejčetnější hodnotou,b) proporcionálním podílem všech hodnot,c) libovolnou hodnotou.V systému KEX se používá pouze nejjednodušší možnost – ignorování příkladů s chybějícími údaji.28 To je výrazný rozdíl ve srovnání s jinými algoritmy pro tvorbu rozhodovacích pravidel a stromů, kde se použije jedinépravidlo resp. cesta stromem.29 V případě, že se cíle navzájem nevylučují (např. pacient je imunní, pacient nemá infekci [Berka,1993d]), lze to objevit.15

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!