12.07.2015 Views

5.3 Rozhodovací pravidla - Sorry

5.3 Rozhodovací pravidla - Sorry

5.3 Rozhodovací pravidla - Sorry

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>5.3</strong>.8 Koncepty proměnlivé v časeVe většině úloh dobývání znalostí se předpokládá, že koncept (třída) jehož popis se máme naučit jestálý a s přibývajícím počtem trénovacích příkladů se nemění. Použité algoritmy pak obvykle pracujís celými daty naráz, v dávkovém režimu. Jsou ale úlohy, kdy se koncept v průběhu času dramatickyzmění. Příkladem může být předpovídání počasí, které silně závisí na roční době. Jasná obloha v létědává tušit vysoké teploty, jasná obloha v zimě znamená teploty nízké. Pak je užitečné se takovýmtozměnám konceptu přizpůsobit tak, že bereme do úvahy jen aktuální (čerstvá) data. V oblastistrojového učení se tento přístup nazývá inkrementální učení a zapomínání.Algoritmus takového typu byl implementován v systémech FLORA (např. [Widmer, Kubat, 1992]).Jádrem algoritmu je hledání hypotéz pokrývajících příklady dané třídy metodou generalizaceanalogicky jako u algoritmu AQ. Příklady jsou popsány hodnotami (kategoriálních) atributů ahypotézy mají podobu kombinací kategorií 32 . Kombinace jsou ukládány do tří množin: množina POSobsahuje hypotézy konzistentní s konceptem (kombinace pokrývá pouze pozitivní příklady), množinaNEG obsahuje hypotézy konzistentní s negací konceptu (kombinace pokrývá pouze negativnípříklady), a množina POT obsahuje potenciální hypotézy (kombinace které pokrývají pozitivní inegativní příklady). U každé hypotézy Comb se sleduje, kolik pozitivních resp. negativních příkladůpokrývá (n + (Comb), n - (Comb)). Inkrementalita algoritmu učení spočívá v tom, že množiny POS, NEG aPOT jsou aktualizovány po každém načtení nového příkladu. je-li např. nový pozitivní příklad pokrythypotézu z NEG, přesune se tato hypotéza do POT. Popis algoritmu je na Obr. 14.Algoritmus inkrementálního učení1. pro každý příklad o i z trénovací množiny1.1. je-li o i pozitivní potom1.1.1. pro každou Comb z POS pokud Comb pokrývá o i přiřaď n + (Comb) :=n + (Comb) + 11.1.2. pro každou Comb z POT pokud Comb pokrývá o i přiřaď n + (Comb) :=n + (Comb) + 11.1.3. pro každou Comb z NEG pokud Comb pokrývá o i přiřaď n + (Comb) := 1 apřesuň Comb do POT1.1.4. pokud v POS není žádná Comb která pokrývá o i , přidej do POS novoukombinaci CombN, která pokryje o i a nebude (kvůli sporu) v souladus hypotézami v POT a NEG, a přiřaď n + (CombN) := 11.2. je-li příklad o i negativní potom1.2.1. pro každou Comb z NEG pokud Comb pokrývá o i přiřaď n - (Comb) :=n(Comb) + 11.2.2. pro každou Comb z POT pokud Comb pokrývá o i přiřaď n - (Comb) :=nComb) + 11.2.3. pro každou Comb z POS pokud Comb pokrývá o i přiřaď n - (Comb):= 1 apřesuň Comb do POT1.2.4. pokud v NEG není žádná Comb která pokrývá o i , přidej do NEG novoukombinaci CombN, která pokryje o i a nebude (kvůli sporu) v souladus hypotézami v POT a POS, a přiřaď n - (CombN) := 1Obr. 14 Inkrementální učení v systému FLORA32 Každou kombinaci můžeme chápat jako předpoklad jednoho <strong>pravidla</strong>.19

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!