25.07.2013 Views

Šablóna na písanie záverečných prác - Technická univerzita v ...

Šablóna na písanie záverečných prác - Technická univerzita v ...

Šablóna na písanie záverečných prác - Technická univerzita v ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Technická</strong> <strong>univerzita</strong> v Kosˇiciach<br />

Fakulta elektrotechniky a informatiky<br />

Vyuzˇitie curiosity algoritmov pri klasifikácii<br />

satelitny´ch obrazov<br />

Michal Kapusta<br />

Diplomová <strong>prác</strong>a<br />

Kosˇice 2007


<strong>Technická</strong> <strong>univerzita</strong> v Kosˇiciach<br />

Fakulta elektrotechniky a informatiky<br />

Katedra kybernetiky a umelej inteligencie<br />

Vyuzˇitie curiosity algoritmov pri klasifikácii<br />

satelitny´ch obrazov<br />

Diplomová <strong>prác</strong>a<br />

Michal Kapusta<br />

Vedúci <strong>prác</strong>e: Ing. Rudolf Jaksˇa, PhD.<br />

Konzultant <strong>prác</strong>e: Ing. Rudolf Jaksˇa, PhD.<br />

Kosˇice 2007


A<strong>na</strong>lyticky´ list<br />

Autor: Michal Kapusta<br />

Názov <strong>prác</strong>e: Vyuzˇitie curiosity algoritmov pri klasifikácii satelitny´ch obrazov<br />

Jazyk <strong>prác</strong>e: slovensky´<br />

Typ <strong>prác</strong>e: Diplomová <strong>prác</strong>a<br />

Počet strán: 75<br />

Akademicky´ titul: Inzˇinier<br />

Univerzita: <strong>Technická</strong> <strong>univerzita</strong> v Kosˇiciach<br />

Fakulta: Fakulta elektrotechniky a informatiky (FEI)<br />

Katedra: Katedra kybernetiky a umelej inteligencie (KKUI)<br />

Sˇtudijny´ odbor: Umelá inteligencia<br />

Mesto: Kosˇice<br />

Vedúci <strong>prác</strong>e: Ing. Rudolf Jaksˇa, PhD.<br />

Konzultant : Ing. Rudolf Jaksˇa, PhD.<br />

Dátum odovzdania: 2. 5. 2007<br />

Kl’účové slová: Klasifikácia, predikcia, neurónové siete, curiosity, LANDSAT,<br />

diplomová <strong>prác</strong>a<br />

Citovanie <strong>prác</strong>e: Michal Kapusta: Vyuzˇitie curiosity algoritmov pri klasifiká-<br />

cii satelitny´ch obrazov. Diplomová <strong>prác</strong>a. Kosˇice: <strong>Technická</strong><br />

<strong>univerzita</strong> v Kosˇiciach, Fakulta elektrotechniky a informatiky.<br />

2007. 75 s.<br />

Názov <strong>prác</strong>e v AJ/NJ: Satellite Images Processing Using Curiosity Algorithms<br />

Kl’účové slová v AJ/NJ: Clasification, prediction, neural network, curiosity, LANDSAT,<br />

diploma


Abstrakt<br />

Táto diplomová <strong>prác</strong>a sa zaoberá interaktívnym vy´berom trénovacích vzoriek pre učenie<br />

neurónovej siete s pouzˇitím metódy spätného sˇírenia chyby pomocou základny´ch princípov<br />

curiosity (zvedavosti). Práca obsahuje aj teoreticky´ úvod do problematiky klasifikácie<br />

satelitny´ch obrazov satelitu LANDSAT s vyuzˇitím neurónovy´ch sietí. Popisuje návrh a<br />

implementáciu systému pre interaktívny vy´ber trénovacích vzoriek, ktory´ bol vytvoreny´<br />

za účelom jeho vyuzˇitia pri viacery´ch experimentoch.<br />

Abstract<br />

This master thesis deals with interactive selection of training patterns for learning of neural<br />

network using backpropagation of error using the basic principles of curiosity. This work<br />

contains theoretical intruduction to classification of satellite images LANDSAT using<br />

neural networks. It also contains the implementation concept of system for interactive<br />

selection of training patterns, which was done for the intention of experiment’s utilization.


Na tomto mieste bude vlozˇené zadanie diplomovej <strong>prác</strong>e


Čestné vyhlásenie<br />

Vyhlasujem, zˇe som diplomovú <strong>prác</strong>u vypracoval(a) samostatne s pouzˇitím uvedenej<br />

odbornej literatúry.<br />

Kosˇice 2. 5. 2007 . . . . . . . . . . . . . . . . . . . . . . . . . .<br />

Vlastnoručny´ podpis


Pod’akovanie<br />

Dˇ akujem vedúcemu a konzultantovi svojej diplomovej <strong>prác</strong>e Ing. Rudolfovi Jaksˇovi, PhD.,<br />

za mnozˇstvo odborny´ch pripomienok, rád a trpezlivosti pri tvorbe mojej diplomovej <strong>prác</strong>e.<br />

Chcem vyjadrit’moju vel’kú vd’aku mojim rodičom a priatel’om za podporu počas celého<br />

môjho sˇtúdia.


Táto <strong>prác</strong>a vznikla v Centre pre inteligentné technológie <strong>na</strong> TU Kosˇice ako súčast’<br />

vy´skumnej úlohy „Metódy vy´počtovej inteligencie v Multiagentovy´ch systémoch“<br />

podporovanej agentúrou VEGA v rokoch 2005-2007.<br />

( www.ai-cit.sk )


Obsah<br />

Úvod 1<br />

1 Formulćia úlohy 3<br />

2 Princípy neurónovej siete 4<br />

2.1 Metóda spätného sˇírenia chyby . . . . . . . . . . . . . . . . . . . . . . . 4<br />

3 Adaptív<strong>na</strong> dôveryhodnost’a adaptív<strong>na</strong> curiosity 6<br />

3.1 Úvod do problematiky vy´počtovy´ch algoritmov pracujúcich s dôveryhod-<br />

nost’ou a curiosity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

3.2 Adaptív<strong>na</strong> dôveryhodnost’. . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

3.2.1 Aproximátor dôveryhodnosti . . . . . . . . . . . . . . . . . . . . 9<br />

3.2.2 Pouzˇitie aproximátora dôveryhodnosti pre podporu učenia regulátora 11<br />

3.3 Adaptív<strong>na</strong> curiosity (zvedavost’) . . . . . . . . . . . . . . . . . . . . . . 12<br />

3.3.1 Základny´ princíp algoritmov curiosity . . . . . . . . . . . . . . . 12<br />

3.3.2 Predikcia priamej zmeny chyby . . . . . . . . . . . . . . . . . . 13<br />

3.3.3 Príklad agenta pohybujúceho sa v priestore podl’a J. Schmidhubera 14<br />

4 Neurónové siete pre klasifikáciu satelitny´ch dát 16<br />

4.1 Obrazové snímky satelitu LANDSAT . . . . . . . . . . . . . . . . . . . 16<br />

4.2 Príklady vyuzˇivajúce neurónové siete pre klasifikáciu satelitny´ch dát . . . 18<br />

5 Návrh a implementácia systému pre vy´ber<br />

trénovacích vzoriek 22<br />

5.1 Subsystém pre transformáciu snímkov LANDSAT do falosˇny´ch farieb,<br />

kvôli vizualizácii pre interaktívnu aplikáciu . . . . . . . . . . . . . . . . 22<br />

5.2 Subsystém pre vy´ber <strong>na</strong>jlepsˇej trénovacej mnozˇiny . . . . . . . . . . . . 24<br />

5.3 Subsystém pre vizualizáciu a ohodnotenie trénovacích vzoriek . . . . . . 26<br />

5.4 Predikčny´ model a vytváranie trénovacích mnozˇín pre tento subsystém . . 28


5.5 Systém pre vy´ber trénovacích vzoriek pre klasifikáciu pomocou predikcie<br />

curiosity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />

5.6 Celkové pouzˇitie systému v interaktívnom rezˇime . . . . . . . . . . . . . 33<br />

6 Experimenty 34<br />

6.1 Vy´ber trénovacích vzoriek pre učenie . . . . . . . . . . . . . . . . . . . 34<br />

6.2 Porov<strong>na</strong>nie klasifikácie NS s pouzˇitím aproximátora dôveryhodnosti a<br />

konvečnej NS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

6.3 Vizualizácia vzoriek aproximátora dôveryhodnosti z trénovacej mnozˇiny . 52<br />

6.4 Experimenty s predikčny´m modelom . . . . . . . . . . . . . . . . . . . . 58<br />

6.5 Celkové zhodnotenie experimentov . . . . . . . . . . . . . . . . . . . . 65<br />

7 Záver 66<br />

Zoz<strong>na</strong>m pouzˇitej literatúry 68<br />

Zoz<strong>na</strong>m príloh 70<br />

Zoz<strong>na</strong>m obrázkov 71<br />

Zoz<strong>na</strong>m tabuliek 75


FEI KKUI<br />

Úvod<br />

Zˇ ijeme v dobe, kedy satelitné technológie sú uzˇ pre nás samozrejmé. Vd’aka nim <strong>na</strong> <strong>na</strong>sˇej<br />

Zemi úplne padli komunikačné bariéry, ul’ahčil sa zˇivot a tvoria základny´ kameň <strong>na</strong>sˇej<br />

celosvetovej siete internetu. Ich pontenciál je vsˇak stále len <strong>na</strong> začiatku. jednou z oblastí<br />

ich vyuzˇitia je aj snímanie zemského povrchu. Jedny´m z taky´chto satelitov je LANDSAT.<br />

Práve jeho snímky poskytujú vel’mi dobry´ realizačy´ priestor pre implementáciu rôznych<br />

prostriedkov umelej inteligencie, ty´kajúcich sa problematiky klasifikácie.<br />

Pre potreby klasifikácie boli v <strong>prác</strong>i pouzˇité satelitné obrázky satelitu LANDSAT. Tieto<br />

obrázky boli vybrané hlavne kvôli tomu, zˇe <strong>na</strong> Katedre kybernetiky a umelej inteligencie<br />

boli uzˇ rôzne projekty, <strong>prác</strong>e a experimenty spojené s ty´mito satelitny´mi obrázkami.<br />

Naskytla sa mozˇnost’ aj prípadne porovnávat’ vy´sledky klasifikácie tejto <strong>prác</strong>e s iny´mi<br />

<strong>prác</strong>ami z katedry.<br />

Jurgen Schmidhuber ako jeden z prvy´ch uvádza pojmy ako aproximátor dôveryhodnosti 1<br />

a curiosity (zvedavost’). V jeho <strong>prác</strong>ach, ktoré sa zaoberajú touto problematikou, sa za-<br />

meriava hlavne vyuzˇitie ty´chto algoritmov pri neurónovy´ch siet’ah typu reinforcement a<br />

im blízkym nástrojom umelej inteligencie. Táto <strong>prác</strong>a, <strong>na</strong> rozdiel od Schmidhuberovy´ch<br />

<strong>prác</strong> sa lísˇi v tom, zˇe sa s<strong>na</strong>zˇí implementovat’základné princípy ty´chto curiosity algorit-<br />

mov a aproximátora dôveryhodnosti pre klasifikačné úlohy. Konkrétne pre klasifikáciu<br />

satelitny´ch obrázkov LANDSAT. Jeden z prvy´ch vy´chodiskovy´ch bodov tejto <strong>prác</strong>e je<br />

záverečná <strong>prác</strong>a J. Uhri<strong>na</strong> [8]. Uhrinová <strong>prác</strong>a sa zaoberala podobnou problematikou<br />

vy´berom trénovacích vzoriek pre klasifikáciu satelitny´ch dát. Jej ciel’om bolo aplikovat’<br />

support vector machines podporné vektory do vy´beru trénovacích vzoriek a vizualizá-<br />

cia podporny´ch vektorov. Práve redukcia trénovacích vzoriek je spoločny´ vztyčny´ bod<br />

Schmidhuberovy´ch curiosity algoritmov a Uhrinovej <strong>prác</strong>e.<br />

1 adaptive confidence<br />

1


FEI KKUI<br />

Ciel’om tejto <strong>prác</strong>e je pokúsit’sa zaimplementovat’algoritmy zo Schmidhuberovej <strong>prác</strong>e<br />

[4] do klasifikácie satelitny´ch obrázkov LANDSAT do jedného interaktívneho komplex-<br />

ného systému. Mala by poskytnút’odpovede <strong>na</strong> základné otázky ty´kajúce sa kombinácie<br />

práve spomí<strong>na</strong>ny´ch algoritmov pre problém klasifikácie. Hlavny´m nástrojom pri riesˇení<br />

klasifikačnej a predikčnej úlohy budú pouzˇité neurónové siete.<br />

2


FEI KKUI<br />

1 Formulćia úlohy<br />

1. Vypracovat’úvod do curiosity algoritmov podl’a J. Schmidhubera.<br />

2. Vypracovat’úvod do problematiky klasifikácie satelitny´ch obrazov pomocou neuró-<br />

novy´ch sietí.<br />

3. Navrhnút’ systém <strong>na</strong> báze curiosity algoritmu pre vy´ber trénovacích vzoriek pre<br />

neurónovú siet’pre klasifikáciu satelitny´ch obrazov.<br />

4. Realizovat’experimenty s implementovany´m systémom a obrazmi LANDSAT.<br />

5. Vypracovat’dokumentáciu podl’a pokynov vedúceho diplomovej <strong>prác</strong>e.<br />

- Úvod do curiosity algoritmov a základny´ch princípov curiosity sa <strong>na</strong>chádza v kapi-<br />

tole 3, kde sú podrobnejsˇie vysvetlené.<br />

- Stručny´ úvod do teórie fungovania neurónovej siete pomocou algoritmu spätného<br />

sˇírenia chyby je uvedeny´ v kapitole 2. Pouzˇitie neurónovy´ch sietí pre klasifikáciu<br />

satelitny´ch obrázkov a stručny´ prehl’ad sa <strong>na</strong>chádza v kapitole 4.<br />

- Implementácia systému je vysvetlená v kapitole 5.<br />

- Experimantál<strong>na</strong> čast’pre overenie implementácie je uvedené v kapitole 6.<br />

3


FEI KKUI<br />

2 Princípy neurónovej siete<br />

Začiatky teórie neurónovy´ch sietí siahajú azˇ do roku 1943, kedy McCulloch a Pitts zade-<br />

finovali tzv. binárny neurón. Od vtedy presˇli neurónové siete rôznymi obdobiami. No v<br />

súčasnosti je to uzˇ dost’známa problematika. Princíp fungovania vsˇetky´ch neurónovy´ch<br />

sietí bol insˇpirovany´ princípom fungovania l’udského mozgu. Jej základnou vlastnost’ou<br />

je schopnost’abstrakcie pravidiel, resp. schopnost’poz<strong>na</strong>nia súvislostí medzi vstupny´mi a<br />

vy´stupny´mi dátami. Sila tohto nástroja spočíva v jeho paralelizme. Definícia podl’a [7]:<br />

”Neurónová siet’ je masívny paralelny´ procesor, ktory´ má sklon k uchovávaniu experi-<br />

mentálnych z<strong>na</strong>lostí a ich d’alsˇieho vyuzˇívania.” V <strong>na</strong>sledujúcej podkapitole sú uvedené<br />

základné princípy sˇpecifickej neurónovej siete.<br />

2.1 Metóda spätného sˇírenia chyby<br />

Neurónová siet’s metódou spätného sˇírenia chyby (back-propagation of error) patrí medzi<br />

dopredné siete (signál sa sˇíri len jedny´m smerom) s kontrolovany´m učením (tzv. učenie s<br />

učitel’om - siet’porovnáva vstup s vy´stupom, pričom upravuje svoje <strong>na</strong>stavenia tak, aby<br />

bola chyba medzi skutočny´m a pozˇadovany´m vy´stupom čo <strong>na</strong>jmensˇia).<br />

Popis algoritmu je prebraná z [7].<br />

Delta pravidlo<br />

Toto pravidlo sa vyuzˇíva pri vy´počte zmeny sy<strong>na</strong>pticky´ch váh 2 ∆wi j. Pre jednoduchú<br />

jednovrstvovú siet’s M vstupny´mi neurónmi a jedny´m vy´stupny´m neurónom i dostaneme:<br />

xi = f (ini) = ini =<br />

M<br />

∑ x jwi j(t) + Θi<br />

j=1<br />

Chybová funkcia, ktorá má charakter metódy <strong>na</strong>jmensˇích sˇtvorcov, je vyjadrená vzt’ahom:<br />

J(t) =<br />

N<br />

∑<br />

i=1<br />

J i (t) = 0.5<br />

N<br />

∑<br />

i=1<br />

2 medzineurónové spojenia, sú vyuzˇívané <strong>na</strong> ukladanie z<strong>na</strong>lostí<br />

4<br />

(evi(t) − xi(t)) 2


FEI KKUI<br />

kde ev(t) je očakávaná a xi vypočítaná hodnota <strong>na</strong> i-tom vy´stupe. Metóda sa s<strong>na</strong>zˇí mi-<br />

nimalizovat’ túto chybovú funkciu. Zme<strong>na</strong> závisí <strong>na</strong> od negatívnej parciálnej derivácie.<br />

Ak oz<strong>na</strong>číme δ(t) = −(evi(t) − xi(t)) tak vy´sledny´ vzorec pre vy´počet zmeny váhy pri<br />

l’ubovol’nom vstupe má tvar: ∆wi(t) = γδ(t)x j(t). Takto vypočítaná zme<strong>na</strong> sy<strong>na</strong>pticky´ch<br />

váh podl’a delta pravidla dala základ d’alsˇím modifikáciám tohto pravidla.<br />

Algoritmus metódy spätného sˇírenia chyby<br />

Delta pravidlo je základom učenia pre metódu spätného sˇírenia chyby. Umozˇňuje pouzˇi-<br />

tie akejkol’vek aktivačnej funkcie (aj nelineárneho typu), ktorá spl´ňa podmienku diferenco-<br />

vatel’nosti, teda platí: x = f (in) = in. Chybovy´ signál δi(t) pre kazˇdy´ neurón dostaneme z<br />

rekurzívneho vzt’ahu, ktory´ predstavuje spätné sˇírenie chyby smerom od vy´stupu siete. Kde<br />

platí<br />

δi(t) = − ∂J(t)<br />

∂ini(t) , potom δi(t) = − ∂J(t) ∂xi(t)<br />

∂xi(t) ∂ini(t)<br />

Vzhl’adom <strong>na</strong> vstup xi(t) = f ′ (ini(t)) môzˇeme zapísat’ druhy´ člen vzt’ahu ako ∂J(t)<br />

∂xi(t) =<br />

f ′ (ini(t)). Pre vy´počet prvého čle<strong>na</strong> pravej strany je nutné brat’do úvahy dva prípady:<br />

1. neurón i je vy´stupny´m neurónom, hl’adaná parciál<strong>na</strong> derivácia má tvar:<br />

∂J(t)<br />

∂xi(t) = −(evi(t) − xi(t))<br />

a ty´m pre chybovy´ signál δi(t) dostaneme<br />

δi(t) = (evi(t) − xi(t)) f ′ (ini(t))<br />

2. neurón i nie je vy´stupny´m neurónom – vy´počet sa pozmení <strong>na</strong>:<br />

∂J(t)<br />

∂xi(t) =<br />

N<br />

∑<br />

h=1<br />

∂J(t) ∂inh(t)<br />

∂inh(t) ∂xi(t)<br />

kde N je počet vy´stupny´ch neurónov, resp. počet neurónov vo vrstve <strong>na</strong>pravo od vrstvy, v kto-<br />

rej je neurón i. Teda môzˇeme <strong>na</strong>písat’, zˇe pre chybovy´ signál δi(t) neurónu, ktory´<br />

nie je <strong>na</strong> vy´stupe platí<br />

δi(t) = f ′ (ini(t))<br />

5<br />

N<br />

∑<br />

h=1<br />

δh(t)whi(t)


FEI KKUI<br />

kde δh(t) sú chybové signály od neurónov z vy´stupnej vrstvy, alebo vrstvy <strong>na</strong>-<br />

pravo od nej a whi sú sy<strong>na</strong>ptické váhy od neurónu i ku kazˇdému z neurónov v <strong>na</strong>-<br />

sledujúcej vrstve.<br />

3 Adaptív<strong>na</strong> dôveryhodnost’a adaptív<strong>na</strong> curiosity<br />

Táto kapitola vychádza z <strong>prác</strong> J. Schmidhubera [4] a [5], pretozˇe práve on patrí k prvy´m<br />

l’ud’om, ktory´ zaviedli tieto pojmy a väčsˇi<strong>na</strong> iny´ch <strong>prác</strong> vychádza práve z jeho sˇtúdií.<br />

3.1 Úvod do problematiky vy´počtovy´ch algoritmov pracujúcich s dô-<br />

veryhodnost’ou a curiosity<br />

Vel’a vy´skumu v oblasti adaptívneho učenia v neurónovy´ch siet’ach a reinforcement uče-<br />

nia sa v poslednej dobe sústredilo <strong>na</strong> pouzˇívanie adaptívneho modelu prostredia 3 . Ako<br />

<strong>na</strong>príklad adaptívny model vo forme neurónovej siete - backpropagation, ktorá prediko-<br />

vala <strong>na</strong>sledujúci vstup, <strong>na</strong> základe súčasného vstupu a vy´stupu adaptívnej kontrolovanej<br />

siete. Taktiezˇ aj iné architektúry, ktoré ponúkajú väčsˇiu vy´počtovú efektívnost’. No esˇte<br />

minimálne dva problémy, ktoré neboli doteraz vyriesˇené.<br />

1. Doterajsˇie modelovanie riadeny´ch systémov nebolo celkom vhodné <strong>na</strong> premenlivé<br />

nedeterministické prostredie. Neodrázˇali dobre spol’ahlivost’ tejto predikcie adap-<br />

tívneho modelu prostredia.<br />

2. Doterajsˇie modelovanie riadeny´ch systémov pouzˇívali <strong>na</strong> vytvorenie modelu pro-<br />

stredia nejakú sˇpecifickú metódu. Čo malo za dôsledok, zˇe tieto metódy fungovali<br />

dobre len <strong>na</strong> konkrétnych problémoch. No nedokázˇu zohl’adňovat’nepredvídatel’nost’<br />

reálnych podmienok.<br />

3 Podl’a J. Schmidhubera [4]: ”adaptive world model”<br />

6


FEI KKUI<br />

Spolu s ty´mito problémami sa nám ukazujú minimálne dva zdroje efektivity, ktoré boli<br />

doteraz zanedbané a mohli by aspoň z časti riesˇit’tieto problémy:<br />

1. Nemalo by sa mrhat’<strong>na</strong>vy´sˇením trénovacieho času pre skúmanie ty´ch častí prostre-<br />

dia, ktoré uzˇ sú dobre modelované.<br />

2. Nemalo by sa mrhat’<strong>na</strong>vy´sˇením trénovacieho času pre skúmanie ty´ch častí prostre-<br />

dia, kde očakávanie budúceho zlepsˇenia modelu prostredia je nízka.<br />

3.2 Adaptív<strong>na</strong> dôveryhodnost’<br />

Na začiatku tejto časti je opísaná jed<strong>na</strong> z mozˇností riesˇenia prvého, vysˇsˇie spomí<strong>na</strong>ného<br />

problému 1. Podl’a [5] princíp redukcie minuly´ch popisov: ”Pokial’ je prispôsobivy´ sek-<br />

venčne pracujúci dy<strong>na</strong>micky´ systém je schopny´ predikovat’ budúce vstupy prostredia z<br />

predosˇly´ch vstupov, zˇiadne dodatočné z<strong>na</strong>losti nemôzˇu byt’získané pozorovaním ty´chto<br />

vstupov v realite. Iba nepredikovatel’né vstupy si zasluhujú pozornost’.”<br />

Majme gramatiku G, ktorej úloha je pozorovat’ ret’azec symbolov, jeden po druhom v<br />

čase, <strong>na</strong>koniec má rozhodnút’či tento ret’azec bol vygenerovany´ gramatikou G alebo nie.<br />

Pre <strong>na</strong>trénovanie systému sa pouzˇije pomocná gramatika T , ktorá bude generovat’ret’azce<br />

symbolov - z<strong>na</strong>kov, ktoré budú v zahrnuté do procesu učenia. Vel’ké písmená ako A a<br />

B oz<strong>na</strong>čujú ako ne–symboly 4 , ako symboly začiatkov. Malé písmená a,x,b1,··· ,b100<br />

oz<strong>na</strong>čujú symboly 5 . Sˇtartovací symbol je vzˇdy A. Jednoduchá gramatika G1 je daná<br />

A → aB, B → b1b2b3 ...b100.<br />

Gramatika pre učenie T1 bude definovaná ako:<br />

4 podl’a J. Schmidhubera[5]: non–termi<strong>na</strong>ls<br />

5 podl’a J. Schmidhubera[5]: termi<strong>na</strong>ls<br />

A → aB, A → xB, B → b1b2b3 ...b100.<br />

7


FEI KKUI<br />

T1 vygeneruje iba dva príklady, a to ab1b2b3 ...b100 a xb1b2b3 ...b100. Bezˇny´mi algo-<br />

ritmami je prakticky nemozˇné <strong>na</strong>učit’ systém, aby prijal prvy´ (legálny) ret’azec a druhy´<br />

(ilegálny) ret’azec odmietol. Problém je prenos chybovej informácie ”spätne v čase” pre<br />

pomerne vel’ky´ počet krokov v čase (v tomto príklade je ich 100). Môzˇeme zjednodusˇit’<br />

tento problém ty´m, zˇe <strong>na</strong>hradíme gramatiku G1 gramatikou G2<br />

a taktiezˇ <strong>na</strong>hradíme T1 gramatikou T2<br />

A → aB, B → b1b2b3 ...b100, B → b100<br />

A → aB, A → xB, B → b1b2b3 ...b100, B → b100.<br />

Teraz aj bezˇny´ algoritmus sa dokázˇe <strong>na</strong>učit’z krátkych trénovacích vzoriek (ab100 a xb100),<br />

zˇe vy´skyt a alebo x je vy´z<strong>na</strong>mny´ a mal by sa zapamätat’. Z ty´chto krátkych trénovacích<br />

sekvencií dokázˇe algoritmus ”zovsˇeobecňovaním” prejst’ <strong>na</strong> zlozˇitejsˇie sekvencie ako<br />

xb1b2b3 ...b100. Teda treba sa s<strong>na</strong>zˇit’rozlozˇit’dlhé trénovacie časové sekvencie do men-<br />

sˇích blokov, ktoré budú patrit’spolu (ako vysˇsˇie uvedené b1b2b3 ...b100 ”patria spolu”).<br />

Odhadovany´ bezvy´z<strong>na</strong>mny´ rad 6 je sekvencia prípadov, kde pre kazˇdy´ prípad platí, zˇe<br />

je predpovedatel’ny´ zo súčasného vnútorného stavu učiaceho sa systému, ktory´ uzˇ videl<br />

predosˇlé prípady. Najviac nás zaujíma maximálny odhadovany´ bezvy´z<strong>na</strong>mny´ rad 7 je<br />

odhadovany´ bezvy´z<strong>na</strong>mny´ rad, ktorého sekvencia prípadov sa ne<strong>na</strong>chádza v dlhsˇom od-<br />

hadovanom bezvy´z<strong>na</strong>mnom rade.<br />

Majme bezˇny´ predikčnú siet’ 8 P. V čase t, P dostáva vstup x(t) a vyprodukuje n–<br />

dimenzionálny vy´stup p(t) (ciel’om je, aby |p(t)| = |x(t + 1)|). Po vygenerovaní vy´stupu,<br />

vektor vsˇetky´ch aktivácií v P <strong>na</strong>zveme P(t). Chybová funkcia P je<br />

Ep = 1 2 · ∑i(pi(t) − xi(t + 1)) 2 .<br />

6 ”presumed casual chain”<br />

7 ”maximal presumed casual chain”<br />

8 akákol’vek neuorónová siet’, ktorá riesˇi úlohu predikcie<br />

8


FEI KKUI<br />

Dˇ alej majme druhy´ modul, modul dôveryhodnosti C, ktorej vstup je P(t) a vy´stup c(t).<br />

c(t) je interpetované ako miera dôveryhodnosti vo vlastnú predikciu. Uvazˇujeme o dvoch<br />

variácií:<br />

1. |c(t)| = 1. Chybová funkcia pre C by bola<br />

EC = 1 2 ∑t(d(t) − c(t)) 2 ,<br />

kde d(t) je 1, ak p(t) sa zhoduje s x(t +1) (s istou toleranciou) a 0 v iny´ch prípadoch.<br />

2. |c(t)| = |p(t)|. Chybová funkcia pre C<br />

EC = 1 2 ∑t ∑i(d(i) − ci(t)) 2 ,<br />

kde di(t) je 1, ak pi(t) sa zhoduje s xi(t + 1) (s istou toleranciou) a 0 v iny´ch<br />

prípadoch.<br />

3.2.1 Aproximátor dôveryhodnosti<br />

Tento princíp rozsˇíril a zovsˇeobecnil Schmidhuber v [4].<br />

Teda uvazˇujme adaptívny model M, ktorého vstupny´ vektor v čase t je iM(t) a jeho vy´-<br />

stupny´ vektor je oM(t) = fM(iM(t),hM(t)). Kde hM(t) je vektor reprezentujúci vnútorné<br />

stavy M. V čase t je pozˇadovaná hodnota pre prediktor dM(t), pričom ciel’om prediktora<br />

je oM(t) = dM(t) pre vsˇetky t. Pre modelovanie spol’ahlivosti predikcií M pouzˇijeme ap-<br />

roximátor dôveryhodnosti 9 modelu M, ktorého vstupny´ vektor v čase t je iC(t) = iM(t) a<br />

vy´stupny´ vektor je oC(t) = fC(oC(t),hC(t)). Kde hC(t) je vektor reprezentujúci vnútorné<br />

stavy C. V čase t je pozˇadovaná hodnota pre aproximátor dôveryhodnosti dC(t).<br />

Dˇ alej <strong>na</strong>sledujú, v j je j-ty komponent vektora v, E je operátor očakávania, dim(x) oz<strong>na</strong>-<br />

čuje rozmernost’vektora x, P(A|B) je podmienená pravdepodobnost’A za predpokladu B<br />

a E(A|B) je podmienené očakávanie, A za predpokladu B.<br />

9 ”confidence modul” - konfidenčny´ modul<br />

9


FEI KKUI<br />

Uvazˇujme prípad pre vsˇetky t. To z<strong>na</strong>mená, zˇe vy´stupy z C a M sú závislé iba <strong>na</strong> dany´ch<br />

vstupoch. Existujú variácie jednoduchy´ch ciest ako reprezentovat’spol’ahlivost’dC(t):<br />

1. Modelovat’pravdepodobnosti globálnych predikčny´ch zlyhaní. dC(t) bude jed-<br />

norozmerny´. Nech dC(t) = P(oM(t) = dM(t)|iM(t)). dC(t) môzˇe byt’ odhadnuty´<br />

vzt’ahom n1<br />

n2 , kde n2 je počet prípadov k ≤ t, pre ktoré platí iM(k) = iM(t) a n1 je<br />

počet k prípadov, kde iM(k) = iM(t),oM(k) ≤ dM(k).<br />

2. Modelovat’ pravdepodobnosti lokálnych predikčny´ch zlyhaní. Nech dC(t) je<br />

dim(dM(t))-dimenzionálny (rozmerny´). Nech d j<br />

j j<br />

C (t) = P(oM (t) = dM (t)|iM(t)) platí<br />

pre vsˇetky j. d j<br />

n1<br />

C (t) môzˇe byt’odhadnuty´ vzt’ahom n2 , kde n2 je počet prípadov k ≤ t,<br />

pre ktoré platí iM(k) = iM(t) a n2 je počet k prípadov, kde iM(k) = iM(t),o j<br />

M (k) ≤<br />

d j<br />

M (k).<br />

Variácie metód 1 a 2 by nemerali pravdepodobnosti presnej zhody medzi predikova-<br />

nou a skutočnou hodnotou, ale pravdepodobnost’blízkych zhôd s určitou toleranciou.<br />

3. Modelovat’globálnu predpokladanú chybu . Nech dC(t) je jednorozmerny´. Nech<br />

platí<br />

<br />

1<br />

dC(t) = E<br />

2 (dM(t) − oM(t)) T <br />

(dM(t) − oM(t))|iM(t) .<br />

Ak C je back-propagation siet’, aproximáciou dC(t) by sme získali pomocou gra-<br />

dientu (s maly´m učiacim stupňom) pre učenie C v čase t vyjadrenie chyby M<br />

1<br />

2 (dM(t) − oM(t)) T (dM(t) − oM(t))|iM(t).<br />

4. Modelovat’lokálnu predpokladanú chybu. Nech dC(t) je dim(dM(t))-dimenzionálny<br />

(rozmerny´). Nech<br />

d j<br />

<br />

C (t) = E (d j j<br />

M )(t) − oM (t))2 <br />

|iM(t)<br />

platí pre vsˇetky j. Ak C je back-propagation siet’, aproximáciou dC(t) by sme získali<br />

pomocou gradientu (s maly´m učiacim stupňom) pre učenie C v čase t vyjadrenie<br />

10


FEI KKUI<br />

lokálnej predikcie chyby pre M<br />

kde m = dim(oM(t)).<br />

((d 1 M(t) − o 1 M(t)) 2 ,...,(d m M(t) − o m M(t)) 2 ) T ,<br />

3.2.2 Pouzˇitie aproximátora dôveryhodnosti pre podporu učenia regulátora<br />

Schmidhuber v [4] tvrdí, zˇe aky´kol’vek adaptívny regulátor, ktorého proces priradenia<br />

dôvery je zalozˇeny´ <strong>na</strong> modely sveta by mal byt’modifikovany´ len vtedy, ak je predikcia<br />

prediktora spol’ahlivá. Niektoré z mozˇny´ch implementácií sú tieto:<br />

1. Ak je implementovaná metóda 1 alebo 3 z predchádzajúcej sekcie, pouzˇijeme model<br />

pre trénovanie regulátora v čase t iba ak dC(t) ≤ β = const. ≥ 0.<br />

2. Ak je implementovaná metóda 2 alebo 4 z predchádzajúcej sekcie, tak o j<br />

M pouzˇijeme<br />

pre trénovanie regulátora v čase t iba vtedy, ak d j<br />

C (t) ≤ β = const. ≥ 0.<br />

Predpokladajme, zˇe M aproximuje<br />

prostredníctvom<br />

∂ (x(t + 1) − y(t + 1)) T (x(t + 1) − y(t + 1)) <br />

∂oA(t)<br />

∂ (oM(t) − y(t + 1)) T (oM(t) − y(t + 1)) <br />

∂oA(t)<br />

kde y(t) je pozˇadovany´ stav prostredia v čase t.<br />

Ak je implementovaná metóda 2 alebo 4 počíta sa iba<br />

∑<br />

j:(o j<br />

M (t)−x j (t+1)) 2 ≤β,d j<br />

C (t)≤β<br />

∂(o j<br />

M (t) − y j (t + 1)) 2<br />

,<br />

∂oA(t)<br />

a táto hodnota sa pouzˇije <strong>na</strong> trénovanie regulátora. Menej radikál<strong>na</strong> stratégia je vázˇit’<br />

vysoko spol’ahlivé predikcie viac ako menej spol’ahlivé.<br />

11<br />

,


FEI KKUI<br />

3.3 Adaptív<strong>na</strong> curiosity (zvedavost’)<br />

Pojem curiosity sa tu dá chápat’ (prelozˇit’) ako zvedavost’. Zvedavost’ systému po zaují-<br />

mavy´ch veciach, situáciach. Podl’a [4] môzˇeme definovat’curiosity ako túzˇbu po zlepsˇení<br />

reakcií prediktora voči prostrediu (modelu svet 10 ). Teda mali by sme pouzˇit’ aky´kol’vek<br />

citlivy´ učiaci sa algoritmus 11 <strong>na</strong> podnecovanie regulátora <strong>na</strong> to, aby robil také rozhodnutia<br />

(akcie), prípadne sekvencie rozhodnutí (akcií), ktoré vyprovokujú situácie, pri ktory´ch robí<br />

model sveta zlé predikcie. Ked’zˇe je model adaptívny, jeho predikcie sa budú zlepsˇovat’.<br />

Pre regulátor budú viac ”zaujímavé” situácie, kedy má model sveta spol’ahlivé predikcie<br />

a začne sa zameriavat’<strong>na</strong> nepredikovatel’né časti prostredia.<br />

3.3.1 Základny´ princíp algoritmov curiosity<br />

Táto sekcia je celá prebraná z [4] a hovorí o hlavnom princípe adaptívnej curiosity.<br />

Teraz nezálezˇí <strong>na</strong> tom či je adaptívny model sveta implementovany´ ako <strong>na</strong>príklad back–<br />

propagation neurónová siet’, alebo prehl’adávacia tabul’ka, alebo niečo iné.<br />

Predosˇlé mysˇlienky a úvahy môzˇeme formulovat’ako: ”Uč sa zapamätávat’si akcie (alebo<br />

sekvencie akcií) pre očakávanie budúceho vy´konnostného zlepsˇenia modelu sveta. Pod-<br />

necuj sekvencie akcií, kde je toto očakávanie vysoké.”<br />

Jed<strong>na</strong> z ciest pre uplatnenie tohto princípu je (podkapitola 3.3.2 hovorí o alter<strong>na</strong>tívnej<br />

mozˇnosti): ”Modeluj spol’ahlivost’predikcií adaptívneho prediktora ako sa uvádzalo v ka-<br />

pitole 3.2.1. V čase t, posilňuj modelovanie kontrolného systému (regulátora) v úmere ku<br />

aktuálnej zmene spol’ahlivosti adaptívneho prediktora. Ciel’om curiosity regulátora (môzˇe<br />

mat’esˇte aj iné prepojené ciele) je maximalizovat’očakávania kumulatívnej sumy budúcich<br />

10 ”world model”<br />

11 podl’a [4] je to reinforcement učiaci sa algoritmus<br />

12


FEI KKUI<br />

pozitívnych alebo negatívnych zmien v spol’ahlivosti predikcie.”<br />

<br />

E ∑ −γ<br />

t≥t0<br />

t−t0<br />

<br />

∆oC(t + 1) .<br />

Pričom 0 ≤ γ < 1 je nominálny faktor zabraňujúci nekonečny´m sumám a ∆oC(t) je zme<strong>na</strong><br />

(pozitív<strong>na</strong> negatív<strong>na</strong>) predpokladanej spol’ahlivosti spôsobeny´ pozorovaním iM(t),OM(t)<br />

a x(t + 1).<br />

Napríklad, ak je implemetovaná metóda 1 alebo 3 zo sekcie 3.2.1, potom ∆oc(t) = oC(t)−<br />

oC(t), ¯ kde oC(t) ¯ je odozva C <strong>na</strong> iM(t) po upravení C v čase t.<br />

3.3.2 Predikcia priamej zmeny chyby<br />

Alter<strong>na</strong>tíva ku metóde uvedenej v kapitole 3.3.1 je predikcie zmeny chyby. Majme oM(t) ¯<br />

ako odozva <strong>na</strong> iM(t) po <strong>na</strong>stavení M v čase t. Môzˇeme <strong>na</strong>hradit’ aproximátor dôvery-<br />

hodnosti siet’ou H, ktorá v kazˇdom časovom kroku dostane aktuálny vstup iM(t) a ktorej<br />

pozˇadovaná hodnota je aktuál<strong>na</strong> zme<strong>na</strong> vy´stupu M ∆oM(t) = oM(t) − oM(t) ¯ spôsobeny´<br />

učiacim sa algoritmom implementovany´m v M (H by mala mat’malú ry´chlost’učenia). H<br />

sa bude učit’aproximovat’očakávania<br />

E {∆oM(t)|iM(t)}<br />

zmeny odozvy M <strong>na</strong> jemu dané vstupy. Absolút<strong>na</strong> hodnota |oH(t)| vy´stupu H sa povazˇuje<br />

ako reinforcement pre adaptívny učiaci sa algoritmus. Ciel’om curiosity regulátora je v<br />

čase t0 maximalizovat’<br />

kde 0 ≤ γ < 1 je nominálny faktor.<br />

E<br />

<br />

∑ −γ<br />

t≥t0<br />

t−t0<br />

<br />

|oH(t) ,<br />

13


FEI KKUI<br />

3.3.3 Príklad agenta pohybujúceho sa v priestore podl’a J. Schmidhubera<br />

V [4] je uvedeny´ aj príklad pre učenie s pouzˇitím metódy Q - leraningu 12 . Majme teda<br />

agenta, ktory´ sa bude pohybovat’ v deterministickom prostredí, ktoré pozostáva z 10<br />

stl´pcov a kazˇdy´ stl´pec obsahuje 10 pozícií. V danom čase môzˇe agent obsadzovat’ len<br />

jednu zo 100 pozícií. Môzˇe vyko<strong>na</strong>t’jednu zo 4 akcií:<br />

1. Presuň sa <strong>na</strong> pozíciu <strong>na</strong>l’avo, ak taká pozícia existuje. Ak nie, tak sa presuň <strong>na</strong> pravú<br />

krajnú pozíciu v tom istom riadku.<br />

2. Presuň sa <strong>na</strong> pozíciu <strong>na</strong>pravo, ak taká pozícia existuje. Ak nie, tak sa presuň <strong>na</strong> l’avú<br />

krajnú pozíciu v tom istom riadku.<br />

3. Presuň sa v danom stl´pci <strong>na</strong> pozíciu <strong>na</strong>hor, ak taká pozícia existuje. Ak nie, tak sa<br />

presuň <strong>na</strong> <strong>na</strong>jspodnejsˇiu pozíciu v tom istom stl´pci.<br />

4. Presuň sa v danom stl´pci <strong>na</strong> pozíciu <strong>na</strong>dol, ak taká pozícia existuje. Ak nie, tak sa<br />

presuň <strong>na</strong> <strong>na</strong>jvrchnejsˇiu pozíciu v tom istom stl´pci.<br />

Majme tri časti systému. A to predikčnú siet’ - prediktor M, konfidenčny´ modul - apro-<br />

ximátor dôveryhodnosti C a modul pre hodnotenie párov pozícií a príslusˇny´ch akcií Q.<br />

Vsˇetky sú implementované ako siete back-propagation, ale bez skrytej vrstvy, s vlastny´mi<br />

aktivačny´mi funkciami. V čase t dostane agent vstup vektor bitov i(t) ako reprezentáciu<br />

aktuálnej pozície, pričom dim(i(t)) = 100 a iba jeden bit je nenulovy´. Ak príde agent <strong>na</strong><br />

novú pozíciu vyberie si jednu z dvoch reakcií s(t) ∈ 0,1. Sú tri triedy pozícií: pre triedu<br />

1. je s(t) vzˇdy 1. Pre triedu 2. je s(t) vzˇdy 0. Pre triedu 3. sa s(t) <strong>na</strong>hdone vygeneruje z<br />

reakcia 1 alebo 0. Medzi časom t −1 a t sa vykonávajú <strong>na</strong>sledujúce operácie: V čase t −1<br />

príjme Q 4 rôzne 400-dimenzionálne vektory bitov iba s jedny´m nenulovy´m bitom. Je tam<br />

jeden vstupny´ vektor pre kazˇdú kombináciu i(t − 1) a 4 mozˇny´ch akcií. Q vyprodukuje<br />

12 metóda sekvenčného reinforcement uečnia, ktorá v kazˇdom časovom kroku je vybraná akcia s <strong>na</strong>jväčsˇou<br />

predikciou hodnotenia zohl’adnením určitej náhodnej odchy´lky, ktorá dáva systému mozˇnost’ skúmat’ aj<br />

neznáme akcie.<br />

14


FEI KKUI<br />

jeden jednorozmerny´ vy´stup pre kazˇdy´ zo 4 vstupovny´ch vektorov. Tieto vy´stupy sú in-<br />

terpretované ako hodnotenie koresˇpondujúcich párov vstup/akcia. Q je implementovany´<br />

ako jednoduchy´ mechanizmus, ktory´ ”vyberie” vstup i(t) podl’a <strong>na</strong>jvysˇsˇieho ohodnotenia<br />

sˇtyroch vstupov. Vstup pre Q oz<strong>na</strong>čujeme ako iQ(t − 1)<br />

V čase t príjme M vstup i(t) a vyprodukuje jednorozmerny´ vy´stup oM(t). Ciel’om predik-<br />

tora M je ale <strong>na</strong>učit’sa predikovat’s(t) a nie i(t + 1). Systém bude robit’dobré predikcie<br />

len <strong>na</strong> pozíciach tried 1 a 2. No on nevie, zˇe ktoré pozície prislúchajú ktorej triede. V<br />

tom istom čase príjme C vstup i(t). Jeho vy´stup oC(t) je interpretovany´ ako predikcia<br />

E = |oM(t) − s(t)||i(t) (varianta 3 v sekcii 3.2.1). Pre vy´počet zmeny dôvaryhodnosti<br />

∆oC(t) sa implementovala procedúra: Po vypočítaní oC(t), |oM(t) − s(t)| slúzˇi C ako po-<br />

zˇadovany´ vy´stup. Potom sa vypočíta oC(t) ¯ je odozva C <strong>na</strong> vstup i(t) po modifikácií váh<br />

podl’a algoritmu v 3.3.1.<br />

Potom ∆oc(t) = oC(t) − oC(t) ¯ slúzˇi ako aktuálny reinforcement. Q je obnoveny´ a to tak,<br />

zˇe v čase t − 1 pozˇadovany´ vy´stup pre Q ako odozva <strong>na</strong> iQ(t − 1) je ∆oc(t) + γU(t), kde<br />

U(t) je ohodnotenie <strong>na</strong>jlepsˇej akcie <strong>na</strong>vrhnutej Q v čase.<br />

Systém s takto zaimplementovanou curiosity bol testovany´ voči bezˇnému náhodném u<br />

vy´beru. Pričom <strong>na</strong>stavenie siete prediktora M a náhodná pozícia agenta <strong>na</strong> začiatku boli<br />

v obidvoch prípadoch rov<strong>na</strong>ké. Ako kritérium kvality pre M bola suma E(t) rozdiel me-<br />

dzihodnotami reakcií deterministickej pozíciou a koresˇpondujúca hodnota predikcie M<br />

umocnená <strong>na</strong> druhú. ukázalo sa, zˇe 2700 trénovacích vzoriek bolo potrebny´ch pre <strong>na</strong>uče-<br />

nie M aby E(t) kleslo <strong>na</strong> 0.3. Pri curiosity systéme bolo potrebny´ch len 1000 trénovacích<br />

vzoriek <strong>na</strong> to, aby E(t) kleslo pod hodnotu 015.<br />

15


FEI KKUI<br />

4 Neurónové siete pre klasifikáciu satelitny´ch dát<br />

Satelity sa stali v dnesˇnej dobe neoddelitel’nou súčast’ou <strong>na</strong>sˇich zˇivotov. Vyuzˇívajú sa pre<br />

riadenie dopravy, telekomunikačné účely, vojenské účely, kartografické a mnohé iné. V<br />

súčasnej dobe <strong>na</strong>d zemsky´m povrchom operujú rôzne druzˇice, ktory´ch úlohou je snímanie<br />

povrchu a atmosféry. Pre pouzˇitie dát, ktoré nám poskytujú tieto satelity je potrebné vyuzˇit’<br />

rôzne aplikačné prostriedky <strong>na</strong> spracovanie a a<strong>na</strong>ly´zu.<br />

Jed<strong>na</strong> z mozˇností ja aj vyuzˇitie neurónovy´ch sietí. V tejto kapitole sú uvedené niektoré<br />

z uzˇ implementovany´ch riesˇení pre rozpoznávanie oblastí <strong>na</strong> zemskom povrchu a ich<br />

klasifikácie <strong>na</strong> základe jedno a viac-pixelovy´ch vstupov. V tejto kapitole sú uvedené aj<br />

niektoré príklady implementácií a<strong>na</strong>ly´z a klasifikácií satelitny´ch obrazov.<br />

4.1 Obrazové snímky satelitu LANDSAT<br />

LANDSAT program je jed<strong>na</strong> z misií pre pozorovanie zemského povrchu NASA a Ame-<br />

rického geologického insˇtitútu. Nasledujúci popis vychádza z materiálov NASA [10]. Od<br />

roku 1972, kedy bol vypusteny´ <strong>na</strong> obezˇnú dráhu prvy´ satelit LANDSAT1, sa podarilo<br />

vypustit’celkovo sedem satelitov (od LANDSAT 1 azˇ po LANDSAT 7). Zemsky´ povrch<br />

bol snímany´ <strong>na</strong>jprv multi - spektrálnym skenerom (Multispectral Scanner). Jeho senzory<br />

skenujú odrazené slnečné lúče odrazené zo zemskej plochy v 4 pásmach spektra počas<br />

obehu po orbitálnej dráhe. Taktiezˇ nesie <strong>na</strong> svojej palube aj senzory (Thematic Mapper),<br />

ktoré tiezˇ snímajú elektromagnetické vlny odrazené zo zeme, no s väčsˇou presnost’ou,<br />

jasom, rozlísˇením a to v 7 po sebe <strong>na</strong>sledujúcich spektrách. Sˇest’ z ty´chto spektier sú<br />

citlivé <strong>na</strong> infračervenú oblast’elektromagnetického zˇiarenia vid’tabul’ka 4 – 1. Pričom jeho<br />

rozlisˇovacia schopnost’je 15 m 2 pre pásma 1 - 5 a 7, pričom pre 6 pásmo 60 m 2 .<br />

V roku 1994 bol vypusteny´ <strong>na</strong> obezˇnú dráhu posledny´ satelit LANDSAT 7. Ten mal uzˇ<br />

mnohé iné vylepsˇenia. Základnú vy´hodu oproti svojim predchodcom mal v novy´ch sen-<br />

zoroch. Thermic Mapper senzory boli <strong>na</strong>hradené citlivejsˇím ETM+ (Enhanced Thematic<br />

16


FEI KKUI<br />

Pásmo µm Rozlísˇenie (m 2 ) oblast’<br />

1 0.45 - 0.52 30 tepelné infračervené<br />

2 0.52 - 0.60 30 krátkovlnné infračervené<br />

3 0.63 - 0.69 30 krátkovlnné infračervené<br />

4 0.76 - 0.90 30 blízke infračervené<br />

5 1.55 - 1.75 30 červená<br />

6 10.4 - 12.5 120 zelená<br />

7 2.08 - 2.35 30 modrá<br />

Tabul’ka 4 – 1 Spektrá elektromagnetického zˇiarenia z Thematic Mapper<br />

Obr. 4 – 1 Oblasti elektromagnetického spektra prebrané z [9]<br />

Mapper) senzormi. ETM+ sníma elektromagnetické zˇiarenie v 8 rozsahoch spektier. Pr-<br />

vy´ch 7 senzorov je totozˇny´ch. V 8 spektre je dvojnásobná rozlisˇovacia schopnost’(15 m 2<br />

<strong>na</strong> pixel).<br />

Snímanie elektromagnetického zˇiarenia odrazeného zo zemského povrchu sa deje preto v<br />

rôznych spektrách, lebo rôzne oblasti zemského povrchu majú rozličné reflexné vlastnosti,<br />

a tie sa v rôznych vlnovy´ch dl´zˇkach zvyčajne prejavia rozdielnym spôsobom. To z<strong>na</strong>mená,<br />

zˇe pokial’ určitá oblast’zemského povrchu sa vy´razne prejavila v určitej oblasti spektra,<br />

tak v inej oblasti sa nemusí prejavovat’vôbec. Pre potreby klasifikácie vsˇak bolo potrebné<br />

nájst’určity´ vzt’ah medzi jednotlivy´mi oblast’ami spektra. Tento problém má riesˇit’aj moja<br />

17


FEI KKUI<br />

neurónová siet’. V d’alsˇej podkapitole sú uvedené niektoré aplikácie sˇpecializované pre<br />

riesˇenie klasifikačny´ch úloh <strong>na</strong> satelitny´ch dátach.<br />

4.2 Príklady vyuzˇivajúce neurónové siete pre klasifikáciu satelitny´ch dát<br />

Klasifikácia obrazov pomocou neurónovej siete z<strong>na</strong>mená klasifikáciu jednotlivy´ch pixe-<br />

lov 13 obrazu do príslusˇny´ch klasifikačny´ch tried. To z<strong>na</strong>mená, zˇe cely´ obrázok je rozlozˇeny´<br />

do pol’a (mapy) pixelov, ktorej kazˇdy´ prvok - pixel prichádza <strong>na</strong> vstup neurónovej siete,<br />

ktorá uzˇ vo fáze zˇivota, ho zaklasifikuje do triedy. Na obrázku 4 – 2 sú vstupné dáta pre<br />

klasifikáciu - satelitné snímky v 7 spektrách.<br />

Stručny´ popis nájdeny´ch aplikácií vyuzˇívajúcich NS pre spracvanie satelitny´ch obrazov<br />

zo satelitu LANDSAT:<br />

1. V <strong>prác</strong>i autorov P. Baruaha, M. Tumura Neural network modeling of lake surface<br />

chlorophyl and sediment from Landsat TM imagery [1] boli pouzˇité neurónové<br />

siete (back-propagation) pre zist’ovanie kvalitu vnútrozemnsky´ch vôd, podl’a kon-<br />

centrácie chlorofylu a ulozˇeny´ch sedimentov. Aplikovany´ systém zlepsˇil klasifikáciu<br />

vodny´ch plôch o 65% oproti regresnému modelu.<br />

2. Prvá <strong>prác</strong>a, ktorá riesˇila problém klasifikácie satelitny´ch dát v rámci Technickej uni-<br />

verzity v Kosˇiciach, bola <strong>prác</strong>a Extended Methods for Classification of Remotely<br />

Sensed Images Based on ARTMAP Neural Networks autorov P. Sinčák, N. Kopčo<br />

a H. Weregin. [3]. Snímky boli klasifikované pomocou ARTMAP neurónovej siete.<br />

3. V [2] pracovali autori <strong>na</strong> porovnávaní úsˇpesˇnosti klasifikácie obrázkov zo satelitu<br />

IRS-1D pomocou metódy MLC 14 a pomocou back-propagation neurónovej siete.<br />

Ky´m pri metode MLC bola presnost’klasifikácie 75.0%, tak pri back-propagation<br />

sieti bola <strong>na</strong> úrovni 85,2%.<br />

13 obrazovy´ prvok - <strong>na</strong>jmensˇia jednotka digitálnej bitmapovej grafiky<br />

14 maximum likelihood classification<br />

18


FEI KKUI<br />

Obr. 4 – 2 Originálne obrázky satelitu LANDSAT v 7 rôznych spektrách elektromagnetického zˇiarenia<br />

19


FEI KKUI<br />

Obr. 4 – 3 Vy´sledok klasifikácie pomocou Gaussian ARTMAP siete. Prevzaté od [3]<br />

Obr. 4 – 4 Vy´sledok klasifikácie pomocou Support Vector Machines podl’a [8]<br />

20


FEI KKUI<br />

4. Práca Forest cover change detection in Siberia [6] od autora C. Schmullius, bola<br />

čast’ou projektu EU SIBERIA-II. a hovorí o vyuzˇívaní neurónovy´ch sietí pre kla-<br />

sifikáciu zalesňovania a odlesňovania územia <strong>na</strong> Sibíri podl’a snímkov zo satelitu<br />

LANDSAT v rozsahu rokov 1989 azˇ 2000. Zaoberali sa hlavne zlepsˇením klasifi-<br />

kácie siete a to modifikáciami topológie siete, <strong>na</strong>stavovaním rôznych prídavny´ch<br />

parametrov a podobne.<br />

5. Jednou z d’alsˇích <strong>prác</strong> v tejto oblasti bola Interaktívny vy´ber trénovacej mno-<br />

zˇiny pre klasifikáciu obrazovy´ch dát pomocou neurónovej siete [8]. V <strong>prác</strong>i boli vy-<br />

uzˇité metódy učenia pomocou SVM a neurónovy´ch sietí. Čast’tejto <strong>prác</strong>e poslúzˇila aj<br />

tejto <strong>prác</strong>i. Vy´sledky získany´mi v tejto diplomovej <strong>prác</strong>i sú tiezˇ porov<strong>na</strong>né s vy´sled-<br />

kami <strong>prác</strong>e Uhri<strong>na</strong> 4 – 4. Uhrinová <strong>prác</strong>a sa zaoberala ako je uzˇ vysˇsˇie spomenuté<br />

interaktívnym vy´berom trénovacej mnozˇiny pre kontrolované učenie neurónovej<br />

siete s pouzˇitím metódy back-propagation a vyuzˇitím vizualizácie podporny´ch vek-<br />

torov 4 – 5. Práca tiezˇ obsahuje porov<strong>na</strong>nia vy´sledkov pouzˇitím rôznych masiek.<br />

Obr. 4 – 5 Vizualizácia podporny´ch vektorov po 2000 učiacich cykloch prevzaté z [8]<br />

21


FEI KKUI<br />

5 Návrh a implementácia systému pre vy´ber<br />

trénovacích vzoriek<br />

Systém bol <strong>na</strong>vrhnuty´ pre potreby experimentálnej časti. Je <strong>na</strong>vrhnuty´ s prvkami interakcie<br />

pouzˇívatel’a, aby poskytoval podporu pri rozhodovaní o triedach, ktoré si sám zaklasifikuje<br />

v trénovacích dátach. Jadro systému je neurónová siet’(back-propagation), ktorá klasifikuje<br />

príslusˇné trénovacie dáta a jej podporná neurónová siet’(taktiezˇ back-propagation), ktorá<br />

slúzˇi <strong>na</strong> vy´ber trénovacích pre následnú klasifikáciu pomocou curiosity. A to vzorky, ktoré<br />

majú vel’ky´ informačny´ prínos pre proces učenia klasifikačnej neurónovej siete.<br />

Implementovany´ systém by mal umozˇňovat’ zobrazit’ aj tieto vzorky z trénovacích dát,<br />

pri ktory´ch bol informačny´ zisk pre danú triedu <strong>na</strong>jväčsˇí. Tak isto aj predikciou vediet’<br />

odseparovat’tieto trénovacie vzorky pre učenie podl’a ich informačnej hodnoty.<br />

Z dôvodu zlozˇitosti tohto komplexného systému je rozdeleny´ z funkčného hl’adiska <strong>na</strong><br />

mensˇie podsystémy (subsystémy). Kazˇdy´ taky´to subsystém má svoje vlastné vstupy a<br />

vy´stupy. Navzájom sú prepojené vsˇetky tieto funkčné bloky do komplexného systému.<br />

Teda vy´stup jedného subsystému je vstupom druhého (ako <strong>na</strong>príklad obrázok, trénovacie<br />

vzorky, . . . ). Jeho presná implementácia je popísaná v tejto kapitole. Cely´ tento systém<br />

by sa zobrazil ako <strong>na</strong> obrázku.<br />

5.1 Subsystém pre transformáciu snímkov LANDSAT do falosˇny´ch fa-<br />

rieb, kvôli vizualizácii pre interaktívnu aplikáciu<br />

Je to podporny´ systém pre tvorbu trénovacích dát. Program skombinuje l’ubovol’né tri<br />

satelitné snímky zosnímané v rôznych spektrách - častiach infračerveného elektromag-<br />

netického zˇiarenia. Pri vsˇetky´ch experimentoch sú pouzˇité satelitné obrázky zo satelitu<br />

22


FEI KKUI<br />

LANDSAT 5. Vsˇetky´ch 7 obrázkov (súborov) je zosnímany´ch v jednom jasovom rozsahu,<br />

teda sú čiernobiele, je pre uzˇívatel’a t’azˇsˇie orientovat’sa v nich. Tento subsystém by mal<br />

vyriesˇit’tento problém jednoduchy´m vyfarbením obrázku. Na vy´stupe je zafarbená sate-<br />

litná snímka v nereálnych (falosˇny´ch farbách) farbách. Kazˇdá zo zlozˇiek R 15 , G 16 a B 17<br />

je vybraná z iného spektra, teda z iného obrázku. Napr.: Zlozˇka R je vybraná z piateho<br />

obrázku, zlozˇka G z tretieho obrázku a zlozˇka B je vybraná zo sˇiesteho obrázku. Vy´sledny´<br />

obraz vyzerá ako <strong>na</strong> obrázku 5.1.<br />

Obr. 5 – 1 Satelitny´ obrázok vl’avo (1 zo 7 spektier) a príklad obrázku vo falosˇny´ch farbách (kompozícia<br />

spektier 5, 4 a 6).<br />

Schéma tohto Subsytému 1 je zobrazená <strong>na</strong> obrázku 5.1.<br />

Obr. 5 – 2 Schéma Subsystému 1 pre zafarbovanie obrázkov.<br />

15 hodnota jasovej úrovne červenej zlozˇky<br />

16 hodnota jasovej úrovne zelenej zlozˇky<br />

17 hodnota jasovej úrovne modrej zlozˇky<br />

23


FEI KKUI<br />

5.2 Subsystém pre vy´ber <strong>na</strong>jlepsˇej trénovacej mnozˇiny<br />

Jedná sa len o pomocnú aplikáciu, ktorú tvorí neurónová siet’back-propagation. Schéma<br />

neurónovej sieti je <strong>na</strong> obrázku 5 – 3. Tá slúzˇi <strong>na</strong> jednoduchú klasifikáciu satelitny´ch<br />

obrazov podl’a vybranej trénovacej mnozˇiny, ktorú vyberá uzˇívatel’. Teda on si zvolí -<br />

zaklasifikuje ním vybrané oblasti do sˇtyroch rozličny´ch farebne odlísˇeny´ch tried.<br />

Obr. 5 – 3 Bloková schéma neurónovej sieti pre klasifikáciu trénovacej mnozˇiny pre n cyklov učenia.<br />

Inicializácia: náhodná inicializácia váh neurónovej siete, <strong>na</strong>čítavanie a následná normali-<br />

24


FEI KKUI<br />

zácia trénovacej a testovacej mnozˇiny. Tak isto sa normujú aj vy´stupné dáta.<br />

Vo vsˇetky´ch experimentoch boli pouzˇité vzˇdy len tieto 4 triedy:<br />

• trieda Mesto (farba R: 210 G: 0 B: 0)<br />

• trieda Voda (farba R: 26 G: 0 B: 255)<br />

• trieda Les (farba R: 49 G: 124 B: 47)<br />

• trieda Polia (farba R: 243 G: 255 B: 0)<br />

Zredukoval sa počet tried oproti <strong>prác</strong>i, <strong>na</strong> ktorú z časti <strong>na</strong>dväzujem [8], zo siedmych <strong>na</strong><br />

sˇtyri. Trieda mesto a voda ostali bez zmeny. Zlúčili sa triedy les a kroviny, ked’zˇe <strong>na</strong> sate-<br />

litny´ch obrázkoch nie je sú jasné rozdiely medzi ty´mito triedami. Tak isto sa zlúčili polia<br />

úrodné a polia neúrodne, pretozˇe neposkytovali z hl’adiska klasifikácie vy´z<strong>na</strong>mny´ prínos.<br />

Presnost’klasifikácie neúrodny´ch polí bola vel’mi malá. Polia sa <strong>na</strong>koniec zlúčili s lúkami.<br />

Tu uzˇ obidve triedy dokázal klasifikovat’ s väčsˇou presnost’ou, no chybná klasifikácia<br />

vznikala pri poliach, kde rástli zelené plodiny (boli zaklasifikované ako lúky).<br />

25


FEI KKUI<br />

5.3 Subsystém pre vizualizáciu a ohodnotenie trénovacích vzoriek<br />

V tomto subsystéme sa <strong>na</strong>chádza funkčne <strong>na</strong>jdôlezˇitejsˇia čast’ celého systému. Tou je<br />

klasifikácia príslusˇny´ch vstupny´ch dát a vy´ber trénovacích vzoriek. Budeme ho <strong>na</strong>zy´vat’<br />

klasifikačny´ model M. Pozostáva s jednotlivy´ch čiastkovy´ch dielov, pričom vy´stup prvého<br />

je vstupom druhého. Základné kroky systému sú <strong>na</strong>sledovné:<br />

Obr. 5 – 4 Bloková schéma s pouzˇitím regulátora <strong>na</strong> princípe aproximátora dôveryhodnosti pre 300 cyklov<br />

učenia.<br />

26


FEI KKUI<br />

• Inicializácia: Náhodne sa <strong>na</strong>stavujú váhy medzi jednotlivy´mi vrstvami z intervalu<br />

〈−1.0;1.0〉 a <strong>na</strong>čítavajú sa vstupné dáta zo 7 satelitny´ch obrázkov, ktoré sú ná-<br />

sledne normované <strong>na</strong> interval 〈0.0;1.0〉. Tak isto sa <strong>na</strong>čítava trénovacia a testovacia<br />

mnozˇi<strong>na</strong>.<br />

• Prezentácia trénovacích vzoriek <strong>na</strong> vstup: V kazˇdom učiacom sa cykle prichá-<br />

dzajú <strong>na</strong> vstup vsˇetky vzorky z trénovacej mnozˇiny.<br />

• Aproximátor dôveryhodnosti (regulátor): Podl’a teórie z 3.2.1 tretia mozˇnost’re-<br />

prezentácie dc(t) je odvodeny´ vzt’ah ∆J(t) = J(t −1)−J(t). Čo z<strong>na</strong>mená, zˇe rozdiel<br />

chyby predchádzajúcej vzorky a chyby aktuálnej trénovacej vzorky nám dáva údaj<br />

o vel’kosti zmeny chyby. Tento vzt’ah nám slúzˇil <strong>na</strong> reguláciu trénovacích vzoriek.<br />

Pre učenie klasifikačnej siete (zme<strong>na</strong> váh) sú zaujímavé len tie vzorky, ktory´ch<br />

informačny´ zisk bude <strong>na</strong>jväčsˇí. Čizˇe ak ∆J(t) < 0 tj. chyba pri danej trénovacej<br />

vzorke má pre klasifikačnú siet’väčsˇiu informačnú hodnotu, a preto bude vybraná<br />

pre učenie.<br />

Obr. 5 – 5 Vy´stupny´ obrázok klasifikačného systému.<br />

Navrhnuty´ systém obsahuje kvôli jednoduchsˇiemu spracovaniu a vyhodnoteniu vy´sledkov<br />

klasifikácie aj pomocné vy´pisy a grafy.<br />

27


FEI KKUI<br />

5.4 Predikčny´ model a vytváranie trénovacích mnozˇín pre tento sub-<br />

systém<br />

Predikčny´ model C bude predikovat’rôzne predikcie, <strong>na</strong> základe modifikácie dát z tréno-<br />

vacej mnozˇiny, ktoré budú opísané nizˇsˇie. Pre potreby experimentálnej časti je <strong>na</strong>vrhnuty´<br />

tento pomocny´ subsystém T , ktory´ vytvára trénovacie mnozˇiny pre predikčny´ systém C.<br />

Funguje <strong>na</strong>sledovny´m spôsobom. Počas učenia sa klasifikačného modelu M sa v kazˇdom<br />

Obr. 5 – 6 Čast’ schémy klasifikačného modelu M zobrazujúci zápis informácií do pomocného súboru<br />

support.<br />

cykle učenia, pre kazˇdú trénovaciu vzorku zapisujú do pomocného súboru support tieto<br />

informácie: súradnice vzorky 18 , trieda príslusˇnosti (do akej klasifikačnej triedy ju zaradil<br />

uzˇívatel’pri vy´bere trénovacích vzoriek), vstupné pixely (z originálnych satelitny´ch obráz-<br />

kov, ktoré ideme klasifikovat’) s rov<strong>na</strong>ky´mi súradnicami ako pri trénovacej vzorke, chyba<br />

J (vyrátava sa pri doprednom sˇírení v neurónovej sieti ako rozdiel medzi očakávany´m<br />

a skutočny´m vy´stupom). Zápis do pomocného súboru support sa vykonáva simultánne s<br />

18 <strong>na</strong>pr. pre [x,y]: x je súradnica sˇírky, y je súradnica vy´sˇky, príslusˇného pixelu v obrázku<br />

28


FEI KKUI<br />

vy´berom trénovacích vzoriek pre klasifikačny´ model M tj. zachováva si ty´m aj poradie -<br />

následnost’vybrany´ch trénovacích vzoriek za sebou ako je to <strong>na</strong> obrázku5 – 6. Z tohto po-<br />

mocného súboru subsystém T vytvorí trénovací a testovací súbor pre potreby predikčného<br />

modelu C. Podl’a pozˇiadaviek a <strong>na</strong>stavení pre vstupnú vzorku a vy´stupnú (pozˇadovany´<br />

vy´stup). Jed<strong>na</strong> vzorka teda obsahuje:<br />

- chyby v jednotlivy´ch časovy´ch krokoch (<strong>na</strong>pr. chyba v čase J(t −2), J(t −1), J(t)),<br />

trieda príslusˇnosti pre danú vzorku (<strong>na</strong>pr. trieda 3).<br />

- pozˇadovany´ vy´stup: zálezˇí od toho čo chceme predikovat’(<strong>na</strong>pr. J(t +1) alebo ∆J(t))<br />

Vstupné dáta zo satelitny´ch snímkov pre danú trénovaciu vzorku sa <strong>na</strong>čítavajú priamo<br />

v predikčnom modely C podl’a indexov trénovacej vzorky (tie sú ulozˇené v pomocnom<br />

súbore support). Tie sú doplnením vstupny´ch dát z trénovacej mnozˇiny pre predikčny´<br />

model C. Táto trénovacia mnozˇi<strong>na</strong> vyzerá potom ako <strong>na</strong> obrázku 5 – 7 Predikčny´ model<br />

Obr. 5 – 7 Ukázˇka trénovacieho súboru predikčného modelu C v poradí: prvy´ riadok - vstup, druhy´ riadok<br />

- pozˇadovany´ vy´stup.<br />

C je neurónová siet’s algoritmom učenia back-propagation, ktorej úlohou je predikovat’<br />

29


FEI KKUI<br />

z dany´ch vstupov v nejakom časovom okne vy´stup v časovom okne + 1. Siet’ obsahuje<br />

vstupnú, jednu skrytú a vy´stupnú vrstvu. Jej logická schéma je rov<strong>na</strong>ká ako 5 – 3, zme<strong>na</strong><br />

je len vo vstupny´ch dátach a iny´m <strong>na</strong>staveniam siete. Na <strong>na</strong>sledujúcom obrázku 5 – 8 je<br />

ukázané ako cely´ predikčny´ model funguje. V časovom okne sú dáta, ktoré sa privádzajú<br />

<strong>na</strong> vstup a <strong>na</strong> vy´stupe sú dáta, ktoré sú predikované pomocou neurónovej siete. Trénovací<br />

súbor zo subsystému T vlastne určuje čo bude <strong>na</strong> vstupe, čizˇe časové okno a čo <strong>na</strong> vy´stupe,<br />

čizˇe čo sa ide predikovat’.<br />

Obr. 5 – 8 Príklad vizualizácie činnosti predikcie pomocou neurónovej siete.<br />

Treba poz<strong>na</strong>me<strong>na</strong>t’, zˇe vstupné aj vy´stupné dáta boli normované <strong>na</strong> interval 〈0;1〉. To<br />

tak, zˇe kazˇdá hodnota vstupu - vy´stupu bola predelená jej maximálnou hodnotou, ktorú<br />

<strong>na</strong>dobudla počas vsˇetky´ch cyklov učenia.<br />

30


FEI KKUI<br />

5.5 Systém pre vy´ber trénovacích vzoriek pre klasifikáciu pomocou<br />

predikcie curiosity<br />

Tvorí jadro pri rozhodovaní o tom, či daná trénovacia vzorka bude zahrnutá do procesu<br />

učenia alebo nie. Tento subsystém - d’alej ho budeme uvádzat’ ako predikčny´ model C,<br />

prijíma vstupné dáta z dvoch zdrojov. Na vstup prichádza trénovacia vzorka v čase t iM(t)<br />

spolu s pozˇadovany´m vy´stupom pre trénovaciu vzorku oM(t) a chyby klasifikačného<br />

modelu M v časoch JM(t),JM(t − 1),JM(t − 2). Pozˇadovanou hodnotou pre predikčny´<br />

model je kumulatív<strong>na</strong> suma podl’a princípu 3.3.1, ktorá je vyjadrená ako:<br />

E γ 0 ∆JM(t) + γ 1 ∆JM(t + 1) + γ 2 ∆JM(t + 2) <br />

Pričom platí, zˇe ∆JM(t) = JM(t + 1) − JM(t). Model má teda predikovat’vplyv aktuálnej<br />

vzorky a d’alsˇích <strong>na</strong>sledujúcich trénovacích vzoriek <strong>na</strong> proces učenia. Podl’a princípu<br />

curiosity má uprednostňovat’vzorky s vel’kou informačnou hodnotou. Pre rozhodovanie<br />

slúzˇi regulátor, ktory´ <strong>na</strong> základe vzt’ahu oC(t) < ε, kde oC(t) je vy´stup z predikčného<br />

modelu C v čase t a ε ≥ 0, privádza trénovaciu vzorku pre učenie klasifikačného modelu<br />

M. Tento regulátor začí<strong>na</strong> svoju činnost’azˇ potom, ak predikcia predikčného modelu je uzˇ<br />

<strong>na</strong> istej spol’ahlivej úrovni (<strong>na</strong>príklad ak úspesˇnost’predikcie je <strong>na</strong>d 70%). Logická schéma<br />

celého systému je <strong>na</strong> obrázku 5 – 9.<br />

31


FEI KKUI<br />

Obr. 5 – 9 Bloková schéma systému s implementovany´m predikčny´m modelom a klasifikačny´m modelom<br />

pre n cyklov.<br />

32


FEI KKUI<br />

5.6 Celkové pouzˇitie systému v interaktívnom rezˇime<br />

V tejto kapitole je vysvetlená celková implementácia <strong>na</strong>vrhnutého systému. Skladá sa<br />

so vsˇetky´ch subsystémov, systémov a pomocny´ch aplikácií, ktoré sú <strong>na</strong>vzájom poprepá-<br />

jané do jedného komplexného interaktívneho systému. Na obrázku 5 – 10 je zobrazeny´<br />

tento systém. Funguje <strong>na</strong>sledovny´m spôsobom: S1 - vstup siedmich satelitny´ch obrázkov<br />

Obr. 5 – 10 Bloková vsˇeobecná schéma celkového pouzˇitia vsˇetky´ch prepojeny´ch subsystémov dohromady<br />

so znázornením interakcie medzi uzˇívatel’om a počítačom.<br />

LANDSAT. S2 - vytvorenie obrázku vo falosˇny´ch farbách pre pouzˇívatel’a opísany´ v kapi-<br />

tole 5.1. S3 - náhl’ad pre pouzˇívatel’a a vy´ber trénovacej mnozˇiny v akomkol’vek externom<br />

grafickom programe (<strong>na</strong>pr. prostredie freeware GIMP). S4 - tu je zaimplementovany´ jeden<br />

zo systémov opísany´ch v kapitolách 5.3 a 5.5 schopny´ aj vizualizovat’trénovacie dáta. S5 -<br />

zobrazí vizualizované trénovacie dáta, pričom uzˇívatel’môzˇe upravit’trénovaciu mnozˇinu<br />

rov<strong>na</strong>ky´m spôsobom ako pri S3.<br />

33


FEI KKUI<br />

6 Experimenty<br />

V tejto kapitole sú popísané vy´sledky získané z praktickej časti tejto <strong>prác</strong>e. Obsahuje<br />

čiastkové aj celkové vy´sledky postupne implementovany´ch systémov. Kazˇdy´ experiment<br />

obsahuje popis a stručné zhodnotenia vy´sledkov. Celkové zhodnotenie vsˇetky´ch vy´sledkov<br />

je azˇ v závere <strong>prác</strong>e.<br />

6.1 Vy´ber trénovacích vzoriek pre učenie<br />

V tomto experimente bolo ciel’om vybrat’čo <strong>na</strong>jlepsˇie trénovacie dáta z príslusˇny´ch uzˇíva-<br />

tel’om vybrany´ch zaklasifikovany´ch vzoriek. Uzˇívatel’si teda zvolil z obrázku v nereálnych<br />

(falosˇny´ch) farbách svoje trénovacie vzorky podl’a príslusˇny´ch 4 tried. Pre vsˇetky experi-<br />

menty boli pouzˇité satelitné snímky LANDSAT oblasti Kosˇíc. Rozličné farby <strong>na</strong> obrázku<br />

6 – 1 reprezentujú rozličné triedy. Oproti <strong>prác</strong>i [8] sme pouzˇili iba 4 triedy, kvôli jedno-<br />

duchsˇej interpretácii pre pouzˇívatel’a a presnejsˇej klasifikácií. Pre klasifikáciu bola pouzˇitá<br />

neurónová siet’back-propagation s <strong>na</strong>sledujúcou konfiguráciou:<br />

• počet neurónov <strong>na</strong> vstupnej vrstve: 7<br />

• počet neurónov <strong>na</strong> skrytej vrstve: 100<br />

• počet neurónov <strong>na</strong> vy´stupnej vrstve: 4<br />

• učiaci parameter γ : 0.3<br />

• počet cyklov: 3000<br />

• klasifikačny´ limit: 10%<br />

V kazˇdom cykle bolo pouzˇity´ch 1000 náhodne vybrany´ch trénovacích vzoriek. Sú tu<br />

vedené vy´sledky pri sˇiestich rôzne vybrany´ch trénovacích vzorkách.<br />

34


FEI KKUI<br />

Obr. 6 – 1 Trénovacia mnozˇi<strong>na</strong> 0.<br />

Obr. 6 – 2 Vy´sledok klasifikácie pri trénovacej mnozˇine 0.<br />

Obr. 6 – 3 Graf chy´b <strong>na</strong> trénovacej, testovacej mnozˇine a priemerná chyba.<br />

červená: je chyba <strong>na</strong> trénovacej mnozˇine, zelená: chyba <strong>na</strong> testovacej mnozˇine<br />

35


FEI KKUI<br />

Obr. 6 – 4 Trénovacia mnozˇi<strong>na</strong> 1.<br />

Obr. 6 – 5 Vy´sledok klasifikácie pri trénovacej mnozˇine 1.<br />

Obr. 6 – 6 Graf chy´b <strong>na</strong> trénovacej, testovacej mnozˇine a priemerná chyba.<br />

červená: je chyba <strong>na</strong> trénovacej mnozˇine, zelená: chyba <strong>na</strong> testovacej mnozˇine<br />

36


FEI KKUI<br />

Obr. 6 – 7 Trénovacia mnozˇi<strong>na</strong> 2.<br />

Obr. 6 – 8 Vy´sledok klasifikácie pri trénovacej mnozˇine 2.<br />

Obr. 6 – 9 Graf chy´b <strong>na</strong> trénovacej, testovacej mnozˇine a priemerná chyba.<br />

červená: je chyba <strong>na</strong> trénovacej mnozˇine, zelená: chyba <strong>na</strong> testovacej mnozˇine<br />

37


FEI KKUI<br />

Obr. 6 – 10 Trénovacia mnozˇi<strong>na</strong> 3.<br />

Obr. 6 – 11 Vy´sledok klasifikácie pri trénovacej mnozˇine 3.<br />

Obr. 6 – 12 Graf chy´b <strong>na</strong> trénovacej, testovacej mnozˇine a priemerná chyba.<br />

červená: je chyba <strong>na</strong> trénovacej mnozˇine, zelená: chyba <strong>na</strong> testovacej mnozˇine<br />

38


FEI KKUI<br />

Obr. 6 – 13 Trénovacia mnozˇi<strong>na</strong> 4.<br />

Obr. 6 – 14 Vy´sledok klasifikácie pri trénovacej mnozˇine 4.<br />

Obr. 6 – 15 Graf chy´b <strong>na</strong> trénovacej, testovacej mnozˇine a priemerná chyba.<br />

červená: je chyba <strong>na</strong> trénovacej mnozˇine, zelená: chyba <strong>na</strong> testovacej mnozˇine<br />

39


FEI KKUI<br />

Obr. 6 – 16 Trénovacia mnozˇi<strong>na</strong> 5.<br />

Obr. 6 – 17 Vy´sledok klasifikácie pri trénovacej mnozˇine 5.<br />

Obr. 6 – 18 Graf chy´b <strong>na</strong> trénovacej, testovacej mnozˇine a priemerná chyba.<br />

červená: je chyba <strong>na</strong> trénovacej mnozˇine, zelená: chyba <strong>na</strong> testovacej mnozˇine<br />

40


FEI KKUI<br />

Zhodnotenie experimentu<br />

Najvy´z<strong>na</strong>mnejsˇie kritérium pri posudzovaní vy´sledny´ch obrázkov bola klasifikácia sate-<br />

litny´ch obrázkov odpovedajúca skutočnosti. Kazˇdy´ vy´sledny´ obrázok bol porov<strong>na</strong>ny´ voči<br />

satelitny´m snímkam Kosˇíc z vol’ne dostupného programu Google Earth 4.0 (príklad je<br />

<strong>na</strong> obrázku 6 – 19). Trieda, ktorá bola klasifikovaná s <strong>na</strong>jmensˇou úspesˇnost’ou pri vsˇet-<br />

ky´ch trénovacích vzorkách bola voda (rieky). Vytváranie trénovacej mnozˇiny sa deje z<br />

Obr. 6 – 19 Ukázˇka zobrazovania satelitny´ch obrzov v programe Google Earth 4.0. Na obrázku je oblast’<br />

Kosˇíc.<br />

dôvodu zlozˇitosti programovej implementácie v externom grafickom programe GIMP.<br />

Ten je vol’ne dostupny´ <strong>na</strong> internete. Ukázalo sa, zˇe vy´ber trénovacej mnozˇiny má vel’ky´<br />

vplyv <strong>na</strong> vy´slednú klasifikáciu. Ked’zˇe obrázok vo falosˇny´ch farbách je len kvôli lepsˇej<br />

vizualizácii satelitného čiernobieleho obrázku, nie je mozˇné, aby sa pouzˇívatel’riadil pri<br />

klasifikovaní do tried podl’a farieb <strong>na</strong> vizualizovanom obrázku vo falosˇny´ch farbách. Preto<br />

ako referenčny´ obrázok bol pouzˇívany´ program Google Earth, ktory´ je obsahoval aj reálne<br />

farebné satelitné obrázky z tej istej oblasti Kosˇíc ako boli obrázky zo satelitu LANDSAT.<br />

41


FEI KKUI<br />

Vytvorenie jednej trénovacej mnozˇiny trvá pouzˇívatel’ovi od 10 minút aj do 1 hodiny.<br />

Trénovacia mnozˇi<strong>na</strong> 0 6 – 1 bola vytvorená z úmyslom čo <strong>na</strong>jjednoduchsˇieho vy´beru z<br />

hl’adiska pouzˇívatel’a. Ten vyberá triedy pomocou jednoduchy´ch geometricky´ch útvarov.<br />

Pričom triedu 2 (vodu), riečisˇtie je treba vybrat’ po jednotlivy´ch pixeloch (to sa ty´kalo<br />

vsˇetky´ch trénovacích mnozˇín). Trénovacia mnozˇi<strong>na</strong> 1 6 – 4 bola vytvorená za účelom čo<br />

<strong>na</strong>jväčsˇieho počtu trénovacích vzoriek vybrany´ch pomocou subjektívneho ohodnotenia<br />

pouzˇívatel’a. Trénovacia mnozˇi<strong>na</strong> 2 6 – 7 je vynechaním viacery´ch oblastí z trénovacej<br />

mnozˇiny 1 s ciel’om čo <strong>na</strong>jmensˇieho počtu trénovacích vzoriek. Trénovacia mnozˇi<strong>na</strong> 3 6 –<br />

10 bola vytvorená taktiezˇ s ciel’om čo <strong>na</strong>jmensˇím počtom trénovacích vzoriek, ale z iny´ch<br />

oblastí ako u trénovacej mnozˇine 2. Trénovacia mnozˇi<strong>na</strong> 4 6 – 13 bola vytvorená podl’a<br />

predchádzajúcej ale pridaním d’alsˇích oblastí do mnozˇiny. Trénovacia mnozˇi<strong>na</strong> 5 6 – 16<br />

obsahuje obmedzenie oblastí pre klasifikačné triedy 1 (mesto) a 4 (polia). Klasifikačná<br />

trieda 2 (voda) bola vytváraná u vsˇetky´ch mnozˇín po jednotlivy´ch pixeloch, kvôli tomu,<br />

aby klasifikačná siet’ju dokázala rozoz<strong>na</strong>t’<strong>na</strong>príklad rieku od cesty. Dˇ alsˇou komplikáciou<br />

bol fakt, zˇe satelitné snímky zachytili v určitej oblasti aj oblaky. Tie spôsobovali mensˇí<br />

sˇum. Napriek vsˇetky´m ty´mto ukazovatel’om sa podarilo <strong>na</strong> trénovačkách 0, 2 a 3 dosiahnut’<br />

uspokojivé vy´sledky klasifikácie.<br />

Trieda č. 1 - mesto: bola <strong>na</strong>jlepsˇie zaklasifikovaná pri pouzˇití trénovacích vzoriek 0, 1<br />

a 3. Najlepsˇie detaily dedín a ciest sú pri pouzˇití trénovacích vzoriek 3, ty´m sa vy´sledny´<br />

obrázok stal vít’azom pre triedu č. 0.<br />

Trieda č. 2 - voda: táto trieda bola <strong>na</strong>jväčsˇím problémom pre vsˇetky trénovacie vzorky.<br />

Iba v dvoch prípadoch dokázala klasifikačná siet’rozoz<strong>na</strong>t’rieku od cesty, a to pri tréno-<br />

vacích vzorkách 2 a 3 (čiastocne aj 0). No ani pri jednej mnozˇine vzoriek sa nedokázala<br />

klasifikačná siet’vyhnút’zasˇumeniu v porov<strong>na</strong>ní s triedou č.0 - mestom. Vít’azom pre túto<br />

triedu č. 2 sa stali práve trénovacie mnozˇiny 2 a 3.<br />

Trieda č. 3 - les: v tejto triede boli zahrnuté aj oblasti lesov, krovín. U skoro vsˇetky´ch<br />

pouzˇity´ch trénovacích mnozˇín od 0 - 5 bola vy´sledná klasifikácia <strong>na</strong> vel’mi dobrej úrovni.<br />

Vít’azom pre túto triedu sú trénovacie mnozˇiny 0, 1, 2 a 3.<br />

trieda č. 4 - polia: v tejto triede sú zahrnuté vsˇetky nezalesnené oblasti, polia a vel’ké<br />

42


FEI KKUI<br />

tráv<strong>na</strong>té plochy. Vít’azom tejto triedy sa stali trénovacie mnozˇiny 2 a 3.<br />

Klasifikačná siet’back-propagation sa nedokázala celkom vysporiadat’zo vsˇetky´mi klasifi-<br />

kačny´mi triedami <strong>na</strong> takej úrovni, aby odrázˇala reálny obraz prostredia. No aj jej vy´sledná<br />

klasifikácia nám pre experimentálne účely postačovala. Celkovou vít’azom sa stala klasi-<br />

fikácia pri pouzˇití trénovacej mnozˇiny 3. Táto mnozˇi<strong>na</strong> bola pouzˇitá <strong>na</strong>jčastejsˇie v d’alsˇích<br />

experimentoch.<br />

43


FEI KKUI<br />

6.2 Porov<strong>na</strong>nie klasifikácie NS s pouzˇitím aproximátora dôveryhod-<br />

nosti a konvečnej NS<br />

Ciel’om tohto experimentu je porov<strong>na</strong>t’klasifikačnú siet’implementovanou podl’a kapitoly<br />

5.3 a neurónovej siete back-propagation. Porov<strong>na</strong>t’ ry´chlost’ a kvalitu učenia. Ry´chlost’<br />

z<strong>na</strong>mená vel’kost’pomeru chyby klasifikácie ku počtu cyklov alebo aj po kol’ky´ch cykloch<br />

klesla chyba klasifikácie pod istú úroveň. Pre vyhodnocovanie kvality klasifikácie slúzˇi<br />

vy´sledny´ zaklasifikovany´ obraz a kontingenčná tabul’ka - tabul’ka, ktorej hodnoty sú per-<br />

centuálne vyjadrenia pozˇadovaného a skutočného vy´stupu z neurónovej siete. Vyjadruje<br />

kol’ko vít’azny´ch neurónov klasifikovalo vstupnú vzorku (vzhl’adom <strong>na</strong> testovaciu mno-<br />

zˇinu) správne a kol’ko reakcií <strong>na</strong> vstup bolo klasifikovany´ch nesprávne. Takisto sa bude<br />

sledovat’počet vyhodeny´ch vzoriek z trénovacej z pouzˇitej trénovacej mnozˇiny. V kazˇdom<br />

učiacom sa cykle bola pouzˇitá <strong>na</strong> vstupe celá trénovacia mnozˇi<strong>na</strong>. Konfigurácia obidvoch<br />

sietí boli <strong>na</strong>sledovné:<br />

• počet neurónov <strong>na</strong> vstupnej vrstve: 7<br />

• počet neurónov <strong>na</strong> skrytej vrstve: 100<br />

• počet neurónov <strong>na</strong> vy´stupnej vrstve: 4<br />

• učiaci parameter γ : 0.35<br />

• počet cyklov: 250<br />

• klasifikačny´ limit (prah): 0.6<br />

Pre tento experiment boli vybrané trénovacie mnozˇiny 0 (6 – 1), 2 (6 – 7) a 3 (6 – 10).<br />

44


FEI KKUI<br />

Obr. 6 – 20 Vy´sledok klasifikácie pri pouzˇití NS back-propagation pri trénovacej mnozˇine 4.<br />

Obr. 6 – 21 Vy´sledok klasifikácie pri NS s aproximátorom dôveryhodnosti pri trénovacej mnozˇine 4.<br />

Obr. 6 – 22 Graf priebehu vy´beru trénovacích vzoriek (počet cyklov/počet pouzˇity´ch trénovacích vzoriek).<br />

45


FEI KKUI<br />

Očakáv./skutoč. 1 2 3 4<br />

1’ 75,76% 2,59% 4,08% 0,00%<br />

2’ 0,00% 96,10% 0,00% 0,00%<br />

3’ 24,01% 1,29% 95,83% 0,00%<br />

4’ 0.00% 8,33% 0,00% 99,89%<br />

Tabul’ka 6 – 1 Kontingenčná tabul’ka pri pouzˇití NS back-propagation <strong>na</strong> trénovacej mnozˇine 0(pomer<br />

medzi očakávanou aktiváciou a skutočnou aktiváciou): 1-mesto, 2-voda, 3-les, 4-polia.<br />

Očakáv./skutoč. 1 2 3 4<br />

1’ 87,83% 3,89% 22,19% 0,00%<br />

2’ 0,00% 94,80% 0,00% 0,00%<br />

3’ 12,56% 1,50% 75,42% 0,00%<br />

4’ 0.00% 0,00% 2,30% 99,49%<br />

Tabul’ka 6 – 2 Kontingenčná tabul’ka pri pouzˇití NS s aproximátorom dôveryhodnosti <strong>na</strong> trénovacej mnozˇine<br />

0(pomer medzi očakávanou aktiváciou a skutočnou aktiváciou): 1-mesto, 2-voda, 3-les, 4-polia.<br />

Obr. 6 – 23 Priebeh chyby pri pouzˇití trénovacej mnozˇiny 0 s pouzˇitím aproximátora dôveryhodnosti<br />

(červená) a bez neho (zelená).<br />

46


FEI KKUI<br />

Obr. 6 – 24 Vy´sledok klasifikácie pri pouzˇití NS back-propagation pri trénovacej mnozˇine 2.<br />

Obr. 6 – 25 Vy´sledok klasifikácie pri NS s aproximátorom dôveryhodnosti pri trénovacej mnozˇine 2.<br />

Obr. 6 – 26 Graf priebehu vy´beru trénovacích vzoriek (počet cyklov/počet pouzˇity´ch trénovacích vzoriek).<br />

47


FEI KKUI<br />

Očakáv./skutoč. 1 2 3 4<br />

1’ 89,90% 40,00% 5,94% 2,60%<br />

2’ 2,51% 5,00% 0,00% 2,60%<br />

3’ 75,47% 55,00% 94,05% 94,79%<br />

4’ 0.00% 0.00% 0,00% 0.00%<br />

Tabul’ka 6 – 3 Kontingenčná tabul’ka pri pouzˇití NS back-propagation <strong>na</strong> trénovacej mnozˇine 2 (pomer<br />

medzi očakávanou aktiváciou a skutočnou aktiváciou): 1-mesto, 2-voda, 3-les, 4-polia.<br />

Očakáv./skutoč. 1 2 3 4<br />

1’ 93,71% 50,00% 13,51% 2,08%<br />

2’ 4,40% 7,50% 0,00% 5,72%<br />

3’ 1,86% 42,50% 86,48% 64,40%<br />

4’ 0.00% 0,00% 0.00% 30,74%<br />

Tabul’ka 6 – 4 Kontingenčná tabul’ka pri pouzˇití NS s aproximátorom dôveryhodnosti <strong>na</strong> trénovacej mnozˇine<br />

2 (pomer medzi očakávanou aktiváciou a skutočnou aktiváciou): 1-mesto, 2-voda, 3-les, 4-polia.<br />

Obr. 6 – 27 Priebeh chyby pri pouzˇití trénovacej mnozˇiny 2 s pouzˇitím aproximátora dôveryhodnosti<br />

(červená) a bez neho (zelená).<br />

48


FEI KKUI<br />

Obr. 6 – 28 Vy´sledok klasifikácie pri pouzˇití NS back-propagation pri trénovacej mnozˇine 3.<br />

Obr. 6 – 29 Vy´sledok klasifikácie pri NS s aproximátorom dôveryhodnosti pri trénovacej mnozˇine 3.<br />

Obr. 6 – 30 Graf priebehu vy´beru trénovacích vzoriek (počet cyklov/počet pouzˇity´ch trénovacích vzoriek).<br />

49


FEI KKUI<br />

Očakáv./skutoč. 1 2 3 4<br />

1’ 78,90% 11,66% 10,394% 0,00%<br />

2’ 0,00% 43,71% 0,00% 0,00%<br />

3’ 19,10% 8,33% 89,60% 0,0%<br />

4’ 0.00% 8.33% 0,00% 99.89%<br />

Tabul’ka 6 – 5 Kontingenčná tabul’ka pri pouzˇití NS back-propagation <strong>na</strong> trénovacej mnozˇine 3 (pomer<br />

medzi očakávanou aktiváciou a skutočnou aktiváciou): 1-mesto, 2-voda, 3-les, 4-polia.<br />

Očakáv./skutoč. 1 2 3 4<br />

1’ 80,08% 41,66% 11,18% 2,08%<br />

2’ 4,40% 41,66% 0,00% 0,0%<br />

3’ 21,01% 8,33% 88,17% 0,00%<br />

4’ 0.00% 14,58% 0.00% 98,41%<br />

Tabul’ka 6 – 6 Kontingenčná tabul’ka pri pouzˇití NS s aproximátorom dôveryhodnosti <strong>na</strong> trénovacej mnozˇine<br />

3 (pomer medzi očakávanou aktiváciou a skutočnou aktiváciou): 1-mesto, 2-voda, 3-les, 4-polia.<br />

Obr. 6 – 31 Priebeh chyby pri pouzˇití trénovacej mnozˇiny 3 s pouzˇitím aproximátora dôveryhodnosti<br />

(červená) a bez neho (zelená).<br />

50


FEI KKUI<br />

Zhodnotenie experimentu<br />

Z vy´sledny´ch obrázkov sú viditel’né malé rozdiely v klasifikáciách jednotlivy´ch tried. U<br />

vsˇetky´ch vy´sledny´ch obrázkov neurónovej siete s pouzˇitím aproximátora dôveryhodnosti<br />

sú častejsˇie vyskytujúce sa biele oblasti - teda oblasti, ktoré nespl´ňali stanoveny´ klasifi-<br />

kačny´ limit 60%. Najväčsˇie rozdiely sú pri klasifikácii triedy č. 1 - mesto. Triedy č. 3 - les<br />

a č. 4 - polia boli klasifikované obidvoma siet’ami <strong>na</strong> priblizˇne rov<strong>na</strong>kú mieru. Porov<strong>na</strong>-<br />

nie kontingenčny´ch tabuliek nám hovorí, zˇe klasifikácia obyčajnej neurónovej siete bola<br />

v priemere o 1,4% (vzhl’adom kol’ko vít’azny´ch neurónov klasifikovalo vstupnú vzorku<br />

podl’a očakávania) lepsˇia ako s pouzˇitím aproximátora dôveryhodnosti (okrem prípadu<br />

s pouzˇitím trénovacej mnozˇiny 2). Ten robil v priemere o 2,3% väčsˇí počet vít’azny´ch<br />

neurónov zle klasifikovalo dany´ vstup voči pozˇadovanému (Teda ak vstupná vzorka bola<br />

triedy 1, tak z tabul’ky 6 – 1 vyply´va: 75,76% vít’azny´ch neurónov klasikovalo vstup podl’a<br />

pozˇadovaného vy´stupu, 2,59% ako triedu 2, 4,08% ako triedu 3 a 0% ako triedu 4). Z toho<br />

vyply´va, zˇe s pouzˇitím aproximátora dôveryhodnosti systém počas učenia ponechával<br />

(ostatné nepouzˇíval v d’alsˇom cykle učenia) trénovacie vzorky, ktoré boli chybne zakla-<br />

sifikované. Ukázˇkou ako počas učenia separoval trénovaciu mnozˇinu sú grafy priebehov<br />

vy´beru trénovacích vzoriek. Pri posledny´ch cykloch učenia zredukoval celú trénovaciu<br />

mnozˇinu v priemere o 78,2%. Grafy priebehov chy´b sa od seba vel’mi nelísˇili, no pri ne-<br />

urónovej sieti bez aproximátora dôveryhodnosti sú chyby stále v priemere o 2,1% mensˇie<br />

ako pri jeho pouzˇití. No nie je esˇte poz<strong>na</strong>me<strong>na</strong>né, zˇe s pouzˇitím aproximátora dôveryhod-<br />

nosti, je cely´ učiaci sa proces ry´chlejsˇí. Práve ty´m, zˇe počas učenia vyberá len niektoré<br />

trénovacie vzorky a neprechádza stále celú trénovaciu mnozˇinu je cyklus učenia ry´chlejsˇí<br />

ako bez jeho pouzˇitia. Takto bola porovnávaná ry´chlost’ aj u Schmidhubera pri vyhod-<br />

nocovaní jeho experimentov. V tomto experimente sa nemeral časovy´ rozdiel z dôvodu<br />

jednoduchosti problému v zrov<strong>na</strong>ní s vy´počtovy´m vy´konom pouzˇívaného počítača. No je<br />

predpoklad, zˇe s pribúdajúcou zlozˇitost’ou bude tento rozdiel markantny´.<br />

51


FEI KKUI<br />

6.3 Vizualizácia vzoriek aproximátora dôveryhodnosti z trénovacej<br />

mnozˇiny<br />

Ciel’om tohto experimentu je vizualizovat’vzorky z trénovacej mnozˇiny, ktoré aproximátor<br />

dôveryhodnosti pouzˇíval pri učení a následne ich a<strong>na</strong>lyzovat’. Pri experimente bude pouzˇitá<br />

trénovacia mnozˇi<strong>na</strong> 0 (vid’. obrázok 6 – 2). Pre tento experiment bol pouzˇity´ systém z<br />

kapitoly 5.3. Konfigurácie siete:<br />

• počet neurónov <strong>na</strong> vstupnej vrstve: 7<br />

• počet neurónov <strong>na</strong> skrytej vrstve: 100<br />

• počet neurónov <strong>na</strong> vy´stupnej vrstve: 4<br />

• učiaci parameter γ : 0.3<br />

• počet cyklov: 100<br />

• klasifikačny´ limit (prah): 0.1<br />

Na obrázku Vykreslenie ty´chto bodov nám hovorí, zˇe pre danú triedu trénovacej mnozˇiny<br />

vykazujú spôsobujú počas procesu učenia <strong>na</strong>jväčsˇiu chybu<br />

52


FEI KKUI<br />

Obr. 6 – 32 Trénovacia mnozˇi<strong>na</strong> 0 pouzˇitá pre klasifikáciu a vizualizáciu delty J.<br />

Očakáv./skutoč. 1 2 3 4<br />

1’ 85,96% 4,89% 22,28% 0,00%<br />

2’ 0,00% 94,80% 0,00% 0,00%<br />

3’ 13,03% 1,29% 77,72% 0,16%<br />

4’ 0.00% 0,00% 0.00% 99,78%<br />

Tabul’ka 6 – 7 Kontingenčná tabul’ka s pouzˇitím trénovacej mnozˇiny 0 (pomer medzi očakávanou aktiváciou<br />

a skutočnou aktiváciou): 1-mesto, 2-voda, 3-les, 4-polia.<br />

Obr. 6 – 33 Priebeh chyby <strong>na</strong> testovacích a trénovacích dátach pri pouzˇití trénovacej mnozˇiny 0.<br />

53


FEI KKUI<br />

Obr. 6 – 34 Vy´stup klasifikácie so zobrazenou deltou J (odtiene čiernej farby) <strong>na</strong> trénovacích vzorkách z<br />

trénovacej mnozˇiny 6 – 32.<br />

54


FEI KKUI<br />

Obr. 6 – 35 Upravená trénovacia mnozˇi<strong>na</strong> 0, ktorá bola následne pouzˇitá pre klasifikáciu a vizuálizáciu<br />

delty J.<br />

Očakáv./skutoč. 1 2 3 4<br />

1’ 86,46% 3,89% 16,88% 0,00%<br />

2’ 0,00% 94,80% 0,00% 0,00%<br />

3’ 12,11% 1,29% 83,11% 0,00%<br />

4’ 0.00% 0,00% 0.00% 99,89%<br />

Tabul’ka 6 – 8 Kontingenčná tabul’ka s pouzˇitím upravenej trénovacej mnozˇiny 0 (pomer medzi očakávanou<br />

aktiváciou a skutočnou aktiváciou): 1-mesto, 2-voda, 3-les, 4-polia.<br />

Obr. 6 – 36 Priebeh chyby <strong>na</strong> testovacích a trénovacích dátach pri pouzˇití upravenej trénovacej mnozˇiny 0.<br />

55


FEI KKUI<br />

Obr. 6 – 37 Vy´stup klasifikácie so zobrazenou deltou J po odstránení niektory´ch trénovacích vzoriek<br />

trénovacej mnozˇiny 6 – 35 z procesu učenia.<br />

56


FEI KKUI<br />

Zhodnotenie experimentu<br />

Ciel’om tohto experimentu bolo vizualizovat’vzorky z trénovacej mnozˇiny, ktoré aproxi-<br />

mátor dôveryhodnosti pouzˇíval pri učení. Na obrázkoch 6 – 34 a 6 – 37 sú vizualizované<br />

vzorky z trénovacej mnozˇiny 0. Farba resp. ich jasová hodnota sa vypočítala podl’a vzt’ahu<br />

vy´stupny´ pixel =∆J · f arba(RGB) príslusˇnej triedy.<br />

Teda čím bola ∆J väčsˇia, ty´m bola jasová hodnota RGB väčsˇia, dôsledkom toho má<br />

vy´sledny´ pixel tmavy´ odtieň (azˇ čiernej) farby príslusˇnej klasifikačnej triedy. Teda tmavy´<br />

bod obrázku z<strong>na</strong>mená, zˇe pre danú klasifikačnú triedu, z ktorej pochádza bod trénovacej<br />

mnozˇiny, klasifikačny´ modul M vykazoval väčsˇiu chybu ako pri predchádzajúcom bode<br />

obrázku. Vel’kost’ tejto zmeny chyby je priamo úmerná odtieňu farby tohto bodu. Na<br />

obrázku 6 – 35 je pouzˇívatel’om upravená trénovacia mnozˇi<strong>na</strong> 0 s ciel’om odstránit’niektoré<br />

vzorky, ktoré spôsobujú väčsˇiu chybu klasifikácie pre danú klasifikačnú triedu (Boli<br />

odstránené niektoré vzorky z kazˇdej klasifikačnej triedy ako je to zrejme z obrázka 6 –<br />

35). Potom klasifikačná siet’ Ms aproximátorom dôveryhodnosti vykazovala zlepsˇenú<br />

klasifikáciu v priemere okolo 2% a zmensˇil sa počet zle klasifikovany´ch vzoriek. Z toho<br />

vyply´va, zˇe vizualizované vzorky z trénovacej mnozˇiny vply´vajú <strong>na</strong> presnost’klasifikácie<br />

klasifikačného modelu M.<br />

57


FEI KKUI<br />

6.4 Experimenty s predikčny´m modelom<br />

Hlavny´ model vyuzˇívajúci predikčny´ model C je opísany´ v kapitole 5.5. Tieto <strong>na</strong>sledujúce<br />

experimenty majú poukázat’<strong>na</strong> funkčnost’a predikčného modelu C <strong>na</strong> vstupny´ch dátach,<br />

ktoré tento model dostáva z predchádzajúceho subsystémy - klasifikačnej siete. Úlohou<br />

tohto modelu je ako uzˇ bolo spomenuté predikovat’budúci prínos z trénovacích vzoriek.<br />

Nasledujúce čiastkové experimenty postupne demonsˇtrujú spol’ahlivost’a presnost’pred-<br />

ikcie. Kritérium kvality je spol’ahlivost’- presnost’predikcie, ktorú môzˇeme vyčítat’z grafu<br />

priebehu chyby medzi očakávany´mi a skutočny´mi (predikovany´mi) dátami.<br />

Overenie predikčného modelu<br />

Tento experiment má preverit’ funkčnost’ predikčného modelu C. Bol pouzˇity´ model z<br />

kapitoly 5.4 Ciel’om je, aby daná predikčná siet’dokázala predikovat’s istou presnost’ou<br />

(<strong>na</strong>pr. min 70%). Pre učenie bola pouzˇitá trénovacia mnozˇi<strong>na</strong>, ktorá bola vytvorená z<br />

klasifikačného modulu M pri klasifikácií podl’a trénovacej mnozˇiny 3. Fungujúcom <strong>na</strong><br />

princípe opísanom taktiezˇ v kapitole 5.4. Vstup pre predikčnú siet’back-propagation boli<br />

dáta v tvare iM(t), oM(t), JM(t), JM(t −1), JM(t −2) a pozˇadovany´ vy´stup bol JM(t +1).<br />

Ako kritétium kvality bude povazˇovany´ graf priebehu chyby učenia.<br />

• počet neurónov <strong>na</strong> vstupnej vrstve: 11<br />

• počet neurónov <strong>na</strong> skrytej vrstve: 100<br />

• počet neurónov <strong>na</strong> vy´stupnej vrstve: 1<br />

• učiaci parameter γ : 0.3<br />

• počet cyklov: 2000<br />

58


FEI KKUI<br />

Obr. 6 – 38 Graf priebehu chyby <strong>na</strong> predikčného modelu C pri pouzˇití trénovacích dát z klasifikačného<br />

modelu M pre predikciu JM(t + 1).<br />

Obr. 6 – 39 Priebeh chyby predikčného modelu C pri aproximácii funkcie XOR.<br />

59


FEI KKUI<br />

Zhodnotenie experimentu<br />

Ciel’om tohto experimentu bolo overenie funkčnosti neurónovej siete <strong>na</strong> predikcii z jed-<br />

noduchy´ch trénovacích dát. Z grafov 6 – 38 a 6 – 39 je vidno, zˇe predikčny´ model dokázal<br />

aproximovat’vzt’ahy medzi vstupny´mi a vy´stupny´mi dátami. Pri vstupny´ch dátach z kla-<br />

sifikačného modulu chyba klesla v priemere o 78%.<br />

Predikčny´ model aproximujúci jednoduchy´ prípad curiosity<br />

Je to kl’účovy´ experiment pre overenie presnosti predikcie predikčného modelu C (neuró-<br />

nová siet’back-propagation) pre potreby systému opísanom v kapitole 5.5. Jeho ciel’om je<br />

<strong>na</strong>učit’predikčny´ model C <strong>na</strong> dátach z klasifikačného modelu M pri klasifikácií podl’a tré-<br />

novacej mnozˇiny 3. Tie sú v tomto tvare: Na vstup prichádza rov<strong>na</strong>ká trénovacia mnozˇi<strong>na</strong><br />

ako v predchádzajúcom experimente iM(t), oM(t), JM(t), JM(t − 1), JM(t − 2) no pozˇa-<br />

dovaná hodnota pre vy´stup predikčného modulu C je podl’a kapitoly 5.5 v tvare ∆JM(t),<br />

čo je zjednodusˇeny´ prípad základného princípu curiosity.<br />

• počet neurónov <strong>na</strong> vstupnej vrstve: 11<br />

• počet neurónov <strong>na</strong> skrytej vrstve: 100<br />

• počet neurónov <strong>na</strong> vy´stupnej vrstve: 1<br />

• učiaci parameter γ : 0.35<br />

• počet cyklov: 300<br />

Zhodnotenie experimentu<br />

Ciel’om experimentu ukázat’ako úspesˇne dokázˇe predikčny´ model C predikovat’z dany´ch<br />

vstupny´ch dát. Z grafu 6 – 40 môzˇeme vyčítat’, zˇe chyba klesla len o 2%. To z<strong>na</strong>mená,<br />

zˇe predikčná siet’ sa nedokázˇe podl’a takto zadanej trénovacej mnozˇiny niečo <strong>na</strong>učit’.<br />

Hlavné príčiny prečo nedokázal aproximovat’budúce vzorky, boli v trénovacích dátach.<br />

60


FEI KKUI<br />

Obr. 6 – 40 Priebeh chyby predikčného modelu C predikujúci očakávanú jednoduchy´ prípad curiosity.<br />

Na obrázku 6 – 41 je zobrazené čast’ trénovacej mnozˇiny pre C (nenormované hodnoty<br />

Obr. 6 – 41 Ukázˇka časti trénovacieho súboru pre predikčny´ model C v tavre: nenornované chyby v časovom<br />

okne a trieda príslusˇnosti ako vstup; ako vy´stup normované očakávané curiosity.<br />

61


FEI KKUI<br />

chy´b sa normujú pred začiatkom učenia v predikčnom modely). Je z neho vidno, zˇe<br />

pozˇadovaná v niektory´ch prípadoch je hodnota curiosity vel’mi malá. Z toho vyply´va, zˇe<br />

predikčná siet’sa po čase (istom počte cyklov) némá čo učit’. Dˇ alej <strong>na</strong>stávajú prípady, kedy<br />

pre rov<strong>na</strong>ké vstupy sú rôzne pozˇadované vy´stupy. Tie sa vyskytujú pri skončení cyklu<br />

učenia v času t a začiatku cyklu učenia v čase t + 1. Ty´m sa vytvára v trénovacích dátach<br />

sˇum, ktory´ okrem iny´ch faktorov tiezˇ ovplyvňuje presnost’predikcie.<br />

Predikčny´ model aproximujúci curiosity<br />

Je to doplňujúci experiment k predchádzajúcemu experimentu. Trénovacia mnozˇi<strong>na</strong> mala<br />

tvar: Na vstup prichádzajú dáta iM(t), oM(t), JM(t), JM(t − 1), JM(t − 2). Pozˇadovaná<br />

hodnota pre vy´stup predikčného modulu C bola v tvare<br />

γ 0 ∆JM(t) + γ 1 ∆JM(t + 1) + γ 2 ∆JM(t + 2),<br />

podl’a základného princípu curiosity. Konfigurácia siete predikčného modulu bola <strong>na</strong>sle-<br />

dovná:<br />

• počet neurónov <strong>na</strong> vstupnej vrstve: 11<br />

• počet neurónov <strong>na</strong> skrytej vrstve: 100<br />

• počet neurónov <strong>na</strong> vy´stupnej vrstve: 1<br />

• učiaci parameter: 0.35<br />

• počet cyklov: 300<br />

• parameter curiosity γ : 0.01<br />

Zhodnotenie experimentu<br />

Ciel’om experimentu bolo síce ukázat’ako úspesˇne dokázˇe predikčny´ model C predikovat’z<br />

dany´ch vstupny´ch dát, no uzˇ po predchádzajúcom neúspesˇnom experimente sa uzˇ očakával<br />

62


FEI KKUI<br />

Obr. 6 – 42 Priebeh chyby predikčného modelu predikujúci očakávanú curiosity pre časové okno 〈0,3〉<br />

sekundy.<br />

záporny´ vy´sledok. Z grafu 6 – 42 je vidno, zˇe chyba klesla opät’len o málo (okolo 2%).<br />

To z<strong>na</strong>mená, zˇe predikčná siet’sa nedokázˇe ani podl’a takto zadanej trénovacej mnozˇiny<br />

niečo <strong>na</strong>učit’.<br />

Vy´ber trénovacích vzoriek predikčny´m modelom C pre klasifikáciu<br />

Ciel’om tohto experimentu bolo overit’funkčnost’a ry´chlost’systému opísaného v kapitole<br />

5.5. Systém bol <strong>na</strong>staveny´ tak, zˇe pri prvy´ch n cyklov učenia vstupujú do klasifikačného<br />

modelu vzˇdy vsˇetky trénovacie vzorky, pričom sa predikčny´ model učí predikovat’podl’a<br />

pozˇadovaného vy´stupu (ten sa prepočítava ako aj vstupné dáta pre predikčny´ model<br />

C). Predikčny´ model C mal predikovat’ očakávanú curiosity rov<strong>na</strong>ky´m spôsobom ako<br />

v experimente - 6.4Predikčny´ model aproximujúci curiosity. Bola pouzˇitá trénovacia<br />

mnozˇi<strong>na</strong> 4. Konfigurácia neurónovej siete predikčného modelu C:<br />

• počet neurónov <strong>na</strong> vstupnej vrstve: 11<br />

63


FEI KKUI<br />

• počet neurónov <strong>na</strong> skrytej vrstve: 30<br />

• počet neurónov <strong>na</strong> vy´stupnej vrstve: 1<br />

• učiaci parameter: 0.4<br />

• parameter curiosity γ : 0.01<br />

Konfigurácie neurónovej siete klasifikačného modelu M:<br />

• počet neurónov <strong>na</strong> vstupnej vrstve: 7<br />

• počet neurónov <strong>na</strong> skrytej vrstve: 90<br />

• počet neurónov <strong>na</strong> vy´stupnej vrstve: 4<br />

• učiaci parameter γ : 0.35<br />

Zhodnotenie experimentu<br />

Z vy´sledkov predchádzajúcich dvoch experimentov vyply´va, zˇe predikčny´ model C doká-<br />

zal predikovat’<strong>na</strong> základe vstupny´ch dátach iba s vel’mi malou spol’ahlivost’ou (iba 2%). No<br />

kvôli demonsˇtrácií systému a s ciel’om overenia správnosti predchádzajúcich vy´sledkov<br />

bol vyko<strong>na</strong>ny´ tento experiment. Pri učení oboch modelov <strong>na</strong>stali dva prípady:<br />

1. Počas vsˇetky´ch cyklov učenia prichádzali <strong>na</strong> vstup klasifikačného modelu M vsˇetky<br />

trénovacie vzorky z trénovacej mnozˇiny.<br />

2. Po n počte cyklov učenia neprichádzali <strong>na</strong> vstup klasifikačného modelu M zˇiadne<br />

trénovacie vzorky z trénovacej mnozˇiny.<br />

Tento jav spôsoboval ”regulátor” oC(t) < ε, ktory´ rozhodoval o tom, či daná trénovacia<br />

vzorka bude vstupom pre učenie klasifikačného modelu M. Bolo obtiazˇné zvolit’ také<br />

0,0 < ε < 1,0, aby sme sa prispôsobili vy´stupu predikčného modelu C oC(t). oC sa<br />

nikdy ne<strong>na</strong>chádzal v rov<strong>na</strong>kom intervale (<strong>na</strong>pr. 〈0,42;0.52〉). Bolo to spôsobené ty´m,<br />

zˇe predikčny´ model C sa nedokázal <strong>na</strong>učit’predikovat’očakávanú curiosity. Jeho vy´stup<br />

64


FEI KKUI<br />

sa po určitom počte cyklov učenia ustálil v istom intervale. No pri opätovnom spustení<br />

predikčného modelu (pri inej inicializácii váh medzi jednotlivy´mi vrstvami) po tom istom<br />

počte učiacich sa cyklov tento inteeval bol úplne rozdielny.<br />

6.5 Celkové zhodnotenie experimentov<br />

Hlavny´m ciel’om experimentov bolo overenie vplyvu trénovacej mnozˇiny <strong>na</strong> vy´sledok<br />

klasifikácie a ry´chlost’učenia pomocou curiosity algoritmov a ich základny´ch princípov.<br />

Pre vsˇetky experimenty boli pouzˇité satelitné obrázky satelitu LANDSAT.<br />

Ukázalo sa, zˇe vy´ber trénovacej mnozˇiny, presnejsˇie kategorizácia oblastí do príslusˇny´ch<br />

klasifikačny´ch tried má vel’ky´ vplyv <strong>na</strong> vy´slednú klasifikáciu, teda <strong>na</strong> jej presnost’. Vizu-<br />

alizáciou bodov z trénovacej mnozˇiny, ktoré boli relevantné pre proces klasifikácie (teda<br />

zaujímavé z hl’adiska procesu učenia), bola poskytnutá uzˇívatel’ovi mozˇnost’interakcie so<br />

systémom. Teda ukázala mu oblasti trénovacej mnozˇiny, <strong>na</strong> ktoré je prospesˇné sa zamerat’.<br />

Dˇ alsˇie príklady len potvrdili závery o vplyve trénovacej mnozˇiny <strong>na</strong> presnost’klasifiká-<br />

cie. Bolo ukázané, zˇe selekcia trénovacích vzoriek počas učenia zry´chl’uje proces učenia<br />

a vply´va <strong>na</strong> presnost’ klasifikácie. S vyuzˇitím aproximátora dôveryhodnosti sa selekcia<br />

vykonávala s ciel’om ponechávat’trénovacie vzorky v procese učenia <strong>na</strong> základe ich in-<br />

formačného prínosu.<br />

Implementácia algoritmu curiosity v predikčnom modely sa pre problém klasifikácie ne-<br />

osvedčil. Experimentálne boli overené viaceré mozˇnosti predikcie curiosity, no vsˇetky<br />

mali nepostačujúce vy´sledky. Jedny´m z dôvodov boli trénovacie dáta. Tie boli zasˇumené<br />

a nepostačujúce pre učenie sa neurónovej siete (malé a vel’ké rozdiely medzi trénovacími<br />

vzorkami pozˇadovany´ch vy´stupov).<br />

Podrobnejsˇie zhodnotenia jednotlivy´ch experimentov sa <strong>na</strong>chádzajú v závere kazˇdého<br />

experimentu.<br />

65


FEI KKUI<br />

7 Záver<br />

Ciel’om <strong>prác</strong>e bolo zistit’mozˇnosti vyuzˇitia curiosity algortmov pri klasifikácii satelitny´ch<br />

obrazov. Pre splnenie tohto ciel’a bolo potrebné <strong>na</strong>sˇtudovat’celú problematiku klasifikácie,<br />

predikcie a základny´ch princípov curiosity. Navrhnút’ a implementovat’ vhodny´ systém<br />

pre riesˇenie vsˇetky´ch pozˇiadaviek.<br />

V prvy´ch kapitolách bol vypracovany´ úvod do problematiky neurónovej siete so spätny´m<br />

sˇírením chyby a do problematiky curiosity algoritmov. Následne bol vypracovany´ prehl’ad<br />

do problematiky klasifikácie satelitny´ch obrazov pomocou neurónovy´ch sietí. To boli prvé<br />

dve pozˇiadavky úloh zadania, ktoré sa podarilo splnit’v kapitolách 2, 3 a 4.<br />

Pre potreby experimentálnej časti <strong>prác</strong>e bol <strong>na</strong>vrhnuty´ interaktívny systém. Logické<br />

schémy a samotná implementácia je vysvetléná v kapitole 5. Kl’účovou čast’ou <strong>prác</strong>e<br />

boli experimenty. Tie sú podrobne opísané v kapitole 6.<br />

V experimentálne časti tejto <strong>prác</strong>e vyply´va prínos selekcie trénovacej mnozˇiny pre pro-<br />

ces učenia neurónovej siete a presnost’ klasifikácie. Dˇ alej prínos vizualizácie vzoriek<br />

trénovacej mnozˇiny pre pouzˇívatel’a, ktorá poskytuje mozˇnosti a<strong>na</strong>ly´zi a interakcie. nepo-<br />

darilosa vsˇak prepojit’problematiku klasifikácie - predikcie curiosity tak ako to prepojil<br />

J. Schmidhuber u reinforcement aplikáciach. Prečo je tomu tak je vysvetlené z časti pri<br />

experimentoch s predikčny´m modelom 6.4. Iná teória prečo sa to nepodaril implemento-<br />

vat’spolu je: V príklade, ktory´ uvádza Schmidhuber ako jednoduchy´ príklad, uvedenom v<br />

kapitole 3 (3.3.3), chyba J(t) súvisela s chybou J(t + 1), lebo vstup in(t) a vstup in(t + 1)<br />

v prípade agenta pohybujúceho sa v prietore sú si blízke (vstupy <strong>na</strong>vzájom súvisia). Teda<br />

chyba J(t) sa oproti chybe v časte t + 1 vel’mi nelísˇi. Na rozdiel v <strong>na</strong>sˇom prípade vstup<br />

in(t) a vstup in(t +1) nemusia spolu vôbec súvisiet’(ak vstupom in(t) je trénovacia vzorka<br />

z klasifikačnej mnozˇiny 1 a in(t +1) je trénovacia vzorka z klasifikačnej mnozˇiny 3, alebo<br />

akákol’vek iná trieda).<br />

Do budúc<strong>na</strong> je potrebné vytvorit’prípadné d’alsˇie teórie prečo nefunguje prepojenie medzi<br />

predickciou curiosity a klasifikáciou a realizovat’experimenty <strong>na</strong> potvrdenie alebo vyvrá-<br />

tenie ty´chto teórií. Jed<strong>na</strong> z mozˇností je, aby sa <strong>na</strong> vstup pre klasifikačnú siet’privádzal pixel<br />

66


FEI KKUI<br />

po pixely z trénovacej mnozˇiny, aby bola zabezpečené väčsˇia časová súvislost’. Potom pri<br />

funkčnosti celého systému zlepsˇit’interakčny´ systém s pouzˇívatel’om.<br />

Aplikačny´ potenciál tejto <strong>prác</strong>e má svoje uplatnenie práve pri klasifikácii stelitny´ch dát<br />

nielen satelitu LANDSAT. Softvér Google Earth Pro pracujúci so satelitny´mi obrazmi<br />

má v sebe funkciu, ktorá klasifikuje dany´ obraz do jednoduchy´ch tried (oby´vaná oblast’,<br />

priemysel, obchody, ...). Implementácia interaktívneho modelu klasifikácie s vyuzˇitím<br />

curiosity algoritmu v takomto softvéri by z<strong>na</strong>me<strong>na</strong>l vel’ky´ ry´chlostny´ a kvalitatívny skok<br />

oproti doterajsˇím vy´sledkom (uzˇ len z hl’adiska interakcie s pouzˇívatel’om).<br />

67


FEI KKUI<br />

Zoz<strong>na</strong>m pouzˇitej literatúry<br />

[1] BARUAH, P. J., TUMURA, M., OKI, M. a NISHIMURA, H. 2001 Neural network<br />

modeling of lake surface chlorophyl and sediment from Landsat TM imagery Pro-<br />

ceedings of the 22nd Asian Conference on Remote Sensing, Singapore 2001., pp.<br />

911-916<br />

[2] HOSSEINI ARIA, E., J. AMINI, J., SARADJIAN, M.R. 2003. Back Propagation<br />

N eural Network for Classification of IRS-1D Satellite Images., Department of<br />

geomantics, Faculty of Engineering, Tehran University<br />

[3] KOPČO, N., SINČÁK, P., WEREGIN, H., 1999. Extended Methods for Classifi-<br />

cation of Remotely Sensed Images Based on ARTMAP Neural Networks. Techni-<br />

cal University Kosˇice<br />

[4] SCHMIDHUBER, J. 1991. Adaptive confidence and adaptive curiosity. In: Institut<br />

für Informatik, Technische Universität München, Technical Report FKI-149-91,<br />

April, 30, 1991<br />

[5] SCHMIDHUBER, J. 1991. Adaptive decomposition of time. To appear in O. Simula,<br />

editor, Proceedings of the Inter<strong>na</strong>tio<strong>na</strong>l conference on Artificial Neural Networks<br />

ICANN’91. Elsevier Science Publisher B. V., Január, 1991, s. 1–5<br />

[6] SCHMULLIUS, C. 2003 Forest cover change detection in Siberia Institute for<br />

Geoinformatics and Remote Sensing, Friedrich-Schiller University Je<strong>na</strong>, 2003<br />

[7] SINČÁK, P. – ANDREJKOVÁ, G. 1996. Neurónové siete - Inzˇiniersky prístup 1.<br />

diel. ,Elfa-press, ISBN 80-8256-030-5, 1996<br />

[8] UHRIN, J. 2006. Interaktívny vy´ber trénovacej mnozˇiny pre klasifikáciu obrazo-<br />

vy´ch dát pomocou neurónovej siete. Diplomová <strong>prác</strong>a. Kosˇice: Katedra kyberne-<br />

tiky a umelej inteligencie, TU FEI Kosˇice., 2006<br />

68


FEI KKUI<br />

Internetové zdroje:<br />

[9] http://www.satelliteimpressions.com/landsat.html<br />

[10] http://landsat.gsfc.<strong>na</strong>sa.gov/<br />

69


Zoz<strong>na</strong>m príloh<br />

1. CD médium - diplomová <strong>prác</strong>a v elektronickej podobe, prílohy v elektronickej<br />

podobe.<br />

2. Pouzˇívatel’ská príručka<br />

3. Systémová príručka


FEI KKUI<br />

Zoz<strong>na</strong>m obrázkov<br />

4 – 1 Oblasti elektromagnetického spektra prebrané z [9] . . . . . . . . . . . . 17<br />

4 – 2 Originálne obrázky satelitu LANDSAT v 7 rôznych spektrách elektro-<br />

magnetického zˇiarenia . . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />

4 – 3 Vy´sledok klasifikácie pomocou Gaussian ARTMAP siete. Prevzaté od [3] 20<br />

4 – 4 Vy´sledok klasifikácie pomocou Support Vector Machines podl’a [8] . . . 20<br />

4 – 5 Vizualizácia podporny´ch vektorov po 2000 učiacich cykloch prevzaté z [8] 21<br />

5 – 1 Satelitny´ obrázok vl’avo (1 zo 7 spektier) a príklad obrázku vo falosˇny´ch<br />

farbách (kompozícia spektier 5, 4 a 6). . . . . . . . . . . . . . . . . . . . 23<br />

5 – 2 Schéma Subsystému 1 pre zafarbovanie obrázkov. . . . . . . . . . . . . . 23<br />

5 – 3 Bloková schéma neurónovej sieti pre klasifikáciu trénovacej mnozˇiny pre<br />

n cyklov učenia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

5 – 4 Bloková schéma s pouzˇitím regulátora <strong>na</strong> princípe aproximátora dôvery-<br />

hodnosti pre 300 cyklov učenia. . . . . . . . . . . . . . . . . . . . . . . 26<br />

5 – 5 Vy´stupny´ obrázok klasifikačného systému. . . . . . . . . . . . . . . . . . 27<br />

5 – 6 Čast’ schémy klasifikačného modelu M zobrazujúci zápis informácií do<br />

pomocného súboru support. . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

5 – 7 Ukázˇka trénovacieho súboru predikčného modelu C v poradí: prvy´ riadok<br />

- vstup, druhy´ riadok - pozˇadovany´ vy´stup. . . . . . . . . . . . . . . . . 29<br />

5 – 8 Príklad vizualizácie činnosti predikcie pomocou neurónovej siete. . . . . 30<br />

5 – 9 Bloková schéma systému s implementovany´m predikčny´m modelom a<br />

klasifikačny´m modelom pre n cyklov. . . . . . . . . . . . . . . . . . . . 32<br />

5 – 10Bloková vsˇeobecná schéma celkového pouzˇitia vsˇetky´ch prepojeny´ch sub-<br />

systémov dohromady so znázornením interakcie medzi uzˇívatel’om a po-<br />

čítačom. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />

6 – 1 Trénovacia mnozˇi<strong>na</strong> 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . 35<br />

6 – 2 Vy´sledok klasifikácie pri trénovacej mnozˇine 0. . . . . . . . . . . . . . . 35<br />

6 – 3 Graf chy´b <strong>na</strong> trénovacej, testovacej mnozˇine a priemerná chyba. . . . . . 35<br />

71


FEI KKUI<br />

6 – 4 Trénovacia mnozˇi<strong>na</strong> 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />

6 – 5 Vy´sledok klasifikácie pri trénovacej mnozˇine 1. . . . . . . . . . . . . . . 36<br />

6 – 6 Graf chy´b <strong>na</strong> trénovacej, testovacej mnozˇine a priemerná chyba. . . . . . 36<br />

6 – 7 Trénovacia mnozˇi<strong>na</strong> 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

6 – 8 Vy´sledok klasifikácie pri trénovacej mnozˇine 2. . . . . . . . . . . . . . . 37<br />

6 – 9 Graf chy´b <strong>na</strong> trénovacej, testovacej mnozˇine a priemerná chyba. . . . . . 37<br />

6 – 10Trénovacia mnozˇi<strong>na</strong> 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . 38<br />

6 – 11Vy´sledok klasifikácie pri trénovacej mnozˇine 3. . . . . . . . . . . . . . . 38<br />

6 – 12Graf chy´b <strong>na</strong> trénovacej, testovacej mnozˇine a priemerná chyba. . . . . . 38<br />

6 – 13Trénovacia mnozˇi<strong>na</strong> 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . 39<br />

6 – 14Vy´sledok klasifikácie pri trénovacej mnozˇine 4. . . . . . . . . . . . . . . 39<br />

6 – 15Graf chy´b <strong>na</strong> trénovacej, testovacej mnozˇine a priemerná chyba. . . . . . 39<br />

6 – 16Trénovacia mnozˇi<strong>na</strong> 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

6 – 17Vy´sledok klasifikácie pri trénovacej mnozˇine 5. . . . . . . . . . . . . . . 40<br />

6 – 18Graf chy´b <strong>na</strong> trénovacej, testovacej mnozˇine a priemerná chyba. . . . . . 40<br />

6 – 19Ukázˇka zobrazovania satelitny´ch obrzov v programe Google Earth 4.0.<br />

Na obrázku je oblast’Kosˇíc. . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />

6 – 20Vy´sledok klasifikácie pri pouzˇití NS back-propagation pri trénovacej mno-<br />

zˇine 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

6 – 21Vy´sledok klasifikácie pri NS s aproximátorom dôveryhodnosti pri tréno-<br />

vacej mnozˇine 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

6 – 22Graf priebehu vy´beru trénovacích vzoriek (počet cyklov/počet pouzˇity´ch<br />

trénovacích vzoriek). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

6 – 23Priebeh chyby pri pouzˇití trénovacej mnozˇiny 0 s pouzˇitím aproximátora<br />

dôveryhodnosti (červená) a bez neho (zelená). . . . . . . . . . . . . . . . 46<br />

6 – 24Vy´sledok klasifikácie pri pouzˇití NS back-propagation pri trénovacej mno-<br />

zˇine 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />

6 – 25Vy´sledok klasifikácie pri NS s aproximátorom dôveryhodnosti pri tréno-<br />

vacej mnozˇine 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />

72


FEI KKUI<br />

6 – 26Graf priebehu vy´beru trénovacích vzoriek (počet cyklov/počet pouzˇity´ch<br />

trénovacích vzoriek). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />

6 – 27Priebeh chyby pri pouzˇití trénovacej mnozˇiny 2 s pouzˇitím aproximátora<br />

dôveryhodnosti (červená) a bez neho (zelená). . . . . . . . . . . . . . . . 48<br />

6 – 28Vy´sledok klasifikácie pri pouzˇití NS back-propagation pri trénovacej mno-<br />

zˇine 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />

6 – 29Vy´sledok klasifikácie pri NS s aproximátorom dôveryhodnosti pri tréno-<br />

vacej mnozˇine 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />

6 – 30Graf priebehu vy´beru trénovacích vzoriek (počet cyklov/počet pouzˇity´ch<br />

trénovacích vzoriek). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />

6 – 31Priebeh chyby pri pouzˇití trénovacej mnozˇiny 3 s pouzˇitím aproximátora<br />

dôveryhodnosti (červená) a bez neho (zelená). . . . . . . . . . . . . . . . 50<br />

6 – 32Trénovacia mnozˇi<strong>na</strong> 0 pouzˇitá pre klasifikáciu a vizualizáciu delty J. . . . 53<br />

6 – 33Priebeh chyby <strong>na</strong> testovacích a trénovacích dátach pri pouzˇití trénovacej<br />

mnozˇiny 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53<br />

6 – 34Vy´stup klasifikácie so zobrazenou deltou J (odtiene čiernej farby) <strong>na</strong><br />

trénovacích vzorkách z trénovacej mnozˇiny 6 – 32. . . . . . . . . . . . . 54<br />

6 – 35Upravená trénovacia mnozˇi<strong>na</strong> 0, ktorá bola následne pouzˇitá pre klasifi-<br />

káciu a vizuálizáciu delty J. . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />

6 – 36Priebeh chyby <strong>na</strong> testovacích a trénovacích dátach pri pouzˇití upravenej<br />

trénovacej mnozˇiny 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />

6 – 37Vy´stup klasifikácie so zobrazenou deltou J po odstránení niektory´ch tré-<br />

novacích vzoriek trénovacej mnozˇiny 6 – 35 z procesu učenia. . . . . . . 56<br />

6 – 38Graf priebehu chyby <strong>na</strong> predikčného modelu C pri pouzˇití trénovacích dát<br />

z klasifikačného modelu M pre predikciu JM(t + 1). . . . . . . . . . . . . 59<br />

6 – 39Priebeh chyby predikčného modelu C pri aproximácii funkcie XOR. . . . 59<br />

6 – 40Priebeh chyby predikčného modelu C predikujúci očakávanú jednoduchy´<br />

prípad curiosity. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

73


FEI KKUI<br />

6 – 41Ukázˇka časti trénovacieho súboru pre predikčny´ model C v tavre: nenor-<br />

nované chyby v časovom okne a trieda príslusˇnosti ako vstup; ako vy´stup<br />

normované očakávané curiosity. . . . . . . . . . . . . . . . . . . . . . . 61<br />

6 – 42Priebeh chyby predikčného modelu predikujúci očakávanú curiosity pre<br />

časové okno 〈0,3〉 sekundy. . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />

74


FEI KKUI<br />

Zoz<strong>na</strong>m tabuliek<br />

4 – 1 Spektrá elektromagnetického zˇiarenia z Thematic Mapper . . . . . . . . . 17<br />

6 – 1 Kontingenčná tabul’ka pri pouzˇití NS back-propagation <strong>na</strong> trénovacej mno-<br />

zˇine 0(pomer medzi očakávanou aktiváciou a skutočnou aktiváciou): 1-<br />

mesto, 2-voda, 3-les, 4-polia. . . . . . . . . . . . . . . . . . . . . . . . . 46<br />

6 – 2 Kontingenčná tabul’ka pri pouzˇití NS s aproximátorom dôveryhodnosti <strong>na</strong><br />

trénovacej mnozˇine 0(pomer medzi očakávanou aktiváciou a skutočnou<br />

aktiváciou): 1-mesto, 2-voda, 3-les, 4-polia. . . . . . . . . . . . . . . . . 46<br />

6 – 3 Kontingenčná tabul’ka pri pouzˇití NS back-propagation <strong>na</strong> trénovacej mno-<br />

zˇine 2 (pomer medzi očakávanou aktiváciou a skutočnou aktiváciou):<br />

1-mesto, 2-voda, 3-les, 4-polia. . . . . . . . . . . . . . . . . . . . . . . . 48<br />

6 – 4 Kontingenčná tabul’ka pri pouzˇití NS s aproximátorom dôveryhodnosti <strong>na</strong><br />

trénovacej mnozˇine 2 (pomer medzi očakávanou aktiváciou a skutočnou<br />

aktiváciou): 1-mesto, 2-voda, 3-les, 4-polia. . . . . . . . . . . . . . . . . 48<br />

6 – 5 Kontingenčná tabul’ka pri pouzˇití NS back-propagation <strong>na</strong> trénovacej mno-<br />

zˇine 3 (pomer medzi očakávanou aktiváciou a skutočnou aktiváciou):<br />

1-mesto, 2-voda, 3-les, 4-polia. . . . . . . . . . . . . . . . . . . . . . . . 50<br />

6 – 6 Kontingenčná tabul’ka pri pouzˇití NS s aproximátorom dôveryhodnosti <strong>na</strong><br />

trénovacej mnozˇine 3 (pomer medzi očakávanou aktiváciou a skutočnou<br />

aktiváciou): 1-mesto, 2-voda, 3-les, 4-polia. . . . . . . . . . . . . . . . . 50<br />

6 – 7 Kontingenčná tabul’ka s pouzˇitím trénovacej mnozˇiny 0 (pomer medzi<br />

očakávanou aktiváciou a skutočnou aktiváciou): 1-mesto, 2-voda, 3-les,<br />

4-polia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53<br />

6 – 8 Kontingenčná tabul’ka s pouzˇitím upravenej trénovacej mnozˇiny 0 (pomer<br />

medzi očakávanou aktiváciou a skutočnou aktiváciou): 1-mesto, 2-voda,<br />

3-les, 4-polia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />

75

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!