18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Jordan Elman<br />

22.2 Architekturen 375<br />

Eingabemuster Kontext Eingabemuster Kontext<br />

Abb. 22.2. Rekurrentes Neuronales Netz nach Jordan und Elman<br />

22.2.3 LVQ – Learning Vector Quantization<br />

Auf den ersten Blick erscheint die Einordnung des Learning Vector Quantisation<br />

Verfahrens in den Bereich der Neuronalen Netze als irgendwie<br />

unmotiviert. Tatsächlich ist der im folgenden vorgestellte LVQ-Algorithmus<br />

mit denen, die für das Trainieren und die Funktion von Perzeptronen<br />

verwendet werden, durchaus in vielen Bereichen vergleichbar.<br />

Die Idee hinter dem LVQ liegt darin, daß Referenzvektoren, die bestimmte<br />

Klassen repräsentieren, iterativ im Merkmalsraum verschoben werden.<br />

Das Ziel, das dabei verfolgt wird, ist den durchschnittlichen (euklidischen<br />

oder anderen) Abstand der Trainingsmuster zu ihrem entsprechenden<br />

Referenzvektoren zu minimieren. Der einfache LVQ-Algorithmus sieht wie<br />

folgt aus:<br />

1. gegeben: die Anhahl k der Klassen,<br />

und die Menge der Trainingsmuster v1, v2, . . . vT<br />

2. initialisiere beliebige k Referenzvektoren µ1, µ2, . . . µk,<br />

z.B. durch µi = vi<br />

3. ordne jedem Trainingsmuster vi den Repräsentanten<br />

µ f(i) seiner Klasse zu<br />

4. bewege µ f(i) ein wenig in Richtung vi,<br />

also µ ′ f(i) = µ f(i) + t · (vi − µ f(i))<br />

5. wenn Optimierungskriterium noch nicht ausreichend erfüllt,<br />

gehe zu Schritt 3

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!