18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

136 9. Klassifikation und Mustererkennung<br />

Durch Klicken auf Reset können Sie Eingabefläche wieder löschen und ein<br />

neues Problem eingeben. Versuchen Sie für verschiedene Werte von k Punkte<br />

so einzugeben, daß möglichst viele Iterationen durchlaufen werden können,<br />

bis ein Optimum erreicht wird.<br />

Der Begriff ” neural gas“ ist angelehnt an die Vorstellung eines<br />

abkühlenden Gases. Der Grad an Streuung der Zuordnung variiert dabei<br />

wie bei allen Simulated-Annealing-Algorithmen von anfangs sehr stark<br />

(f(i, j) = 1/k ∀i, j) bis schließlich die Zuordnung eindeutig (f(i, j) = 1 für<br />

ein bestimmtes j und 0 für alle anderen) wie beim reinen LBG-Algorithmus<br />

ausfällt.<br />

Bleibt noch zu klären, wie ein sinnvoller Wert für k bestimmt werden<br />

kann. Es wurden Ansätze verfolgt, die Größe eines Codebuchs automatisch<br />

zu bestimmen [?]. Dabei wird im Wesentlichen für verschiedene Werte von<br />

k ein Neural-Gas- oder ein k-Mittelwerte-Algorithmus berechnet und die<br />

durchschnittliche Streuung auf einer zuvor aus den Trainingsdaten entfernten<br />

Teilmenge (Kreuzvalidierungsmenge) bestimmt. Ab einem bestimmten k<br />

ist zu erwarten, daß die Streuung auf den Kreuzvaldierungsdaten nicht<br />

mehr genauso schnell absinkt wie auf den Trainingsdaten. Dies ist dann ein<br />

sinnvoller Wert für k. Experimente in [?] haben die Erwartung bestätigt,<br />

daß Klassen, die von vorn herein eher uniform beziehungsweise unimodal<br />

erscheinen wie zum Beispiel die Klasse der Beispielspektren für Stillelaute,<br />

auch mit wesentlich weniger Referenzen auskommen als eher Komplexe<br />

Klassen wie die Spektren von Diphthongen.<br />

In der Praxis hat sich allerdings herausgestellt, daß der Gewinn an<br />

fein dosierter Modellierungsgenauigkeit oft durch die sich ergebenden<br />

numerischen Probleme wieder aufgehoben werden. Der Vergleich von multivariaten<br />

Gauß-Mischverteilungen mit stark unterschiedlichen Größen von<br />

Mixturen benötigt nachträgliche Korrekturparameter (so genannte fudge<br />

factors). Die Erkennungsraten von Spracherkennern mit so automatisch<br />

bestimmten Codebuchgrößen waren nicht signifikant besser als diejenigen<br />

von Erkennern mit im voraus auf konstante Größe festgelegten Codebüchern.<br />

In der Tat gehört zu den am häufigsten angewandten Methoden der<br />

Codebuchgrößenbestimmung die auf Erfahrung basierte Schätzung. In diese<br />

Schätzung fließen vor allem die Menge der Trainingsdaten und der maximale<br />

erlaubte Aufwand für die Erkennung ein. Je mehr Trainingsdaten zur<br />

Verfügung stehen und je weniger Anforderungen and die Echtzeitfähigkeit<br />

des Klassifikators gestellt werden, umso größer können die Codebücher<br />

gewählt werden.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!