18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

19.4 Kompaktifizierung 337<br />

bei der nur die Diagonalelemente ungleich Null sind, kann wesentlich<br />

schneller durchgeführt werden, als wenn alle Matrixelement in die Rechnung<br />

mit einbezogen werden müssen.<br />

Ein weiterer Grund, der für die Verwendung diagonaler Kovarianzmatrizen<br />

spricht, ist die Tatsache, daß viele Dimensionen des Merkmalsraumes in<br />

der Regel gar nicht nennenswert miteinander korreliert sind, insbesondere<br />

dann, wenn Vorverarbeitungsmethoden angewendet werden, die als Seiteneffekt<br />

die Dekorrelation des Merkmalsraumes haben, wie zum Beispiel die<br />

lineare Diskriminanzanalyse (LDA).<br />

Schließlich bleibt noch zu erwähnen, daß zu wenige Trainingsdaten<br />

für volle Kovarianzmatrizen leicht dazu führen können, daß Beinahe-<br />

Singularitäten entstehen, das heißt, daß die Form der Gaußglocke einer<br />

Normalverteilung in einer bestimmten Richtung so spitz ist, daß die berechnete<br />

Wahrscheinlichkeit für Merkmalsvektoren, die in die Mitte der<br />

Gaußglocke fallen, extrem hoch ausfällt, während weiter entfernt liegenden<br />

Vektoren eine extrem niedrige Wahrscheinlichkeit zugewiesen wird. Wenn so<br />

eine beinahe-singuläre Kovarianzmatrix in dem Codebuch eines bestimmten<br />

Modells vorkommt, und ein Merkmalsvektor eines anderen Modells<br />

befindet sich ” zufällig“ innerhalb dieser Beinahe-Singularität, so wird ihm<br />

eine vermutlich wesentlich überhöhte Wahrscheinlichkeit zugewiesen, im<br />

ungünstigen Fall sogar eine wesentlich höhere als diejenige, die ihm vom<br />

Codebuch seines eigenen Modells zugewiesen würde.<br />

Wenn man Viterbi-Pfade analysiert und sich diejenigen genauer ansieht,<br />

die eine verhältnismäßig kleine Gesamtwahrscheinlichkeit haben, dann<br />

findet man oft eine Pfadform, wie sie in Abbildung 19.1 dargestellt ist. Der<br />

durch ausgefüllte Punkte dargestellte Pfad sei der ” korrekte“, bestimmt<br />

zum Beispiel durch einen besseren Erkenner. Der von einem schlechteren<br />

Erkenner gefundene Pfad ist durch die nicht ausgefüllten Markierungen<br />

dargestellt. Der Grund für die Abweichung des schlechten Pfades liegt an<br />

dem mit dem Quadrat markierten Punkt. Man sieht, daß der Pfad davor<br />

sehr steil nach oben steigt, das heißt, er überspringt viele HMM Zustände in<br />

kurzer Zeit, um an dem markierten Punkt anzukommen. Danach bleibt er<br />

lange Zeit im erreichten Zustand, um schließlich wieder mit dem korrekten<br />

Pfad zu verschmelzen. In diesem Fall war die lokale Wahrscheinlichkeit des<br />

quadratisch markierten Punktes so groß, daß dieser unter allen Umständen<br />

in den Pfad mit aufgenommen werden mußte. Wie Überprüfungen in<br />

solchen Fällen ergeben haben, ist oft eine Beinahe-Singularität in einer<br />

Kovarianzmatrix des zugehörigen Modells dafür verantwortlich.<br />

Bei der Verwendung von diagonalen Kovarianzmatrizen sinkt die Wahrscheinlichkeit<br />

des Auftretens von Beinahe-Singularitäten für Modelle mit

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!