18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

338 19. Parameterraumoptimierung<br />

Abb. 19.1. Ein typischer schlechter Viterbi-Pfad<br />

wenigen Trainingsdaten, weil alle kleinen Eigenwerte, deren Eigenvektoren<br />

nicht nahezu parallel zu einer Raumachse liegen, auf alle Achsen verteilt“<br />

”<br />

werden. So ist z.B. die volle Kovarianzmatrix der Menge { 0 1<br />

0 , 1 } singulär,<br />

die diagonale aber nicht.<br />

Aber selbst diagonale Kovarianzmatrizen können mehr Parameter als<br />

nötig enthalten. Oft ist es möglich, ohne signifikante Leistungseinbußen<br />

statt voller oder diagonaler Kovarianzmatrizen einfach die Einheitsmatrix<br />

zu verwenden. Einen Kompromiß zwischen diagonalen Matrizen und der<br />

Einheitsmatrix stellen radiale Matrizen dar, deren Diagonalelemente alle<br />

denselben Wert r haben, wobei die Nichtdiagonalelemente alle Null sind.<br />

Es liegt nun nahe, für verschiedene Codebuchvektoren auch verschiedene<br />

Kovarianzmatrixtypen zu verwenden. Da eine volle Matrix mehr Parameter<br />

hat, ist anzunehmen, daß sie – vorausgesetzt, sie kann hinreichend gut<br />

geschätzt werden – die Daten besser modelliert als eine diagonale. Wenn<br />

also für einen Codebuchvektor sehr viele Trainingsdaten zur Verfügung<br />

stehen, dann kann es vorteilhaft sein, für diesen Vektor eine volle Matrix zu<br />

verwenden. Umgekehrt kann es sinnvoll sein, für einen Vektor, der nur sehr<br />

wenige Trainingsdaten hat, eine Matrix mit wenigen Parametern, z.B. eine<br />

radiale Matrix zu verwenden.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!