18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

340 19. Parameterraumoptimierung<br />

Beim Umwandeln von Kovarianzmatrizen eines Typs in einen anderen<br />

sollte stets darauf geachtet werden, daß die resultierende Determinante<br />

gleich der ursprünglichen Determinanten ist.<br />

σ1 <br />

...σd<br />

Wenn eine diagonale Kovarianzmatrix MD = in eine radiale<br />

<br />

σ...σ<br />

<br />

MR = umgewandelt wird, dann wird σ definiert als d<br />

i σi.<br />

Dann gilt |MD| = |MR|. Veranschaulicht bedeutet das, daß der Ellipsoid,<br />

der die einfache Kovarianz um den Mittelwert darstellt, umgewandelt wird<br />

in eine Kugel mit gleichem Volumen.<br />

19.4.3 Selektive Radialisierung<br />

Motivation<br />

Der Begriff Radialisierung bezeichne die Umwandlung von diagonalen Kovarianzmatrizen<br />

in radiale, entsprechend der obigen Definition. Ausgehend<br />

davon, daß Fließkommamultiplikationen den größten Teil des Aufwands zur<br />

Berechnung einer multivariaten Normalverteilung darstellen, lohnt es sich,<br />

deren Anzahl zu minimieren. Die Multiplikation mit den Diagonalwerten der<br />

inversen Kovarianzmatrizen stellen auch ca. ein Drittel aller Fließkommaoperationen.<br />

Das heißt, daß durch Radialisierung im günstigsten Fall eine<br />

Zeitersparnis von etwa 30% erwartet werden kann. In der Praxis fällt diese<br />

Zeitersparnis kleiner aus, da die heutigen Rechnerarchitekturen komplizierte<br />

Fließkommaprozessoren besitzen, die mehrere Operationen gleichzeitig bzw.<br />

im sogenannten ” Pipeline-Modus“ durchführen können, was bedeutet, daß<br />

durch Vermeidung von Rechenschritten vor allem eine geringere Auslastung<br />

der Fließkommaprozessoren, aber nur eine kleine Zeitersparnis erreicht wird.<br />

Es lohnt sich aber auch aus anderen Gründen, so viele Kovarianzmatrizen<br />

wie möglich zu radialisieren. Ein Spracherkenner mit 5 000 Codebüchern<br />

zu je 32 48-dimensionalen Normalverteilungen benötigt für seine insgesamt<br />

160 000 Mittelwertsvektoren 7.68 Millionen Parameter. Die gleiche Menge<br />

wird noch einmal für die zugehörigen diagonalen Kovarianzmatrizen<br />

benötigt. Wenn nun jede Matrix mit einem einzigen statt 48 Parametern<br />

darstellbar ist, dann reduziert sich der Gesamtparameterraum von 15.36<br />

Millionen Parametern um 49% auf nur noch 7.84 Millionen.<br />

Durch die Verwendung von radialen Kovarianzmatrizen geht natürlich<br />

Information verloren. Dafür kann aber angenommen werden, daß zumindest<br />

durch die Radialisierung der weniger gut geschätzten Kovarianzmatrizen

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!