18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

344 19. Parameterraumoptimierung<br />

Schätzen voller Kovarianzmatrizen in der Regel nicht ausreichend viele<br />

Trainingsmuster zur Verfügung stehen bietet sich ein Vorgehen an, das in<br />

der Literatur als semitied covariances bezeichnet wird [?]. Hierbei werden<br />

für die Gauß-Mischverteilungen diagonale Kovarianzmatrizen Dj verwendet,<br />

allerdings teilen sich mehrere Gauß-Verteilungen zusätzlich eine gemeinsame<br />

volle Matrix A, so daß die effektive Kovarianzmatrix ADjA ⊤ ist und<br />

der Wahrscheinlichkeitswert für die Beobachtung x im Modell j wie folgt<br />

berechnet wird:<br />

1<br />

<br />

2πd |ADjA⊤ | e−12<br />

(x − µj) ⊤ (ADjA ⊤ ) −1 (x − µj)<br />

(19.1)<br />

Hierbei ist die Kovarianzmatrix σj = ADj, das Produkt einer modellunabhängigen<br />

vollen Matrix A und einer modellabhängigen Diagonalmatrix<br />

Dj. Die Berechnung von Gl. 19.1 kann vereinfacht werden:<br />

1 1<br />

<br />

|A| 2 2πd |Dj| e−12<br />

(x′ − µ ′ j )⊤D −1<br />

j (x′ − µ ′ j )<br />

mit<br />

(19.2)<br />

x ′ = A −1 x und µ ′ = A −1 µ (da A = A ⊤ ) (19.3)<br />

In Gl. 19.2 ist zu erkennen, daß für die Verwendung von semitied covariances<br />

kein besonderer zusätzlicher Rechenaufwand während der Erkennung<br />

nötig ist. Die resultierende Gauß-Verteilung ist verwendet weiterhin eine<br />

diagonale Kovarianzmatrix. Lediglich die Mittelwerte sowie die Vorfaktoren<br />

der Verteilungen müssen angepaßt werden. Die Multiplikation der Beobachtung<br />

x kann unter Umständen mit anderen Linearen Operationen in<br />

der Signalverarbeitung (zum Beispiel LDA, Vokaltraktlängennormierung<br />

oder ähnliche) kombiniert werden. Es ist nicht möglich, diejenige Matrix<br />

A, die die Beobachtungswarhscheinlichkeit aller Trainingsdaten optimiert,<br />

analytisch zu bestimmen. Daher ist wird ein iteratives Verfahren ähnlich<br />

dem Expectation Maximization Algorithmus verwendet.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!