18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

auswirkt. In Gl. 21.2 wird eine Transformation fM j<br />

vektoren der Gauß-Verteilungen angewandt.<br />

K<br />

k=1<br />

K<br />

k=1<br />

cik ·<br />

cik ·<br />

21.5 Adaptionsmethoden 361<br />

(µ) auf die Mittelwerts-<br />

1<br />

· e−12<br />

2πd |Σik| (fS j (x) − µik) ⊤ Σ −1<br />

ik (fS j (x) − µik)<br />

1<br />

· e−12<br />

2πd |Σik| (x − fM j (µik)) ⊤ Σ −1<br />

ik (x − fM j (µik))<br />

(21.1)<br />

(21.2)<br />

Der Index jdeutet darauf hin, daß verschiedene Transformationen zur<br />

Verfügung stehen, so daß vor der Anwendung, j in Abhängigkeit vom Signal<br />

x, dem Modell i oder beiden bestimmt werden muß.<br />

21.5 Adaptionsmethoden<br />

Die Frage, die bei der Definition der Adaptionsziele offen gelassen wurde, ist<br />

die Frage nach der Bedeutung von ” Signal und Modell passen zusammen“.<br />

Die Frage, wie gut modelliert ein Modell das vorliegende Signal, wird in<br />

der Regel mit der Beobachtungswahrscheinlichkeit des Signals beantwortet.<br />

Auch wenn wir am liebsten als Optimierungskriterium die Wortfehlerrate<br />

verwenden würden, so gibt es keine analytischen Methoden, die Transformationen<br />

nach Gl. 21.1 oder 21.2 so berechnen, daß die resultierende<br />

Wortfehlerrate minimal wird. Wesentlich einfacher ist es mit Hilfe von<br />

Maximum-Likelihood Methoden die Beobachtungswahrscheinlichkeit zu<br />

optimieren. Für Gauß-Mischverteilungen bedeutet so eine Optimierung<br />

meisten das Lösen eines zwar hochdimensionalen aber ansonsten nicht weiter<br />

problematischen Gleichungssystems.<br />

Während die Maximum-Likelihood Methode (ML) die Signalwahrscheinlichkeit<br />

p(x|λ) zu optimieren versucht, ist das Ziel der Maximum-A-Posteriori<br />

Methode (MAP) die Optimierung der Parameterwahrscheinlichkeit p(λ|x),<br />

also die Frage welches sind denn die wahrscheinlichsten Parameter bei gegebenem<br />

Signal. Zusammengefaßt:<br />

ˆλ ML = argmaxp(X|λ)<br />

(21.3)<br />

λ<br />

ˆλ MAP = argmaxp(λ|X)<br />

(21.4)<br />

λ

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!