18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

298 17. Kontextabhängige akustische Modelle<br />

Gauß-Verteilungen verwendet werden oder wie bei semikontinuierlichen<br />

HMMs nur die diskreten Mixturgewichteverteilungen. Letztere zu den<br />

häufigen Vorgehensweisen, da vor der Ballung von Modellen in der Regel so<br />

viele verschiedene trainiert werden, daß es gar nicht sinnvoll wäre, für jedes<br />

eine eigene Gauß-Mischverteilung mit eigenem Codebuch zu trainieren. Ein<br />

weiterer Vorteil der Verwendung von semikontinuierlichen Modellen liegt<br />

in der einfachen Vereinigung und Disjunktion von Modellklassen. Während<br />

komplette Gauß-Mischverteilungen für die Vereinigung der Klassen C1<br />

und C2 zu C1 ∪ C2 bei bekannten Einzelmodellen nur mit erheblichem<br />

Aufwand neu berechnet werden können, bedeutet die Vereinigung von<br />

diskreten Verteilungen eine einfache gewichtete Addition: Sei fC1 die<br />

diskrete Mixturgewichteverteilung der Klasse C1 und fC2 die diskrete<br />

Mixturgeweichteverteilung der Klasse C2, beide über demselben Codebuch<br />

definiert. Die Klasse C1 habe in den Trainingsdaten n1 Beispiele (nicht zu<br />

verwechseln mit der Zahl ihrer Elemente) und C2 habe n2 Trainingsbeispiele.<br />

Dann berechnet sich die Mixturgewichteverteilung der vereinigten Klasse<br />

C1 ∪ C2 als:<br />

fC1∪C2(i) = 1/(n1 + n2)(n1 · fC1(i) + n2 · fC2(i)) (17.1)<br />

Wenn sich die Modelle also nur in ihren Mixturgewichten unterscheiden,<br />

genügt es auch, nur diese im Ballungsprozeß zu betrachten. Die Entropie der<br />

diskreten Verteilung (Mixturgewichteverteilung) f ist definiert als:<br />

H(f) =<br />

k<br />

f(i)log 2 f(i) (17.2)<br />

i=1<br />

Haben zwei Modellklassen die Verteilungen fC1 und fC2, dann ist die<br />

einfache Entropiedistanz definiert als:<br />

d(C1, C2) = H(fC1∪C2) − H(fC1) − H(fC2) (17.3)<br />

Die gewichtete Entropiedistanz ist:<br />

d(C1, C2) = (n1 + n2) · H(fC1∪C2) − n1 · H(fC1) − n2H(fC2) (17.4)<br />

Jede Vereinigung zweier Klassen in eine hat einen Informationsverlust<br />

zur Folge. Der Ballungsalgorithmus mit Entropiedistanz sieht also zwei<br />

Verteilungen als ähnlich (also ” vereinigungswürdig“) an, wenn ihre Vereinigung<br />

wenig Informationsverlust bedeuten würde. Ein Ballungsalgorithmus

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!