18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

16.6 Verschiedene weitere Sprachmodelle 275<br />

gesprochen wird. Da ein Sprachmodell, das nur mit Hilfe von Texten eines<br />

bestimmten Themas geschätzt wurde, wegen des geringeren Volumens der<br />

Trainingsdaten schlecht geschätzt ist und schlecht generalisiert, bietet es<br />

sich an, es mit einem auf sehr vielen Daten sehr gut geschätzten besser<br />

generalisierenden aber im Spezialfall weniger gut passenden Model zu<br />

interpolieren. Lediglich die Interpolationsfaktoren müßten von Zeit zu Zeit<br />

optimiert werden.<br />

Da es beliebig viele Themen gibt und da es nicht möglich ist, für jedes<br />

denkbare Thema ein eigenes Sprachmodell zu erzeugen und bei Bedarf mit<br />

mehr oder weniger Interpolationsgewicht zum statischen Basissprachmodell<br />

statisches Basissprachmodell dynamisches Basissprachmodell hinzuzunehmen,<br />

kann statt dessen ein temporäres oder dynamisches Sprachmodell auf<br />

den bisher erkannten Hypothesen des Spracherkenners trainiert werden. Dabei<br />

wird die Annahme zugrundegelegt, daß das Thema, über das ein Sprecher<br />

spricht, verhältnismäßig langsam wechselt, zumindest so langsam, daß eine<br />

ausreichende Menge an Text vorhanden ist, mit dem man n-Gramme oder<br />

andere Sprachmodelle schätzen kann. Berechnet man diese n-Gramme auf<br />

einem ” Fenster“ der letzten Hypothesen, so daß sehr alte Hypothesen wieder<br />

aus der Schätzung des dynamischen Modells herausgenommen werden,<br />

dann ergibt sich als resultierendes Sprachmodell λ eine Mischung aus dem<br />

statischen Basismodell λ S und dem dynamischen Modell λ D :<br />

λ = α · λ S + (1 − α) · λ D<br />

das heißt für die einzelnen Wahrscheinlichkeiten:<br />

(16.22)<br />

Pλ(w|H) = α · Pλ S (w|H) + (1 − α) · Pλ D (w|H) (16.23)<br />

Der Interpolationsfaktor α in Gl. 16.22 sollte zweckmäßigerweise vor<br />

allem von der Menge der Daten, mit denen λ D geschätzt wurde, abhängig<br />

gemacht werden. Bei einem sehr kleinen Fenster sollte ein sehr großes α<br />

knapp unter 1.0 gewählt werden, und bei sehr großen Fenstern kann das α<br />

langsam kleiner werden. In der Regel wird es aber dennoch nahe bei 1.0<br />

bleiben.<br />

16.6.3 Klassenbasierte Sprachmodelle<br />

Eine wichtige Form von Sprachmodellen bilden klassenbasierte Modelle.<br />

Viele Wörter sind in einem bestimmten Kontext oft beliebig austauschbar,<br />

ohne daß sich die Wahrscheinlichkeit der gesamten Wortfolge merklich<br />

ändert. Das können zum Beispiel Zahlen, Wochentage, Personennamen

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!