18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

276 16. Verwendung von Sprachmodellen<br />

und ähnliches sein. Ersetzt man in einem Trainingstext alle Personennamen<br />

durch das Wort ” “ so kommen Wortfolgen wie ” Guten<br />

Tag, Herr relativ häufig vor, die Wahrscheinlichkeit für<br />

P(< Personenname > |Guten, Tag, Herr) läßt sich sehr gut schätzen, jedenfalls<br />

viel besser als die Wahrscheinlichkeit für P(Rogina|Guten, Tag, Herr),<br />

ein Viergramm, das in den Trainingsdaten womöglich so selten vorkommt, daß<br />

es im Rahmen des Cutoff-Verfahrens entfernt wurde. Wenn also die Wahrscheinlichkeit,<br />

für eine Wortklasse C bei gegebener Historie w1, w2, wn−1 als<br />

n-Gramm-Wahrscheinlichkeit P(C|w1, w2, wn−1) bekannt ist, dann berechnet<br />

sich die Wahrscheinlichkeit für ein Bestimmtes Wort wn aus dieser Klasse<br />

einfach als:<br />

P(wn|w1, w2, wn−1) = P(C|w1, w2, wn−1) · P(wn|C) (16.24)<br />

Das heißt, neben den Klassen-n-Grammen werden noch die Wahrscheinlichkeiten<br />

der Wörter innerhalb der Klassen benötigt. Wenn die Klassen<br />

ausreichend groß sind, lassen sich die klassenbedingten Wahrscheinlichkeiten<br />

durch einfaches Zählen (Unigramme) bestimmen. In anderen Fällen kann die<br />

klassenbedingte Wahrscheinlichkeitsmasse mehr oder weniger proportional<br />

auf die Elemente der Klasse verteilt werden.<br />

Ein besonderer Vorteil klassenbedingter Wahrscheinlichkeiten ist nicht<br />

nur die Möglichkeit der robusten n-Gramm-Schätzung, sondern vor allem<br />

auch die Möglichkeit, auf einfachste Weise neue Wörter ins Sprachmodell<br />

einzufügen, ohne dieses erneut berechnen zu müssen. So kann<br />

ein Nachrichtensprachmodell über Jahre hinweg unverändert bleiben,<br />

wenn nur die Klassen , , ,<br />

und so weiter regelmäßig mit den neuesten Klassenelementen<br />

aktualisiert werden.<br />

16.6.4 Spezielle Sprachmodelle<br />

Im folgenden werden einige besondere Arten der Sprachmodellierung vorgestellt.<br />

Sie bilden nur einen kleinen Ausschnitt aus einer sehr großen Menge<br />

von Möglichkeiten zur Berechnung von Wortfolgewahrscheinlichkeiten.<br />

HMM-basierte Modellwahl<br />

Schon beim Diktieren eines Briefes, aber vielmehr noch bei <strong>Mensch</strong>-<br />

<strong>Maschine</strong>- und erst recht bei <strong>Mensch</strong>-<strong>Mensch</strong>-Dialogen gibt es deutlich<br />

erkennbare <strong>Kommunikation</strong>sstrukturen, die sich über die Zeit ändern. So<br />

bestehen Briefe typischerweise aus Adreßangaben, Anrede, Text und Gruß.<br />

Ein Dialog zwischen <strong>Mensch</strong>en könnte aus Begrüßung, Smalltalk, Abschied

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!