18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

12.2 Sprache als stochastischer Prozeß 185<br />

Experiment 12.1: Markov Modell als Wetter-Zufallsgenerator<br />

Starten Sie das Applet WeatherHMM und klicken Sie auf Rücksetzen . Auf<br />

dem Bildschirm sind die Zustände ” schön“ und ” schlecht“ dargestellt mit<br />

ihren möglichen Übergängen und den initialen Übergangswahrscheinlichkeiten.<br />

Neben jedem Zustand ist eine diskrete Wahrscheinlichkeitsverteilung<br />

in Form eines Balkendiagramms zu sehen. Jeder Zustand ist außerdem<br />

mit der Wahrscheinlichkeit π, erster Zustand zu sein, versehen. Rechts<br />

neben der Modelldarstellung sehen Sie einen Kalenderausschnitt, in dem<br />

die Wetterbeobachtungen und Zustandsbestimmungen protokolliert werden.<br />

Der Kalender ist zunächst leer.<br />

Jedes Mal, wenn Sie auf Nächster Tag klicken wird für den nächsten<br />

freien Kalendertag ein neuer Zustand zufällig gewählt und dann zufällig die<br />

Beobachtung ” Sonnenschein“ oder ” kein Sonnenschein“ gemacht.<br />

Sie können durch Klicken auf einen Wahrscheinlichkeitswert (Übergang oder<br />

Emissionswahrscheinlichkeit oder Initialwahrscheinlichkeit) diesen um 0.1<br />

erhöhen. Dabei wird die entsprechende Komplementärwahrscheinlichkeit<br />

automatisch um 0.1 erniedrigt.<br />

Versuchen Sie, verschiedene Wahrscheinlichkeitswerte einzustellen, und<br />

erzeugen Sie zufällige Zustandsfolgen.<br />

Das obige Protokoll wäre mit seinen 9 schönen Tagen vermutlich im<br />

Sommer gemacht worden. In einem Wintermonat hätte das Protokoll<br />

wohl anders ausgesehen, und wir hätten ein anderes Markov Modell erhalten.<br />

Wäre neben dem Sommermodell auch ein Wintermodell definiert,<br />

bestünde eine interessanteste Aufgabe darin, festzustellen, welches Modell<br />

am wahrscheinlichsten für eine gegebene Beobachtung ist. Oder – um<br />

wieder in die Terminologie der Spracherkennung zu kommen – welches Wort<br />

am wahrscheinlichsten gesprochen wurde, wenn uns nur die Beobachtung<br />

gewisser Merkmale gegeben ist. Bevor wir uns diesem Problem zuwenden<br />

betrachten wir zunächst einige einfachere Probleme. Das einfachste wird<br />

allgemein als das Evaluierungsproblem bezeichnet. Dabei geht es darum, bei<br />

einem gegebenen Markov Modell die gemeinsame Wahrscheinlichkeit für eine<br />

Zustandsfolge und Beobachtungsfolge zu ermitteln. Um dies zu berechnen<br />

führen wir im folgenden einen Formalismus ein.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!