18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

182 12. Hidden Markov Modelle<br />

linear<br />

links-nach-rechts<br />

alternative Pfade<br />

Bakis<br />

ergodisch<br />

Abb. 12.1. Verschiedene Topologien für Hidden-Markov-Modelle<br />

schlecht ist, dann ist die Wahrscheinlichkeit dafür, daß es am nächsten<br />

Tag auch schlecht ist, größer, als daß es gut ist (ungeachtet irgendwelcher<br />

Wettervorhersagen). Man könnte zwei Wochen lang das Wetter beobachten<br />

und jeden Tag notieren, ob das Wetter schön oder schlecht war und ob<br />

die Sonne geschienen hat. Dann könnte eine Tabelle wie 12.2 entstehen (+<br />

bedeutet schönes Wetter, − bedeutet schlechtes Wetter).<br />

Tag 1 2 3 4 5 6 7 8 9 10 11 12 13 14<br />

Zustand + + + + – – – + + – – + + +<br />

Sonne<br />

Tabelle 12.1. Beispiel für 14 Tage Wetterbeobachtungen<br />

Der Tabelle kann man entnehmen, daß von den 14 protokollierten Tagen<br />

9 als schön und 5 als schlecht markiert wurden. An 6 der 9 schönen Tage<br />

schien die Sonne, während sie nur an einem der 5 schlechten Tage zu sehen<br />

war. Insgesamt fanden zwischen den 14 Tagen 13 Zustandsübergänge statt,<br />

davon waren 6 Übergänge von schön“ nach schön“, 2 von schön“ nach<br />

” ” ”<br />

” schlecht“, 3 von ” schlecht“ nach ” schlecht“ und 2 von schlecht“ nach<br />

”<br />

” schön“. Das heißt zum Beispiel, daß die Wahrscheinlichkeit, dafür daß das<br />

Wetter, wenn es einmal schön ist, mit 75%-iger Wahrscheinlichkeit auch am

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!