18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

144 9. Klassifikation und Mustererkennung<br />

sich die beiden Ansätze Gauß- und Laplace-Verteilungen qualitativ kaum.<br />

Wenn im logarithmischen Bereich gerechnet wird, und der Logarithmus<br />

des von der Beobachtung unabhängigen Vorfaktors 1/ (2π) d |Σ| im voraus<br />

berechnet wird, dann besteht auch im Falle der Gauß-Mischverteilungen<br />

die Berechnung der Wahrscheinlichkeit lediglich aus Multiplikationen und<br />

Additionen.<br />

9.2 Der Expectation Maximization Algorithmus<br />

Für das Schätzen der Parameter einer Gauß-Mischverteilung mittels Maximum<br />

Likelihood ist keine analytische Lösung bekannt. Das Problem<br />

liegt darin, daß zwar für eine gegebene Zuordnung von Trainingsmustern<br />

zu Referenzvektoren für jeden Referenzvektor mittels üblicher Maximum-<br />

Likelohood Verfahren das globale Optimum für die Parameter der einzelnen<br />

Gauß-Verteilungen sowie die optimalen Mixturgewichte zu bestimmen<br />

sind. Bei unüberwachtem Lernen ist aber eine solche Zuordnung nicht<br />

gegeben. Statt dessen wird die Zuordnung automatisch berechnet, indem<br />

jeder Trainingsvektor zu jedem Referenzvektor proportional zum Anteil<br />

des Referenzvektorbeitrags zur Gesamtwahrscheinlichkeit zugeordnet wird.<br />

Diese hängt aber wiederum von den Gauß-Parametern ab.<br />

Da eine simultane Optimierung sowohl der Gauß-Parameter und der<br />

Trainingsdatenzuordnung nicht möglich ist, bietet sich ein iteratives Verfahren<br />

an, bei dem in jeder Iteration die eine Parametermenge in Abhängigkeit<br />

von der Einstellung der anderen Parametermenge der vorigen Iteration<br />

optimiert wird. Im Detail sieht dies aus wie folgt:<br />

Bezeichne γtk := E[xt ∈ k], den Erwartungswert dafür, daß der Beispielvektor<br />

xt ∈ R d (aus der Trainingsmenge x1, x2, . . . xT) zu Klasse k, also<br />

zum k-ten Referenzvektor gehört. Somit ist γtk die gewichtete Zuordnung des<br />

Beispielvektors xt zum k-ten Referenzvektor. Wenn µk der k-te Mittelwertsvektor<br />

ist, Σk die Kovarianzmatrix der k-ten Gauß-Verteilung ist und ck das<br />

entsprechende Mixturgewicht ist, dann werden diese Werte ersetzt durch:<br />

¯ck = 1<br />

T<br />

¯µk =<br />

¯Σk =<br />

⊤<br />

t=1<br />

1<br />

<br />

t γtk<br />

γtk<br />

1<br />

<br />

t γtk<br />

⊤<br />

t1<br />

γtkxt<br />

⊤<br />

γtk(xt − µk)(xt − µk) T<br />

t1<br />

(9.14)<br />

(9.15)<br />

(9.16)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!