18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

22. Künstliche Neuronale Netze<br />

Künstliche neuronale Netze haben mehrere Phasen ihrer Hochkonjunktur<br />

erlebt. Mit der Definition des McCulloch-Pitts-Neurons 1943 [?] wurde<br />

der Versuch unternommen, das Verhalten von neuronalen Systemen wie<br />

z.B. Gehirne mathematisch erfaßbar und beschreibbar zu machen. Als<br />

1962 Frank Rosenblatt ein Trainingsverfahren für eine bestimmte Art<br />

künstlicher neuronaler Netze (sogenannte Perzeptronen) vorstellte, wurden<br />

Hoffnungen geweckt, daß schon bald komplizierteste Probleme allein dadurch<br />

gelöst werden könnten, daß man einem künstlichen neuronalen Netz Trainingsmuster<br />

zusammen mit ihren erwarteten Ausgabemustern präsentiert<br />

und das Netz von ganz allein lernt, wie die ihm gestellte Aufgabe zu lösen ist.<br />

In einem abwertenden Artikel von Minsky und Papert [?] wurde das<br />

Perzeptron für untauglich erklärt, da es noch nicht einmal in der Lage war,<br />

das einfache XOR-Problem zu lösen. Obwohl schon damals klar war, daß<br />

das einfache Perzeptron sowieso nicht für die Lösung komplizierter Probleme<br />

herangezogen werden könnte, hatte der Artikel von Minsky und Papert eine<br />

dämpfende Wirkung auf die Weiterentwicklung der künstlichen neuronalen<br />

Netze. Mangelnde Erfolge in der Forschung auf dem Gebiet taten ihr weiteres<br />

um das hochgehandelte Thema für ein gutes Jahrzehnt abzukühlen.<br />

Erst Anfang bis Mitte der achtziger Jahre sorgten einige Arbeiten mit<br />

neuronalen Netzen für Aufsehen. Relativ schwierig empfundene Klassifikationsaufgaben<br />

wurden mit Hilfe künstlicher neuronaler Netze überraschend<br />

gut gelöst. Besonders spektakulär war zum Beispiel das System von Terrence<br />

Sejnowski [?], ein einfaches mehrschichtiges Perzeptron, das lernte, bei<br />

gegebenen sieben aufeinanderfolgenden Buchstaben, die dazu passende<br />

Aussprache im amerikanischen Englisch auszugeben. Wurde die Ausgabe des<br />

Netzes in damals schon vorhandene Sprachsynthesegeräte geleitet, konnte<br />

der Zuhörer den Lernvorgang mitverfolgen und beeindruckt miterleben,<br />

wie die Qualität der Aussprache sich mit jeder Trainingsiteration verbesserte.<br />

Ab Mitte der Achtziger wurden vermehrt künstliche neuronale Netze<br />

zum Zwecke der Spracherkennung eingesetzt. Anfangs wurden vor allem<br />

Phonemklassifikatoren gebaut, die mit sauber artikulierten und detailgenau

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!