18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

34 3. Geschichte<br />

eine abhörsichere Leitung zwischen dem Weißen Haus in Washington und<br />

London zu verwenden auf der auch Sprache übertragen werden konnte. Da<br />

Dudleys Erfindung die Sprache digitalisierte, war es ein Leichtes, die digitale<br />

Version zu verschlüsseln und über das Atlantikkabel zu übertragen. Schon<br />

bald wurden höhere Übertragungsraten möglich, und die Verwendung der<br />

Halbleitertechnik ermöglichte weiteren Fortschritt, so daß Dudleys Vocoder<br />

bald nicht mehr aktuell war. Jedoch ist es ihm zu verdanken, daß viele<br />

Sprachforscher sich Gedanken gemacht haben, welche Eigenschaften ein<br />

Sprachsignal ausmachen, was benötigt wird, um den Inhalt des Gesprochenen<br />

wiederzuerkennen, und wie diese Eigenschaften sinnvoll codiert werden<br />

können. Auch spätere Sprachanalysesysteme (z.B. [?]) bedienten sich des<br />

Begriffs ” Vocoder“.<br />

Schon Ende der vierziger, Anfang der fünfziger Jahre [?] [?] wurden<br />

Forschungsarbeiten durchgeführt, um aus digitalisierten Sprachsignalen<br />

deren Inhalt zu extrahieren. Die ersten Experimente wurden noch auf<br />

dem reinen Signal gemacht. Später ging man dazu über, das Signal so<br />

vorzuverarbeiten, daß als Merkmalsraum für die Erkennung nicht mehr der<br />

Zeitbereich, sondern der Frequenzbereich des Signals verwendet wurde. Die<br />

erstaunlich guten Leistungen von Experten [?], die anhand einer vorliegenden<br />

Spektralanalyse eines Sprachsegments das Gesagte korrekt herauslesen<br />

konnten, ermunterte die Forscher dazu, das Spektrum als das Merkmal der<br />

Wahl für die automatische Spracherkennung zu verwenden.<br />

Die frühen Forschungsarbeiten wurden mit Aufnahmen von Vokalen eines<br />

Sprechers durchgeführt [?] [?]. Erst später fing man an, größere Spracheinheiten<br />

zu erkennen. Als es möglich war, ganze Wörter zu erkennen [?] [?],<br />

entstanden verschiedene Anwendungen, wie zum Beispiel die Steuerung von<br />

Geräten oder die Identifizierung von Sprechern. Der Benutzer mußte jedes<br />

zu erkennende Wort ein oder mehrere Male sprechen, damit der Erkenner<br />

Referenzmuster anlegen konnte. Während der Erkennung wurde dann das<br />

Gesprochene mit den gespeicherten Referenzen verglichen und die Klasse<br />

des am besten passenden Musters identifiziert.<br />

In den siebziger Jahren wurde die Erkennung von kontinuierlicher<br />

sowie sprecherunabhängiger Sprache vorangetrieben [?]. Die Größen der<br />

verwendeten Wortschätze und die Vielfalt der akustischen Eigenschaften<br />

verschiedener Sprecher machten es nicht mehr praktikabel, für jedes zu<br />

erkennende Wort Referenzmuster zu sammeln und abzuspeichern. Die<br />

angelegten Referenzmuster bezogen sich nun auf kleinere Spracheinheiten,<br />

wie Phoneme, aus denen jedes Wort des Erkennervokabulars konkateniert<br />

werden konnte. Der Einsatz kontinuierlicher Sprache brachte einen weiteren<br />

Schwierigkeitsgrad mit sich. Nun waren die Grenzen der einzelnen Wörter<br />

nicht mehr vorgegeben und mußten vom Erkenner selbst gefunden werden,

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!