- Seite 1: Ivica Rogina Sprachliche Mensch-Mas
- Seite 6 und 7: VIII Inhaltsverzeichnis 2.4 Erkennu
- Seite 8 und 9: X Inhaltsverzeichnis 11.3.1 Einschr
- Seite 10 und 11: XII Inhaltsverzeichnis 19. Paramete
- Seite 12 und 13: XIV Inhaltsverzeichnis 28. Der mode
- Seite 14 und 15: XVI Tabellenverzeichnis 17.1 Modell
- Seite 16 und 17: XVIII Abbildungsverzeichnis 5.1 Ene
- Seite 18 und 19: XX Abbildungsverzeichnis 10.1 Energ
- Seite 20 und 21: XXII Abbildungsverzeichnis 16.1 Spr
- Seite 22 und 23: XXIV Abbildungsverzeichnis 22.1 Max
- Seite 24 und 25: 1. Nutzen und Anwendungen Der Einsa
- Seite 26 und 27: 1.1 Vorteile und Nachteile der Spra
- Seite 28 und 29: 1.2 Anwendungsbeispiele 5 Die Erken
- Seite 30 und 31: 1.2.3 Sprach-zu-Sprach-Übersetzung
- Seite 32 und 33: Thema Börse. 1.2 Anwendungsbeispie
- Seite 34 und 35: 1.2.9 Hilfe beim Lesen und Sprechen
- Seite 36 und 37: 1.2 Anwendungsbeispiele 13 Fahrende
- Seite 38 und 39: 1.2 Anwendungsbeispiele 15 Informat
- Seite 40 und 41: 2. Eigenschaften und Taxonomie von
- Seite 42 und 43: 2.3 Spontaneität 2.3 Spontaneität
- Seite 44 und 45: einem Wort. 2.3 Spontaneität 21 Zu
- Seite 46 und 47: 2.3 Spontaneität 23 Geräusche wie
- Seite 48 und 49: 2.6 Die Signalqualität 25 muß bei
- Seite 50 und 51: 2.6 Die Signalqualität 27 Allerdin
- Seite 52 und 53: 2.8 Kommunikationsart 29 zu erkenne
- Seite 54 und 55:
erwartenden Wörter). 2.9 Wie schwi
- Seite 56 und 57:
3. Geschichte der Spracherkennung D
- Seite 58 und 59:
3. Geschichte 35 so daß neuartige
- Seite 60 und 61:
% Wortfehlerrate 100 60 50 40 30 20
- Seite 62:
3.1 Geschichte der (D)ARPA Evaluati
- Seite 65 und 66:
42 4. Anatomie Sprachproduktion und
- Seite 67 und 68:
44 4. Anatomie Sprachproduktion und
- Seite 69 und 70:
46 4. Anatomie Sprachproduktion und
- Seite 71 und 72:
48 4. Anatomie Sprachproduktion und
- Seite 73 und 74:
50 4. Anatomie Sprachproduktion und
- Seite 75 und 76:
52 4. Anatomie Sprachproduktion und
- Seite 77 und 78:
54 4. Anatomie Sprachproduktion und
- Seite 79 und 80:
56 5. Akustische Grundlagen normale
- Seite 81 und 82:
58 5. Akustische Grundlagen Entfern
- Seite 83 und 84:
60 5. Akustische Grundlagen 75 dB,
- Seite 85 und 86:
absoluter Schalldruckpegel [dB] 100
- Seite 87 und 88:
64 6. Phonetische Grundlagen Lauten
- Seite 89 und 90:
66 6. Phonetische Grundlagen Konson
- Seite 91 und 92:
68 6. Phonetische Grundlagen die Un
- Seite 93 und 94:
Á 70 6. Phonetische Grundlagen 000
- Seite 95 und 96:
72 6. Phonetische Grundlagen Vibrat
- Seite 97 und 98:
74 6. Phonetische Grundlagen Glotta
- Seite 100 und 101:
7. Grundlagen der Signalverarbeitun
- Seite 102 und 103:
7.1 Analog/Digital Wandlung 79 des
- Seite 104 und 105:
7.2 Systeme 81 als zeitinvariant be
- Seite 106 und 107:
σ(x) Abb. 7.4. Die Stufenfunktion
- Seite 108 und 109:
7.3 Fourieranalyse 7.3 Fourieranaly
- Seite 110 und 111:
7.3 Fourieranalyse 87 Die gezeigte
- Seite 112 und 113:
so erhalten wir f(t) = ∞ k=−∞
- Seite 114 und 115:
7.3 Fourieranalyse 91 Leistungsspek
- Seite 116 und 117:
δ(x) F(δ)(ω) Abb. 7.6. Die Fouri
- Seite 118 und 119:
Abb. 7.9. Fouriertransformierte meh
- Seite 120 und 121:
∞ ∞ = 1 cost · i sinωt dx+ 2
- Seite 122 und 123:
7.4 Die diskrete Fouriertransformat
- Seite 124 und 125:
n−1 s[k] = c[j] · w kj j=0 Off
- Seite 126 und 127:
7.5 Codierung akustischer Signale 1
- Seite 128 und 129:
8. Verarbeitung von Sprachsignalen
- Seite 130 und 131:
8.2 Spektralranalyse 107 ursprüngl
- Seite 132 und 133:
8.2 Spektralranalyse 109 Klicken Si
- Seite 134 und 135:
Ê 8.2 Spektralranalyse 111 Laut Be
- Seite 136 und 137:
8.2 Spektralranalyse 113 Transformi
- Seite 138 und 139:
Abb. 8.7. Spektrogramm der Wortfolg
- Seite 140 und 141:
0 b1 b2 Abb. 8.9. Filterbänke wach
- Seite 142 und 143:
8.3 Cepstralanalyse 8.3 Cepstralana
- Seite 144 und 145:
Spektrum Cepstrum Abb. 8.13. Filter
- Seite 146 und 147:
8.5 Einfache Signalnormalisierungen
- Seite 148:
8.6 Wavelets 125 zum Beispiel eine
- Seite 151 und 152:
128 9. Klassifikation und Mustererk
- Seite 153 und 154:
130 9. Klassifikation und Mustererk
- Seite 155 und 156:
132 9. Klassifikation und Mustererk
- Seite 157 und 158:
134 9. Klassifikation und Mustererk
- Seite 159 und 160:
136 9. Klassifikation und Mustererk
- Seite 161 und 162:
138 9. Klassifikation und Mustererk
- Seite 163 und 164:
140 9. Klassifikation und Mustererk
- Seite 165 und 166:
142 9. Klassifikation und Mustererk
- Seite 167 und 168:
144 9. Klassifikation und Mustererk
- Seite 169 und 170:
146 9. Klassifikation und Mustererk
- Seite 171 und 172:
148 9. Klassifikation und Mustererk
- Seite 173 und 174:
150 9. Klassifikation und Mustererk
- Seite 175 und 176:
152 10. Erkennung statischer Sprach
- Seite 177 und 178:
154 10. Erkennung statischer Sprach
- Seite 179 und 180:
156 10. Erkennung statischer Sprach
- Seite 181 und 182:
158 10. Erkennung statischer Sprach
- Seite 183 und 184:
160 11. Erkennung dynamischer Sprac
- Seite 185 und 186:
162 11. Erkennung dynamischer Sprac
- Seite 187 und 188:
164 11. Erkennung dynamischer Sprac
- Seite 189 und 190:
166 11. Erkennung dynamischer Sprac
- Seite 191 und 192:
168 11. Erkennung dynamischer Sprac
- Seite 193 und 194:
170 11. Erkennung dynamischer Sprac
- Seite 195 und 196:
172 11. Erkennung dynamischer Sprac
- Seite 197 und 198:
174 11. Erkennung dynamischer Sprac
- Seite 200 und 201:
12. Hidden Markov Modelle Man kann
- Seite 202 und 203:
12.1 Probleme mit einfachen Musterv
- Seite 204 und 205:
12.2 Sprache als stochastischer Pro
- Seite 206 und 207:
12.2 Sprache als stochastischer Pro
- Seite 208 und 209:
12.2 Sprache als stochastischer Pro
- Seite 210 und 211:
12.4 Die drei Probleme der Hidden M
- Seite 212 und 213:
12.4 Die drei Probleme der Hidden M
- Seite 214 und 215:
12.4 Die drei Probleme der Hidden M
- Seite 216 und 217:
12.4 Die drei Probleme der Hidden M
- Seite 218 und 219:
12.4 Die drei Probleme der Hidden M
- Seite 220 und 221:
anwenden und erhalten: 12.4 Die dre
- Seite 222 und 223:
12.5 Spracherkennung mit Hidden Mar
- Seite 224 und 225:
12.5 Spracherkennung mit Hidden Mar
- Seite 226 und 227:
12.5 Spracherkennung mit Hidden Mar
- Seite 228 und 229:
13. Das Trainieren von Spracherkenn
- Seite 230 und 231:
13.1 Überblick über den HMM-Entwi
- Seite 232 und 233:
13.1 Überblick über den HMM-Entwi
- Seite 234 und 235:
Fehlerrate auf Trainingsdaten Abb.
- Seite 236 und 237:
13.2 Aufteilung der Sprachaufnahmen
- Seite 238 und 239:
13.3 Trainingsparadigmen 215 Der Ei
- Seite 240 und 241:
13.3 Trainingsparadigmen 217 annehm
- Seite 242 und 243:
13.3 Trainingsparadigmen 219 Das f
- Seite 244 und 245:
13.3 Trainingsparadigmen 221 viel w
- Seite 246 und 247:
14. Das akustische Modell In der Sp
- Seite 248 und 249:
14.2 Der Parameterraum des Akustisc
- Seite 250 und 251:
14.2 Der Parameterraum des Akustisc
- Seite 252 und 253:
14.3 Mehrere Datenströme 229 Ganz
- Seite 254 und 255:
14.4 Parameterkopplung 231 Zustand
- Seite 256 und 257:
Räumliche 14.5 Mehrdimensionale Hi
- Seite 258 und 259:
14.5 Mehrdimensionale Hidden-Markov
- Seite 260 und 261:
14.6 Aussprachemodellierung 237 aus
- Seite 262 und 263:
14.6.3 Aussprachevarianten 14.6 Aus
- Seite 264 und 265:
14.6 Aussprachemodellierung 241 wer
- Seite 266 und 267:
14.6 Aussprachemodellierung 243 wir
- Seite 268 und 269:
14.6 Aussprachemodellierung 245 Dur
- Seite 270 und 271:
15. Erkennung kontinuierlicher Spra
- Seite 272 und 273:
15.1 Bewertung von Erkennungshypoth
- Seite 274 und 275:
15.2 One Stage Dynamic Programming
- Seite 276 und 277:
D C B A 15.2 One Stage Dynamic Prog
- Seite 278 und 279:
D C B A 15.2 One Stage Dynamic Prog
- Seite 280 und 281:
15.3 Hidden Markov Modelle für kon
- Seite 282:
C B A 15.4 Einbindung eines einfach
- Seite 285 und 286:
262 16. Verwendung von Sprachmodell
- Seite 287 und 288:
264 16. Verwendung von Sprachmodell
- Seite 289 und 290:
266 16. Verwendung von Sprachmodell
- Seite 291 und 292:
268 16. Verwendung von Sprachmodell
- Seite 293 und 294:
270 16. Verwendung von Sprachmodell
- Seite 295 und 296:
272 16. Verwendung von Sprachmodell
- Seite 297 und 298:
274 16. Verwendung von Sprachmodell
- Seite 299 und 300:
276 16. Verwendung von Sprachmodell
- Seite 301 und 302:
278 16. Verwendung von Sprachmodell
- Seite 303 und 304:
280 16. Verwendung von Sprachmodell
- Seite 305 und 306:
282 16. Verwendung von Sprachmodell
- Seite 307 und 308:
284 16. Verwendung von Sprachmodell
- Seite 309 und 310:
286 16. Verwendung von Sprachmodell
- Seite 311 und 312:
288 16. Verwendung von Sprachmodell
- Seite 313 und 314:
290 17. Kontextabhängige akustisch
- Seite 315 und 316:
292 17. Kontextabhängige akustisch
- Seite 317 und 318:
294 17. Kontextabhängige akustisch
- Seite 319 und 320:
296 17. Kontextabhängige akustisch
- Seite 321 und 322:
298 17. Kontextabhängige akustisch
- Seite 323 und 324:
300 17. Kontextabhängige akustisch
- Seite 325 und 326:
302 17. Kontextabhängige akustisch
- Seite 327 und 328:
304 17. Kontextabhängige akustisch
- Seite 329 und 330:
306 17. Kontextabhängige akustisch
- Seite 331 und 332:
308 17. Kontextabhängige akustisch
- Seite 333 und 334:
310 17. Kontextabhängige akustisch
- Seite 335 und 336:
312 17. Kontextabhängige akustisch
- Seite 338 und 339:
18. Effiziente Decodierverfahren De
- Seite 340 und 341:
18.1 Decoderarten 317 Eine partiell
- Seite 342 und 343:
18.2 Beschneidung des Suchraumes 31
- Seite 344 und 345:
HUT HUF HOF T 18.3 Baumdarstellung
- Seite 346 und 347:
18.4 Sprachmodelle höherer Ordnung
- Seite 348 und 349:
18.6 Längenmodellierung 325 ein Sp
- Seite 350:
18.7 Mehrpaßsuchen 327 möglich is
- Seite 353 und 354:
330 19. Parameterraumoptimierung wi
- Seite 355 und 356:
332 19. Parameterraumoptimierung 19
- Seite 357 und 358:
334 19. Parameterraumoptimierung Ge
- Seite 359 und 360:
336 19. Parameterraumoptimierung er
- Seite 361 und 362:
338 19. Parameterraumoptimierung Ab
- Seite 363 und 364:
340 19. Parameterraumoptimierung Be
- Seite 365 und 366:
342 19. Parameterraumoptimierung 19
- Seite 367 und 368:
344 19. Parameterraumoptimierung Sc
- Seite 369 und 370:
346 20. Erkennung von Spezialvokabu
- Seite 371 und 372:
348 20. Erkennung von Spezialvokabu
- Seite 373 und 374:
350 20. Erkennung von Spezialvokabu
- Seite 376 und 377:
21. Robustheit und Adaption Lange Z
- Seite 378 und 379:
50 45 40 35 30 25 20 15 10 5 0 21.1
- Seite 380 und 381:
21.3 Geräuschmodellierung 357 ein
- Seite 382 und 383:
21.4 Adaptionsziele 359 Geräusche
- Seite 384 und 385:
auswirkt. In Gl. 21.2 wird eine Tra
- Seite 386 und 387:
21.5 Adaptionsmethoden 363 eine Fun
- Seite 388 und 389:
21.5 Adaptionsmethoden 365 auf die
- Seite 390 und 391:
21.5 Adaptionsmethoden 367 tion B1(
- Seite 392:
21.5 Adaptionsmethoden 369 trägt z
- Seite 395 und 396:
372 22. Künstliche Neuronale Netze
- Seite 397 und 398:
374 22. Künstliche Neuronale Netze
- Seite 399 und 400:
376 22. Künstliche Neuronale Netze
- Seite 401 und 402:
378 22. Künstliche Neuronale Netze
- Seite 403 und 404:
380 22. Künstliche Neuronale Netze
- Seite 405 und 406:
382 22. Künstliche Neuronale Netze
- Seite 407 und 408:
384 22. Künstliche Neuronale Netze
- Seite 409 und 410:
386 22. Künstliche Neuronale Netze
- Seite 412 und 413:
23. Verstehen von Sprache In den An
- Seite 414 und 415:
Spracherkenner Wortfolge (Hypothese
- Seite 416 und 417:
War die Äußerung eine Aussage, ei
- Seite 418 und 419:
Syntaktischer Parser Semantischer P
- Seite 420 und 421:
... SEIN RASEN GRÜNT Verb Verb Ver
- Seite 422 und 423:
23.3 Parsing 399 weder durch exakte
- Seite 424 und 425:
24. Dialogsteuerung Ein Dialog hat
- Seite 426 und 427:
24.1 Einheiten der sprachlichen Kom
- Seite 428 und 429:
24.2 Sprechakte 405 enthalten sie I
- Seite 430 und 431:
24.4 Entwicklung von Dialogsystemen
- Seite 432 und 433:
24.4 Entwicklung von Dialogsystemen
- Seite 434:
24.4 Entwicklung von Dialogsystemen
- Seite 437 und 438:
414 25. Erkennung verschiedener Spr
- Seite 439 und 440:
416 25. Erkennung verschiedener Spr
- Seite 441 und 442:
418 25. Erkennung verschiedener Spr
- Seite 443 und 444:
420 26. Zusätzliche Modalitäten d
- Seite 445 und 446:
422 26. Zusätzliche Modalitäten 2
- Seite 447 und 448:
424 26. Zusätzliche Modalitäten E
- Seite 449 und 450:
426 26. Zusätzliche Modalitäten K
- Seite 451 und 452:
428 26. Zusätzliche Modalitäten 0
- Seite 454 und 455:
27. Entwicklung von Anwendungen In
- Seite 456 und 457:
27.1 Ein Erkenner für eine neue Au
- Seite 458 und 459:
27.1 Ein Erkenner für eine neue Au
- Seite 460 und 461:
27.1 Ein Erkenner für eine neue Au
- Seite 462 und 463:
27.3 Beispiel: Adressenerkennung 43
- Seite 464 und 465:
27.3 Beispiel: Adressenerkennung 44
- Seite 466 und 467:
28. Der moderne Vortragsraum Kommun
- Seite 468 und 469:
28.1 Die Rolle der Spracherkennung
- Seite 470 und 471:
28.1 Die Rolle der Spracherkennung
- Seite 472 und 473:
28.2 Verfolgen eines Laserpointers
- Seite 474 und 475:
E K oben Q K rechts K unten H horiz
- Seite 476 und 477:
28.2 Verfolgen eines Laserpointers
- Seite 478 und 479:
Lasers auswirken. 28.3 Erkennung sp
- Seite 480 und 481:
28.3 Erkennung spontaner Vortragssp
- Seite 482 und 483:
28.3 Erkennung spontaner Vortragssp
- Seite 484 und 485:
ausgehen, daß die Erkennung etwas
- Seite 486:
28.4 Das FAME Projekt 463 in sein N
- Seite 489 und 490:
466 Literaturverzeichnis [BMHW93a]
- Seite 491 und 492:
468 Literaturverzeichnis [FR97] M.
- Seite 493 und 494:
470 Literaturverzeichnis [Hil03] A.
- Seite 495 und 496:
472 Literaturverzeichnis [Kle00] M.
- Seite 497 und 498:
474 Literaturverzeichnis [Mai94] M.
- Seite 499 und 500:
476 Literaturverzeichnis [PGF + 95]
- Seite 501 und 502:
478 Literaturverzeichnis [SR97] K.
- Seite 503 und 504:
480 Literaturverzeichnis [WOVY94] P
- Seite 506 und 507:
Sachverzeichnis F0, 391 N-Gramme, 2
- Seite 508 und 509:
Eingabegeschwindigkeit, 2 Einzelkom
- Seite 510 und 511:
Liftering, 120 Likelihood Distanz,
- Seite 512 und 513:
Sprachdetektor, 152 Sprachenidentif