Klänge hören und lesen - Physik
Klänge hören und lesen - Physik
Klänge hören und lesen - Physik
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
<strong>Klänge</strong> <strong>hören</strong> <strong>und</strong> <strong>lesen</strong><br />
von Karsten Rincke<br />
Manuskript zum Beitrag <strong>Klänge</strong> <strong>hören</strong> <strong>und</strong> <strong>lesen</strong>. In Naturwissenschaften im Unterricht <strong>Physik</strong>, Heft 114, S. 10-13<br />
Farben <strong>und</strong> Bilder<br />
Wenn man eine Stimmgabel anschlägt, ein<br />
Instrument spielt oder einen Ton singt –<br />
stets ist es nicht nur ein Ton in einer bestimmten<br />
Gr<strong>und</strong>frequenz, den wir <strong>hören</strong>,<br />
sondern immer eine Sammlung von Tönen<br />
mit unterschiedlichen Frequenzen, die bestimmte<br />
Zahlenverhältnisse zu einander einhalten.<br />
Die Obertöne, die Vielfachen der<br />
Gr<strong>und</strong>frequenz, können bei ein <strong>und</strong> demselben<br />
Gr<strong>und</strong>ton mit unterschiedlichen Amplituden<br />
auftreten. In dieser Vielfalt der möglichen<br />
Amplituden liegt die Vielfalt der Klangfarben<br />
verborgen. Jeder Ton – der Genauigkeit<br />
halber müssten wir sagen Klang, der<br />
auf einem Instrument gespielt oder der gesungen<br />
wird, hat sein eigenes Spektrum an<br />
Obertönen zum Gr<strong>und</strong>ton. Um die Farbigkeit<br />
der <strong>Klänge</strong> zu beschreiben, bietet unsere<br />
Sprache Attribute wie »dumpf, brillant,<br />
hell, dunkel, kehlig, voll« <strong>und</strong> viele weitere<br />
Wörter an. Neben den sprachlichen Repräsentationen<br />
sind bildliche Darstellungen gebräuchlich.<br />
In diesem Beitrag wird das Sonogram<br />
vorgestellt, das sich vielfältig einsetzen<br />
lässt <strong>und</strong> zudem eine überraschend klare<br />
Verbindung zur klassischen Notation von<br />
<strong>Klänge</strong>n zeigt, dem uns bekannten Musiknotensatz.<br />
Wenn wir einen Klang wahrnehmen <strong>und</strong> entscheiden,<br />
aus welcher Quelle er stammen<br />
könnte, dann wertet unser Gehör überraschenderweise<br />
aber nicht allein die Farbigkeit<br />
des Klangs aus. Im letzten Abschnitt dieses<br />
Beitrags wird gezeigt, dass auch das Einschwingen<br />
eines Instruments eminente Bedeutung<br />
für die richtige Zuordnung eines<br />
Klangs hat.<br />
1<br />
Das Sonagramm<br />
In Abbildung 1 ist ein Beispiel für ein Diagramm<br />
zu sehen, das mit dem freien Programm<br />
Sonogram erzeugt wurde. In der<br />
Horizontalen ist die Zeit aufgetragen, in<br />
der Vertikalen die Frequenz (die Zahlenwerte<br />
sind im gezeigten Beispiel nur sehr<br />
klein zu sehen). Dieses Sonagramm zeigt keine<br />
Momentaufnahme, sondern repräsentiert<br />
einen gewissen Zeitraum eines akustischen<br />
Signals. Neben den beiden Dimensionen Zeit<br />
<strong>und</strong> Frequenz ist eine dritte Dimension im<br />
Diagramm enthalten, die durch Farben kodiert<br />
ist, es ist die Amplitude einer bestimmten<br />
Frequenz. In Abbildung 1 sind hellere<br />
<strong>und</strong> dunklere Bereiche zu sehen: Die helleren<br />
Bereiche ge<strong>hören</strong> zu Klangkomponenten einer<br />
bestimmten Frequenz mit relativ großer<br />
Amplitude, die dunkleren Bereiche entsprechend<br />
zu leiseren Komponenten. Das Diagramm<br />
liefert ein Klangspektrogramm, ein<br />
recht umfassendes Bild eines Klangs im Zeitverlauf.<br />
Die ähnlichen Begriffe des Sonagramms <strong>und</strong><br />
des Sonogramms werden nicht immer klar<br />
auseinander gehalten: Der Begriff des Sonogramms<br />
wird eher für Diagramme verwendet,<br />
die die räumliche Verteilung eines<br />
(Ultra)schallechos verwenden, um auf<br />
die räumliche Struktur des Gegenstands zu<br />
schließen, der das Echo zurück wirft. Frequenz<br />
<strong>und</strong> Zeitverlauf sind dann unwichtig.<br />
Sonogramme finden in der Medizin Einsatz,<br />
bekannt sind zum Beispiel die Sonogramme,<br />
die einen Embryo im Mutterleib zeigen. Ihren<br />
Ursprung haben sie in der Technik zur<br />
Ortung von Unterseebooten. Der Begriff des<br />
Sonagramms wird dagegen eher für Diagramme<br />
verwendet, die die Struktur eines
Klangs zeigen (im Hinblick auf die enthaltenen<br />
Frequenzen), nicht die eines Körpers,<br />
der ein Echo erzeugt. Dass die Macher des<br />
in diesem Beitrag verwendeten Programms<br />
den Namen Sonogram für ihr Produkt gewählt<br />
haben, <strong>und</strong> nicht Sonagramm, wie eigentlich<br />
zu erwarten wäre, zeigt, dass diese<br />
Unterscheidungen offenbar nicht ganz so<br />
trennscharf eingehalten werden. In der Tat<br />
haben beide Darstellungsarten eine wichtige<br />
Gemeinsamkeit, <strong>und</strong> zwar den Zweck betreffend,<br />
zu dem sie vorherrschend eingesetzt<br />
werden: Sie stellen bildgebende Verfahren<br />
dar, die für Diagnosezwecke eingesetzt<br />
werden, so etwa das Sonagramm in der logopädischen<br />
Diagnostik oder in der Biologie,<br />
wenn es um die Identifikation von Tierlauten<br />
geht.<br />
Wenn man das Sonagramm als Darstellungsform<br />
in den Unterricht einbeziehen möchte,<br />
bieten sich folgende methodische <strong>und</strong> inhaltliche<br />
Schwerpunkte an:<br />
• Das Sonagramm ist eine Repräsentationsform<br />
für <strong>Klänge</strong>, die mit anderen<br />
Formen konkurriert. Der bewusste<br />
Wechsel der Darstellungsform fordert<br />
heraus <strong>und</strong> hilft, fachliche <strong>und</strong> ästhetische<br />
Aspekte zum Gegenstand der<br />
Auseinandersetzung zu machen.<br />
• Das Sonagramm ähnelt dem Musiknotensatz.<br />
Schülerinnen <strong>und</strong> Schüler, die<br />
mit dem Notensatz vertraut sind oder<br />
sogar ein Instrument spielen, können<br />
hier in besonderer Weise mit selbst anzufertigenden<br />
Tonaufnahmen einbezogen<br />
werden.<br />
• Die Verbindung zum Musiknotensatz<br />
schafft Anknüpfungspunkte für einen<br />
fächerverbindenden Unterricht.<br />
Wenn man <strong>Klänge</strong> darstellen möchte, bietet<br />
sich eine Reihe von Möglichkeiten mit je<br />
eigenen Stärken an: Der klassische Notensatz<br />
arbeitet mit den Bestimmungsstücken<br />
Zeit <strong>und</strong> Tonhöhe: Eine zeitliche Gr<strong>und</strong>metrik<br />
wird vorgegeben (z. B. »adagio«), <strong>und</strong><br />
die zeitliche Länge einer jeden Note wird relativ<br />
zu dieser Gr<strong>und</strong>metrik notiert (ganze<br />
Noten, Achtelnoten u.s.w.). Damit liegt die<br />
zeitliche Struktur der Klangfolge fest. Die<br />
Tonhöhe der <strong>Klänge</strong> wird entlang der zeitlichen<br />
Struktur als Höhe relativ zu einem System<br />
aus fünf Notenlinien <strong>und</strong> vier Zwischenräumen<br />
angegeben. Das Notensystem stellt –<br />
phhysikalisch ausgedrückt – ein System zur<br />
Darstellung der Frequenz in Abhängigkeit<br />
von der Zeit dar. Zusätzliche Vorgaben wie<br />
forte oder piano sagen etwas über die Lautstärke,<br />
physikalisch also Amplitude der Töne.<br />
Eine andere Form der Darstellung ist die, die<br />
man beispielsweise erhält, wenn man einen<br />
Klang mit dem Programm Audacity 1 erzeugt<br />
oder verarbeitet: Hier wird der Verlauf der<br />
Amplitude in Abhängigkeit von der Zeit aufgetragen,<br />
diese Darstellungart heißt Oszillogramm<br />
<strong>und</strong> ist auch in Abbildung 1 (links)<br />
ganz unten angedeutet. Die beiden Darstellungsformen<br />
sind ohne Einschränkung für<br />
ein <strong>und</strong> dieselbe Klangfolge geeignet, betonen<br />
aber je unterschiedliche Aspekte.<br />
Das Sonagramm ähnelt in der Art der Darstellung<br />
dem Notensatz, enthält jedoch eine<br />
Reihe weiterer Aspekte, die es für den Unterricht<br />
interessant machen: Es ermöglicht, die<br />
Unterschiede in den Klangfarben, die wir mit<br />
den oben angedeuteten sprachlichen Mitteln<br />
abbilden können, auch im Bild zu repräsentieren.<br />
Für die Beispiele in diesem Beitrag<br />
wurde das Programm Sonogram 2 von Christoph<br />
Lauer verwendet. Abbildung 1 zeigt<br />
ein Beispiel. Es wurde aus dem Anfang des<br />
1 Frei erhältlich unter http://audacity.sourceforge.net/?lang=de.<br />
2 Frei für alle gängigen Architekturen erhältlich unter http://sourceforge.net/projects/sonogram/<br />
3 Ursprünglich von Lori Liebermann, bekannt aber erst seit der Veröffentlichung durch Roberta Flack (1970er)<br />
<strong>und</strong> der Fugees (1990er).<br />
2
Songs Killing me softly 3 gewonnen, dessen<br />
Melodie mit einer einzelnen Gitarre aufgenommen<br />
wurde. Die Audiodatei wurde an-<br />
schließend mit dem Programm Sonogram<br />
geöffnet. Rechts neben dem Sonagram sind<br />
die Noten des Liedanfangs gezeigt.<br />
Wenn ein Klang wie hier mit einer Gitarre erzeugt <strong>und</strong> mit Hilfe eines Computers aufgezeichnet<br />
wird, dann wird er digitalisiert. Die Verarbeitung digitaler Tonsignale basiert auf<br />
einem erheblichen mathematischen Aufwand, der hier nicht behandelt wird (für Interessierte<br />
sei auf das gut verständliche Buch von (Azizi, 1990) verwiesen). Eine gr<strong>und</strong>sätzliche<br />
Kenntnis ist jedoch nötig, wenn man die bildlichen Darstellungen im eigenen didaktischen<br />
Interesse steuern möchte: Wenn der Computer die Spannungswerte eines Mikrofons misst<br />
<strong>und</strong> speichert, dann tut er dies in einer Folge von diskreten Zeitpunkten. Alles, was zwischen<br />
diesen Zeitpunkten mit der Spannung passiert, wird ignoriert. Auch wenn die zu<br />
diskreten Zeitpunkten gespeicherten Messwerte sehr genau einge<strong>lesen</strong> werden (große Anzahl<br />
von Bits), entsteht die Frage, ob die »verpassten Messwerte« zwischen den Messzeitpunkten<br />
in der gespeicherten Zahlenfolge vollständig repräsentiert sind oder nicht. Man<br />
möchte annehmen, dass der Computer von diesen »verpassten Messwerten« nichts wissen<br />
kann. Das würde jedoch bedeuten, dass wir das digitale Ergebnis des Einlesevorgangs mit<br />
Misstrauen betrachten müssten. Die Frage, wann ein digitales Signal sein analoges Vorbild<br />
perfekt repräsentiert oder nur eingeschränkt, wird durch das so genannte Shannonschen<br />
Abtasttheorem geklärt. Dieses Theorem stellt einen Zusammenhang zwischen der Abtastfrequenz<br />
<strong>und</strong> dem Frequenzspektrum des digitalen Signals her. Die Abtastfrequenz bezeichnet<br />
die Anzahl der Datenpunkte, die pro Sek<strong>und</strong>e von einem analogen Signal durch<br />
den Computer genommen werden. Das Theorem sagt, dass diese Abtastfrequenz mindestens<br />
doppelt so hoch sein muss wie die höchste Frequenz, die im Obertonspektrum eines<br />
Klangs vorkommt. Wenn diese Bedingung erfüllt ist, dann können alle vermeintlich verpassten<br />
»Messwerte« korrekt rekonstruiert werden. Man darf dann dem digitalen Ergebnis<br />
des Einlesevorgangs als Abbild seines analogen Vorbilds trauen. Ist die Abtastfrequenz zu<br />
niedrig, dann können nicht alle verpassten Messwerte rekonstruiert werden. Dieser Mangel<br />
schlägt sich dann darin nieder, dass das Obertonspektrum des Klangs beim Ein<strong>lesen</strong><br />
zu einem Teil verloren geht.<br />
Audio-CDs werden beispielsweise mit einer Abtastfrequenz von 44, 1 kHz hergestellt. Das<br />
bedeutet, dass im digitalen Signal Frequenzen bis zu 22, 05 kHz repräsentiert sein können<br />
– ein Wert, den wir mit unserem Gehör bereits nicht mehr wahrnehmen können. Würden<br />
CDs nur mit einer Abtastfrequenz von 2000 Hz hergestellt, dann würde die Musik nach<br />
der Digital-Analog-Rückwandlung keine höheren Frequenzen als 1000 Hz enthalten – die<br />
»verpassten Messwerte« beim Ein<strong>lesen</strong> <strong>und</strong> Digitalisieren würden dafür sorgen, dass das<br />
Endergebnis sehr vom analogen Vorbild abwiche. Es fehlten alle Obertöne jenseits von<br />
1000 Hz <strong>und</strong> die Musik hörte sich an wie auf einem Mittelwellensender.<br />
Kasten 1: Fachinformation zur Digitalisierung von Audiodaten<br />
3
Wenn eine wav-Datei mit dem Programm Sonogram geöffnet wird, dann bestimmt das<br />
Programm, mit welcher Abtastfrequenz die Datei erzeugt wurde. Wenn sie mit Audacity<br />
aufgenommen wurde, dann wird diese Frequenz bei 44, 1 kHz liegen. Sonogram erzeugt<br />
dann ein Bild, dessen Frequenzbereich (vertikal) von 0 bis 22, 05kHz reicht. Da sich<br />
die Gr<strong>und</strong>töne, die wir mit einem Instrument spielen, aber im Bereich weniger H<strong>und</strong>ert<br />
Hertz befinden, schrumpft die Darstellung relevanter Daten auf den unteren Bereich des<br />
Bildes zusammen. Diesem Umstand begegnet man, indem man in Audacity eine entsprechend<br />
niedrigere Abtastfrequenz einstellt (Bearbeiten - Einstellungen - Qualität - Samplefrequenz).<br />
Für das Bild in Abbildung 1 wurden 8000 Hz gewählt. Dann wurde eine Aufnahme<br />
gestartet <strong>und</strong> anschließend als *.wav exportiert. Das Resultat wird anschließend<br />
mit dem Programm Sonogram geöffnet.<br />
Kasten 2: Praktische Hinweise zu Audacity <strong>und</strong> Sonogram<br />
Sonagramme erstellen <strong>und</strong><br />
verwenden<br />
Das hier vorgestellte Programm ist in Java<br />
programmiert <strong>und</strong> sollte auf allen Systemen<br />
verwendet werden können. Seine Möglichkeiten<br />
gehen weit über das hinaus, was für<br />
den Unterricht sinnvoll ist. Wenn es geeignet<br />
eingesetzt werden will, sind einige gr<strong>und</strong>sätzliche<br />
Informationen über die Verarbeitung<br />
digitaler Signale wichtig, die in Kasten<br />
1 erläutert werden. In Kasten 2 wird erklärt,<br />
auf welche Einstellungen in Audacity<br />
bei Audioaufnahmen zu achten ist, damit<br />
das Resultat in Sonogram sinnvoll verwendet<br />
werden kann.<br />
Für den Einsatz im Unterricht bieten sich<br />
u.a. die oben aufgezählten Schwerpunkte an.<br />
Der Aspekt »Klangfarbe« kann dabei einen<br />
inhaltlichen Schwerpunkt bilden. Es ist dabei<br />
auch reizvoll, die eigene Stimme zu untersuchen,<br />
insbesondere nachzusehen, wie<br />
sich zum Beispiel die unterschiedliche Färbung<br />
der Vokale »O« <strong>und</strong> »I« im Bild niederschlägt.<br />
Es zeigt sich, dass das »I« über ein intensiveres<br />
Obertonspektrum verfügt. Wenn<br />
man Instrumente vergleicht, mit denen man<br />
je denselben Gr<strong>und</strong>ton anspielt, zeigt sich,<br />
dass es in der Regel nicht leicht ist, die Spektren<br />
in den Bildern zu unterscheiden. Der<br />
folgende Abschnitt geht dieser Beobachtung<br />
genauer nach <strong>und</strong> zeigt, wie sie zum Aus-<br />
4<br />
gangspunkt für eine interessante Demonstration<br />
gewählt werden kann.<br />
Die Bedeutung des<br />
Einschwingvorgangs<br />
Wenn man mit einer Orgelpfeife, einer Oboe<br />
oder einer Klarinette einen Ton anstimmt,<br />
so muss sich dieser Ton erst im Verlauf der<br />
ersten Bruchteile von Sek<strong>und</strong>en entwickeln.<br />
Das System muss sich einschwingen. Die im<br />
Basisartikel gezeigten Beispiele, mit denen<br />
die Verhältnisse in einer Orgelpfeife nachgestellt<br />
werden, lassen diesen Einschwingvorgang<br />
sehr deutlich erkennen. Wenn die erste<br />
Zone verdichteter Luft auf das Ende der Pfeife<br />
zu läuft, dann sind die Verhältnisse noch<br />
genau so, wie sie auch außerhalb einer Pfeife<br />
wären. Man könnte sagen, dass die Zone<br />
verdichteter Luft noch nichts davon weiß,<br />
dass sie in einem Rohr propapgiert. Das Modellexperiment<br />
zur Orgelpfeife im Beitrag<br />
Aus dem Rauschen der volle Klang weist<br />
ebenfalls darauf hin: Der Ton, der sich im<br />
Rohr bildet, ist nicht sofort nach dem Einschalten<br />
des Modells vorhanden, sondern es<br />
dauert einen Moment, bis er sich eingestellt<br />
hat. Bei Musikinstrumenten ist dieser Zeitraum<br />
extrem kurz, andernfalls wäre es kaum<br />
möglich, Sechzehntel Noten zu spielen. Dass
das Gehör in diesem Bruchteil einer Sek<strong>und</strong>e<br />
Wesentliches über die beteiligten Instrumente<br />
registriert, dass es also die Charakteristik<br />
des Einschwingvorgangs zur Detektion des<br />
Klangs nutzt, zeigt das folgende Experiment,<br />
das (Taylor, 1994, 92ff.) entnommen ist.<br />
Vorbereitungen<br />
1. Für dieses Experiment eigenen sich<br />
reale Instrumente. Drei Schülerinnen<br />
oder Schüler, die ein Instrument spielen,<br />
das einen dauerhaften Ton erzeugt<br />
(Blas- oder Streichinstrumente), verbergen<br />
sich hinter einer Leinwand. Sie<br />
werden angewiesen, alle den gleichen<br />
Ton anzustimmen <strong>und</strong> auszuhalten.<br />
2a. Die Schülerinnen <strong>und</strong> Schüler setzen<br />
nicht alle gleichzeitig, sondern nacheinander<br />
mit ihrem Ton ein. Die Klasse,<br />
die die Instrumentalisten nicht sehen,<br />
wohl aber <strong>hören</strong> kann, erhält den Auftrag,<br />
sich zu notieren, in welcher Reihenfolge<br />
die Instrumente eingesetzt haben.<br />
2b. Nun setzen die Schülerinnen <strong>und</strong> Schüler<br />
gleichzeitig mit ihrem Ton ein, sie<br />
<strong>hören</strong> aber zeitlich versetzt gegeneinander<br />
auf. Zuletzt ist also nur noch ein<br />
Instrument zu <strong>hören</strong>, bis auch dieses<br />
verstummt. Die Klasse erhält den Auftrag,<br />
zu notieren, in welcher Reihenfolge<br />
die Instrumente den Ton beendet haben.<br />
Wahrnehmung <strong>und</strong> Deutung<br />
Während es im Fall 2a in der Regel möglich<br />
ist, die gehörten <strong>Klänge</strong> den Instrumen-<br />
5<br />
ten passend zuzuordnen, ist dasselbe im Fall<br />
2b außerordentlich schwierig. Da alle Instrumente<br />
zur selben Zeit einsetzen, sind die<br />
Anfänge schlecht unterscheidbar. Sie werden<br />
vermeintlich unterscheidbarer, wenn Instrumente<br />
fortfallen. Dennoch fällt die richtige<br />
Zuordnung schwer. Der Gr<strong>und</strong> liegt darin,<br />
dass der Hörer nicht mehr über die Information<br />
verfügt, wie er sie aus dem Einschwingvorgang<br />
wie im Fall 2a entnehmen konnte.<br />
Wenn sie einmal mit einem Ton eingesetzt<br />
haben, klingen viele Instrumente überraschend<br />
ähnlich. Wer sich den Einschwingvorgang<br />
der Saite einer Geige oder eines<br />
Blasinstruments einmal in Zeitlupe an<strong>hören</strong><br />
möchte, mache eine entsprechende Aufnahme<br />
<strong>und</strong> verzögere das Abspielen zum Beispiel<br />
mit dem Programm Audacity. Im linken<br />
Teil des Fensters findet man einen Schieberegler,<br />
mit dem man unterschiedliche Abspielgeschwindigkeiten<br />
realisieren kann. Der<br />
Ton ist dann entsprechend tief, aber man<br />
kann sehr viel besser wahrnehmen, wie sich<br />
das Instrument einschwingt. Ebenfalls kann<br />
man mit dem Programm den Abschnitt eines<br />
Tons herausschneiden, während dessen<br />
sich das Instrument einschwingt. Wenn man<br />
eine kurze Melodie, die mit einem Klavier<br />
gespielt wurde, Ton für Ton in dieser Weise<br />
bearbeitet, klingen die Töne auf einmal sehr<br />
ausdruckslos. Dies ist sicher ein Gr<strong>und</strong> dafür,<br />
dass sich gute Pianistinnen <strong>und</strong> Pianisten<br />
auch darin auszeichnen, wie sie ihr Instrument<br />
anschlagen.<br />
Literatur<br />
Azizi, S. A. (1990). Entwurf <strong>und</strong> Realisierung<br />
digitaler Filter. München: Oldenbourg.<br />
Taylor, C. (1994). Der Ton macht die <strong>Physik</strong>.<br />
Brauschweig, Wiesbaden: Vieweg.
Abbildung 1: Der Beginn des Songs »Killing me softly« in zwei Formen der Darstellung,<br />
links im Sonagramm, rechts im Notensatz. Eine Gegenüberstellung dieser Art<br />
kann im Unterricht zum Ausgangspunkt dafür genommen werden, zu erkennen,<br />
was das Sonagramm zeigt. Offenbar sind die Informationen aus dem Notensatz<br />
zu einem guten Teil links wiederauffindbar. Dennoch eignet sich die<br />
linke Darstellung kaum, <strong>und</strong> anhand ihrer das Stück mit der Gitarre nachzuspielen.<br />
Dafür verrät sie Überraschendes: Wenn wir das g anzupfen, dann<br />
<strong>hören</strong> wir noch deutlich mehr!<br />
Das Signal ganz unten (bei 100 Hz) ist vermutlich eine Störung bei der Aufnahme<br />
– sehr wahrscheinlich eine Resonanz in den beteiligten Geräten.<br />
6