06.05.2013 Aufrufe

Klänge hören und lesen - Physik

Klänge hören und lesen - Physik

Klänge hören und lesen - Physik

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>Klänge</strong> <strong>hören</strong> <strong>und</strong> <strong>lesen</strong><br />

von Karsten Rincke<br />

Manuskript zum Beitrag <strong>Klänge</strong> <strong>hören</strong> <strong>und</strong> <strong>lesen</strong>. In Naturwissenschaften im Unterricht <strong>Physik</strong>, Heft 114, S. 10-13<br />

Farben <strong>und</strong> Bilder<br />

Wenn man eine Stimmgabel anschlägt, ein<br />

Instrument spielt oder einen Ton singt –<br />

stets ist es nicht nur ein Ton in einer bestimmten<br />

Gr<strong>und</strong>frequenz, den wir <strong>hören</strong>,<br />

sondern immer eine Sammlung von Tönen<br />

mit unterschiedlichen Frequenzen, die bestimmte<br />

Zahlenverhältnisse zu einander einhalten.<br />

Die Obertöne, die Vielfachen der<br />

Gr<strong>und</strong>frequenz, können bei ein <strong>und</strong> demselben<br />

Gr<strong>und</strong>ton mit unterschiedlichen Amplituden<br />

auftreten. In dieser Vielfalt der möglichen<br />

Amplituden liegt die Vielfalt der Klangfarben<br />

verborgen. Jeder Ton – der Genauigkeit<br />

halber müssten wir sagen Klang, der<br />

auf einem Instrument gespielt oder der gesungen<br />

wird, hat sein eigenes Spektrum an<br />

Obertönen zum Gr<strong>und</strong>ton. Um die Farbigkeit<br />

der <strong>Klänge</strong> zu beschreiben, bietet unsere<br />

Sprache Attribute wie »dumpf, brillant,<br />

hell, dunkel, kehlig, voll« <strong>und</strong> viele weitere<br />

Wörter an. Neben den sprachlichen Repräsentationen<br />

sind bildliche Darstellungen gebräuchlich.<br />

In diesem Beitrag wird das Sonogram<br />

vorgestellt, das sich vielfältig einsetzen<br />

lässt <strong>und</strong> zudem eine überraschend klare<br />

Verbindung zur klassischen Notation von<br />

<strong>Klänge</strong>n zeigt, dem uns bekannten Musiknotensatz.<br />

Wenn wir einen Klang wahrnehmen <strong>und</strong> entscheiden,<br />

aus welcher Quelle er stammen<br />

könnte, dann wertet unser Gehör überraschenderweise<br />

aber nicht allein die Farbigkeit<br />

des Klangs aus. Im letzten Abschnitt dieses<br />

Beitrags wird gezeigt, dass auch das Einschwingen<br />

eines Instruments eminente Bedeutung<br />

für die richtige Zuordnung eines<br />

Klangs hat.<br />

1<br />

Das Sonagramm<br />

In Abbildung 1 ist ein Beispiel für ein Diagramm<br />

zu sehen, das mit dem freien Programm<br />

Sonogram erzeugt wurde. In der<br />

Horizontalen ist die Zeit aufgetragen, in<br />

der Vertikalen die Frequenz (die Zahlenwerte<br />

sind im gezeigten Beispiel nur sehr<br />

klein zu sehen). Dieses Sonagramm zeigt keine<br />

Momentaufnahme, sondern repräsentiert<br />

einen gewissen Zeitraum eines akustischen<br />

Signals. Neben den beiden Dimensionen Zeit<br />

<strong>und</strong> Frequenz ist eine dritte Dimension im<br />

Diagramm enthalten, die durch Farben kodiert<br />

ist, es ist die Amplitude einer bestimmten<br />

Frequenz. In Abbildung 1 sind hellere<br />

<strong>und</strong> dunklere Bereiche zu sehen: Die helleren<br />

Bereiche ge<strong>hören</strong> zu Klangkomponenten einer<br />

bestimmten Frequenz mit relativ großer<br />

Amplitude, die dunkleren Bereiche entsprechend<br />

zu leiseren Komponenten. Das Diagramm<br />

liefert ein Klangspektrogramm, ein<br />

recht umfassendes Bild eines Klangs im Zeitverlauf.<br />

Die ähnlichen Begriffe des Sonagramms <strong>und</strong><br />

des Sonogramms werden nicht immer klar<br />

auseinander gehalten: Der Begriff des Sonogramms<br />

wird eher für Diagramme verwendet,<br />

die die räumliche Verteilung eines<br />

(Ultra)schallechos verwenden, um auf<br />

die räumliche Struktur des Gegenstands zu<br />

schließen, der das Echo zurück wirft. Frequenz<br />

<strong>und</strong> Zeitverlauf sind dann unwichtig.<br />

Sonogramme finden in der Medizin Einsatz,<br />

bekannt sind zum Beispiel die Sonogramme,<br />

die einen Embryo im Mutterleib zeigen. Ihren<br />

Ursprung haben sie in der Technik zur<br />

Ortung von Unterseebooten. Der Begriff des<br />

Sonagramms wird dagegen eher für Diagramme<br />

verwendet, die die Struktur eines


Klangs zeigen (im Hinblick auf die enthaltenen<br />

Frequenzen), nicht die eines Körpers,<br />

der ein Echo erzeugt. Dass die Macher des<br />

in diesem Beitrag verwendeten Programms<br />

den Namen Sonogram für ihr Produkt gewählt<br />

haben, <strong>und</strong> nicht Sonagramm, wie eigentlich<br />

zu erwarten wäre, zeigt, dass diese<br />

Unterscheidungen offenbar nicht ganz so<br />

trennscharf eingehalten werden. In der Tat<br />

haben beide Darstellungsarten eine wichtige<br />

Gemeinsamkeit, <strong>und</strong> zwar den Zweck betreffend,<br />

zu dem sie vorherrschend eingesetzt<br />

werden: Sie stellen bildgebende Verfahren<br />

dar, die für Diagnosezwecke eingesetzt<br />

werden, so etwa das Sonagramm in der logopädischen<br />

Diagnostik oder in der Biologie,<br />

wenn es um die Identifikation von Tierlauten<br />

geht.<br />

Wenn man das Sonagramm als Darstellungsform<br />

in den Unterricht einbeziehen möchte,<br />

bieten sich folgende methodische <strong>und</strong> inhaltliche<br />

Schwerpunkte an:<br />

• Das Sonagramm ist eine Repräsentationsform<br />

für <strong>Klänge</strong>, die mit anderen<br />

Formen konkurriert. Der bewusste<br />

Wechsel der Darstellungsform fordert<br />

heraus <strong>und</strong> hilft, fachliche <strong>und</strong> ästhetische<br />

Aspekte zum Gegenstand der<br />

Auseinandersetzung zu machen.<br />

• Das Sonagramm ähnelt dem Musiknotensatz.<br />

Schülerinnen <strong>und</strong> Schüler, die<br />

mit dem Notensatz vertraut sind oder<br />

sogar ein Instrument spielen, können<br />

hier in besonderer Weise mit selbst anzufertigenden<br />

Tonaufnahmen einbezogen<br />

werden.<br />

• Die Verbindung zum Musiknotensatz<br />

schafft Anknüpfungspunkte für einen<br />

fächerverbindenden Unterricht.<br />

Wenn man <strong>Klänge</strong> darstellen möchte, bietet<br />

sich eine Reihe von Möglichkeiten mit je<br />

eigenen Stärken an: Der klassische Notensatz<br />

arbeitet mit den Bestimmungsstücken<br />

Zeit <strong>und</strong> Tonhöhe: Eine zeitliche Gr<strong>und</strong>metrik<br />

wird vorgegeben (z. B. »adagio«), <strong>und</strong><br />

die zeitliche Länge einer jeden Note wird relativ<br />

zu dieser Gr<strong>und</strong>metrik notiert (ganze<br />

Noten, Achtelnoten u.s.w.). Damit liegt die<br />

zeitliche Struktur der Klangfolge fest. Die<br />

Tonhöhe der <strong>Klänge</strong> wird entlang der zeitlichen<br />

Struktur als Höhe relativ zu einem System<br />

aus fünf Notenlinien <strong>und</strong> vier Zwischenräumen<br />

angegeben. Das Notensystem stellt –<br />

phhysikalisch ausgedrückt – ein System zur<br />

Darstellung der Frequenz in Abhängigkeit<br />

von der Zeit dar. Zusätzliche Vorgaben wie<br />

forte oder piano sagen etwas über die Lautstärke,<br />

physikalisch also Amplitude der Töne.<br />

Eine andere Form der Darstellung ist die, die<br />

man beispielsweise erhält, wenn man einen<br />

Klang mit dem Programm Audacity 1 erzeugt<br />

oder verarbeitet: Hier wird der Verlauf der<br />

Amplitude in Abhängigkeit von der Zeit aufgetragen,<br />

diese Darstellungart heißt Oszillogramm<br />

<strong>und</strong> ist auch in Abbildung 1 (links)<br />

ganz unten angedeutet. Die beiden Darstellungsformen<br />

sind ohne Einschränkung für<br />

ein <strong>und</strong> dieselbe Klangfolge geeignet, betonen<br />

aber je unterschiedliche Aspekte.<br />

Das Sonagramm ähnelt in der Art der Darstellung<br />

dem Notensatz, enthält jedoch eine<br />

Reihe weiterer Aspekte, die es für den Unterricht<br />

interessant machen: Es ermöglicht, die<br />

Unterschiede in den Klangfarben, die wir mit<br />

den oben angedeuteten sprachlichen Mitteln<br />

abbilden können, auch im Bild zu repräsentieren.<br />

Für die Beispiele in diesem Beitrag<br />

wurde das Programm Sonogram 2 von Christoph<br />

Lauer verwendet. Abbildung 1 zeigt<br />

ein Beispiel. Es wurde aus dem Anfang des<br />

1 Frei erhältlich unter http://audacity.sourceforge.net/?lang=de.<br />

2 Frei für alle gängigen Architekturen erhältlich unter http://sourceforge.net/projects/sonogram/<br />

3 Ursprünglich von Lori Liebermann, bekannt aber erst seit der Veröffentlichung durch Roberta Flack (1970er)<br />

<strong>und</strong> der Fugees (1990er).<br />

2


Songs Killing me softly 3 gewonnen, dessen<br />

Melodie mit einer einzelnen Gitarre aufgenommen<br />

wurde. Die Audiodatei wurde an-<br />

schließend mit dem Programm Sonogram<br />

geöffnet. Rechts neben dem Sonagram sind<br />

die Noten des Liedanfangs gezeigt.<br />

Wenn ein Klang wie hier mit einer Gitarre erzeugt <strong>und</strong> mit Hilfe eines Computers aufgezeichnet<br />

wird, dann wird er digitalisiert. Die Verarbeitung digitaler Tonsignale basiert auf<br />

einem erheblichen mathematischen Aufwand, der hier nicht behandelt wird (für Interessierte<br />

sei auf das gut verständliche Buch von (Azizi, 1990) verwiesen). Eine gr<strong>und</strong>sätzliche<br />

Kenntnis ist jedoch nötig, wenn man die bildlichen Darstellungen im eigenen didaktischen<br />

Interesse steuern möchte: Wenn der Computer die Spannungswerte eines Mikrofons misst<br />

<strong>und</strong> speichert, dann tut er dies in einer Folge von diskreten Zeitpunkten. Alles, was zwischen<br />

diesen Zeitpunkten mit der Spannung passiert, wird ignoriert. Auch wenn die zu<br />

diskreten Zeitpunkten gespeicherten Messwerte sehr genau einge<strong>lesen</strong> werden (große Anzahl<br />

von Bits), entsteht die Frage, ob die »verpassten Messwerte« zwischen den Messzeitpunkten<br />

in der gespeicherten Zahlenfolge vollständig repräsentiert sind oder nicht. Man<br />

möchte annehmen, dass der Computer von diesen »verpassten Messwerten« nichts wissen<br />

kann. Das würde jedoch bedeuten, dass wir das digitale Ergebnis des Einlesevorgangs mit<br />

Misstrauen betrachten müssten. Die Frage, wann ein digitales Signal sein analoges Vorbild<br />

perfekt repräsentiert oder nur eingeschränkt, wird durch das so genannte Shannonschen<br />

Abtasttheorem geklärt. Dieses Theorem stellt einen Zusammenhang zwischen der Abtastfrequenz<br />

<strong>und</strong> dem Frequenzspektrum des digitalen Signals her. Die Abtastfrequenz bezeichnet<br />

die Anzahl der Datenpunkte, die pro Sek<strong>und</strong>e von einem analogen Signal durch<br />

den Computer genommen werden. Das Theorem sagt, dass diese Abtastfrequenz mindestens<br />

doppelt so hoch sein muss wie die höchste Frequenz, die im Obertonspektrum eines<br />

Klangs vorkommt. Wenn diese Bedingung erfüllt ist, dann können alle vermeintlich verpassten<br />

»Messwerte« korrekt rekonstruiert werden. Man darf dann dem digitalen Ergebnis<br />

des Einlesevorgangs als Abbild seines analogen Vorbilds trauen. Ist die Abtastfrequenz zu<br />

niedrig, dann können nicht alle verpassten Messwerte rekonstruiert werden. Dieser Mangel<br />

schlägt sich dann darin nieder, dass das Obertonspektrum des Klangs beim Ein<strong>lesen</strong><br />

zu einem Teil verloren geht.<br />

Audio-CDs werden beispielsweise mit einer Abtastfrequenz von 44, 1 kHz hergestellt. Das<br />

bedeutet, dass im digitalen Signal Frequenzen bis zu 22, 05 kHz repräsentiert sein können<br />

– ein Wert, den wir mit unserem Gehör bereits nicht mehr wahrnehmen können. Würden<br />

CDs nur mit einer Abtastfrequenz von 2000 Hz hergestellt, dann würde die Musik nach<br />

der Digital-Analog-Rückwandlung keine höheren Frequenzen als 1000 Hz enthalten – die<br />

»verpassten Messwerte« beim Ein<strong>lesen</strong> <strong>und</strong> Digitalisieren würden dafür sorgen, dass das<br />

Endergebnis sehr vom analogen Vorbild abwiche. Es fehlten alle Obertöne jenseits von<br />

1000 Hz <strong>und</strong> die Musik hörte sich an wie auf einem Mittelwellensender.<br />

Kasten 1: Fachinformation zur Digitalisierung von Audiodaten<br />

3


Wenn eine wav-Datei mit dem Programm Sonogram geöffnet wird, dann bestimmt das<br />

Programm, mit welcher Abtastfrequenz die Datei erzeugt wurde. Wenn sie mit Audacity<br />

aufgenommen wurde, dann wird diese Frequenz bei 44, 1 kHz liegen. Sonogram erzeugt<br />

dann ein Bild, dessen Frequenzbereich (vertikal) von 0 bis 22, 05kHz reicht. Da sich<br />

die Gr<strong>und</strong>töne, die wir mit einem Instrument spielen, aber im Bereich weniger H<strong>und</strong>ert<br />

Hertz befinden, schrumpft die Darstellung relevanter Daten auf den unteren Bereich des<br />

Bildes zusammen. Diesem Umstand begegnet man, indem man in Audacity eine entsprechend<br />

niedrigere Abtastfrequenz einstellt (Bearbeiten - Einstellungen - Qualität - Samplefrequenz).<br />

Für das Bild in Abbildung 1 wurden 8000 Hz gewählt. Dann wurde eine Aufnahme<br />

gestartet <strong>und</strong> anschließend als *.wav exportiert. Das Resultat wird anschließend<br />

mit dem Programm Sonogram geöffnet.<br />

Kasten 2: Praktische Hinweise zu Audacity <strong>und</strong> Sonogram<br />

Sonagramme erstellen <strong>und</strong><br />

verwenden<br />

Das hier vorgestellte Programm ist in Java<br />

programmiert <strong>und</strong> sollte auf allen Systemen<br />

verwendet werden können. Seine Möglichkeiten<br />

gehen weit über das hinaus, was für<br />

den Unterricht sinnvoll ist. Wenn es geeignet<br />

eingesetzt werden will, sind einige gr<strong>und</strong>sätzliche<br />

Informationen über die Verarbeitung<br />

digitaler Signale wichtig, die in Kasten<br />

1 erläutert werden. In Kasten 2 wird erklärt,<br />

auf welche Einstellungen in Audacity<br />

bei Audioaufnahmen zu achten ist, damit<br />

das Resultat in Sonogram sinnvoll verwendet<br />

werden kann.<br />

Für den Einsatz im Unterricht bieten sich<br />

u.a. die oben aufgezählten Schwerpunkte an.<br />

Der Aspekt »Klangfarbe« kann dabei einen<br />

inhaltlichen Schwerpunkt bilden. Es ist dabei<br />

auch reizvoll, die eigene Stimme zu untersuchen,<br />

insbesondere nachzusehen, wie<br />

sich zum Beispiel die unterschiedliche Färbung<br />

der Vokale »O« <strong>und</strong> »I« im Bild niederschlägt.<br />

Es zeigt sich, dass das »I« über ein intensiveres<br />

Obertonspektrum verfügt. Wenn<br />

man Instrumente vergleicht, mit denen man<br />

je denselben Gr<strong>und</strong>ton anspielt, zeigt sich,<br />

dass es in der Regel nicht leicht ist, die Spektren<br />

in den Bildern zu unterscheiden. Der<br />

folgende Abschnitt geht dieser Beobachtung<br />

genauer nach <strong>und</strong> zeigt, wie sie zum Aus-<br />

4<br />

gangspunkt für eine interessante Demonstration<br />

gewählt werden kann.<br />

Die Bedeutung des<br />

Einschwingvorgangs<br />

Wenn man mit einer Orgelpfeife, einer Oboe<br />

oder einer Klarinette einen Ton anstimmt,<br />

so muss sich dieser Ton erst im Verlauf der<br />

ersten Bruchteile von Sek<strong>und</strong>en entwickeln.<br />

Das System muss sich einschwingen. Die im<br />

Basisartikel gezeigten Beispiele, mit denen<br />

die Verhältnisse in einer Orgelpfeife nachgestellt<br />

werden, lassen diesen Einschwingvorgang<br />

sehr deutlich erkennen. Wenn die erste<br />

Zone verdichteter Luft auf das Ende der Pfeife<br />

zu läuft, dann sind die Verhältnisse noch<br />

genau so, wie sie auch außerhalb einer Pfeife<br />

wären. Man könnte sagen, dass die Zone<br />

verdichteter Luft noch nichts davon weiß,<br />

dass sie in einem Rohr propapgiert. Das Modellexperiment<br />

zur Orgelpfeife im Beitrag<br />

Aus dem Rauschen der volle Klang weist<br />

ebenfalls darauf hin: Der Ton, der sich im<br />

Rohr bildet, ist nicht sofort nach dem Einschalten<br />

des Modells vorhanden, sondern es<br />

dauert einen Moment, bis er sich eingestellt<br />

hat. Bei Musikinstrumenten ist dieser Zeitraum<br />

extrem kurz, andernfalls wäre es kaum<br />

möglich, Sechzehntel Noten zu spielen. Dass


das Gehör in diesem Bruchteil einer Sek<strong>und</strong>e<br />

Wesentliches über die beteiligten Instrumente<br />

registriert, dass es also die Charakteristik<br />

des Einschwingvorgangs zur Detektion des<br />

Klangs nutzt, zeigt das folgende Experiment,<br />

das (Taylor, 1994, 92ff.) entnommen ist.<br />

Vorbereitungen<br />

1. Für dieses Experiment eigenen sich<br />

reale Instrumente. Drei Schülerinnen<br />

oder Schüler, die ein Instrument spielen,<br />

das einen dauerhaften Ton erzeugt<br />

(Blas- oder Streichinstrumente), verbergen<br />

sich hinter einer Leinwand. Sie<br />

werden angewiesen, alle den gleichen<br />

Ton anzustimmen <strong>und</strong> auszuhalten.<br />

2a. Die Schülerinnen <strong>und</strong> Schüler setzen<br />

nicht alle gleichzeitig, sondern nacheinander<br />

mit ihrem Ton ein. Die Klasse,<br />

die die Instrumentalisten nicht sehen,<br />

wohl aber <strong>hören</strong> kann, erhält den Auftrag,<br />

sich zu notieren, in welcher Reihenfolge<br />

die Instrumente eingesetzt haben.<br />

2b. Nun setzen die Schülerinnen <strong>und</strong> Schüler<br />

gleichzeitig mit ihrem Ton ein, sie<br />

<strong>hören</strong> aber zeitlich versetzt gegeneinander<br />

auf. Zuletzt ist also nur noch ein<br />

Instrument zu <strong>hören</strong>, bis auch dieses<br />

verstummt. Die Klasse erhält den Auftrag,<br />

zu notieren, in welcher Reihenfolge<br />

die Instrumente den Ton beendet haben.<br />

Wahrnehmung <strong>und</strong> Deutung<br />

Während es im Fall 2a in der Regel möglich<br />

ist, die gehörten <strong>Klänge</strong> den Instrumen-<br />

5<br />

ten passend zuzuordnen, ist dasselbe im Fall<br />

2b außerordentlich schwierig. Da alle Instrumente<br />

zur selben Zeit einsetzen, sind die<br />

Anfänge schlecht unterscheidbar. Sie werden<br />

vermeintlich unterscheidbarer, wenn Instrumente<br />

fortfallen. Dennoch fällt die richtige<br />

Zuordnung schwer. Der Gr<strong>und</strong> liegt darin,<br />

dass der Hörer nicht mehr über die Information<br />

verfügt, wie er sie aus dem Einschwingvorgang<br />

wie im Fall 2a entnehmen konnte.<br />

Wenn sie einmal mit einem Ton eingesetzt<br />

haben, klingen viele Instrumente überraschend<br />

ähnlich. Wer sich den Einschwingvorgang<br />

der Saite einer Geige oder eines<br />

Blasinstruments einmal in Zeitlupe an<strong>hören</strong><br />

möchte, mache eine entsprechende Aufnahme<br />

<strong>und</strong> verzögere das Abspielen zum Beispiel<br />

mit dem Programm Audacity. Im linken<br />

Teil des Fensters findet man einen Schieberegler,<br />

mit dem man unterschiedliche Abspielgeschwindigkeiten<br />

realisieren kann. Der<br />

Ton ist dann entsprechend tief, aber man<br />

kann sehr viel besser wahrnehmen, wie sich<br />

das Instrument einschwingt. Ebenfalls kann<br />

man mit dem Programm den Abschnitt eines<br />

Tons herausschneiden, während dessen<br />

sich das Instrument einschwingt. Wenn man<br />

eine kurze Melodie, die mit einem Klavier<br />

gespielt wurde, Ton für Ton in dieser Weise<br />

bearbeitet, klingen die Töne auf einmal sehr<br />

ausdruckslos. Dies ist sicher ein Gr<strong>und</strong> dafür,<br />

dass sich gute Pianistinnen <strong>und</strong> Pianisten<br />

auch darin auszeichnen, wie sie ihr Instrument<br />

anschlagen.<br />

Literatur<br />

Azizi, S. A. (1990). Entwurf <strong>und</strong> Realisierung<br />

digitaler Filter. München: Oldenbourg.<br />

Taylor, C. (1994). Der Ton macht die <strong>Physik</strong>.<br />

Brauschweig, Wiesbaden: Vieweg.


Abbildung 1: Der Beginn des Songs »Killing me softly« in zwei Formen der Darstellung,<br />

links im Sonagramm, rechts im Notensatz. Eine Gegenüberstellung dieser Art<br />

kann im Unterricht zum Ausgangspunkt dafür genommen werden, zu erkennen,<br />

was das Sonagramm zeigt. Offenbar sind die Informationen aus dem Notensatz<br />

zu einem guten Teil links wiederauffindbar. Dennoch eignet sich die<br />

linke Darstellung kaum, <strong>und</strong> anhand ihrer das Stück mit der Gitarre nachzuspielen.<br />

Dafür verrät sie Überraschendes: Wenn wir das g anzupfen, dann<br />

<strong>hören</strong> wir noch deutlich mehr!<br />

Das Signal ganz unten (bei 100 Hz) ist vermutlich eine Störung bei der Aufnahme<br />

– sehr wahrscheinlich eine Resonanz in den beteiligten Geräten.<br />

6

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!