Digitale Signalverarbeitung (PDF) - Technische Akustik
Digitale Signalverarbeitung (PDF) - Technische Akustik
Digitale Signalverarbeitung (PDF) - Technische Akustik
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>Technische</strong> Universität Berlin<br />
Fakultät V<br />
Verkehrs- und Maschinensysteme<br />
FG <strong>Technische</strong> <strong>Akustik</strong><br />
Prof. Dr.-Ing Michael Möser<br />
<strong>Digitale</strong><br />
<strong>Signalverarbeitung</strong><br />
Berlin 2011
Inhaltsverzeichnis<br />
Seite<br />
Vorwort 1<br />
1. Einleitung 2<br />
1.1 Lineare Systeme 3<br />
1.2 Der Invarianzsatz 7<br />
1.3 Harmonische Zerlegung periodischer Signale (“FOURIER”-Reihen) 10<br />
1.4 FOURIER-Transformationen 18<br />
1.5 Sätze über die FOURIER-Transformation 20<br />
1.6 Ein Beispiel: der einfache Resonator 25<br />
2. Abtastfolgen 30<br />
2.1 FOURIER-Transformation von Zahlenfolgen 31<br />
2.2 Eigenschaften der FOURIER-Transformation von Folgen 33<br />
2.3 Das Abtasttheorem 37<br />
2.4 Signalmodelle 43<br />
2.4.1 Einmaliges Signalmodell 45<br />
2.4.2 Diskrete Spektren 49<br />
2.4.3 Diskretisierung des Rechteckfenster-Spektrums 52<br />
2.5 Praktische Rechentechnik 56<br />
2.5.1 Skalierung, Amplitudenspektrum 56<br />
2.5.2 Schnelle FOURIER-Transformation (FFT) 57<br />
3. Fenster und Gewichtung 59<br />
3.1 Das HANNING-Fenster 60<br />
3.2 Die Herstellung von Gewichtsfolgen 69<br />
4. Die Verwendung stationärer Zufalssprozesse als Messsignale 74
1<br />
Vorwort<br />
Diese Vorlesung dient (fast ausschließlich) einem sehr praktischen Zweck: sie möchte den<br />
Hörer in die Lage versetzen, eine heute insbesondere aus der <strong>Technische</strong>n <strong>Akustik</strong> nicht mehr<br />
wegzudenkende Messeinrichtung - den sogenannten FFT-Analysator - zu verstehen. Dieses<br />
Verständnis soll soweit vertieft werden, dass die Hörer am Ende in der Lage sind, ihren PC<br />
selbst zu einem solchen Analysator auszurüsten und zu programmieren.<br />
Andererseits bedeutet diese konkrete Aufgabenstellung gleichzeitig auch den Verzicht auf<br />
ganze Teilgebiete der <strong>Signalverarbeitung</strong> wie die z-Transformation und den Filterentwurf, um<br />
nur zwei Beispiele zu nennen.<br />
Grundsätzlich ist "<strong>Digitale</strong> <strong>Signalverarbeitung</strong>" ein spezieller Zweig der angewandten<br />
Mathematik, das trifft deshalb natürlich auch für diese Lehrveranstaltung zu. Tatsächlich<br />
versucht der schon angesprochene FFT-Analysator eigentlich nur wenig mehr als eine<br />
gegebene Funktion (z.B. ein gemessener Zeitverlauf) in eine Funktionenreihe zu zerlegen.<br />
Wir werden die Vorlesung damit beginnen, die Nützlichkeit dieser an sich ja rein abstrakten,<br />
sehr mathematischen Aufgabenstellung für das Verständnis akustischer Übertrager zu<br />
schildern. Danach wenden wir uns der "praktischen Rechnertechnik" zu: wir müssen den<br />
erhaltenen Formelapparat so umsetzen, dass er von einem Digitalrechner auch bewältigt<br />
werden kann. Diese Lehrveranstaltung geht also einer sehr speziellen mathematischen und<br />
rechentechnischen Fragestellung nach: der rechnergestützten Zerlegung eines (z.B. durch<br />
Messung gegebenen) Spannungs-Zeit-Verlaufs in harmonische Bestandteile.<br />
Den Kern unserer Betrachtungen bilden die beiden dabei auftretenden Probleme:<br />
1. Der Rechner hat ein "beschränktes Blickfeld", er kann nur einen gewissen zeitlichen<br />
Ausschnitt aus dem u.U. sehr langen Signal praktisch auch "behalten".<br />
2. Der Rechner "blinzelt" fortwährend. Naturgemäß kann er den ja eigentlich<br />
kontinuierlichen Funktionsverlauf nur zu diskreten Zeiten in Stützstellen erfassen.<br />
Wir werden uns mit den Konsequenzen dieser Probleme beschäftigen und (einige) Konzepte<br />
kennenlernen, wie man die Nachteile abmildern bzw. manipulieren kann. Kurz gefasst könnte<br />
man sagen, dass sich diese Vorlesung mit digitale der Darstellung einer Funktion durch eine<br />
spezielle Reihe "unter imperfekten Umständen" befasst.
2<br />
1. Einleitung<br />
Die (digitale) <strong>Signalverarbeitung</strong> hat heute in so vielen Bereichen einen hohen Stellenwert<br />
erlangt, dass Beispiele wie "Sprachverarbeitung, Werkstoffprüfung, Medizintechnik" fast<br />
banal wirken. Wir wollen deshalb einleitend mit einer in vielen ingenieurwissenschaftlichen<br />
Disziplinen vorkommenden Fragestellung beginnen: der Betrachtung von (einfachen) linearen<br />
Übertragern. Für die <strong>Akustik</strong> sind solche "linearen Systeme" zum Beispiel Lautsprecher,<br />
Mikrofone, andere Wandler, Schall - Lauf - Strecken, schwingende Strukturen und vieles<br />
mehr. Bei all diesen "Systemen" interessiert unmittelbar die zeitliche Reaktion y (t) - z.B. ein<br />
Schalldruck vor einem Lautsprecher -, die durch eine Anregung x(t) - z.B. die anliegende<br />
Spannung - hervorgerufen wird. Symbolisch kennzeichnet man diesen Pfad aus Ursache und<br />
Wirkung durch ein Block-Bild mit einem Eingang x(t) und einem Ausgang y(t):<br />
x(t) System y(t)<br />
Dabei bleibt es letztlich frei, auf welche Weise Eingang und Ausgang durch physikalische<br />
Größen definiert werden. Im Fall des Lautsprechers hätte man zum Beispiel Strom und<br />
Membranschnelle benutzen können. Man wird die Wahl wohl sinnvoll so vornehmen, dass<br />
der jeweilige Sinn der Betrachtungen vernünftig wiedergegeben wird.<br />
Unter einem "linearen System" wollen wir nun einen solchen Übertrager verstehen, für den<br />
das Prinzip der ungestörten Überlagerung gilt. Wenn also das System auf einen Eingang x 1 (t)<br />
mit y 1 (t) reagiert<br />
x 1 (t) y 1 (t)<br />
und ebenso der Zusammenhang<br />
x 2 (t) y 2 (t)<br />
gilt, dann soll auch jede Linearkombination der Eingänge zu der gleichen Linearkombination<br />
der Ausgänge führen:<br />
ax 1 (t) + bx 2 (t) ay 1 (t) + by 2 (t).<br />
Dieses "Superpositionsprinzip" ist völlig gleichbedeutend mit dem Begriff "Linearität". Oft<br />
scheint es uns selbstverständlich zu sein: addieren wir zum Beispiel Kräfte, auch<br />
verschiedenen Zeitverlaufs, die auf einen Biegeschwinger wirken, dann werden wir zu recht<br />
erwarten, dass sich die Stabbeschleunigungen aus der Summe der Teilreaktionen zusammensetzen.<br />
In der Physik der Schallwellenausbreitung ersetzen wir das Wort "linear"
3<br />
durch "Interferenz" und meinen ein und dasselbe. Wir dürfen also oft, aber nicht immer für<br />
die Beschreibung der Wirklichkeit Linearität voraussetzen. Ein Gegenbeispiel sind Federn mit<br />
gekrümmten Kennlinien. Allgemeiner wird man bei großen Amplituden Nichtlinearität<br />
erwarten. Dies gilt auch für Luftschall mit der (schwach) gekrümmten Adiabatenkennlinie<br />
(siehe VL "Theoretische <strong>Akustik</strong>").<br />
1.1 Lineare Systeme<br />
Wenn man zunächst von einem "Standpunkt ohne weitere Vorkenntnisse" ausgeht, so ist es<br />
wohl naheliegend, ein lineares System einfach durch Bestimmung der Zeitverläufe von<br />
Eingang und Ausgang zu beschreiben und zu charakterisieren. Nun werden sich für<br />
verschiedene Eingangsfunktionen x(t) natürlich auch unterschiedliche Ausgangsfunktionen<br />
y(t) einstellen, wobei die Beziehung zwischen x(t) und y(t) etwas "Systemtypisches"<br />
widerspiegelt.<br />
Man wird sich fragen, wie man aus der Vielfalt wählbarer Eingangsfunktionen x(t) eine<br />
spezielle Eingangsfunktion so heraussucht, dass die daraufhin vorliegende Ausgangsfunktion<br />
ein besonders guter Repräsentant für das System ist. Insbesondere ist es sinnvoll, eine<br />
Eingangsfunktion x(t) so zu wählen, dass aus dem zugehörigen Ausgang y(t) das<br />
Systemverhalten auch für alle anderen nur denkbaren Eingangsverläufe berechnet werden<br />
kann.<br />
Wie das folgende zeigt, ist diese Forderung gerade dann erfüllt, wenn als "ausgezeichnete"<br />
Eingangsfunktion ein (ideal kurzer) Impuls benutzt wird. Um die Bedeutung dieses Impulses<br />
herauszuarbeiten, müssen wir zunächst eine exakte Definition angeben. Mathematisch<br />
beschrieben wird er als "Delta-Funktion" oder "Dirac-Funktion" δ(t). Sie besitzt außer an der<br />
Stelle t = 0 überall den Wert Null, δ(t ≠ 0) = 0, in t = 0 ist die Delta-Funktion "unendlich<br />
groß" derart, dass die Fläche unter der Kurve gleich 1 ist:<br />
b<br />
∫ δ(t)dt<br />
= 1<br />
; a,b > 0 (1.1)<br />
−<br />
a
4<br />
(a > 0, b > 0). Wie man sieht, ist die Delta-Funktion keine Funktion im "gewöhnlichen<br />
Sinne", man bezeichnet sie deshalb auch als Sonderfunktion. Wir können sie (zum Beispiel)<br />
als Grenzfall der in Bild 1.1 dargestellten Rechteckfunktion r ∆T (t) auffassen:<br />
( t) lim r ( t)<br />
δ (1.2)<br />
∆T→0<br />
∆T<br />
Der für unseren Zweck der Systembeschreibung wichtige Nutzen der Dirac-Funktion δ(t)<br />
besteht nun darin, dass man beliebige Funktionsverläufe f(t) durch eine Summe (genauer: ein<br />
Integral) von Delta-Funktionen darstellen kann. Tatsächlich können wir ja einen<br />
Funktionsverlauf f(t) zunächst durch einen Treppenverlauf f ∆T (t) annähern wie in Bild 1.2<br />
demonstriert.
5<br />
f(t) wird so durch eine Summe von Rechteckfunktionen approximiert:<br />
∞<br />
=<br />
∆T<br />
n=−∞<br />
( t) f ( n ⋅ ∆T) ⋅ r ( t − n ⋅ ∆T) ⋅ ∆T<br />
f<br />
∆ ∑ (1.3)<br />
T<br />
Bilden wir den Grenzübergang ∆T 0, so gehen die "diskreten Stützstellen" n∆T an der<br />
Funktion f(t) in eine kontinuierliche Variable über, die wir mit τ bezeichnen wollen: n∆T τ.<br />
Gleichzeitig wird aus dem Abstand ∆T der Stützstellen das infinitesimale Integrationselement<br />
dτ. Es ist also<br />
f<br />
( t) lim f ( t) = f ( τ) δ( t − τ) dτ<br />
= ∫ ∞ ∆T<br />
−∞<br />
∆T→0<br />
(1.4)<br />
Die Eigenschaft (1.4) der Delta-Funktion hätten wir natürlich auch aus der Anschauung<br />
gewinnen können: die Delta-Funktion im Integranden "bewertet" den Funktionsverlauf f(τ)<br />
überall mit Null, außer im einzigen Punkt τ = t. In diesem Punkt - dem Grenzfall eines mit ∆T<br />
immer kleiner werdenden Intervalls - dürfen wir aber f(τ) als konstant ansehen, es ist also<br />
∞<br />
∫<br />
−∞<br />
∞<br />
( τ) δ ( t − τ) dτ<br />
= f ( t) δ( t − τ) dτ<br />
= f ( t)<br />
∫<br />
f . (1.5)<br />
−∞<br />
Die - vielleicht etwas formale - Ableitung über die Annäherung durch eine Treppenfunktion<br />
zeigt uns jedoch den Inhalt der Betrachtungen klarer an: wir können einen jeden zeitlichen<br />
Verlauf darstellen durch eine Summe gleichartiger, nur gegeneinander verzögerter schmaler<br />
Impulse, die im Grenzfall "nadelförmige" Deltafunktionen werden, wobei die Summe in die<br />
Summation infinitesimal kleiner Größen - ein Integral - übergeht. Es liegt wohl auf der Hand,<br />
dass diese Eigenschaft für die uns interessierenden linearen Systeme sehr nutzbringend ist.<br />
Kennen wir nämlich die Antwort h ∆T (t) des Systems auf einen einzelnen Impuls<br />
Eingang r ∆T<br />
(t) → Ausgang h ∆T<br />
(t)<br />
dann können wir wegen des Superpositionsprinzips die Ausgangsfunktion für eine<br />
Treppenfunktion als Eingang bestimmen. Sie setzt sich nach (1.3) zusammen aus<br />
zeitverzögerten Impulsantworten, die noch mit den "Konstanten" Verstärkungsfaktoren<br />
f(n·∆T) ∆·T zu multiplizieren sind:<br />
y<br />
∆ T<br />
( t) x( n∆T) ∆T h ( t − n∆T)<br />
= ∑ ∞<br />
−∞<br />
∆T
6<br />
Im Grenzfall ∆T 0 ist offensichtlich<br />
( t) x( τ) h ( t − τ) dτ<br />
y = ∫ ∞ (1.6)<br />
−∞<br />
Man zeigt leicht, dass sich 1.6. auch auf die Form<br />
bringen lässt.<br />
( t) x ( t − τ) h ( τ) dτ<br />
y = ∫ ∞ (1.6 a)<br />
−∞<br />
Wir haben damit eine eindeutige Systemcharakterisierung gefunden, wenn nur die Antwort<br />
eines linearen Systems h(t) auf einen anregenden Delta-Impuls δ(t) bekannt ist.<br />
Eingang δ (t) Ausgang h (t),<br />
dann können wir die System-Reaktion für jeden beliebigen Eingang nach (1.6) berechnen. Die<br />
sog. "Impuls-Antwort" h(t) stellt also eine vollständige System-Beschreibung dar.<br />
Gl. (1.6) wird oft als "Faltungsintegral", die entsprechende Operationskette als "Faltung"<br />
bezeichnet. Man sagt kurz: der Ausgang y(t) ist gleich der Faltung des Eingangs x(t) mit der<br />
Impulsantwort h(t). Der Name stammt lediglich davon her, dass h(τ) zur Bildung des<br />
Integranden in (1.6) an der Stelle τ = t "umgeklappt" werden muss (aufgezeichnet auf ein<br />
Blatt wäre dieses zu falten).<br />
Als Operationssymbol für die Faltung wird häufig das Zeichen * benutzt. Man schreibt<br />
y<br />
( t) x ( τ) h ( t − τ) dτ<br />
= ( x ∗ h) ( t)<br />
= ∫ ∞ −∞<br />
Zum Abschluss sei noch erwähnt, dass man zum Faltungsintegral 1.6 auch direkt ohne den<br />
mehr aus didaktischen Erwägungen bevorzugten "Umweg" über die Zerlegung von<br />
Funktionen in Treppengestalt hätte gelangen können. In der Tat genügt es völlig, Linearität<br />
und Zeitinvarianz der Übertragung vorauszusetzen. Sei also mit L die lineare Operation<br />
"Abbildung des Eingangs x auf den Ausgang y" bezeichnet:<br />
( t) L{ x ( t)<br />
}<br />
y =<br />
Nach 1.5 ist dann auch<br />
y<br />
∞<br />
⎧<br />
= ⎨ ∫<br />
⎩<br />
( t) L x( τ) δ ( t − τ)<br />
−∞<br />
⎫<br />
dτ⎬<br />
⎭
7<br />
oder, da L und die Integration beide lineare Operationen sind<br />
y<br />
∞<br />
∫<br />
−∞<br />
( t) x( τ) L{ δ ( t − τ)<br />
}<br />
= dτ<br />
Wegen der vorausgesetzten Zeitinvarianz ist<br />
L<br />
{ δ (t − τ)<br />
} = h(t − τ)<br />
nach Definition der Impulsantwort h, so dass man ebenfalls 1.6 als Ergebnis erhält.<br />
1.2 Der Invarianzsatz<br />
Im vorigen Abschnitt haben wir gesehen, dass die Impulsantwort h(t) eine komplette<br />
Systembeschreibung beinhaltet. Obwohl wir mit dem Faltungsintegral 1.6 und der<br />
Impulsantwort h(t) über ein Werkzeug verfügen, das uns immerhin die Bestimmung eines<br />
Ausgangs y(t) zu einem gegebenen Eingang x(t) erlaubt, ist h(t) eine recht unübersichtliche<br />
Schreibweise des Systemverhaltens. Es dürfte ziemlich schwer fallen, ohne Berechnung von<br />
(vielen?) Faltungsintegralen für entsprechende Eingänge x(t) das "Systemtypische" des<br />
Übertragers "auf einen Blick" aus h(t) herauszulesen.<br />
Wir sind ja aus vielen Betrachtungen (auch) in der <strong>Akustik</strong> bereits gewöhnt, in<br />
Frequenzgängen - reinen Tönen bzw. Zusammensetzungen aus reinen Tönen - zu denken.<br />
Offensichtlich muss auch durch das Werkzeug der Zerlegung von Signalen in "tonale Anteile"<br />
eine Systembeschreibung möglich sein, die darüber hinaus den Vorteil größerer<br />
Anschaulichkeit und Übersichtlichkeit bietet.<br />
Der tiefere Grund dafür, dass zeitlich sinus-förmige Zeitverläufe bevorzugt für die<br />
Beschreibung des Verhaltens von Übertragern benutzt werden, besteht einfach darin, dass<br />
solche Zeitfunktionen stets UNVERZERRT übertragen werden. Mit anderen Worten: liegt am<br />
Eingang eines linearen und zeitinvarianten Systems eine Anregung x(t)=x 0 cos ω t vor, dann<br />
ωt + ϕ .<br />
besteht der Systemausgang STETS ebenfalls in der gleichen Signalform y(t)=y 0 cos ( )<br />
Man kann das unmittelbar und allgemein mit Hilfe des Faltungsintegrals 1.6 zeigen. Ist<br />
nämlich<br />
x(t) = Re<br />
{ j t } xe ω<br />
(1.7)<br />
(die Kenntnis von komplexen Zahlen und der Vorteile der Zeigerschreibweise wird hier<br />
vorausgesetzt), dann folgt aus 1.6a
8<br />
⎪⎧<br />
jωt<br />
∞<br />
− jωτ<br />
⎪⎫<br />
y(t) = Re⎨<br />
xe ∫ h( τ)<br />
e dτ⎬<br />
⎪⎩ − ∞<br />
⎪⎭<br />
⎧ jωt<br />
= Re<br />
⎫<br />
⎨ H( ω)xe<br />
⎬<br />
(1.8)<br />
⎩ ⎭<br />
mit<br />
H( ω)<br />
=<br />
∞<br />
∫<br />
−∞<br />
− jωτ<br />
h( τ)e<br />
dτ<br />
(1.8a)<br />
unabhängig von t. Gleichung 1.8 besagt, dass JEDES lineare und zeitinvariante System auf<br />
einen Eingang in Form eines reinen Tones auch am Ausgang mit einem reinen Ton reagiert.<br />
Lediglich kann das System die Phase des Ausgangs gegenüber dem Eingang verschieben und<br />
die Amplitude bei der Übertragung verändern. Diese beiden Möglichkeiten sind der<br />
komplexen Zahl H<br />
H = H e jϕ (1.9)<br />
zusammengefasst.<br />
Es ist vielleicht überflüssig, darauf hinzuweisen, dass diese Tatsache allgemein nur für reine<br />
Töne zutrifft. Alle anderen Eingangssignale können bei der Übertragung in ihrer Signalform<br />
verändert werden. Man denke nur an das Nachschwingen einer schwach gedämpften Struktur<br />
(z.B. einer Gitarren- oder Klavierseite) nach kurzer Stoßanregung: der Ausklingvorgang hat<br />
zeitlich gar keine Ähnlichkeit mit der Anregefunktion mehr. Als ein Beispiel für viele mag<br />
Bild 1.3 herhalten. Es zeigt den Zeitverlauf der Schwingungsgeschwindigkeit eines mit einem<br />
kurzen Schlag (= Delta-Funktion) zu Biegeschwingungen angeregten Stabes an einer<br />
gewissen Stabstelle (theoretisch gerechnet für einen sehr langen Stab). Die angeregte Delta-<br />
Funktion ist stark "verzogen" und nicht mehr zu erkennen.
9<br />
Ein weiteres Beispiel besteht in einem schmalbandigen Filter, von dem wir wohl erwarten<br />
dürfen, dass was aus einem BELIEBIGEN Eingangssignal einen reinen Ton herausfiltert und<br />
so den Systemeingang in der Signalform sogar erheblich verändert.<br />
Im Grunde bezieht sich die Theorie (und die Praxis) der spektralen Fourrier-Zerlegung von<br />
Signalen ihre Motivation aus dem oben erläuterten "Invarianzprinzip" an linearen,<br />
zeitinvarianten Übertragern bezüglich harmonischer Funktionen (wie reine Töne der Gestalt<br />
1.7 auch genannt werden). Gelingt es nämlich, einen beliebigen Eingang x(t) durch eine<br />
Summe von harmonischen Funktionen mit unterschiedlichen Frequenzen darzustellen, z.B.<br />
x(t) = ∑ x i e jω it<br />
i<br />
(1.10)<br />
dann ist das Übertragungsproblem gelöst, wenn nur die vom System einzig bewirkbare<br />
komplexe Verstärkung H(ω i ) für die Frequenzen ω i bekannt ist:<br />
y(t) = ∑ y i e jw it = ∑ H (ω i ) x i e jω it<br />
i<br />
i<br />
(1.11)<br />
Man nennt H(ω), mit veränderlich gedachter Frequenz, die komplexe Übertragungsfunktion.<br />
Sie stellt offensichtlich eine ebenso komplette Systembeschreibung dar wie die Impulsantwort<br />
h(t). Wenn es nur möglich ist, beliebige, gegebene Signale wie in 1.10 in harmonische
10<br />
Funktionen zu zerlegen, dann ermöglicht uns die Übertragungsfunktion H(ω) die<br />
Berechnung der Systemantwort aus 1.11.<br />
Wir sind damit auf eine mathematische Aufgabenstellung gestoßen, die uns für die<br />
Betrachtung von Übertragungsvorgängen als nutzbringend erscheint: wie muss man - analog<br />
zur in 1.10 ausgedrückten Absicht - verfahren, um ein Signal in harmonische Bestandteile zu<br />
zerlegen, wie ist die genaue Rechenvorschrift, um es aus diesen wieder zusammenzusetzen?<br />
Wie der folgende Abschnitt zeigt, sind diese Betrachtungen vergleichsweise einfach, wenn<br />
wir uns zunächst auf periodische Signale f(t) = f(t + m · T) mit einer Periode T beschränken.<br />
Der Grund dafür besteht einfach darin, dass in einem periodischen Signal nur solche<br />
harmonische Anteile vorkommen können, deren Periodendauern T n ganzzahlig in der<br />
Signalperiode T enthalten sind:<br />
T n<br />
= T n .<br />
Für die Frequenzen heißt das<br />
n<br />
ω<br />
n<br />
= 2π<br />
= n ω0<br />
.<br />
T<br />
Es kommen also nur Vielfache der Signalfrequenz für die harmonischen Bestandteile in<br />
Frage: Wir erhalten also einen Ansatz für das Signal, der nur diskrete Frequenzen enthält. Wir<br />
werden dann im Anschluss an die Betrachtungen periodischer Vorgänge von den dort<br />
gefundenen Ergebnissen ausgehend den Fall immer weiter gesteigerter Periodendauer<br />
betrachten. Wir erhalten dann als Grenzfall T ∞ auch die Möglichkeit, beliebige<br />
"einmalige" Vorgänge einzubeziehen.<br />
1.3 Harmonische Zerlegung periodischer Signale ("FOURIER"-Reihen)<br />
Als Ingenieure und Naturwissenschaftler sind wir ganz allgemein an eine bestimmte<br />
Vorgehensweise bei der Betrachtung von (physikalischen) Vorgängen gewöhnt. Auf Grund<br />
gewisser wohlbegründeter Überlegungen stellen wir ein mathematisches Modell für den<br />
Vorgang auf. Durch Vergleich zwischen der Theorie und geeigneten Messungen werden dann<br />
die im mathematischen Modell enthaltenen Unbekannten bestimmt. Zum Beispiel stellt man<br />
für die Schallausbreitung in Rohren ein mathematisches Modell auf, das aus gegenläufigen<br />
Schallwellen besteht. Es enthält als freien Parameter einen Reflexionsfaktor, der durch<br />
"Anpassung" des mathematischen Modells an die beobachtete Wirklichkeit ermittelt wird.
11<br />
Bei der Zerlegung von periodischen Signalen in harmonische Funktionen können wir analog<br />
vorgehen. Wir definieren uns eine Modellfunktion f M (t), die per Definition aus harmonischen<br />
Bestandteilen zusammengesetzt ist:<br />
N<br />
f<br />
M<br />
( t) = ∑a<br />
n<br />
jnω0t<br />
e . (1.12)<br />
n=−N<br />
Dabei können wir die Summations-Koeffizienten a n als freie Parameter ansehen. Wir werden<br />
nun die Unbekannten a n so bestimmen, dass f M (t) dem gegebenen Verlauf f(t) (der z.B. eine<br />
Messkurve darstellt) möglichst ähnlich wird.<br />
Es gibt mehrere Möglichkeiten, den Begriff "Ähnlichkeit zwischen zwei Funktionen" zu<br />
definieren. Zum Beispiel - und das ist der übliche Weg - kann man versuchen, die<br />
Koeffizienten an in (1.7) so zu bestimmen, dass der quadratische Fehler Q zwischen Modell<br />
und Wirklichkeit<br />
Q = 1 T<br />
∫<br />
T 2<br />
−T 2<br />
f(t)−f M (t)<br />
2<br />
dt (1.13)<br />
so klein wie möglich wird. Wir wollen hier diesen Weg durch eine mehr anschauliche<br />
Vorgehensweise ersetzen, die dafür - so ist es zu hoffen - ein klares Licht auf prinzipielle<br />
Eigenschaften und Abhängigkeiten wirft.<br />
Unseren Ähnlichkeitsbegriff definieren wir im Folgenden durch die Forderung, dass das nach<br />
(1.12) definierte, 2N+1, zunächst unbekannte enthaltene Modell in ebenfalls 2N+1<br />
gleichabständigen Punkten innerhalb einer Periode T mit der "Wirklichkeit" f(t)<br />
übereinstimmen soll (siehe auch Bild 1.4):<br />
( k ⋅ ∆t) = f ( k ⋅ ∆t)<br />
f M<br />
für k = 0,1,2,...2N<br />
und ∆t<br />
= +<br />
T /( 2N 1)<br />
(1.14)
12<br />
Gleichung (1.14) gibt damit Bestimmungsgleichungen für die unbekannten Koeffizienten an<br />
des Signalmodelles f M nach (1.12) an. Setzt man (1.12) in (1.14) ein, so erhält man mit<br />
ω 0 = 2π T und ∆t = T (2N +1)<br />
N<br />
∑<br />
n<br />
n=−N<br />
j2π<br />
nk<br />
2N<br />
+ 1<br />
a e<br />
k = 0,1,2,...,2N<br />
= f (k ⋅ ∆t)<br />
(1.15)<br />
Es ist damit also ein Gleichungssystem aus 2N+1 Gleichungen (Variation von k) mit den<br />
2N+1 Unbekannten an entstanden. Wenn es uns gelingt dieses Gleichungssystem nach den<br />
Unbekannten an aufzulösen, dann haben wir damit gleichzeitig auch einen Beweis der<br />
Lösbarkeit unseres Ausgangsproblems geführt: Wir haben damit gezeigt, dass es eben auch<br />
tatsächlich möglich ist, eine gegebene Funktion f(t) durch eine Funktionenreihe der Form<br />
(1.12) darzustellen, und zwar derart, dass f(t) vom Modell f M (t) in einer beliebig großen (aber<br />
endlichen) Anzahl von Stützstellen völlig korrekt beschrieben wird. Das bedeutet dann, dass<br />
eine beliebig vorgeb bare Funktion f(t) wirklich auch immer durch harmonische Funktionen<br />
wie in (1.12) "beliebig genau" im Sinne der Anpassung in beliebig vielen, beliebig dicht<br />
liegenden Einzelpunkten dargestellt werden kann.<br />
Tatsächlich bereitet die Lösung des Gleichungssystems (1.15) keine Schwierigkeiten.<br />
− j2πmk / 2N+<br />
1<br />
Multipliziert man (1.15) mit e , m zunächst fest gewählt, und summiert<br />
anschließend über k, so erhält man
13<br />
N 2N<br />
∑ a n e j2π(n−m)k 2N<br />
mk<br />
− j2π<br />
N<br />
∑ = ∑ f(k ∆t) e 2N+1 (1.16)<br />
n=− N k=0<br />
k=0<br />
Die innere summe links stellt eine geometrische Reihe der Form<br />
2N<br />
∑ q k<br />
k= 0<br />
= 1 − q2N+1<br />
1− q<br />
(1.17)<br />
n−m<br />
j2π<br />
dar, es ist also mit q = e 2N+1<br />
2N (n−m)k<br />
j2π<br />
e 2N<br />
∑ =<br />
k= 0<br />
⎧ 2N +1 ,n = m<br />
⎨<br />
⎩ 0 ,n ≠ m<br />
(1.18)<br />
Aus der linken Seite von 1.16 verbleibt deshalb nur das Summenfeld mit n=m, es ist also<br />
a m =<br />
2N<br />
mk<br />
1<br />
− j2π<br />
f(k ⋅ ∆t<br />
2N +1<br />
∑ )e 2N+1 (1.19)<br />
k=0<br />
Gleichung (1.19) gibt direkt die Lösung des Gleichungssystems (1.15) an. Zwar ist m zu<br />
Beginn "fest gewählt" worden, aber natürlich darf m dabei nacheinander alle Werte<br />
−N ≤ m ≤ N annehmen.<br />
Wenn wir zunächst "glatte", "nicht springende" - in der mathematischen Sprache ausgedrückt<br />
also stetige Funktionen f(t) betrachten (wie z.B. in den Bildern 1.5a bis c), dann zeigt uns die<br />
Herleitung der "Anpassung in Punkten" das Prinzip der Erfassung von f durch das Modell f M :<br />
je größer die Anzahl der Punkte "mit Übereinstimmung" ist, desto besser wird das Original in<br />
seinen Einzelheiten nachgebildet (Bilder 1.5a bis c). Wie man am Beispiel erkennt, benötigt<br />
man bei Steigerung der Anzahl 2N+1 immer kleinere höherfrequente Korrekturen, die durch<br />
die Hinzunahme von Harmonischen höherer Ordnung bewerkstelligt wird. Es liegt eben<br />
einfach in der Natur "glatter" Funktionsverläufe, dass schnelle Wechsel im Intervall zwischen<br />
zwei Punkten nicht mehr auftreten können, wenn diese Punkte nur einmal einen hinreichend<br />
kleinen Abstand haben. Demzufolge werden hohe Frequenzanteile auch nicht zur<br />
Nachbildung benötigt. Wie auch die Bilder 1.5 zeigen, kann es Probleme nur dort geben, wo<br />
die Änderungen vergleichsweise plötzlich sind: in den Bereichen knickenden Verlaufs. Hier<br />
werden viele Stützstellen benötigt, um den Knick auch detailgetreu zu erfassen; demzufolge<br />
sind dafür auch entsprechend viele Harmonische vonnöten. Insgesamt nehmen wir die<br />
höheren Amplituden dann ab einem gewissen aufwand N rasch ab: die Hinzunahme neuer
14<br />
Punkte und damit neuer Harmonischer "bringt nichts mehr". Die Funktionenreihe (1.12) muss<br />
ziemlich rasch konvergieren, man kann mit endlich vielen Summanden in jedem Kurvenpunkt<br />
eine beliebig genaue Annäherung an f(t) herstellen.
16<br />
Das Gegenteil trifft für unstetige, "springende" Funktionen zu (Bild 1.6 und 1.7a bis d): der<br />
"absteigende Ast" in Bild 1.6, der die beiden stetigen Kurvenstücke miteinander verbindet,<br />
kann bei endlicher Punktdichte gar nicht von einem Punkt getroffen werden, und demzufolge<br />
muss seine Nachbildung immer quasi "ungenügend" bleiben, solange man von einer<br />
endlichen Punktzahl ausgeht. Erst wenn der Abstand der Anpassungspunkte wirklich gegen<br />
Null strebt, kann eine "perfekte Nachbildung" auch gelingen: diese setzt also streng<br />
genommen unendlich viele Summanden in (1.12) voraus. Die Folge der Amplituden an<br />
konvergiert deshalb für unstetige Funktionen sehr viel langsamer gegen Null als für "glatte",<br />
stetige Verläufe. Das bedeutet gleichzeitig, dass unstetige Funktionen stets obertonreich sind,<br />
also "viele" hohe Frequenzen enthalten; hingegen sind stetige Verläufe (nahezu)<br />
bandbeschränkt und tieffrequent.<br />
Die Bilder (1.7a bis d) zeigen durchgerechnete Beispiele für die Nachbildung einer unstetigen<br />
Funktion. Wie man sieht, ist der "Sprungbereich" selbst kritisch. Man benötigt immer mehr<br />
Bestandteile in der Summe (1.12), wenn das Intervall "mit schlechter Nachbildung" um die<br />
Unstetigkeit herum schmaler gemacht werden soll. Offensichtlich nimmt die Breite "der<br />
Problemzone" mit wachsendem Aufwand N ab, sie kann deshalb natürlich auch beliebig<br />
schmal eingestellt werden. Dabei bleibt "das Problem selbst" innerhalb seines (mit<br />
wachsendem N abnehmenden) Intervalls jedoch unverändert: die Nachbildung f M (t) schwingt<br />
über, wobei zwar die Überschwingfrequenz mit N größer und die Überschwingdauer mit N<br />
kleiner wird, die maximale Höhe dieses Effekts bleibt jedoch von N unbeeinflusst. Die<br />
Tatsache, dass sich Fehler in der Nachbildung unstetiger Funktionen mit steigendem N auf ein<br />
immer schmaleres Intervall begrenzen, innerhalb dieses Intervalls jedoch die Abweichungen<br />
quasi nur zusammendrückt, ansonsten aber unverändert bleiben, ist als "Gibbsches<br />
Phänomen" bekannt. Solange die Anzahl der Summenglieder in (1.12) endlich, tritt es stets<br />
auf. Nur wirklich unendlich viele Frequenzbestandteile (und Anpassungspunkte) können die<br />
Breite der "Problemzone" um die Unstetigkeit herum zu Null machen und unstetige<br />
Funktionen so "überall genau" nachbilden. Die Folge der Amplituden an konvergiert deshalb<br />
auch recht langsam gegen Null. Wie man allgemein zeigen kann gilt für unstetige Funktionen<br />
an ~1/n für hinreichend große n.<br />
Aus den genannten Zusammenhängen lässt sich übrigens leicht eine Systematik für die<br />
Konvergenzeigenschaften der vorkommenden Folgen an ableiten. Dazu seien zunächst<br />
"gestückelte", dabei aber stetige Funktionen wie in den Bildern 1.5 betrachtet. Offensichtlich<br />
sind deren erste Ableitungen f'(t) unstetige Funktionen. Da die Ableitung von (1.12)<br />
gleichbedeutend mit einer Multiplikation von an mit n ist, gilt also n ⋅ a n ~1/n<br />
2. Das begründet<br />
auch, dass für die "guten Nachbildungen" in den Bildern 1.5 so viel weniger Summenglieder<br />
notwendig waren als für die Bilder 1.7. Auf gleiche Weise wie eben zeigt man, dass stetige<br />
Funktionen mit stetiger erster, aber unstetiger zweiter Ableitung zu Folgen n ⋅ a n ~ 1/n3 führen.<br />
Allgemein gilt:
17<br />
Sind f(t) und die ersten m Ableitungen von f(t) stetig und ist die (m+1)-te Ableitung<br />
unstetig, dann ist an~ (1/n)m+2 für hinreichend große n.<br />
Natürlich wird uns nun noch die Frage interessieren, in welcher Form die Gleichung zur<br />
Bestimmung der Koeffizienten an (1.19) übergeführt wird, wenn der in N ausgedrückte<br />
"Nachbildungsaufwand" immer mehr und mehr steigt, bis schließlich die Funktion f(t) durch<br />
ihr Modell f M (t) überall korrekt erfasst ist. diese Betrachtung ist gleichbedeutend mit einem an<br />
1.19 zu vollziehenden Grenzübergang N → ∞, bei dem gleichzeitig der Abstand<br />
∆ t = T /( 2N + 1)<br />
zwischen zwei Punkten gegen Null strebt. Mit 1/<br />
( 2N + 1) = ∆T / t wird<br />
zunächst aus 1.19<br />
a n = 1 T<br />
N<br />
∑<br />
n=− N<br />
f(k ⋅ ∆t) e<br />
⎛<br />
⎜<br />
⎝<br />
− j2πn k⋅∆t<br />
T<br />
⎞ ⎟<br />
⎠<br />
∆t<br />
Beim Grenzübergang N → ∞ liegen die Punkte k ⋅∆t nun beliebig dicht, deshalb geht k ⋅∆t<br />
in die kontinuierliche Variable t über, die Summation geht in die Summation infinitesimal<br />
kleiner Elemente - ein Integral also - und ∆t in das infinitesimal kleine Element dt über:<br />
k ⋅ ∆t → t<br />
N<br />
∑...∆t<br />
→ T 2<br />
∫<br />
...dt − T 2<br />
n=− N<br />
Es ist also schließlich<br />
T 2<br />
a n = f(t) e − jnω 0<br />
∫ t dt<br />
(1.20)<br />
−T 2<br />
die Bestimmungsgleichung für diejenige Modellfunktion f M (t), die nun überall mit dem<br />
Original f(t) identisch ist. Es ist also<br />
f M (t) = f(t) =<br />
∞<br />
a n e jnω 0t<br />
∑ (1.21)<br />
n=−∞<br />
eine Identität, wenn die an nach 1.20 berechnet werden.<br />
Abschließend wollen wir noch einmal den Charakter unserer Betrachtungen - die das<br />
Ausdrücken einer Funktion durch eine Funktionenreihe zum Gegenstand hatte - klar<br />
beleuchten. Wir haben zunächst die (als gegebene anzusehende) Funktion f(t) in diskreten<br />
Punkten erfasst. Wir können die Funktionswerte f(k ⋅ ∆t) in diesen diskreten Stützstellen als
18<br />
diejenigen Informationen erfassen, die wir eben über f(t) zur Verfügung haben. Gleichung<br />
1.19 formt nun diese Informationen in eine andere Gestalt - die Amplituden an nämlich - um.<br />
Diese sind dadurch zwar auch "Informationsträger" geworden, aber sie schildern (wie ein<br />
Negativ einer Photographie) dabei doch auch keinen anderen Inhalt als sie Stützstellen des<br />
Originals (der Photoabzug, das Positiv) selbst. So ist es natürlich auch mit der "überall<br />
exakten" Beschreibung 1.20 und 1.21: f(t) und die Folge der an geben sozusagen nur<br />
verschiedene Lesearten ein und desselben Sachverhaltes, der z.B. aus einer Messung<br />
resultiert. Durch "bloße Umrechnung" unter Benutzung von 1.20 von f(t) auf an ist keinerlei<br />
Informationsinhalt hinzugewonnen oder verloren worden. Etwas boshaft könnte man auch<br />
sagen: wir haben reinen Formalismus betrieben. Dass uns dieser jedoch gute Dienste tun<br />
kann, haben wir bereits in den vorangegangenen Abschnitten gesehen. Die<br />
TRANSFORMATION 1.20 des Zeitverlaufs stellt eine Zeitfunktion wie in 1.21 durch eine<br />
Summe vieler reiner Töne dar, ein sehr nützliches Hilfsmittel zur Betrachtung linearer<br />
Übertrager.<br />
1.4 FOURIER-Transformation<br />
Gerade für die letztgenannte Aufgabe - der Charakterisierung linearer Systeme - können wir<br />
natürlich nicht bei periodischen Funktionen stehenbleiben. Vielmehr müssen wir auf den<br />
allgemeinen, nicht-periodischen Fall abzielen. Wir können das tun, indem wir uns zunächst<br />
vorstellen, wir hätten einen t ≤ T / 2 umfassenden Ausschnitt aus einem (nicht-periodischen)<br />
Vorgang erfasst und diesen dann - wie im vorigen Abschnitt - "künstlich" periodisiert. Wenn<br />
nun der Ausschnitt T immer mehr anwächst, dann erfassen wir ein immer größeres Stück aus<br />
dem eigentlich interessierenden Verlauf. Im Grenzfall unendlicher Periode T haben wir dann<br />
schließlich die "ganze Wahrheit" in unserem Blickfeld T.<br />
Wenn die Periodendauer immer größer wird, dann wird der Abstand ∆f = 1/T zweier<br />
benachbarter Frequenzen immer geringer. Im Grenzfall T ∞ ist die Dichte der Frequenzen<br />
beliebig groß. Man muss daher die bei den periodischen Funktionen vorhandene Summe über<br />
diskrete Frequenzen mit zugehörigen diskreten Amplituden in ein Integral überführen. Dabei<br />
muss man beachten, dass die diskreten Amplituden a n mit wachsendem T jedenfalls dann<br />
abnehmen, wenn Funktionen betrachtet werden, die außerhalb eines bestimmten, begrenzten<br />
Zeitintervalls gleich Null sind: es ist ja die Eigenschaft wohl aller akustischen Vorgänge, dass<br />
sie einen Anfang und ein Ende haben.<br />
Wegen a n 0 mit T ∞ wird daher in der FOURIER-Summe 1.21 noch mit<br />
erweitert:<br />
T / T<br />
= T ⋅ ∆f
19<br />
∞<br />
f(t) =<br />
n<br />
∑ a n ⋅ T e jn ω 0 t ∆ f<br />
=-∞<br />
(1.22)<br />
Der Grenzübergang T ∞ muss sich nun auf a n ⋅ T erstrecken, denn nur dieses Produkt nimmt<br />
mit T ∞ einen von Null verschiedenen Grenzwert an, den wir mit F(ω) bezeichnen wollen:<br />
lim a n ⋅ T = F(ω)<br />
T→∞<br />
(1.23)<br />
Gleichzeitig geht ∆f in das infinitesimale Integrationselement df über. Es ist also:<br />
∞<br />
f(t) =<br />
-∞<br />
∫<br />
F(ω) e j ωt 1<br />
df = 2π<br />
∞<br />
∫<br />
-∞<br />
F(ω) e j ωt dω<br />
(1.24)<br />
In gleicher Weise gewinnt man aus der Vorschrift zur Bestimmung der FOURIERkoeffizienten<br />
T/2<br />
a n T =<br />
∫<br />
f(t) e -j n ω 0 t dt<br />
-T/2<br />
(1.25)<br />
die Transformationsgleichung zur Berechnung des sogenannten "Spektrums" F(ω):<br />
∞<br />
F(ω) =<br />
-∞<br />
∫<br />
f(t) e -j ωt dt<br />
(1.26)<br />
Wie man sieht, ist F(ω) eine Amplitudendichte-Funktion. Sie hat die Dimension von f(t) "pro<br />
Hertz":<br />
[ F ] = [ f ]/<br />
Hz<br />
f(t) und F(ω) werden "FOURIER-Transformations-Paar" genannt. F(ω) heißt die<br />
Transformierte von f(t), umgekehrt ist f(t) die Rücktransformierte von F(ω). Dieser<br />
Sachverhalt wird in dieser Vorlesung kurz durch<br />
F = F {f}<br />
f = F -1 {F} (1.27)
20<br />
bezeichnet. Gemeint ist damit immer der Zusammenhang<br />
f ( t) = F -1 F( ω)<br />
F( ω) = F f ( t)<br />
1<br />
2π<br />
∞<br />
∫<br />
−∞<br />
j<br />
{ } = ( ω) ω t<br />
F e dω<br />
∞<br />
∫<br />
−∞<br />
{ } f ( t)<br />
− jωt<br />
= e dt<br />
(1.28 a)<br />
, (1.28 b)<br />
der hier noch einmal zusammenfassend aufgeschrieben worden ist, weil er für diese<br />
Vorlesung von großer Wichtigkeit ist.<br />
Die anschauliche Interpretation des obengenannten FOURIER-Gleichungs-Paars geht bereits<br />
aus dem Ableitungsgang hervor. Die Rücktransformationsgleichung f(t) = F -1 {F(ω)} erklärt<br />
eine beliebige Funktion f(t) als "aus unendlich vielen reinen Tönen zusammengesetzt". Die<br />
Transformationsvorschrift F = F {f} zeigt, auf welche Weise die zugehörigen Amplituden<br />
(eigentlich deren Dichte) ermittelt werden. Man kann daher die Transformationsgleichung als<br />
"mathematisches Filter" interpretieren, welches die Frequenzbestandteile der Zeitfunktion bei<br />
der (zunächst fest gedachten) Kreisfrequenz ω durchlässt und alle anderen Frequenzen<br />
ausblendet. Indem ω variiert wird, erhält man schließlich das ganze komplexe Spektrum F.<br />
1.5 Sätze über die Fourier-Transformation<br />
a) Faltung im Zeitbereich<br />
Wir haben weiter vorn festgestellt, dass jedes lineare System durch Faltung des Eingang-<br />
Zeitverlaufes x(t) mit der Impulsantwort h(t)<br />
∞<br />
∫<br />
−∞<br />
( t) h( τ) ⋅ x( t − τ)<br />
y = dτ<br />
(1.29)<br />
in seinem Ausgang y(t) beschrieben werden kann.<br />
Eine Alternative besteht in der Beschreibung im Frequenzbereich<br />
( ω) = H( ω) X( ω)<br />
Y , (1.30)<br />
wobei X und Y die Fourier-Transformatierten von Eingang und Ausgang darstellen.
21<br />
Beide Methoden der Charakterisierung (ein und desselben) linearen Systems müssen<br />
vollkommen äquivalent sein und ineinander übergehen. Es fragt sich nur noch, wie denn die<br />
Übertragungsfunktion H(ω) und die Impulsantwort h(t) in Zusammenhang stehen. Um es<br />
vorwegzunehmen: natürlich bilden die Funktionen<br />
h (t) = F -1 { ( ω)<br />
}<br />
H (1.31)<br />
ein Fourier-Transformationspaar. Der Beweis ist leicht. Transformieren wir dazu (1.19)<br />
Y<br />
∞<br />
− jωt<br />
− jωt<br />
( ) = y( t) e dt = h( τ) x ( t − τ) dτe<br />
dt<br />
−∞<br />
∞ ∞<br />
ω ∫ ∫ ∫<br />
−∞ −∞<br />
und kehren die Reihenfolge der Integrationen um<br />
Y<br />
( ω) = h( τ) x ( t − τ)<br />
=<br />
∞<br />
∫<br />
−∞<br />
∞<br />
∫<br />
−∞<br />
h<br />
∞<br />
∫<br />
−∞<br />
∞<br />
dt dτ<br />
− jωt<br />
− jω( t−τ) ( τ) e x( t − τ) e d ( t − τ) dτ<br />
∫<br />
−∞<br />
e<br />
− jωt<br />
so erhalten wir<br />
Y<br />
∞<br />
∫<br />
−∞<br />
− jωτ<br />
( ω) = X( ω) h( τ) e dτ<br />
.<br />
Der Vergleich mit (1.20) zeigt<br />
H<br />
∞<br />
∫<br />
−∞<br />
jωt<br />
( ω ) = h( t) e dt<br />
also ist die Übertragungsfunktion gleich der FOURIER-transformierten Impulsantwort.<br />
Mathematisch gesehen haben wir nur gezeigt, dass (1.29) und (1.30) Folgerungen auseinander<br />
sind. Das heißt, dass der Multiplikation zweier Fourier-Transformierter im Zeitbereich die<br />
Faltung der zugehörigen Rücktransformierten entspricht. Diese Tatsache wird als<br />
"Faltungssatz" bezeichnet.<br />
Es ist dieser Faltungssatz, der uns noch einmal deutlich macht, dass die Systembeschreibung<br />
durch die Impulsantwort und durch die Übertragungsfunktion gänzlich äquivalent ist.<br />
Demnach gibt es eine anschauliche Deutung der Tatsache, dass die System-Reaktion h(t) auf<br />
die Impuls-Anregung δ(t) eine so ausgezeichnete Rolle besitzt. Der Grund dafür liegt in der<br />
Gestalt des Spektrums von δ(t). Gl. (1.5) zeigt nämlich, dass das Spektrum ∆(ω)
22<br />
∆<br />
∞<br />
− jωt<br />
( ω) = δ( t) e dt = 1<br />
∫ (1.32)<br />
−∞<br />
ideal breitbandig ist: es besitzt für alle Frequenzen den gleichen Wert 1. Es ist wohl kein<br />
Wunder, dass eine Anregung mit dieser einzigartigen Eigenschaft ideal geeignet ist, in alle<br />
"Frequenzwinkel" des Systems "hineinzuleuchten". Wirklich gibt es kein anderes Eingangs-<br />
Test-Signal endlicher Dauer, das nicht mindestens eine spektrale Nullstelle hätte: jedes andere<br />
Testsignal als die δ-Funktion würde deshalb gewisse Frequenzen überhaupt nicht enthalten<br />
und könnte daher auch nicht "alle Saiten" des Systems "zum Erklingen" bringen.<br />
b) Faltung im Frequenzbereich<br />
Wir werden an späterer Stelle noch sehen, saß auch die Multiplikation von Zeitfunktionen in<br />
der <strong>Signalverarbeitung</strong> eine Rolle spielt (siehe Abschnitt 2.4 "Signalmodelle"). Es seien also<br />
z ( t) = x( t) ⋅ y( t) = F -1 { z ( ω)<br />
}<br />
X ( ω) = F { x }<br />
Y ( ω) = F { y }<br />
dann ist<br />
Z<br />
1<br />
2π<br />
∞<br />
∫<br />
−∞<br />
( ω) = X( u) Y( ω − u)du<br />
(1.33)<br />
Der Beweis ist leicht, wenn man von der letzten Gleichung ausgeht und sie der<br />
Rücktransformation unterzieht. Man zeigt dann wie im vorigen Abschnitt, dass<br />
z t = x t ⋅ y t folgt.<br />
( ) ( ) ( )<br />
Wie man sieht, entspricht der Multiplikation im Zeitbereich die Faltung im Frequenzbereich.<br />
Der Faltungssatz ist umkehrbar, wobei man lediglich noch den Faktor 1 2π<br />
vor dem Integral<br />
bei der "Faltung im Frequenzbereich" beachten muss.<br />
c) Energiesatz<br />
Setzt man im Faltungssatz<br />
1<br />
2π<br />
∞<br />
∫<br />
-∞<br />
∞<br />
H(ω) · F(ω) e j ωt dω = h (τ) · f (t - τ) dτ<br />
∫<br />
-∞<br />
für H(ω)
23<br />
H(ω) = F*(ω)<br />
und entsprechend<br />
h(t) = F -1 {F*(ω)} = f*(-t) ein, so erhält man für t = 0:<br />
1<br />
2π<br />
∞<br />
∞<br />
∫<br />
F(ω) · F*(ω) dω =<br />
∫<br />
-∞<br />
-∞<br />
∞<br />
f*(-τ) f (- τ) dτ =<br />
∫<br />
f (t) f*(t) dt<br />
-∞<br />
(1.34)<br />
Die letzte Gleichung wird Energiesatz genannt.<br />
d) Folgerungen aus der Kausalität<br />
Unter Kausalität eines Systems wollen wir verstehen, dass die Ausgangs-Relation y erst nach<br />
dem Anfang der Eingangs-Anregung x beginnen kann. Insbesondere gilt dann:<br />
x t < 0 = 0 ⇒ y t < 0 = .<br />
( ) ( ) 0<br />
Für reelle Zeitfunktionen f(t) lassen sich die folgenden Symmetrieeigenschaften der FOURIER-<br />
Transformation leicht zeigen:<br />
f(t) reelle Funktion: Im{f(t)} = 0 ⇔ F(ω) = F*(-ω)<br />
f(t) gerade Funktion: f(t) = f(-t) ⇔ F(ω) reell<br />
f(t) ungerade Funktion: f(t) = -f(-t) ⇔ F(ω) imaginär<br />
Nun kann man natürlich jedes f(t) in geraden und ungeraden Anteil zerlegen:<br />
f<br />
1<br />
1<br />
= + [ f ( t) + f ( − t)<br />
]<br />
(1.35)<br />
2 <br />
<br />
2 <br />
<br />
( t) [ f ( t) + f ( − t)<br />
]<br />
fg<br />
( t )<br />
Nach den genannten Symmetrieeigenschaften ist deshalb:<br />
fu<br />
( t )<br />
Re {F(ω)} = F{f g (t)}<br />
jIm {F(ω)} = F{f u (t)} (1.36)<br />
d.h., der Realteil der FOURIER-Transformierten korrespondiert mit dem geraden<br />
Funktionsanteil von f, der Imaginärteil mit dem ungeraden Anteil.<br />
Das hat für kausale Funktionen f(t
24<br />
f g (t > 0)<br />
= f u (t>0)<br />
gelten, denn dann und nur dann ist f(t 0<br />
ist also<br />
f u (t) = sign(t) · f g (t) (1.37)<br />
Da nun für kausale Funktionen der ungerade Anteil f u (t) eindeutig aus dem geraden Anteil<br />
f g (t) hervorgeht, bedeutet dies: wenn der Realteil der FOURIER-Transformation einer kausalen<br />
Funktion gegeben ist, dann ist damit alleine wegen der Kausalität der Imaginärteil von F(ω)<br />
auch bereits festgelegt und kann nicht unabhängig vom Realteil gewählt werden. Wenn am in<br />
1.37 transformiert, so erhält man mit 1.36<br />
F{f u (t)} = jIm{F(ω)} = F{sign(t) f g (t)} = F{sign(t) F-1{Re{F(ω)}}} ,also<br />
Im{F(ω)}=F{-j sign(t) F -1 Re{F(ω)}}} (1.38)<br />
In Worten: Der Imaginärteil der FOURIER-Transformation geht direkt aus dem Realteil der<br />
FOURIER-Transformation hervor, kausale Zeitfunktionen vorausgesetzt. Ist darüber hinaus das<br />
kausale f(t) noch reell, dann genügt für die Festlegung des kompletten Spektrums die Angabe<br />
von Re{F(ω)} für ωε0. In Wahrheit ist das nicht verwunderlich. Bezeichnen wir die<br />
Festlegung einer reellwertigen Funktion entlang einer Halbachse (t > 0 bzw. t < 0 bzw. ω > 0<br />
bzw. ω < 0) als "eine Informationseinheit". Dann enthält eine komplexe Zeitfunktion 4<br />
unabhängige Informationseinheiten. Entsprechend enthält die Transformierte 4<br />
Informationseinheiten, denn Symmetrien sind nicht bekannt. Ist f(t) dagegen reell, dann sind<br />
nur 2 Informationseinheiten in f(t) enthalten. Das gilt auch, wenn man vom Spektrum<br />
ausgeht: Man kann F(ω) nur für ω > 0 frei wählen, die Werte für ω ≤ 0 ergeben sich aus<br />
F − ω = F*<br />
ω . Ist dann f(t) reell und kausal, so ist in f(t) nur noch eine Informationseinheit<br />
( ) ( )<br />
enthalten. Klar, dass dann auch im Spektrum nur eine Informationseinheit vorhanden sein<br />
kann: die Angabe von Re{F(ω)} für ω>0 bestimmt das Spektrum komplett.<br />
Zum Abschluss sei noch erwähnt, dass die obengenannte Operationskette<br />
F {j sign(t) F -1 {X(ω)}} = H{X(ω)} (1.39)
25<br />
als "HILBERT-Transformation" bezeichnet wird. Sie ist keine "Transformation im echten<br />
Sinne" wie die FOURIER-Transformation. Anders als die letztere konstatiert die HILBERT-<br />
Transformation einen Zusammenhang zwischen zwei nicht-unabhängigen Funktionen. Die<br />
FOURIER-Transformation dagegen ist eine "echte Transformation": Sie transformiert ein<br />
Problem von einem "Originalbereich" (t) in einen Bildbereich (ω), wobei das Problem selbst<br />
unverändert bleibt (und umgekehrt).<br />
1.6 Ein Beispiel: der einfache Resonator<br />
Ein in der <strong>Akustik</strong> ziemlich oft vorkommendes Beispiel besteht in einem einfachen<br />
Resonator. Er besteht (Bild 1.8) aus einer Masse m, die mit einer Feder (Steife s) und einem<br />
Reibdämpfer (Reibkonstante r) an einem Fundament befestigt ist.<br />
Nach dem Newtonschen Prinzip, nach dem die auf einen Körper der Masse m wirkende Kraft<br />
zu beschleunigten Bewegungen führt, ist<br />
m d2 x<br />
dt 2 = f − f s − f r , (1.40)<br />
wenn x die Auslenkung der Masse, d 2 x/dt 2 die zugehörige Beschleunigung, f die anregende<br />
Kraft, fs die Federkraft und fr die Reibungskraft bedeuten. Im einfachsten Fall (bei<br />
hinreichend kleinen Bewegungen x nämlich) kann man von einer Hookschen Feder<br />
f s = s⋅ x<br />
und von viskoser Reibung
26<br />
f r = r ⋅ dx<br />
dt<br />
ausgehen. Dann ist<br />
m ⋅ d2 x<br />
dt + r ⋅ dx + s⋅ x = f (1.41)<br />
2 dt<br />
die Bewegungsgleichung.<br />
Wenn man die Kraft f als Anregung (= Systemeingang) und die Auslenkung x als Reaktion<br />
ansieht (= Systemausgang), dann erhält man aus 1.41 für die Übertragungsfunktion<br />
H(ω) = X(ω)<br />
F(ω) = 1<br />
s − mω 2 + jω<br />
(1.42)<br />
(wie man leicht mit<br />
x<br />
jωt<br />
= X e und<br />
f<br />
jωt<br />
= Fe zeigt). Mit den "Abkürzungen"<br />
• Resonanzfrequenz ω = s<br />
0<br />
und (1.43)<br />
m<br />
r ⋅ ω0<br />
r<br />
• Verlustfaktor η = =<br />
(1.44)<br />
s s ⋅ m<br />
kann man auch - etwas übersichtlicher-<br />
H(ω) =<br />
1<br />
s<br />
1− ω2<br />
ω + j η ω (1.46)<br />
2<br />
0<br />
ω 0<br />
schreiben. Bild 1.9 zeigt eine graphische Darstellung für die drei verschiedenen<br />
Verlustfaktoren η.
27<br />
Wenn man von Resonanzgipfel in ω ≅ ω 0<br />
absieht, handelt es sich um einen Messpass,<br />
dessen Frequenzgang mit 12dB/Oktave oberhalb der Resonanz abnimmt. Der Frequenzgang<br />
H(ω) steht z.B. für den eines Kondensatormikrophones, bei dem bekanntlich die<br />
Ausgangsspannung proportional zur Membranauslenkung ist und das im mechanischen<br />
Aufbau (im Wesentlichen) einem einfachen Resonator gleicht.<br />
Die Rücktransformation von H(ω) stellt die Impulsantwort h(t) dar,<br />
h(t) =F -1 {H(ω)}<br />
=<br />
1<br />
2<br />
1<br />
π s<br />
∫ ∞ −∞<br />
e<br />
2<br />
ω<br />
1−<br />
ω<br />
2<br />
0<br />
jωt<br />
dω<br />
ω<br />
+ jη<br />
ω<br />
0<br />
(1.47)<br />
Das Ergebnis der im Prinzip einfachen, aber etwas langwierigen Lösung des Integrals (am<br />
besten mit dem Residuensatz oder mit einer Partialbruchzerlegung, siehe Skript „Theoretische<br />
<strong>Akustik</strong>“ besteht in der kausalen Impulsantwort<br />
h(t)<br />
⎧<br />
⎪<br />
⎨ 1<br />
⎪<br />
⎩mω<br />
0, t < 0<br />
= −ηt<br />
d<br />
e<br />
/ 2<br />
sin ω t<br />
d<br />
(1.48)
28<br />
die aber einen gedämpften Ausschwingvorgang darstellt. Bild 1.10 zeigt die Impulsantwort<br />
für verschiedene Dämpfungen ausgedrückt durch den Verlustfaktor η. Man kann dem Bild<br />
entnehmen, dass Impulsantworten "kurz" oder "lang" sein können, eine vielleicht<br />
selbstverständliche Tatsache, die jedoch bei der Messung von Übertragungseigenschaften von<br />
Systemen (Kapitel 4) eine erhebliche Rolle spielt.<br />
Zum Abschluss sei noch auf die (wohl ebenfalls selbstverständliche, oft aber vergessene)<br />
Tatsache hingewiesen, dass jede Größe an ihre Definition gebunden ist: oben ist H(ω) aus<br />
dem Verhältnis von AUSLENKUNG und Kraft definiert; h beschreibt ebenfalls eine<br />
Auslenkung (nämlich bei der Impulsanregung). Wenn man diese Definition ändert, z.B. auf<br />
Hv(ω) = Schnelle/Kraft = V(ω)/F(ω) übergeht, dann erhält man natürlich auch einen<br />
geänderten Frequenzgang und eine andere Impulsantwort; z.B. ist<br />
und<br />
Hv(ω) = jω H(ω) (1.49)<br />
hv(t) = dh/dt . (1.50)<br />
Diese Bemerkungen sollen nur deutlich machen, dass es "die" Übertragungsfunktion des<br />
einfachen Resonators (als Beispiel) gar nicht gibt; man muss schon dazu sagen, wie sie denn<br />
definiert ist. Das wird oft vergessen und führt dann zu Rätselraten.
30<br />
2. Abtastfolgen<br />
Es ist wohl eine Tautologie: digitale <strong>Signalverarbeitung</strong> geschieht mit Digitalrechnern. Damit<br />
die Computer ein numerisches "Processing" auf Signale durchführen können, müssen sie den<br />
(eigentlich kontinuierlichen) Zeitverlauf der Signalspannung (die ja zum Beispiel zu einer<br />
physikalischen Größe, etwa "Schalldruck" proportional sein kann) erst einmal "in Erfahrung"<br />
bringen.<br />
Dies geschieht mit einem Analog-Digital-Wandler. Er ermittelt in gleichen Zeitabständen ∆t<br />
die Größe der jeweils momentanen Eingangsspannung und leitet diesen Wert als digital<br />
verschlüsselte Zahl an den Rechner weiter, wo die eintreffenden Spannungswerte der<br />
Reihenfolge nach im Speicher abgelegt werden. Man erhält so eine Zahlenfolge x(m) als<br />
Repräsentant der kontinuierlichen Zeitfunktion x(t) (Bild 2.1).<br />
Das n-te Folgen-Element gehört dabei zur Zeit<br />
t = n · ∆t (2.1)<br />
wobei meist statt dem Inkrement ∆t die Abtastfrequenz<br />
f tast<br />
= 1<br />
∆t (2.2)
31<br />
bzw. die Abtastkreisfrequenz<br />
ω tast<br />
= 2π f tast<br />
(2.2a)<br />
als technische Kenngröße angegeben wird.<br />
Praktische AD-Wandler überdecken mit Leichtigkeit den akustisch relevanten Bereich von<br />
Abtastfrequenzen, selbst Werte f tast = 100 kHz stellen heute kein technischen Problem mehr<br />
dar. Die Verwendung eines Digitalrechners zur Datenverarbeitung bringt es also zwangsläufig<br />
mit sich, dass das (eigentlich interessierende) kontinuierliche Signal nur in äquidistanten<br />
Stützstellen bekannt ist. Durch diese "Diskretisierung der Zeit" geht möglicherweise viel von<br />
Information über den kontinuierlichen Zeitverlauf verloren: wir kennen nichts von dem Signal<br />
zwischen den zeitlichen Stützstellen. Wir werden also zu fragen haben: unter welchen<br />
Voraussetzungen ist die Abtastfolge x(m) denn noch ein "vernünftiger" Repräsentant des<br />
kontinuierlichen Vorganges x(t)? Und insbesondere: wie hängen denn die Spektren von<br />
Zahlenfolge x(n) und von Verlauf x(t) zusammen?<br />
Zunächst werden wir diesem Problem nachgehen. Natürlich drängt sich uns gleich noch eine<br />
zweite Frage auf: was ist, wenn die vorgesehene Speicherkapazität nicht ausreicht und nur ein<br />
"Ausschnitt" des Signals zur Verfügung steht? Auch dieses Problem werden wir später<br />
natürlich behandeln. Zunächst wollen wir annehmen, der Speicher stehe unbegrenzt zur<br />
Verfügung und die Konsequenzen der "Diskretisierung der Zeit" diskutieren.<br />
2.1 FOURIER-Transformation von Zahlenfolgen<br />
Da nun kein kontinuierlicher Verlauf x(t) mehr bekannt ist, können wir nur versuchen, die<br />
Berechnungsvorschrift des Spektrums X(ω)<br />
X<br />
∞<br />
∫<br />
−∞<br />
( ω) = x( t)<br />
e<br />
− jωt<br />
dt<br />
(2.3)<br />
durch eine Approximation abzuschätzen.<br />
Schon intuitiv würden wir versuchen, das Integral (2.3) durch eine Summe anzunähern:<br />
( ω) = x( n)<br />
∑ ∞ − jnω∆t<br />
X<br />
S<br />
e ∆t<br />
. (2.4)<br />
n=<br />
−∞
32<br />
Wir erwarten, dass wir dabei eine "Schätzung" X S (ω) für das "wahre" Spektrum X(ω)<br />
bekommen. Natürlich wird uns die Güte der Schätzung interessieren, wir werden also noch<br />
nach den Abweichungen zwischen X S (ω) und X(ω) zu fragen haben.<br />
Um das zu tun, benötigen wir zunächst natürlich wieder "exakte Begriffe", d.h., wir müssen<br />
zunächst die Transformation von Zahlenfolgen definieren und ihre Eigenschaften diskutieren.<br />
Der in (2.4) ausgedrückte "Versuch einer Annäherung an das wahre Spektrum" legt eine<br />
Definition der Abbildungsvorschrift nahe. Setzen wir noch ∆t = 1/f tast (Gl. 2.2) ein, so ist<br />
( ω = 2π f )<br />
1<br />
( ) ∑ ∞ ω<br />
− j2πn<br />
X ω = ( ) ω<br />
S<br />
x n e<br />
tast . (2.5)<br />
f<br />
tast n=<br />
−∞<br />
Das Spektrum X S (ω) hängt - von einer Skalierung abgesehen - nur vom Frequenzverhältnis<br />
f/f tast ab. Offensichtlich ist X S (ω) eine periodische Funktion mit der Periode ω tast :<br />
X<br />
( ω ) = X ( ω + K ω ) ; K = 0, ± 1, 2,<br />
S S<br />
tast<br />
±<br />
…<br />
Wir können daraus schon schließen, dass die Schätzung X S (ω) mit dem wahren Spektrum<br />
X(ω) allenfalls in einem Frequenzintervall übereinstimmen kann, das höchstens die Breite<br />
ω tast besitzt.<br />
Die beiden genannten Eigenschaften "der Schätzung" wollen wir in der Definition der<br />
Folgentransformation ebenfalls vorfinden. Wir definieren daher als Fourier-Transformierte<br />
einer Zahlenfolge<br />
j<br />
( e<br />
Ω ) = x( n)<br />
∑ ∞ − jnΩ<br />
X e . (2.6)<br />
n=<br />
−∞<br />
Unabhängig von einem "Zweck", stellt diese Gleichung einfach eine mathematische<br />
Abbildungsvorschrift - eine Transformationsgleichung - dar, die auf die Folge (x(n)<br />
angewandt wird und X(ejΩ) - das Spektrum der Folge - zum Ergebnis hat. Praktischen Nutzen<br />
erhalten wir aus (2.6), weil wir sie als "Schätzwert-Berechnung" interpretieren dürfen. Es ergibt<br />
sich nämlich<br />
X S (ω) = 1<br />
f tast<br />
X(e jΩ )<br />
mit Ω = 2π<br />
ω<br />
ω tast<br />
(2.7a)<br />
(2.7b)
33<br />
2.2 Eigenschaften der FOURIER-Transformation von Folgen<br />
a) Rücktransformation<br />
Eine Transformationsgleichung ist im Grunde ja nichts weiter als "die Umrechnung von<br />
Informationen (z.B. die in einem Zeitverlauf f(t) enthaltenen Informationen) in eine andere<br />
Darstellungsweise" (z.B. in eine Spektralfunktion F(ω)). Dass darin auch ein Sinn liegt, ist<br />
nicht durch die Abbildungsvorschrift "Transformation" selbst begründet. Erst das Problem,<br />
das durch die Methode des Transformierens gelöst wird (z.B. die Beschreibung des<br />
Übertragungsverhaltens linearer Systeme), deckt den Zweck des Mittels auf.<br />
Die genannte "Informationstreue" zwischen Original- und Bildbereich erwarten wir auch für<br />
die Transformierte X(ejΩ) von Folgen x(n). Es muss also gelingen, die Folge x(n) aus X(ejΩ)<br />
"wiederherzustellen", sonst wäre X keine vollständige Darstellung der in der Folge x(n)<br />
(gleichfalls) enthaltenen Informationen.<br />
Die Bildung der Rücktransformationsvorschrift muss naturgemäß von der<br />
Transformationsvorschrift<br />
jΩ<br />
( e ) =<br />
X F { ( n)<br />
} = x( n)<br />
∑ ∞ − jnΩ<br />
x e<br />
(2.8)<br />
n=<br />
−∞<br />
ausgehen. Zur "Auflösung" von (2.8) nach Folgenelementen x(n) verwendet man die<br />
sogenannte "Orthogonalitäts-Relation" der harmonischen Funktionenfolge e-jnΩ. Wie man<br />
sehr leicht zeigen kann, gilt nämlich<br />
1<br />
π<br />
π<br />
jmΩ<br />
− jnΩ<br />
n<br />
2π<br />
∫<br />
−π<br />
e<br />
e<br />
1<br />
dΩ =<br />
2π<br />
∫<br />
−π<br />
e<br />
j( m−<br />
) Ω<br />
dΩ = δ( m − n)<br />
(2.9)<br />
wobei wir unter der diskreten Delta-Funktion<br />
δ (m-n) = {<br />
1 ; m - n = 0<br />
0 ; m - n ≠ 0 (2.10)<br />
verstehen wollen.<br />
Diese Eigenschaft kann nun benutzt werden, um aus der Summe (2.8) ein Glied<br />
"herauszublenden". Multipliziert man (2.8) mit ejmΩ (m fest gedacht) und integriert, so ist
34<br />
1<br />
2π<br />
=<br />
π<br />
∫<br />
−π<br />
∞<br />
∑<br />
n=−∞<br />
x<br />
∞<br />
π<br />
jΩ<br />
1 j( m−n<br />
)<br />
( ) dΩ = ∑ x( n) ∫ e<br />
X e<br />
n=−∞<br />
2π<br />
( n) ⋅ δ( m − n) = x( m)<br />
−π<br />
Ω<br />
dΩ<br />
Wir haben so (2.8) nach dem m-ten Folgenglied aufgelöst. Natürlich können wir für m jede<br />
ganze Zahl einsetzen, es ist also für alle x(n)<br />
x<br />
π<br />
1<br />
=<br />
2π<br />
∫<br />
jΩ<br />
jnΩ<br />
( n) X( e ) e dΩ<br />
=<br />
−π<br />
F -1 jΩ<br />
{ ( e )}<br />
X (2.11)<br />
die gesuchte Rücktransformationsgleichung.<br />
b) Multiplikation von Spektren (Faltung im Originalbereich)<br />
Ebenso wie bei "kontinuierlichen" Systemen interessiert uns das Übertragungsverhalten<br />
"diskreter" linearer und zeitinvarianter Systeme. Wie in Abschnitt 1 folgt aus der Linearität<br />
(und der Zeitinvarianz), dass die Systemantwort y(n) bei Eingang x(n) durch die Faltung<br />
∞<br />
( n) = h( n − k) x( k) = h( k) x( n − k)<br />
∑<br />
k=−∞<br />
∞<br />
∑<br />
y (2.12)<br />
k=−∞<br />
mit der diskreten Impulsantwort h(n) gegeben ist. Den Beweis erbringt man wie vorne durch<br />
die Darstellung des Eingangs durch eine Summe von Impuls-Anregungen<br />
( n) = x( k) ⋅ δ( n − k)<br />
∑ ∞<br />
k=<br />
−∞<br />
x .<br />
Jeder Einzelimpuls (= jedes einzelne Summenglied) resultiert in einem Teilausgang<br />
n = x k h n − k , die Summation (und das Superpositionsprinzip) liefert (2.12).<br />
y E<br />
( ) ( ) ( )<br />
Natürlich gehört auch diesmal wieder zur Faltung im Originalbereich die Multiplikation der<br />
Spektren im Bildbereich. Wir zeigen dies, indem wir aus (2.12) das Spektrum Y(ejΩ) bilden.
35<br />
∞<br />
∞ ∞<br />
jΩ<br />
− jnΩ<br />
( ) = ∑ y( n) e = ∑ ∑ h( n − k) x( k)<br />
Y e<br />
=<br />
=<br />
=<br />
n=−∞<br />
∞<br />
∑<br />
k=−∞<br />
∞<br />
∑<br />
k=−∞<br />
∞<br />
∑<br />
k=−∞<br />
x<br />
x<br />
x<br />
∞<br />
( k) = h( n − k)<br />
∑<br />
n=−∞<br />
∞<br />
− jkΩ<br />
− j( n−k<br />
)<br />
( k) e h( n − k) e<br />
∑<br />
n=−∞<br />
∞<br />
− jkΩ<br />
− jnΩ<br />
jΩ<br />
jΩ<br />
( k) e ∑ h( n) e = X( e ) H ( e )<br />
n=−∞<br />
n=−∞<br />
k=−∞<br />
e<br />
− jnΩ<br />
Ω<br />
e<br />
− jnΩ<br />
(2.13)<br />
worin H(ejΩ) = F {h(n)} ist.<br />
c) Multiplikation von Folgen<br />
Wir werden bald Anlass zu folgender Frage haben: Wie wirkt sich die Multiplikation zweier<br />
Folgen<br />
y (n) = g (n) · x (n) (2.14)<br />
auf die Spektren aus? Tatsächlich werden wir sehen, dass Folgen (die von Messsignalen<br />
gebildet werden) nur vermittels einer Multiplikation mit einer anderen Folge (der<br />
"Fensterfolge") beobachtet werden.<br />
Natürlich entspricht (2.14) der Faltung im Frequenzbereich. Zum Beweis gehen wir vom<br />
vermuteten Resultat<br />
jΩ<br />
1 j( Ω−ν)<br />
jν<br />
( ) G( e ) X( e )<br />
Y e<br />
π<br />
∫<br />
−π<br />
= dν<br />
2π<br />
(2.15)<br />
aus und zeigen die Identität mit (2.14): Multiplikation mit e-jnΩ und Integration ergibt<br />
y<br />
π<br />
1 jΩ<br />
( n) = ∫ Y( e )<br />
=<br />
=<br />
=<br />
=<br />
2π<br />
1<br />
( 2π)<br />
1<br />
2<br />
( π)<br />
1<br />
2<br />
−π<br />
2<br />
−π −π<br />
π<br />
∫<br />
−π<br />
π<br />
∫<br />
π<br />
π<br />
∫ ∫<br />
( π)<br />
−π<br />
x( n) ⋅ g( n)<br />
j( Ω−ν)<br />
jν<br />
( ) X ( e )<br />
π<br />
jν<br />
1<br />
j( Ω−ν)<br />
( ) G ( ) ∫ ( e )<br />
X e<br />
jν<br />
( )<br />
X e<br />
e<br />
G e<br />
jnΩ<br />
e<br />
dΩ<br />
2π<br />
− jnν<br />
−π<br />
1<br />
2<br />
( π)<br />
π<br />
∫<br />
−π<br />
G<br />
e<br />
jnΩ<br />
dν<br />
dΩ<br />
e<br />
jnΩ<br />
dΩ<br />
dν<br />
j( Ω−ν)<br />
− jn( Ω−ν)<br />
( e ) e<br />
dΩ<br />
dν
36<br />
q.e.d. (N.B.: Dabei ist die triviale Beziehung<br />
+π+α<br />
∫<br />
−π+α<br />
π<br />
jΩ<br />
− jnΩ<br />
jΩ<br />
( ) e dΩ<br />
= ∫ G ( e )<br />
G e<br />
−π<br />
e<br />
− jnΩ<br />
dΩ<br />
benutzt worden, die man leicht aus der Periodizität des Integranden beweisen kann).<br />
d) Energiesatz, Autokorrelierte<br />
Der Energiesatz besagt, dass die "Energie der Folge" gleich der "Energie des Spektrums" ist:<br />
! ∞<br />
1<br />
E = ∑ x<br />
2π<br />
∫<br />
n=−∞<br />
π<br />
2<br />
jΩ<br />
2<br />
( n) = X( e ) dΩ<br />
−π<br />
(2.16)<br />
Zum Beweis geht man vom Faltungssatz<br />
∞<br />
∑<br />
k=−∞<br />
h<br />
π<br />
1 jΩ<br />
jΩ<br />
( n − k) x( k) = ∫ H( e ) X( e )<br />
2π<br />
−π<br />
e<br />
aus, setzt h (n) = x* (-n) (woraus H (ejΩ) = X* (ejΩ) folgt) und erhält die sog. Autokorrelierte<br />
jnΩ<br />
dΩ<br />
a<br />
∞<br />
π<br />
1<br />
jΩ<br />
jΩ<br />
( n) ∑ x *( k − n) x( k) = ∫ X * ( e ) X( e )<br />
jnΩ<br />
= e d<br />
k=−∞<br />
2π<br />
−π<br />
Ω<br />
(2.17)<br />
die offenbar gleich der Rücktransformierten des Betragsquadrates von X (ejΩ) = F {x (n)}<br />
ist.<br />
Wir werden (2.17) und die Autokorrelierte später noch einmal benötigen. Für jetzt genügt<br />
uns, dass (2.16) aus (2.17) mit n = 0 hervorgeht.<br />
Offensichtlich gilt für die Autokorrelierte<br />
a (0) = E<br />
e) Symmetrie<br />
Wenn x (n) reell ist, dann gilt<br />
x (n) reell : X e - jΩ = X* e jΩ (2.18)<br />
(wie man leicht aus der Definitionsgleichung (2.8) zeigt).<br />
Das Spektrum ist also vollständig auch für negative Frequenzen Ω definiert, wenn es im<br />
Intervall 0 ≤ Ω ≤ π bekannt ist. Dem Betrag nach ist das Spektrum symmetrisch, die Phase ist
37<br />
antimetrisch. Handelsübliche Transformatoren ("FFT-Analysatoren") operieren auf<br />
(reellwertigen) Messsignalen und geben nur den positiven Frequenzbereich an.<br />
2.3 Das Abtasttheorem<br />
Nun haben wir uns zwar lange mit den Eigenschaften der Fourier-Transformierten von Folgen<br />
beschäftigt (und diese Eigenschaften werden wir natürlich noch oft benötigen).<br />
Unbeantwortet ist jedoch geblieben: wie hängen denn Spektrum X(ω) eines kontinuierlichen<br />
Messsignals x(t) und Spektrum X(ejΩ) der daraus gebildeten Abtastfolge x(n)<br />
x (n) = x (n · ∆t)<br />
zusammen?<br />
Zur Beantwortung dieser Frage geht man von der Abtastfolge x(n) aus. Weil sie sich sowohl<br />
durch ihr Folgenspektrum X(ejΩ) nach (2.11)<br />
x(n) =<br />
1<br />
2π<br />
π<br />
∫<br />
−π<br />
X(e<br />
jΩ<br />
) e<br />
jnΩ<br />
dΩ<br />
(2.19)<br />
als auch durch das Spektrum des kontinuierlichen Zeitverlaufes X(ω) mit<br />
x(n) = x(n ⋅ ∆t)<br />
=<br />
1<br />
2π<br />
π<br />
∫<br />
−π<br />
X( ω)<br />
e<br />
jω⋅n⋅∆t<br />
dω<br />
(2.20)<br />
nach (1.28a) ausdrücken lässt, bietet sie den Schlüssel zur Bestimmung des Zusammenhanges<br />
zwischen X(ejΩ) und X(ω); es muss nach (2.19) und (2.20) (mit ∆t=2π/ω tast ) nämlich<br />
π<br />
∫<br />
−π<br />
jΩ<br />
jnΩ<br />
X(e<br />
) e dΩ =<br />
∞<br />
∫<br />
−∞<br />
X( ω)<br />
e<br />
j2πn<br />
ω<br />
ω<br />
tast<br />
∆t<br />
dω<br />
(2.21)<br />
sein.<br />
Der Periodizität der Folgen-Transformierten X(ejΩ) mit der Peridenlänge 2π legt eine<br />
Unterteilung des Integrationsintervalles auf der rechten Seite in Teilintervalle nahe, die<br />
ebenfalls die Breite 2π in Ω = 2π (ω/ω tast ) haben, in ω also jeweils das Intervall ω tast<br />
abdecken:
38<br />
∞<br />
∫<br />
−∞<br />
X(<br />
ω)e<br />
j2πn<br />
ω<br />
ω<br />
1<br />
(k+<br />
) ω j2πn<br />
ω<br />
∞ 2 tast<br />
ω<br />
tast dω =<br />
X( ω)e<br />
tast dω<br />
(2.22)<br />
∑<br />
∫<br />
k=−∞<br />
1<br />
(k−<br />
) ω<br />
2 tast<br />
oder, mit der Variablensubstitution ω' = ω-kω/ω tast<br />
j2πn<br />
ω<br />
∞<br />
j2πn ω' +k ω tast<br />
∞ ωtast /2<br />
ω<br />
∫<br />
X(ω)e tast<br />
ω<br />
dω = ∑ ∫<br />
X(ω' +k ω tast )e tast<br />
dω (2.23)<br />
− ∞<br />
k=− ∞<br />
−ω tast /2<br />
Wenn man noch<br />
• e j2πnk =1 berücksichtigt,<br />
• die Reihenfolge von Summation und Integration vertauscht und<br />
• die Summationsreihenfolge "von oben nach unten" festlegt (für k also einfach -k<br />
schreibt) dann erhält man<br />
j2πn<br />
ω<br />
∞<br />
ω ⎧ ∞<br />
⎫<br />
j2πn<br />
ω<br />
ω tast /2<br />
∫<br />
X(ω)e tast ω<br />
dω =<br />
∫ ⎨ ∑ X(ω − k ω tast ) ⎬ e tast dω (2.24)<br />
− ∞<br />
−ω tast /2⎩<br />
k=−∞<br />
⎭<br />
Es ist also nach (2.21) mit Ω = 2π (ω/ω tast ) zusammengefasst<br />
π<br />
∫<br />
X(e jΩ )e jnΩ dΩ<br />
− π<br />
= ω tast<br />
2π<br />
π<br />
⎧ ∞<br />
⎫<br />
∫ ⎨ ∑ X(ω − k ω tast ) ⎬ e jnΩ dΩ<br />
(2.25)<br />
⎩ k= −∞<br />
⎭<br />
−π<br />
Wegen der Eindeutigkeit der Rücktransformation ist also<br />
X(e jΩ )<br />
Ω=2πω/ω tast<br />
= ω tast<br />
2π<br />
∞<br />
∑ X(ω − kω tast )<br />
(2.26)<br />
k = −∞<br />
Gl. (2.19) stellt den gesuchten Zusammenhang zwischen dem Spektrum X(ejΩ) der<br />
Abtastfolge x(n) und dem Spektrum X(ω) des kontinuierlichen Verlaufes dar. Die Aussage<br />
von (2.19) kann man leicht anschaulich machen: offenbar bewirkt die Abtastung in diskreten<br />
Zeitschritten eine "Stapelung" von Frequenzintervallen (den "Blöcken" in Bild 2.2) des<br />
kontinuierlichen Signalspektrums X(ω), der Stapel wird aufsummiert (Bild 2.2).
39<br />
Ein Punkt Ω in X (ejΩ) enthält also die Summe der Spektralwerte von X(ejω) an den Stellen<br />
ω + k ω tast<br />
, k = 0, ±1, ±2, ±3 ...
40<br />
Offenbar werden bei der Abtastung alle um ω tast auseinander liegende Frequenzen als "ein<br />
und dieselbe Frequenz erkannt". Man kann diesen Effekt auch "Frequenzverwechselung"<br />
nennen, im Englischen spricht man von "aliasing".<br />
Nun ist X(ejΩ) ja das aus den Abtastwerten x(n) einzig berechenbare Spektrum, es ist also nur<br />
die Summe der "wahren Spektralanteile" X(ω + k ω tast ) überhaupt berechenbar. Natürlich<br />
kann man den Summenwert nicht mehr im Nachhinein "zerpflücken". Die<br />
Frequenzverwechselung muss also vorab ausgeschlossen werden, damit überhaupt noch eine<br />
eindeutige Zuordnung vom Spektrum X(ejΩ) der Folge zum Spektrum X(ω) des<br />
kontinuierlichen Verlaufes möglich ist.<br />
Im einfachsten (und gebräuchlichsten) Fall sorgt man durch Verwendung eines Tiefpasses mit<br />
dem Durchlassbereich<br />
1 ω ≤ ω<br />
tast<br />
(2.27)<br />
2<br />
für die eindeutige Zuordnung. Alle außerhalb liegende Frequenzanteile von x(t) werden so<br />
herausgefiltert, in Bild 2.2 bleibt so nur noch der Inhalt von Block 0 für X (ejΩ) übrig. Die<br />
Spektren X (ejΩ) und X(ω) sind unter Beachtung der Frequenzzuordnung<br />
− π ≤ Ω ≤ π<br />
1<br />
− ωtast<br />
≤ ω ≤ ω<br />
2<br />
tast<br />
(2.28)<br />
(und abgesehen von einer Multiplikation mit ∆t, einer Konstanten) gleich.<br />
Wir übersehen an Hand des Bildes 2.3, dass die Benutzung des vorgenannten Tiefpasses nur<br />
der einfachste Sonderfall vieler Möglichkeiten bildet, eine "überlappungsfreie" Addition der<br />
Frequenzblöcke zu schaffen.
41<br />
Wir könnten zunächst geneigt sein, alle Blöcke bis auf einen einzigen durch ein<br />
vorgeschaltetes Filter zu löschen. Diese Möglichkeit besteht NICHT: als realisierbare<br />
physikalische Systeme mit reeller Impulsantwort müssen Filter stets eine bezüglich der<br />
Frequenz symmetrische Übertragungsfunktion |H(ω)| = |H(-ω)| besitzen, sie beeinflussen<br />
positive wie negative Frequenzen stets gleichermaßen. Es kann also nur gelingen, X (ejΩ) aus
42<br />
zwei Blockinhalten zusammenzusetzen, wobei je eine Hälfte der beiden Blockinhalte (und<br />
natürlich alle anderen Blöcke) gelöscht werden muss (bei einem: die linke Hälfte, beim<br />
anderen: die rechte Hälfte). Dies kann durch Verwendung eines Bandpasses mit dem<br />
Durchlassbereich<br />
( k + 1) ω / 2<br />
kω / 2 ≤ ω ≤<br />
(2.29)<br />
tast<br />
tast<br />
(offensichtlich die allgemeinere Form von (2.27)) geschehen, der (physikalisch) die<br />
Bandbreite ω tast /2 besitzt. Die Zuordnungen der Frequenzen Ω und ω ergeben sich dann<br />
abschnittsweise aus folgenden linearen Zusammenhängen<br />
- für geradzahliges k = 2 m<br />
0 π Ω<br />
k<br />
ω tast<br />
2<br />
(k+1)<br />
ω tast<br />
2<br />
ω<br />
-π 0 Ω<br />
(2.30a)<br />
−<br />
( k + 1)<br />
ω tast<br />
2<br />
ω<br />
tast<br />
− k<br />
ω<br />
2<br />
- für ungeradzahliges k = 2 m - 1<br />
0 π Ω<br />
−<br />
( k + 1)<br />
ω tast<br />
2<br />
ω<br />
tast<br />
− k<br />
ω<br />
2<br />
-π 0 Ω<br />
(2.30b)<br />
k<br />
ω tast<br />
2<br />
(k+1)<br />
ω tast<br />
2<br />
ω<br />
(offensichtlich die allgemeinere Form von (2.28)).<br />
Schließlich könnte man noch fragen, ob der genannte Bandpass mit der Bandbreite ω tast /2 mit<br />
einer kontinuierlich verschiebbaren Mittenfrequenz ausgestattet werden kann. Bild 2.3 zeigt,<br />
dass diese Möglichkeit nicht besteht: die Blockinhalte überlappen sich in Frequenzbereichen;<br />
nur wenn die Filtergrenzen mit Vielfachen der halben Abtastfrequenz zusammenfallen, ist der<br />
Verwechslungseffekt ausgeschlossen.
43<br />
Die Möglichkeit, schnell veränderte Signale langsam hinter einem Bandpass nach (2.22)<br />
abzutasten, wird Zoom-Technik genannt. Sie bietet einen praktisch sehr wichtigen Vorteil,<br />
der damit im Zusammenhang steht, dass man natürlich auch im Frequenzbereich nur eine<br />
gewisse, begrenzte Anzahl N von diskreten Frequenzpunkten bestimmen kann. Die Anzahl N<br />
der "Stützstellen" im Frequenzbereich ist eine (manchmal in einigen Schritten wählbare)<br />
"Maschinenkonstante" in FFT-Analysatoren und sicherlich begrenzt (typische Werte sind 200,<br />
400, 800; mehr als 1600 kommen wohl nie vor). Diese Zoom- (= Bandpass-) Technik erlaubt<br />
nun ja auch große Verhältnisse f M /f tast von Mittenfrequenz f M des Bandpasses und<br />
Abtastfrequenz. Man kann also f M hoch und f tast klein wählen. Im Resultat heißt das, dass<br />
alle N Frequenzstützstellen dann auf einen schmalen, f tast /2 -breiten Frequenzbereich bei<br />
hoher Mittenfrequenz "verteilt" werden. Man kann so extrem hohe Frequenzauflösungen<br />
erhalten, und das im Grunde in beliebigen Frequenzbereichen.<br />
2.4 Signalmodelle<br />
Die exakte Beschreibung des zeitlichen Verhaltens von Systemen setzt naturgemäß voraus,<br />
dass alle Zeitfunktionen(also Eingang x(t), Impulsantwort h(t) und Ausgang y(t)) für alle<br />
Zeiten −∞ ≤ t ≤ ∞ auch bekannt sind; selbstverständlich ist aber eben nur unter dieser<br />
Voraussetzung z.B. eine Bestimmung des Ausgangs aus Eingang und Impulsantwort für "alle<br />
Zeiten" möglich. Die Notwendigkeit "alles zu allen Zeiten zu wissen" muss sich natürlich im<br />
gesamten benutzbaren mathematischen Apparat niederschlagen: so gehört auch zum Begriff<br />
des Spektrums eines Zeitverlaufes (der Fourier-Transformierten) gehört unabänderlich, dass<br />
es nur dann berechnet werden kann, wenn das Zeitsignal für alle Zeiten bekannt ist. In der<br />
Tat, die in der Rücktransformationsvorschrift<br />
1<br />
2π<br />
∞<br />
∫<br />
−∞<br />
Kont. Zeitsignal: x( t) X( ω)<br />
j<br />
= e<br />
ω t<br />
d<br />
1 jΩ<br />
Folge: x( n) X( e )<br />
π<br />
∫<br />
−π<br />
ω<br />
jnΩ<br />
= e d<br />
2π<br />
ausgedrückte Absicht besteht ja gerade darin, das Signal durch eine Summe von jeweils<br />
"unendlich langen" harmonischen Verläufen zu erklären, wobei die Summation durch ihren<br />
infinitesimalen Grenzfall, die Integration, dargestellt ist. Wir wissen, dass diese<br />
Signalzerlegung ein nützliches Hilfsmittel, z.B. bei der Betrachtung linearer Übertrager,<br />
bildet. Andererseits stehen wir vor der Situation, dass Zeitsignale nicht "unendlich lange"<br />
durch Messung beobachtet werden können. Selbst wenn die Signallänge endlich ist, wird<br />
doch die Beobachtungsdauer in den meisten Fällen wesentlich kleiner sein. Wir kennen also<br />
ω
44<br />
nur ein Stück des Signalverlaufes (das wir natürlich sinnvoll so gewählt haben, dass es<br />
"repräsentativ" für den Gesamtverlauf ist) innerhalb eines "Fensters".<br />
Damit wir trotzdem noch ein Spektrum zuweisen können, ist es zwingend erforderlich,<br />
Annahmen über den weiteren Verlauf des Signals außerhalb des Beobachtungsfensters zu<br />
machen: wir müssen ein Signal-MODELL aus der Kenntnis nur eines Signalstückes<br />
entwickeln. Dabei sind nun viele Möglichkeiten offen, die Extrapolation für Signalteile<br />
außerhalb des Datenfensters aus den Werten innerhalb des Datenfensters vorzunehmen. Die<br />
möglichen Extrapolationsvorschriften können wir in zwei Gruppen zusammenfassen:<br />
1. Am Fenster-Inhalt orientierte Extrapolation<br />
Am sinnvollsten wäre es sicherlich, die in der Beobachtung enthaltenen Informationen<br />
zu nutzen, um das Signalmodell außerhalb des Datenfensters festzulegen. Wenn man<br />
zum Beispiel weiß, dass das Signal nur wenige spektrale Komponenten enthält und<br />
damit eine bestimmte "glatte", periodisch wiederholte Signalform besitzt, dann könnte<br />
man (etwa durch "scharfes Hinsehen") Form und Periodizität aus dem Fensterinhalt<br />
herauslesen und das Signal-Modell mit der herausgefundenen Periodizität fortsetzen.<br />
Wesentlich daran ist, dass die Periodizität dem Signal entnommen wird (und nicht, wie<br />
unter den universellen Extrapolationen, eine künstliche Periodizität postuliert wird).<br />
Wenn solche A-priori-Kenntnisse wie "wenige spektrale Komponenten" vorhanden sind,<br />
dann kann man so offensichtlich ein Signalmodell entwickeln, das dem wahren<br />
Signalverlauf sehr gut angemessen ist. Die Nutzung von Vorkenntnissen zur<br />
Bestimmung von Spektren bildet den Ausgangspunkt von Verfahren, die unter dem<br />
Begriff "modern spectral estimation" zusammengefasst werden. Ihr Nachteil liegt auf<br />
der Hand: man benötigt eben Vorkenntnisse, um sie anwenden zu können. In einigen<br />
Fällen verfügt man ja auch in der Tat über solche Vorab-Einschätzungen (z.B.: "es<br />
handelt sich um Resonanzschwingungen"), in sehr vielen anderen Fällen dagegen (z.B.<br />
bei breitbandigen Übertragern, wie elektroakustische Wandler) scheint ein völlig<br />
unvoreingenommener Standpunkt angemessener. Am Fenster-Inhalt orientierte<br />
Extrapolationen kann man offensichtlich nur "in Spezialfällen" benutzen, die Methoden<br />
können nicht universell auf ALLE Signale angewandt werden.<br />
2. Universelle Methoden<br />
müssen sich darauf stützen, bei der Bildung des Signalmodells möglichst wenig an<br />
Informationen "hinzuzuerfinden". Es bleiben dann nur zwei Möglichkeiten offen:<br />
2a) Endlich langes Signalmodell
45<br />
Man definiert das Signalmodell x M (n)<br />
x M<br />
( n)<br />
⎧ 0 für n < 0, n ≥ N<br />
= ⎨<br />
⎩x( n)<br />
für 0 ≤ n ≤ N −1<br />
so, dass außerhalb der Beobachtung 0 ≤ n ≤ N - 1 alles zu Null gesetzt wird.<br />
2b) Periodisiertes Signalmodell<br />
Man definiert das Signalmodell x p (n)<br />
x p<br />
x<br />
( n) = x( n) für 0 ≤ n ≤ N −1<br />
( n mN) = x ( n) für m = 0, ± 1, 2,<br />
+ …<br />
p p<br />
±<br />
als periodische Fortsetzung des kompletten Fenster-Inhaltes. Dabei wird eine künstliche<br />
Periode benutzt, die gleich der Fensterlänge der Beobachtung ist. Diese künstliche<br />
Periode T hängt in gar keiner Weise mit dem zu untersuchenden Signal x(n) zusammen,<br />
sie ist im Gegenteil vom Anwender des periodisierten Signalmodells WILLKÜRLICH<br />
postuliert worden.<br />
Wir wollen hier die beiden genannten universalen Signalmodelle "einmalig gemachter<br />
Vorgang" und "künstlich periodisierter Vorgang" näher betrachten und die "modernen<br />
Spektral-Schätz-Verfahren" einem späteren Abschnitt vorbehalten.<br />
2.4.1 Einmaliges Signalmodell<br />
Den Vorgang des "einmalig Machens" kann man auch als Multiplikation des wahren Signals<br />
x(n) mit einer Gewichtsfolge g(n) auffassen, das Modell x M (n) geht durch die Operation<br />
x M<br />
( n) g( n) ⋅ x( n)<br />
= (2.31)<br />
aus x(n) hervor, wobei g(n) eine endlich lange Folge<br />
g<br />
( n) = 0 für n < 0, n ≥ N<br />
darstellt. Im einfachsten Fall ist g(n) ein rechteckförmiger Verlauf<br />
g<br />
( n) r( n) = 1 für 0 ≤ n ≤ N −1<br />
= ,
46<br />
den wir dann als "Rechteckfenster" r(n) bezeichnen. Wir werden noch sehen, dass es durchaus<br />
von Vorteil sein kann, Abweichungen vom Wert 1 für g(n) innerhalb des Datenfensters<br />
zuzulassen.<br />
Wir wissen nun von früheren Betrachtungen, dass der Multiplikation im Originalbereich die<br />
Faltung im Bildbereich entspricht (Gl. 2.14 mit Gl. 2.15), es ist also<br />
X<br />
M<br />
1<br />
=<br />
2π<br />
jΩ<br />
jΩ<br />
jΩ<br />
( e ) = G( e ) ∗ X( e )<br />
π<br />
∫<br />
−π<br />
j( Ω−ν)<br />
jν<br />
( ) X( e )<br />
G e<br />
dν<br />
(2.32)<br />
Stets also ist das (einzig auch berechenbare) Spektrum des Signalmodells gleich der Faltung<br />
des Spektrums der Gewichtsfolge G(ejΩ) mit dem "wahren" Signalspektrum X(ejΩ). Wie ein<br />
einfaches Beispiel lehrt, wirkt die Faltung "verschmiert", sie macht einen impulsförmigen<br />
Verlauf des wahren Spektrums X(ejΩ) breiter, glatter: X M (ejΩ) erscheint "vermischt"<br />
gegenüber dem "kontrastreichen" wahren X(ejΩ). Aus diesem Grund nennt man den in (2.25)<br />
niedergelegten Sachverhalt auch "Unschärferelation".<br />
Zur Verdeutlichung benutzen wir das Beispiel eines besonders "kontrastreichen" wahren<br />
Signals der Form<br />
X<br />
jΩ<br />
( e ) = 2π δ( Ω − Ω )<br />
X<br />
(2.33)<br />
das aus einer einzigen spektralen Komponente mit der normierten Signalfrequenz Ω x besteht.<br />
Das Spektrum der Modellfolge ist nach (2.25)<br />
X<br />
M<br />
j<br />
j( Ω−ΩX<br />
)<br />
( e ) G( e )<br />
Ω =<br />
gleich dem von Ω x nach rechts verschobenen Spektrum der Gewichtsfolge. Für das<br />
Rechteckfenster ist beispielsweise<br />
Ω<br />
sin N<br />
Ω / 2 2<br />
∑ (2.34)<br />
n=<br />
0<br />
Ω<br />
sin<br />
2<br />
N−1<br />
jΩ<br />
jΩ<br />
− jnΩ<br />
− j( N−1)<br />
( ) = R( e ) = e = e<br />
G e<br />
n<br />
N<br />
[Beweis: Summenformel der geometrischen Reihe z = ( 1−<br />
z )/( 1−<br />
z)<br />
N 1<br />
∑ −<br />
n=<br />
0<br />
], dessen Verlauf<br />
für N = 20 in Bild 2.4 für eine spektrale Periode wiedergegeben ist. Er ist leicht zu<br />
diskutieren:
47<br />
a) R(ej0) = N<br />
2 π<br />
~ für Ω <<br />
b) Einhüllende: Ω 4<br />
~ 1 für Ω → π<br />
2kπ<br />
R j N<br />
N −1<br />
k = ± 1, ± 2, ± 3, , ± (N = ungeradzahlig)<br />
2<br />
Ω<br />
c) ( e ) = 0 für Ω = ,<br />
also N-1 Nullstellen mit den Abständen ∆Ω = 2π/N. Lücke im ansonsten gleichmäßigen<br />
Nullstellenmuster bei Ω = 0.<br />
d) |R(ejπ)/R(ej0)| = 1/N (N = ungeradzahlig).
48<br />
Weil wir uns aus praktischen Gründen auf ein "einmaliges" Signalmodell eingelassen haben,<br />
bilden wir den eigentlich vorhandenen impulsförmigen Verlauf des Signalspektrums<br />
"imperfekt" durch das Spektrum R(ejΩ) der (rechteckförmigen) Fensterfolge nach. Diese<br />
Nachbildung besitzt eine Struktur aus sog. "Nebenkeulen" und einer "Hauptkeule". Die<br />
Nebenkeulen entfallen auf den spektralen Bereich, in dem "eigentlich" ein spektraler Wert<br />
von Null erwartet werden soll, die Hauptkeule ist quasi eine "endlich breite" Nachbildung des<br />
Impulses selbst. Diese Haupt-Neben-Keulen-Struktur hat deutliche Nachteile. Liegt eine<br />
zweite, zusätzliche spektrale Signalkomponente vor, dann muss man sich das<br />
Gesamtspektrum als Summe zweier gegeneinander um den Frequenzabstand der Teile<br />
verschobene Fensterspektren vorstellen. Abhängig vom Frequenzabstand der Teile darf die<br />
Pegeldifferenz der Amplituden einen gewissen kritischen Wert nicht überschreiten, damit das<br />
Spektrum des schwächeren Signalteiles von den Nebenkeulen des anderen nicht verdeckt<br />
wird: es wäre sonst im Gesamtspektrum nicht mehr zu erkennen.<br />
Wir können die Nebenkeulen des einen Signalteiles als "Fremdgeräusch" für den anderen<br />
Signalteil betrachten, der durch die Fensterung bewirkt wird. Bekanntlich muss man einen<br />
Fremdgeräuschabstand von 10 dB einhalten, damit Ergebnisse mit einer Toleranz von 1dB<br />
erzielt werden.<br />
Je geringer der Frequenzabstand der Signalteile ist, umso restriktiver wird die Forderung an<br />
die noch zugelassene Pegeldifferenz. Liegen die Anteile schließlich beide sogar innerhalb der<br />
Hauptkeule, dann sind sie kaum noch getrennt zu erkennen. Man wird im Fall gleichphasiger<br />
Anteile nur noch schwach ausgeprägte "Doppelmaxima" erhalten, allgemein wird das Resultat<br />
sehr stark von Frequenzabstand, Phasendifferenz und Amplitudenabstand geprägt sein;<br />
Rückschlüsse auf die Bestandteile sind so nahezu unmöglich geworden.<br />
Obwohl die genannten Nachteile die natürlich zu beachtenden Grenzen der Verfahren sicher<br />
korrekt andeuten, muss man sich doch ihre Größenordnung unter praktisch relevanten<br />
Bedingungen vergegenwärtigen. Übliche Abtastfolgen bestehen oft aus 512 (oder 1024)<br />
Stützstellen im Zeitverlauf. Das Rechteckfenster-Spektrum besitzt dann (in einer Periode) 511<br />
(bzw. 1023) gleichabständige Nullstellen, zwischen denen die Nebenkeulen gebildet sind. Die<br />
bei Ω = 0 "fehlende" Nullstelle wird durch die Hauptkeule ersetzt, die - in begrenzenden<br />
Nullstellen ausgedrückt - die Breite des doppelten Nullstellen-Abstandes 2π/N besitzt. Mit<br />
einem so nachgebildeten spektralen Impuls lässt sich für die meisten akustischen Zwecke<br />
durchaus "leben".
49<br />
2.4.2 Diskrete Spektren<br />
Bisher haben wir die spektralen Eigenschaften von Folgen x(n) durch einen kontinuierlichen<br />
Spektralverlauf X(ejΩ) beschrieben. Vom Konzept der Signalbeschreibung her bestand ja<br />
keinerlei Notwendigkeit, irgendwelche Frequenzen vor anderen zu bevorzugen: zwangsläufig<br />
müssen wir daher den Begriff "Frequenz" als Kontinuum auffassen.<br />
Wenn wir nun andererseits die Spektren von einmaligen Signalmodellen praktisch auch mit<br />
einem digitalen Prozessor berechnen wollen, dann werden wir die Berechnungsprozedur auch<br />
nur für eine gewisse, endliche Anzahl von diskreten Stützstellen Ω i durchführen.<br />
Zunächst könnten wir die Stützstellenanzahl dabei natürlich ganz willkürlich, nur an den<br />
Erfordernissen orientiert, festlegen.<br />
Andererseits stellt sich dabei die Frage, wie viele Stützstellen wir im Spektrum (mindestens)<br />
benötigen, damit der Signalverlauf eines einmaligen Vorganges innerhalb des Datenfensters<br />
auch durch die Angabe der spektralen Stützstellen komplett repräsentiert ist: die diskreten<br />
Stützstellen im Spektrum sollen so gewählt werden, dass aus ihnen die Zahlenfolge im<br />
Originalbereich vollständig wiederhergestellt werden kann. Nun ist es klar, dass wir dazu<br />
ebensoviele "spektrale Informationen" benötigen wie "Informationen innerhalb des Datenfensters".<br />
Wenn wir für den allgemeinsten Fall komplexe Zahlenfolgen zulassen, dann enthält<br />
die Folge N komplexe Zahlenwerte. Offensichtlich benötigen wir dann auch N Stützstellen<br />
mit zusammen N komplexen Werten im Spektrum. Wir werden sicher geneigt sein, diese N<br />
spektralen Stützstellen ebenso in gleichabständigen Schritten am kontinuierlichen Spektrum<br />
X(ejΩ) zu bilden, wie wir auch Abtastfolgen als äquidistante Erfassung von Signalverläufen<br />
interpretieren. Wir benutzen also die Frequenzpunkte<br />
2πk<br />
Ω<br />
k<br />
= , k = 0, 1, 2, N −1,<br />
(2.35)<br />
N<br />
die gleichmäßig über eine spektrale Periode 2π verteilt sind, zur Bildung der Spektralfolge<br />
N<br />
∑ − 1<br />
n=<br />
0<br />
jΩ<br />
( ) = X( e ) = x( n)<br />
X k<br />
Ω=Ωk<br />
e<br />
nk<br />
− j2π<br />
N<br />
. (2.36)<br />
Natürlich dürfen wir allgemein alle ganzzahligen k dabei zulassen, denn ebenso wie das<br />
kontinuierliche Spektrum X(ejΩ) ist auch die an ihm gebildete Abtastfolge X(k) periodisch:<br />
( k mN) = X( k) , m = 0, ± 1, 2, <br />
X + ±<br />
(2.37)<br />
zunächst stellt sich wohl die Frage, ob die von uns geforderte "Informationstreue" zwischen<br />
Bildfolge X(k) und Originalfolge x(n) tatsächlich auch vorhanden ist: gelingt es, aus den N<br />
spektralen Stützstellen die Originalfolge wiederherzustellen?
50<br />
Tatsächlich können wir diese Aufgabe leicht lösen. Wir benutzen dazu die<br />
Orthogonalitätsrelation<br />
N<br />
∑ − 1<br />
1<br />
N k=<br />
0<br />
e<br />
( n−m)<br />
k<br />
− j2π<br />
N<br />
⎧ 1 für n − m = 0, ± N, ± 2N<br />
= ⎨<br />
⎩0 für n − m ≠ 0, ± N, ± 2N,<br />
(2.38)<br />
Multipliziert man nämlich (2.29) mit e j2π k m N , summiert über k und dividiert durch N<br />
1<br />
N<br />
N−1<br />
∑<br />
n=<br />
0<br />
mk<br />
N−1<br />
j2π<br />
N<br />
( ) e = x( n)<br />
X k<br />
so erhält man wegen (2.31)<br />
x<br />
1<br />
N<br />
N<br />
∑ − 1<br />
k=<br />
0<br />
( m) = X( k)<br />
e<br />
∑<br />
n=<br />
0<br />
mk<br />
j2π<br />
N<br />
N−1<br />
∑<br />
k=<br />
0<br />
offensichtlich bildet das Gleichungspaar<br />
N<br />
∑ − 1<br />
n=<br />
0<br />
( k) = x( n)<br />
nk<br />
− j2π<br />
N<br />
( n−m)<br />
k<br />
− j2π<br />
N<br />
e<br />
X e<br />
(2.39)<br />
N<br />
∑ − 1<br />
k=<br />
0<br />
nk<br />
j2π<br />
N<br />
1<br />
x ( n) = X( k)<br />
e<br />
(2.40)<br />
N<br />
eine eigenständige Transformation, die sowohl die Berechnung der Bildfolge aus der<br />
Originalfolge wie auch umgekehrt zulässt. Ebenso wie die Originalfolge ist die Bildfolge eine<br />
vollständige Beschreibung "des Vorganges". Diese Transformation zwischen Zahlenfolgen<br />
wird diskrete Fourier-Transformation (DFT) genannt.<br />
Wie gesagt, können wir die spektrale Folge X(k) dabei als Berechnung von Stützstellen am<br />
eigentlich kontinuierlichen Spektrum eines einmaligen Vorganges der Länge N auffassen.<br />
Offensichtlich haben wir dann gerade die zur Erfassung des Signals minimale Anzahl von<br />
spektralen Werten ausgewählt. Jeder darüber hinaus zusätzlich angegebene Punkt X(ejΩ)<br />
würde "kein Mehr" an Informationen über die Signalfolge erbringen, er würde eine<br />
redundante Aussage machen. In der Tat ist das Spektrum X(ejΩ) an JEDER Stelle Ω direkt<br />
aus den spektralen Stützstellen X(k) in Ω = 2πk<br />
N berechenbar, es ist also X(ejΩ) linear<br />
abhängig von der spektralen Zahlenfolge X(k). Wir zeigen das, indem wir in die Transformationsgleichung<br />
(2.6)<br />
X<br />
( Ω N 1<br />
j<br />
e ) = x( n)<br />
∑ −<br />
n=<br />
0<br />
e<br />
− jnΩ
51<br />
(2.40) einsetzen:<br />
N−1<br />
N−1<br />
jΩ<br />
1<br />
( ) = ∑ ∑ X( k)<br />
X e<br />
=<br />
=<br />
n=<br />
0<br />
N−1<br />
∑<br />
k=<br />
0<br />
N−1<br />
∑<br />
k=<br />
0<br />
N<br />
k=<br />
0<br />
( )<br />
X k<br />
( )<br />
X k<br />
⋅<br />
⋅<br />
1<br />
N<br />
1<br />
N<br />
N−1<br />
∑<br />
e<br />
n=<br />
0<br />
1−<br />
e<br />
⎛ k ⎞<br />
− jn⎜<br />
Ω−2π<br />
⎟<br />
⎝ N ⎠<br />
e<br />
⎛ k ⎞<br />
− jn⎜<br />
Ω−2π<br />
⎟<br />
⎝ N ⎠<br />
1−<br />
e<br />
− jNΩ<br />
⎛ k ⎞<br />
− j⎜<br />
Ω−2π<br />
⎟<br />
⎝ N ⎠<br />
(2.41)<br />
(Hier wurde wieder die Summenformel der geometrischen Reihe verwendet.)<br />
Letztlich stellt diese Gleichung nur eine Interpolationsvorschrift dar, mit der sich<br />
"Zwischenwerte" beliebig zwischen den gleichabständigen diskreten Stützstellen berechnen<br />
lassen. Bei Bedarf können wir sie natürlich auch zum "Zeichnen von glatten Verläufen"<br />
benutzen. Andererseits scheint das überflüssige Arbeit zu sein: schließlich sind Spektrum und<br />
Signal durch die Folge X(k) bereits vollständig beschrieben, durch die Interpolation können<br />
wir höchstens "graphisch schönere Bilder zaubern", nicht aber ein mehr an Information<br />
gewinnen. Letzteres ist nur möglich, wenn wir auch ein mehr an Information von Anfang an<br />
benutzen: durch eine Verbreitung des Datenfensters.<br />
Dies ist nur einer der Gründe dafür, dass die Angabe von anderen spektralen Werten<br />
außerhalb der diskreten Stützstellen wenig sinnvoll ist. Die aus der<br />
Rücktransformationsvorschrift (2.40) gebildete Zahlenfolge<br />
x<br />
1<br />
N<br />
N<br />
∑ − 1<br />
k=<br />
0<br />
( n) = X( k)<br />
e<br />
nk<br />
j2π<br />
N<br />
können wir nämlich auch als periodische Folge<br />
( n + m ⋅ N) x( n)<br />
x =<br />
ansehen: wir fassen sie dann als künstlich periodisiertes Signalmodell auf, bei dem eine<br />
Periode mit den Abtastwerten innerhalb des Datenfensters übereinstimmt. In diesem Fall<br />
können im Signalmodell NUR diskrete Frequenzen Ω k = 2π k/N vorkommen, die mit<br />
Vielfachen der durch die Abtastlänge T gegebenen Frequenzen ω k = 2πk/T korrespondieren.<br />
Nun können gar keine anderen Frequenzstellen als diese überhaupt in Betracht gezogen<br />
werden, denn nur diese sind - per Definition des Signalmodells - zugelassen.<br />
Wenn man, umgekehrt, - z.B. bei einem FFT-Analysator - mit einem diskreten Spektrum<br />
konfrontiert wird, so bleibt es einem völlig freigestellt, ob man sich dazu die periodisierte<br />
oder die einmalige Form des Signalmodells als Grundlage vorstellt: beide sind durch die<br />
spektrale Folge X(k) eindeutig bestimmbar. Der einzige Unterschied zwischen beiden
52<br />
Vorstellungen besteht nur darin, dass wir beim einmaligen Vorgang noch "in Gedanken"<br />
interpolieren dürfen.<br />
2.4.3 Diskretisierung des Rechteckfenster-Spektrums<br />
Natürlich interessieren vor allem auch die praktischen Konsequenzen der spektralen<br />
Diskretisierung: was wird real auf dem Bildschirm eines Schmalband-Analysators tatsächlich<br />
dargestellt und wie hängt diese berechnete spektrale Folge mit dem tatsächlichen Signal<br />
zusammen?<br />
Am einfachsten benutzt man zur Diskussion dieser Frage wieder ein "einkomponentiges"<br />
Signal x(n) = ejnΩx ; für andere Signale muss man sich dann noch eine Summation vorstellen.<br />
Nach den im vorigen abschnitt geschilderten Prinzipien wird das wahre Spektrum<br />
jΩ<br />
X( e ) = 2πδ( Ω − Ω<br />
X<br />
) bei Annahme eines "einmaligen" Signalmodelles durch das<br />
Fensterspektrum R(ejΩ) zu<br />
j<br />
( j( Ω−ΩX<br />
))<br />
( ) R( e )<br />
Ω =<br />
X e<br />
nachgebildet, worin - im Fall des Rechteckfensters -<br />
jΩ<br />
− j( N−1)<br />
( ) = e<br />
R e<br />
Ω / 2<br />
Ω<br />
sin N<br />
2<br />
Ω<br />
sin<br />
2<br />
ist. Es hat die Nullstellen Ω = 2πm/N, m = ±1, ±2... .<br />
Wenn wir nun für das um die Signalfrequenz Ω x verschobene Fenster-Spektrum die diskreten<br />
Stützstellen Ω = 2πk/N berechnen:<br />
( )<br />
X k<br />
= e<br />
N−1⎛<br />
2πk<br />
⎞<br />
− j ⎜ −ΩX<br />
⎟<br />
2 ⎝ N ⎠<br />
N ⎛ 2πk<br />
sin ⎜ − Ω<br />
2 ⎝ N<br />
1 ⎛ 2πk<br />
sin ⎜ − Ω<br />
2 ⎝ N<br />
X<br />
⎞<br />
⎟<br />
⎠<br />
⎞<br />
⎟<br />
⎠<br />
X<br />
so hängt der Verlauf von X(k) sehr stark davon ab, ob Ω x "zufällig" mit einer Stützstelle Ω k<br />
zusammenfällt oder nicht.<br />
Mit<br />
ist<br />
Ω<br />
X<br />
=<br />
( k + α)<br />
2π<br />
0<br />
N<br />
, α ≤ 1/ 2
53<br />
( )<br />
X k<br />
= e<br />
( k−k<br />
)<br />
⎛ N−1<br />
2π<br />
0<br />
− j⎜<br />
⎝ 2 N<br />
2π<br />
α<br />
−<br />
N<br />
⎞<br />
⎟<br />
⎠<br />
sin π<br />
⋅<br />
π<br />
sin<br />
N<br />
[( k − k<br />
0<br />
) − α]<br />
[( k − k ) − α]<br />
0<br />
(2.42)<br />
nur für den Fall α = 0, den man in gewissem Sinn auch als den "besten Fall" bezeichnen<br />
könnte. Hierfür ist nämlich<br />
α =<br />
0 :<br />
( )<br />
X k<br />
⎧ 0 für k ≠ k<br />
= ⎨<br />
⎩N für k = k<br />
0<br />
0<br />
innerhalb einer spektralen Periode. Man "erwischt" hier quasi "zufällig" die Nullstellen des<br />
Fensterspektrums R und die Mitte seiner Hauptkeule.<br />
Im Fall α = 0, bei dem die Signalfrequenz mit einer "Analysefrequenz" Ω k = 2πk/N<br />
zusammenfällt, erhält man also ein Spektrum, das gerade nur aus einer Linie (und sonst nur<br />
"Nullen") besteht. Da bei Messungen fast immer ein gewisses Rauschen im Signal enthalten<br />
ist, entsprechen die "Nullen" in der praktischen Benutzung einem (sehr geringen) Pegel.<br />
Beider Darstellung des (Mess-) Ergebnisses auf einem Bildschirm wird (meist) einfach ein<br />
spektraler Punkt mit dem nächsten durch eine (kurze) Linie verbunden, es entsteht also im<br />
"best case" eine Darstellung wie in Bild 2.6a.
55<br />
Im "schlechtesten Fall" α=1/2 dagegen liegt die Signalfrequenz Ω x gerade in der Mitte<br />
zwischen zwei Frequenzstützstellen Ω k . Hier werden gerade die Betragsmaxima in die<br />
Nebenkeulen des Fensterspektrums quasi "zufällig" getroffen (Bild 2.5b).<br />
Auf die Hauptkeule entfallen zwei Linien. Sie sind beide kleiner als das wahre Maximum im<br />
kontinuierlichen Verlauf des Spektrums X(ejΩ). Ist (α) < 1/2, dann sind die beiden Linien<br />
verschieden hoch. α = 1 2 ist der "schlechteste Fall", denn sonst zeigt die größere der beiden<br />
Linien immer einen Wert an, der näher beim wahren Maximum liegt. Wenn man sich nur auf<br />
die Spektrallinien verlässt (und das hier wohl angebrachte Interpolieren zur Berechnung der<br />
wahren Höhe "vergisst"), dann erhält man eine Fehlinterpretation der Signalamplitude. Diesen<br />
"Ablesefehler" nennt man maximalen Amplitudenfehler. Er beträgt nach Gl. (2.35) mit<br />
α = 1 2<br />
( )<br />
X k<br />
=<br />
1<br />
2<br />
≈<br />
0<br />
j0<br />
( ) π π<br />
R e<br />
Nsin<br />
2N
56<br />
das entspricht einer Pegeldifferenz von -3,9 dB. Man würde also einen um 3,9 dB kleineren<br />
Signalpegel ablesen als wirklich vorhanden.<br />
Wenn wieder nur die Punkte X(k) zu einer Kurve miteinander verbunden werden , dann erhält<br />
man im "worst case" α=1/2 eine Darstellung wie im Bild 2.6b, die eine ziemlich breite<br />
spektrale Gestalt quasi "vorspiegelt", denn diese ist gar nicht im Signal selbst, sondern nur in<br />
seinem "Fenstermodell" enthalten.<br />
Zwischen "bestem" und "schlechtesten" Fall existiert natürlich eine ganze Spannweite<br />
verschiedener (diskreter) Spektren. Sie kann laicht aus einer Verschiebung der Stützstellen<br />
am Rechteckfensterspektrum eingeschätzt werden.<br />
2.5 Praktische Rechentechnik<br />
2.5.1 Skalierung, Amplitudenspektrum<br />
Vernünftigerweise wird man für die Rechenvorschrift Gl. (2.29) zur Berechnung der<br />
Diskreten Fourier Transformierten noch mit einem Skalierungsfaktor versehen. Bei<br />
praktischen Messungen ist es wünschenswert, als Anzeige unmittelbar die Größe der<br />
Signalamplitude zu erhalten: Ein Signal der Form x(t) = x 0 cos ω x t soll im davon gebildeten<br />
"Amplitudenspektrum" an der entsprechenden Stelle auch mit dem Wert x 0 versehen sein.<br />
Nun wissen wir, dass wir auf Grund der Unschärferelation (2.32) immer mit einem<br />
Aufspalten der "wahren" Spektrallinie in mehrere Anteile (z.B. in zwei gleich hohe, gefolgt<br />
von einer abfallenden Folge im schlechtesten Fall) zu rechnen habe, was zu einer möglichen<br />
"Fehlablesung" von bis zu 3,9 dB beim Rechteckfenster führen kann. Wir werden diesen<br />
möglichen Fehler natürlich im Kopf behalten müssen und die Skalierung so einrichten, dass<br />
sie wenigstens im "besten Fall" ω = 2πk 0 /T (T = Beobachtungsdauer = künstliche Periode =<br />
hier auch natürliche Periode) die richtige Amplitude x 0 wiedergibt. Die Abtastfolge ist hier<br />
also<br />
nk<br />
nk<br />
⎛ nk ⎞ x ⎛<br />
⎞<br />
x π<br />
(2.43)<br />
0<br />
0<br />
j2π<br />
− j2π<br />
( ) =<br />
0 0<br />
⎜ ⎟ = ⎜ N<br />
N<br />
n x<br />
+<br />
⎟ 0<br />
cos 2<br />
e e<br />
⎝ N ⎠ 2 ⎝<br />
⎠<br />
Definiert man analog zu Gl. (2.36) die nur neu skalierte Form<br />
N<br />
∑ − 1<br />
n=<br />
0<br />
nk<br />
− j2π<br />
N<br />
1<br />
A ( k) = ε( k) x( n)<br />
e<br />
(2.44)<br />
N
57<br />
mit<br />
ε<br />
( k)<br />
⎧1 für k = 0<br />
= ⎨<br />
⎩2 für k = 1, 2, N / 2 −1<br />
(N gerade)<br />
so erhält man für die Abtastfolge (2.43)<br />
A<br />
( k)<br />
ε<br />
=<br />
2<br />
N 1 n<br />
n<br />
( k) 1 − j2π<br />
( k−k0<br />
) − j2π<br />
( k+<br />
k0<br />
)<br />
( k)<br />
x<br />
0<br />
N<br />
∑ −<br />
n=<br />
0<br />
e<br />
N<br />
+ e<br />
ε<br />
A ( k)<br />
= x<br />
0<br />
( δ( k − k<br />
0<br />
) + δ( k + k<br />
0<br />
)).<br />
2<br />
Für alle k 0 (auch für k 0 = 0) gibt<br />
( )<br />
A k<br />
⎧ x<br />
0<br />
für k = k<br />
= ⎨<br />
⎩0 für sonst<br />
0<br />
N<br />
die gewünschte Amplitude an.<br />
Es ist fast immer das nach (2.44) gebildete Amplitudenspektrum, das bei Auswertungen<br />
benutzt wird.<br />
2.5.2 Schnelle Fourier-Transformation (FFT)<br />
Das klassische Mittel zur Berechnung der Transformierten besteht in der sog. "Schnellen<br />
Fourier-Transformation", meist als FFT (Fast-Fourier-Transform) bezeichnet. Die<br />
Grundüberlegung ist leicht verständlich. Um ihre Vorteile zu schildern, muss zunächst zu<br />
Vergleichszwecken die einfachste und langwierigste Methode beschrieben werden. Sie soll -<br />
der Kürze halber - Geradeaus-Methode genannt werden.<br />
Bei ihr würde man die Summe<br />
N<br />
( ) ∑ − 1<br />
− j2π<br />
N<br />
X = ( )<br />
nk /<br />
p<br />
k x n e<br />
(2.45)<br />
n=<br />
0<br />
durch Ausführen der notwendigen Multiplikation in den Summanden und Aufsummieren<br />
bilden, die Rechenvorschrift (2.38) würde "buchstäblich" ausgeführt. Wenn man "eine<br />
Operation" als die Ausführung einer komplexen Multiplikation und einer Addition definiert,<br />
so wären N Operationen für ein k notwendig. Für das komplette Spektrum X p (k) sind also N2<br />
Operationen erforderlich.
58<br />
Die FFT-Methode beruht nun auf der Zerlegung der Summe in zwei Teilsummen, wobei jede<br />
Teilsumme wieder eine vollständige Transformation darstellt. Nimmt man für N eine gerade<br />
Zahl an, so erhält man durch Neuordnen nach geradem und ungeradem Index<br />
X<br />
p<br />
N / 2−1<br />
− j2π<br />
N<br />
( k) = x( 2n) e + x( 2n + 1)<br />
=<br />
∑<br />
n=<br />
0<br />
N / 2−1<br />
∑<br />
n=<br />
0<br />
= X<br />
p, 1<br />
x<br />
2nk<br />
nk<br />
( 2n+<br />
1)<br />
− j2π<br />
N − j2π<br />
N<br />
( 2n) e + e<br />
k / x( 2n + 1)<br />
− j2π<br />
( k) e<br />
k / N<br />
X ( k).<br />
p, 2<br />
N / 2−1<br />
∑<br />
n=<br />
0<br />
N / 2−1<br />
∑<br />
n=<br />
0<br />
e<br />
− j2π<br />
N<br />
e<br />
k<br />
nk<br />
− j2π<br />
N / 2<br />
(2.46)<br />
Wie man sieht, sind durch die Dekomposition zwei neue Transformationen entstanden, die<br />
jeweils nur N/2 Elemente zum Gegenstand haben. Aus den Teil-Transformierten lässt sich<br />
X p (k) konstruieren. Berechnet man nun die beiden N/2-Transformierten getrennt mit der<br />
Geradeaus-Methode, so sind insgesamt 2 (N/2)2 Operationen zu ihrer Bildung nötig. Dabei<br />
ergibt sich, dass auch bezüglich des Index k nur die Hälfte der Rechenoperationen nötig ist,<br />
weil für beide Teil-Transformierten<br />
X p, l (k + N/2) = X p, l (k) für 0 ≤ k= N/2 - 1 und l = 1 oder l = 2 gilt.<br />
Hinzu kommen noch N Operationen zum Zusammensetzen von X p (k), in Summe sind<br />
N(N/2+1) Operationen erforderlich. Der Aufwand ist also nur etwa halb so groß wie bei der<br />
Geradeaus-Methode.<br />
Nun kann man jede Teiltransformation wieder in zwei Teile aufspalten und damit den<br />
Aufwand weiter reduzieren. Es ist also besonders günstig, eine möglichst oft durch 2 teilbare<br />
Zahl als Folgenlänge zu verwenden, am besten eine Zweierpotenz, und in diesem Fall kann<br />
man die Zerlegung so oft vornehmen, bis nur noch Folgen der Länge 1 übrig bleiben, bei<br />
denen die Transformierte mit der aus einem Punkt bestehenden Folge identisch ist. Es bleibt<br />
also nur übrig, die Teile wieder zum Ganzen zusammenzusetzen. Wie man zeigen kann,<br />
beträgt dann der Aufwand an Operationen 2N lg 2 N. Dies bedeutet im Falle N = 1024 = 2 10<br />
die Reduktion des Aufwandes auf etwa den 50sten Teil dessen beim Geradeaus-Algorithmus.<br />
Die Verwendung von Zweierpotenzen als Folgenlänge ist dabei der bekannteste und am<br />
meisten verwendete Sonderfall. Man kann allgemeiner nach jeder natürlichen Zahl zerlegen,<br />
also etwa in drei Teilsummen aufspalten, wenn die Zahl 3 in der Folgenlänge enthalten ist.<br />
Ebenso können beliebige Kombinationen benutzt werden. Neuerdings sind auch Methoden<br />
entwickelt worden, die auch dann noch eine schnelle Transformation ermöglichen, wenn N<br />
nicht eine hochgradig zusammengesetzte Zahl ist.
59<br />
3. Fenster und Gewichtung<br />
Wir haben im vorigen Kapitel die Unschärferelation kennengelernt. Sie besagt, dass die für<br />
einzelne spektrale Komponenten mit Signalformen x(n) = e-jnΩ x eigentlich erwünschte,<br />
impulsförmige spektrale Gestalt durch eine imperfekte Nachbildung dargestellt wird, die aus<br />
dem Spektrum der Fensterfolge G(ejΩ) besteht. Im Falle des Rechteckfensters g = r der Länge<br />
N, zum Beispiel, bilden wir die spektrale Delta-Funktion durch das Fensterspektrum<br />
jΩ<br />
− j( N−1)<br />
( ) = e<br />
R e<br />
Ω<br />
sin N<br />
Ω 2<br />
2 Ω<br />
sin<br />
2<br />
(3.1)<br />
(siehe auch Bild 2.4) und Gl.(2.27) nach. Wir kennen auch die in dieser Imperfektion<br />
begründeten Nachteile: je nach Frequenzabstand lassen sich kleine, zusätzliche Signalanteile<br />
im Spektrum nicht oder nur schwer entdecken, nah benachbarte Frequenzen können nicht<br />
voneinander getrennt werden. Ein Maß für die "Entdeckbarkeit" kleiner Signalbestandteile ist<br />
die Höhe der Nebenkeulen, ein Maß für die Auflösung dichter spektraler Anteile die<br />
Hauptkeulenbreite.<br />
Es ist nun ein naheliegender Gedanke, das Spektrum der Rechteckfolge (3.1) "ein wenig" zu<br />
verformen, um damit die oben genannten Nachteile abzumildern. Da wir dabei das Spektrum<br />
der Fensterfolge verändern, erzeugen wir natürlich gleichzeitig auch andere Gewichtsfolgen<br />
innerhalb des Datenfensters, die natürlich außerhalb der Beobachtung den Wert Null<br />
beibehalten:<br />
g(n) = 0 für n < 0 und n ≥ N .<br />
Die Gewichtsfolgen werden dann nicht mehr in 0 ≤ n ≤ N-1 den konstanten Wert 1 besitzen,<br />
sie bilden - je nach Manipulation ihres Spektrums - einen gewissen, veränderlichen Verlauf.<br />
Diese Tatsache wird uns nicht sehr stören, denn wir wissen, dass wir ohnedies stets zur<br />
Nachbildung der Delta-Funktion durch Fenster-Spektren gezwungen sind (sofern das<br />
Signalmodell entweder ein "einmaliger Vorgang" ist oder aus einer künstlichen<br />
Periodisierung besteht).<br />
Wir werden also im Folgenden Strategien entwickeln, Fensterfolgen so zu erfinden, dass ihr<br />
Spektrum über möglichst geringe Nebenkeulenhöhe und über eine möglichst schmale<br />
Hauptkeule verfügt. Wir werden dabei sehen, dass diese beiden Forderungen einen<br />
Widerspruch darstellen: man kann entweder schmale Hauptkeulen "einstellen" und erhält<br />
dann unvermeidlich "nicht sehr niedrige" spektrale Werte im Restband, oder man kann die
60<br />
Nebenkeulen absenken und verbreitert zwangsläufig die Hauptkeule, beide Forderungen sind<br />
nicht gleichzeitig erfüllbar.<br />
Bei unseren Betrachtungen werden wir uns grundsätzlich auf reellwertige Fensterfolgen g(n)<br />
mit der Symmetrieeigenschaft<br />
g (N-n-1) = g (n) (3.2)<br />
beschränken. Dass wir reelle Fensterfolgen zur Beobachtung reellwertiger Vorgänge benutzen<br />
müssen, steht wohl außer Frage. Dass die Folgen symmetrisch sein sollen, begründet sich aus<br />
der anschaulichen Forderung, dass Signalpunkte "am Fensteranfang" genauso gewertet<br />
werden sollen wie Signalpunkte "am Fensterende".<br />
Fensterfolgen zur gezielten Erzeugung von imperfekten Nachbildungen der spektralen Delta-<br />
Funktion sind natürlich schon seit langem bekannt, sie werden häufig verwendet.<br />
Insbesondere das sogenannte "Hanning-Fenster" (nach seinem Erfinder von Hann, einem<br />
Österreicher, benannt) ist ein üblicher Standard, so dass wir diese Gewichtsfolge schon wegen<br />
ihrer weiten Verbreitung als einleitendes Beispiel betrachten wollen. Die sehr weite<br />
Verbreitung des Hanning-Fensters besitzt etwas Erstaunliches: Wie wir noch sehen werden,<br />
ist das Hanning-Fenster nicht optimal, es "verschenkt" sozusagen ein wenig an der<br />
Möglichkeit, eine optimierte Balance zwischen geringer Nebenkeulenhöhe und kleiner<br />
Hauptkeulenbreite herzustellen. Wir werden darauf noch einmal zurückkommen, wenn wir im<br />
Anschluss Betrachtungen über die gezielte Erzeugung optimierter Fensterfolgen anstellen.<br />
3.1 Das HANNing-Fenster<br />
Das HANNing-Fenster geht in von einem mehr intuitiven Standpunkt aus. Ähnlich wie ein<br />
plötzlicher "Einschaltknack" (z.B. beim Einschalten eines Lautsprechers) ein breitbandiges<br />
Ereignis darstellt, sind offenbar die "plötzlichen" Übergänge an den Rändern des<br />
Rechteckfensters für die durch sein Spektrum zu breit vorgespiegelte Gestalt der<br />
Frequenzinhalte verantwortlich. Man versucht deshalb, für eine künstliche Glattheit und<br />
Stetigkeit der Übergänge an den Rändern zu sorgen, indem man die Hanning-Folge<br />
g<br />
( n)<br />
⎧ 2 π ⎛ 1 ⎞ 2π<br />
⎛ 1 ⎞<br />
⎪2sin<br />
⎜n<br />
+ ⎟ = 1−<br />
cos ⎜n<br />
+ ⎟ in 0 ≤ n ≤ N −1<br />
= ⎨ N ⎝ 2 ⎠ N ⎝ 2 ⎠<br />
⎪<br />
⎩ 0 , sonst<br />
(3.3)<br />
(die auch "Kosinus-Quadrat-" oder "Sinus-Quadrat-"Fenster genannt wird) als Gewichtung<br />
innerhalb des Datenfensters benutzt. Der Vorfaktor 2 wird dabei benötigt, damit der spektrale<br />
Wert G(ejΩ) in Ω = 0 gleichhoch wie beim Rechteckfenster R(ejΩ) = N ist (siehe unten). Man
61<br />
bemerke, dass die durch (3.3) definierte Zahlenfolge die Symmetriebedingung (3.2) erfüllt.<br />
Außerdem enthält g(n) im Definitionsintervall keine "Nullen", d.h. g(n)≠ 0. Die Folge hat<br />
also tatsächlich "die Länge N".<br />
Das Spektrum kann leicht bestimmt werden, mit<br />
π n π n<br />
2π<br />
1 1⎡<br />
j j2π<br />
− j − j2π<br />
⎤<br />
N N N N<br />
cos (n + ) = ⎢e<br />
e + e e ⎥<br />
(3.4)<br />
N 2 2⎣<br />
⎦<br />
ist<br />
G(e<br />
=<br />
jΩ<br />
) =<br />
N−1<br />
∑<br />
n=<br />
0<br />
e<br />
N−1<br />
∑<br />
n=<br />
0<br />
−jnΩ<br />
g(n)e<br />
−<br />
1<br />
e<br />
2<br />
−jnΩ<br />
π<br />
j<br />
N−1<br />
N<br />
∑<br />
n=<br />
0<br />
e<br />
2π<br />
−jn(<br />
Ω− )<br />
N<br />
1<br />
− e<br />
2<br />
π<br />
−j<br />
N−1<br />
N<br />
∑<br />
n=<br />
0<br />
e<br />
2π<br />
−jn(<br />
Ω+ )<br />
N<br />
(3.5)<br />
Jede Summe entspricht dem (verschobenen) Spektrum des Rechteckfensters:<br />
π<br />
2π<br />
π<br />
2π<br />
j ⎛ j( Ω− ) ⎞ − j ⎛ j( Ω+ ) ⎞<br />
jΩ<br />
jΩ<br />
1<br />
= − ⎜ ⎟<br />
1<br />
N<br />
N<br />
N<br />
− ⎜ N<br />
G (e ) R(e ) e R<br />
⎟<br />
e<br />
e R<br />
e<br />
(3.6)<br />
2<br />
⎝ ⎠ 2 ⎝ ⎠<br />
Setzt man hierin das Rechteckfensterspektrum nach (3.1) ein<br />
N −1<br />
N<br />
− j sin Ω<br />
Ω<br />
G(e<br />
j ) = e 2 2<br />
1<br />
sin Ω<br />
2<br />
N ⎛ 2π<br />
⎞<br />
⎜Ω − ⎟<br />
−<br />
1 π N−1⎛<br />
2π<br />
⎞ sin<br />
j − j ⎜ Ω− ⎟<br />
N 2 ⎝ ⎠ 2 ⎝ N<br />
e e<br />
N<br />
⎠<br />
2<br />
1 ⎛ 2π<br />
⎞<br />
sin ⎜Ω − ⎟<br />
2 ⎝ N ⎠<br />
N ⎛ 2π<br />
⎞<br />
⎜Ω + ⎟<br />
−<br />
1 π N−1⎛<br />
2π<br />
⎞ sin<br />
− j − j ⎜ Ω+ ⎟<br />
N 2 ⎝ ⎠ 2 ⎝ N<br />
e e<br />
N<br />
⎠<br />
2<br />
1 ⎛ 2π<br />
⎞<br />
sin ⎜Ω + ⎟<br />
2 ⎝ N ⎠<br />
dann wird wegen<br />
e<br />
π<br />
j<br />
N<br />
e<br />
N−1<br />
2π<br />
j<br />
2 N<br />
= −1<br />
und
62<br />
e<br />
π<br />
− j<br />
N<br />
e<br />
N−1<br />
2π<br />
− j<br />
2 N<br />
= −1<br />
schließlich<br />
jΩ<br />
( e )<br />
N−1<br />
j Ω<br />
2<br />
G = e<br />
⎧ N<br />
⎪sin<br />
Ω<br />
2<br />
⎨ +<br />
⎪<br />
1<br />
sin Ω<br />
⎪⎩<br />
2<br />
1<br />
2<br />
N ⎛ 2π<br />
⎞<br />
sin ⎜Ω − ⎟<br />
2 ⎝ N ⎠<br />
+<br />
1 ⎛ 2π<br />
⎞<br />
sin ⎜Ω − ⎟<br />
2 ⎝ N ⎠<br />
1<br />
2<br />
N ⎛ 2π<br />
⎞⎫<br />
sin ⎜Ω + ⎟<br />
2<br />
⎪<br />
⎝ N ⎠<br />
⎬<br />
1 ⎛ 2π<br />
⎞<br />
sin ⎜Ω + ⎟ ⎪<br />
2 ⎝ N ⎠ ⎪⎭<br />
(3.7)<br />
Das Betragsspektrum |G(ejΩ)| ist durch den Klammerausdruck in (3.7) gegeben, der gebildet<br />
N 1<br />
wird aus der Summe der drei reellwertigen Funktionen sin Ω sin Ω , wobei die beiden<br />
2 2<br />
letzten noch um gerade einen Nullstellenabstand 2π/N nach rechts bzw. nach links<br />
verschoben sind. Eine Darstellung der drei Funktionsanteile gibt Bild 3.1a.<br />
Die Summe der drei Anteile lässt sich wie folgt einschätzen. Im Bereich der Nebenkeulen, für<br />
Ω ≥ 4π , sind die beiden letzten Summanden etwa gerade dem Betrage nach halb so groß wie<br />
N<br />
der erste Summand, sie haben dabei stets das zu ihm entgegengesetzte Vorzeichen: die
63<br />
Funktionswerte heben sich nahezu gegenseitig auf und besitzen deshalb in der Summe sehe<br />
viel kleinere Werte als das Rechteckfenster (das durch den ersten Summanden alleine<br />
beschrieben ist.) Das "Wegheben" ist dabei umso perfekter, je weniger sich die jeweils durch<br />
den Nenner gegebenen Einhüllenden voneinander unterscheiden, und das ist für wachsende Ω<br />
"von der Mitte Ω = 0 weg" immer besser der Fall. Es entsteht so ein spektraler Verlauf des<br />
Hanningfensters wie in Bild 3.1b.
64<br />
Die lineare Skalierung dieses Bildes lässt bei den kleinen Funktionswerten nur noch schwer<br />
die Unterschiede erkennen, die Darstellung in dB zeigt diese dann ziemlich deutlich (Bild<br />
3.1c).
65<br />
Klar geht die eingangs schon anschaulich begründete "Verschmälerung" der spektralen<br />
Gestalt gegenüber den Rechteckfenstern aus den vorgenannten Prinzipien und ihrer<br />
Darstellung in den Bildern 3.1 hervor. Die Verschmälerung kann man auch als Absenkung<br />
der Rechteckfenster-Nebenkeulen durch Benutzung des Hanning-Fensters ansehen; man<br />
spricht deshalb auch von "Nebenkeulen-Unterdrückung". Die Haupt-Nebenkeulen-Abstände<br />
∆ NK (in dB) ergeben sich aus dem Verhältnis<br />
2π<br />
⎛ j (k+<br />
0,5)<br />
( )<br />
⎟ ⎞<br />
j0<br />
V = G e G⎜<br />
e<br />
N<br />
(3.8)<br />
⎝ ⎠<br />
(k = ganze Zahl) zu<br />
∆ NK = 10 lg |V| 2 (3.9)<br />
Für k«N hängen die Werte ∆ NK fast nicht von der Folgenlänge N ab,. Für große Längen N<br />
erhält man die in der folgenden Tabelle angegebenen Abstände<br />
Tabelle 3.1: Haupt-Nebenkeulenabstände / dB<br />
k Rechteckfenster Hanningfenster<br />
1 13,5 entfällt<br />
2 17,9 32,3<br />
3 20,8 41,9<br />
4 23,0 48,7<br />
5 24,8 54,1<br />
6 26,2 58,5<br />
Der Preis für die sehr erhebliche Nebenkeulenunterdrückung besteht darin, dass im Bereich<br />
der beiden ersten Nullstellen neben der Hauptkeule des Rechteckfensterspektrums nunmehr<br />
von Null verschiedene spektrale Werte vorliegen (Bild 3.1b und c). Die ersten, die<br />
Hauptkeule des Hanning-Fenster-Spektrums begrenzenden Nullstellen sind doppelt so weit<br />
von der Hauptkeulen-Mitte entfernt wie beim Rechteck-Fenster-Spektrum.<br />
In den begrenzenden Nullstellen ausgedrückt, ist also die Hauptkeulenbreite gerade doppelt so<br />
groß wie beim Rechteckfenster.<br />
Auch beim Hanningfenster interessiert natürlich vor allem auch die Gestalt der diskreten<br />
Spektren, die sich aus den spektralen Stützstellen Ω = 2πk/N ergeben, wobei wie beim<br />
Rechteckfenster ein "guter" und ein "schlechter" Fall (bezüglich eines möglichen<br />
Amplitudenfehlers) zu berücksichtigen ist. Im
66<br />
a) "Best case" Ω x = 2πk 0 /N (Bild 3.1d)<br />
stimmt die Signalfrequenz Ω x wieder mit einer "Analysefrequenz" Ω x überein.<br />
Auch hier werden gerade die Nullstellen der spektralen Fensterfunktion "zufällig getroffen"<br />
(Bild 3.1d). Weil die Hauptkeule jedoch doppelt so breit ist wie beim Rechteckfenster<br />
entfallen auf sie diesmal DREI spektrale Punkte, deren mittlerer die Signalamplitude<br />
repräsentiert (Bild 3.1d). Wenn man die Punkte noch zu einer Linie verbindet, dann erhält<br />
man eine Gestalt in Form eines Obelisken (Bild 3.1d). Beim<br />
b) "Worst case" Ω x = (2πk 0 /N) + 0,5 (Bild 3.1e)<br />
liegt die Signalfrequenz Ω x in der Mitte zwischen zwei "Analysefrequenzen Ω x ", es werden<br />
also gerade die Betragsmaxima der Nebenkeulen getroffen, die hier allerdings sehr viel<br />
rascher "von der Mitte weg" abnehmen als beim Rechteckfenster. Darin besteht ja gerade der<br />
Grund für die Verwendung des Hanning-Fensters.
67<br />
Weil die Hauptkeule des Hanning-Fenster-Spektrums doppelt so breit ist wie beim<br />
Rechteckfenster entfallen hier im "worst case" vier spektrale Stützstellen auf sie. Daraus<br />
ergibt sich bei Verbindung nur der spektralen Punkte zu einer Linie ein Verlauf "mit Plateau<br />
in der Mitte" wie in Bild 3.1e.<br />
Der maximale Amplitudenfehler bestimmt sich durch die beiden mittleren Spektrallinien im<br />
"worst case" aus dem Verhältnis der Spektralwerte in Ω = 0 und Ω = π/N.<br />
Mit<br />
jπ<br />
N<br />
( )<br />
G e<br />
π<br />
sin<br />
=<br />
2<br />
π<br />
sin<br />
2N<br />
π<br />
sin<br />
1<br />
+<br />
2<br />
2 π<br />
sin<br />
2N<br />
+<br />
3<br />
sin π<br />
1 2<br />
2 3π<br />
sin<br />
2N<br />
1,5 0,5<br />
= −<br />
π 3π<br />
sin sin<br />
2N 2N
68<br />
≈<br />
1,5 ⋅2N 0,5 ⋅ 2N<br />
−<br />
π 3π<br />
= 2,6667 ⋅ N<br />
π<br />
(3.10)<br />
(für große N) und |G(e j0 )| = N ergibt sich<br />
j0<br />
( )<br />
jπ<br />
N<br />
( )<br />
G e<br />
G e<br />
π<br />
= = 1,18<br />
2,6667<br />
(3.11)<br />
Das entspricht einem maximalen Amplitudenfehler von 1,4 dB für das Hanningfenster, doch<br />
deutlich weniger als beim Rechteckfenster mit 3,9 dB.<br />
Noch einmal zusammenfassend zeigt Bild (3.2) zeigt die schmäleren Ausschnitte aus<br />
Hanning- und Rechteck-Fenster-Spektren nach deren Diskretisierung.<br />
Während im Falle eines Signals, das mit einer Spektrallinie in der Frequenz zusammenfällt,<br />
das Rechteckspektrum tatsächlich auch nur "in einem Punkt" besteht (Kurve 1), wird der<br />
spektrale Peak beim Hanning-Fenster durch drei, Dreieckförmig angeordnete Punkte gebildet
69<br />
(Kurve 2). Der Grund besteht in der breiten Hauptkeulengestalt des Hanning-Fensters, von<br />
der Mitte weg ist die nächste Nullstelle gerade 2 Frequenzinkremente entfernt. Liegt die<br />
Signalfrequenz gerade in der Mitte zwischen zwei diskreten Frequenzstellen, so liegen in<br />
beiden Fällen rechts und links von der wahren Signalfrequenz gleich hohe Stützstellen vor<br />
(Kurven 3 und 4). Sie liegen für das Rechteckfenster um 3,9 dB, für das Hanning-Fenster um<br />
1,4 dB unter der wahren Amplitude. In diesem Fall ist das mit dem Rechteckfenster<br />
bestimmte Spektrum wesentlich breiter.<br />
3.2 Die Herstellung von Gewichtsfolgen<br />
Wir wollen nun Strategien entwickeln, mit denen Gewichtsfolgen so hergestellt werden<br />
können, dass ihre Spektren in einem von uns gewünschten Sinne eine "optimale"<br />
Nachbildung der eigentlich idealen Delta-Funktion im Spektralbereich darstellen.<br />
Zunächst müssen wir uns die Bedingungen, unter denen die Entwicklung solcher<br />
Gewichtsfolgen stehen, noch einmal deutlich machen:<br />
a) die Folge soll die endliche Länge N besitzen:<br />
g(n) = 0 für n < 0 und n ≥ N<br />
b) die Folge soll reell und symmetrisch sein:<br />
g(N-1 - n) = g(n).<br />
Für gerade Folgenlängen N = 2M ist also zur Definition der Folge die Angabe von N/2, für<br />
ungerade Folgenlängen die Angabe von (N+1)/2 reellen Zahlenwerten erforderlich. Natürlich<br />
ist dann auch das Spektrum G(ejΩ) durch die gleiche Anzahl von Freiheitsgraden vollständig<br />
festgelegt. Umgekehrt dürfen wir dann aber auch nur N/2 (bzw. (N+1)/2 Freiheitsgrade im<br />
Spektrum benutzen, um es festzulegen.<br />
Würden wir mehr Bedingungen stellen (z.B., indem wir in sehr vielen Punkten einen<br />
spektralen Wert vorgeben), dann würden wir zwangsläufig auch eine Rücktransformierte<br />
größerer Länge oder (und) ohne Symmetrieeigenschaft erhalten.<br />
Nun zeigt ja schon die Definitionsgleichung<br />
N−1<br />
jΩ<br />
− jΩ<br />
( ) ∑g( n)( e ) n<br />
G e<br />
= ,<br />
n=<br />
0<br />
dass Spektren (endlich langer Folgen) immer Polynome in e-jΩ einer durch die Folgenlänge<br />
gegebenen Ordnung sind. Umgekehrt erhalten wir also stets eine durch die Ordnung
70<br />
festgelegte Folgenlänge, wenn wir das Spektrum durch ein Polynom beschreiben. Auf welche<br />
Weise wir das definierende Polynom bestimmen, sei es durch Angabe von Stützstellen, sei es<br />
durch Angabe von Nullstellen, sei es durch Angabe seiner Koeffizienten (dann hätten wir die<br />
Folge g(n) selbst angegeben), das hängt davon ab, was wir von G(ejΩ) erwarten.<br />
Bevor wir darauf näher eingehen, müssen wir noch betrachten, auf welche Weise sich die<br />
geforderte Symmetrie im Spektrum ausdrückt. Es ist wegen g(n) = g(N-1 - n):<br />
Für geradzahlige N<br />
N−1<br />
jΩ<br />
( ) = ∑g( n)<br />
G e<br />
=<br />
=<br />
=<br />
n=<br />
0<br />
= e<br />
= e<br />
N / 2−1<br />
∑<br />
n=<br />
0<br />
N / 2−1<br />
∑<br />
n=<br />
0<br />
N / 2−1<br />
∑<br />
n=<br />
0<br />
g<br />
g<br />
g<br />
e<br />
− jnΩ<br />
− jnΩ<br />
( n) e + g( n)<br />
− jnΩ<br />
− j( N−n−1)<br />
( n) e + g( N − n −1) e<br />
Ω<br />
[ ]<br />
− jnΩ<br />
− j( N−n−1)<br />
( n) e + e<br />
N−1<br />
− j Ω N / 2−1<br />
2<br />
∑<br />
n=<br />
0<br />
N−1<br />
− j Ω<br />
N / 2−1<br />
2<br />
∑<br />
n=<br />
0<br />
g<br />
( n)<br />
2g<br />
( n)<br />
N−1<br />
∑<br />
n=<br />
N / 2<br />
N / 2−1<br />
∑<br />
n=<br />
N / 2<br />
⎡<br />
⎢e<br />
⎢⎣<br />
e<br />
⎛ N−1<br />
⎞<br />
j⎜<br />
⎟Ω<br />
⎝ 2 ⎠<br />
− jnΩ<br />
+ e<br />
⎛ N−1<br />
⎞<br />
− j⎜<br />
−n<br />
⎟Ω<br />
⎝ 2 ⎠<br />
⎛ N −1<br />
⎞<br />
cos⎜<br />
− n⎟Ω<br />
⎝ 2 ⎠<br />
⎤<br />
⎥<br />
⎥⎦<br />
Ω<br />
(3.12)<br />
Für ungeradzahlige N<br />
N−1<br />
jΩ<br />
( ) = ∑g( n)<br />
G e<br />
n=<br />
0<br />
= g<br />
= g<br />
= e<br />
⎛<br />
⎜<br />
⎝<br />
⎛<br />
⎜<br />
⎝<br />
e<br />
N −1⎞<br />
⎟ e<br />
2 ⎠<br />
N −1⎞<br />
⎟ e<br />
2 ⎠<br />
N−1<br />
− j Ω<br />
2<br />
⎧<br />
⎪<br />
⎨g<br />
⎪<br />
⎩<br />
− jnΩ<br />
⎛<br />
⎜<br />
⎝<br />
N−1<br />
− j Ω<br />
2<br />
N−1<br />
− j Ω<br />
2<br />
+<br />
+<br />
N −1⎞<br />
⎟ +<br />
2 ⎠<br />
N−1<br />
−1<br />
2<br />
∑<br />
n=<br />
0<br />
g<br />
N−1<br />
−1<br />
2<br />
∑<br />
n=<br />
0<br />
N−1<br />
−1<br />
2<br />
∑<br />
n=<br />
0<br />
− jnΩ<br />
( n) e + g( n)<br />
− jnΩ<br />
− j( N−1−<br />
n ) Ω<br />
( g ( n) e + g ( N −1−<br />
n) e )<br />
2g<br />
N−1<br />
∑<br />
N−1<br />
n=<br />
+ 1<br />
2<br />
⎛ N −1<br />
⎜<br />
⎝ 2<br />
( n) cos − n .<br />
e<br />
− jnΩ<br />
⎫<br />
⎞ ⎪<br />
⎟Ω<br />
⎠<br />
⎬<br />
⎪<br />
⎭<br />
(3.13)<br />
In beiden Fällen erhalten wir die Darstellung<br />
N−1<br />
− j Ω<br />
jΩ<br />
⎛ Ω<br />
2<br />
⎞<br />
( e ) e P ⎜cos<br />
⎟<br />
⎠<br />
G =<br />
N−1<br />
⎝<br />
2<br />
(3.14)
71<br />
des Spektrums G durch ein Polynom N-1-ter Ordnung, vorausgesetzt nur, wir machen uns<br />
klar, dass cos (M Ω/2) selbst ein Polynom der Ordnung M in cos (Ω/2) ist. Das aber ist leicht<br />
aus Additionstheoremen zu zeigen:<br />
Aus<br />
2 cos M Ω 2 cos 2 Ω 2 = cos (M+2) Ω 2 + cos (M-2)Ω 2 (3.15)<br />
und<br />
cos 2 Ω 2 = 2 cos2 Ω<br />
2<br />
- 1<br />
(3.16)<br />
folgt<br />
cos (M+2) Ω 2 = 2 cos M Ω 2 2 cos2 Ω<br />
2<br />
- 1 - cos (M-2) Ω 2 . (3.17)<br />
Darin ist der Beweis enthalten (durch Induktion), dass cos ( M Ω ) ein Polynom der Ordnung<br />
2<br />
⎛ Ω ⎞<br />
M in cos ⎜ ⎟ ist:<br />
⎝ 2 ⎠<br />
a) Es ist cos(0) = 1 und cos (2 2<br />
Ω ) ein Polynom der Ordnung 2, also ist [M = 2 in (3.8)] cos<br />
(4 2<br />
Ω ) ein Polynom der Ordnung 4 mit nur geraden Exponenten, also ist cos ((M+2) 2<br />
Ω )<br />
ein Polynom der Ordnung M+2 mit nur geraden Exponenten, falls M geradzahlig ist.<br />
⎛ Ω ⎞<br />
b) Es ist cos ⎜ ⎟ ein Polynom der Ordnung 1. Also ist [M = 1 in (3.8)] cos (3<br />
⎝ 2 ⎠<br />
Polynom der Ordnung 3 mit nur ungeraden Exponenten, also ist cos ((M+2)<br />
Polynom der Ordnung M+2 mit nur ungeraden Exponenten, falls M ungeradzahlig ist.<br />
Ganz offensichtlich zeigt Gl. (3.8), dass in (3.5 a,b,c)<br />
Ω ) ein<br />
2<br />
Ω ) ein<br />
2<br />
⎛ Ω ⎞<br />
P N-1 (cos Ω/2) ein Polynom der Ordnung N-1 in cos ⎜ ⎟<br />
⎝ 2 ⎠<br />
ist, wobei in P N-1<br />
- nur ungerade Exponenten vorkommen, wenn N geradzahlig und<br />
- nur gerade Exponenten vorkommen, wenn N ungeradzahlig ist.
72<br />
Im Fall geradzahliger N erhalten wir dann sogar zwangsläufig eine Nullstelle im Polynom P N-<br />
⎛ Ω ⎞<br />
1 für cos ⎜ ⎟ = 0, es ist also für geradzahlige N:<br />
⎝ 2 ⎠<br />
⎛ Ω ⎞<br />
⎜cos<br />
⎟<br />
⎝ 2 ⎠<br />
P N − 1<br />
Ω=±π<br />
=<br />
0<br />
Wir erkennen an diesen Betrachtungen die verlangte "Informationstreue" zwischen Originalund<br />
Bildbereich: Enthält das Polynom der Ordnung N-1 nur ungerade Exponenten<br />
(geradzahlige N), dann können N/2 Koeffizienten "frei gewählt" werden; auch die<br />
symmetrische Rücktransformierte der Länge N besitzt N/2 Freiheitsgrade. Enthält das<br />
Polynom der Ordnung N-1 nur gerade Exponenten (ungeradzahlige N), dann können (N+1)/2<br />
Koeffizienten gewählt werden; auch symmetrische Rücktransformierte besitzen (N+1)/2<br />
Freiheitsgrade.<br />
Die Koeffizienten des Polynoms<br />
⎛<br />
Ω ⎞<br />
N 1<br />
P N 1<br />
cos ∑ − − ⎜ ⎟ =<br />
2 n = 0<br />
⎝<br />
⎠<br />
c<br />
( n)<br />
⎛ Ω ⎞<br />
⎜cos<br />
⎟<br />
⎝ 2 ⎠<br />
n<br />
(3.18)<br />
sind dabei natürlich nicht mit den Folgeelementen g(n) identisch, im Gegenteil ist es sogar<br />
sehr umständlich, den Zusammenhang zwischen c(n) und g(n) auszudrücken. Wir werden<br />
diesen Zusammenhang aber auch gar nicht explizit benötigen: Haben wir nur einmal das<br />
Polynom und damit das Spektrum definiert, so können wir die zugehörige Gewichtsfolge<br />
durch Rücktransformation gewinnen, wobei wir die in Kapitel 2.3 und 2.4 gewonnenen<br />
Erkenntnisse nutzen. Wir brauchen nur die äquivalenten Stützstellen Ω n = 2π U N am<br />
definierten Spektrum der (inversen) FFT zu unterziehen, um die Zahlenwerte numerisch zu<br />
berechnen.<br />
Nachdem wir nun die prinzipiellen Eigenschaften symmetrischer, endlich langer Folgen<br />
kennen, wenden wir uns der Frage zu, wie denn die Polynome P N-1 (cos Ω/2) für die<br />
Erzeugung "guter" Gewichtsfolgen beschaffen sein müssen. Nun ist ja für den<br />
Funktionsverlauf eines Polynoms die Lage der Nullstellen entscheidend. Ist ein betrachteter<br />
Punkt U in einem Polynom P N-1 (U) "in der Nähe" einer Nullstelle U o [P N-1 (U o ) = 0], dann ist<br />
auch der Funktionswert P N-1 (U) vergleichsweise klein. Ist dagegen der betrachtete Punkt U<br />
von allen Nullstellen "weiter weg", dann ist auch der Funktionswert P N-1 (U) vergleichsweise<br />
groß. Daraus folgt das unabänderliche Prinzip aller Gewichtsfolgen: Es bleibt gar nichts<br />
anderes übrig, als die Nachbildung der eigentlich erwünschten spektralen Deltafunktion δ(Ω)<br />
so vorzunehmen, dass im Bereich Ω ≠ 0 - entsprechend cos Ω/2 ≠ 1 - so viele Nullstellen wie<br />
eben möglich angesiedelt werden, wobei der Punkt Ω = 0 (entsprechend cos Ω/2 = 1) von den
73<br />
Nullstellen schon "etwas weiter entfernt sein soll". Just durch diese anschauliche Vorstellung<br />
kann man alle Gewichtsspektren deuten.<br />
So wird beim Rechteckfenster offenbar die Hauptkeule durch das "Fehlen" einer Nullstelle<br />
U=0 im ansonsten regelmäßigen Nullstellenmuster Ω = 2πU<br />
N , U = ± 1, ± 2 erzeugt. Die<br />
spektralen Werte zwischen den Nullstellen - die Nebenkeulen - ergeben sich dann daraus,<br />
dass quasi "nicht genügend" Nullstellen wegen der gegebenen Folgenlänge verfügbar sind.<br />
Alle Kunst der Gestaltung besteht nun letztlich darin, die Nullstellen des Rechteck-Fenster-<br />
Spektrums "ein wenig" zu verschieben und damit Details am spektralen Verlauf zu<br />
beeinflussen. Auf diese Weise kann man sich zum Beispiel das Hanning-Fenster erzeugt<br />
vorstellen: Es entsteht einfach durch das Weglassen der ersten beiden Nullstellen im<br />
Rechteckfenster-Spektrum. Es kann deshalb in seiner Gesamtheit offenbar gar kein<br />
"optimales" Fenster sein: Optimal im Sinne abgewogener Forderungen nach kleiner<br />
Hauptkeulenbreite und gleichfalls kleiner Nebenkeulenhöhe kann nur ein Fenster sein, bei<br />
dem keine spektrale Nullstelle "verschenkt" wird: Alle N–1 verfügbaren Nullstellen müssen<br />
zur Formung verwendet werden.<br />
Wenn wir es besser machen wollen, dann müssen wir die Anzahl N–1 der überhaupt<br />
möglichen spektralen Nullstellen beibehalten und nur ihre Lage ein wenig manipulieren.<br />
Verschieben wir beispielsweise - ausgehend vom Rechteckfenster-Spektrum - die ersten<br />
Nullstellen von Ω = 0 weg etwas weiter nach außen, dann werden sich die größten<br />
Nebenkeulen verringern. Gleichzeitig aber verbreitern wir zwangsläufig die Hauptkeule. Wir<br />
sehen: Man kann nicht beides haben; kleine Nebenkeulen und schmale Hauptkeulen sind sich<br />
widersprechende Forderungen. Wir können entweder versuchen, kleine Nebenkeulen<br />
einzustellen und müssen dann die nun einmal erzeugte Hauptkeule in Kauf nehmen; oder wir<br />
benutzen schmale Hauptkeulen um den Preis höherer Nebenkeulen. Kein Fenster kann dieses<br />
Prinzip durchbrechen.
74<br />
4. Die Verwendung stationärer Zufallsprozesse als Messsignale<br />
Eine (nicht nur) in der <strong>Technische</strong>n <strong>Akustik</strong> oft vorkommende Messaufgabe besteht darin, die<br />
Übertragungsfunktion H(ω) eines (linearen, zeitinvarianten) Systems durch Messung zu<br />
bestimmen. Zu diesem Zweck wird der Eingang des Systems (in Bild 4.1 ist es zum Beispiel<br />
der Kraft-Zeit-Verlauf eines zu Biegeschwingungen angeregten Stabes) mit einem gewissen<br />
Zeitsignal versorgt. Dieses Anregesignal und das daraus resultierende Ausgangssignal (im<br />
Beispiel des Bildes 4.1 die Beschleunigung eines gewissen Stabpunktes) werden vom FFT-<br />
Analysator registriert und zur Berechnung der Übertragungsfunktion weiterverarbeitet. Das<br />
Anregesignal wird dabei einem Generator entnommen, der oft Bestandteil des Analysators ist.<br />
Eine noch offene Frage besteht dabei vor allem in der Auswahl des Anregesignales x(t). In<br />
Wahrheit hängt die Antwort darauf sehr von den Umständen ab. Zum Beispiel<br />
• bevorzugt man für extrem schwach gedämpfte oder sehr schwer anregbare Strukturen<br />
(wie etwa Eisenbahnwaggons oder Flugzeuge) MONOFREQUENTE Anregungen, um ein<br />
möglichst großes Signal in einer schmalen Bandbreite zu konzentrieren. Die Frequenz<br />
wird dann allmählich gleitend geändert (sine-sweep), so dass sich "langfristig" ein<br />
breitbandiges Signal ergibt.<br />
• erlauben manchmal die Messbedingungen nur kurzzeitige, impulsförmige Anregungen.<br />
Das ist zum Beispiel der Fall, wenn der Freifeld-Frequenzgang von Lautsprechern<br />
gemessen werden soll, ein reflexionsfreier Messraum jedoch nicht zur Verfügung steht.<br />
Man schneidet dann das Ausgangssignal vor Eintreffen der ersten Reflexion von einer<br />
Wand ab; es sind natürlich möglichst kurze Signale dabei erwünscht.<br />
Andererseits haben sowohl "sine-sweep" als auch "impulse" Signale entscheidende Nachteile.<br />
Im ersten Fall kann die Messdauer außerordentlich lang sein (die sine-sweep Vermessung<br />
eines Eisenbahnrades mit außerordentlich kleiner Dämpfung kann sich über einige Stunden<br />
erstrecken), ein nicht immer angemessener Aufwand. Man bedenke auch, dass (z.B. bei der<br />
Modalanalyse) sehr viele Übertragungsfunktionen gemessen werden müssen.<br />
Auch die Messung mit kurzen Impulsen kann erhebliche Probleme aufwerfen. Im Interesse<br />
einer großen Signalbandbreite muss die Impulsdauer möglichst klein sein. Weil dabei (wegen<br />
möglichen Nichtlinearitäten oder gar System-Beschädigungen) die Impulshöhe nicht beliebig<br />
groß gemacht werden kann, ist die mit einem Impuls eingeleitete Signalenergie stark<br />
beschränkt. Sehr oft ist andererseits ein unerwünschtes Eigenrauschen in der Messkette<br />
vorhanden, das häufig in (empfindlichen) Messverstärkern besteht. Eine "gute<br />
Messauswertung" erfordert ein hohes Signal/Rauschverhältnis, für dieses Ziel ist eine<br />
Impulsanregung vom Prinzip her nicht gerade gut geeignet.<br />
Im Grunde lässt sich das Problem dadurch beschreiben, dass die beiden genannten<br />
Signaltypen "in einer Ebene breit, in der anderen Ebene dagegen schmal" sind: Sinus-Signale<br />
sind "zeitlich" gut verteilt, die Signalenergie ist in vielen Zeitpunkten enthalten, dafür ist das<br />
Spektrum außerordentlich schmal; der Impuls ist zwar breitbandig, dafür ist seine Energie nur<br />
innerhalb einer sehr kleinen Dauer gespeichert. Ein ideales Messsignal müsste die beiden<br />
erwünschten "breiten" Eigenschaften miteinander verbinden: es müsste sowohl "zeitlich gut<br />
besetzt" (mit der Folge guten Rauschabstandes) als auch breitbandig sein (mit der Folge guter<br />
Messzeiten).<br />
Es ist seit langem bekannt, dass ein solches erwünschtes Messsignal durch das sogenannte<br />
"Weiße Rauschen" zur Verfügung steht, das "die Breite auf beiden Ebenen" miteinander<br />
verbindet. Die vielleicht einfachste Vorstellung, die man von diesem Rauschvorgang
75<br />
gewinnen kann, besteht in einer völlig regellosen und zufälligen Abfolge von Zahlenwerten.<br />
Solche Vorgänge "ohne System" in einer Abfolge von Zahlen sind zum Beispiel<br />
• die Zahlenfolge, die beim wiederholten Werfen mit einem Spielwürfel entsteht,<br />
• die Folge, die (ähnlich wie eben) beim Münze Werfen entsteht (dabei werden Vorder- und<br />
Rückseite je einer bestimmten Zahl zugeordnet, z.B. +1 und -1, aber auch jedes andere<br />
Zahlenpaar kann benutzt werden),<br />
• die (abgetastete) Zahlenfolge, die durch thermisches Rauschen in elektrischen<br />
Widerständen entsteht und<br />
• das Schalldrucksignal, das durch das Tosen der niederstürzenden Wassermassen bei<br />
Wasserfällen hervorgerufen wird.<br />
Alle diese Beispiele bezeichnen weiße Rauschvorgänge. Das Wesentliche an ihnen besteht in<br />
der völlig zufälligen REIHENFOLGE von Zahlenwerten: es gibt KEINERLEI<br />
Gesetzmäßigkeit, die hilft, einen aktuellen Wert x(n) in der Folge aus den vorangegangenen<br />
Werten x(n-k), k=1,2,... zu bestimmen. Das aktuelle Element ist nicht vorhersehbar, welcher<br />
Zahlenwert beim Würfeln "das nächste Mal" fallen wird, das kann man vorher nicht wissen<br />
und auch nicht auf Grund "langer Erfahrung" mit dem Würfel irgendwie eingrenzen.<br />
Unter weißem Rauschen versteht man also Zahlenfolgen mit regelloser Reihenfolge der<br />
aufeinanderfolgenden Werte. Welche Wertvielfalt (z.B. 1,2,3,4,5 und 6 beim Würfeln) dabei<br />
erlaubt ist, ist dabei völlig unerheblich. Beim technisch nutzbaren Signal, das von einem<br />
Rauschgenerator erzeugt wird, erhält man einfach "viele verschiedene" Werte innerhalb eines<br />
gewissen Intervalls. Im Bild 4.1a ist eine Stichprobe des Zeitverlaufes als Beispiel angegeben.
77<br />
Es fragt sich nun, in welchem Sinne solche Zufallsgrößen über die erwünschten<br />
Eigenschaften "Signalenergie sowohl über die Zeitpunkte als auch über die Frequenzen<br />
gleichmäßig verteilt" besitzen. Sie können über diese Qualitäten nur in einem statistischen<br />
Sinn verfügen, denn in einem einzelnen "Signalstück", das gerade der Fensterlänge bei der<br />
Abtastung entspricht, kommen viele, zufällig verteilte Funktionswerte vor (siehe z.B. Bild<br />
4.2a). Erst wenn man viele solcher Signale betrachtet und einen Mittelwert bildet, erhält man<br />
eine gleichmäßige Energieverteilung längs des zeitlichen Fensters. Erst die durch<br />
x<br />
2<br />
M<br />
1<br />
= ∑<br />
(4.1)<br />
i<br />
M<br />
2<br />
( n) x ( n)<br />
i=<br />
1<br />
bezeichnete mittlere Signalenergie x 2 ist für weiße Rauschvorgänge längs des Fensters<br />
n=0,1,...,N-1 konstant, x 2 ( n)= const( n). Dabei ist in (4.1) xi(n) eine (gefensterte)<br />
Stichprobenfolge der Länge N; es werden M Stichproben genommen und aus ihnen der<br />
(quadratische) Mittelwert gebildet. Jede Stichprobe besteht also aus "einem Stück des<br />
Zeitverlaufes" dessen Länge (oder "Dauer") gerade durch die Fensterbreite gegeben ist.<br />
Auch die spektralen Eigenschaften von Rauschen können erst durch "statistische<br />
Betrachtung" bezeichnet werden, die Spektren Xi(ω) der einzelnen Stichproben xi(n) haben<br />
einen ebenso zufälligen Verlauf wie der Zeitverlauf der Stichprobe selbst (Beispiel in Bild<br />
4.2b). (Anmerkung: Xi(ω) bedeutet das Spektrum einer Stichprobe xi(n) in dem in den<br />
vorigen Abschnitten geschilderten Sinn. Präzise ausgedrückt: Xi(ω) bezeichnet die diskrete<br />
Fourier-Transformation von xi(n) nach Gleichung (2.32), wobei zuvor noch eine<br />
Fensterfunktion angebracht worden sei kann, xi(n)→g(n) ) Der Grund für die Tatsache, dass<br />
die Transformierten der Stichproben gleichfalls "Zufallsverläufe" sind, erklärt sich einfach<br />
aus der inhaltlichen Bedeutung des Begriffs "Spektrum": dieser Begriff beinhaltet ja nichts<br />
anderes als den Versuch, die in einem Signal vorkommenden "Ordnungen" zu erfassen und<br />
darzustellen. Das Signal wird nämlich gerade auf das "Ordnungsprinzip enthaltener<br />
Periodizitäten" hin untersucht; sind diese Vorhanden, so wird das durch einzelne "Peaks" im<br />
spektralen Verlauf angezeigt. Ist andererseits ein Vorgang völlig regellos (und also weißes<br />
Rauschen), dann kann das Spektrum ebenfalls keine Ordnung besitzen: es besteht selbst in<br />
einer zufälligen, ordnungsfreien Zahlenfolge. Für weißes Rauschen ist also die spektrale<br />
Leistung<br />
1<br />
M<br />
2<br />
G<br />
xx<br />
( ω ) = ∑ X ( ω)<br />
(4.2)<br />
i<br />
M m=<br />
1<br />
nach Mittelung über viele Stichproben frequenzunabhängig, G xx (ω) = const(ω), siehe auch<br />
Bild 4.2c.<br />
Wie man sieht, erhält man brauchbare Aussagen über die Qualitäten zufälliger Signale erst,<br />
wenn man diese einem Mittelungsverfahren unterzieht. Diese Notwendigkeit wird natürlich<br />
auch die folgenden Betrachtungen bestimmen. Zur Abkürzung der Schreibweise wird deshalb<br />
zunächst die Operation E "Bildung des Mittelwertes" (ein anderes Wort für Mittelwert wäre<br />
der Erwartete Wert) eingeführt:<br />
1<br />
E { x} = ∑<br />
(4.3)<br />
M<br />
M<br />
x i<br />
i=<br />
1
78<br />
worin xi aus den Stichproben abgeleitete Größen sind. Z.B. ist das Leistungsspektrum von x<br />
1 *<br />
{ } = ∑ Xi<br />
( ω) ⋅ Xi<br />
( ω)<br />
*<br />
( ω) = E X ( ω) ⋅ X( ω)<br />
G (4.4)<br />
xx<br />
M<br />
Mehr am Rande sie vermutet, dass man die lineare Mittelung noch durch gewichtete<br />
Mittelungen<br />
E{ x} =<br />
1<br />
M ⋅ G<br />
M<br />
∑ g i ⋅x i<br />
(4.5)<br />
i=1<br />
(z.B. exponentielle Mittelung mit gi = e -iα ) ersetzen kann und dass M eine hinreichend große<br />
Zahl sein muss (in der Messpraxis "probiert" man meist einfach einige M aus).<br />
Rauschvorgänge, wie oben geschildert, werden also nun zur Anregung eines linearen<br />
Übertragers (wie in Bild 4.1 angedeutet) benutzt, mit dem Ziel, dessen Übertragungsfunktion<br />
H(ω) aus Eingangs- und Ausgangssignal zu ermitteln. Im Prinzip ist es dazu "nur"<br />
erforderlich, die Spektra von Eingangssignal und Ausgangssignal zu bestimmen und H aus<br />
deren Quotient zu berechnen. Andererseits ist aber gerade die Bestimmung "des Spektrums"<br />
gerade bei Rauschvorgängen offensichtlich gar nicht so leicht: die spektrale Qualität schält<br />
sich erst nach Mittelung über Stichproben heraus.<br />
Eine naheliegende Idee zur Schätzung der Übertragungsfunktion H(ω) nach Betrag und Phase<br />
beruht auf einer Verallgemeinerung der in (4.4) definierten Leistungsdichte. Dazu wird<br />
zunächst die Mittelwertbildung auf dem Produkt Xi*(ω) . Yi(ω) aufgebaut und das sogenannte<br />
"Kreuzleistungsspektrum" zu<br />
M<br />
1 *<br />
{ } = ∑ Xi<br />
( ω) ⋅ Yi<br />
( ω)<br />
*<br />
( ω ) = E X ( ω) ⋅ Y( ω)<br />
G (4.6)<br />
xy<br />
M<br />
i=<br />
1<br />
definiert. Diese Festlegung scheint nützlich zu sein. Wenn man unter gewissen<br />
Voraussetzungen annehmen darf, dass zwischen den Stichprobenspektren von Eingang und<br />
Ausgang die Beziehung<br />
i<br />
( ω) = H( ω) ⋅X<br />
( ω)<br />
Y (4.7)<br />
i<br />
bestehen würde (tatsächlich gilt (4.7) nur für eine ganz bestimmte Übertragungsfunktion H,<br />
wie das folgende zeigt), dann wäre dieser als "Transferfunktion" bezeichnete Quotient<br />
F xy ( ω) = G xy ( ω)<br />
G xx ( ω)<br />
(4.8)<br />
in der Tat mit der Übertragungsfunktion identisch, es wäre dann nämlich<br />
∑<br />
G xy ( ω) = 1 M X i * ( ω)⋅ H( ω)<br />
⋅ X i ( ω) = H( ω)⋅ G xx ( ω) (4.9)<br />
In Wahrheit stellt die nach (4.8) definierte Transferfunktion nur eine (möglicherweise sogar<br />
schlechte) Schätzung für die Übertragungsfunktion H(ω) dar. Tatsächlich gilt ja (4.7) einzig
79<br />
für die Spektren y(ω) und X(ω) der jeweils GANZEN Fourier-Transformierten Signale x und<br />
y:<br />
Y( ω) = H( ω)⋅X( ω) (4.10)<br />
∞<br />
mit X( ω) = F { ( )} −jωt<br />
x t = ∫ x(t) e dt<br />
−∞<br />
∞<br />
Y(ω) = F { ( )} −jωt<br />
y t = ∫ y(t) e dt<br />
−∞<br />
allgemein aber KEINESWEGS für Transformierte, die auf (im Grunde ja beliebig<br />
"herausgerissene") Stücke der Zeitverläufe aufgebaut sind. Diese Tatsache lässt sich natürlich<br />
auch an der in den Zeitbereich (mit Hilfe des Faltungssatzes) zurückübersetzten Gleichung<br />
(4.10) ablesen:<br />
y(t)<br />
∞<br />
=∫<br />
0<br />
h( τ)x(t<br />
− τ)dτ<br />
(4.11)<br />
Für einen Punkt t, der in der aktuellen Stichprobe 0 ≤ t ≤ T liegen möge, ist<br />
t<br />
y(t) = ∫ h( τ)x(t<br />
− τ)dτ+<br />
∫ h( τ)x(t<br />
− τ)dτ<br />
0<br />
∞<br />
t<br />
(4.12)<br />
Nur das erste Integral beschreibt den Anteil von y(t), der auf den Zeitverlauf von x(t) in der<br />
gleichen Eingangsstichprobe 0 ≤ t ≤ T zurückzuführen ist. Das zweite Integral<br />
berücksichtigt hingegen Eingangssignalteile in ihrer Wirkung auf den aktuellen Ausgang, die<br />
sich schon VOR t = 0 ereignet haben und mithin zu früheren Stichproben gehören. Wie auch<br />
Bild 4.3 zu demonstrieren versucht lehrt das Faltungsintegral (4.11) gerade, dass der Ausgang<br />
zum Zeitpunkt t auf ALLEN VORANGEGANGENEN EINGÄNGEN beruht; eine<br />
Unterteilung der Signale in "Stichproben mit endlicher Fensterbreite" kann das gar nicht<br />
erfassen und ist zwar aus praktischen Gründen erforderlich, dabei jedoch der wahren<br />
Übertragung durch das System nicht angemessen.
Freilich kann die mit (4.8) vorgenommene Schätzung der Übertragungsfunktion dabei einen<br />
nur kleinen Fehler beinhalten. Der Fehler ist dann gering, wenn die Impulsantwort h(t) so<br />
beschaffen ist, dass Anteile aus früheren Stichproben - ausgedrückt durch das zweite Integral<br />
in (4.12) - y(t) nur wenig beeinflussen: das ist dann der Fall, wenn die Impulsantwort "kurz"<br />
ist verglichen mit der Fensterbreite T der Stichproben (siehe auch Bild4.3), wenn es sich also<br />
z.B. bei h(t) um eine während T "hinreichend rasch abklingende Funktion" handelt. In diesen<br />
Fall ist das erste Integral in (4.12) bestimmend für y(t). Vollständig wird y ausschließlich<br />
durch das erste Integral in (4.12) bestimmt, wenn im System gar keine zeitliche Verzögerung<br />
enthalten ist, wenn also h(t) = V . δ einen reinen Verstärker mit H(ω) = V = const beschreibt;<br />
einzig in diesem Fall gibt (4.7) auch für Stichproben von Ausgangs- und Eingangssignal,<br />
denn für ein solches System wird ein Ausgangswert einzig durch den gleichzeitigen<br />
Eingangswert bestimmt. In jedem anderen Fall enthält h(t) eine Verzögerung oder ein<br />
80
81<br />
Nachklingen des Systems, das stets notwendig dazu führt, dass aktuelle Ausgangswerte<br />
mindestens teilweise auf Anregungen aus der Vorgeschichte zurückzuführen sind.<br />
Grundsätzlich ist also die Transferfunktion Fxy eine Schätzung für die wahre<br />
Übertragungsfunktion H, die einen systematischen Fehler enthält. Ein Maß für die Qualität<br />
der Schätzung bietet die Kohärenz γ 2 . Sie ist definiert als das Verhältnis aus der auf Grund<br />
der Schätzung Fxy über das System H quasi "scheinbar" übertragene Leistung zu der<br />
ausgangsseitig tatsächlich vorgefundenen Leistung, also<br />
γ<br />
2<br />
F<br />
=<br />
xy<br />
2<br />
( ω) ⋅G<br />
xx<br />
( ω)<br />
G ( ω)<br />
yy<br />
(4.13)<br />
Setzt man noch Fxy = Gxy/Gxx ein, so erhält man<br />
γ 2 = G xy ( ω)<br />
G xx ( ω) ⋅ G xy *( ω)<br />
G xx *( ω) ⋅ G xx ( ω)<br />
G yy ( ω) = G xy ( ω)⋅G<br />
xy *( ω)<br />
G xx ( ω)⋅G yy ( ω)<br />
(4.14)<br />
weil Gxx =Gxx* reellwertig ist. Die Schätzung Fxy(ω) berücksichtigt wie erläutert nur einen<br />
Teil des tatsächlichen Leistungstransportes über das System, es ist also F xy<br />
2<br />
⋅Gxx ≤ G yy ;<br />
aus diesem Grund ist die Kohärenz höchstens gleich 1: 0 ≤ γ 2 ≤ 1. Je größer γ 2 , desto besser<br />
gibt die Schätzung Fxy den wahren Leistungstransport an.<br />
Die Bedeutung der Kohärenz γ 2 lässt sich auch an Hand eines anderen Schätzwertes für den<br />
Betrag der Übertragungsfunktion |H(ω)| ablesen. Es bezeichnen nämlich wie erwähnt Gyy(ω)<br />
und Gxx(ω) die tatsächlichen spektralen Leistungen, vorausgesetzt nur, dass ihre Berechnung<br />
"mit diskreten Mitteln" wie in den Kapiteln 2 und 3 geschildert (fast) keine Fehler enthält. Für<br />
die Berechnung der spektralen Leistung je EINES Zeitverlaufes spielt gar keine Rolle, durch<br />
welche Ursachen dieser hervorgerufen sein mag. Es ist also<br />
H s ( ω) 2 = G yy ( ω)<br />
G xx ( ω) ≅ H( ω)2<br />
(4.15)<br />
eine "bessere" Schätzung von |H(ω)| als |Fxy(ω)| 2 , weil hierin Fragen nach der Herkunft der<br />
Ausgangssignal-Bestandteile unbedeutend sind. So gesehen wird die nach (4.8) definierte<br />
Transferfunktion nur aus dem Wunsch nach Bestimmung des System-Phasenganges<br />
erforderlich, denn dieser lässt sich natürlich aus dem Verhältnis der Leistungsspektren alleine<br />
nicht berechnen.<br />
Die Kombination von (4.13) und (4.15) ergibt nun<br />
F xy ( ω) 2 ≅ γ 2 H( ω) 2 (4.16).<br />
Wie man erkennt, unterschätzt die Transferfunktion grundsätzlich die wahre<br />
Übertragungsfunktion, F 2<br />
xy ≤ H<br />
2<br />
. Wie man ebenfalls sieht, gibt γ2 direkt den Fehler an. In<br />
Pegeln ausgedrückt beträgt er ∆L = 10lgγ 2 . Wenn höchstens 1dB Fehler zugelassen sein soll,
82<br />
dann muss γ 2 ≥ 0,8 eingehalten werden. Diese Grenze bezeichnet etwa die Verhältnisse, die<br />
bei praktischen Messungen eingehalten werden sollen.<br />
Bei schlechterer Kohärenz müssen die Mess- und Auswerte-Parameter in Hinblick auf eine<br />
Verbesserung von γ 2 geändert werden. Insbesondere kommt dazu die Verwendung einer<br />
größeren Fensterlänge T, damit gleichzeitig eine verbesserte Auflösung ∆f = 1/T und eine<br />
Verringerung der Bandbreite der Messung in Frage. Gegebenenfalls muss die interessierende<br />
Bandbreite in mehrere Bänder zerlegt werden, die dann einzeln (u.U. mit der Zoom-Technik)<br />
analysiert werden.<br />
Die oben geschilderten Sachverhalte sollen am Beispiel einer mit weißem Rauschen<br />
eingangsseitig gespeisten Verzögerungsleitung (Verzögerungszeit T v ) illustriert werden.<br />
Solche "Time-Delays" kommen in der <strong>Akustik</strong> oft vor, z. B. ist jede Luftschall-Übertragungs-<br />
Strecke eine Verzögerung. Wie Bild 4.4 zeigt, ist nur der Teil (1 - T v /T)Y i des Spektrums Y i<br />
der i-ten Stichprobe des Ausgangssignals auf die gleiche Eingangsstichprobe zurückzuführen.<br />
Da alle Vorgänge und Teilvorgänge weißes Rauschen sind, erfolgt die Verteilung dabei auf<br />
alle Frequenzen gleichmäßig. Der fehlende Rest (T v /T)Y i wird durch die davor liegende<br />
Stichprobe X i-1 hervorgerufen. Es ist also<br />
⎛<br />
Y i ( ω) = 1− T v ⎞<br />
⎝ T ⎠ H( ω)<br />
X i ( ω)<br />
+ R i ( ω)<br />
worin H die "wahre" Übertragungsfunktion, H = e- jωTv und Ri(ω) den "Rest" bezeichnet, der<br />
aus früheren Stichproben des Eingangssignals herstammt. Deshalb gilt E{Ri(ω)Xi*}=0, und<br />
daher ist
83<br />
G<br />
xy<br />
Wie man sieht ist<br />
⎛ T ⎞<br />
{ } = ⎜ −<br />
v<br />
1 ⎟H( ω) G ( ω)<br />
( ω ) =<br />
*<br />
E X ( ω ) ⋅ Y( ω )<br />
⎝<br />
T ⎠<br />
xx<br />
F xy ( ω) 2 = G xy ( ω)<br />
2<br />
G xx ( ω)<br />
= 1 − T 2<br />
⎛ v ⎞<br />
⎝ T ⎠<br />
H( ω) 2 (4.17)<br />
und die Kohärenz γ 2 beträgt<br />
γ 2 = 1 − T 2<br />
⎛ v ⎞<br />
⎝ T ⎠<br />
(4.18)<br />
Die Bilder 4.5a und b zeigen ein Beispiel, das mit Hilfe eines FFT-Analysators hergestellt<br />
worden ist.
84<br />
Hier war Tv/T=0,2 (siehe auch Bild 4.5c und die noch folgenden Erläuterungen zur<br />
Kreuzkorrelationsfunktion); das ergibt breitbandig den Wert von γ 2 =0,64 und 10 lg<br />
|Fxy/H| 2 =-2dB. Für γ 2 ≥ 0,8 - entsprechend einem Messfehler von höchstens 1 dB für die
85<br />
durch F xy geschätzte Übertragungsfunktion - muss die Verzögerungszeit weniger als 10% der<br />
Fensterlänge betragen. Wird ein Analysator mit einem Messbereich 0 ≤ f ≤ 10kHz und 401<br />
Linien (∆f = 25 Hz) betrieben, so ist T = 0,04 s und die maximale Verzögerungszeit T v =<br />
0,004 s. Mit der Schallgeschwindigkeit c = 340 m/s entspräche das einer<br />
Schallübertragungsstrecke von 1,36 m Länge. Verringert man den Frequenzbereich auf 1/10<br />
(0 bis 1000 Hz), so erhält man den 10-fachen Wert.<br />
Natürlich können Kohärenz-Probleme auch bei anderen nachklingenden Systemen (wie z.B.<br />
der einfache Resonator in Abschnitt 1.6) vorkommen, also z.B. auch bei Schwingungen von<br />
Stäben und Platten oder allgemeiner bei Strukturen, bei denen die Schwingenergie nicht über<br />
die Ränder abfließen kann. Bei solchen nachhallenden Systemen muss man darauf achten,<br />
dass die Abklingzeit kleiner als die Fensterbreite T der Beobachtung ist.<br />
Wie man an der Herleitung erkennt, gelten unsere Betrachtungen über die an einer<br />
Verzögerungsleitung gemessenen Größen nur für die Verwendung des Rechteckfensters für<br />
die Stichproben. Benutzt man (z. B.) stattdessen das HANNing-Fenster für beide Kanäle, dann<br />
ändern sich die Verhältnisse sehr stark. Die zuerst am Systemausgang ankommenden<br />
Signalteile (schraffierter Bereich in Bild 4.3) stammen zwar von früheren<br />
Eingangsstichproben her, sie treten jetzt jedoch wegen ihrer hier sehr wirksamen Bewertung<br />
durch die Fensterfunktion kaum noch in Erscheinung. Der "Hauptanteil" der durch das<br />
Fenster in der Mitte konzentrierten Ausgangs-Stichprobe stammt nun tatsächlich zu einem<br />
viel größeren Anteil von der gleichen Eingangsstichprobe her. Das führt zu einer sehr<br />
deutlichen Erhöhung der berechneten Kohärenz gegenüber dem Fall der Beobachtung mit<br />
dem Rechteckfenster.<br />
Zum Abschluss wollen wir noch der Frage nachgehen, welche Zeitverläufe sich aus der<br />
Rücktransformation von Leistungsspektren ergeben. Die zum Kreuzleistungsspektrum<br />
gehörende Rücktransformierte<br />
g = F { }<br />
-1 G<br />
xy<br />
xy<br />
wird Kreuzkorrelationsfunktion genannt, im Falle y = x des Leistungsspektrums heißt die<br />
Rücktransformierte Autokorrelationsfunktion. Es zeigt sich, dass die<br />
Kreuzkorrelationsfunktion eine Schätzung der (kurzen) Impulsantwort eines linearen Systems<br />
angibt, wenn x aus weißem Rauschen besteht:<br />
h ( t)<br />
= F -1 ( ω)<br />
{ H }≈ F -1<br />
⎧G<br />
⎨<br />
⎩G<br />
xy<br />
xx<br />
( ω)<br />
( ω)<br />
⎫ g<br />
⎬ =<br />
⎭ G<br />
xy<br />
xx<br />
( t)<br />
( ω)<br />
, (4.19)<br />
weil G xx eine Konstante ist. Hier finden wir im Grunde nur Bekanntes bestätigt. Ist die<br />
Kreuzkorrelierte "kurz" im Sinne einer Delta-Funktion, dann ist das Kreuzleistungsspektrum<br />
breitbandig und glatt (das gleiche gilt selbstverständlich für die Autokorrelierte und das<br />
Leistungsspektrum) und umgekehrt. Ist das lineare System eine Verzögerungsleitung<br />
h( t) = δ ( t − T 0<br />
) mit der Verzögerungszeit T o , dann ist g xy (t) ebenfalls ein verzögerter<br />
Impuls. Diese Tatsache kann man zur Messung von Verzögerungszeiten nutzen.<br />
Bild 4.5 c zeigt das Beispiel einer an einer Verzögerungsleitung gemessenen<br />
Kreuzkorrelationsfunktion, dem man T v /T = 0,2 entnehmen kann.<br />
Zum Abschluss sei noch erläutert, wie die Korrelationsfunktionen unmittelbar aus den<br />
Zeitverläufen bestimmt werden können. Sie werden schließlich durch Rücktransformation des
86<br />
Produktes von Transformierten gebildet, es muss also auch direkt im Originalbereich eine<br />
Berechnungsvorschrift bestehen. Benutzen wir zur Herleitung diskrete Zahlenfolgen x(n) und<br />
y(n) mit N Stichproben x i (n) und y i (n) endlicher Länge M. Es ist dann (mit Gleichung 2.11)<br />
π<br />
1<br />
jΩ<br />
jnΩ<br />
g<br />
xy<br />
( n) = ( ) Ω<br />
π<br />
∫ G<br />
xy<br />
e e d<br />
(4.20)<br />
2<br />
−π<br />
und mit Hilfe von (4.1) folgt<br />
g<br />
1<br />
2π<br />
π<br />
1<br />
N−1<br />
* jΩ<br />
jΩ<br />
jnΩ<br />
( n) = ∫ ∑ X<br />
i<br />
( e ) Yi<br />
( e ) e dΩ<br />
xy<br />
,<br />
N<br />
−π i=<br />
0<br />
schließlich m. H. von (2.8),<br />
g<br />
xy<br />
1<br />
N<br />
jkΩ<br />
* − jkΩ<br />
( n) = e ⎜ x ( k) e y ( m)<br />
=<br />
1<br />
N<br />
N−1<br />
∑<br />
i=<br />
0<br />
1<br />
2π<br />
N−1<br />
M−1<br />
∑∑<br />
i=<br />
0 k=<br />
0<br />
π<br />
∫<br />
−π<br />
x<br />
*<br />
i<br />
⎛<br />
⎝<br />
M−1<br />
∑<br />
k=<br />
0<br />
M−1<br />
1<br />
2π<br />
j( k−m+<br />
n )<br />
( k) y ( m) e<br />
∑<br />
m=<br />
0<br />
i<br />
i<br />
π<br />
∫<br />
−π<br />
M−1<br />
∑<br />
m=<br />
0<br />
Ausnutzung der Orthogonalitätsrelation (2.9) ergibt<br />
also<br />
g<br />
xy<br />
1<br />
N<br />
*<br />
( n) = x ( k) y ( m) ⋅ δ( k − m + n)<br />
=<br />
1<br />
N<br />
N−1<br />
M−1<br />
∑∑<br />
i=<br />
0 k=<br />
0<br />
N−1<br />
M−1<br />
∑∑<br />
i=<br />
0 k=<br />
0<br />
x<br />
i<br />
*<br />
i<br />
M−1<br />
∑<br />
m=<br />
0<br />
( k) y ( n + k),<br />
i<br />
i<br />
i<br />
Ω<br />
e<br />
− jmΩ<br />
dΩ.<br />
⎞<br />
⎟<br />
⎠<br />
e<br />
jnΩ<br />
dΩ<br />
g<br />
xy<br />
⎧<br />
M 1<br />
= ⎨∑ − i<br />
k=<br />
0<br />
*<br />
( n) E x ( k) ⋅ y ( n + k) .<br />
⎩<br />
i<br />
⎫<br />
⎬<br />
⎭<br />
(4.21)<br />
Wie man sieht, wird im Grunde über Faltungen mit negativer Verzögerung n gemittelt.<br />
Entsprechend gilt für die Autokorrelierte<br />
g<br />
xx<br />
⎧<br />
M 1<br />
= ⎨∑ − i<br />
k=<br />
0<br />
*<br />
( n) E x ( k) ⋅ x ( n + k) .<br />
⎩<br />
i<br />
⎫<br />
⎬<br />
⎭<br />
(4.22)