03.11.2013 Aufrufe

Digitale Signalverarbeitung (PDF) - Technische Akustik

Digitale Signalverarbeitung (PDF) - Technische Akustik

Digitale Signalverarbeitung (PDF) - Technische Akustik

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Technische</strong> Universität Berlin<br />

Fakultät V<br />

Verkehrs- und Maschinensysteme<br />

FG <strong>Technische</strong> <strong>Akustik</strong><br />

Prof. Dr.-Ing Michael Möser<br />

<strong>Digitale</strong><br />

<strong>Signalverarbeitung</strong><br />

Berlin 2011


Inhaltsverzeichnis<br />

Seite<br />

Vorwort 1<br />

1. Einleitung 2<br />

1.1 Lineare Systeme 3<br />

1.2 Der Invarianzsatz 7<br />

1.3 Harmonische Zerlegung periodischer Signale (“FOURIER”-Reihen) 10<br />

1.4 FOURIER-Transformationen 18<br />

1.5 Sätze über die FOURIER-Transformation 20<br />

1.6 Ein Beispiel: der einfache Resonator 25<br />

2. Abtastfolgen 30<br />

2.1 FOURIER-Transformation von Zahlenfolgen 31<br />

2.2 Eigenschaften der FOURIER-Transformation von Folgen 33<br />

2.3 Das Abtasttheorem 37<br />

2.4 Signalmodelle 43<br />

2.4.1 Einmaliges Signalmodell 45<br />

2.4.2 Diskrete Spektren 49<br />

2.4.3 Diskretisierung des Rechteckfenster-Spektrums 52<br />

2.5 Praktische Rechentechnik 56<br />

2.5.1 Skalierung, Amplitudenspektrum 56<br />

2.5.2 Schnelle FOURIER-Transformation (FFT) 57<br />

3. Fenster und Gewichtung 59<br />

3.1 Das HANNING-Fenster 60<br />

3.2 Die Herstellung von Gewichtsfolgen 69<br />

4. Die Verwendung stationärer Zufalssprozesse als Messsignale 74


1<br />

Vorwort<br />

Diese Vorlesung dient (fast ausschließlich) einem sehr praktischen Zweck: sie möchte den<br />

Hörer in die Lage versetzen, eine heute insbesondere aus der <strong>Technische</strong>n <strong>Akustik</strong> nicht mehr<br />

wegzudenkende Messeinrichtung - den sogenannten FFT-Analysator - zu verstehen. Dieses<br />

Verständnis soll soweit vertieft werden, dass die Hörer am Ende in der Lage sind, ihren PC<br />

selbst zu einem solchen Analysator auszurüsten und zu programmieren.<br />

Andererseits bedeutet diese konkrete Aufgabenstellung gleichzeitig auch den Verzicht auf<br />

ganze Teilgebiete der <strong>Signalverarbeitung</strong> wie die z-Transformation und den Filterentwurf, um<br />

nur zwei Beispiele zu nennen.<br />

Grundsätzlich ist "<strong>Digitale</strong> <strong>Signalverarbeitung</strong>" ein spezieller Zweig der angewandten<br />

Mathematik, das trifft deshalb natürlich auch für diese Lehrveranstaltung zu. Tatsächlich<br />

versucht der schon angesprochene FFT-Analysator eigentlich nur wenig mehr als eine<br />

gegebene Funktion (z.B. ein gemessener Zeitverlauf) in eine Funktionenreihe zu zerlegen.<br />

Wir werden die Vorlesung damit beginnen, die Nützlichkeit dieser an sich ja rein abstrakten,<br />

sehr mathematischen Aufgabenstellung für das Verständnis akustischer Übertrager zu<br />

schildern. Danach wenden wir uns der "praktischen Rechnertechnik" zu: wir müssen den<br />

erhaltenen Formelapparat so umsetzen, dass er von einem Digitalrechner auch bewältigt<br />

werden kann. Diese Lehrveranstaltung geht also einer sehr speziellen mathematischen und<br />

rechentechnischen Fragestellung nach: der rechnergestützten Zerlegung eines (z.B. durch<br />

Messung gegebenen) Spannungs-Zeit-Verlaufs in harmonische Bestandteile.<br />

Den Kern unserer Betrachtungen bilden die beiden dabei auftretenden Probleme:<br />

1. Der Rechner hat ein "beschränktes Blickfeld", er kann nur einen gewissen zeitlichen<br />

Ausschnitt aus dem u.U. sehr langen Signal praktisch auch "behalten".<br />

2. Der Rechner "blinzelt" fortwährend. Naturgemäß kann er den ja eigentlich<br />

kontinuierlichen Funktionsverlauf nur zu diskreten Zeiten in Stützstellen erfassen.<br />

Wir werden uns mit den Konsequenzen dieser Probleme beschäftigen und (einige) Konzepte<br />

kennenlernen, wie man die Nachteile abmildern bzw. manipulieren kann. Kurz gefasst könnte<br />

man sagen, dass sich diese Vorlesung mit digitale der Darstellung einer Funktion durch eine<br />

spezielle Reihe "unter imperfekten Umständen" befasst.


2<br />

1. Einleitung<br />

Die (digitale) <strong>Signalverarbeitung</strong> hat heute in so vielen Bereichen einen hohen Stellenwert<br />

erlangt, dass Beispiele wie "Sprachverarbeitung, Werkstoffprüfung, Medizintechnik" fast<br />

banal wirken. Wir wollen deshalb einleitend mit einer in vielen ingenieurwissenschaftlichen<br />

Disziplinen vorkommenden Fragestellung beginnen: der Betrachtung von (einfachen) linearen<br />

Übertragern. Für die <strong>Akustik</strong> sind solche "linearen Systeme" zum Beispiel Lautsprecher,<br />

Mikrofone, andere Wandler, Schall - Lauf - Strecken, schwingende Strukturen und vieles<br />

mehr. Bei all diesen "Systemen" interessiert unmittelbar die zeitliche Reaktion y (t) - z.B. ein<br />

Schalldruck vor einem Lautsprecher -, die durch eine Anregung x(t) - z.B. die anliegende<br />

Spannung - hervorgerufen wird. Symbolisch kennzeichnet man diesen Pfad aus Ursache und<br />

Wirkung durch ein Block-Bild mit einem Eingang x(t) und einem Ausgang y(t):<br />

x(t) System y(t)<br />

Dabei bleibt es letztlich frei, auf welche Weise Eingang und Ausgang durch physikalische<br />

Größen definiert werden. Im Fall des Lautsprechers hätte man zum Beispiel Strom und<br />

Membranschnelle benutzen können. Man wird die Wahl wohl sinnvoll so vornehmen, dass<br />

der jeweilige Sinn der Betrachtungen vernünftig wiedergegeben wird.<br />

Unter einem "linearen System" wollen wir nun einen solchen Übertrager verstehen, für den<br />

das Prinzip der ungestörten Überlagerung gilt. Wenn also das System auf einen Eingang x 1 (t)<br />

mit y 1 (t) reagiert<br />

x 1 (t) y 1 (t)<br />

und ebenso der Zusammenhang<br />

x 2 (t) y 2 (t)<br />

gilt, dann soll auch jede Linearkombination der Eingänge zu der gleichen Linearkombination<br />

der Ausgänge führen:<br />

ax 1 (t) + bx 2 (t) ay 1 (t) + by 2 (t).<br />

Dieses "Superpositionsprinzip" ist völlig gleichbedeutend mit dem Begriff "Linearität". Oft<br />

scheint es uns selbstverständlich zu sein: addieren wir zum Beispiel Kräfte, auch<br />

verschiedenen Zeitverlaufs, die auf einen Biegeschwinger wirken, dann werden wir zu recht<br />

erwarten, dass sich die Stabbeschleunigungen aus der Summe der Teilreaktionen zusammensetzen.<br />

In der Physik der Schallwellenausbreitung ersetzen wir das Wort "linear"


3<br />

durch "Interferenz" und meinen ein und dasselbe. Wir dürfen also oft, aber nicht immer für<br />

die Beschreibung der Wirklichkeit Linearität voraussetzen. Ein Gegenbeispiel sind Federn mit<br />

gekrümmten Kennlinien. Allgemeiner wird man bei großen Amplituden Nichtlinearität<br />

erwarten. Dies gilt auch für Luftschall mit der (schwach) gekrümmten Adiabatenkennlinie<br />

(siehe VL "Theoretische <strong>Akustik</strong>").<br />

1.1 Lineare Systeme<br />

Wenn man zunächst von einem "Standpunkt ohne weitere Vorkenntnisse" ausgeht, so ist es<br />

wohl naheliegend, ein lineares System einfach durch Bestimmung der Zeitverläufe von<br />

Eingang und Ausgang zu beschreiben und zu charakterisieren. Nun werden sich für<br />

verschiedene Eingangsfunktionen x(t) natürlich auch unterschiedliche Ausgangsfunktionen<br />

y(t) einstellen, wobei die Beziehung zwischen x(t) und y(t) etwas "Systemtypisches"<br />

widerspiegelt.<br />

Man wird sich fragen, wie man aus der Vielfalt wählbarer Eingangsfunktionen x(t) eine<br />

spezielle Eingangsfunktion so heraussucht, dass die daraufhin vorliegende Ausgangsfunktion<br />

ein besonders guter Repräsentant für das System ist. Insbesondere ist es sinnvoll, eine<br />

Eingangsfunktion x(t) so zu wählen, dass aus dem zugehörigen Ausgang y(t) das<br />

Systemverhalten auch für alle anderen nur denkbaren Eingangsverläufe berechnet werden<br />

kann.<br />

Wie das folgende zeigt, ist diese Forderung gerade dann erfüllt, wenn als "ausgezeichnete"<br />

Eingangsfunktion ein (ideal kurzer) Impuls benutzt wird. Um die Bedeutung dieses Impulses<br />

herauszuarbeiten, müssen wir zunächst eine exakte Definition angeben. Mathematisch<br />

beschrieben wird er als "Delta-Funktion" oder "Dirac-Funktion" δ(t). Sie besitzt außer an der<br />

Stelle t = 0 überall den Wert Null, δ(t ≠ 0) = 0, in t = 0 ist die Delta-Funktion "unendlich<br />

groß" derart, dass die Fläche unter der Kurve gleich 1 ist:<br />

b<br />

∫ δ(t)dt<br />

= 1<br />

; a,b > 0 (1.1)<br />

−<br />

a


4<br />

(a > 0, b > 0). Wie man sieht, ist die Delta-Funktion keine Funktion im "gewöhnlichen<br />

Sinne", man bezeichnet sie deshalb auch als Sonderfunktion. Wir können sie (zum Beispiel)<br />

als Grenzfall der in Bild 1.1 dargestellten Rechteckfunktion r ∆T (t) auffassen:<br />

( t) lim r ( t)<br />

δ (1.2)<br />

∆T→0<br />

∆T<br />

Der für unseren Zweck der Systembeschreibung wichtige Nutzen der Dirac-Funktion δ(t)<br />

besteht nun darin, dass man beliebige Funktionsverläufe f(t) durch eine Summe (genauer: ein<br />

Integral) von Delta-Funktionen darstellen kann. Tatsächlich können wir ja einen<br />

Funktionsverlauf f(t) zunächst durch einen Treppenverlauf f ∆T (t) annähern wie in Bild 1.2<br />

demonstriert.


5<br />

f(t) wird so durch eine Summe von Rechteckfunktionen approximiert:<br />

∞<br />

=<br />

∆T<br />

n=−∞<br />

( t) f ( n ⋅ ∆T) ⋅ r ( t − n ⋅ ∆T) ⋅ ∆T<br />

f<br />

∆ ∑ (1.3)<br />

T<br />

Bilden wir den Grenzübergang ∆T 0, so gehen die "diskreten Stützstellen" n∆T an der<br />

Funktion f(t) in eine kontinuierliche Variable über, die wir mit τ bezeichnen wollen: n∆T τ.<br />

Gleichzeitig wird aus dem Abstand ∆T der Stützstellen das infinitesimale Integrationselement<br />

dτ. Es ist also<br />

f<br />

( t) lim f ( t) = f ( τ) δ( t − τ) dτ<br />

= ∫ ∞ ∆T<br />

−∞<br />

∆T→0<br />

(1.4)<br />

Die Eigenschaft (1.4) der Delta-Funktion hätten wir natürlich auch aus der Anschauung<br />

gewinnen können: die Delta-Funktion im Integranden "bewertet" den Funktionsverlauf f(τ)<br />

überall mit Null, außer im einzigen Punkt τ = t. In diesem Punkt - dem Grenzfall eines mit ∆T<br />

immer kleiner werdenden Intervalls - dürfen wir aber f(τ) als konstant ansehen, es ist also<br />

∞<br />

∫<br />

−∞<br />

∞<br />

( τ) δ ( t − τ) dτ<br />

= f ( t) δ( t − τ) dτ<br />

= f ( t)<br />

∫<br />

f . (1.5)<br />

−∞<br />

Die - vielleicht etwas formale - Ableitung über die Annäherung durch eine Treppenfunktion<br />

zeigt uns jedoch den Inhalt der Betrachtungen klarer an: wir können einen jeden zeitlichen<br />

Verlauf darstellen durch eine Summe gleichartiger, nur gegeneinander verzögerter schmaler<br />

Impulse, die im Grenzfall "nadelförmige" Deltafunktionen werden, wobei die Summe in die<br />

Summation infinitesimal kleiner Größen - ein Integral - übergeht. Es liegt wohl auf der Hand,<br />

dass diese Eigenschaft für die uns interessierenden linearen Systeme sehr nutzbringend ist.<br />

Kennen wir nämlich die Antwort h ∆T (t) des Systems auf einen einzelnen Impuls<br />

Eingang r ∆T<br />

(t) → Ausgang h ∆T<br />

(t)<br />

dann können wir wegen des Superpositionsprinzips die Ausgangsfunktion für eine<br />

Treppenfunktion als Eingang bestimmen. Sie setzt sich nach (1.3) zusammen aus<br />

zeitverzögerten Impulsantworten, die noch mit den "Konstanten" Verstärkungsfaktoren<br />

f(n·∆T) ∆·T zu multiplizieren sind:<br />

y<br />

∆ T<br />

( t) x( n∆T) ∆T h ( t − n∆T)<br />

= ∑ ∞<br />

−∞<br />

∆T


6<br />

Im Grenzfall ∆T 0 ist offensichtlich<br />

( t) x( τ) h ( t − τ) dτ<br />

y = ∫ ∞ (1.6)<br />

−∞<br />

Man zeigt leicht, dass sich 1.6. auch auf die Form<br />

bringen lässt.<br />

( t) x ( t − τ) h ( τ) dτ<br />

y = ∫ ∞ (1.6 a)<br />

−∞<br />

Wir haben damit eine eindeutige Systemcharakterisierung gefunden, wenn nur die Antwort<br />

eines linearen Systems h(t) auf einen anregenden Delta-Impuls δ(t) bekannt ist.<br />

Eingang δ (t) Ausgang h (t),<br />

dann können wir die System-Reaktion für jeden beliebigen Eingang nach (1.6) berechnen. Die<br />

sog. "Impuls-Antwort" h(t) stellt also eine vollständige System-Beschreibung dar.<br />

Gl. (1.6) wird oft als "Faltungsintegral", die entsprechende Operationskette als "Faltung"<br />

bezeichnet. Man sagt kurz: der Ausgang y(t) ist gleich der Faltung des Eingangs x(t) mit der<br />

Impulsantwort h(t). Der Name stammt lediglich davon her, dass h(τ) zur Bildung des<br />

Integranden in (1.6) an der Stelle τ = t "umgeklappt" werden muss (aufgezeichnet auf ein<br />

Blatt wäre dieses zu falten).<br />

Als Operationssymbol für die Faltung wird häufig das Zeichen * benutzt. Man schreibt<br />

y<br />

( t) x ( τ) h ( t − τ) dτ<br />

= ( x ∗ h) ( t)<br />

= ∫ ∞ −∞<br />

Zum Abschluss sei noch erwähnt, dass man zum Faltungsintegral 1.6 auch direkt ohne den<br />

mehr aus didaktischen Erwägungen bevorzugten "Umweg" über die Zerlegung von<br />

Funktionen in Treppengestalt hätte gelangen können. In der Tat genügt es völlig, Linearität<br />

und Zeitinvarianz der Übertragung vorauszusetzen. Sei also mit L die lineare Operation<br />

"Abbildung des Eingangs x auf den Ausgang y" bezeichnet:<br />

( t) L{ x ( t)<br />

}<br />

y =<br />

Nach 1.5 ist dann auch<br />

y<br />

∞<br />

⎧<br />

= ⎨ ∫<br />

⎩<br />

( t) L x( τ) δ ( t − τ)<br />

−∞<br />

⎫<br />

dτ⎬<br />


7<br />

oder, da L und die Integration beide lineare Operationen sind<br />

y<br />

∞<br />

∫<br />

−∞<br />

( t) x( τ) L{ δ ( t − τ)<br />

}<br />

= dτ<br />

Wegen der vorausgesetzten Zeitinvarianz ist<br />

L<br />

{ δ (t − τ)<br />

} = h(t − τ)<br />

nach Definition der Impulsantwort h, so dass man ebenfalls 1.6 als Ergebnis erhält.<br />

1.2 Der Invarianzsatz<br />

Im vorigen Abschnitt haben wir gesehen, dass die Impulsantwort h(t) eine komplette<br />

Systembeschreibung beinhaltet. Obwohl wir mit dem Faltungsintegral 1.6 und der<br />

Impulsantwort h(t) über ein Werkzeug verfügen, das uns immerhin die Bestimmung eines<br />

Ausgangs y(t) zu einem gegebenen Eingang x(t) erlaubt, ist h(t) eine recht unübersichtliche<br />

Schreibweise des Systemverhaltens. Es dürfte ziemlich schwer fallen, ohne Berechnung von<br />

(vielen?) Faltungsintegralen für entsprechende Eingänge x(t) das "Systemtypische" des<br />

Übertragers "auf einen Blick" aus h(t) herauszulesen.<br />

Wir sind ja aus vielen Betrachtungen (auch) in der <strong>Akustik</strong> bereits gewöhnt, in<br />

Frequenzgängen - reinen Tönen bzw. Zusammensetzungen aus reinen Tönen - zu denken.<br />

Offensichtlich muss auch durch das Werkzeug der Zerlegung von Signalen in "tonale Anteile"<br />

eine Systembeschreibung möglich sein, die darüber hinaus den Vorteil größerer<br />

Anschaulichkeit und Übersichtlichkeit bietet.<br />

Der tiefere Grund dafür, dass zeitlich sinus-förmige Zeitverläufe bevorzugt für die<br />

Beschreibung des Verhaltens von Übertragern benutzt werden, besteht einfach darin, dass<br />

solche Zeitfunktionen stets UNVERZERRT übertragen werden. Mit anderen Worten: liegt am<br />

Eingang eines linearen und zeitinvarianten Systems eine Anregung x(t)=x 0 cos ω t vor, dann<br />

ωt + ϕ .<br />

besteht der Systemausgang STETS ebenfalls in der gleichen Signalform y(t)=y 0 cos ( )<br />

Man kann das unmittelbar und allgemein mit Hilfe des Faltungsintegrals 1.6 zeigen. Ist<br />

nämlich<br />

x(t) = Re<br />

{ j t } xe ω<br />

(1.7)<br />

(die Kenntnis von komplexen Zahlen und der Vorteile der Zeigerschreibweise wird hier<br />

vorausgesetzt), dann folgt aus 1.6a


8<br />

⎪⎧<br />

jωt<br />

∞<br />

− jωτ<br />

⎪⎫<br />

y(t) = Re⎨<br />

xe ∫ h( τ)<br />

e dτ⎬<br />

⎪⎩ − ∞<br />

⎪⎭<br />

⎧ jωt<br />

= Re<br />

⎫<br />

⎨ H( ω)xe<br />

⎬<br />

(1.8)<br />

⎩ ⎭<br />

mit<br />

H( ω)<br />

=<br />

∞<br />

∫<br />

−∞<br />

− jωτ<br />

h( τ)e<br />

dτ<br />

(1.8a)<br />

unabhängig von t. Gleichung 1.8 besagt, dass JEDES lineare und zeitinvariante System auf<br />

einen Eingang in Form eines reinen Tones auch am Ausgang mit einem reinen Ton reagiert.<br />

Lediglich kann das System die Phase des Ausgangs gegenüber dem Eingang verschieben und<br />

die Amplitude bei der Übertragung verändern. Diese beiden Möglichkeiten sind der<br />

komplexen Zahl H<br />

H = H e jϕ (1.9)<br />

zusammengefasst.<br />

Es ist vielleicht überflüssig, darauf hinzuweisen, dass diese Tatsache allgemein nur für reine<br />

Töne zutrifft. Alle anderen Eingangssignale können bei der Übertragung in ihrer Signalform<br />

verändert werden. Man denke nur an das Nachschwingen einer schwach gedämpften Struktur<br />

(z.B. einer Gitarren- oder Klavierseite) nach kurzer Stoßanregung: der Ausklingvorgang hat<br />

zeitlich gar keine Ähnlichkeit mit der Anregefunktion mehr. Als ein Beispiel für viele mag<br />

Bild 1.3 herhalten. Es zeigt den Zeitverlauf der Schwingungsgeschwindigkeit eines mit einem<br />

kurzen Schlag (= Delta-Funktion) zu Biegeschwingungen angeregten Stabes an einer<br />

gewissen Stabstelle (theoretisch gerechnet für einen sehr langen Stab). Die angeregte Delta-<br />

Funktion ist stark "verzogen" und nicht mehr zu erkennen.


9<br />

Ein weiteres Beispiel besteht in einem schmalbandigen Filter, von dem wir wohl erwarten<br />

dürfen, dass was aus einem BELIEBIGEN Eingangssignal einen reinen Ton herausfiltert und<br />

so den Systemeingang in der Signalform sogar erheblich verändert.<br />

Im Grunde bezieht sich die Theorie (und die Praxis) der spektralen Fourrier-Zerlegung von<br />

Signalen ihre Motivation aus dem oben erläuterten "Invarianzprinzip" an linearen,<br />

zeitinvarianten Übertragern bezüglich harmonischer Funktionen (wie reine Töne der Gestalt<br />

1.7 auch genannt werden). Gelingt es nämlich, einen beliebigen Eingang x(t) durch eine<br />

Summe von harmonischen Funktionen mit unterschiedlichen Frequenzen darzustellen, z.B.<br />

x(t) = ∑ x i e jω it<br />

i<br />

(1.10)<br />

dann ist das Übertragungsproblem gelöst, wenn nur die vom System einzig bewirkbare<br />

komplexe Verstärkung H(ω i ) für die Frequenzen ω i bekannt ist:<br />

y(t) = ∑ y i e jw it = ∑ H (ω i ) x i e jω it<br />

i<br />

i<br />

(1.11)<br />

Man nennt H(ω), mit veränderlich gedachter Frequenz, die komplexe Übertragungsfunktion.<br />

Sie stellt offensichtlich eine ebenso komplette Systembeschreibung dar wie die Impulsantwort<br />

h(t). Wenn es nur möglich ist, beliebige, gegebene Signale wie in 1.10 in harmonische


10<br />

Funktionen zu zerlegen, dann ermöglicht uns die Übertragungsfunktion H(ω) die<br />

Berechnung der Systemantwort aus 1.11.<br />

Wir sind damit auf eine mathematische Aufgabenstellung gestoßen, die uns für die<br />

Betrachtung von Übertragungsvorgängen als nutzbringend erscheint: wie muss man - analog<br />

zur in 1.10 ausgedrückten Absicht - verfahren, um ein Signal in harmonische Bestandteile zu<br />

zerlegen, wie ist die genaue Rechenvorschrift, um es aus diesen wieder zusammenzusetzen?<br />

Wie der folgende Abschnitt zeigt, sind diese Betrachtungen vergleichsweise einfach, wenn<br />

wir uns zunächst auf periodische Signale f(t) = f(t + m · T) mit einer Periode T beschränken.<br />

Der Grund dafür besteht einfach darin, dass in einem periodischen Signal nur solche<br />

harmonische Anteile vorkommen können, deren Periodendauern T n ganzzahlig in der<br />

Signalperiode T enthalten sind:<br />

T n<br />

= T n .<br />

Für die Frequenzen heißt das<br />

n<br />

ω<br />

n<br />

= 2π<br />

= n ω0<br />

.<br />

T<br />

Es kommen also nur Vielfache der Signalfrequenz für die harmonischen Bestandteile in<br />

Frage: Wir erhalten also einen Ansatz für das Signal, der nur diskrete Frequenzen enthält. Wir<br />

werden dann im Anschluss an die Betrachtungen periodischer Vorgänge von den dort<br />

gefundenen Ergebnissen ausgehend den Fall immer weiter gesteigerter Periodendauer<br />

betrachten. Wir erhalten dann als Grenzfall T ∞ auch die Möglichkeit, beliebige<br />

"einmalige" Vorgänge einzubeziehen.<br />

1.3 Harmonische Zerlegung periodischer Signale ("FOURIER"-Reihen)<br />

Als Ingenieure und Naturwissenschaftler sind wir ganz allgemein an eine bestimmte<br />

Vorgehensweise bei der Betrachtung von (physikalischen) Vorgängen gewöhnt. Auf Grund<br />

gewisser wohlbegründeter Überlegungen stellen wir ein mathematisches Modell für den<br />

Vorgang auf. Durch Vergleich zwischen der Theorie und geeigneten Messungen werden dann<br />

die im mathematischen Modell enthaltenen Unbekannten bestimmt. Zum Beispiel stellt man<br />

für die Schallausbreitung in Rohren ein mathematisches Modell auf, das aus gegenläufigen<br />

Schallwellen besteht. Es enthält als freien Parameter einen Reflexionsfaktor, der durch<br />

"Anpassung" des mathematischen Modells an die beobachtete Wirklichkeit ermittelt wird.


11<br />

Bei der Zerlegung von periodischen Signalen in harmonische Funktionen können wir analog<br />

vorgehen. Wir definieren uns eine Modellfunktion f M (t), die per Definition aus harmonischen<br />

Bestandteilen zusammengesetzt ist:<br />

N<br />

f<br />

M<br />

( t) = ∑a<br />

n<br />

jnω0t<br />

e . (1.12)<br />

n=−N<br />

Dabei können wir die Summations-Koeffizienten a n als freie Parameter ansehen. Wir werden<br />

nun die Unbekannten a n so bestimmen, dass f M (t) dem gegebenen Verlauf f(t) (der z.B. eine<br />

Messkurve darstellt) möglichst ähnlich wird.<br />

Es gibt mehrere Möglichkeiten, den Begriff "Ähnlichkeit zwischen zwei Funktionen" zu<br />

definieren. Zum Beispiel - und das ist der übliche Weg - kann man versuchen, die<br />

Koeffizienten an in (1.7) so zu bestimmen, dass der quadratische Fehler Q zwischen Modell<br />

und Wirklichkeit<br />

Q = 1 T<br />

∫<br />

T 2<br />

−T 2<br />

f(t)−f M (t)<br />

2<br />

dt (1.13)<br />

so klein wie möglich wird. Wir wollen hier diesen Weg durch eine mehr anschauliche<br />

Vorgehensweise ersetzen, die dafür - so ist es zu hoffen - ein klares Licht auf prinzipielle<br />

Eigenschaften und Abhängigkeiten wirft.<br />

Unseren Ähnlichkeitsbegriff definieren wir im Folgenden durch die Forderung, dass das nach<br />

(1.12) definierte, 2N+1, zunächst unbekannte enthaltene Modell in ebenfalls 2N+1<br />

gleichabständigen Punkten innerhalb einer Periode T mit der "Wirklichkeit" f(t)<br />

übereinstimmen soll (siehe auch Bild 1.4):<br />

( k ⋅ ∆t) = f ( k ⋅ ∆t)<br />

f M<br />

für k = 0,1,2,...2N<br />

und ∆t<br />

= +<br />

T /( 2N 1)<br />

(1.14)


12<br />

Gleichung (1.14) gibt damit Bestimmungsgleichungen für die unbekannten Koeffizienten an<br />

des Signalmodelles f M nach (1.12) an. Setzt man (1.12) in (1.14) ein, so erhält man mit<br />

ω 0 = 2π T und ∆t = T (2N +1)<br />

N<br />

∑<br />

n<br />

n=−N<br />

j2π<br />

nk<br />

2N<br />

+ 1<br />

a e<br />

k = 0,1,2,...,2N<br />

= f (k ⋅ ∆t)<br />

(1.15)<br />

Es ist damit also ein Gleichungssystem aus 2N+1 Gleichungen (Variation von k) mit den<br />

2N+1 Unbekannten an entstanden. Wenn es uns gelingt dieses Gleichungssystem nach den<br />

Unbekannten an aufzulösen, dann haben wir damit gleichzeitig auch einen Beweis der<br />

Lösbarkeit unseres Ausgangsproblems geführt: Wir haben damit gezeigt, dass es eben auch<br />

tatsächlich möglich ist, eine gegebene Funktion f(t) durch eine Funktionenreihe der Form<br />

(1.12) darzustellen, und zwar derart, dass f(t) vom Modell f M (t) in einer beliebig großen (aber<br />

endlichen) Anzahl von Stützstellen völlig korrekt beschrieben wird. Das bedeutet dann, dass<br />

eine beliebig vorgeb bare Funktion f(t) wirklich auch immer durch harmonische Funktionen<br />

wie in (1.12) "beliebig genau" im Sinne der Anpassung in beliebig vielen, beliebig dicht<br />

liegenden Einzelpunkten dargestellt werden kann.<br />

Tatsächlich bereitet die Lösung des Gleichungssystems (1.15) keine Schwierigkeiten.<br />

− j2πmk / 2N+<br />

1<br />

Multipliziert man (1.15) mit e , m zunächst fest gewählt, und summiert<br />

anschließend über k, so erhält man


13<br />

N 2N<br />

∑ a n e j2π(n−m)k 2N<br />

mk<br />

− j2π<br />

N<br />

∑ = ∑ f(k ∆t) e 2N+1 (1.16)<br />

n=− N k=0<br />

k=0<br />

Die innere summe links stellt eine geometrische Reihe der Form<br />

2N<br />

∑ q k<br />

k= 0<br />

= 1 − q2N+1<br />

1− q<br />

(1.17)<br />

n−m<br />

j2π<br />

dar, es ist also mit q = e 2N+1<br />

2N (n−m)k<br />

j2π<br />

e 2N<br />

∑ =<br />

k= 0<br />

⎧ 2N +1 ,n = m<br />

⎨<br />

⎩ 0 ,n ≠ m<br />

(1.18)<br />

Aus der linken Seite von 1.16 verbleibt deshalb nur das Summenfeld mit n=m, es ist also<br />

a m =<br />

2N<br />

mk<br />

1<br />

− j2π<br />

f(k ⋅ ∆t<br />

2N +1<br />

∑ )e 2N+1 (1.19)<br />

k=0<br />

Gleichung (1.19) gibt direkt die Lösung des Gleichungssystems (1.15) an. Zwar ist m zu<br />

Beginn "fest gewählt" worden, aber natürlich darf m dabei nacheinander alle Werte<br />

−N ≤ m ≤ N annehmen.<br />

Wenn wir zunächst "glatte", "nicht springende" - in der mathematischen Sprache ausgedrückt<br />

also stetige Funktionen f(t) betrachten (wie z.B. in den Bildern 1.5a bis c), dann zeigt uns die<br />

Herleitung der "Anpassung in Punkten" das Prinzip der Erfassung von f durch das Modell f M :<br />

je größer die Anzahl der Punkte "mit Übereinstimmung" ist, desto besser wird das Original in<br />

seinen Einzelheiten nachgebildet (Bilder 1.5a bis c). Wie man am Beispiel erkennt, benötigt<br />

man bei Steigerung der Anzahl 2N+1 immer kleinere höherfrequente Korrekturen, die durch<br />

die Hinzunahme von Harmonischen höherer Ordnung bewerkstelligt wird. Es liegt eben<br />

einfach in der Natur "glatter" Funktionsverläufe, dass schnelle Wechsel im Intervall zwischen<br />

zwei Punkten nicht mehr auftreten können, wenn diese Punkte nur einmal einen hinreichend<br />

kleinen Abstand haben. Demzufolge werden hohe Frequenzanteile auch nicht zur<br />

Nachbildung benötigt. Wie auch die Bilder 1.5 zeigen, kann es Probleme nur dort geben, wo<br />

die Änderungen vergleichsweise plötzlich sind: in den Bereichen knickenden Verlaufs. Hier<br />

werden viele Stützstellen benötigt, um den Knick auch detailgetreu zu erfassen; demzufolge<br />

sind dafür auch entsprechend viele Harmonische vonnöten. Insgesamt nehmen wir die<br />

höheren Amplituden dann ab einem gewissen aufwand N rasch ab: die Hinzunahme neuer


14<br />

Punkte und damit neuer Harmonischer "bringt nichts mehr". Die Funktionenreihe (1.12) muss<br />

ziemlich rasch konvergieren, man kann mit endlich vielen Summanden in jedem Kurvenpunkt<br />

eine beliebig genaue Annäherung an f(t) herstellen.


16<br />

Das Gegenteil trifft für unstetige, "springende" Funktionen zu (Bild 1.6 und 1.7a bis d): der<br />

"absteigende Ast" in Bild 1.6, der die beiden stetigen Kurvenstücke miteinander verbindet,<br />

kann bei endlicher Punktdichte gar nicht von einem Punkt getroffen werden, und demzufolge<br />

muss seine Nachbildung immer quasi "ungenügend" bleiben, solange man von einer<br />

endlichen Punktzahl ausgeht. Erst wenn der Abstand der Anpassungspunkte wirklich gegen<br />

Null strebt, kann eine "perfekte Nachbildung" auch gelingen: diese setzt also streng<br />

genommen unendlich viele Summanden in (1.12) voraus. Die Folge der Amplituden an<br />

konvergiert deshalb für unstetige Funktionen sehr viel langsamer gegen Null als für "glatte",<br />

stetige Verläufe. Das bedeutet gleichzeitig, dass unstetige Funktionen stets obertonreich sind,<br />

also "viele" hohe Frequenzen enthalten; hingegen sind stetige Verläufe (nahezu)<br />

bandbeschränkt und tieffrequent.<br />

Die Bilder (1.7a bis d) zeigen durchgerechnete Beispiele für die Nachbildung einer unstetigen<br />

Funktion. Wie man sieht, ist der "Sprungbereich" selbst kritisch. Man benötigt immer mehr<br />

Bestandteile in der Summe (1.12), wenn das Intervall "mit schlechter Nachbildung" um die<br />

Unstetigkeit herum schmaler gemacht werden soll. Offensichtlich nimmt die Breite "der<br />

Problemzone" mit wachsendem Aufwand N ab, sie kann deshalb natürlich auch beliebig<br />

schmal eingestellt werden. Dabei bleibt "das Problem selbst" innerhalb seines (mit<br />

wachsendem N abnehmenden) Intervalls jedoch unverändert: die Nachbildung f M (t) schwingt<br />

über, wobei zwar die Überschwingfrequenz mit N größer und die Überschwingdauer mit N<br />

kleiner wird, die maximale Höhe dieses Effekts bleibt jedoch von N unbeeinflusst. Die<br />

Tatsache, dass sich Fehler in der Nachbildung unstetiger Funktionen mit steigendem N auf ein<br />

immer schmaleres Intervall begrenzen, innerhalb dieses Intervalls jedoch die Abweichungen<br />

quasi nur zusammendrückt, ansonsten aber unverändert bleiben, ist als "Gibbsches<br />

Phänomen" bekannt. Solange die Anzahl der Summenglieder in (1.12) endlich, tritt es stets<br />

auf. Nur wirklich unendlich viele Frequenzbestandteile (und Anpassungspunkte) können die<br />

Breite der "Problemzone" um die Unstetigkeit herum zu Null machen und unstetige<br />

Funktionen so "überall genau" nachbilden. Die Folge der Amplituden an konvergiert deshalb<br />

auch recht langsam gegen Null. Wie man allgemein zeigen kann gilt für unstetige Funktionen<br />

an ~1/n für hinreichend große n.<br />

Aus den genannten Zusammenhängen lässt sich übrigens leicht eine Systematik für die<br />

Konvergenzeigenschaften der vorkommenden Folgen an ableiten. Dazu seien zunächst<br />

"gestückelte", dabei aber stetige Funktionen wie in den Bildern 1.5 betrachtet. Offensichtlich<br />

sind deren erste Ableitungen f'(t) unstetige Funktionen. Da die Ableitung von (1.12)<br />

gleichbedeutend mit einer Multiplikation von an mit n ist, gilt also n ⋅ a n ~1/n<br />

2. Das begründet<br />

auch, dass für die "guten Nachbildungen" in den Bildern 1.5 so viel weniger Summenglieder<br />

notwendig waren als für die Bilder 1.7. Auf gleiche Weise wie eben zeigt man, dass stetige<br />

Funktionen mit stetiger erster, aber unstetiger zweiter Ableitung zu Folgen n ⋅ a n ~ 1/n3 führen.<br />

Allgemein gilt:


17<br />

Sind f(t) und die ersten m Ableitungen von f(t) stetig und ist die (m+1)-te Ableitung<br />

unstetig, dann ist an~ (1/n)m+2 für hinreichend große n.<br />

Natürlich wird uns nun noch die Frage interessieren, in welcher Form die Gleichung zur<br />

Bestimmung der Koeffizienten an (1.19) übergeführt wird, wenn der in N ausgedrückte<br />

"Nachbildungsaufwand" immer mehr und mehr steigt, bis schließlich die Funktion f(t) durch<br />

ihr Modell f M (t) überall korrekt erfasst ist. diese Betrachtung ist gleichbedeutend mit einem an<br />

1.19 zu vollziehenden Grenzübergang N → ∞, bei dem gleichzeitig der Abstand<br />

∆ t = T /( 2N + 1)<br />

zwischen zwei Punkten gegen Null strebt. Mit 1/<br />

( 2N + 1) = ∆T / t wird<br />

zunächst aus 1.19<br />

a n = 1 T<br />

N<br />

∑<br />

n=− N<br />

f(k ⋅ ∆t) e<br />

⎛<br />

⎜<br />

⎝<br />

− j2πn k⋅∆t<br />

T<br />

⎞ ⎟<br />

⎠<br />

∆t<br />

Beim Grenzübergang N → ∞ liegen die Punkte k ⋅∆t nun beliebig dicht, deshalb geht k ⋅∆t<br />

in die kontinuierliche Variable t über, die Summation geht in die Summation infinitesimal<br />

kleiner Elemente - ein Integral also - und ∆t in das infinitesimal kleine Element dt über:<br />

k ⋅ ∆t → t<br />

N<br />

∑...∆t<br />

→ T 2<br />

∫<br />

...dt − T 2<br />

n=− N<br />

Es ist also schließlich<br />

T 2<br />

a n = f(t) e − jnω 0<br />

∫ t dt<br />

(1.20)<br />

−T 2<br />

die Bestimmungsgleichung für diejenige Modellfunktion f M (t), die nun überall mit dem<br />

Original f(t) identisch ist. Es ist also<br />

f M (t) = f(t) =<br />

∞<br />

a n e jnω 0t<br />

∑ (1.21)<br />

n=−∞<br />

eine Identität, wenn die an nach 1.20 berechnet werden.<br />

Abschließend wollen wir noch einmal den Charakter unserer Betrachtungen - die das<br />

Ausdrücken einer Funktion durch eine Funktionenreihe zum Gegenstand hatte - klar<br />

beleuchten. Wir haben zunächst die (als gegebene anzusehende) Funktion f(t) in diskreten<br />

Punkten erfasst. Wir können die Funktionswerte f(k ⋅ ∆t) in diesen diskreten Stützstellen als


18<br />

diejenigen Informationen erfassen, die wir eben über f(t) zur Verfügung haben. Gleichung<br />

1.19 formt nun diese Informationen in eine andere Gestalt - die Amplituden an nämlich - um.<br />

Diese sind dadurch zwar auch "Informationsträger" geworden, aber sie schildern (wie ein<br />

Negativ einer Photographie) dabei doch auch keinen anderen Inhalt als sie Stützstellen des<br />

Originals (der Photoabzug, das Positiv) selbst. So ist es natürlich auch mit der "überall<br />

exakten" Beschreibung 1.20 und 1.21: f(t) und die Folge der an geben sozusagen nur<br />

verschiedene Lesearten ein und desselben Sachverhaltes, der z.B. aus einer Messung<br />

resultiert. Durch "bloße Umrechnung" unter Benutzung von 1.20 von f(t) auf an ist keinerlei<br />

Informationsinhalt hinzugewonnen oder verloren worden. Etwas boshaft könnte man auch<br />

sagen: wir haben reinen Formalismus betrieben. Dass uns dieser jedoch gute Dienste tun<br />

kann, haben wir bereits in den vorangegangenen Abschnitten gesehen. Die<br />

TRANSFORMATION 1.20 des Zeitverlaufs stellt eine Zeitfunktion wie in 1.21 durch eine<br />

Summe vieler reiner Töne dar, ein sehr nützliches Hilfsmittel zur Betrachtung linearer<br />

Übertrager.<br />

1.4 FOURIER-Transformation<br />

Gerade für die letztgenannte Aufgabe - der Charakterisierung linearer Systeme - können wir<br />

natürlich nicht bei periodischen Funktionen stehenbleiben. Vielmehr müssen wir auf den<br />

allgemeinen, nicht-periodischen Fall abzielen. Wir können das tun, indem wir uns zunächst<br />

vorstellen, wir hätten einen t ≤ T / 2 umfassenden Ausschnitt aus einem (nicht-periodischen)<br />

Vorgang erfasst und diesen dann - wie im vorigen Abschnitt - "künstlich" periodisiert. Wenn<br />

nun der Ausschnitt T immer mehr anwächst, dann erfassen wir ein immer größeres Stück aus<br />

dem eigentlich interessierenden Verlauf. Im Grenzfall unendlicher Periode T haben wir dann<br />

schließlich die "ganze Wahrheit" in unserem Blickfeld T.<br />

Wenn die Periodendauer immer größer wird, dann wird der Abstand ∆f = 1/T zweier<br />

benachbarter Frequenzen immer geringer. Im Grenzfall T ∞ ist die Dichte der Frequenzen<br />

beliebig groß. Man muss daher die bei den periodischen Funktionen vorhandene Summe über<br />

diskrete Frequenzen mit zugehörigen diskreten Amplituden in ein Integral überführen. Dabei<br />

muss man beachten, dass die diskreten Amplituden a n mit wachsendem T jedenfalls dann<br />

abnehmen, wenn Funktionen betrachtet werden, die außerhalb eines bestimmten, begrenzten<br />

Zeitintervalls gleich Null sind: es ist ja die Eigenschaft wohl aller akustischen Vorgänge, dass<br />

sie einen Anfang und ein Ende haben.<br />

Wegen a n 0 mit T ∞ wird daher in der FOURIER-Summe 1.21 noch mit<br />

erweitert:<br />

T / T<br />

= T ⋅ ∆f


19<br />

∞<br />

f(t) =<br />

n<br />

∑ a n ⋅ T e jn ω 0 t ∆ f<br />

=-∞<br />

(1.22)<br />

Der Grenzübergang T ∞ muss sich nun auf a n ⋅ T erstrecken, denn nur dieses Produkt nimmt<br />

mit T ∞ einen von Null verschiedenen Grenzwert an, den wir mit F(ω) bezeichnen wollen:<br />

lim a n ⋅ T = F(ω)<br />

T→∞<br />

(1.23)<br />

Gleichzeitig geht ∆f in das infinitesimale Integrationselement df über. Es ist also:<br />

∞<br />

f(t) =<br />

-∞<br />

∫<br />

F(ω) e j ωt 1<br />

df = 2π<br />

∞<br />

∫<br />

-∞<br />

F(ω) e j ωt dω<br />

(1.24)<br />

In gleicher Weise gewinnt man aus der Vorschrift zur Bestimmung der FOURIERkoeffizienten<br />

T/2<br />

a n T =<br />

∫<br />

f(t) e -j n ω 0 t dt<br />

-T/2<br />

(1.25)<br />

die Transformationsgleichung zur Berechnung des sogenannten "Spektrums" F(ω):<br />

∞<br />

F(ω) =<br />

-∞<br />

∫<br />

f(t) e -j ωt dt<br />

(1.26)<br />

Wie man sieht, ist F(ω) eine Amplitudendichte-Funktion. Sie hat die Dimension von f(t) "pro<br />

Hertz":<br />

[ F ] = [ f ]/<br />

Hz<br />

f(t) und F(ω) werden "FOURIER-Transformations-Paar" genannt. F(ω) heißt die<br />

Transformierte von f(t), umgekehrt ist f(t) die Rücktransformierte von F(ω). Dieser<br />

Sachverhalt wird in dieser Vorlesung kurz durch<br />

F = F {f}<br />

f = F -1 {F} (1.27)


20<br />

bezeichnet. Gemeint ist damit immer der Zusammenhang<br />

f ( t) = F -1 F( ω)<br />

F( ω) = F f ( t)<br />

1<br />

2π<br />

∞<br />

∫<br />

−∞<br />

j<br />

{ } = ( ω) ω t<br />

F e dω<br />

∞<br />

∫<br />

−∞<br />

{ } f ( t)<br />

− jωt<br />

= e dt<br />

(1.28 a)<br />

, (1.28 b)<br />

der hier noch einmal zusammenfassend aufgeschrieben worden ist, weil er für diese<br />

Vorlesung von großer Wichtigkeit ist.<br />

Die anschauliche Interpretation des obengenannten FOURIER-Gleichungs-Paars geht bereits<br />

aus dem Ableitungsgang hervor. Die Rücktransformationsgleichung f(t) = F -1 {F(ω)} erklärt<br />

eine beliebige Funktion f(t) als "aus unendlich vielen reinen Tönen zusammengesetzt". Die<br />

Transformationsvorschrift F = F {f} zeigt, auf welche Weise die zugehörigen Amplituden<br />

(eigentlich deren Dichte) ermittelt werden. Man kann daher die Transformationsgleichung als<br />

"mathematisches Filter" interpretieren, welches die Frequenzbestandteile der Zeitfunktion bei<br />

der (zunächst fest gedachten) Kreisfrequenz ω durchlässt und alle anderen Frequenzen<br />

ausblendet. Indem ω variiert wird, erhält man schließlich das ganze komplexe Spektrum F.<br />

1.5 Sätze über die Fourier-Transformation<br />

a) Faltung im Zeitbereich<br />

Wir haben weiter vorn festgestellt, dass jedes lineare System durch Faltung des Eingang-<br />

Zeitverlaufes x(t) mit der Impulsantwort h(t)<br />

∞<br />

∫<br />

−∞<br />

( t) h( τ) ⋅ x( t − τ)<br />

y = dτ<br />

(1.29)<br />

in seinem Ausgang y(t) beschrieben werden kann.<br />

Eine Alternative besteht in der Beschreibung im Frequenzbereich<br />

( ω) = H( ω) X( ω)<br />

Y , (1.30)<br />

wobei X und Y die Fourier-Transformatierten von Eingang und Ausgang darstellen.


21<br />

Beide Methoden der Charakterisierung (ein und desselben) linearen Systems müssen<br />

vollkommen äquivalent sein und ineinander übergehen. Es fragt sich nur noch, wie denn die<br />

Übertragungsfunktion H(ω) und die Impulsantwort h(t) in Zusammenhang stehen. Um es<br />

vorwegzunehmen: natürlich bilden die Funktionen<br />

h (t) = F -1 { ( ω)<br />

}<br />

H (1.31)<br />

ein Fourier-Transformationspaar. Der Beweis ist leicht. Transformieren wir dazu (1.19)<br />

Y<br />

∞<br />

− jωt<br />

− jωt<br />

( ) = y( t) e dt = h( τ) x ( t − τ) dτe<br />

dt<br />

−∞<br />

∞ ∞<br />

ω ∫ ∫ ∫<br />

−∞ −∞<br />

und kehren die Reihenfolge der Integrationen um<br />

Y<br />

( ω) = h( τ) x ( t − τ)<br />

=<br />

∞<br />

∫<br />

−∞<br />

∞<br />

∫<br />

−∞<br />

h<br />

∞<br />

∫<br />

−∞<br />

∞<br />

dt dτ<br />

− jωt<br />

− jω( t−τ) ( τ) e x( t − τ) e d ( t − τ) dτ<br />

∫<br />

−∞<br />

e<br />

− jωt<br />

so erhalten wir<br />

Y<br />

∞<br />

∫<br />

−∞<br />

− jωτ<br />

( ω) = X( ω) h( τ) e dτ<br />

.<br />

Der Vergleich mit (1.20) zeigt<br />

H<br />

∞<br />

∫<br />

−∞<br />

jωt<br />

( ω ) = h( t) e dt<br />

also ist die Übertragungsfunktion gleich der FOURIER-transformierten Impulsantwort.<br />

Mathematisch gesehen haben wir nur gezeigt, dass (1.29) und (1.30) Folgerungen auseinander<br />

sind. Das heißt, dass der Multiplikation zweier Fourier-Transformierter im Zeitbereich die<br />

Faltung der zugehörigen Rücktransformierten entspricht. Diese Tatsache wird als<br />

"Faltungssatz" bezeichnet.<br />

Es ist dieser Faltungssatz, der uns noch einmal deutlich macht, dass die Systembeschreibung<br />

durch die Impulsantwort und durch die Übertragungsfunktion gänzlich äquivalent ist.<br />

Demnach gibt es eine anschauliche Deutung der Tatsache, dass die System-Reaktion h(t) auf<br />

die Impuls-Anregung δ(t) eine so ausgezeichnete Rolle besitzt. Der Grund dafür liegt in der<br />

Gestalt des Spektrums von δ(t). Gl. (1.5) zeigt nämlich, dass das Spektrum ∆(ω)


22<br />

∆<br />

∞<br />

− jωt<br />

( ω) = δ( t) e dt = 1<br />

∫ (1.32)<br />

−∞<br />

ideal breitbandig ist: es besitzt für alle Frequenzen den gleichen Wert 1. Es ist wohl kein<br />

Wunder, dass eine Anregung mit dieser einzigartigen Eigenschaft ideal geeignet ist, in alle<br />

"Frequenzwinkel" des Systems "hineinzuleuchten". Wirklich gibt es kein anderes Eingangs-<br />

Test-Signal endlicher Dauer, das nicht mindestens eine spektrale Nullstelle hätte: jedes andere<br />

Testsignal als die δ-Funktion würde deshalb gewisse Frequenzen überhaupt nicht enthalten<br />

und könnte daher auch nicht "alle Saiten" des Systems "zum Erklingen" bringen.<br />

b) Faltung im Frequenzbereich<br />

Wir werden an späterer Stelle noch sehen, saß auch die Multiplikation von Zeitfunktionen in<br />

der <strong>Signalverarbeitung</strong> eine Rolle spielt (siehe Abschnitt 2.4 "Signalmodelle"). Es seien also<br />

z ( t) = x( t) ⋅ y( t) = F -1 { z ( ω)<br />

}<br />

X ( ω) = F { x }<br />

Y ( ω) = F { y }<br />

dann ist<br />

Z<br />

1<br />

2π<br />

∞<br />

∫<br />

−∞<br />

( ω) = X( u) Y( ω − u)du<br />

(1.33)<br />

Der Beweis ist leicht, wenn man von der letzten Gleichung ausgeht und sie der<br />

Rücktransformation unterzieht. Man zeigt dann wie im vorigen Abschnitt, dass<br />

z t = x t ⋅ y t folgt.<br />

( ) ( ) ( )<br />

Wie man sieht, entspricht der Multiplikation im Zeitbereich die Faltung im Frequenzbereich.<br />

Der Faltungssatz ist umkehrbar, wobei man lediglich noch den Faktor 1 2π<br />

vor dem Integral<br />

bei der "Faltung im Frequenzbereich" beachten muss.<br />

c) Energiesatz<br />

Setzt man im Faltungssatz<br />

1<br />

2π<br />

∞<br />

∫<br />

-∞<br />

∞<br />

H(ω) · F(ω) e j ωt dω = h (τ) · f (t - τ) dτ<br />

∫<br />

-∞<br />

für H(ω)


23<br />

H(ω) = F*(ω)<br />

und entsprechend<br />

h(t) = F -1 {F*(ω)} = f*(-t) ein, so erhält man für t = 0:<br />

1<br />

2π<br />

∞<br />

∞<br />

∫<br />

F(ω) · F*(ω) dω =<br />

∫<br />

-∞<br />

-∞<br />

∞<br />

f*(-τ) f (- τ) dτ =<br />

∫<br />

f (t) f*(t) dt<br />

-∞<br />

(1.34)<br />

Die letzte Gleichung wird Energiesatz genannt.<br />

d) Folgerungen aus der Kausalität<br />

Unter Kausalität eines Systems wollen wir verstehen, dass die Ausgangs-Relation y erst nach<br />

dem Anfang der Eingangs-Anregung x beginnen kann. Insbesondere gilt dann:<br />

x t < 0 = 0 ⇒ y t < 0 = .<br />

( ) ( ) 0<br />

Für reelle Zeitfunktionen f(t) lassen sich die folgenden Symmetrieeigenschaften der FOURIER-<br />

Transformation leicht zeigen:<br />

f(t) reelle Funktion: Im{f(t)} = 0 ⇔ F(ω) = F*(-ω)<br />

f(t) gerade Funktion: f(t) = f(-t) ⇔ F(ω) reell<br />

f(t) ungerade Funktion: f(t) = -f(-t) ⇔ F(ω) imaginär<br />

Nun kann man natürlich jedes f(t) in geraden und ungeraden Anteil zerlegen:<br />

f<br />

1<br />

1<br />

= + [ f ( t) + f ( − t)<br />

]<br />

(1.35)<br />

2 <br />

<br />

2 <br />

<br />

( t) [ f ( t) + f ( − t)<br />

]<br />

fg<br />

( t )<br />

Nach den genannten Symmetrieeigenschaften ist deshalb:<br />

fu<br />

( t )<br />

Re {F(ω)} = F{f g (t)}<br />

jIm {F(ω)} = F{f u (t)} (1.36)<br />

d.h., der Realteil der FOURIER-Transformierten korrespondiert mit dem geraden<br />

Funktionsanteil von f, der Imaginärteil mit dem ungeraden Anteil.<br />

Das hat für kausale Funktionen f(t


24<br />

f g (t > 0)<br />

= f u (t>0)<br />

gelten, denn dann und nur dann ist f(t 0<br />

ist also<br />

f u (t) = sign(t) · f g (t) (1.37)<br />

Da nun für kausale Funktionen der ungerade Anteil f u (t) eindeutig aus dem geraden Anteil<br />

f g (t) hervorgeht, bedeutet dies: wenn der Realteil der FOURIER-Transformation einer kausalen<br />

Funktion gegeben ist, dann ist damit alleine wegen der Kausalität der Imaginärteil von F(ω)<br />

auch bereits festgelegt und kann nicht unabhängig vom Realteil gewählt werden. Wenn am in<br />

1.37 transformiert, so erhält man mit 1.36<br />

F{f u (t)} = jIm{F(ω)} = F{sign(t) f g (t)} = F{sign(t) F-1{Re{F(ω)}}} ,also<br />

Im{F(ω)}=F{-j sign(t) F -1 Re{F(ω)}}} (1.38)<br />

In Worten: Der Imaginärteil der FOURIER-Transformation geht direkt aus dem Realteil der<br />

FOURIER-Transformation hervor, kausale Zeitfunktionen vorausgesetzt. Ist darüber hinaus das<br />

kausale f(t) noch reell, dann genügt für die Festlegung des kompletten Spektrums die Angabe<br />

von Re{F(ω)} für ωε0. In Wahrheit ist das nicht verwunderlich. Bezeichnen wir die<br />

Festlegung einer reellwertigen Funktion entlang einer Halbachse (t > 0 bzw. t < 0 bzw. ω > 0<br />

bzw. ω < 0) als "eine Informationseinheit". Dann enthält eine komplexe Zeitfunktion 4<br />

unabhängige Informationseinheiten. Entsprechend enthält die Transformierte 4<br />

Informationseinheiten, denn Symmetrien sind nicht bekannt. Ist f(t) dagegen reell, dann sind<br />

nur 2 Informationseinheiten in f(t) enthalten. Das gilt auch, wenn man vom Spektrum<br />

ausgeht: Man kann F(ω) nur für ω > 0 frei wählen, die Werte für ω ≤ 0 ergeben sich aus<br />

F − ω = F*<br />

ω . Ist dann f(t) reell und kausal, so ist in f(t) nur noch eine Informationseinheit<br />

( ) ( )<br />

enthalten. Klar, dass dann auch im Spektrum nur eine Informationseinheit vorhanden sein<br />

kann: die Angabe von Re{F(ω)} für ω>0 bestimmt das Spektrum komplett.<br />

Zum Abschluss sei noch erwähnt, dass die obengenannte Operationskette<br />

F {j sign(t) F -1 {X(ω)}} = H{X(ω)} (1.39)


25<br />

als "HILBERT-Transformation" bezeichnet wird. Sie ist keine "Transformation im echten<br />

Sinne" wie die FOURIER-Transformation. Anders als die letztere konstatiert die HILBERT-<br />

Transformation einen Zusammenhang zwischen zwei nicht-unabhängigen Funktionen. Die<br />

FOURIER-Transformation dagegen ist eine "echte Transformation": Sie transformiert ein<br />

Problem von einem "Originalbereich" (t) in einen Bildbereich (ω), wobei das Problem selbst<br />

unverändert bleibt (und umgekehrt).<br />

1.6 Ein Beispiel: der einfache Resonator<br />

Ein in der <strong>Akustik</strong> ziemlich oft vorkommendes Beispiel besteht in einem einfachen<br />

Resonator. Er besteht (Bild 1.8) aus einer Masse m, die mit einer Feder (Steife s) und einem<br />

Reibdämpfer (Reibkonstante r) an einem Fundament befestigt ist.<br />

Nach dem Newtonschen Prinzip, nach dem die auf einen Körper der Masse m wirkende Kraft<br />

zu beschleunigten Bewegungen führt, ist<br />

m d2 x<br />

dt 2 = f − f s − f r , (1.40)<br />

wenn x die Auslenkung der Masse, d 2 x/dt 2 die zugehörige Beschleunigung, f die anregende<br />

Kraft, fs die Federkraft und fr die Reibungskraft bedeuten. Im einfachsten Fall (bei<br />

hinreichend kleinen Bewegungen x nämlich) kann man von einer Hookschen Feder<br />

f s = s⋅ x<br />

und von viskoser Reibung


26<br />

f r = r ⋅ dx<br />

dt<br />

ausgehen. Dann ist<br />

m ⋅ d2 x<br />

dt + r ⋅ dx + s⋅ x = f (1.41)<br />

2 dt<br />

die Bewegungsgleichung.<br />

Wenn man die Kraft f als Anregung (= Systemeingang) und die Auslenkung x als Reaktion<br />

ansieht (= Systemausgang), dann erhält man aus 1.41 für die Übertragungsfunktion<br />

H(ω) = X(ω)<br />

F(ω) = 1<br />

s − mω 2 + jω<br />

(1.42)<br />

(wie man leicht mit<br />

x<br />

jωt<br />

= X e und<br />

f<br />

jωt<br />

= Fe zeigt). Mit den "Abkürzungen"<br />

• Resonanzfrequenz ω = s<br />

0<br />

und (1.43)<br />

m<br />

r ⋅ ω0<br />

r<br />

• Verlustfaktor η = =<br />

(1.44)<br />

s s ⋅ m<br />

kann man auch - etwas übersichtlicher-<br />

H(ω) =<br />

1<br />

s<br />

1− ω2<br />

ω + j η ω (1.46)<br />

2<br />

0<br />

ω 0<br />

schreiben. Bild 1.9 zeigt eine graphische Darstellung für die drei verschiedenen<br />

Verlustfaktoren η.


27<br />

Wenn man von Resonanzgipfel in ω ≅ ω 0<br />

absieht, handelt es sich um einen Messpass,<br />

dessen Frequenzgang mit 12dB/Oktave oberhalb der Resonanz abnimmt. Der Frequenzgang<br />

H(ω) steht z.B. für den eines Kondensatormikrophones, bei dem bekanntlich die<br />

Ausgangsspannung proportional zur Membranauslenkung ist und das im mechanischen<br />

Aufbau (im Wesentlichen) einem einfachen Resonator gleicht.<br />

Die Rücktransformation von H(ω) stellt die Impulsantwort h(t) dar,<br />

h(t) =F -1 {H(ω)}<br />

=<br />

1<br />

2<br />

1<br />

π s<br />

∫ ∞ −∞<br />

e<br />

2<br />

ω<br />

1−<br />

ω<br />

2<br />

0<br />

jωt<br />

dω<br />

ω<br />

+ jη<br />

ω<br />

0<br />

(1.47)<br />

Das Ergebnis der im Prinzip einfachen, aber etwas langwierigen Lösung des Integrals (am<br />

besten mit dem Residuensatz oder mit einer Partialbruchzerlegung, siehe Skript „Theoretische<br />

<strong>Akustik</strong>“ besteht in der kausalen Impulsantwort<br />

h(t)<br />

⎧<br />

⎪<br />

⎨ 1<br />

⎪<br />

⎩mω<br />

0, t < 0<br />

= −ηt<br />

d<br />

e<br />

/ 2<br />

sin ω t<br />

d<br />

(1.48)


28<br />

die aber einen gedämpften Ausschwingvorgang darstellt. Bild 1.10 zeigt die Impulsantwort<br />

für verschiedene Dämpfungen ausgedrückt durch den Verlustfaktor η. Man kann dem Bild<br />

entnehmen, dass Impulsantworten "kurz" oder "lang" sein können, eine vielleicht<br />

selbstverständliche Tatsache, die jedoch bei der Messung von Übertragungseigenschaften von<br />

Systemen (Kapitel 4) eine erhebliche Rolle spielt.<br />

Zum Abschluss sei noch auf die (wohl ebenfalls selbstverständliche, oft aber vergessene)<br />

Tatsache hingewiesen, dass jede Größe an ihre Definition gebunden ist: oben ist H(ω) aus<br />

dem Verhältnis von AUSLENKUNG und Kraft definiert; h beschreibt ebenfalls eine<br />

Auslenkung (nämlich bei der Impulsanregung). Wenn man diese Definition ändert, z.B. auf<br />

Hv(ω) = Schnelle/Kraft = V(ω)/F(ω) übergeht, dann erhält man natürlich auch einen<br />

geänderten Frequenzgang und eine andere Impulsantwort; z.B. ist<br />

und<br />

Hv(ω) = jω H(ω) (1.49)<br />

hv(t) = dh/dt . (1.50)<br />

Diese Bemerkungen sollen nur deutlich machen, dass es "die" Übertragungsfunktion des<br />

einfachen Resonators (als Beispiel) gar nicht gibt; man muss schon dazu sagen, wie sie denn<br />

definiert ist. Das wird oft vergessen und führt dann zu Rätselraten.


30<br />

2. Abtastfolgen<br />

Es ist wohl eine Tautologie: digitale <strong>Signalverarbeitung</strong> geschieht mit Digitalrechnern. Damit<br />

die Computer ein numerisches "Processing" auf Signale durchführen können, müssen sie den<br />

(eigentlich kontinuierlichen) Zeitverlauf der Signalspannung (die ja zum Beispiel zu einer<br />

physikalischen Größe, etwa "Schalldruck" proportional sein kann) erst einmal "in Erfahrung"<br />

bringen.<br />

Dies geschieht mit einem Analog-Digital-Wandler. Er ermittelt in gleichen Zeitabständen ∆t<br />

die Größe der jeweils momentanen Eingangsspannung und leitet diesen Wert als digital<br />

verschlüsselte Zahl an den Rechner weiter, wo die eintreffenden Spannungswerte der<br />

Reihenfolge nach im Speicher abgelegt werden. Man erhält so eine Zahlenfolge x(m) als<br />

Repräsentant der kontinuierlichen Zeitfunktion x(t) (Bild 2.1).<br />

Das n-te Folgen-Element gehört dabei zur Zeit<br />

t = n · ∆t (2.1)<br />

wobei meist statt dem Inkrement ∆t die Abtastfrequenz<br />

f tast<br />

= 1<br />

∆t (2.2)


31<br />

bzw. die Abtastkreisfrequenz<br />

ω tast<br />

= 2π f tast<br />

(2.2a)<br />

als technische Kenngröße angegeben wird.<br />

Praktische AD-Wandler überdecken mit Leichtigkeit den akustisch relevanten Bereich von<br />

Abtastfrequenzen, selbst Werte f tast = 100 kHz stellen heute kein technischen Problem mehr<br />

dar. Die Verwendung eines Digitalrechners zur Datenverarbeitung bringt es also zwangsläufig<br />

mit sich, dass das (eigentlich interessierende) kontinuierliche Signal nur in äquidistanten<br />

Stützstellen bekannt ist. Durch diese "Diskretisierung der Zeit" geht möglicherweise viel von<br />

Information über den kontinuierlichen Zeitverlauf verloren: wir kennen nichts von dem Signal<br />

zwischen den zeitlichen Stützstellen. Wir werden also zu fragen haben: unter welchen<br />

Voraussetzungen ist die Abtastfolge x(m) denn noch ein "vernünftiger" Repräsentant des<br />

kontinuierlichen Vorganges x(t)? Und insbesondere: wie hängen denn die Spektren von<br />

Zahlenfolge x(n) und von Verlauf x(t) zusammen?<br />

Zunächst werden wir diesem Problem nachgehen. Natürlich drängt sich uns gleich noch eine<br />

zweite Frage auf: was ist, wenn die vorgesehene Speicherkapazität nicht ausreicht und nur ein<br />

"Ausschnitt" des Signals zur Verfügung steht? Auch dieses Problem werden wir später<br />

natürlich behandeln. Zunächst wollen wir annehmen, der Speicher stehe unbegrenzt zur<br />

Verfügung und die Konsequenzen der "Diskretisierung der Zeit" diskutieren.<br />

2.1 FOURIER-Transformation von Zahlenfolgen<br />

Da nun kein kontinuierlicher Verlauf x(t) mehr bekannt ist, können wir nur versuchen, die<br />

Berechnungsvorschrift des Spektrums X(ω)<br />

X<br />

∞<br />

∫<br />

−∞<br />

( ω) = x( t)<br />

e<br />

− jωt<br />

dt<br />

(2.3)<br />

durch eine Approximation abzuschätzen.<br />

Schon intuitiv würden wir versuchen, das Integral (2.3) durch eine Summe anzunähern:<br />

( ω) = x( n)<br />

∑ ∞ − jnω∆t<br />

X<br />

S<br />

e ∆t<br />

. (2.4)<br />

n=<br />

−∞


32<br />

Wir erwarten, dass wir dabei eine "Schätzung" X S (ω) für das "wahre" Spektrum X(ω)<br />

bekommen. Natürlich wird uns die Güte der Schätzung interessieren, wir werden also noch<br />

nach den Abweichungen zwischen X S (ω) und X(ω) zu fragen haben.<br />

Um das zu tun, benötigen wir zunächst natürlich wieder "exakte Begriffe", d.h., wir müssen<br />

zunächst die Transformation von Zahlenfolgen definieren und ihre Eigenschaften diskutieren.<br />

Der in (2.4) ausgedrückte "Versuch einer Annäherung an das wahre Spektrum" legt eine<br />

Definition der Abbildungsvorschrift nahe. Setzen wir noch ∆t = 1/f tast (Gl. 2.2) ein, so ist<br />

( ω = 2π f )<br />

1<br />

( ) ∑ ∞ ω<br />

− j2πn<br />

X ω = ( ) ω<br />

S<br />

x n e<br />

tast . (2.5)<br />

f<br />

tast n=<br />

−∞<br />

Das Spektrum X S (ω) hängt - von einer Skalierung abgesehen - nur vom Frequenzverhältnis<br />

f/f tast ab. Offensichtlich ist X S (ω) eine periodische Funktion mit der Periode ω tast :<br />

X<br />

( ω ) = X ( ω + K ω ) ; K = 0, ± 1, 2,<br />

S S<br />

tast<br />

±<br />

…<br />

Wir können daraus schon schließen, dass die Schätzung X S (ω) mit dem wahren Spektrum<br />

X(ω) allenfalls in einem Frequenzintervall übereinstimmen kann, das höchstens die Breite<br />

ω tast besitzt.<br />

Die beiden genannten Eigenschaften "der Schätzung" wollen wir in der Definition der<br />

Folgentransformation ebenfalls vorfinden. Wir definieren daher als Fourier-Transformierte<br />

einer Zahlenfolge<br />

j<br />

( e<br />

Ω ) = x( n)<br />

∑ ∞ − jnΩ<br />

X e . (2.6)<br />

n=<br />

−∞<br />

Unabhängig von einem "Zweck", stellt diese Gleichung einfach eine mathematische<br />

Abbildungsvorschrift - eine Transformationsgleichung - dar, die auf die Folge (x(n)<br />

angewandt wird und X(ejΩ) - das Spektrum der Folge - zum Ergebnis hat. Praktischen Nutzen<br />

erhalten wir aus (2.6), weil wir sie als "Schätzwert-Berechnung" interpretieren dürfen. Es ergibt<br />

sich nämlich<br />

X S (ω) = 1<br />

f tast<br />

X(e jΩ )<br />

mit Ω = 2π<br />

ω<br />

ω tast<br />

(2.7a)<br />

(2.7b)


33<br />

2.2 Eigenschaften der FOURIER-Transformation von Folgen<br />

a) Rücktransformation<br />

Eine Transformationsgleichung ist im Grunde ja nichts weiter als "die Umrechnung von<br />

Informationen (z.B. die in einem Zeitverlauf f(t) enthaltenen Informationen) in eine andere<br />

Darstellungsweise" (z.B. in eine Spektralfunktion F(ω)). Dass darin auch ein Sinn liegt, ist<br />

nicht durch die Abbildungsvorschrift "Transformation" selbst begründet. Erst das Problem,<br />

das durch die Methode des Transformierens gelöst wird (z.B. die Beschreibung des<br />

Übertragungsverhaltens linearer Systeme), deckt den Zweck des Mittels auf.<br />

Die genannte "Informationstreue" zwischen Original- und Bildbereich erwarten wir auch für<br />

die Transformierte X(ejΩ) von Folgen x(n). Es muss also gelingen, die Folge x(n) aus X(ejΩ)<br />

"wiederherzustellen", sonst wäre X keine vollständige Darstellung der in der Folge x(n)<br />

(gleichfalls) enthaltenen Informationen.<br />

Die Bildung der Rücktransformationsvorschrift muss naturgemäß von der<br />

Transformationsvorschrift<br />

jΩ<br />

( e ) =<br />

X F { ( n)<br />

} = x( n)<br />

∑ ∞ − jnΩ<br />

x e<br />

(2.8)<br />

n=<br />

−∞<br />

ausgehen. Zur "Auflösung" von (2.8) nach Folgenelementen x(n) verwendet man die<br />

sogenannte "Orthogonalitäts-Relation" der harmonischen Funktionenfolge e-jnΩ. Wie man<br />

sehr leicht zeigen kann, gilt nämlich<br />

1<br />

π<br />

π<br />

jmΩ<br />

− jnΩ<br />

n<br />

2π<br />

∫<br />

−π<br />

e<br />

e<br />

1<br />

dΩ =<br />

2π<br />

∫<br />

−π<br />

e<br />

j( m−<br />

) Ω<br />

dΩ = δ( m − n)<br />

(2.9)<br />

wobei wir unter der diskreten Delta-Funktion<br />

δ (m-n) = {<br />

1 ; m - n = 0<br />

0 ; m - n ≠ 0 (2.10)<br />

verstehen wollen.<br />

Diese Eigenschaft kann nun benutzt werden, um aus der Summe (2.8) ein Glied<br />

"herauszublenden". Multipliziert man (2.8) mit ejmΩ (m fest gedacht) und integriert, so ist


34<br />

1<br />

2π<br />

=<br />

π<br />

∫<br />

−π<br />

∞<br />

∑<br />

n=−∞<br />

x<br />

∞<br />

π<br />

jΩ<br />

1 j( m−n<br />

)<br />

( ) dΩ = ∑ x( n) ∫ e<br />

X e<br />

n=−∞<br />

2π<br />

( n) ⋅ δ( m − n) = x( m)<br />

−π<br />

Ω<br />

dΩ<br />

Wir haben so (2.8) nach dem m-ten Folgenglied aufgelöst. Natürlich können wir für m jede<br />

ganze Zahl einsetzen, es ist also für alle x(n)<br />

x<br />

π<br />

1<br />

=<br />

2π<br />

∫<br />

jΩ<br />

jnΩ<br />

( n) X( e ) e dΩ<br />

=<br />

−π<br />

F -1 jΩ<br />

{ ( e )}<br />

X (2.11)<br />

die gesuchte Rücktransformationsgleichung.<br />

b) Multiplikation von Spektren (Faltung im Originalbereich)<br />

Ebenso wie bei "kontinuierlichen" Systemen interessiert uns das Übertragungsverhalten<br />

"diskreter" linearer und zeitinvarianter Systeme. Wie in Abschnitt 1 folgt aus der Linearität<br />

(und der Zeitinvarianz), dass die Systemantwort y(n) bei Eingang x(n) durch die Faltung<br />

∞<br />

( n) = h( n − k) x( k) = h( k) x( n − k)<br />

∑<br />

k=−∞<br />

∞<br />

∑<br />

y (2.12)<br />

k=−∞<br />

mit der diskreten Impulsantwort h(n) gegeben ist. Den Beweis erbringt man wie vorne durch<br />

die Darstellung des Eingangs durch eine Summe von Impuls-Anregungen<br />

( n) = x( k) ⋅ δ( n − k)<br />

∑ ∞<br />

k=<br />

−∞<br />

x .<br />

Jeder Einzelimpuls (= jedes einzelne Summenglied) resultiert in einem Teilausgang<br />

n = x k h n − k , die Summation (und das Superpositionsprinzip) liefert (2.12).<br />

y E<br />

( ) ( ) ( )<br />

Natürlich gehört auch diesmal wieder zur Faltung im Originalbereich die Multiplikation der<br />

Spektren im Bildbereich. Wir zeigen dies, indem wir aus (2.12) das Spektrum Y(ejΩ) bilden.


35<br />

∞<br />

∞ ∞<br />

jΩ<br />

− jnΩ<br />

( ) = ∑ y( n) e = ∑ ∑ h( n − k) x( k)<br />

Y e<br />

=<br />

=<br />

=<br />

n=−∞<br />

∞<br />

∑<br />

k=−∞<br />

∞<br />

∑<br />

k=−∞<br />

∞<br />

∑<br />

k=−∞<br />

x<br />

x<br />

x<br />

∞<br />

( k) = h( n − k)<br />

∑<br />

n=−∞<br />

∞<br />

− jkΩ<br />

− j( n−k<br />

)<br />

( k) e h( n − k) e<br />

∑<br />

n=−∞<br />

∞<br />

− jkΩ<br />

− jnΩ<br />

jΩ<br />

jΩ<br />

( k) e ∑ h( n) e = X( e ) H ( e )<br />

n=−∞<br />

n=−∞<br />

k=−∞<br />

e<br />

− jnΩ<br />

Ω<br />

e<br />

− jnΩ<br />

(2.13)<br />

worin H(ejΩ) = F {h(n)} ist.<br />

c) Multiplikation von Folgen<br />

Wir werden bald Anlass zu folgender Frage haben: Wie wirkt sich die Multiplikation zweier<br />

Folgen<br />

y (n) = g (n) · x (n) (2.14)<br />

auf die Spektren aus? Tatsächlich werden wir sehen, dass Folgen (die von Messsignalen<br />

gebildet werden) nur vermittels einer Multiplikation mit einer anderen Folge (der<br />

"Fensterfolge") beobachtet werden.<br />

Natürlich entspricht (2.14) der Faltung im Frequenzbereich. Zum Beweis gehen wir vom<br />

vermuteten Resultat<br />

jΩ<br />

1 j( Ω−ν)<br />

jν<br />

( ) G( e ) X( e )<br />

Y e<br />

π<br />

∫<br />

−π<br />

= dν<br />

2π<br />

(2.15)<br />

aus und zeigen die Identität mit (2.14): Multiplikation mit e-jnΩ und Integration ergibt<br />

y<br />

π<br />

1 jΩ<br />

( n) = ∫ Y( e )<br />

=<br />

=<br />

=<br />

=<br />

2π<br />

1<br />

( 2π)<br />

1<br />

2<br />

( π)<br />

1<br />

2<br />

−π<br />

2<br />

−π −π<br />

π<br />

∫<br />

−π<br />

π<br />

∫<br />

π<br />

π<br />

∫ ∫<br />

( π)<br />

−π<br />

x( n) ⋅ g( n)<br />

j( Ω−ν)<br />

jν<br />

( ) X ( e )<br />

π<br />

jν<br />

1<br />

j( Ω−ν)<br />

( ) G ( ) ∫ ( e )<br />

X e<br />

jν<br />

( )<br />

X e<br />

e<br />

G e<br />

jnΩ<br />

e<br />

dΩ<br />

2π<br />

− jnν<br />

−π<br />

1<br />

2<br />

( π)<br />

π<br />

∫<br />

−π<br />

G<br />

e<br />

jnΩ<br />

dν<br />

dΩ<br />

e<br />

jnΩ<br />

dΩ<br />

dν<br />

j( Ω−ν)<br />

− jn( Ω−ν)<br />

( e ) e<br />

dΩ<br />


36<br />

q.e.d. (N.B.: Dabei ist die triviale Beziehung<br />

+π+α<br />

∫<br />

−π+α<br />

π<br />

jΩ<br />

− jnΩ<br />

jΩ<br />

( ) e dΩ<br />

= ∫ G ( e )<br />

G e<br />

−π<br />

e<br />

− jnΩ<br />

dΩ<br />

benutzt worden, die man leicht aus der Periodizität des Integranden beweisen kann).<br />

d) Energiesatz, Autokorrelierte<br />

Der Energiesatz besagt, dass die "Energie der Folge" gleich der "Energie des Spektrums" ist:<br />

! ∞<br />

1<br />

E = ∑ x<br />

2π<br />

∫<br />

n=−∞<br />

π<br />

2<br />

jΩ<br />

2<br />

( n) = X( e ) dΩ<br />

−π<br />

(2.16)<br />

Zum Beweis geht man vom Faltungssatz<br />

∞<br />

∑<br />

k=−∞<br />

h<br />

π<br />

1 jΩ<br />

jΩ<br />

( n − k) x( k) = ∫ H( e ) X( e )<br />

2π<br />

−π<br />

e<br />

aus, setzt h (n) = x* (-n) (woraus H (ejΩ) = X* (ejΩ) folgt) und erhält die sog. Autokorrelierte<br />

jnΩ<br />

dΩ<br />

a<br />

∞<br />

π<br />

1<br />

jΩ<br />

jΩ<br />

( n) ∑ x *( k − n) x( k) = ∫ X * ( e ) X( e )<br />

jnΩ<br />

= e d<br />

k=−∞<br />

2π<br />

−π<br />

Ω<br />

(2.17)<br />

die offenbar gleich der Rücktransformierten des Betragsquadrates von X (ejΩ) = F {x (n)}<br />

ist.<br />

Wir werden (2.17) und die Autokorrelierte später noch einmal benötigen. Für jetzt genügt<br />

uns, dass (2.16) aus (2.17) mit n = 0 hervorgeht.<br />

Offensichtlich gilt für die Autokorrelierte<br />

a (0) = E<br />

e) Symmetrie<br />

Wenn x (n) reell ist, dann gilt<br />

x (n) reell : X e - jΩ = X* e jΩ (2.18)<br />

(wie man leicht aus der Definitionsgleichung (2.8) zeigt).<br />

Das Spektrum ist also vollständig auch für negative Frequenzen Ω definiert, wenn es im<br />

Intervall 0 ≤ Ω ≤ π bekannt ist. Dem Betrag nach ist das Spektrum symmetrisch, die Phase ist


37<br />

antimetrisch. Handelsübliche Transformatoren ("FFT-Analysatoren") operieren auf<br />

(reellwertigen) Messsignalen und geben nur den positiven Frequenzbereich an.<br />

2.3 Das Abtasttheorem<br />

Nun haben wir uns zwar lange mit den Eigenschaften der Fourier-Transformierten von Folgen<br />

beschäftigt (und diese Eigenschaften werden wir natürlich noch oft benötigen).<br />

Unbeantwortet ist jedoch geblieben: wie hängen denn Spektrum X(ω) eines kontinuierlichen<br />

Messsignals x(t) und Spektrum X(ejΩ) der daraus gebildeten Abtastfolge x(n)<br />

x (n) = x (n · ∆t)<br />

zusammen?<br />

Zur Beantwortung dieser Frage geht man von der Abtastfolge x(n) aus. Weil sie sich sowohl<br />

durch ihr Folgenspektrum X(ejΩ) nach (2.11)<br />

x(n) =<br />

1<br />

2π<br />

π<br />

∫<br />

−π<br />

X(e<br />

jΩ<br />

) e<br />

jnΩ<br />

dΩ<br />

(2.19)<br />

als auch durch das Spektrum des kontinuierlichen Zeitverlaufes X(ω) mit<br />

x(n) = x(n ⋅ ∆t)<br />

=<br />

1<br />

2π<br />

π<br />

∫<br />

−π<br />

X( ω)<br />

e<br />

jω⋅n⋅∆t<br />

dω<br />

(2.20)<br />

nach (1.28a) ausdrücken lässt, bietet sie den Schlüssel zur Bestimmung des Zusammenhanges<br />

zwischen X(ejΩ) und X(ω); es muss nach (2.19) und (2.20) (mit ∆t=2π/ω tast ) nämlich<br />

π<br />

∫<br />

−π<br />

jΩ<br />

jnΩ<br />

X(e<br />

) e dΩ =<br />

∞<br />

∫<br />

−∞<br />

X( ω)<br />

e<br />

j2πn<br />

ω<br />

ω<br />

tast<br />

∆t<br />

dω<br />

(2.21)<br />

sein.<br />

Der Periodizität der Folgen-Transformierten X(ejΩ) mit der Peridenlänge 2π legt eine<br />

Unterteilung des Integrationsintervalles auf der rechten Seite in Teilintervalle nahe, die<br />

ebenfalls die Breite 2π in Ω = 2π (ω/ω tast ) haben, in ω also jeweils das Intervall ω tast<br />

abdecken:


38<br />

∞<br />

∫<br />

−∞<br />

X(<br />

ω)e<br />

j2πn<br />

ω<br />

ω<br />

1<br />

(k+<br />

) ω j2πn<br />

ω<br />

∞ 2 tast<br />

ω<br />

tast dω =<br />

X( ω)e<br />

tast dω<br />

(2.22)<br />

∑<br />

∫<br />

k=−∞<br />

1<br />

(k−<br />

) ω<br />

2 tast<br />

oder, mit der Variablensubstitution ω' = ω-kω/ω tast<br />

j2πn<br />

ω<br />

∞<br />

j2πn ω' +k ω tast<br />

∞ ωtast /2<br />

ω<br />

∫<br />

X(ω)e tast<br />

ω<br />

dω = ∑ ∫<br />

X(ω' +k ω tast )e tast<br />

dω (2.23)<br />

− ∞<br />

k=− ∞<br />

−ω tast /2<br />

Wenn man noch<br />

• e j2πnk =1 berücksichtigt,<br />

• die Reihenfolge von Summation und Integration vertauscht und<br />

• die Summationsreihenfolge "von oben nach unten" festlegt (für k also einfach -k<br />

schreibt) dann erhält man<br />

j2πn<br />

ω<br />

∞<br />

ω ⎧ ∞<br />

⎫<br />

j2πn<br />

ω<br />

ω tast /2<br />

∫<br />

X(ω)e tast ω<br />

dω =<br />

∫ ⎨ ∑ X(ω − k ω tast ) ⎬ e tast dω (2.24)<br />

− ∞<br />

−ω tast /2⎩<br />

k=−∞<br />

⎭<br />

Es ist also nach (2.21) mit Ω = 2π (ω/ω tast ) zusammengefasst<br />

π<br />

∫<br />

X(e jΩ )e jnΩ dΩ<br />

− π<br />

= ω tast<br />

2π<br />

π<br />

⎧ ∞<br />

⎫<br />

∫ ⎨ ∑ X(ω − k ω tast ) ⎬ e jnΩ dΩ<br />

(2.25)<br />

⎩ k= −∞<br />

⎭<br />

−π<br />

Wegen der Eindeutigkeit der Rücktransformation ist also<br />

X(e jΩ )<br />

Ω=2πω/ω tast<br />

= ω tast<br />

2π<br />

∞<br />

∑ X(ω − kω tast )<br />

(2.26)<br />

k = −∞<br />

Gl. (2.19) stellt den gesuchten Zusammenhang zwischen dem Spektrum X(ejΩ) der<br />

Abtastfolge x(n) und dem Spektrum X(ω) des kontinuierlichen Verlaufes dar. Die Aussage<br />

von (2.19) kann man leicht anschaulich machen: offenbar bewirkt die Abtastung in diskreten<br />

Zeitschritten eine "Stapelung" von Frequenzintervallen (den "Blöcken" in Bild 2.2) des<br />

kontinuierlichen Signalspektrums X(ω), der Stapel wird aufsummiert (Bild 2.2).


39<br />

Ein Punkt Ω in X (ejΩ) enthält also die Summe der Spektralwerte von X(ejω) an den Stellen<br />

ω + k ω tast<br />

, k = 0, ±1, ±2, ±3 ...


40<br />

Offenbar werden bei der Abtastung alle um ω tast auseinander liegende Frequenzen als "ein<br />

und dieselbe Frequenz erkannt". Man kann diesen Effekt auch "Frequenzverwechselung"<br />

nennen, im Englischen spricht man von "aliasing".<br />

Nun ist X(ejΩ) ja das aus den Abtastwerten x(n) einzig berechenbare Spektrum, es ist also nur<br />

die Summe der "wahren Spektralanteile" X(ω + k ω tast ) überhaupt berechenbar. Natürlich<br />

kann man den Summenwert nicht mehr im Nachhinein "zerpflücken". Die<br />

Frequenzverwechselung muss also vorab ausgeschlossen werden, damit überhaupt noch eine<br />

eindeutige Zuordnung vom Spektrum X(ejΩ) der Folge zum Spektrum X(ω) des<br />

kontinuierlichen Verlaufes möglich ist.<br />

Im einfachsten (und gebräuchlichsten) Fall sorgt man durch Verwendung eines Tiefpasses mit<br />

dem Durchlassbereich<br />

1 ω ≤ ω<br />

tast<br />

(2.27)<br />

2<br />

für die eindeutige Zuordnung. Alle außerhalb liegende Frequenzanteile von x(t) werden so<br />

herausgefiltert, in Bild 2.2 bleibt so nur noch der Inhalt von Block 0 für X (ejΩ) übrig. Die<br />

Spektren X (ejΩ) und X(ω) sind unter Beachtung der Frequenzzuordnung<br />

− π ≤ Ω ≤ π<br />

1<br />

− ωtast<br />

≤ ω ≤ ω<br />

2<br />

tast<br />

(2.28)<br />

(und abgesehen von einer Multiplikation mit ∆t, einer Konstanten) gleich.<br />

Wir übersehen an Hand des Bildes 2.3, dass die Benutzung des vorgenannten Tiefpasses nur<br />

der einfachste Sonderfall vieler Möglichkeiten bildet, eine "überlappungsfreie" Addition der<br />

Frequenzblöcke zu schaffen.


41<br />

Wir könnten zunächst geneigt sein, alle Blöcke bis auf einen einzigen durch ein<br />

vorgeschaltetes Filter zu löschen. Diese Möglichkeit besteht NICHT: als realisierbare<br />

physikalische Systeme mit reeller Impulsantwort müssen Filter stets eine bezüglich der<br />

Frequenz symmetrische Übertragungsfunktion |H(ω)| = |H(-ω)| besitzen, sie beeinflussen<br />

positive wie negative Frequenzen stets gleichermaßen. Es kann also nur gelingen, X (ejΩ) aus


42<br />

zwei Blockinhalten zusammenzusetzen, wobei je eine Hälfte der beiden Blockinhalte (und<br />

natürlich alle anderen Blöcke) gelöscht werden muss (bei einem: die linke Hälfte, beim<br />

anderen: die rechte Hälfte). Dies kann durch Verwendung eines Bandpasses mit dem<br />

Durchlassbereich<br />

( k + 1) ω / 2<br />

kω / 2 ≤ ω ≤<br />

(2.29)<br />

tast<br />

tast<br />

(offensichtlich die allgemeinere Form von (2.27)) geschehen, der (physikalisch) die<br />

Bandbreite ω tast /2 besitzt. Die Zuordnungen der Frequenzen Ω und ω ergeben sich dann<br />

abschnittsweise aus folgenden linearen Zusammenhängen<br />

- für geradzahliges k = 2 m<br />

0 π Ω<br />

k<br />

ω tast<br />

2<br />

(k+1)<br />

ω tast<br />

2<br />

ω<br />

-π 0 Ω<br />

(2.30a)<br />

−<br />

( k + 1)<br />

ω tast<br />

2<br />

ω<br />

tast<br />

− k<br />

ω<br />

2<br />

- für ungeradzahliges k = 2 m - 1<br />

0 π Ω<br />

−<br />

( k + 1)<br />

ω tast<br />

2<br />

ω<br />

tast<br />

− k<br />

ω<br />

2<br />

-π 0 Ω<br />

(2.30b)<br />

k<br />

ω tast<br />

2<br />

(k+1)<br />

ω tast<br />

2<br />

ω<br />

(offensichtlich die allgemeinere Form von (2.28)).<br />

Schließlich könnte man noch fragen, ob der genannte Bandpass mit der Bandbreite ω tast /2 mit<br />

einer kontinuierlich verschiebbaren Mittenfrequenz ausgestattet werden kann. Bild 2.3 zeigt,<br />

dass diese Möglichkeit nicht besteht: die Blockinhalte überlappen sich in Frequenzbereichen;<br />

nur wenn die Filtergrenzen mit Vielfachen der halben Abtastfrequenz zusammenfallen, ist der<br />

Verwechslungseffekt ausgeschlossen.


43<br />

Die Möglichkeit, schnell veränderte Signale langsam hinter einem Bandpass nach (2.22)<br />

abzutasten, wird Zoom-Technik genannt. Sie bietet einen praktisch sehr wichtigen Vorteil,<br />

der damit im Zusammenhang steht, dass man natürlich auch im Frequenzbereich nur eine<br />

gewisse, begrenzte Anzahl N von diskreten Frequenzpunkten bestimmen kann. Die Anzahl N<br />

der "Stützstellen" im Frequenzbereich ist eine (manchmal in einigen Schritten wählbare)<br />

"Maschinenkonstante" in FFT-Analysatoren und sicherlich begrenzt (typische Werte sind 200,<br />

400, 800; mehr als 1600 kommen wohl nie vor). Diese Zoom- (= Bandpass-) Technik erlaubt<br />

nun ja auch große Verhältnisse f M /f tast von Mittenfrequenz f M des Bandpasses und<br />

Abtastfrequenz. Man kann also f M hoch und f tast klein wählen. Im Resultat heißt das, dass<br />

alle N Frequenzstützstellen dann auf einen schmalen, f tast /2 -breiten Frequenzbereich bei<br />

hoher Mittenfrequenz "verteilt" werden. Man kann so extrem hohe Frequenzauflösungen<br />

erhalten, und das im Grunde in beliebigen Frequenzbereichen.<br />

2.4 Signalmodelle<br />

Die exakte Beschreibung des zeitlichen Verhaltens von Systemen setzt naturgemäß voraus,<br />

dass alle Zeitfunktionen(also Eingang x(t), Impulsantwort h(t) und Ausgang y(t)) für alle<br />

Zeiten −∞ ≤ t ≤ ∞ auch bekannt sind; selbstverständlich ist aber eben nur unter dieser<br />

Voraussetzung z.B. eine Bestimmung des Ausgangs aus Eingang und Impulsantwort für "alle<br />

Zeiten" möglich. Die Notwendigkeit "alles zu allen Zeiten zu wissen" muss sich natürlich im<br />

gesamten benutzbaren mathematischen Apparat niederschlagen: so gehört auch zum Begriff<br />

des Spektrums eines Zeitverlaufes (der Fourier-Transformierten) gehört unabänderlich, dass<br />

es nur dann berechnet werden kann, wenn das Zeitsignal für alle Zeiten bekannt ist. In der<br />

Tat, die in der Rücktransformationsvorschrift<br />

1<br />

2π<br />

∞<br />

∫<br />

−∞<br />

Kont. Zeitsignal: x( t) X( ω)<br />

j<br />

= e<br />

ω t<br />

d<br />

1 jΩ<br />

Folge: x( n) X( e )<br />

π<br />

∫<br />

−π<br />

ω<br />

jnΩ<br />

= e d<br />

2π<br />

ausgedrückte Absicht besteht ja gerade darin, das Signal durch eine Summe von jeweils<br />

"unendlich langen" harmonischen Verläufen zu erklären, wobei die Summation durch ihren<br />

infinitesimalen Grenzfall, die Integration, dargestellt ist. Wir wissen, dass diese<br />

Signalzerlegung ein nützliches Hilfsmittel, z.B. bei der Betrachtung linearer Übertrager,<br />

bildet. Andererseits stehen wir vor der Situation, dass Zeitsignale nicht "unendlich lange"<br />

durch Messung beobachtet werden können. Selbst wenn die Signallänge endlich ist, wird<br />

doch die Beobachtungsdauer in den meisten Fällen wesentlich kleiner sein. Wir kennen also<br />

ω


44<br />

nur ein Stück des Signalverlaufes (das wir natürlich sinnvoll so gewählt haben, dass es<br />

"repräsentativ" für den Gesamtverlauf ist) innerhalb eines "Fensters".<br />

Damit wir trotzdem noch ein Spektrum zuweisen können, ist es zwingend erforderlich,<br />

Annahmen über den weiteren Verlauf des Signals außerhalb des Beobachtungsfensters zu<br />

machen: wir müssen ein Signal-MODELL aus der Kenntnis nur eines Signalstückes<br />

entwickeln. Dabei sind nun viele Möglichkeiten offen, die Extrapolation für Signalteile<br />

außerhalb des Datenfensters aus den Werten innerhalb des Datenfensters vorzunehmen. Die<br />

möglichen Extrapolationsvorschriften können wir in zwei Gruppen zusammenfassen:<br />

1. Am Fenster-Inhalt orientierte Extrapolation<br />

Am sinnvollsten wäre es sicherlich, die in der Beobachtung enthaltenen Informationen<br />

zu nutzen, um das Signalmodell außerhalb des Datenfensters festzulegen. Wenn man<br />

zum Beispiel weiß, dass das Signal nur wenige spektrale Komponenten enthält und<br />

damit eine bestimmte "glatte", periodisch wiederholte Signalform besitzt, dann könnte<br />

man (etwa durch "scharfes Hinsehen") Form und Periodizität aus dem Fensterinhalt<br />

herauslesen und das Signal-Modell mit der herausgefundenen Periodizität fortsetzen.<br />

Wesentlich daran ist, dass die Periodizität dem Signal entnommen wird (und nicht, wie<br />

unter den universellen Extrapolationen, eine künstliche Periodizität postuliert wird).<br />

Wenn solche A-priori-Kenntnisse wie "wenige spektrale Komponenten" vorhanden sind,<br />

dann kann man so offensichtlich ein Signalmodell entwickeln, das dem wahren<br />

Signalverlauf sehr gut angemessen ist. Die Nutzung von Vorkenntnissen zur<br />

Bestimmung von Spektren bildet den Ausgangspunkt von Verfahren, die unter dem<br />

Begriff "modern spectral estimation" zusammengefasst werden. Ihr Nachteil liegt auf<br />

der Hand: man benötigt eben Vorkenntnisse, um sie anwenden zu können. In einigen<br />

Fällen verfügt man ja auch in der Tat über solche Vorab-Einschätzungen (z.B.: "es<br />

handelt sich um Resonanzschwingungen"), in sehr vielen anderen Fällen dagegen (z.B.<br />

bei breitbandigen Übertragern, wie elektroakustische Wandler) scheint ein völlig<br />

unvoreingenommener Standpunkt angemessener. Am Fenster-Inhalt orientierte<br />

Extrapolationen kann man offensichtlich nur "in Spezialfällen" benutzen, die Methoden<br />

können nicht universell auf ALLE Signale angewandt werden.<br />

2. Universelle Methoden<br />

müssen sich darauf stützen, bei der Bildung des Signalmodells möglichst wenig an<br />

Informationen "hinzuzuerfinden". Es bleiben dann nur zwei Möglichkeiten offen:<br />

2a) Endlich langes Signalmodell


45<br />

Man definiert das Signalmodell x M (n)<br />

x M<br />

( n)<br />

⎧ 0 für n < 0, n ≥ N<br />

= ⎨<br />

⎩x( n)<br />

für 0 ≤ n ≤ N −1<br />

so, dass außerhalb der Beobachtung 0 ≤ n ≤ N - 1 alles zu Null gesetzt wird.<br />

2b) Periodisiertes Signalmodell<br />

Man definiert das Signalmodell x p (n)<br />

x p<br />

x<br />

( n) = x( n) für 0 ≤ n ≤ N −1<br />

( n mN) = x ( n) für m = 0, ± 1, 2,<br />

+ …<br />

p p<br />

±<br />

als periodische Fortsetzung des kompletten Fenster-Inhaltes. Dabei wird eine künstliche<br />

Periode benutzt, die gleich der Fensterlänge der Beobachtung ist. Diese künstliche<br />

Periode T hängt in gar keiner Weise mit dem zu untersuchenden Signal x(n) zusammen,<br />

sie ist im Gegenteil vom Anwender des periodisierten Signalmodells WILLKÜRLICH<br />

postuliert worden.<br />

Wir wollen hier die beiden genannten universalen Signalmodelle "einmalig gemachter<br />

Vorgang" und "künstlich periodisierter Vorgang" näher betrachten und die "modernen<br />

Spektral-Schätz-Verfahren" einem späteren Abschnitt vorbehalten.<br />

2.4.1 Einmaliges Signalmodell<br />

Den Vorgang des "einmalig Machens" kann man auch als Multiplikation des wahren Signals<br />

x(n) mit einer Gewichtsfolge g(n) auffassen, das Modell x M (n) geht durch die Operation<br />

x M<br />

( n) g( n) ⋅ x( n)<br />

= (2.31)<br />

aus x(n) hervor, wobei g(n) eine endlich lange Folge<br />

g<br />

( n) = 0 für n < 0, n ≥ N<br />

darstellt. Im einfachsten Fall ist g(n) ein rechteckförmiger Verlauf<br />

g<br />

( n) r( n) = 1 für 0 ≤ n ≤ N −1<br />

= ,


46<br />

den wir dann als "Rechteckfenster" r(n) bezeichnen. Wir werden noch sehen, dass es durchaus<br />

von Vorteil sein kann, Abweichungen vom Wert 1 für g(n) innerhalb des Datenfensters<br />

zuzulassen.<br />

Wir wissen nun von früheren Betrachtungen, dass der Multiplikation im Originalbereich die<br />

Faltung im Bildbereich entspricht (Gl. 2.14 mit Gl. 2.15), es ist also<br />

X<br />

M<br />

1<br />

=<br />

2π<br />

jΩ<br />

jΩ<br />

jΩ<br />

( e ) = G( e ) ∗ X( e )<br />

π<br />

∫<br />

−π<br />

j( Ω−ν)<br />

jν<br />

( ) X( e )<br />

G e<br />

dν<br />

(2.32)<br />

Stets also ist das (einzig auch berechenbare) Spektrum des Signalmodells gleich der Faltung<br />

des Spektrums der Gewichtsfolge G(ejΩ) mit dem "wahren" Signalspektrum X(ejΩ). Wie ein<br />

einfaches Beispiel lehrt, wirkt die Faltung "verschmiert", sie macht einen impulsförmigen<br />

Verlauf des wahren Spektrums X(ejΩ) breiter, glatter: X M (ejΩ) erscheint "vermischt"<br />

gegenüber dem "kontrastreichen" wahren X(ejΩ). Aus diesem Grund nennt man den in (2.25)<br />

niedergelegten Sachverhalt auch "Unschärferelation".<br />

Zur Verdeutlichung benutzen wir das Beispiel eines besonders "kontrastreichen" wahren<br />

Signals der Form<br />

X<br />

jΩ<br />

( e ) = 2π δ( Ω − Ω )<br />

X<br />

(2.33)<br />

das aus einer einzigen spektralen Komponente mit der normierten Signalfrequenz Ω x besteht.<br />

Das Spektrum der Modellfolge ist nach (2.25)<br />

X<br />

M<br />

j<br />

j( Ω−ΩX<br />

)<br />

( e ) G( e )<br />

Ω =<br />

gleich dem von Ω x nach rechts verschobenen Spektrum der Gewichtsfolge. Für das<br />

Rechteckfenster ist beispielsweise<br />

Ω<br />

sin N<br />

Ω / 2 2<br />

∑ (2.34)<br />

n=<br />

0<br />

Ω<br />

sin<br />

2<br />

N−1<br />

jΩ<br />

jΩ<br />

− jnΩ<br />

− j( N−1)<br />

( ) = R( e ) = e = e<br />

G e<br />

n<br />

N<br />

[Beweis: Summenformel der geometrischen Reihe z = ( 1−<br />

z )/( 1−<br />

z)<br />

N 1<br />

∑ −<br />

n=<br />

0<br />

], dessen Verlauf<br />

für N = 20 in Bild 2.4 für eine spektrale Periode wiedergegeben ist. Er ist leicht zu<br />

diskutieren:


47<br />

a) R(ej0) = N<br />

2 π<br />

~ für Ω <<br />

b) Einhüllende: Ω 4<br />

~ 1 für Ω → π<br />

2kπ<br />

R j N<br />

N −1<br />

k = ± 1, ± 2, ± 3, , ± (N = ungeradzahlig)<br />

2<br />

Ω<br />

c) ( e ) = 0 für Ω = ,<br />

also N-1 Nullstellen mit den Abständen ∆Ω = 2π/N. Lücke im ansonsten gleichmäßigen<br />

Nullstellenmuster bei Ω = 0.<br />

d) |R(ejπ)/R(ej0)| = 1/N (N = ungeradzahlig).


48<br />

Weil wir uns aus praktischen Gründen auf ein "einmaliges" Signalmodell eingelassen haben,<br />

bilden wir den eigentlich vorhandenen impulsförmigen Verlauf des Signalspektrums<br />

"imperfekt" durch das Spektrum R(ejΩ) der (rechteckförmigen) Fensterfolge nach. Diese<br />

Nachbildung besitzt eine Struktur aus sog. "Nebenkeulen" und einer "Hauptkeule". Die<br />

Nebenkeulen entfallen auf den spektralen Bereich, in dem "eigentlich" ein spektraler Wert<br />

von Null erwartet werden soll, die Hauptkeule ist quasi eine "endlich breite" Nachbildung des<br />

Impulses selbst. Diese Haupt-Neben-Keulen-Struktur hat deutliche Nachteile. Liegt eine<br />

zweite, zusätzliche spektrale Signalkomponente vor, dann muss man sich das<br />

Gesamtspektrum als Summe zweier gegeneinander um den Frequenzabstand der Teile<br />

verschobene Fensterspektren vorstellen. Abhängig vom Frequenzabstand der Teile darf die<br />

Pegeldifferenz der Amplituden einen gewissen kritischen Wert nicht überschreiten, damit das<br />

Spektrum des schwächeren Signalteiles von den Nebenkeulen des anderen nicht verdeckt<br />

wird: es wäre sonst im Gesamtspektrum nicht mehr zu erkennen.<br />

Wir können die Nebenkeulen des einen Signalteiles als "Fremdgeräusch" für den anderen<br />

Signalteil betrachten, der durch die Fensterung bewirkt wird. Bekanntlich muss man einen<br />

Fremdgeräuschabstand von 10 dB einhalten, damit Ergebnisse mit einer Toleranz von 1dB<br />

erzielt werden.<br />

Je geringer der Frequenzabstand der Signalteile ist, umso restriktiver wird die Forderung an<br />

die noch zugelassene Pegeldifferenz. Liegen die Anteile schließlich beide sogar innerhalb der<br />

Hauptkeule, dann sind sie kaum noch getrennt zu erkennen. Man wird im Fall gleichphasiger<br />

Anteile nur noch schwach ausgeprägte "Doppelmaxima" erhalten, allgemein wird das Resultat<br />

sehr stark von Frequenzabstand, Phasendifferenz und Amplitudenabstand geprägt sein;<br />

Rückschlüsse auf die Bestandteile sind so nahezu unmöglich geworden.<br />

Obwohl die genannten Nachteile die natürlich zu beachtenden Grenzen der Verfahren sicher<br />

korrekt andeuten, muss man sich doch ihre Größenordnung unter praktisch relevanten<br />

Bedingungen vergegenwärtigen. Übliche Abtastfolgen bestehen oft aus 512 (oder 1024)<br />

Stützstellen im Zeitverlauf. Das Rechteckfenster-Spektrum besitzt dann (in einer Periode) 511<br />

(bzw. 1023) gleichabständige Nullstellen, zwischen denen die Nebenkeulen gebildet sind. Die<br />

bei Ω = 0 "fehlende" Nullstelle wird durch die Hauptkeule ersetzt, die - in begrenzenden<br />

Nullstellen ausgedrückt - die Breite des doppelten Nullstellen-Abstandes 2π/N besitzt. Mit<br />

einem so nachgebildeten spektralen Impuls lässt sich für die meisten akustischen Zwecke<br />

durchaus "leben".


49<br />

2.4.2 Diskrete Spektren<br />

Bisher haben wir die spektralen Eigenschaften von Folgen x(n) durch einen kontinuierlichen<br />

Spektralverlauf X(ejΩ) beschrieben. Vom Konzept der Signalbeschreibung her bestand ja<br />

keinerlei Notwendigkeit, irgendwelche Frequenzen vor anderen zu bevorzugen: zwangsläufig<br />

müssen wir daher den Begriff "Frequenz" als Kontinuum auffassen.<br />

Wenn wir nun andererseits die Spektren von einmaligen Signalmodellen praktisch auch mit<br />

einem digitalen Prozessor berechnen wollen, dann werden wir die Berechnungsprozedur auch<br />

nur für eine gewisse, endliche Anzahl von diskreten Stützstellen Ω i durchführen.<br />

Zunächst könnten wir die Stützstellenanzahl dabei natürlich ganz willkürlich, nur an den<br />

Erfordernissen orientiert, festlegen.<br />

Andererseits stellt sich dabei die Frage, wie viele Stützstellen wir im Spektrum (mindestens)<br />

benötigen, damit der Signalverlauf eines einmaligen Vorganges innerhalb des Datenfensters<br />

auch durch die Angabe der spektralen Stützstellen komplett repräsentiert ist: die diskreten<br />

Stützstellen im Spektrum sollen so gewählt werden, dass aus ihnen die Zahlenfolge im<br />

Originalbereich vollständig wiederhergestellt werden kann. Nun ist es klar, dass wir dazu<br />

ebensoviele "spektrale Informationen" benötigen wie "Informationen innerhalb des Datenfensters".<br />

Wenn wir für den allgemeinsten Fall komplexe Zahlenfolgen zulassen, dann enthält<br />

die Folge N komplexe Zahlenwerte. Offensichtlich benötigen wir dann auch N Stützstellen<br />

mit zusammen N komplexen Werten im Spektrum. Wir werden sicher geneigt sein, diese N<br />

spektralen Stützstellen ebenso in gleichabständigen Schritten am kontinuierlichen Spektrum<br />

X(ejΩ) zu bilden, wie wir auch Abtastfolgen als äquidistante Erfassung von Signalverläufen<br />

interpretieren. Wir benutzen also die Frequenzpunkte<br />

2πk<br />

Ω<br />

k<br />

= , k = 0, 1, 2, N −1,<br />

(2.35)<br />

N<br />

die gleichmäßig über eine spektrale Periode 2π verteilt sind, zur Bildung der Spektralfolge<br />

N<br />

∑ − 1<br />

n=<br />

0<br />

jΩ<br />

( ) = X( e ) = x( n)<br />

X k<br />

Ω=Ωk<br />

e<br />

nk<br />

− j2π<br />

N<br />

. (2.36)<br />

Natürlich dürfen wir allgemein alle ganzzahligen k dabei zulassen, denn ebenso wie das<br />

kontinuierliche Spektrum X(ejΩ) ist auch die an ihm gebildete Abtastfolge X(k) periodisch:<br />

( k mN) = X( k) , m = 0, ± 1, 2, <br />

X + ±<br />

(2.37)<br />

zunächst stellt sich wohl die Frage, ob die von uns geforderte "Informationstreue" zwischen<br />

Bildfolge X(k) und Originalfolge x(n) tatsächlich auch vorhanden ist: gelingt es, aus den N<br />

spektralen Stützstellen die Originalfolge wiederherzustellen?


50<br />

Tatsächlich können wir diese Aufgabe leicht lösen. Wir benutzen dazu die<br />

Orthogonalitätsrelation<br />

N<br />

∑ − 1<br />

1<br />

N k=<br />

0<br />

e<br />

( n−m)<br />

k<br />

− j2π<br />

N<br />

⎧ 1 für n − m = 0, ± N, ± 2N<br />

= ⎨<br />

⎩0 für n − m ≠ 0, ± N, ± 2N,<br />

(2.38)<br />

Multipliziert man nämlich (2.29) mit e j2π k m N , summiert über k und dividiert durch N<br />

1<br />

N<br />

N−1<br />

∑<br />

n=<br />

0<br />

mk<br />

N−1<br />

j2π<br />

N<br />

( ) e = x( n)<br />

X k<br />

so erhält man wegen (2.31)<br />

x<br />

1<br />

N<br />

N<br />

∑ − 1<br />

k=<br />

0<br />

( m) = X( k)<br />

e<br />

∑<br />

n=<br />

0<br />

mk<br />

j2π<br />

N<br />

N−1<br />

∑<br />

k=<br />

0<br />

offensichtlich bildet das Gleichungspaar<br />

N<br />

∑ − 1<br />

n=<br />

0<br />

( k) = x( n)<br />

nk<br />

− j2π<br />

N<br />

( n−m)<br />

k<br />

− j2π<br />

N<br />

e<br />

X e<br />

(2.39)<br />

N<br />

∑ − 1<br />

k=<br />

0<br />

nk<br />

j2π<br />

N<br />

1<br />

x ( n) = X( k)<br />

e<br />

(2.40)<br />

N<br />

eine eigenständige Transformation, die sowohl die Berechnung der Bildfolge aus der<br />

Originalfolge wie auch umgekehrt zulässt. Ebenso wie die Originalfolge ist die Bildfolge eine<br />

vollständige Beschreibung "des Vorganges". Diese Transformation zwischen Zahlenfolgen<br />

wird diskrete Fourier-Transformation (DFT) genannt.<br />

Wie gesagt, können wir die spektrale Folge X(k) dabei als Berechnung von Stützstellen am<br />

eigentlich kontinuierlichen Spektrum eines einmaligen Vorganges der Länge N auffassen.<br />

Offensichtlich haben wir dann gerade die zur Erfassung des Signals minimale Anzahl von<br />

spektralen Werten ausgewählt. Jeder darüber hinaus zusätzlich angegebene Punkt X(ejΩ)<br />

würde "kein Mehr" an Informationen über die Signalfolge erbringen, er würde eine<br />

redundante Aussage machen. In der Tat ist das Spektrum X(ejΩ) an JEDER Stelle Ω direkt<br />

aus den spektralen Stützstellen X(k) in Ω = 2πk<br />

N berechenbar, es ist also X(ejΩ) linear<br />

abhängig von der spektralen Zahlenfolge X(k). Wir zeigen das, indem wir in die Transformationsgleichung<br />

(2.6)<br />

X<br />

( Ω N 1<br />

j<br />

e ) = x( n)<br />

∑ −<br />

n=<br />

0<br />

e<br />

− jnΩ


51<br />

(2.40) einsetzen:<br />

N−1<br />

N−1<br />

jΩ<br />

1<br />

( ) = ∑ ∑ X( k)<br />

X e<br />

=<br />

=<br />

n=<br />

0<br />

N−1<br />

∑<br />

k=<br />

0<br />

N−1<br />

∑<br />

k=<br />

0<br />

N<br />

k=<br />

0<br />

( )<br />

X k<br />

( )<br />

X k<br />

⋅<br />

⋅<br />

1<br />

N<br />

1<br />

N<br />

N−1<br />

∑<br />

e<br />

n=<br />

0<br />

1−<br />

e<br />

⎛ k ⎞<br />

− jn⎜<br />

Ω−2π<br />

⎟<br />

⎝ N ⎠<br />

e<br />

⎛ k ⎞<br />

− jn⎜<br />

Ω−2π<br />

⎟<br />

⎝ N ⎠<br />

1−<br />

e<br />

− jNΩ<br />

⎛ k ⎞<br />

− j⎜<br />

Ω−2π<br />

⎟<br />

⎝ N ⎠<br />

(2.41)<br />

(Hier wurde wieder die Summenformel der geometrischen Reihe verwendet.)<br />

Letztlich stellt diese Gleichung nur eine Interpolationsvorschrift dar, mit der sich<br />

"Zwischenwerte" beliebig zwischen den gleichabständigen diskreten Stützstellen berechnen<br />

lassen. Bei Bedarf können wir sie natürlich auch zum "Zeichnen von glatten Verläufen"<br />

benutzen. Andererseits scheint das überflüssige Arbeit zu sein: schließlich sind Spektrum und<br />

Signal durch die Folge X(k) bereits vollständig beschrieben, durch die Interpolation können<br />

wir höchstens "graphisch schönere Bilder zaubern", nicht aber ein mehr an Information<br />

gewinnen. Letzteres ist nur möglich, wenn wir auch ein mehr an Information von Anfang an<br />

benutzen: durch eine Verbreitung des Datenfensters.<br />

Dies ist nur einer der Gründe dafür, dass die Angabe von anderen spektralen Werten<br />

außerhalb der diskreten Stützstellen wenig sinnvoll ist. Die aus der<br />

Rücktransformationsvorschrift (2.40) gebildete Zahlenfolge<br />

x<br />

1<br />

N<br />

N<br />

∑ − 1<br />

k=<br />

0<br />

( n) = X( k)<br />

e<br />

nk<br />

j2π<br />

N<br />

können wir nämlich auch als periodische Folge<br />

( n + m ⋅ N) x( n)<br />

x =<br />

ansehen: wir fassen sie dann als künstlich periodisiertes Signalmodell auf, bei dem eine<br />

Periode mit den Abtastwerten innerhalb des Datenfensters übereinstimmt. In diesem Fall<br />

können im Signalmodell NUR diskrete Frequenzen Ω k = 2π k/N vorkommen, die mit<br />

Vielfachen der durch die Abtastlänge T gegebenen Frequenzen ω k = 2πk/T korrespondieren.<br />

Nun können gar keine anderen Frequenzstellen als diese überhaupt in Betracht gezogen<br />

werden, denn nur diese sind - per Definition des Signalmodells - zugelassen.<br />

Wenn man, umgekehrt, - z.B. bei einem FFT-Analysator - mit einem diskreten Spektrum<br />

konfrontiert wird, so bleibt es einem völlig freigestellt, ob man sich dazu die periodisierte<br />

oder die einmalige Form des Signalmodells als Grundlage vorstellt: beide sind durch die<br />

spektrale Folge X(k) eindeutig bestimmbar. Der einzige Unterschied zwischen beiden


52<br />

Vorstellungen besteht nur darin, dass wir beim einmaligen Vorgang noch "in Gedanken"<br />

interpolieren dürfen.<br />

2.4.3 Diskretisierung des Rechteckfenster-Spektrums<br />

Natürlich interessieren vor allem auch die praktischen Konsequenzen der spektralen<br />

Diskretisierung: was wird real auf dem Bildschirm eines Schmalband-Analysators tatsächlich<br />

dargestellt und wie hängt diese berechnete spektrale Folge mit dem tatsächlichen Signal<br />

zusammen?<br />

Am einfachsten benutzt man zur Diskussion dieser Frage wieder ein "einkomponentiges"<br />

Signal x(n) = ejnΩx ; für andere Signale muss man sich dann noch eine Summation vorstellen.<br />

Nach den im vorigen abschnitt geschilderten Prinzipien wird das wahre Spektrum<br />

jΩ<br />

X( e ) = 2πδ( Ω − Ω<br />

X<br />

) bei Annahme eines "einmaligen" Signalmodelles durch das<br />

Fensterspektrum R(ejΩ) zu<br />

j<br />

( j( Ω−ΩX<br />

))<br />

( ) R( e )<br />

Ω =<br />

X e<br />

nachgebildet, worin - im Fall des Rechteckfensters -<br />

jΩ<br />

− j( N−1)<br />

( ) = e<br />

R e<br />

Ω / 2<br />

Ω<br />

sin N<br />

2<br />

Ω<br />

sin<br />

2<br />

ist. Es hat die Nullstellen Ω = 2πm/N, m = ±1, ±2... .<br />

Wenn wir nun für das um die Signalfrequenz Ω x verschobene Fenster-Spektrum die diskreten<br />

Stützstellen Ω = 2πk/N berechnen:<br />

( )<br />

X k<br />

= e<br />

N−1⎛<br />

2πk<br />

⎞<br />

− j ⎜ −ΩX<br />

⎟<br />

2 ⎝ N ⎠<br />

N ⎛ 2πk<br />

sin ⎜ − Ω<br />

2 ⎝ N<br />

1 ⎛ 2πk<br />

sin ⎜ − Ω<br />

2 ⎝ N<br />

X<br />

⎞<br />

⎟<br />

⎠<br />

⎞<br />

⎟<br />

⎠<br />

X<br />

so hängt der Verlauf von X(k) sehr stark davon ab, ob Ω x "zufällig" mit einer Stützstelle Ω k<br />

zusammenfällt oder nicht.<br />

Mit<br />

ist<br />

Ω<br />

X<br />

=<br />

( k + α)<br />

2π<br />

0<br />

N<br />

, α ≤ 1/ 2


53<br />

( )<br />

X k<br />

= e<br />

( k−k<br />

)<br />

⎛ N−1<br />

2π<br />

0<br />

− j⎜<br />

⎝ 2 N<br />

2π<br />

α<br />

−<br />

N<br />

⎞<br />

⎟<br />

⎠<br />

sin π<br />

⋅<br />

π<br />

sin<br />

N<br />

[( k − k<br />

0<br />

) − α]<br />

[( k − k ) − α]<br />

0<br />

(2.42)<br />

nur für den Fall α = 0, den man in gewissem Sinn auch als den "besten Fall" bezeichnen<br />

könnte. Hierfür ist nämlich<br />

α =<br />

0 :<br />

( )<br />

X k<br />

⎧ 0 für k ≠ k<br />

= ⎨<br />

⎩N für k = k<br />

0<br />

0<br />

innerhalb einer spektralen Periode. Man "erwischt" hier quasi "zufällig" die Nullstellen des<br />

Fensterspektrums R und die Mitte seiner Hauptkeule.<br />

Im Fall α = 0, bei dem die Signalfrequenz mit einer "Analysefrequenz" Ω k = 2πk/N<br />

zusammenfällt, erhält man also ein Spektrum, das gerade nur aus einer Linie (und sonst nur<br />

"Nullen") besteht. Da bei Messungen fast immer ein gewisses Rauschen im Signal enthalten<br />

ist, entsprechen die "Nullen" in der praktischen Benutzung einem (sehr geringen) Pegel.<br />

Beider Darstellung des (Mess-) Ergebnisses auf einem Bildschirm wird (meist) einfach ein<br />

spektraler Punkt mit dem nächsten durch eine (kurze) Linie verbunden, es entsteht also im<br />

"best case" eine Darstellung wie in Bild 2.6a.


55<br />

Im "schlechtesten Fall" α=1/2 dagegen liegt die Signalfrequenz Ω x gerade in der Mitte<br />

zwischen zwei Frequenzstützstellen Ω k . Hier werden gerade die Betragsmaxima in die<br />

Nebenkeulen des Fensterspektrums quasi "zufällig" getroffen (Bild 2.5b).<br />

Auf die Hauptkeule entfallen zwei Linien. Sie sind beide kleiner als das wahre Maximum im<br />

kontinuierlichen Verlauf des Spektrums X(ejΩ). Ist (α) < 1/2, dann sind die beiden Linien<br />

verschieden hoch. α = 1 2 ist der "schlechteste Fall", denn sonst zeigt die größere der beiden<br />

Linien immer einen Wert an, der näher beim wahren Maximum liegt. Wenn man sich nur auf<br />

die Spektrallinien verlässt (und das hier wohl angebrachte Interpolieren zur Berechnung der<br />

wahren Höhe "vergisst"), dann erhält man eine Fehlinterpretation der Signalamplitude. Diesen<br />

"Ablesefehler" nennt man maximalen Amplitudenfehler. Er beträgt nach Gl. (2.35) mit<br />

α = 1 2<br />

( )<br />

X k<br />

=<br />

1<br />

2<br />

≈<br />

0<br />

j0<br />

( ) π π<br />

R e<br />

Nsin<br />

2N


56<br />

das entspricht einer Pegeldifferenz von -3,9 dB. Man würde also einen um 3,9 dB kleineren<br />

Signalpegel ablesen als wirklich vorhanden.<br />

Wenn wieder nur die Punkte X(k) zu einer Kurve miteinander verbunden werden , dann erhält<br />

man im "worst case" α=1/2 eine Darstellung wie im Bild 2.6b, die eine ziemlich breite<br />

spektrale Gestalt quasi "vorspiegelt", denn diese ist gar nicht im Signal selbst, sondern nur in<br />

seinem "Fenstermodell" enthalten.<br />

Zwischen "bestem" und "schlechtesten" Fall existiert natürlich eine ganze Spannweite<br />

verschiedener (diskreter) Spektren. Sie kann laicht aus einer Verschiebung der Stützstellen<br />

am Rechteckfensterspektrum eingeschätzt werden.<br />

2.5 Praktische Rechentechnik<br />

2.5.1 Skalierung, Amplitudenspektrum<br />

Vernünftigerweise wird man für die Rechenvorschrift Gl. (2.29) zur Berechnung der<br />

Diskreten Fourier Transformierten noch mit einem Skalierungsfaktor versehen. Bei<br />

praktischen Messungen ist es wünschenswert, als Anzeige unmittelbar die Größe der<br />

Signalamplitude zu erhalten: Ein Signal der Form x(t) = x 0 cos ω x t soll im davon gebildeten<br />

"Amplitudenspektrum" an der entsprechenden Stelle auch mit dem Wert x 0 versehen sein.<br />

Nun wissen wir, dass wir auf Grund der Unschärferelation (2.32) immer mit einem<br />

Aufspalten der "wahren" Spektrallinie in mehrere Anteile (z.B. in zwei gleich hohe, gefolgt<br />

von einer abfallenden Folge im schlechtesten Fall) zu rechnen habe, was zu einer möglichen<br />

"Fehlablesung" von bis zu 3,9 dB beim Rechteckfenster führen kann. Wir werden diesen<br />

möglichen Fehler natürlich im Kopf behalten müssen und die Skalierung so einrichten, dass<br />

sie wenigstens im "besten Fall" ω = 2πk 0 /T (T = Beobachtungsdauer = künstliche Periode =<br />

hier auch natürliche Periode) die richtige Amplitude x 0 wiedergibt. Die Abtastfolge ist hier<br />

also<br />

nk<br />

nk<br />

⎛ nk ⎞ x ⎛<br />

⎞<br />

x π<br />

(2.43)<br />

0<br />

0<br />

j2π<br />

− j2π<br />

( ) =<br />

0 0<br />

⎜ ⎟ = ⎜ N<br />

N<br />

n x<br />

+<br />

⎟ 0<br />

cos 2<br />

e e<br />

⎝ N ⎠ 2 ⎝<br />

⎠<br />

Definiert man analog zu Gl. (2.36) die nur neu skalierte Form<br />

N<br />

∑ − 1<br />

n=<br />

0<br />

nk<br />

− j2π<br />

N<br />

1<br />

A ( k) = ε( k) x( n)<br />

e<br />

(2.44)<br />

N


57<br />

mit<br />

ε<br />

( k)<br />

⎧1 für k = 0<br />

= ⎨<br />

⎩2 für k = 1, 2, N / 2 −1<br />

(N gerade)<br />

so erhält man für die Abtastfolge (2.43)<br />

A<br />

( k)<br />

ε<br />

=<br />

2<br />

N 1 n<br />

n<br />

( k) 1 − j2π<br />

( k−k0<br />

) − j2π<br />

( k+<br />

k0<br />

)<br />

( k)<br />

x<br />

0<br />

N<br />

∑ −<br />

n=<br />

0<br />

e<br />

N<br />

+ e<br />

ε<br />

A ( k)<br />

= x<br />

0<br />

( δ( k − k<br />

0<br />

) + δ( k + k<br />

0<br />

)).<br />

2<br />

Für alle k 0 (auch für k 0 = 0) gibt<br />

( )<br />

A k<br />

⎧ x<br />

0<br />

für k = k<br />

= ⎨<br />

⎩0 für sonst<br />

0<br />

N<br />

die gewünschte Amplitude an.<br />

Es ist fast immer das nach (2.44) gebildete Amplitudenspektrum, das bei Auswertungen<br />

benutzt wird.<br />

2.5.2 Schnelle Fourier-Transformation (FFT)<br />

Das klassische Mittel zur Berechnung der Transformierten besteht in der sog. "Schnellen<br />

Fourier-Transformation", meist als FFT (Fast-Fourier-Transform) bezeichnet. Die<br />

Grundüberlegung ist leicht verständlich. Um ihre Vorteile zu schildern, muss zunächst zu<br />

Vergleichszwecken die einfachste und langwierigste Methode beschrieben werden. Sie soll -<br />

der Kürze halber - Geradeaus-Methode genannt werden.<br />

Bei ihr würde man die Summe<br />

N<br />

( ) ∑ − 1<br />

− j2π<br />

N<br />

X = ( )<br />

nk /<br />

p<br />

k x n e<br />

(2.45)<br />

n=<br />

0<br />

durch Ausführen der notwendigen Multiplikation in den Summanden und Aufsummieren<br />

bilden, die Rechenvorschrift (2.38) würde "buchstäblich" ausgeführt. Wenn man "eine<br />

Operation" als die Ausführung einer komplexen Multiplikation und einer Addition definiert,<br />

so wären N Operationen für ein k notwendig. Für das komplette Spektrum X p (k) sind also N2<br />

Operationen erforderlich.


58<br />

Die FFT-Methode beruht nun auf der Zerlegung der Summe in zwei Teilsummen, wobei jede<br />

Teilsumme wieder eine vollständige Transformation darstellt. Nimmt man für N eine gerade<br />

Zahl an, so erhält man durch Neuordnen nach geradem und ungeradem Index<br />

X<br />

p<br />

N / 2−1<br />

− j2π<br />

N<br />

( k) = x( 2n) e + x( 2n + 1)<br />

=<br />

∑<br />

n=<br />

0<br />

N / 2−1<br />

∑<br />

n=<br />

0<br />

= X<br />

p, 1<br />

x<br />

2nk<br />

nk<br />

( 2n+<br />

1)<br />

− j2π<br />

N − j2π<br />

N<br />

( 2n) e + e<br />

k / x( 2n + 1)<br />

− j2π<br />

( k) e<br />

k / N<br />

X ( k).<br />

p, 2<br />

N / 2−1<br />

∑<br />

n=<br />

0<br />

N / 2−1<br />

∑<br />

n=<br />

0<br />

e<br />

− j2π<br />

N<br />

e<br />

k<br />

nk<br />

− j2π<br />

N / 2<br />

(2.46)<br />

Wie man sieht, sind durch die Dekomposition zwei neue Transformationen entstanden, die<br />

jeweils nur N/2 Elemente zum Gegenstand haben. Aus den Teil-Transformierten lässt sich<br />

X p (k) konstruieren. Berechnet man nun die beiden N/2-Transformierten getrennt mit der<br />

Geradeaus-Methode, so sind insgesamt 2 (N/2)2 Operationen zu ihrer Bildung nötig. Dabei<br />

ergibt sich, dass auch bezüglich des Index k nur die Hälfte der Rechenoperationen nötig ist,<br />

weil für beide Teil-Transformierten<br />

X p, l (k + N/2) = X p, l (k) für 0 ≤ k= N/2 - 1 und l = 1 oder l = 2 gilt.<br />

Hinzu kommen noch N Operationen zum Zusammensetzen von X p (k), in Summe sind<br />

N(N/2+1) Operationen erforderlich. Der Aufwand ist also nur etwa halb so groß wie bei der<br />

Geradeaus-Methode.<br />

Nun kann man jede Teiltransformation wieder in zwei Teile aufspalten und damit den<br />

Aufwand weiter reduzieren. Es ist also besonders günstig, eine möglichst oft durch 2 teilbare<br />

Zahl als Folgenlänge zu verwenden, am besten eine Zweierpotenz, und in diesem Fall kann<br />

man die Zerlegung so oft vornehmen, bis nur noch Folgen der Länge 1 übrig bleiben, bei<br />

denen die Transformierte mit der aus einem Punkt bestehenden Folge identisch ist. Es bleibt<br />

also nur übrig, die Teile wieder zum Ganzen zusammenzusetzen. Wie man zeigen kann,<br />

beträgt dann der Aufwand an Operationen 2N lg 2 N. Dies bedeutet im Falle N = 1024 = 2 10<br />

die Reduktion des Aufwandes auf etwa den 50sten Teil dessen beim Geradeaus-Algorithmus.<br />

Die Verwendung von Zweierpotenzen als Folgenlänge ist dabei der bekannteste und am<br />

meisten verwendete Sonderfall. Man kann allgemeiner nach jeder natürlichen Zahl zerlegen,<br />

also etwa in drei Teilsummen aufspalten, wenn die Zahl 3 in der Folgenlänge enthalten ist.<br />

Ebenso können beliebige Kombinationen benutzt werden. Neuerdings sind auch Methoden<br />

entwickelt worden, die auch dann noch eine schnelle Transformation ermöglichen, wenn N<br />

nicht eine hochgradig zusammengesetzte Zahl ist.


59<br />

3. Fenster und Gewichtung<br />

Wir haben im vorigen Kapitel die Unschärferelation kennengelernt. Sie besagt, dass die für<br />

einzelne spektrale Komponenten mit Signalformen x(n) = e-jnΩ x eigentlich erwünschte,<br />

impulsförmige spektrale Gestalt durch eine imperfekte Nachbildung dargestellt wird, die aus<br />

dem Spektrum der Fensterfolge G(ejΩ) besteht. Im Falle des Rechteckfensters g = r der Länge<br />

N, zum Beispiel, bilden wir die spektrale Delta-Funktion durch das Fensterspektrum<br />

jΩ<br />

− j( N−1)<br />

( ) = e<br />

R e<br />

Ω<br />

sin N<br />

Ω 2<br />

2 Ω<br />

sin<br />

2<br />

(3.1)<br />

(siehe auch Bild 2.4) und Gl.(2.27) nach. Wir kennen auch die in dieser Imperfektion<br />

begründeten Nachteile: je nach Frequenzabstand lassen sich kleine, zusätzliche Signalanteile<br />

im Spektrum nicht oder nur schwer entdecken, nah benachbarte Frequenzen können nicht<br />

voneinander getrennt werden. Ein Maß für die "Entdeckbarkeit" kleiner Signalbestandteile ist<br />

die Höhe der Nebenkeulen, ein Maß für die Auflösung dichter spektraler Anteile die<br />

Hauptkeulenbreite.<br />

Es ist nun ein naheliegender Gedanke, das Spektrum der Rechteckfolge (3.1) "ein wenig" zu<br />

verformen, um damit die oben genannten Nachteile abzumildern. Da wir dabei das Spektrum<br />

der Fensterfolge verändern, erzeugen wir natürlich gleichzeitig auch andere Gewichtsfolgen<br />

innerhalb des Datenfensters, die natürlich außerhalb der Beobachtung den Wert Null<br />

beibehalten:<br />

g(n) = 0 für n < 0 und n ≥ N .<br />

Die Gewichtsfolgen werden dann nicht mehr in 0 ≤ n ≤ N-1 den konstanten Wert 1 besitzen,<br />

sie bilden - je nach Manipulation ihres Spektrums - einen gewissen, veränderlichen Verlauf.<br />

Diese Tatsache wird uns nicht sehr stören, denn wir wissen, dass wir ohnedies stets zur<br />

Nachbildung der Delta-Funktion durch Fenster-Spektren gezwungen sind (sofern das<br />

Signalmodell entweder ein "einmaliger Vorgang" ist oder aus einer künstlichen<br />

Periodisierung besteht).<br />

Wir werden also im Folgenden Strategien entwickeln, Fensterfolgen so zu erfinden, dass ihr<br />

Spektrum über möglichst geringe Nebenkeulenhöhe und über eine möglichst schmale<br />

Hauptkeule verfügt. Wir werden dabei sehen, dass diese beiden Forderungen einen<br />

Widerspruch darstellen: man kann entweder schmale Hauptkeulen "einstellen" und erhält<br />

dann unvermeidlich "nicht sehr niedrige" spektrale Werte im Restband, oder man kann die


60<br />

Nebenkeulen absenken und verbreitert zwangsläufig die Hauptkeule, beide Forderungen sind<br />

nicht gleichzeitig erfüllbar.<br />

Bei unseren Betrachtungen werden wir uns grundsätzlich auf reellwertige Fensterfolgen g(n)<br />

mit der Symmetrieeigenschaft<br />

g (N-n-1) = g (n) (3.2)<br />

beschränken. Dass wir reelle Fensterfolgen zur Beobachtung reellwertiger Vorgänge benutzen<br />

müssen, steht wohl außer Frage. Dass die Folgen symmetrisch sein sollen, begründet sich aus<br />

der anschaulichen Forderung, dass Signalpunkte "am Fensteranfang" genauso gewertet<br />

werden sollen wie Signalpunkte "am Fensterende".<br />

Fensterfolgen zur gezielten Erzeugung von imperfekten Nachbildungen der spektralen Delta-<br />

Funktion sind natürlich schon seit langem bekannt, sie werden häufig verwendet.<br />

Insbesondere das sogenannte "Hanning-Fenster" (nach seinem Erfinder von Hann, einem<br />

Österreicher, benannt) ist ein üblicher Standard, so dass wir diese Gewichtsfolge schon wegen<br />

ihrer weiten Verbreitung als einleitendes Beispiel betrachten wollen. Die sehr weite<br />

Verbreitung des Hanning-Fensters besitzt etwas Erstaunliches: Wie wir noch sehen werden,<br />

ist das Hanning-Fenster nicht optimal, es "verschenkt" sozusagen ein wenig an der<br />

Möglichkeit, eine optimierte Balance zwischen geringer Nebenkeulenhöhe und kleiner<br />

Hauptkeulenbreite herzustellen. Wir werden darauf noch einmal zurückkommen, wenn wir im<br />

Anschluss Betrachtungen über die gezielte Erzeugung optimierter Fensterfolgen anstellen.<br />

3.1 Das HANNing-Fenster<br />

Das HANNing-Fenster geht in von einem mehr intuitiven Standpunkt aus. Ähnlich wie ein<br />

plötzlicher "Einschaltknack" (z.B. beim Einschalten eines Lautsprechers) ein breitbandiges<br />

Ereignis darstellt, sind offenbar die "plötzlichen" Übergänge an den Rändern des<br />

Rechteckfensters für die durch sein Spektrum zu breit vorgespiegelte Gestalt der<br />

Frequenzinhalte verantwortlich. Man versucht deshalb, für eine künstliche Glattheit und<br />

Stetigkeit der Übergänge an den Rändern zu sorgen, indem man die Hanning-Folge<br />

g<br />

( n)<br />

⎧ 2 π ⎛ 1 ⎞ 2π<br />

⎛ 1 ⎞<br />

⎪2sin<br />

⎜n<br />

+ ⎟ = 1−<br />

cos ⎜n<br />

+ ⎟ in 0 ≤ n ≤ N −1<br />

= ⎨ N ⎝ 2 ⎠ N ⎝ 2 ⎠<br />

⎪<br />

⎩ 0 , sonst<br />

(3.3)<br />

(die auch "Kosinus-Quadrat-" oder "Sinus-Quadrat-"Fenster genannt wird) als Gewichtung<br />

innerhalb des Datenfensters benutzt. Der Vorfaktor 2 wird dabei benötigt, damit der spektrale<br />

Wert G(ejΩ) in Ω = 0 gleichhoch wie beim Rechteckfenster R(ejΩ) = N ist (siehe unten). Man


61<br />

bemerke, dass die durch (3.3) definierte Zahlenfolge die Symmetriebedingung (3.2) erfüllt.<br />

Außerdem enthält g(n) im Definitionsintervall keine "Nullen", d.h. g(n)≠ 0. Die Folge hat<br />

also tatsächlich "die Länge N".<br />

Das Spektrum kann leicht bestimmt werden, mit<br />

π n π n<br />

2π<br />

1 1⎡<br />

j j2π<br />

− j − j2π<br />

⎤<br />

N N N N<br />

cos (n + ) = ⎢e<br />

e + e e ⎥<br />

(3.4)<br />

N 2 2⎣<br />

⎦<br />

ist<br />

G(e<br />

=<br />

jΩ<br />

) =<br />

N−1<br />

∑<br />

n=<br />

0<br />

e<br />

N−1<br />

∑<br />

n=<br />

0<br />

−jnΩ<br />

g(n)e<br />

−<br />

1<br />

e<br />

2<br />

−jnΩ<br />

π<br />

j<br />

N−1<br />

N<br />

∑<br />

n=<br />

0<br />

e<br />

2π<br />

−jn(<br />

Ω− )<br />

N<br />

1<br />

− e<br />

2<br />

π<br />

−j<br />

N−1<br />

N<br />

∑<br />

n=<br />

0<br />

e<br />

2π<br />

−jn(<br />

Ω+ )<br />

N<br />

(3.5)<br />

Jede Summe entspricht dem (verschobenen) Spektrum des Rechteckfensters:<br />

π<br />

2π<br />

π<br />

2π<br />

j ⎛ j( Ω− ) ⎞ − j ⎛ j( Ω+ ) ⎞<br />

jΩ<br />

jΩ<br />

1<br />

= − ⎜ ⎟<br />

1<br />

N<br />

N<br />

N<br />

− ⎜ N<br />

G (e ) R(e ) e R<br />

⎟<br />

e<br />

e R<br />

e<br />

(3.6)<br />

2<br />

⎝ ⎠ 2 ⎝ ⎠<br />

Setzt man hierin das Rechteckfensterspektrum nach (3.1) ein<br />

N −1<br />

N<br />

− j sin Ω<br />

Ω<br />

G(e<br />

j ) = e 2 2<br />

1<br />

sin Ω<br />

2<br />

N ⎛ 2π<br />

⎞<br />

⎜Ω − ⎟<br />

−<br />

1 π N−1⎛<br />

2π<br />

⎞ sin<br />

j − j ⎜ Ω− ⎟<br />

N 2 ⎝ ⎠ 2 ⎝ N<br />

e e<br />

N<br />

⎠<br />

2<br />

1 ⎛ 2π<br />

⎞<br />

sin ⎜Ω − ⎟<br />

2 ⎝ N ⎠<br />

N ⎛ 2π<br />

⎞<br />

⎜Ω + ⎟<br />

−<br />

1 π N−1⎛<br />

2π<br />

⎞ sin<br />

− j − j ⎜ Ω+ ⎟<br />

N 2 ⎝ ⎠ 2 ⎝ N<br />

e e<br />

N<br />

⎠<br />

2<br />

1 ⎛ 2π<br />

⎞<br />

sin ⎜Ω + ⎟<br />

2 ⎝ N ⎠<br />

dann wird wegen<br />

e<br />

π<br />

j<br />

N<br />

e<br />

N−1<br />

2π<br />

j<br />

2 N<br />

= −1<br />

und


62<br />

e<br />

π<br />

− j<br />

N<br />

e<br />

N−1<br />

2π<br />

− j<br />

2 N<br />

= −1<br />

schließlich<br />

jΩ<br />

( e )<br />

N−1<br />

j Ω<br />

2<br />

G = e<br />

⎧ N<br />

⎪sin<br />

Ω<br />

2<br />

⎨ +<br />

⎪<br />

1<br />

sin Ω<br />

⎪⎩<br />

2<br />

1<br />

2<br />

N ⎛ 2π<br />

⎞<br />

sin ⎜Ω − ⎟<br />

2 ⎝ N ⎠<br />

+<br />

1 ⎛ 2π<br />

⎞<br />

sin ⎜Ω − ⎟<br />

2 ⎝ N ⎠<br />

1<br />

2<br />

N ⎛ 2π<br />

⎞⎫<br />

sin ⎜Ω + ⎟<br />

2<br />

⎪<br />

⎝ N ⎠<br />

⎬<br />

1 ⎛ 2π<br />

⎞<br />

sin ⎜Ω + ⎟ ⎪<br />

2 ⎝ N ⎠ ⎪⎭<br />

(3.7)<br />

Das Betragsspektrum |G(ejΩ)| ist durch den Klammerausdruck in (3.7) gegeben, der gebildet<br />

N 1<br />

wird aus der Summe der drei reellwertigen Funktionen sin Ω sin Ω , wobei die beiden<br />

2 2<br />

letzten noch um gerade einen Nullstellenabstand 2π/N nach rechts bzw. nach links<br />

verschoben sind. Eine Darstellung der drei Funktionsanteile gibt Bild 3.1a.<br />

Die Summe der drei Anteile lässt sich wie folgt einschätzen. Im Bereich der Nebenkeulen, für<br />

Ω ≥ 4π , sind die beiden letzten Summanden etwa gerade dem Betrage nach halb so groß wie<br />

N<br />

der erste Summand, sie haben dabei stets das zu ihm entgegengesetzte Vorzeichen: die


63<br />

Funktionswerte heben sich nahezu gegenseitig auf und besitzen deshalb in der Summe sehe<br />

viel kleinere Werte als das Rechteckfenster (das durch den ersten Summanden alleine<br />

beschrieben ist.) Das "Wegheben" ist dabei umso perfekter, je weniger sich die jeweils durch<br />

den Nenner gegebenen Einhüllenden voneinander unterscheiden, und das ist für wachsende Ω<br />

"von der Mitte Ω = 0 weg" immer besser der Fall. Es entsteht so ein spektraler Verlauf des<br />

Hanningfensters wie in Bild 3.1b.


64<br />

Die lineare Skalierung dieses Bildes lässt bei den kleinen Funktionswerten nur noch schwer<br />

die Unterschiede erkennen, die Darstellung in dB zeigt diese dann ziemlich deutlich (Bild<br />

3.1c).


65<br />

Klar geht die eingangs schon anschaulich begründete "Verschmälerung" der spektralen<br />

Gestalt gegenüber den Rechteckfenstern aus den vorgenannten Prinzipien und ihrer<br />

Darstellung in den Bildern 3.1 hervor. Die Verschmälerung kann man auch als Absenkung<br />

der Rechteckfenster-Nebenkeulen durch Benutzung des Hanning-Fensters ansehen; man<br />

spricht deshalb auch von "Nebenkeulen-Unterdrückung". Die Haupt-Nebenkeulen-Abstände<br />

∆ NK (in dB) ergeben sich aus dem Verhältnis<br />

2π<br />

⎛ j (k+<br />

0,5)<br />

( )<br />

⎟ ⎞<br />

j0<br />

V = G e G⎜<br />

e<br />

N<br />

(3.8)<br />

⎝ ⎠<br />

(k = ganze Zahl) zu<br />

∆ NK = 10 lg |V| 2 (3.9)<br />

Für k«N hängen die Werte ∆ NK fast nicht von der Folgenlänge N ab,. Für große Längen N<br />

erhält man die in der folgenden Tabelle angegebenen Abstände<br />

Tabelle 3.1: Haupt-Nebenkeulenabstände / dB<br />

k Rechteckfenster Hanningfenster<br />

1 13,5 entfällt<br />

2 17,9 32,3<br />

3 20,8 41,9<br />

4 23,0 48,7<br />

5 24,8 54,1<br />

6 26,2 58,5<br />

Der Preis für die sehr erhebliche Nebenkeulenunterdrückung besteht darin, dass im Bereich<br />

der beiden ersten Nullstellen neben der Hauptkeule des Rechteckfensterspektrums nunmehr<br />

von Null verschiedene spektrale Werte vorliegen (Bild 3.1b und c). Die ersten, die<br />

Hauptkeule des Hanning-Fenster-Spektrums begrenzenden Nullstellen sind doppelt so weit<br />

von der Hauptkeulen-Mitte entfernt wie beim Rechteck-Fenster-Spektrum.<br />

In den begrenzenden Nullstellen ausgedrückt, ist also die Hauptkeulenbreite gerade doppelt so<br />

groß wie beim Rechteckfenster.<br />

Auch beim Hanningfenster interessiert natürlich vor allem auch die Gestalt der diskreten<br />

Spektren, die sich aus den spektralen Stützstellen Ω = 2πk/N ergeben, wobei wie beim<br />

Rechteckfenster ein "guter" und ein "schlechter" Fall (bezüglich eines möglichen<br />

Amplitudenfehlers) zu berücksichtigen ist. Im


66<br />

a) "Best case" Ω x = 2πk 0 /N (Bild 3.1d)<br />

stimmt die Signalfrequenz Ω x wieder mit einer "Analysefrequenz" Ω x überein.<br />

Auch hier werden gerade die Nullstellen der spektralen Fensterfunktion "zufällig getroffen"<br />

(Bild 3.1d). Weil die Hauptkeule jedoch doppelt so breit ist wie beim Rechteckfenster<br />

entfallen auf sie diesmal DREI spektrale Punkte, deren mittlerer die Signalamplitude<br />

repräsentiert (Bild 3.1d). Wenn man die Punkte noch zu einer Linie verbindet, dann erhält<br />

man eine Gestalt in Form eines Obelisken (Bild 3.1d). Beim<br />

b) "Worst case" Ω x = (2πk 0 /N) + 0,5 (Bild 3.1e)<br />

liegt die Signalfrequenz Ω x in der Mitte zwischen zwei "Analysefrequenzen Ω x ", es werden<br />

also gerade die Betragsmaxima der Nebenkeulen getroffen, die hier allerdings sehr viel<br />

rascher "von der Mitte weg" abnehmen als beim Rechteckfenster. Darin besteht ja gerade der<br />

Grund für die Verwendung des Hanning-Fensters.


67<br />

Weil die Hauptkeule des Hanning-Fenster-Spektrums doppelt so breit ist wie beim<br />

Rechteckfenster entfallen hier im "worst case" vier spektrale Stützstellen auf sie. Daraus<br />

ergibt sich bei Verbindung nur der spektralen Punkte zu einer Linie ein Verlauf "mit Plateau<br />

in der Mitte" wie in Bild 3.1e.<br />

Der maximale Amplitudenfehler bestimmt sich durch die beiden mittleren Spektrallinien im<br />

"worst case" aus dem Verhältnis der Spektralwerte in Ω = 0 und Ω = π/N.<br />

Mit<br />

jπ<br />

N<br />

( )<br />

G e<br />

π<br />

sin<br />

=<br />

2<br />

π<br />

sin<br />

2N<br />

π<br />

sin<br />

1<br />

+<br />

2<br />

2 π<br />

sin<br />

2N<br />

+<br />

3<br />

sin π<br />

1 2<br />

2 3π<br />

sin<br />

2N<br />

1,5 0,5<br />

= −<br />

π 3π<br />

sin sin<br />

2N 2N


68<br />

≈<br />

1,5 ⋅2N 0,5 ⋅ 2N<br />

−<br />

π 3π<br />

= 2,6667 ⋅ N<br />

π<br />

(3.10)<br />

(für große N) und |G(e j0 )| = N ergibt sich<br />

j0<br />

( )<br />

jπ<br />

N<br />

( )<br />

G e<br />

G e<br />

π<br />

= = 1,18<br />

2,6667<br />

(3.11)<br />

Das entspricht einem maximalen Amplitudenfehler von 1,4 dB für das Hanningfenster, doch<br />

deutlich weniger als beim Rechteckfenster mit 3,9 dB.<br />

Noch einmal zusammenfassend zeigt Bild (3.2) zeigt die schmäleren Ausschnitte aus<br />

Hanning- und Rechteck-Fenster-Spektren nach deren Diskretisierung.<br />

Während im Falle eines Signals, das mit einer Spektrallinie in der Frequenz zusammenfällt,<br />

das Rechteckspektrum tatsächlich auch nur "in einem Punkt" besteht (Kurve 1), wird der<br />

spektrale Peak beim Hanning-Fenster durch drei, Dreieckförmig angeordnete Punkte gebildet


69<br />

(Kurve 2). Der Grund besteht in der breiten Hauptkeulengestalt des Hanning-Fensters, von<br />

der Mitte weg ist die nächste Nullstelle gerade 2 Frequenzinkremente entfernt. Liegt die<br />

Signalfrequenz gerade in der Mitte zwischen zwei diskreten Frequenzstellen, so liegen in<br />

beiden Fällen rechts und links von der wahren Signalfrequenz gleich hohe Stützstellen vor<br />

(Kurven 3 und 4). Sie liegen für das Rechteckfenster um 3,9 dB, für das Hanning-Fenster um<br />

1,4 dB unter der wahren Amplitude. In diesem Fall ist das mit dem Rechteckfenster<br />

bestimmte Spektrum wesentlich breiter.<br />

3.2 Die Herstellung von Gewichtsfolgen<br />

Wir wollen nun Strategien entwickeln, mit denen Gewichtsfolgen so hergestellt werden<br />

können, dass ihre Spektren in einem von uns gewünschten Sinne eine "optimale"<br />

Nachbildung der eigentlich idealen Delta-Funktion im Spektralbereich darstellen.<br />

Zunächst müssen wir uns die Bedingungen, unter denen die Entwicklung solcher<br />

Gewichtsfolgen stehen, noch einmal deutlich machen:<br />

a) die Folge soll die endliche Länge N besitzen:<br />

g(n) = 0 für n < 0 und n ≥ N<br />

b) die Folge soll reell und symmetrisch sein:<br />

g(N-1 - n) = g(n).<br />

Für gerade Folgenlängen N = 2M ist also zur Definition der Folge die Angabe von N/2, für<br />

ungerade Folgenlängen die Angabe von (N+1)/2 reellen Zahlenwerten erforderlich. Natürlich<br />

ist dann auch das Spektrum G(ejΩ) durch die gleiche Anzahl von Freiheitsgraden vollständig<br />

festgelegt. Umgekehrt dürfen wir dann aber auch nur N/2 (bzw. (N+1)/2 Freiheitsgrade im<br />

Spektrum benutzen, um es festzulegen.<br />

Würden wir mehr Bedingungen stellen (z.B., indem wir in sehr vielen Punkten einen<br />

spektralen Wert vorgeben), dann würden wir zwangsläufig auch eine Rücktransformierte<br />

größerer Länge oder (und) ohne Symmetrieeigenschaft erhalten.<br />

Nun zeigt ja schon die Definitionsgleichung<br />

N−1<br />

jΩ<br />

− jΩ<br />

( ) ∑g( n)( e ) n<br />

G e<br />

= ,<br />

n=<br />

0<br />

dass Spektren (endlich langer Folgen) immer Polynome in e-jΩ einer durch die Folgenlänge<br />

gegebenen Ordnung sind. Umgekehrt erhalten wir also stets eine durch die Ordnung


70<br />

festgelegte Folgenlänge, wenn wir das Spektrum durch ein Polynom beschreiben. Auf welche<br />

Weise wir das definierende Polynom bestimmen, sei es durch Angabe von Stützstellen, sei es<br />

durch Angabe von Nullstellen, sei es durch Angabe seiner Koeffizienten (dann hätten wir die<br />

Folge g(n) selbst angegeben), das hängt davon ab, was wir von G(ejΩ) erwarten.<br />

Bevor wir darauf näher eingehen, müssen wir noch betrachten, auf welche Weise sich die<br />

geforderte Symmetrie im Spektrum ausdrückt. Es ist wegen g(n) = g(N-1 - n):<br />

Für geradzahlige N<br />

N−1<br />

jΩ<br />

( ) = ∑g( n)<br />

G e<br />

=<br />

=<br />

=<br />

n=<br />

0<br />

= e<br />

= e<br />

N / 2−1<br />

∑<br />

n=<br />

0<br />

N / 2−1<br />

∑<br />

n=<br />

0<br />

N / 2−1<br />

∑<br />

n=<br />

0<br />

g<br />

g<br />

g<br />

e<br />

− jnΩ<br />

− jnΩ<br />

( n) e + g( n)<br />

− jnΩ<br />

− j( N−n−1)<br />

( n) e + g( N − n −1) e<br />

Ω<br />

[ ]<br />

− jnΩ<br />

− j( N−n−1)<br />

( n) e + e<br />

N−1<br />

− j Ω N / 2−1<br />

2<br />

∑<br />

n=<br />

0<br />

N−1<br />

− j Ω<br />

N / 2−1<br />

2<br />

∑<br />

n=<br />

0<br />

g<br />

( n)<br />

2g<br />

( n)<br />

N−1<br />

∑<br />

n=<br />

N / 2<br />

N / 2−1<br />

∑<br />

n=<br />

N / 2<br />

⎡<br />

⎢e<br />

⎢⎣<br />

e<br />

⎛ N−1<br />

⎞<br />

j⎜<br />

⎟Ω<br />

⎝ 2 ⎠<br />

− jnΩ<br />

+ e<br />

⎛ N−1<br />

⎞<br />

− j⎜<br />

−n<br />

⎟Ω<br />

⎝ 2 ⎠<br />

⎛ N −1<br />

⎞<br />

cos⎜<br />

− n⎟Ω<br />

⎝ 2 ⎠<br />

⎤<br />

⎥<br />

⎥⎦<br />

Ω<br />

(3.12)<br />

Für ungeradzahlige N<br />

N−1<br />

jΩ<br />

( ) = ∑g( n)<br />

G e<br />

n=<br />

0<br />

= g<br />

= g<br />

= e<br />

⎛<br />

⎜<br />

⎝<br />

⎛<br />

⎜<br />

⎝<br />

e<br />

N −1⎞<br />

⎟ e<br />

2 ⎠<br />

N −1⎞<br />

⎟ e<br />

2 ⎠<br />

N−1<br />

− j Ω<br />

2<br />

⎧<br />

⎪<br />

⎨g<br />

⎪<br />

⎩<br />

− jnΩ<br />

⎛<br />

⎜<br />

⎝<br />

N−1<br />

− j Ω<br />

2<br />

N−1<br />

− j Ω<br />

2<br />

+<br />

+<br />

N −1⎞<br />

⎟ +<br />

2 ⎠<br />

N−1<br />

−1<br />

2<br />

∑<br />

n=<br />

0<br />

g<br />

N−1<br />

−1<br />

2<br />

∑<br />

n=<br />

0<br />

N−1<br />

−1<br />

2<br />

∑<br />

n=<br />

0<br />

− jnΩ<br />

( n) e + g( n)<br />

− jnΩ<br />

− j( N−1−<br />

n ) Ω<br />

( g ( n) e + g ( N −1−<br />

n) e )<br />

2g<br />

N−1<br />

∑<br />

N−1<br />

n=<br />

+ 1<br />

2<br />

⎛ N −1<br />

⎜<br />

⎝ 2<br />

( n) cos − n .<br />

e<br />

− jnΩ<br />

⎫<br />

⎞ ⎪<br />

⎟Ω<br />

⎠<br />

⎬<br />

⎪<br />

⎭<br />

(3.13)<br />

In beiden Fällen erhalten wir die Darstellung<br />

N−1<br />

− j Ω<br />

jΩ<br />

⎛ Ω<br />

2<br />

⎞<br />

( e ) e P ⎜cos<br />

⎟<br />

⎠<br />

G =<br />

N−1<br />

⎝<br />

2<br />

(3.14)


71<br />

des Spektrums G durch ein Polynom N-1-ter Ordnung, vorausgesetzt nur, wir machen uns<br />

klar, dass cos (M Ω/2) selbst ein Polynom der Ordnung M in cos (Ω/2) ist. Das aber ist leicht<br />

aus Additionstheoremen zu zeigen:<br />

Aus<br />

2 cos M Ω 2 cos 2 Ω 2 = cos (M+2) Ω 2 + cos (M-2)Ω 2 (3.15)<br />

und<br />

cos 2 Ω 2 = 2 cos2 Ω<br />

2<br />

- 1<br />

(3.16)<br />

folgt<br />

cos (M+2) Ω 2 = 2 cos M Ω 2 2 cos2 Ω<br />

2<br />

- 1 - cos (M-2) Ω 2 . (3.17)<br />

Darin ist der Beweis enthalten (durch Induktion), dass cos ( M Ω ) ein Polynom der Ordnung<br />

2<br />

⎛ Ω ⎞<br />

M in cos ⎜ ⎟ ist:<br />

⎝ 2 ⎠<br />

a) Es ist cos(0) = 1 und cos (2 2<br />

Ω ) ein Polynom der Ordnung 2, also ist [M = 2 in (3.8)] cos<br />

(4 2<br />

Ω ) ein Polynom der Ordnung 4 mit nur geraden Exponenten, also ist cos ((M+2) 2<br />

Ω )<br />

ein Polynom der Ordnung M+2 mit nur geraden Exponenten, falls M geradzahlig ist.<br />

⎛ Ω ⎞<br />

b) Es ist cos ⎜ ⎟ ein Polynom der Ordnung 1. Also ist [M = 1 in (3.8)] cos (3<br />

⎝ 2 ⎠<br />

Polynom der Ordnung 3 mit nur ungeraden Exponenten, also ist cos ((M+2)<br />

Polynom der Ordnung M+2 mit nur ungeraden Exponenten, falls M ungeradzahlig ist.<br />

Ganz offensichtlich zeigt Gl. (3.8), dass in (3.5 a,b,c)<br />

Ω ) ein<br />

2<br />

Ω ) ein<br />

2<br />

⎛ Ω ⎞<br />

P N-1 (cos Ω/2) ein Polynom der Ordnung N-1 in cos ⎜ ⎟<br />

⎝ 2 ⎠<br />

ist, wobei in P N-1<br />

- nur ungerade Exponenten vorkommen, wenn N geradzahlig und<br />

- nur gerade Exponenten vorkommen, wenn N ungeradzahlig ist.


72<br />

Im Fall geradzahliger N erhalten wir dann sogar zwangsläufig eine Nullstelle im Polynom P N-<br />

⎛ Ω ⎞<br />

1 für cos ⎜ ⎟ = 0, es ist also für geradzahlige N:<br />

⎝ 2 ⎠<br />

⎛ Ω ⎞<br />

⎜cos<br />

⎟<br />

⎝ 2 ⎠<br />

P N − 1<br />

Ω=±π<br />

=<br />

0<br />

Wir erkennen an diesen Betrachtungen die verlangte "Informationstreue" zwischen Originalund<br />

Bildbereich: Enthält das Polynom der Ordnung N-1 nur ungerade Exponenten<br />

(geradzahlige N), dann können N/2 Koeffizienten "frei gewählt" werden; auch die<br />

symmetrische Rücktransformierte der Länge N besitzt N/2 Freiheitsgrade. Enthält das<br />

Polynom der Ordnung N-1 nur gerade Exponenten (ungeradzahlige N), dann können (N+1)/2<br />

Koeffizienten gewählt werden; auch symmetrische Rücktransformierte besitzen (N+1)/2<br />

Freiheitsgrade.<br />

Die Koeffizienten des Polynoms<br />

⎛<br />

Ω ⎞<br />

N 1<br />

P N 1<br />

cos ∑ − − ⎜ ⎟ =<br />

2 n = 0<br />

⎝<br />

⎠<br />

c<br />

( n)<br />

⎛ Ω ⎞<br />

⎜cos<br />

⎟<br />

⎝ 2 ⎠<br />

n<br />

(3.18)<br />

sind dabei natürlich nicht mit den Folgeelementen g(n) identisch, im Gegenteil ist es sogar<br />

sehr umständlich, den Zusammenhang zwischen c(n) und g(n) auszudrücken. Wir werden<br />

diesen Zusammenhang aber auch gar nicht explizit benötigen: Haben wir nur einmal das<br />

Polynom und damit das Spektrum definiert, so können wir die zugehörige Gewichtsfolge<br />

durch Rücktransformation gewinnen, wobei wir die in Kapitel 2.3 und 2.4 gewonnenen<br />

Erkenntnisse nutzen. Wir brauchen nur die äquivalenten Stützstellen Ω n = 2π U N am<br />

definierten Spektrum der (inversen) FFT zu unterziehen, um die Zahlenwerte numerisch zu<br />

berechnen.<br />

Nachdem wir nun die prinzipiellen Eigenschaften symmetrischer, endlich langer Folgen<br />

kennen, wenden wir uns der Frage zu, wie denn die Polynome P N-1 (cos Ω/2) für die<br />

Erzeugung "guter" Gewichtsfolgen beschaffen sein müssen. Nun ist ja für den<br />

Funktionsverlauf eines Polynoms die Lage der Nullstellen entscheidend. Ist ein betrachteter<br />

Punkt U in einem Polynom P N-1 (U) "in der Nähe" einer Nullstelle U o [P N-1 (U o ) = 0], dann ist<br />

auch der Funktionswert P N-1 (U) vergleichsweise klein. Ist dagegen der betrachtete Punkt U<br />

von allen Nullstellen "weiter weg", dann ist auch der Funktionswert P N-1 (U) vergleichsweise<br />

groß. Daraus folgt das unabänderliche Prinzip aller Gewichtsfolgen: Es bleibt gar nichts<br />

anderes übrig, als die Nachbildung der eigentlich erwünschten spektralen Deltafunktion δ(Ω)<br />

so vorzunehmen, dass im Bereich Ω ≠ 0 - entsprechend cos Ω/2 ≠ 1 - so viele Nullstellen wie<br />

eben möglich angesiedelt werden, wobei der Punkt Ω = 0 (entsprechend cos Ω/2 = 1) von den


73<br />

Nullstellen schon "etwas weiter entfernt sein soll". Just durch diese anschauliche Vorstellung<br />

kann man alle Gewichtsspektren deuten.<br />

So wird beim Rechteckfenster offenbar die Hauptkeule durch das "Fehlen" einer Nullstelle<br />

U=0 im ansonsten regelmäßigen Nullstellenmuster Ω = 2πU<br />

N , U = ± 1, ± 2 erzeugt. Die<br />

spektralen Werte zwischen den Nullstellen - die Nebenkeulen - ergeben sich dann daraus,<br />

dass quasi "nicht genügend" Nullstellen wegen der gegebenen Folgenlänge verfügbar sind.<br />

Alle Kunst der Gestaltung besteht nun letztlich darin, die Nullstellen des Rechteck-Fenster-<br />

Spektrums "ein wenig" zu verschieben und damit Details am spektralen Verlauf zu<br />

beeinflussen. Auf diese Weise kann man sich zum Beispiel das Hanning-Fenster erzeugt<br />

vorstellen: Es entsteht einfach durch das Weglassen der ersten beiden Nullstellen im<br />

Rechteckfenster-Spektrum. Es kann deshalb in seiner Gesamtheit offenbar gar kein<br />

"optimales" Fenster sein: Optimal im Sinne abgewogener Forderungen nach kleiner<br />

Hauptkeulenbreite und gleichfalls kleiner Nebenkeulenhöhe kann nur ein Fenster sein, bei<br />

dem keine spektrale Nullstelle "verschenkt" wird: Alle N–1 verfügbaren Nullstellen müssen<br />

zur Formung verwendet werden.<br />

Wenn wir es besser machen wollen, dann müssen wir die Anzahl N–1 der überhaupt<br />

möglichen spektralen Nullstellen beibehalten und nur ihre Lage ein wenig manipulieren.<br />

Verschieben wir beispielsweise - ausgehend vom Rechteckfenster-Spektrum - die ersten<br />

Nullstellen von Ω = 0 weg etwas weiter nach außen, dann werden sich die größten<br />

Nebenkeulen verringern. Gleichzeitig aber verbreitern wir zwangsläufig die Hauptkeule. Wir<br />

sehen: Man kann nicht beides haben; kleine Nebenkeulen und schmale Hauptkeulen sind sich<br />

widersprechende Forderungen. Wir können entweder versuchen, kleine Nebenkeulen<br />

einzustellen und müssen dann die nun einmal erzeugte Hauptkeule in Kauf nehmen; oder wir<br />

benutzen schmale Hauptkeulen um den Preis höherer Nebenkeulen. Kein Fenster kann dieses<br />

Prinzip durchbrechen.


74<br />

4. Die Verwendung stationärer Zufallsprozesse als Messsignale<br />

Eine (nicht nur) in der <strong>Technische</strong>n <strong>Akustik</strong> oft vorkommende Messaufgabe besteht darin, die<br />

Übertragungsfunktion H(ω) eines (linearen, zeitinvarianten) Systems durch Messung zu<br />

bestimmen. Zu diesem Zweck wird der Eingang des Systems (in Bild 4.1 ist es zum Beispiel<br />

der Kraft-Zeit-Verlauf eines zu Biegeschwingungen angeregten Stabes) mit einem gewissen<br />

Zeitsignal versorgt. Dieses Anregesignal und das daraus resultierende Ausgangssignal (im<br />

Beispiel des Bildes 4.1 die Beschleunigung eines gewissen Stabpunktes) werden vom FFT-<br />

Analysator registriert und zur Berechnung der Übertragungsfunktion weiterverarbeitet. Das<br />

Anregesignal wird dabei einem Generator entnommen, der oft Bestandteil des Analysators ist.<br />

Eine noch offene Frage besteht dabei vor allem in der Auswahl des Anregesignales x(t). In<br />

Wahrheit hängt die Antwort darauf sehr von den Umständen ab. Zum Beispiel<br />

• bevorzugt man für extrem schwach gedämpfte oder sehr schwer anregbare Strukturen<br />

(wie etwa Eisenbahnwaggons oder Flugzeuge) MONOFREQUENTE Anregungen, um ein<br />

möglichst großes Signal in einer schmalen Bandbreite zu konzentrieren. Die Frequenz<br />

wird dann allmählich gleitend geändert (sine-sweep), so dass sich "langfristig" ein<br />

breitbandiges Signal ergibt.<br />

• erlauben manchmal die Messbedingungen nur kurzzeitige, impulsförmige Anregungen.<br />

Das ist zum Beispiel der Fall, wenn der Freifeld-Frequenzgang von Lautsprechern<br />

gemessen werden soll, ein reflexionsfreier Messraum jedoch nicht zur Verfügung steht.<br />

Man schneidet dann das Ausgangssignal vor Eintreffen der ersten Reflexion von einer<br />

Wand ab; es sind natürlich möglichst kurze Signale dabei erwünscht.<br />

Andererseits haben sowohl "sine-sweep" als auch "impulse" Signale entscheidende Nachteile.<br />

Im ersten Fall kann die Messdauer außerordentlich lang sein (die sine-sweep Vermessung<br />

eines Eisenbahnrades mit außerordentlich kleiner Dämpfung kann sich über einige Stunden<br />

erstrecken), ein nicht immer angemessener Aufwand. Man bedenke auch, dass (z.B. bei der<br />

Modalanalyse) sehr viele Übertragungsfunktionen gemessen werden müssen.<br />

Auch die Messung mit kurzen Impulsen kann erhebliche Probleme aufwerfen. Im Interesse<br />

einer großen Signalbandbreite muss die Impulsdauer möglichst klein sein. Weil dabei (wegen<br />

möglichen Nichtlinearitäten oder gar System-Beschädigungen) die Impulshöhe nicht beliebig<br />

groß gemacht werden kann, ist die mit einem Impuls eingeleitete Signalenergie stark<br />

beschränkt. Sehr oft ist andererseits ein unerwünschtes Eigenrauschen in der Messkette<br />

vorhanden, das häufig in (empfindlichen) Messverstärkern besteht. Eine "gute<br />

Messauswertung" erfordert ein hohes Signal/Rauschverhältnis, für dieses Ziel ist eine<br />

Impulsanregung vom Prinzip her nicht gerade gut geeignet.<br />

Im Grunde lässt sich das Problem dadurch beschreiben, dass die beiden genannten<br />

Signaltypen "in einer Ebene breit, in der anderen Ebene dagegen schmal" sind: Sinus-Signale<br />

sind "zeitlich" gut verteilt, die Signalenergie ist in vielen Zeitpunkten enthalten, dafür ist das<br />

Spektrum außerordentlich schmal; der Impuls ist zwar breitbandig, dafür ist seine Energie nur<br />

innerhalb einer sehr kleinen Dauer gespeichert. Ein ideales Messsignal müsste die beiden<br />

erwünschten "breiten" Eigenschaften miteinander verbinden: es müsste sowohl "zeitlich gut<br />

besetzt" (mit der Folge guten Rauschabstandes) als auch breitbandig sein (mit der Folge guter<br />

Messzeiten).<br />

Es ist seit langem bekannt, dass ein solches erwünschtes Messsignal durch das sogenannte<br />

"Weiße Rauschen" zur Verfügung steht, das "die Breite auf beiden Ebenen" miteinander<br />

verbindet. Die vielleicht einfachste Vorstellung, die man von diesem Rauschvorgang


75<br />

gewinnen kann, besteht in einer völlig regellosen und zufälligen Abfolge von Zahlenwerten.<br />

Solche Vorgänge "ohne System" in einer Abfolge von Zahlen sind zum Beispiel<br />

• die Zahlenfolge, die beim wiederholten Werfen mit einem Spielwürfel entsteht,<br />

• die Folge, die (ähnlich wie eben) beim Münze Werfen entsteht (dabei werden Vorder- und<br />

Rückseite je einer bestimmten Zahl zugeordnet, z.B. +1 und -1, aber auch jedes andere<br />

Zahlenpaar kann benutzt werden),<br />

• die (abgetastete) Zahlenfolge, die durch thermisches Rauschen in elektrischen<br />

Widerständen entsteht und<br />

• das Schalldrucksignal, das durch das Tosen der niederstürzenden Wassermassen bei<br />

Wasserfällen hervorgerufen wird.<br />

Alle diese Beispiele bezeichnen weiße Rauschvorgänge. Das Wesentliche an ihnen besteht in<br />

der völlig zufälligen REIHENFOLGE von Zahlenwerten: es gibt KEINERLEI<br />

Gesetzmäßigkeit, die hilft, einen aktuellen Wert x(n) in der Folge aus den vorangegangenen<br />

Werten x(n-k), k=1,2,... zu bestimmen. Das aktuelle Element ist nicht vorhersehbar, welcher<br />

Zahlenwert beim Würfeln "das nächste Mal" fallen wird, das kann man vorher nicht wissen<br />

und auch nicht auf Grund "langer Erfahrung" mit dem Würfel irgendwie eingrenzen.<br />

Unter weißem Rauschen versteht man also Zahlenfolgen mit regelloser Reihenfolge der<br />

aufeinanderfolgenden Werte. Welche Wertvielfalt (z.B. 1,2,3,4,5 und 6 beim Würfeln) dabei<br />

erlaubt ist, ist dabei völlig unerheblich. Beim technisch nutzbaren Signal, das von einem<br />

Rauschgenerator erzeugt wird, erhält man einfach "viele verschiedene" Werte innerhalb eines<br />

gewissen Intervalls. Im Bild 4.1a ist eine Stichprobe des Zeitverlaufes als Beispiel angegeben.


77<br />

Es fragt sich nun, in welchem Sinne solche Zufallsgrößen über die erwünschten<br />

Eigenschaften "Signalenergie sowohl über die Zeitpunkte als auch über die Frequenzen<br />

gleichmäßig verteilt" besitzen. Sie können über diese Qualitäten nur in einem statistischen<br />

Sinn verfügen, denn in einem einzelnen "Signalstück", das gerade der Fensterlänge bei der<br />

Abtastung entspricht, kommen viele, zufällig verteilte Funktionswerte vor (siehe z.B. Bild<br />

4.2a). Erst wenn man viele solcher Signale betrachtet und einen Mittelwert bildet, erhält man<br />

eine gleichmäßige Energieverteilung längs des zeitlichen Fensters. Erst die durch<br />

x<br />

2<br />

M<br />

1<br />

= ∑<br />

(4.1)<br />

i<br />

M<br />

2<br />

( n) x ( n)<br />

i=<br />

1<br />

bezeichnete mittlere Signalenergie x 2 ist für weiße Rauschvorgänge längs des Fensters<br />

n=0,1,...,N-1 konstant, x 2 ( n)= const( n). Dabei ist in (4.1) xi(n) eine (gefensterte)<br />

Stichprobenfolge der Länge N; es werden M Stichproben genommen und aus ihnen der<br />

(quadratische) Mittelwert gebildet. Jede Stichprobe besteht also aus "einem Stück des<br />

Zeitverlaufes" dessen Länge (oder "Dauer") gerade durch die Fensterbreite gegeben ist.<br />

Auch die spektralen Eigenschaften von Rauschen können erst durch "statistische<br />

Betrachtung" bezeichnet werden, die Spektren Xi(ω) der einzelnen Stichproben xi(n) haben<br />

einen ebenso zufälligen Verlauf wie der Zeitverlauf der Stichprobe selbst (Beispiel in Bild<br />

4.2b). (Anmerkung: Xi(ω) bedeutet das Spektrum einer Stichprobe xi(n) in dem in den<br />

vorigen Abschnitten geschilderten Sinn. Präzise ausgedrückt: Xi(ω) bezeichnet die diskrete<br />

Fourier-Transformation von xi(n) nach Gleichung (2.32), wobei zuvor noch eine<br />

Fensterfunktion angebracht worden sei kann, xi(n)→g(n) ) Der Grund für die Tatsache, dass<br />

die Transformierten der Stichproben gleichfalls "Zufallsverläufe" sind, erklärt sich einfach<br />

aus der inhaltlichen Bedeutung des Begriffs "Spektrum": dieser Begriff beinhaltet ja nichts<br />

anderes als den Versuch, die in einem Signal vorkommenden "Ordnungen" zu erfassen und<br />

darzustellen. Das Signal wird nämlich gerade auf das "Ordnungsprinzip enthaltener<br />

Periodizitäten" hin untersucht; sind diese Vorhanden, so wird das durch einzelne "Peaks" im<br />

spektralen Verlauf angezeigt. Ist andererseits ein Vorgang völlig regellos (und also weißes<br />

Rauschen), dann kann das Spektrum ebenfalls keine Ordnung besitzen: es besteht selbst in<br />

einer zufälligen, ordnungsfreien Zahlenfolge. Für weißes Rauschen ist also die spektrale<br />

Leistung<br />

1<br />

M<br />

2<br />

G<br />

xx<br />

( ω ) = ∑ X ( ω)<br />

(4.2)<br />

i<br />

M m=<br />

1<br />

nach Mittelung über viele Stichproben frequenzunabhängig, G xx (ω) = const(ω), siehe auch<br />

Bild 4.2c.<br />

Wie man sieht, erhält man brauchbare Aussagen über die Qualitäten zufälliger Signale erst,<br />

wenn man diese einem Mittelungsverfahren unterzieht. Diese Notwendigkeit wird natürlich<br />

auch die folgenden Betrachtungen bestimmen. Zur Abkürzung der Schreibweise wird deshalb<br />

zunächst die Operation E "Bildung des Mittelwertes" (ein anderes Wort für Mittelwert wäre<br />

der Erwartete Wert) eingeführt:<br />

1<br />

E { x} = ∑<br />

(4.3)<br />

M<br />

M<br />

x i<br />

i=<br />

1


78<br />

worin xi aus den Stichproben abgeleitete Größen sind. Z.B. ist das Leistungsspektrum von x<br />

1 *<br />

{ } = ∑ Xi<br />

( ω) ⋅ Xi<br />

( ω)<br />

*<br />

( ω) = E X ( ω) ⋅ X( ω)<br />

G (4.4)<br />

xx<br />

M<br />

Mehr am Rande sie vermutet, dass man die lineare Mittelung noch durch gewichtete<br />

Mittelungen<br />

E{ x} =<br />

1<br />

M ⋅ G<br />

M<br />

∑ g i ⋅x i<br />

(4.5)<br />

i=1<br />

(z.B. exponentielle Mittelung mit gi = e -iα ) ersetzen kann und dass M eine hinreichend große<br />

Zahl sein muss (in der Messpraxis "probiert" man meist einfach einige M aus).<br />

Rauschvorgänge, wie oben geschildert, werden also nun zur Anregung eines linearen<br />

Übertragers (wie in Bild 4.1 angedeutet) benutzt, mit dem Ziel, dessen Übertragungsfunktion<br />

H(ω) aus Eingangs- und Ausgangssignal zu ermitteln. Im Prinzip ist es dazu "nur"<br />

erforderlich, die Spektra von Eingangssignal und Ausgangssignal zu bestimmen und H aus<br />

deren Quotient zu berechnen. Andererseits ist aber gerade die Bestimmung "des Spektrums"<br />

gerade bei Rauschvorgängen offensichtlich gar nicht so leicht: die spektrale Qualität schält<br />

sich erst nach Mittelung über Stichproben heraus.<br />

Eine naheliegende Idee zur Schätzung der Übertragungsfunktion H(ω) nach Betrag und Phase<br />

beruht auf einer Verallgemeinerung der in (4.4) definierten Leistungsdichte. Dazu wird<br />

zunächst die Mittelwertbildung auf dem Produkt Xi*(ω) . Yi(ω) aufgebaut und das sogenannte<br />

"Kreuzleistungsspektrum" zu<br />

M<br />

1 *<br />

{ } = ∑ Xi<br />

( ω) ⋅ Yi<br />

( ω)<br />

*<br />

( ω ) = E X ( ω) ⋅ Y( ω)<br />

G (4.6)<br />

xy<br />

M<br />

i=<br />

1<br />

definiert. Diese Festlegung scheint nützlich zu sein. Wenn man unter gewissen<br />

Voraussetzungen annehmen darf, dass zwischen den Stichprobenspektren von Eingang und<br />

Ausgang die Beziehung<br />

i<br />

( ω) = H( ω) ⋅X<br />

( ω)<br />

Y (4.7)<br />

i<br />

bestehen würde (tatsächlich gilt (4.7) nur für eine ganz bestimmte Übertragungsfunktion H,<br />

wie das folgende zeigt), dann wäre dieser als "Transferfunktion" bezeichnete Quotient<br />

F xy ( ω) = G xy ( ω)<br />

G xx ( ω)<br />

(4.8)<br />

in der Tat mit der Übertragungsfunktion identisch, es wäre dann nämlich<br />

∑<br />

G xy ( ω) = 1 M X i * ( ω)⋅ H( ω)<br />

⋅ X i ( ω) = H( ω)⋅ G xx ( ω) (4.9)<br />

In Wahrheit stellt die nach (4.8) definierte Transferfunktion nur eine (möglicherweise sogar<br />

schlechte) Schätzung für die Übertragungsfunktion H(ω) dar. Tatsächlich gilt ja (4.7) einzig


79<br />

für die Spektren y(ω) und X(ω) der jeweils GANZEN Fourier-Transformierten Signale x und<br />

y:<br />

Y( ω) = H( ω)⋅X( ω) (4.10)<br />

∞<br />

mit X( ω) = F { ( )} −jωt<br />

x t = ∫ x(t) e dt<br />

−∞<br />

∞<br />

Y(ω) = F { ( )} −jωt<br />

y t = ∫ y(t) e dt<br />

−∞<br />

allgemein aber KEINESWEGS für Transformierte, die auf (im Grunde ja beliebig<br />

"herausgerissene") Stücke der Zeitverläufe aufgebaut sind. Diese Tatsache lässt sich natürlich<br />

auch an der in den Zeitbereich (mit Hilfe des Faltungssatzes) zurückübersetzten Gleichung<br />

(4.10) ablesen:<br />

y(t)<br />

∞<br />

=∫<br />

0<br />

h( τ)x(t<br />

− τ)dτ<br />

(4.11)<br />

Für einen Punkt t, der in der aktuellen Stichprobe 0 ≤ t ≤ T liegen möge, ist<br />

t<br />

y(t) = ∫ h( τ)x(t<br />

− τ)dτ+<br />

∫ h( τ)x(t<br />

− τ)dτ<br />

0<br />

∞<br />

t<br />

(4.12)<br />

Nur das erste Integral beschreibt den Anteil von y(t), der auf den Zeitverlauf von x(t) in der<br />

gleichen Eingangsstichprobe 0 ≤ t ≤ T zurückzuführen ist. Das zweite Integral<br />

berücksichtigt hingegen Eingangssignalteile in ihrer Wirkung auf den aktuellen Ausgang, die<br />

sich schon VOR t = 0 ereignet haben und mithin zu früheren Stichproben gehören. Wie auch<br />

Bild 4.3 zu demonstrieren versucht lehrt das Faltungsintegral (4.11) gerade, dass der Ausgang<br />

zum Zeitpunkt t auf ALLEN VORANGEGANGENEN EINGÄNGEN beruht; eine<br />

Unterteilung der Signale in "Stichproben mit endlicher Fensterbreite" kann das gar nicht<br />

erfassen und ist zwar aus praktischen Gründen erforderlich, dabei jedoch der wahren<br />

Übertragung durch das System nicht angemessen.


Freilich kann die mit (4.8) vorgenommene Schätzung der Übertragungsfunktion dabei einen<br />

nur kleinen Fehler beinhalten. Der Fehler ist dann gering, wenn die Impulsantwort h(t) so<br />

beschaffen ist, dass Anteile aus früheren Stichproben - ausgedrückt durch das zweite Integral<br />

in (4.12) - y(t) nur wenig beeinflussen: das ist dann der Fall, wenn die Impulsantwort "kurz"<br />

ist verglichen mit der Fensterbreite T der Stichproben (siehe auch Bild4.3), wenn es sich also<br />

z.B. bei h(t) um eine während T "hinreichend rasch abklingende Funktion" handelt. In diesen<br />

Fall ist das erste Integral in (4.12) bestimmend für y(t). Vollständig wird y ausschließlich<br />

durch das erste Integral in (4.12) bestimmt, wenn im System gar keine zeitliche Verzögerung<br />

enthalten ist, wenn also h(t) = V . δ einen reinen Verstärker mit H(ω) = V = const beschreibt;<br />

einzig in diesem Fall gibt (4.7) auch für Stichproben von Ausgangs- und Eingangssignal,<br />

denn für ein solches System wird ein Ausgangswert einzig durch den gleichzeitigen<br />

Eingangswert bestimmt. In jedem anderen Fall enthält h(t) eine Verzögerung oder ein<br />

80


81<br />

Nachklingen des Systems, das stets notwendig dazu führt, dass aktuelle Ausgangswerte<br />

mindestens teilweise auf Anregungen aus der Vorgeschichte zurückzuführen sind.<br />

Grundsätzlich ist also die Transferfunktion Fxy eine Schätzung für die wahre<br />

Übertragungsfunktion H, die einen systematischen Fehler enthält. Ein Maß für die Qualität<br />

der Schätzung bietet die Kohärenz γ 2 . Sie ist definiert als das Verhältnis aus der auf Grund<br />

der Schätzung Fxy über das System H quasi "scheinbar" übertragene Leistung zu der<br />

ausgangsseitig tatsächlich vorgefundenen Leistung, also<br />

γ<br />

2<br />

F<br />

=<br />

xy<br />

2<br />

( ω) ⋅G<br />

xx<br />

( ω)<br />

G ( ω)<br />

yy<br />

(4.13)<br />

Setzt man noch Fxy = Gxy/Gxx ein, so erhält man<br />

γ 2 = G xy ( ω)<br />

G xx ( ω) ⋅ G xy *( ω)<br />

G xx *( ω) ⋅ G xx ( ω)<br />

G yy ( ω) = G xy ( ω)⋅G<br />

xy *( ω)<br />

G xx ( ω)⋅G yy ( ω)<br />

(4.14)<br />

weil Gxx =Gxx* reellwertig ist. Die Schätzung Fxy(ω) berücksichtigt wie erläutert nur einen<br />

Teil des tatsächlichen Leistungstransportes über das System, es ist also F xy<br />

2<br />

⋅Gxx ≤ G yy ;<br />

aus diesem Grund ist die Kohärenz höchstens gleich 1: 0 ≤ γ 2 ≤ 1. Je größer γ 2 , desto besser<br />

gibt die Schätzung Fxy den wahren Leistungstransport an.<br />

Die Bedeutung der Kohärenz γ 2 lässt sich auch an Hand eines anderen Schätzwertes für den<br />

Betrag der Übertragungsfunktion |H(ω)| ablesen. Es bezeichnen nämlich wie erwähnt Gyy(ω)<br />

und Gxx(ω) die tatsächlichen spektralen Leistungen, vorausgesetzt nur, dass ihre Berechnung<br />

"mit diskreten Mitteln" wie in den Kapiteln 2 und 3 geschildert (fast) keine Fehler enthält. Für<br />

die Berechnung der spektralen Leistung je EINES Zeitverlaufes spielt gar keine Rolle, durch<br />

welche Ursachen dieser hervorgerufen sein mag. Es ist also<br />

H s ( ω) 2 = G yy ( ω)<br />

G xx ( ω) ≅ H( ω)2<br />

(4.15)<br />

eine "bessere" Schätzung von |H(ω)| als |Fxy(ω)| 2 , weil hierin Fragen nach der Herkunft der<br />

Ausgangssignal-Bestandteile unbedeutend sind. So gesehen wird die nach (4.8) definierte<br />

Transferfunktion nur aus dem Wunsch nach Bestimmung des System-Phasenganges<br />

erforderlich, denn dieser lässt sich natürlich aus dem Verhältnis der Leistungsspektren alleine<br />

nicht berechnen.<br />

Die Kombination von (4.13) und (4.15) ergibt nun<br />

F xy ( ω) 2 ≅ γ 2 H( ω) 2 (4.16).<br />

Wie man erkennt, unterschätzt die Transferfunktion grundsätzlich die wahre<br />

Übertragungsfunktion, F 2<br />

xy ≤ H<br />

2<br />

. Wie man ebenfalls sieht, gibt γ2 direkt den Fehler an. In<br />

Pegeln ausgedrückt beträgt er ∆L = 10lgγ 2 . Wenn höchstens 1dB Fehler zugelassen sein soll,


82<br />

dann muss γ 2 ≥ 0,8 eingehalten werden. Diese Grenze bezeichnet etwa die Verhältnisse, die<br />

bei praktischen Messungen eingehalten werden sollen.<br />

Bei schlechterer Kohärenz müssen die Mess- und Auswerte-Parameter in Hinblick auf eine<br />

Verbesserung von γ 2 geändert werden. Insbesondere kommt dazu die Verwendung einer<br />

größeren Fensterlänge T, damit gleichzeitig eine verbesserte Auflösung ∆f = 1/T und eine<br />

Verringerung der Bandbreite der Messung in Frage. Gegebenenfalls muss die interessierende<br />

Bandbreite in mehrere Bänder zerlegt werden, die dann einzeln (u.U. mit der Zoom-Technik)<br />

analysiert werden.<br />

Die oben geschilderten Sachverhalte sollen am Beispiel einer mit weißem Rauschen<br />

eingangsseitig gespeisten Verzögerungsleitung (Verzögerungszeit T v ) illustriert werden.<br />

Solche "Time-Delays" kommen in der <strong>Akustik</strong> oft vor, z. B. ist jede Luftschall-Übertragungs-<br />

Strecke eine Verzögerung. Wie Bild 4.4 zeigt, ist nur der Teil (1 - T v /T)Y i des Spektrums Y i<br />

der i-ten Stichprobe des Ausgangssignals auf die gleiche Eingangsstichprobe zurückzuführen.<br />

Da alle Vorgänge und Teilvorgänge weißes Rauschen sind, erfolgt die Verteilung dabei auf<br />

alle Frequenzen gleichmäßig. Der fehlende Rest (T v /T)Y i wird durch die davor liegende<br />

Stichprobe X i-1 hervorgerufen. Es ist also<br />

⎛<br />

Y i ( ω) = 1− T v ⎞<br />

⎝ T ⎠ H( ω)<br />

X i ( ω)<br />

+ R i ( ω)<br />

worin H die "wahre" Übertragungsfunktion, H = e- jωTv und Ri(ω) den "Rest" bezeichnet, der<br />

aus früheren Stichproben des Eingangssignals herstammt. Deshalb gilt E{Ri(ω)Xi*}=0, und<br />

daher ist


83<br />

G<br />

xy<br />

Wie man sieht ist<br />

⎛ T ⎞<br />

{ } = ⎜ −<br />

v<br />

1 ⎟H( ω) G ( ω)<br />

( ω ) =<br />

*<br />

E X ( ω ) ⋅ Y( ω )<br />

⎝<br />

T ⎠<br />

xx<br />

F xy ( ω) 2 = G xy ( ω)<br />

2<br />

G xx ( ω)<br />

= 1 − T 2<br />

⎛ v ⎞<br />

⎝ T ⎠<br />

H( ω) 2 (4.17)<br />

und die Kohärenz γ 2 beträgt<br />

γ 2 = 1 − T 2<br />

⎛ v ⎞<br />

⎝ T ⎠<br />

(4.18)<br />

Die Bilder 4.5a und b zeigen ein Beispiel, das mit Hilfe eines FFT-Analysators hergestellt<br />

worden ist.


84<br />

Hier war Tv/T=0,2 (siehe auch Bild 4.5c und die noch folgenden Erläuterungen zur<br />

Kreuzkorrelationsfunktion); das ergibt breitbandig den Wert von γ 2 =0,64 und 10 lg<br />

|Fxy/H| 2 =-2dB. Für γ 2 ≥ 0,8 - entsprechend einem Messfehler von höchstens 1 dB für die


85<br />

durch F xy geschätzte Übertragungsfunktion - muss die Verzögerungszeit weniger als 10% der<br />

Fensterlänge betragen. Wird ein Analysator mit einem Messbereich 0 ≤ f ≤ 10kHz und 401<br />

Linien (∆f = 25 Hz) betrieben, so ist T = 0,04 s und die maximale Verzögerungszeit T v =<br />

0,004 s. Mit der Schallgeschwindigkeit c = 340 m/s entspräche das einer<br />

Schallübertragungsstrecke von 1,36 m Länge. Verringert man den Frequenzbereich auf 1/10<br />

(0 bis 1000 Hz), so erhält man den 10-fachen Wert.<br />

Natürlich können Kohärenz-Probleme auch bei anderen nachklingenden Systemen (wie z.B.<br />

der einfache Resonator in Abschnitt 1.6) vorkommen, also z.B. auch bei Schwingungen von<br />

Stäben und Platten oder allgemeiner bei Strukturen, bei denen die Schwingenergie nicht über<br />

die Ränder abfließen kann. Bei solchen nachhallenden Systemen muss man darauf achten,<br />

dass die Abklingzeit kleiner als die Fensterbreite T der Beobachtung ist.<br />

Wie man an der Herleitung erkennt, gelten unsere Betrachtungen über die an einer<br />

Verzögerungsleitung gemessenen Größen nur für die Verwendung des Rechteckfensters für<br />

die Stichproben. Benutzt man (z. B.) stattdessen das HANNing-Fenster für beide Kanäle, dann<br />

ändern sich die Verhältnisse sehr stark. Die zuerst am Systemausgang ankommenden<br />

Signalteile (schraffierter Bereich in Bild 4.3) stammen zwar von früheren<br />

Eingangsstichproben her, sie treten jetzt jedoch wegen ihrer hier sehr wirksamen Bewertung<br />

durch die Fensterfunktion kaum noch in Erscheinung. Der "Hauptanteil" der durch das<br />

Fenster in der Mitte konzentrierten Ausgangs-Stichprobe stammt nun tatsächlich zu einem<br />

viel größeren Anteil von der gleichen Eingangsstichprobe her. Das führt zu einer sehr<br />

deutlichen Erhöhung der berechneten Kohärenz gegenüber dem Fall der Beobachtung mit<br />

dem Rechteckfenster.<br />

Zum Abschluss wollen wir noch der Frage nachgehen, welche Zeitverläufe sich aus der<br />

Rücktransformation von Leistungsspektren ergeben. Die zum Kreuzleistungsspektrum<br />

gehörende Rücktransformierte<br />

g = F { }<br />

-1 G<br />

xy<br />

xy<br />

wird Kreuzkorrelationsfunktion genannt, im Falle y = x des Leistungsspektrums heißt die<br />

Rücktransformierte Autokorrelationsfunktion. Es zeigt sich, dass die<br />

Kreuzkorrelationsfunktion eine Schätzung der (kurzen) Impulsantwort eines linearen Systems<br />

angibt, wenn x aus weißem Rauschen besteht:<br />

h ( t)<br />

= F -1 ( ω)<br />

{ H }≈ F -1<br />

⎧G<br />

⎨<br />

⎩G<br />

xy<br />

xx<br />

( ω)<br />

( ω)<br />

⎫ g<br />

⎬ =<br />

⎭ G<br />

xy<br />

xx<br />

( t)<br />

( ω)<br />

, (4.19)<br />

weil G xx eine Konstante ist. Hier finden wir im Grunde nur Bekanntes bestätigt. Ist die<br />

Kreuzkorrelierte "kurz" im Sinne einer Delta-Funktion, dann ist das Kreuzleistungsspektrum<br />

breitbandig und glatt (das gleiche gilt selbstverständlich für die Autokorrelierte und das<br />

Leistungsspektrum) und umgekehrt. Ist das lineare System eine Verzögerungsleitung<br />

h( t) = δ ( t − T 0<br />

) mit der Verzögerungszeit T o , dann ist g xy (t) ebenfalls ein verzögerter<br />

Impuls. Diese Tatsache kann man zur Messung von Verzögerungszeiten nutzen.<br />

Bild 4.5 c zeigt das Beispiel einer an einer Verzögerungsleitung gemessenen<br />

Kreuzkorrelationsfunktion, dem man T v /T = 0,2 entnehmen kann.<br />

Zum Abschluss sei noch erläutert, wie die Korrelationsfunktionen unmittelbar aus den<br />

Zeitverläufen bestimmt werden können. Sie werden schließlich durch Rücktransformation des


86<br />

Produktes von Transformierten gebildet, es muss also auch direkt im Originalbereich eine<br />

Berechnungsvorschrift bestehen. Benutzen wir zur Herleitung diskrete Zahlenfolgen x(n) und<br />

y(n) mit N Stichproben x i (n) und y i (n) endlicher Länge M. Es ist dann (mit Gleichung 2.11)<br />

π<br />

1<br />

jΩ<br />

jnΩ<br />

g<br />

xy<br />

( n) = ( ) Ω<br />

π<br />

∫ G<br />

xy<br />

e e d<br />

(4.20)<br />

2<br />

−π<br />

und mit Hilfe von (4.1) folgt<br />

g<br />

1<br />

2π<br />

π<br />

1<br />

N−1<br />

* jΩ<br />

jΩ<br />

jnΩ<br />

( n) = ∫ ∑ X<br />

i<br />

( e ) Yi<br />

( e ) e dΩ<br />

xy<br />

,<br />

N<br />

−π i=<br />

0<br />

schließlich m. H. von (2.8),<br />

g<br />

xy<br />

1<br />

N<br />

jkΩ<br />

* − jkΩ<br />

( n) = e ⎜ x ( k) e y ( m)<br />

=<br />

1<br />

N<br />

N−1<br />

∑<br />

i=<br />

0<br />

1<br />

2π<br />

N−1<br />

M−1<br />

∑∑<br />

i=<br />

0 k=<br />

0<br />

π<br />

∫<br />

−π<br />

x<br />

*<br />

i<br />

⎛<br />

⎝<br />

M−1<br />

∑<br />

k=<br />

0<br />

M−1<br />

1<br />

2π<br />

j( k−m+<br />

n )<br />

( k) y ( m) e<br />

∑<br />

m=<br />

0<br />

i<br />

i<br />

π<br />

∫<br />

−π<br />

M−1<br />

∑<br />

m=<br />

0<br />

Ausnutzung der Orthogonalitätsrelation (2.9) ergibt<br />

also<br />

g<br />

xy<br />

1<br />

N<br />

*<br />

( n) = x ( k) y ( m) ⋅ δ( k − m + n)<br />

=<br />

1<br />

N<br />

N−1<br />

M−1<br />

∑∑<br />

i=<br />

0 k=<br />

0<br />

N−1<br />

M−1<br />

∑∑<br />

i=<br />

0 k=<br />

0<br />

x<br />

i<br />

*<br />

i<br />

M−1<br />

∑<br />

m=<br />

0<br />

( k) y ( n + k),<br />

i<br />

i<br />

i<br />

Ω<br />

e<br />

− jmΩ<br />

dΩ.<br />

⎞<br />

⎟<br />

⎠<br />

e<br />

jnΩ<br />

dΩ<br />

g<br />

xy<br />

⎧<br />

M 1<br />

= ⎨∑ − i<br />

k=<br />

0<br />

*<br />

( n) E x ( k) ⋅ y ( n + k) .<br />

⎩<br />

i<br />

⎫<br />

⎬<br />

⎭<br />

(4.21)<br />

Wie man sieht, wird im Grunde über Faltungen mit negativer Verzögerung n gemittelt.<br />

Entsprechend gilt für die Autokorrelierte<br />

g<br />

xx<br />

⎧<br />

M 1<br />

= ⎨∑ − i<br />

k=<br />

0<br />

*<br />

( n) E x ( k) ⋅ x ( n + k) .<br />

⎩<br />

i<br />

⎫<br />

⎬<br />

⎭<br />

(4.22)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!