25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

34 KAPITEL 3. SCHÄTZEN VON ENTROPIEN UND INFORMATIONEN<br />

exakten Werte überein. Insbesondere wird das oszillatorische Verhalten beider<br />

Größen richtig wiedergegeben. Für spätere Zeiten werden die Schätzer schlechter<br />

<strong>und</strong> liefern falsche Werte. In diesem Bereich ist aufgr<strong>und</strong> der schnelleren Oszillationen<br />

<strong>von</strong> c(i) das Mittelungsfenster zu groß, so dass hier Ergodizität auch<br />

nicht näherungsweise vorliegt. Um das richtige Verhalten zu rekonstruieren, muss<br />

daher die Fensterbreite reduziert werden, was aber wegen der hieraus hervorgehenden<br />

statistischen Fluktuationen nur bis zu einem bestimmten Grad möglich<br />

ist. Die geschätzten Werte <strong>von</strong> M(X i , Y i ) <strong>und</strong> M(Y i+1 , X i ) lieferten ähnliche Werte<br />

wie für M(X i+1 , Y i ). Des Weiteren wurde T (Y i+1 |Y i , X i ) für alle Zeit mit Null<br />

geschätzt, was mit dem Modell übereinstimmt. Zum Abschluss sei noch angemerkt,<br />

dass solch kurze Zeitreihen wie die hier verwendeten üblicherweise nur für<br />

diskrete Prozesse stabile Ergebnisse liefern.<br />

3.2 Schätzer für diskrete Prozesse<br />

Werden die diskreten stochastischen Prozesse X <strong>und</strong> Y beobachtet, so müssen<br />

zunächst deren Verteilungen rekonstruiert werden, um Entropien <strong>und</strong> Informationen<br />

berechnen zu können. Angenommen, es liegen N Beobachtungen ω 1 , . . . , ω N ∈<br />

Ω vor, dann können zum Beispiel die Wahrscheinlichkeiten P {X i = x i } aus den<br />

beobachteten Zuständen x i (n) ≡ X i (ω n ) geschätzt werden. Ein einfaches Verfahren<br />

besteht darin, die relative Häufigkeit, mit der der Zustand x i auftritt, zu<br />

ermitteln:<br />

ˆP {X i = x i } = 1 N<br />

N∑<br />

δ(x i , x i (n)) . (3.3)<br />

n=1<br />

Nach dem Gesetz der großen Zahlen (Satz <strong>von</strong> Etemadi) [Bauer (1991)] konvergiert<br />

(3.3) gegen P {X i = x i } für N → ∞, sofern die Beobachtungen identisch<br />

verteilt <strong>und</strong> paarweise unabhängig sind. Der entsprechende Schätzer für die<br />

endlich-dimensionalen Randverteilungen lautet<br />

ˆP {X (k)<br />

i<br />

= x (k)<br />

i } = 1 N<br />

N∑<br />

k−1<br />

∏<br />

δ(x i−j , x i−j (n)) . (3.4)<br />

n=1 j=0<br />

Mit den in Gl. (3.3) bzw. (3.4) gegebenen Schätzern kann beispielsweise die<br />

bedingte Shannon-Entropie (2.15) berechnet werden, indem die Wahrscheinlichkeiten<br />

durch die entsprechenden Schätzer ersetzt werden. Hierzu ist zunächst die<br />

bedingte Wahrscheinlichkeit mit Gl. (2.13) auf Randverteilungen umzuschreiben.<br />

Um die Werte der Verteilungsschätzer aus der Zeitreihe zu erhalten sind lediglich<br />

Histogramme für jede benötigte Verteilung zu erstellen.<br />

Das Erstellen <strong>von</strong> Histogrammen für Markov-Prozesse mit großer Ordnung<br />

erweist sich in der Praxis oft aufgr<strong>und</strong> des beschänkten Computerspeichers als

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!