Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ... Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

elpub.bib.uni.wuppertal.de
von elpub.bib.uni.wuppertal.de Mehr von diesem Publisher
25.12.2013 Aufrufe

30 KAPITEL 2. GRUNDLAGEN DER INFORMATIONSTHEORIE

Kapitel 3 Schätzen von Entropien und Informationen 3.1 Schätzen bei einer und mehreren Beobachtungen In der Realität können Experimente nur endlich oft wiederholt werden. Des Weiteren ist die Zeitauflösung nach unten hin beschränkt. Möchte man die Transferentropie eines stochastischen Prozesses berechnen, so muss zunächst dessen Verteilung bzw. dessen Verteilungsdichte aus den N Zuständen x i (n) = X i (ω n ), n = 1, . . . , N, die in jedem der diskreten Zeitpunkte i = 1, . . . , T beobachtet wurden, geschätzt werden. Durch die Elemente ω n ∈ Ω, n = 1, . . . , N des Ereignisraums Ω sind die Realisierungen i → X i (ω n ), also die jeweiligen Wiederholungen des Experiments gegeben. Die grundlegende Idee, mit der die Verteilung P X(k) i aus den beobachteten Zuständen x (k) i (1), . . . , x (k) i (N) geschätzt wird, ist folgende: Zunächst wird jeder beobachtete Zustand x (k) i (n) = X (k) i (ω n ) mit einer messbaren Funktion ψ B auf eine nichtnegative Zahl abgebildet, x (k) i (n) → ψ B (x (k) i (n)). Dabei soll der Erwartungswert von ψ B für jede Ereignismenge B gleich der Wahrscheinlichkeit sein, mit der X (k) i in B zu finden ist: ∫ E [ψ B ] = ψ B (x (k) i ) P X(k) i (x (k) i ) = P X(k) i (B) . Sind die Beobachtungen ω 1 , . . . , ω N voneinander unabhängig und gleich verteilt, dann konvergiert ψ B nach dem Gesetz der großen Zahlen, siehe [Bauer (1991), Billingsley (1995)], gemittelt über alle Beobachtungen, gegen P X(k) i (B), 1 N N∑ n=1 ψ B (x (k) i (n)) −−−→ N→∞ P X(k) i (B) . 31

Kapitel 3<br />

Schätzen <strong>von</strong> Entropien <strong>und</strong><br />

Informationen<br />

3.1 Schätzen bei einer <strong>und</strong> mehreren<br />

Beobachtungen<br />

In der Realität können Experimente nur endlich oft wiederholt werden. Des Weiteren<br />

ist die Zeitauflösung nach unten hin beschränkt. Möchte man die Transferentropie<br />

eines stochastischen Prozesses berechnen, so muss zunächst dessen<br />

Verteilung bzw. dessen Verteilungsdichte aus den N Zuständen x i (n) = X i (ω n ),<br />

n = 1, . . . , N, die in jedem der diskreten Zeitpunkte i = 1, . . . , T beobachtet wurden,<br />

geschätzt werden. Durch die Elemente ω n ∈ Ω, n = 1, . . . , N des Ereignisraums<br />

Ω sind die Realisierungen i → X i (ω n ), also die jeweiligen Wiederholungen<br />

des Experiments gegeben.<br />

Die gr<strong>und</strong>legende Idee, mit der die Verteilung P X(k) i aus den beobachteten<br />

Zuständen x (k)<br />

i (1), . . . , x (k)<br />

i (N) geschätzt wird, ist folgende: Zunächst wird jeder<br />

beobachtete Zustand x (k)<br />

i (n) = X (k)<br />

i (ω n ) mit einer messbaren Funktion ψ B auf<br />

eine nichtnegative Zahl abgebildet, x (k)<br />

i (n) → ψ B (x (k)<br />

i (n)). Dabei soll der Erwartungswert<br />

<strong>von</strong> ψ B für jede Ereignismenge B gleich der Wahrscheinlichkeit sein,<br />

mit der X (k)<br />

i in B zu finden ist:<br />

∫<br />

E [ψ B ] = ψ B (x (k)<br />

i ) P X(k) i (x (k)<br />

i ) = P X(k) i (B) .<br />

Sind die Beobachtungen ω 1 , . . . , ω N <strong>von</strong>einander unabhängig <strong>und</strong> gleich verteilt,<br />

dann konvergiert ψ B nach dem Gesetz der großen Zahlen, siehe [Bauer (1991),<br />

Billingsley (1995)], gemittelt über alle Beobachtungen, gegen P X(k) i (B),<br />

1<br />

N<br />

N∑<br />

n=1<br />

ψ B (x (k)<br />

i (n)) −−−→ N→∞<br />

P X(k) i (B) .<br />

31

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!