Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ... Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

elpub.bib.uni.wuppertal.de
von elpub.bib.uni.wuppertal.de Mehr von diesem Publisher
25.12.2013 Aufrufe

44 KAPITEL 3. SCHÄTZEN VON ENTROPIEN UND INFORMATIONEN für gewöhnlich analytische Ausdrücke für M(X i , Y j ) und T (X i+1 |X (k) i , Y (l) j ) nicht ableitbar. Aber mit den geschätzten Dichten können sie durch numerische Integration bestimmt werden. Eine Ausnahme stellen multivariante Gauß-Prozesse dar, denn für sie lassen sich Shannon-Entropie und gegenseitige Information analytisch berechnen [Prichard & Theiler (1995), Cover & Thomas (1991)]. Sei X ein zentrierter, d-dimensionaler Prozess, das heißt für alle i ∈ Z sind die Erwartungswerte der einzelnen Komponenten von X i Null, E [X i,µ ] = 0, µ = 1, . . . , d. Des Weiteren sei Σ(X i ) die Kovarianzmatrix von X i , deren Elemente durch Σ µ,ν (X i ) = Cov [X i,µ , X i,ν ] = E [X i,µ · X i,ν ] = Σ ν,µ (X i ) gegeben sind. Trivialerweise ist Σ(X i ) symmetrisch. Ist nun X i Gauß-verteilt, so lautet deren Dichte [Bauer (1991), Prichard & Theiler (1995)] g Xi (x) = ( ) 1 √ (2π)d det Σ(X i ) · exp − xT · Ξ(X i ) · x 2 wobei det Σ(X i ) die Determinante und Ξ(X i ) die inverse Matrix von Σ(X i ) ist. x T bezeichnet den transponierten Vektor von x. Wird dies in Gl. (2.31) eingesetzt, so folgt nach einer elementaren Rechnung [Prichard & Theiler (1995), Cover & Thomas (1991)] H(X i ) = d 2 log(2π e) + 1 2 log(det Σ(X i)) . (3.25) e ist hier die Eulersche Zahl. Da nach Gl. (2.45) die kontinuierliche Shannon- Entropie unter der Transformation X i → X i + a, mit a ∈ R d unverändert bleibt, ist Gl. (3.25) auch für nicht-zentrierte Gauß-Prozesse gültig. Offensichtlich ist Gl. (3.25) auch anwendbar, um zum Beispiel H(X (k) i ) zu berechnen, sofern X (k) i Gauß-verteilt ist, denn X (k) i stellt nur eine (k d)-dimensionale Zufallsvariable dar. Mit Gl. (2.16) folgt für die bedingte Shannon-Entropie, sofern X (k+1) i+1 Gaußverteilt ist: H(X i+1 |X (k) i ) = d 2 log(2π e) + 1 2 log(det Σ(X(k+1) i+1 ) det Σ(X (k) i ) ) . (3.26) Ist (X i , Y j ) eine multivariante Gauß-Variable, so folgt mit Gl. (2.10) M(X i , Y j ) = 1 2 log det Σ(X i) · det Σ(Y j ) det Σ(X i , Y j ) , , (3.27) siehe [Prichard & Theiler (1995)]. Entsprechend ist die Transferentropie gemäß Gl. (2.22) durch T (X i+1 |X (k) i , Y (l) j ) = 1 2 det Σ(X(k) i log det Σ(X (k+1) gegeben, falls (X (k+1) i+1 , Y (l) j ) Gauß-verteilt ist. , Y (l) j ) · det Σ(X(k+1) i+1 ) i+1 , Y (l) j ) · det Σ(X(k) i ) , (3.28)

3.5. KONTINUIERLICHES BEISPIEL: AR(1)-PROZESSE 45 3.5 Kontinuierliches Beispiel: AR(1)-Prozesse Analog zum diskreten Beispiel in Absch. 2.1.3 soll hier das Verhalten der kontinuierlichen gegenseitigen Information und der kontinuierlichen Transferentropie für gekoppelte autoregressive Prozesse untersucht werden, wobei Y autonom ist und in X koppelt: X i+1 = α X i + c Y i + η X i+1 , Y i+1 = β Y i + η Y i+1 . (3.29) c ist der Kopplungsparameter. Die Zufallsvariablen ηi X und ηi Y , stellen Gaußsches weißes Rauschen dar und sind normalverteilt, E [ ] [ ] ηi X = E η Y i = 0, E [ ] [ ] ηi X · ηi X = E η Y i · ηi Y = 1. Somit sind alle Verteilungen gaußisch, so dass Gl. (3.27) und Gl. (3.28) angewendet werden können. Des Weiteren ist der Prozess (X, Y ) für große Zeiten stationär, woraus unmittelbar folgt, dass alle Momente zeitunabhängig sind. Dies wiederum erlaubt einem, auf einfachste Weise alle benötigten Kovarianzen zu berechnen. Hierfür ist zunächst das Gleichungssystem Cov [Y i+1 , Y i+1 ] = β 2 Cov [Y i , Y i ] + 1 ≡ Cov [Y i , Y i ] Cov [X i+1 , X i+1 ] = α 2 Cov [X i , X i ] + c 2 Cov [Y i , Y i ] + 2 c α Cov [X i , Y i ] + 1 ≡ Cov [X i , X i ] Cov [X i+1 , Y i+1 ] = α β Cov [X i , Y i ] + c β Cov [Y i , Y i ] ≡ Cov [X i , Y i ] zu lösen, was mit u = (1 − β 2 ), v = (1 − α 2 ) und w = (1 − α β) auf Cov [Y i , Y i ] = 1 u , Cov [X i , Y i ] = c β u w , Cov [X i , X i ] = c 2 1 + α β u v w führt. Hieraus folgen die restlichen Kovarianzen + 1 v Cov [Y i+1 , Y i ] = β Cov [Y i , Y i ] = β u , Cov [Y i+1 , X i ] = β Cov [X i , Y i ] = c β2 u w , Cov [X i+1 , Y i ] = α Cov [X i , Y i ] + c Cov [Y i , Y i ] = c 1 u w , Cov [X i+1 , X i ] = α Cov [X i , X i ] + c Cov [X i , Y i ] = c 2 α + β u v w + α v . Hiermit können die gegenseitige Information und die Transferentropie in beide Richtungen gemäß Gl. (3.27) bzw. Gl. (3.28) berechnet werden. Die Ergebnisse für α = 0.6 und β = 0.5 sind als Funktion des Kopplungsparameters c in

44 KAPITEL 3. SCHÄTZEN VON ENTROPIEN UND INFORMATIONEN<br />

für gewöhnlich analytische Ausdrücke für M(X i , Y j ) <strong>und</strong> T (X i+1 |X (k)<br />

i , Y (l)<br />

j ) nicht<br />

ableitbar. Aber mit den geschätzten Dichten können sie durch numerische Integration<br />

bestimmt werden.<br />

Eine Ausnahme stellen multivariante Gauß-Prozesse dar, denn für sie lassen<br />

sich Shannon-Entropie <strong>und</strong> gegenseitige Information analytisch berechnen<br />

[Prichard & Theiler (1995), Cover & Thomas (1991)]. Sei X ein zentrierter,<br />

d-dimensionaler Prozess, das heißt für alle i ∈ Z sind die Erwartungswerte<br />

der einzelnen Komponenten <strong>von</strong> X i Null, E [X i,µ ] = 0, µ = 1, . . . , d.<br />

Des Weiteren sei Σ(X i ) die Kovarianzmatrix <strong>von</strong> X i , deren Elemente durch<br />

Σ µ,ν (X i ) = Cov [X i,µ , X i,ν ] = E [X i,µ · X i,ν ] = Σ ν,µ (X i ) gegeben sind. Trivialerweise<br />

ist Σ(X i ) symmetrisch. Ist nun X i Gauß-verteilt, so lautet deren Dichte<br />

[Bauer (1991), Prichard & Theiler (1995)]<br />

g Xi (x) =<br />

(<br />

)<br />

1<br />

√<br />

(2π)d det Σ(X i ) · exp − xT · Ξ(X i ) · x<br />

2<br />

wobei det Σ(X i ) die Determinante <strong>und</strong> Ξ(X i ) die inverse Matrix <strong>von</strong> Σ(X i ) ist.<br />

x T bezeichnet den transponierten Vektor <strong>von</strong> x.<br />

Wird dies in Gl. (2.31) eingesetzt, so folgt nach einer elementaren Rechnung<br />

[Prichard & Theiler (1995), Cover & Thomas (1991)]<br />

H(X i ) = d 2 log(2π e) + 1 2 log(det Σ(X i)) . (3.25)<br />

e ist hier die Eulersche Zahl. Da nach Gl. (2.45) die kontinuierliche Shannon-<br />

Entropie unter der Transformation X i → X i + a, mit a ∈ R d unverändert bleibt,<br />

ist Gl. (3.25) auch für nicht-zentrierte Gauß-Prozesse gültig. Offensichtlich ist<br />

Gl. (3.25) auch anwendbar, um zum Beispiel H(X (k)<br />

i ) zu berechnen, sofern X (k)<br />

i<br />

Gauß-verteilt ist, denn X (k)<br />

i stellt nur eine (k d)-dimensionale Zufallsvariable dar.<br />

Mit Gl. (2.16) folgt für die bedingte Shannon-Entropie, sofern X (k+1)<br />

i+1 Gaußverteilt<br />

ist:<br />

H(X i+1 |X (k)<br />

i ) = d 2 log(2π e) + 1 2<br />

log(det<br />

Σ(X(k+1) i+1 )<br />

det Σ(X (k)<br />

i ) ) . (3.26)<br />

Ist (X i , Y j ) eine multivariante Gauß-Variable, so folgt mit Gl. (2.10)<br />

M(X i , Y j ) = 1 2 log det Σ(X i) · det Σ(Y j )<br />

det Σ(X i , Y j )<br />

,<br />

, (3.27)<br />

siehe [Prichard & Theiler (1995)]. Entsprechend ist die Transferentropie gemäß<br />

Gl. (2.22) durch<br />

T (X i+1 |X (k)<br />

i<br />

, Y (l)<br />

j ) = 1 2<br />

det Σ(X(k) i<br />

log<br />

det Σ(X (k+1)<br />

gegeben, falls (X (k+1)<br />

i+1 , Y (l)<br />

j ) Gauß-verteilt ist.<br />

, Y (l)<br />

j ) · det Σ(X(k+1) i+1 )<br />

i+1 , Y (l)<br />

j ) · det Σ(X(k) i ) , (3.28)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!