Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...
Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ... Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...
40 KAPITEL 3. SCHÄTZEN VON ENTROPIEN UND INFORMATIONEN disjunkte Intervalle aufgeteilt werden. Handelt es sich bei B m,k um ein Intervall im Bildraum von einer der Komponenten von X i , so gilt P {X i ∈ Π Xi (I m )} = P {X i ∈ Π Xi (J m1 )} + P {X i ∈ Π Xi (J m2 )} , P {Y j ∈ Π Yj (I m )} = P {Y j ∈ Π Yj (J m1 )} = P {Y j ∈ Π Yj (J m2 )} . Eine analoge Relation erhält man, wenn sich B m,k auf eine Komponente von Y j bezieht. Für beide Fälle liefern diese Relationen die Gleichung P {X i ∈ Π Xi (I m )} · P {Y j ∈ Π Yj (I m )} = P {X i ∈ Π Xi (J m1 )} · P {Y j ∈ Π Yj (J m1 )} + P {X i ∈ Π Xi (J m2 )} · P {Y j ∈ Π Yj (J m2 )} . Hieraus folgt mit der Log-Summen-Ungleichung (2.4), siehe auch Anhang A, M J (X i , Y j ) − M I (X i , Y j ) = P {(X i , Y j ) ∈ J m1 } P {X i ∈ Π Xi (J m1 )} · P {Y j ∈ Π Yj (J m1 )} P {(X i , Y j ) ∈ J m2 } + P {X i ∈ Π Xi (J m2 )} · P {Y j ∈ Π Yj (J m2 )} P {(X i , Y j ) ∈ I m } − P {X i ∈ Π Xi (I m )} · P {Y j ∈ Π Yj (I m )} ≥ 0 , (3.17) also die monoton steigende Konvergenz der diskretisierten gegenseitigen Information gegen die kontinuierliche gegenseitige Information für eine verfeinerte Partitionenfolge. Sind X und Y deterministisch gekoppelt (Y j = f ◦ X i ), so folgt aus Gl. (3.15) und mit Gl. (2.11), dass M In (X i , f ◦ X i ) wie − log ‖I n ‖ divergiert. Als Vorbereitung zur Untersuchung des Konvergenzverhaltens der vergröberten Transferentropie soll zunächst das Verhalten der bedingten Shannon-Entropie bezüglich Partitionierung betrachtet werden. Hierfür wird der Zustandsraum von X (k+1) i+1 partitioniert, wobei (I n ) n∈N wieder eine Partitionenfolge sein soll, deren Norm für große n verschwindet. Sind die Dichten g (k+1) X und g (k) i+1 X wieder stetig, i so ist nach dem Mittelwertsatz P {X (k) i P {X (k+1) i+1 ∈ I m,n } = g (k+1) X (˜x (k+1) i+1 (m, n)) · |I m,n | , ∈ Π X (k) i i+1 (I m,n )} = g X (k) i (˜x (k) i (m, n)) · |Π (k) X (I m,n )| , (3.18) i mit ˜x (k+1) i+1 (m, n) ∈ I m,n und ˜x (k) i (m, n) ∈ Π (k) X (I m,n ). Aus Gl. (2.13) sowie i |I m,n | = |Π Xi+1 (I m,n )| · |Π (k) X (I m,n )| folgt für die diskretisierte Übergangsvertei- i
3.3. PARTITIONIERUNG DES ZUSTANDSRAUMS 41 lung P {X i+1 ∈ Π Xi+1 (I m,n )|X (k) i ∈ Π (k) X (I m,n )} i g (k+1) X (˜x (k+1) i+1 (m, n)) i+1 = g X (k) i (˜x (k) i (m, n)) · |Π Xi+1 (I m,n )| . (3.19) Werden Gl. (3.18) und Gl. (3.19) in Gl. (2.15) eingesetzt, so erhält man für die bedingte Shannon-Entropie auf einer Partition H In (X i+1 |X (k) i ) = ∑M n m=1 g (k+1) X (˜x (k+1) i+1 (m, n)) × log i+1 − ∑M n m=1 g (k+1) X (˜x (k+1) i+1 (m, n)) i+1 g X (k) i (˜x (k) i (m, n)) · |I m,n | g (k+1) X (˜x (k+1) i+1 (m, n)) · log |Π Xi+1 (I m,n )| · |I m,n | . (3.20) i+1 Existiert die kontinuierliche bedingte Shannon-Entropie als Riemann-Integral, dann folgt mit Gl. (2.37) H In (X i+1 |X (k) i ) + ∑M n m=1 g (k+1) X (˜x (k+1) i+1 (m, n)) · log |Π Xi+1 (I m,n )| · |I m,n | i+1 n→∞ −−−→ H(X i+1 |X (k) i ) . (3.21) Auch hier unterscheidet sich im Limes die vergröberte bedingte Shannon-Entropie von der kontinuierlichen durch den Erwartungswert der logarithmierten Intervalllänge |Π Xi+1 (I m,n )| der Partitionen. Insbesondere divergieren beide Terme auf der linken Seite mit − log |Π Xi+1 (I m,n )| bzw. log |Π Xi+1 (I m,n )| für n → ∞. Zum Abschluss wird nun gezeigt, dass die Transferentropie bezüglich einer Partitionenfolge (I n ) n∈N mit ‖I n ‖ → n→∞ 0 gegen die kontinuierliche Transferentropie konvergiert. Hierzu muss vorausgesetzt werden, dass die kontinuierliche Transferentropie als Riemann-Integral existiert und dass die Dichten g (k) X i und g (k+1) X stetig sind. i+1 ,Y (l) j g (k) X i ,Y (l) j , g X (k+1) i+1 Wird der Zustandsraum von (X (k+1) i+1 , Y (l) j ) in beliebige Quader aufgeteilt, so ist P {(X (k+1) i+1 , Y (l) j ) ∈ I m,n} = g (k+1) X P {(X (k) i , Y (l) ) ∈ Π X (k) j i i+1 ,Y (l) j ((˜x (k+1) i+1 , ỹ (l) j )(m, n)) · |I m,n| , (I ,Y (l) m,n )} (3.22) j = g X (k) i ,Y (l) j ((˜x (k) i , ỹ (l) j )(m, n)) · |Π X (k) i ,Y (l) j (I m,n )| , ,
- Seite 1: Nichtlineare Methoden zur Quantifiz
- Seite 5 und 6: Inhaltsverzeichnis 1 Einleitung 1 2
- Seite 7 und 8: Kapitel 1 Einleitung Zum Verständn
- Seite 9 und 10: Sobald kontinuierliche Prozesse bet
- Seite 11 und 12: Kapitel 2 Grundlagen der Informatio
- Seite 13 und 14: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 15 und 16: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 17 und 18: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 19 und 20: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 21 und 22: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 23 und 24: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 25 und 26: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 27 und 28: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 29 und 30: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 31 und 32: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 33 und 34: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 35 und 36: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 37 und 38: Kapitel 3 Schätzen von Entropien u
- Seite 39 und 40: 3.1. SCHÄTZEN BEI EINER UND MEHRER
- Seite 41 und 42: 3.2. SCHÄTZER FÜR DISKRETE PROZES
- Seite 43 und 44: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 45: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 49 und 50: 3.4. PARAMETRISCHE VERTEILUNGEN 43
- Seite 51 und 52: 3.5. KONTINUIERLICHES BEISPIEL: AR(
- Seite 53 und 54: 3.6. KERNSCHÄTZER FÜR DICHTEN 47
- Seite 55 und 56: 3.6. KERNSCHÄTZER FÜR DICHTEN 49
- Seite 57 und 58: 3.6. KERNSCHÄTZER FÜR DICHTEN 51
- Seite 59 und 60: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 61 und 62: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 63 und 64: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 65 und 66: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 67 und 68: Kapitel 4 Exkurs: Dynamische System
- Seite 69 und 70: 4.1. ENTROPIE EINES DYNAMISCHEN SYS
- Seite 71 und 72: 4.1. ENTROPIE EINES DYNAMISCHEN SYS
- Seite 73 und 74: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 75 und 76: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 77 und 78: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 79 und 80: Kapitel 5 Punktprozesse 5.1 Definit
- Seite 81 und 82: 5.1. DEFINITION EINES PUNKTPROZESSE
- Seite 83 und 84: 5.2. MOMENTE UND EREIGNISRATEN 77 2
- Seite 85 und 86: 5.3. GEKOPPELTE PUNKTPROZESSE 79 Be
- Seite 87 und 88: 5.3. GEKOPPELTE PUNKTPROZESSE 81 f
- Seite 89 und 90: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 91 und 92: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 93 und 94: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 95 und 96: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
3.3. PARTITIONIERUNG DES ZUSTANDSRAUMS 41<br />
lung<br />
P {X i+1 ∈ Π Xi+1 (I m,n )|X (k)<br />
i<br />
∈ Π (k) X<br />
(I m,n )}<br />
i<br />
g (k+1) X<br />
(˜x (k+1)<br />
i+1 (m, n))<br />
i+1<br />
=<br />
g X<br />
(k)<br />
i<br />
(˜x (k)<br />
i (m, n))<br />
· |Π Xi+1 (I m,n )| . (3.19)<br />
Werden Gl. (3.18) <strong>und</strong> Gl. (3.19) in Gl. (2.15) eingesetzt, so erhält man für die<br />
bedingte Shannon-Entropie auf einer Partition<br />
H In (X i+1 |X (k)<br />
i )<br />
=<br />
∑M n<br />
m=1<br />
g (k+1) X<br />
(˜x (k+1)<br />
i+1 (m, n)) × log<br />
i+1<br />
−<br />
∑M n<br />
m=1<br />
g (k+1) X<br />
(˜x (k+1)<br />
i+1 (m, n))<br />
i+1<br />
g X<br />
(k)<br />
i<br />
(˜x (k)<br />
i (m, n))<br />
· |I m,n |<br />
g (k+1) X<br />
(˜x (k+1)<br />
i+1 (m, n)) · log |Π Xi+1 (I m,n )| · |I m,n | . (3.20)<br />
i+1<br />
Existiert die kontinuierliche bedingte Shannon-Entropie als Riemann-Integral,<br />
dann folgt mit Gl. (2.37)<br />
H In (X i+1 |X (k)<br />
i ) +<br />
∑M n<br />
m=1<br />
g (k+1) X<br />
(˜x (k+1)<br />
i+1 (m, n)) · log |Π Xi+1 (I m,n )| · |I m,n |<br />
i+1<br />
n→∞<br />
−−−→<br />
H(X i+1 |X (k)<br />
i ) . (3.21)<br />
Auch hier unterscheidet sich im Limes die vergröberte bedingte Shannon-Entropie<br />
<strong>von</strong> der kontinuierlichen durch den Erwartungswert der logarithmierten Intervalllänge<br />
|Π Xi+1 (I m,n )| der Partitionen. Insbesondere divergieren beide Terme auf<br />
der linken Seite mit − log |Π Xi+1 (I m,n )| bzw. log |Π Xi+1 (I m,n )| für n → ∞.<br />
Zum Abschluss wird nun gezeigt, dass die Transferentropie bezüglich einer<br />
Partitionenfolge (I n ) n∈N mit ‖I n ‖ → n→∞ 0 gegen die kontinuierliche Transferentropie<br />
konvergiert. Hierzu muss vorausgesetzt werden, dass die kontinuierliche<br />
Transferentropie als Riemann-Integral existiert <strong>und</strong> dass die Dichten g (k) X i<br />
<strong>und</strong> g (k+1) X<br />
stetig sind.<br />
i+1 ,Y (l)<br />
j<br />
g (k) X i ,Y (l)<br />
j<br />
, g X<br />
(k+1)<br />
i+1<br />
Wird der Zustandsraum <strong>von</strong> (X (k+1)<br />
i+1 , Y (l)<br />
j ) in beliebige Quader aufgeteilt, so<br />
ist<br />
P {(X (k+1)<br />
i+1 , Y (l)<br />
j ) ∈ I m,n} = g (k+1) X<br />
P {(X (k)<br />
i<br />
, Y (l) ) ∈ Π X (k)<br />
j<br />
i<br />
i+1 ,Y (l)<br />
j<br />
((˜x (k+1)<br />
i+1 , ỹ (l)<br />
j )(m, n)) · |I m,n| ,<br />
(I<br />
,Y (l) m,n )} (3.22)<br />
j<br />
= g X<br />
(k)<br />
i<br />
,Y (l)<br />
j<br />
((˜x (k)<br />
i<br />
, ỹ (l)<br />
j<br />
)(m, n)) · |Π X (k)<br />
i<br />
,Y (l)<br />
j<br />
(I m,n )| ,<br />
,