Stochastik 1 - Mitschriften von Klaas Ole Kürtz
Stochastik 1 - Mitschriften von Klaas Ole Kürtz Stochastik 1 - Mitschriften von Klaas Ole Kürtz
10 Stochastische Unabhängigkeit Ereignisse A, B sind stochastisch unabhängig, falls P (A ∩ B) = P (A) · P (B). Definition: Seien X 1 : Ω → X 1 und X 2 : Ω → X 2 Zufallsvariablen. X 1 und X 2 heißen stochastisch unabhängig, falls für alle meßbaren D 1 ⊆ X 1 und D 2 ⊆ X 2 gilt: P (X 1 ∈ D 1 , X 2 ∈ D 2 ) = P (X 1 ∈ D 1 ) · P (X 2 ∈ D 2 ) Bemerkung: Beachte dabei {X 1 ∈ D 1 , X 2 ∈ D 2 } = {ω | X 1 (ω) ∈ D 1 , X 2 (ω) ∈ D 2 } = {ω | X 1 (ω) ∈ D 1 } ∩ {ω | X 2 (ω) ∈ D 2 } = X −1 1 (D 1 ) ∩ X −1 2 (D 2 ) Also: X 1 , X 2 sind stochastisch unabhängig genau dann, wenn sämtliche Ereignisse der Form X1 −1 (D 1 ), X2 −1 (D 2 ) stochastisch unabhängig sind. Diese Definition läßt sich wie folgt erweitern: Definition: X i : Ω → X i für i = 1, . . . , n heißen stochastisch unabhängig, falls für alle meßbaren D i ⊆ X i gilt: P (X i ∈ D i , . . . , X i ∈ D i ) = n∏ P (X i ∈ D i ) i=1 Dies läßt sich wiederum schreiben als: ( n ) ⋂ P X −1 i (D i ) = i=1 n∏ i=1 P (X −1 i (D i )) Eine (beliebige) Familie (X i ) i∈I von Zufallsvariablen heißen stochastisch unabhängig, falls (X j ) j∈J stochastisch unabhängig ist für jedes endliche J ⊆ I. Stochastisch Unabhängig heißt die Möglichkeit, Wahrscheinlichkeiten, die sich durch Zusammenwirken verschiedener Zufallsgrößen ergeben, einfach zu errechnen. Beispiel: X 1 , X 2 : Ω → Z seien stochastisch unabhängig. Frage: Was ist 67
die Verteilung von X = X 1 + X 2 ? Zu berechnen ist ( ) ∑ P (X 1 + X 2 = k) = P {X 1 + X 2 = k | X 1 = j} j∈Z = ∑ P (X 1 + X 2 = k, X 1 = j) j∈Z = ∑ j∈Z P (X 2 = k − j, X 1 = j) = ∑ j∈Z P (X 2 = k − j) · P (X 1 = j) Ohne stochastische Unabhängigkeit wird dies zu: ∑ j∈Z P (X 2 = k − j|X 1 = j)· P (X 1 = j). 10.1 Faltung, Faltungsstabilität 10.1.1 Binomial-Verteilung Beispiel: Man betrachte zwei Urnen mit schwarzen und weißen Kugeln, aus beiden wird gleichzeitig mit zurücklegen gezogen. Gefragt ist nach der Anzahl X 1 + X 2 der gezogenen weißen Kugeln, wobei X 1 , X 2 stochastisch unabhängig sind. Sei X 1 B(n 1 , p 1 )-verteilt, X 2 entsprechend B(n 2 , p 2 ). Für k ∈ {0, . . . , n 1 + n 2 } ist P (X 1 + X 2 = k) = = ∑n 1 j=0 n 1 ∑ j=0 P (X 2 = k − j)P (X 1 = j) ( ) n2 p k−j 2 (1 − p 2 ) n 2−(k−j) k − j ∑n 1 (⋆) = p k (1 − p) n 1+n 2 −k = ( n1 + n 2 k j=0 ( n2 ) p k (1 − p) n 1+n 2 −k )( n1 ( n1 j ) k − j j } {{ } =( n 1 +n 2 k ) ) p j 1(1 − p 1 ) n 1−j Dabei gilt (⋆) für p 1 = p 2 = p. Also: Falls X i jeweils B(n i , p) verteilt sind und stochastisch unabhängig sind, so ist ∑ l i=1 X i B(n 1 + . . . + n l , p)-verteilt. Bemerkung: Sind X 1 , . . . , X m stochastisch unabhängig, so bezeichnet man 68
- Seite 21 und 22: 1. Da (A i ) i∈N wachsend ist, gi
- Seite 23 und 24: ¨ ¨ ¨ ¨ ¢ 4 Bedingte Wahrschei
- Seite 25 und 26: 4.1.1 Aussagekraft von medizinische
- Seite 27 und 28: Beweis: Es gilt: (( ) c ) P lim sup
- Seite 29 und 30: Das Borel-Cantelli-Lemma liefert 7
- Seite 31 und 32: 5.2 Hypergeometrische Verteilung Qu
- Seite 33 und 34: 5.7 Poisson-Verteilung −β βω F
- Seite 35 und 36: 6 Wahrscheinlichkeitsmaße auf R Be
- Seite 37 und 38: 6.1.2 Dynkin-Systeme Die Dynkin-Sys
- Seite 39 und 40: 6.1.3 Beweis der Eindeutigkeit (kor
- Seite 41 und 42: Falls diese Fragen mit ja! beantwor
- Seite 43 und 44: Die Normalverteilung (Gaußverteilu
- Seite 45 und 46: Die Cantormenge hat die Eigenschaft
- Seite 47 und 48: X -1 (B) X B (Ω, , P) (¡ , ¢ , P
- Seite 49 und 50: Ω A 1 A n A 2 A 3 X { α 1 , α 2
- Seite 51 und 52: 7.4.2 Praktische Erwägungen zur Ve
- Seite 53 und 54: Als mittleren Wert betrachtet man d
- Seite 55 und 56: 8.2 Erwartungswert Definition: Sei
- Seite 57 und 58: (b) Für a, b ∈ R gilt E(aX + bY
- Seite 59 und 60: Es gilt für jedes i = 1, . . . , n
- Seite 61 und 62: (c) Es ist X + Y = X + − X − +
- Seite 63 und 64: folgt: ∑ ∫ n A n X dµ = lim k
- Seite 65 und 66: 8.3.4 Integration bzgl. durch Dicht
- Seite 67 und 68: 8.4 Varianz Der Erwatungswert ist a
- Seite 69 und 70: 9 Momente und stochastische Ungleic
- Seite 71: 9.2.2 Jensensche Ungleichung Satz:
- Seite 75 und 76: Es ist P ((X 1 , X 2 ) ∈ A) = E(1
- Seite 77 und 78: 10.2.2 Summe zweier unabhängiger Z
- Seite 79 und 80: 10.2.4 Die Varianz der Summen von Z
- Seite 81 und 82: Sei nun X i = 1 {1} (Y i ) (d.h. nu
- Seite 83 und 84: Und für relative Häufigkeiten bei
- Seite 85 und 86: Dies ist wieder eine Umformulierung
- Seite 87 und 88: Beweis: Beachte zunächst mit der J
- Seite 89 und 90: Nun gilt mit dem Grenzwertsatz von
- Seite 91 und 92: Einschub: Konvergenzkriterium für
- Seite 93 und 94: Setze weiter S n = ∑ n i=1 Y i. D
- Seite 95 und 96: Definition: Seien Z, Z 1 , Z 2 , .
- Seite 97 und 98: Es gilt 1 {U∈Z c } · g(Fn −1 (
- Seite 99 und 100: 4. Zusammenfügen der ersten drei S
- Seite 101: Achtung! Hier fehlt noch das Ende d
die Verteilung <strong>von</strong> X = X 1 + X 2 ? Zu berechnen ist<br />
( )<br />
∑<br />
P (X 1 + X 2 = k) = P {X 1 + X 2 = k | X 1 = j}<br />
j∈Z<br />
= ∑ P (X 1 + X 2 = k, X 1 = j)<br />
j∈Z<br />
= ∑ j∈Z<br />
P (X 2 = k − j, X 1 = j)<br />
= ∑ j∈Z<br />
P (X 2 = k − j) · P (X 1 = j)<br />
Ohne stochastische Unabhängigkeit wird dies zu: ∑ j∈Z P (X 2 = k − j|X 1 = j)·<br />
P (X 1 = j).<br />
10.1 Faltung, Faltungsstabilität<br />
10.1.1 Binomial-Verteilung<br />
Beispiel: Man betrachte zwei Urnen mit schwarzen und weißen Kugeln,<br />
aus beiden wird gleichzeitig mit zurücklegen gezogen. Gefragt ist nach der<br />
Anzahl X 1 + X 2 der gezogenen weißen Kugeln, wobei X 1 , X 2 stochastisch<br />
unabhängig sind. Sei X 1 B(n 1 , p 1 )-verteilt, X 2 entsprechend B(n 2 , p 2 ). Für<br />
k ∈ {0, . . . , n 1 + n 2 } ist<br />
P (X 1 + X 2 = k) =<br />
=<br />
∑n 1<br />
j=0<br />
n 1<br />
∑<br />
j=0<br />
P (X 2 = k − j)P (X 1 = j)<br />
( )<br />
n2<br />
p k−j<br />
2 (1 − p 2 ) n 2−(k−j)<br />
k − j<br />
∑n 1<br />
(⋆) = p k (1 − p) n 1+n 2 −k<br />
=<br />
(<br />
n1 + n 2<br />
k<br />
j=0<br />
(<br />
n2<br />
)<br />
p k (1 − p) n 1+n 2 −k<br />
)(<br />
n1<br />
(<br />
n1<br />
j<br />
)<br />
k − j j<br />
} {{ }<br />
=( n 1 +n 2<br />
k )<br />
)<br />
p j 1(1 − p 1 ) n 1−j<br />
Dabei gilt (⋆) für p 1 = p 2 = p. Also: Falls X i jeweils B(n i , p) verteilt sind<br />
und stochastisch unabhängig sind, so ist ∑ l<br />
i=1 X i B(n 1 + . . . + n l , p)-verteilt.<br />
Bemerkung: Sind X 1 , . . . , X m stochastisch unabhängig, so bezeichnet man<br />
68