Stochastik 1 - Mitschriften von Klaas Ole Kürtz
Stochastik 1 - Mitschriften von Klaas Ole Kürtz Stochastik 1 - Mitschriften von Klaas Ole Kürtz
Somit ist P ( ⋂ [. . .] l∈N ) = 1 ⇐⇒ P ([. . .]) = 1 ⇐⇒ P ([. . .] c ) = 0 Es gilt also: Z n konvergiert fast sicher gegen Z genau dann, wenn für alle ε > 0 gilt: (( ) c ) ⋃ ⋂ P {ω ′ | |Z m (ω ′ ) − Z(ω ′ )| ≤ ε} = 0 n∈N m≥n D.h. es ist für jedes ε > 0: ( ) ⋂ ⋃ 0 = P {ω ′ | |Z m (ω ′ ) − Z(ω ′ )| > ε} n∈N m≥n ( ) ⋃ = lim P {ω ′ | |Z m (ω ′ ) − Z(ω ′ )| > ε} n→∞ m≥n = P (lim sup {ω ′ | |Z m (ω ′ ) − Z(ω ′ )| > ε}) Dies wird benutzt, um die fast sichere Konvergenz zu untersuchen. 11.3.2 Fast sichere und schwache Konvergenz Satz: Seien Z, Z 1 , Z 2 , . . . Zufallsgrößen Dann gilt: 1. Wenn Z n −→ Z fast sicher, so gilt Z n −→ Z in Wahrscheinlichkeit. 2. Falls ∑ m∈N P (|Z m − Z| > ε) < ∞ für alle ε > 0, so ist Z n −→ Z fast sicher Beweis: 1. Falls Z n −→ Z fast sicher, so ist für alle ε > 0: lim m→∞ P (|Z m − Z| > ε) = 0. Nun folgt die Aussage aus obiger Umformulierung der fast sicheren Konvergenz wegen ( ) ⋃ P (|Z m − Z| > ε) ≤ P {|Z m ′ − Z| > ε} m ′ ≥m 2. Mit dem Borel-Cantelli-Lemma ( ∑ n P (A n) < ∞ ⇒ P (lim sup A n ) = 0) gilt: ∑ P (|Z m − Z| > ε) < ∞ =⇒ P (lim sup{|Z m (ω ′ ) − Z(ω ′ )| > ε}) = 0 m∈N 79
Dies ist wieder eine Umformulierung der fast sicheren Konvergenz von oben. 11.4 Starkes Gesetz der großen Zahlen 11.4.1 Versuch, zu einem Starken Gesetz zu gelangen Seien X 1 , X 2 , . . . stochastisch unabhängige Zufallsgrößen mit E(Xi 2 ) < ∞. Dann ist 1 n∑ X i − 1 n∑ E(X i ) = 1 n∑ (X i − E(X i )) n n n i=1 i=1 Gehe über zu X ′ i = X i − E(X i ), wobei E(X ′ i) = 0 und Var(X ′ i) = Var(X i ), bzw. nehme gleich o.B.d.A. an, daß E(X i ) = 0 vorliegt. ∑ Erster Versuch zum Nachweis von 1 n n i=1 X i −→ 0 fast sicher: Sei ε > 0, betrachte mit der Annahme Var(X 1 ) = Var(X i ) = b > 0 ( {∣ ∣ }) ({∣ ∣ }) ⋃ ∣∣∣∣ 1 m∑ ∣∣∣∣ ∞∑ ∣∣∣∣ 1 m∑ ∣∣∣∣ P X i ≥ ε ≤ P X i ≥ ε m m m≥n i=1 m=n i=1 ∞∑ 1 ∑ m ≤ Var(X m 2 ε 2 i ) ≤ m=n ∞∑ m=n i=1 ≤ b ε 2 ∞ ∑ mb m 2 ε 2 m=n i=1 1 m = ∞ Das klappt so nicht! Zweiter Versuch: Beachte E(X i ) = 0, daher Var(X i ) = E(Xi 2 ); es ist: (∣ ∣ ) ∣∣∣∣ 1 n∑ ∣∣∣∣ P X i ≥ ε ≤ 1 n∑ E(X 2 n n 2 ε 2 i ) = b ε · n i=1 i=1 Möglichkeit, um die Summierung über 1 n zu vermeiden: Denke an P (|Z| ≥ ε) ≤ E(|Z|p ) ε p 80
- Seite 33 und 34: 5.7 Poisson-Verteilung −β βω F
- Seite 35 und 36: 6 Wahrscheinlichkeitsmaße auf R Be
- Seite 37 und 38: 6.1.2 Dynkin-Systeme Die Dynkin-Sys
- Seite 39 und 40: 6.1.3 Beweis der Eindeutigkeit (kor
- Seite 41 und 42: Falls diese Fragen mit ja! beantwor
- Seite 43 und 44: Die Normalverteilung (Gaußverteilu
- Seite 45 und 46: Die Cantormenge hat die Eigenschaft
- Seite 47 und 48: X -1 (B) X B (Ω, , P) (¡ , ¢ , P
- Seite 49 und 50: Ω A 1 A n A 2 A 3 X { α 1 , α 2
- Seite 51 und 52: 7.4.2 Praktische Erwägungen zur Ve
- Seite 53 und 54: Als mittleren Wert betrachtet man d
- Seite 55 und 56: 8.2 Erwartungswert Definition: Sei
- Seite 57 und 58: (b) Für a, b ∈ R gilt E(aX + bY
- Seite 59 und 60: Es gilt für jedes i = 1, . . . , n
- Seite 61 und 62: (c) Es ist X + Y = X + − X − +
- Seite 63 und 64: folgt: ∑ ∫ n A n X dµ = lim k
- Seite 65 und 66: 8.3.4 Integration bzgl. durch Dicht
- Seite 67 und 68: 8.4 Varianz Der Erwatungswert ist a
- Seite 69 und 70: 9 Momente und stochastische Ungleic
- Seite 71 und 72: 9.2.2 Jensensche Ungleichung Satz:
- Seite 73 und 74: die Verteilung von X = X 1 + X 2 ?
- Seite 75 und 76: Es ist P ((X 1 , X 2 ) ∈ A) = E(1
- Seite 77 und 78: 10.2.2 Summe zweier unabhängiger Z
- Seite 79 und 80: 10.2.4 Die Varianz der Summen von Z
- Seite 81 und 82: Sei nun X i = 1 {1} (Y i ) (d.h. nu
- Seite 83: Und für relative Häufigkeiten bei
- Seite 87 und 88: Beweis: Beachte zunächst mit der J
- Seite 89 und 90: Nun gilt mit dem Grenzwertsatz von
- Seite 91 und 92: Einschub: Konvergenzkriterium für
- Seite 93 und 94: Setze weiter S n = ∑ n i=1 Y i. D
- Seite 95 und 96: Definition: Seien Z, Z 1 , Z 2 , .
- Seite 97 und 98: Es gilt 1 {U∈Z c } · g(Fn −1 (
- Seite 99 und 100: 4. Zusammenfügen der ersten drei S
- Seite 101: Achtung! Hier fehlt noch das Ende d
Dies ist wieder eine Umformulierung der fast sicheren Konvergenz <strong>von</strong><br />
oben.<br />
11.4 Starkes Gesetz der großen Zahlen<br />
11.4.1 Versuch, zu einem Starken Gesetz zu gelangen<br />
Seien X 1 , X 2 , . . . stochastisch unabhängige Zufallsgrößen mit E(Xi 2 ) < ∞.<br />
Dann ist<br />
1<br />
n∑<br />
X i − 1 n∑<br />
E(X i ) = 1 n∑<br />
(X i − E(X i ))<br />
n n<br />
n<br />
i=1<br />
i=1<br />
Gehe über zu X ′ i = X i − E(X i ), wobei E(X ′ i) = 0 und Var(X ′ i) = Var(X i ),<br />
bzw. nehme gleich o.B.d.A. an, daß E(X i ) = 0 vorliegt.<br />
∑<br />
Erster Versuch zum Nachweis <strong>von</strong> 1 n<br />
n i=1 X i −→ 0 fast sicher: Sei ε > 0,<br />
betrachte mit der Annahme Var(X 1 ) = Var(X i ) = b > 0<br />
( {∣ ∣ })<br />
({∣ ∣ })<br />
⋃ ∣∣∣∣<br />
1<br />
m∑ ∣∣∣∣ ∞∑ ∣∣∣∣<br />
1<br />
m∑ ∣∣∣∣<br />
P<br />
X i ≥ ε ≤ P<br />
X i ≥ ε<br />
m<br />
m<br />
m≥n i=1<br />
m=n<br />
i=1<br />
∞∑ 1 ∑ m<br />
≤<br />
Var(X<br />
m 2 ε 2<br />
i )<br />
≤<br />
m=n<br />
∞∑<br />
m=n<br />
i=1<br />
≤ b ε 2 ∞<br />
∑<br />
mb<br />
m 2 ε 2<br />
m=n<br />
i=1<br />
1<br />
m = ∞<br />
Das klappt so nicht! Zweiter Versuch: Beachte E(X i ) = 0, daher Var(X i ) =<br />
E(Xi 2 ); es ist:<br />
(∣ ∣ )<br />
∣∣∣∣<br />
1<br />
n∑ ∣∣∣∣<br />
P X i ≥ ε ≤ 1 n∑<br />
E(X 2<br />
n<br />
n 2 ε 2<br />
i ) =<br />
b<br />
ε · n<br />
i=1<br />
i=1<br />
Möglichkeit, um die Summierung über 1 n<br />
zu vermeiden: Denke an<br />
P (|Z| ≥ ε) ≤ E(|Z|p )<br />
ε p<br />
80