Stochastik 1 - Mitschriften von Klaas Ole Kürtz
Stochastik 1 - Mitschriften von Klaas Ole Kürtz Stochastik 1 - Mitschriften von Klaas Ole Kürtz
Somit ist P ( ⋂ [. . .] l∈N ) = 1 ⇐⇒ P ([. . .]) = 1 ⇐⇒ P ([. . .] c ) = 0 Es gilt also: Z n konvergiert fast sicher gegen Z genau dann, wenn für alle ε > 0 gilt: (( ) c ) ⋃ ⋂ P {ω ′ | |Z m (ω ′ ) − Z(ω ′ )| ≤ ε} = 0 n∈N m≥n D.h. es ist für jedes ε > 0: ( ) ⋂ ⋃ 0 = P {ω ′ | |Z m (ω ′ ) − Z(ω ′ )| > ε} n∈N m≥n ( ) ⋃ = lim P {ω ′ | |Z m (ω ′ ) − Z(ω ′ )| > ε} n→∞ m≥n = P (lim sup {ω ′ | |Z m (ω ′ ) − Z(ω ′ )| > ε}) Dies wird benutzt, um die fast sichere Konvergenz zu untersuchen. 11.3.2 Fast sichere und schwache Konvergenz Satz: Seien Z, Z 1 , Z 2 , . . . Zufallsgrößen Dann gilt: 1. Wenn Z n −→ Z fast sicher, so gilt Z n −→ Z in Wahrscheinlichkeit. 2. Falls ∑ m∈N P (|Z m − Z| > ε) < ∞ für alle ε > 0, so ist Z n −→ Z fast sicher Beweis: 1. Falls Z n −→ Z fast sicher, so ist für alle ε > 0: lim m→∞ P (|Z m − Z| > ε) = 0. Nun folgt die Aussage aus obiger Umformulierung der fast sicheren Konvergenz wegen ( ) ⋃ P (|Z m − Z| > ε) ≤ P {|Z m ′ − Z| > ε} m ′ ≥m 2. Mit dem Borel-Cantelli-Lemma ( ∑ n P (A n) < ∞ ⇒ P (lim sup A n ) = 0) gilt: ∑ P (|Z m − Z| > ε) < ∞ =⇒ P (lim sup{|Z m (ω ′ ) − Z(ω ′ )| > ε}) = 0 m∈N 79
Dies ist wieder eine Umformulierung der fast sicheren Konvergenz von oben. 11.4 Starkes Gesetz der großen Zahlen 11.4.1 Versuch, zu einem Starken Gesetz zu gelangen Seien X 1 , X 2 , . . . stochastisch unabhängige Zufallsgrößen mit E(Xi 2 ) < ∞. Dann ist 1 n∑ X i − 1 n∑ E(X i ) = 1 n∑ (X i − E(X i )) n n n i=1 i=1 Gehe über zu X ′ i = X i − E(X i ), wobei E(X ′ i) = 0 und Var(X ′ i) = Var(X i ), bzw. nehme gleich o.B.d.A. an, daß E(X i ) = 0 vorliegt. ∑ Erster Versuch zum Nachweis von 1 n n i=1 X i −→ 0 fast sicher: Sei ε > 0, betrachte mit der Annahme Var(X 1 ) = Var(X i ) = b > 0 ( {∣ ∣ }) ({∣ ∣ }) ⋃ ∣∣∣∣ 1 m∑ ∣∣∣∣ ∞∑ ∣∣∣∣ 1 m∑ ∣∣∣∣ P X i ≥ ε ≤ P X i ≥ ε m m m≥n i=1 m=n i=1 ∞∑ 1 ∑ m ≤ Var(X m 2 ε 2 i ) ≤ m=n ∞∑ m=n i=1 ≤ b ε 2 ∞ ∑ mb m 2 ε 2 m=n i=1 1 m = ∞ Das klappt so nicht! Zweiter Versuch: Beachte E(X i ) = 0, daher Var(X i ) = E(Xi 2 ); es ist: (∣ ∣ ) ∣∣∣∣ 1 n∑ ∣∣∣∣ P X i ≥ ε ≤ 1 n∑ E(X 2 n n 2 ε 2 i ) = b ε · n i=1 i=1 Möglichkeit, um die Summierung über 1 n zu vermeiden: Denke an P (|Z| ≥ ε) ≤ E(|Z|p ) ε p 80
- Seite 33 und 34: 5.7 Poisson-Verteilung −β βω F
- Seite 35 und 36: 6 Wahrscheinlichkeitsmaße auf R Be
- Seite 37 und 38: 6.1.2 Dynkin-Systeme Die Dynkin-Sys
- Seite 39 und 40: 6.1.3 Beweis der Eindeutigkeit (kor
- Seite 41 und 42: Falls diese Fragen mit ja! beantwor
- Seite 43 und 44: Die Normalverteilung (Gaußverteilu
- Seite 45 und 46: Die Cantormenge hat die Eigenschaft
- Seite 47 und 48: X -1 (B) X B (Ω, , P) (¡ , ¢ , P
- Seite 49 und 50: Ω A 1 A n A 2 A 3 X { α 1 , α 2
- Seite 51 und 52: 7.4.2 Praktische Erwägungen zur Ve
- Seite 53 und 54: Als mittleren Wert betrachtet man d
- Seite 55 und 56: 8.2 Erwartungswert Definition: Sei
- Seite 57 und 58: (b) Für a, b ∈ R gilt E(aX + bY
- Seite 59 und 60: Es gilt für jedes i = 1, . . . , n
- Seite 61 und 62: (c) Es ist X + Y = X + − X − +
- Seite 63 und 64: folgt: ∑ ∫ n A n X dµ = lim k
- Seite 65 und 66: 8.3.4 Integration bzgl. durch Dicht
- Seite 67 und 68: 8.4 Varianz Der Erwatungswert ist a
- Seite 69 und 70: 9 Momente und stochastische Ungleic
- Seite 71 und 72: 9.2.2 Jensensche Ungleichung Satz:
- Seite 73 und 74: die Verteilung von X = X 1 + X 2 ?
- Seite 75 und 76: Es ist P ((X 1 , X 2 ) ∈ A) = E(1
- Seite 77 und 78: 10.2.2 Summe zweier unabhängiger Z
- Seite 79 und 80: 10.2.4 Die Varianz der Summen von Z
- Seite 81 und 82: Sei nun X i = 1 {1} (Y i ) (d.h. nu
- Seite 83: Und für relative Häufigkeiten bei
- Seite 87 und 88: Beweis: Beachte zunächst mit der J
- Seite 89 und 90: Nun gilt mit dem Grenzwertsatz von
- Seite 91 und 92: Einschub: Konvergenzkriterium für
- Seite 93 und 94: Setze weiter S n = ∑ n i=1 Y i. D
- Seite 95 und 96: Definition: Seien Z, Z 1 , Z 2 , .
- Seite 97 und 98: Es gilt 1 {U∈Z c } · g(Fn −1 (
- Seite 99 und 100: 4. Zusammenfügen der ersten drei S
- Seite 101: Achtung! Hier fehlt noch das Ende d
Somit ist<br />
P<br />
( ⋂<br />
[. . .]<br />
l∈N<br />
)<br />
= 1 ⇐⇒ P ([. . .]) = 1 ⇐⇒ P ([. . .] c ) = 0<br />
Es gilt also: Z n konvergiert fast sicher gegen Z genau dann, wenn für alle<br />
ε > 0 gilt:<br />
(( ) c )<br />
⋃ ⋂<br />
P<br />
{ω ′ | |Z m (ω ′ ) − Z(ω ′ )| ≤ ε} = 0<br />
n∈N m≥n<br />
D.h. es ist für jedes ε > 0:<br />
( )<br />
⋂ ⋃<br />
0 = P {ω ′ | |Z m (ω ′ ) − Z(ω ′ )| > ε}<br />
n∈N m≥n<br />
( )<br />
⋃<br />
= lim P {ω ′ | |Z m (ω ′ ) − Z(ω ′ )| > ε}<br />
n→∞<br />
m≥n<br />
= P (lim sup {ω ′ | |Z m (ω ′ ) − Z(ω ′ )| > ε})<br />
Dies wird benutzt, um die fast sichere Konvergenz zu untersuchen.<br />
11.3.2 Fast sichere und schwache Konvergenz<br />
Satz: Seien Z, Z 1 , Z 2 , . . . Zufallsgrößen Dann gilt:<br />
1. Wenn Z n −→ Z fast sicher, so gilt Z n −→ Z in Wahrscheinlichkeit.<br />
2. Falls ∑ m∈N P (|Z m − Z| > ε) < ∞ für alle ε > 0, so ist Z n −→ Z fast<br />
sicher<br />
Beweis:<br />
1. Falls Z n −→ Z fast sicher, so ist für alle ε > 0: lim m→∞ P (|Z m − Z| ><br />
ε) = 0. Nun folgt die Aussage aus obiger Umformulierung der fast<br />
sicheren Konvergenz wegen<br />
( )<br />
⋃<br />
P (|Z m − Z| > ε) ≤ P {|Z m ′ − Z| > ε}<br />
m ′ ≥m<br />
2. Mit dem Borel-Cantelli-Lemma ( ∑ n P (A n) < ∞ ⇒ P (lim sup A n ) = 0)<br />
gilt:<br />
∑<br />
P (|Z m − Z| > ε) < ∞ =⇒ P (lim sup{|Z m (ω ′ ) − Z(ω ′ )| > ε}) = 0<br />
m∈N<br />
79