Stochastik 1 - Mitschriften von Klaas Ole Kürtz
Stochastik 1 - Mitschriften von Klaas Ole Kürtz
Stochastik 1 - Mitschriften von Klaas Ole Kürtz
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Beweis: Beachte zunächst mit der Jensenschen Ungleichung: (E(Xi 2 )) 2 ≤<br />
E(Xi 4 ). Es gilt:<br />
( {∣ ∣ })<br />
(∣ ∣ )<br />
⋃ ∣∣∣∣<br />
1<br />
m∑ ∣∣∣∣ ∞∑ ∣∣∣∣<br />
1<br />
m∑ ∣∣∣∣<br />
P<br />
X i ≥ ε ≤ P X i ≥ ε<br />
m<br />
m<br />
m≥n i=1<br />
m=n<br />
i=1<br />
⎛( ∞∑<br />
m<br />
) ⎞ 4<br />
1<br />
≤<br />
m 4 ε E ∑<br />
⎝ X 4 i<br />
⎠<br />
siehe dritter Versuch<br />
≤<br />
≤<br />
≤<br />
m=n<br />
∞∑<br />
m=n<br />
∞∑<br />
m=n<br />
∑ ∞<br />
2b<br />
ε 2<br />
(<br />
1 ∑ m<br />
m 4 ε 4<br />
i=1<br />
i=1<br />
E(X 4 i ) + ∑ i≠j<br />
1<br />
(mb + m(m − 1)b)<br />
m 4 ε4 m=n<br />
1<br />
m 2<br />
Dies strebt gegen 0 für n −→ ∞, da ∑ ∞ 1<br />
m=1<br />
< ∞.<br />
m 2<br />
E(X 2 i )E(X 2 j )<br />
11.4.3 Starkes Gesetz der großen Zahlen für relative Häufigkeiten<br />
Satz: Seien Y 1 , Y 2 , . . . stochastisch unabhängige, identisch verteilte Zufallsvariablen<br />
(d.h. P Y i<br />
= P Y 1<br />
= W ) mit Y i : Ω → Y. Dann gilt für jedes Ereignis<br />
A ⊆ Y:<br />
lim h(A, n) = W (A) fast sicher<br />
n→∞<br />
Beweis:<br />
∑<br />
Es gilt mit X i = 1 A (Y i ) (und damit E(Xi 4 ) ≤ 1): h(A, n) =<br />
1 n<br />
n i=1 X ∑<br />
1<br />
i, also lim n<br />
n→∞ n i=1 (X i − W (A)) = 0 fast sicher; und damit<br />
lim n→∞ h(A, n) = W (A).<br />
11.5 Empirische Verteilungsfunktion<br />
In der Statistik hat man häufig folgende Situation vorliegen: Beobachtet werden<br />
Zuvallsvariablen Y 1 , Y 2 , . . ., die stochastisch unabhängig sind und jeweils<br />
die Verteilung W = P Y i<br />
besitzen mögen. Situation der Statistik: W ist<br />
nicht oder nur unvollständig bekannt, Aufgabe ist es, aus den Beobachtungen<br />
Aussagen über W zu treffen.<br />
Seien Y 1 , Y 2 , . . . stochastisch unabhängig und identisch verteilt (P Y i<br />
= P Y 1<br />
=<br />
W ), sie mögen Werte in Rannehmen. Das Wahrscheinlichkeitsmaß W ist dann<br />
)<br />
82