Stochastik 1 - Mitschriften von Klaas Ole Kürtz
Stochastik 1 - Mitschriften von Klaas Ole Kürtz Stochastik 1 - Mitschriften von Klaas Ole Kürtz
Mathematische Formulierung der Gedächtnislosigkeit zur Modellierung von Wartezeiten, Lebensdauern: P ((s + t, ∞)) P ((s, ∞)) = P ((s + t, ∞)|(s, ∞)) = P ((t, ∞)) Die Wahrscheinlichkeit dafür, noch t Zeiteinheiten zu warten, ist unabhängig davon, ob man schon s Zeiteinheiten gewartet hat. 1. Falls P Exponentialverteilung Exp(β) ist, so ist P gedächtnislos, denn: Exp(β)((s, ∞)) = ∫ ∞ Die Behauptung folgt durch Einsetzen. s βe −βx dx = e −βs 2. Aus P gedächtnislos und P ((0, ∞)) = 1 folgt P Exponentialverteilung, denn: Setze G(t) = P ((t, ∞)), Gedächtnislosigkeit besagt G(s + t) = G(s)G(t) für alle s, t > 0, diese Funktionalgleichung für G liefert als Lösung G(s) = e γs mit γ < 0, da G(t) → 0 für t → ∞. Es folgt: P ((−∞, s]) = 1 − G(s) = 1 − e −βx mit β = −γ > 0. Eindeutigkeitssatz besagt: P ist Exponentialverteilung. 6.3.4 eine ungewöhnliche Verteilungsfunktion Definiere eine Verteilungsfunktion mit Hilfe der Cantormenge C: • induktiver Vorgang liefert Funktion auf Komplement der Cantormenge C: 1 0 0 1 • stetige Fortsetzung auf C liefert F : R → [0, 1] mit F (t) = 0 für t ≤ 0 und F (t) = 1 für t ≥ 1, wobei F monoton wachsend und stetig. 39
Die Cantormenge hat die Eigenschaft λ(C) = 0. Zur Cantorfunktion gehört eindeutig ein Wahrscheinlichkeitsmaß P . Frage: Wie groß ist P (C)? Äquivalent: Wie groß ist P (C c )? Für jedes Intervall I = [a, b] ist die Wahrscheinlichkeit P (I) = 0, da die Verteilungsfunktion F = 0 ist auf den herausgenommenen Intervallen. Somit ist P (C c ) = 0, also P (C) = 1. Definition: Seien P, Q Wahrscheinlichkeitsmaße • P heißt singulär zu Q (in Zeichen P ⊥Q), falls gilt: Es existiert A ∈ A mit P (A) = 0 und Q(A) = 1. • P heißt absolut stetig bezüglich Q (in Zeichen P ≪ Q), falls für alle A ∈ A gilt: Q(A) = 0 ⇒ P (A) = 0. Bezüglich dieser Definition gilt: P Cantor ⊥λ betrachtet als Wahrscheinlichkeitsmaße auf (0, 1), zudem gilt z.B. B(n, p)⊥R(0, n). Für Maße P, P ′ läßt sich nachweisen: P = Q + Q ′ mit Q⊥P ′ und Q ′ ≪ P ′ . 40
- Seite 1 und 2: Stochastik 1 Mitschrift von www.kue
- Seite 3 und 4: 5.6 Geometrische Verteilung . . . .
- Seite 5 und 6: 12.1.2 Methodik zum Beweis des zent
- Seite 7 und 8: Wir geben einen festen Top (b 1 , .
- Seite 9 und 10: • Der Winkel ϕ ∈ [− π, π )
- Seite 11 und 12: 2 Wahrscheinlichkeitsräume Ziel is
- Seite 13 und 14: möglichen Ergebnisse Ω, einem Sys
- Seite 15 und 16: Satz: Ω sei eine Menge, E ⊂ P(Ω
- Seite 17 und 18: 3 Rechnen mit Wahrscheinlichkeiten
- Seite 19 und 20: Für N = 5 ist P (B 0 ) = 36.7%, be
- Seite 21 und 22: 1. Da (A i ) i∈N wachsend ist, gi
- Seite 23 und 24: ¨ ¨ ¨ ¨ ¢ 4 Bedingte Wahrschei
- Seite 25 und 26: 4.1.1 Aussagekraft von medizinische
- Seite 27 und 28: Beweis: Es gilt: (( ) c ) P lim sup
- Seite 29 und 30: Das Borel-Cantelli-Lemma liefert 7
- Seite 31 und 32: 5.2 Hypergeometrische Verteilung Qu
- Seite 33 und 34: 5.7 Poisson-Verteilung −β βω F
- Seite 35 und 36: 6 Wahrscheinlichkeitsmaße auf R Be
- Seite 37 und 38: 6.1.2 Dynkin-Systeme Die Dynkin-Sys
- Seite 39 und 40: 6.1.3 Beweis der Eindeutigkeit (kor
- Seite 41 und 42: Falls diese Fragen mit ja! beantwor
- Seite 43: Die Normalverteilung (Gaußverteilu
- Seite 47 und 48: X -1 (B) X B (Ω, , P) (¡ , ¢ , P
- Seite 49 und 50: Ω A 1 A n A 2 A 3 X { α 1 , α 2
- Seite 51 und 52: 7.4.2 Praktische Erwägungen zur Ve
- Seite 53 und 54: Als mittleren Wert betrachtet man d
- Seite 55 und 56: 8.2 Erwartungswert Definition: Sei
- Seite 57 und 58: (b) Für a, b ∈ R gilt E(aX + bY
- Seite 59 und 60: Es gilt für jedes i = 1, . . . , n
- Seite 61 und 62: (c) Es ist X + Y = X + − X − +
- Seite 63 und 64: folgt: ∑ ∫ n A n X dµ = lim k
- Seite 65 und 66: 8.3.4 Integration bzgl. durch Dicht
- Seite 67 und 68: 8.4 Varianz Der Erwatungswert ist a
- Seite 69 und 70: 9 Momente und stochastische Ungleic
- Seite 71 und 72: 9.2.2 Jensensche Ungleichung Satz:
- Seite 73 und 74: die Verteilung von X = X 1 + X 2 ?
- Seite 75 und 76: Es ist P ((X 1 , X 2 ) ∈ A) = E(1
- Seite 77 und 78: 10.2.2 Summe zweier unabhängiger Z
- Seite 79 und 80: 10.2.4 Die Varianz der Summen von Z
- Seite 81 und 82: Sei nun X i = 1 {1} (Y i ) (d.h. nu
- Seite 83 und 84: Und für relative Häufigkeiten bei
- Seite 85 und 86: Dies ist wieder eine Umformulierung
- Seite 87 und 88: Beweis: Beachte zunächst mit der J
- Seite 89 und 90: Nun gilt mit dem Grenzwertsatz von
- Seite 91 und 92: Einschub: Konvergenzkriterium für
- Seite 93 und 94: Setze weiter S n = ∑ n i=1 Y i. D
Die Cantormenge hat die Eigenschaft λ(C) = 0. Zur Cantorfunktion gehört<br />
eindeutig ein Wahrscheinlichkeitsmaß P .<br />
Frage: Wie groß ist P (C)? Äquivalent: Wie groß ist P (C c )? Für jedes Intervall<br />
I = [a, b] ist die Wahrscheinlichkeit P (I) = 0, da die Verteilungsfunktion<br />
F = 0 ist auf den herausgenommenen Intervallen. Somit ist P (C c ) = 0, also<br />
P (C) = 1.<br />
Definition: Seien P, Q Wahrscheinlichkeitsmaße<br />
• P heißt singulär zu Q (in Zeichen P ⊥Q), falls gilt: Es existiert A ∈ A<br />
mit P (A) = 0 und Q(A) = 1.<br />
• P heißt absolut stetig bezüglich Q (in Zeichen P ≪ Q), falls für alle<br />
A ∈ A gilt: Q(A) = 0 ⇒ P (A) = 0.<br />
Bezüglich dieser Definition gilt: P Cantor ⊥λ betrachtet als Wahrscheinlichkeitsmaße<br />
auf (0, 1), zudem gilt z.B. B(n, p)⊥R(0, n). Für Maße P, P ′ läßt sich<br />
nachweisen: P = Q + Q ′ mit Q⊥P ′ und Q ′ ≪ P ′ .<br />
40