27.08.2014 Aufrufe

Skriptum zur Wahrscheinlichkeitstheorie

Skriptum zur Wahrscheinlichkeitstheorie

Skriptum zur Wahrscheinlichkeitstheorie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Friedrich-Alexander-Universität Erlangen-Nürnberg<br />

Naturwissenschaftliche Fakultät I<br />

<strong>Skriptum</strong> <strong>zur</strong> <strong>Wahrscheinlichkeitstheorie</strong><br />

WS 97/98, SS 98<br />

gelesen von Prof. Anger<br />

gesetzt von Peter Pfaffelhuber<br />

Version 1.10.2000


Inhaltsverzeichnis<br />

0 Einführung 1<br />

0 Vorbemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />

1 Maße und Integrale 5<br />

1 σ-Algebren und ihre Erzeuger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />

2 Maße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />

3 Meßbare Abbildungen und Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

4 Das Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />

5 L p -Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42<br />

6 Konvergenzsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48<br />

2 Konstruktion von Maßen 61<br />

7 Fortsetzung von Inhalten zu Maßen . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

8 Bildmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78<br />

9 Produktmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80<br />

10 Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93<br />

11 Maße mit Dichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103<br />

3 Gesetze der großen Zahlen 109<br />

12 0-1-Gesetze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109<br />

13 Starkes und schwaches Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . 116<br />

4 Grenzverteilungen 121<br />

14 Schwache Konvergenz von Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . 121<br />

15 Grenzwertsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132<br />

16 Der Satz vom iterierten Logarithmus . . . . . . . . . . . . . . . . . . . . . . . . . . 143<br />

5 Stochastische Prozesse 149<br />

17 Konstruktion stochastischer Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . 149<br />

18 Markoff’sche Scharen und Halbgruppen . . . . . . . . . . . . . . . . . . . . . . . . 158<br />

19 Prozesse mit stationären und unabhängigen Zuwächsen . . . . . . . . . . . . . . . 167<br />

20 Die Brown’sche Bewegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171<br />

21 Der Poisson’sche Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181<br />

6 Martingaltheorie 185<br />

22 Satz von Radon-Nikodym und bedingte Erwartungen . . . . . . . . . . . . . . . . . 185<br />

23 Martingale, Sub- und Supermartingale . . . . . . . . . . . . . . . . . . . . . . . . . 198<br />

24 Markoffzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205<br />

25 Martingalkonvergenzsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211<br />

26 Zufälliges Stoppen von Martingalen (Optional Sampling) . . . . . . . . . . . . . . . 223<br />

27 Markoff-Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228<br />

iii


iv<br />

INHALTSVERZEICHNIS


Literaturverzeichnis<br />

[BM] Bauer, H. [1990], Maß- und Integrationstheorie, 2.Auflage, de Gruyter<br />

[BW] Bauer, H. [1991], <strong>Wahrscheinlichkeitstheorie</strong>, 4.Auflage, de Gruyter<br />

[Be] Behrends, E. [1987], Maß- und Integrationstheorie, Springer<br />

[Bi] Billingsley [1986], Probability and measure, Wiley<br />

[DM] Dellacherie, C., Meyer, P.A. [1987], Probabilités et Potentiel, Hermann<br />

[El] Elstrodt, J. [1996], Maß- und Integrationstheorie, Springer<br />

[Fl] Floret, K. [1981] Maß- und Integrationstheorie, Teubner<br />

[GS] Gänsler, P. und Stute W. [1977], <strong>Wahrscheinlichkeitstheorie</strong>, Springer<br />

[HS] Hewitt,E., Stromberg, K. [1975], Real and Abstract Analysis, Springer<br />

[KS] Karatzas, I., Shreve, S.E. [1988], Brownian Motion and Stochastic Calculus, Springer<br />

[Me] Meyer, P. [1966], Probability and Potentials, Blaisdell Publications<br />

[Qu] Querenburg [1979], Mengentheoretische Topologie, Springer<br />

[RY] Revuz, D., Yor, M. [1991], Continuous Martingales and Brownian Motion, Springer<br />

[RWI] Rogers, L.C., Williams, W. [1994], Diffusion, Markov-Processes and Martingales I, Wiley<br />

[RWII] Rogers, L.C., Williams, D. [1994], Diffusion, Markov-Processes and Martingales II, Wiley<br />

[Ru] Rudin, W. [1973], Functional Analysis, McGraw Hill<br />

v


vi<br />

LITERATURVERZEICHNIS


Kapitel 0<br />

Einführung<br />

0 Vorbemerkungen<br />

Erst um 1930 begründet Kolmogoroff die <strong>Wahrscheinlichkeitstheorie</strong> axiomatisch. Dabei schuf er<br />

die Grundlagen dafür, auch auf nichtdiskreten Räumen <strong>Wahrscheinlichkeitstheorie</strong> zu betreiben.<br />

0.1 Diskrete Stochastik<br />

Die diskrete <strong>Wahrscheinlichkeitstheorie</strong> beschäftigt sich mit dem Studium zufälliger Experimente<br />

mit höchstens abzählbar vielen stochastisch relevanten Experimentsausgängen ω ∈ Ω. D.h., es gibt<br />

höchstens abzählbar viele Ausgänge mit diskreten positiven Wahrscheinlichkeiten. Die zugehörige<br />

Abbildung, die den Ausgängen Wahrscheinlichkeiten zuordnet, heißt Wahrscheinlichkeitsmaß. Sie<br />

hat im diskreten Fall folgende Eigenschaften:<br />

1. P[Ω] = 1 (Wahrscheinlichkeit des sicheren Ereignisses),<br />

2. P[A] = ∑ ω∈A<br />

P[ω] (A ⊆ Ω).<br />

Die Wahrscheinlichkeit von A ist die Summe der Wahrscheinlichkeiten der zu A gehörigen Elementarereignisse.<br />

Mit<br />

{<br />

1, ω ∈ A<br />

ɛ ω : A ↦→<br />

0, ω ∉ A und α ω := P[ω]<br />

ist P = ∑ ω∈Ω<br />

α ω ɛ ω . Umgekehrt ist für α ω ∈ [0; 1] mit ∑ ω∈Ω<br />

α ω = 1 durch<br />

A ↦→ ∑ ω∈Ω<br />

α ω = ∑ ω∈Ω<br />

α ω ɛ ω [A]<br />

stets ein diskretes Wahrscheinlichkeitsmaß gegeben.<br />

0.2 Beispiele<br />

1. Die hypergeometrische Verteilung ist ein Wahrscheinlichkeitsmaß) auf Ω = {0, . . . , S} und hat<br />

Parameter n, N ∈ N mit n ≤ N. Sie ist definiert durch<br />

( S N−S<br />

)<br />

α s :=<br />

s)(<br />

n−s<br />

( N<br />

(s ∈ Ω).<br />

n)<br />

Man kann α s interpretieren als die Wahrscheinlichkeit beim Ziehen ohne Zurücklegen von n<br />

Kugeln aus einer Urne mit N Kugeln, von denen S schwarze und N − S weiße sind, genau s<br />

schwarze zu ziehen.<br />

1


2 KAPITEL 0. EINFÜHRUNG<br />

2. Die Binomialverteilung ist ein Wahrscheinlichkeitsmaß auf auf Ω = {0, . . . , n} mit Parameter<br />

p ∈ [0; 1] und ist definiert durch<br />

α k :=<br />

( n<br />

k)<br />

p k (1 − p) n−k =: B(n, p)[k]<br />

(k ∈ Ω).<br />

Man kann α k interpretieren als Wahrscheinlichkeit, beim n-maligen Spiel desselben Spiels k-<br />

mal zu gewinnen, wobei die Wahrschelichkeit eines einzelnen Gewinns p ist. Ist n = 1, so spricht<br />

man auch von der Bernoulli-Verteilung.<br />

3. Die Poisson-Verteilung ist ein Wahrscheinlichkeitsmaß auf Ω = N 0 mit Parameter λ ∈ R + . Sie<br />

ist definiert durch<br />

α k := λ k e−λ<br />

=: π λ [k] (k ∈ Ω).<br />

k!<br />

Dabei ist α k die’Wahrscheinlichkeit, genau k ’seltene’ Ereignisse in einem Zeitraum zu beobachten,<br />

wenn man durchschnittlich λ beobachtet.<br />

Beispiele, bei denen man mit der Poisson-Verteilung als gutes Modell rechnet, sind der radioaktive<br />

Zerfall oder Anrufe in einer Telefonzentrale.<br />

4. Die wichtige Normalverteilung ist nicht diskret.<br />

0.3 Zusammenhang diskrete - nichtdiskrete Stochastik<br />

Die Bedingung 2. ist im Falle diskreter Wahrscheinlichkeitsmaße äquivalent <strong>zur</strong> Gültigkeit der<br />

Gesamtheit der Bedingungen:<br />

3. P[A ⊎ B] = P[A] + P[B] (A, B, ⊆ Ω, A ∩ B = ∅)<br />

(Additivität unvereinbarer Ereignisse)<br />

[<br />

⋂ ∞<br />

4. P<br />

n=1<br />

A n<br />

]<br />

= lim<br />

n→∞ P[A n] (A n ⊆ Ω mit A n+1 ⊆ A n n ∈ N)<br />

5. Es gibt ein B ⊆ Ω höchstens abzählbar mit P[CB] = 0<br />

(Stetigkeit von oben)<br />

(abzählbare Trägermenge)<br />

Ferner sind 3. und 4. äquivalent zu<br />

[ ⊎<br />

∞<br />

6. P<br />

n=1<br />

A n<br />

]<br />

=<br />

∞∑<br />

P[A n ]<br />

n=1<br />

((A n ) n∈N paarweise fremd)<br />

(σ-Additivität)<br />

n=1<br />

Die Bedingung 3. läßt sich z.B. mit Hilfe relativer Häufigkeiten leicht motivieren. Um 4. zu motovieren,<br />

wiederholt man ein zufälliges Experiment, was durch ein diskretes Wahrscheinlichkeitsmaß<br />

P 0 auf Ω 0 mit mindestens zwei stochastisch relevanten Ausgängen beschrieben wird, unendlich<br />

∏<br />

oft. Dann ist Ω := ∞ Ω 0 der Ergebnisraum dieser Folge von Experimenten und jedes Wahrscheinlichkeitsmaß<br />

P auf Ω, das das Experiment beschreibt, hat wegen der Unabhängigkeit der einzelnen<br />

Experimente die Eigenschaft:<br />

[<br />

P B 1 × . . . × B n × ∏ ]<br />

= P 0 [B 1 ] · . . . · P 0 [B n ] (B i ⊆ Ω),<br />

Ω 0<br />

i>n<br />

} {{ }<br />

=:A n⊆Ω


0. VORBEMERKUNGEN 3<br />

wobei<br />

∏<br />

A n ↓ ∞ B i =: A ⊆ Ω.<br />

i=1<br />

Somit liefert 4. die plausible Wahrscheinlichkeit<br />

P[A] = lim<br />

n→∞ i=1<br />

∞∏<br />

P 0 [B i ].<br />

Beispielsweise wirft man unendlich oft hintereinander eine Münze. Dabei sei p die Wahrscheinlichkeit,<br />

bei einem bestimmten Wurf ’Kopf’ zu werfen. Dann ist<br />

B i = beim i-ten Ereignis fällt Kopf,<br />

A n = bei den ersten n Versuchen fällt Kopf.<br />

Dann liefert 4.<br />

P[A] = lim<br />

n→∞ pn = 0<br />

Um den Begriff des Wahrscheinlichkeitsmaßes auf nichtdiskrete Räume zu verallgemeinern, liegt<br />

es nahe, auf Eigenschaft 5. zu verzichten und 1. und 6. zu fordern. Um ein Wahrscheinlichkeitsmaß<br />

sauber zu definieren, muss man die Mengen, die das maß misst, einschränken. Zentral ist hierbei<br />

der Begriff der σ-Algebra.<br />

Problem: Existiert ein Wahrscheinlichkeitsmaß P auf Ω mit den Eigenschaften 1. und<br />

6.?


4 KAPITEL 0. EINFÜHRUNG


Kapitel 1<br />

Maße und Integrale<br />

1 σ-Algebren und ihre Erzeuger<br />

Sei stets Ω ≠ ∅ beliebig. In der Stochastik heißt die Menge Ω Grundgesamtheit, Ereignis-,<br />

Merkmals-, Ergebnis- oder Stichprobenraum. Außerdem bezeichne E ⊆ P(Ω) ein Mengensystem<br />

in Ω, das in der Stochastik dann eine Menge von Ereignissen darstellt.<br />

1.1 Definition<br />

Ein Mengensystem A ⊆ P(Ω) in Ω heißt σ-Algebra in Ω, wenn gilt:<br />

1. Ω ∈ A,<br />

2. A ∈ A ⇒ CA ∈ A<br />

3. A n ∈ A (n ∈ N) ⇒ ⋃ n∈N<br />

A n ∈ A.<br />

1.2 Satz<br />

In jeder σ-Algebra A von Ω gilt:<br />

4. ∅ ∈ A<br />

5. A n ∈ A (n ∈ N) ⇒ ⋂ A n ∈ A<br />

n∈N<br />

6, A, B ∈ A ⇒ A ∪ B, A ∩ B, A \ B ∈ A<br />

Beweis.<br />

4. Da Ω ∈ A, folgt die Behauptung mit 2. aus ∅ = CΩ ∈ A<br />

5. Es gilt<br />

Damit folgt die Behauptung nach 2.<br />

6. Es gilt<br />

n=1<br />

∞⋂<br />

n=1<br />

(<br />

⋃ ∞<br />

A n = C<br />

n=1<br />

CA<br />

}{{} n<br />

∈A<br />

} {{ }<br />

∈A<br />

∞⋃<br />

∞⋂<br />

A ∪ B = A ∪ B ∪ ∅, A ∩ B = A ∩ B ∩ Ω, und A \ B = A ∩ CB.<br />

5<br />

n=1<br />

)<br />

.


6 KAPITEL 1. MASSE UND INTEGRALE<br />

Damit folgen die Behauptungen nach 3. und 5.<br />

1.3 Beispiele<br />

1. Immer ist {∅, Ω} die kleinste und P(Ω) die größte σ-Algebra in Ω.<br />

2. Beh.: Das Mengensystem<br />

ist eine σ-Algebra<br />

Denn:<br />

1. Da CΩ = ∅ abzählbar ist, ist Ω ∈ A,<br />

{A ⊆ Ω : A oder CA höchstens abzählbar}<br />

2. Sei A ∈ A. Dann ist entweder A oder CA abzählbar. Falls A abzählbar ist, so ist C(CA) = A<br />

abzählbar und damit CA ∈ A.<br />

Falls CA abzählbar ist, ist sowieso CA ∈ A<br />

3. Sei A n ∈ A (n ∈ N) Falls alle A k abzählbar sind, ist ⋃ n∈N<br />

A n abzählbar als abzählbare Vereinigung<br />

abzählbarer Mengen. Falls ein CA k abzählbar ist, so ist<br />

✷<br />

C ⋃ A n = ⋂ CA n ⊆ CA k<br />

n∈N n∈N<br />

abzählbar, also ⋃ n∈N<br />

A n ∈ A.<br />

1.4 Satz<br />

Zu jedem Ereignissystem E in Ω gibt es eine kleinste, E enthaltende σ-Algebra in Ω, bezeichnet<br />

mit σ Ω (E). Dabei heißt E Erzeugendensystem von σ Ω (E).<br />

Es gilt:<br />

σ Ω (E) = ⋂ {A ⊆ P(Ω) : E ⊆ A, Aσ-Algebra}<br />

✷<br />

Beweis: Definiere<br />

S(E) := {A ⊇ E : Aσ-Algebra}<br />

S := ⋂ {A ⊆ P(Ω) : A ∈ S(E)}<br />

Beh: S ist die kleinste σ-Algebra, die E enthält.<br />

1. S ist σ-Algebra:<br />

1. Sei A ∈ S(E). Dann ist Ω ∈ A und da A beliebig war, auch<br />

Ω ∈ ⋂ {A ⊆ P(Ω) : A ∈ S(E)} = S.<br />

2. Sei A ∈ S. Dann ist A ∈ A für alle A ∈ S(E) und damit CA ∈ A für A ∈ S(E). Somit ist<br />

CA ∈ S.


1. σ-ALGEBREN UND IHRE ERZEUGER 7<br />

3. Sei A n ∈ S (n ∈ N) und A ∈ S(E). Dann ist A n ∈ A (n ∈ N) und damit auch ⋃ n∈N<br />

A n ∈ A<br />

für A ∈ S(E). Somit ist ⋃ n∈N<br />

A n ∈ S.<br />

2. S ist minimal<br />

Angenommen,<br />

⋂<br />

es gibt eine σ-Algebra  mit E ⊆  S. Dann ist  ∈ S(E) und auch S :=<br />

{A ⊆ P(Ω) : A ∈ S(E)} ⊆ Â. Das ist aber ein Widerspruch.<br />

1.5 Bemerkung und Beispiel<br />

1. Sind keine Verwechslungen zu befürchten, schreibt man auch<br />

2. Sei E ⊆ Ω Dann gilt für E := {E} :<br />

1.6 Definition<br />

σ(E) := σ Ω (E)<br />

σ(E) = {E, CE, ∅, Ω}.<br />

1. Sei Ω ein topologischer (z.B. metrischer) Raum und G(Ω) = {U ⊆ Ω : U offen} das System<br />

offener Teilmengen. Dann heißen die Elemente von<br />

B(Ω) := σ ( G(Ω) )<br />

Borel’sche Mengen in Ω. Die σ-Algebra B(Ω) heißt dann Borel’sche σ-Algebra<br />

✷<br />

2. Definiere für E ⊆ P(Ω)<br />

1.7 Bemerkung<br />

1. Sei E ein Ereignissystem.<br />

Beh: Dann gilt<br />

X −1 (E) := {X −1 (E) : E ∈ E}.<br />

σ ( σ(E) ) = σ(E).<br />

Denn: Wegen der Minimalität von σ(E) gilt für jede σ-Algebra A in Ω:<br />

A ⊇ E ⇐⇒ A ⊇ σ(E).<br />

Also:<br />

σ(σ(E)) = ⋂ {A ⊆ P(Ω) : σ(E) ⊆ A, A ist σ-Algebra}<br />

= ⋂ {A ⊆ P(Ω) : E ⊆ A, A σ-Algebra} = σ(E).<br />

2. Da in einem topologischen Raum (Ω, G(Ω)) für die Menge F(Ω) aller abgeschlossenen Mengen<br />

gilt:<br />

F(Ω) := {A ⊆ Ω : ∃U ∈ G(Ω) : A = CU}<br />

wird B(Ω) auch vom System F(Ω) der abgeschlossenen Mengen erzeugt. Ist Ω Hausdorff’sch<br />

(z.B. metrisch), so ist jede kompakte Menge abgeschlossen und damit Borel’sch.<br />


8 KAPITEL 1. MASSE UND INTEGRALE<br />

Ist überdies Ω σ-kompakt, d.h. es gibt eine Folge kompakter Mengen (K n ) n∈N ⊆ (P(Ω))N mit<br />

Ω =<br />

∞⋃<br />

K n ,<br />

so ist jede abgeschlossene Menge Vereinigung abzählbar vieler kompakter Mengen.<br />

Beh: Dann wird B(Ω) auch von allen kompakten Mengen erzeugt (z.B. Ω = R n ).<br />

Denn: Definiere<br />

C(Ω) := {K ⊆ Ω : K kompakt}.<br />

Sei A ∈ F(Ω). Dann ist für K ∈ C A ∩ K kompakt, also gilt für A ∈ F(Ω)<br />

A = A ∩ ⋃ n∈N<br />

n=1<br />

K n = ⋃ A ∩ K n ∈ σ(C(Ω))<br />

} {{ }<br />

n∈N<br />

kompakt<br />

und damit<br />

also<br />

σ(F(Ω)) ⊆ σ(σ(C(Ω))) = σ(C(Ω)) ⊆ σ(F(Ω)),<br />

σ(F(Ω)) = σ(C(Ω)).<br />

✷<br />

3. Im R n ist jedes n-dimensionale Intervall (d.h. jedes Produkt eindimensionaler, nicht notwendig<br />

beschränkter Intervalle) Schnitt eines offenen und eines abgeschlossenen Intervalles, also<br />

Borel’sch. Umgekehrt ist jede offene Menge Vereinigung aller in ihr enthaltenen<br />

1. beschränkten offenen Intervallen,<br />

2. beschränkten abgeschlossenen Intervallen,<br />

3. beschränkten halboffenen Intervallen,<br />

4. endlichen Differenzen unbeschränkter halboffener Intervalle<br />

jeweils mit komponentenweisen rationalen Endpunkten. Deshalb wird σ(R n ) von den Mengensystemen<br />

aus 1.-4. erzeugt.<br />

4. Obwohl letztlich alle in der Analysis auftretenden Mengen auch durch abzählbare Vereinigung<br />

bzw. Durchschnitt von offenen Mengen bilden lassen und damit Borel’sch sind, gibt es nicht-<br />

Borel’sche Mengen in jedem R n (siehe [BM]), die sogar alle Projektionen hochdimensionaler<br />

Borelsch’er Mengen sind (siehe [Fl], Bsp. 17.25)<br />

1.8 Satz<br />

Sei X : Ω ′ −→ Ω und E ⊆ P(Ω). Dann gilt:<br />

(<br />

X −1 (E) ) = X −1( σ Ω (E) )<br />

σ Ω ′<br />

Insbesondere ist für jede σ-Algebra A in Ω das Mengensystem X −1 (A) eine σ-Algebra in Ω ′ .<br />

Beweis.<br />

1. Sei A eine σ-Algebra in Ω<br />

Beh: X −1 (A) ist eine σ-Algebra in Ω ′ .<br />

1. Ω ′ = X −1 (Ω) ∈ X −1 (A).<br />

2. Sei A ′ ∈ X −1 (A). Dann gibt es ein A ∈ A mit A ′ = X −1 (A). Damit ist CA ′ = CX −1 (A) =<br />

X −1 (CA) ∈ X −1 (A).


1. σ-ALGEBREN UND IHRE ERZEUGER 9<br />

3. Sei A ′ n ∈ X −1 (A) (n ∈ N). Dann gibt es A n ∈ A mit A ′ n = X −1 (A n ) (n ∈ N). Damit ist<br />

⋃<br />

n∈N<br />

A ′ n = ⋃ n∈N<br />

2.<br />

Beh: σ Ω ′(<br />

X −1 (E) ) = X −1( σ Ω (E) ) .<br />

X −1 (A n ) = X −1( ⋃ )<br />

A n ∈ X −1 (A).<br />

n∈N<br />

“⊆”: Da E ⊆ σ Ω (E), ist X −1 (E) ⊆ X −1 (σ Ω (E)) und damit<br />

σ Ω ′(X −1 (E)) ⊆ σ Ω ′(X −1 (σ Ω (E))) 1.<br />

= X −1 (σ Ω (E)).<br />

“⊇”: Definiere<br />

1.9 Korollar<br />

Beh.: A ist eine σ-Algebra in Ω:<br />

A := {A ∈ σ Ω (E) : X −1 (A) ∈ σ Ω ′(X −1 (E))}.<br />

1. Ω ∈ σ Ω (E) mit X −1 (Ω) = Ω ′ ∈ σ Ω ′(X −1 (E)). Damit ist Ω ∈ A<br />

2. Sei A ∈ A Damit ist A ∈ σ Ω (E) und X −1 (A) ∈ σ Ω ′(E)), also CA ∈ σ Ω (E) und<br />

X −1 (CA) = CX −1 (A) ∈ σ Ω ′(X −1 (E)). Somit ist CA ∈ A.<br />

3. Sei A n ∈ A (n ∈ N). Damit ist A n ∈ σ Ω (E) und X −1 (A n ) ∈ σ Ω ′(X −1 (E)) (n ∈ N),<br />

also ⋃ A n ∈ σ Ω (E) und X −1( ⋃ )<br />

A n = ⋃ X −1 (A n ) ∈ σ Ω ′(X −1 (E)). Somit<br />

n∈N<br />

n∈N<br />

n∈N<br />

ist ⋃ A n ∈ A .<br />

n∈N<br />

Also ist A eine σ-Algebra und es gilt E ⊆ A ⊆ σ Ω (E), also σ(E) ⊆ σ(A) = A ⊆ σ Ω (E)<br />

und somit A = σ(E). Für A ∈ σ Ω (E) ist also X −1 (A) ∈ σ Ω ′(X −1 (E)) und damit<br />

X −1 (σ Ω (E)) ⊆ σ Ω ′(X −1 (E)).<br />

Sei A ⊆ Ω und E ⊆ P(Ω). Definiere die Spur von E in A durch<br />

Dann gilt:<br />

1. A ∩ σ Ω (E) = σ A (A ∩ E).<br />

A ∩ E := {A ∩ E; E ∈ E}.<br />

2. Ist A eine σ−Algebra in Ω, so ist die Spur A ∩ A von A in A eine σ-Algebra in A. Falls A ∈ A,<br />

so ist A ∩ A = {B ∈ A : B ⊆ A}.<br />


10 KAPITEL 1. MASSE UND INTEGRALE<br />

Beweis:<br />

1. Definiere X als die kanonische Injektion<br />

X :<br />

{<br />

A → Ω<br />

ω ↦→ ω.<br />

Dann ist<br />

also<br />

X −1 (E) = {X −1 (E) : E ∈ E} = {A ∩ E : E ∈ E} = A ∩ E,<br />

A ∩ σ Ω (E) = X −1 (σ Ω (E)) 1.8<br />

= σ A (X −1 (E)) = σ A (A ∩ E).<br />

2.<br />

Beh: Ist A ∈ A so gilt A ∩ A = {B ∈ A : B ⊆ A}<br />

“⊆”: Sei E ∈ A ∩ A. Dann gibt es ein  ∈ A mit E = A ∩ Â, also E ∈ A und E ⊆ A.<br />

“⊇”: Sei E ∈ A und E ⊆ A. Dann gilt E = A ∩ E ∈ A ∩ A.<br />

1.10 Korollar<br />

Sei Ω ein topologischer Raum und A ⊆ Ω. Dann sind die Borel’schen Mengen eines Unterraumes<br />

A genau die Elemente der Spur von B(Ω) in Ω, d.h.<br />

B(A) = A ∩ B(Ω).<br />

✷<br />

Beweis: Es gilt<br />

1.11 Beispiele<br />

B(A) 1.6<br />

= σ(G(A)) = σ(A ∩ G(Ω)) 1.9<br />

= A ∩ σ(G(Ω)) 1.6<br />

= A ∩ B(Ω).<br />

1. B(R) := σ R {(−∞; α〉, α ∈ R} = σ R {〈α; ∞), α ∈ R} mit 〈∈ { [, ( } , 〉 ∈ { ], ) } .<br />

2. Versieht man R = [−∞; ∞] mit der Metrik, die die Schränkungstransformation<br />

⎧<br />

⎪⎨ ∞, x = 1<br />

1<br />

g : x ↦−→<br />

1−||x||<br />

x ∈] − 1; 1[<br />

⎪⎩<br />

−∞ x = −1<br />

zu einer Isometrie macht, so ist bekanntlich R homöomorph zu [−1; 1] und R ein affiner Teilraum<br />

von R, also<br />

B(R) = R ∩ B(R) = {A ∈ B(R) : A ⊆ R},<br />

B(R) = { B ∪ A : B ∈ B(R), A ⊆ {−∞, ∞} } ,<br />

B(R) = σ R<br />

{<br />

[−∞; α〉, α ∈ R<br />

}<br />

= σR<br />

{<br />

〈α; ∞] : α ∈ R<br />

}<br />

.<br />


2. MASSE 11<br />

2 Maße<br />

Sei stets Ω ≠ ∅ eine beliebige Menge.<br />

2.1 Definition<br />

1. Ein Mengensystem R ⊆ P(Ω) heißt Ring in Ω, wenn gilt:<br />

1. ∅ ∈ R,<br />

2. A, B ∈ R ⇒ A ∩ B ∈ R,<br />

3. A, B ∈ R ⇒ A ∪ B ∈ R,<br />

4. A, B ∈ R ⇒ A \ B ∈ R.<br />

2. Sei R ein Ring in Ω. Eine Mengenfunktion µ : R → [0; ∞] heißt Inhalt bzw. Prämaß, wenn gilt:<br />

1. µ[∅] = 0,<br />

2. Für A i ∈ R (i ∈ I) paarweise fremd und ⋃ A i ∈ R ist für endliches bzw. abzählbares I<br />

i∈I<br />

[ ⊎ ]<br />

µ A i = ∑ µ[A i ] (Additivität bzw. σ-Additivität).<br />

i∈I<br />

i∈I<br />

3. Ein Prämaß m : A → [0; ∞] auf einer σ-Algebra A heißt Maß.<br />

4. Ein Inhalt µ : R → [0; ∞] heißt semiendlich, falls<br />

µ[A] = sup{µ[K] : K ∈ R, K ⊆ A, µ[K] < ∞}.<br />

5. Ein Maß m heißt endlich, falls<br />

m[Ω] < ∞.<br />

6. Ein Maß m heißt Wahrscheinlichkeitsmaß, falls<br />

m[Ω] = 1<br />

7. Ein Tripel (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls A ein σ-Algebra und P ein Wahrscheinlichkeitsmaß<br />

auf A ist.<br />

2.2 Bemerkungen<br />

1. Jede σ-Algebra ist ein Ring.<br />

2. Sei R ein Ring und µ : R → [0; ∞] Dann gilt:<br />

µ Prämaß =⇒ µ Inhalt.<br />

3. Sei m : A → [0; ∞] ein Maß, d.h. A ist eine σ-Algebra. Dann gilt:<br />

m Wahrscheinlichkeitsmaß =⇒ m endlich =⇒ m semiendlich.


12 KAPITEL 1. MASSE UND INTEGRALE<br />

2.3 Satz<br />

Jeder Inhalt µ : R → [0; ∞] hat folgende Eigenschaften:<br />

3. A, B ∈ R : A ⊆ B ⇒ µ[A] ≤ µ[B] (Isotonie)<br />

4. A, B ∈ R, A ⊆ B, µ[A] < ∞ ⇒ µ[B \ A] = µ[B] − µ[A] Subtraktivität<br />

5. A, B ∈ R ⇒ µ[A ∪ B] + µ[A ∩ B] = µ[A] + µ[B] (starke Additivität)<br />

A, B ∈ R ⇒ µ[A ∪ B] ≤ µ[A] + µ[B] (Subadditivität)<br />

Beweis:<br />

3. es gilt<br />

µ[A] ≤ µ[A] + B \ A = µ[A ⊎ (B \ A)] = µ[B].<br />

} {{ }<br />

≥0<br />

4. Es ist µ[A] + µ[B \ A] = µ[B], also µ[B \ A] = µ[B] − µ[A].<br />

5. Es gilt<br />

µ[A ∪ B] + µ[A ∩ B] = µ[A ⊎ (B \ A)] + µ[A ∩ B]<br />

= µ[A] + µ[B \ A] + µ[A ∩ B] = µ[A] + µ[A ∩ CB] + µ[A ∩ B]<br />

= µ[A] + µ[(A ∩ CB] ⊎ (A ∩ B)] = µ[A] + µ[B]<br />

und, falls µ[A ∩ B] < ∞<br />

µ[A ∪ B] = µ[A] + µ[B] − µ[A ∩ B] ≤ µ[A] + µ[B].<br />

Im Fall µ[A ∩ B] = ∞ ist µ[A] = µ[B] = µ[A ∪ B] = ∞ und damit µ[A ∪ B] = µ[A] + µ[B].<br />


2. MASSE 13<br />

2.4 Hauptsatz<br />

1. Sei µ : R −→ [0; ∞] ein Inhalt. Dann gilt:<br />

µ ist ein Prämaß ⇐⇒ µ stetig von unten, d.h.<br />

[<br />

⋃ ∞<br />

(A n ) n∈N ∈ R N , A n ↑ A ∈ R ⇒ µ<br />

Dann ist µ auch stetig von oben:<br />

n=1<br />

[<br />

⋂ ∞<br />

(A n ) n∈N ∈ R N , A n ↓ A ∈ R, µ[A 1 ] < ∞ ⇒ µ<br />

2. Sei µ : R → [0; ∞] ein semiendlicher Inhalt. Dann sind äquivalent:<br />

1. µ ist ein Prämaß,<br />

2. µ ist stetig von unten,<br />

3. µ ist stetig von oben,<br />

4. µ ist stetig von oben in ∅.<br />

3. Ist µ : R → [0; ∞] ein Prämaß, so ist µ σ-subadditiv, d.h.<br />

]<br />

A n = sup µ[A n ].<br />

n∈N<br />

n=1<br />

A n<br />

]<br />

= inf<br />

n∈N µ[A n].<br />

(A n ) n∈N ∈ R N ,<br />

n⋃<br />

i=1<br />

[ ⋃<br />

∞<br />

A i ↑ A ∈ R ⇒ µ<br />

n=1<br />

A n<br />

]<br />

≤<br />

∞∑<br />

µ[A n ].<br />

n=1<br />

Beweis:<br />

1. “ ⇒ ”: Sei (A n ) n∈N ∈ R N , A n ↑ A ∈ R.<br />

Definiere<br />

B 1 := A 1 , B n+1 := A n+1 \ A n<br />

(n ∈ N).<br />

Dann ist B i ∩ B j = ∅ (i ≠ j) und<br />

[ ⋃<br />

∞<br />

µ<br />

n=1<br />

] [ ⊎<br />

∞<br />

A n = µ<br />

n=1<br />

B n<br />

]<br />

=<br />

= µ[A 1 ] + lim<br />

∞⋃ ∞⊎<br />

A n = B n , also, da µ ein Prämaß ist<br />

n=1<br />

∞∑<br />

µ[B n ]<br />

n=1<br />

n∑<br />

n→∞<br />

i=1<br />

n=1<br />

(<br />

µ[Ai+1 ] − µ[A i ] ) = lim<br />

n→∞ µ[A n]<br />

= sup µ[A n ].<br />

n∈N<br />

“ ⇐ ”: Sei (B n ) n∈N ∈ R N , B i ∩ B j = ∅ (i ≠ j),<br />

∞⊎<br />

B n ∈ R. Definiere<br />

n=1<br />

n⊎<br />

A n := B i .<br />

i=1


14 KAPITEL 1. MASSE UND INTEGRALE<br />

Dann ist A n ↑<br />

Stetigkeit von oben:<br />

∞⊎<br />

B n und damit, da µ stetig von unten ist,<br />

n=1<br />

[ ⊎<br />

∞<br />

µ<br />

n=1<br />

] [ ⋃<br />

∞<br />

B n = µ<br />

=<br />

n=1<br />

∞∑<br />

µ[B n ].<br />

n=1<br />

]<br />

A n = sup µ[A n ] = sup<br />

n∈N<br />

n∈N<br />

n∑<br />

µ[B i ]<br />

Sei (A n ) n∈N ∈ R N , A n ↓ A ∈ R, µ[A 1 ] < ∞. Dann ist A 1 \ A n ↑ A 1 \ A und damit<br />

(<br />

µ[A 1 ] − µ[A] = µ[A 1 \ A] = sup µ[A 1 \ A n ] = sup µ[A1 ] − µ[A n ] )<br />

n∈N<br />

n∈N<br />

= µ[A 1 ] − inf µ[A n],<br />

n∈N<br />

also µ [ ∞ ⋂<br />

n=1<br />

A n<br />

]<br />

= µ[A] = inf<br />

n∈N µ[A n].<br />

2. “1. ⇔ 2. ⇒ 3.”: siehe 1.<br />

“3. ⇒ 4.”: nichts zu zeigen<br />

“4. ⇒ 2.”: Sei (A n ) n∈N ∈ R N , A n ↑ A ∈ R<br />

[ ⋃<br />

∞ ]<br />

Beh: µ A n = sup µ[A n ]<br />

n∈N<br />

n=1<br />

“≥”: Es gilt ⋃ i∈N<br />

A i ⊇ A n<br />

i=1<br />

(n ∈ N). Also ist µ [ ⋃ ]<br />

A i ≥ µ[An ] (n ∈ N) und damit<br />

µ [ ∞ ⋃<br />

n=1<br />

i∈N<br />

]<br />

A n ≥ sup µ[A n ].<br />

n∈N<br />

“≤”: Da µ semiendlich ist, gibt es für jedes α mit 0 < α < µ[A] eine Menge<br />

K α ∈ R mit<br />

K α ⊆ A und α < µ[K α ] < ∞.<br />

Außerdem ist dann<br />

K α \ A n ∈ R und K α \ A n ↓ K α \ A = ∅.<br />

Da µ stetig von oben in ∅ ist, gilt inf<br />

n∈N µ[K α \ A n ] = 0 und<br />

und damit<br />

µ[A n ] ≥ µ[A n ∩ K α ] = µ[K α ] − µ[K α \ A n ]<br />

sup µ[A n ] ≥ µ[K α ] − inf µ[K α \ A n ] = µ[K α ] > α,<br />

n∈N<br />

n∈N<br />

also, da 0 < α < µ[A] beliebig war,<br />

sup µ[A n ] ≥ µ[A] = µ [ ⋃<br />

∞ ]<br />

A n .<br />

n∈N<br />

n=1


2. MASSE 15<br />

3. Sei (A n ) n∈N ∈ R N ,<br />

n⋃<br />

A i ↑ A ∈ R<br />

i=1<br />

[ ⋃<br />

n ]<br />

Mit 2.3.5 zeigt man induktiv µ A i ≤<br />

Mit 1. gilt:<br />

[ ⋃<br />

∞<br />

µ<br />

n=1<br />

i=1<br />

n∑<br />

µ[A i ]<br />

i=1<br />

] [ ⋃<br />

n ]<br />

A n = sup µ A i ≤ sup<br />

n∈N<br />

i=1<br />

n∈N<br />

(n ∈ N).<br />

n∑<br />

∞∑<br />

µ[A i ] = µ[A n ].<br />

i=1<br />

n=1<br />

✷<br />

2.5 Beispiele<br />

Sei R ein Ring in Ω und µ : R → [0; ∞].<br />

1. m = 0 ist ein Maß.<br />

2. m : A ↦−→ |A| ist ein semiendliches Maß.<br />

{<br />

0, A = ∅<br />

3. m : A ↦→<br />

ist ein Maß, aber i.A. nicht semiendlich.<br />

∞, A ≠ ∅<br />

4. Sei Ω überabzählbar, z.B. Ω = R und<br />

A := {A ⊆ Ω : A abzählbar ∨ CA abzählbar}<br />

die σ-Algebra in Ω aus 1.3.2.<br />

Beh: Dann ist<br />

ein Wahrscheinlichkeitsmaß .<br />

Denn:<br />

m : A ↦→<br />

{<br />

0, A = abzählbar<br />

1, CA abzählbar<br />

1. µ[∅] = 0 ist klar.<br />

2. Zum Beweis der σ-Additivität sei (A n ) n∈N ∈ A N paarweise fremd. Dann gibt es zwei Fälle:<br />

• Alle A n sind abzählbar.<br />

Dann ist ⊎ n∈N<br />

A n abzählbar und<br />

m [ ⊎ ] ∑<br />

A n = 0 =<br />

n∈N<br />

n∈N<br />

0 = ∑ n∈N<br />

m[A n ].<br />

• Es gibt ein k ∈ N, so dass CA k abzählbar ist.<br />

Dann ist A n abzählbar (n ≠ k), denn falls es ein k ′ ≠ k gibt, so dass CA k ′ abzählbar ist,<br />

so ist<br />

A k ∩ A k ′ = C ( )<br />

CA k ∪ CA k ′ ,<br />

} {{ }<br />

abzählbar<br />

also überabzählbar, insbesondere also A k ∩ A k ′ ≠ ∅, d.h. ein Widerspruch.<br />

Damit ist C ⊎ A n = ⋂ CA n ⊆ CA k abzählbar , also<br />

n∈N n∈N<br />

m [ ⊎<br />

n∈N<br />

A n<br />

]<br />

= 1 = m[Ak ] + ∑ n≠k<br />

m[A n ] = ∑ n∈N<br />

m[A n ].


16 KAPITEL 1. MASSE UND INTEGRALE<br />

3. Sei A eine σ-Algebra in Ω und a ∈ Ω, Dann ist<br />

{<br />

1, a ∈ A<br />

ɛ a : A ↦→<br />

0, a /∈ A<br />

ein Wahrscheinlichkeitsmaß auf Ω, das Dirac-Maß von a, bzw. die Einheitsmasse<br />

die singuläre Verteilung von a.<br />

4. Sei A eine σ-Algebra auf Ω, m ein Maß auf A, A ∈ A mit m[A] > 0. Dann ist<br />

bzw.<br />

m A<br />

m[A] : ⎧<br />

⎨<br />

⎩<br />

m A<br />

m[A] : ⎧<br />

⎨<br />

⎩<br />

A −→ [0; ∞]<br />

B ↦−→<br />

m[A ∩ B]<br />

m[A]<br />

A ∩ A −→ [0; ∞]<br />

A ∩ B ↦−→<br />

m[A ∩ B]<br />

m[A]<br />

=: m[B|A]<br />

=: m[B|A]<br />

in a, bzw.<br />

ein Wahrscheinlichkeitsmaß auf A bzw. auf A ∩ A. Man spricht hierbei auh von ’Massentilgung<br />

außerhalb von A’. Man sagt, m[B|A] ist die ’bedingte Wahrscheinlichkeit von B unter der<br />

Hypothese A.<br />

2.6 Satz (Bayes’sche Formel)<br />

Sei (Ω, A, P) ein Wahrscheinlichkeitsraum mit A 1 , . . . , A n+1 ∈ A, (B n ) ∈ A N .<br />

1. Ist P[A 1 ∩ . . . ∩ A n ] > 0, so gilt<br />

P [ A 1 ∩ . . . ∩ A n+1<br />

]<br />

= P[A1 ] · P[A 2 |A 1 ] · . . . · P[A n+1 |A n ].<br />

2. Ist A ⊆ ⋃ n∈N<br />

B n , so gilt<br />

P[A] = ∑ n∈N<br />

P[B n ] · P[A|B n ]<br />

und<br />

P[B n |A] = P[B n] · P[A|B n ]<br />

P[A]<br />

= P[B n] · P[A|B n ]<br />

∑<br />

P[B k ] · P[A|B k ] .<br />

k∈N<br />

Beweis: Analog dem Beweis aus der elementaren <strong>Wahrscheinlichkeitstheorie</strong>.<br />

2.7 Bemerkungen<br />

Sei A eine σ-Algebra in Ω.<br />

1. Mit m 1 und m 2 sind auch m 1 +m 2 und αm 1 (α ∈ R + ) Maße.<br />

2. Ist (m i ) i∈I eine aufsteigend filtrierende Menge von Maßen auf A, d.h. für jedes Paar i, j ∈ I<br />

gibt es ein k ∈ I mit<br />

m i , m j ≤ m k .<br />

Beh.: Dann ist<br />

m := sup<br />

i∈I<br />

m i : A ↦→ sup m i [A]<br />

i∈I<br />

ein Maß auf A.<br />

Denn: Wegen 2.4 genügt es zu zeigen, daß sup m i ein von unten stetiger Inhalt ist.<br />

i∈I


2. MASSE 17<br />

1. m[∅] = 0 ist klar.<br />

2. Seien A 1 , . . . , A n ∈ A paarweise fremd. Dann ist<br />

( )[ ⊎<br />

n<br />

sup m i<br />

i∈I<br />

k=1<br />

] [ ⊎<br />

n<br />

A k = sup m i<br />

i∈I<br />

k=1<br />

3. Sei (A n ) n∈N ∈ A N , A n ↑ A. Dann ist<br />

Insbesondere ist<br />

ein Maß.<br />

sup<br />

i∈I<br />

m i [A] = sup<br />

i∈I<br />

∑<br />

i∈I<br />

sup<br />

n∈N<br />

A k<br />

]<br />

= sup<br />

i∈I<br />

m i : A ↦→ sup<br />

J⊆I<br />

n∑<br />

m i [A k ] =<br />

k=1<br />

n∑<br />

k=1<br />

m i [A n ] = sup sup m i [A n ].<br />

n∈N i∈I<br />

endl.<br />

j∈J<br />

∑<br />

m j [A]<br />

sup m i [A k ].<br />

i∈I<br />

Zum Beispiel bei diskreten Maßen: ∑ n∈N<br />

a n ɛ αn ist für a n ∈ R + , α n ∈ Ω wieder ein Maß. Ist Ω<br />

höchstens abzählbar, a n = 1 (n ∈ N) und {α n : n ∈ N} = Ω, so spricht man vom Zählmaß auf<br />

Ω.<br />

4. Wir zeigen später, dass es genau ein Maß λ n auf B(R n ) gibt mit<br />

[ n∏<br />

]<br />

λ n ∏<br />

[a i ; b i ] = n (b i − a i ).<br />

i=1<br />

Dabei heißt λ n Lebesgue-Borel’sches Maß. Jede einpunktige und damit jede abzählbare Menge<br />

in R n hat λ n -Maß 0.<br />

i=1


18 KAPITEL 1. MASSE UND INTEGRALE<br />

3 Meßbare Abbildungen und Funktionen<br />

Seien stets Ω, Ω ′ Mengen mit σ-Algebren A bzw A ′ in Ω bzw. Ω ′ , kurz Messräume (Ω, A), (Ω ′ , A ′ ).<br />

3.1 Definition<br />

Eine Abbildung X : Ω → Ω ′ heißt A − A ′ -messbar oder Zufallsvariable, wenn X −1 (A ′ ) ⊆ A. Wir<br />

bezeichnen mit<br />

L 0 (Ω, A) := L 0 (Ω, A, R) := {f : Ω → R; fA − B(R) − messbar}<br />

die Menge aller messbaren Abbildungen.<br />

3.2 Bemerkung<br />

1. Sind B ⊇ A bzw. B ′ ⊆ A ′ , so ist jede A − A ′ -messbare Abbildung auch B − B ′ -messbar.<br />

2. Sei X : Ω → Ω ′ eine Zufallsvariable. Gemäß 1.8 ist X −1 (A ′ ) eine σ-Algebra in Ω und offenbar<br />

die kleinste σ-Algebra A in Ω, so dass X A − A ′ -messbar ist.<br />

3. In der Stochastik bedeutet, dass eine Abbildung eine Zufallsvariable ist, dass die Ereignisse<br />

’durch’ X beschreibbar sind.<br />

{X ⊆ A ′ } := {ω ∈ Ω : X(ω) ∈ A ′ } = X −1 (A ′ ) (A ′ ∈ A ′ )<br />

Also ist X genau dann eine Zufallsvariable, wenn die durch X beschreibbaren ’Ereignisse’ in A)<br />

sind.<br />

3.3 Satz<br />

Sei E ′ ⊆ P(Ω ′ ) mit σ Ω ′(E ′ ) = A ′ . Dann gilt für eine Abbildung X : Ω → Ω ′ :<br />

X ist A − A ′ -messbar ⇐⇒ X −1 (E ′ ) ⊆ A.<br />

Beweis:<br />

”⇒”: klar nach 3.1.<br />

”⇐”: Ist X −1 (E ′ ) ⊆ A, so auch σ Ω (X −1 (E ′ )) ⊆ σ Ω (A) = A und damit<br />

X −1 (A ′ ) = X −1 (σ Ω ′(E ′ )) 1.8<br />

= σ Ω (X −1 (E ′ )) ⊆ A.<br />

✷<br />

3.4 Beispiel<br />

Seien Ω, Ω ′ topologische Räume mit Systemen G(Ω), G(Ω ′ ) ihrer offenen Teilmengen, so gilt nach<br />

Definition für jede Abbildung X : Ω → Ω ′ :<br />

X stetig ⇐⇒ X −1( G(Ω ′ ) ) ⊆ G(Ω)<br />

Also ist nach 3.3 jede stetige Abbildung X B(Ω) − B(Ω ′ ) Borel-messbar.


3. MESSBARE ABBILDUNGEN UND FUNKTIONEN 19<br />

3.5 Satz<br />

Seien (Ω i , A i ) Messräume (i = 1, 2, 3), X 1 : Ω 1 → Ω 2 , X 2 : Ω 2 → Ω 3 A 1 − A 2 - bzw. A 2 − A 3 -<br />

messbar.<br />

Dann ist X 2 ◦ X 1 : Ω 1 → Ω 3 A 1 − A 3 -messbar.<br />

Beweis: Sei A ∈ A 3 . Dann gilt (X 2 ◦ X 1 ) −1 (A) = X1 −1 (X−1 2<br />

} {{ (A) ) ∈ A 1 . ✷<br />

}<br />

∈A 2<br />

3.6 Satz (Restriktion und Zusammensetzung messbarer Abbildungen)<br />

1. Sei X : Ω → Ω ′ messbar und A ⊆ Ω. Dann ist X| A A ∩ A − A ′ -messbar<br />

2. Sei I höchstens abzählbar, (A i ) i∈I ∈ A I , X : ⋃ i∈I<br />

A i → Ω ′ Dann gilt:<br />

X| Ai A i ∩ A − A ′ -messbar (i ∈ I) ⇒ X<br />

( ⋃<br />

i∈I<br />

A i<br />

)<br />

∩ A − A ′ -messbar.<br />

Ist insbesondere ⋃ i∈I<br />

A i = Ω, so gilt:<br />

X| Ai A i ∩ A − A ′ -messbar (i ∈ I) ⇒ X A − A ′ -messbar.<br />

Beweis:<br />

1. Für A ′ ∈ A ′ ist (X| A ) −1 (A ′ ) = A ∩ X −1 (A ′ ) ∈ A ∩ A.<br />

2. Für A ′ ∈ A ′ ist<br />

A i ∩ X −1 (A ′ ) = (X| Ai ) −1 (A ′ ) ∈ A i ∩ A ⊆ A<br />

(i ∈ I).<br />

Damit gilt<br />

( ⋃ ) ( ⋃ )<br />

X −1 (A ′ ) = A i ∩ X −1 (A ′ ) ∈ A i ∩ A.<br />

i∈I<br />

i∈I<br />

✷<br />

3.7 Definition<br />

Eine Funktion f : Ω → R heißt (A)-messbar oder Borel-messbar, wenn f A − B(R)-messbar ist.<br />

3.8 Beispiel<br />

Für A ⊆ Ω heißt<br />

1 A : ω ↦→<br />

{<br />

1, ω ∈ A<br />

0, ω ∈ CA<br />

Indikatorfunktion von A. Damit ist (1 A ) −1 (B(R)) = {∅, Ω, A, CA}. Also gilt:<br />

1 A ist messbar ⇐⇒ A ∈ A ⇐⇒ A messbar.


20 KAPITEL 1. MASSE UND INTEGRALE<br />

3.9 Hauptsatz<br />

Für jede Funktion f : Ω → B ∈ B(R) sind äquivalent:<br />

1. f ist A − B(R)-messbar,<br />

2. f ist A − B ∩ B(R)-messbar,<br />

3. {f < α} ∈ A für alle α ∈ R.<br />

In 3. kann man dabei ’’,’≤’ oder ’≥’ ersetzen.<br />

Beweis:<br />

“1. ⇒ 2.”: Ist klar, da B ∩ B(R) ⊆ B(R).<br />

⎧<br />

[−∞, α] für ’ ≤ ’,<br />

⎪⎨<br />

[−∞, α) für ’ < ’,<br />

“2. ⇒ 3.”: Sei α ∈ R und C α :=<br />

[α; ∞] für ’ ≥ ’,<br />

⎪⎩<br />

(α; ∞] für ’ > ’.<br />

Im Fall ’ α} ∈ A<br />

und<br />

{g ≤ f} = C{f < g} ∈ A.<br />

Durch Vertauschen von f und g folgt die Behauptung bis auf<br />

{f = g} = {f ≤ g} ∩ {g ≤ f} ∈ A<br />

und<br />

{f ≠ g} = C{f = g} ∈ A.<br />


3. MESSBARE ABBILDUNGEN UND FUNKTIONEN 21<br />

3.12 Erweiterung von Ordnung, Addition, Multiplikation auf R<br />

1. Erweiterung von Addition und Multiplikation.<br />

{<br />

∞, α = +∞, β = −∞<br />

α + β = β + α =<br />

±∞, α ∈ R, β = ±∞<br />

⎧<br />

⎪⎨ ±∞, α > 0, β = ±∞<br />

α · β = β · α = ∓∞, α < 0, β = ±∞<br />

⎪⎩<br />

0, α = 0, β = ±∞<br />

Man beachte, dass i.A. −(α + β) ≠ −α − β gilt.<br />

Die Distributivgesetze gelten weiterhin, d.h.<br />

(α + β)γ = αγ + βγ (α, β ∈ R, γ ∈ R + ),<br />

α(β + γ) = αβ + αγ<br />

(α ∈ R + , β, γ ∈ R).<br />

Die Division wird erweitert durch:<br />

{<br />

1<br />

α := 0, α = ±∞<br />

∞, α = 0<br />

mit β α := β · 1<br />

α .<br />

2. Die Ordnung wird erweitert durch<br />

−∞ < α < ∞<br />

(α ∈ R).<br />

Es gelten die Regeln<br />

α ≤ β ⇒<br />

{<br />

α + γ ≤ β + γ (α, β, γ ∈ R),<br />

ρα ≤ ρβ (α, β ∈ R, ρ ∈ R + ).<br />

3. Die Potenz wird erweitert durch β α = ∞ für β = ∞, α ∈ [0; ∞].<br />

4. Die Ausnahmeregeln sind somit<br />

5. Damit sind die Abbildungen:<br />

Addition: + :<br />

Multiplikation: · :<br />

Division: ÷ :<br />

∞ − ∞ = −∞ + ∞ = ∞,<br />

0 · ∞ = ∞ · 0 = 0,<br />

0 · (−∞) = (−∞) · 0 = 0,<br />

∞<br />

∞ = 0,<br />

∞ 0 = ∞.<br />

{<br />

R × R<br />

→ R<br />

(α, β) ↦→ α + β,<br />

{<br />

R × R<br />

→ R<br />

(α, β) ↦→ α · β,<br />

{<br />

R → R<br />

α ↦→ 1 α , bzw. ÷ :<br />

weiterhin stetige, also insbesondere messbare Abbildungen.<br />

{<br />

R × R → R<br />

(α, β) ↦→ β α ,


22 KAPITEL 1. MASSE UND INTEGRALE<br />

3.13 Satz<br />

Sind f, g : Ω → R messbar, so auch<br />

f + g, αf für α ∈ R, fg, f g , |f|α für α ∈ (0; ∞)<br />

Beweis: Die Abbildung<br />

h :<br />

{<br />

Ω<br />

ω<br />

→ R × R<br />

↦→ (f(ω), g(ω))<br />

ist A − B(R × R)-messbar, denn es gilt<br />

h −1 ([−∞; α] × [∞; β]) = {f ≤ α} ∩ {g ≤ β} ∈ A<br />

(α, β ∈ R).<br />

Die Komposition mit den obigen stetigen, also messbaren Abbildungen liefert die Behauptung. ✷<br />

3.14 Satz<br />

Für jede Folge (f n ) n∈N ∈ (L 0 (Ω, A)) N ist<br />

inf f n : ω ↦→ inf f n(ω),<br />

n∈N n∈N<br />

sup<br />

n∈N<br />

f n : ω ↦→ sup f n (ω),<br />

n∈N<br />

lim inf<br />

n→∞ f n,<br />

lim sup f n ,<br />

n→∞<br />

und falls, f n in R konvergiert, auch lim<br />

n→∞ f n eine messbare Funktion.<br />

Beweis: Es gilt<br />

{ inf f n ≥ α} = ⋂ {f n ≥ α} ∈ A (α ∈ R).<br />

n∈N<br />

n∈N<br />

Beachtet man<br />

sup f n = − inf −f n ,<br />

n∈N<br />

lim inf f n = sup inf<br />

n→∞<br />

,<br />

n∈N k≥n<br />

lim inf f n = sup<br />

n→∞<br />

inf<br />

f k<br />

n∈N k≥n<br />

und, falls existent,<br />

so folgt die Behauptung.<br />

lim f n = lim inf f n = lim sup f n ,<br />

n→∞ n→∞<br />

n→∞<br />

✷<br />

3.15 Korollar<br />

Eine Funktion f ist genau dann messbar, wenn ihr Positivteil f + := sup(f, 0) und ihr Negativteil<br />

f − := sup(−f, 0) bzw. f − := inf(f, 0) messbar sind. Dann ist auch |f| messbar.<br />

Beweis: Da f messbar und 0 messbar sind, sind auch f + , f − , f − messbar. Umkegekhrt sind f +<br />

und f − genau dann messbar, wenn f + und f − messbar sind. Wegen f = f + + f − = f + − f − und<br />

|f| = f + + f − = sup(f, −f) folgt die Behauptung.<br />

✷<br />

3.16 Bemerkungen und Bezeichnungen<br />

1. Für f, g : Ω → R und f n : Ω → R (n ∈ N) bedeutet:<br />

• f ≤ g :⇔ f(ω) ≤ g(ω) (ω ∈ Ω),<br />

• f n ↑ f :⇔ f n ≤ f n+1 (n ∈ N) und f = sup n∈N f n ,<br />

• f n ↓ f :⇔ f n ≥ f n+1 (n ∈ N) und f = inf n∈N f n .


3. MESSBARE ABBILDUNGEN UND FUNKTIONEN 23<br />

2. Rechenregeln für Indikatorfunktionen<br />

Für A, B, (A n ) n∈N ∈ Ω N gilt:<br />

• A ⊆ B ⇔ 1 A ≤ 1 B ,<br />

• A n ↑ A ⇔ A n ⊆ A n+1 (n ∈ N) ∧ A = ⋃ A n ⇔ 1 An ↑ 1 A ,<br />

n∈N<br />

• A n ↓ A ⇔ A n ⊇ A n+1 (n ∈ N) ∧ A = ⋂ n∈N<br />

A n ⇔ 1 An ↓ 1 A ,<br />

• 1 ⋃<br />

n∈N<br />

= sup 1 An , 1 ⋂<br />

A n n∈N<br />

n∈N<br />

A n<br />

= inf<br />

n∈N 1 A n<br />

,<br />

• 1 A∪B + 1 A∩B = 1 A + 1 B , 1 A\B = 1 A − 1 A∩B , 1 CA = 1 − 1 A ,<br />

• A = ⊎ i∈I<br />

A i<br />

⇔ 1 A = ∑ i∈I<br />

1 Ai .<br />

3. Eine Menge F ⊆ R Ω von Funktionen heißt<br />

• Funktionenkegel, falls<br />

f + g ∈ F, αf ∈ F (f, g ∈ F, α ∈ R + ),<br />

• Funktionenraum oder Vektorraum reeller Funktionen , falls F ⊆ R Ω , ein Funktionenkegel<br />

ist mit −F ⊆ F (d.h. f ∈ F ⇒ −f ∈ F ).<br />

• Verband, wenn<br />

inf(f, g), sup(f, g) ∈ F (f, g ∈ F ).<br />

• Ein Verband, der Funktionenkegel ist, heißt Kegelverband.<br />

• Ein Verband, der Funktionenraum ist, heißt Vektorverband.<br />

• Ferner sei<br />

F + := {f ∈ F : f ≥ 0}<br />

F σ := {f ∈ R Ω : ∃(f n ) n∈N ∈ F N : f n ↑ f}.<br />

4. Mit F sind auch F + und F σ Verbände bzw. Kegelverbände.<br />

5. Beh.: Ist F ein Verband, so gilt (F σ ) σ = F σ .<br />

Denn:<br />

“⊇”: Ist klar.<br />

“⊆”: Sei (f n ) n∈N ∈ (F σ ) N mit f n ↑ f. Damit gibt es Folgen (g nk ) k∈N ∈ F N mit g nk ↑ f n .<br />

Mit g n := sup k≤n g nk ∈ F und g n ↑ f folgt f ∈ F σ .<br />

✷<br />

3.17 Definition<br />

Sei R ⊆ A ein Ring. Eine R-Treppenfunktion ist eine Funktion<br />

t = ∑ i∈I<br />

α i 1 Ai<br />

mit I endlich, (α i ) i∈I ∈ R I und (A i ) i∈I ∈ R I . Wir definieren T (Ω, R) als die Menge aller R-<br />

Treppenfunktionen.


24 KAPITEL 1. MASSE UND INTEGRALE<br />

3.18 Lemma<br />

Seien s, t, ∈ T (Ω, R) zwei R-Treppenfunktionen.<br />

1. Dann besitzen s und t eine geimeinsame Normaldarstellung, d.h. es gibt eine endliche Indexmenge<br />

I und (σ i ) i∈I , (ρ i ) i∈I ∈ R I (R i ) i∈I ∈ R I parweise fremd, so dass<br />

s = ∑ i∈I<br />

σ i 1 Ri ,<br />

t = ∑ i∈I<br />

ρ i 1 Ri .<br />

2. Es gilt {s > t}, {s < t}, {s = t}, {s < 0}, {s > 0}, {s = 0} ∈ R.<br />

Beweis:<br />

1. Sei<br />

s = ∑ i∈I s<br />

α i 1 Ai ,<br />

t = ∑ j∈I t<br />

β j 1 Bj<br />

mit I s , I t endlich, (α i ) i∈Is ∈ R Is , (β j ) j∈It ∈ R It und (A i ) i∈Is ∈ (R) Is , (B j ) j∈It ∈ (R) It .<br />

Definiere nun<br />

R ij := A i ∩ B j ∈ R ((i, j) ∈ I s × I t ).<br />

Dann sind die R ij paarweise fremd und es gilt<br />

∑<br />

s = α i R ij , t =<br />

(i,j)∈I s×I t<br />

Nun folgt die Behauptung mit<br />

σ ij = α i , ρ ij = β j<br />

((i, j) ∈ I).<br />

∑<br />

(i,j)∈I s×I t<br />

β j R ij .<br />

2. Sei<br />

s = ∑ i∈I<br />

σ i 1 Ri ,<br />

t = ∑ i∈I<br />

ρ i 1 Ri<br />

eine gemeinsame Normaldarstellung von s und t. Dann gilt<br />

und analog für die anderen Fälle.<br />

{s > t} = ⋃ i∈I<br />

σ i >ρ i<br />

R i ∈ R,<br />

{s > 0} := ⋃ i∈I<br />

σ i >0<br />

R i<br />

✷<br />

3.19 Satz<br />

1. Der Raum T (Ω, R) ist ein Vektorverband messbarer Funktionen.<br />

2. Der Raum T (Ω, A) ist der Vektorverband der A-messbaren Funktionen, die nur endlich viele<br />

reelle Werte annehmen.<br />

3. Der Raum<br />

T + (Ω, R) =<br />

{<br />

t = ∑ }<br />

α i 1 Ai , I endlich, α i ∈ R + , A i ∈ R<br />

i∈I<br />

ist ein Kegelverband.<br />

4. Die Menge L 0 (Ω, A) aller messbaren Funktionen ist ein Kegelverband, die Menge aller reellen<br />

A-messbaren Funktionen sogar ein Vektorverband.<br />

Beweis:


3. MESSBARE ABBILDUNGEN UND FUNKTIONEN 25<br />

1. und 3. folgen sofort aus 3.18.<br />

2. Ist t A-messbar mit t(Ω) = {α 1 , . . . , α n } ⊆ R. Dann ist mit A i = t −1 (α i ) ∈ A (i = 1, . . . , n) und<br />

4. folgt aus 3.13, 3.14.<br />

3.20 Hauptsatz<br />

t =<br />

n∑<br />

α i 1 Ai ∈ T (Ω, A).<br />

i=1<br />

Zu jeder A-messbaren Funktion f ≥ 0 gibt es eine isotone Folge (t n ) n∈N ∈ (T + (Ω, A)) N , die<br />

punktweise gegen f konvergiert, t n ↑ f.<br />

Ist f außerdem noch beschränkt, so konvergiert (t n ) n∈N gleichmäßig.<br />

✷<br />

Beweis: Sei zunächst f beschränkt mit sup f(ω) =: M < ∞. Definiere dann<br />

ω∈Ω<br />

t n := M<br />

2 n ∑<br />

i=1<br />

1<br />

2 n 1 {f>M i<br />

2 n }.<br />

Dann konvergiert t n gleichmäßig gegen f nach Definition der t n .<br />

.<br />

.<br />

.<br />

Für allgemeines f betrachten wir g n := inf(f, n). Damit gilt g n ↑ f. Da g n beschränkt ist, gilt<br />

g n ∈ (T + (Ω, A)) σ wie gerade gezeigt. Damit ist f ∈ ((T + (Ω, A)) σ ) σ = (T + (Ω, A)) σ nach 3.16.4.


26 KAPITEL 1. MASSE UND INTEGRALE<br />

4 Das Integral<br />

Sei stets (Ω, A) ein Messraum, R ⊆ A ein Ring und m ein σ-additiver Inhalt auf R.<br />

Die Ziele dieses Paragraphen sind:<br />

1. Entwicklung einer Integrationstheorie, wobei R = A eine σ-Algebra ist.<br />

Dazu führen wir ein Integral ein, beginnend mit<br />

∫<br />

1 A dm = m[A] (A ∈ A),<br />

dann für Treppenfunktionen mittels<br />

∫<br />

n<br />

∑<br />

α i 1 Ai dm =<br />

i=1<br />

i=1<br />

n∑<br />

α i m[A i ] (α i ∈ R + , A i ∈ A)<br />

und schließlich für messbare Funktionen f ≥ 0, die durch Treppenfunktionen approximiert<br />

werden mittels<br />

∫<br />

∫<br />

fdm = sup<br />

n∈N<br />

t n dm<br />

(f ≥ 0 messbar, (t n ) n∈N ∈ (T + (Ω, A)) N , t n ↑ f).<br />

Dann schließlich für allgemeine messbare Funktionen mittels<br />

∫<br />

∫<br />

fdm =<br />

∫<br />

f + dm −<br />

f − dm.<br />

Im dritten Schritt stellt sich ein Wohldefiniertheitsproblem. Schließlich muss man sicherstellen,<br />

dass die Definition des Integrals unabhängig ist von der Folge, durch die man die messbare<br />

Funktion approximiert hat.<br />

2. Vorbereitung der Fortsetzung von m auf R zu einem Maß auf A = σ(R)<br />

4.1 Definition<br />

Wir definieren die Menge der Elementarfunktionen durch<br />

E(Ω, R, m) = {t ∈ T (Ω, R) : m[t < 0] < ∞}.<br />

4.2 Lemma<br />

Die Menge der Elementarfunktionen ist ein Kegelverband mit<br />

E + (Ω, R, m) := (E(Ω, R, m)) + = (T (Ω, R)) + =: T + (Ω, R).<br />

Sind<br />

n∑<br />

m∑<br />

t = α i 1 Ai = β j 1 Bj<br />

i=1<br />

j=1<br />

zwei Normaldarstellungen der Elementarfunktion t, so ist<br />

n∑<br />

m∑<br />

α i m[A i ] = β j m[B j ].<br />

i=1<br />

j=1


4. DAS INTEGRAL 27<br />

n⊎ m⊎<br />

Beweis: Sei wie in 3.18 ΠA i = B j und damit<br />

i=1 j=1<br />

m⊎<br />

n⊎<br />

A i = A i ∩ B j , B j = A i ∩ B j .<br />

j=1<br />

i=1<br />

Damit gilt<br />

m∑<br />

n∑<br />

m[A i ] = m[A i ∩ B j ], m[B j ] = m[A i ∩ B j ],<br />

j=1<br />

i=1<br />

also<br />

n∑<br />

n∑ m∑<br />

m∑<br />

m∑ n∑<br />

α i m[A i ] = α i m[A i ∩ B j ], β j m[B j ] = β j m[A i ∩ B j ].<br />

i=1<br />

i=1 j=1<br />

j=1<br />

j=1 i=1<br />

Für A i ∩ B j ≠ ∅ ist α i = β j . Damit folgt die Behauptung.<br />

✷<br />

4.3 Satz<br />

1. Die Abbildung<br />

⎧<br />

⎪⎨ E(Ω, R, m) → (−∞, ∞]<br />

µ :<br />

n∑<br />

n∑<br />

⎪⎩ α i 1 Ai ↦→ α i m[A i ],<br />

i=1<br />

i=1<br />

n∑<br />

wobei α i 1 Ai eine Normaldarstellung ist, ist ein isotones lineares Funktional auf der Menge<br />

i=1<br />

der Elementarfunktionen, d.h. für f, g ∈ E(Ω, R, m), α ∈ R + gilt:<br />

1. f ≤ g ⇒ µ(f) ≤ µ(g), (Isotonie)<br />

2. µ(αf) = αµ(f), (positive Homogenität)<br />

3. µ(f + g) = µ(f) + µ(g). (Additivität)<br />

n∑<br />

2. Für eine beliebige Darstellung f = α i 1 Ai mit α i < 0 nur für m[A i ] < ∞, (i = 1, . . . , n) einer<br />

Elementarfunktion f ist µ(f) =<br />

3. Ist f ∈ E(Ω, R, m), so gilt<br />

i=1<br />

n∑<br />

α i m[A i ].<br />

i=1<br />

µ(f) < ∞ ⇐⇒ −f ∈ E(Ω, R, m).<br />

Dann ist µ(−f) = −µ(f).<br />

4. Ist m endlich, so ist µ eine Linearform auf dem Vektorverband E(Ω, R, m) = T (Ω, R).


28 KAPITEL 1. MASSE UND INTEGRALE<br />

Beweis:<br />

1. Wie 4.2 zeigt, ist µ wohldefiniert. Sind f, g ∈ E(Ω, R, m) mit (nach 3.18 existenter) gemeinsamer<br />

Verfeinerung<br />

n∑<br />

n∑<br />

f = α i 1 Ai , g = β i 1 Ai ,<br />

i=1<br />

i=1<br />

so gilt:<br />

1. Aus f ≤ g folgt α i ≤ β i (i = 1, . . . , n) und damit µ(f) ≤ µ(g).<br />

n∑<br />

2. Da αf = αα i 1 Ai folgt µ(αf) = αµ(f).<br />

i=1<br />

n∑<br />

3. Da f + g = (α i + β i )1 Ai eine Normaldarstellung von f + g ist, folgt<br />

i=1<br />

n∑<br />

µ(f + g) = (α i + β i )m[A i ] = ∑ α i m[A i ] + ∑ β i m[A i ] = µ(f) + µ(g),<br />

i=1<br />

da α i < 0 nur für m[A i ] < ∞ möglich ist.<br />

n∑<br />

2. Für f = α i 1 Ai<br />

i=1<br />

mit α i < 0 nur für m[A i ] < ∞ gibt es eine Normaldarstellung<br />

m∑<br />

f = β j 1 Bj<br />

j=1<br />

mit<br />

n∑<br />

i=1<br />

A i ∩B j ≠∅<br />

α i = β j , (j = 1, . . . , m).<br />

Dabei gibt es Œ für jedes j genau ein i mit B j ⊆ A i . Damit gilt<br />

m∑<br />

m∑<br />

µ(f) = β j m[B j ] =<br />

=<br />

j=1<br />

n∑<br />

α i m[A i ].<br />

i=1<br />

j=1<br />

n∑<br />

i=1<br />

A i ∩B j ≠∅<br />

α i m[B j ] =<br />

n∑<br />

i=1<br />

α i<br />

m ∑<br />

j=1<br />

B j ∩A i ≠∅<br />

m[B j ]<br />

3. Es gilt<br />

µ(f) < ∞ ⇐⇒ m[A i ] < ∞ (i = 1, . . . , n mit α i ≠ 0).<br />

Damit ist aber −f ∈ E(Ω, R, m) und<br />

nach 1.<br />

0 = µ(0) = µ(f − f) = µ(f) + µ(−f)<br />

4. Ist das Maß m endlich, so ist E(Ω, R, m) = T (Ω, R) und µ(f) < ∞ (f ∈ E(Ω, R, m)). Nach 3.<br />

ist dann −f ∈ E(Ω, R, m) und µ(αf) = αµ(f) (α ∈ R). Damit folgt die Behauptung.<br />


4. DAS INTEGRAL 29<br />

4.4 Lemma<br />

Sind (f n ) n∈N , (g n ) n∈N isotone Folgen in E(Ω, R, m) mit<br />

sup<br />

n∈N<br />

f n ≤ sup g n ,<br />

n∈N<br />

so ist<br />

sup<br />

n∈N<br />

µ(f n ) ≤ sup µ(g n ).<br />

n∈N<br />

Beweis:<br />

1. Sei zunächst f n , g n ≥ 0 (n ∈ N). Für j ∈ N sei f j =<br />

k∑<br />

α i 1 Ai eine Normaldarstellung mit<br />

α i > 0 (i = 1, . . . , k). Für 0 < β < 1 definiere B n := {g n > βf j } (n ∈ N). Damit ist B n ∈ R<br />

nach 3.18 und<br />

n∑<br />

g n ≥ βf j 1 Bn = α i β1 Ai∩B n<br />

∈ E(Ω, R, m),<br />

also<br />

Die Folge (B n ) n∈N ist isoton mit<br />

Es folgt<br />

µ(f j ) =<br />

und damit<br />

B n ↑ B ⊇ {f j > 0} =<br />

k∑<br />

α i m[A i ] =<br />

i=1<br />

k∑<br />

i=1<br />

i=1<br />

i=1<br />

µ(g n ) ≥ µ(βf j 1 Bn ) = βµ(f j 1 Bn ).<br />

n⋃<br />

A i und damit A i ∩ B n ↑ A i ∈ R und m[A i ∩ B n ] ↑ A i .<br />

i=1<br />

α i<br />

lim m[A i ∩ B n ] = lim<br />

n→∞<br />

k∑<br />

n→∞<br />

i=1<br />

α i m[A i ∩ B n ] = lim<br />

n→∞ µ(f j1 Bn )<br />

sup µ(g n ) = lim µ(g n) ≥ β lim µ(f j1 Bn ) = βµ(f j )<br />

n∈N<br />

n→∞ n→∞<br />

(0 < β < 1, j ∈ N).<br />

Für β → 1 ergibt sich<br />

und damit<br />

sup µ(g n ) ≥ µ(f j ) (j ∈ N)<br />

n∈N<br />

sup<br />

n∈N<br />

µ(g n ) ≥ sup µ(f j ).<br />

j∈N<br />

2. Für allgemeine Folgen (f n ) n∈N , (g n ) n∈N definiere A = {f 1 < 0} ∪ {g 1 < 0} ∈ R. Damit ist<br />

m[A] ≤ m[f 1 < 0] + m[g 1 < 0] < ∞.<br />

Deswegen gibt es ein α > 0 mit f 1 , g 1 ≥ −α, also f 1 , g 1 ≥ −α1 A ∈ E(Ω, R, m). Damit erfüllen<br />

(f n + α1 A ) n∈N , (g n + α1 A ) n∈N die Voraussetzungen von 1. und es folgt<br />

αm[A]<br />

} {{ }<br />


30 KAPITEL 1. MASSE UND INTEGRALE<br />

4.5 Hauptsatz<br />

Definiere E σ (Ω, R, m) := (E(Ω, R, m)) σ .<br />

Die Abbildung<br />

{<br />

E σ (Ω, R, m) → (−∞; ∞]<br />

µ σ :<br />

f ↦→ sup n∈N µ(f n ) ,<br />

wobei (f n ) n∈N eine Folge in E(Ω, R, m) ist mit f n ↑ f) ist ein isotones, lineares Funktional auf<br />

dem Kegelverband E σ (Ω, R, m) und sogar ein Daniell-Integral, d.h.<br />

µ σ (sup f n ) = sup µ(f n )<br />

n∈N n∈N<br />

((f n ) n∈N ∈ (E σ (Ω, R, m)) N , (f n ) n∈N isoton.)<br />

Für eine σ-Algebra A ist<br />

E σ (Ω, A, m) = {f ∈ L 0 (Ω, A) : ∃α ∈ R + , A ∈ A meßbar, m[A] < ∞, f ≥ −α1 A } ⊇ L 0 +(Ω, A).<br />

Damit setzt µ σ die Funktion µ auf E σ (Ω, A, m) fort.<br />

Beweis:<br />

1. Nach 4.4 ist µ σ wohldefiniert und isoton. Für f, g ∈ E σ (Ω, A, m), α ∈ R + , (f n ) n∈N , (g n ) n∈N ∈<br />

(E(Ω, A, m)) N mit f n ↑ f und g n ↑ g gilt αf n ↑ αf, f n + g n ↑ f + g, also µ(αf) = αµ(f) und<br />

µ σ (f + g) = µ σ (f) + µ σ (g).<br />

2. Sei (f n ) n∈N ∈ (E σ (Ω, A, m)) N mit<br />

f n ↑ f ∈ (E σ (Ω, A, m)) σ = E σ (Ω, A, m),<br />

(f nk ) k∈N ∈ (E(Ω, R, m)) N<br />

mit f nk ↑ f n (n ∈ N) und<br />

Dann ist g n ↑ f. Da g n ≤ f n folgt<br />

µ σ (f) = sup µ(g n ) = sup<br />

n∈N<br />

n∈N<br />

g n = sup f in ∈ E(Ω, A, m).<br />

i≤n<br />

sup<br />

i≤n<br />

µ(f in ) = sup<br />

i∈N<br />

3. Sei nun A eine σ-Algebra. Zu zeigen ist nur das erste “=”-Zeichen.<br />

“⊆”: klar.<br />

“⊇”: Sei<br />

4.6 Definition<br />

sup<br />

n≥i<br />

µ(f in ) = sup µ(f i ).<br />

i∈N<br />

f ∈ {f ∈ L 0 (Ω, A) : ∃α ∈ R + , A ∈ A meßbar, m[A] < ∞, f ≥ −α1 A }<br />

und α ∈ R + mit f ≥ −α1 A . Dann ist f + α1 A ∈ L 0 +(Ω, A). Damit gibt es nach<br />

3.20 eine Folge (t n ) n∈N ∈ (T + (Ω, A)) N = (E + (Ω, A, m)) N mit t n ↑ f + α1 A . Es folgt<br />

(t n − α1 A ) n∈N ∈ (E(Ω, A, m)) N mit t n − α1 A ↑ f.<br />

Für jede Funktion f ∈ R Ω ist<br />

∫ ∗<br />

fdm := (µ σ ) ∗ (f) := inf µ σ (t), (Oberintegral von f)<br />

t∈Eσ<br />

t≥f<br />

∫<br />

fdm := (µ σ ) ∗ (f) = −(µ σ ) ∗ (−f) := sup −µ σ (t). (Unterintegral von f)<br />

∗<br />

t∈Eσ<br />

−t≤f<br />


4. DAS INTEGRAL 31<br />

Dabei steht vereinfachend E σ := E σ (Ω, A, m). Die Funktion f heißt integrierbar, wenn<br />

∫ ∫ ∗<br />

−∞ < fdm = fdm < ∞.<br />

∫<br />

Der gemeinsame Wert<br />

falls 1 A integrierbar ist.<br />

Weiter definieren wir<br />

∗<br />

fdm heißt dann das Integral von f. Eine Menge A ⊆ Ω heißt integrierbar,<br />

• die Menge aller integrierbaren Funktionen<br />

L(m) := L(Ω, m)<br />

• und für eine σ-Algebra A die Menge aller A-meßbaren, m-integrierbaren Funktionen<br />

4.7 Lemma<br />

Für alle Funktionen f, g : Ω → R und α ∈ R + gilt:<br />

∫ ∫ ∗<br />

1. fdm ≤ fdm,<br />

∗<br />

L 1 (m) := L 1 (Ω, A, m, R) := L 0 (Ω, A) ∩ L(m).<br />

∫ ∗ ∫ ∗ ∫ ∫<br />

2. f ≤ g ⇒ fdm ≤ gdm, fdm ≤ gdm,<br />

3.<br />

∫ ∗ ∫ ∗<br />

αfdm = α fdm,<br />

∗<br />

∗<br />

∫<br />

∫<br />

αfdm = α fdm.<br />

4. Sei f ∈ E σ (Ω, R, m). Dann gilt<br />

∫ ∗<br />

• fdm = µ σ (f).<br />

∫<br />

• fdm = µ σ (f), falls Ist m endlich ist,<br />

∗<br />

• f integrierbar ⇔ µ σ (f) < ∞,<br />

n∑<br />

• falls f = α i 1 Ai ∈ E(Ω, R, m), so gilt:<br />

i=1<br />

∗<br />

∗<br />

f integrierbar ⇐⇒ (α i ≠ 0 ⇒ m[A i ] < ∞ i = 1, . . . , n),<br />

5. ist<br />

∫ ∗ ∫ ∗<br />

fdm, gdm < ∞, so ist<br />

∫ ∗<br />

(f + g)dm ≤<br />

∫ ∗ ∫ ∗<br />

inf(f, g)dm + sup(f, g)dm ≤<br />

∫ ∗ ∫ ∗<br />

fdm + gdm.<br />

Ist<br />

∫ ∫<br />

fdm, gdm > −∞, so ist<br />

∗<br />

∗<br />

∫ ∫ ∫<br />

∫<br />

fdm + gdm ≤ inf(f, g)dm + sup(f, g)dm ≤<br />

∗<br />

∗<br />

∗<br />

∗<br />

∫<br />

(f + g)dm.<br />


32 KAPITEL 1. MASSE UND INTEGRALE<br />

Beweis:<br />

1. Seien s, t ∈ E σ (Ω, R, m), −s ≤ f ≤ t. Dann ist 0 ≤ s + t ∈ (E σ (Ω, R, m)) + , also 0 ≤ µ σ (s + t) =<br />

µ σ (s) + µ σ (t), also −µ σ (s) ≤ µ σ (t). Mit<br />

∫<br />

fdm = sup −µ σ (s)<br />

∗<br />

s∈Eσ<br />

−s≤f<br />

ist<br />

∫<br />

∗<br />

∫ ∗<br />

fdm ≤ inf µ σ (t) = fdm.<br />

t∈Eσ<br />

t≥f<br />

2. Sei f ≤ g. Für t ∈ E σ (Ω, R, m) mit t ≥ g ist t ≥ f und damit<br />

∫ ∗<br />

fdm ≤ µ σ (t). Nimmt<br />

man auf der rechten Seite das Infimum über alle t, folgt<br />

−g ≤ −f, also<br />

4. • Für f ∈ E σ (Ω, R, m) ist<br />

wegen der Isotonie von µ σ .<br />

∗<br />

∫ ∗<br />

fdm ≤<br />

∫ ∫ ∗ ∫ ∗ ∫<br />

fdm = − −fdm ≤ − −gdm = gdm.<br />

∫ ∗<br />

fdm = inf µ σ (t) = µ σ (f)<br />

t∈Eσ<br />

t≥f<br />

• Ist m endlich, so folgt die Behauptung aus −f ∈ E σ (Ω, R, m).<br />

∗<br />

∫ ∗<br />

gdm. Außerdem ist<br />

• “⇒”: Die Bedingung µ σ (f) < ∞ ist notwendig für die Endlichkeit des Integrals.<br />

“⇐”: Sei f ∈ E σ (Ω, R, m). Dann gibt es eine Folge (t n ) n∈N ∈ (E(Ω, R, m) N mit t n ↑<br />

f, sup µ(t n ) = µ σ (f). Ist µ σ (f) < ∞, so ist µ(t n ) < ∞ (n ∈ N). Mit 4.3.3 folgt<br />

n∈N<br />

(−t n ) n∈N ∈ (E(Ω, A, m) N und µ(−t n ) = −µ(t n ). Damit gilt<br />

∫ ∗<br />

fdm = µ σ (f) = sup µ(t n ) = sup −µ(−t n ) = sup −µ σ (−t n )<br />

(<br />

= sup −<br />

n∈N<br />

also die Behauptung.<br />

1. Klar.<br />

3. Für α = 0 ist die Behauptung klar.<br />

Für α > 0 gilt<br />

∫ ∗<br />

αfdm = inf<br />

t∈Eσ<br />

t≥αf<br />

n∈N<br />

∫ ∗<br />

−t n dm)<br />

µ σ (t) = inf<br />

αt∈Eσ<br />

αt≥αf<br />

n∈N<br />

= sup<br />

n∈N<br />

∗<br />

n∈N<br />

∫ ∫ ∫ ∗<br />

t n dm ≤ fdm ≤ fdm = µ σ (f),<br />

∫ ∗<br />

µ σ (αt) = α inf µ σ (t) = α fdm.<br />

t∈Eσ<br />

t≥f<br />

5. Seien s, t ∈ E σ (Ω, A, m), s ≥ inf(f, g), t ≥ sup(f, g). Dann ist s + t ∈ E σ (Ω, A, m) und<br />

s + t ≥ inf(f, g) + sup(f, g) = f + g.<br />

∗<br />

Damit gilt<br />

∫ ∗<br />

f + gdm ≤ µ σ (s + t) = µ σ (s) + µ σ (t).<br />

Nimmt man auf der rechten Seite das Infimum über alle s, t, so folgt die erste Ungleichung.


4. DAS INTEGRAL 33<br />

Sei s, t ∈ E σ (Ω, A, m), s ≥ f, t ≥ g. Dann ist inf(s, t), sup(s, t) ∈ E σ (Ω, A, m) mit<br />

inf(s, t) ≥ inf(f, g),<br />

sup(s, t) ≥ sup(f, g).<br />

Daraus folgt<br />

∫ ∗ ∫ ∗<br />

inf(f, g)dm + sup(f, g)dm ≤ µ σ (inf(s, t)) + µ σ (sup(s, t))<br />

= µ σ (inf(s, t) + sup(s, t)) = µ σ (s + t) = µ σ (s) + µ σ (t).<br />

Nimmt man auf der rechten Seite das Supremum über alle s, t, so folgt die zweite Ungleichung.<br />

✷<br />

4.8 Definition<br />

Für jeden Wahrscheinlichkeitsraum (Ω, A, P) und jede positive Zufallsvariable oder P-integrierbare<br />

Funktion X heißt<br />

∫ ∗<br />

E[X] := XdP<br />

Erwartungswert von X bzgl. P. Ist X integrierbar, so ist<br />

∫<br />

E[X] = XdP.<br />

4.9 Hauptsatz<br />

Seien f, g ∈ L(m) bzw. f, g ∈ L 1 (Ω, A, m). Dann ist auch αf ∈ L(m) bzw. ∈ L 1 (Ω, A, m) für<br />

α ∈ R und f + g, inf(f, g), sup(f, g) ∈ L(m) bzw. ∈ L 1 (Ω, A, m) und es gilt:<br />

∫ ∫<br />

1. f ≤ g ⇒ fdm ≤ gdm,<br />

(Isotonie)<br />

2.<br />

3.<br />

∫<br />

∫<br />

αfdm = α<br />

∫<br />

∫<br />

(f + g)dm =<br />

fdm,<br />

∫<br />

inf(f, g)dm +<br />

sup(f, g)dm,<br />

(Homogenität)<br />

(starke Additivität)<br />

∫<br />

Insbesondere ist f ↦→ fdm eine positive Linearform auf dem Vektorverband L 1 (Ω, A, m) der<br />

reellen integrierbaren Funktionen.<br />

Beweis:<br />

1. Klar nach 4.7.1.<br />

2. Für α ≥ 0, d.h. für die positive Homogenität folgt die Bahauptung aus 4.7.3. Für α = −1 gilt<br />

Daraus folgt die Homogenität.<br />

∫<br />

∫<br />

−fdm =<br />

∗<br />

∫ ∗ ∫<br />

−fdm = − fdm = −<br />

fdm.


34 KAPITEL 1. MASSE UND INTEGRALE<br />

3. Es gilt<br />

∫ ∫<br />

fdm +<br />

∗<br />

4.10 Korollar<br />

Es gilt<br />

bzw.<br />

∗<br />

∫<br />

∫<br />

∫<br />

∫<br />

gdm 4.7.5<br />

≤ inf(f, g)dm + sup(f, g)dm ≤ (f + g)dm 4.7.1 ∗<br />

≤ (f + g)dm<br />

∗<br />

∗<br />

∗<br />

∫<br />

4.7.5 ∗ ∫ ∗ ∫ ∗ ∫ ∗<br />

≤ inf(f, g)dm + sup(f, g)dm ≤ fdm + gdm<br />

∫ ∫<br />

= fdm + gdm.<br />

∗<br />

∗<br />

f ∈ L(m) ⇐⇒ f + ∈ L(m) ∧ f − ∈ L(m)<br />

f ∈ L 1 (Ω, A, m) ⇐⇒ f + ∈ L 1 (Ω, A, m) ∧ f − ∈ L 1 (Ω, A, m).<br />

✷<br />

Dann ist auch |f| ∈ L(m) bzw. ∈ L 1 (Ω, A, m) und es gilt<br />

∫ ∫ ∫ ∫ ∫<br />

fdm = f + dm − f − dm = f + dm + f − dm<br />

und<br />

∫<br />

∣<br />

∫<br />

fdm∣ ≤<br />

|f|dm.<br />

Beweis: ∫ Die ∫ Behauptung ∫ folgt aus 4.9 wegen f = f + − f − = f + + f − und |f| = f + + f − und ±<br />

fdm = ±fdm ≤ |f|dm. Damit gilt<br />

∫<br />

∫<br />

∣ fdm∣ ≤ |f|dm.<br />

✷<br />

——————————————————————–<br />

Für den Rest von 4. sei (Ω, A, m) ein Maßraum.<br />

4.11 Majorantenkriterium<br />

Für jede messbare Funktion f sind äquivalent:<br />

1. f integrierbar,<br />

2. |f| besitzt eine integrierbare Majorante g ≥ |f|,<br />

3.<br />

∫ ∗<br />

|f|dm < ∞.<br />

Beweis:<br />

“1. ⇒ 2.”: Folgt nach 4.9.<br />

“2. ⇒ 3.”: Klar, da<br />

∫ ∗ ∫ ∗<br />

|f|dm ≤ gdm < ∞.


4. DAS INTEGRAL 35<br />

“3. ⇒ 1.”: Sei Œ f ≥ 0. Dann ist f ∈ L 0 +(Ω, A) = (E σ (Ω, A, m)) + und<br />

Nach 4.7.4 ist f integrierbar.<br />

µ σ (f) =<br />

∫ ∗<br />

fdm =<br />

∫ ∗<br />

|f|dm < ∞.<br />

✷<br />

4.12 Satz (Beweisprinzip der Maßtheorie)<br />

Ist ν : L 0 +(Ω, A) → R + ein Daniell-Integral, d.h.<br />

ν(sup t n ) = sup ν(t n ) ((t n ) n∈N ∈ (T (Ω, A)) N , t n isoton) (∗)<br />

n∈N n∈N<br />

und gilt<br />

so gilt<br />

Außerdem ist<br />

Dann ist<br />

ν(1 A ) = m[A] (A ∈ A),<br />

∫ ∗<br />

ν(f) = fdm (f ∈ L 0 +(Ω, A)).<br />

f ∈ L 1 (Ω, A, m) ⇐⇒ ν(f + ), ν(f − ) < ∞.<br />

∫<br />

fdm = ν(f + ) − ν(f − ).<br />

Beweis: Wie in 4.5 zeigt man, daß die Bedingung (∗) äquivalent ist <strong>zur</strong> Daniell-Eigenschaft auf<br />

L 0 +(Ω, A).<br />

Wegen der Linearität von ν ist ν = m auf E + (Ω, A, m) und wegen der abgeschwächten Daniell-<br />

Eigenschaft auch ν = µ σ auf (E + (Ω, A, m)) σ = (E σ (Ω, A, m)) + Der Rest folgt wie in 4.9. ✷<br />

4.13 Beispiel<br />

1. Sei a ∈ Ω, m = ɛ a .<br />

Beh: Dann ist ∫ ∗<br />

fdɛ a = f(a) (f ∈ L 0 +(Ω, A)).<br />

Denn: Sei f ɛ a -integrierbar und f meßbar. Dann ist<br />

{<br />

L 0<br />

ν :<br />

+(Ω, A) → R +<br />

f ↦→ f(a)<br />

ein Daniell-Integral mit<br />

Die Behauptung folgt dann aus 4.12.<br />

ν(1 A ) = 1 A (a) = ɛ a (A) (A ∈ A).<br />

2. Beh.: Sind m 1 , m 2 Maße auf A, so ist<br />

∫ ∗ ∫ ∗ ∫ ∗<br />

fd(m 1 + m 2 ) = fdm 1 + fdm 2<br />

und falls f ∈ L 0 (Ω, A), dann gilt<br />

(f ∈ L 0 +(Ω, A))<br />

f ist (m 1 + m 2 ) integrierbar ⇐⇒ f ist m 1 - und m 2 -integrierbar.


36 KAPITEL 1. MASSE UND INTEGRALE<br />

Denn: Die Abbildung<br />

⎧<br />

⎨L 0 +(Ω, A) = (E σ (Ω, A, m 1 )) +<br />

ν :<br />

⎩ f<br />

→ R<br />

∫ ∗ ∫ ∗<br />

↦→ fdm 1 + fdm 2<br />

ist ein Daniell-Integral mit<br />

ν(1 A ) =<br />

∫ ∗ ∫ ∗<br />

1 A dm 1 + 1 A dm 2 = m 1 [A] + m 2 [A] = (m 1 + m 2 )[A]<br />

(A ∈ A).<br />

3. Beh.: Sei (m n ) n∈N eine Folge von Maßen auf A. Dann ist<br />

⎧<br />

∞∑<br />

⎪⎨ A → R<br />

m := m n :<br />

∞∑<br />

⎪⎩ A ↦→ m n [A]<br />

n=1<br />

n=1<br />

ein Maß mit ∫ ∗ ∞∑<br />

∫ ∗<br />

fdm = fdm n<br />

n=1<br />

Ist f ∈ L 0 (Ω, A), dann gilt:<br />

f ist m-integrierbar ⇐⇒<br />

(f ∈ L 0 +(Ω, A)).<br />

∞∑<br />

∫ ∗<br />

|f|dm n < ∞.<br />

n=1<br />

Denn: Die Abbildung<br />

⎧<br />

⎪⎨ L 0 +(Ω, A)<br />

ν :<br />

⎪⎩ f<br />

→ R<br />

∞∑<br />

∫ ∗<br />

↦→ fdm n<br />

ist ein Daniell-Integral auf L 0 +(Ω, A), da sie isoton und linear ist und für jede Folge von Treppenfunktionen<br />

(t n ) n∈N ∈ (T + ) N = (E + (Ω, A, m)) N mit t n ↑ t<br />

ν(t) =<br />

∞∑<br />

∫ ∗<br />

tdm n = sup<br />

n=1<br />

n∑<br />

n∈N<br />

i=1<br />

∫ ∗<br />

tdm i = sup<br />

n∈N<br />

n∑<br />

∫ ∗<br />

= sup sup t j d ( ∑<br />

n )<br />

m i = sup sup<br />

j∈N n∈N<br />

i=1<br />

n=1<br />

j∈N n∈N<br />

i=1<br />

n=1<br />

∫ ∗<br />

td ( ∑<br />

n ∫<br />

) ∗<br />

m i = sup sup t j d ( ∑<br />

n )<br />

m i<br />

i=1<br />

∫ ∗<br />

t j dm i = sup<br />

∞∑<br />

j∈N<br />

n=1<br />

n∈N j∈N<br />

gilt. Schließlich ist<br />

∞∑<br />

∫ ∗ ∞∑<br />

ν(1 A ) = 1 A dm n = m n [A] = m[A] (A ∈ A)<br />

und die Behauptung folgt wieder aus 4.12.<br />

4. Ein Spezialfall von 3. sind diskrete Maße<br />

n=1<br />

i=1<br />

∫ ∗<br />

t j dm n = sup ν(t j )<br />

j∈N<br />

Hier gilt<br />

∞∑<br />

m = α n ɛ ω (α n ∈ R + , ω n ∈ Ω).<br />

n=1<br />

∫ ∗ ∞∑<br />

fdm = α n f(ω n ) (f ∈ L 0 +(Ω, A))<br />

n=1


4. DAS INTEGRAL 37<br />

und<br />

Beispielsweise ist m =<br />

und<br />

f ist m-integrierbar ⇐⇒ f ∈ L 0 (Ω, A) und<br />

∞∑<br />

α n |f(ω n )| < ∞.<br />

n=1<br />

∞∑<br />

ɛ n das Zählmaß auf (N, P(N)) und es gilt<br />

n=1<br />

∫ ∗<br />

fdm =<br />

f ist m-integrierbar<br />

∞∑<br />

f(n) (f ≥ 0)<br />

n=1<br />

⇐⇒<br />

∞∑<br />

|f(n)| < ∞.<br />

Dieses Maß ist wichtig für die Theorie der absolut konvergenten Reihen.<br />

4.14 Bemerkungen über Riemann- und Lebesgue-Integral<br />

1. Das Riemann-Integral<br />

mit<br />

⎧<br />

⎨K(R)<br />

ν :<br />

⎩f<br />

→ R<br />

↦→<br />

∫ b<br />

a<br />

n=1<br />

f(x)dx<br />

K(R) := {f ∈ C(R) : ∃α, a, b ∈ R : ‖f| ≤ α1 [a;b] }<br />

ist definiert durch die Stammfunktion der Funktion f. Es ist<br />

und<br />

die Fortsetzung von ν.<br />

K σ (R) = {f : R R : f messbar , ∃α, a, b : f ≥ −α1 [a;b] } → R ∪ {∞}<br />

ν σ : K σ (R) → R ∪ {∞}<br />

Eine Funktion f ist genau dann ν σ -integrierbar, wenn f λ-integrierbar ist, wobei die λ-<br />

integrierbaren, Borel-meßbaren Funktionen genau die Elemente von L(R, B(R), λ) sind.<br />

2. Das Lebesgue-Maß<br />

⎧{<br />

∫<br />

⎪⎨ B ∪ N : B ∈ B(R),<br />

λ :<br />

⎪⎩ A<br />

}<br />

1 N dλ = 0<br />

→ R<br />

∫ ∗<br />

↦→ 1 A dλ<br />

setzt das Lebesgue-Borel’sche Maß fort. Entsprechendes gilt für höhere Dimensionen.<br />

4.15 Definition<br />

Sei A ∈ A unf f zumindest auf A definiert. Definiere dann<br />

⎧<br />

⎪⎨ Ω → R<br />

{<br />

f A := f| A und f A : f(ω), ω ∈ A<br />

⎪⎩ ω ↦→<br />

0, ω ∈ CA.<br />

∫<br />

Ist f A ≥ 0 messbar, so heißt<br />

A<br />

fdm :=<br />

m-integrierbar, so sagt man, f sei über A integrierbar.<br />

∫ ∗<br />

f A dm Integral von f über A. Ist A außerdem


38 KAPITEL 1. MASSE UND INTEGRALE<br />

∫ ∫ ∗<br />

Offenbar gilt fdm = fdm.<br />

Ω<br />

∫<br />

∫ ∗<br />

Es ist üblich, auch für positive A-meßbare Funktionen f fdm statt fdm zu schreiben.<br />

∫<br />

Beachte, dass für messbares A und f ∈ L 0 +(Ω, A) das Integral immer noch linear ist, aber fdm<br />

∫ ∫ A ∗<br />

nur dann endlich ist, falls f integrierbar ist. Ist m semiendlich, so ist fdm = fdm auf<br />

E σ (Ω, A, m) ⊇ L 0 +(Ω, A).<br />

4.16 Satz<br />

Sei A ∈ A. Für jede mindestens auf A definierte Funktion f sind äquivalent:<br />

1. f A ∈ L 0 +(A, A ∩ A),<br />

2. f A ∈ L 0 +(Ω, A).<br />

Hinreichend hierfür ist, dass f ∈ L 0 (Ω, A). Es gilt dann<br />

∗<br />

∫ ∗<br />

fdm =<br />

∫ ∗<br />

fdm A =<br />

∫ ∗<br />

f1 A dm mit m A : B ↦→ m[B ∩ A]<br />

(B ∈ A).<br />

A<br />

Außerdem sind äquivalent:<br />

1. f A ∈ L(A, A ∩ A, m A ) mit m A := m| A∩A ),<br />

2. f A ∈ L(m).<br />

Hinreichend hierfür ist, dass f ∈ L(m). Es gilt dann<br />

∫ ∫ ∫<br />

fdm = fdm A = f1 A dm mit m A : B ↦→ m[B ∩ A]<br />

A<br />

(B ∈ A).<br />

Beweis: Klar.<br />

✷<br />

4.17 Korollar<br />

Sind A, B ∈ A und ist f ∈ L 0 (Ω, A) über A und B integrierbar, so auch über A ∩ B und A ∪ B<br />

und es gilt:<br />

∫ ∫ ∫<br />

∫<br />

fdm + fdm = fdm + fdm.<br />

A<br />

B<br />

A∩B<br />

A∪B<br />

Beweis: Es gilt f A∩B = f1 A 1 B ∈ L 0 (Ω, A) und da |f A∩B | ≤ |f A |, hat f A∩B eine integrierbare<br />

Majorante. Mit 4.11 folgt f A∩B ∈ L 1 (Ω, A, m).<br />

Außerdem ist f ± A∪B = sup(f ± A , f ± B ) ∈ L1 (Ω, A, m). Der Rest folgt aus f A + f B = f A∩B + f A∪B . ✷<br />

4.18 Definition<br />

Eine Menge N ∈ A heißt m-Nullmenge, wenn m[N] = 0. Eine Eigenschaft, die für jeden Punkt<br />

von Ω erklärt ist, gilt m-fast überall bzw. m-fast sicher, wenn sie für alle Punkte außerhalb einer<br />

Nullmenge gilt.<br />

Ist insbesondere (f n ) n∈N ∈ (L 0 (Ω, A)) N und f ∈ L 0 (Ω, A), so dass<br />

f = lim<br />

n→∞ f n<br />

fast überall,<br />

so spricht man von Konvergenz m-fast überall bzw. m-fast sicher.


4. DAS INTEGRAL 39<br />

4.19 Bemerkungen<br />

1. Jede Nullmenge ist integrierbar.<br />

2. Wegen der σ-Additivität von m ist die Vereinigung abzählbar vieler Nullmengen eine Nullmenge.<br />

3. Beh.: Eine Eigenschaft E gilt genau dann fast überall, wenn für A := {ω ∈ Ω : ¬E(ω)}<br />

∫ ∗<br />

1 A dm = 0<br />

gilt. Dabei ist i.A. A /∈ A.<br />

Denn:<br />

“⇒”: Es gibt ein N ∈ A mit m[N] = 0 und A ⊆ N. Damit ist aber<br />

0 ≤<br />

∫ ∗<br />

1 A dm ≤ m[N] = 0.<br />

“⇐”: Sei<br />

∫ ∗<br />

1 A dm = 0. Dann ist<br />

0 = µ σ ∗ [A] = inf<br />

t∈Eσ<br />

t≥1 A<br />

µ σ [A].<br />

Also gibt es eine absteigende Folge<br />

(t n ) n∈N ∈ ((E σ (Ω, A, m)) + ) N = ((T + (Ω)) σ ) N = (L 0 +(Ω, A)) N<br />

mit t n ↓ t ∈ L 0 +(Ω, A), t n ≥ 1 A und µ σ (t n ) ≤ 1 n<br />

. Definiere N := {t ≥ 1} ∈ A. Dann ist<br />

1 N ≤ t ≤ t n (n ∈ N), also<br />

∫<br />

m[N] =<br />

1 N dm = µ σ (1 N ) ≤ µ σ (t n ) ≤ 1 n<br />

(n ∈ N).<br />

Damit ist m[N] = 0, t ≥ 1 A und N = {t ≥ 1} ⊇ A.<br />


40 KAPITEL 1. MASSE UND INTEGRALE<br />

4.20 Hauptsatz<br />

1. Jede integrierbare Funktion ist fast überall endlich.<br />

2. Sind f, g Funktionen und gilt f ≤ g fast überall, so ist<br />

∫ ∗ ∫ ∗<br />

fdm ≤ gdm<br />

und<br />

∫ ∫<br />

fdm ≤ gdm.<br />

3. Sind f, g Funktionen und gilt f = g fast überall, so ist<br />

∫ ∗ ∫ ∗<br />

fdm = gdm<br />

∗<br />

∗<br />

und<br />

∫<br />

∗<br />

fdm =<br />

∫<br />

∗<br />

gdm.<br />

4. Ist f ≥ 0 fast überall und gilt<br />

∫ ∗<br />

fdm = 0, so ist f = 0 fast überall.<br />

5. Stimmt eine Funktion f ∈ L∫<br />

1 (Ω, A, m) ∫ fast überall mit einer Funktion g überein, so ist<br />

g ∈ L 1 (Ω, A, m) und es gilt fdm = gdm.<br />

Beweis:<br />

1. Sei A := {|f| = ∞}. Dann ist α1 A ≤ |f| (α ∈ R + ) und damit<br />

α<br />

∫ ∗<br />

1 A dm =<br />

∫ ∗<br />

α1 A dm ≤<br />

∫ ∗<br />

|f|dm < ∞.<br />

Für α → ∞ ergibt sich notwendigerweise<br />

∫ ∗<br />

1 A dm = 0.<br />

2. Sei C{f ≤ g} ⊆ N ∈ A mit m[N] = 0. Dann ist f ≤ ∞1 N + g und<br />

∫ ∗<br />

fdm ≤<br />

∫ ∗<br />

gdm + ∞1 N ≤<br />

∫ ∗ ∫ ∗<br />

∞1 N dm + gdm =<br />

∫ ∗<br />

gdm,<br />

da n1 N ↑ n ∞1 N ∈ E σ (Ω, A, m) und<br />

∫ ∗<br />

∞1 N dm = sup<br />

n∈N<br />

∫ ∗ ∫<br />

n1 N dm = sup n<br />

n∈N<br />

1 N = 0.<br />

3. Folgt direkt aus 2.<br />

4. Sei<br />

Daraus folgt 1 n 1 A n<br />

≤ |f| (n ∈ N), also<br />

A n := {|f| ≥ 1 n<br />

} ↑ {|f| > 0} =: A.<br />

1<br />

n<br />

∫ ∗<br />

1 An dm =<br />

∫ ∗<br />

1<br />

n 1 A n<br />

dm ≤<br />

∫ ∗<br />

|f|dm =<br />

∫ ∗ ∫ ∗<br />

f + dm − f − dm =<br />

∫ ∗<br />

f + dm<br />

=<br />

∫ ∗<br />

fdm = 0.


4. DAS INTEGRAL 41<br />

Also ist<br />

∫ ∗<br />

1 An dm = 0 (n ∈ N). Somit gibt es Mengen N n ∈ A mit m[N n ] = 0, A n ⊆ N n . Mit<br />

4.19 folgt A := ⋃ n∈N<br />

A n ⊆ ⋃ n∈N<br />

N n =: N ∈ A mit m[N] = 0.<br />

5. folgt aus 3., denn ∫ ∗<br />

gdm =<br />

∫ ∗<br />

fdm =<br />

∫<br />

∗<br />

fdm =<br />

∫<br />

∗<br />

gdm.<br />

✷<br />

4.21 Bemerkung<br />

Ist f fast überall definiert und ∫ fast überall ∫ gleich einer meßbaren bzw. integrierbaren Funktion<br />

g, so kann man nach 4.20.5 fdm := gdm wohldefinieren und f ist integrierbar genau dann,<br />

wenn g integrierbar ist. Alle Punkte ab 4.9 gelten auch für diesen Fall.<br />

4.22 Satz<br />

Das Produkt einer A-meßbaren, integrierbaren Funktion und einer messbaren, fast sicher beschränkten<br />

Funktion ist integrierbar.<br />

Beweis: Sei f ∈ L 1 (Ω, A, m) und |g| ≤ α fast überall. Dann ist fg ∈ L 0 (Ω, A) und |fg| ≤ α|f|<br />

fast überall. Aus dem Majorantenkriterium 4.11 folgt fg ∈ L 1 (Ω, A, m).<br />


42 KAPITEL 1. MASSE UND INTEGRALE<br />

5 L p -Räume<br />

Stets sei (Ω, A, m) ein Maßraum.<br />

5.1 Satz<br />

Die Menge L ∞ (m) := L ∞ (Ω, A, m) aller rellen, A-meßbaren m-fast überall beschränkten Funktionen<br />

ist ein Vektorverband, auf dem das Funktional<br />

{<br />

R Ω<br />

→ R<br />

N ∞ :<br />

f ↦→ inf{α ∈ R + : |f| ≤ α fast überall}<br />

mit inf ∅ = ∞ eine Halbnorm ist, d.h.: für f, g ∈ R Ω , α ∈ R gilt<br />

1. N ∞ (αf) = |α|N ∞ (f), (Homogenität)<br />

2. N ∞ (f + g) ≤ N ∞ (f) + N ∞ (g), (Dreiecksungleichung)<br />

3. N ∞ (f) ≥ 0. (positive Definitheit)<br />

Beweis: Klar.<br />

✷<br />

5.2 Beispiel<br />

Das Produkt integrierbarer Funktionen muß nicht integrierbar sein:<br />

Sei p > 1, Ω = N, A = P(N). Wir betrachten das Maß<br />

m =<br />

∞∑<br />

n=1<br />

1<br />

n p+1 ɛ n<br />

und die Funktion f : n ↦→ n. Dann ist f integrierbar, da<br />

∫<br />

fdm =<br />

∞∑<br />

n=1<br />

n=1<br />

n<br />

∞<br />

n p+1 = ∑ 1<br />

n p < ∞.<br />

Aber f p ist nicht integrierbar. Insbesondere ist für p = 2 die Funktion f 2 = f ·f nicht integrierbar,<br />

denn:<br />

∫<br />

∞∑<br />

f p n p ∞<br />

dm =<br />

n p+1 = ∑ 1<br />

n = ∞.<br />

5.3 Definition<br />

Sei p ∈ R, 1 ≤ p < ∞. Eine A-meßbare Funktion f heißt p-fach integrierbar, wenn |f| p integrierbar<br />

ist. Für p = 1 heißt sie integrierbar und für p = 2 quadratintegrierbar. Wir definieren<br />

n=1<br />

n=1<br />

L p (m) := L p (Ω, A, m)<br />

als die Menge der reellen, messbaren, p-fach integrierbaren Funktionen. Für f ∈ L p (Ω, A, m) sei<br />

N p (f) :=<br />

( ∫ |f| dm) 1<br />

p p .<br />

Ω<br />

Dann ist<br />

Dies gilt auch für p = ∞.<br />

L p (m) = {f ∈ L 0 (Ω, A), N p (f) < ∞}.


5. L P -RÄUME 43<br />

Beh: L ∞ (m) = {f ∈ L 0 (Ω, A), N ∞ (f) < ∞}.<br />

Beweis:<br />

“⊆”: Für f ∈ L ∞ (m) existiert nach Definition ein α ∈ R + mit |f| ≤ α fast sicher. Also ist<br />

inf{α ∈ R + : |f| ≤ α fast überall} < ∞.<br />

“⊇”: Da N ∞ (f) < ∞ genau dann gilt, wenn es ein α ∈ R + gibt mit |f| ≤ α fast überall, ist<br />

jedes f ∈ {f ∈ L 0 (Ω, A), N ∞ (f) < ∞} fast sicher beschränkt.<br />

5.4 Satz (Hölder’sche Ungleichung)<br />

Seien p, q ∈ [1, ∞] mit 1 p + 1 q = 1. Für f ∈ Lp (m) und g ∈ L q (m) ist fg ∈ L(m) und es gilt die<br />

Hölder’sche Ungleichung<br />

N 1 (fg) ≤ N p (f) · N q (g).<br />

Beweis:<br />

1. Fall: p = ∞ oder q = ∞.<br />

Sei Œ p = ∞. Dann folgt die Behauptung aus 4.22 und<br />

∫<br />

∫<br />

N 1 (fg) = |fg|dm ≤ N ∞ (f)|g|dm = N ∞ (f)N 1 (g).<br />

2. Fall: 1 < p, q < ∞<br />

Sei Œ f, g ≥ 0. Ist N p (f) = 0, so ist |f| p = f = 0 fast überall und damit fg = 0 fast überall, also<br />

N 1 (fg) = 0. Daraus folgt aber schon die Behauptung. Analog schließt man im Fall N q (g) = 0.<br />

Sei also N p (f), N q (g) > 0 und<br />

Zu zeigen ist nun<br />

˜f :=<br />

f , ˜g :=<br />

g<br />

N p (f) N q (g) .<br />

N 1 ( ˜f ˜g) ≤ 1.<br />

Damit ist fg ∈ L 1 (m) und die Hölder’sche Ungleichung folgt.<br />

Für a, b ∈ R ∗ + und α := log a, β := log b gilt wegen der Konvexität der Exponentialfunktion<br />

Also ist<br />

a 1 p b<br />

1<br />

q = exp<br />

(<br />

1<br />

p α + 1 q β )<br />

≤ 1 p exp α + 1 q exp β = 1 p a + 1 q b.<br />

˜f(ω)˜g(ω) ≤ 1 p ˜f(ω) p + 1 q ˜g(ω)q (ω ∈ Ω)<br />

und damit<br />

∫<br />

N 1 ( ˜f ˜g) =<br />

˜f ˜gdm ≤ 1 p<br />

∫<br />

˜f p dm + 1 q<br />

∫<br />

˜g q dm = 1.<br />

✷<br />

5.5 Korollar<br />

Ist m(Ω) < ∞, so ist jede p-fach integrierbare Funktion einfach integrierbar (p ∈ [1; ∞]), d.h.<br />

L p (m) ⊆ L 1 (m) (p ∈ [1; ∞]).<br />

Beweis: Wende 5.4 an mit g = 1.<br />


44 KAPITEL 1. MASSE UND INTEGRALE<br />

5.6 Hauptsatz<br />

Sei p ∈ [1; ∞].<br />

1. L p (m) ist ein Vektorverband,<br />

2. N p ist eine Halbnorm auf L p (m).<br />

Beweis: Für p = 1 und p = ∞ ist die Behauptung klar. Sei also p ∈ (1; ∞).<br />

1. Seien Œ f, g ∈ L p +(m). Es gilt<br />

(f + g) p ≤ 2 p (sup(f, g)) p = 2 p sup(f p , g p ) ≤ 2 p (f p + g p ) ∈ L 1 (m).<br />

Damit ist f + g ∈ L p (m) und sup(f, g) ∈ L 1 (m). Wegen N p (αf) = |α|N p (f) für α ∈ R ist<br />

L p (m) ein Vektorverband.<br />

2. Zu zeigen ist nur die Dreiecksungleichung:<br />

Beh: N p (f + g) ≤ N p (f) + N p (g) (f, g ∈ L p (m)).<br />

Sei q =<br />

p<br />

p−1 , so dass 1 p + 1 q<br />

= 1. Es gilt<br />

∫<br />

∫<br />

(N p (f + g)) p = (f + g) p dm = (f + g)(f + g) p−1 dm<br />

∫<br />

= f(f + g) 1−p + g(f + g) 1−p dm<br />

und damit<br />

= N 1 (f(f + g) p−1 ) + N 1 (g(f + g) p−1 )<br />

5.4<br />

≤ N p (f)N q ((f + g) p−1 ) + N p (g)N q ((f + g) p−1 )<br />

= N p (f) + N p (g))(N p (f + g)) p−1<br />

N p (f + g) ≤ N p (f) + N p (g).<br />

✷<br />

5.7 Korollar<br />

Es gilt<br />

f ∈ L p (m) ⇐⇒ f + , f − ∈ L p (m) ⇒ |f| ∈ L p (m).<br />

Beweis: Folgt aus 4.10.<br />

✷<br />

5.8 Korollar<br />

∫<br />

Auf L 2 (m) wird durch 〈f, g〉 := fgdm ein Pseudoskalarprodukt (d.h. linear in jeder Komponente,<br />

kommutativ, distributiv, aber nicht definit, d.h 〈f, f〉 = 0 ⇏ f = 0) definiert und es gilt<br />

die Cauchy-Schwarz’sche Ungleichung<br />

( ∫ ) 2<br />

∫ ∫<br />

〈f, g〉 2 = fgdm ≤ f 2 dm · g 2 dm = 〈f, f〉 · 〈g, g〉.<br />

Beweis: Verwende 5.4 mit p = q = 2.<br />


5. L P -RÄUME 45<br />

5.9 Satz<br />

Für 1 ≤ p ≤ ∞ ist<br />

N := Np<br />

−1 (0) = {f ∈ L 0 (Ω, A), f = 0 fast überall}<br />

unabhängig von p ein linearer Teilraum von L p (m).<br />

Durch<br />

f ∼ g ⇔ f − g ∈ N ⇔ N p (f − g) = 0 ⇔ f = g fast überall<br />

wird eine Äquivalenzrelation definiert.<br />

Beweis: Der Raum N ist ein Teilraum, da N p eine Halbnorm, d.h. homogen ist und die Dreiecksungleichung<br />

gilt. Schließlich wird wegen 4.20.4 und 4.20.5 durch ∼ eine Äquivalenzrelation<br />

definiert.<br />

✷<br />

5.10 Definition<br />

Für 1 ≤ p ≤ ∞ ist der Raum<br />

L p (m) := Lp (m)<br />

∼<br />

der Äquivalenzklassen ( f) ˙ = f + N (f ∈ L p (m)) ein Vektorraum und<br />

||( ˙ f)|| p = N p (f)<br />

definiert unabhängig vom Repräsentanten f ∈ f ˙ eine Norm auf L p (m).<br />

Damit bezeichnen ||.|| p bzw. N p die Norm bzw. Halbnorm der Konvergenz im p-ten Mittel.<br />

Ist p = 1, so spricht man von der Kovergenz im Mittel, ist p = 2 so von der Konvergenz im<br />

quadratischen Mittel. Die Konvergenz im p-ten Mittel ist mit der Vektorraum-Struktur verträglich,<br />

d.h.<br />

f n<br />

L p (m)<br />

−−−−→ f, g n<br />

L p (m)<br />

−−−−→ g ⇒ f n + g n<br />

L p (m)<br />

−−−−→ f + g, αf n<br />

L p (m)<br />

−−−−→ αf.<br />

Häufig unterscheidet man nicht zwischen L p (m) und L p (m) und schreibt ||.|| p statt N p .<br />

Analog kann man den Raum L 0 (Ω, A, m) der Äquivalenzklassen der messbaren Funktionen definieren.<br />

5.11 Bemerkung<br />

Sei p ∈ [0; ∞]. Komplexe Funktionen sind A-messbare Funktionen bzw. p-fach m-integrierbare<br />

Funktionen, falls sowohl Real- als auch Imaginärteil diese Eigenschaften haben. Für die entsprechenden<br />

Räume wird<br />

L p (C, B(C), m) =: L p C (m) := L0 (Ω, A, C) ∩ {N p < ∞},<br />

L p (m, B(C), C) =: L p C (m) := L0 (Ω, A, C) ∩ {N p < ∞}<br />

definiert. Nun ist N p eine Halbnorm auf L p C (m), ||.|| p eine Norm auf L p C<br />

(m) und<br />

∫<br />

〈f, g〉 := fgdm<br />

definiert ein Pseudoskalrprodukt auf L 1 C (m). Die Abbildung<br />

∫ ∫<br />

f ↦→ fdm := Rfdm + iIfdm<br />

definiert eine komplexe Linearform mit<br />

∫<br />

∣<br />

∫<br />

fdm∣ ≤<br />

|f|dm.


46 KAPITEL 1. MASSE UND INTEGRALE<br />

Denn es gibt ein α ∈ C mit |α| = 1, so dass α ∫ fdm ∈ R + und damit<br />

∫<br />

∫<br />

∫ ∫ ∫<br />

∫<br />

∣<br />

∣ fdm∣ = ∣α fdm∣ = α fdm = αfdm = Rαfdm ≤<br />

∫<br />

∫ ∫<br />

≤ |αf|dm = |α| |f|dm = |f|dm.<br />

|Rαf|dm<br />

5.12 Beispiele<br />

1. Sei I eine Indexmenge, I ≠ ∅ und<br />

m := ∑ i∈I<br />

ɛ i<br />

das Zählmaß auf P(I) wie in 2.7.2. Damit ist ∅ die einzige m-Nullmenge, d.h. N = {∅}. Damit<br />

ist L p C (m) ∼ = L p C (m) =: lp C (I). Da L0 (I, P(I), C) = C I , gilt für jede Folge X = (x i ) i∈I i ∈ I N :<br />

( ∑<br />

||X|| p = |x i | p) 1 p .<br />

Damit ist l p C<br />

(I) die Menge der p-fach absolut summierbaren Funktionen Für p = ∞ ist<br />

i∈I<br />

||x|| ∞ = sup |x i |.<br />

i∈I<br />

Der Raum lC ∞ (I) ist also der Raum der beschränkten Folgen in C.<br />

Spezialfälle sind:<br />

• Für I = N ist l p C<br />

(N) der Raum der über N absolut summierbaren Folgen.<br />

• Für I = N und p = 2 ist lC 2 (N) der Hilbert’sche Folgenraum.<br />

• Für I = {1, . . . , n} ist l p C (I) ∼ = C n und<br />

( ∑<br />

n<br />

||x|| p = |x| p) 1 p (p ∈ (1; ∞)) bzw. ||x||∞ = sup |x i |.<br />

1≤i≤n<br />

i=1<br />

• Für I = {1, . . . , n} und p = 2 ist ||.|| 2 die euklidische Norm auf C n .<br />

2. Sei (Ω, A, P) ein Wahrscheinlichkeitsraum und X ∈ L 2 (P) eine quadratisch integrierbare Zufallsvariable.<br />

Dann definieren wir<br />

Var[X] :=<br />

∫ (X<br />

− E[X]<br />

) 2dP.<br />

Nach 4.20.1 ist dabei Œ X reellwertig. Da X ∈ L 2 (P) ⊆ L 1 (P) nach 5.5, ist mit α := E[X] ∈ R<br />

und damit X 2 , X, α ∈ L 1 (P). Damit ist aber (X − α) 2 = X 2 − 2αx + α 2 ∈ L 2 (P), d.h.<br />

Var[X] < ∞.<br />

Es gilt<br />

∫<br />

Var[X] =<br />

∫<br />

X 2 dP − 2α<br />

∫ ∫<br />

∫<br />

XdP + α 2 1dP = X 2 − (E(X)) 2 dP = X 2 dP − (E[X]) 2 .<br />

} {{ }<br />

=1<br />

Allgemein definiert man für k ∈ N und X ∈ L k (P) das k-te Moment<br />

∫<br />

E[X k ] = X k dP.<br />

Schließlich definiert man noch<br />

σ[X] := √ Var[X],<br />

die Standardabweichung oder Streuung von X.


5. L P -RÄUME 47<br />

5.13 Korollar<br />

Sei X ∈ L 2 (P) Dann gilt<br />

V (X) = 0 ⇔ X = E[X] fast sicher.<br />

Beweis: Sei Y := (X − E[X]) 2 . Dann ist ||Y || 1<br />

X = E[X] fast sicher.<br />

= 0, d.h. Y = 0 fast sicher. Das heißt aber<br />


48 KAPITEL 1. MASSE UND INTEGRALE<br />

6 Konvergenzsätze<br />

6.1 Hauptsatz (Beppo Levi)<br />

Sei m ein σ-additiver Inhalt auf einem Ring R. Dann gilt für jede isotone Folge (f n ) n∈N von<br />

Funktionen mit<br />

∫ ∗<br />

f n dm > −∞<br />

für ein und damit für schließlich alle n ∈ N<br />

∫ ∗ ∫ ∗<br />

sup f n dm = sup f n dm.<br />

n∈N<br />

n∈N<br />

Beweis:<br />

“≥”: Sei Œ<br />

∫ ∗<br />

f n dm > −∞ (n ∈ N). Dann ist wegen f n ≤ sup n∈N f n (n ∈ N)<br />

“≤”: Sei Œ<br />

∫ ∗<br />

sup f n dm ≤<br />

n∈N<br />

∫ ∗<br />

f n dm < ∞ (n ∈ N), und<br />

∫ ∗<br />

sup f n dm.<br />

n∈N<br />

∫ ∗<br />

f n dm ∈ R (n ∈ N). Sei ɛ > 0 und E :=<br />

E(Ω, R, m).<br />

∫ ∗ ∫ ∗<br />

Beh: Es gibt eine isotone Folge (t n ) n∈N ∈ (E σ ) N mit t n ≥ f n und t n dm ≤ f n dm+<br />

n∑<br />

ɛ<br />

i=1<br />

1<br />

2 i .<br />

Beweis durch Induktion:<br />

“n = 1”: folgt aus der Definition des Oberintegrals.<br />

“n → n + 1”: Wie im Fall n = 1 gibt es ein t ∈ E σ mit t ≥ f n+1 , µ σ (t) < ∞ und<br />

∫<br />

µ σ (t) ≤ f n+1 dm + ɛ 1<br />

2<br />

. n+1<br />

Definiere t n+1 = sup(t n , t) ∈ E σ . Dann ist t n+1 ≥ t n . Wegen t ≥ f n+1 ≥ f n und<br />

t n ≥ f n ist inf(t n , t) ≥ f n und daraus folgt<br />

∫ ∗ ∫ ∗<br />

t n+1 dm = t n + t − inf(t n , t)dm<br />

Für n → ∞ ergibt sich<br />

≤<br />

=<br />

∫ ∗<br />

f n dm + ɛ<br />

n∑<br />

i=1<br />

∫ ∗ n+1<br />

∑<br />

f n dm + ɛ<br />

i=1<br />

∫ ∗ ∫ ∗<br />

1<br />

2<br />

+ f i n+1 dm +<br />

ɛ<br />

2<br />

− f n+1 n dm<br />

1<br />

2 i .<br />

∫ ∗ ∫ ∗<br />

t n dm ≤ f n dm + ɛ (n ∈ N)<br />

und damit<br />

∫ ∗<br />

sup f n dm ≤<br />

n∈N<br />

Für ɛ → 0 ergibt sich die Behauptung<br />

∫ ∗ ∫ ∗<br />

sup t n dm 4.5<br />

= sup µ σ (t n ) ≤ sup f n dm + ɛ (ɛ > 0).<br />

n∈N


6. KONVERGENZSÄTZE 49<br />

✷<br />

——————————————————————–<br />

Für den Rest dieses Paragrafen sei (Ω, A, m) ein Maßraum.<br />

6.2 Korollar (Minkowski’sche Ungleichung)<br />

∞∑<br />

Sei (f n ) n∈N ∈ (L 0 (Ω, A)) N mit |f n | < ∞ fast sicher. Dann gilt<br />

n=1<br />

( ∑ ∞ ) ∞∑<br />

N p f n ≤ N p (f n )<br />

n=1 n=1<br />

(1 ≤ p ≤ ∞).<br />

Beweis:<br />

“p = ∞”: Es ist |f n | ≤ N ∞ (f n ) fast überall und damit nach 4.19.2<br />

∞∑ ∣ ∞∑ ∞∑<br />

∣ f n ≤ |f n | ≤ N ∞ (f n ) fast überall,<br />

also<br />

n=1<br />

n=1<br />

n=1<br />

( ∑<br />

∞ ) ∑<br />

∞<br />

N ∞ f n ≤ N ∞ (f n ).<br />

( ∑<br />

m ) p ( ∑<br />

∞ ) p.<br />

“1 ≤ p < ∞”: Sei Œ f n ≥ 0 (n ∈ N). Damit ist f n ↑ f n<br />

Mit 6.1 folgt<br />

also<br />

n=1<br />

n=1<br />

n=1<br />

n=1<br />

n=1<br />

∫ ∗ ( ∑<br />

m ) pdm<br />

∫ ∗ ( ∑<br />

∞ ) pdm,<br />

f n ↑m f n<br />

n=1<br />

( ∑<br />

∞ ) ( ∑<br />

m )<br />

N p f n = sup N p f n ≤ sup<br />

m∈N<br />

n=1<br />

n=1<br />

m∈N<br />

n=1<br />

m∑<br />

∞∑<br />

N p (f n ) = N p (f n ).<br />

n=1<br />

✷<br />

6.3 Satz (monotone Konvergenz)<br />

Für jede monotone Folge (f n ) n∈N ∈ (L 1 (m)) N integrierbarer Funkionen gilt<br />

∫<br />

lim f n ∈ L 1 (m) ⇐⇒ lim f n dm < ∞.<br />

n∈N n→∞<br />

Dann ist<br />

∫<br />

∫<br />

lim f ndm = lim<br />

n→∞ n→∞<br />

f n dm.<br />

Beweis: Sei Œ (f n ) n∈N isoton und f := sup f n . Dann gilt<br />

n∈N<br />

∫<br />

−∞ <<br />

∫<br />

f n dm ≤ sup<br />

n∈N<br />

f n dm = sup<br />

n∈N<br />

6.1<br />

= sup<br />

n∈N<br />

∫ ∗ ∫ ∗<br />

f n dm ≤ fdm<br />

∫ ∗ ∫<br />

f n dm = sup<br />

n∈N<br />

f n dm.


50 KAPITEL 1. MASSE UND INTEGRALE<br />

Daraus folgt die Behauptung.<br />

✷<br />

6.4 Lemma (Fatou)<br />

Für jede Folge (f n ) n∈N ∈ (L 0 (Ω, A)) N messbarer Funktionen mit einer gemeinsamen integrierbaren<br />

Minorante g ≤ f n (n ∈ N) gilt:<br />

∫ ∗ ∫ ∗<br />

lim inf f ndm ≤ lim inf f n dm.<br />

n→∞ n→∞<br />

Beweis: Sei g n := inf<br />

k≥n f k ≥ g. Dann ist<br />

lim inf f n = sup inf f k = sup<br />

n→∞ k≥n<br />

n∈N<br />

g n<br />

n∈N<br />

und (g n ) n∈N ist eine isotone Folge. Aus<br />

∫ ∗<br />

g n dm ≥<br />

∫<br />

gdm > −∞<br />

folgt<br />

∫ ∗<br />

lim inf<br />

n∈N f ndm =<br />

∫ ∗ ∫ ∗ ∫ ∗<br />

sup g n dm 6.1<br />

= sup g n dm = sup<br />

n∈N<br />

n∈N<br />

n∈N<br />

inf<br />

k≥n f k<br />

} {{ }<br />

≤f k (k≥n)<br />

dm<br />

≤ sup inf<br />

n∈N k≥n<br />

∫ ∗<br />

f k dm = lim inf<br />

n→∞<br />

∫ ∗<br />

f n dm.<br />

✷<br />

6.5 Definition<br />

Sei (A n ) n∈N ∈ A N . Definiere<br />

lim inf<br />

n→∞ A n :=<br />

lim sup A n :=<br />

n→∞<br />

∞⋃<br />

⋂<br />

A k ,<br />

n=1 k≥n<br />

∞⋂<br />

⋃<br />

A k .<br />

n=1 k≥n<br />

In Worten heißt das:<br />

• lim inf<br />

n→∞ A n ist die Menge der ω ∈ Ω, die in allen bis auf endlich vielen A n liegen.<br />

• lim sup A n ist die Menge der ω ∈ Ω, die in unendlich vielen A n liegen.<br />

n→∞<br />

6.6 Lemma<br />

Sei (A n ) n∈N ∈ A N . Dann gilt<br />

1. lim inf 1 A n<br />

= 1 lim inf lim sup<br />

n∈N n∈N An n∈N<br />

2. m [ lim inf A ]<br />

n ≤ lim inf m[A n],<br />

n∈N<br />

n∈N<br />

3. falls m[Ω] < ∞, so gilt m [ lim sup<br />

n→∞<br />

1 An = 1 lim sup A n<br />

,<br />

n∈N<br />

]<br />

A n ≥ lim sup m[A n ].<br />

n→∞


6. KONVERGENZSÄTZE 51<br />

Beweis:<br />

1. Klar.<br />

2. Klar nach 6.4.<br />

3. Folgt aus 1., denn<br />

m [ lim sup<br />

n→∞<br />

] [ ] [<br />

A n = m[Ω] − m C lim sup A n = m[Ω] − m lim inf CA ]<br />

n<br />

n→∞<br />

n→∞<br />

1.<br />

≥ m[Ω] − lim inf m[CA (<br />

n] = m[Ω] − lim inf m[Ω] − m[An ] )<br />

n→∞ n→∞<br />

= m[Ω] − m[Ω] − lim inf (−m[A n]) = lim sup m[A n ].<br />

n→∞<br />

n→∞<br />

✷<br />

6.7 Lemma (Borel-Cantelli)<br />

Sei (A n ) n∈N ∈ A N . Es gilt<br />

∞∑<br />

n=1<br />

m[A n ] < ∞ ⇔ m [ ]<br />

lim sup A n = 0.<br />

n→∞<br />

Beweis: Es gilt für n ∈ N<br />

m [ lim sup<br />

n→∞<br />

∫<br />

] ∗<br />

A n = 1 lim sup A n<br />

dm =<br />

n→∞<br />

≤ ∑ k≥n<br />

∫ ∗<br />

1 Ak dm = ∑ k≥n<br />

∫ ∗<br />

1 ∞<br />

⋂<br />

n=1 k≥n<br />

m[A k ].<br />

⋃ dm ≤<br />

A k<br />

∫ ∗<br />

1 ⋃ dm ≤<br />

A k<br />

k≥n<br />

∫ ∗ ∑<br />

1 Ak dm<br />

k≥n<br />

Daraus folgt für n → ∞ die Behauptung.<br />

✷<br />

6.8 Hauptsatz (majorisierten Konvergenz, H. Lebesgue)<br />

Sei 1 ≤ p ≤ ∞ und (f n ) n∈N ∈ (L p (m)) N eine fast überall gegen ein Funktion f konvergent<br />

Folge und g ∈ L p (m) eine Betragsmajorante, d.h |f n | ≤ g fast überall (n ∈ N).<br />

Dann ist f ∈ L p (m) und (f n ) n∈N konvergiert gegen f im p-ten Mittel.<br />

Beweis: Es gibt eine Nullmenge N, so dass f n → f punktweise auf CN, |f n | ≤ g auf CN und<br />

g(CN) ⊆ R + . Da N eine Nullmenge ist, sei Œ N = ∅.<br />

Sei nun f, f n (n ∈ N) reellwertig und |g| p ∈ L 1 (m). Wegen |f| p ≤ |g| p ∈ L 1 (m) und dem Majorantenkriterium<br />

∫ (4.11) ist f ∈ L p (m). ∫ Sei g n := |f − f n | p ∈ L 1 (m).<br />

Beh: lim g n dm = 0, d.h. lim sup gdm = 0.<br />

n→∞<br />

n→∞<br />

Denn: Es gilt lim g n = 0 punktweise und<br />

n→∞<br />

g n ≤ (|f| + |f n |) p ≤ (|f| + g) p ∈ L 1 (m).<br />

Also hat die Folge (g n ) n∈N eine gemeinsame, integrierbare Majorante und mit 6.4 gilt<br />

∫<br />

∫<br />

∫<br />

0 ≤ lim sup g n dm = − lim inf −g n dm ≤ − lim inf (−g n)dm = 0.<br />

n→∞<br />

n→∞<br />

n→∞<br />


52 KAPITEL 1. MASSE UND INTEGRALE<br />

6.9 Satz<br />

Konvergiert eine Folge (f n ) n∈N ∈ (L p (m)) N gegen ein f ∈ L p (m) im p-ten Mittel, so gilt<br />

N p (f) = lim<br />

n→∞ N p(f n ).<br />

Insbesondere gilt für p = 1<br />

∫<br />

∫<br />

fdm = lim<br />

n→∞<br />

f n dm.<br />

Beweis: Nach der umgedrehten Dreiecksungleichung ist<br />

|N p (f) − N p (f n )| ≤ N p (f − f n ) → 0.<br />

Für p = 1 gilt<br />

∫<br />

∣<br />

∫<br />

fdm −<br />

∫<br />

f n dm∣ ≤<br />

|f − f n |dm = N 1 (f − f n ) → 0.<br />

✷<br />

6.10 Lemma<br />

Sei 1 ≤ p < ∞, (f n ) n∈N ∈ (L p (m)) N und<br />

∞∑<br />

N p (f n+1 − f n ) < ∞.<br />

n=1<br />

Dann konvergiert (f n ) n∈N fast überall und im p-ten Mittel gegen ein f ∈ L p (m).<br />

∞∑<br />

Beweis: Sei g n := f n+1 − f n ∈ L p (m) und g := |g n |. Dann ist<br />

n=1<br />

∞∑<br />

∞∑<br />

N p (g) = N p (g n ) = N p (f n+1 − f n ) < ∞,<br />

n=1<br />

n=1<br />

also g ∈ L p (m), d.h. g p ∈ L 1 (m). Insbesondere ist g fast überall endlich und die Reihe<br />

konvergiert fast überall absolut.<br />

Da f n+1 = f 1 + g 1 + . . . g n , konvergiert die Folge (f n ) n∈N fast überall mit<br />

∞∑<br />

n=1<br />

g n<br />

|f n+1 | ≤ |f 1 | + g ∈ L p (m) (n ∈ N).<br />

Nach 6.8 gibt es ein f ∈ L p (m), wobei f n → f fast überall und im p-ten Mittel.<br />

✷<br />

6.11 Hauptsatz (Riesz-Fischer)<br />

Sei 1 ≤ p ≤ ∞. Dann ist L p (m) vollständig bzgl N p , d.h. jede Cauchy-Folge konvergiert im<br />

p-ten Mittel.<br />

Beweis:<br />

“1 ≤ p < ∞”: Sei (f n ) n∈N ∈ (L p (m)) N eine Cauchy-Folge. Nach Definition einer Cauchy-Folge gilt<br />

∀k ∈ N ∃n(k) ∈ N, n(k) > n(k − 1) : N p (f i − f j ) ≤ 1<br />

2 k (i, j ≥ n(k)).


6. KONVERGENZSÄTZE 53<br />

Damit ist<br />

∞∑<br />

∞∑ 1<br />

N p (f n(k+1) − f n(k) ) ≤<br />

2 k < ∞.<br />

k=1<br />

Mit 6.10 gibt es ein f ∈ L p (m) mit f n(k) → f in L p (m) und fast sicher. Da |f n | eine Cauchy-<br />

Folge ist, gilt<br />

N p (f n − f) ≤ N p (f n − f n(k) )<br />

} {{ }<br />

< 1<br />

2 k für n>n(k) +N p (f n(k) − f),<br />

also f n → f im p-ten Mittel.<br />

“p = ∞”: Ist (f n ) n∈N ∈ (L ∞ (m)) N eine Cauchy-Folge bzgl. N ∞ . Dann gilt<br />

∀k ∈ N ∃n(k) ∈ N, n(k) > n(k − 1), Nullmenge N k : ||f i − f j || CNk ≤ 1<br />

2 k (i, j ≥ n(k)).<br />

Auch N := ⋃ N k ist eine Nullmenge und (fn<br />

CN ) n∈N ist eine Cauchy-Folge bzgl. der Supre-<br />

k∈N<br />

mumsnorm auf CN, also ist die Folge auf CN gleichmäßig konvergent gegen eine beschränkte<br />

Funktion f. Also ist f CN ∈ L ∞ (m) und f n → f bzgl. N ∞ .<br />

6.12 Korollar<br />

Sei 1 ≤ p ≤ ∞ und (f n ) n∈N ∈ (L p (m)) N eine Cauchy-Folge bzgl. N p .<br />

1. Konvergiert (f n ) n∈N im p-ten Mittel gegen f ∈ L p (m), so konvergiert eine geeignete Teilfolge<br />

m-fast-überall gegen f.<br />

2. Konvergiert (f n ) n∈N fast überall gegen eine Funktion f, so ist f ∈ L p (m) und (f n ) n∈N konvergiert<br />

gegen f im p-ten Mittel.<br />

k=1<br />

✷<br />

Beweis:<br />

1. Im Beweis von 6.11 gilt nach 6.10 f n(k) → f fast überall und in L p (m) und f ist als Limes fast<br />

sicher eindeutig.<br />

2. Die Folge (f n ) n∈N konvergiert im p-ten Mittel. Nach 1. gibt es ein g ∈ L p (m) mit f n → g in<br />

L p (m) und es gibt eine Teilfolge f n(k) mit f n(k) → g fast überall. Wegen f n(k) → f fast überall<br />

ist f = g fast überall. Also ist f ∈ L p (m) und f n → f im p-ten Mittel.<br />

6.13 Bemerkung<br />

Wie 6.11 zeigt, sind die normierten Räume L p (m) vollständig, wobei die Norm von einer Halbnorm<br />

auf L p (m) abgeleitet ist. D.h, die Räume L p sind Banachräume. L 2 (m) ist ein Hilbertraum, wobei<br />

das Skalarprodukt von dem Skalarprodukt aus 5.8 abgeleitet ist.<br />

In der Funktionalanalysis zeigt man, daß jeder Hilbertraum isomorph zu einem l 2 (I) mit i.A.<br />

überabzählbarer Indexmenge I, deren Mächtigkeit gleich der Hilbertraum-Dimension ist, ist (vgl.<br />

5.12). Ferner zeigt man, daß der topologische Dualraum<br />

L p (m) ′ := {ϕ : L p (m) → R : ϕ ist ||.|| p -stetige Linearform} ∼ = L q (m)<br />

ist mit 1 p + 1 q<br />

= 1 (1 < p < ∞). Es gilt die Reflexivität<br />

L p (m) ′′ ∼ = L p (m),<br />

L 2 (m) ′ ∼ = L 2 (m).<br />

Ist m σ-endlich, so gilt auch L 1′ ∼ = L ∞ , aber schon für das Lebesgue-Borel’sche Maß auf Ω = [0; 1]<br />

nur (L ∞ (λ)) ′ ⊃ L 1 (λ) ([HS], 5.3.53)<br />


54 KAPITEL 1. MASSE UND INTEGRALE<br />

6.14 Satz (Tschebycheff-Markoff’sche Ungleichung)<br />

Sei f ∈ L 0 (Ω, A), ɛ > 0 und p ∈ R ∗ +. Dann gilt<br />

m[|f| ≥ ɛ] ≤ 1<br />

ɛ p ∫<br />

|f| p dm.<br />

Beweis: Definiere A ɛ := {|f| ≥ ɛ} ∈ A. Dann gilt ɛ p 1 Aɛ ≤ |f| p und damit<br />

∫<br />

m[A ɛ ] ≤ 1<br />

ɛ<br />

|f| p dm.<br />

p<br />

✷<br />

6.15 Definition<br />

Eine Folge (f n ) n∈N ∈ (L 0 (Ω, A)) N konvergiert stochastisch gegen f ∈ L 0 (Ω, A), wenn<br />

Dann schreibt man f = m − lim<br />

n→∞ f n.<br />

6.16 Lemma<br />

Sei (f n ) n∈N ∈ (L 0 (Ω, A)) N .<br />

1. Für f, g ∈ L 0 (Ω, A) gilt<br />

f = m − lim<br />

n→∞ f n<br />

lim m{|f − f n| ≥ ɛ} = 0 (ɛ > 0).<br />

n→∞<br />

∧ g = m − lim<br />

n→∞ f n ⇐⇒ g = f fast sicher,<br />

d.h. ein stochastischer limes ist fast sicher eindeutig bestimmt.<br />

2. Sei 1 ≤ p ≤ ∞. Konvergiert (f n ) n∈N im p-ten Mittel gegen f ∈ L p (m), so konvergiert (f n ) n∈N<br />

stochastisch gegen f.<br />

Beweis:<br />

1. “ ⇐ ”: Klar, denn {|f − f n ≥ ɛ} und {|g − f n | ≥ ɛ} unterscheiden sich nur durch Nullmengen.<br />

“ ⇒ ”: Es gilt<br />

∞⋃<br />

∞<br />

{f ≠ g} = {|f − g| ≥ 1 k } ⊆ ⋃<br />

k=1<br />

k=1 n=1<br />

∞⋂<br />

{|f − f n | ≥ 1<br />

2k } ∪ {|f n − g| ≥ 1<br />

2k },<br />

also<br />

2. Nach 6.14 ist<br />

m[f ≠ g] ≤<br />

≤<br />

∞∑ [ ⋂<br />

]<br />

m {|f − f n | ≥ 1<br />

2k } ∪ {|g − f n| ≥ 1<br />

2k<br />

k=1<br />

n∈N<br />

∞∑ [ ⋂<br />

] [<br />

m {|f − f n | ≥ 1<br />

2k } ⋂<br />

]<br />

+ m {|g − f n | ≥ 1<br />

2k } = 0.<br />

k=1<br />

n∈N<br />

n∈N<br />

lim m[|f − f 1<br />

n| ≥ ɛ ≤ lim<br />

n→∞ n→∞ ɛ<br />

(N p p (f − f n )) p = 0.<br />


6. KONVERGENZSÄTZE 55<br />

6.17 Lemma<br />

Seien (f n ) n∈N ∈ (L 0 (Ω, A)) N , f ∈ L 0 (Ω, A). Dann gilt<br />

[<br />

f n → f fast sicher ⇐⇒ lim m ⋃<br />

∞ ]<br />

{|f n+k − f| ≥ ɛ} = 0 (ɛ > 0).<br />

n→∞<br />

k=1<br />

Beweis: Es gilt<br />

Also ist<br />

C{f = lim f n} = ⋃ ∞⋂<br />

n→∞<br />

ɛ>0<br />

[ ⋂<br />

∞<br />

f n → f fast sicher ⇐⇒ m<br />

Da m stetig von oben ist, ist weiter<br />

n=1 k=1<br />

∞⋃<br />

n=1 k=1<br />

∞⋃<br />

{|f n+k − f| ≥ ɛ}.<br />

]<br />

{|f n+k − f| ≥ ɛ} = 0 (ɛ > 0)<br />

[<br />

f n → f fast sicher ⇐⇒ lim m ⋃ ∞ ]<br />

{|f n+k − f| ≥ ɛ} = 0 (ɛ > 0).<br />

n→∞<br />

k=1<br />

✷<br />

6.18 Korollar<br />

Sei (f n ) n∈N ∈ (L 0 (Ω, A)) N und f ∈ L 0 (Ω, A). Dann gilt<br />

f n → f fast sicher =⇒ f n → f stochastisch.<br />

Beweis: Für ɛ > 0 und n ∈ N gilt<br />

∞⋃<br />

{|f n+1 − f| ≥ ɛ} ⊆ {|f n+k − f| ≥ ɛ}.<br />

k=1<br />

Damit folgt nach 6.17 die Behauptung.<br />

✷<br />

6.19 Satz<br />

Eine Folge (f n ) n∈N ∈ (L 0 (Ω, A)) N konvergiert genau dann stochastisch gegen ein f ∈ L 0 (Ω, A),<br />

wenn jede Teilfolge von (f n ) n∈N eine fast sicher gegen f konvergente Teilfolge besitzt.<br />

Beweis:<br />

“⇒”: Da (f n ) n∈N stochastisch konvergiert, gibt es f := m − lim<br />

n→∞ f n. Dann ist f auch stochastischer<br />

Limes jeder Teilfolge. Es genügt daher zu zeigen, daß (f n ) n∈N eine fast sicher<br />

gegen f konvergente Teilfolge hat.<br />

Nun gibt es zu j ∈ N ein n(j) ∈ N mit<br />

m [ |f n − f| ≥ 1 2 j ]<br />

≤<br />

1<br />

2 j (n ≥ n(j)).<br />

Dabei ist Œ n(j) > n(j − 1) (j ∈ N). Zu ɛ > 0 gibt es außerdem ein N(ɛ) ∈ N mit<br />

1<br />

2 j ≤ ɛ (j ≥ N(ɛ)).


56 KAPITEL 1. MASSE UND INTEGRALE<br />

Es gilt nun für (j ≥ N(ɛ), n(j) ≥ N(ɛ))<br />

[ ⋃<br />

∞ ] [ ⋃<br />

m {|f n(j+k) − f| ≥ ɛ} ≤ m {|f n − f| ≥ 1<br />

k=1<br />

k>j<br />

Also konvergiert mit 6.17 (f n(j) ) j∈N fast sicher gegen f.<br />

2 k }<br />

]<br />

≤ ∑ 1<br />

= 1 2 k 2<br />

≤ ɛ.<br />

j<br />

k>j<br />

“⇐”: Sei ɛ > 0 und<br />

[<br />

]<br />

α n := m {|f n − f| ≥ ɛ} .<br />

Definiere die Teilfolge (α n(j) ) j∈N durch<br />

lim α n(j) = lim sup α n .<br />

j→∞<br />

n→∞<br />

Sei (f n(j(k)) ) k∈N eine Teilfolge von (f n(j) ) j∈N mit lim<br />

n→∞ f n(j(k)) = f fast sicher. Nach 6.18<br />

ist<br />

lim<br />

k→∞ α n(j(k)) = 0,<br />

also lim α n = lim sup α n = 0.<br />

n→∞<br />

n→∞<br />

✷<br />

6.20 Bemerkung<br />

Auf L 0 (Ω, A) gibt es keine Pseudometrik d, so dass<br />

f n → f fast sicher<br />

äquivalent ist zu lim α n := lim d(f, f n) = 0.<br />

n→∞ n→∞<br />

Angenommen, es gäbe eine solche Pseudometrik und sei (f n ) n∈N eine gegen f stochastisch, aber<br />

nicht fast-sicher konvergente Folge. Nach 6.19 gibt es zu jeder Teilfolge (α n(j) ) j∈N eine gegen 0 konvergente<br />

Teilfolge (α n(j(k)) ) k∈N . Dann wäre wie im Beweis von 6.19 lim sup α n = 0 im Widersprich<br />

n→∞<br />

<strong>zur</strong> nicht fast sicheren Konvergenz.<br />

Es gibt aber Pseudometriken, die die stochastische Konvergenz definieren.<br />

6.21 Definition<br />

Eine Familie (f i ) i∈I ∈ (L 1 (m)) I heißt gleichgradig integrierbar, wenn<br />

6.22 Satz<br />

∫<br />

lim sup |f i |dm = 0.<br />

α→∞ i∈I {|f i|≥α}<br />

Sei m ein endliches Maß. Eine Familie (f i ) i∈I ∈ (L 1 (m)) I ist genau dann gleichgradig integrierbar,<br />

wenn<br />

( ∫<br />

) (<br />

∫<br />

)<br />

sup |f i |dm < ∞ ∧ ∀ɛ > 0 ∃δ > 0 ⇒ ∀A ∈ A mit m[A] ≤ δ : |f i |dm ≤ ɛ (i ∈ I) .<br />

i∈I<br />

A<br />

Beweis:


6. KONVERGENZSÄTZE 57<br />

“ ⇐ ”: Sei ɛ, δ wie in der Voraussetzung. Es gibt ein α 0 ∈ R + , so dass für α ≥ α 0<br />

∫<br />

|f i |dm ≤ δ.<br />

1<br />

α sup<br />

i∈I<br />

Mit 6.14 ist für i ∈ I<br />

m[|f i | ≥ α] ≤ 1 α<br />

∫<br />

|f i |dm ≤ δ,<br />

also<br />

∫<br />

{|f i|≥α}<br />

Damit folgt die Behauptung für ɛ → 0.<br />

“ ⇒ ”: Sei ɛ > 0. Dann gibt es ein α > 0 mit<br />

∫<br />

sup<br />

i∈I<br />

|f i |dm ≤ ɛ (i ∈ I).<br />

{|f i|≥α}<br />

|f i |dm ≤ ɛ 2 .<br />

Damit ist für i ∈ I<br />

∫ ∫<br />

∫<br />

|f i |dm = |f i |dm + |f i |dm ≤ ɛ 2 + αm[Ω],<br />

{|f i|≥α}<br />

{|f i|≤α}<br />

also<br />

∫<br />

sup<br />

i∈I<br />

|f i |dm ≤ ɛ 2<br />

+ αm[Ω] < ∞.<br />

Setze nun δ := ɛ<br />

2α<br />

. Sei A ∈ A mit m[A] ≤ δ. Dann gilt<br />

∫<br />

∫<br />

∫<br />

|f i |dm =<br />

|f i |dm +<br />

A<br />

A∩{|f i|≥α}<br />

A∩{|f i| 0 ein δ > 0, dass die Bedingung aus 6.22 für g p erfüllt ist.<br />

3. Ein Spezialfall von 2. ist:<br />

Beh: Für jede endliche Indexmenge I und (f i ) I ∈ (L p (m)) I ist (|f i | p ) I gleichgradig integrierbar.


58 KAPITEL 1. MASSE UND INTEGRALE<br />

4. Seien (f i ) i∈I , (g j ) j∈J ∈ L p (m), so dass (|f i | p ) i∈I und (|g j | p ) j∈J gleichgradig integrierbar sind.<br />

Beh: Dann sind auch (|αf i + βg j | p ) i∈I,j∈J (α, β ∈ [1; −1]) gleichgradig integrierbar.<br />

Denn: Mit 6.22 gibt es ein M > 0 mit<br />

∫<br />

∫<br />

sup<br />

i∈I<br />

Damit gilt für i ∈ I, j ∈ J, α, β ∈ [−1; 1]<br />

|f i | p dm < M, sup<br />

j∈J<br />

|g j | p dm ≤ M.<br />

N p (αf i + βg j ) ≤ N p (f i ) + N p (g j ) ≤ 2M 1 p ,<br />

also<br />

∫<br />

|αf i + βg j | p dm ≤ 2 p M < ∞.<br />

Nach Voraussetzung aus 6.22 gilt<br />

∫<br />

∫<br />

∀ɛ > 0 ∃δ > 0 ∀A ∈ A mit m[A] ≤ δ ⇒ |f i | p dm ≤ ɛ, |g j | p dm ≤ ɛ (i ∈ I, j ∈ J).<br />

Deswegen ist auch<br />

∫<br />

|αf i + βg j | p dm = (N p (αf i 1 A + βg j 1 A )) p ≤ (N p (f i 1 A ) + N p (g j 1 A )) p ≤ (2ɛ 1/p ) p = 2 p ɛ.<br />

A<br />

5. Beh.: Konvergiert (f n ) n∈N ∈ (L p (m)) N im p-ten Mittel, so ist (|f n |) n∈N gleichgradig integrierbar.<br />

A<br />

Beweis: Nach 6.11 gibt es ein f ∈ L p (m) mit lim<br />

n→∞ N p(f − f n ) = 0. Dann gilt<br />

∀ɛ > 0 ∃n 0 ∈ N : N p (f − f n ) ≤ ɛ (n ≥ n 0 ).<br />

Nach 2. und 4. genügt der Nachweis, dass (|f n | p ) n≥n0 gleichgradig integrierbar ist. Aber für<br />

n ≥ n 0 ist<br />

N p (f n ) ≤ N p (f n − f) + N p (f) ≤ ɛ + N p (f),<br />

also<br />

∫<br />

sup<br />

n≥n 0<br />

|f i | p dm ≤ [ɛ + N p (f)] p < ∞.<br />

Unter Verwendung von 6.22 wählen wir zu ɛ > 0 ein δ > 0, so dass die Bedingung aus 6.22 für<br />

f p erfüllt ist. Für n ≥ n 0 und A ∈ A mit m[A] ≤ δ gilt dann<br />

N p (f n 1 A ) ≤ N p (f n 1 A − f1 A ) + N p (f1 A ) ≤ N p (f n − f) + N p (f1 A ) ≤ ɛ + ɛ 1/p .<br />

Damit ist<br />

∫<br />

sup |f n | p dm ≤ (ɛ + ɛ 1/p ) p .<br />

n∈N A<br />

6.24 Hauptsatz<br />

Eine Folge (f n ) n∈N ∈ (L p (m)) N konvergiert genau dann im p-ten Mittel gegen eine Funktion<br />

f ∈ L p (m), wenn die Folge (f n ) n∈N stochastisch gegen f konvergiert und (f n ) n∈N gleichgradig<br />

integrierbar ist<br />

Beweis:<br />

“ ⇒ ”: Folgt aus 6.16.2 und 6.23.5.


6. KONVERGENZSÄTZE 59<br />

“ ⇐ ”: Sei f := m − lim f n. Nach 6.19 gibt es eine Teilfolge (f n(j) ) j∈N , die fast sicher gegen f<br />

n→∞<br />

konvergiert. Damit ist<br />

∫ ∗ ∫ ∗ ∫<br />

|f| p dm = lim inf |f n(j)| p dm 6.4<br />

≤ lim inf |f n(j) | p < ∞<br />

j→∞ j→∞<br />

wegen 6.22. Deshalb ist f ∈ L p (m). Nach 6.23.4 ist (|f n − f| p ) n∈N gleichgradig integrierbar.<br />

Mit 6.22 folgt<br />

∫<br />

∀ɛ > 0 ∃δ > 0 ∀A ∈ A mit m[A] ≤ δ ⇒ |f n − f| p dm ≤ ɛ.<br />

Da f = m − lim<br />

n→∞ f n, gibt es ein n 0 ∈ N, so dass für n ≥ n 0<br />

[<br />

]<br />

m {|f n − f| ≥ ɛ} ≤ δ.<br />

Deshalb ist<br />

∫<br />

∫<br />

∫<br />

|f n − f| p dm =<br />

|f n − f| p dm +<br />

|f n − f| p dm ≤ ɛ + ɛ p .<br />

{|f n−f|≥ɛ}<br />

{|f n−f|


60 KAPITEL 1. MASSE UND INTEGRALE<br />

Beweis:<br />

“1. ⇔ 2.”: Klar nach 6.24.<br />

“1. ⇒ 3.”: Klar nach 6.9.<br />

“3. ⇒ 2.”: Nach 6.19 konvergiert (|f n | p ) n∈N stochastisch gegen |f| p . Aus 6.26 folgt die Konvergenz<br />

(|f n | p ) n∈N → |f| p im Mittel. Wegen 6.24 ist (|f n | p ) n∈N gleichgradig integrierbar.<br />


Kapitel 2<br />

Konstruktion von Maßen<br />

7 Fortsetzung von Inhalten zu Maßen<br />

7.1 Definition<br />

Ein Halbring H in Ω ist ein Mengensystem H ⊆ P(Ω) mit<br />

1. ∅ ∈ H<br />

2. A, B ∈ H ⇒ A ∩ B ∈ H, d.h. H ist ∩-stabil,<br />

3. A, B, ∈ H, A ⊆ B ⇒ ∃C 1 , . . . , C n ∈ H paarweise fremd, B \ A =<br />

Ein Halbring H ist eine Algebra, falls zusätzlich<br />

4. Ω ∈ H.<br />

Ein Mengensystem H ist ein Verband, wenn<br />

1. A, B ∈ H ⇒ A ∩ B ∈ H, A ∪ B ∈ H,<br />

d.h. H ist ∩- und ∪-stabil.<br />

Eine Mengenfunktion µ : H → [0; ∞] heißt Inhalt, wenn<br />

1. µ[∅] = 0,<br />

[ ⊎ ]<br />

2. µ A i = ∑ µ[A i ]<br />

i∈I<br />

i∈I<br />

Eine Mengenfunktion µ : H → [0; ∞) heißt Prämaß, wenn<br />

1. µ[∅] = 0,<br />

[ ⊎ ]<br />

2. µ A i = ∑ µ[A i ]<br />

i∈I<br />

i∈I<br />

Ein Inhalt µ auf einem Halbring H heißt stetig von oben, wenn<br />

µ[A] = inf µ[B]<br />

B⊇A<br />

B∈H<br />

n⊎<br />

C i .<br />

i=1<br />

(A i ∈ H paarweise fremd mit ⋃ i∈I<br />

A i ∈<br />

H für jede endliche Indexmenge I).<br />

(A i ∈ H paarweise fremd mit ⋃ i∈I<br />

A i ∈<br />

H für jede abzählbare Indexmenge I).<br />

(A ∈ H).<br />

Ein Inhalt µ auf einem Halbring H heißt stetig von unten, wenn<br />

µ[A] = sup µ[B]<br />

B⊆A<br />

B∈H<br />

(A ∈ H).<br />

Ein Inhalt µ auf einem Halbring H heißt σ-endlich, falls es eine Folge (A n ) n∈N ∈ H N gibt mit<br />

µ[A n ] < ∞, (n ∈ N) und A n ↑ Ω.<br />

61


62 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

7.2 Bemerkung<br />

1. Jeder Ring ist ein Halbring.<br />

2. Ist in 7.1 H sogar ein Ring, so stimmt die Definition von Inhalt mit der Definition 2.1 überein.<br />

Ist in diesem Fall µ σ-endlich, so ist µ ein Prämaß.<br />

3. Ist in 7.1 H sogar eine σ-Algebra, so ist jedes Maß auf H ein Prämaß.<br />

4. Ein Mengensystem H ist genau dann eine Algebra, wenn<br />

1. Ω ∈ H,<br />

2. A, B ∈ H ⇒ A ∪ B ∈ H,<br />

3. A ∈ H ⇒ CA ∈ H.<br />

7.3 Beispiele<br />

1. Sei Ω = {ω 1 , ω 2 , . . . , } abzählbar unendlich.<br />

Beh: Dann ist<br />

A = {A ⊆ Ω : A endlich oder CA endlich }<br />

eine Algebra und<br />

⎧<br />

⎪⎨ A → [0;<br />

{<br />

∞)<br />

µ : 0, A endlich<br />

⎪⎩ A ↦→<br />

1, CA endlich<br />

ein endlicher Inhalt auf A.<br />

Denn: µ[∅] = 0 ist klar.<br />

Seien A, B ∈ A mit A ∩ B = ∅. Ist A ⊎ B endlich, ist natürlich µ[A ⊎ B] = µ[A] + µ[B]. Ist<br />

A ∪ B unendlich und CA endlich, so muss auch B endlich sein. Ist umgekehrt CB endlich ist,<br />

muss A endlich sein. Sei also Œ CA endlich und es gilt C(A ∪ B) ⊆ CA endlich. Damit ist aber<br />

µ[A ∪ B] = 1, µ[A] = 1, µ[B] = 0, also µ[A ⊎ B] = µ[A] + µ[B].<br />

✷<br />

Beh.: µ ist kein Prämaß<br />

Denn: Sei A n := {ω n } (n ∈ N). Dann ist<br />

µ[Ω] = 1 ≠ 0 =<br />

∞∑<br />

µ[A n ].<br />

n=1<br />

2. Sei Ω = {ω 1 , ω 2 , . . . , } abzählbar unendlich und A wie in 1.<br />

Beh: Dann ist<br />

⎧<br />

⎪⎨ A → [0;<br />

{<br />

∞)<br />

µ : 0, A endlich<br />

⎪⎩ A ↦→<br />

∞, CA endlich<br />

ein von oben stetiger Inhalt auf A, aber kein Prämaß.<br />

Denn: Die Behauptung, dass µ ein Inhalt und kein Prämaß ist, zeigt man wie in 1. Klar ist<br />

jedoch, dass µ stetig von oben ist.<br />

✷<br />

3. Seien H i Halbringe in Ω. (i = 1 . . . , n).<br />

Beh: Dann ist auch<br />

∏<br />

H := n { n∏<br />

H i =<br />

∏<br />

ein Halbring in n Ω i .<br />

i=1<br />

i=1<br />

i=1<br />

}<br />

A i : A i ∈ H i (i = 1, . . . , n)<br />


7. FORTSETZUNG VON INHALTEN ZU MASSEN 63<br />

Beweis: Klar ist ∅ ∈ H. Da<br />

( n∏<br />

i=1<br />

) ( n∏ ) ∏<br />

A i ∩ B i = n A i ∩ B i ,<br />

i=1 i=1<br />

∏<br />

ist H ∩-stabil. Seien A := n ∏<br />

A i , B := n B i ∈ H mit A ⊆ B. Dann ist A i ⊆ B i (i = 1 . . . , n)<br />

und wegen<br />

ist<br />

CA = C n ∏<br />

i=1<br />

i=1<br />

B \ A = B ∩ CA =<br />

i=1<br />

A i = ⋃ n<br />

i=1 CA i × n ∏<br />

n⋃<br />

i=1<br />

j=1<br />

j=1<br />

j≠i<br />

A j<br />

n∏<br />

∏<br />

B j ∩ CA i × n<br />

j=1<br />

j≠i<br />

A j = ⋃ n<br />

i=1 B i \ A i × n ∏<br />

j=1<br />

j≠i<br />

A j ∩ B j<br />

als endlche Vereinigung von Mengen aus H darstellbar.<br />

✷<br />

4. Wegen 3. ist<br />

{ n∏<br />

}<br />

H = (a i ; b i ] : a i , b i ∈ R<br />

ein Halbring in R n , da {(a; b] : a, b ∈ R} ein Halbring in R ist.<br />

7.4 Satz<br />

Sei H ein Halbring und µ ein Inhalt auf H.<br />

1. Dann ist<br />

der von H erzeugte Ring.<br />

2. Die Abbildung<br />

i=1<br />

{ n<br />

}<br />

⋃<br />

R = A i : A i ∈ H paarweise fremd, n ∈ N<br />

i=1<br />

⎧<br />

⎪⎨ R → [0; ∞]<br />

m :<br />

n⊎<br />

n∑<br />

⎪⎩ A i ↦→ µ[A i ]<br />

i=1<br />

i=1<br />

ist die einzige Fortsetzung von µ zu einem Inhalt auf R.<br />

3. Ist µ ein Prämaß, so auch m.


64 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

Beweis:<br />

1. Beh.: R ist ein Ring<br />

Denn: Es ist klar, dass ∅ ∈ R. Außerdem ist R ∩-stabil und für A i ∈ H (i 1 . . . , i n ) und<br />

B j ∈ H (j = 1, . . . , m) jeweils paarweise fremd ist<br />

( n ⊎<br />

i=1<br />

) ( ⊎<br />

m<br />

A i \<br />

j=1<br />

) ( ⊎<br />

n<br />

B j =<br />

=<br />

i=1<br />

n⊎<br />

i=1 j=1<br />

) ( ⋂<br />

m<br />

A i ∩<br />

j=1<br />

CB j<br />

)<br />

=<br />

n⊎<br />

i=1<br />

m⋂<br />

A i \ (B j ∩ A i ) ∈ R.<br />

} {{ }<br />

∈R<br />

( ( ⋂<br />

m<br />

A i ∩<br />

j=1<br />

CB j<br />

))<br />

=<br />

n⊎<br />

i=1 j=1<br />

m⋂<br />

A i \ B j<br />

Darüberhinaus ist R noch ∪-stabil, denn für A i ∈ H (i 1 . . . , n) und B j ∈ H (j = 1, . . . , m)<br />

jeweils paarweise fremd ist<br />

n⊎ m⊎ ( ⊎ n m⊎<br />

A i ∪ B j = A i ∩<br />

i=1<br />

j=1<br />

i=1<br />

j=1<br />

) ( ⊎ n<br />

B j ⊎<br />

i=1<br />

A i \<br />

m⊎<br />

j=1<br />

) ( ⊎ m<br />

B j ⊎<br />

i=1<br />

j=1<br />

B j \<br />

n⊎ )<br />

A i ∈ R.<br />

2. Beh.: m ist die einzige Fortsetzung von µ auf R.<br />

n⊎ m⊎<br />

Denn: Es ist nur zu zeigen, dass m wohldefiniert ist, d.h. für A i = B j ist auch<br />

m∑<br />

µ[B j ]. Aber wegen<br />

j=1<br />

A i =<br />

und da µ ein Inhalt auf H ist, gilt<br />

µ[A i ] =<br />

m⊎<br />

(A i ∩ B j ), B j =<br />

j=1<br />

n⊎<br />

(B j ∩ A i )<br />

i=1<br />

m∑<br />

µ[A i ∩ B j ], µ[B j ] =<br />

j=1<br />

j=1<br />

n∑<br />

µ[A i ∩ B j ]<br />

i=1<br />

i=1<br />

n∑<br />

µ[A i ] =<br />

i=1<br />

und damit<br />

n∑<br />

n∑ m∑<br />

m∑ n∑<br />

m∑<br />

µ[A i ] = µ[A i ∩ B j ] = µ[A i ∩ B j ] = µ[B j ].<br />

i=1<br />

i=1 j=1<br />

j=1 i=1<br />

j=1<br />

3. Beh.: Ist µ ein Prämaß, so auch m.<br />

Denn: Sei dazu C n ∈ R (n ∈ N), so daß C :=<br />

T n (n ∈ N) und Mengen A n ∈ H (n ∈ N) mit<br />

C n = ⊎<br />

j∈T n<br />

A nj ,<br />

∞⊎<br />

C n ∈ R. Dann gibt es endliche Indexmengen<br />

n=1<br />

C = ⊎ n∈N<br />

Da A ∈ R, gibt es eine endliche Indexmenge K und Mengen B k ∈ H (k ∈ K) mit<br />

A = ⊎<br />

B k .<br />

k∈K<br />

A n .<br />

Damit ist<br />

∞⊎<br />

∞⊎<br />

B k = (A n ∩ B k ) =<br />

n=1<br />

n=1<br />

⊎<br />

j∈T n<br />

A nj ∩ B k ,


7. FORTSETZUNG VON INHALTEN ZU MASSEN 65<br />

also<br />

Für j ∈ T n ist<br />

A nj<br />

µ[B k ] =<br />

∞∑ ∑<br />

n=1<br />

j∈T n<br />

µ[A j ∩ B k ].<br />

= ⊎<br />

A j ∩ B k und damit µ[A nj ] = ∑ µ[A nj ∩ B k ].<br />

} {{ }<br />

k∈K<br />

k∈K<br />

∈H<br />

Insgesamt ergibt sich<br />

m[C] = ∑ µ[B k ] = ∑ ∞∑ ∑<br />

∞∑ ∑<br />

∞∑<br />

µ[A nj ∩ B k ] = µ[A nj ] = m[C n ].<br />

k∈K<br />

k∈K n=1 j∈T n n=1 j∈T n n=1<br />

✷<br />

7.5 Definition<br />

Ein Mengensystem K ⊆ P(Ω) heißt kompakt, wenn<br />

1. A, B ∈ K ⇒ A ∩ B ∈ K,<br />

∞⋂<br />

2. ist (K n ) n∈N ∈ K N mit K n = ∅, so gibt es ein n ∈ N mit K 1 ∩ . . . ∩ K n = ∅.<br />

n=1<br />

7.6 Lemma<br />

Ist K ein kompaktes System, so ist auch der Verband<br />

{ n<br />

}<br />

⋃<br />

K ∪ := K i : n ∈ N, K i ∈ K<br />

ein kompaktes System.<br />

i=1<br />

Beweis: Klar ist, dass K ∪ ∩-stabil ist. Zu zeigen bleibt, dass es für (L n ) n∈N ∈ (K ∪ ) N mit<br />

für jedes n ∈ N auch<br />

n⋂<br />

L i ≠ ∅<br />

∞⋂<br />

L n ≠ ∅ gilt. Wir zeigen unter diesen Voraussetzungen mit Induktion:<br />

n=1<br />

Beh: ∀n ∈ N ∃L n ⊇ K n ∈ K : K 1 ∩ . . . ∩ K n ∩ L n+1 ∩ . . . ∩ L n+k ≠ ∅ (k ∈ N).<br />

“n = 1”: Es gibt eine endliche Indexmenge T 1 mit L 1 = ⋃<br />

man erreichen, dass K 1 ∩ L 2 ∩ . . . L n+k ≠ ∅<br />

i=1<br />

K j . Durch Umordnen von T 1 kann<br />

j∈T 1<br />

(k ∈ N).<br />

“n → n + 1”: Es gibt wieder eine endliche Indexmenge T n+1 und Mengen K j ′ (j ∈ T n+1), so dass<br />

L n+1 =<br />

⋃<br />

K j. ′ Nach Voraussetzung ist<br />

j∈T n+1<br />

K 1 ∩ . . . ∩ K n ∩<br />

⋃<br />

Deshalb gibt es ein K n+1 ∈ {K ′ j : j ∈ T n+1} mit<br />

j∈T n+1j<br />

K ′ j ∩ L n+2 ∩ . . . ∩ L n+1+k ≠ ∅<br />

(k ∈ N).<br />

K 1 ∩ . . . ∩ K n+1 ∩ L n+2 ∩ . . . ∩ L n+1+k ≠ ∅<br />

(k ∈ N).


66 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

Nun <strong>zur</strong>ück zum Beweis der Behauptung. Sei (L n ) n∈N ∈ (K ∪ ) N mit<br />

es nach dem eben gezeigten eine Folge (K n ) n∈N ∈ K N mit<br />

∞⋂ ∞⋂<br />

∅ ≠ K i ⊆ L i ,<br />

i=1<br />

i=1<br />

also die Behauptung. Klar ist, dass K ∪ ein Verband ist.<br />

7.7 Beispiele<br />

1. Sei Ω Hausdorff’sch, also z.B. metrisch. Dann ist<br />

n⋂<br />

L i ≠ ∅ (n ∈ N). Dann gibt<br />

i=1<br />

n⋂<br />

K i ≠ ∅ (n ∈ N). Damit gilt<br />

i=1<br />

K ⊆ K(Ω) := {K ⊆ Ω : K kompakt}<br />

nach dem Cantor’schen Durchschnittssatz ein kompaktes System.<br />

2. Sei I eine beliebige Indexmenge, Ω := ∏ Ω i und K i ⊆ P(Ω i ) kompakte Systeme.<br />

Beh: Dann ist<br />

{ ∏<br />

K := K j ×<br />

j∈J<br />

i∈I<br />

∏<br />

i∈I\J<br />

ein kompaktes System in Ω. Dabei bedeutet<br />

( ∏ )<br />

Denn: Sei (A n ) n∈N = A ni<br />

Also ist<br />

und damit<br />

7.8 Definition<br />

i∈I<br />

}<br />

Ω i : J ⊂⊂ I, K j ∈ K j (j ∈ J)<br />

J ⊂⊂ I ⇐⇒ J ⊆ I, J endlich.<br />

n∈N<br />

∈ K N mit<br />

∅ ≠ A 1 ∩ . . . ∩ A n = ∏ A 1i ∩ . . . ∩ A ni<br />

n=1<br />

i∈I<br />

A 1i ∩ . . . A ni ≠ ∅ (i ∈ I, n ∈ N)<br />

∞⋂ ∞⋂ ∏<br />

A n = A ni = ∏<br />

n=1 i∈I<br />

∞⋂<br />

A ni<br />

i∈I n=1<br />

} {{ }<br />

≠∅<br />

1. Sei K ⊆ P(Ω) und µ : K → [0; ∞] isoton. Definiere dann<br />

⎧<br />

⎨P(Ω) → [0; ∞]<br />

µ ∗ :<br />

⎩<br />

A ↦→ sup µ[K].<br />

K∈K<br />

K⊆A<br />

(n ∈ N).<br />

≠ ∅.<br />

✷<br />

2. Ein Inhalt m auf einem Halbring H heißt von innen K-regulär, wenn:<br />

m[A] = sup {m[B] : B ∈ H, ∃K ∈ K : B ⊆ K ⊆ A} (A ∈ H).<br />

Anders ausgedrückt heißt das: Für µ = m ∗ | K ist m = µ ∗ | H für K ⊆ H.<br />

3. Ist ein Inhalt m bzgl.<br />

K := {A ∈ H : m[A] < ∞} = {m < ∞}<br />

von innen regulär, so heißt m semiendlich.


7. FORTSETZUNG VON INHALTEN ZU MASSEN 67<br />

7.9 Lemma<br />

Sei K ein Verband, µ : K → [0; ∞] isoton und stark superadditiv, d.h.<br />

µ[K ∪ L] + µ[K ∩ L] ≥ µ[K] + µ[L]<br />

(K, L ∈ K).<br />

Dann gibt es für jede antitone Folge (A n ) n∈N ∈ (P(Ω)) N mit µ ∗ [A n ] < ∞ für ein n ∈ N und jedes<br />

ɛ > 0 eine antitone Folge (K n ) in K mit K n ⊆ A n (n ∈ N) und<br />

µ ∗ [A n ] ≤ µ[K n ] + ɛ<br />

n∑<br />

i=1<br />

1<br />

2 i<br />

Beweis: Mittels Induktion:<br />

“n = 1”: Klar.<br />

“n → n + 1”: Wie im Fall n = 1 gibt es ein K ∈ K mit K ⊆ A n+1 und<br />

µ ∗ [A n+1 ] ≤ µ[K] + ɛ<br />

2 n+1 .<br />

Definiere nun K n+1 := K n ∩ K. Dann ist K n+1 ∈ K und K n+1 ⊆ A n+1 ∩ K n und es gilt<br />

Das ist aber die Behauptung.<br />

µ ∗ [A n ] + µ[K n+1 ] ≥ µ[K ∪ K n ] + µ[K ∩ K n ] ≥ µ[K] + µ[K n ]<br />

≥ µ ∗ [A n+1 ] −<br />

ɛ<br />

n∑<br />

2 n+1 + µ 1<br />

∗[A n ] − ɛ<br />

2 i .<br />

i=1<br />

✷<br />

7.10 Hauptsatz<br />

Jeder semiendliche, bzgl. eines kompakten Systems K von innen reguläre Inhalt auf einem<br />

Halbring ist ein Prämaß.<br />

Beweis: Sei m die Fortsetzung des Inhaltes zu einem Inhalt auf dem regulären Ring R aus 7.4.<br />

Dann ist m von innen regulär bzgl. des kompakten Systems K ∪ und semiendlich. Also ist Œ der<br />

Halbring ein Ring R und K ein Verband.<br />

Sei µ := m ∗ | K . Dann ist µ isoton und stark superadditiv, denn für K, L ∈ K A, B ∈ R mit A ⊆ K<br />

und B ⊆ L ist<br />

Nach Definition von µ ist<br />

m[A] + m[B] = m[A ∪ B] + m[A ∩ B] ≤ µ[K ∪ L] + µ[K ∩ L].<br />

µ[K] + µ[L] ≤ µ[K ∪ L] + µ[K ∩ L].<br />

Nach 2.4 ist zu zeigen, dass m stetig von oben in ∅ ist, d.h.<br />

(A n ) n∈N ∈ (R) N , A n ↓ ∅ ⇒ m[A n ] ↓ 0.<br />

Sei dazu ɛ > 0 und (K n ) n∈N ∈ K N eine antitone Folge mit K n ⊆ A n (n ∈ N) und µ n [A n ] ≤<br />

µ[K n ] + ɛ. Da A n ↓ ∅, ist auch K n ↓ ∅. Also gibt es ein n ∈ N mit K n = ∅, da K ein kompaktes<br />

System ist. Also ist µ[A n ] ≤ ɛ. Somit ist<br />

also ist inf n∈N m[A n ] = 0.<br />

inf m[A n] = inf µ ∗[A n ] ≤ ɛ (ɛ > 0),<br />

n∈N n<br />


68 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

7.11 Fortsetzungssatz (Tonsøe)<br />

Jedes semiendliche Prämaß auf einem Ring R läßt sich zu einem semiendlichen Maß auf die von<br />

erzeugte σ-Algebra fortsetzen.<br />

R loc := {A ⊆ Ω : A ∩ R ∈ R (R ∈ R)} ⊇ R<br />

Beweis: Sei K := {m < ∞} ⊆ R der Ring der m-integrierbaren Mengen. Dann ist<br />

A(m) := {A ⊆ Ω : A ∩ K m-integrierbar ∀K ∈ K} ⊇ R loc .<br />

Das Mengensystem A(m) ist eine Algebra, da es C-stabil ist, denn für A ∈ A(m) und K ∈ K ist<br />

CA ∩ K = K \ (A ∩ K) m-integrierbar.<br />

Für K ∈ K ist<br />

⎧<br />

⎨A(m) → [0;<br />

∫<br />

∞]<br />

ν K :<br />

⎩ A ↦→ 1 A∩K dm<br />

ein endlicher Inhalt.<br />

Beh: A(m) ist eine σ-Algebra und ν K ist ein semiendliches Maß.<br />

Zu zeigen ist: ∀(A n ) n∈N ∈ (A(m)) N mit A n ↑ A ist A ∈ A(m) und ν K [A n ] ↑ ν K [A].<br />

Nach 6.1 gilt<br />

und<br />

Damit ist<br />

ν K [A] = sup<br />

n∈N<br />

∫<br />

∫<br />

1 An∩Kdm = sup ν K [A n ] ≤ ν K [Ω] =<br />

n∈N<br />

∫<br />

m[A ∩ K] = 1 A∩K dm = ν K [K] < m[K] < ∞.<br />

∫<br />

1 A∩K = sup 1<br />

} A∩K mit 1<br />

{{ }<br />

A∩K dm ≤ m[K] < ∞,<br />

n∈N<br />

∈L(m)<br />

1 K dm = m[K] < ∞.<br />

also ist A ∈ A(m). Das System (ν K ) K∈K ist aufsteigend filtrierend, d.h. für K, L gibt es ein M<br />

mit ν M ≥ sup(ν K , ν L ), denn ν K , ν L ≤ ν K ∪ L . Also ist nach 2.7 sup ν K ein Maß auf A(m). Sei<br />

K∈K<br />

nun ν die Restriktion von sup ν K auf σ(R loc ) ⊆ A(m). Dann ist ν ein Maß auf R loc .<br />

K∈K<br />

Beh: ν setzt m fort.<br />

Denn: Für A ∈ R gilt, da m semiendlich ist<br />

Also gilt<br />

und damit<br />

m[A] = sup m[K] ≤ sup m[K ∩ A] = sup<br />

K∈K<br />

K⊆A<br />

K⊆K<br />

K∈K<br />

∫<br />

1 A∩K dm = ν[A].<br />

m[A] = ∞ ⇒ ν[A] = ∞,<br />

∫<br />

m[A] < ∞ ⇒ m[A] ≤ ν[A] ≤ 1 A dm = m[A],<br />

m[A] = ν[A].<br />

Beh: ν ist semiendlich.<br />

Denn: für A ∈ σ(R loc ) und für K ∈ K ist ν[A ∩ K] ≤ ν[K] = m[K] < ∞ und<br />

ν[A] = sup ν K [A] = sup ν K [A ∩ K] ≤ sup ν[A ∩ K] ≤ ν[A].<br />

K∈K<br />

K∈K<br />

K∈K<br />


7. FORTSETZUNG VON INHALTEN ZU MASSEN 69<br />

7.12 Bemerkung<br />

Nach einem Resultat von Carathéodory gilt der Satz auch ohne die Voraussetzung, daß m semiendlich<br />

ist.<br />

7.13 Definition<br />

Ein System D ⊆ P(Ω) heißt Dynkin-System in Ω, wenn<br />

1. Ω ∈ D,<br />

2. A ∈ Ω ⇒ CA ∈ D,<br />

3. sind A n ∈ D paarweise fremd, so ist<br />

7.14 Bemerkung<br />

∞⊎<br />

A n ∈ D.<br />

n=1<br />

Aus den Definitionen von σ-Algebren und Dynkin-Systemen folgt, dass jede σ-Algebra ein Dynkin-<br />

System ist. Die Umkehrung hiervon gilt allerdings nicht:<br />

Sei Ω = {1, . . . , 2n} für ein n ∈ N und<br />

D := {A ⊆ Ω : |A| ∈ 2N 0 }.<br />

Dann ist D ein Dynkin-System, aber für n > 1 nicht ∩-stabil, also keine σ-Algebra.<br />

7.15 Lemma<br />

Sei D ein Dynking-System. Dann ist D stabil unter eigentlichen Differenzen, d.h.<br />

A, B ⊆ D, A ⊆ B ⇒ B \ A ∈ D.<br />

Beweis: Es gilt B \ A = B ∩ CA = C (CB ⊎ A) ∈ D.<br />

✷<br />

7.16 Satz<br />

Sei D ein Dynkin-System. Dann ist D genau dann eine σ-Algebra, wenn es ∩-stabil ist.<br />

Beweis: Sei D ein ∩-stabiles Dynkin-System. Dann ist D auch ∪-stabil, denn für A, B, ∈ D gilt<br />

A ∪ B = A ⊎ (B \ (A ∩ B)) ∈ D.<br />

Sei nun noch A n ∈ D (n ∈ N), B 0 := ∅ und B n := A 1 ∪ . . . ∪ A n ∈ D. Dann ist<br />

∞⋃ ∞⋃ ∞⊎<br />

A n = B n = B n \ B n−1 ∈ D.<br />

n=1 n=1 n=1<br />

✷<br />

7.17 Bemerkung<br />

Zu jedem Mengensystem E ⊆ P(Ω) existiert ein kleinstes, E enthaltendes Dynkin-System<br />

δ(E) := δ Ω (E) := ⋂ {D : D Dynkin-System, E ⊆ D}.


70 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

7.18 Hauptsatz<br />

Für jedes ∩-stabile Mengensystem E in Ω stimmen die erzeugte σ-Algebra σ(E) und das erzeugte<br />

Dynkin-System δ(E) überein.<br />

Beweis: Da jede σ-Algebra ein Dynkin-System ist, gilt stets δ(E) ⊆ σ(E).<br />

Wir zeigen nun: Ist E ∩-stabil, so ist auch δ(E) ∩-stabil. Dann ist δ(E) nach dem vorherigen Satz<br />

eine σ-Algebra, also σ(E) ⊆ δ(E). Insgesamt ergibt sich also σ(E) = δ(E).<br />

Beh: Ist E ∩-stabil, so ist auch δ(E) ∩-stabil.<br />

Denn: Sei D ∈ δ(E) und<br />

D D := {A ⊆ Ω : A ∩ D ∈ δ(E)}.<br />

Dann ist D D ein Dynkin-System. Schließlich ist mit A ∈ D D auch CA ∩ D = D \ D ∩ A ∈ D D<br />

nach 7.15.<br />

Sei E ∈ E. Dann ist E ⊆ D E , da E ∩-stabil ist. Damit ist δ(E) ⊆ D E (E ∈ E). Damit ist für<br />

D ∈ δ(E) und E ∈ E E∩D ∈ δ(E), also auch E ⊆ D D (D ∈ δ(E)). Somit ist δ(E) ⊆ D D (D ∈ δ(E))<br />

und δ(E) ist damit ∩-stabil.<br />

✷<br />

7.19 Eindeutigkeitssatz<br />

1. Zwei Maße m 1 , m 2 auf einer σ-Algebra stimmen bereits dann überein, wenn sie auf einem<br />

∩-stabilen Erzeuger E von A übereinstimmen, auf E endlich sind und<br />

gilt.<br />

m i [A] = sup m i [A ∩ E] (i = 1, 2, A ∈ A)<br />

E∈E<br />

2. Insbesondere stimmen zwei Maße m 1 und m 2 dann überein, wenn sie auf einem ∩-stabilen<br />

Erzeuger E von A übereinstimmen und von innen E-regülär sind<br />

3. Insbesondere stimmen zwei Maße m 1 und m 2 auch dann überein, wenn sie auf einem ∩-<br />

stabilen Erzeuger E von A übereinstimmen und es eine Folge (E n ) n∈N ∈ E N gibt mit E n ↑ Ω.<br />

Beweis:<br />

1. Sei E ∈ E und<br />

D E := {A ∈ A : m 1 [A ∩ E] = m 2 [A ∩ E]}.<br />

Dann ist D E ein Dynkin-System mit E ⊆ D E . Wegen 7.18 ist<br />

also D E = A (E ∈ E). Daraus folgt<br />

A = σ(E) = δ(E) ⊆ D E ⊆ A,<br />

m 1 [A] = sup m 1 [A ∩ E] = sup m 2 [A ∩ E] = m 2 [A]<br />

E∈E<br />

E∈E<br />

(A ∈ A).<br />

2. Es gilt<br />

m i [A] = sup m i [E] ≤ sup m i [E ∩ A] ≤ m i [A] (i = 1, 2).<br />

E∈E<br />

E∈E<br />

E⊆A<br />

Damit sind die Voraussetzungen von 1. erfüllt.<br />

3. Für A ∈ A ist E n ∩ A ↑ A. Deshalb ist<br />

m i [A] = sup m i [E n ∩ A] ≤ sup m i [E ∩ A] ≤ m i [A] (i = 1, 2)<br />

n∈N<br />

E∈E<br />

und wieder sind die Voraussetzungen von 1. erfüllt.<br />


7. FORTSETZUNG VON INHALTEN ZU MASSEN 71<br />

7.20 Korollar<br />

Jedes σ-endliche Prämaß m auf einem Halbring H lässt sich eindeutig zu einem Maß auf die von<br />

H erzeugt σ-Algebra fortsetzen.<br />

Beweis: Sei E := {E ∈ H : m[E] < ∞}. Damit ist E ∩-stabil und E ⊆ H ⊆ σ(E). Deshalb ist<br />

σ(E) = σ(H) ⊆ σ(R loc ) für den von H erzeugten Ring R.<br />

Die Fortsetzung von m zu einem Prämaß auf R ist semiendlich. Wendet man nun den Fortsetzungssatz<br />

7.11 zunächst auf σ(R loc ) an und betrachtet dann die Restriktion auf σ(E)), so hat man<br />

das Prämaß m auf σ(H) fortgesetzt. Wendet man nun den Eindeutigkeitssatz 7.19 mit E auf σ(E)<br />

an, so folgt die Behauptung.<br />

✷<br />

7.21 Bemerkung<br />

In 7.19 reicht die Endlichkeit von m 1 und m 2 auf E noch nicht aus. Sei dazu E := {∅} und<br />

A = σ(E) = {∅, Ω}. Dann stimmen<br />

⎧<br />

{<br />

A → [0; ∞]<br />

⎪⎨ A → [0;<br />

{<br />

∞]<br />

m 1 :<br />

, m 2 : 0, A = ∅<br />

A ↦→ 0<br />

⎪⎩ A ↦→<br />

1, A = Ω.<br />

zwar auf E überein, aber nicht auf A.<br />

7.22 Definition<br />

Sei Ω ein topologischer Raum mit Topologie G(Ω), B(Ω) die Borel’sche σ-Algebra auf Ω, K(Ω)<br />

die Menge aller kompakten Mengen in Ω und m ein Maß auf B(Ω).<br />

1. Das Maß m heißt lokal endlich oder Borel-Maß, wenn jedes ω ∈ Ω eine Umgebung endlichen<br />

Maßes besitzt.<br />

2. Ein Radon-Maß ist ein von innen K(Ω)-reguläres Borel-Maß.<br />

3. Ω heißt polnisch, wenn Ω vollständig metrisierbar und seperabel ist, d.h. es gibt eine abzählbare<br />

dichte Teilmenge von Ω.<br />

7.23 Bemerkung<br />

1. Sei m ein Borel-Maß auf Ω. Dann hat jede kompakte Menge wegen der Überdeckungseigenschaft<br />

kompakter Mengen endliches Maß.<br />

2. Ist m ein Maß auf Ω, Ω lokal-kompakt und hat jede kompakte Menge endliches Maß, so ist m<br />

ein Borel-Maß.<br />

3. Ein vollständig metrisierbarer Raum ist genau dann seperabel, wenn er eine endliche Basis hat.<br />

7.24 Beispiele<br />

1. Der Raum R n ist für n ∈ N, versehen mit der kanonischen Topologie, polnisch.<br />

2. Sei Ω polnisch. Dann gilt<br />

A ⊆ Ω polnischer Unterraum<br />

⇐⇒ A ∈ G(Ω) δ :=<br />

{<br />

B ⊆ Ω : ∃(G n ) n∈N ∈ (G(Ω)) N : B = ⋂ n∈N<br />

G n<br />

}<br />

.<br />

Vergleiche hierzu [Qu], p.150.


72 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

3. Nach 2. ist R \ Q polnisch, denn<br />

R \ Q = ⋂ x∈Q<br />

R \ {x}.<br />

4. Sei Ω lokal kompakt mit abzählbarer Basis. Dann ist Ω polnisch.<br />

5. Abzählbare Produkte polnischer Räume sind polnisch (vgl. [Qu]).<br />

7.25 Hauptsatz<br />

Jedes Borelmaß m auf einem polnischen Raum Ω ist ein σ-endliches Radon-Maß.<br />

Beweis: Sei (G n ) n∈N eine abzählbare Basis von G(Ω), F(Ω) die Menge aller abgeschlossenen<br />

Teilmengen von Ω und K(Ω) die Menge aller kompakten Teilmengen von Ω. Sei weiter d eine<br />

vollständige Metrik von Ω und A := {ω n : n ∈ N} eine abzählbare dichte Teilmenge in Ω.<br />

Zu zeigen ist nur die innere K(Ω)-Regularität von m.<br />

Beh: Es genügt, den Fall m[Ω] < ∞ zu betrachten<br />

Denn: für ω ∈ Ω gibt es ein U ω ∈ G(Ω) mit ω ∈ U ω und m[U ω ] < ∞, da m lokal endlich ist.<br />

Definiere<br />

U := {G n : ∃ω ∈ Ω, G n ⊆ U ω }.<br />

Dann gibt es für ω ∈ Ω ein U ∈ U mit ω ∈ U, da U ω = ⋃<br />

G n mit einer geeigneten Indexmenge<br />

n∈I ω<br />

I ω . Damit ist<br />

Ω = ⋃<br />

U und m[U] < ∞ (U ∈ U).<br />

U∈U<br />

n⋃<br />

Ist U = {U n : n ∈ N} und V n := U i ∈ G(Ω), so ist V n ↑ Ω mit m[V n ] < ∞ und m = sup m Vn<br />

i=1<br />

n∈N<br />

nach 2.7. Deshalb genügt es, die Behauptung für alle m Vn nachzuweisen.<br />

Sei also Œ m[Ω] < ∞. Definiere<br />

D :=<br />

{<br />

A ∈ B(Ω) :=<br />

Beh: D ist ein Dynkin-System mit F(Ω) ⊆ D.<br />

1. Ω ∈ D ist klar.<br />

sup m[K] = m[A] =<br />

K∈K(Ω)<br />

K⊆A<br />

2. Beh.: Für ɛ > 0 gibt es ein K ∈ K(Ω) mit m[K] ≥ m[Ω] − ɛ.<br />

Denn: Sei r > 0, ω 0 ∈ Ω und<br />

also Ω =<br />

K r (ω 0 ) := {ω ∈ Ω : d(ω, ω 0 ) ≤ r},<br />

}<br />

inf<br />

U∈G(Ω)<br />

U⊇A<br />

m[U] .<br />

∞⋃<br />

K r (ω n ). Wegen der Stetigkeit von m von unten ist damit<br />

n=1<br />

( ⋃ k )<br />

m[Ω] = sup m K r (ω i ) .<br />

k∈N<br />

i=1<br />

Damit gibt es für ɛ > 0 und n ∈ N ein k n ∈ N mit<br />

[ ⋃k n<br />

m<br />

i=1<br />

K 1<br />

n (ω i)<br />

]<br />

≥ m[Ω] − ɛ<br />

2 n .


7. FORTSETZUNG VON INHALTEN ZU MASSEN 73<br />

Sei A n :=<br />

k n<br />

⋃<br />

i=1<br />

K 1<br />

n (ω i), d.h. A n ist abgeschlossen (n ∈ N).<br />

Beh: m[A 1 ∩ . . . ∩ A n ] ≥ m[Ω] − ɛ<br />

n∑<br />

i=1<br />

“n = 1”: klar nach obiger Rechnung.<br />

“n → n + 1”: Es gilt<br />

Nun ist K :=<br />

1<br />

2 i .<br />

m[A 1 ∩ . . . ∩ A n+1 ] = m[A 1 ∩ . . . ∩ A n ] + m[A n+1 ] − m [ (A 1 ∩ . . . ∩ A n ) ∪ A n+1<br />

]<br />

≥ m[A 1 ∩ . . . ∩ A n ] + m[A n+1 ] − m[Ω]<br />

n∑<br />

1<br />

≥ m[Ω] − ɛ<br />

2<br />

+ m[Ω] − ɛ<br />

i 2<br />

− m[Ω]<br />

n+1<br />

i=1<br />

n+1<br />

∑<br />

= m[Ω] − ɛ<br />

i=1<br />

1<br />

2 i .<br />

∞⋂<br />

A n abgeschlossen, also vollständig. Da für n ∈ N<br />

n=1<br />

K ⊆ A n = K 1<br />

n (ω 1) ∪ . . . ∪ K 1<br />

n (ω k n<br />

)<br />

ist K als endliche Vereinigung kompakter Mengen kompakt. Da m stetig von oben ist und<br />

m[A n ] ≤ m[Ω] < ∞, folgt<br />

[<br />

m[K] = inf m ⋂<br />

n ] [<br />

A i = lim m ⋂<br />

n ]<br />

A i ≥ m[Ω] − ɛ.<br />

n∈N n→∞<br />

i=1<br />

i=1<br />

✷<br />

1. Beh.: Es gilt F(Ω) ⊆ D.<br />

Sei ɛ > 0 und A abgeschlossen. Wie eben gezeigt gibt es ein K mit<br />

m[A] − m[A ∩ K] = m[A ∪ K] − m[K] ≤ m[Ω] − m[K] ≤ ɛ<br />

und A ∩ K ∈ K(Ω). Ferner ist U n := {ω ∈ Ω : d(ω, A) < 1 n } ∈ G(Ω) mit U n ↓ A Wegen der<br />

Stetigkeit von m von oben ist m[A] = inf m[U n]. Daraus folgt die Behauptung.<br />

✷<br />

n∈N<br />

2. Beh.: A ∈ D ⇒ CA ∈ D.<br />

Denn: Sei ɛ > 0. Dann gibt es ein K ɛ ∈ K und U ɛ ∈ G(ω), so dass K ɛ ⊆ A ⊆ U ɛ und<br />

m[U ɛ ] − m[K ɛ ] ≤ ɛ. Damit ist CU ɛ ⊆ CA ⊆ CK ɛ mit CU ɛ ∈ F(Ω) und CK ɛ ∈ G(Ω) Nach dem<br />

oben Gezeigten gibt es ein A ɛ ∈ K(Ω) mit A ɛ ⊆ CU ɛ und m[CU ɛ ] − m[A ɛ ] ≤ ɛ. Damit ist auch<br />

m[CK ɛ ] − m[A ɛ ] ≤ m[Ω] − m[K ɛ ] + ɛ − m[Ω] + m[U ɛ ] ≤ 2ɛ.<br />

3. Sei schließlich (A n ) ∈ (D) N , paarweise fremd,<br />

∞⊎<br />

Beh: A n ∈ D.<br />

n=1<br />

Definiere A :=<br />

∞⊎<br />

. Dann gibt es nach oben Gezeigtem für n ∈ N und ɛ > 0 Mengen K n ∈<br />

n=1<br />

K(Ω), U n ∈ G(Ω) mit K n ⊆ A n ⊆ U n und m[U n ] − m[K n ] ≤ ɛ<br />

2<br />

. Deshalb gibt es ein N(ɛ) ∈ N,<br />

n


74 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

so dass<br />

[ ⋃ ∞<br />

m<br />

n=1<br />

] ∞∑<br />

∞∑<br />

U n ≤ m[U n ] ≤<br />

=<br />

n=1<br />

n=1<br />

∞∑<br />

m[A n ] + ɛ ≤<br />

n=1<br />

(<br />

m[K n ] + ɛ<br />

2 n )<br />

≤ m[A] + ɛ<br />

N(ɛ)<br />

∑<br />

n=1<br />

m[A n ] + 2ɛ ≤<br />

N(ɛ)<br />

∑<br />

n=1<br />

m[U n ] + 2ɛ.<br />

Definiert man nun<br />

K :=<br />

N(ɛ)<br />

⊎<br />

n=1<br />

K n ∈ K(Ω), K ⊆ A ⊆ U :=<br />

∞⋃<br />

U n ∈ G(Ω),<br />

n=1<br />

so folgt<br />

N(ɛ)<br />

N(ɛ)<br />

∑<br />

∑ (<br />

)<br />

m[U] − m[K] ≤ m[U n ] − m[K] + 2ɛ = m[U n ] − m[K n ] + 2ɛ ≤ 3ɛ.<br />

n=1<br />

n=1<br />

Also ist D ein Dynkin-System und die Behauptung folgt.<br />

Außerdem ist F(Ω) ein ∩-stabiler Erzeuger von D. Deshalb ist wegen 7.18<br />

D ⊆ B(Ω) = σ(F(Ω)) = δ(F(Ω)) ⊆ D.<br />

Also folgt D = B(Ω) und m ist von innen K(Ω)- und von außen G(Ω)-regulär.<br />

✷<br />

7.26 Bemerkung<br />

Jedes Borel-Maß auf einem polnischen Raum ist auch von außen G(Ω)-regulär. Für endliche Maße<br />

folgt dies aus obigen Beweis, den allgemeinen Fall findet man in [BM], p.184.<br />

7.27 Hauptsatz (Kennzeichnung der Borel-Maße auf R 1 )<br />

Es gibt eine Bijektion zwischen den Borel-Maßen m und den isotonen, rechtsseitig stetigen<br />

Funktionen f : R −→ R mit f(0) = 0, gegeben durch<br />

Jedes Borel-Maß auf R ist ein Radon-Maß.<br />

m[(a, b]] = f(b) − f(a)


7. FORTSETZUNG VON INHALTEN ZU MASSEN 75<br />

Beweis:<br />

1. Sei m ein Borel-Maß. Definiere f auf R durch<br />

{<br />

m[(0; α]] α ≥ 0<br />

f(x) =<br />

−m[(α; 0]] α < 0.<br />

Damit ist f isoton, f(0) = 0 und f ist rechtsseitig stetig in x ≥ 0. Sei nämlich (x n ) n∈N ∈ R N<br />

mit x n ↓ x. Dann ist auch (0; x n ] ↓ (0; x]. Da m stetig von oben ist, folgt f(x n ) ↓ f(x). Für<br />

x < 0 und (x n ) n∈N ∈ R N mit x n ↓ x sei Œ x n < 0 (n ∈ N). Damit ist (x n ; 0] ↑ (x; 0]. Da m<br />

stetig von unten ist, folgt f(x n ) ↑ f(x)<br />

2. Sei f rechtsseitig stetig, isoton und f(0) = 0. Dann ist für x ∈ R<br />

f(x+) = lim<br />

y↘x<br />

f(y) = inf<br />

y>x f(y)<br />

f(x−) = lim f(y) = sup f(y).<br />

y↗x<br />

Sei H := {(a; b], a, b ∈ R} der Halbring der halboffenen Intervalle.<br />

Beh: Durch f[(a; b]] := f(b) − f(a) wird ein semiendlicher Inhalt auf H definiert.<br />

n⊎<br />

Die Abbildung f ist ein Inhalt, denn falls (a; b] = (a i ; b i ] mit a = a 1 < b 1 = a 2 . . . < b n−1 =<br />

a n < b n = b ist<br />

n∑<br />

f[(a i ; b i ]] =<br />

i=1<br />

Die Semiendlichkeit von f ist klar.<br />

i=1<br />

y


76 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

7.30 Korollar<br />

Es gibt eine Bijektion zwischen den Wahrscheinlichkeitsmaßen P auf B(R) und den isotonen,<br />

rechtsseitig stetigen Funktionen F : R → R mit<br />

lim F (x) = 0, lim<br />

x→−∞<br />

F (x) = 1.<br />

x→∞<br />

Die Funktion F ist durch F (x) := P[(−∞; x]] (x ∈ R) gegeben und heißt Verteilungsfunktion<br />

des Wahrscheinlichkeitsmaßes P.<br />

Beweis: Wegen 7.27 gibt es eine Bijektion zwischen den Wahrscheinlichkeitsmaßen P und isotonen,<br />

rechtsseitig stetigen Funktionen f mit f(0) = 0. Nun gilt:<br />

Denn:<br />

P ist ein Wahrscheinlichkeitsmaß ⇐⇒ lim f(x) −<br />

x→∞<br />

1. Ist m ein Wahrscheinlichkeitsmaß, so ist<br />

lim f(x) −<br />

x→∞<br />

lim<br />

y→−∞<br />

wegen der Stetigkeit von unten.<br />

lim<br />

y→−∞<br />

f(y) = 1.<br />

f(y) = lim f(n) − lim f(n) = lim f(n) − f(−n) = lim m[(−n; n]]<br />

n→∞ n→∞ n→∞ n→∞<br />

= m[R] = 1<br />

2. Ist umgekehrt f eine Maßdefinierende mit<br />

dann ist<br />

lim f(x) −<br />

x→∞<br />

lim<br />

y→−∞<br />

f(y) = 1,<br />

m[R] = lim m[(−n; n]] = lim f(x) −<br />

n→∞ x→∞<br />

lim<br />

y→−∞<br />

f(y) = 1.<br />

Zu zeigen bleibt, dass es eine Bijektion zwischen den isotonen, rechtsseitig stetigen Funktionen f<br />

mit f(0) = 0 und<br />

lim f(x) − lim f(y) = 1<br />

x→∞ y→−∞<br />

und den Funktionen F aus der Behauptung gibt.<br />

1. Sei zunächst F isoton, rechtsseitig stetig, lim F (x) = 1, lim<br />

x→∞<br />

Dann ist f isoton, rechtsseitig stetig, f(0) = 0 und<br />

lim f(x) −<br />

x→∞<br />

lim<br />

y→−∞<br />

f(y) = lim F (x) −<br />

x→∞<br />

x→−∞<br />

lim<br />

y→−∞<br />

2. Sei umgekehrt f isoton, rechtsseitig stetig mit f(0) = 0 und<br />

Setze F := f −<br />

lim<br />

y→−∞<br />

lim f(x) −<br />

x→∞<br />

lim<br />

y→−∞<br />

f(y) = 1.<br />

f(y). Dann ist F isoton, rechtsseitig stetig und<br />

F (x) = 0. Setze f := F − F (0).<br />

F (y) = 1 − 0 = 1.<br />

lim F (y) = 0, lim<br />

y→−∞<br />

F (x) = 1.<br />

x→∞<br />

Daraus folgt die Existenz dieser Bijektion.<br />

Sei schließlich x ∈ R. Dann ist<br />

F (x) = f(x) − lim f(y) = lim f(x) − f(y) = lim P[(−n; x]] = P[(−∞; x]].<br />

y→−∞ y→−∞ n→∞<br />


7. FORTSETZUNG VON INHALTEN ZU MASSEN 77<br />

7.31 Beispiel<br />

Als praktisches Beispiel betrachten wir die morgentliche Öffnung eines Kaufhauses. Die Wahrscheinlichkeit<br />

dafür, daß binnen t Zeiteinheiten der erste Kunde das Kaufhaus betritt, ist erfahrungsgemäß<br />

1 − e −αt mit einem geeigneten α ∈ R + . Dann ist die zugehörige Verteilungsfunktion<br />

{<br />

1 − e −αt , t ≥ 0<br />

F : t ↦→<br />

0, t < 0<br />

isoton, stetig und es ist lim F (t) = 0, lim F (t) = 1.<br />

t→−∞ t→∞<br />

Das zugehörige Wahrscheinlichkeitsmaß heißt Exponentialverteilung mit Parameter α.


78 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

8 Bildmaße<br />

Sei stets (Ω, A, m) ein Maßraum, (Ω ′ , A ′ ) ein Messraum und X : Ω → Ω ′ eine A − A ′ -messbare<br />

Abbildung.<br />

8.1 Satz<br />

Die Abbildung<br />

X(m) :<br />

{<br />

A ′ → [0; ∞]<br />

A ′ ↦→ m[X −1 (A ′ )] = m[ω ∈ Ω : X(ω) ∈ A ′ ] = m[X ∈ A ′ ]<br />

ist ein Maß auf A ′ , das sogenannte Bildmaß von m unter X.<br />

Ist m ein Wahrscheinlichkeitsmaß, so auch X(m). In diesem Fall heißt X(m) die Verteilung<br />

von X bzgl. m, bezeichnet mit VertX = Vert m X = m X .<br />

Beweis: Es gilt<br />

X −1 (Ω ′ ) = Ω, X −1 (∅) = ∅,<br />

und für A ′ n ∈ A ′ paarweise disjunkt gilt<br />

( ∞<br />

)<br />

⊎<br />

∞⊎<br />

X −1 = X −1 (A n ).<br />

Daraus folgen die Behauptungen.<br />

A ′ n<br />

n=1<br />

n=1<br />

✷<br />

8.2 Satz (Transitivität)<br />

Sind (Ω i , A i ) Messräume (i = 1, 2, 3), m ein Maß auf A 1 und<br />

X 1 : Ω 1 → Ω 2 A 1 − A 2 − messbar, X 2 : Ω 2 → Ω 3 A 2 − A 3 − messbar..<br />

Dann gilt<br />

(X 2 ◦ X 1 )(m) = X 2 (X 1 (m)).<br />

Beweis: Für A 3 ∈ A 3 gilt<br />

(X 2 ◦ X 1 )(m)[A 3 ] = m[(X 2 ◦ X 1 ) −1 (A 3 )] = m[X −1<br />

1 (X−1 2 (A 3))]<br />

= (X 1 (m))[X −1<br />

2 (A 3)] = (X 2 (X 1 (m)))[A 3 ].<br />

✷<br />

8.3 Beispiele<br />

1. Das Bogenmaß auf Ω ′ = {(x, y) ∈ R 2 : x 2 + y 2 = 1} ist definitionsgemäß das Bildmaß<br />

λ 1 | B([0;2π]) unter der stetigen Abbildung<br />

{<br />

X : [0; 2π) → Ω ′<br />

φ :<br />

t<br />

↦→ (cos t, sin t).<br />

Diese ist, da sie stetig ist, B([0; 2π)) − B(Ω ′ )-messbar.<br />

2. Sei a ∈ R und<br />

T a :<br />

{<br />

R<br />

x<br />

→ R<br />

↦→ x + a


8. BILDMASSE 79<br />

die Translation um a. Dann ist T a (λ 1 ) = λ 1 , d.h. das Lebesgue-Borel’sche Maß λ 1 ist translationsinvariant.<br />

Denn: Ta<br />

−1 = T −a und damit<br />

T a (λ 1 )[[α; β]] = λ 1 [Ta<br />

−1 ([α; β])] = λ 1 [[α − a; β − a]] = λ 1 [[α; β]].<br />

Mit dem Eindeutigkeitssatz 7.19 folgt: T a (λ 1 ) = λ 1 .<br />

3. Wie in 2. zeigt man, dass λ 1 spiegelungsinvariant ist, d.h. T (λ 1 ) = λ 1 für<br />

{<br />

R → R<br />

T :<br />

x ↦→ −x.<br />

4. Man kann zeigen:<br />

Genau die Maße αλ 1 mit α ∈ R + sind translationsinvariant auf B(R). Entsprechendes gilt für<br />

höhere Dimensionen. Hier erhält man sogenannte Haar-Maße.<br />

8.4 Transformationssatz<br />

Für f ∈ L 0 +(Ω ′ , A ′ ) gilt<br />

∫<br />

∫<br />

fdX(m) =<br />

f ◦ Xdm.<br />

Insbesondere ist f : Ω ′ → R genau dann X(m)-integrierbar, wenn f ◦ X m-integrierbar ist.<br />

Dann gilt die Transformationsformel.<br />

Beweis: Folgendes Diagramm verdeutlicht die Situation:<br />

X<br />

✲<br />

Ω<br />

❅<br />

❅ f◦X ❅❅❘<br />

Ω ′<br />

f<br />

❄<br />

R +<br />

Die Abbildung<br />

⎧<br />

⎨<br />

ν :<br />

⎩f<br />

L + 0<br />

(Ω, A) → [0;<br />

∫<br />

∞]<br />

↦→ f ◦ Xdm<br />

ist ein Daniell-Integral auf B 0 +(Ω ′ , A ′ ) mit<br />

∫<br />

∫<br />

ν[1 A ′] = 1 A ′ ◦ Xdm = 1 X −1 (A ′ )dm = m[X −1 (A ′ )] = X(m)[A ′ ].<br />

Aus dem Beweisprinzip 4.12 folgt die Behauptung.<br />


80 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

9 Produktmaße<br />

Sei stets (Ω, A i , m i ) i∈I eine Familie von Maßräumen.<br />

Die Ziele dieses Paragraphen sind:<br />

1. Konstruktion einer σ-Algebra auf ∏ Ω i aus den A i<br />

i∈I<br />

2. Konstruktion eines Maßes auf ∏ Ω i aus den m i<br />

i∈I<br />

1. Schritt: Konstruktion einer σ-Algebra auf<br />

9.1 Hauptsatz<br />

∏<br />

Ω i aus den A i<br />

1. Sei Ω eine Menge und X i : Ω → Ω i Abbildungen (i ∈ I). Dann gibt es eine kleinste σ-Algebra<br />

A, bzgl. der alle X i A − A i -messbar sind, nämlich<br />

( ⋃ )<br />

A := σ(X i : i ∈ I) := σ X −1<br />

i (A i ) = ⋃<br />

σ(X j : j ∈ J),<br />

die von allen X i erzeugte σ-Algebra.<br />

i∈I<br />

i∈I<br />

J⊆Iabz.<br />

2. Ist (Ω ′ , A ′ ) ein weiterer Messraum und X : Ω ′ → Ω eine Abbildung. Dann gilt<br />

X ist A ′ − A-messbar ⇐⇒ X i ◦ X ist A ′ − A i -messbar (i ∈ I).<br />

Beweis:<br />

1. Wie man leicht einsieht, ist A := ⋃<br />

klar, dass<br />

Denn:<br />

“⊆”: Sei A ∈ ⋃ i∈I<br />

“⊇”: Sei A ∈<br />

X −1<br />

i<br />

⋃<br />

J⊆Iabz.<br />

( ⋃<br />

σ<br />

i∈I<br />

J⊆I abz.<br />

)<br />

X −1<br />

i (A i ) = ⋃<br />

σ(X j : j ∈ J) eine σ-Algebra. Damit ist aber auch<br />

J⊆Iabz.<br />

σ(X j : j ∈ J).<br />

(A i ). Dann gibt es ein i ∈ I mit A ∈ X −1 (A i ). Dann ist aber auch<br />

A ∈ σ(X i ) ⊆<br />

⋃<br />

J⊆Iabz.<br />

σ(X j : j ∈ J).<br />

σ(X j : j ∈ J). Dann gibt es ein abzählbares J ⊆ I, so dass<br />

( ⋃<br />

A ∈ σ(X j : j ∈ J) = σ<br />

Beh: Alle X i sind A − A i -messbar (i ∈ I).<br />

Denn:<br />

X −1<br />

i (A i ) ⊆ ⋃<br />

J⊆Iabz.<br />

j∈J<br />

)<br />

X −1<br />

j (A j ) ⊆ σ<br />

σ(X j : j ∈ J) = A.<br />

Sei à eine weitere σ-Algebra, so dass X i à − A i-messbar ist (i ∈ I).<br />

Beh: Dann ist A ⊆ Ã.<br />

i<br />

( ⋃<br />

i∈I<br />

)<br />

X −1<br />

i (A i ) .


9. PRODUKTMASSE 81<br />

Denn: Ist X i à − A i -messbar (i ∈ I), so ist X −1<br />

i (A i ) ⊆ Ã (i ∈ I). Damit ist aber ⋃ i∈I<br />

X −1<br />

i (A i ) ⊆<br />

Ã, d.h.<br />

( ⋃<br />

A = σ<br />

i∈I<br />

)<br />

X −1<br />

i (A i ) ⊆ Ã.<br />

2. Das folgende Diagramm verdeutlicht die Situation:<br />

Ω ′<br />

X<br />

✲<br />

Ω<br />

❅<br />

❅<br />

X i◦X<br />

❅ ❅❘<br />

Ω i<br />

X i<br />

❄<br />

“⇒”: siehe 3.5.<br />

“⇐”: Das System E := ⋃ X −1<br />

i (A i ) ist ein Erzeuger von σ(X i : i ∈ I). Also ist nach 1.8<br />

i∈I<br />

zu zeigen: X −1 (E) ⊆ A ′ . Sei dazu E ∈ E. Dann gibt es ein i ∈ I mit A i ∈ A i und<br />

E = X −1<br />

i (A i ). Dann ist<br />

9.2 Bemerkung und Notation<br />

X −1 (E) = X −1 (X −1<br />

i (A i )) = (X i ◦ X) −1 (A i ) ∈ A ′ .<br />

1. Die in 9.1 beschriebene Situation erinnert an die aus der Topologie bekannte initiale Topologie.<br />

Deshalb spricht man heir auch von einer initialen Messbarkeitsstruktur.<br />

2. Wir definieren wie in 9.1<br />

σ(X 1 , . . . , X n ) := σ(X i : i ∈ {1, . . . , n}).<br />

✷<br />

Offenbar ist damit<br />

wie in 1.8.<br />

σ(X 1 ) = X −1<br />

1 (A 1)<br />

9.3 Definition<br />

Wir definieren zunächst für J ⊆ I<br />

und die Projektionen<br />

π J :<br />

Ω J := ∏ Ω j .<br />

j∈J<br />

{<br />

Ω I → Ω J<br />

(ω i ) i∈I ↦→ (ω j ) j∈J .<br />

Definitionsgemäß sei noch π j := π {j} .<br />

Die von den Projektionen (π i ) i∈I erzeugte σ-Algebra in Ω I heißt die Produkt-σ-Algebra der<br />

A i (i ∈ I), bezeichnet mit ⊗ A i = A I Wir führen die Notation<br />

i∈I<br />

n⊗<br />

A 1 ⊗ . . . ⊗ A n := A i :=<br />

⊗<br />

i=1 i∈{1,...,n}<br />

A i


82 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

ein.<br />

Ist X : Ω → Ω I , so seien<br />

π J ◦ X : Ω → Ω J bzw. π i ◦ X : Ω → Ω i<br />

die Projektionen von X.<br />

Ist umgekehrt (X i ) i∈I eine Familie von Abbildungen mit X i : Ω → Ω i (i ∈ I), so heißt für J ⊆ I<br />

{<br />

{<br />

Ω → Ω J<br />

Ω → Ω j<br />

X J :<br />

bzw. X j :<br />

ω ↦→ (X j (ω)) j∈J ω ↦→ X j (ω)<br />

die Produktabbildung der X j mit j ∈ J, bezeichnet mit ⊗ j∈J<br />

X j = X J . Somit gilt X J = π J ◦ X I<br />

bzw. X = ⊗ i∈I<br />

π i ◦ X.<br />

9.4 Korollar<br />

1. Eine Abbildung X : Ω → Ω I ist genau dann A − A I -messbar, wenn π i ◦ X A − A i -messbar ist<br />

(i ∈ I).<br />

2. Seien X i : Ω → Ω i Abbildungen. Genau dann sind alle X i A − A i -messbar, wenn die Produktabbildung<br />

X I A − A I -messbar ist.<br />

3. Es gilt<br />

σ(X i : i ∈ I) = σ ( ) ⋃ ( ) −1 ( ) ⋃<br />

X I = XJ AJ = (X J ) −1 (A J ).<br />

J⊆I abz.<br />

J⊆I abz.<br />

Beweis:<br />

1. Wende 9.1 auf (π i ) i∈I an.<br />

2. Folgt nach 1. für X = X I . Damit ist X i = π i ◦ X I .<br />

3. Die erste Gleichung folgt nach 2. Die zweite Gleichung folgt aus 9.1 unter Beachtung von<br />

(<br />

σ(X j : j ∈ J) = σ X J = ⊗ )<br />

X j = X −1<br />

J<br />

(A J).<br />

j∈J<br />

Die letzte Gleichung ist trivial.<br />

✷<br />

9.5 Satz<br />

Die Produkt-σ-Algebra A I wird erzeugt sowohl von dem Halbring<br />

{ ∏<br />

}<br />

R := A i : A i ∈ A i (n ∈ N), A i ≠ Ω für höchstens endlich viele i ∈ I<br />

i∈I<br />

als auch von dem System der ’nur an abzählbar vielen Koordinaten abhängigen Mengen’<br />

E := {π −1<br />

J<br />

(A) : J ⊆ I abz., A ∈ A J}.<br />

Ist I = {1, . . . , n}, so ist das System aller Rechtecke<br />

ein Erzeuger von A 1 ⊗ . . . ⊗ A n .<br />

R := {A 1 × . . . × A n : A i ∈ A i (i = 1, . . . , n)}


9. PRODUKTMASSE 83<br />

Beweis: Nach Definition wird A I erzeugt von<br />

{ ⋃<br />

˜R :=<br />

i∈I<br />

π −1<br />

i (A i ) : i ∈ I<br />

Wegen ˜R ∩ = R folgt A I = σ( ˜R) = σ(R) nach 9.1. Die anderen Behauptungen folgen aus 9.4.3 ✷<br />

9.6 Satz<br />

Sei (Ω i ) i∈I eine höchstens abzählbare Familie topologischer polnischer Räume Ω i mit jeweils<br />

abzählbarer Basis A i (d.h. G(Ω i ) = (G i ) σ und G i abzählbar). Dann gilt für die Borel’sche σ-<br />

Algebra<br />

( ∏ )<br />

B Ω i = ⊗ i∈I B(Ω i).<br />

i∈I<br />

Beweis:<br />

“⊇”: Definitionsgemäß ist<br />

{ ∏<br />

i∈I<br />

}<br />

.<br />

}<br />

U i : U i ≠ Ω i für höchstens endlich viele i ∈ I<br />

eine abzählbare Basis der Produkttopologie, d.h. der Topologie von Ω I . Da π −1<br />

i (U i )<br />

offene Rechteckszylinder in G(Ω I ) sind, ist jede Projektion π i : Ω I → Ω i stetig, also<br />

B(Ω I ) − B(Ω i )-messbar. Also gilt<br />

⊗<br />

B(Ω i ) = σ(π i : i ∈ I) ⊆ B(Ω I ).<br />

i∈I<br />

“⊆”: Umgekehrt ist G(Ω I ) ⊆ σ(G) für<br />

G := { π −1<br />

i (G i ) : i ∈ I, G i ∈ G i<br />

}<br />

.<br />

Damit ist<br />

B(Ω I ) = σ(G(Ω I )) ⊆ ⊗ i∈I<br />

B(Ω i ).<br />

9.7 Beispiel<br />

Es gilt<br />

2. Schritt: Konstruktion eines Maßes auf<br />

dann allgemein.<br />

9.8 Definition<br />

B(R n ) = B(R) ⊗ . . . ⊗ B(R) .<br />

} {{ }<br />

n-mal<br />

∏<br />

Ω i aus den m i . Zunächst für I = {1,2},<br />

Eine Abbildung K : Ω 1 × A 2 → R + heißt Übergangskern von (Ω 1 , A 1 ) nach (Ω 2 , A 2 ), wenn gilt:<br />

1. K[ω 1 , .] : A 2 ↦→ K[ω 1 , A 2 ] ist ein Maß auf A 2 (ω 1 ∈ Ω 1 ),<br />

2. K[., A 2 ] : ω 1 ↦→ K[ω 1 , A 2 ] ist A 1 -messbar (A 2 ∈ A 2 ).<br />

i∈I<br />


84 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

Speziell heißt K σ-endlich, wenn es eine Folge (A n ) n∈N ∈ A N 2 gibt mit A n ↑ Ω 2 und<br />

sup K[ω 1 , A n ] < ∞<br />

ω 1∈Ω 1<br />

(n ∈ N).<br />

Außerdem heißt K Markoff’sch oder stochastischer Kern oder Übergangswarscheinlichkeit, wenn<br />

9.9 Beispiele<br />

1. Eine spezielle Wahl ist<br />

K[ω 1 , Ω 2 ] = 1 (ω 1 ∈ Ω 1 ).<br />

K[ω 1 , A 2 ] = m 2 [A 2 ] (ω 1 ∈ Ω 1 , A 2 ∈ A 2 ).<br />

Dieser Übergangskern spielt bei unabhängigen Experimenten eine Rolle.<br />

2. Seien I und J abzählbare Mengen und (p ij ) i∈I,j∈J ∈ (R + ) |I||J| . Definiere hierfür<br />

⎧<br />

⎨I × P(J) → R +<br />

K :<br />

⎩(i, A) ↦→ ∑ p ij .<br />

j∈A<br />

Dann ist K ein Übergangskern von (I, P(I)) nach (J, P(J)). Dabei ist K genau dann stochastisch,<br />

wenn<br />

∑<br />

p ij = 1 (i ∈ I).<br />

j∈J<br />

Die Matrix (p ij ) i∈I,j∈J heißt dann stochastische Matrix. In diesem Fall ist, falls I = J, p ij die<br />

Wahrscheinlichkeit dafür, dass irrfahrendes Teilchen von i nach j gelangt.<br />

3. Sei (Ω 1 , A 1 ) = (Ω 2 , A 2 ). Dann definiert man den Einheitskern<br />

9.10 Lemma<br />

K[ω 1 , A 2 ] = ɛ ω1 [A 2 ] = 1 A2 (ω 1 ).<br />

1. Ist f : Ω 1 × Ω 2 → Ω 3 eine A 1 ⊗ A 2 − A 3 -messbare Funktion, so sind die Schnittfunktionen<br />

f(ω 1 , .) : ω 2 ↦→ f(ω 1 , ω 2 ) A 2 − A 3 -messbar (ω 1 ∈ Ω 1 ),<br />

f(., ω 2 ) : ω 1 ↦→ f(ω 1 , ω 2 ) A 1 − A 3 -messbar (ω 2 ∈ Ω 2 ).<br />

2. Ist A ∈ A 1 ⊗ A 2 , so gilt für die Schnittmengen<br />

A(ω 1 , .) := {ω 2 ∈ Ω 2 : (ω 1 , ω 2 ) ∈ A} ∈ A 2 (ω 1 ∈ Ω 1 ),<br />

A(., ω 2 ) = {ω 1 ∈ Ω 1 : (ω 1 , ω 2 ) ∈ A} ∈ A 1 (ω 2 ∈ Ω 2 ).<br />

3. Seien f n : Ω 1 × Ω 2 → Ω 3 (n ∈ N) A 1 ⊗ A 2 − A 3 -messbare Funktionen. Dann gilt<br />

f 1 ≥ f 2 ⇒ f 1 (ω 1 , .) ≥ f 2 (ω 1 , .) (ω 1 ∈ Ω 1 ),<br />

(f 1 + f 2 )(ω 1 , .) = f 1 (ω 1 , .) + f 2 (ω 1 , .), (f 1 · f 2 )(ω 1 , .) = f 1 (ω 1 , .) · f 2 (ω 1 , .), (ω 1 ∈ Ω 1 ),<br />

(sup f n )(ω 1 , .) = sup f n (ω 1 , .)<br />

n∈N<br />

n∈N<br />

( inf<br />

n∈N f n)(ω 1 , .) = inf<br />

n∈N f n(ω 1 , .) (ω 1 ∈ Ω 1 ).<br />

Analog gilt für Schnittmengen von (A n ) n∈N ∈ (A 1 ⊗ A 2 ) N<br />

( ⋃ )<br />

A n (ω 1 , .) = ⋃ A n (ω 1 , .), (ω 1 ∈ Ω 1 ),<br />

n∈N<br />

n∈N<br />

( ⋂<br />

n∈N<br />

A n<br />

)<br />

(ω 1 , .) = ⋂ n∈N<br />

A n (ω 1 , .), (ω 1 ∈ Ω 1 ),<br />

(A 1 \ A 2 )(ω 1 , .) = A 1 (ω 1 , .) \ A 2 (ω 1 , .), (CA 1 )(ω 1 , .) = C(A 1 (ω 1 , .)) (ω 1 ∈ Ω 1 ).


9. PRODUKTMASSE 85<br />

4. Seien f i : Ω i → R (i = 1, 2). Definiere dann durch<br />

{<br />

Ω 1 × Ω 2 → R<br />

f 1 ⊗ f 2 :<br />

(ω 1 , ω 2 ) ↦→ f 1 (ω 1 )f 2 (ω 2 )<br />

das Tensorprodukt von f 1 und f 2 . Für das Tensorprodukt gilt<br />

und damit für A 1 ∈ A 1 , A 2 ∈ A 2<br />

(f 1 ⊗ f 2 )(ω 1 , .) = f 1 (ω 1 ) · f 2<br />

1 A1×A 2<br />

= 1 A1 ⊗ 1 A2 und (A 1 × A 2 )(ω 1 , .) =<br />

{<br />

A 2 , ω 1 ∈ A 1<br />

∅, ω 1 ∉ A 1 .<br />

Beweis: Sei id : Ω 1 × Ω 2 → Ω 1 × Ω 2 . Damit ist id(ω 1 , .) ↦→ (ω 1 , ω 2 ) A 2 − A 1 ⊗ A 2 -messbar. Dann<br />

aber folgen die Behauptungen aus<br />

f(ω 1 , .) = f ◦ id(ω 1 , .), A(ω 1 , .) = id(ω 1 , .) −1 (A), 1 A (ω 1 , .) = 1 A(ω1,.)<br />

und entsprechenden Rechnungen für die zweite Komponente. Der Rest ist trivial.<br />

✷<br />

9.11 Notation<br />

Wir führen folgende Notationen ein:<br />

A(ω 1 , Ω 2 ) := {ω 2 ∈ Ω 2 : (ω 1 , ω 2 ) ∈ A},<br />

1 A(ω1,Ω 2) := 1 A (ω 1 , .),<br />

∫<br />

∫<br />

f(ω)m[dω] := fdm.<br />

9.12 Lemma (Messbarkeit integrierbarer Schnitte)<br />

Sei K 2 ein σ-endlicher Übergangskern von (Ω 1 , A 1 ) nach (Ω 2 , A 2 ). Dann ist für jede positive reelle<br />

A 1 ⊗ A 2 -messbare Funktion f auf Ω 1 × Ω 2 die Abbildung<br />

∫<br />

∫<br />

ω 1 ↦→ f(ω, .)dK 2 [ω 1 , .] =: f(ω 1 , ω 2 )K 2 [ω 1 , dω 2 ]<br />

A 1 -messbar.<br />

Beweis: Sei<br />

D :=<br />

{<br />

∫<br />

A ∈ A 1 ⊗ A 2 : ω 1 ↦→<br />

}<br />

1 A (ω 1 , ω 2 )K[ω 1 , dω 2 ] ist A 1 -messbar .<br />

1. Ist K[ω 1 , Ω 2 ] < ∞ (ω 1 ∈ Ω 1 ), so ist D ein Dynkin-System, denn<br />

∫<br />

1 A (ω 1 , .)dK[ω 1 , .] = K[ω 1 , A(ω 1 , Ω 2 )],<br />

woraus mit 9.10.2 folgt, dass D stabil ist unter Komplementbildung und unter endlichen disjunkten<br />

Vereinigungen. Nun ist<br />

E := {A 1 × A 2 : A i ∈ A i (i = 1, 2)}


86 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

ein ∩-stabiler Erzeuger von A 1 ⊗ A 2 mit E ⊆ D und es gilt<br />

K[ω 1 , (A 1 × A 2 )(ω 1 , Ω 2 )] = 1 A1 (ω 1 )K[ω 1 , A 2 ]<br />

und damit<br />

d.h. D = A 1 ⊗ A 2 .<br />

A 1 ⊗ A 2 = σ(E) = δ(E) ⊆ D ⊆ A 1 ⊗ A 2 ,<br />

2. Für allgemeine σ-endliche Übergangskerne gibt es eine Folge (B n ) n∈N ∈ A N 2 mit B n ↑ Ω 2 und<br />

sup<br />

ω 1∈Ω 1<br />

K[ω 1 , B n ] < ∞ (n ∈ N). Definiere nun die Kerne<br />

K n : (ω 1 , A 2 ) ↦→ K[ω 1 , A 2 ∩ B n ]<br />

(n ∈ N).<br />

Für diese Kern ist<br />

K n [ω 1 , Ω 2 ] = K[ω 1 , B n ] < ∞.<br />

Sei ω 1 ∈ Ω 1 . Nach 1. und wegen der Stetgkeit von K[ω 1 , .] von unten ist für A ∈ A 1 ⊗ A 2<br />

A 1 -messbar.<br />

ω 1 ↦→ K[ω 1 , A(ω 1 , Ω 2 )] = sup K n [ω 1 , A(ω 1 , Ω 2 )]<br />

n∈N<br />

3. Die Messbarkeitsbehauptung ist also richtig für Indikatorfunktionen, also auch für positive<br />

A 1 −A 2 -Treppenfunktionen und dann schließlich für alle positiven A 1 −A 2 -messbaren Funktionen<br />

nach Beppo Levi 6.1.<br />

9.13 Hauptsatz (Ionescu-Tulcea)<br />

Sei m 1 ein σ-endliches Maß auf (Ω 1 , A 1 ) und K 2 ein σ-endlicher Übergangskern von (Ω 1 , A 1 )<br />

nach (Ω 2 , A 2 ). Dann gibt es genau ein Maß m auf A 1 ⊗ A 2 mit<br />

m[A 1 × A 2 ] =<br />

∫<br />

K 2 [ω 1 , A 2 ]m 1 [dω 1 ] :=<br />

A 1<br />

∫<br />

K 2 [., A 2 ]dm 1<br />

A 1<br />

Dabei ist m σ-endlich und heißt das Produktmaß des Startmaßes m 1 mit Kern K 2 . Hierfür<br />

schreiben wir m := m 1 ⊗ K 2 Ist m 1 ein Wahrscheinlichkeitsmaß und K 2 ein stochastischer<br />

Kern, so ist m ein Wahrscheinlichkeitsmaß.<br />

Für A ∈ A 1 ⊗ A 2 gilt die Cavalieri’sche Formel<br />

∫<br />

m 1 ⊗ K 2 [A] = K 2 [ω 1 , A(ω 1 , Ω 2 )]m 1 [dω 1 ].<br />

✷<br />

Beweis: Definiere m durch die Cavalierei’sche Formel. Nach 9.12 ist damit m wohldefiniert, m ≥ 0<br />

und m[∅] = 0. Die Abbildung m ist gemäß 9.10.3 additiv und stetig von unten nach Beppo Levi<br />

6.1, also ein Maß auf A 1 ⊗ A 2 mit<br />

m[A 1 × A 2 ] 9.10.4<br />

=<br />

∫<br />

∫<br />

1 A1 (ω 1 )K 2 [ω 1 , A 2 ]m 1 [dω 1 ] = K 2 [., A 2 ]dm 1 .<br />

A 1<br />

Dabei ist m ein Wahrscheinlichkeitsmaß, falls m 1 [Ω 1 ] = 1 und K 2 ein stochastischer Kern ist.<br />

Beh: m ist σ-endlich.<br />

Denn: Seien (A n ) n∈N ∈ A N 1 , (B n ) n∈N ∈ (A 2 ) N mit A n ↑ Ω 1 und B n ↑ Ω 2 . Außerdem gelte<br />

m 1 [A n ] < ∞,<br />

sup K 2 [ω 1 , B n ] =: β n < ∞<br />

ω 1∈Ω 1<br />

(n ∈ N).


9. PRODUKTMASSE 87<br />

Damit ist A n × B n ↑ Ω 1 × Ω 2 mit<br />

∫<br />

m[A n × B n ] = K 2 [ω 1 , B n ] m 1 [dω 1 ] ≤ β n m 1 [A n ] < ∞.<br />

A n<br />

} {{ }<br />

≤β n<br />

Damit ist m σ-endlich, also durch seine Werte auf dem ∩-stabilen Erzeuger der Rechtecke A 1 ×<br />

A 2 (A i ∈ A i , i = 1, 2) nach dem Eindeutigkeitssatz 7.19 eindeutig festgelegt.<br />

✷<br />

9.14 Korollar<br />

Sind m 1 bzw. m 2 σ-endliche Maße auf A 1 bzw. A 2 , so ist m 1 ⊗ m 2 das einzige Maß m auf<br />

A 1 ⊗ A 2 mit<br />

m[A 1 × A 2 ] = m 1 [A 1 ] · m 2 [A 2 ] (A i ∈ A i , i = 1, 2).<br />

Für A ∈ A 1 ⊗ A 2 gilt<br />

∫<br />

∫<br />

m 1 ⊗ m 2 [A] = m 2 [A(ω 1 , Ω 2 )]m 1 [dω 1 ] = m 1 [A(Ω 1 , ω 2 )]m 2 [dω 2 ].<br />

Beweis: Zu beweisen ist nur das zweite Gleichheitszeichen. Wie im Beweis von 9.13 zeigt man,<br />

dass<br />

∫<br />

A ↦→ m 1 [A(Ω 1 , ω 2 )]m 2 [dω 2 ]<br />

ein Maß m auf A 1 ⊗ A 2 definiert mit<br />

m[A 1 × A 2 ] = m 1 [A 1 ] · m 2 [A 2 ] (A i ∈ A i , i = 1, 2),<br />

also m = m 1 ⊗ m 2 .<br />

✷<br />

9.15 Hauptsatz (Tonelli)<br />

Sei m 1 ein σ-endliches Maß auf A 1 , K 2 ein σ-endlicher Übergangskern von (Ω 1 , A 1 ) nach<br />

(Ω 2 , A 2 ) und m := m 1 ⊗ K 2 das Maß auf A 1 ⊗ A 2 aus 9.13. Für jede relle A 1 ⊗ A 2 -messbare<br />

Funktion f ≥ 0 gilt<br />

∫ ∫ ( ∫<br />

)<br />

fdm = f(ω 1 , ω 2 )K 2 [ω 1 , dω 2 ] m 1 [dω 1 ]<br />

∫ ∫<br />

=: m 1 [dω 1 ] K 2 [ω 1 , dω 2 ]f(ω 1 , ω 2 ).<br />

Insbesondere ist f integrierbar genau dann, wenn das Doppelintegral endlich ist. Ist K 2 [ω 1 , .] =<br />

m 2 (ω 1 ∈ Ω 1 ) ein σ-endliches Maß, so ist<br />

∫ ∫ ( ∫<br />

)<br />

fdm = f(ω 1 , ω 2 )m 2 [dω 2 ] m 1 [dω 1 ]<br />

∫ ( ∫<br />

)<br />

= f(ω 1 , ω 2 )m 1 [dω 1 ] m 2 [dω 2 ].<br />

Insbesondere ist f integrierbar genau dann, wenn ein Doppelintegral endlich ist.<br />

Beweis: Die Integrierbarkeitsaussagen folgen aus 4.7.4.<br />

Die Formel ergibt sich nach 9.12 aus dem Beweisprinzip 4.12, da<br />

∫<br />

ν : f ↦→ K 2 [ω 1 , dω 2 ]f(ω 1 , ω 2 )


88 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

auf B 0 +(Ω 1 × Ω 2 , A 1 ⊗ A 2 ) ein Daniell-Integral ist mit<br />

∫<br />

ν(1 A ) = m[A] (A ∈ A 1 ⊗ A 2 ), also ν(f) =<br />

fdm.<br />

Im Fall K 2 [ω 1 , .] = m 2 (ω 1 ∈ Ω 1 ) argumentiert man analog mittels 9.14.<br />


9. PRODUKTMASSE 89<br />

9.16 Korollar (Fubini)<br />

Sei m 1 ein σ-endliches Maß auf A 1 , K 2 ein σ-endlicher Übergangskern von (Ω 1 , A 1 ) nach (Ω 2 , A 2 )<br />

und m := m 1 ⊗ K 2 das Maß auf A 1 ⊗ A 2 aus 9.13. Sei f eine m-fast überall definierte reelle<br />

A 1 ⊗ A 2 -messbare Funktion. Genau dann ist f m-integrierbar, wenn das Doppelintegral in 9.15<br />

von |f| endlich ist. Dann ist f(ω 1 , .) ∈ L 1 (K 2 [(ω 1 , .)] für m 1 -fast alle ω 1 ∈ Ω 1 und die m 1 -fast<br />

überall definierte Integralfunktion<br />

∫<br />

ω 1 ↦→ f(ω 1 , .)dK 2 [ω 1 , .]<br />

ist m 1 -integrierbar und es gilt die Formel von 9.15 für f.<br />

Ist K 2 [ω 1 , .] = m 2 (ω 1 ∈ Ω 1 ) ein σ-endliches Maß, so ist f genau dann m-integrierbar, wenn<br />

ein Doppelintegral in 9.15 von |f| endlich ist. Es gilt dann f(., ω 2 ) ∈ B 1 (m 1 ) für m 2 -fast-alle<br />

ω 2 ∈ Ω 2 . Außerdem ist ebenso die m 2 -fast überall definierte Integralfunktion<br />

∫<br />

ω 2 ↦→ f(., ω 2 )dm 2<br />

m 2 -integrierbar und es gelten die Formeln von 9.15 für f.<br />

Beweis: Es genügt, den Fall eines allgemeinen Übergangskerns K 2 zu betrachten. Durch die Zerlegung<br />

von f in f + und f − und Anwendung von 9.15 auf f + bzw. f − erhält man die Behauptung<br />

Denn für f ≥ 0 zieht die Endlichkeit des Doppelintegrals die m 1 -Integrierbarkeit der Integralfunktion<br />

wegen 4.7.4 nach sich, also deren Endlichkeit für m 1 -fast-alle ω 1 ∈ Ω 1 , d.h. für diese ω 1 ist<br />

f(ω 1 , .) ∈ L 1 (K 2 [(ω 1 , .)]. Durch Addition der Formeln 9.15 für f + bzw. f − folgt die Behauptung.<br />

✷<br />

Durch vollständige Induktion erhält man nun aus 9.13 für I = {0, . . . , n}. Sei dazu (Ω i , A i ) i∈N0<br />

Messräume.


90 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

9.17 Satz (Ionescu-Tulcea)<br />

Sei P 0 ein Wahrscheinlichkeitsmaß auf (Ω 0 , A 0 ) und K i ein stochastischer Kern von<br />

( i−1 ∏ ⊗i−1<br />

)<br />

Ω j , A j nach (Ω i , A i ) (i = 1, . . . , n). Dann wird durch<br />

j=0<br />

j=0<br />

P 0<br />

n ⊗<br />

i=1<br />

∫<br />

K i : A ↦→<br />

∫<br />

P 0 [dω 0 ]<br />

K 1 [ω 0 , dω 1 ] . . .<br />

∫<br />

K n [ω 0 , . . . , ω n−1 , dω n ]1 A (ω 0 , . . . , ω n )<br />

(<br />

A ∈<br />

n⊗<br />

)<br />

A i<br />

i=0<br />

das einzige Wahrscheinlichkeitsmaß P auf<br />

n⊗<br />

A i definiert mit<br />

∫ ∫<br />

∫<br />

P[A 0 × . . . × A n ] = P 0 [dω 0 ]<br />

A 0<br />

K 1 [ω 0 , dω 1 ] . . .<br />

A 1<br />

K n [ω 0 , . . . , ω n−1 , dω n ]<br />

A n<br />

i=0<br />

(A i ∈ A i , i = 0, . . . , n).<br />

Es heißt das zum Wahrscheinlichkeitsmaß P 0 und den stochastischen Kernen K 1 , . . . , K n gehörige<br />

Produktmaß.<br />

n⊗<br />

Für jede reelle positive A i -messbare gilt<br />

∫<br />

fdP 0<br />

n ⊗<br />

i=1<br />

∫<br />

K i =<br />

i=0<br />

∫<br />

P 0 [dω 0 ]<br />

K 1 [ω 0 , dω 1 ] . . .<br />

∫<br />

K n [ω 0 , . . . , ω n−1 , dω n ]f(ω 0 , . . . , ω n−1 , ω n )<br />

Die Integrierbarkeit einer messbaren Funktion f ist dabei äquivalent <strong>zur</strong> Endlichkeit des iterierten<br />

Integrals von |f|.<br />

Beweis: Der Beweis erfolgt durch Induktion nach n unter Beachtung von<br />

( )<br />

n−1 ∏<br />

∏<br />

Ω i × Ω n = n ⊗n−1<br />

Ω i ,<br />

i=0 A i ⊗ A n = ⊗ n<br />

i=0 A n.<br />

i=0<br />

i=0<br />

Der Induktionsanfang ist 9.13, beim Induktionsschluss wendet man 9.13 auf das Wahrscheinlichkeitsmaß<br />

P 1 := P 0 K i und K n an und benutzt dann 9.15 und 9.16.<br />

n−1<br />

⊗<br />

✷<br />

i=0<br />

9.18 Bemerkung<br />

Das Resultat 9.17 gilt auch für σ-endliche Maße bzw. Kerne und mit leicht modifizierter Formel<br />

auch für abzählbare Indexmengen I.


9. PRODUKTMASSE 91<br />

9.19 Korollar (Fubini)<br />

Seien (Ω i , A i , m i ) i=1,...,n σ-endliche Maßräume. Dann gibt es genau ein Maß m auf<br />

n⊗<br />

A i mit<br />

i=1<br />

m[A 1 × . . . × A n ] = m 1 [A 1 ] · . . . · m n [A n ]<br />

(A i ∈ A i , i = 1, . . . , n),<br />

das sogenannte Produktmaß<br />

n⊗<br />

m i . Für jede reelle positive<br />

i=1<br />

integrierbare Funktion f sowie für jede Permutation π von {1, . . . , n} gilt<br />

∫<br />

( ⊗ n )<br />

fd m i =<br />

i=1<br />

∫ ( ( ∫<br />

. . .<br />

n⊗<br />

A i -messbare und jede m-<br />

i=1<br />

) )<br />

f(ω 1 , . . . , ω n )m π(1) [dω π(1) ] . . . m π(n) [dω π(n) ].<br />

Die Integrierbarkeit einer reellen, messbaren Funktion f ist dabei äquivalent <strong>zur</strong> Endlichkeit<br />

eines iterierten Integrals von |f|.<br />

Beweis: Der Beweis erfolgt mittels Induktion nach n. Dabei ist zu beachten, dass π Kompositionen<br />

endlich vieler benachbarter Transpositionen ist. Dann folgt die Behauptung mit 9.14, 9.15 und 9.16.<br />

✷<br />

9.20 Beispiele<br />

1. Das Lebesgue-Borel’sche Maß<br />

λ n :=<br />

ist das Produktmaß von n Exemplaren des Lebesgue-Borel’schen Maßes λ 1 auf<br />

B(R n ).<br />

Nach dem Eindeutigkeitssatz 7.19 ist λ n das einzige Maß auf B(R n ) mit<br />

n⊗<br />

i=1<br />

λ 1<br />

λ n[ n∏ ] ∏<br />

[a i ; b i ] = n (b i − a i ).<br />

i=1<br />

i=1<br />

n⊗<br />

B(R 1 ) =<br />

i=1<br />

Insbesondere sind einpunktige und damit abzählbare Mengen in R n λ n -Nullmengen, also ebenso<br />

jede achsenparallele Hyperebene<br />

denn<br />

H := {x ∈ R n , x i = a i },<br />

H =<br />

∞⋃<br />

[−k; k] −1 × {a i } × [−k; k] n−i<br />

k=1<br />

2. Das Lebesgue-Borelsche Maß λ n ist das einzige translationsinvariante Maß auf B(R n ) mit<br />

λ n [[0; 1] n ] = 1. Es ist sogar bewegungsinvariant, d.h. λ n = T (λ n ) mit T = T a ◦ U, wobei T a<br />

eine Translation und U eine orthogonale Transformation ist.<br />

3. Die Endlichkeit und Übereinstimmung der Doppelintegrale für f ∈ L 0 (Ω, A) impliziert nicht<br />

die Integrierbarkeit von f. Sei beispielsweise m 1 = m 2 = λ 1 und<br />

f : ω ↦→ ω 1 · ω 2<br />

(ω 2 1 + ω2 2 )2 .


92 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

Dann stimmen die iterierten Integrale von f überein, aber kein iteriertes Integral von |f| ist<br />

endlich.<br />

4. Doppelintegrale nicht σ-endlicher Maße müssen nicht übereinstimmen. Sei beispielsweise A 1 =<br />

A 2 = B([0; 1]) und<br />

m 1 = λ 1 | [0;1] , m 2 = Zählmaß auf[0; 1].<br />

Dann ist m 2 nicht σ-endlich. Berechnet man nun die iterierten Integrale für 1 ∆ mit<br />

∆ := {(x, x) ∈ [0; 1] 2 : x ∈ [0; 1]},<br />

so gilt<br />

∫ ( ∫<br />

∫ ( ∫<br />

)<br />

1 ∆ (ω 1 , ω 2 )m 1 [dω 1 ] m 2 [dω 2 ] =<br />

)<br />

1 ∆ (ω 1 , ω 2 )m 2 [dω 2 ] m 1 [dω 1 ] =<br />

∫<br />

∫<br />

0m 2 [dω 2 ] = 0<br />

1m 1 [dω 1 ] = 1.


10. UNABHÄNGIGKEIT 93<br />

10 Projektive Familien von Wahrscheinlichkeitsmaßen und<br />

Unabhängigkeit<br />

Sei stets I ≠ ∅ eine beliebige Indexmenge, (Ω, A, P) ein Wahrscheinlichkeitsraum und (Ω i , A i )<br />

Messräume (i ∈ I).<br />

10.1 Notationen<br />

Wie in 9.2 führen wir folgende Bezeichnungen ein. Seien dazu (Ω i , A i ) i∈I Messräume.<br />

• Für J ⊆ I sei Ω J := ∏ Ω j und A J := ⊗ A j ,<br />

j∈J<br />

j∈J<br />

• für J ⊆ H ⊆ I sei π H J<br />

: Ω H → Ω J die kanonische Projektion,<br />

• entsprechend ist π J := πJ I : Ω I → Ω J die kanonische Projektion,<br />

• und π j := π {j} : Ω I → Ω j die j-te Projektion.<br />

• Für J ⊆ I ist J ⊂⊂ I :⇔ J ⊆ I, J endlich.<br />

10.2 Definition<br />

Eine Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen P J auf (Ω J , A J ) heißt projektiv, wenn<br />

P J = π H J (P H)<br />

(J ⊆ H ⊂⊂ I).<br />

10.3 Beispiel<br />

Sei P i ein Wahrscheinlichkeitsmaß auf (Ω i , A i ) (i ∈ I). Für J ⊂⊂ I sei entsprechend<br />

P J := ⊗ j∈J<br />

P j<br />

das Produktmaß auf (Ω J , A J ). Dann ist (P J ) J⊂⊂I projektiv.<br />

Denn Sei J ⊆ H ⊂⊂ I. Nach 9.19 gilt für A j ∈ A j (j ∈ J) und A h := Ω h (h ∈ H \ J)<br />

[ ∏ ] ∏<br />

P J A j = P j [A j ] = ∏<br />

[ ∏ ]<br />

P h [A h ] = P H A h<br />

j∈J<br />

j∈J<br />

h∈H<br />

h∈H<br />

[ (π )<br />

H −1 ( ∏ ) ]<br />

= P H J A j = πJ H(P H) [ ∏ ]<br />

A j .<br />

j∈J<br />

j∈J<br />

Damit ist P H = π H J (P H).<br />

✷<br />

10.4 Satz<br />

Gibt es zu einer Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen P J auf (Ω J , A J ) ein Wahrscheinlichkeitsmaß<br />

P auf (Ω I , A I ) mit endlich dimensionalen Randverteilungen oder Marginalmaßen<br />

P J = π J (P) (J ⊂⊂ I),<br />

so ist P eindeutig bestimmt, (P J ) J⊂⊂I ist projektiv und P heißt der projektive Limes der<br />

(P J ) J⊂⊂I .<br />

Beweis: Zum Beweis der Projektivität sei J ⊆ H ⊂⊂ I. Es gilt π J = π I J = π H J<br />

◦ π H und damit<br />

P J = π J (P) = (π H J ◦ π H)(P) 8.2<br />

= π H J (π H(P)) = π H J (P H).


94 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

Für die Eindeutigkeit von P ist nach 7.19 und 9.5 die Eindeutigkeit nur für Mengen<br />

∏<br />

A j ×<br />

j∈J<br />

∏<br />

i∈I\J<br />

Ω i (J ⊂⊂ I, A j ∈ A j )<br />

zu zeigen. Dieses erzeugt nämlich A I , ist ∩-stabil und enthält Ω I . Es gilt<br />

P [ ∏ A j ×<br />

j∈J<br />

∏<br />

i∈I\J<br />

] [<br />

Ω i = P π<br />

−1<br />

J<br />

( ∏ A j ) ] = π J (P) [ ∏ ] [ ∏ ]<br />

A j = PJ A j<br />

j∈J<br />

j∈J<br />

j∈J<br />

und damit ist P eindeutig bestimmt.<br />

✷<br />

10.5 Notation<br />

In der Situation von 10.4 bezeichnen wir<br />

lim ←−<br />

P J := P.<br />

J ⊂⊂ I<br />

10.6 Satz (Kolmogoroff)<br />

Sei (P J ) J⊂⊂I eine projektive Familie von Wahrscheinlichkeitsmaßen P J auf (Ω J , A J ) und (K i ) i∈I<br />

eine Familie kompakter Systeme K i ⊆ A i (i ∈ I), so dass jedes P i von innen K i -regulär ist. Dann<br />

existiert der projektive Limes<br />

P = lim ←−<br />

P J .<br />

J ⊂⊂ I<br />

Beweis:<br />

1. Sei<br />

H := { π −1 ( ∏ ) }<br />

J<br />

A j : J ⊂⊂ I, Aj ∈ A j .<br />

j∈J<br />

Nach 7.3.2 ist H ein Halbring und nach 9.5 erzeugt H die Produkt-σ-Algebra A I . Definiere<br />

⎧<br />

⎨H → [0; 1]<br />

µ :<br />

⎩π −1 ( ∏ ) [ ∏ ]<br />

J<br />

A j ↦→ P J A j .<br />

j∈J<br />

Beh: µ ist ein wohldefinierter Inhalt auf H<br />

j∈J<br />

Denn: Seien J 1 , J 2 ⊂⊂ I und J ′ := J 1 ∪J 2 . Weiter seien A 1 j ∈ A j (j ∈ J 1 ) und A 2 j ∈ A j (j ∈ J 2 ).<br />

Ist dann<br />

π −1 ( ∏ ) (<br />

J 1<br />

A 1 j = π<br />

−1<br />

∏ )<br />

J 2<br />

A 2 j ,<br />

j∈J 1 j∈J 2<br />

so gilt<br />

(π J ′<br />

J 1<br />

) −1( ∏<br />

und damit<br />

P J1<br />

[ ∏<br />

j∈J 1<br />

A 1 j<br />

j∈J 1<br />

A 1 j<br />

) (<br />

= πJ ′(<br />

π<br />

−1<br />

∏ )) (<br />

J 1<br />

A 1 j = πJ ′(<br />

π<br />

−1<br />

∏ ))<br />

J 2<br />

A 2 j = (π<br />

J ′<br />

J 2<br />

) −1( ∏ )<br />

A 2 j ∈ H<br />

j∈J 1 j∈J 2 j∈J 2<br />

]<br />

= π<br />

J ′<br />

J 1<br />

(P J ′) [ ∏<br />

j∈J 1<br />

A 1 j<br />

]<br />

= PJ ′[<br />

(π<br />

J ′<br />

J 1<br />

) −1( ∏<br />

j∈J 1<br />

A 1 j<br />

[<br />

= P J ′ (π<br />

J ′<br />

J 2<br />

) −1( ∏ )]<br />

A 2 j = π<br />

J ′<br />

J 2<br />

(P J ′) [ ∏<br />

j∈J 2<br />

j∈J 2<br />

A 2 j<br />

)]<br />

]<br />

= PJ2<br />

[ ∏<br />

j∈J 2<br />

A 2 j<br />

]


10. UNABHÄNGIGKEIT 95<br />

Damit ist µ wohldefiniert.<br />

Seien B 1 , . . . , B n ∈ H paarweise verschiedene Rechtecke und<br />

n⊎<br />

B := B k ∈ H.<br />

Dann gibt es ein J ⊂⊂ I und paarweise fremde Rechtecke A k ∈ ∏<br />

k=1<br />

A j<br />

j∈J<br />

(k = 1, . . . , n) mit<br />

B k = π −1<br />

J<br />

(A k) und B = π −1 ( ⊎<br />

n )<br />

A k .<br />

J<br />

k=1<br />

Dann ist<br />

[<br />

µ[B] = µ<br />

π −1<br />

J<br />

( ⊎<br />

n ) ]<br />

A k =<br />

k=1<br />

n∑<br />

π J (µ)[A k ] =<br />

k=1<br />

n∑<br />

P J [A k ] =<br />

k=1<br />

n∑<br />

µ[B k ].<br />

k=1<br />

Überdies ist µ[∅] = 0 und µ[Ω I ] = 1. Damit ist µ ein normierter Inhalt auf H und damit nach<br />

7.4 eindeutig zu einem Inhalt auf σ(H) fortsetzbar.<br />

2. Definiere<br />

Dann ist K ist nach 7.7 ein kompaktes System.<br />

Beh: µ ist von innen K-regulär.<br />

K := { π −1 ( ∏ ) }<br />

J<br />

K j : J ⊂⊂ I, Kj ∈ K j .<br />

j∈J<br />

Denn: Sei J ⊂⊂ I mit |J| = n und A j ∈ A j . Sei außerdem ɛ > 0. Damit gibt es K j ∈ K j mit<br />

K j ⊆ A j ,<br />

P j [A j ] ≤ P j [K j ] + ɛ n<br />

(j ∈ J)<br />

und<br />

Wegen K ⊆ π −1 ( ∏ )<br />

J<br />

A j =: A gilt<br />

j∈J<br />

K := π −1 ( ∏ )<br />

J<br />

K j ∈ K.<br />

j∈J<br />

A = A ⊎ (A \ K) ⊆ K ∪ ⋃ j∈J<br />

π −1<br />

j (A j \ K j )<br />

und damit<br />

µ[A] ≤ µ[K] + ∑ j∈J<br />

µ[π −1<br />

j (A j \ K j )] = µ[K] + ∑ j∈J<br />

P j [A j \ K j ] ≤ µ[K] + ɛ.<br />

3. Nach 7.10 ist µ ein Prämaß, lässt sich also nach 7.19 eindeutig zu einem Wahrscheinlichkeitsmaß<br />

P auf σ(H) = A I fortsetzen.<br />

Beh: P ist der projektive Limes der (P J ) J⊂⊂I .<br />

Denn: Für J ⊂⊂ I und A j ∈ A j (j ∈ J) ist<br />

π J (P) [ ∏ ]<br />

A j = πJ (µ) [ ∏ ] [ ∏ ]<br />

A j = PJ A j .<br />

j∈J<br />

Mit 9.5 ist π J (P) = P J , d.h. P ist der projektive Limes der (P J ) J⊂⊂I .<br />

j∈J<br />

j∈J<br />


96 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

10.7 Korollar (Kolmogoroff)<br />

Ist (Ω i ) i∈I eine Familie polnischer Räume, A i = B(Ω i ) die Borel’sche σ-Algebra in Ω i (i ∈ I),<br />

so existiert zu jeder projektiven Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen P J auf<br />

(Ω J , B(Ω J )) der projektive Limes P = lim ←−<br />

P J .<br />

J ⊂⊂ I<br />

Insbesondere existiert zu jeder Familie (P i ) i∈I von Wahrscheinlichkeitsmaßen P i auf (Ω i , B(Ω i ))<br />

genau ein Wahrscheinlichkeitsmaß<br />

P = ⊗ i∈I<br />

P i auf ( ∏<br />

mit π J (P) = ⊗ j∈J<br />

P j , d.h.<br />

P [ ∏ A j ×<br />

j∈J<br />

i∈I<br />

Ω i , ⊗ i∈I<br />

∏<br />

i∈I\J<br />

B(Ω i ) ) bzw. ( Ω I , B(Ω I ) ) , falls I abzählbar ist<br />

] ∏<br />

Ω i = P j [A j ] (J ⊂⊂ I, A j ∈ A j ).<br />

j∈J<br />

Beweis: Die Behauptung folgt aus 7.25, 9.6 und 10.6.<br />

✷<br />

10.8 Bemerkung<br />

Die Existenz und Eindeutigkeit des Produktmaßes ⊗ i∈I<br />

P i lässt sich auch für beliebige Wahrscheinlichkeitsräume<br />

(Ω i , A i , P i ) beweisen (vgl. [BW], §9), aber nicht die des projektiven Limes.<br />

10.9 Definition<br />

1. Eine Familie (E i ) i∈I mit E i ⊆ A (i ∈ I) heißt unabhängig, wenn<br />

P [ ⋂ ] ∏<br />

A j = P[A j ] (J ⊂⊂ I A j ∈ E j )<br />

gilt.<br />

j∈J<br />

j∈J<br />

2. Eine Familie (A i ) i∈I ∈ A I heißt unabhängig, wenn ({A i }) i∈I unabhängig ist.<br />

3. Eine Familie (X i ) i∈I von Zufallsvariablen X i : (Ω, A) → (Ω i , A i ) heißt unabhängig, wenn<br />

(σ(X i )) i∈I unabhängig ist, d.h. wenn<br />

P[X j ∈ A j : j ∈ J] = P [ ⋂<br />

{X j ∈ A j } ] = ∏ P[X j ∈ A j ] (J ⊂⊂ I, A j ∈ A j ).<br />

j∈J<br />

j∈J<br />

10.10 Bemerkung<br />

Wie aus der elementaren Stochastik bekannt, folgt aus der paarweisen Unabhängigkeit von Mengensystemen,<br />

Ereignissen oder Zufallsvariablen nicht die Unabhängigkeit.


10. UNABHÄNGIGKEIT 97<br />

10.11 Hauptsatz<br />

Eine Familie von Zufallsvariablen X i : (Ω, A) → (Ω i , A i ) ist genau dann unabhängig, wenn die<br />

gemeinsame Verteilung, d.h. die Verteilung der Produkt-Zufallsvariable<br />

X I : (Ω, A) → ( Ω I , A I<br />

)<br />

das Produktmaß der Verteilungen der X i ist, d.h. wenn<br />

Vert ⊗ i∈I<br />

X i = ⊗ i∈I<br />

VertX i = ⊗ i∈I<br />

X i (P).<br />

Beweis: Folgt direkt aus der Definition der Unabhängigkeit.<br />

✷<br />

10.12 Beispiel<br />

Sei (Ω i , A i , P i ) i∈I eine Familie von Wahrscheinlichkeitsräumen,<br />

Ω I := ∏ Ω i , A I := ⊗ A i , P := ⊗ P i .<br />

i∈I<br />

i∈I<br />

i∈I<br />

Weiter sei X i := π i die i-te Projektion und damit ⊗ X i = id Ω . Dann ist<br />

i∈I<br />

Vert ⊗ X i = P = ⊗ P i = ⊗ π i (P) = ⊗ VertX i .<br />

i∈I<br />

i∈I i∈I<br />

i∈I<br />

Damit sind die (X i ) i∈I ein kanonisches Modell für eine unabhängige Familie (X i ) i∈I von Zufallsgrößen<br />

mit VertX i = P i (i ∈ I).<br />

Ein Beispiel hierfür ist eine Bernoulli’sche Beobachtungsfolge, also z.B. ein abzählbar oft ausgeführter<br />

Münzwurf mit Erfolgswahrscheinlichkeit 0 < p < 1. Hier ist speziell (Ω i , A i , P i ) =<br />

({0, 1}, P(Ω i ), B(1, p)) und<br />

10.13 Satz<br />

Ω = {0, 1} N , A = B(Ω) 9.6<br />

= ⊗ i∈N<br />

B(Ω i ), P =<br />

Seien X 1 , . . . , X n unabhängige reelle Zufallsvariable. Ist<br />

1. X i ≥ 0 (i = 1, . . . , n) oder<br />

2. X i integrierbar (i = 1, . . . , n),<br />

dann gilt<br />

∏<br />

Ist 2. erfüllt, ist n X i integrierbar.<br />

i=1<br />

E [ n∏ ] n∏<br />

X i = E[X i ].<br />

i=1<br />

i=1<br />

∞⊗<br />

B(1, p).<br />

i=1<br />

Beweis: Sei<br />

Q i := VertX i und Q := Vert ( ⊗<br />

n )<br />

X i .<br />

i=1


98 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

Dann ist wegen der Unabhängigkeit der X i<br />

n⊗<br />

Q = Q i .<br />

i=1<br />

Definiere<br />

i=1<br />

i=1<br />

Y :<br />

{<br />

R n → R<br />

(y 1 , . . . , y n ) ↦→ |y 1 · . . . · y n |.<br />

Damit ist<br />

E [∣ ∣<br />

∏ n ∣] [<br />

n⊗<br />

∫ ∫<br />

]<br />

X i =E Y ◦ X i = Y dQ = Y d<br />

∫<br />

=<br />

n⊗<br />

VertX i<br />

i=1<br />

∫<br />

∫<br />

∏<br />

. . . |y 1 · . . . · y n |Q 1 (dy 1 ) . . . Q n [dy n ] = n<br />

i=1<br />

∏<br />

|y i |Q i [dy i ] = n E[|X i |].<br />

i=1<br />

Daraus folgt die Behauptung im Fall 1. und die Integrierbarkeit im Fall 2. Die Multiplikativität<br />

der Erwartungswerte im Fall 2. folgt durch Wiederholung des Arguments mit<br />

{<br />

R n → R<br />

Y :<br />

(y 1 , . . . , y n ) ↦→ y 1 · . . . · y n .<br />

10.14 Definition<br />

Seien X, Y ∈ L 2 (Ω, A, P).<br />

1. X und Y heißen unkorrelliert, wenn E[X · Y ] = E[X] · E[Y ].<br />

2. Die durch<br />

Kov[X, Y ] = E [ (X − E[X])(Y − E[Y ]) ] = E[X · Y ] − E[X · Y ]<br />

gegebene Zahl heißt Kovarianz von X und Y .<br />

3. Ist σ(X), σ(Y ) > 0, so definiert man durch<br />

den Korrellationskoeffizient von X und Y .<br />

10.15 Bemerkung<br />

Sei wieder X, Y ∈ L 2 (Ω, A, P).<br />

kor[X, Y ] = Kov[X, Y ]<br />

σ[X] · σ[Y ]<br />

1. Wegen 5.5 und 5.8 ist X, Y, X · Y, [ X − E[X] ][ Y − E[Y ] ] ∈ L 1 (P).<br />

✷<br />

2. Durch Defnition gilt<br />

Außerdem ist<br />

Var[X] = Kov[X, X].<br />

Var[αX + β] = α 2 Var[X]<br />

(α, β ∈ R).<br />

3. Ist Var[X] = 0 oder Var[Y ] = 0, so sind X und Y unkorrelliert, denn wegen Var[X] = 0 =<br />

E[[X − E[X]] 2 ] ist X = E[X] fast sicher. Deswegen gilt<br />

E[X · Y ] = E[E[X] · Y ] = E[X] · E[Y ].


10. UNABHÄNGIGKEIT 99<br />

4. Sind X und Y unabhängig, so sing sie wegen 10.13 unkorrelliert.<br />

5. Sei Var[X] · Var[Y ] > 0. Dann gilt wegen der Cauchy-Schwarzschen Ungleichung aus 5.8<br />

kor[X, Y ] ≤ 1. Genau dann gilt E[X · Y ] = σ[X]σ[Y ], wenn X und Y linear abhängig sind,<br />

d.h. wenn es α, β ∈ R gibt mit Y = αX + β.<br />

Damit ist genau dann kor[X, Y ] = 1, wenn X − E[X] und Y − E[Y ] linear abhängig sind. Dann<br />

sind X und Y auch stochastisch abhängig.<br />

10.16 Satz (Gleichung von Bienamé)<br />

Für X 1 , . . . , X n ∈ L 2 (Ω, A, P) gilt<br />

Var[X 1 + . . . + X n ] =<br />

n∑<br />

Kov[X i , X j ].<br />

i,j=1<br />

Sind X 1 , . . . , X n paarweise unkorrelliert, dann gilt die Gleichung von Bienamé<br />

[<br />

∑ n ]<br />

Var X i =<br />

i=1<br />

n∑<br />

Var[X i ].<br />

i=1<br />

Beweis: Definiere durch Zentrieren am Erwartungswert<br />

˜X i := X i − E(X i ) (i = 1, . . . , n).<br />

Dann gilt<br />

[ ∑ n ] [ ( ∑ n<br />

Var X i = E<br />

i=1<br />

i=1<br />

[ ∑<br />

n<br />

= E<br />

i,j=1<br />

X i − E [ n ∑<br />

˜X i ˜Xj<br />

]<br />

=<br />

i=1<br />

] ) ] [<br />

2 ( ∑ n<br />

X i = E<br />

n∑<br />

E[ ˜X i , ˜X j ] =<br />

i,j=1<br />

i=1<br />

˜X i<br />

) 2<br />

]<br />

n∑<br />

Kov[X i , X j ].<br />

i,j=1<br />

Sind X 1 , . . . , X n paarweise unkorrelliert, folgt<br />

[ ∑<br />

n ] n∑<br />

n∑<br />

Var X i = Kov[X i , X i ] = Var[X i ].<br />

i=1 i=1<br />

i=1<br />

✷<br />

10.17 Definition<br />

Seien m 1 , . . . , m n endliche Borel-, also Radon-Maße auf R p und<br />

⎧<br />

⎪⎨ (R p ) n → R p<br />

S n :<br />

n∑<br />

⎪⎩ (x 1 , . . . , x n ) ↦→ x i .<br />

Dann heißt das Bildmaß des Produktmaßes<br />

Faltung von m 1 , . . . , m n .<br />

( ⊗<br />

n )<br />

S n m i =:<br />

i=1<br />

n<br />

∗<br />

i=1<br />

i=1<br />

m i =: m 1 ∗ . . . ∗ m n


100 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

10.18 Hauptsatz<br />

Sind X 1 , . . . , X n : (Ω, A, P) → R p unabhängige Zufallsvariablen, so ist<br />

(<br />

∑ n<br />

Vert<br />

i=1<br />

X i<br />

)<br />

= n ∗<br />

i=1<br />

VertX i .<br />

Beweis: Wegen<br />

ist<br />

n∑<br />

X i = S n ◦<br />

n⊗<br />

i=1<br />

i=1<br />

X i<br />

(<br />

∑ n<br />

Vert<br />

i=1<br />

X i<br />

)<br />

= Vert ( S n ◦<br />

n⊗ )<br />

X i = (Sn ◦<br />

i=1<br />

( ⊗<br />

n )<br />

= S n P Xi =<br />

i=1<br />

n<br />

∗<br />

i=1<br />

n⊗<br />

i=1<br />

P Xi = n ∗<br />

i=1<br />

X i )(P) = S n (P N n<br />

i=1 Xi)<br />

VertX i .<br />

✷<br />

10.19 Bemerkung<br />

1. Beh.: m 1 ∗ . . . ∗ m N ist ein endliches Borel-Maß auf R p .<br />

Denn:<br />

(m 1 ∗ . . . ∗ m n )[R p ] = ( ⊗<br />

n )<br />

m i (S<br />

−1<br />

n (R p )) =<br />

} {{ }<br />

i=1<br />

=(R p ) n<br />

n∏<br />

m i [R p ] < ∞.<br />

2. Beh.: Die Faltungsoperation ist kommutativ, distributiv und assoziativ auf M b +(R p ).<br />

Denn:<br />

Kommutativität: Für f ∈ L 0 +(R, B(R)) gilt<br />

∫<br />

∫<br />

∫<br />

fd(m 1 ∗ m 2 ) = fd(S 2 (m 1 ⊗ m 2 )) 8.4<br />

= (f ◦ S 2 )d(m 1 ⊗ m 2 )<br />

∫<br />

= f(x 1 + x 2 )m 1 ⊗ m 2 [d(x 1 , x 2 )<br />

9.15<br />

=<br />

9.16<br />

∫ ∫<br />

i=1<br />

f(x 1 + x 2 )m 1 [dx 1 ]m 2 [dx 2 ]<br />

∫<br />

= f(x 1 + x 2 )m 2 ⊗ m 1 [d(x 1 , x 2 )]<br />

∫<br />

∫<br />

= fd(S 2 (m 2 ⊗ m 1 )) = fd(m 2 ∗ m 1 ).<br />

Distributivität: Wie oben gilt für f ∈ L 0 +(R, B(R))<br />

∫<br />

∫ ∫<br />

fd(m 0 ∗ (m 1 + m 2 )) = f(x 1 + x 2 )m 0 [dx 1 ](m 1 + m 2 )[dx 2 ]<br />

∫ ∫<br />

= f(x 1 + x 2 )m 0 [dx 1 ]m 1 [dx 2 ]


10. UNABHÄNGIGKEIT 101<br />

∫ ∫<br />

+<br />

f(x 1 + x 2 )m 0 [dx 1 ]m 2 [dx 2 ]<br />

∫<br />

=<br />

∫<br />

fd(m 0 ∗ m 1 ) +<br />

fd(m 0 ∗ +m 2 ),<br />

also<br />

m 0 ∗ (m 1 + m 2 ) = m 0 ∗ m 1 + m 1 ∗ m 2 .<br />

Assoziativität: Seien Œ m i Wahrscheinlichkeitsmaße auf R p (i = 1, 2, 3) und<br />

P = m 1 ⊗ m 2 ⊗ m 3 .<br />

Dann sind die Projektionen π i : (R p ) 3 → R p unabhängig (i = 1, 2, 3) mit Vertπ i = π i (P) =<br />

m i . Damit gilt mit 10.18<br />

10.20 Beispiele<br />

(m 1 ∗ m 2 ) ∗ m 3 = Vert((π 1 + π 2 ) + π 3 ) = Vert(π 1 + (π 2 + π 3 ))<br />

= m 1 ∗ (m 2 ∗ m 3 )<br />

1. Sei a ∈ R p und m ein endliches Borel-Maß auf R p .<br />

Beh: Dann ist<br />

ɛ a ∗ m = T a (m)<br />

mit der Translation T a : x ↦→ x + a.<br />

Denn: Für A ∈ B(R p ) ist<br />

∫<br />

(ɛ a ∗ m)[A] = m[A − x]ɛ a [dx] = m[A − a] = m[Ta<br />

−1 (A)] = T a (m)[A].<br />

Beh: Insbesondere ist für a, b ∈ R p ɛ a ∗ ɛ b = ɛ a+b .<br />

Denn: Es gilt wie oben<br />

ɛ a ∗ ɛ b = T a (ɛ b )[A] = ɛ b [A − a] = ɛ a+b [A].<br />

2. Sei n 1 , n 2 ∈ N, p ∈ [0; 1] Dann bezeichnen wie in 0.2 B(n 1 , p) bzw. B(n 2 , p) Binomialverteilungen<br />

auf {0, . . . , n 1 } bzw. {0, . . . , n 2 } mit Parameter p.<br />

Beh: B(n 1 , p) ∗ B(n 2 , p) = B(n 1 + n 2 , p).<br />

Denn: Es gilt<br />

∑n 1<br />

∑n 2<br />

B(n 1 , p) ∗ B(n 2 , p) =<br />

=<br />

=<br />

i=0 j=0<br />

n∑<br />

1+n 2<br />

k=0<br />

n∑<br />

1+n 2<br />

k=0<br />

(<br />

n1<br />

∑n 2<br />

j=0<br />

i<br />

)(<br />

n2<br />

j<br />

(<br />

n1<br />

k − j<br />

(<br />

n1 + n 2<br />

k<br />

)<br />

p i+j (1 − p) n1+n2−i−j ɛ i ∗ ɛ j<br />

)( )<br />

n2<br />

p k (1 − p) n1+n2−k ɛ k<br />

j<br />

)<br />

p k (1 − p) n1+n2−k ɛ k = B(n 1 + n 2 , p).<br />

Also ist die Summe zweier unabhängiger nach B(n 1 , p) und B(n 2 , p) verteilter Zufallsvariablen<br />

B(n 1 + n 2 , p)-verteilt.<br />

Induktiv schließt man, dass die Summe von n unabhängigen, nach B(1, p)-verteilten Zufallsvariablen<br />

B(n, p)-verteilt ist.


102 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

3. Sei α 1 , α 2 > 0 und π α1 bzw. π α1 Poisson-Verteilungen mit Parameter α 1 bzw. α 2 wie in 0.2.<br />

Beh: π α1 ∗ π α2 = π α1+α 2<br />

.<br />

Denn: Es gilt<br />

π α1 ∗ π α2 =<br />

∞∑<br />

∞∑<br />

i=0 j=0<br />

e −α1−α2 αi 1<br />

i!<br />

α j 2<br />

j! ɛ i ∗ ɛ j =<br />

= e −(α1+α2) (α 1 + α 2 ) k<br />

ɛ k .<br />

k!<br />

∞∑<br />

k∑<br />

e −α1−α2 αk−j 1<br />

(k−j)!<br />

k=0 j=0<br />

α j 2<br />

j! ɛ k


11. MASSE MIT DICHTEN 103<br />

11 Maße mit Dichten<br />

Sei stets (Ω, A, m) ein Maßraum<br />

11.1 Satz<br />

Für jede messbare Funktion g ≥ 0 ist<br />

⎧<br />

⎨A → [0;<br />

∫<br />

∞]<br />

g · m :<br />

⎩A<br />

↦→ gdm<br />

ein Maß auf A. Dabei heißt g eine Dichte von g · m bzgl. m.<br />

Eine messbare Funktion f ist genau dann g · m-integrierbar, wenn f · g m-integrierbar ist. In<br />

diesem Fall, oder wenn f ≥ 0, gilt:<br />

∫<br />

∫<br />

fd(g · m) = f · gdm.<br />

A<br />

Beweis: Wegen g ∈ L 0 +(Ω, A) ist mit 4.17 g · m ein Inhalt. Für A ∈ A, (A n ) n∈N ∈ A N mit A n ↑ A<br />

ist g · 1 An ↑ g · 1 A . Nach Beppo Levi 6.1 ist damit g · m stetig von unten, also nach 2.3 ein Maß.<br />

Die Formel folgt aus dem Beweisprinzip der Maßtheorie 4.12. Die Abbildung<br />

⎧<br />

⎨L + 0 (Ω, A) → [0;<br />

∫<br />

∞]<br />

ν :<br />

⎩f<br />

↦→ f · gdm<br />

ist nämlich ein Daniell-Integral mit<br />

∫<br />

ν(1 A ) = gdm = g · m[A]<br />

A<br />

(A ∈ A).<br />

✷<br />

11.2 Korollar<br />

Sind f, g ≥ 0 messbar, so gilt<br />

f · (g · m) = (f · g) · m.<br />

Beweis: Für A ∈ A gilt<br />

∫<br />

∫<br />

∫<br />

f(g · m)[A] = fd(gm) = f1 A dgm 11.1<br />

= (f1 A )gdm<br />

A<br />

∫<br />

∫<br />

= (fg)1 A dm = fgdm = ( (fg)(m) ) [A].<br />

A<br />

✷<br />

11.3 Satz<br />

Hat eine reelle Zufallsvariable eine Dichte g bzgl. eines Maßes m auf (R, B(R)), so ist, sofern<br />

existent<br />

∫<br />

E[X] = xg(x)m[dx],<br />

∫<br />

Var[X] =<br />

( ∫<br />

x 2 g(x)m[dx] −<br />

) 2<br />

xg(x)m[dx]


104 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

Beweis: Mit dem Transformationssatz 8.4 gilt<br />

∫ ∫<br />

∫<br />

∫<br />

E[X] = Xdm = id ◦ Xdm = iddX(m) =<br />

∫<br />

id · gdm =<br />

xg(x)dm[dx].<br />

Für die Varianz gilt<br />

Var[X] = E [ (X − E[X]) 2] = E [ X 2 − 2XE[X] + (E[X]) 2]<br />

= E[X 2 ] − 2E[X]E[X] + (E[X]) 2 = E[X 2 ] − (E[X]) 2 .<br />

✷<br />

11.4 Beispiele<br />

1. Für µ ∈ R, σ ∈ R ∗ + definieren wir die ’Gauß’sche Glockenkurve’<br />

g µ,σ 2(x) =<br />

[<br />

]<br />

1<br />

√ exp (x − µ)2<br />

−<br />

2πσ<br />

2 2σ 2 .<br />

Es ist g µ,σ 2 ∈ L + 0 (R, B(R)). Durch diese Funktion definieren wir die Normalverteilung mit<br />

Parametern µ und σ 2 als<br />

N µ,σ 2 := g µ,σ 2 · λ 1 .<br />

Ein Spezialfall ist die Standardnormalverteilung<br />

∫<br />

N µ,σ 2[R] =<br />

R<br />

g µ,σ 2λ 1 =<br />

∫ ∞<br />

−∞<br />

N 0,1 . Es gilt<br />

[<br />

√ 1<br />

exp (x −<br />

]<br />

µ)2<br />

2πσ<br />

−<br />

2<br />

2σ 2 λ 1 [dx] = 1.<br />

Beh: Für eine reelle Zufallsvariable X mit VertX = N µ,σ 2 ist E[X] = µ und Var[X] = σ 2 .<br />

Denn: Es gilt<br />

∫<br />

E[X] =<br />

∫ ∞<br />

xg µ,σ 2(x)λ[dx] = √ 1<br />

2πσ 2<br />

(∫ ∞<br />

= √ 1<br />

2πσ 2<br />

= µ + 1 √<br />

2πσ 2<br />

Zur Berechnung von Var[X] ist<br />

√<br />

2πσ2 =<br />

∫ ∞<br />

−∞<br />

(x − µ) exp<br />

−∞<br />

∫ ∞<br />

−∞<br />

[<br />

−<br />

−∞<br />

[<br />

(x −<br />

]<br />

µ)2<br />

x exp −<br />

2σ 2<br />

(x −<br />

]<br />

µ)2<br />

2σ 2 dx+µ<br />

]<br />

t exp<br />

[− t2<br />

2σ 2 dt = µ<br />

∫ ∞<br />

exp<br />

−∞<br />

dx<br />

(x −<br />

] )<br />

µ)2<br />

[−<br />

2σ 2 dx<br />

[ ] [ ]∣<br />

exp − −t2<br />

2σ 2 dt = t exp − −t2 ∣∣∣<br />

∞ ∫ [ ]<br />

t<br />

2<br />

2σ 2 +<br />

−∞<br />

σ 2 exp − −t2<br />

2σ 2 dt,<br />

also<br />

∫<br />

σ 2 = √ 1<br />

2πσ 2<br />

t 2 g 0,σ 2(t)dt.<br />

Durch die Substitution t → x − µ erhält man nun<br />

∫<br />

[<br />

Var[X] = E[(X − µ) 2 ] = √ 1<br />

2πσ<br />

(x − µ) 2 exp −<br />

2<br />

(x − µ)2<br />

2σ 2 ]<br />

dx = σ 2 .


11. MASSE MIT DICHTEN 105<br />

2. Für die d-dimensionale Standardnormalverteilung definiert man<br />

und dadurch<br />

[<br />

g d (x 1 , . . . , x d ) := √ 1<br />

2π<br />

exp − 1 2<br />

N d :=<br />

d⊗<br />

N 0,1 = g d λ d .<br />

1<br />

Nichtausgeartete Normalverteilung oder Gauß-Maß heißt jedes Bildmaß (Y (N d )) unter einer<br />

nichtausgearteten affinene Transformation<br />

11.5 Satz<br />

Seien g 1 , g 2 ∈ L + 0 (Ω, A).<br />

d∑<br />

1=1<br />

Y : x ↦→ Ax + b mit ( A ∈ GL(R 2 × R 2 ), b ∈ R 2) .<br />

1. Ist g 1 = g 2 m-fast überall so ist g 1 · m = g 2 · m.<br />

2. Ist g 1 oder g 2 integrierbar (d.h. g 1 · m bzw. g 2 · m ist ein endliches Maß) und ist<br />

g 1 · m = g 2 · m, so ist g 1 = g 2 fast überall.<br />

Beweis:<br />

1. Ist g 1 = g 2 m-fast überall und A ∈ A, so ist g 1 1 A = g 2 1 A m-fast überall und damit<br />

∫ ∫<br />

g 1 · m[A] = g 1 dm = g 2 dm = g 2 · m[A].<br />

2. Sei Œ g 1 ∈ L 1 (m) Dann ist<br />

∫<br />

Ω<br />

A<br />

∫<br />

g 2 dm =<br />

Ω<br />

A<br />

g 1 dm < ∞,<br />

also g 2 ∈ L 1 (m). Sei N := {g 1 < g 2 } ∈ A und h := g 1 1 N − g 2 1 N . Dann ist N = {h > 0} und<br />

∫ ∫ ∫<br />

hdm = g 1 dm − g 2 dm = (g 1 m)[N] − (g 2 m)[N] = 0,<br />

N<br />

N<br />

also h = 0 m-fast überall und m[N] = 0. Damit ist auch g 1 ≤ g 2 m-fast überall. Durch<br />

Vertauschen von g 1 und g 2 erhält man nun g 1 = g 2 m-fast überall.<br />

x 2 i<br />

]<br />

✷<br />

11.6 Bemerkung<br />

Ohne die Voraussetzung, dass g 1 oder g 2 integrierbar ist, ist 2. falsch. Sei dazu Ω überabzählbar<br />

und<br />

A = {A : A abzählbar oder CA abzählbar}.<br />

Definiere<br />

m : A ↦→<br />

{<br />

0, A abzählbar<br />

∞, CA abzählbar<br />

Damit ist 1m = 2m, aber nicht 1 = 2 m-fast überall.


106 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

11.7 Definition<br />

Ein Maß m ′ auf A heißt absolut stetig bzgl. m, falls<br />

m[N] = 0 ⇒ m ′ [N] = 0 (N ∈ A).<br />

Dafür schreibt man m ′ 0 m ′ [A] ≤ ɛ, d.h. m ′ [A] = 0.<br />

“⇒”: Angenommen, es gibt ein ɛ > 0 so dass es für jedes n ∈ N ein A n ∈ A gibt mit m[A n ] ≤ 1<br />

2<br />

, n<br />

aber m ′ [A n ] > ɛ. Dann ist für<br />

A :=<br />

∞⋂<br />

⋃<br />

n=1 k≥n<br />

A k = lim sup A n<br />

n→∞<br />

nach dem Borel-Cantelli-Lemma 6.7 m[A] = 0, aber mit 6.6.3 ist, da m ′ endlich ist,<br />

Das ist aber ein Widerspruch.<br />

11.9 Beispiele und Bemerkungen<br />

m ′ [A] ≥ lim sup m[A n ] ≥ ɛ.<br />

n→∞<br />

1. Die Dirac’sche δ-Funktion ist definiert durch δ 0 = ∞ · 1 {0} .<br />

Manchmal verwendet man die Formel δ 0 · λ = ɛ 0 , d.h.<br />

∫<br />

δ 0 fdλ = f(0) (f ∈ L 0 +(Ω, A)).<br />

Diese Formel ist jedoch falsch, da δ 0 · f = 0 λ-fast überall.<br />

2. Sei g ∈ L + 0 (Ω, A). Dann ist g · m


11. MASSE MIT DICHTEN 107<br />

11.10 Hauptsatz (Radon-Nikodym)<br />

Sei m σ-endlich und m ′ ein Maß auf A. Dann gilt<br />

m ′


108 KAPITEL 2. KONSTRUKTION VON MASSEN


Kapitel 3<br />

Gesetze der großen Zahlen<br />

12 0-1-Gesetze<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />

12.1 Satz (Erweiterung unabhängiger Systeme)<br />

Ist (E i ) i∈I eine Familie unabhängiger Systeme mit E i ⊆ A (i ∈ I), so ist auch (δ(E i )) i∈I<br />

unabhängig. Ist außerdem jedes E i ∩-stabil, so ist (σ(E i )) i∈I unabhängig.<br />

Beweis: Nach Definition der Unabhängigkeit kann Œ I endlich angenommen werden. Für j ∈ I<br />

sei<br />

{<br />

}<br />

D j := E ⊆ A : (E ′ i) i∈I unabhängig für E ′ j := {E}, E ′ i = E i (i ≠ j) .<br />

Beh: D j ist ein Dynkin-System (j ∈ J).<br />

Denn: Sei J ⊆ I, j ∈ J und A i ∈ E i (i ≠ j).<br />

1. Da<br />

ist Ω ∈ D j .<br />

2. Sei E ∈ D j . Wegen<br />

P<br />

[CE ∩ ⋂ ] [ ⋂<br />

A i = P<br />

ist CE ∈ D j .<br />

i∈J\{j}<br />

[<br />

P Ω ∩ ⋂ ] [ ⋂ ]<br />

A i = P A i = ∏ P[A i ] = P[Ω] · ∏ P[A i ],<br />

i∈J<br />

i∈J<br />

i∈J<br />

i∈J<br />

i∈J\{j}<br />

[ ]<br />

= P CE ·<br />

]<br />

A i − P<br />

[E ∩ ⋂<br />

∏<br />

i∈J\{j}<br />

P[A i ]<br />

i∈J\{j}<br />

3. Sei (D n ) n∈N ∈ D N paarweise fremd und D := ⊎ n∈N<br />

D n . Wegen<br />

ist D ∈ D j .<br />

] ∏<br />

A i = (1 − P[E]) · P[A i ]<br />

i∈J\{j}A i<br />

[<br />

P D ∩ ⋂ ] [ ⊎<br />

A i = P D n ∩ ⋂ ]<br />

A i = ∑ [<br />

P D n ∩ ⋂ ]<br />

A i<br />

i∈J<br />

n∈N i∈J n∈N i∈J<br />

= ∑ P[D n ] · ∏ P[A i ] = P[D] ∏ P[A i ]<br />

n∈N<br />

i∈J<br />

i∈J<br />

109


110 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />

Also ist die Familie (E ′ i ) i∈I mit E ′ j := D j und E ′ i = E i (i ≠ j) unabhängig. Wegen E j ⊆ D j<br />

ist δ(E j ) ⊆ D j . Eine Verallgemeinerung des Arguments für die endlich vielen j ∈ I liefert die<br />

Behauptung. Ist E i ∩-stabil (i ∈ I), so folgt die Behauptung aus 7.18.<br />

✷<br />

12.2 Beispiel<br />

Für (A i ) i∈I ∈ A N gilt:<br />

(A i ) i∈I unabhängig ⇐⇒ (σ(A i )) i∈I unabhängig ⇐⇒ (1 Ai ) unabhängig,<br />

da σ(A i ) = {A i , CA i , ∅, Ω} = σ(1 Ai ).<br />

12.3 Beispiel<br />

Um ein Beispiel einer nichttrivialen Folge unabhängiger Zufallsvariable zu geben, betrachten wir<br />

die Rademacher-Funktionen. Diese sind Indikatorfunktionen 1 An für<br />

(Ω, A, P) = ([0; 1), B([0; 1)), 1 [0;1] λ) und<br />

A n :=<br />

[<br />

1<br />

) [ 2<br />

0;<br />

2 n ∪<br />

2 n ; 3<br />

) [ 2 n − 2<br />

2 n ∪ . . . ∪<br />

2 n ; 2n − 1<br />

)<br />

2 n<br />

(n ∈ N).<br />

1<br />

0<br />

2<br />

A 1<br />

1<br />

0<br />

A 4<br />

2<br />

2<br />

4<br />

3<br />

4<br />

A 3<br />

0<br />

1<br />

8<br />

2<br />

8<br />

3<br />

8<br />

4<br />

8<br />

5<br />

8<br />

6<br />

8<br />

7<br />

8<br />

.<br />

Es gilt: P[A n ] = 1 2 (n ∈ N) und [ ⋂<br />

P<br />

j∈J<br />

A j<br />

]<br />

= 1<br />

2 |J| ,<br />

d.h. die Mengen (A n ) n∈N bzw. die Rademacherfunktionen sind unabhängig.<br />

12.4 Korollar (Zusammenfassung unabhängiger Systeme)<br />

Sei (E i ) i∈I eine unabhängige Familie ∩-stabiler Ereignissysteme mit E i ⊆ A (i ∈ I) und (I j ) j∈J<br />

eine Partition von I. Dann ist auch die Familie<br />

(σ ( ⋃ ) ) (<br />

E i = σ ( ) )<br />

E i : i ∈ I j<br />

j∈J<br />

j∈J<br />

i∈I j<br />

unabhängig.<br />

Beweis: Für j ∈ J sei<br />

{ ⋂<br />

E ′ j :=<br />

k∈K<br />

}<br />

E k , K ⊂⊂ I , E k ∈ E k (k ∈ K) .<br />

Damit ist E ′ j ∩-stabil und (E′ j ) j∈J unabhängig, da (E i ) i∈I unabhängig ist. Wegen der ∩-Stabilität<br />

ist daher auch (σ(E ′ j )) j∈J = (σ(E i : i ∈ I j )) j∈J unabhängig.<br />


12. 0-1-GESETZE 111<br />

12.5 Hauptsatz<br />

Seien J ein Indexmenge und (Ω ′ j , A′ ) Messräume (j ∈ J). Ist<br />

• (X i ) i∈I mit X i : Ω → Ω i und A − A i -messbar eine unbhängige Familie von Zufallsvariablen,<br />

• (I j ) j∈J eine Zerlegung von I und<br />

• (Y j ) j∈J mit Y j : Ω Ij → Ω ′ j und A Ij − A ′ j-messbar (j ∈ I j ),<br />

so ist<br />

(Y j ◦ ⊗ )<br />

X i unabhängig.<br />

i∈I j<br />

j∈J<br />

Gilt I j = {j} so folgt, dass (Y j ◦ X j ) j∈J unabhängig ist.<br />

Beweis: Sei Z j := ⊗ i∈I j<br />

X i . Dann ist<br />

(<br />

σ(Z j ) = σ(X i : i ∈ I j ) 9.1 ⋃ )<br />

= σ σ(X i ) ,<br />

i∈I j<br />

Nach 12.4 ist σ(Z j )) j∈J ein unabhängiges System. Damit ist<br />

σ(Y j ◦ Z j ) = Z −1<br />

j<br />

(Y −1<br />

j<br />

(A ′ j)) ⊆ Z −1<br />

j (A Ij ) = σ(Z j ),<br />

also sind die (Y j ◦ Z j ) j∈J unabhängig.<br />

✷<br />

12.6 Definition<br />

Sei (A n ) n∈N eine Folge von Unter-σ-Algebren von A, also z.B. A n = σ(X n ) für Zufallsvariablen<br />

X n und<br />

( ⋃ )<br />

T n := σ A i<br />

die von (A i ) i≥n erzeugte σ-Algebra. Dann heißt<br />

T ∞ :=<br />

die σ-Algebra der terminalen Ereignisse der Folge (A n ) n∈N bzw. (X n ) n∈N .<br />

i≥n<br />

∞⋂<br />

n=1<br />

12.7 Hauptsatz (0-1-Gesetz von Kolmogoroff)<br />

Sei (A n ) n∈N eine unabhängige Folge von σ-Algebren. Dann gilt<br />

T n<br />

P[A] = 0 oder P[A] = 1 (A ∈ T ∞ ).<br />

Beweis: Sei A ∈ T ∞ und<br />

D A := { D ∈ A : P[A ∩ D] = P[A] · P[D] } .<br />

Dann ist D A ein Dynkin-System.<br />

Es genügt zu zeigen, dass A ∈ D.<br />

Denn: Dann ist P[A] = P[A] 2 . Daraus folgt die Behauptung.


112 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />

( ⋃<br />

Nach 12.4 ist T n+1 unabhängig von σ<br />

i≤n<br />

E 0 :=<br />

A i<br />

)<br />

=: E n . Da A ∈ T n+1 für jedes n ∈ N, ist<br />

∞⋃<br />

E n ⊆ D A .<br />

n=1<br />

Wegen E n ⊆ E n+1 ist E 0 ∩ -stabil. Damit ist aber nach 7.18<br />

Ferner ist T n ⊆ σ(E 0 ) für n ∈ N. Damit ist<br />

σ(E 0 ) = δ(E 0 ) ⊆ D A .<br />

A ∈ T n ⊆ σ(E 0 ) ⊆ D A .<br />

✷<br />

12.8 Korollar<br />

Für jede unabhängige Folge (A n ) n∈N in A gilt:<br />

P [ ] [ ]<br />

lim sup A n = 0 oder P lim sup A n = 1.<br />

n→∞<br />

n→∞<br />

Beweis: Sei A n := σ(A n ). Dann ist nach 12.4 (A n ) n∈N ein unabhängiges System. Damit ist<br />

T n := ⋃<br />

A i ∈ T n ⊇ T n+k (k ∈ N)<br />

i≥n<br />

und damit<br />

T n ⊇ T n+k ∈ T n<br />

(k ∈ N).<br />

Damit ist aber auch<br />

Es folgt<br />

Also ist lim sup A n ∈ T ∞ .<br />

n→∞<br />

lim sup A n =<br />

n→∞<br />

n=1<br />

12.9 Lemma (Borel-Cantelli)<br />

⋂<br />

T i ∈ T n .<br />

i≥n<br />

∞⋂ ∞⋂<br />

T n = T i ∈ T n<br />

i=n<br />

Für jede Folge (A n ) n∈N ∈ A N und A := lim sup A n gilt:<br />

n→∞<br />

1. Ist ∑ n∈N<br />

P[A n ] < ∞, so ist P[A] = 0.<br />

(n ∈ N).<br />

✷<br />

2. Gibt es eine Teilfolge (A k(n) ) n∈N paarweise unabhängiger Mengen und ist<br />

∑<br />

P[A k(n) ] = ∞,<br />

so ist P[A] = 1.<br />

n∈N


12. 0-1-GESETZE 113<br />

Beweis:<br />

1. Siehe 6.7.<br />

2. Wegen lim sup A k(n) ⊆ A n kann Œ angenommen werden, dass X n := 1 An unabhängig, also<br />

n→∞<br />

n∑<br />

insbesondere paarweise unkorelliert sind. Für S n := gilt nach der Gleichung von<br />

Bienamé 10.16<br />

Definiert man S :=<br />

gilt<br />

Var[S n ] =<br />

n∑<br />

Var[X i ] =<br />

i=1<br />

i=1<br />

X i<br />

n∑<br />

E[Xi 2 ] −(E[X i ]) 2 ≤ E[S n ].<br />

} {{ }<br />

=E[X i]<br />

i=1<br />

∞∑<br />

X n , so ist wegen A = {S = ∞} zu zeigen, dass P[S = ∞] = 1. Es<br />

n=1<br />

E[S] = sup E[S n ] =<br />

n∈N<br />

∞∑<br />

∞∑<br />

E[X n ] = P[A n ] = ∞.<br />

n=1<br />

Mit der Tschebyscheff-Markoff’schen Ungleichung folgt:<br />

n=1<br />

P[|S n − E[S n ]| ≤ ɛ] ≥ 1 − 1 ɛ 2 Var[S n] (ɛ > 0).<br />

Sei Œ E[S n ] > 0 (n ∈ N). Mit 6.1 ist dann lim<br />

n→∞ E[S n] = E[S] = ∞. Es folgt<br />

Sei nun ɛ > 0. Dann ist<br />

P [ S n ≥ 1 2 E[S n] ] ≥ P[|S n − E[S n ]| ≤ 1 2 E[S n]] ≥ 1 − 4Var[S n]<br />

.<br />

E[S n ]E[S n ]<br />

} {{ }<br />

→0 wegen (∗)<br />

P[S ≥ 1 2 E[S n]] ≥ P[S n ≥ E[S n ]] ≥ 1 − ɛ<br />

für schließlich alle n ∈ N. Wegen lim<br />

n→∞ E[S n] = ∞ ist für ɛ > 0<br />

1 − ɛ ≤ lim<br />

n→∞ P[S ≥ 1 2 E(S n)] = P<br />

[ ⋃<br />

n∈N<br />

]<br />

{S ≥ 1 2 E[S n]} = P[S = ∞].<br />

(∗)<br />

Daraus folgt mit ɛ → 0 die Behauptung.<br />

✷<br />

12.10 Korollar (0-1-Gesetz von Borel)<br />

Für eine unabhängige Folge (A n ) n∈N von Ereignissen gilt:<br />

P [ lim sup<br />

n→∞<br />

] [ ]<br />

A n = 0 oder P lim sup A n = 1,<br />

n→∞<br />

je nachdem, ob<br />

∑<br />

n∈N<br />

P[A n ] < ∞ oder ∑ n∈N<br />

P[A n ] = ∞.


114 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />

12.11 Lemma<br />

Ist (X n ) n∈N eine Folge reeller Zufallsvariablen, A n := σ(X n ) und (α n ) n∈N eine reelle Nullfolge.<br />

Dann sind<br />

1. lim inf X n, lim sup X n und<br />

n→∞<br />

2. lim inf α n<br />

n∈N<br />

n∑<br />

i=1<br />

n∈N<br />

X i , lim sup α n<br />

n∈N<br />

∑ n<br />

X i<br />

i=1<br />

messbar bzgl. der σ -Algebra T ∞ der terminalen Ereignisse der Folge X n . Man sagt auch, die<br />

obigen Funktionen sind sogenannte terminale Funktionen.<br />

Beweis: Sei stets T n := σ(X k : k ≥ n) und T ∞ :=<br />

1. Definiere Y n := inf<br />

k≥n X k. Dann ist<br />

∞⋂<br />

T n .<br />

n=1<br />

lim inf X n = sup Y n .<br />

n→∞<br />

Damit ist Y n messbar bzgl. T n , also wegen T n ⊆ T k für n ≥ k auch T k -messbar. Wegen<br />

Y k ≤ Y n für n ≥ k ist lim inf X n = sup Y n für k ∈ N T k -messbar, also T ∞ -messbar.<br />

n→∞<br />

n∈N<br />

n∈N<br />

Ebenso zeigt man die Behauptung für lim sup X n = − lim inf (−X n).<br />

n→∞<br />

n→∞<br />

2. Definiere<br />

Z k n := α n<br />

∑ n<br />

X i<br />

i=k<br />

Dann ist Z k n für n ≥ k T k -messbar. Definiere für n ≥ k<br />

Y n := α n<br />

n<br />

∑<br />

i=1<br />

k−1<br />

∑<br />

X n = α n<br />

(n ≥ k).<br />

i=1<br />

X i<br />

} {{ }<br />

→0 für n→∞<br />

+Z k n.<br />

Da<br />

lim sup<br />

n→∞<br />

Y n = lim sup Zn k (k ∈ N)<br />

n→∞<br />

n≥k<br />

und Zn k T k -messbar ist (k ∈ N), ist lim sup Zn k T ∞ -messbar.<br />

n→∞<br />

n≥k<br />

n∑<br />

Ebenso zeigt man die Behauptung für lim inf α n X i .<br />

n→∞<br />

i=1<br />

✷<br />

12.12 Satz<br />

Für jede unabhängige Folge (X n ) n∈N reeller Zufallsvariablen ist jede terminale Funktion X fast<br />

sicher konstant.<br />

Beweis: Sei α ∈ R. Nach 12.7 ist P[X ≤ α] = 0 oder P[X ≤ α] = 1. Ist P[X ≤ α] = 0 für alle<br />

α ∈ R, folgt X = ∞ fast sicher und aus P[X ≤ α] = 1 für alle α ∈ R, folgt X = −∞ fast sicher.


12. 0-1-GESETZE 115<br />

Also sei Œ a := inf{α ∈ R : F (α) = 1} mit |a| < ∞ für die Verteilungsfunktion F von P X . Dann<br />

gilt<br />

F (b) = 1 (b > a) und F (b) = 0 (b < a).<br />

Weiter ist<br />

und<br />

Damit ist<br />

d.h. X = a fast sicher.<br />

12.13 Korollar<br />

P[X < a] = sup P[X ≤ a − 1 n ] = 0<br />

n∈N<br />

P[X ≤ a] = inf<br />

n∈N P[X ≤ a + 1 n ] = 1.<br />

P[X = a] = P[X ≤ a] − P[X < a] = 1 − 0 = 1,<br />

Sei (X n ) n∈N eine unabhängige Folge reeller Zufallsvariablen und (α n ) eine Nullfolge reeller Zahlen.<br />

Dann existiert<br />

n∑<br />

lim α n X i<br />

n→∞<br />

in R und es gibt ein a ∈ R mit<br />

[<br />

P lim α n<br />

n→∞<br />

Ist insbesondere jedes X n integrierbar, so gilt<br />

[<br />

P<br />

lim<br />

n→∞<br />

1<br />

n<br />

n∑<br />

]<br />

(X i − E[X i ]) = 0<br />

i=1<br />

n∑<br />

i=1<br />

i=1<br />

[<br />

= 0 oder P<br />

]<br />

X i = α = 1.<br />

lim<br />

n→∞<br />

1<br />

n<br />

n∑<br />

]<br />

(X i − E[X i ]) = 0 = 1.<br />

i=1<br />


116 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />

13 Starkes und schwaches Gesetz der großen Zahlen<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />

13.1 Definitionen<br />

Eine Familie (X i ) i∈I von Zufallsvariablen heißt identisch verteilt, wenn<br />

VertX i = VertX j<br />

(i, j ∈ I).<br />

Man beachte den Unterschied der beiden Begriffe identisch verteilt und gleichverteilt<br />

Eine Folge (X n ) n∈N reeller, integrierbarer Zufallsvariablen genügt dem starken Gesetz der großen<br />

Zahlen, wenn<br />

[<br />

P<br />

lim<br />

n→∞<br />

d.h. wenn die Folge der Zufallsvariablen ( 1 n<br />

1<br />

n<br />

n∑<br />

]<br />

(X i − E[X i ]) = 0 = 1,<br />

i=1<br />

n∑<br />

(X i −E(X i ))) n∈N P-fast sicher gegen 0 konvergiert.<br />

i=1<br />

Eine Folge (X n ) n∈N reeller, integrierbarer Zufallsvariablen genügt dem schwachen Gesetz der<br />

großen Zahlen, wenn<br />

[ n∑<br />

]<br />

lim P 1<br />

n→∞ n<br />

(X i − E[X i ]) > ɛ = 0 (ɛ > 0),<br />

i=1<br />

d.h. wenn die Folge der Zufallsvariablen ( 1 n<br />

n∑<br />

(X i − E[X i ])) n∈N stochastisch gegen 0 konvergiert.<br />

13.2 Hauptsatz (Kolmogoroff) (nach R. Zweimüller 97/98)<br />

i=1<br />

Jede unabhängige Folge (X n ) n∈N reeller, integrierbarer, identisch-verteilter Zufallsvariablen<br />

n∑<br />

genügt dem starken Gesetz der großen Zahlen, d.h. für S n := X i gilt<br />

P [ 1<br />

lim<br />

n→∞ n S n = E[X 1 ] ] = 1.<br />

i=1<br />

Beweis: Nach Transformationssatz ist<br />

∫<br />

∫<br />

E[X n ] = xP Xn [dx] =<br />

xP X1 [dx] = E[X 1 ],<br />

also E[S n ] = n · E[X 1 ]. Deshalb ist das starke Gesetz der großen Zahl in diesem Fall äquivalent<br />

<strong>zur</strong> Behauptung.<br />

1. Beh.: Es genügt, den Fall X n ≥ 0 zu betrachten.<br />

Denn: mit<br />

Y : x ↦→ sup(x, 0),<br />

Z : x ↦→ −x<br />

gilt für die Zufallsfariablen X − n<br />

und X + n<br />

X + n = Y ◦ X n , X − n = Y ◦ Z ◦ X n .<br />

Damit sind (X + n ), (X − n ) nach 12.5 unabhängige Zufallsvariablen. Wegen<br />

P X<br />

+<br />

n<br />

= Y (P Xn ), P X<br />

−<br />

n<br />

= (Y ◦ Z)(P Xn )<br />

sind sie identisch verteilt. Hat man also den Satz für X n ≥ 0 gezeigt, so lässt sich die allgemeine<br />

Fassung beweisen, indem man X − n und X + n getrennt betrachtet.


13. STARKES UND SCHWACHES GESETZ DER GROSSEN ZAHLEN 117<br />

2. Zu zeigen ist<br />

Wir zeigen statt dessen<br />

1<br />

X := lim inf<br />

n→∞ n S 1<br />

n ≥ lim sup<br />

n S n =: X = E[X 1 ] fast sicher.<br />

n→∞<br />

E[X] ≥ E[X 1 ] ≥ E[X].<br />

(∗)<br />

Dann ist nämlich E[X − X] ≤ 0, also E[X − X] = 0 und damit, da X und X terminale<br />

Funktionen, also fast sicher konstant sind,<br />

X f.s.<br />

= E[X 1 ] ≤ E[X] ≤ E[X] ≤ E[X 1 ] f.s.<br />

= X.<br />

Beh: Zum Nachweis von (∗) genügt es,<br />

zu zeigen.<br />

Denn: setzt man für k ∈ N<br />

E[X 1 ] ≥ E[X]<br />

Z k : x ↦→ k − inf(x, k),<br />

Y k n := Z k ◦ X n = k − inf(X n , k),<br />

so ist die Familie (Y k n ) n∈N unabhängig, identisch verteilt und wegen P Y k n<br />

= Z k (P Xn ) =<br />

Z k (P X1 ) integrierbar. Damit erfüllt (Y k n ) n∈N für jedes k ∈ N die Voraussetzungen des Satzes.<br />

Hat man die eingerahmte Behauptung gezeigt, so folgt durch Anwendung auf (Y k n ) n∈N<br />

analog E[Y 1 ] ≥ E[Y k ], also wegen Y k = k − lim inf<br />

n→∞ (inf(X n, k))<br />

E[X] ≥ E[lim inf<br />

n→∞ (inf(X n, k))] = k − E[Y k ] ≥ k − E[Y 1 ] = E[inf(X 1 , k)] ↑ k→∞ E[X 1 ].<br />

3. Sei Œ E[X 1 ] > 0. Im Fall E[X 1 ] = 0 ist X n = 0 fast sicher (n ∈ N) und die Behauptung ist<br />

trivial.<br />

Nun ist zu zeigen: Für 0 < α < E[X] ist<br />

Wie in 12.11 ist für k ∈ N<br />

α ≤ E[X 1 ] = lim<br />

n→∞ E[ 1<br />

n S n]<br />

.<br />

X = lim sup<br />

n→∞<br />

1<br />

n<br />

n∑<br />

X k+i−1 .<br />

Da X ein terminale Funktion ist, ist X = E[X] und damit gilt für k ∈ N<br />

i=1<br />

α < 1 n<br />

n∑<br />

i=1<br />

X k+i−1<br />

(∗∗)<br />

fast sicher für unendlich viele n.<br />

Zu n ∈ N und ω ∈ Ω konstruieren wir L n (ω) ∈ N 0 paarweise fremde Teilintervalle<br />

I j (ω) = {K j (ω), . . . , K j (ω) + N j (ω) − 1} ⊆ {1, . . . , n} (j = 0, . . . , L n (ω)),<br />

so daß im Mittel in I j (ω)<br />

N<br />

1 ∑ j(ω)<br />

X Kj(ω)+i−1 ≥ α.<br />

N j (ω)<br />

i=1


118 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />

Dann ist<br />

1<br />

n S n ≥ 1 n<br />

∑L n<br />

≥ α n<br />

j=1<br />

∑<br />

i∈I 1∪...∪I Ln<br />

X i = 1 n<br />

∑L n<br />

j=1<br />

⎛<br />

∑L n<br />

N j = α − α n<br />

⎝n −<br />

N j<br />

1 ∑<br />

N j · ·<br />

N j<br />

j=1<br />

i=1<br />

X Kj+i−1<br />

} {{ }<br />

≥α<br />

N j<br />

⎞<br />

⎠ .<br />

Konstruiert man die zufälligen Intervalle minimal hinsichtlich Anfangspunkten K j und Mächtigkeiten<br />

N j , so zeigt sich, dass ’im Mittel’ der relative Verlust 1 n<br />

( ∑L n )<br />

n− N j an Indizes für n → ∞<br />

gegen 0 strebt. Damit ist dann lim<br />

n→∞ E[ 1<br />

n S n]<br />

≥ α wie zu zeigen.<br />

4. Zur Konstruktion von L n und den dazugehörigen Intervallen I 1 , . . . , I Ln definieren wir für k ∈ N<br />

die Zufallsvariable M k : Ω → N ∪ {∞} durch<br />

{<br />

M k := inf n ∈ N : 1 n<br />

Gemäß (∗∗) ist M k fast sicher endlich.<br />

n∑<br />

i=1<br />

j=1<br />

}<br />

X k+i−1 ≥ α .<br />

Beh: M k ist messbar (k ∈ N).<br />

Denn: Für γ ∈ R ist {M k ≤ γ} =<br />

[γ]<br />

⋃<br />

{M k = n} und<br />

n=1<br />

{M k = 1} = {X k ≥ α} ∈ A,<br />

n∑<br />

{M k = n} =<br />

{<br />

1<br />

n<br />

i=1<br />

}<br />

X k+i−1 ≥ α ∩<br />

{<br />

1<br />

n−1<br />

n−1<br />

∑<br />

i=1<br />

}<br />

X k+i−1 < α ∈ A (n ≥ 2).<br />

Die M k sind identisch verteilt wegen<br />

Vert<br />

(<br />

1<br />

n<br />

)<br />

n∑<br />

X k+i−1<br />

i=1<br />

10.18<br />

=<br />

n<br />

∗<br />

i=1<br />

Vert(<br />

1<br />

n X k+i−1<br />

)<br />

= n ∗<br />

i=1<br />

Vert(<br />

1<br />

n X n<br />

)<br />

Setze K 0 = N 0 = 0, also I 0 = ∅ und rekursiv für j ≥ 0 auf Ω<br />

K j+1 := inf{k ∈ N : k ≥ K j + N j , k + M k ≤ n − 1}<br />

Setze L n = inf{j : K j < ∞}. Damit ist 0 ≤ L n ≤ n − 1. Definiere außerdem<br />

Für P-fast alle ω ∈ Ω ist nun<br />

L∑<br />

n(ω)<br />

n −<br />

j=1<br />

N j (ω) =<br />

N j+1 =<br />

{<br />

M Kj+1 , K j+1 < ∞,<br />

∞ K j+1 = ∞.<br />

L<br />

∣<br />

⋃ n(ω)<br />

∣{1, . . . , n} \ I j (ω) ∣ ≤<br />

j=1<br />

n∑<br />

1 {Mk ≥n−k(ω)}<br />

k=1


13. STARKES UND SCHWACHES GESETZ DER GROSSEN ZAHLEN 119<br />

Damit ist<br />

[<br />

E[ 1 n S n] ≥ α − α · E<br />

≥ α − α n<br />

L n<br />

1<br />

n (n − ∑<br />

j=1<br />

]<br />

N j )<br />

n∑<br />

n−1<br />

∑<br />

P[M k ≥ n − k] = α − α n<br />

P(M i ≥ i) ,<br />

}<br />

i=0<br />

{{ }<br />

→0<br />

k=1<br />

da es für jedes ɛ > 0 ein q ∈ N gibt mit P[M i ≥ i] ≤ ɛ für i ≥ q und es ein m ≥ q gibt mit<br />

≤ ɛ Damit folgt für n ≥ m<br />

q<br />

m<br />

∑<br />

P[M i ≥ i] = 1 n<br />

n−1<br />

1<br />

n<br />

i=0<br />

( q−1<br />

∑<br />

i=0<br />

n−1<br />

∑ )<br />

P[M i ≥ i] + P[M i ≥ i]<br />

i=q<br />

≤ q n + n−q<br />

q ɛ ≤ 2ɛ. ✷<br />

13.3 Bemerkung<br />

Ein Resultat von Etardi ([BW], p.86) zeigt, daß man in 13.2 die Unabhängigkeit <strong>zur</strong> paarweisen<br />

Unabhängigkeit abschwächen kann.<br />

13.4 Korollar (Borel)<br />

Sei 0 < p < 1. Für jede unabhängige Folge (X n ) n∈N von identisch B(1, p)-verteilten, d.h.<br />

Bernoulli-verteilten Zufallsvariablen gilt<br />

[<br />

P<br />

lim<br />

n→∞<br />

13.5 Kolmogoroff’sches Kriterium<br />

1<br />

n<br />

n∑<br />

i=1<br />

]<br />

X i = p = 1.<br />

Sei (X n ) n∈N eine unabhängige Folge quadratisch integrierbarer reeller Zufallsvariablen mit<br />

∞∑<br />

n=1<br />

1<br />

n 2 Var[X n] < ∞<br />

Dann gilt für (X n ) n∈N das starke Gesetz der großen Zahlen.<br />

Beweis: später mittels Martingaltheorie (25.15).<br />

13.6 Satz<br />

Sei (X n ) n∈N eine Folge reeller unabhängiger, identisch verteilter Zufallsvariablen, so daß für eine<br />

reelle Zufallsvariable X<br />

[<br />

n∑ ]<br />

P<br />

X i = X = 1<br />

lim<br />

n→∞<br />

1<br />

n<br />

i=1<br />

gilt. Dann ist jedes (X n ) n∈N integrierbar und X = E[X 1 ] fast sicher. Insbesondere genügt<br />

(X n ) n∈N dem starken Gesetz.


120 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />

Beweis: Definiere<br />

Damit gilt<br />

Y n := 1 n<br />

n∑<br />

X i → X.<br />

i=1<br />

1<br />

n X n := Y n − n−1<br />

n<br />

Y n−1<br />

und da P[ lim<br />

n→∞ Y n = X] = 1 ist P[ 1 n X n = 0] = 1. Damit ist<br />

P[lim sup{|X n | ≥ n}] = P[{ω ∈ Ω : |X n (ω)| ≥ n für unendlich viele n}] = 0.<br />

n→∞<br />

Aus dem 0-1-Gesetz von Borel folgt nun<br />

∞∑<br />

P[{|X n | ≥ n}] < ∞.<br />

n=1<br />

Sei Q := P |Xn| = (|.| ◦ X n )(P) mit |.| : x ↦→ |x| die identische Verteilung der |X n |. Nun ist<br />

E[|X n |] =<br />

∫ ∞<br />

0<br />

n=0<br />

P[|X 1 | ≥ α]λ[dα] =<br />

∞∑<br />

∞∑<br />

≤ Q([n; ∞)) =<br />

n=0<br />

P |Xn|<br />

Also sind alle X n integrierbar und mit 13.2 folgt<br />

[<br />

P<br />

lim<br />

n→∞<br />

1<br />

n<br />

n∑<br />

i=1<br />

∞∑<br />

∫<br />

n=1<br />

[n;n+1)<br />

P |X1|[<br />

[α; ∞)<br />

]<br />

λ[dα]<br />

[ ] ∑<br />

∞<br />

[n; ∞) = P[|X n | ≥ n] < ∞.<br />

n=0<br />

]<br />

X i = E[X 1 ] = 1.<br />

Damit ist P [ X = E[X 1 ] ] = 1.<br />

✷<br />

13.7 Bemerkung<br />

Aus der Gültigkeit des starken Gesetzes folgt die des schwachen Gesetzes, aber nicht umgekehrt.<br />

Letzteres gilt unter sehr schwachen Voraussetzungen.<br />

13.8 Satz (Klintchine)<br />

Jede Folge (X n ) n∈N paarweiser unkorrellierter, quadratisch integrierbarer reeller Zufallsvariablen<br />

mit<br />

1<br />

lim<br />

n→∞ n 2<br />

n ∑<br />

i=1<br />

genügt dem schwachen Gesetz der großen Zahlen.<br />

Beweis: Wegen<br />

Var[X i ] = 0<br />

Var[αX n + β] = α 2 Var[X n ]<br />

(α, β ∈ R),<br />

der Tschebyscheff-Markoff’schen Ungleichung 6.14 und der Gleichung von Bienamé folgt für ɛ > 0<br />

P[∣ ∣∣ 1<br />

n<br />

n∑<br />

] X i − E[X i ] ∣ ≥ ɛ ≤ 1 [<br />

ɛ 2 Var<br />

i=1<br />

1<br />

n<br />

n∑ ]<br />

X i<br />

i=1<br />

= 1<br />

ɛ 2 n 2<br />

n ∑<br />

i=1<br />

Var[X i ] → 0.<br />


Kapitel 4<br />

Grenzverteilungen<br />

14 Schwache Konvergenz von Verteilungen<br />

Sei stets (E, d) ein metrischer Raum. Seien zunächst häufig verwendete Mengen definiert.<br />

C b (E) = Menge der stetigen, beschränkten Funktionen auf E versehen mit der Supremumsnorm<br />

||.||.<br />

K(E) = Menge der stetigen Funktionen auf E mit kompaktem Träger, versehen mit der<br />

Supremumsnorm ||.||.<br />

M b +(E) = Menge der endlichen Borelmaße auf E.<br />

M 1 +(E) = Menge der Wahrscheinlichkeitsmaße auf (E, B(E)).<br />

C (0) (R) = {f ∈ C b (R) : f gleichmäßig stetig}<br />

C (0) (R) = {f ∈ C b (R) : f, f (1) , . . . , f (k) ∈ C (0) (R)}<br />

Ziel dieses Paragraphen ist es, einen Konvergenzbegriffes auf M b +(E) zu entwickeln, der die Berechnung<br />

von Grenzwahrscheinlichkeiten’ erlaubt z.B. im Satz von deMoivre-Laplace, der aus der<br />

elementaren Stochastik bekannt ist:<br />

Sei dazu (X n ) n∈N eine Bernoulli’sche Beobachtungsfolge mit Erfolgswahrscheinlichkeit 0 < p < 1.<br />

Dann gilt für [a; b] ⊆ R<br />

Vert nP<br />

lim<br />

n→∞<br />

für einen geeigneten Limesbegriff.<br />

14.1 Definition<br />

[ ] [ ]<br />

X i −p<br />

[a; b] = N0,1 [a; b]<br />

i=1 √ np(1−p)<br />

1. Eine Folge (µ n ) n∈N ∈ (M b +(E)) N heißt schwach konvergent gegen ein µ ∈ M b +(E), wenn<br />

∫ ∫<br />

lim fdµ n = fdµ (f ∈ C b (E)).<br />

n→∞<br />

Dafür schreibt man<br />

µ n<br />

schwach<br />

−−−−−→ µ.<br />

2. Eine Folge (X n ) n∈N von E-wertigen Zufallsvariablen konvergiert in Verteilung gegen eine E-<br />

wertige Zufallsvariable X, wenn<br />

Vert Xn<br />

schwach<br />

−−−−−→ Vert X ,<br />

d.h.<br />

lim E[f ◦ X n] = E[f ◦ X]<br />

n→∞<br />

(f ∈ C b (E)).<br />

121


122 KAPITEL 4. GRENZVERTEILUNGEN<br />

3. Eine Folge (µ n ) n∈N ∈ (M b +(E)) N heißt vage konvergent gegen ein µ ∈ M b +(E), wenn<br />

∫ ∫<br />

lim fdµ n = fdµ (f ∈ K(E)).<br />

n→∞<br />

Dafür schreibt man<br />

µ n<br />

vage<br />

−−→ µ.<br />

4. Der metrische Raum E heißt lokal kompakt und im Unendlichen abzählbar, wenn es eine Folge<br />

(K n ) n∈N kompakter Mengen gibt mit K n ↑ E.<br />

14.2 Bemerkung<br />

1. Beh: Der schwache Limes ist eindeutig bestimmt, d.h. für eine Folge (µ n ) n∈N ∈ (M b +(E)) N<br />

und µ, ν ∈ M b +(E) mit µ n<br />

Denn: Es gilt<br />

schwach<br />

−−−−−→ µ und µ n<br />

∫ ∫<br />

fdµ =<br />

fdν<br />

schwach<br />

−−−−−→ ν ist µ = ν.<br />

(f ∈ C b (E)).<br />

Es genügt zu zeigen, dass µ[A] = ν[A] für alle A ∈ F(E) gilt, denn F(E) ist ein ∩-stabiler<br />

Erzeuger von B(E) mit E ∈ F(E) und µ[E] = ν[E] < ∞.<br />

Zunächst gibt es zu jedem A ∈ B(E) eine Menge U ∈ G(E) mit A ⊂ U ⊆ E. Zu diesen<br />

beiden Mengen gibt es eine stetige Urysohn-Funktion f mit 0 ≤ f ≤ 1 und f| A = 1, f| CU = 0,<br />

z.B.<br />

d(x, CU)<br />

f : x ↦→<br />

d(x, A) + d(x, CU)<br />

Es ist nämlich x ↦→ d(x, A) stetig, und d(x, A) = 0 genau dann, wenn x ∈ A.<br />

Setze nun<br />

U n := {x ∈ E : d(x, A) < 1 n }.<br />

∞⋃<br />

Damit ist U n ∈ G(E) (n ∈ N) mit A ⊆ U n und A = U n . Sei f n die obige Urysohn-<br />

n=1<br />

Funktion zu A und U n , also f n ↓ 1 A . Damit ist<br />

∫<br />

∫<br />

∫<br />

µ[A] = inf f ndµ 6.3<br />

= inf f n dµ = inf<br />

n∈N n∈N<br />

n∈N<br />

f n dν = ν[A].<br />

2. Beh: Der schwache Limes von Wahrscheinlichkeitsmaßen ist wieder ein Wahrscheinlichkeitsmaß,<br />

d.h. für eine Folge (µ n ) n∈N ∈ (M 1 +(E)) N , µ, ∈ M b +(E) mit µ n<br />

schwach<br />

−−−−−→ µ ist<br />

µ ∈ M 1 +(E).<br />

Denn: Es ist 1 ∈ C b (E). Damit ist<br />

∫<br />

∫<br />

µ[E] = 1dµ = lim<br />

n→∞<br />

1dµ n = lim n[E] = 1.<br />

n→∞<br />

14.3 Beispiel<br />

1. Sei (x n ) n∈N ∈ E N mit x 0 = lim x n ∈ E<br />

n→∞<br />

schwach<br />

Beh: ɛ xn −−−−−→ ɛ x0 .<br />

Denn: Für f ∈ C b (E) gilt<br />

∫<br />

fdɛ xn<br />

lim<br />

n→∞<br />

∫<br />

= lim f(x n) = f(x 0 ) =<br />

n→∞<br />

fdɛ x0 .


14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 123<br />

2. Sei (µ n ) n∈N ∈ (M b +(E)) N eine schwach gegen µ ∈ M b + konvergente Folge und A ∈ B(E). Dann<br />

ist nicht notwendigerweise<br />

lim<br />

n→∞ µ n[A] = µ[A].<br />

Beispielsweise sei im vorangegangenen Beispiel A = {x 0 }. Dann ist<br />

lim ɛ x n<br />

[A] = 0 ≠ 1 = ɛ x0 [A].<br />

n→∞<br />

3. Sei E = R und (x n ) n∈N ∈ R N eine Folge mit x n → x. Dann ist<br />

(ɛ xn ) vage<br />

−−→ 0,<br />

denn für f ∈ K(R) ist x n ∉ Trf für schließlich alle n ∈ N und damit<br />

∫<br />

fdɛ xn = f(x n ) = 0<br />

für schließlich alle n ∈ N. Allerdings konvergiert (ɛ xn ) nicht schwach, da 0 ∉ M 1 +(R).<br />

14.4 Satz<br />

Sei (µ n ) n∈N ∈ (M b +(E)) N und µ ∈ M b +(E). Ist E lokal kompakt und im Unendlichen abzählbar,<br />

so sind äquivalent<br />

1. µ n<br />

schwach<br />

−−−−−→ µ,<br />

2. µ n<br />

vage<br />

−−→ µ ∧ µ n [E] −→ µ[E].<br />

Beweis:<br />

“1. ⇒ 2.”: trivial.<br />

“2. ⇒ 1.”: Da E lokal kompakt und im Unendlichen abzählbar ist, gibt es eine Folge (g n ) n∈N ∈<br />

(K(E)) N mit 0 ≤ g n ≤ 1 und g n ↑ 1. Wegen der Voraussetzung und majorisierter Konvergenz<br />

gibt es zu ɛ > 0 ein g ∈ K(E) mit 0 ≤ g ≤ 1 und<br />

∫<br />

µ n [E] ≤ µ[E] + ɛ ≤ gdµ + 2ɛ<br />

für schließlich alle n ∈ N. Sei nun f ∈ C b (E). Dann ist fg ∈ K(E) und es gilt<br />

∫ ∫ ∣ ∣ ∫ ∫<br />

∫ ∫ ∣ ∣∣ ∣∣ ∣∣<br />

∣ fdµ − fdµ n ≤ fdµ − fgdµ ∣ + ∣ fgdµ − fgdµ n<br />

∫<br />

+ ∣<br />

∫<br />

fgdµ n −<br />

fdµ n<br />

∣ ∣∣<br />

≤ ||f||<br />

∫<br />

1 − gdµ<br />

} {{ }<br />

=µ[E]− R gdµ≤ɛ<br />

∫<br />

+ɛ + ||f||<br />

für schließlich alle n ∈ N. Damit folgt die Behauptung für ɛ → 0.<br />

1 − gdµ n ≤ 3||f||ɛ + ɛ<br />

} {{ }<br />

≤2ɛ<br />


124 KAPITEL 4. GRENZVERTEILUNGEN<br />

14.5 Satz<br />

Sei (X n ) n∈N eine Folge reeller Zufallsvariablen auf einem Wahrscheinlichkeitsraum.<br />

1. Konvergiert (X n ) n∈N stochastisch gegen eine Zufallsvariable X, dann auch in Verteilung.<br />

2. Konvergiert die Folge X n in Verteilung gegen eine fast sicher konstante Zufallsvariable X,<br />

dann auch stochastisch.<br />

Beweis:<br />

1. Sei P − lim X vage<br />

n = X Nach 14.4 ist nur zu zeigen, dass P Xn −→ P X .<br />

n→∞<br />

Sei dazu f ∈ K(R). Dann ist f gleichmäßig stetig. Sei also ɛ > 0. Dann gibt es ein δ > 0 mit<br />

|f(x) − f(y)| ≤ ɛ<br />

(x, y ∈ R, |x − y| ≤ δ).<br />

Für n ∈ N sei<br />

A n := {|X n − X| > δ} ∈ A.<br />

Dann ist lim P[A n] = 0.<br />

n→∞<br />

Beh: lim E[f ◦ X n] = E[f ◦ X].<br />

n→∞<br />

Es gilt<br />

∫<br />

∫<br />

|E[f ◦ X n ] − E[f ◦ X]| = ∣ f ◦ X n dP − f ◦ XdP∣<br />

∫<br />

∫<br />

∫<br />

∫<br />

≤ ∣ f ◦ X n dP − f ◦ XdP∣ + ∣ f ◦ X n dP − f ◦ XdP∣<br />

A n A n CA n CA<br />

∫<br />

∫<br />

n<br />

≤ |f ◦ X n − f ◦ X|dP + |f ◦ X n − f ◦ X|dP<br />

A n CA n<br />

≤ 2||f||P[A n ] + ɛP[CA n ] ≤ ɛ<br />

für schließlich alle n. Mit ɛ → 0 folgt die Behauptung.<br />

2. Sei X = a fast sicher für ein a ∈ R und<br />

P Xn<br />

schwach<br />

−−−−−→ P X = ɛ a .<br />

Sei ɛ > 0 und I := (a − ɛ; a + ɛ). Dann gibt es Funktionen f, g ∈ K(R) mit 0 ≤ f ≤ 1 I ≤ g und<br />

f(a) = g(a) = 1. Damit ist für n ∈ N<br />

Es folgt<br />

Damit ist<br />

f ◦ X n ≤ 1 I ◦ X n ≤ g ◦ X n .<br />

∫<br />

∫<br />

∫<br />

1 = f(a) = f ◦ XdP = lim f ◦ X n dP ≤ lim 1 I ◦ X n dP<br />

n→∞<br />

n→∞<br />

∫<br />

∫<br />

≤ lim g ◦ X n dP = g ◦ XdP = g(a) = 1<br />

n→∞<br />

d.h. lim<br />

n→∞ P[{X n ∈ I}] = 1 und<br />

∫<br />

lim<br />

n→∞<br />

1 I ◦ X n dP = 1,<br />

lim P[|X n − X| ≥ ɛ] = lim P[|X n − a| ≥ ɛ] = lim P[X n /∈ I] = 1 − lim P[X n ∈ I] = 0.<br />

n→∞ n→∞ n→∞ n→∞<br />

Also ist P − lim<br />

n→∞ X n = a = X fast sicher.<br />


14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 125<br />

14.6 Beispiel<br />

Die Rademacher-Funktionen X n aus 12.3 konvergieren in Verteilung, weil<br />

Vert Xn = B(1, 1 2 ) P[X n = 1] = 1 ) (n ∈ N),<br />

2<br />

aber nicht stochastisch, denn für 0 < ɛ < 1 gilt<br />

P[|X n − X m | > ɛ] = 2 · 1<br />

4 = 1 2<br />

14.7 Satz<br />

Sei (P n ) n∈N ∈ (M 1 (R)) N eine Folge von Wahrscheinlichkeitsmaßen und P 0 ∈ M 1 (R). Mit<br />

S(F 0 ) := {x ∈ R : F 0 stetig in x}<br />

gelte für die Folge der Verteilungsfunktionen (F n ) n∈N von (P n ) n∈N und F 0 von P 0<br />

F n (x) → F 0 (x) (x ∈ S(F 0 )).<br />

Dann gibt es einen Wahrscheinlichkeitsraum (Ω, A, P) und eine Folge (X n ) n∈N0 reeller Zufallsvariablen<br />

mit P Xn = P n (n ∈ N 0 ) derart, daß X n → X 0 fast sicher, also insbesondere stochastisch.<br />

Beweis: Definiere Ω := (0; 1), A = B(R) und P := λ1 Ω als die Gleichverteilung auf Ω. Sei X n<br />

die inverse Verteilungsfunktion von P n (n ∈ N), definiert durch<br />

X n := F − n :<br />

{<br />

Ω<br />

ω<br />

→ R<br />

↦→ inf{y ∈ R : F n (y) ≥ ω}.<br />

Damit gilt<br />

X n (ω) ≤ y ⇐⇒ ω ≤ F n (y) (y ∈ R, ω ∈ Ω, n ≥ 0),<br />

also<br />

P Xn [(−∞; y]] = P[X n ≤ y] = λ1 Ω [(−∞; F n (y)]] = F n (y)<br />

Damit ist nach 7.27 P Xn = P n (n ≥ 0). Die Menge CS(F 0 ) der Unstetigkeitsstellen der isotonen<br />

Funktion F 0 ist höchstens abzählbar, also eine λ1 Ω -Nullmenge. Es genügt also zu zeigen, daß<br />

lim X n(ω) = X 0 (ω) (ω ∈ S(F 0 )).<br />

n→∞<br />

Sei dazu ω ∈ S(F 0 ), ɛ > 0 und y 1 < X 0 (ω) < y 2 mit y 1 , y 2 ∈ S(F 0 ) und y 2 −y 1 ≤ ɛ. Nach Definition<br />

ist dann F 0 (y 1 ) < ω < F 0 (ω 2 ). Also gilt für schließlich alle n ∈ N : F n (y 2 ) < ω < F n (y 2 ), d.h.<br />

y 1 < X n (ω) ≤ y 2 und damit<br />

|X n (ω) − X 0 (ω)| ≤ y 2 − y 1 ≤ ɛ<br />

für schließlich alle n. Mit ɛ → 0 folgt die Behauptung.<br />


126 KAPITEL 4. GRENZVERTEILUNGEN<br />

14.8 Hauptsatz<br />

Für jede Folge (P n ) n∈N0 von Wahrscheinlichkeitsmaßen auf R mit Verteilungsfunktion F n und<br />

jedes k ∈ N 0 sind äquivalent:<br />

schwach<br />

1. P n −−−−−→= P 0 ,<br />

∫ ∫<br />

2. lim fdP n =<br />

n→∞<br />

fdP 0<br />

(f ∈ C (k) (R)),<br />

3. lim<br />

n→∞ F n(y) = F 0 (y) (y ∈ S(F 0 )).<br />

Dabei ist S(F 0 ) wie in 14.7 die Menge der Stetigkeitsstellen von F 0 .<br />

Beweis:<br />

“1. ⇒ 2.”: Das ist klar, da C (k) (R) ⊆ C b (R).<br />

“2. ⇒ 3.”: Sei y ∈ S(F 0 ) Dann gibt es für ɛ > 0 ein δ > 0, so dass für x ∈ R mit |x − y| < δ wegen<br />

der Stetigkeit |F 0 (x) − F 0 (y)| ≤ ɛ gilt.<br />

Es gibt Funktionen g, h ∈ C (k) (R) mit<br />

1 (−∞;y−δ) ≤ g ≤ 1 (−∞;y] ≤ h ≤ 1 (−∞;y+δ) .<br />

Damit ist<br />

∫<br />

∫<br />

F 0 (y) − ɛ ≤ F 0 (y − δ) ≤ gdP 0 = lim inf<br />

n→∞<br />

∫ ∫<br />

gdP n ≤ lim inf n(y) ≤ lim sup F n (y)<br />

n→∞ n→∞<br />

≤ lim sup<br />

n→∞<br />

hdP n = hdP 0 ≤ F 0 (y + δ) ≤ F 0 (y) + ɛ.<br />

Damit folgt 3. aus ɛ → 0.<br />

“3. ⇒ 1.”: Wegen 14.7 gibt es einen Wahrscheinlichkeitsraum (Ω, A, P) und reelle Zufallsvariable<br />

(X n ) n∈N und X 0 mit X n → X 0 fast sicher mit P Xn = P n (n ∈ N 0 ). Da X n fast<br />

sicher gegen X 0 konvergiert, ist die Konvergenz auch stochastisch und mit 14.5 auch in<br />

schwach<br />

Verteilung, d.h. P n −−−−−→ P 0 .<br />

14.9 Satz (Skorohod)<br />

Sei (P n ) n∈N0 ∈ (M 1 (R)) N0 schwach<br />

. Gilt P n −−−−−→ P 0 , dann gibt es einen Wahrscheinlichkeitsraum<br />

(Ω, A, P) und eine Folge (X n ) n∈N0 reeller Zufallsvariablen mit<br />

P Xn = P n (n ∈ N 0 )<br />

derart, daß X n → X 0 fast sicher, also insbesondere stochastisch.<br />

✷<br />

Beweis: Folgt aus 14.7 und 14.8.<br />

✷<br />

14.10 Korollar<br />

Sei (P n ) n∈N0 ∈ (M 1 (R)) N0 Gilt P n<br />

schwach<br />

−−−−−→ P 0 , und ist die Verteilungsfunktion F 0 von P 0 überall<br />

stetig, so konvergieren die Verteilungsfunktionen F n von P n gleichmäßig gegen F 0 .


14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 127<br />

Beweis: Es gibt a, b ∈ R mit F 0 (a) ≤ ɛ und F 0 (b) ≥ 1 − ɛ. Auf [a; b] ist F 0 gleichmäßig stetig.<br />

Damit gibt es a = x 0 < x 1 < . . . < x k = b mit<br />

Gemäß 14.8 gilt für schließlich alle n<br />

|F 0 (x i ) − F 0 (x i−1 )| ≤ ɛ (i = 1, . . . , k).<br />

|F n (x i ) − F 0 (x i )| ≤ ɛ (i = 0, . . . , k).<br />

Es genügt zu zeigen<br />

Ist x < x 0 , so ist<br />

und damit<br />

|F n (x) − F 0 (x)| ≤ 5ɛ (x ∈ R).<br />

0 ≤ F n (x) ≤ F n (a) ≤ |F n (a) − F 0 (a)| + F 0 (a) ≤ 2ɛ<br />

|F n (x) − F 0 (x)| ≤ F n (x) + F 0 (x) ≤ 3ɛ.<br />

Ist x > x k , so ist analog<br />

und damit<br />

1 − 2ɛ ≤ F n (x) ≤ 1<br />

|F n (x) − F 0 (x)| ≤ |1 − F n (x)| + |1 − F 0 (x)| ≤ 3ɛ.<br />

Ist x ∈ [x i−1 ; x i ] für ein i = 1, . . . , k,, so ist<br />

F n (x i−1 ) ≤ F n (x) ≤ F n (x i ) ≤ F 0 (x i ) + ɛ ≤ F 0 (x i−1 ) + 2ɛ ≤ f n (x i−1 ) + 3ɛ<br />

und damit<br />

|F n (x) − F 0 (x)| ≤ |F n (x) − F n (x i−1 )| + |F n (x i−1 ) − F 0 (x i−1 )| + |F 0 (x i−1 ) − F 0 (x)| ≤ 5ɛ.<br />

✷<br />

14.11 Definition<br />

Sei µ ∈ M b +(E).<br />

1. Eine reelle beschränkte Funktion f heißt µ-fast überall stetig, wenn es eine Menge N ∈ A gibt<br />

mit<br />

µ[e ∈ E \ N : f| CN stetig in e] = µ[E].<br />

2. Eine Menge A ∈ A heißt µ-randlos, wenn 1 A µ-fast überall stetig ist.<br />

14.12 Bemerkung<br />

1. Sei f : E ↦→ R beschränkt Definiere dann<br />

f := sup{g ∈ C b (E) : g ≤ f}<br />

f := inf{h ∈ C b (E) : h ≥ f}<br />

Stets ist f nach unten halbstetig und f nach oben halbstetig mit f ≤ f ≤ f. Nun ist f in<br />

x ∈ E genau dann nach unten halbstetig, wenn f(x) = f(x) und nach oben halbstetig, wenn<br />

f(x) = f(x).


128 KAPITEL 4. GRENZVERTEILUNGEN<br />

2. Sei A ∈ B(E) und α ∈ E. Definiere den Rand von A als<br />

Dann gilt<br />

∂A := A \ ◦ A.<br />

1 A stetig in α ⇐⇒ α ∈ A ◦ ∪ CA,<br />

1 A unstetig in α ⇐⇒ α /∈ A ◦ ∪ CA ⇐⇒ α ∈ A \ A ◦ = ∂A<br />

A ist µ-randlos ⇐⇒ µ[∂A] = 0.<br />

14.13 Lemma<br />

Sei µ ∈ M b +(E) und f : E → R beschränkt mit f(E) ⊆ [0; k) für ein k ∈ N. Dann gilt für α ∈ [0; 1]<br />

k∑<br />

∫<br />

k∑<br />

αµ[f ≥ α] + µ[f ≥ α + i − 1] ≤ fdµ ≤ µ[E] + µ[f ≥ α + i − 1].<br />

i=2<br />

i=1<br />

Beweis:<br />

Ebenso ist<br />

∫<br />

∫<br />

fdµ =<br />

=<br />

fdµ =<br />

k∑<br />

∫<br />

k∑<br />

fdµ ≤ (α + i)µ [ ]<br />

α + i − 1 ≤ f < α + i<br />

} {{ }<br />

i=0<br />

={f≥α+i−1}\{f≥α+i}<br />

k∑ (<br />

)<br />

(α + i) µ[f ≥ α + i − 1] − µ[f ≥ α + i]<br />

i=0<br />

{α+i−1≤f


14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 129<br />

14.14 Hauptsatz (Portmanteau-Theorem)<br />

Für jede Folge (µ n ) n∈N ∈ (M b +(E)) N und jedes Maß µ ∈ M b +(E) sind äquivalent<br />

1. µ n<br />

schwach<br />

−−−−−→ µ,<br />

2. lim µ n[E] = µ[E] und lim sup µ n [F ] ≤ µ[F ] (F ∈ F(E)),<br />

n→∞<br />

n→∞<br />

3. lim n[E] = µ[E] und lim inf n[G] ≥ µ[G]<br />

n→∞ n→∞<br />

(G ∈ G(E)),<br />

∫ ∫<br />

4. lim sup fdµ n ≤ fdµ (f nach oben halbstetig, beschränkt),<br />

n→∞<br />

∫<br />

5. lim inf<br />

∫<br />

fdµ n ≥ fdµ (f nach unten halbstetig, beschränkt),<br />

∫<br />

6. lim<br />

n→∞<br />

∫<br />

fdµ n = fdµ<br />

(f ∈ L 0 (E, B(E)) µ-fast überall stetig, beschränkt),<br />

7. lim<br />

n→∞ µ n[A] = µ[A]<br />

(A ∈ B(E) µ-randlos).<br />

Beweis:<br />

“1. ⇒ 2.”: Klar ist<br />

∫<br />

lim µ n[E] = lim<br />

n→∞ n→∞<br />

∫<br />

1dµ n = 1dµ = µ[E].<br />

Sei F abgeschlossen. Wie in 14.2.1 gibt es eine Folge von (U n ) n∈N ∈ G(E) N mit U n ↓ F .<br />

Zu ɛ > 0 gibt es damit ein U ∈ G(E) mit F ⊆ U und µ[U] ≤ µ[F ] + ɛ. Außerdem gibt<br />

es ein f ∈ C b (E) mit 1 F ≤ f ≤ 1 U . Daraus folgt<br />

∫ ∫<br />

lim sup<br />

n→∞<br />

µ n [F ] ≤ lim sup<br />

n→∞<br />

Mit ɛ → 0 folgt die Behauptung.<br />

fdµ n =<br />

fdµ ≤ µ[U] ≤ µ[F ] + ɛ.<br />

“2. ⇔ 3.”: Klar, da es für jede offene Menge F eine abgeschlossene Menge G gibt mit G = CF<br />

und umgekehrt.<br />

“2. ⇒ 4.”: Œ sei f ≥ −1 und sogar f ≥ 0. Es gilt nämlich, falls f ≥ −1<br />

∫ ∫<br />

∫ ∫<br />

∫ ∫<br />

fdµ = f + 1 dµ −<br />

} {{ }<br />

≥0<br />

1dµ → f + 1dµ − 1dµ =<br />

fdµ.<br />

Daher sei Œ f(E) ⊆ [0; 1). Sei k ∈ N. Die Anwendung des Lemmas 14.13 auf kf, µ n und<br />

α = 1 liefert<br />

∫<br />

lim sup<br />

n→∞<br />

(<br />

kfdµ n ≤ lim sup µ n [E] +<br />

n∈N<br />

≤ lim sup µ n [E] +<br />

n→∞<br />

≤ µ[E] +<br />

k∑<br />

i=1<br />

k∑<br />

n=1<br />

k∑<br />

i=1<br />

)<br />

µ n [kf ≥ i]<br />

lim sup µ n [kf ≥ i]<br />

n→∞ } {{ }<br />

∈F(E)<br />

∫<br />

µ[kf ≥ i] 14.13<br />

≤ µ[E] +<br />

kfdµ


130 KAPITEL 4. GRENZVERTEILUNGEN<br />

Damit gilt<br />

∫<br />

lim sup<br />

n→∞<br />

und die Behauptung folgt mit k → ∞.<br />

fdµ n ≤ 1 k µ[E] + ∫<br />

fdµ<br />

“4. ⇔ 5.”: Ist trivial, da f genau dann nach oben halbstetig ist, wenn −f nach unten halbstetig<br />

ist.<br />

“5. ⇒ 6.”: Da f µ-fast überall stetig ist, ist f = f = f µ-fast überall. Daraus folgt<br />

∫ ∫<br />

fdµ = fdµ<br />

und damit<br />

∫<br />

∫<br />

fdµ ≤ 5.<br />

lim inf<br />

n→∞<br />

∫<br />

fdµ n ≤ lim inf<br />

n→∞<br />

∫<br />

fdµ n ≤ lim sup<br />

n→∞<br />

∫<br />

4.<br />

fdµ n ≤<br />

∫<br />

fdµ =<br />

fdµ.<br />

“6. ⇒ 7.”: Ist trivial, da 1 A µ-fast überall stetig ist.<br />

“7. ⇒ 1.”: Es genügt zu zeigen<br />

∫<br />

lim sup<br />

n→∞<br />

∫<br />

fdµ n ≤<br />

fdµ<br />

(f ∈ C b (E).<br />

Denn dann erhält man<br />

∫ ∫<br />

lim sup fdµ n ≤<br />

n→∞<br />

= lim inf<br />

n→∞<br />

∫<br />

fdµ = −<br />

∫<br />

∫<br />

(−f)dµ ≤ − lim sup<br />

n→∞<br />

∫<br />

fdµ n<br />

fdµ n ≤ lim sup<br />

n→∞<br />

(−f)dµ n<br />

Sei wieder Œ f ∈ C b (E) mit f(E) ⊆ [0; 1). Definiere für j, kn ∈ N<br />

T j k := { t ∈ R + : µ[kf = t] ≥ 1 j<br />

}<br />

,<br />

T k := { t ∈ R + : µ[kf = t] > 0 } = ⋃ j∈N<br />

T j k<br />

Dann ist<br />

∑<br />

µ[kf = t] ≤ µ[E] < ∞.<br />

t∈T j k<br />

Mit T k ist auch T := ⋃ k∈N<br />

T k abzählbar und damit auch S :=<br />

es ein α ∈ [0; 1) \ S.<br />

Für t ∈ R + \ T und k ∈ N gilt dann, weil f stetig ist<br />

∞⋃<br />

(−i + T ). Deshalb gibt<br />

i=0<br />

µ [ ∂{kf ≥ t} ] ≤ µ [ ]<br />

{kf ≥ t} \ {kf > t} = µ[kf = t] = 0,<br />

da {kf > t} offen ist, {kf > t} ⊆ {kf ≥ t} und wegen der Definition von T . Damit ist<br />

{kf ≥ t} µ-randlos und es gilt<br />

lim µ n[kf ≥ t] = µ[kf ≥ t].<br />

n→∞


14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 131<br />

Da α /∈ S ist, ist α + i − 1 /∈ T (i ∈ N) und es gilt<br />

∫<br />

14.13<br />

lim sup kfdµ n ≤ µ n [E] + µ n [kf ≥ α]<br />

n→∞<br />

≤ lim sup µ n [E] +<br />

n→∞<br />

= µ[E] +<br />

k∑<br />

µ n [kf ≥ α − i + 1]<br />

i=1<br />

k∑<br />

µ[kf ≥ α − i + 1]<br />

i=1<br />

∫<br />

≤ µ[E] + µ[kf ≥ α] + kfdµ − αµ[kf ≥ α]<br />

∫<br />

≤ 2µ[E] + kfdµ.<br />

Daraus folgt für k → ∞<br />

∫<br />

lim sup<br />

n→∞<br />

∫<br />

fdµ n ≤<br />

fdµ.<br />

✷<br />

14.15 Bemerkung<br />

Sind µ 1 , µ 2 ∈ M 1 +(R) mit Verteilungsfunktionen F 1 , F 2 , so ist (−∞; x] genau dann µ-randlos,<br />

wenn µ[{x}] = 0 also genau dann, wenn F in x stetig ist. Somit ist die Aussage 1. ⇒ 3. aus 14.8<br />

ein Spezialfall der Aussage 1. ⇒ 3. aus 14.14.


132 KAPITEL 4. GRENZVERTEILUNGEN<br />

15 Grenzwertsätze<br />

Stets sei (Ω, A, P) ein Wahrscheinlichkeitsraum, Y n reelle Zufallsvariable (n ∈ N) und µ ∈ M 1 +(R).<br />

Man sagt, Y n genügt einem Grenzwertsatz mit Grenzverteilung µ, wenn<br />

P Yn<br />

schwach<br />

−−−−−→ µ.<br />

15.1 Beispiel<br />

1. Sei (Ω, A) = (R, B(R), Y n = id R , (n ∈ N). Dann ist wegen P Yn = P (nn ∈ N)<br />

P Yn<br />

schwach<br />

−−−−−→ P.<br />

2. Seien (X n ) n∈N reelle Zufallsvariablen auf (Ω, A, P) und<br />

Dann gilt wegen 14.5<br />

Y n := 1 n<br />

n∑<br />

(X i − E[X i ]).<br />

i=1<br />

(X n ) n∈N genügt dem schwachen Gesetz ⇐⇒ P Yn<br />

schwach<br />

−−−−−→ ɛ a .<br />

3. Aus der elementaren Stochastik kennt man den Poisson’schen Grenzwertsatz:<br />

Sei (p n ) n∈N ∈ (0; 1) N mit<br />

(n ∈ N). dann gilt<br />

lim p n = α ∈ R + und Y n eine B(n, p n )-verteilte Zufallsvariable<br />

n→∞<br />

P Yn<br />

schwach<br />

−−−−−→ π α .<br />

4. Ebenfalls aus der elementaren Stochastik ist der Satz von de Moivre-Laplace bekannt. Dies ist<br />

ein Spezialfall des zentralen Grenzwertsatzes:<br />

Sei 0 < p < 1 und (X n ) n∈N eine Familie unabhängiger, B(1, p)-verteilter Zufallsvariablen.<br />

Definiere<br />

( ∑ n<br />

s n := σ[X 1 + . . . + X n ] = Var[X i ]) 1 2<br />

√<br />

= np(1 − p),<br />

n∑<br />

X i − np<br />

i=1<br />

Y n := √<br />

np(1 − p)<br />

i=1<br />

Dann gilt<br />

P Yn<br />

schwach<br />

−−−−−→ N 0,1 .<br />

5. Allgemein betrachten wir Folgendes: Seien (X n ) n∈N unabhängige, quadratisch integrierbare Zufallsvariablen<br />

und<br />

und<br />

σ n := σ[X n ],<br />

S n := X 1 + . . . + X n ,<br />

σ n := σ[X 1 + . . . + X n ] = σ[S n ],<br />

S ∗ n := S n − E[S n ]<br />

s n


15. GRENZWERTSÄTZE 133<br />

die standardisierte Summenvariable, d.h. E[Sn] ∗ = 0 und Var[S n ] = 1. Sei außerdem Φ die<br />

stetige Verteilungsfunktion der Standardnormalverteilung, d.h. N 0,1 [(−∞; b)] = Φ(b). Dann<br />

sagt man, dass für (X n ) n∈N der zentrale Grenzwertsatz gilt, wenn<br />

P Sn<br />

also nach 14.8 und 14.10 genau dann, wenn<br />

P[a < S ∗ n ≤ b] n→∞<br />

−−−→ 1<br />

Dann gilt<br />

[<br />

P α ≤ 1 n<br />

√<br />

2π<br />

∫ b<br />

a<br />

(<br />

exp<br />

n∑<br />

(X i − E[X i ]) ≤ β<br />

i=1<br />

gleichmäßig für α ≤ β ∈ R.<br />

schwach<br />

−−−−−→ N 0,1 ,<br />

)<br />

− x2<br />

2<br />

dxN 0,1 (a; b) = Φ(b) − Φ(a)<br />

] ∫<br />

− √ 1<br />

2π<br />

n<br />

s n<br />

β<br />

n<br />

s n<br />

α<br />

(<br />

exp<br />

)<br />

− x2<br />

2<br />

dx n→∞<br />

−−−→ 0<br />

(a, b ∈ R, a ≤ b).<br />

15.2 Lemma 1<br />

Sei µ ∈ M 1 +(R) und<br />

⎧<br />

⎨C b (R) →<br />

∫<br />

C b (R)<br />

T µ :<br />

⎩f<br />

↦→ f(x + y)µ[dx].<br />

Dann ist T µ ein beschränkter, insbesondere stetiger Operator auf C b (R).<br />

R<br />

Beweis: Für x ∈ R ist<br />

∫<br />

|T µ f(x)| =<br />

∫<br />

f(x + y)µ[dx] ≤<br />

|f(x + y)|µ[dy] ≤ ||f|| ∞ .<br />

Damit ist<br />

||T µ f|| ∞ ≤ ||f|| ∞ ,<br />

d.h. T µ ist eine Kontraktion. Dass T µ auch stetig ist, zeigt<br />

∫<br />

lim |T µ f(x 1 ) − T µ f(x 2 )| ≤ lim |f(x 1 + y) − f(x 2 + y)|µ[dy]<br />

x 1→x 2 x 1→x 2<br />

da f gleichmäßig stetig ist.<br />

≤ lim sup |f(x 1 + y) − f(x 2 + y)| = 0,<br />

x 1→x 2<br />

y∈R<br />

✷<br />

15.3 Lemma 2<br />

Sind µ, ν ∈ M 1 +(R), so gilt<br />

d.h. die Operatoren T µ und T ν kommutieren.<br />

T µ ◦ T ν = T µ∗ν = T ν ◦ T µ ,<br />

Beweis: Sei f ∈ C b (R) und x ∈ R Dann gilt<br />

∫<br />

T µ∗ν f(x) = f(x + y)(µ ∗ ν)[dy]<br />

R<br />

∫ ∫<br />

10.19<br />

= f(x + y 1 + y 2 )µ[dy 1 ]ν[dy 2 ]<br />

R R<br />

∫<br />

= T µ f(x + y 2 )dν[dy 2 ] = T ν (T µ f)(x) = T ν∗µ f(x).<br />

R<br />

Damit ist T ν ◦ T µ = T µ∗ν<br />

10.19<br />

= T µ ◦ T ν . ✷


134 KAPITEL 4. GRENZVERTEILUNGEN<br />

15.4 Lemma 3<br />

Sind U 1 , . . . , U n , V 1 , . . . , V n kommutierende Kontraktionsoperatoren auf C b (R), so gilt<br />

n∑<br />

||(U 1 ◦ . . . ◦ U n )f − (V 1 ◦ . . . ◦ V n )f|| ≤ ||U i f − V i f||<br />

i=1<br />

Beweis: Es ist<br />

U 1 ◦ . . . ◦ U n − V 1 ◦ . . . ◦ V n =<br />

n∑<br />

U 1 ◦ . . . ◦ U i−1 ◦ (U i − V i ) ◦ V i+1 ◦ . . . ◦ V n ,<br />

i=1<br />

wobei i = 1 bzw. i = n die Summanden (U 1 − V 1 ) ◦ V 2 ◦ . . . ◦ V n bzw. U 1 ◦ . . . ◦ U n−1 ◦ (U n − V n )<br />

liefert. Somit ist<br />

n∑<br />

||(U 1 ◦ . . . ◦ U n )f − (V 1 ◦ . . . ◦ V n )f|| ≤ ||(U 1 ◦ . . . ◦ U i−1 ◦ V i+1 ◦ . . . ◦ V n ◦ (U i − V i ))f||<br />

15.5 Lemma 4<br />

Seien n, k ∈ N mit k ≥ 2. Es gelte:<br />

≤<br />

i=1<br />

n∑<br />

||U i f − V i f||.<br />

1. E[X i ] = 0, E[|X i | k ] < ∞ (i = 1, . . . , n),<br />

∫<br />

∫<br />

2. y j P Xi [dy] = y j N 0,σ 2<br />

i<br />

[dy] (i = 1, . . . , n; j = 1, . . . , k − 1)<br />

i=1<br />

Dann gibt es zu ɛ > 0 und f ∈ C (k) (R) ein δ > 0, so dass<br />

∫<br />

∫<br />

sup ∣ f(x + y)P Sn [dy] − f(x + y)N 0,1 [dy] ∣<br />

mit<br />

x∈R<br />

≤ ||f (k) ||<br />

k!s k n<br />

+ 1<br />

k!s k−2 n<br />

n∑<br />

∫<br />

∣<br />

i=1<br />

(<br />

max<br />

1≤i≤n σ2 i<br />

A :=<br />

∫<br />

y k P Xi [dy] −<br />

) k 2 −1( ∫<br />

ɛ<br />

y k N 0,σ 2[dy] ∣ +<br />

ɛ n∑<br />

k!s k E[|X i | k ]<br />

n i=1<br />

∫<br />

)<br />

|y| k N 0,1 [dy] + 2||f (k) || |y| k N 0,1 [dy]<br />

A<br />

+ 2||f (k) ||<br />

k!s k n<br />

{<br />

δ<br />

}<br />

y : |y| ≥ σ<br />

max i<br />

und B := {y : |y| ≥ δs n }.<br />

1≤i≤n<br />

s n<br />

n∑<br />

∫<br />

i=1<br />

B<br />

|y| k P Xi [dy]<br />

✷<br />

Beweis: Setze<br />

U i := T P Xi<br />

, V i := T N<br />

sn<br />

0, σ2 i<br />

s 2 n<br />

Nach 15.3 ist wegen 1. und 10.18<br />

U 1 ◦ . . . ◦ U n = T P X1<br />

sn<br />

(i = 1, . . . , n)<br />

∗ . . . ∗ P Xn<br />

sn<br />

= T PS ∗ n<br />

,<br />

V 1 ◦ . . . ◦ V n = T N<br />

0, σ2 ∗ . . . ∗ N<br />

1<br />

s 2 0, σ2 n<br />

s<br />

n<br />

2 n<br />

= T N0,1


15. GRENZWERTSÄTZE 135<br />

Für f ∈ C (k) (R) gilt nach 15.4<br />

sup<br />

x∈R<br />

∫<br />

∣<br />

∫<br />

f(x + y)P S ∗ n<br />

[dy] −<br />

f(x + y)N 0,1 [dy] ∣ = ||(U 1 ◦ . . . ◦ U n )f − (V 1 ◦ . . . ◦ V n )(f)||<br />

n∑<br />

≤ ||U i f − V i f||.<br />

i=1<br />

Entwicklung von f in seine Taylorreihe ergibt mit der Lagrange’schen Form des Restgliedes<br />

f(x + y) =<br />

k−1<br />

∑<br />

j=0<br />

f (j) (x)<br />

y j + f (k) z(x, y) yk<br />

j!<br />

k!<br />

für ein geeignetes x ≤ z(x, y) ≤ x + y. Für j ≤ k, i ≤ n ist X j i P-integrierbar, da für p = k j ≥ 1<br />

und 1 p + 1 q<br />

= 1 mit der Hölder’schen Ungleichung<br />

N 1 (|X j i |) ≤ N p(|X j i |)N q(1) =<br />

( ∫ |X i | j k j dP) 1 p = E[|Xi | k ] 1 p < ∞<br />

gilt. Mit geeignetem x ≤ z = z(x, y) ≤ x + y<br />

s n<br />

gilt dann<br />

U i f(x) =<br />

=<br />

=<br />

k−1<br />

∑<br />

j=0<br />

k−1<br />

∑<br />

j=0<br />

k−1<br />

∑<br />

j=0<br />

f (j) (x)<br />

j!<br />

f (j) (x)<br />

j!<br />

f (j) (x)<br />

j!<br />

∫<br />

= V i f(x) + 1<br />

k!s k n<br />

= V i f(x) + f (k) (x)<br />

+ 1<br />

k!s k n<br />

− 1<br />

k!s k n<br />

y j P X i [dy] + 1<br />

sn k!<br />

∫<br />

∫ ( y<br />

) jPXi<br />

[dy] + 1 ∫<br />

s n k!<br />

f (k) (z(x, y))y k P X i [dy]<br />

sn<br />

f (k)( z(x, y )( y<br />

) kPXi<br />

)<br />

[dy]<br />

s n s n<br />

∫ ( ( y<br />

) 2<br />

y j N 0,<br />

)[dy] + 1 ∫<br />

f (k)( z(x, y )( y<br />

) kPXi<br />

)<br />

[dy]<br />

s n k!<br />

s n s n<br />

( ∫<br />

f (k)( z(x, y )<br />

∫<br />

) y k P Xi [dy] − f (k)( z(x, y )<br />

)<br />

) y k N<br />

s n s 0,σ 2<br />

i<br />

[dy]<br />

n<br />

( ∫<br />

∫<br />

)<br />

k!s k y k P Xi [dy] − y k N 0,σ 2<br />

i<br />

[dy]<br />

n<br />

∫ (<br />

f (k)( z(x, y ) )<br />

) − f (k) (x) y k P Xi [dy]<br />

s<br />

∫ n<br />

(<br />

f (k)( z(x, y ) )<br />

) − f (k) (x) y k N<br />

s 0,σ 2<br />

i<br />

.<br />

n<br />

Nun gibt es, da f (k) gleichmäßig stetig ist zu ɛ > 0 ein δ > 0, so dass<br />

|x 1 − x 2 | ≤ δ ⇒ |f (k) (x 1 ) − f (k) (x 2 )| ≤ ɛ.


136 KAPITEL 4. GRENZVERTEILUNGEN<br />

Wegen |x − z(x, y<br />

s n<br />

)| ≤ | y<br />

s n<br />

| ist<br />

Wegen<br />

|U i f(x) − V i f(x)| ≤ |f (k)| (x)<br />

∫<br />

k!s k ∣<br />

n<br />

+ 1 ∫<br />

k!s k n CB<br />

+ 1<br />

k!s k n<br />

≤ ||f (k) ||<br />

n∑<br />

σ k =<br />

i=1<br />

k!s k n<br />

+ ɛ<br />

k!s k n<br />

∫<br />

B<br />

∫<br />

∣<br />

+ 2||f (k) ||<br />

k!s k n<br />

n∑<br />

i=1<br />

∫<br />

y k P Xi [dy] −<br />

∣<br />

∣f (k) (z(x, y<br />

∣<br />

∣f (k) (z(x, y<br />

(<br />

E[|X i | k ] + σ k i<br />

σ 2 i σ k−2<br />

i<br />

folgt Behauptung durch Summation, da<br />

y k N 0,σ 2<br />

i<br />

[dy] ∣<br />

s n<br />

)) − f (k) (x) ∣ ∣ |y k | ( P Xi [dy] + N 0,σ 2<br />

i<br />

[dy] )<br />

s n<br />

)) − f (k) (x) ∣ |y k | ( P Xi [dy] + N 0,σ 2<br />

i<br />

[dy] )<br />

∫<br />

y k P Xi [dy] − y k N 0,σ 2<br />

i<br />

[dy] ∣<br />

∫<br />

)<br />

|y| k N 0,1 [dy]<br />

( ∫ |y| k P Xi [dy] + σi<br />

k<br />

B<br />

∫<br />

{y:|y|≥ sn<br />

σ i<br />

δ}<br />

≤ s 2 n max<br />

1≤i≤n σk−2 i = s 2 n( max<br />

1≤i≤n σ2 i ) k 2 −1<br />

|y| ≥ s n<br />

δ<br />

δ ⇒ |y| ≥ σ<br />

σ i max i<br />

,<br />

1≤i≤n<br />

s n<br />

)<br />

|y| k N 0,1 [dy]<br />

d.h. B ⊆ A.<br />

Entscheidend für die Gültugkeit des zentralen Grenzwertsatzes ist folgende Bedingung:<br />

✷<br />

15.6 Definition<br />

Sei (X n ) n∈N eine Familie von reellen Zufallsvariablen.<br />

1. Sei für δ > 0<br />

n∑<br />

∫<br />

∣ L n (δ) :=<br />

X i − E[X i ] ∣∣∣<br />

2<br />

∣<br />

dP = 1<br />

i=1{ ∣∣ } s n s 2 n<br />

X i −E[X i ] ∣ ≥δ<br />

sn<br />

Die Familie (X n ) n∈N genügt der Lindeberg-Bedingung, wenn<br />

n∑<br />

lim L n(δ) = 0 (δ > 0).<br />

n→∞<br />

2. Die Familie (X n ) n∈N genügt der Ljapunoff-Bedingung, wenn<br />

1<br />

∃ɛ > 0 : lim<br />

n→∞ s 2+ɛ n<br />

∫<br />

i=1<br />

{y:|y−E[X i]|≥δs n}<br />

n∑<br />

E [ |X i − E[X i ]| 2+ɛ] = 0.<br />

i=1<br />

|y − E[X i ]| 2 P Xi [dy].<br />

3. Ist σ i > 0 für alle i ∈ N, so genügt die Familie (X n ) n∈N der Feller-Bedingung, wenn sie eine der<br />

beiden äquivalenten Bedingungen genügt:<br />

1. lim max σ i<br />

n→∞ 1≤i≤n<br />

s n<br />

= 0,<br />

2. lim<br />

n→∞ s n = ∞ ∧<br />

σ n<br />

lim = 0.<br />

n→∞ s n


15. GRENZWERTSÄTZE 137<br />

Die Aquivalenz der beiden Bedingungen folgt dabei wiefolgt:<br />

s i<br />

“1. ⇒ 2.”: Da σ i > 0 für alle i, muss s n → ∞ gelten, da sonst lim > 0 wäre. Außerdem gilt<br />

n→∞ σ n<br />

σ n<br />

lim ≤ lim<br />

n→∞ s max σ i<br />

n n→∞ 1≤i≤n<br />

s n<br />

= 0.<br />

“2. ⇒ 1.”: Zu ɛ > 0 gibt es ein n 0 ∈ N mit σn<br />

s n<br />

15.7 Beispiele<br />

max<br />

1≤i≤n<br />

≤ ɛ für n ≥ n 0 . Damit gibt es ein n 1 , so dass<br />

σ i<br />

s n<br />

≤ ɛ (n ≥ n 1 ).<br />

1. Beh.: Jede unabhängige Folge (X n ) n∈N identisch verteilter Zufallsgrößen genügt der Lindeberg-<br />

Bedingung.<br />

Denn: sei<br />

α := E[X n ], σ := σ n und damit s 2 n = nσ 2 .<br />

Dann ist s n ↑ ∞ und für δ > 0 gilt {y ∈ R : |y − x| ≥ δs n } ↓ ∅ Wegen<br />

∫<br />

|y − α| 2 P Xi [dy] = σ 2 < ∞<br />

gilt<br />

L n (δ) = 1 σ 2<br />

∫<br />

|y − x| 2 P Xn [dy] → 0<br />

nach 6.3.<br />

{y:|y−E[X i]|≥δs n}<br />

2. Beh.: Genügt die Familie (X n ) n∈N der Ljapunoff-Bedingung, so auch der Lindeberg-Bedingung<br />

Denn: für δ > 0 und ɛ ∈ R und |y − α| ≥ δs n ist |y − α| 2+ɛ ≥ |y − α| 2 (δs n ) ɛ und damit<br />

L n (δ) ≤ 1 n∑<br />

∫<br />

δ ɛ s 2+ɛ<br />

|y − E[X i ]| 2+ɛ P Xi [dy]<br />

n<br />

≤ 1 δ 2 1<br />

s 2+ɛ n<br />

i=1<br />

{y:|y−E[X i]|≥δs n}<br />

n∑<br />

i=1<br />

E [ |X i − E[X i ]| 2+ɛ] n→∞<br />

−−−→ 0.<br />

3. Beh.: Ist (X n ) n∈N gleichmäßig beschränkt mit lim s n = ∞ oder äquivalent dazu<br />

n→∞<br />

∞∑<br />

Var[X n ] = ∞, so genügt (X n ) n∈N der Ljapunoff-Bedingung.<br />

n=1<br />

Denn: es gibt ein α > 0 mit |X n | ≤ α 2 (n ∈ N). Damit ist auch |E[X n]| ≤ α 2 und |X n − E[X n ]| ≤<br />

α (n ∈ N) und damit für ein beliebiges ɛ > 0<br />

1<br />

n∑<br />

s 2+ɛ E [ |X i − E[X i ]| 2+ɛ] n∑<br />

≤<br />

αɛ<br />

n<br />

s 2+ɛ E [ |X i − E[X i ]| 2] ( α<br />

) ɛ<br />

= → 0.<br />

i=1<br />

n<br />

s<br />

i=1<br />

n<br />

} {{ }<br />

s 2 n<br />

✷<br />

✷<br />

4. Beh.: Genügt (X n ) n∈N der Lindeberg-Bedingung, so auch der Feller-Bedingung<br />

Denn: Für δ > 0 und 1 ≤ i ≤ n ist<br />

∫<br />

∫<br />

σi 2 = |y − E[X i ]| 2 P Xi [dy] ≤ (δs n ) 2 +<br />

|y − E[X i ]| 2 P Xi [dy]<br />

n∑<br />

∫<br />

≤ (δs n ) 2 +<br />

i=1 {y:|y−E[X i]|≥δs n}<br />

{y:|y−E[X i]|≥δs n}<br />

|y − E[X i ]| 2 P Xi [dy].


138 KAPITEL 4. GRENZVERTEILUNGEN<br />

Damit ist (<br />

) 2<br />

σ<br />

max i<br />

1≤i≤n<br />

s n<br />

= max<br />

1≤i≤n<br />

Nun genügt es, n → ∞ und δ → 0 zu betrachten.<br />

σ 2 i<br />

s 2 n<br />

≤ δ 2 + L n (δ).<br />

✷<br />

5. Beh.: Für 1 ≤ i ≤ n sei<br />

X ni := X i − E[X i ]<br />

s n<br />

.<br />

Falls (X n ) n∈N der Feller-Bedingung genügt, so ist der Einfluss einzelner Summanden in den<br />

standardisierten Summenvariablen Sn ∗ asymptotisch vernachlässigbar, d.h. P − lim X ni = 0<br />

n→∞<br />

gleichmäßig für 1 ≤ i ≤ n, d.h.<br />

lim max P[|X ni| ≥ ɛ] = 0 (ɛ > 0).<br />

n→∞ 1≤i≤n<br />

Denn: es gilt<br />

max<br />

1≤i≤n P[|X ni| ≥ ɛ] ≤ 1 ɛ 2<br />

max<br />

1≤i≤n Var[X ni]<br />

} {{ }<br />

= σ2 i<br />

s 2 n<br />

(<br />

= 1 ɛ max<br />

σ i<br />

) 2<br />

2 1≤i≤n<br />

s n<br />

n→∞<br />

−−−→ 0.<br />

15.8 Hauptsatz (Lindeberg-Feller)<br />

Der zentrale Grenzwertsatz gilt für jede unabhängige Folge (X n ) n∈N mit 0 < σ 2 n = Var[X n ] <<br />

∞, die der Lindeberg-Bedingung genügt, also insbesondere, falls die (X n ) n∈N identisch verteilt<br />

sind.<br />

Beweis: Sei Œ E[X n ] = 0 (n ∈ N). Wir wenden 15.5 mit k = 2 an. 15.5.1 ist erfüllt, 15.5.2 sogar<br />

für k = 3, d.h. für j = 1, 2, denn<br />

∫<br />

∫<br />

yP Xi [dy] = E[X i ] = 0 = yN 0,σ 2<br />

i<br />

[dy],<br />

∫<br />

∫<br />

y 2 P Xi [dy] = Var[X i ] = σi 2 = y 2 N 0,σi [dy]


15. GRENZWERTSÄTZE 139<br />

Somit gibt es für ɛ > 0 und f ∈ C (2) (R) ein δ > 0 mit<br />

∫<br />

∫<br />

sup∣<br />

f(x + y)P S ∗ n<br />

[dy] − f(x + y)N 0,1 [dy] ∣<br />

da<br />

x∈R<br />

≤ 0 +<br />

ɛ<br />

+ 2||f (2) ||<br />

2s 2 n<br />

2s 2 n i=1<br />

n∑<br />

E[Xi 2 ]<br />

} {{ }<br />

=σi<br />

2<br />

} {{ }<br />

=s 2 n<br />

n∑<br />

∫<br />

i=1<br />

∫<br />

= ɛ 2 + ɛ 2 + ||f (2) ||<br />

+ 1 2<br />

{y:|y|≥δs n}<br />

{y:|y|≥<br />

[ ∫<br />

ɛ y 2 N 0,1 [dy]<br />

} {{ }<br />

=1<br />

δ<br />

max<br />

1≤i≤n<br />

y 2 P Xi [dy]<br />

] ∫<br />

+2||f (2) ||<br />

δ<br />

{y:|y|≥ σ<br />

max i }<br />

1≤i≤n s n<br />

y 2 N 0,1 [dy] + ||f (2) ||L n (δ) → ɛ,<br />

σ i }<br />

s n<br />

1 δ y 2 → 0<br />

{y:|y|≥ σ<br />

max i<br />

1≤i≤n s n<br />

und y ↦→ y 2 eine N 0,1 -integrierbare Majorante nach 6.8.<br />

Für x = 0 gilt<br />

∫ ∫ ∣ lim ∣ fP S ∗<br />

∣∣<br />

n<br />

− fdN 0,1 = 0,<br />

und damit<br />

∫<br />

lim<br />

n→∞<br />

n→∞<br />

∫<br />

fdP S ∗ n<br />

=<br />

fdN 0,1<br />

(f ∈ C (2) (R)).<br />

y 2 N 0,1 [dy]<br />

Nach 14.8 ist also P S ∗ n<br />

schwach<br />

−−−−−→ N 0,1 .<br />

✷<br />

15.9 Bemerkung<br />

Man kann zeigen (vgl. [BW], 28.3), dass die Lindeberg-Bedingung äquivalent zu jeder der folgenden<br />

Bedingungen:<br />

1. Zentraler Grenzwertsatz ∧ Feller<br />

2. Zentraler Grenzwertsatz ∧ ( (X ni ) i≤n asymptotisch vernachlässigbar<br />

)n∈N<br />

15.10 Korollar 1 (deMoivre-Laplace)<br />

Für jede unabhängige Folge (X n ) n∈N identisch verteilter, reeller Zufallsvariable mit 0 <<br />

Var[X 1 ] < ∞ gilt der zentrale Grenzwertsatz, insbesondere gilt die Fehlerabschätzung für das<br />

Gesetz der großen Zahlen<br />

∣<br />

∣P<br />

[<br />

1<br />

n<br />

gleichmäßig für ɛ > 0.<br />

n∑<br />

i=1<br />

√<br />

]<br />

|X i − E[X i ]| < ɛ − √ 1 ∫ n ɛ<br />

σ n<br />

2π<br />

√ n<br />

−ɛ<br />

σ n<br />

exp ( ) ∣ ∣∣<br />

− x2 n→∞<br />

2 dx −−−→ 0<br />

15.11 Bemerkung<br />

Die Gültigkeit des zentralen Grenzwertsatzes impliziert i.A. nicht die Gültigkeit des schwachen<br />

Gesetzes, wohl aber in 15.10, da hier der Spezialfall einer identischen Verteilung vorliegt.


140 KAPITEL 4. GRENZVERTEILUNGEN<br />

Denn: Sei ɛ > 0. Für δ > 0 gibt es ein n δ ∈ N, so dass<br />

∣<br />

∣P<br />

[<br />

1<br />

n<br />

n∑<br />

i=1<br />

√<br />

]<br />

|X i − E[X i ]| < ɛ − √ 1 ∫ n ɛ<br />

σ n<br />

2π<br />

√ n<br />

−ɛ<br />

σ n<br />

exp ( ) ∣ ∣∣ δ<br />

− x2<br />

2 dx ≤<br />

2<br />

und<br />

für n ≥ n δ . Damit ist<br />

P[∣ ∣∣ 1<br />

n<br />

√<br />

∫ n<br />

1 ɛ<br />

σ n<br />

√<br />

2π<br />

√ n<br />

−ɛ<br />

σ n<br />

exp ( ) δ<br />

− x2<br />

2 dx ≥ 1 −<br />

2<br />

n∑<br />

]<br />

X i − E[X 1 ] ∣ ≥ ɛ ≤ δ (n ≥ n δ ).<br />

Für δ → 0 erhält man das schwache Gesetz der großen Zahlen.<br />

i=1<br />

✷<br />

15.12 Korollar 2<br />

Für jede unabhängige Folge (X n ) n∈N reeller Zufallsvariable mit 0 < Var[X n ] < ∞ (n ∈ N), die<br />

∞∑<br />

der Ljapunoff-Bedingung genügt, z.B. Var[X n ] = ∞ und (X n ) n∈N gleichmäßig beschränkt,<br />

gilt der Zentrale Grenzwertsatz<br />

Beweis: Folgt aus 15.7.3.<br />

15.13 Bemerkung<br />

n=1<br />

Abschließend wollen wir nun die Konvergenzgeschwindigkeit im zentralen Grenzwertsatz für unabhängige,<br />

identisch verteilte Zufallsvariablen (X n ) n∈N mit 0 < Var[X 1 ] < ∞ bestimmen.<br />

Dabei schreiben wir für (a n ) n∈N , (b n ) n∈N ∈ R N mit b n ≠ 0 (n ∈ N)<br />

a n = O(b n ) : ⇐⇒ ∃c > 0 : a n<br />

≤ c (n ∈ N)<br />

b n<br />

a n<br />

a n = o(b n ) : ⇐⇒ lim = 0<br />

n→∞ b n<br />

Damit gilt<br />

a n = o(b n ) ⇒ a n = O(b n ).


15. GRENZWERTSÄTZE 141<br />

15.14 Hauptsatz (Butzer-Hahn-Westphal)<br />

Seien (X n ) n∈N unabhängig und identisch verteilt. Gilt für ein k ≥ 2 und die Momente<br />

1. E[|X 1 | k ] < ∞,<br />

2. E[X j 1 ] = ∫<br />

y j N 0,σ 2 q<br />

[dy] (j = 3, . . . , k)<br />

so ist für f ∈ C (k) (R)<br />

∫<br />

sup ∣<br />

x∈R<br />

∫<br />

f(x + y)P S ∗ n<br />

[dy] −<br />

f(x + y)N 0,1 [dy] ∣ = o(n 1− k 2 )<br />

Gilt 2. nur für j = 3, . . . , k − 1, so ist für f ∈ C (k) (R)<br />

∫<br />

∫<br />

sup ∣ f(x + y)P S ∗ n<br />

[dy] − f(x + y)N 0,1 [dy] ∣ = O(n 1− k 2 )<br />

x∈R<br />

Beweis: Die Voraussetzungen von 15.5 erfüllt, da 15.5.2 wegen der identischen Verteilung der<br />

(X n ) n∈N gilt. Somit gibt es zu f ∈ C (k) (R) und ɛ > 0 ein δ > 0 mit<br />

∫<br />

sup ∣<br />

x∈R<br />

∫<br />

f(x + y)P Sn [dy] −<br />

s 2 n =nσ2 1<br />

≤<br />

f(x + y)N 0,1 [dy] ∣<br />

||f (2) ||<br />

∫<br />

∫<br />

k!n k n∣<br />

y k P X1 [dy] − y k ɛ<br />

N 0,σ 2<br />

2 σ1<br />

k 1<br />

[dy] ∣ +<br />

k!n k nE[|X 1 | k ]+<br />

2 σ1<br />

k<br />

1<br />

( ∫<br />

∫<br />

)<br />

k!n k ɛ |y| k N 0,1 [dy] + 2||f (k) |y| k N<br />

2 −1 {y:|y|≥δ √ 0,1 [dy]<br />

n}<br />

Im ersten Fall verschwindet der erste Summand. Da<br />

+ 2 ||f (2) ||<br />

k!n k n<br />

2 σ1<br />

k<br />

1 {y:|y|≥δsn} → 0 und 1 {y:|y|≥δ<br />

√ n} → 0<br />

und wegen majorisierter Konvergenz aus 6.8 gilt nun<br />

∫<br />

∫<br />

|y| k N 0,1 [dy] → 0 und<br />

{y:|y|≥δs n}<br />

{y:|y|≥δ √ n}<br />

∫<br />

{y:|y|≥δs n}<br />

|y| k N 0,1 [dy] → 0.<br />

|y| k P X1 [dy].<br />

Damit erhält man für ɛ → 0 im ersten Fall o(n 1− k 2 ). Im zweiten Fall verschwindet der erste<br />

Summand eventuell nicht. Deshalb erhält man hier nur O(n 1− k 2 ).<br />

15.15 Korollar<br />

Seien (X n ) n∈N unabhängig und identisch verteilt. Ist<br />

E[|X 1 | 3 ] < ∞,<br />

so gilt für f ∈ C (3) (R) die Fehlerabschätzung<br />

∫<br />

∫<br />

sup ∣ f(x + y)P S ∗ n<br />

[dy] −<br />

x∈R<br />

f(x + y)N 0,1 [dy] ∣ = O ( )<br />

√n 1 .


142 KAPITEL 4. GRENZVERTEILUNGEN<br />

15.16 Bemerkung<br />

Man kann z.B. mittels Fouriertransformation zeigen, dass 15.15 auch für f = 1 (−∞;0] gilt. Wegen<br />

folgt dann<br />

−x + y ∈ (−∞; 0] ⇔ y ≤ x ⇔ y ∈ (−∞; x]<br />

ρ n := sup |F n (x) − Φ(x)| = O ( )<br />

√n 1<br />

x∈R<br />

für die Verteilungsfunktion F n von P S ∗ n<br />

und Φ von N 0,1 .<br />

Ein noch allgemeineres Resultat findet man in [GS], p. 171, 165:<br />

Sei (X n ) n∈N eine unabhängige Folge reeller Zufallsvariablen mit 0 < Var[X n ] < ∞ (n ∈ N) Dann<br />

gilt:<br />

1. Es gibt ein ɛ > 0, so dass für alle n ∈ N und δ > 0 mit L n (δ) ≤ δ 3<br />

gilt.<br />

2. Ist E[|X n | 3 ] < ∞, so ist<br />

ρ n ≤ 6<br />

s 3 n<br />

Sind die (X n ) n∈N identisch verteilt, folgt<br />

ρ n ≤ ɛδ<br />

n∑<br />

E [ |X i − E[X i ]| 3] .<br />

i=1<br />

ρ n ≤ 6 √ nσ 3<br />

1<br />

E [ |X 1 − E[X 1 ]| 3] .


16. DER SATZ VOM ITERIERTEN LOGARITHMUS 143<br />

16 Der Satz vom iterierten Logarithmus<br />

Stets sei (X n ) n∈N eine Familie unabhängiger, identisch verteilter, reeller, quadratisch integrierbarer<br />

Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, A, P) mit<br />

16.1 Spezialfall<br />

Ist die Verteilung der X n zentriert, d.h.<br />

σ := √ Var[X n ], S n :=<br />

n∑<br />

X n .<br />

i=1<br />

E[X n ] = 0, σ = 1 (n ∈ N),<br />

so gilt wegen des starken Gesetzes der großen Zahlen<br />

1<br />

n S n → 0<br />

fast sicher.<br />

Damit bleibt für fast alle ω und ɛ > 0 der Pfad n ↦→ S n (ω) für schließlich alle n im Sektor, der<br />

durch Geraden ω → ±ɛω begrenzt wird.<br />

. .<br />

S n (ω)<br />

.<br />

n ↦→ ɛn<br />

.<br />

n<br />

.<br />

..<br />

n ↦→ −ɛn<br />

.<br />

Wir suchen nun das Fluktuationsverhalten der Irrfahrt S n .<br />

Der zentrale Grenzwertsatz besagt für eine solche Familie von Zufallsvariablen, dass der Pfad<br />

n ↦→ S n (ω) mit beliebig großer Wahrscheinlichkeit schließlich zwischen ω ↦→ ±ɛ √ n bleibt.<br />

Gesucht ist nun eine Folge (a n ) n∈N mir a n → ∞, so dass<br />

lim sup<br />

n→∞<br />

S n<br />

a n<br />

= α ∈ (0; ∞)<br />

fast sicher.<br />

Dies ist möglich, da in jedem Fall lim sup<br />

nach 12.11 und 12.12.<br />

n→∞<br />

S n<br />

a n<br />

eine terminale Funktion, also fast sicher konstant ist


144 KAPITEL 4. GRENZVERTEILUNGEN<br />

Die Folge (a n ) n∈N mit a n = ɛn wächst nach dem starken Gesetz zu schnell für jedes ɛ > 0.<br />

Die Folge (a n ) n∈N mit a n = ɛ √ n wächst nach dem zentralen Grenzwertsatz zu langsam für jedes<br />

ɛ > 0.<br />

Das richtiges Verhalten ist gegeben durch a n = √ 2n log log n, wobei log log n := log(log n). Das<br />

besagt der Satz vom iterierten Logarithmus 16.3.<br />

16.2 Lemma<br />

Für die Verteilungsfunktion Φ von N 0,1 und jedes x > 0 gilt:<br />

(x −1 − x −3 ) exp ( − x2<br />

2<br />

)<br />

≤<br />

√<br />

2π(1 − Φ(x)) ≤ x −1 exp ( − x2<br />

2<br />

)<br />

Beweis: Es gilt<br />

(x −1 − x −3 ) exp ( ∫<br />

) ∞<br />

− x2<br />

2 =<br />

x<br />

d<br />

dy<br />

((y −3 − y −1 ) exp ( − y2<br />

2<br />

≤ √ 2π(1 − Φ(x)) ≤ 1 x<br />

∫ ∞<br />

x<br />

) ) ∫ ∞<br />

( )<br />

dy = 1 −<br />

3<br />

y 3<br />

x } {{ }<br />

≤1<br />

y exp ( − y2<br />

2<br />

exp ( )<br />

− y2<br />

2 dy<br />

)<br />

= x −1 exp ( )<br />

− x2<br />

2 .<br />

✷<br />

16.3 Hauptsatz<br />

Für P-fast alle ω ∈ Ω ist [−σ; σ] die Menge der Häufungswerte der Folge<br />

Insbesondere ist also<br />

( Sn (ω) − E[S n ]<br />

)<br />

√ 2n log log n<br />

n∈N<br />

.<br />

lim inf<br />

n→∞<br />

lim sup<br />

n→∞<br />

S n − E[S n ]<br />

√ 2n log log n<br />

= −σ<br />

S n − E[S n ]<br />

√ 2n log log n<br />

= σ<br />

fast sicher,<br />

fast sicher.<br />

Beweis: Aufgrund eines Invarianzprinzips von Mayer (s. [GS], 10.4.16) genügt es, die Behauptung<br />

für P Xn = N 0,1 zu beweisen. Dann aber genügt der Nachweis:<br />

denn es ist<br />

und damit P[S n > 0] = 1 2 , ebenso<br />

lim sup<br />

n→∞<br />

S n − E[S n ]<br />

√ 2n log log n<br />

= 1,<br />

P −Xn = N 0,1 , P Sn = N 0,1 ∗ . . . ∗ N 0,1 = N 0,n<br />

P Sn+m −S m<br />

= P Xm+1 ∗ . . . ∗ P Xm+n = N 0,n ,<br />

also<br />

P[S m < S n+m ] = P[S m+n − S m > 0] = 1 2<br />

Sei x ∈ R und für n ∈ N, A n := {S n > x}. Definiere dann<br />

(m, n ∈ N).<br />

B 1 := A 1 ,<br />

n−1<br />

⋂<br />

B n := A n ∩ {S k ≤ x}.<br />

k=1


16. DER SATZ VOM ITERIERTEN LOGARITHMUS 145<br />

Dann ist<br />

und damit<br />

B i ∩ B j ⊆ {S i ≤ x} ∩ {S i ≥ x} = ∅ (i < j),<br />

n⊎<br />

B k = { max S k > α} ⊇ A n<br />

1≤k≤n<br />

A n =<br />

k=1<br />

n⊎<br />

B k ∩ A n , also P[A n ] =<br />

k=1<br />

Für k < n ist wegen B k ⊆ A k = {S k > x}<br />

n∑<br />

P[B j ∩ A n ].<br />

j=1<br />

B k ∩ {S n > S k } ⊆ B k ∩ {S n > x} = B k ∩ A n .<br />

Wegen der Unabhängigkeit der Familie (X n ) n∈N folgt<br />

1<br />

2 P[B k] = P[S n > S k ]P[B k ] = P[B k ∩ {S n > S k }] ≤ P[B k ∩ A n ],<br />

[ n<br />

1<br />

2P[ max S k > x] = 1<br />

1≤l≤n<br />

2 P ⊎ ] n∑<br />

n−1<br />

∑<br />

B k = 1 2<br />

P[B k ] ≤ P[B k ∩ A n ] + P[B n ] = P[A n ]<br />

k=1<br />

k=1<br />

k=1<br />

[ ] [<br />

S<br />

= P[S n > x] = P √n n<br />

> √ x<br />

x<br />

n<br />

= 1 − Φ √ n<br />

],<br />

da P Sn √n<br />

= N 0,1 . Somit haben wir<br />

gezeigt. Sei nun<br />

Damit ist Ψ ≥ 0, isoton.<br />

Für α > 0 und n ∈ N definieren wir<br />

(<br />

P[ max S k > x] ≤ 2 1 − Φ ( x ) ) √n (x ∈ R, n ∈ N) (∗)<br />

1≤l≤n<br />

Ψ : x ↦→<br />

Ist α ′ ≤ α, so gilt also A α n ⊆ A α′<br />

n<br />

{<br />

S<br />

}<br />

n<br />

lim sup<br />

n→∞ σ n Ψ(n) > α<br />

Es genügt zu zeigen:<br />

1. P[A α ] = 0 (α > 1)<br />

2. P[A α ] = 1 (α < 1)<br />

{ √2 log log x, x ≥ 3<br />

Ψ(3), x < 3.<br />

A α n := {S n > α √ nΨ(n)}.<br />

(n ∈ N) und es ist<br />

= A α := lim sup<br />

=<br />

{<br />

lim sup<br />

n→∞<br />

n→∞<br />

Dann ist nämlich<br />

[<br />

S<br />

] [<br />

n<br />

P lim sup √ = 1 = P lim sup<br />

n→∞ 2n log log n n→∞<br />

[ ⋂<br />

∞<br />

= P<br />

k=1<br />

A α n ⊆ A α′<br />

n<br />

S n<br />

σ n Ψ(n) > α′} .<br />

A 1−<br />

1<br />

k<br />

S<br />

]<br />

n<br />

σ n Ψ(n) ≥ 1<br />

]<br />

− P<br />

[ ∞ ⋃<br />

k=1<br />

⊆ lim sup A α′<br />

n =: A α′<br />

n→∞<br />

[<br />

− P lim sup<br />

n→∞<br />

]<br />

A 1+<br />

1<br />

k<br />

= 1 − 0 = 1.<br />

S<br />

]<br />

n<br />

σ n Ψ(n) > 1


146 KAPITEL 4. GRENZVERTEILUNGEN<br />

1. Sei α > 1 und n j := [α j ] (j ∈ N) Dann ist (n j ) j∈N schließlich streng isoton und nj+1<br />

n j<br />

→ α für<br />

j → ∞, also nj+1<br />

n j<br />

< α 3/2 für schließlich alle j. Damit gilt für schließlich alle j ∈ N, da Ψ isoton<br />

ist<br />

P [<br />

max S n > α √ nΨ(n) ] ≤ P [<br />

max S n > α √ n j Ψ(n j ) ]<br />

n j α √ nΨ(n) ] ≤ c 1 (log α) −√ α<br />

(j − 1) −√α = c 2 (j − 1) −√α .<br />

n j 1 konvergiert die allgemeine harmonische Reihe<br />

dem Borel-Cantelli-Lemma 12.9<br />

[ ⋂<br />

∞ ∞⋃<br />

P[A α ] = P {S n > α √ ] [ ⋂<br />

∞<br />

nΨ(n)} ≤ P<br />

m=1 n=m<br />

2. Sei α < 1. Dann gibt es ein n ∈ N, so dass<br />

α + 2 √ n<br />

<<br />

m=1 n=m<br />

∞∑<br />

(j − 1) −√α . Deshalb folgt mit<br />

j=1<br />

√<br />

n−1<br />

n , also α√ n + 2 < √ n − 1.<br />

∞⋃<br />

{ max S n > α √ ]<br />

nΨ(n)} = 0.<br />

n j 2 √ nΨ(n)} ] = 0.<br />

n→∞<br />

n→∞<br />

P[A α ] = P [ lim sup{S n > α √ nΨ(n)} ] ≥ P [ lim sup{S n k > α √ n k Ψ(n k )} ]<br />

n→∞<br />

k→∞<br />

[ [<br />

≥ P lim sup {Zk + S n k−1 > α √ n k Ψ(n k ) ∩ {S n k−1 ≥ −2 √ n k−1 Ψ(n k−1 )} ]]<br />

k→∞<br />

[ [<br />

≥ P {lim sup Zk − 2 √ n k−1 Ψ(n k−1 ) > α √ n k Ψ(n k )} ∩ {S n k−1 ≥ −2 √ n k−1 Ψ(n k−1 )} ]]<br />

k→∞<br />

[ [<br />

≥ P lim sup {Zk − 2 √ n k−1 Ψ(n k−1 ) > α √ n k Ψ(n k )} ] ∩<br />

k→∞<br />

[<br />

lim inf {Sn k−1 ≥ −2 √ n k−1 Ψ(n k−1 )} ]] ,<br />

k→∞


16. DER SATZ VOM ITERIERTEN LOGARITHMUS 147<br />

da<br />

und<br />

P [ lim inf<br />

k→∞ {S n k−1 ≥ −2√ n k−1 Ψ(n k−1 )} ] = 1<br />

lim sup<br />

n→∞<br />

für Folgen (B n ) n∈N und (C n ) n∈N . Also gilt<br />

(B n ∩ C n ) ⊇ lim sup<br />

n→∞<br />

B n ∩ lim inf<br />

n→∞ C n<br />

P[A α ] ≥ P [ lim sup{Z k > α √ n k Ψ(n k ) + 2 √ n k−1 Ψ(n k−1 )} ]<br />

k→∞<br />

≥ P [ lim sup{Z k > (α √ n + 2) √ n k−1 Ψ(n k )} ]<br />

k→∞<br />

≥ P [ lim sup{Z k > √ n − 1 √ n k−1 Ψ(n k )} ]<br />

k→∞<br />

= P [ lim sup{Z k > √ n k − n k−1 Ψ(n k )} ]<br />

k→∞<br />

Nach dem Borel-Cantelli-Lemma 12.9 genügt es wegen der Unabhängigkeit der (Z k ) k∈N , die<br />

folgende Behauptung zu zeigen.<br />

Beh:<br />

∞∑<br />

k=1<br />

[<br />

P<br />

Z k<br />

√<br />

nk − n k−1<br />

} {{ }<br />

N 0,1−verteilt<br />

]<br />

> Ψ(n k ) =<br />

∞∑<br />

[1 − Φ(Ψ(n k ))] = ∞.<br />

Für schließlich alle k ist x := Ψ(n k ) ≥ √ 2, also x 2 ≥ 2 und auch x 3 ≥ 2x. Damit ist 1<br />

2x ≥ 1 x 3<br />

und 1<br />

2x ≤ 1 x − 1 x 3 . Nach 16.2 ist damit<br />

k=1<br />

1 − Φ(Ψ(n k 1 1<br />

)) ≥ √<br />

2Ψ(n k exp ( − 1<br />

) 2π<br />

2 Ψ2 (n k ) ) = 1<br />

2 √ 2π<br />

= 1<br />

4 √ 1 1<br />

√ .<br />

π k log n log(k log n)<br />

1<br />

√<br />

2 log log n<br />

k<br />

1<br />

log n k<br />

Der Cauchy’schem Verdichtungssatz besagt für eine Folge antitone Folge (α n ) n∈N mit α n → 0<br />

Da Ψ isoton ist und<br />

∞∑<br />

k=1<br />

∞∑<br />

α k < ∞<br />

k=1<br />

⇐⇒<br />

2 k<br />

∞<br />

2 k log n √ log(2 k log n) = ∑<br />

≥<br />

k=1<br />

k=1<br />

∞∑<br />

2 k α 2 k ≤ ∞.<br />

k=1<br />

1<br />

log n √ k log 2 + log log n<br />

∞∑ 1 1<br />

√ √k = c 3<br />

log n 2 log 2<br />

} {{ }<br />

=:c 3<br />

1<br />

∞ ∑<br />

k=1<br />

1<br />

√<br />

k<br />

= ∞,<br />

da log log n ≤ k log 2 für schließlich alle k, gilt mit dem Cauchyschen Verdichtungssatz die obige<br />

Behauptung.<br />

16.4 Bemerkung<br />

1. Das vorangehende Resultat stammt von Hartmann und Wintner (1941). Eine frühere Version<br />

stammt von Klintchine (1927) im Spezialfall des Münzwurfs. Kolmogoroff bewies diesen Satz<br />

1929 für geeignete, beschränkte (X n )). Der obige Beweis stammt von Hartmann, Wintner und<br />

Strasser (siehe [BW], S. 288 ff.)<br />


148 KAPITEL 4. GRENZVERTEILUNGEN<br />

2. Das obige Gesetz des iterierten Logarithmus für unabhängige, identisch verteilte Zufallsvariable<br />

verschärft das starke Gesetz für diese Zufallsvariable. Für ɛ > 0 gilt nämlich<br />

für schließlich alle n fast sicher. Daraus folgt<br />

S n − E[S n ] < (1 + ɛ)σ √ 2n log log n<br />

Also gilt<br />

S n − E[S n ]<br />

n<br />

√<br />

2 log log n<br />

≤ (1 + ɛ)σ<br />

→ 0.<br />

n<br />

lim sup<br />

n→∞<br />

S n − E[S n ]<br />

n<br />

≤ 0 fast sicher.<br />

Geht man nun <strong>zur</strong> Familie (−X n ) n∈N über, so erhält man<br />

lim inf<br />

n→∞<br />

S n − E[S n ]<br />

n<br />

≥ 0 fast sicher.<br />

Insgesamt erhält man also das starke Gesetz der großen Zahlen<br />

S n − E[S n ]<br />

lim<br />

= 0 fast sicher.<br />

n→∞ n


Kapitel 5<br />

Stochastische Prozesse<br />

Ziel dieses Kapitels ist die Modellierung zeitabhängiger, zufälliger Vorgänge. Beispiele sind:<br />

1. Brown’sche Bewegung: Modell für die Bewegung eines Teilchens in einem Gas oder einer Flüssigkeit,<br />

entdeckt 1828 von Robert Brown, einem schottischen Botaniker,<br />

2. Aktienkurse: erstmals modelliert 1900 von Louis Bachelier.<br />

Dabei betrachten wir eine Familie von Zufallsvariablen (X t ) t∈I , wobei X t den Zustand des Systems<br />

<strong>zur</strong> Zeit t beschreibt Betrachtet wird dabei die kontinuierliche Zeit anstatt einer Folge von<br />

Zufallsvariablen.<br />

17 Konstruktion stochastischer Prozesse<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum, (E, B) ein Messraum und ≠ ∅ eine beliebige<br />

Indexmenge.<br />

17.1 Definition und Bemerkung<br />

1. Ein stochastischer Prozess mit Zustandsraum E und Parameter- oder Zeitmenge I heißt jede<br />

Familie (X t ) t∈I von Zufallsvariablen<br />

Wir schreiben auch (Ω, A, P, (X t ) t∈I , E, B).<br />

X t : Ω −→ E.<br />

2. Für ω ∈ Ω heißt<br />

X I (ω) :<br />

{<br />

I<br />

t<br />

→ E<br />

↦→ X t (ω)<br />

Pfad, Trajektorie, Realisierung oder möglicher Verlauf von ω und<br />

Pfadmenge.<br />

X I (Ω) = {X I (ω) : ω ∈ Ω} ⊆ E I<br />

3. Typischerweise ist<br />

I = R + , N, Z, R, [a, b].<br />

Außerdem ist (E, B) typischerweise polnisch mit B = B(E), z.B.<br />

E = R d , {−1, 1}, [α, β], {0, . . . , n}.<br />

149


150 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

17.2 Bezeichnungen und Bemerkung<br />

Sei (Ω, A, P, (X t ) t∈I , E, B) ein stochastischer Prozess und ∅ ≠ J ⊆ I.<br />

1. Definiere<br />

(E J , B J ) := ⊗ ( ∏<br />

j , B j ) := E, B J =<br />

j∈J(E ⊗ j∈J<br />

j∈J<br />

)<br />

B .<br />

2. Wir bezeichnen mit<br />

X J := ⊗ t∈J<br />

X t = (X t ) t∈J : Ω −→ E J<br />

die A − B J -messbare Produkt-Zufallsvariable.<br />

3. Sei wie in Paragraph 9<br />

π J : E I −→ E J<br />

die kanonische Projektion und π t := π {t} . Damit ist X J = π J ◦ X I .<br />

4. Die endlich dimensionalen Rand- oder Marginalverteilungen P J := X J (P) von (X t ) t∈I sind<br />

Wahrscheinlichkeitsmaße auf (E J , B J ) und P I = X I (P) ist die gemeinsame Verteilung des<br />

Prozesses. Ist J = {t 1 , . . . , t n } ⊂⊂ I, so ist P J bestimmt durch Werte auf Quadern B 1 × . . . ×<br />

B n ∈ B J mittels<br />

P J [B 1 × . . . × B n ] = P [ {X t1 ∈ B 1 } ∩ . . . ∩ {X tn ∈ B n } ] =: P [ X t1 ∈ B 1 , . . . , X tn ∈ B n<br />

]<br />

.<br />

Die Familie (P J ) J⊂⊂I = (X J (P)) J⊂⊂I ist die Familie der endlich-dimensionalen Rand- oder<br />

Marginalverteilungen des Prozesses (X t ) t∈I . Offenbar ist diese durch die gemeinsame Verteilung<br />

P I = X I (P) bestimmt, da<br />

P J = X J (P) = (π J ◦ X I )(P) = π J (P I ).<br />

Also ist (P J ) J⊂⊂I eine projektive Familie von Wahrscheinlichkeitsmaßen über (E, B). Wie<br />

der nächste Satz lehrt, existiert für diese projektive Familie ihr projektiver Limes, der die<br />

gemeinsame Verteilung P I ist.<br />

17.3 Satz<br />

Sei (Ω, A, P, (X t ) t∈I , E, B) ein stochastischer Prozess. Die endlich-dimensionalen Randverteilungen<br />

von (X t ) t∈I bilden eine projektive Familie von Wahrscheinlichkeitsmaßen über (E I , B I ) und<br />

die gemeinsame Verteilung des Prozesses ist ihr projektiver Limes.<br />

Beweis: Siehe 10.4.<br />

17.4 Definition<br />

1. Zwei Prozesse (Ω, A, P, (X t ) t∈I , E, B) und (Ω ′ , A ′ , P ′ , (Y t ) t∈I , E, B) mit gleicher Indexmenge I<br />

und gleichem Zustandsraum (E, B), aber eventuell verschiedenem Grundräumen heißen äquivalent<br />

oder Versionen, wenn gilt:<br />

X J (P) = Y J (P ′ )<br />

(J ⊂⊂ I).<br />

2. Sind (Ω, A, P, (X t ) t∈I , E, B) und (Ω, A, P, (Y t ) t∈I , E, B) außerdem auf demselben Wahrscheinlichkeitsraum<br />

definiert und gilt<br />

P[X t = Y t ] = 1<br />

(t ∈ I),<br />

und (Y t ) t∈I äquiva-<br />

so heißt (Y t ) t∈I eine Modifikation von (X t ) t∈I . Insbesondere sind (X t ) t∈I<br />

lent.


17. KONSTRUKTION STOCHASTISCHER PROZESSE 151<br />

3. Gilt für (Ω, A, P, (X t ) t∈I , E, B) und (Ω, A, P, (Y t ) t∈I , E, B)<br />

P[(X t ) t∈J = (Y t ) t∈J ] = 1<br />

(J ⊂⊂ I),<br />

so heißen die beiden Prozesse ununterscheidbar. Insbesondere sind (X t ) t∈I und (Y t ) t∈I Modifikationen.<br />

17.5 Satz<br />

Ist (P J ) J⊂⊂I eine projektive Familie von Wahrscheinlichkeitsmaßen über (E, B) und existiert<br />

der projektive Limes P = P J , so hat der Koordinatenprozess<br />

lim ←−<br />

J ⊂⊂ I<br />

(E I , B I , lim ←−<br />

P J , (π t ) t∈I , E, B)<br />

J ⊂⊂ I<br />

die endlich-dimensionalen Randverteilungen (P J ) J⊂⊂I .<br />

Insbesondere existiert zu jedem Prozess (Ω, A, P, (X t ) t∈I , E, B) ein äquivalenter Koordinatenprozess<br />

(E I , B I , VertX I , (π t ) t∈I , E, B)<br />

Beweis: Definitionsgemäß ist nach 10.4<br />

π J ( lim ←−<br />

P J ) = P J .<br />

J ⊂⊂ I<br />

Damit ist<br />

also ist (π t ) t∈I eine Version von (X t ) t∈I .<br />

π J (P) = π J (VertX I ) = (π J ◦ X I )(P) = X J (P),<br />

✷<br />

17.6 Korollar<br />

Ist (P J ) J⊂⊂I eine projektive Familie von Wahrscheinlichkeitsmaßen auf einem polnischen Raum<br />

(E, B), so existiert der projektive Limes P J und der Koordinatenprozess<br />

lim ←−<br />

J ⊂⊂ I<br />

(E I , B I , lim ←−<br />

P J , (π t ) t∈I , E, B)<br />

J ⊂⊂ I<br />

hat die endlich-dimensionalen Randverteilungen (P J ) J⊂⊂I .<br />

Beweis: Folgt aus 10.7.<br />

✷<br />

17.7 Beispiel<br />

Äquivalente Prozesse können sehr unterscheidliche Pfadmengen haben. Dies illustrieren folgende<br />

Beispiele:<br />

1. Sei (X t ) t∈I ein stochastischer Prozess mit polnischem Zustandsraum E und (π t ) t∈I der äquivalente<br />

Koordinatenprozess. Für die Pfadmenge der beiden Prozesse gilt jedoch im Allgemeinen<br />

da π I = id EI .<br />

X I (Ω) E I und π I (E I ) = E I ,<br />

2. Sei (Ω, A, P) = (R, B(R), N 0,1 ), E = R + und I = R + . Definiere<br />

X t : ω ↦→ 0, Y t : ω ↦→ 1 {t} (ω) = 1 {ω} (t) (t ∈ I).


152 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

Dann ist<br />

X I (Ω) = {0},<br />

Y I (Ω) = {1 {ω} : ω ∈ Ω},<br />

d.h. die Pfadmengen von (X t ) t∈I und Y t sind sehr verschieden. Jedoch sind (X t ) t∈I und (Y t ) t∈I<br />

ununterscheidbar, denn<br />

N 0,1 [(X t ) t∈J = (Y t ) t∈J ] = 1<br />

(J ⊂⊂ I).<br />

Die Frage, die sich stellt, ist die, ob es zu C ⊆ E I einem Prozess einen äquivalenten Prozess (X t ) t∈I<br />

mit Pfaden in C gibt. Beispielsweise ist C = C(I, E).<br />

17.8 Hauptsatz (Doob)<br />

Für jeden stochastischen Prozess (Ω, A, P, (X t ) t∈I , E, B) und jede Menge C ⊆ E I sind äquivalent<br />

1. Es gibt einen zu (X t ) t∈I äquivalenten Prozess (Y t ) t∈I mit Y I (Ω) = C.<br />

2. Für die gemeinsame Verteilung P I des Prozesses (X t ) t∈I ist C wesentlich, d.h. es gilt:<br />

Dabei heißt das Maß<br />

P ∗ I : A →<br />

P ∗ I<br />

[C] := inf P I [B] = 1.<br />

B∈B I<br />

B⊇C<br />

inf P I [B] (A ∈ E I )<br />

B∈B I<br />

B⊇A<br />

äußeres Maß von P I .<br />

Man kann dann den äquivalenten Prozess sogar als C-kanonischen Prozess<br />

(C, C ∩ B I , P ∗ I | C∩B I<br />

, (π t | C ) t∈I , E, B),<br />

d.h. als kanonischen Koorinatenprozess mit Pfadmenge C wählen.<br />

Beweis:<br />

“1. ⇒ 2.”: Sei P I die gemeinsame Verteilung des Prozesses und damit jedes äquivalenten Prozesses,<br />

also ist Œ X t : Ω → E mit X I (Ω) ⊆ C.<br />

Sei B ∈ B I mit B ⊇ C. Dann ist<br />

Ω = X −1<br />

I<br />

(C) ⊆ X −1<br />

I<br />

(B) ⊆ Ω,<br />

also X −1<br />

I<br />

(B) = Ω und damit P I [B] = P[X −1<br />

I<br />

(B)] = P[Ω] = 1. Also ist durch die<br />

Definition des äußeren Maßes P ∗ I<br />

[C] = 1.<br />

“2. ⇒ 1.”: Sei C wesentlich bezüglich P I . Definiere<br />

{<br />

C ∩ B I → [0; 1]<br />

P :<br />

C ∩ B ↦→ P I [B].<br />

Beh: P ist ein wohldefiniertes Maß mit P = P ∗ I | C∩B I<br />

.<br />

Denn:<br />

1. Beh.: P ist wohldefiniert.<br />

Denn: Für B 1 , B 2 ∈ B I mit C ∩ B 1 = C ∩ B 2 gilt<br />

C ∩ B i = C ∩ B 1 ∩ B 2 (i = 1, 2).


17. KONSTRUKTION STOCHASTISCHER PROZESSE 153<br />

Damit ist<br />

C = (C ∩ B 1 ) ∪ (C ∩ CB 1 ) = (C ∩ B 2 ) ∪ (C ∩ CB 1 ) = C ∩ (B 2 ∪ CB 1 )<br />

= C ∩ C(B 1 \ B 2 ) ⊆ C(B 1 \ B 2 ) = C(B 1 \ (B 1 ∩ B 2 ))<br />

und analog C ⊆ C(B 2 \ (B 1 ∩ B 2 )). Da P ∗ I<br />

[C] = 1, ist<br />

P I [B i \ (B 1 ∩ B 2 )] = 1 − P I [C(B i \ (B 1 ∩ B 2 ))] = 0,<br />

d.h.<br />

P[C ∩ B 1 ] = P I [B 1 ] = P I [B 1 ∩ B 2 ] = P I [B 2 ] = P[C ∩ B 2 ].<br />

2. Beh.: P = P ∗ I | C∩B I<br />

.<br />

Denn: Seien B, D ∈ B I mit C ∩ B ⊆ D. Damit ist C ∩ B = C ∩ B ∩ D, also<br />

Daraus folgt für B ∈ B I<br />

P ∗ I [C ∩ B] ≤ P I[B] = P[C ∩ B] =<br />

≤<br />

P[B] = P[B ∩ D].<br />

inf P I [D] = P ∗ D∈B I<br />

[C ∩ B].<br />

I<br />

D⊇C∩B<br />

inf P[C ∩ B ∩ D] = inf P I [B ∩ D]<br />

D∈B I<br />

D∈B I<br />

D⊇C∩B<br />

D⊇C∩B<br />

3. Beh.: P ist ein Inhalt.<br />

Denn: Für die Additivität seien B 1 , B 2 ∈ B I mit (C ∩ B 1 ) ∩ (C ∩ B 2 ) = ∅ Dann ist<br />

C ⊆ C(B 1 ∩ B 2 ) und damit P I [B 1 ∩ B 2 ] = 0. Also ist<br />

.<br />

P[(C ∩ B 1 ) ⊎ (C ∩ B 2 )] = P I [B 1 ∪ B 2 ] = P I [B 1 ] + P I [B 2 ] = P[C ∩ B 1 ] + P[C ∩ B 2 ]<br />

4. Beh.: P[C] = 1. Klar nach Voraussetzung.<br />

5. Beh.: P ist stetig von oben in ∅.<br />

Denn: Sei dazu (B n ) n∈N ∈ (B I ) N mit C ∩ B n ↓ ∅. Zu zeigen ist inf<br />

n∈N P I[B n ] = 0. Œ ist<br />

(B n ) n∈N eine fallende Folge, da<br />

[<br />

inf P I[B n ] = inf P[C ∩ B n] = inf P C ∩<br />

n∈N n∈N n∈N<br />

n=1<br />

n⋂<br />

i=1<br />

∞⋂<br />

∞⋂<br />

Ist dann C ∩ B n = ∅, so ist C ⊆ C B n und damit<br />

n=1<br />

inf P I [B n ] = P I<br />

[ ∞ ⋂<br />

n=1<br />

]<br />

B n ≤ P ∗ I<br />

[CC] = 0.<br />

] [<br />

B i = inf P ⋂<br />

n<br />

I B i<br />

].<br />

n∈N<br />

i=1<br />

Sei Y t := π t | C . Dann ist (Y t ) t∈I zu (X t ) t∈I äquivalent: Für J ⊂⊂ I sei P J = VertX J<br />

und damit für B ∈ B I<br />

Y J (P)[B] = P[Y −1 (B)] = P[C ∩ π−1 (B)] = P I[π −1 (B)] = (π J(P J ))[B] = P J [B],<br />

J<br />

J<br />

J<br />

d.h. P YJ<br />

= P J . Ferner ist<br />

Y I (ω) = π I (ω) = ω<br />

(ω ∈ C),<br />

d.h. Y I (Ω) = C, d.h. (Y t ) t∈I ist der C-kanonische Prozess.<br />


154 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

17.9 Korollar<br />

Zu jeder Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen über einen polnischen Raum E und jeder<br />

bzgl. des projektiven Limes P I := P J wesentlichen Menge C ⊆ E I ist der C-kanonische<br />

lim ←−<br />

J ⊂⊂ I<br />

Prozess der einzige Koordinatenprozess mit Pfadmenge C, dessen endlich-dimensionalen Randverteilungen<br />

die (P J ) J⊂⊂I sind<br />

Beweis: Wegen 17.6 und 17.8 ist nur zu zeigen:<br />

Beh: Für einen C-kanonischen Prozess<br />

(C, C ∩ B I , P ∗ I | C∩B I<br />

, (Y t ) t∈I = (π t | C ) t∈I , E)<br />

und jedes Wahrscheinlichkeitsmaß Q auf C ∩ B I mit Y J (Q) = P J (J ⊂⊂ I) ist Q = P ∗ I | C∩B I<br />

.<br />

Sei dazu<br />

{<br />

E := ( ∏<br />

}<br />

B J ) : B j ∈ B, J ⊂⊂ I .<br />

Y −1<br />

J<br />

Dann ist E ein ∩-stabiler Erzeuger von C ∩ B I , denn für J, J ′ ⊂⊂ I und B j ⊆ B<br />

Y −1 ( ∏ ) (<br />

J<br />

B j ∩ Y<br />

−1<br />

∏ ) (<br />

J<br />

B ′<br />

j<br />

′ = Y<br />

−1<br />

∏ )<br />

J∪J<br />

A ′ j ∩ A ′ j<br />

j∈J<br />

j ′ ∈J ′ j∈J∪J ′<br />

j∈J<br />

(j ∈ J ∪ J ′ ) ist<br />

mit<br />

A j = B j (j ∈ J),<br />

A j = E (j /∈ J),<br />

A ′ j = B j (j ∈ J ′ ), A ′ j = E (j /∈ J ′ ).<br />

Damit ist für P := P ∗ I | C<br />

P [ Y −1<br />

J<br />

( ∏ )] [ ∏<br />

B j = PJ<br />

j∈J<br />

j∈J<br />

]<br />

B j = Q[Y<br />

−1<br />

J<br />

( ∏ B j )]<br />

j∈J<br />

und damit P = Q.<br />

✷<br />

17.10 Bemerkungen<br />

1. Sei E ein nicht einpunktiger Hausdorff-Raum und I ein nicht ausgeartetes Intervall in R.<br />

Dann gibt es keine σ-Algebra B auf E, so dass C(I, E) ⊆ B I . Andernfalls existiert nach 9.5 ein<br />

J ⊂⊂ I abzählbar und ein B ∈ B J mit C(I, E) = π −1<br />

J<br />

(B). Sei nun ω 0 ∈ C(I, E), t 0 ∈ I \ J und<br />

x 0 ∈ E \ {ω 0 (t 0 )}. Definiere<br />

{<br />

ω 0 (t) falls t ≠ t 0<br />

ω : t ↦→<br />

x 0 falls t = t 0 .<br />

Damit ist ω /∈ C(I, E), aber andererseits<br />

π J (ω) = (ω(t)) t∈J = π J (ω 0 ) ∈ B,<br />

also ω ∈ π −1 (B) = C(I, E). Das ist ein Widerspruch.<br />

J<br />

2. Ist insbesondere (E, B(E)) polnisch, ω ∈ C(I, E) und<br />

P J := ⊗ t∈I<br />

ɛ ω(t)<br />

(J ⊂⊂ I).<br />

Dann ist<br />

P I =<br />

also P I ∗ (C) = 1, also ist C(I, E) wesentlich.<br />

lim ←−<br />

P J = ⊗ ɛ ω(t) ,<br />

J ⊂⊂ I t∈I<br />

Dies zeigt, dass man in 17.8 wirklich mit dem äußeren Maß arbeiten muss.


17. KONSTRUKTION STOCHASTISCHER PROZESSE 155<br />

3. Dennoch ist die Spur-σ-Algebra in 17.8 sehr natürlich. Ist (E, d) polnisch und I ⊆ R ein<br />

Intervall. Dann ist C(I, E) bezüglich der kompakten, d.h. lokal gleichmäßigen Konvergenz ein<br />

polnischer Raum (siehe z.B. [BM], 31.6.). Die zugehörige Metrik definiert man mittels einer<br />

Folge [a n , b n ] ↑ I von Intervallen und<br />

Dann ist<br />

ρ n (ω, ω ′ ) :=<br />

sup d(ω(t), ω ′ (t))<br />

a n≤t≤b n<br />

ρ(ω, ω ′ ) =<br />

∞∑<br />

n=1<br />

inf( 1<br />

2 n , ρ n (ω, ω 0 ))<br />

(ω, ω ′ ∈ C(I, E)).<br />

die Metrik der kompakten Konvergenz. Bzgl. dieser Metrik ist C(I, E) vollständig und es gibt<br />

eine abzählbare dichte Teilmenge.<br />

Beh: Es gilt C(E, I) ∩ B(E) I = B(C(I; E)). Insbesondere sind Wahrscheinlichkeitsmaße auf<br />

C(I, E) Radon-Maße.<br />

Denn:<br />

“⊆”: Die Menge C(I, E) ∩ B I ist eine σ-Algebra und wird erzeugt von<br />

Y t := π t | C : ω ↦→ ω(t) ∈ E<br />

(t ∈ I).<br />

Jedes Y t ist stetig (bzgl. ρ) auf C(I, E), sogar bzgl. der gröberen punktweisen Konvergenz<br />

Deshalb ist C(I, E) ∩ B I ⊆ B(C(I; E)).<br />

“⊇”: Die σ-Algebra B(C) wird erzeugt von den Mengen<br />

17.11 Korollar<br />

{ω ∈ C(I, E) : ρ n (ω, ω ′ ) ≤ ɛ} = {ω ∈ C(I, E) : d(ω(t)), ω ′ (t)) ≤ ɛ (t ∈ [a n , b n ] ∩ Q)}<br />

⋂<br />

= Yt −1 ({d(Y t (ω), Y t (ω ′ ))}) ∈ C(I, E) ∩ B I .<br />

Also ist B(C(I, E)) ⊆ C(I; E) ∩ B I .<br />

t∈[a n,b n]∩Q<br />

Sei I ⊆ R. Besitzt ein Prozess (X t ) t∈I mit polnischem Zustandsraum E eine stetige Modifikation,<br />

d.h. eine Modifikation mit stetigen Pfaden, so ist C(I, E) wesentlich bzgl. der gemeinsamen Verteilung<br />

VertX I , insbesondere ist (X t ) t∈I äquivalent zu dem C(I, E)-kanonischen Prozess.<br />

Beweis: Ist (Y t ) t∈I eine Modifikation mit stetigen Pfaden, so ist Vert(Y t ) t∈I = Vert(X t ) t∈I ,<br />

also folgt die Behauptung nach 17.8.<br />

✷<br />

17.12 Hauptsatz (Kolmogoroff-Chentsov)<br />

Sei I ⊆ R ein reelles Zeitintervall und (X t ) t∈I ein stochastischer Prozess auf einem Wahrscheinlichkeitsraum<br />

(Ω, A, P) und R d als Zustandsraum, zu dem Konstanten α, β, c > 0 existieren<br />

mit<br />

E[||X t − X s || α ] ≤ c|t − s| 1+β (s, t ∈ I) (∗)<br />

Dann existiert eine stetige Modifikation (Y t ) t∈I von (X t ) t∈I , die sogar lokal Hölder-stetig ist<br />

mit beliebigem Exponenten γ ∈ (0; β α<br />

), d.h. es gibt ein δ = δ(γ) mit<br />

∀ω ∈ Ω ∀s ∈ I ∃ɛ = ɛ(s, ω) > 0 : |s − t| < ɛ ⇒ ||Y t (ω) − Y s (ω)|| ≤ δ||t − s|| γ<br />

Beweis:


156 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

1. Œ kann I = [0; 1] angenommen werden. Dann nämlich gilt die Behauptung für jedes kompakte<br />

Intervall. Sei [a n ; b n ] ↑ I und (Y (n)<br />

t ) t∈[an;b n] eine lokal Hölder-stetige Modifikation von<br />

(X t ) t∈[an;b n]. Dann gibt es eine Nullmenge Ω n ∈ A mit<br />

Definiere die Nullmenge Ω 0 :=<br />

Damit ist<br />

da t ↦→ Y (n)<br />

t<br />

Y (n)<br />

t (ω) = X t (ω) (ω /∈ Ω n , t ∈ [a n ; b n ] ∩ Q).<br />

∞⋃<br />

Ω n . Dann ist für m ≥ n<br />

n=1<br />

Y (n)<br />

t (ω) = X t (ω) = Y (m)<br />

t (ω) (ω /∈ Ω 0 , t ∈ [a n , b n ] ∩ Q).<br />

Y (n)<br />

t (ω) = Y (m)<br />

t (ω) (ω /∈ Ω 0 , t ∈ [a n ; b n ]),<br />

(ω) bzw. t ↦→ Y (m)<br />

t (ω) stetig ist. Damit sind die Zufallsvariablen<br />

Y t : ω ↦→<br />

{<br />

Y (n)<br />

t (ω), ω /∈ Ω 0 , t ∈ [a n , b n ]<br />

0, ω ∈ Ω 0 , t ∈ I<br />

wohldefiniert. (Y t ) t∈I ist ein Prozess mit stetigen Pfaden, sogar lokal Hölder-stetig wie angegeben<br />

Offenbar ist (Y t ) t∈I eine Modifikation von (X t ) t∈I .<br />

2. Sei also I = [0; 1]. Wir zeigen schärfer, dass es in diesem Fall ɛ = ɛ(s, ω) unabhängig von s<br />

gewählt werden kann. Für n ∈ N sei<br />

D n = {k · 2 −n : 0 ≤ k < 2 n , k ∈ N}, D :=<br />

die Menge aller dyadischen Zahlen in I. Aus der Tschebyscheff-Markoff’schen Ungleichung folgt<br />

für s, t ∈ I und alle Komponenten i = 1, . . . , d<br />

P[|π i ◦ X t − π i ◦ X s | ≥ ɛ] ≤ P[||X t − X s || ≥ ɛ] ≤ ɛ −α E[||X t − X s || α ] (∗)<br />

≤ cɛ −α ||t − s|| 1−β .<br />

Insbesondere konvergiert π i ◦ X s → π i ◦ X t stochastisch für s → t. Für 0 < γ < β α , n ∈ N und<br />

1 ≤ k ≤ 2 n gilt<br />

P[||X k2 −n − X (k−1)2 −n|| ≥ 2 −γn ] ≤ P[ max<br />

} {{ }<br />

||X 1≤k≤2 n k2 −n − X (k−1)2−n|| ≥ 2−γn<br />

} {{ }<br />

=:B nk<br />

[ 2<br />

n<br />

⋃<br />

= P<br />

k=1<br />

B nk<br />

]<br />

≤<br />

= c2 −n(β−αγ) .<br />

2 n ∑<br />

k=1<br />

∞⋃<br />

n=1<br />

D n<br />

=:A n<br />

]<br />

P[B nk ] ≤ 2 n c2 γnα 2 −n(1−β)<br />

Diese Reihe ist summierbar, für Ω 1 := C lim sup n→∞ A n gilt also P[Ω 1 ] = 1 nach 12.9. Also<br />

gibt es für ω ∈ Ω ein n 1 (ω) ∈ N, so dass für n ≥ n 1 (ω)<br />

max ||X<br />

1≤k≤2 n k2 −n(ω) − X (k−1)2−n(ω)|| < 2−γn<br />

(∗∗)<br />

3. Sei nun ω ∈ Ω 1 , n ∈ N mit n ≥ n q (ω). Wir zeigen durch Induktion nach m:<br />

m∑<br />

∀m ≥ n ∀s, t ∈ D m mit 0 < t − s < 2 −n gilt ||X t (ω) − X s (ω)|| ≤ 2 2 −γj (∗ ∗ ∗)<br />

j=n+1


17. KONSTRUKTION STOCHASTISCHER PROZESSE 157<br />

Für den Induktionsanfang m = n+1 sei k ∈ {1, . . . , 2 m } mit t = k2 −m . Dann ist s = (k−1)2 −m<br />

und (∗ ∗ ∗) folgt aus (∗∗).<br />

Für den Indunktionsschluss m → m + 1 sei s, t ∈ D m+1 und<br />

s 1 := min{s ′ ∈ D m : s ′ ≥ s},<br />

t 1 := max{t ′ ∈ D m : t ′ ≤ t}.<br />

Dann ist s ≤ s 1 ≤ t 1 ≤ t und s 1 − s ≤ 2 −(m+1) < 2 −n bzw. t − t 1 ≤ 2 −(m+1) < 2 −n . Mit (∗∗)<br />

folgt dann<br />

||X s1 (ω) − X s (ω)|| ≤ 2 −γ(m+1) , ||X t (ω) − X t1 (ω)|| ≤ 2 −γ(m+1) .<br />

Nach Induktionsannahme gilt<br />

also<br />

||X t1 (ω) − X s1 (ω)|| ≤ 2<br />

m∑<br />

j=n+1<br />

2 −γj ,<br />

||X t (ω) − X s (ω)|| ≤ ||X t (ω) − X t1 (ω)|| + ||X t1 (ω) − X s1 (ω)|| + ||X s1 (ω) − X s (ω)||<br />

m∑<br />

m+1<br />

∑<br />

≤ 2 · 2 −γ(m+1) + 2 2 −γj = 2 2 −γj .<br />

j=n+1<br />

j=n+1<br />

4. Sei δ := 2(1 − 2 −γ ) −1 und ɛ(ω) := 2 −n1(ω) . Für Punkte s, t ∈ D mit 0 < |t − s| < ɛ(ω) wähle<br />

n ≥ n 1 (ω) und m > n mit s, t ∈ D m mit 2 −(n+1) ≤ t − s < 2 −n . Dann ist mit (∗ ∗ ∗)<br />

||X t (ω) − X s (ω)|| ≤ 2<br />

∞∑<br />

j=n+1<br />

2 −γj = 2 · 2 −γ(n+1) 1<br />

1 − 2 −γ ≤ δ|t − s|γ , (v)<br />

also ist (X t ) t∈I lokal Hölder-stetig mit Exponent γ auf Ω 1 . Die Abbildung t ↦→ X t (ω) ist sogar<br />

gleichmäßig stetig auf I ∩ D für ω ∈ Ω 1 , lässt sich also wegen der Vollständigkeit von R d zu<br />

einer stetigen Funktion durch<br />

t ↦→ Y t (ω) = lim<br />

s→t<br />

X s (ω) (ω ∈ Ω 1 )<br />

s∈D<br />

auf I fortsetzen. Für ω ∈ Ω \ Ω 1 sei Y t (ω) := 0. Damit ist (Y t ) t∈I<br />

Exponenten γ, denn für ω ∈ Ω 1 und s, t ∈ I mit 0 < t − s < ɛ(ω) ist<br />

lokal Hölder-stetig mit<br />

||Y t (ω) − Y s (ω)|| =<br />

Für ω /∈ Ω 1 ist dies trivial.<br />

lim ||X t ′(ω) − X s ′(ω)|| ≤ δ lim |t ′ − s ′ | γ = δ|t − s| γ .<br />

s ′ →s, t ′ →t<br />

s ′ →s, t ′ →t<br />

s ′ ,t ′ ∈D<br />

s ′ ,t ′ ∈D<br />

Schließlich ist Y t messbar (t ∈ I), da D abzählbar und Y t auf Ω 1 Limes einer Folge von Zufalsvariablen<br />

X s ist.<br />

Außerdem ist (Y t ) t∈I eine Modifikation von (X t ) t∈I . Für t ∈ I ist dafür P[X t = Y t ] = 1 zu<br />

zeigen. Für t ∈ D und ω ∈ Ω 1 ist X t (ω) = Y t (ω), für t ∈ I \ D gibt es eine Folge (s n ) n∈N ∈ D N<br />

mit s n → t. Dann ist nach 2.<br />

π i ◦ X t = P − lim π i ◦ X sn<br />

(i = 1, . . . , d).<br />

Andererseits ist nach Definition fast sicher Y t = lim X s n<br />

, also erst recht π i ◦ Y t = P − lim π i ◦<br />

n→∞<br />

X sn . Also gilt fast sicher<br />

π i ◦ X t = π i ◦ Y t (i = 1, . . . , d),<br />

d.h. X t = Y t fast sicher.


158 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

18 Markoff’sche Scharen und Halbgruppen<br />

Sei stets (Ω, A, P) ein Wahrschinlichkeitsraum, (E, B) ein Messraum, I ⊆ R + mit t − s ∈ I (t ≥<br />

s), also z.B. I = R + , [0, 1], N 0 .<br />

Erinnerung: Ein Markoff-Kern auf E, B bzw. genauer von (E, B) nach (E, B) ist eine Abbildung<br />

{<br />

E × B → [0; 1]<br />

K :<br />

(x, B) ↦→ K[x, B],<br />

die in der ersten Variablen B-messbar und in der zweiten Variablen ein Wahrscheinlichkeitsmaß<br />

ist (siehe 9.8).<br />

18.1 Bemerkung<br />

1. Jeder Markoff-Kern auf (E, B) definiert eine lineare Abbildung des Kegels L 0 +(E, B) der positiven<br />

messbaren Funktionen auf E in sich durch<br />

⎧<br />

L ⎪⎨<br />

0 +(E, B) →<br />

∫<br />

L 0 +(E, B)<br />

∫<br />

∫<br />

K : f ↦→ K[., dy]f(y) := f(y)K[., dy] = f ◦ π 2 (., y) K[., dy]<br />

⎪⎩<br />

} {{ }<br />

∈L 0 + (E×E,B⊗B)<br />

mit Projektion<br />

π 2 :<br />

Also ist Kf nach 9.12 messbar. Offenbar ist<br />

{<br />

E × E → E<br />

(x, y) ↦→ y.<br />

K1 B (x) = K[x, B]<br />

(B ∈ B).<br />

Ist K[x, .] für x ∈ E ein Wahrscheinlichkeitsmaß P, so ist<br />

∫<br />

Kf := fdP.<br />

Ferner ist K1 = 1 und K ist auf L 0 + Daniell-stetig, d.h. für jede Folge (f n ) n∈N ∈ (L 0 +(E, B)) N<br />

mit f n ↑ f ist Kf n ↑ Kf.<br />

2. Umgekehrt definiert jede Abbildung<br />

φ : L 0 +(E, B) −→ L 0 +(E, B),<br />

die linear und Daniell-stetig ist mit φ(1) = 1 erfüllt genau einen Kern K mit K = φ auf<br />

L 0 +(E, B). Dieser ist durch<br />

K[x, B] := φ(1 B )(x)<br />

gegeben.<br />

3. Sind K 1 und K 2 zwei Markoff-Kerne auf (E, B), so ist (K 1 ◦K 2 )(1) = 1, d.h. ein Markoff-Kern:<br />

18.2 Definition<br />

Der auf (E, B) definierte Markoff-Kern<br />

∫<br />

K 1 K 2 : (x, B) ↦−→<br />

K 1 [x, dy]K 2 [y, B]<br />

heißt das Produkt von K 1 und K 2 .


18. MARKOFF’SCHE SCHAREN UND HALBGRUPPEN 159<br />

Wegen der Eindeutigkeitsaussage in 18.1 ist für f ∈ L 0 +(E, B):<br />

∫<br />

∫<br />

K 1 K 2 (f)(x) = (K 1 ◦ K 2 )(f)(x) = K 1 [x 1 , dx 1 ]<br />

K 2 [x 1 , dx 2 ]f(x 2 ).<br />

Insbesondere gilt für Wahrscheinlichkeitsmaße µ<br />

µK 2 f 9.17<br />

= µ ⊗ K 2 (f ◦ π 2 ) = π 2 (µ ⊗ K 2 )(f),<br />

d.h. µK 2 ist das Wahrscheinlichkeitsmaß π 2 (µ ⊗ K 2 ), insbesondere ist<br />

ɛ x K 2 [B] = K 2 [x, B], d.h. ɛ x K 2 = K 2 [x, .]<br />

(x ∈ E).<br />

Die Menge der Markoff-Kerne auf (E, B) bildet also (wegen der Assoziativität der Komposition)<br />

eine Halbgruppe bzgl. obiger Multiplikation mit neutralem Element oder Einheitskern<br />

1 : (x, B) ↦−→ 1 B (x) = ɛ x (B).<br />

18.3 Definition<br />

1. Eine Markoff’sche Übergangsschar oder Markoff’sche Schar ist eine Familie (P s,t ) s,t∈I<br />

s≤t<br />

Markoff-Kernen auf<br />

(E, B), die den Chapman-Kolmogoroff-Gleichungen<br />

von<br />

P s,t = P s,r P r,t (s, t, r ∈ I, s ≤ r ≤ t)<br />

genügen. Sie heißt<br />

1. normal, falls P s,t = 1 (t ∈ I),<br />

2. stationär oder zeitlich homogen, falls<br />

P s,t [x, B] = P 0,t−s [x, B],<br />

3. translationsinvariant oder räumlich homogen, falls (E, B) = (R d , B(R d )) und<br />

P s,t [x, B] = P s,t [0, B − x] (s ≤ t, x ∈ R d , B ∈ B(R d )).<br />

2. Eine Markoff’sche Halbgruppe ist eine Familie (P t ) t∈I von Markoff-Kernen auf (E, B) mit<br />

P s P t = P s+t<br />

(s, t ∈ I).<br />

3. Eine Faltungshalbgruppe ist eine Familie (µ t ) t∈I von Wahrscheinlichkeitsmaßen auf (E, B) mit<br />

µ s ∗ µ t = µ s+t (s, t ∈ I).<br />

18.4 Satz<br />

Eine Markoff’sche Schar (P s,t ) s,t∈I<br />

s≤t<br />

ist genau dann stationär, wenn durch<br />

P t := P 0,t (t ∈ I)<br />

eine Markoff’sche Halbgruppe (P t ) t∈I definiert ist. Umgekehrt definiert jede Markoff’sche Halbgruppe<br />

(P t ) t∈I durch<br />

P s,t := P t−s (s ≤ t)<br />

eine stationäre Markoff’sche Schar.<br />

Beweis:


160 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

1. Ist (P s,t ) s,t∈I<br />

s≤t<br />

stationär und (P t ) t∈I wie angegeben definiert. Dann ist<br />

P s P t = P 0,s P 0,t = P 0,s P s,s+t = P 0,s+t = P s+t<br />

(s, t ∈ I).<br />

2. Ist (P t ) t∈I eine Markoff’sche Halbgruppe und (P s,t ) s,t∈I<br />

s≤t<br />

wie angegeben. Dann ist<br />

P s,t = P 0,t−s und P s,r P r,t = P r−s P t−s = P t−s = P s,t<br />

(s, r, t ∈ I, s ≤ r ≤ t).<br />

✷<br />

18.5 Korollar<br />

Eine Markoff’sche Schar (P s,t ) s,t∈I<br />

s≤t<br />

durch<br />

ist genau dann stationär und translationsinvariant, wenn<br />

µ t := P 0,t [0, .]<br />

eine Faltungshalbgruppe (µ t ) t∈I von Wahrscheinlichkeitsmaßen auf (E, B) definiert wird. Umgekehrt<br />

definiert jede Faltungshalbgruppe (µ t ) t∈I durch<br />

P s,t [x, B] := µ t−s [B − x]<br />

eine stationäre, translationsinvariante Markoff’sche Schar mit Faltungshalbgruppe (µ t ) t∈I . Für<br />

I = R + ist stets µ 0 = ɛ 0 , d.h. die Markoff’sche Schar ist normal.<br />

Beweis:<br />

1. Sei (µ t ) t∈I wie angegeben. Dann gilt<br />

µ s ∗µ t [B] 10.19.2<br />

=<br />

∫<br />

∫<br />

µ s [B − y]µ t [dy] =<br />

∫<br />

P 0,s [0, B − y]P 0,t [0, dy] =<br />

P 0,t [0, dy]P 0,s [y, B]<br />

= P t P s [0, B] = P t+s [0, B = µ t+s [B] = µ s+t [B].<br />

2. Sei (P s,t ) s,t∈I wie angegeben. Dann ist P s,t für s, t ∈ I, s ≤ t ein Markoff-Kern, denn<br />

s≤t<br />

∫<br />

∫<br />

P s,t [x, B] = µ t−s [B − x] = 1 B−x (y)µ t−s [dy] = 1 B (x + y)µ t−s [dy],<br />

d.h. P s,t ist messbar in der ersten und nach 9.12 ein Wahrscheinlichkeitsmaß in der zweiten<br />

Variablen.<br />

Zu zeigen bleiben die Chapman-Kolmogoroff-Gleichungen. Mit T x : y ↦→ x + y ist<br />

P s,r [x, B] = µ r−s [B − x] = µ r−s [Tx<br />

−1 (B)] = T x (µ r−s )[B] = T x (P s,r [0, .])[B],<br />

also<br />

∫<br />

P s,r P r,t [x, B] =<br />

∫<br />

=<br />

∫<br />

P s,r [x, dy]P r,t [y, B] = P t [y, B]T x (P s,r )[0, .][dy]<br />

∫<br />

P r,t [x + y, B]P s,r [0, dy] = µ t−r [B − x − y]µ r−s [dy]<br />

Gemäß 18.4 ist (P s,t ) s,t∈I<br />

s≤t<br />

= (µ t−r ∗µ r−s )[B − x] = µ t−s [B − x] = P s,t [x, B].<br />

stationär und translationsinvariant mit (µ t ) t∈I als Faltungshalbgruppe.


18. MARKOFF’SCHE SCHAREN UND HALBGRUPPEN 161<br />

18.6 Beispiele<br />

1. Die Markoff’schen Kerne<br />

P s,t := 1 (s ≤ t)<br />

bilden eine normale, stationäre und translationsinvariante Markoff’sche Schar wegen<br />

P s,t [x, B] = 1(x, B) = 1 B (x) = 1 B−x (0) = 1(0, B − x) = P s,t [0, B − x].<br />

Die zugehörige Faltungshalbgruppe ist<br />

µ t = P 0,t [0, .] = 1[0, .] = ɛ 0 (t ∈ I).<br />

2. Sei µ Wahrscheinlichkeitsmaß auf (E, B) und<br />

P s,t [x, .] = µ<br />

(s ≤ t, x ∈ E).<br />

Dann ist (P s,t ) s≤t ist stationäre Markoff’sche Schar mit µµ = µ, denn<br />

∫<br />

µµ[x, B] = µ[dy]µ[B] = µ[B]<br />

und P t,t = µ ≠ 1 für E mehrpunktig. Also bilden die (P s,t ) s≤t keine normale Markoff’sche<br />

Schar.<br />

3. Mittels 10.20.3 können wir die Poisson’sche Faltungshalbgruppe zum Parameter λ > 0 durch<br />

(π λt ) t∈R+ und π 0 := ɛ 0 definieren.<br />

4. Die Brown’sche Halbgruppe in R d wird wiefolgt definiert. Es ist µ 0 := ɛ 0 und µ t := g t λ d mit<br />

g t (x) :=<br />

d⊗<br />

1<br />

(<br />

g 1,t (x) =<br />

(2πt) exp − 1 d/2 2t ||x||2) .<br />

i=1<br />

Wir definieren die Faltung zweier reeller integrierbarer Funktionen f und g durch<br />

∫<br />

f ∗ g(x) := f(x − y)g(y)λ d [dy].<br />

Beh: Es gilt fλ d ∗gλ d = (f ∗ g)λ d .<br />

Denn: Sei A ∈ B(R d ). Dann ist<br />

∫<br />

∫ ∫<br />

fλ d ∗ gλ d [A]) = (fλ d )[A − y](gλ d )[dy] = 1 A−y (x)f(x)λ d [dx]g(y)λ d [dy]<br />

∫ ∫<br />

∫<br />

9.19<br />

= 1 A (x)f(x − y)g(y)λ d [dy]λ d [dx] = 1 A (x)(f ∗ g)(x)λ d [dy]<br />

= (f ∗ g)λ d [A].<br />

Dabei ist ɛ 0 Faltungseinheit nach 10.20.<br />

Um also zu zeigen, dass obige Halbgruppe eine Faltungshalbgruppe ist, braucht man nur noch<br />

zu zeigen.<br />

Wegen<br />

1<br />

2s (y i − x i ) 2 + 1 2t y2 i = 1<br />

g s ∗ g t = g s+t (s ≤ t)<br />

2st(<br />

(t + s)y<br />

2<br />

i − 2tx i y i + tx 2 i<br />

(<br />

(yi − t<br />

t+s x i) 2 −<br />

= t+s<br />

2st<br />

t2<br />

(t+s)<br />

x 2 2 i +<br />

) (<br />

=<br />

t+s<br />

2st y<br />

2<br />

i − 2t<br />

t<br />

t+s x2 i<br />

t+s x iy i +<br />

)<br />

=<br />

t+s<br />

2st (y i −<br />

)<br />

t<br />

t+s x2 i<br />

t<br />

t+s x i) 2 + 1<br />

2(t+s) x2 i


162 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

ist<br />

∫<br />

1 1<br />

g x ∗ g t (x) =<br />

(2πt) d/2 (2πs) d/2<br />

= d ∏<br />

i=1<br />

= d ∏<br />

i=1<br />

= d ∏<br />

i=1<br />

∫<br />

1 √1<br />

2π st<br />

1<br />

2π<br />

= g s+t (x).<br />

exp ( − 1 2s ||y − x|| − 1 2t ||y||) dy<br />

exp ( − 1 2s (y i − x i ) 2 − 1 2t y2 i<br />

)<br />

dyi<br />

√1<br />

st<br />

exp ( − 1<br />

2(t+s) x2 i<br />

√<br />

1<br />

exp ( )<br />

− 1<br />

2π(s+t) 2(t+s) x2 i<br />

) ∫ exp ( (<br />

− t+s<br />

2st yi − t<br />

t+s x 2 )<br />

i)<br />

dyi<br />

} {{ }<br />

=<br />

r<br />

2π st<br />

s+t<br />

18.7 Heuristische Interpretation<br />

Unser nächstes Ziel ist die Konstruktion von Prozessen aus einer Markoff’schen Schar und einer<br />

Startwahrscheinlichkeit. Dazu beschreiben wir zunächst die Idee, die hinter einem solchen Prozess<br />

steckt.<br />

Die Größe P s,t [x, B] sei die Wahrscheinlichkeit dafür, dass ein irrfahrendes Teilchen sich <strong>zur</strong><br />

Zeit t in der Menge B befindet, wenn es <strong>zur</strong> Zeit s ≤ t im Punkt x ist. Das Teilchen sei dabei<br />

gedächtnislos, d.h. zu jedem Zeitpunkt r ∈ [s; t] orientiert sich Teilchen nur an seinem Ort <strong>zur</strong> Zeit<br />

r, nicht aber an der Vergangeheit. Daher berechnet sich P s,t [x, B] als Wahrscheinlichkeit dafür,<br />

dass das Teilchen <strong>zur</strong> Zeit t in B ist, wenn es <strong>zur</strong> Zeit r irgendwo in y ∈ E ist, gemittelt über alle<br />

<strong>zur</strong> Zeit r erreichbaren y, wobei das Teilchen <strong>zur</strong> Zeit s in x startet, d.h.<br />

∫<br />

P s,t [x, B] =<br />

P s,r [x, dy]P r,t [y, B] = P s,r P r,t [x, B].<br />

Dies motiviert die Chapman-Kolmogoroff-Gleichungen. Anders ausgedrückt heißt das<br />

∫<br />

P s,t [x, B] =<br />

∫<br />

P s,r [x, dy]<br />

∫<br />

P r,t [y, dz]1 B (z) =<br />

E<br />

∫<br />

P s,r [x, dy] P r,t [y, dz].<br />

B<br />

Allgemeiner kann man an ein Modell denken, an dem das Teilchen <strong>zur</strong> Zeit 0 gemäß einer Startwahrscheinlichkeit<br />

µ ∈ M 1 +(E) in einem zufälligen Punkt startet und sich zu Zeitpunkten t 1 <<br />

. . . < t n nacheinander in Mengen B 1 , . . . B n mit Wahrscheinlichkeit<br />

∫<br />

∫<br />

µ[dx 0 ]<br />

∫<br />

. . .<br />

∫<br />

P tn−2 ,t n−1<br />

[x n−2 , dx n−1 ]1 Bn−1 (x n−1 )<br />

P tn−1 ,t n<br />

[x n−1 , dx n ]1 Bn (x n )<br />

befindet.<br />

Dies suggeriert das folgende Resultat.


18. MARKOFF’SCHE SCHAREN UND HALBGRUPPEN 163<br />

18.8 Hauptsatz<br />

Für jede Markoff’sche Schar (P s,t ) s,t∈I und jedes Wahrscheinlichkeitsmaß µ auf (E, B) wird<br />

s≤t<br />

eine projektive Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen auf (E I , B I ) definiert. Ist<br />

J = {t 1 , . . . , t n } mit t 1 < . . . < t n , so ist diese definiert durch<br />

∫ ∫<br />

∫<br />

P J [B 1 × . . . × B n ] := µ[dx 0 ] P 0,t1 [x 0 , dx 1 ] . . . P tn−1 ,t n<br />

[x n−1 , dx n ]1 B1 (x 1 ) . . . 1 Bn (x n ).<br />

Mit t 0 = 0 und der Projektion<br />

π : (x 0 , . . . , x n ) ↦→ (x 1 , . . . , x n )<br />

gilt<br />

( ⊗<br />

n<br />

P J = π P ti−1 ,t i<br />

).<br />

i=1<br />

Beweis: Für K i [x 0 , . . . , x i−1 , B i ] := P ti−1 ,t i<br />

[x i−1 , B i ] ist<br />

P J [B 1 × . . . B n ] =<br />

(<br />

µ<br />

n⊗<br />

K i<br />

)[E × B 1 × . . . × B n ] =<br />

i=1<br />

(<br />

= π µ<br />

(<br />

µ<br />

n⊗ ) [π<br />

K −1 i (B 1 × . . . × B n ) ]<br />

i=1<br />

n⊗<br />

K i<br />

)[B 1 × . . . × B n ].<br />

i=1<br />

Also ist P J ist Wahrscheinlichkeitsmaß auf B J .<br />

Zu zeigen ist πJ H(P H) = P J (J ⊆ H ⊂⊂ I).<br />

Für J ⊆ H ⊂⊂ I gibt es eine Folge (H i ) {i=1,...,k} mit H i+1 \ H i = 1 und J = H 1 ⊆ H 2 ⊆ . . . H k =<br />

H. Deshalb ist ΠH \ J einelementig, d.h. es ist<br />

Dann ist<br />

und s j /∈ J für ein j ∈ {1, . . . , n + 1}. Nun sei<br />

Dann ist<br />

In Fall j ≤ n ergibt sich<br />

J = {t 1 , . . . , t n } mit t 1 ≤ . . . ≤ t n .<br />

H = {s 1 ≤ . . . ≤ s n+1 } mit s 1 ≤ . . . ≤ s n+1<br />

A 0 = E, A i = B i (1 ≤ i < j), A j = E, A i = B i−1 (j < i ≤ n + 1).<br />

(π H J ) −1 (B 1 × . . . × B n ) = A 1 × . . . × A n .<br />

π H J (P H)[B 1 × . . . × B n ] = P H [A 1 × . . . × A n+1 ]<br />

∫<br />

∫<br />

∫<br />

= µ[dx 0 ]1 A0 (x 0 ) P 0,s1 [x 0 , dx 1 ]1 A1 (x 1 ) . . . P sj−1 ,s j<br />

[x j−1 , dx j ]1 Aj (x j )<br />

∫<br />

P sj,s j+1<br />

[x j , dx j+1 ]1 Aj+1 (x j+1 )f(x j+1 )<br />

mit<br />

∫<br />

f(x j+1 ) =<br />

∫<br />

=<br />

∫<br />

P sj+1 ,s j+2<br />

[x j+1 , dx j+2 ]1 Aj+2 (x j+2 ) . . . P sn,s n+1<br />

[x n , dx n+1 ]1 An+1 (x n+1 )<br />

∫<br />

P tj,t j+1<br />

[x j+1 , dy j+1 ]1 Bj+1 (y j+1 ) . . . P tn−1 ,t n<br />

[y n−1 , dy n ]1 Bn (y n ),


164 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

falls j < n und<br />

f(x j+1 ) = 1,<br />

falls j = n. Nach den Chapman-Kolmogoroff-Gleichungen gilt:<br />

∫<br />

∫<br />

P sj−1 ,s j<br />

[x j−1 , dx j ]<br />

18.2<br />

P sj,s j+1<br />

[x j , dx j+1 ]1 Aj+1 (x j+1 )f(x j+1 )<br />

= P sj−1 ,s j<br />

P sj,s j+1<br />

(1 Aj+1 · f)(x j+1 )<br />

∫<br />

= P tj−1 ,t j<br />

(1 Bj · f)(x j+1 ) = P tj−1 ,t j<br />

[x j−1 , dy j ]1 Bj (y j )f(y j )<br />

Insgesamt ergibt sich<br />

∫<br />

π H J (P H)[B 1 × . . . × B n ] =<br />

∫<br />

µ[dx 0 ]<br />

P 0,t1 [x 0 , dx 1 ]1 B1 (x 1 )<br />

∫<br />

∫<br />

. . . . . .<br />

P tj−1 ,t j<br />

[x j−1 , dy j ]1 Bj (y j )f(y j )<br />

∫<br />

=<br />

∫<br />

µ[dx 0 ]<br />

∫<br />

P 0,t1 [x 0 , dx 1 ]1 B1 (x 1 ) . . .<br />

P tj−1 ,t j<br />

[x j−1 , dx j ]1 Bj (x j )<br />

∫<br />

∫<br />

P tj,t j+1<br />

[x j , dx j+1 ]1 Bj+1 (x j+1 ) . . .<br />

P tn−1 ,t n<br />

[x n−1 , dx n ]1 Bn (x n )<br />

= P J [B 1 × . . . × B n ]<br />

Der Fall j = n + 1, d.h. s j > t n ist trivial, weil<br />

(π H J ) −1 (B 1 × . . . × B n ) = B 1 × . . . × B n × E<br />

und<br />

∫<br />

P sn,s n+1<br />

[., dx n+1 ] 1 An+1 (x n+1 ) = 1.<br />

} {{ }<br />

=1<br />

Da die Quader ein durchschnittsstabiler Erzeuger von B J sind, folgt nach dem Eindeutigkeitssatz<br />

der Maßtheorie 7.19<br />

P J = π H J (P H).<br />

✷<br />

18.9 Definition<br />

Existiert in 18.8 der projektive Limes<br />

lim ←−<br />

P J (z.B. wenn (E, B) polnisch ist), so heißt<br />

J ⊂⊂ I<br />

P µ :=<br />

lim ←−<br />

P J<br />

J ⊂⊂ I<br />

das Markoff-Maß der Markoff’schen Schar (P s,t ) s,t∈I<br />

s≤t<br />

<strong>zur</strong> Startwahrscheinlichkeit µ ∈ M 1 +(E).


18. MARKOFF’SCHE SCHAREN UND HALBGRUPPEN 165<br />

18.10 Korollar<br />

Ist (P s,t ) s,t∈I eine Markoff’sche Schar und µ ein Wahrscheinlichkeitsmaß auf einem polnischen<br />

s≤t<br />

Raum (E, B), so hat der zum Markoff-Maß P µ gehörige kanonische Prozess (x t ) t∈I := (π t ) t∈I<br />

die Verteilung<br />

Insbesondere ist<br />

P µ x t<br />

= µP 0,t = P µ x s<br />

P s,t , P µ (x s,x t) = Pµ x s<br />

⊗ P s,t (s, t ∈ I, s ≤ t).<br />

falls P µ [x s = x] > 0 und<br />

P s,t [x, B] = P µ [x t ∈ B|x s = x]<br />

P ɛx<br />

x t<br />

= P 0,t [x, .].<br />

(x ∈ E, B ∈ B),<br />

Falls P 0,0 = 1, also z.B. falls (P s,t ) normal ist, so ist P µ x 0<br />

= µ und für 0 = t 0 < . . . < t n ist<br />

P {t0,...,t n} = µ<br />

n⊗<br />

P ti−1 ,t i<br />

.<br />

Beweis: Ist P 0,0 = 1, so gilt wegen P 0,t0 [x 0 , .] = ɛ x0 , falls die obigen Formeln gelten<br />

∫ ∫<br />

∫<br />

P {t0,...,t n}[B 0 × . . . × B n ] = µ[dx 0 ] P 0,t0 [x 0 , dx]1 B0 (x) P t0,t<br />

} {{ }<br />

1<br />

[x, dx 1 ]1 B1 (x 1 ) . . .<br />

i=1<br />

=ɛ x0 [dx]<br />

∫<br />

∫<br />

= µ[dx 0 ]1 B0 (x 0 ) P t0,t 1<br />

[x 0 , dx 1 ]1 B1 (x 1 ) . . .<br />

= µ<br />

n⊗<br />

P ti−1 ,t i<br />

[B 0 × . . . × B n ],<br />

i=1<br />

d.h. die letzte Behauptung.<br />

Allgemein ist nach 17.5 und 18.8 für B 1 , B 2 ∈ B und t ∈ I<br />

∫<br />

P µ x t<br />

[B 1 ] = P {t} [B 1 ] = µ[dx 0 ]P 0,t [x 0 , B 1 ] = µP 0,t [B 1 ]<br />

und damit auch P µ x t<br />

[B 1 ]P 0,t [x, B 1 ] für µ = ɛ x .<br />

Für s < t ist<br />

∫ ∫<br />

P µ (x [B s,x t) 1 × B 2 ] = P {s,t} [B 1 , B 2 ] = µ[dx 0 ]<br />

∫<br />

P 0,s [x 0 , dx 1 ]<br />

P s,t [x 1 , dx 2 ]1 B1 (x 1 )1 B2 (x 2 )<br />

} {{ }<br />

=:f(x 1)<br />

∫<br />

18.2<br />

= µP 0,s (f) = f(x 1 )P µ x s<br />

[dx 1 ]<br />

∫ ∫<br />

= P µ x s<br />

[dx 1 ] P s,t [x 1 , dx 2 ]1 B1 (x 1 )1 B2 (x 2 ) = P µ x s<br />

⊗P s,t [B 1 , B 2 ].<br />

Also ist<br />

P µ (x s,x t) = Pµ x s<br />

⊗P s,t ,<br />

da Quader ein duchschnittsstabiler Erzeuger von B 2 sind.<br />

Mit der Projektion π : (x 0 , x 1 ) ↦→ x 1 gilt dann<br />

P µ x t<br />

[B 1 ] = π ◦ (x s ⊗ x t )(P µ )[B 1 ] = π ( P µ (x s,x t))<br />

[B1 ] = P µ x s<br />

⊗ P s,t [E × B 1 ]<br />

∫<br />

9.17<br />

= P µ x s<br />

[dx 0 ]P s,t [x 0 , B 1 ] 18.2<br />

= P µ x s<br />

P s,t [B 1 ].


166 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

Schließlich ist<br />

P µ x s<br />

[{x}]P s,t [x, B] 9.17<br />

= ( P µ x s<br />

⊗P s,t<br />

)<br />

[{x} × B] = P<br />

µ<br />

(x s,x t) [{x} × B] = Pµ [{x s = x} ∩ {x t ∈ B}].<br />

Also ist die Formel für bedingte Wahrscheinlichkeit und damit die heuristische Interpretation aus<br />

18.7 gerechtfertigt. ✷<br />

18.11 Beispiele<br />

1. Der zu<br />

und µ := ɛ x gehörige Prozess beschreibt wegen<br />

P s,t = 1 (s ≤ t)<br />

P ɛx<br />

x t<br />

= ɛ x P 0,t = P 0,t [x, .] = 1[x, .] = ɛ x<br />

ein irrfahrendes Teilchen, das in x startet und nach dem Start in x bleibt.<br />

2. Sei<br />

P s,t [x, .] = µ<br />

(s ≤ t, x ∈ E).<br />

Der <strong>zur</strong> Startwahrscheinlichkeit µ und P s,t gehörige kanonische Prozess hat wegen<br />

für alle x t die identische Verteilung µ.<br />

P µ x t<br />

= µP 0,t = µµ = µ (t ∈ I)<br />

3. In 20 beschäftigen wir uns mit der Brown’schen Bewegung, die als Markoff’sche Schar eine<br />

Familie von Normalverteilungen besitzt.<br />

4. In 21 betrachten wir den Poisson-Prozess, der als Markoff’sche Schar eine Familie von Poissonverteilungen<br />

hat.


19. PROZESSE MIT STATIONÄREN UND UNABHÄNGIGEN ZUWÄCHSEN 167<br />

19 Prozesse mit stationären und unabhängigen Zuwächsen<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum und (E, B) = (R d , B(R d )) mit I ⊆ R +<br />

t − s ∈ I (s, t ∈ I, s ≤ t).<br />

und<br />

19.1 Definition<br />

Eine stochastischer Prozess (X t ) 0≤t≤T auf (Ω, A, P) mit Zustandsraum R d hat<br />

• stationäre Zuwächse, wenn eine Familie (µ t ) t∈I von Wahrscheinlichkeitsmaßen auf R d existiert<br />

mit<br />

P Xt−X s<br />

= µ t−s (s, t, ∈ I, s ≤ t),<br />

• unabhängige Zuwächse, wenn für je endlich viele Zeitpunkte 0 = t 0 < t 1 < . . . t n aus I die<br />

Zufallsvariablen X t0 , X t1 − X t0 , . . . , X tn − X tn−1 unabhängig sind.<br />

Prozesse mit diesen beiden Eigenschaften heißen Lévy-Prozesse.<br />

19.2 Bemerkungen<br />

1. Im Fall stationärer Zuwächse ist µ 0 = P Xt−X t<br />

= ɛ 0 .<br />

2. Im Fall unabhängiger Zuwächse sind die Zufallsvariablen X t0 , X t1 − X t0 , . . . , X tn − X tn−1 auch<br />

im Falle t 0 > 0unabhängig.<br />

Denn: Setze t −1 := 0 und beachte, dass X t0 = X t−1 + (X t0 − X t−1 ) ist. Damit ist also<br />

σ(X t0 ) ⊆ σ(X t−1 , X t0 − X t−1 ) =: F.<br />

Nach 12.4 sind dann F, σ(X t1 − X t0 ), . . . , σ(X tn − X tn−1 ) unabhängig. Also sind auch<br />

unabhängig.<br />

19.3 Lemma<br />

σ(X t0 ), σ(X t1 − X t0 ), . . . , σ(X tn − X tn−1 ), d.h. X t0 , X t1 − X t0 , . . . , X tn − X tn−1<br />

Sei (P s,t ) s≤t eine stationäre und translationsinvariante Markoff’sche Schar mit zugehöriger Markoff’scher<br />

Halbgruppe (P t ) t∈I := (P 0,t ) t∈I und Faltungshalbgruppe (µ t ) t∈I = (P t [0, .]) t∈I . Dann<br />

gilt für n ∈ N und<br />

{<br />

R d(n+1) −→ R d(n+1)<br />

T n :<br />

(y 0 , . . . , y n ) ↦−→ (y 0 , y 0 + y 1 , . . . , y 0 + y 1 + . . . + y n )<br />

sowie für jedes Wahrscheinlichkeitsmaß µ auf R d<br />

( ⊗ n<br />

) ⊗ n<br />

T n µ µ ti−t i−1 = µ P ti−t i−1<br />

(0 ≤ t 0 < t 1 < . . . t n ).<br />

i=1<br />

i=1<br />

Beweis: Die Abbildung T n ist Borel-messbar, da sie ein Homöomorphismus ist, denn es gilt<br />

T −1<br />

n (x 0 , . . . , x n ) = (x 0 , x 1 − x 0 , . . . , x n − x n−1 ).<br />

Für B ∈ B(R d(n+1) ) gilt nach dem Satz von Fubini 9.19<br />

n⊗<br />

∫ ∫<br />

T n<br />

(µ µ ti−t i−1<br />

)[B] = . . . 1 B ◦ T n (y 0 , . . . , y n )µ[dy 0 ]µ t1−t 0<br />

[dy 1 ] . . . µ tn−t n−1<br />

[dy n ]<br />

i=1<br />

∫<br />

=<br />

∫<br />

. . .<br />

1 B (y 0 , y 0 + y 1 , . . . , y 0 + . . . + y n )


168 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

.<br />

Mit der Translation τ x : y ↦→ y + x in R d gilt P t [x, .] = τ x (µ t ), also<br />

µ<br />

n⊗<br />

i=1<br />

P ti−t i−1<br />

[B] 9.17<br />

=<br />

∫<br />

=<br />

∫<br />

∫<br />

µ[dx 0 ]<br />

∫<br />

µ[dx 0 ]<br />

∫<br />

P t1−t 0<br />

[x 0 , dx 1 ] . . .<br />

∫<br />

P t1−t 0<br />

[x 0 , dx 1 ] . . .<br />

µ[dy 0 ]µ t1−t 0<br />

[dy 1 ] . . . µ tn−t n−1<br />

[dy n ]<br />

P tn−t n−1<br />

[x n−1 , dx n ]1 B (x 0 , . . . , x n )<br />

P tn−1 −t n−2<br />

[x n−2 , dx n−1 ]<br />

∫<br />

µ tn−t n−1<br />

[dy n ]1 B<br />

(<br />

x0 , . . . , x n−1 , τ xn−1 (y n ) )<br />

∫<br />

=<br />

∫<br />

µ[dx 0 ]<br />

∫<br />

P t1−t 0<br />

[x 0 , dx 1 ] . . .<br />

µ tn−1 −t n−2<br />

[dy n−1 ]<br />

∫<br />

µ tn−t n−1<br />

[dy n ]1 B<br />

(<br />

x0 , τ x0 (y 1 ), . . . , τ xn−2 (y n−1 ), τ xn−1 (y n ) )<br />

∫<br />

= . . . =<br />

∫<br />

µ[dx 0 ]<br />

∫<br />

µ t1−t 0<br />

[dy 0 ] . . .<br />

µ tn−t n−1<br />

[dy n ]<br />

1 B (y 0 , y 0 + y 1 , . . . , y 0 + . . . + y n ).<br />

✷<br />

19.4 Hauptsatz<br />

1. Sei (X t ) t∈I der kanonische Prozess, der sich aus einer normalen, stationären, translationsinvarianten<br />

Markoff’schen Schar (P s,t ) s≤t , d.h. aus einer Faltungshalbgruppe (µ<br />

s,t∈I<br />

t ) t∈I mit<br />

µ 0 = ɛ 0 und einer Startwahrscheinlichkeit µ auf R d ableitet. Dann hat (X t ) t∈I bzgl. des<br />

Markoff’schen Maßes P µ stationäre und unabhängige Zuwächse, nämlich<br />

und P µ X 0<br />

= µ.<br />

P µ X t−X s<br />

= µ t−s (s, t ∈ I, s ≤ t)<br />

2. Ist umgekehrt (X t ) t∈I ein stochastischer Prozess auf Wahrscheinlichkeitsräumen (Ω, A, P)<br />

mit R d als Zustandsraum, der stationäre und unabhängige Zuwächse hat, so wird durch<br />

µ t := P Xt−X 0<br />

(t ∈ I)<br />

eine Faltungshalbgruppe von Wahrscheinlichkeitsmaßes µ t auf R d mit µ 0 = ɛ 0 definiert. Die<br />

gemeinsame Verteilung des Prozesses ist das aus (µ t ) t∈I und der Startverteilung µ := P X0<br />

konstruierte Markoff-Maß P µ .<br />

Beweis: Es gilt<br />

µ 0 = ɛ 0 ⇐⇒ P t,t [x, .] = ɛ 0 (. − x) = ɛ x = 1[x, .] (t ∈ I, x ∈ R d ) ⇐⇒ P t,t = 1 (t ∈ I).


19. PROZESSE MIT STATIONÄREN UND UNABHÄNGIGEN ZUWÄCHSEN 169<br />

1. Aus 18.10 folgt für 0 = t 0 < t 1 < . . . < t n<br />

P µ (X t0 ,...,X tn ) = µ n ⊗<br />

i=1<br />

P ti−t i−1<br />

19.3<br />

= T n<br />

(µ<br />

n⊗ )<br />

µ ti−t i−1<br />

und somit gilt für Y 0 := Y t0 = X 0 , Y 1 := X t1 − X t0 , . . . , Y n := X tn − X tn−1<br />

i=1<br />

(<br />

P µ (Y = T −1<br />

0,...,Y n) n<br />

(X t 0<br />

, . . . , X tn )(P µ ) = T −1<br />

n<br />

◦ T n µ<br />

= µ<br />

n⊗<br />

µ ti−t i−1<br />

= P µ Y 0<br />

⊗ P µ Y 1<br />

⊗ . . . ⊗ P µ Y n<br />

.<br />

i=1<br />

Also sind Y 0 , . . . , Y n unabhängig, P µ X 0<br />

= µ und P µ X t−X s<br />

= µ t−s .<br />

n⊗ )<br />

µ ti−t i−1<br />

2. Der Prozess (X t ) t∈I habe stationäre Zuwächse. Aus µ t = P Xt−X 0<br />

folgt µ 0 = ɛ 0 . Da ɛ 0 die<br />

Faltungseinheit ist, genügt der Nachweis µ s ∗ µ t = µ s+t für s, t ≥ 0. Aber X s+t − X t und<br />

X t − X 0 sind unabhängig mit Verteilung µ s bzw. µ t , da (X t ) t∈I stationäre Zuwächse hat.<br />

Damit ist<br />

10.18<br />

µ s+t = P Xs+t −X 0<br />

= P Xs,t−X t<br />

∗ P Xt−X 0<br />

= µ s ∗ µ t .<br />

Die Verteilung P µ ist genau dann die Verteilung von ⊗ t∈I<br />

X t , wenn sich die endlichdimensionalen<br />

Randverteilungen P N X t<br />

für J ⊂⊂ I gemäß 18.8 mit µ := P X0 und<br />

berechnen lassen.<br />

t∈J<br />

i=1<br />

P ti−1 ,t i<br />

[x, B] = P ti−t i−1<br />

[x, B] = µ ti−t i−1<br />

[B − x]<br />

Da sowohl (P µ J ) J⊂⊂I als auch (P N X t<br />

) J⊂⊂I projektiv sind, kann Œ<br />

t∈J<br />

I := {0 = t 0 < t 1 < . . . < t n }<br />

angenommen werden. Wegen P 0,0 = 1 ist nach 19.3 wie in 1. mit Y i := X ti − X ti−1 , Y 0 = X t0<br />

wegen stationärer unabhängiger Zuwächse<br />

19.5 Satz<br />

P J := T n<br />

(µ<br />

n⊗<br />

i=1<br />

= P (Xt0 ,...,X tn ) = P N<br />

) ( ) ( )<br />

µ ti−t i−1<br />

= T n PY0 ⊗ P Y1 ⊗ . . . ⊗ P Yn = Tn P(Y0,...,Y n)<br />

X t<br />

.<br />

t∈J<br />

Seien (X t ) t∈I und (Y t ) t∈I Prozesse mit Zustandsraum R d .<br />

1. Sind (X t ) t∈I und (Y t ) t∈I äquivalent und hat (X t ) t∈I stationäre und unabhängige Zuwächse,<br />

so auch (Y t ) t∈I .<br />

2. Haben (X t ) t∈I und (Y t ) t∈I unabhängige und stationäre Zuwächse, so sind (X t ) t∈I und (Y t ) t∈I<br />

genau dann äquivalent, wenn<br />

VertX 0 = VertY 0 und Vert(X t − X s ) = Vert(Y t − Y s ) (0 ≤ s < t).<br />

✷<br />

Beweis:


170 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

1. Sei<br />

Wegen<br />

{<br />

R d × R d → R d<br />

δ :<br />

(x 1 , x 2 ) ↦→ x 2 − x 1 .<br />

Vert(Y t − Y s ) = δVert(Y s ⊗ Y t ) = δVert(X s ⊗ X t ) = Vert(X t − X s )<br />

hat (Y t ) t∈I stationäre Zuwächse.<br />

Für 0 = t 0 < t 1 < . . . < t n gilt mit T n aus 19.3<br />

T −1<br />

n : (x 0 , . . . , x n ) ↦→ (x 0 , x 1 − x 0 , . . . , x n − x n−1 ).<br />

Damit ist<br />

Vert ( Y t0 ⊗(Y t1 − Y t0 ) ⊗ . . . ⊗ (Y tn − Y tn−1 ) ) = T −1 (<br />

n Vert(Yt0 ⊗ Y t1 ⊗ . . . ⊗ Y tn ) )<br />

= T −1 (<br />

n Vert(Xt0 ⊗ . . . ⊗ X tn ) )<br />

= Vert ( X t0 ⊗ (X t1 − X t0 ) ⊗ . . . ⊗ (X tn − X tn−1 ) )<br />

= VertX t0 ⊗ Vert(X t1 − X t0 ) ⊗ . . . ⊗ Vert(X tn − X tn−1 )<br />

= VertX t0 ⊗ δVert(X t0 ⊗ X t1 ) ⊗ . . . ⊗ δVert(X tn ⊗ X tn−1 )<br />

= VertY t0 ⊗ δVert(Y t0 ⊗ Y t1 ) ⊗ . . . ⊗ δVert(Y tn ⊗ Y tn−1 )<br />

= VertY t0 ⊗ Vert(Y t1 − Y t0 ) ⊗ . . . ⊗ Vert(Y tn − Y tn−1 ).<br />

Damit hat (Y t ) t∈I unabhängige Zuwächse.<br />

2. “⇒”: klar<br />

“⇐”: Der Beweis von 1. lehrt, dass für 0 = t 0 < t 1 ≤ . . . ≤ t n<br />

(<br />

Vert(Xt0 ⊗ . . . ⊗ X tn ) ) = T −1 (<br />

Vert(Yt0 ⊗ . . . ⊗ Y tn ) ) .<br />

T −1<br />

n<br />

n<br />

gilt. Also ist durch Komposition mit T n<br />

Damit ist<br />

Vert(X t0 ⊗ . . . ⊗ X tn ) = Vert(Y t0 ⊗ . . . ⊗ Y tn ).<br />

VertX J = VertY J<br />

({0} ⊆ J ⊂⊂ I).<br />

Definiere die Projektion π : (x 0 , . . . , x n ) ↦→ (x 1 , . . . , x n ). Dann folgt die Behauptung<br />

durch<br />

Vert(X t1 ⊗ . . . ⊗ X tn ) = π(Vert(X t0 ⊗ . . . ⊗ X tn ))<br />

= π(Vert(Y t0 ⊗ . . . ⊗ Y tn ))<br />

= Vert(Y t1 ⊗ . . . ⊗ Y tn ),<br />

d.h.<br />

VertX J = VertY J<br />

(J ⊂⊂ I).<br />


20. DIE BROWN’SCHE BEWEGUNG 171<br />

20 Die Brown’sche Bewegung<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />

20.1 Definition<br />

Ein Prozess (X t ) t∈R+ mit Zustandsraum R d heißt d-dimensionale Brown’sche Bewegung, falls<br />

folgende Bedingungen erfüllt sind:<br />

1. (X t ) t∈R+ hat unabhängige, stationäre und normalverteilte Zuwächse, d.h.<br />

wobei<br />

Vert(X t − X s ) = µ t−s<br />

µ t :=<br />

die Brown’sche Faltungshalbgruppe ist.<br />

(0 ≤ s ≤ t),<br />

d⊗<br />

N 0,t (t > 0) und µ 0 = ɛ 0<br />

2. Fast alle Pfade t ↦→ X t (ω) von (X t ) t∈I sind stetig.<br />

Gilt überdies<br />

1<br />

3. X 0 = 0 fast sicher, so heißt die Brown’sche Bewegung normal oder standardisiert.<br />

20.2 Bemerkung<br />

Wir wollen zunächst die Existenz dieses Prozesses beweisen. Dabei wissen wir schon von 18.8, dass<br />

es Prozesse gibt, die die erste Bedingung erfüllen. Zu zeigen ist also, dass es derartige Prozesse<br />

gibt, deren Pfade stetig sind. Dazu müssen wir zeigen, dass C(R + , R d ) wesentlich für die Verteilung<br />

des Prozesses ist (siehe 17.8). Dazu hilft uns 17.12. Zur Anwendung dieses Resultats benötigen<br />

wir zunächst ein Lemma.<br />

20.3 Lemma<br />

Sei d, n ∈ N und Y eine µ t -verteilte Zufallsvariable mit Werten in R d . Dann gibt es ein c n > 0, so<br />

dass für jedes t ∈ R ∗ +<br />

E[||Y || 2n ] = c n t n ,<br />

und speziell<br />

c 1 = d,<br />

c 2 = d(d + 2).<br />

Beweis: Es gilt<br />

E[||Y || 2n ] = (2πt) − d 2<br />

∫<br />

( )<br />

||y|| 2n exp − 1 2t ||y|| λ d x:= √ y t<br />

[dy] = t n (2π) − d 2<br />

Insbesondere ist<br />

∫ d∑<br />

∫<br />

c 1 = x 2 i µ 1 [dx] = d x 2 N 0,1 [dx] = d,<br />

i=1<br />

} {{ }<br />

Var[N 0,1]<br />

∫ d∑ d∑<br />

d∑<br />

∫<br />

c 2 =<br />

x 2 jµ 1 [dx] = x 4 i N 0,1 [dx i ]<br />

x 2 i<br />

i=1 j=1<br />

i=1<br />

∫<br />

(<br />

1<br />

2 ||x|| )λ d [dx]<br />

||x|| 2n exp<br />

} {{ }<br />

=:c n>0


172 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

= √ d ∫<br />

2π<br />

+<br />

d∑<br />

∫<br />

i,j=1<br />

i≠j<br />

y 3( y exp ( ) )<br />

− y2<br />

2<br />

dy + d(d − 1)(Var[N 0,1 ]) 2<br />

= √ d (<br />

−y 3 exp ( ) ∣ ∞<br />

− y2<br />

2π<br />

2 ∣<br />

−∞<br />

} {{ }<br />

=0<br />

= d(d + 2)<br />

20.4 Bemerkungen<br />

∫<br />

+3<br />

y 2 exp ( )<br />

− y2<br />

2 dy<br />

} {{ }<br />

= √ 2π<br />

∫<br />

. . .<br />

x 2 i x 2 jN 0,1 [dx 0 ] . . . N 0,1 [dx d ]<br />

)<br />

+ d(d − 1) = 3d + d(d − 1)<br />

1. Je zwei Brown’sche Bewegungen mit derselben Startverteilung, also insbesondere zwei normale<br />

Brown’sche Bewegungen sind äquivalent (19.5.2).<br />

2. Ist (Y t ) t∈R+ ein stochastischer Prozess mit Zustandsraum R d und fast sicher stetigen Pfaden, der<br />

zu einer d-dimensionalen Brown’schen Bewegung äquivalent ist, so ist (Y t ) t∈R+ eine Brown’sche<br />

Bewegung in R d (19.5.1).<br />

20.5 Hauptsatz<br />

Für jede Dimension d ≥ 1 und jedes Wahrscheinlichkeitsmaß µ ∈ M 1 +(R d ) gibt es genau ein<br />

Wahrscheinlichkeitsmaß P µ auf ( C(R + , R d ), B(C(R + , R d )) ) , so dass der C(R + , R d )-kanonische<br />

Prozess eine d-dimensionale Brown’sche Bewegung ist mit Startwahrscheinlichkeit P µ X 0<br />

= µ.<br />

P µ ist die Einschränkung des äußeren Markoff-Maßes auf C(R + , R d ) <strong>zur</strong> Startwahrscheinlichkeit<br />

µ und <strong>zur</strong> Brown’schen Faltungshalbgruppe im R d .<br />

✷<br />

Beweis: Nach 19.4 hat der kanonische Prozess unabhängige und stationäre Zuwächse der geforderten<br />

Art und Startverteilung µ. Die Behuptung folgt daher aus 17.9, 19.5 und 17.10.3, sofern<br />

C(R + , R d ) wesentlich bzgl. des projektiven Limes ist. Dies folgt aber aus 17.11 und 17.12, da nach<br />

20.3 für n ≥ 2 die Kolmogoroff-Chentsov-Bedingung mit α = 2n, β = n − 1, c = c n erfüllt sind,<br />

denn<br />

E[||X t − X s || 2n ] = c n |t − s| n .<br />

20.6 Definition<br />

Für x ∈ E sei P x := P ɛx . Das Radon-Maß P 0 liefert das d-dimensionale Wiener-Maß.<br />

Die C(R + , R d )-kanonische Brown’sche Bewegung ist bzgl. des Wiener-Maßes normal, denn P 0 X 0<br />

=<br />

ɛ 0 , d.h. X 0 = 0 fast sicher.<br />

20.7 Bemerkung<br />

Sei x ∈ R d . Definiere<br />

T x :<br />

{<br />

C(R + , R d ) → C(R + , R d )<br />

ω ↦→ x + ω : t ↦→ x + ω(t).<br />

Dann ist T x bzgl. lokal gleichmäßiger Konvergenz stetig, insbesondere Borel-messbar.<br />

Beh: Es gilt P x = T x (P 0 ).<br />


20. DIE BROWN’SCHE BEWEGUNG 173<br />

Denn: Der Prozess (X t ) t∈R+ ist eine C(R + , R d )-kanonische Brown’sche Bewegung mit P 0 X 0<br />

= ɛ 0 ,<br />

also<br />

(X t − X s )P 0 = (T x ◦ X t − T x ◦ X s )P 0 = (X t − X s )(T x (P 0 )).<br />

Also beinhaltet die Unabhängigkeit der Zuwächse bzgl. P 0 die Unabhängigkeit der Zuwächse bzgl.<br />

T x (P 0 ). Wegen<br />

T x (P 0 ) X0 = X 0 ◦ T x (P 0 ) = ɛ x<br />

ist (X t ) t∈R+ bzgl. T x (P 0 ) eine Brown’sche Bewegung mit Start in x, wegen der Eindeutigkeit in<br />

20.5 ist also T x (P 0 ) = P x .<br />

20.8 Satz (Eigenschaften der Brown’schen Bewegung)<br />

Sei (X t ) t∈I eine Brown’sche Bewegung in R d .<br />

1. Homogenität: Für jedes s ∈ R + ist der Prozess (X t+s − X s ) t∈R+ eine normale Brown’sche<br />

Bewegung.<br />

2. Zeitverschiebung: Der Prozess (X s+t ) t∈R+ ist eine Brown’sche Bewegung in R d (s ∈ R + ).<br />

3. Translation: Der Prozess (X t + x) t∈R+ ist eine Brown’sche Bewegung in R d (x ∈ R d ).<br />

4. Orthogonale Transformation, insbesondere Spiegelung und Drehung: Für jede orthogonale<br />

Transformation A in R d ist auch (AX t ) t∈R+ eine Brown’sche Bewegung im R d . Ist (X t ) t∈I<br />

normal, so auch (AX t ) t∈R+ .<br />

5. Für τ > 0 ist auch (τX t<br />

(τX t<br />

τ 2 ) t∈R+ .<br />

τ 2 ) t∈R+<br />

eine Brown’sche Bewegung in R d . Ist (X t ) t∈I normal, so auch<br />

6. Jeder der Komponentenprozesse (X i t) t∈R+ (i = 1, . . . , d) ist eine reelle Brown’sche Bewegung.<br />

Ist (X t ) t∈I normal, so auch (X i t) t∈R+ (i = 1, . . . , d). Dann sind X 1 t , . . . , X d t unabhängige<br />

Zufallsvariable für jedes t ≥ 0.<br />

Beweis:<br />

1.-3. klar unter Beachtung von 19.2.2.<br />

4. Nur die Verteilung der Zuwächse ist zu überprüfen. Für s ≤ t und B ∈ B(R d ) gilt mit dem<br />

Transformationssatz<br />

∫<br />

P[AX t − AX s ∈ B] = µ t−s [A −1 (B)] = (2π(t − s)) − d ( )<br />

s exp − 1 ||x|| 2<br />

2 t−s<br />

λ d [dx]<br />

A −1 (B)<br />

∫<br />

y=A −1 x<br />

= 2π(t − s) − d (<br />

)<br />

2<br />

1 ||Ay||<br />

exp<br />

2<br />

2 t−s<br />

| det A| λ d [dy] = µ t−s [B].<br />

B } {{ }<br />

5. Hier ist für s ≤ t und B ∈ B(R d )<br />

6. Es gilt<br />

P[τX t − τX s<br />

τ 2 τ 2<br />

= ||y||2<br />

t−s<br />

∈ B] = N 0, t−s [ 1 t−s<br />

τ<br />

B] = (2π(<br />

τ<br />

)) − d 2 2<br />

τ 2<br />

∫<br />

y=τx<br />

= (2π(t − s)) − d 2<br />

B<br />

∫<br />

(<br />

exp − 1 2<br />

} {{ }<br />

=1<br />

exp<br />

1<br />

τ B<br />

||y|| 2<br />

t−s<br />

(<br />

− 1 2<br />

)<br />

τ 2 ||x|| 2<br />

t−s<br />

λ d [dx]<br />

)<br />

λ d [dy] = µ t−s [B].<br />

Vert(π j ◦ (X t − X s )) = π j (Vert(X t − X s )) = π j (µ t−s ) = N 0,t−s .


174 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

Die Unabhängigkeit der Zuwächse bleibt erhalten, die Stetigkeit der Pfade ist klar. Aus der<br />

Normalität folgt<br />

d⊗<br />

d⊗<br />

VertX t = µ t = N 0,t = VertX i t<br />

1<br />

i=1<br />

und VertX 0 =<br />

d⊗<br />

ɛ 0 und damit die Unabhängigkeit.<br />

1<br />

✷<br />

20.9 Definition<br />

Die Verteilung N d :=<br />

d⊗<br />

N 0,1 = µ 1 heißt d-dimensionale Standard-Normalverteilung. Gaußmaß<br />

1<br />

oder d-dimensionale Normalverteilung heißt jedes Bildmaß T (N d ) unter einer affin-linearen Abbildung<br />

T : x ↦→ Ax + b des R d in sich. Dabei ist A eine reelle d × d-Matrix und b ∈ R d . Sie heißt<br />

ausgeartet, wenn det A = 0.<br />

Eine R d -wertige Zufallsvariable heißt Gauß’sch, wenn ihre Verteilung ein Gaußmaß ist. Ein stochastischer<br />

Prozess heißt Gauß-Prozess, wenn seine endlich-dimensionalen Randverteilungen Gaußmaße<br />

sind. Ein reller Gauß-Prozess (X t ) t∈I heißt zentriert, wenn E[X t ] = 0 (t ∈ I).<br />

20.10 Beispiele<br />

1. Sei d = 1. Dann gilt:<br />

T (N 1 ) ausgeartet ⇐⇒ T = b konstant ⇐⇒ T (N 1 ) = ɛ b =: N b,0 .<br />

2. Seien<br />

t i ≥ 0, b i ∈ R, T i : x i ↦→ √ t i x i + b i (i = 1, . . . , d).<br />

Sei außerdem T i (N 0,1 ) = N bi,t i<br />

und<br />

A :<br />

⎛√ t1 0<br />

⎜<br />

⎝<br />

0<br />

. ..<br />

√<br />

td<br />

⎞<br />

⎟<br />

⎠ und T := (T 1 , . . . , T d ) : x ↦→ Ax + b.<br />

Beh: T (N d ) =<br />

d⊗<br />

i=1<br />

N bi,t i<br />

Denn: Für B i ∈ B(R) ist<br />

ist eine d-dimensionale Normalverteilung,<br />

N d<br />

[<br />

T −1 (B 1 × . . . × B d ) ] = N d<br />

[ d∏<br />

=<br />

i=1<br />

]<br />

T −1<br />

i (B i ) =<br />

d∏<br />

i=1<br />

d⊗<br />

N bi,t i<br />

[B 1 × . . . × B d ].<br />

i=1<br />

N 0,1<br />

[<br />

T<br />

−1<br />

i (B i ) ] =<br />

d∏<br />

N bi,t i<br />

[B i ]<br />

i=1<br />

3. Jedes Bildmaß eines Gaußmaßes unter affin-linearen Transformationen ist ein Gauß-Maß.


20. DIE BROWN’SCHE BEWEGUNG 175<br />

20.11 Satz<br />

1. Sei A =<br />

⎛<br />

⎞<br />

⎜<br />

⎝a ⊤ ⎟<br />

1. ⎠ ∈ GL(d, R), d.h. det A ≠ 0. Sei<br />

a ⊤ d<br />

C := AA ⊤ = ( 〈a i , a j 〉 ) i,j=1...,d , b ∈ Rd und T : x ↦→ Ax + b.<br />

Dann hat die nichtausgeartete Normalverteilung T (N d ) die λ d -Dichte<br />

g(x) = (2π) − d 2 (det C) − 1 (<br />

)<br />

2 exp − 1 2 (x − b)⊤ C −1 (x − b)<br />

und T (N) hat den Erwartungsvektor<br />

sowie die Kovarianzmatrix<br />

d.h.<br />

V[T ] := ( Cov[T i , T j ] ) i,j=1,...,d = C,<br />

E[T ] := ( E[T 1 ], . . . , E[T d ] ) = b<br />

Cov[T i , T j ] = 〈a i , a j 〉<br />

(i, j = 1, . . . , d).<br />

Die Matrix C ist symmetrisch, positiv definit und T (N d ) ist durch C und b eindeutig bestimmt,<br />

bezeichnet mit N(b, C).<br />

2. Sei C eine positiv definite, symmetrische Matrix und b ∈ R. Dann gibt es genau ein Gaußmaß<br />

N, so dass N = N(b, C). Dies ist nichtausgeartet.<br />

Beweis:<br />

1. Es gilt für B ∈ B(R d )<br />

T (N)[B] = N[T −1 (B)] = (2π) − d 2<br />

∫<br />

x=A −1 (y−b)<br />

= (2π) − d 2<br />

∫<br />

= (2π) − d 2<br />

∫<br />

(<br />

1 T −1 (B)(y) exp<br />

)<br />

− y⊤ y<br />

2<br />

dy<br />

(<br />

1 B (x)(det A) −1 exp − 1 2 (x − b)⊤ (A ⊤ ) −1 A −1 (x − b)<br />

1 B (x)(det C) − 1 (<br />

)<br />

2 exp − 1 2 (x − b)⊤ C −1 (x − b) dx.<br />

)<br />

dx<br />

Mit dieser Dichte gilt<br />

E[T i ] = (2π) − d 2<br />

∫<br />

(<br />

x i exp<br />

∫<br />

y=A −1 (x−b)<br />

= (2π) − d 2<br />

=<br />

)<br />

− 1 2 (x − b)⊤ (AA ⊤ ) −1 (x − b) dx<br />

(<br />

(a ⊤ i y + b i ) exp<br />

d∑<br />

∫<br />

a ij yg 0,1 (y)λ d [dy] + b i = b i<br />

i=1<br />

)<br />

− y⊤ y<br />

2<br />

dy


176 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

und<br />

Cov[T i , T j ] = E[T i T j ] − b i b j = (2π) − d (<br />

2 x i x j exp<br />

∫<br />

y=A −1 (x−b)<br />

= (2π) − d 2<br />

∫<br />

= (2π) − d 2<br />

(<br />

a ⊤ i yy ⊤ a j exp<br />

(a ⊤ i y + b i )(a ⊤ j y + b j ) exp<br />

)<br />

− y⊤ y<br />

2<br />

dy<br />

)<br />

− 1 2 (x − b)⊤ (AA ⊤ ) −1 (x − b)<br />

(<br />

− y⊤ y<br />

2<br />

)<br />

dy − b i b j<br />

Da die gemischten Terme y i y j beim integrieren keinen Beitrag leisten, ist weiter<br />

dx − b i b j<br />

d∑<br />

∫<br />

Cov[T i , T j ] = (2π) − d 2<br />

k=1<br />

(<br />

a ik yka 2 jk exp<br />

)<br />

− y⊤ y<br />

2<br />

dy =<br />

d∑<br />

a ik a jk = 〈a i , a j 〉.<br />

k=1<br />

2. Sei C symmetrisch und positiv definit. Dann gibt es genau ein A ∈ GL(d, R), so dass C = AA ⊤ .<br />

Da jede affin lineare Abbildung T : Ax + b eindeutig durch A und b bestimmt ist, ist T (N)<br />

eindeutig durch A und b bestimmt.<br />

20.12 Hauptsatz<br />

Jede normale Brown’sche Bewegung X t ist ein zentrierter Gauß-Prozess mit Erwartungsfunktion<br />

b : t ↦→ E[X t ] = 0<br />

und Kovarianzfunktion<br />

Γ : (s, t) ↦→ Cov[X s , X t ] = inf(s, t).<br />

✷<br />

Beweis: Sei 0 ≤ t 1 < . . . < t n und<br />

Also ist T ∈ GL(n, R) mit<br />

und es gilt:<br />

T : (y 1 , . . . , y n ) ↦→ (y 1 , y 1 + y 2 , . . . , y 1 + . . . + y n ).<br />

T −1 = (x 1 , . . . , x n ) ↦→ (x 1 , x 2 − x 1 , . . . , x n − x n−1 )<br />

Vert(X t1 ⊗ . . . ⊗ X tn ) = Vert ( T ◦ (X t1 ⊗ X t2 − X t1 ⊗ . . . ⊗ X tn − X tn−1 ) )<br />

= T ( µ t1<br />

⊗ µ ts−t 1<br />

⊗ . . . ⊗ µ tn−t n−1<br />

)<br />

,<br />

wobei µ t1<br />

= ɛ 0 für t 1 = 0. Damit ist (X t ) t∈I nach 20.10.3 ein Gaußprozess.<br />

Da VertX t = µ t = N 0,t , ist E[X t ] = 0 und Var[X t ] = t. Für s < t gilt:<br />

und für s = t :<br />

Cov[X s , X t ] = E[X s X t ] = E[(X t − X s )X s + X 2 s ] = E[(X t − X s )X s ] + E[X 2 s ]<br />

19.2.2<br />

= E[X t − X s ]E[X s ] + E[X 2 s ] = Var[X s ] = s = inf(s, t),<br />

Cov[X s , X t ] = Var[X s ] = s = inf(s, t).<br />


20. DIE BROWN’SCHE BEWEGUNG 177<br />

20.13 Satz<br />

Fast sicher ist jeder Pfad einer Brown’schen Bewegung in R d lokal Hölder-stetig mit jedem<br />

Exponenten γ ∈ (0; 1 2 ).<br />

Beweis:<br />

Nach 17.12 existiert eine lokal Hölder-stetige Modifikation (Y t ) t≥0 , mit Exponenten, der für ein<br />

n ∈ N 0 < γ < n−1<br />

2n<br />

erfüllt, d.h. mit beliebigem Exponenten 0 < γ < 1 2<br />

(vgl. 20.3, 20.5), also ist<br />

(Y t ) t≥0 eine Brown’sche Bewegung. Aus P[X t ≠ Y t ] = 0 (t ∈ R + ) folgt mit A t := {ω : X t (ω) ≠<br />

Y t (ω)} (t ∈ Q + ) und dem Borel-Cantelli-Lemma 12.9<br />

P[X t ≠ Y t für höchstens endlich viele t ∈ Q + ] = 1.<br />

Da aber sowohl fast alle Pfade von (X t ) t∈I als auch von (Y t ) t∈I stetig sind, ist<br />

Wieder wegen der Stetigkeit der Pfade ist damit<br />

P[X t = Y t t ∈ Q + ] = 1.<br />

P[X t = Y t , t ∈ R + ] = 1,<br />

also die Behauptung.<br />

20.14 Bemerkung<br />

Man kann zeigen, dass die Schranke 1 2<br />

im vorangegangenen Satz scharf ist. Siehe z.B. [BW], 47.3.<br />

✷<br />

20.15 Hauptsatz<br />

Fast alle Pfade einer d-dimensionalen, Brown’schen Bewegung sind nirgends rechtsseitig diferenzierbar.<br />

Beweis: Es genügt, die Behauptung für den Fall d = 1 und die Einschränkung der reellen<br />

Brown’schen Bewegung (X t ) t∈I für jedes Intervall I = [0; a) mit a > 0 zu beweisen.<br />

Sei<br />

{<br />

X t+s (ω) − X t (ω) X t+s (ω) − X t (ω)<br />

}<br />

A := ω ∈ Ω : ∃t ∈ I, −∞ < lim inf<br />

≤ lim sup<br />

< ∞ .<br />

s→0+ s<br />

s→0+ s<br />

Wir beweisen schärfer:<br />

Beh: A ist in einer Nullmenge enthalten.<br />

Wir beweisen, dass fast sicher, wenn der Pfad einer Brown’schen Bewegung rechtsseitig differenzierbar<br />

wäre, die Ableitung unendlich groß wäre. Setze hierzu<br />

A mn = { ω ∈ Ω : ∃t ∈ I : |X t+s (ω) − X t (ω)| ≤ ms (s ∈ [0; 4a n ))} ,<br />

Damit ist<br />

A ⊆<br />

⋃<br />

m,n∈N<br />

A mn<br />

und A mn ist eine aufsteigende Folge in n für festes (m ∈ N). Also ist nur zu zeigen, dass für alle<br />

m, n die Menge A mn in einer Nullmenge enthalten ist.<br />

1. Sei ω ∈ A mn und t ∈ I mit<br />

|X t+s (ω) − X t (ω)| ≤ ms (s ∈ [0; 4a n ).


178 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

Dann gibt es ein k ∈ {1, . . . , n}, so dass t ∈ [ a k−1<br />

n ; a n] k . Also ist für<br />

und damit<br />

2. Sei<br />

B mnk :=<br />

B mn :=<br />

3⋂<br />

i=1<br />

s i := a k+i<br />

n − t (i = 0, . . . , 3) : s i ∈ [ 0; a i+1<br />

n<br />

]<br />

⊆<br />

[<br />

0;<br />

4a<br />

n<br />

∣ ∣Xa<br />

k+i (ω) − X t (ω) ∣ ≤<br />

i+1<br />

n ma ≤ 4a m n<br />

(i = 0, . . . , 3).<br />

n<br />

{<br />

|Xa k+i<br />

n<br />

n⋃<br />

B mnk ∈ A<br />

k=1<br />

}<br />

− X ∣<br />

k+i−1 ≤ 8a<br />

m<br />

a n ,<br />

n<br />

und es gilt mit der Dreiecksungleichung für j ≥ n<br />

Also ist<br />

A mn ⊆ {|X t+s − X t ≤ ms, s ∈ [0; 4a n )}<br />

⊆ {∃t ∈ [a k−1<br />

j<br />

; a k j ] : |X a k+i<br />

j<br />

j⋃<br />

⊆<br />

A mn ⊆<br />

{|X k+i a<br />

k=1<br />

j<br />

= B mj (m ∈ N).<br />

∞⋂<br />

B mj =: C mn ∈ A.<br />

j=n<br />

− X t | ≤ 4am<br />

j<br />

, |X k+i−1 − X t | ≤ 4am<br />

a j<br />

; i = 1, 2, 3}<br />

j<br />

− X k+i−1 | ≤ 8am<br />

a j<br />

(i = 1, 2, 3)}<br />

j<br />

3. Beh.: Es ist P[C mn ] = 0 (m, n ∈ N).<br />

Denn: Wegen der Unabhängigkeit der Zuwächse ist<br />

Also ist<br />

und mit<br />

ist also<br />

P[B mnk ] =<br />

3∏<br />

i=1<br />

P [∣ ∣ Xa k+i<br />

n<br />

( ∫ m<br />

(2π ) 8a<br />

a −1/2 n<br />

=<br />

n<br />

−8a m n<br />

= ( 2πa ) −3/2<br />

(16a)<br />

3 m 3<br />

n 3/2 .<br />

P[B mn ] = P [ ⋃<br />

n ]<br />

B mnk ≤<br />

k=1<br />

− X ∣<br />

k+i−1 ≤ 8a<br />

m<br />

a n<br />

n<br />

n ∑<br />

k=1<br />

P[C mn ] ≤ P[B mj ] (j ∈ N)<br />

P[C mn ] = 0.<br />

exp ( )<br />

− x2<br />

2 a n<br />

} {{ }<br />

≤1<br />

]<br />

=<br />

(<br />

N 0,<br />

a<br />

n<br />

]<br />

[<br />

− 8a<br />

m<br />

n ; 8a ] ) m 3<br />

n<br />

) 3 ( ) −3/2n<br />

dx ≤ 2πa 3/2 (16a) 3 m3<br />

n 3<br />

P[B mnk ] ≤ ( 2πa ) −3/2<br />

(16a)<br />

3 m3<br />

n 1/2<br />

n→∞<br />

−−−→ 0<br />


20. DIE BROWN’SCHE BEWEGUNG 179<br />

20.16 Korollar<br />

Für fast alle Pfade einer reellen Brown’schen Bewegung gilt:<br />

1. Sie sind in keinem nicht-ausgearteten Intervall monoton.<br />

2. Sie sind in keinem kompakten, nichtausgearteten Intervall [s, t] von beschränkter Variation, d.h.<br />

V [s,t] X(ω) := sup { ∑<br />

n |X ti (ω) − X ti−1 (ω)| : n ∈ N, s = t 0 < t 1 < . . . < t n = t } = ∞<br />

für fast alle ω ∈ Ω.<br />

i=1<br />

Beweis: Wir benutzen (vgl. [HS] 17.12, 17.16):<br />

1. Jede monotone Funktion ist λ-fast überall differenzierbar<br />

2. Jede Funktion von beschränkter Variation ist Differenz zweier isotoner Funktionen, also λ-fast<br />

überall differenzierbar.<br />

Mit folgt die Behauptung aus 20.15.<br />

✷<br />

20.17 Satz<br />

Jede d-dimensionale Brown’sche Bewegung (X t ) t≥0 ist von endlicher quadratischer Variation,<br />

d.h. für 0 ≤ s < t und s = t 0 < t 1 < . . . < t n = t, einer Zerlegung von [s; t] ist<br />

[( ∑<br />

n ) 2 ]<br />

E ||X ti − X ti−1 || 2 n→∞<br />

− d(t − s) −−−→ 0,<br />

i=1<br />

wenn der Feinheitsgrad der Zerlegung gegen 0 konvergiert, d.h. wenn<br />

max (t i − t i−1 ) n→∞<br />

−→ 0.<br />

1≤i≤n<br />

Beweis: Zunächst ist nach 20.3<br />

[ ∑<br />

n<br />

E ||X ti − X ti−1 || 2] =<br />

i=1<br />

und wegen der Unabhängigkeit gilt<br />

[ ( ∑<br />

n<br />

E ||X ti − X ti−1 || 2) ] 2<br />

=<br />

i=1<br />

20.3<br />

=<br />

n∑<br />

E [ ||X ti − X ti−1 || 4] +<br />

i=1<br />

n∑<br />

i=1<br />

n∑<br />

d(d + 2)(t i − t i−1 ) 2 +<br />

i=1<br />

i=1<br />

i=1<br />

n∑<br />

d(t i − t i−1 ) = d(t − s)<br />

i=1<br />

n∑<br />

E [ ||X ti − X ti−1 || 2 ||X tj − X tj−1 || 2]<br />

j=1<br />

j≠i<br />

n∑<br />

i=1<br />

n∑<br />

d(t i − t i−1 )d(t j − t j−1 )<br />

j=1<br />

j≠i<br />

= d 2[ ∑<br />

n (t i − t i−1 ) ] 2<br />

∑ n n∑<br />

+ 2d (t i − t i−1 ) 2 = d 2 (t − s) 2 + 2d (t i − t i−1 ) 2 .<br />

i=1


180 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

Also ist<br />

[( ∑ n<br />

E ||X ti − X ti−1 || 2<br />

i=1<br />

} {{ }<br />

=:Y<br />

) 2 ]<br />

− d(t − s) = E[Y 2 ] − E 2 [Y ] =<br />

} {{ }<br />

=E[Y ]<br />

2d<br />

n∑<br />

(t i − t i−1 ) 2 ≤ 2d max (t i − t i−1 )(t − s) n→∞<br />

−→ 0.<br />

1≤i≤n<br />

i=1<br />


21. DER POISSON’SCHE PROZESS 181<br />

21 Der Poisson’sche Prozess<br />

Ziel dieses Paragraphen ist die Konstruktion eines Zählprozesses. Beispiele für Anwendungen dieses<br />

Zählprozesses sollen z.B. die Anzahl der von einem Sender emittierten Signale in einem Zeitintervall<br />

der Länge t sein, z.B. beim radioaktiven Zerfall, eingehenden Telefonanrufen in einer<br />

Telefonzentrale oder Schadensmeldungen bei Versicherungen. Ein gutes Modell für die Verteilung<br />

der Zufallsvariablen, die die Anzahl der Ereignisse in einem bestimmten Zeitintervall zählt, ist,<br />

wie aus der elementaren Stochastik bekannt, die Poissonverteilung mit Parameter proportional<br />

<strong>zur</strong> Intervalllänge t.<br />

Für α ≥ 0 ist also<br />

−αt (αt)n<br />

π αt [n] = e<br />

n!<br />

gleich die Wahrscheinlichkeit, dass genau n Signale in einem Zeitintervall der Lämge t eintreffen.<br />

Speziell sind die Wahrschinlichkeiten für kein bzw. genau ein Signal<br />

π αt [0] = e −αt , bzw. π αt [1] = αte −αt .<br />

Die anschauliche Interpretation des Parameters α ergibt sich durch<br />

π αt [1]<br />

lim = α<br />

t→0+ t<br />

als die mittlere Emissionszahl oder auch ’Intensität’<br />

Die Wahrscheinlichkeit, in einem Zeitintervall mindestens zwei Signale zu erhalten, ist<br />

und damit<br />

π αt [2, 3, . . .] = 1 − π αt [0] − π αt [1] = 1 − e −αt − αte −αt = e −αt (e αt − 1 − αt)<br />

π αt [2, 3, . . .]<br />

lim<br />

= lim<br />

t→0+ t<br />

e−αt( e αt − 1<br />

)<br />

− α = 0,<br />

t→0+ t<br />

d.h. asymptotisch klein im Vergleich <strong>zur</strong> Intervalllänge.<br />

Zählprozesse haben Sprünge in folgendem Sinne:<br />

Sei f : R + → R isoton, dann heißt<br />

S f : t ↦→ lim f(s) − lim f(s)<br />

s→t+ s→t−<br />

Sprungfunktion von f. Man sagt, f habe Sprünge der Größe 1, wenn<br />

S f (R + ) ⊆ {0, 1}.<br />

21.1 Definition<br />

1. Ein stochastischer Prozess (X t ) t∈R+ mit Zustandsraum Z heißt Poisson-Prozess zum Parameter<br />

α > 0, wenn gilt:<br />

1. (X t ) t∈R+ hat stationäre, unabhängige und Poisson-verteilte Zuwächse hat, d.h es gilt<br />

Vert(X t − X s ) = π α(t−s)<br />

(0 ≤ s < t).<br />

2. Fast alle Pfade sind isoton und rechtsseitig stetig mit Sprüngen der Größe 1.<br />

Gilt überdies<br />

3. X 0 = 0 fast sicher,


182 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

so heißt der Poisson’sche Prozess normal oder standardisiert.<br />

Beispiel für einen typischen Pfad eines normalen Poisson-Prozesses:<br />

t ↦→ X t (ω)<br />

. .<br />

•<br />

.<br />

•<br />

.<br />

• .<br />

•<br />

.<br />

•<br />

.<br />

• .<br />

•<br />

.<br />

• .<br />

•<br />

.<br />

t<br />

.<br />

..<br />

2. Definiere die Menge aller iosotonen, rechtsseitig stetigen Pfaden mit Sprüngen der Größe 1 als<br />

D(R + , Z) := {ω : R + → Z : ω isoton, rechtsseitig stetig mit Sprüngen der Größe 1}.<br />

21.2 Bemerkungen<br />

1. Je zwei Poisson-Prozesse mit derselben Startwahrscheinlichkeit sind äquivalent, siehe 19.5.2.<br />

2. Ist (Y t ) t≥0 ein Prozess mit der Pfadeigenschaft 21.1.2, der zu einem Poisson-Prozess äquivalent<br />

ist, so ist (Y t ) t≥0 selbst ein Poisson-Prozess, siehe 19.5.1.<br />

21.3 Hauptsatz<br />

Sei α > 0 und µ ∈ M 1 +(Z). Dann gibt es genau ein Wahrscheinlichkeitsmaß P µ auf<br />

(D(R + , Z), D(R + , Z) ∩ P(Z R+ )),<br />

so dass der D(R + , Z)-kanonische Prozess ein Poisson-Prozess zum Parameter α mit Startverteilung<br />

µ ist.<br />

Die Verteilung P µ ist die Einschränkung des äußeren Markoff-Maßes auf D(R + , Z) <strong>zur</strong> Startwahrscheinlichkeit<br />

µ und <strong>zur</strong> Poisson’schen Faltungshalbgruppe (π αt ) t∈R+ .<br />

Beweis: Zu µ und der Faltungshalbgruppe (π αt ) t∈R+ gehört der kanonische Prozess mit gemeinsamer<br />

Verteilung P µ . Nach 19.4 besitzt der Prozess unabängige und stationäre Poisson-verteilte<br />

Zuwächse. Außerdem gilt VertX 0 = µ.<br />

Damit ist die Aussage bewiesen, wenn zu diesem kanonischen Prozess ein äquivalenter Prozess mit<br />

den gewünschten Pfadeigenschaften existiert.<br />

Hierzu bezeichne<br />

S := {k2 −n : k, n ∈ N 0 }<br />

die Menge aller dyadischen Zahlen in R + .


21. DER POISSON’SCHE PROZESS 183<br />

1. Beh.: Es gibt ein Ω 1 mit P µ [Ω 1 ] = 1 und<br />

X s (ω) ≤ X t (ω), (s, t ∈ S, s < t, ω ∈ Ω 1 ).<br />

Denn: für s, t ∈ S mit s < t ist<br />

P µ [X t − X s ≥ 0] = π α(t−s) [Z + ] = 1.<br />

Da mit S auch die Menge aller Paare (s, t) ∈ S×S mit s < t abzählbar ist, folgt die Behauptung.<br />

2. Für 0 ≤ s ≤ t ist<br />

P[X t − X s ≥ 1] = π α(t−s) [N] = 1 − e −α(t−s) .<br />

3. Für ω ∈ Ω 1 existiert nach 1.<br />

Y t (ω) := lim X s (ω).<br />

s∈S,<br />

s→t+<br />

Offenbar ist t ↦→ Y t (ω) isoton und rechtsseitig stetig.<br />

4. Sei ω ∈ Ω 1 und S ω = S YR+ (ω) die Sprungfunktion des Pfades.<br />

Beh: Es gibt eine messbare Menge Ω 2 ⊆ Ω 1 mit P[Ω 2 ] = 1, so dass<br />

{ω ∈ Ω 2 : S ω (t) ≥ 2} = ∅ (t ∈ R + ),<br />

d.h. der Pfad t ↦→ Y t (ω) hat für ω ∈ Ω 2 Sprünge der Größe 1.<br />

Denn: Sei dazu für m ∈ N<br />

∞⋂ ⋃<br />

B m := n2 n − 1{X (i+1)2 −n − X (i−1)2 −n ≥ 2}.<br />

n=m i=1<br />

Dann ist B m messbar (m ∈ N). Für n ≥ m ist<br />

und damit<br />

(i + 1)2 −n − (i − 1)2 −n = 2 −n+1<br />

[ n2<br />

P[B m ] = lim P ⋃<br />

n −1<br />

]<br />

{X (i+1)2 −n − X (i−1)2 −n ≥ 2}<br />

n→∞<br />

i=1<br />

n2<br />

∑<br />

n −1<br />

≤ lim P [ X (i+1)2 −n − X (i−1)2 −n ≥ 2 ]<br />

n→∞<br />

= lim<br />

n→∞<br />

i=1<br />

Also ist P[B m ] = 0 (m ∈ N) und damit<br />

Dann ist Ω 2 := Ω 1 \<br />

5. Wir setzen noch<br />

∞⋃<br />

m=1<br />

∑<br />

i = 1<br />

2 n −1 π α2 −n+1[2, 3, . . .]<br />

= lim<br />

n→∞ (n2n − 1)e −α2−(n−1) α 2 2 −(n−1)2<br />

≤ lim<br />

n→∞ α2 (n2 n − 1)2 −(n−1)2 = 0.<br />

P [ ∞ ⋃<br />

m=1<br />

B m<br />

]<br />

= 0.<br />

B m messbar mit P[Ω 2 ] = 1.<br />

Y t (ω) = 0 (t ∈ R + , ω ∈ CΩ 2 ).<br />

∞ ∑<br />

α k 2 −(n−1)k<br />

(k + 2)!<br />

k=0<br />

} {{ }<br />

≤e α2−(n−1)<br />

Dann sind (X t ) t∈R+ und (Y t ) t∈R+ äquivalent und (Y t ) t∈R+ ist D(R + , Z)-kanonisch.<br />


184 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

21.4 Satz<br />

Für jeden Poisson-Prozess (X t ) t∈R+<br />

zum Parameter α > 0 gilt:<br />

1. Sei t 0 ∈ R + . Dann sind fast alle Pfade stetig in t 0 .<br />

2. Fast alle Pfade besitzen unendlich viele Sprünge der Größe 1.<br />

3. Ist (X t ) t∈R+ normal, so haben fast alle Pfade ihre Werte in Z + .<br />

Beweis:<br />

1. Œ liege jeder Pfad t ↦→ X t (ω) in D(R + , Z).<br />

In t 0 = 0 sind alle Pfade rechtsseitig stetig, also stetig.<br />

Ist t 0 > 0 so ist<br />

A := ⋂ s∈Q,<br />

s 0}<br />

die Menge der ω, deren Pfad in t 0 unstetig ist. Wegen<br />

lim P[X t − X s > 0] = lim 1 − P[X t0 − X s = 0] = lim 1 − e −α(t0−s) = 0<br />

s↑t 0 s↑t0 s↑t0<br />

und der Stetigkeit von Wahrscheinlichkeitsmaßen ist A eine Nullmenge.<br />

2. Es genügt zu zeigen: Mit<br />

B := {ω : X n (ω) − X n−1 (ω) ≥ 1 für unendlich viele n ∈ N}<br />

ist P[B] = 1.<br />

Denn: Für jedes ω ∈ B und jedes n ∈ N mit mit X n (ω) − X n−1 (ω) ≥ 1 liegt in [n − 1; n]<br />

die Sprungstelle t = inf{s ∈ [n − 1; n] : X s (ω) = X n (ω)}. Also hat der Pfad unendlich viele<br />

Sprungstellen.<br />

Die obige Behauptung folgt wegen<br />

∞∑<br />

∞∑<br />

P[X n − X n−1 ≥ 1] = 1 − e −α = ∞<br />

n=1<br />

und der Unabhängigkeit der Zuwächse aus dem Borel-Cantelli Lemma 12.9.<br />

3. Da X 0 = 0 fast sicher, ist X t ≥ 0 fast sicher (t ∈ R + ) und damit X t (ω) ∈ Z + .<br />

n=1


Kapitel 6<br />

Martingaltheorie<br />

22 Satz von Radon-Nikodym und bedingte Erwartungen<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />

22.1 Hauptsatz (Radon-Nikodym)<br />

Seien µ und ν endliche Maße auf A. Genau dann besitzt ν eine Dichte dν bzgl. µ, wenn ν<br />

dµ<br />

stetig bzgl. µ ist, d.h wenn für N ∈ A mit µ[N] = 0 auch ν[N] = 0 gilt. Dann ist diese Dichte<br />

µ-fast-überall eindeutig bestimmt.<br />

Beweis:<br />

“⇒”: siehe 11.10.<br />

“⇐”: Zunächst sei ν ≤ µ. Da µ ein endliches Maß ist, gilt L 2 (Ω, A, µ) ⊆ L 2 (Ω, A, ν) ⊆<br />

L 1 (Ω, A, ν). Definiere nun die Linearform<br />

⎧<br />

⎨L 2 (Ω, A, µ) → R<br />

∫<br />

φ :<br />

⎩f<br />

↦→ fdν.<br />

Nach einem Resultat der Funktionalanalysis (siehe [Ru], 12.5) existiert daher auf dem<br />

Hilbertraum der Äquivalenzklassen L 2 (µ) bzw. einfacher auf L 2 (µ) ein g ∈ L 2 (µ) derart,<br />

dass<br />

∫<br />

φ(f) = 〈f, g〉 = fgdµ.<br />

Somit ist<br />

∫<br />

∫<br />

fdν = φ(f) =<br />

fgdµ (f ∈ L 2 (Ω, A, µ)).<br />

Damit ist, wenn man f = 1 A für A ∈ A einsetzt,<br />

∫ ∫<br />

ν[A] = 1 A gdµ =<br />

A<br />

gdµ.<br />

Zu zeigen bleibt g ≥ 0 µ−fast-überall. Sei dazu A := {g < 0} ∈ A. Dann ist<br />

∫ ∫<br />

0 ≤ ν[A] = gdµ = 1 A g dµ ≤ 0,<br />

A<br />

}{{}<br />

≤0<br />

185


186 KAPITEL 6. MARTINGALTHEORIE<br />

also 1 A g = 0 µ−fast-überall und damit µ[A] = 0. Definiere nun die Dichte durch<br />

dν<br />

dµ := g1 CA.<br />

Allgemeiner ist µ, ν ≤ µ + ν. Nach obigem Vorgehen ergeben sich dann messbare Funktionen<br />

dµ<br />

d(ν + µ) , dν<br />

d(ν + µ) ≥ 0<br />

mit<br />

Sei N :=<br />

dµ<br />

µ =<br />

d(ν + µ) (µ + ν), ν = dν<br />

(µ + ν).<br />

d(ν + µ)<br />

{<br />

dµ<br />

}<br />

d(ν + µ) = 0 . Dann ist µ[N] = ν[N] = 0. Definiere<br />

Dann ist für A ∈ A<br />

∫<br />

ν[A] = ν[A \ N] =<br />

∫<br />

=<br />

A\N<br />

d(ν + µ)<br />

dµ<br />

d(ν + µ)<br />

⎧<br />

dν<br />

⎪⎨<br />

dν<br />

dµ := ⎪ ⎩<br />

A\N<br />

auf CN<br />

0 auf N.<br />

∫<br />

dν<br />

d(ν + µ) d(µ + ν) =<br />

dν<br />

(<br />

dµ d dµ<br />

) ∫<br />

d(ν + µ) (µ + ν) =<br />

A\N<br />

dν dµ<br />

d(µ + ν)<br />

dµ d(ν + µ)<br />

dν<br />

dµ<br />

∫A<br />

dµ = dν<br />

dµ dµ.<br />

Also ist ν = dν<br />

dµ µ. ✷<br />

22.2 Bemerkung<br />

Der Satz von Radon-Nikodym gilt allgemeiner für σ-endliches µ und beliebiges Maß ν. Der obige<br />

Beweis lässt sich wörtlich übernehmen für ein allgemeines endliches Maß µ.<br />

22.3 Problemstellung<br />

Sei X eine reeller Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, A, P). Wie prognostiziert<br />

man X bei gegebener ’Information’, gemessen durch eine Unter-σ-Alegbra B von A, d.h. durch<br />

eine B-messbare Zufallsvarieble ’möglichst gut’? Eine erste Idee ist die Gauß’sche Methode des<br />

kleinsten quadratischen Fehlers.<br />

22.4 Satz<br />

Zu X ∈ L 2 (Ω, A, P) und jeder Unter-σ-Algebra B ⊆ A gibt es eine P-fast sicher eindeutig<br />

bestimmte, B-messbare Zufallsvariable X B ∈ L 2 (Ω, B, P| B ) =: L 2 (B) mit<br />

||X − X B || 2 =<br />

min ||X − Y || 2.<br />

Y ∈L 2 (B)<br />

Für B ∈ B gilt<br />

∫<br />

∫<br />

X B dP = XdP.<br />

B<br />

B<br />

Beweis: Wegen B ⊆ A ist L 2 (B) ⊆ L 2 (A). Außerdem induziert die Halbnorm ||.|| 2 von L 2 (A) die


22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 187<br />

Halbnorm ||.|| 2 von L 2 (B). Zu f ∈ L 2 +(B) gibt es eine Folge (t n ) n∈N von B-Treppenfunktionen<br />

mit t n ↑ f. Mit dem Satz über monotone Konvergenz folgt<br />

∫<br />

∫<br />

lim |f − t n | 2 dP = lim |f − t n | 2 dP| B = 0<br />

n→∞<br />

n→∞<br />

mit<br />

∫<br />

∫<br />

t n dP =<br />

t n dP| B .<br />

Da der Hilbertraum L 2 (B) als vollständiger Unterraum von L 2 (A) in L 2 (A) abgeschlossen ist,<br />

gibt es nach dem Projektionssatz (siehe [Ru], 12.3, 12.4) zu ˆf ∈ L 2 (A) genau ein ĝ ∈ L 2 (B) mit<br />

bestimmt durch die Eigenschaft<br />

|| ˆf − ĝ|| = min || ˆf − ĥ||,<br />

ĥ∈L 2 (B)<br />

〈 ˆf − ĝ, ĥ〉 = 0 (ĥ ∈ L2 (B).<br />

Also folgt die Behauptung mit X = ˆf mit X B = g.<br />

Für B ∈ B ist mit 1 B = ĥ<br />

∫ ∫<br />

∫<br />

∫<br />

XdP = X1 B dP = X B 1 B dP = X B dP.<br />

B<br />

B<br />

✷<br />

22.5 Hauptsatz<br />

Zu X ∈ L 1 (Ω, A, P) gibt es eine P-fast-sicher eindeutig bestimmte, B-messbare Funktion<br />

X B ∈ L 1 (Ω, A, P) mit ∫<br />

∫<br />

X B dP = XdP (B ∈ B).<br />

Ist X ≥ 0, so auch X B P-fast sicher.<br />

B<br />

B<br />

Beweis:<br />

Existenz: Sei zunächst X ≥ 0 und<br />

⎧<br />

⎨B → [0;<br />

∫<br />

∞)<br />

Q :<br />

⎩B<br />

↦→ XdP<br />

ein endliche Maß auf B. Damit ist Q


188 KAPITEL 6. MARTINGALTHEORIE<br />

Dann ist<br />

∫<br />

B<br />

(Y 1 − Y 2 )dP = 0 (B ∈ B).<br />

Da {Y 1 − Y 2 > 0} ∈ L(B), ist {Y 1 > Y 2 } eine P-Nullmenge. Entsprechend ist {Y 2 > Y 1 } eine<br />

P-Nullmenge. Damit ist Y 1 = Y 2 P-fast sicher.<br />

Isotonie: Sei X ≥ 0. Definiere B := {X B < 0} ∈ B und es gilt<br />

∫<br />

∫<br />

0 ≥ X B dP = XdP ≥ 0.<br />

Damit ist B eine P-Nullmenge.<br />

22.6 Bezeichnungen und Bemerkung<br />

1. Die Zufallsvariable<br />

B<br />

B<br />

X B =: E B [X] =: E[X|B]<br />

heißt Version der bedingten Erwartung von X unter der Hypothese B, oder kürzer bedingte<br />

Erwartung von X unter B.<br />

Ist speziell Y : (Ω, A) → (Ω ′ , A ′ ), so definiert man die bedingte Erwartung bzgl. der Zufallsvariablen<br />

Y durch<br />

E[X|Y ] := E[X|σ(Y )].<br />

Sei allgemeiner (Y i ) i∈I eine Familie von Zufallsvariablen mit Y i : (Ω, A) → (Ω ′ , A ′ ) (i ∈ I), so<br />

definiert man die bedingte Erwartung bzgl. der Familie von Zufallsvariablen (Y i ) i∈I durch<br />

E[X|Y i ; i ∈ I] := E [ X| ⊗ i∈I<br />

Y i<br />

]<br />

.<br />

✷<br />

2. Die bedingte Erwartung bzgl. einer Zufallsvariablen und einer Unter-σ-Algebra sind äquivalente<br />

Begriffe, was aus<br />

{<br />

(Ω, A) → (Ω, B)<br />

Y :<br />

y ↦→ y<br />

folgt.<br />

3. Sei X ∈ L 2 (A). Dann ist X B ∈ L 2 (A) und B-messbar. Hier ist X B nach 22.4 gekennzeichnet als<br />

L 2 (B)-Funktion, die die quadratischen Fehler minimiert. Außerdem ist X B fast sicher eindeutig<br />

bestimmt.<br />

22.7 Beispiele<br />

1. Sei B = A und X ∈ L 1 (Ω, A, P). Dann ist nach Definition X B ∈ L 1 (Ω, A, P) und B-messbar<br />

mit<br />

∫<br />

∫<br />

X B dP = XdP.<br />

B<br />

Also X B = X fast sicher. Hier stellt die σ-Algebra B bereits die gesamte Information bereit,<br />

so dass A keine weitere Information bereithält.<br />

2. Sei B = {∅, Ω} und X ∈ L 1 (Ω, A, P). Dann ist<br />

X B = E[X] P-fast sicher.<br />

Somit enthält B keine Information über das genauere Aussehen der Zufallsvariable X.


22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 189<br />

3. Sei B ∈ A mit 0 < P[B] < 1 und B = σ ( {B} ) = {∅, B, CB, Ω} und außerdem X ∈ L 1 (Ω, A, P).<br />

Dann ist X B = α1 B + β1 CB , da X B nach Definition B-messbar ist mit<br />

∫<br />

∫ ∫<br />

αP[B] = X B dP = XdP = Xd(1 B P),<br />

B<br />

B<br />

also ist<br />

α = 1 ∫<br />

P[B]<br />

∫<br />

Xd(1 B P) =<br />

( 1B<br />

)<br />

Xd<br />

P[B] P =: E B [X] =: E[X|B]<br />

die bedingte Erwartung unter der Hypothese B. Die elementare bedingte Wahrscheinlichkeit ist<br />

definiert durch das Maß<br />

{<br />

1 A → [0; 1]<br />

P[B] 1 BP :<br />

A<br />

=: P[A|B].<br />

Analog ist β = E[X|CB] ∈ R. Also ist<br />

↦→ P[A∩B]<br />

P[B]<br />

X B = E[X|B]1 B + E[X|CB]1 CB fast sicher.<br />

4. Sei (B i ) i∈I eine höchstens abzählbare messbare Zerlegung von Ω. Dann gilt für B = σ(B i : i ∈ I)<br />

und X ∈ L 1 (Ω, A, P)<br />

X B = ∑ i∈I<br />

E[X|B i ]1 Bi fast sicher.<br />

Ist speziell X = 1 A mit A ∈ A, so gilt<br />

E[1 A |B] = ∑ i∈I<br />

P[A|B i ]1 Bi fast sicher.<br />

22.8 Satz (Linearität und Monotonie bedingter Erwartungen)<br />

Für X, Y ∈ L 1 (Ω, A, P) und α, β ∈ R gilt fast sicher<br />

1. E[X B ] = E[X],<br />

2. X B-messbar ⇒ X B = X fast sicher,<br />

3. X = Y fast sicher ⇒ X B = Y B fast sicher,<br />

4. E[α|B] = α,<br />

5. E[αX + βY |B] = αE[X|B] + βE[Y |B],<br />

6. X ≤ Y fast sicher ⇒ X B ≤ Y B fast sicher,<br />

7. ∣ E B [X] ∣ ≤ E<br />

B [ |X| ] .<br />

Beweis:<br />

1.-5. klar<br />

6. Sei Z := X − Y . Damit ist Z ≥ 0 fast sicher. Nach 22.5 ist also Y B − X B = Z B ≥ 0 fast sicher.<br />

7. Klar ist ±X ≤ |X|. Mit 6. ist damit ±E B [X] = E B [±X] ≤ E B [|X|], also |E B [X]| ≤ E B [|X|].<br />


190 KAPITEL 6. MARTINGALTHEORIE<br />

22.9 Satz (Konvergenzeigenschaften)<br />

Sei ((X n ) n∈N ) ∈ (L 1 (Ω, A, P)) N eine Folge, die nach dem Konvergenzkriterium der monotonen<br />

bzw. majorisiert Konvergenz gegen X ∈ L 1 (Ω, A, P) konvergiert. Dann gilt<br />

Beweis:<br />

lim E[X n|B] = E[X|B] fast sicher.<br />

n→∞<br />

Bei monotoner Konvergenz: Sei Œ (X n ) n∈N eine aufsteigende Folge mit X n ↑ X. Die Zufallsvariable<br />

sup Xn B ist B-messbar. Damit gilt für B ∈ B:<br />

n∈N<br />

∫<br />

∫<br />

∫<br />

∫<br />

∫<br />

sup Xn B dP 6.1<br />

= sup Xn B dP = sup X n dP 6.1<br />

= sup X n dP = XdP < ∞.<br />

B n∈N<br />

n∈N B<br />

n∈N B<br />

n∈N<br />

B<br />

B<br />

Damit ist sup Xn<br />

B<br />

n∈N<br />

integriebar und es gilt<br />

E[X|B] = sup E[X n |B] fast sicher.<br />

n∈N<br />

Bei majorisierter Konvergenz: Sei |X n | ≤ Y fast sicher (n ∈ N). Dann gilt<br />

Y n := sup X k ↓ lim sup X n = X fast sicher,<br />

k≥n n→∞<br />

Z n := inf<br />

k≥n X k ↑ lim inf<br />

n→∞ X n = X fast sicher.<br />

Damit ist −Y ≤ Z n ≤ X n ≤ Y n ≤ Y , also Z n , Y n ∈ L 1 (Ω, A, P) (n ∈ N). Damit ist fast sicher<br />

X B 1.<br />

= lim<br />

n→∞ ZB n<br />

≤ lim inf<br />

n→∞ XB n<br />

≤ lim sup Xn<br />

B n→∞<br />

≤ lim<br />

n→∞ Y B n = X B ,<br />

also<br />

X B = lim<br />

n→∞ XB n<br />

fast sicher.<br />

22.10 Satz (Jensen’sche Ungleichung)<br />

Sei φ : R → R konvex und X ∈ L 1 (Ω, A, P) mit φ ◦ X ∈ L 1 (Ω, A, P). Dann gilt<br />

φ ◦ E B [X] ≤ E B [φ ◦ X] fast sicher.<br />

Beweis: Es gibt eine folge affin linearer Abbildungen φ n : t ↦→ a n t + b n mit a n , b n ∈ R, so dass<br />

φ = sup φ n . (siehe z.B. [BW], 3.27). Für n ∈ N ist fast sicher<br />

n∈N<br />

und damit fast sicher<br />

φ n ◦ E B [X] = a n E B [X] + b n = E B [a n X + b<br />

} {{ n ] ≤ E B [φ ◦ X]<br />

}<br />

=φ◦X<br />

φ ◦ E B [X] = sup φ n E B [X] ≤ E B [φ n ◦ X].<br />

n∈N<br />


22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 191<br />

22.11 Korollar (Jensen’sche Ungleichung für Erwartungswerte)<br />

Sei φ : R → R konvex und X ∈ L 1 (Ω, A, P) mit φ ◦ X ∈ L 1 (Ω, A, P). Dann gilt<br />

φ(E[X]) ≤ E[φ ◦ X].<br />

Beweis: Setze B = {∅, Ω}. Dann folgt die Behauptung aus<br />

φ(E[X]) = φ ◦ E B [X] ≤ E B [φ ◦ X] = E[φ ◦ X].<br />

✷<br />

22.12 Korollar<br />

Sei p ∈ [0; ∞]. Für X ∈ L p (Ω, A, P) und jede σ-Algebra B ⊆ A ist E B [X] ∈ L p (Ω, A, P) mit<br />

||E B [X]|| p ≤ ||X|| p .<br />

Für p < ∞ gilt schärfer<br />

|E B [X]| p ≤ E B[ |X| p] .<br />

Beweis:<br />

Für p < ∞: folgt die Aussage aus 22.10 mit φ : t ↦→ |t| p , denn aus φ ◦ X ∈ L 1 (Ω, A, P) folgt die<br />

schärfere Aussage. Bildet man dann den Erwartungswert auf beiden Seiten der Ungleichung, folgt<br />

die obere Aussage.<br />

Für p = ∞ folgt die Aussage aus 22.8.6, denn sei α = ||X|| ∞ . Dann ist X ≤ α fast sicher, also<br />

auch X B ≤ α fast sicher.<br />

✷<br />

22.13 Satz (Multiplikativität)<br />

Für p, q ∈ [1; ∞] mit 1 p + 1 q = 1 und X ∈ Lp (Ω, A, P), Y ∈ L q (Ω, A, P) ist, falls X eine B-messbare<br />

Zufallsvariable ist,<br />

E B [XY ] = XE B [Y ] = E B [X]E B [Y ] fast sicher.<br />

Beweis: Esi ist nur zu zeigen, dass E B [XY ] = XE B [Y ]. Sei hierzu Œ X ≥ 0, denn wegen<br />

majorisierter Konvergenz ist Œ X eine B-Elementarfunktion und wegen Linearität ist Œ X = 1 B<br />

mit B ∈ B. Da XE B [Y ] stets B-messbar ist, genügt es,<br />

∫<br />

∫<br />

XE B [Y ]dP = XY dP (A ∈ B)<br />

zu zeigen. Dies folgt aber aus<br />

∫<br />

∫<br />

∫<br />

XE B [Y ]dP = 1 B E B [Y ]dP =<br />

A<br />

22.14 Satz (Glättung)<br />

A<br />

A<br />

A∩B∈B<br />

A<br />

∫<br />

E B [Y ]dP =<br />

A∩B<br />

∫<br />

Y dP =<br />

Sind B 1 ⊆ B 2 ⊆ A Unter-σ-Algebren von A, so gilt für X ∈ L 1 (Ω, A, P)<br />

(X B2 ) B1 = X B1 = (X B1 ) B2 fast sicher.<br />

A<br />

∫<br />

1 B Y dP =<br />

A<br />

XY dP.<br />


192 KAPITEL 6. MARTINGALTHEORIE<br />

Beweis: Die zweite Gleichung, also X B1 = (X B1 ) B2 ist klar, da X B1 B 2 -messbar ist. Für B ∈ B 1<br />

gilt außerdem ∫<br />

∫<br />

∫ ∫<br />

(X B2 ) B1 dP = X B2 dP = XdP = X B1 dP.<br />

B<br />

B<br />

B<br />

B<br />

22.15 Satz<br />

Ist X ∈ L 1 (Ω, A, P) unabhängig von B bzw. von der Zufallsvariablen Y ∈ L 1 (Ω, A, P), so ist<br />

E[X|B] = E[X] fast sicher bzw.<br />

E[X|Y ] = E[X] fast sicher.<br />

✷<br />

Beweis: Da ω ↦→ E[X] B-messbar ist, genügt es zu zeigen, dass<br />

∫<br />

∫<br />

X B dP = E[X]dP = E[X]P[B].<br />

Dies folgt jedoch aus<br />

∫<br />

∫<br />

X B dP =<br />

B<br />

B<br />

B<br />

B<br />

∫<br />

∫<br />

XdP = 1 B XdP =<br />

da die Zufallsvariablen 1 B und X unabhängig sind.<br />

∫<br />

1 B dP<br />

XdP = P[B]E[X],<br />

✷<br />

22.16 Definition<br />

Für A ∈ A heißt<br />

P[A|B] := P B [A] := E[1 A |B]<br />

Version der bedingten Wahrscheinlichkeit von A unter der Hypothese B, oder kurz bedingte Wahrscheinlichkeit<br />

von A unter B. Entsprechend definiert man<br />

P[A|Y i : i ∈ I] := P [ A| ⊗ ] [ ( ⊗ )]<br />

Y i := P σ Y i<br />

i∈I<br />

i∈I<br />

für eine Familie von Zufallsvariablen (Y i ) i∈I mit Y i : (Ω, A) → (Ω i , A i ) (i ∈ I).<br />

22.17 Bemerkung<br />

Sei A ∈ A und (A n ) n∈N ∈ A N .<br />

1. Die bedingte Wahrscheinlichkeit P[A|B] ist fast sicher eindeutig bestimmt als B-messbare Zufallsvariable<br />

in L 1 (Ω, A, P) mit<br />

∫<br />

P[A|B]dP = P[A ∩ B] (B ∈ B).<br />

2. Es gilt 0 ≤ P[A|B] ≤ 1 fast sicher.<br />

3. Es ist P[∅|B] = 0 und P[Ω, B] = 1 fast sicher.<br />

4. Ist A 1 ⊆ A 2 , so gilt P[A 1 |B] ≤ P[A 2 |B] fast sicher.<br />

B<br />

5. Ist A i ∩ A j = ∅ für i ≠ j, so ist P [ ⊎<br />

A n |B ] ∞∑<br />

= P[A n |B] fast sicher.<br />

n∈N<br />

n=1


22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 193<br />

6. Für ω ∈ Ω ist A ↦→ P[A|B](ω) im allgemeinen kein Wahrscheinlichkeitsmaß auf A, denn z.B. in<br />

5. hat man für jede Folge eine Ausnahmenullmenge, aber im allgemeinen keine universelle. In<br />

22.27 erhalten wir jedoch ein Resultat, wann diese Nullmenge universell gewählt werden kann.<br />

7. Ist (B i ) i∈I ∈ A I eine höchstens abzählbare, messbare Zerlegung von Ω mit B = σ(B i : i ∈ I),<br />

so ist für A ∈ A<br />

P[A|B] = P[A|B i ]1 Bi .<br />

22.18 Faktorisierungssatz<br />

Sei<br />

∑ i∈I<br />

P[B i ]>0<br />

Y : (Ω, A) → (Ω ′ , A ′ ) und Z : Ω → R<br />

mit einem Messraum (Ω ′ , A ′ ). Dann ist Z genau dann σ(Y )-messbar, wenn es eine A ′ -messbare<br />

Funktion g : Ω ′ → R gibt mit Z = g ◦ Y gibt.<br />

Y<br />

Ω ..<br />

Ω ′<br />

Z<br />

g<br />

. . .<br />

.<br />

R<br />

Beweis:<br />

“⇐”: Klar.<br />

“⇒”. Sei<br />

Z =<br />

n∑<br />

α i 1 Ai<br />

i=1<br />

mit A i ∈ σ(Y ) (i = 1, . . . , n) eine σ(Y )-Elementarfunktion. Dann gibt es A ′ i ∈ A′ mit<br />

Aus 1 Ai = 1 {Y ∈A ′<br />

i } = 1 A ′<br />

i<br />

◦ Y folgt<br />

A i = Y −1 (A ′ i) = {Y ∈ A ′ i}.<br />

( ∑<br />

n )<br />

Z = α i 1 A ′<br />

i<br />

◦ Y.<br />

Durch monotone Konvergenz gilt die Aussage damit für σ(Y )-messbare Z ≥ 0.<br />

i=1<br />

Sei allgemein Z = Z + − Z − . Dann gibt es g 1 , g 2 ≥ 0 A ′ -messbare Zufallsvariablen mit<br />

Z + = g 1 ◦ Y und Z − = g 2 ◦ Y und damit<br />

Wegen<br />

folgt<br />

also die Behauptung.<br />

Z = g 1 ◦ Y − g 2 ◦ Y.<br />

{g 1 = ∞} ∩ {g 2 = ∞} ∩ Y (Ω) = ∅<br />

} {{ }<br />

=:A∈A ′<br />

Z = g 1 1 CA ◦ Y − g 2 1 CA ◦ Y = ( g 1 1 CA − g 2 1 CA<br />

)<br />

◦ Y,<br />


194 KAPITEL 6. MARTINGALTHEORIE<br />

22.19 Korollar<br />

Sei Y : (Ω, A) → (Ω ′ , A ′ ) eine Zufallsvariable. Dann existiert zu jedem X ∈ L 1 (Ω, A, P) eine<br />

Faktorisierung g : Ω ′ → R der bedingten Erwartung E[X|Y ], d.h. g ist A ′ -messbar und E[X|Y ] =<br />

g◦Y. Dabei ist g P Y -integrierbar mit<br />

∫<br />

∫<br />

gdP Y = XdP (A ′ ∈ A ′ )<br />

A ′<br />

Y −1 (A ′ )<br />

und ist durch diese Eigenschaften P Y -fast-sicher eindeutig bestimmt.<br />

Beweis:<br />

Existenz: Nach Definition ist E[X|Y ] σ(Y )-messbar. Mit 22.18 gibt es ein g : Ω ′ → R mit E[X|Y ] =<br />

g ◦ Y und<br />

g ◦ Y ∈ L 1 (Ω, A, P) ⇐⇒ g ∈ L 1 (Ω ′ , A ′ , P Y )<br />

Ferner gilt für A ′ ∈ A ′<br />

∫<br />

∫<br />

XdP =<br />

Y −1 (A ′ )<br />

Y −1 (A ′ )<br />

∫<br />

E[X|Y ]dP =<br />

∫<br />

∫<br />

= 1 A ′gdP Y = gdP Y .<br />

A ′<br />

Y −1 (A ′ )<br />

∫<br />

g ◦ Y dP = (1 A ′g) ◦ Y dP<br />

Eindeutigkeit: Ist h : Ω ′ → R eine P Y -integriebare Zufallsvariable mit<br />

∫<br />

∫<br />

hdP Y = XdP (A ′ ∈ A ′ ),<br />

A ′ Y −1 (A ′ )<br />

so ist h ◦ Y = E[X|Y ] fast sicher, denn h ◦ Y ist σ(Y )-messbar, P-integrierbar mit<br />

∫<br />

∫<br />

∫<br />

h ◦ Y dP = (1 A ′h) ◦ Y dP = hdP Y<br />

Y −1 (A ′ )<br />

A<br />

∫<br />

′<br />

= XdP<br />

Y −1 (A ′ )<br />

und damit h ◦ Y = E[X|Y ] = g ◦ Y P-fast sicher, also h = g P Y -fast sicher.<br />

✷<br />

22.20 Definition<br />

In der Situation von 22.19 heißt g heißt Version der faktorisierten bedingten Erwartung von X<br />

unter der Hypothese Y oder kurz faktorisierte bedingte Erwartung von X unter Y und wird mit<br />

E[X|Y = .] bezeichnet. Für y ∈ Ω heißt<br />

E[X|Y = y] := E[X|Y = .](y)<br />

bedingter Erwartungswert<br />

von X unter der Hypothese {Y = y} (vgl. 22.21.3). Damit gilt<br />

E[X|Y = .] ◦ Y = E[X|Y ] fast sicher<br />

und folgendes Diagramm kommutiert<br />

Y<br />

Ω ..<br />

Ω ′<br />

E[X|Y ] E[X|Y = .]<br />

. . .<br />

.<br />

R


22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 195<br />

22.21 Bemerkungen<br />

Sei Y : (Ω, A) → (Ω ′ , A ′ ) eine Zufallsvariable und X ∈ L 1 (Ω, A, P).<br />

1. Die faktorisierte bedingte Erwartung E[X|Y = .] ist P Y -integrierbar mit<br />

∫<br />

∫<br />

E[X|Y = .]dP Y = XdP (A ′ ∈ A ′ )<br />

A ′ {Y ∈A ′ }<br />

und ist durch diese beiden Eigenschaften P Y -fast-sicher eindeutig bestimmt.<br />

2. Ist y ∈ Ω ′ und {y} ∈ A ′ mit P Y [{y}] = P[Y = y] > 0, so ist<br />

∫<br />

E[X|Y = y]P Y [{y}] = XdP,<br />

also ist<br />

der bedingte Erwartungswert<br />

E[X|Y = y] =<br />

{Y =y}<br />

∫<br />

1<br />

XdP 22.7.3<br />

= E {Y =y} [X]<br />

P[Y = y] {Y =y}<br />

3. Faktorisierte bedingte Wahrscheinlichkeit<br />

Sei A ∈ A. Dann ist<br />

P[A|Y = .] := E[1 A |Y = .]<br />

P Y -fast-sicher eindeutig bestimmt als P Y -integrierbare Funktion mit<br />

∫<br />

A ′ P[A|Y = y]P Y [dy] = P[A ∩ {Y ∈ A ′ }] (A ′ ∈ A ′ ).<br />

Für y ∈ Ω ′ , {y} ∈ A ′ mit P Y [{y}] = P[Y = y] > 0 ist dann<br />

P[A|Y = y] =<br />

P[A ∩ {Y = y}]<br />

P[Y = y]<br />

= P[A|{Y = y}]<br />

die elementare bedingte Wahrscheinlichkeit unter der Hypothese {Y = y}.<br />

4. Es ist<br />

P[A|Y ] = P[A|Y = .] ◦ Y<br />

(A ∈ A).<br />

Die Ungleichung 0 ≤ P[A|Y = y] ≤ 1 und jede der Gleichungen<br />

⊎ ]<br />

P[∅|Y = y] = 0, P[Ω|Y = y] = 1, P[<br />

An |Y = y =<br />

gelten P Y -fast sicher, jedoch nicht außerhalb einer universellen Nullmenge.<br />

22.22 Definition<br />

Erwartungskern zu einer Unter-σ-Algebra B ⊆ A heißt jeder Markoff-Kern<br />

P B : Ω × A → [0; 1] von (Ω, B) nach (Ω, A),<br />

∞∑<br />

P[A n |Y = y]<br />

für den P B [., A] für jedes A ∈ A eine Version der bedingten Wahrscheinlichkeit P B [A] = P[A|B]<br />

ist, d.h.<br />

∫<br />

P B [ω, A]P[dω] = P[A ∩ B].<br />

Anders ausgedrückt ist<br />

B<br />

n=1<br />

P[A|B] = P B [., A] fast sicher<br />

(A ∈ A).


196 KAPITEL 6. MARTINGALTHEORIE<br />

22.23 Satz<br />

Ist P B ein Erwartungskern zu B ⊆ A, so gilt für die bedingte Erwartung von X ∈ L 1 (Ω, A, P)<br />

∫<br />

E[X|B] = X(ω ′ )P B (., dω ′ ) fast sicher.<br />

Insbesondere ist<br />

∫ ( ∫<br />

E[X] =<br />

)<br />

X(ω ′ )P B (ω, dω ′ ) P[dω].<br />

Beweis: Für X = 1 A mit A ∈ A ist dies die Definition des Erwartungskerns, also ist für solche X<br />

die Behauptung richtig. Damit gilt sie ebenso für positive Treppenfunktionen, also wegen monotoner<br />

Konvergenz für integrierbare X ≥ 0. Damit folgt die Behauptung aus X = X + − X − und<br />

der Linearität der bedingten Erwartung (22.8, 22.9).<br />

✷<br />

22.24 Definition<br />

Sind (Ω ′ , A ′ ) und (Ω ′′ , A ′′ ) Messräume, X : Ω → Ω ′′ und Y : Ω → Ω ′ Zufallsvariablen, so heißt ein<br />

Markoff-Kern<br />

P X|Y : Ω × A ′′ → [0; 1] von (Ω, σ(Y )) nach (Ω ′′ , A ′′ ),<br />

für den P X|Y [., A ′′ ] eine Version der bedingten Wahrscheinlichkeit P[X −1 (A ′′ )|Y ] für jedes A ′′ ∈<br />

A ′′ ist, bedingte Verteilung von X unter der Hypothese Y . Anders ausgedrückt ist<br />

22.25 Bemerkung<br />

P X|Y [., A ′′ ] = P[X −1 (A ′′ )|Y ] fast sicher (A ′′ ∈ A ′′ ).<br />

Der Spezialfall (Ω ′ , A ′ ) = (Ω, B) und Y = id Ω liefert σ(Y ) = B und damit die bedingte Verteilung<br />

von X unter der Hypothese B. Ist überdies (Ω ′′ , A ′′ ) = (Ω, A) und X = id Ω , so ergibt sich der<br />

Erwartungskern P B , denn<br />

P X|Y [., A ′′ ] = P[X −1 (A ′′ )|Y ] = P[A ′′ |B] = P B [., A ′′ ] fast sicher (A ′′ ∈ A ′′ ).<br />

22.26 Definition<br />

Ein Markoff-Kern K von (Ω ′ , A ′ ) nach (Ω ′′ , A ′′ ) heißt faktorisierte bedingte Verteilung von X unter<br />

der Hypothese Y , falls für jedes A ′′ ∈ A ′′ die Abbildung K[., A ′′ ] eine Version der faktorisierten<br />

bedingten Wahrscheinlichkeit P[X −1 (A ′′ )|Y = .] ist. Für y ∈ Ω ′ bezeichnet man das Wahrscheinlichkeitsmaß<br />

K[y, .] suggestiv mit P X|Y =y und folglich mit<br />

P X|Y =. : (y, A ′′ ) ↦→ P X|Y =y [A ′′ ]<br />

PY -f.s.<br />

= P[X −1 (A ′′ )|Y = y],<br />

also<br />

Damit gilt<br />

P X|Y =. ◦ Y = P X|Y .<br />

K[., A ′′ ] = P[X −1 (A ′′ )|Y = .] = P X|Y =. [X −1 (A ′′ )] P Y -fast sicher.<br />

22.27 Bemerkung<br />

Definitionsgemäß sind für A ′′ ∈ A ′′ P X|Y [., A ′′ ] und P X|Y =. [A ′′ ] P Y -fast-sicher, also bis auf von<br />

A ′′ abhängige Nullmengen eindeutig bestimmt. Gibt es jedoch einen abzählbaren Erzeuger B ′′<br />

von A ′′ = σ(B ′′ ), so kann man die Nullmengen universell, d.h. unabhängig von A ′′ wählen: Sei<br />

dazu Œ B ′′ ∩-stabil, Ω ′′ ∈ B ′′ . Eindeutigkeit gilt dann universell für A ′′ ∈ B ′′ , außerhalb der<br />

Vereinigung abzählbar vieler Nullmengen, also einer Nullmenge N. Die Behauptung folgt dann


22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 197<br />

aus dem Eindeutigkeitssatz der Maßtheorie. Ist insbesondere Ω ′′ polnisch mit A ′′ = B(Ω ′′ ), so<br />

sind die bedingten Verteilungen und die faktorisierten bedingten Verteilungen universell fast sicher<br />

eindeutig bestimmt. Wähle dazu ein System B ′′ = der offenen Kugeln mit rationalen Radien in<br />

Mittelpunkten aus einer abzählbaren, dichten Teilmenge von Ω.<br />

22.28 Existenzsatz<br />

Zu jeder Zufallsvariable X : (Ω, A, P) → (Ω ′′ , A ′′ ) mit polnischem Raum Ω ′′ , A ′′ = B(Ω ′′ ) gibt<br />

es ’genau’ eine bedingte Erwartung von X unter der Hypothese Y und genau eine faktorisierte<br />

bedingte faktorisierte Erwartung von X unter der Hypothese Y .<br />

Beweis: Folgt aus der inneren Regularität der Wahrscheinlichkeitsmaße auf polnischen Räumen<br />

(vgl. z.B. [BW], 44.3, [GS], 5.3.16, wobei dort reguläre bedingte Verteilung das heißt, was hier<br />

unter dem Namen faktorisierte bedingte Verteilung eingeführt wurde).<br />

✷<br />

22.29 Satz<br />

Seien X : (Ω, A, P) → (Ω ′′ , A ′′ ) und Y : (Ω, A, P) → (Ω ′ , A ′ ) Zufallsvariablen und K ein Markoff-<br />

Kern von (Ω ′ , A ′ ) nach (Ω ′′ , A ′′ ).<br />

Genau dann ist K eine faktorisierte bedingte Verteilung von X unter der Hyposthese Y , wenn<br />

P (Y,X) = P Y ⊗ K.<br />

Beweis: Für A ′ ∈ A ′ und A ′′ ∈ A ′′ gilt<br />

P (Y,X) [A ′ × A ′′ ] = P[X −1 (A ′′ ) ∩ {Y ∈ A ′ }] 22.21.2<br />

=<br />

∫<br />

A ′ P[X −1 (A ′′ )|Y = y]P Y [dy].<br />

Andererseits ist<br />

∫<br />

P Y ⊗ K[A ′ × A ′′ ] = K[y, A ′′ ]P Y [dy].<br />

A ′<br />

Mit 22.26 folgt die Behauptung.<br />

✷<br />

22.30 Korollar<br />

Sei (Ω, A, P, (X t ) t∈I , E, B(E)) ein stochastischer Prozess mit Zustandsraum E, dessen gemeinsame<br />

Verteilung das Markoff-Maß P µ aus einer Markoff’schen Schar (P s,t ) s,t∈I und einer Startwahrscheinlichkeit<br />

µ auf E ist.<br />

s≤t<br />

Dann ist für s < t der Markoff-Kern P s,t eine faktorisierte bedingte Verteilung von X t unter der<br />

Hypothese X s .<br />

Beweis: Nach 18.10 ist<br />

P (Xs,X t) = P µ (π s,π t) = Pµ π s<br />

⊗ P s,t = P Xs ⊗ P s,t .<br />

Deshalb folgt die Behauptung aus 22.29.<br />


198 KAPITEL 6. MARTINGALTHEORIE<br />

23 Martingale, Sub- und Supermartingale<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />

23.1 Definition<br />

1. Sei (I, ≤) eine nicht notwendig total geordnete Menge und (F t ) t∈I eine Filtration, d.h. für jedes<br />

t ∈ I ist F t eine Unter-σ-Algebra von A und<br />

F s ⊆ F t (s, t ∈ I, s ≤ t).<br />

und (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahr-<br />

Dann heißt (Ω, A, (F t ) t∈I ) filtrierter Messraum<br />

scheinlichkeitsraum.<br />

2. Sei I := I ⊎ {∞} mit t ≤ ∞ (t ∈ I). Damit ist die Ordnung auf I auf I fortgesetzt und<br />

F ∞ := σ ( ⋃ )<br />

F t .<br />

t∈I<br />

3. Für t ∈ I sei<br />

Dann ist F t+ eine σ-Algebra.<br />

F t+ := ⋂ s∈I<br />

s≤t<br />

F s .<br />

Gilt F t = F t+ (t ∈ I), so heißt die Filtration rechtsstetig. Ein stochastischer Prozess (X t ) t∈I<br />

auf (Ω, A, P) heißt an eine Filtration (F t ) t∈I adaptiert, wenn jedes X t F t -messbar ist.<br />

23.2 Beispiel<br />

Sei (X t ) t∈I ein stochastischer Prozess auf (Ω, A, P). Dann wird durch<br />

F ∗ ≤t := σ(X s : s ∈ I, s ≤ t)<br />

die sogenannte kanonische Filtration des Prozesses definiert, d.h. die kleinste Filtration, an die<br />

der Prozess (X t ) t∈I adaptiert ist. Dabei nennt man F ≤t auch σ-Algebra der t-Vergangenheit.<br />

23.3 Definition<br />

Sei (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum und (X t ) t∈I ein adaptierter stochastischer<br />

Prozess auf (Ω, A, P). Gilt dann<br />

1. E[|X t |] < ∞ (t ∈ I),<br />

2. X s ≥ E[X t |F s ] fast sicher (s, t ∈ I, s ≤ t),<br />

dann heißt (X t ) t∈I Supermartingal bzgl. (F t ) t∈I oder ein (F t ) t∈I -Supermartingal. Kurz sagt man<br />

auch, (X t , F t ) t∈I ist ein Supermartingal.<br />

Ist (−X t ) t∈I ein Supermartingal bzgl. (F t ) t∈I , dann heißt (X t ) t∈I Submartingal. Sind sowohl<br />

(X t ) t∈I als auch (−X t ) t∈I Supermartingale bzgl. (F t ) t∈I , dann heißt (X t ) t∈I Martingal bzgl.<br />

(F t ) t∈I .<br />

Ist (F t ) t∈I = (F ≤t ) t∈I die kanonische Filtration von (X t ) t∈I , so spricht man von Supermartingalen,<br />

Submartingalen oder Martingalen schlechthin.


23. MARTINGALE, SUB- UND SUPERMARTINGALE 199<br />

23.4 Bemerkung<br />

Sei (X t ) t∈I ein Prozess, mit E[|X t |] < ∞ (t ∈ I).<br />

Beh: Der Prozess (X t ) t∈I ist genau dann ein Supermartingal, wenn<br />

∫ ∫<br />

X s dP ≥ X t dP (A ∈ F s , s, t ∈ I, s ≤ t).<br />

Denn:<br />

“⇒”: Es ist<br />

“⇐”: Sei<br />

Dann ist<br />

∫<br />

A<br />

A<br />

∫<br />

X s dP ≥<br />

Also folgt P[A] = 0.<br />

23.5 Beispiel<br />

∫<br />

A<br />

A<br />

A<br />

∫<br />

E[X t |F s ]dP =<br />

A<br />

X t dP<br />

A := {X s (ω) < E[X t |F s ]} ∈ F s .<br />

A<br />

(A ∈ F s , s, t ∈ I, s ≤ t).<br />

(<br />

Xs − E[X t |F s ] ) ∫<br />

dP = (X s − X t )dP ≥ 0.<br />

Betrachte eine unabhängige Folge von Glücksspielen, beschrieben durch die Folge (Y n ) n∈N unabhängiger,<br />

identisch verteilter Zufallsvariablen, die den Gewinn bzw. den Verlust des n-ten Spiels<br />

durch Y n = 1 bzw. Y n = −1 beschreiben mit VertY n = pɛ 1 + (1 − p)ɛ −1 . Also ist p die Gewinnwahrscheinlichkeit.<br />

Vor Spielbeginn wird eine Strategie<br />

e 1 := 0, e n : {−1; 1} n → R + (n ∈ N)<br />

festgelegt. Diese liefert den Einsatz in der n + 1-ten Spielrunde e n (Y 1 , . . . , Y n ). Das Spiel ist so<br />

angelegt, dass es den doppelten Einsatz <strong>zur</strong>ückgibt bei Gewinn und man seinen Einsatz einbehält,<br />

wenn man verliert. Der Verlust wird an den Gegenspeiler bzw. die Bank bezahlt, die keinen Einsatz<br />

macht.<br />

Sei S n der Gesamtgewinn bzw. -verlust nach der n-ten Runde. Damit ist<br />

S 1 = Y 1 , S n+1 = S n + e n (Y 1 , . . . , Y n )Y n+1 .<br />

Da e n beschränkt und messbar ist und Y n integrierbar ist, ist auch e n (Y 1 , . . . , Y n )Y n+1 integrierbar.<br />

Also ist S n integrierbar (n ∈ N) und S n ist σ(Y 1 , . . . , Y n )-messbar. Fast sicher gilt dabei<br />

E[S n+1 |Y 1 , . . . Y n ] 22.13<br />

= S n + e n (Y 1 , . . . , Y n )E[Y n+1 |Y 1 , . . . , Y n ]<br />

22.15<br />

= S n + e n (Y 1 , . . . , Y n )E[Y n+1 ] = S n + e n (Y 1 , . . . , Y n )(p − (1 − p))<br />

⎧<br />

⎪⎨ > S n ⇐⇒ p > 1 2<br />

= S n + e n (Y 1 , . . . , Y n )(2p − 1) = S n ⇐⇒ p = 1 2<br />

⎪⎩<br />

< S n ⇐⇒ p < 1 2 .<br />

Sind alle e n für n ∈ N strikt positiv, so ist σ(Y 1 , . . . , Y n ) = σ(S 1 , . . . , S n ) und es gilt<br />

⎧<br />

⎪⎨ > S n , falls p > 1 2<br />

(begünstigte Spiele),<br />

E[S n+1 |S 1 , . . . , S n ] = S n , falls p = 1 2<br />

(faire Spiele),<br />

⎪⎩<br />

< S n , falls p < 1 2<br />

(beungünstigte Spiele).<br />

ein Super-<br />

Nachfolgende Bemerkung 1. zeigt, dass (S n ) n∈N für p = 1 2 ein Martingal, für p ≤ 1 2<br />

martingal und für p ≥ 1 2<br />

ein Submartingal ist.


200 KAPITEL 6. MARTINGALTHEORIE<br />

Der Name ’Martingal’ bedeutet vermutlich folgende Strategie im Provenzalischen bei Roulettespiel:<br />

e n (Y 1 , . . . , Y n ) = (1 − Y n )e n−1 (Y 1 , . . . , Y n−1 ),<br />

d.h. die Strategie, bei der man bei Verlust den in der Vorrunde verlorenen Einsatz verdoppelt, bis<br />

man gewinnt.<br />

23.6 Bemerkungen<br />

1. Sei I = N. Gilt X n ≥ E[X n+1 |F n ] (n ∈ N), so ist (X n ) n∈N bereits ein Supermartingal, denn für<br />

k ∈ N gilt<br />

E[X n+k |F n ] = E Fn [X n+k ] 22.14<br />

= E Fn[ . . . E F n+k−2<br />

[E F n+k−1<br />

[X n+k ]] . . . ] ≥ X n fast sicher.<br />

2. Sei I total geordnet und (X t ) t∈I ein stochastischer Prozess. Dann ist die Funktion t ↦→ E[X t ]<br />

antiton, falls (X t ) t∈I ein Supermartingal ist, isoton im Falle eines Submartingals und konstant,<br />

falls (X t ) t∈I ein Martingal ist.<br />

3. Ist (X t ) t∈I ein Supermartingal, Submartingal bzw. ein Martingal bzgl. einer Filtration (F t ) t∈I .<br />

Ist (F ′ t) t∈I eine Filtration, so dass<br />

F ′ t ⊆ F t ,<br />

X t ist F ′ t-messbar,<br />

so ist (X t ) t∈I ebenso ein Supermartingal, Submartingal bzw. ein Martingal bzgl. (F ′ t) t∈I . Insbesondere<br />

sind (F t ) t∈I -Super- bzw. Sub- bzw. Martingale ebenfalls Super- bzw. Sub- bzw.<br />

Martingale schlechthin, d.h. bzgl. der kanonischen Filtration.<br />

23.7 Satz<br />

Sei X ∈ L 1 (Ω, A, P) und (F t ) t∈I eine Filtration in A. Dann wird durch<br />

ein Martingal(X t ) t∈I bzgl. (F t ) t∈I definiert.<br />

X t := E[X|F t ]<br />

Beweis: Sei s ≤ t. Dann ist X t = E[X|F t ] messbar bzgl. F t , integrierbar und für A ∈ F s ⊆ F t<br />

gilt<br />

∫ ∫<br />

∫ ∫<br />

∫<br />

X s dP = E[X|F s ]dP = XdP = E[X t |F t ]dP = X t dP.<br />

A<br />

A<br />

A<br />

A<br />

A<br />

23.8 Satz<br />

Für jede Folge (X n ) n∈N reeller Zufallsvariablen sind folgende Aussagen äquivalent:<br />

( ∑<br />

n )<br />

1. Die Folge (S n ) n∈N := X i<br />

i=1<br />

n∈N<br />

ist ein Martingal.<br />

2. Der Prozess (X n ) n∈N ist eine Martingaldifferenzfolge, d.h. es gibt ein Martingal (S n ) n∈N mit<br />

X 1 = S 1 , X n+1 = S n+1 − S n .<br />

3. Alle X n sind integrierbar und ’an der bedingten Erwartung zentriert’, d.h.<br />

✷<br />

E[X n+1 |X 1 , . . . , X n ] = 0 fast sicher<br />

(n ∈ N).<br />

Beweis:


23. MARTINGALE, SUB- UND SUPERMARTINGALE 201<br />

“1.⇔2.”: Klar.<br />

“2.⇒3.”: Es gilt wegen σ(X 1 , . . . , X n ) = σ(S 1 , . . . , S n ) fast sicher<br />

E[X n+1 |X 1 , . . . , X n ] = E[S n+1 − S n |X 1 , . . . , X n ] = E[S n+1 − S n |S 1 , . . . , S n ]<br />

= E[S n+1 |S 1 , . . . , S n ] − E[S n |S 1 , . . . , S n ] = S n − S n = 0.<br />

“3.⇒2.”: Hier gilt fast sicher<br />

E[S n+1 |S 1 , . . . S n ] = E[S n + X n+1 |S 1 , . . . , S n ]<br />

= E[S n |S 1 , . . . , S n ] + E[X n+1 |X 1 , . . . , X n ] = S n .<br />

✷<br />

23.9 Korollar<br />

Für jede Folge (X n ) n∈N unabhängiger, zentrierter Zufallsvariablen, d.h. Zufallsvariablen mit<br />

ist die Folge der Partialsummen<br />

ein Martingal.<br />

E[X n ] = 0 (n ∈ N)<br />

( ∑<br />

n )<br />

(S n ) n∈N := X i<br />

i=1<br />

Beweis: Die Bedingung 23.8.3 ist erfüllt, denn es gilt<br />

n∈N<br />

E[X n+1 |X 1 , . . . , X n ] 22.15<br />

= E[X n+1 ] = 0.<br />

✷<br />

23.10 Satz<br />

Seien (X t , F t ) t∈I und (Y t , F t ) t∈I Martingale bzw. Supermartingale. Dann gilt<br />

1. Für α, β ∈ R + ist (αX t + βY t ) t∈I ein Martingal bzw. ein Supermartingal. Die Menge der<br />

(F t ) t∈I -Supermartingale ist also ein konvexer Kegel, die Menge der (F t ) t∈I -Martingale sogar<br />

ein Vektorraum.<br />

2. Der Prozess ( inf(X t , Y t ) ) t∈I<br />

ist ein Supermartingal.<br />

Beweis:<br />

1. Das ist klar wegen der Linearität der bedingten Erwartung.<br />

2. Seien s, t ∈ I mit s ≤ t. Dann ist E Fs [X t ] ≤ X s und E Fs [Y t ] ≤ Y s . Damit ist auch<br />

E Fs [inf(X t , Y t )] ≤ inf ( E Fs [X t ], E Fs [Y t ] ) ≤ inf(X s , Y s ) fast sicher.<br />


202 KAPITEL 6. MARTINGALTHEORIE<br />

23.11 Satz<br />

1. Ist (X t , F t ) t∈I ein Submartingal, so ist auch (X t + , F t ) t∈I ein Submartingal.<br />

2. Sei φ : R → R, so dass φ ◦ X t ∈ L 1 (Ω, A, P) (t ∈ I), wobei entweder<br />

• (X t , F t ) t∈I ein Martingal und φ konvex oder<br />

• (X t , F t ) t∈I ein Submartingal und φ isoton und konvex ist.<br />

Dann ist (φ ◦ X t ) t∈I ein Submartingal.<br />

Beweis:<br />

1. Die Behauptung folgt wegen X + t = sup(X t , 0) aus 23.10.2<br />

2. Sei zuerst (X t ) t∈I ein Martingal. Für s, t ∈ I mit s ≤ t ist X s = E Fs [X t ]. Damit ist<br />

φ ◦ X s = φ ◦ E Fs [X t ] 22.10<br />

≤ E Fs [φ ◦ X t ].<br />

Ist (X t ) t∈I ein Submartingal, so ist X s ≤ E Fs [X t ] und, da φ isoton ist<br />

23.12 Korollar<br />

φ ◦ X s ≤ φ ◦ E Fs [X t ] 22.10<br />

≤ E Fs [φ ◦ X t ].<br />

Sei p ≥ 1. Ist )(X t , F t ) t∈I ein p-fach integrierbares Martingal, d.h. X t ∈ L p (Ω, A, P) (t ∈ I), so<br />

ist<br />

(|X t | p , F t ein Submartingal. Insbesondere ist für jedes Martingal (X t , F t ) t∈I der Prozess<br />

( ) t∈I<br />

|Xt |, F t ein Submartingal.<br />

t∈I<br />

Beweis: Verwende 23.11 mit der konvexen Funktion φ : x ↦→ |x| p und φ◦X t = |X t | p ∈ L 1 (Ω, A, P).<br />

✷<br />

23.13 Hauptsatz<br />

Sei I ⊆ R + und (X t ) t∈I ein integrierbarer stochastischer Prozess mit konstantem Erwartungwert<br />

und unabhängigen Zuwächsen. Dann ist (X t ) t∈I ein Martingal.<br />

✷<br />

Beweis:<br />

Beh: X t − X s ist nach unabhängig von F ≤s (s ≤ t).<br />

Denn: Im Fall s = t ist die Behauptung trivial, sei also s < t. Nach Voraussetzung ist X t − X s<br />

unabhängig von σ(X t0 , . . . , X tn ) = σ(X t0 , X t1 − X t0 , . . . , X tn − X tn−1 ) für je endlich viele t 0 <<br />

t 1 < . . . < t n = s < t. Die Vereinigung aller dieser σ-Algebren ist ein ∩-stabiler Erzeuger von F ≤s .<br />

Damit ist nach 12.1 σ(X t − X s ) von F ≤s unabhängig.<br />

Für s, t ∈ I mit s ≤ t ist X t = X s + X t − X s und damit ist fast sicher<br />

E[X t |F ≤s ] = X s + E[X t − X s |F ≤s ] 22.15<br />

= X s + E[X t − X s ] = X s .<br />

✷<br />

23.14 Bemerkung<br />

Man kann zeigen, dass die Unabhängigkeit der Zuwächse X t − X s von F ≤s<br />

Prozesse mit unabhängigen Zuwächsen kennzeichnen. Siehe [BW], 45.1.<br />

(0 ≤ s ≤ t) sogar


23. MARTINGALE, SUB- UND SUPERMARTINGALE 203<br />

23.15 Korollar<br />

Für jeden Poisson-Prozess (X t ) t∈R+ ist (X t − E[X t ]) t∈R+ ein Martingal.<br />

23.16 Hauptsatz<br />

Sei (X t ) t∈I eine Brown’sche Bewegung und F ∗ ≤t := σ(X s : s ≤ t) die kanonische Filtration.<br />

Dann gilt<br />

1. (X t ) t∈R+ ist ein Martingal.<br />

2. Ist (X t ) t∈I normal und α ∈ R, so ist der Prozess<br />

ein Martingal bzgl. (F ∗ ≤t ) t∈R +<br />

.<br />

(<br />

exp<br />

(<br />

αXt − α2<br />

2 t)) t∈R +<br />

3. Für jede Brown’sche Bewegung (X t ) t∈R+ in R d ist (||X t || 2 − dt) t∈R+ ein Martingal bzgl.<br />

(F≤t ∗ ) t∈R +<br />

.<br />

Beweis:<br />

1. Wegen Vert(X t − X s ) = N(0, t − s), also E[X t − X s ] = 0 (s ≤ t) folgt die erste Behauptung<br />

aus 23.13.<br />

2. Sei Y eine reelle, N(0, σ 2 )-verteilte Zufallsvariable. (<br />

Beh: exp(Y ) ist integrierbar mit E[exp(Y )] = exp<br />

Denn: Es gilt<br />

σ 2<br />

2 − (y − σ2 ) 2<br />

2σ 2 = σ2<br />

2 − y2<br />

2σ 2 + 2yσ2<br />

2σ 2 − σ4<br />

2σ 2 = y − y2<br />

2σ 2 (y ∈ R)<br />

und nach dem Transformationssatz<br />

∫<br />

∫<br />

E[exp(Y )] = exp(y) N(0, σ 2 1 ∞<br />

)<br />

)(dy) = √ exp<br />

(y − y2<br />

} {{ } 2πσ<br />

2<br />

−∞ 2σ 2 dy<br />

=P Y<br />

Definiere nun<br />

=<br />

1<br />

√<br />

2πσ<br />

2<br />

∫ ∞<br />

−∞<br />

σ 2<br />

2<br />

)<br />

.<br />

( σ<br />

2<br />

exp<br />

2 − (y − σ2 ) 2 ) ( σ<br />

2 )<br />

2σ 2 dy = exp < ∞.<br />

2<br />

Y t := exp ( αX t − α2<br />

2 t) (0 ≤ t ≤ T ).<br />

Damit ist Y t integrierbar, (F t ) ∗ ≤t -messbar und es gilt P αX t<br />

= N(0, α 2 t).<br />

Für 0 ≤ s ≤ t ≤ T gilt fast sicher<br />

E[Y t |F ∗ ≤s] = exp ( − α2<br />

2 t) E[exp(αX t )|F ∗ ≤s]<br />

= exp ( − α2<br />

2 t) E[exp(α(X t − X s )) exp(αX s )|F≤s]<br />

∗<br />

22.13<br />

= exp(αX s ) exp(− α2<br />

2 t)E[exp(α(X t − X s ))|F≤s]<br />

∗<br />

= exp(αX s ) exp(− α2<br />

2 t)E[exp(α(X t − X s ))]<br />

= exp(αX s − α2<br />

2 t) exp( α2 (t−s)<br />

2<br />

) = exp(αX s − α2<br />

2 s) = Y s.


204 KAPITEL 6. MARTINGALTHEORIE<br />

3. Sei (X t ) t∈R+ eine Brown’sche Bewegung in R d und s ≤ t. Dann ist<br />

Es ist<br />

Y t := ||X t || 2 − dt = ||X t − X s || 2 + 2〈X t , X s 〉 − ||X s || 2 − dt ∈ L 1 (Ω, A, P).<br />

E[〈X t , X s 〉|F ∗ ≤s] =<br />

Damit ist nach 23.13 fast sicher<br />

23.17 Bemerkungen<br />

d∑<br />

i=1<br />

E[XsX i t|F i ≤s] ∗ 22.13<br />

=<br />

d∑<br />

i=1<br />

Xs i E[Xt|F i ≤s]<br />

∗ = ||X s || 2 .<br />

} {{ }<br />

=Xs<br />

i<br />

E[Y t |F ∗ ≤s] 22.15<br />

= E [ ||X t − X s || 2] + 2||X s || 2 − ||X s || 2 − dt<br />

20.3<br />

= d(t − s) + ||X s || 2 − dt = Y s .<br />

1. Der Beweis von 23.16 ist gilt ebenso für Brown’sche Bewegungen im R d mit Filtration (F t ) t∈R+ ,<br />

d.h. für adaptierte Prozesse (X t ) t∈R+ mit Zustandsraum R d und fast sicher stetigen Pfaden, so<br />

dass für 0 ≤ s < t der Zuwachs X t − X s unabhängig von F s und µ t−s -verteilt ist.<br />

2. Brown’sche Bewegungen lassen sich durch Martingaleigenschaften kennzeichnen. Es gilt das<br />

Resultat von P. Lévy (1948):<br />

Sei (X t ) t∈R+ mit X t ∈ L 2 (Ω, A, P) (t ∈ R + ) mit fast sicher stetigen Pfaden. Genau dann ist<br />

(X t ) t∈R+ eine reelle Brown’sche Bewegung, wenn (X t ) t∈R+ und (X 2 t − t) t∈R+ Martingale sind.<br />

Zum Beweis siehe [BW], p. 407).<br />


24. MARKOFFZEITEN 205<br />

24 Markoffzeiten<br />

Sei stets I ⊆ R eine Indexmenge und (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum.<br />

24.1 Definition<br />

Sei I = Z + oder I = R + und (Ω, A, (F t ) t∈I ) ein filtrierter Raum. Eine Abbildung<br />

T : Ω → I<br />

heißt Options- bzw. Stoppzeit bzgl. (F t ) t∈I , wenn<br />

Der Oberbegriff ist der Begriff der Markoffzeit.<br />

24.2 Bemerkung<br />

{T < t} ∈ F t bzw. {T ≤ t} ∈ F t (ti ∈ I).<br />

1. In der Literatur werden obige Begriffe uneinheitlich gebraucht. Beispielsweise ist in [BW] eine<br />

strenge Optionszeit eine Stoppzeit nach obiger Definition.<br />

2. Jede konstante Zeit T : ω ↦→ t 0 mit t 0 ∈ I ist eine Options- und Stoppzeit, da {T < t} = ∅<br />

oder {T < t} = Ω bzw. {T ≤ t} = ∅ oder {T ≤ t} = Ω.<br />

3. Die in 23.1 eingeführte Filtration (F t+ ) t∈I ist eine Filtration in A mit F t ⊆ F t+ ⊆ F s (s > t).<br />

4. Sei (F t ) t∈I eine Filtration mit I = R + oder I = Z + und T : ω → I.<br />

Beh: Es gilt<br />

T ist Optionszeit bzgl. F t ⇐⇒ T ist Stoppzeit bzgl. F t+ .<br />

Denn: Sei I = R + .<br />

“⇐”: Für t ∈ I ist<br />

“⇒”: Für t ∈ I ist<br />

{T < t} = ⋃ n∈N<br />

{<br />

T ≤ t −<br />

1<br />

n}<br />

∈ Ft .<br />

{T ≤ t} = ⋂ n∈N<br />

{<br />

T <<br />

(<br />

t +<br />

1<br />

n)<br />

∧ s<br />

}<br />

∈ Fs (s > t),<br />

d.h. {T ≤ t} ∈ F t+ .<br />

Für I = Z + ist F t+ = F t+1 und<br />

{T < t} = {T ≤ t − 1}.<br />

✷<br />

1. Aus 4. folgt im Fall I = Z + :<br />

Jede Stoppzeit bzgl. (F t ) t∈I ist eine Optionszeit bzgl. (F t ) t∈I .<br />

2. Seien (T n ) n∈N eine Folge von Abbildungen mit T n : Ω → I. Dann gilt:<br />

1. Ist T n eine Stoppzeit (n ∈ N), so auch inf(T 1 , T 2 ) und sup T n .<br />

n∈N<br />

Ist T n eine Optionszeit (n ∈ N), so auch inf T n, sup T n .<br />

n∈N<br />

n∈N<br />

2. Ist I = R + und T 1 , T 2 Optionszeiten, so auch T 1 + T 2 .<br />

3. Ist I = Z + und T 1 , T 2 Optionszeiten, so auch T 1 + T 2 .


206 KAPITEL 6. MARTINGALTHEORIE<br />

4. Ist I = Z + und T 1 , T 2 Stoppzeiten, so auch T 1 + T 2 .<br />

Beweis:<br />

1. Es gilt<br />

{inf(T 1 , T 2 ) ≤ t} = {T 1 ≤ t} ∪ {T 2 ≤ t} ∈ F t ,<br />

{sup T n ≤ t} = ⋂ {T n ≤ t} ∈ F t<br />

n∈N<br />

n∈N<br />

und<br />

2. Es gilt<br />

{ inf T n < t} = ⋃ {<br />

inf T } ⋃<br />

n < t − 1<br />

n∈N n∈N<br />

k =<br />

k∈N<br />

k∈N<br />

{sup T n < t} = ⋃ ⋂ { }<br />

Tn < t − 1 k ∈ Ft .<br />

n∈N<br />

k∈N n∈N<br />

{T 1 + T 2 < t} = ⋃<br />

r,s∈Q +<br />

r+s


24. MARKOFFZEITEN 207<br />

3. 1. Sind S und T Stoppzeiten mit S ≤ T , so ist F S ⊆ F T .<br />

2. Sind S und T Optionszeiten mit S ≤ T , so ist F S+ ⊆ F T + .<br />

3. Ist S eine Optionszeit und T eine Stoppzeit mit S ≤ T und {S < ∞} ⊆ {S ≤ T }, so ist<br />

F S+ ⊆ F T .<br />

Beweis:<br />

1. Sei A ∈ F S und t ∈ I. Dann ist<br />

2. Sei A ∈ F S+ und t ∈ I. Dann ist<br />

A ∩ {T ≤ t} = A ∩ {S ≤ t}<br />

} {{ }<br />

∈F t<br />

∩{T ≤ t} ∈ F t .<br />

A ∩ {T < t} = A ∩ {S < t}<br />

} {{ }<br />

∈F t<br />

∩{T < t} ∈ F t .<br />

3. Es gilt<br />

{T ≤ t} = {S < ∞} ∩ {T ≤ t} ⊆ {S < T } ∩ {T ≤ t} ⊆ {S < t}<br />

und damit für A ∈ F S+<br />

A ∩ {T ≤ t} = A ∩ {S < t}<br />

} {{ }<br />

∈F t<br />

∩{T ≤ t} ∈ F t .<br />

4. Beh.: Sei T eine Stoppzeit. Dann ist F T ⊆ F T + .<br />

Denn: Ist A ∈ F T , so ist<br />

A ∩ {T < t} = ⋃ n∈N<br />

A ∩ { T ≤ t − 1 n } ∈ F t (t > 0).<br />

5. Beh.: Sind S und T Stoppzeiten, so ist<br />

Denn: Sei t ∈ I Dann gilt<br />

und<br />

{S < T }, {S ≤ T }, {S = T } ∈ F inf(S,T ) ⊆ F S ∩ F T .<br />

{S < T } ∩ {inf(S, T ) ≤ t} = {S < T } ∩ {S ≤ t} = ⋃<br />

= ⋃<br />

r∈Q + ∪{t}<br />

r≤t<br />

r∈Q + ∪{t}<br />

r≤t<br />

{S ≤ r} \ {T ≤ r} ∈ F t<br />

{S ≤ r} ∩ {r < T }<br />

{S ≤ T } = C{T < S} ∈ F inf(S,T ) ,<br />

{S = T } = {S ≤ T } ∩ {T ≤ S} ∈ F inf(S,T ) .<br />


208 KAPITEL 6. MARTINGALTHEORIE<br />

24.4 Satz<br />

Sei (X t ) t∈I ein an (F t ) t∈I adaptierter Prozess mit Zustandsraum (E, B).<br />

Für B ∈ B sei<br />

T B : ω ↦→ inf { t ∈ I : X t (ω) ∈ B }<br />

die Eintrittszeit in B. Es gilt:<br />

1. Ist I = Z + , so ist T B eine Stoppzeit.<br />

2. Ist I = R + und E ein topologischer Raum mit B = B(E), so dass t ↦→ X t (ω) rechtsseitig<br />

stetig ist (ω ∈ Ω), so ist T B eine Optionszeit für alle offenen B ⊆ E.<br />

3. I = R + und E ein metrischer Raum, so dass t ↦→ X t (ω) stetig ist (ω ∈ Ω), so ist T B eine<br />

Stoppzeit für alle abgeschlossenen Mengen B ⊆ E und eine Optionszeit für B ∈ F(E) σ , d.h.<br />

für alle Mengen, die als abzählbare Vereinigung abgeschlossener Mengen dargestellt werden<br />

können.<br />

Beweis:<br />

1. Sei B ∈ B und n ∈ Z + . Dann ist<br />

{T B ≤ n} =<br />

n⋃<br />

{X i ∈ B} ∈ F n .<br />

2. Sei B offen und t ∈ R + . Dann folgt wegen der rechtsseitigen Stetigkeit<br />

{T B < t} = ⋃ {X s ∈ B} = ⋃<br />

{X s ∈ B} ∈ F t .<br />

s


24. MARKOFFZEITEN 209<br />

24.5 Definition<br />

Sei (Ω, A, (F t ) t∈I ) ein filtrierter Raum mit I ⊆ R + und (X t ) t∈I<br />

Prozess auf diesem Raum. Gilt dann für alle s ∈ I, dass<br />

{<br />

I ∩ [0; s] × Ω → E<br />

Y s :<br />

(t, ω) ↦→ X t (ω)<br />

ein adaptierter stochastischer<br />

I ∩ B([0; s]) ⊗ F s messbar ist, so heißt (X t ) t∈I progressiv messbar bzgl. (F t ) t∈I .<br />

24.6 Beispiel<br />

Sei I ⊆ R + höchstens abzählbar und (X t ) t∈I an (F t ) t∈I adaptiert. Dann ist (X t ) t∈I auch progressiv<br />

messbar.<br />

Beweis: Sei B die σ-Algebra im Zustandsraum und B ∈ B. Dann gilt für s ∈ I<br />

Y −1<br />

s<br />

(B) = ⋃ t∈I<br />

t≤s<br />

{t} × X −1<br />

t (B) ∈ ( I ∩ B([0; s]) ) ⊗ F s .<br />

✷<br />

24.7 Satz<br />

Sei I = R + . Ist (X t ) t∈I ein an (F t ) t∈I adaptierter Prozess mit Zustandsraum (E, B(E)) mit<br />

rechtsseitig stetigen Pfaden, so ist (X t ) t∈I progressiv messbar.<br />

Beweis: Für s ∈ I und n ∈ N sei<br />

⎧<br />

⎪⎨ I ∩ [0; s] × Ω →<br />

{<br />

E<br />

Ys n :<br />

X<br />

⎪⎩ (t, ω) ↦→ (k+1)2 −n(ω),<br />

X s (ω)<br />

t ∈ [k2 −n , (k + 1)2 −n ) mit k ∈ N 0 , k + 1 ≤ 2 n s<br />

sonst.<br />

Sei k n := [2 n s − 1]. Dann ist für B ∈ B(E)<br />

(Y n<br />

s ) −1 (B) =<br />

⋃<br />

k∈N 0<br />

(k+1)2 −n ≤s<br />

∈ B([0; s]) ⊗ F s .<br />

(<br />

) (<br />

)<br />

[k2 −n , (k + 1)2 −n ) × X −1<br />

(k+1)2<br />

(B) ∪ [(k −n n + 1)2 −n , s] × Xs<br />

−1 (B)<br />

Damit ist Y s := lim Y s n B([0; s]) ⊗ F s -messbar. ✷<br />

n→∞<br />

24.8 Hauptsatz<br />

Sei I ⊆ R + und (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum, T eine Stopp- bzw.<br />

Optionszeit bzgl (F t ) t∈I und (X t ) t∈I∩T (Ω) ein progressiv messbarer stochastischer Prozess mit<br />

Zustandsraum (E, B).<br />

Dann ist die Abbildung<br />

{<br />

{T < ∞} → E<br />

X T :<br />

ω ↦→ X T (ω) (ω)<br />

{T < ∞} ∩ F T - bzw. {T < ∞} ∩ F T + -messbar, also insbesondere F ∞ - und A-messbar.


210 KAPITEL 6. MARTINGALTHEORIE<br />

Beweis: Es ist X T = Y ◦ φ mit<br />

{<br />

{T < ∞} → T (Ω) × Ω<br />

φ :<br />

ω ↦→ (T (ω), ω),<br />

{<br />

I ∩ T (Ω) × Ω → E<br />

Y :<br />

(t, ω) ↦→ X t (ω).<br />

Dabei ist φ {T < ∞} ∩ F ∞ − ( I ∩ T (Ω) ∩ B(R + ) ) ⊗ F ∞ -messbar und Y ist ( I ∩ T (Ω) ∩ B(R + ) ) ⊗<br />

F ∞ − B-messbar. Also ist X T {T < ∞} ∩ F ∞ -messbar.<br />

Ist T eine Stoppzeit, s, t ∈ I und B ∈ B, so gilt<br />

X −1<br />

T (B) ∩ {T ≤ t} = ( φ −1 ( Yt<br />

−1 ) )<br />

(B) ∩ {T ≤ t} ∈ Ft ,<br />

} {{ } } {{ }<br />

∈(T (Ω)∩B([0;t]))⊗F t ∈F t<br />

Somit ist X T F T -messbar.<br />

Ist T eine Optionszeit, ist der Beweis analog.<br />


25. MARTINGALKONVERGENZSÄTZE 211<br />

25 Martingalkonvergenzsätze<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum und I ⊆ R so, dass es eine abzählbare Teilmenge<br />

I 0 ⊆ I gibt, die rechtsseitig dicht in I ist, d.h.<br />

t ∈ I 0 ∩ [t, ∞)<br />

(t ∈ I).<br />

Beispielsweise ist I ⊆ Z, R + , R − endlich oder abzählbar.<br />

25.1 Definition<br />

1. Sei (X t ) t∈I ein Prozess. Gilt<br />

t ↦→ X t (ω) ist rechtsseitig stetig<br />

(ω ∈ Ω),<br />

so heißt (X t ) t∈I rechtsseitig stetig.<br />

2. Sei (X t ) t∈I ein stochastischer Prozess und p ≥ 1. Genau dann heißt (X t ) t∈I L p (Ω, A, P)-<br />

beschränkt oder einfacher L p -beschränkt, wenn<br />

sup E[|X p t |] < ∞.<br />

t∈I<br />

3. Seien f : I → R eine Funktion und a, b ∈ R, a < b. Definiere dann<br />

U (a;b) (f) := sup { n ∈ N : ∃t 1 < . . . < t 2n in I mit f(t 2j−1 ) < a, f(t 2j ) > b (1 ≤ j ≤ n) } ,<br />

wobei sup ∅ = 0. Dann heißt U (a;b) (f) die Anzahl der aufsteigenden Überquerungen von (a; b)<br />

durch f.<br />

25.2 Bemerkung<br />

1. Ist I ⊆ Z, so sind alle stochastischen Prozesse (X t ) t∈I rechtsseitig stetig.<br />

2. Um die Definition der Anzahl der aufsteigenden Überquerungen zu veranschaulichen, hier eine<br />

Darstellung:<br />

b<br />

a<br />

. .<br />

.<br />

.<br />

.<br />

. . . . . . . . . . . . . . . . . . . . . . . . . .<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

. . . . .<br />

. . . . . . . . . . . . . . .<br />

.<br />

. . . . .<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

t 1 t 2 t 3 t 4<br />

.<br />

..<br />

.<br />

.<br />

.<br />

3. Offenbar ist U (a;b) (f) = sup U (a;b) (f|J).<br />

J⊂⊂I


212 KAPITEL 6. MARTINGALTHEORIE<br />

4. Sei f : I → R.<br />

Beh: Ist<br />

so existieren<br />

lim<br />

t→t 0<br />

tt 0<br />

f(t) ∈ R (t 0 ∈ I).<br />

Denn: Wäre z.B. im ersten Fall<br />

lim inf<br />

t→t 0<br />

t


25. MARTINGALKONVERGENZSÄTZE 213<br />

wobei I 0 := {s i : i ∈ I 0 } eine abzählbare und rechtsseitig dichte Teilmenge in I ist. Wir definieren<br />

zunächst für eine Funktion f : I → R<br />

U ′ (a;b) (f) := sup { n ∈ N : ∃t 1 < . . . < t 2n in I mit f(t 2j−1 ) ≤ a, f(t 2j ) ≥ b (1 ≤ j ≤ n) } .<br />

Damit ist U<br />

(a;b) ′ (f) ≥ U (a;b)(f). Es genügt wegen monotoner Konvergenz zu zeigen:<br />

Beh: Für jede endliche Teilmenge J = {t 1 , . . . , t n } ⊆ I mit t 1 < . . . t n ist U (a;b) (X J ) messbar und<br />

es gilt<br />

E [ U (a;b) ′ (X J) ] ≤ 1<br />

b − a sup E[(X t − a) + ].<br />

Definiere dazu die Stoppzeiten T n : Ω → J ∪ {∞} (n ∈ N) rekursiv durch<br />

T 0 = 0,<br />

{<br />

min{t k ∈ J : T 2i−2 < t k , X tk ≤ a} falls {t k ∈ J : T 2i−2 < t k , X tk ≤ a} ≠ ∅<br />

T 2i−1 =<br />

t n falls {t k ∈ J : T 2i−2 < t k , X tk ≤ a} = ∅,<br />

{<br />

min{t k ∈ J : T 2i−1 < t k , X tk ≥ b} falls {t k ∈ J : T 2i−1 < t k , X tk ≥ b} ≠ ∅<br />

T 2i =<br />

t n falls {t k ∈ J : T 2i−2 < t k , X tk ≥ b} = ∅,<br />

Beh.: Es gilt {T i ≤ t} ∈ F t<br />

Denn: Wegen<br />

(t ∈ I).<br />

{T i ≤ t} =<br />

t∈I<br />

n⋃<br />

{T i = t k }<br />

k=1<br />

t k ≤t<br />

genügt es zu zeigen, dass {T i = t k } ∈ F tk ⊆ F t . Dies zeigt man mit Induktion:<br />

“i = 0”: Klar.<br />

“2i − 2 → 2i − 1”: Für k ≤ n ist<br />

(<br />

) ( ⋃<br />

{T 2i−1 = t k } = {T 2i−2 < t k } ∩ {X tk ≤ a} \<br />

und ebenso für {T 2i = t k } ∈ F tk .<br />

Also sind alle T i Stoppzeiten. Offenbar ist<br />

U (a;b) (X I )(ω) ∈ { 0, . . . , [ ]}<br />

n<br />

2<br />

und für i ≤ [ n<br />

2<br />

]<br />

ist<br />

{U ′ (a;b) (X J) ≥ i} =<br />

⋃<br />

{s 1U ′ (a;b) (X J )<br />

X T2i − X T2i−1 =<br />

U ′ (a;b) (X J) = U ′ (0;b−a)(<br />

((Xt − a) +) t∈J)<br />

.<br />

{<br />

Xtn − X 2U ′<br />

(a;b) (X J )+1, T 2U ′<br />

(a;b) (X J )+1 < t n<br />

≤ X tn .<br />

0, T 2U ′<br />

(a;b) (X J )+1 ≥ t n


214 KAPITEL 6. MARTINGALTHEORIE<br />

Definiere für k ≥ 2<br />

Damit gilt<br />

∫<br />

[ n 2 ]<br />

⊎<br />

⊎<br />

A k := {T 2i−1 < t k ≤ T 2i } = {T 2i−1 ≤ t k−1 } \ {T 2i ≤ t k−1 } ∈ F tk−1 .<br />

i=1<br />

bU ′ (a;b) (X J)dP ≤<br />

wegen X t ≥ 0. Damit ist<br />

∫ U ′ (a;b) (X J )<br />

∑<br />

i=1<br />

i=1 k=2<br />

[ n 2 ]<br />

i=1<br />

∫ [ ]<br />

n<br />

2<br />

( ) ∑ ( )<br />

XT2i − X T2i−1 dP ≤ XT2i − X T2i−1 dP<br />

i=1<br />

∫ [ ]<br />

n<br />

2<br />

∑ n∑<br />

∫<br />

= 1 {T2i−1


25. MARTINGALKONVERGENZSÄTZE 215<br />

also<br />

und damit<br />

sup<br />

t∈I<br />

E[X − t ] ≤ E[X + t ] − E[X 0 ] ≤ E[X + t ] + E[|X 0 |]<br />

E[|X t |] ≤ sup<br />

t∈I<br />

E[X t + ] + sup E[Xt − ] ≤ 2 sup E[X t + ] + E[|X 0 |] < ∞.<br />

t∈I<br />

1. Nach 25.3 ist E[U (a;b) (X I )] < ∞ und damit ist U (a;b) (X I ) < ∞ fast sicher (a, b ∈ R).<br />

Seien a, b ∈ R mit a < b. Dann gibt es α, β ∈ Q mit a < α < β < b und es gilt<br />

U (a;b) (X I ) ≤ U (α;β) (X I ) < ∞<br />

fast sicher. Also gibt es eine Nullmenge N α,β mit<br />

Damit ist<br />

U (α;β) (X I )(ω) < ∞ (ω /∈ N α,β ).<br />

N :=<br />

⋃<br />

α,β∈Q<br />

α


216 KAPITEL 6. MARTINGALTHEORIE<br />

25.6 Bemerkung<br />

In 25.4 kann man i.A. das Submartingal nicht auf I fortsetzen, auch dann nicht, wenn X t ein<br />

Martingal ist (vgl. [BW], p. 164).<br />

25.7 Hauptsatz<br />

Sei I = Z + oder I = R + und (X t ) t∈I ein an (F t ) t∈I adaptierter stochastischer Prozess.<br />

1. Ist (X t , F t ) t∈I ein Submartingal und gleichgradig integrierbar, so ist (X t ) t∈I L 1 (Ω, A, P)-<br />

beschränkt und konvergiert fast sicher und im Mittel gegen eine F ∞ -messbare integrierbare<br />

Zufallsvariable X ∞ .<br />

2. Ist (X t , F t ) t∈I ein Submartingal bzw. ein Martingal und konvergiert (X t ) t∈I im Mittel gegen<br />

eine integrierbare Zufallsvariable X ∞ , so kann man X ∞ F ∞ -messbar wählen und dann ist<br />

(X t , F t ) t∈I<br />

ein Submartingal bzw. Martingal.<br />

3. Ist (X t , F t ) t∈I<br />

ein Martingal bzw. ein nach unten beschränktes Submartingal, so ist (X t ) t∈I<br />

gleichgradig integrierbar.<br />

Beweis:<br />

1. Nach 6.22 ist (X t ) t∈I L 1 (Ω, A, P)-beschränkt, also nach 25.4 fast sicher konvergent gegen X ∞ ∈<br />

L 1 (Ω, F ∞ , P). Für alle Folgen (t n ) n∈N ∈ I N mit lim t n = ∞ gilt X ∞ = lim X t n<br />

fast sicher.<br />

n→∞ n→∞<br />

Gemäß 6.25 folgt aus der gleichgradigen Integrierbarkeit der Teilfolge (X tn ) n∈N die Konvergenz<br />

im Mittel, d.h.<br />

∫<br />

lim |X ∞ − X t |dP = 0.<br />

t→∞<br />

2. Für Folgen (t n ) n∈N in I mit lim t n = ∞ konvergiert X tn → X ∞ in L 1 (Ω, A, P). Gemäß 6.12.3<br />

t→∞<br />

konvergiert eine geeignete Teilfolge fast sicher gegen X ∞ , also ist X ∞ F ∞ -messbar wählbar.<br />

Für t ∈ I gilt<br />

∫<br />

∫<br />

∫<br />

lim ∣ X ∞ dP − X s dP∣ ≤ lim |X ∞ − X s |dP = 0 (A ∈ F t ).<br />

s→∞<br />

A<br />

A<br />

s→∞<br />

A<br />

Im Falle eines Martingals folgt daraus<br />

∫<br />

∫<br />

X t dP = s→∞<br />

lim<br />

A<br />

s≥t<br />

und im Falle eines Submartingals<br />

∫<br />

∫<br />

X t dP ≤ s→∞<br />

lim<br />

A<br />

s≥t<br />

A<br />

A<br />

∫<br />

X s dP =<br />

∫<br />

X s dP =<br />

A<br />

A<br />

X ∞ dP (A ∈ F t )<br />

X ∞ dP (A ∈ F t ).<br />

3. Sei (X t ) t∈I<br />

ein Martingal. Mit 23.12 ist (|X t |, F t ) t∈I ein Submartingal. Damit genügt es, die<br />

Behauptung für nach unten beschränkte Submartingale zu zeigen.<br />

Sei zunächst (X t ) t∈I<br />

ein Submartingal mit X t ≥ 0<br />

∫<br />

∫<br />

|X t |dP ≤<br />

Nun genügt es zu zeigen:<br />

Beh: lim P[X t ≥ α] = 0.<br />

sup<br />

α→∞<br />

t∈I<br />

{X t≥α}<br />

(t ∈ I). Da {X t ≥ α} ∈ F t ist, gilt<br />

{|X t|≥α}<br />

X ∞ dP.


25. MARTINGALKONVERGENZSÄTZE 217<br />

Denn dann ist (X t ) t∈I<br />

gleichgradig integrierbar. Mit der Tschebyscheff-Markoff’schen Ungleichung<br />

ist aber<br />

∫<br />

∫<br />

lim sup P[X t ≥ α] ≤ lim sup 1<br />

1<br />

α→∞ α→∞ α<br />

X t dP ≤ lim<br />

α→∞ α<br />

X ∞ dP = 0.<br />

t∈I<br />

t∈I<br />

Sei nun (X t ) t∈I<br />

ein nach unten beschränktes Submartingal, d.h. es gibt ein c ∈ R mit<br />

X t ≥ c (t ∈ I). Dann ist aber (X t − c) t∈I<br />

ein positives Submartingal und es gilt<br />

∫<br />

∫<br />

∫<br />

lim sup |X t |dP ≤ lim sup (X t − c)dP + cdP = 0<br />

α→∞<br />

t∈I {|X<br />

α→∞ t|≥α}<br />

t∈I {X t−c≥α}<br />

{X t−c≥α}<br />

wie oben.<br />

✷<br />

25.8 Bemerkung<br />

Für I = Z + kann in 3. im Fall eines Submartingals die Beschränktheit nach unten ersetzt werden<br />

durch<br />

lim<br />

n→∞ E[X n] = E[X ∞ ]<br />

(siehe [BW], 19.3).<br />

25.9 Korollar<br />

Sei I = Z + oder I = R + . Dann sind für jedes rechtsseitig stetige Martingal (X t , F t ) t∈I äquivalent:<br />

1. (X t ) t∈I ist gleichgradig integrierbar.<br />

2. (X t ) t∈I konvergiert im Mittel.<br />

3. Es existiert eine integrierbare Zufallsvariable X ∞ , so dass (X t , F t ) t∈I<br />

ein Martingal ist, d.h.<br />

X t = E[X ∞ |F t ] fast sicher<br />

(t ∈ I).<br />

Dann ist<br />

X ∞ := lim<br />

t→∞<br />

X t<br />

fast sicher eindeutig bestimmt, wobei die Konvergenz fast sicher und im Mittel ist.<br />

Beweis:<br />

“1. ⇒ 2.”: Folgt aus 25.7.1<br />

“2. ⇒ 3.”: Da (X t ) t∈I im Mittel konvergiert, ist (X t ) t∈I ebenfalls L 1 (Ω, A, P)-beschränkt. Mit<br />

25.4 ist daher X ∞ := lim X t mit I = Z + oder I = R + sind ∈ L 1 (Ω, A, P) und F ∞ -<br />

t→∞<br />

messbar. Damit ist für jede Folge (t n ) n∈N mit lim t n = ∞<br />

n→∞<br />

lim X t n<br />

= X ∞ ∈ L 1 (Ω, A, P) fast sicher.<br />

n→∞<br />

Mit 6.12.4 konvergiert X tn gegen X ∞ im Mittel. Damit konvergiert X t gegen X ∞ im<br />

Mittel und die Behauptung folgt aus 25.7.2.<br />

“3. ⇒ 1.”: Dies folgt direkt aus 25.7.3.<br />


218 KAPITEL 6. MARTINGALTHEORIE<br />

25.10 Definition<br />

Sei I = Z − oder I = R − . Ist (X t , F t ) t∈I ein Submartingal, so heit (X t , F t ) t∈−I inverses Submartingal.<br />

Analog definiert man inverse Supermartingale und inverse Martingale. Außerdem ist<br />

F −∞ := ⋂ t∈I<br />

F t .<br />

25.11 Lemma<br />

Sei I = Z − oder I = R − . Dann gibt es für jedes rechtsseitig stetige Submartingal (X t , F t ) t∈I eine<br />

Zufallsvariable X −∞ , die messbar ist bzgl. F −∞ und für die<br />

gilt.<br />

lim X t = X −∞ fast sicher<br />

t→−∞<br />

Beweis: Gemäß 25.3 ist für a < b wegen E[X t + ] ≤ E[X 0 + ] nach 23.11 und 23.6.2<br />

E[U (a;b) (X I )] ≤ 1 (<br />

E[X<br />

+<br />

b − a 0 ] + a −) < ∞.<br />

Mit 25.2 folgt dann wie im Beweisschritt 2. von 25.4 die fast sichere Konvergenz von X t<br />

t → −∞ gegen eine F −∞ -messbare Funktion X −∞ .<br />

für<br />

✷<br />

25.12 Lemma<br />

Sei I = Z − . und (X t , F t ) t∈I ein Submartingal. Dann sind äquivalent:<br />

1. (X t ) t∈I ist L 1 (Ω, A, P)-beschränkt, d.h. eine der zwei für Submartingale mit I = Z − äquivalenten<br />

Bedingungen<br />

ist erfüllt.<br />

2. (X t ) t∈I ist gleichgradig integrierbar.<br />

sup E[|X t |] < ∞ oder inf E[X t] > −∞<br />

t∈I<br />

t∈I<br />

Beweis: Zunächst zeigen wir die Äquivalenz der Bedingungen in 1. Ist (X t ) t∈I<br />

beschränkt, so gilt<br />

− inf E[X t] = sup E[−X t ] ≤ sup E[|X t |] < ∞<br />

t∈I t∈I<br />

t∈I<br />

und andererseits folgt aus der zweiten Bedingung<br />

L 1 (Ω, A, P)-<br />

sup<br />

t∈I<br />

Nun <strong>zur</strong> Behauptung.<br />

E[|X t |] = sup E[2Xt − Xt − ] ≤ 2E[X 0 + ] − inf E[X t] < ∞.<br />

t∈I<br />

t∈I<br />

“1.⇒2.”: Da (X t ) t∈I L 1 (Ω, A, P)-beschränkt ist, gibt es für ɛ > 0 ein t ∈ I mit<br />

Ferner gilt für r, s ∈ I und α > 0<br />

∫<br />

E[X r ] =<br />

inf E[X s] ≥ E[X t ] − ɛ.<br />

s∈I<br />

{X s>−α}<br />

∫<br />

X r dP + X r dP<br />

{X s≤−α}


25. MARTINGALKONVERGENZSÄTZE 219<br />

und<br />

|X r |1 {|Xs|≥α} = ∣ Xr 1 {Xs≥α} − X r 1 {Xs≤−α}<br />

∣<br />

und damit für s, t ∈ I mit s ≤ t<br />

∫<br />

{|X s|≥α}<br />

∫<br />

|X s |dP =<br />

{X s≥α}<br />

∫<br />

= −E[X s ] +<br />

∫<br />

X s dP −<br />

∫<br />

≤ ɛ − E[X t ] +<br />

{X s>−α}<br />

{X s>−α}<br />

{X s≤−α}<br />

X s dP<br />

∫<br />

X s dP +<br />

∫<br />

X t dP +<br />

{X s≥α}<br />

{X s≥α}<br />

∫<br />

∫<br />

= ɛ + X t dP − X t dP<br />

{X s≥α}<br />

{X<br />

∫ s≤−α}<br />

∣∣ ∣<br />

≤ ɛ + X t 1 {Xs≥α} − X t 1 {Xs≤−α}<br />

∣dP<br />

∫<br />

= ɛ + |X t |dP.<br />

{|X s|≥α}<br />

X s dP<br />

X t dP<br />

Um zu zeigen, dass (X t ) t∈I gleichgradig integrierbar ist, wollen wir zeigen, dass<br />

∫<br />

sup |X s |dP ≤ 2ɛ<br />

s≤t {|X s|≥α}<br />

für hinreichend große α. Dann ist (X s ) s≤t , aber auch (X s ) s>t gleichgradig integrierbar,<br />

da {s > t} endlich ist. Damit ist dann (X t ) t∈I gleichgradig integrierbar. Nun ist aber<br />

{X t } gleichgradig integrierbar und nach 6.22 gibt es ein δ > 0 mit<br />

∫<br />

A<br />

|X t |dP ≤ ɛ (A ∈ A, P[A] ≤ δ).<br />

Ferner ist (X s + , F s ) s∈I<br />

23.6.4 und folglich ist<br />

ein Submartingal nach 23.11, also ist s ↦→ E[X + s ] isoton nach<br />

sup<br />

s∈I<br />

E[|X s |] = sup E[−X s + 2X s + ] ≤ − inf E[X s] + 2E[X 0 + ] =: β < ∞.<br />

s∈I<br />

s∈I<br />

Also gilt nach 6.14 für s ∈ I und hinreichend große α<br />

P[|X s | ≥ α] ≤ 1 α E[|X s|] ≤ β α ≤ δ,<br />

also<br />

∫<br />

∫<br />

sup |X s |dP ≤ ɛ + |X t |dP ≤ 2ɛ<br />

s≤t {|X s|≥α}<br />

{|X s|≥α}<br />

für hinreichend großes α. Nach der Definition der gleichgradigen Integrierbarkeit 6.21<br />

folgt die Behauptung.<br />

“2.⇒1.”: Jede gleichgradig integrierbare Menge ist nach 6.22 L 1 (Ω, A, P)-beschränkt.<br />


220 KAPITEL 6. MARTINGALTHEORIE<br />

25.13 Hauptsatz (Doob’scher Konvergenzsatz für inverse Submartingale)<br />

Sei I = Z + . und (X t , F t ) t∈I ein rechtsseitig stetiges Submartingal. Dann konvergiert (X t ) t∈I<br />

genau dann fast sicher und im Mittel gegen eine integrierbare F −∞ -messbare Zufallsvariable<br />

X −∞ , wenn<br />

inf<br />

t∈I E[X t] > −∞.<br />

Dann ist auch (X t , F t ) t∈I<br />

ein Submartingal.<br />

Beweis:<br />

“⇒”: Aus X t → X −∞ im Mittel folgt<br />

inf E[X t] 23.6.2<br />

= lim E[X t] = E[X −∞ ] > −∞.<br />

t∈I t→−∞<br />

“⇐”: Aus 25.11, 25.12 und 6.25 folgt, dass es eine F −∞ -messbare Zufallsvariable X −∞<br />

L 1 (Ω, A, P) gibt mit<br />

X −∞ = lim X t<br />

t→−∞<br />

fast sicher und im Mittel.<br />

∈<br />

Wie im Beweisschritt 2. von 25.7 folgt nun, dass für t ∈ I<br />

∫<br />

∫ ∫<br />

X −∞ dP = X s dP ≤ X t dP (A ∈ F t )<br />

A<br />

lim<br />

s≤t<br />

s→−∞<br />

A<br />

A<br />

Damit ist (X t , F t ) t∈I<br />

ein Submartingal.<br />

✷<br />

25.14 Korollar<br />

Sei I = Z − . Dann konvergiert jedes rechtsseitig stetige Martingal (X t , F t ) t∈I fast sicher und im<br />

Mittel gegen eine integrierbare Zufallsvariable X −∞ , so dass (X t , F t ) t∈I<br />

ein Martingal ist.<br />

Beweis: Die Konvergenz folgt direkt aus 25.13. Außerdem ist<br />

∫<br />

∫ ∫<br />

X −∞ dP = X s dP = X t dP (A ∈ F t )<br />

A<br />

lim<br />

s≤t<br />

s→−∞<br />

A<br />

A<br />

und damit (X t , F t ) t∈I<br />

ein Martingal.<br />

✷<br />

25.15 Anwendungen<br />

1. Kolmogoroff’sches Kriterium (13.5):<br />

Beh: Sei X n eine unabhängige Folge quadratisch inegrierbarer reeller Zufallsvariablen mit<br />

∞∑<br />

n=1<br />

1<br />

n 2 Var[X n] < ∞.<br />

Dann gilt für (X n ) das starke Gesetz der großen Zahlen.<br />

Beweis: Œ ist E[X n ] = 0 (n ∈ N). Nach 23.9 ist<br />

(S n ) n∈N := ( n ∑<br />

i=1<br />

1<br />

i X i<br />

)<br />

n∈N


25. MARTINGALKONVERGENZSÄTZE 221<br />

ein Martingal mit<br />

E[|S n |] 2 5.4<br />

≤ E[S 2 n] = Var[S n ] =<br />

n∑<br />

i=1<br />

1<br />

i 2 Var[X i ] ≤<br />

∞∑<br />

n=1<br />

1<br />

n 2 Var[X n ] < ∞,<br />

also L 1 (Ω, A, P)-beschränkt. Mit 25.4 konvergiert (S n ) n∈N fast sicher. Außerdem gilt<br />

1<br />

lim<br />

n→∞ n<br />

n∑<br />

X i = 0<br />

i=1<br />

fast sicher<br />

nach folgendem Lemma, das hier nicht bewiesen wird.<br />

Beh: Lemma von Kronecker<br />

Sei (s n ) n∈N ∈ R N eine Folge mit s n → s ∈ R. Dann gilt<br />

Mit diesem Lemma ist<br />

und damit<br />

1<br />

lim<br />

n→∞ n<br />

n∑<br />

X i =<br />

i=1<br />

1<br />

n<br />

n∑<br />

(iS i − iS i−1 )<br />

i=1<br />

n∑<br />

s i → 0.<br />

i=1<br />

= −S 0 + S 1 − 2S 1 + 2S 2 − 3S 2 + 3S 3 − . . . − nS n−1 ) + nS n<br />

n−1<br />

∑<br />

= nS n − S i .<br />

i=1<br />

n∑<br />

X i = lim S n − n−1<br />

n→∞ n<br />

i=1<br />

n∑<br />

1<br />

n−1<br />

i=1<br />

S i = lim<br />

n→∞ S n − lim<br />

n→∞<br />

n 1<br />

n+1 n<br />

i=1<br />

n∑<br />

S i = 0<br />

Damit folgt die Behauptung.<br />

✷<br />

2. Starkes Gesetz der großen Zahlen von Kolmogoroff (13.2)<br />

Beh: Sei (X n ) n≥0 eine Folge integrierbarer, identisch verteilter Zufallsvariablen. Dann gilt<br />

1<br />

lim<br />

n→∞ n+1<br />

n∑<br />

X i = E[X 0 ] fast sicher.<br />

i=0<br />

Beweis: Sei ΠE[X 0 ] = 0 Πzentriert und<br />

n∑<br />

S n = X i , F −n := σ(S k : k ≥ n) (n ≥ 0).<br />

i=0<br />

Wegen der identischen Verteilung ist<br />

E[X j |S n ] = E[X 0 |S n ] (j ≤ n)<br />

und da σ(X 0 , . . . , X n ) unabhängig von σ(X n+1 , X n+2 , . . .) ist, gilt fast sicher<br />

E[X j |S n ] = E[X 0 |S n ] = E[X 0 |F −n ] (j ≤ n)


222 KAPITEL 6. MARTINGALTHEORIE<br />

aufgrund der Symmetrie. Damit ist<br />

also wird durch<br />

lim<br />

n→∞<br />

[<br />

E[X 0 |F −n ] = E<br />

1<br />

n+1<br />

n∑<br />

i=0<br />

X i |S n<br />

]<br />

= 1<br />

n+1 S n fast sicher,<br />

Y −n := 1<br />

n+1 S n = E[X 0 |F −n ]<br />

gemäß 23.7 bzgl (F −n ) n∈N ein Martingal definiert, welches nach 25.14 fast sicher und im Mittel<br />

gegen ein Y −∞ ∈ L 1 (Ω, A, P) konvergiert, so dass (Y −n , F −n ) n∈Z+<br />

ein Martingal ist. Somit ist<br />

1<br />

n+1 S n = Y −∞ fast sicher und<br />

also insbesondere<br />

E[X 0 |F −∞ ] = E[Y 0 |F −∞ ] = Y −∞ ,<br />

E[Y −∞ ] = E[X 0 ] = 0.<br />

Als terminale Zufallsvariable ist Y −∞ nach 12.13 fast sicher konstant, also fast sicher 0.


26. ZUFÄLLIGES STOPPEN VON MARTINGALEN (OPTIONAL SAMPLING) 223<br />

26 Zufälliges Stoppen von Martingalen (Optional Sampling)<br />

Sei stets (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum.<br />

26.1 Lemma<br />

Sei I ⊆ R + und (X t , F t ) t∈I ein Supermartingal. Für die Stoppzeiten S, T bzgl. (F t ) t∈I gelte<br />

S ≤ T, |S(Ω)| < ∞, |T (Ω)| < ∞,<br />

d.h. S und T nehmen nur endlich viele Werte an. Dann gilt für die Zufallsvariablen X S und X T<br />

aus 24.8<br />

X S ∈ L 1 (Ω, A, P), X T ∈ L 1 (Ω, A, P)<br />

und<br />

X S ≥ E[X T |F S ]<br />

fast sicher,<br />

insbesondere gilt<br />

E[X S ] ≥ E[X T ].<br />

Beweis: Sei<br />

T (Ω) ∪ S(Ω) =: J = {t 1 , . . . , t n } ⊆ I<br />

mit t 1 < . . . < t n . Dann sind mit 24.6 und 24.8 X S F S - und X T F T -messbar. Ferner ist<br />

X S = ∑ t∈J<br />

1 {S=t} X t ∈ L 1 (Ω, A, P)<br />

und ebenso X T ∈ L 1 (Ω, A, P).<br />

Somit genügt es, zu zeigen, dass<br />

∫<br />

Es ist aber für A ∈ F S<br />

∫<br />

A<br />

X T dP =<br />

n∑<br />

∫<br />

j=1<br />

A<br />

A∩{T =t j}<br />

∫<br />

X S dP ≥<br />

A<br />

X tj dP =<br />

X T dP (A ∈ F S ).<br />

n∑<br />

n∑<br />

∫<br />

k=1 j=k<br />

n∑ ( ∫ ∫<br />

=<br />

X tk dP −<br />

k=1<br />

A∩{S=t k }∩{T >t k−1 }<br />

∫<br />

∫<br />

+<br />

X tk+1 dP −<br />

A∩{S=t k }∩{T >t k }<br />

A∩{S=t k }∩{T =t j}<br />

X tj dP<br />

A∩{S=t k }∩{T >t k }<br />

A∩{S=t k }∩{T >t k+1 }<br />

X tk dP<br />

X tk+1 dP+<br />

∫<br />

)<br />

. . . +<br />

X tn dP<br />

A∩{S=t k }∩{T >t n−1}<br />

n∑<br />

∫<br />

∫<br />

≤<br />

X tk dP = X S dP.<br />

k=1<br />

A∩{S=t k }<br />

A<br />


224 KAPITEL 6. MARTINGALTHEORIE<br />

26.2 Bemerkung<br />

Ist in 26.1 (X t ) t∈I ein Submartingal, so gilt<br />

und im Falle eines Martingales<br />

X S ≤ E[X T |F S ] fast sicher<br />

X S = E[X T |F S ] fast sicher.<br />

26.3 Hauptsatz (Doob’s Optional Sampling Theorem im diskreten Fall)<br />

Sei I = Z + , (X t , F t ) t∈I ein Supermartingal und (T n ) n∈N eine isotone Folge beschränkter Stoppzeiten<br />

bzgl (F t ) t∈I . Dann ist ( X Tn , F Tn<br />

)n∈N ein Supermartingal. Ist (X t, F t ) t∈I ein Submartingal,<br />

so ist ( )<br />

X Tn , F Tn n∈N ebenso ein Submartingal. Im Falle eines Martingals ist ( X Tn , F Tn<br />

)n∈N<br />

ebenso ein Martingal.<br />

Beweis: Nach 24.6 und 24.8 ist (X Tn ) n∈N an (F Tn ) n∈N adaptiert und jedes T n nimmt nur endlich<br />

viele Werte an, da es sich um in N beschränkte Funktionen handelt. Die Behauptung folgt daher<br />

aus 26.1 und 26.2.<br />

✷<br />

26.4 Korollar (Optional Stopping)<br />

Sei I = Z + , (X t , F t ) t∈I ein Supermartingal bzw. Submartingal bzw. Martingal und T eine Stoppzeit.<br />

Dann ist (<br />

XT ∧n , F T ∧n<br />

)<br />

n∈N<br />

ein Supermartingal bzw. Submartingal bzw. Martingal.<br />

Beweis: Durch<br />

T n := T ∧ n := inf(T, n)<br />

wird eine isotone Folge beschränkter Stoppzeiten definiert. Deshalb folgt die Behauptung direkt<br />

aus 26.3.<br />

✷<br />

26.5 Lemma<br />

Sei I = R + . Zu jeder Optionszeit T bzgl. (F t ) t∈I gibt es eine Folge (T n ) n∈N von Stoppzeiten, so<br />

dass auf {T < ∞}<br />

T n > T, T n (Ω) ⊆ { }<br />

k<br />

2<br />

: k ∈ N n + (n ∈ N)<br />

und T n ↓ T gilt.<br />

Beweis: Für n ∈ N 0 sei<br />

T n :=<br />

{<br />

k+1<br />

2 n falls { k<br />

2 n ≤ T < k+1<br />

2 n } für ein k ∈ N 0<br />

+∞ falls {T = ∞}.<br />

Dann ist T n > T auf {T < ∞} und T n ↓ T . Außerdem sind die T n Stoppzeiten, denn für t ≥ 0 ist<br />

{T n ≤ t} = ⋃ { }<br />

Tn = k<br />

2 n<br />

k∈N 0<br />

k/2 n ≤t<br />

= ⋃<br />

k∈N 0<br />

k/2 n ≤t<br />

{<br />

T <<br />

k+1<br />

2 n }<br />

\<br />

{<br />

T <<br />

k<br />

2 n }<br />

∈ Ft .<br />


26. ZUFÄLLIGES STOPPEN VON MARTINGALEN (OPTIONAL SAMPLING) 225<br />

26.6 Hauptsatz<br />

Sei I = R + , (X t , F t ) t∈I ein rechtsseitig stetiges Supermartingal. Für Optionszeiten S, T bzgl.<br />

(F t ) t∈I gelte fast sicher<br />

S ≤ T, ∃C ∈ R : S ≤ C, T ≤ C,<br />

d.h. S und T sind beschränkte Optionszeiten. Dann gilt für die Zufallsvariablen X S und X T<br />

X S ∈ L 1 (Ω, A, P), X T ∈ L 1 (Ω, A, P)<br />

und<br />

Ist (X t ) t∈I ein Submartingal, so gilt<br />

X S ≥ E[X T |F S ]<br />

fast sicher.<br />

X S ≤ E[X T |F S ] fast sicher<br />

und im Falle eines Martingales<br />

X S = E[X T |F S ] fast sicher.<br />

Beweis: Sei Œ (X t ) t∈I ein Supermartingal. Gemäß 26.5 gibt es Stoppzeiten S n ↓ S, T n ↓ T , die<br />

Œ beschränkt sind, also mit<br />

|S n (Ω)| < ∞, |T n (Ω)| < ∞, S n > S, T n > T (n ∈ N).<br />

Wegen S ≤ T ist oBdA S n ≤ T n (n ∈ N). Aus 26.1 folgt<br />

X Sn ∈ L 1 (Ω, A, P), X Tn ∈ L 1 (Ω, A, P), (n ∈ N)<br />

und für A ∈ F S+ ⊆ F Sn<br />

(siehe 24.3) gilt<br />

∫<br />

∫<br />

X Sn dP ≥ X Tn dP.<br />

A<br />

A<br />

Gemäß 24.3 ist (F Sn ) n∈N antiton, also (F S−n ) n∈−N eine Filtration und damit (X S−n , F S−n ) n∈−N0<br />

ein Supermartingal nach 26.3 mit<br />

sup E[X Sn ] 26.1<br />

≤ E[X 0 ] < ∞,<br />

n∈N 0<br />

also ist (X Sn ) n∈N0 und ebenso (X Tn ) n∈N0 ein Supermartingal und gemäß dem Konvergenzsatz<br />

25.13 für inverse Supermartingale fast sicher und im Mittel konvergent, und zwar wegen rechtsseitiger<br />

Stetigkeit gegen X S ∈ L 1 (Ω, A, P) bzw. X T ∈ L 1 (Ω, A, P). Damit ist für A ∈ F S+<br />

∫<br />

∫<br />

∫<br />

∫<br />

A<br />

X S dP = lim<br />

n→∞<br />

A<br />

X Sn dP ≥ lim<br />

n→∞<br />

A<br />

X Tn dP =<br />

A<br />

X T dP.<br />

26.7 Korollar (Doob’s Optional Sampling Theorem im kontinuierlichen<br />

Fall)<br />

Sei I = R + , (X t , F t ) t∈I ein rechtsseitig stetiges Supermartingal und (T n ) n∈N eine isotone Folge<br />

von beschränkten Options- bzw. Stoppzeiten bzgl (F t ) t∈I . Dann ist auch (X Tn , F Tn+) n∈N bzw.<br />

(X Tn , F Tn ) n∈N ein Supermartingal. Analog gilt die Behauptung, falls I = R + , (X t , F t ) t∈I ein<br />


226 KAPITEL 6. MARTINGALTHEORIE<br />

rechtsseitig stetiges Submartingal bzw. Martingal ist.<br />

Beweis: Nach 24.8 ist (X Tn ) n∈N an (F Tn+) n∈N bzw. an (F Tn ) n∈N adaptiert. Beides sind nach<br />

24.3 Filtrationen. Sind die (T n ) n∈N Optionszeiten, folgt die Behauptung daher aus 26.6. Sind die<br />

(T n ) n∈N Stoppzeiten bzgl. (F t ) t∈I , so sind (T n ) n∈N wegen<br />

{T i ≤ t} ∈ F t ⊆ F t+<br />

ebenfalls Stoppzeiten bzgl. (F t+ ) t∈I und damit wegen 24.2.3 eine Optionszeit bzgl. (F t ) t∈I . Nach<br />

der ersten Behauptung ist damit (X Tn , F Tn+) n∈N ein Supermartingal. Damit ist aber wegen F Tn ⊆<br />

F Tn+ mit 24.3.3<br />

X Tj = E[X Tj |F Tj ] ≥ E[E[X Ti |F Tj+]|F Tj ] = E[X Ti |F Tj ] (i > j).<br />

und (X Tn , F Tn ) n∈N ist ein Supermartingal.<br />

✷<br />

26.8 Korollar<br />

Sei I = R + , (X t , F t ) t∈I ein rechtsseitig stetiges Supermartingal bzw. Submartingal bzw. Martingal<br />

und T eine Stoppzeit. Dann ist<br />

(<br />

XT ∧n , F T ∧n<br />

)<br />

ein Supermartingal bzw. Submartingal bzw. Martingal.<br />

n∈N<br />

26.9 Bemerkung<br />

Eine Anwendung des Optional-Sampling-Theorems sind die Maximal-Ungleichungen von Doob,<br />

die nun folgen.<br />

26.10 Satz<br />

Sei I ⊆ R abzählbar und (X t ) t∈I ein Submartingal. Dann gilt<br />

αP[sup<br />

t∈I<br />

X t ≥ α] ≤ sup E[X t + ] (α > 0).<br />

t∈I<br />

Beweis: Da mit (X t ) t∈I auch (X + t ) t∈I ein Submartingal ist, genügt es, die Behauptung für X t ≥<br />

0 (t ∈ I) zu zeigen. Aufgrung der Stetigekeit von unten von P genügt es auch, nur endliches I<br />

anzunahmen. Seien dann<br />

t n := max I, T := t n ∧ inf{t ∈ I|X t ≥ α}<br />

mit inf ∅ = ∞. Dann ist T eine Stoppzeit nach 24.4.1. Dann ist mit 24.6 und 24.8, da (X t ) t∈I<br />

progressiv messbar ist,<br />

und damit<br />

αP[sup X t ≥ α] ≤<br />

t∈I<br />

∫<br />

{sup X t ≥ α} = {X T ≥ α} ∈ F T<br />

t∈I<br />

{sup X t ≥ α} X T dP 26.1<br />

≤<br />

t∈I<br />

∫<br />

{sup<br />

t∈I<br />

X t ≥ α} X t n<br />

dP ≤ sup E[X t ].<br />

t∈I<br />


26. ZUFÄLLIGES STOPPEN VON MARTINGALEN (OPTIONAL SAMPLING) 227<br />

26.11 Korollar<br />

Sei I ⊆ R + und (X t ) t∈I ein rechtsseitig stetiges Martingal oder positives Submartingal. Dann gilt<br />

für p > 1<br />

|| sup X t || p ≤<br />

p<br />

t∈I p − 1 sup ||X t || p .<br />

t∈I<br />

Ist insbesondere I kompakt mit t n = max{t : t ∈ I}, so ist<br />

|| sup X t || p ≤<br />

t∈I<br />

p<br />

p − 1 sup<br />

t∈I<br />

||X t || p =<br />

p<br />

p − 1 sup ||X tn || p .<br />

n∈N<br />

Beweis: siehe [BW], 46.3.<br />

26.12 Korollar<br />

Sei I = R + und (X t ) t∈I eine normale Brown’sche Bewegung. Dann gilt für α, t > 0<br />

P[ sup X s ≥ α] ≤ exp ( − α2<br />

2 t) .<br />

0≤s≤t<br />

Beweis: Anwendung von 26.10 auf das Martingal ( exp ( αX t − α2<br />

2 t)) . Siehe [BW], 46.5.<br />

t>0


228 KAPITEL 6. MARTINGALTHEORIE<br />

27 Markoff-Prozesse<br />

Sei stets (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum, (X t , F t ) t∈I ein an die Filtration<br />

adaptierter Prozess mit Werten in einem Messraum (E, B) und I total geordnet.<br />

27.1 Definition<br />

Der Prozess (X t , F t ) t∈I heißt Markoff-Prozess, wenn er die elementare Markoff-Eigenschaft besitzt,<br />

d.h.<br />

P[X t ∈ B|F s ] = P[X t ∈ B|X s ] fast sicher (s < t, B ∈ B).<br />

Man schreibt auch (Ω, A, P, (X t ) t∈I ).<br />

27.2 Bemerkung<br />

1. In Worten ausgedrückt heißt das, dass für das Verhalten des Prozesses in der Zukunft t > s die<br />

Information über die Vergangenheit gleichwertig ist mit der Information σ(X s ) der Gegenwart<br />

s.<br />

2. Die Formel gilt auch für s = t, da 1 X<br />

−1<br />

t (B) messbar ist sowohl bzgl. F t als auch bzgl. σ(X t ).<br />

Damit gilt hier fast sicher<br />

27.3 Satz<br />

P[X t ∈ B|F t ] = P[X t ∈ B|X t ] = 1 X<br />

−1<br />

t (B) .<br />

Sei (X t ) t∈I eine unabhängige Familie von Zufallsvariablen und (Ft ∗ ) t∈I := (σ(X s : s ≤ t) (t ∈<br />

I)) t∈I die kanonische Filtration. Dann ist (X t ) t∈I ein Markoff-Prozess bzgl. der kanonischen<br />

Filtration.<br />

Beweis: Für s < t und B ∈ B ist σ(X t ) unabhängig von F ∗ s . Damit ist nach 22.15 fast sicher<br />

P[X t ∈ B|F ∗ s ] = E[1 {Xt∈B}|F ∗ s ] = E[1 {Xt∈B}] = P[X t ∈ B] = P[X t ∈ B|X s ].<br />

✷<br />

27.4 Lemma<br />

Sei (X t ) t∈I ein stochastischer Prozess und (F ∗ t ) t∈I die kanonische Filtration. Genau dann ist<br />

(X t ) t∈I ein Markoff-Prozess bzgl. der kanonischen Filtration, wenn fast sicher<br />

P[X t ∈ B|X s1 , . . . , X sn ] = P[X t ∈ B|X sn ]<br />

(s 1 < . . . < s n < t, B ∈ B).<br />

Beweis:<br />

“⇒”: Sei also<br />

E[1 {Xt∈B}|F ∗ s ] = E[1 Xt∈B}|X sn ] fast sicher.<br />

Mit 22.14 ist dann fast sicher<br />

E[1 {Xt∈B}|X s1 , . . . , X sn ] = E [ E[1 {Xt∈B}|F ∗ s ]|X s1 , . . . , X sn<br />

]<br />

= E [ E[1 {Xt∈B}|X sn ]|X s1 , . . . , X sn<br />

]<br />

= E[1{Xt∈B}|X sn ].


27. MARKOFF-PROZESSE 229<br />

“⇐”: Es ist zu zeigen:<br />

Für s < t und jede Version Y von P[X t ∈ B|X s ] und A ∈ Fs ∗ gilt<br />

∫ ∫<br />

Y dP = 1 {Xt∈B}dP = P[A ∩ {X t ∈ B}].<br />

A<br />

A<br />

Nach Voraussetzung gilt dies für s 1 < . . . < s n = s und A ∈ σ(X s1 , . . . , X sn ). Da diese<br />

σ-Algebra ein ∩-stabiler Erzeuger der σ-Algebra Fs ∗ ist die beiden Abbildungen<br />

∫<br />

A ↦→ P[A ∩ {X t ∈ B}], A ↦→ Y dP<br />

endliche Maße auf F s sind folgt die Behauptung aus dem Eindeutigkeitssatz der Maßtheorie<br />

7.19.<br />

27.5 Hauptsatz<br />

Ist (E, B) ein polnischer Zustandsraum und ist die gemeinsame Verteilung von (X t ) t∈I das<br />

Markoff-Maß P µ aus einer normalen Markoff’schen Schar (P s,t ) s,t∈I und Startwahrscheinlichkeit<br />

µ aus E, dann ist (X t ) t∈I bzgl. der kanonischen Filtration ein Markoff-Prozess und es gilt<br />

s≤t<br />

fast sicher für x ∈ E, B ∈ B = B(E) und s ≤ t<br />

P[X t ∈ B|X s = x] = P s,t [x, B],<br />

P[X t ∈ B|F ∗ s ] = P[X t ∈ B|X s ] = P s,t [X s , B].<br />

A<br />

✷<br />

Beweis: Gemäß 22.30 gilt<br />

P[X t ∈ B|X s = x] = P s,t [x, B].<br />

Zu zeigen bleibt nach 27.4 für (s 0 < s 1 < . . . < s n = s < t =: s n+1 )<br />

P[X t ∈ B|X s0 , . . . , X sn ] = P s,t [X s , B] = P s,t [., B] ◦ X s = P s,t [., B] ◦ π J s ◦ X J fast sicher<br />

mit J = {s 0 , . . . , s n } und Πs 0 = 0. Ansonsten folgt die Behauptung durch Bildung der bedingten<br />

Erwartung E[.|X s1 , . . . , X sn ] auf beiden Seiten.<br />

Dies ist äquivalent zum Nachweis, dass der Kern<br />

K s,t := P s,t [π J s , .] : E J × B → [0; 1]<br />

eine faktorisierte bedingte Verteilung von X t unter der Hypothese X J = (X s0 , . . . , X sn ) ist, also<br />

nach 22.29 P (XJ ,X t) = P XJ ⊗ K s,t gilt. Mit s n+1 := t genügt dafür der Nachweis von<br />

denn dann ist nach 18.10<br />

⊗<br />

P si−1 ,s i<br />

= ( µ<br />

n+1<br />

µ<br />

i=1<br />

n⊗ )<br />

P si−1 ,s i ⊗Ks,t<br />

i=1<br />

n+1<br />

P (XJ ,X t) = P (Xsi ) i=0,...,n+1<br />

= P = µ ⊗<br />

π{s0 ,...,s n+1 }<br />

18.10<br />

= P µ π J<br />

⊗K s,t = P XJ ⊗ K s,t .<br />

i=1<br />

P si−1 ,s i<br />

= ( µ<br />

n⊗<br />

i=1<br />

P si−1 ,s i<br />

} {{ }<br />

∈M 1 + (E J ,B J )<br />

)<br />

⊗Ks,t


230 KAPITEL 6. MARTINGALTHEORIE<br />

Für A ∈ B J und B ∈ B ist aber<br />

∫<br />

P µ π J<br />

⊗K s,t [A × B] = P µ [<br />

π d(x0<br />

J<br />

, . . . , x n ) ] K s,t [x 0 , . . . , x n , B]<br />

A∫<br />

∫<br />

∫<br />

9.17<br />

= µ[dx 0 ] P s0,s 1<br />

[x 0 , dx 1 ] . . . P sn−1 ,s n<br />

[x n−1 , dx n ]<br />

∫<br />

=<br />

∫<br />

µ[dx 0 ]<br />

K s,t [x 0 , . . . , x n , dx n+1 ]1 A (x 0 , . . . , x n )1 B (x n+1 )<br />

∫<br />

P s0,s 1<br />

[x 0 , dx 1 ] . . .<br />

P sn−1 ,s n<br />

[x n−1 , dx n ]<br />

∫<br />

P sn,s n+1<br />

[x n , dx n+1 ]1 A (x 0 , . . . , x n )1 B (x n+1 )<br />

= ( µ ⊗ n+1<br />

i=1 P )<br />

s i−1 ,s i [A × B].<br />

✷<br />

27.6 Korollar<br />

Jeder Lévy-Prozess, d.h. jeder Prozess mit Zustandsraum (R d , B(R d )) und stationären unabhängigen<br />

Zuwächsen ist ein Markoff-Prozess.<br />

Beweis: Folgt direkt aus 19.4 und 27.5.<br />

27.7 Beispiele<br />

Jede Brown’sche Bewegung in R d und jeder Poisson-Prozess ist ein Lévy-Prozess und damit auch<br />

ein Markoff-Prozess.<br />

27.8 Definition<br />

Eine Familie von Tupeln (Ω, A, P x , (X t ) t∈R+ ) x∈E<br />

universeller Markoff-Prozess, wenn gilt:<br />

heißt Markoff’sche Prozessfamilie oder auch<br />

1. Die Abbildung x ↦→ P x [A] ist B-messbar (A ∈ A).<br />

2. Es ist P x [X 0 = x] = 1 (x ∈ E).<br />

3. Für s, t ∈ R + , x ∈ E und B ∈ B ist<br />

P x [X s+t ∈ B|Fs ∗ ] = P Xs [X t ∈ B]<br />

P x -fast-sicher.<br />

27.9 Bemerkung<br />

Die Eigenschaft 3. heißt universelle Markoff-Eigenschaft. Anders geschrieben bedeutet sie<br />

P x [X s+t ∈ B|Fs ∗ ](ω) = P Xs(ω) [X t ∈ B]<br />

für fast alle ω ∈ Ω.


27. MARKOFF-PROZESSE 231<br />

27.10 Lemma<br />

Sei (E, B) polnisch, µ ein Wahrscheinlichkeitsmaß auf E, (P s,t ) s,t∈I eine Markoff’sche Schar auf<br />

s≤t<br />

(E, B) und mit dem zugehörigen Markoff-Maß P µ . Dann ist für B ∈ B I die Abbildung<br />

x ↦→ P ɛx [B]<br />

B-messbar und es gilt<br />

∫<br />

P µ [B] =<br />

P ɛx [B]µ[dx].<br />

Beweis: Definiere<br />

Dann ist D ein Dynkin-System.<br />

Sei<br />

E := {B ∈ B I : B = ∏<br />

D := {B ∈ B I : x ↦→ P ɛx [B] ist B-messbar}.<br />

j∈J<br />

B j ×<br />

∏<br />

i∈I\J<br />

Ω, J ⊂⊂ I, B i ∈ B, i ∈ J}.<br />

Beh: E ⊆ D<br />

Denn: Es ist für B 1 , . . . , B n ∈ B und J := {1, . . . , n}<br />

∫ ∫<br />

P ɛx [π −1<br />

J (B 1 × . . . × B n )] 18.8<br />

= ɛ x [dx 0 ] P 0,t1 [x 0 , dx 1 ]1 B1 (x 1 ) · . . . ·<br />

∫<br />

P tn−1 ,t n<br />

[x n−1 , dx n ]1 Bn (x n )<br />

∫<br />

= P 0,t1 [x, dx 1 ]1 B1 (x 1 ) · . . . ·<br />

P tn−1 ,t n<br />

[x n−1 , dx n ]1 Bn (x n ).<br />

Nach 9.12 folgt, dass x ↦→ P ɛx [B] für B ∈ E messbar ist. Wegen der ∩-Stabilität von E folgt<br />

B I ⊇ D = δ(D) ⊇ δ(E) = σ(E) = B I .<br />

Damit folgt die Behauptung.<br />

Beh: Es gilt<br />

∫<br />

P µ [B] =<br />

P ɛx [B]µ[dx] (B ∈ B I ).<br />

Denn: Es genügt wegen 4.12, die Behauptung für B ∈ E zu zeigen. Sei also J = {1, . . . , n} und<br />

B = π −1<br />

J<br />

(B 1 × . . . × B n ). Dann ist<br />

∫ ∫<br />

P ɛx [B] = P ɛx<br />

J [B 1 × . . . × B n ] 18.8<br />

= ɛ x [dx 0 ] P 0,t1 [x 0 , dx 1 ]1 B1 (x 1 ) · . . . ·<br />

∫<br />

P tn−1 ,t n<br />

[x n−1 , dx n ]1 Bn (x n )<br />

∫<br />

=<br />

∫<br />

P 0,t1 [x, dx 1 ]1 B1 (x 1 ) · . . . ·<br />

P tn−1 ,t n<br />

[x n−1 , dx n ]1 Bn (x n ).<br />

Damit ist<br />

∫<br />

∫<br />

P ɛx [B]µ[dx] =<br />

∫<br />

µ[dx]<br />

∫<br />

P 0,t1 [x, dx 1 ]1 B1 (x 1 ) · . . . ·<br />

P tn−1 ,t n<br />

[x n−1 , dx n ]1 Bn (x n )<br />

= P µ J [B 1 × . . . × B n ] = P µ [B].<br />


232 KAPITEL 6. MARTINGALTHEORIE<br />

27.11 Hauptsatz<br />

Sei (E, B) ein polnischer Raum.<br />

1. Zu jeder normalen Markoff’schen Halbgruppe (P t ) t≥0 auf (E, B) gibt es eine Markoff’sche<br />

Prozessfamilie (Ω, A, P x , (X t ) t∈R+ ) x∈E mit<br />

P t [x, B] = P x [X t ∈ B]<br />

(t ≥ 0, x ∈ E, B ∈ B).<br />

2. Jede Markoff’sche Prozessfamilie (Ω, A, P x , (X t ) t≥0 ) x∈E definiert durch<br />

P t [x, B] := P x [X t ∈ B]<br />

(t ≥ 0, x ∈ E, B ∈ B).<br />

eine normale Markoff’sche Halbgruppe (P t ) t≥0 von Markoff-Kernen auf (E, B). Für x ∈ E ist<br />

der Prozess (Ω, A, P x , (X t ) t≥0 ) der bis auf Äquivalenz eindeutig bestimmte Markoff-Prozess,<br />

dessen gemeinsame Verteilung das Markoff-Maß <strong>zur</strong> Startwahrscheinlichkeit ɛ x und (P t ) t≥0<br />

ist.<br />

Beweis:<br />

1. Sei P ɛx das Markoff-Maß zu ɛ x und (P t ) t≥0 . Wähle den kanonischen Prozess (X t ) t≥0 zu ɛ x<br />

und (P t ) t≥0 gemäß 18.4 und 18.10. Definiere P x := P ɛx .<br />

Beh: Nun ist (Ω, A, P x , (X t ) t∈R+ ) t≥0 eine Markoff’sche Prozessfamilie, die die obigen Bedingungen<br />

erfüllt.<br />

Denn: Für die Bedingungen 1.-3. gilt:<br />

1. Folgt aus 27.10.<br />

2. Folgt aus 18.10.<br />

3. Dies folgt ebenfalls aus 18.10 und 27.5. Zunächst ist P x X t<br />

18.10<br />

= P t [x, .]. Dann lehrt 27.5 für<br />

s, t ≥ 0, x ∈ E und B ∈ B P x -fast sicher<br />

P x [X s+t ∈ B|F x s ] = P x [X s+t ∈ B|X s ] = P t (X s , B) = P Xs [X t ∈ B]<br />

2. Durch obige Definition ist P t ein stochastischer Kern auf (E, B), denn für x ∈ E ist es ein<br />

Wahrscheinlichkeitsmaß als Verteilung von X t und für B ∈ B messbar nach Eigenschaft 1.<br />

einer Markoff’schen Prozessfamilie.<br />

Aus P 0 = 1 folgt die Normalität. Die Halbgruppeneigenschaft, also die Chapman-Kolmogoroff-<br />

Gleichungen, folgen aus<br />

P s+t [x, B] = P x [X s+t ∈ B] = E x [1 {Xs+t∈B}] = E x[ E x [1 {Xs+t∈B}|F ∗ s ] ]<br />

= E x[ P x [X s+t ∈ B|Fs ∗ ] ] 3.<br />

= E x[ P Xs [X t ∈ B] ] = E x[ P t [X s , B] ]<br />

∫<br />

∫<br />

∫<br />

= P t [X s (ω), B]P x [dω] 8.4<br />

= P t [y, B]P x X s<br />

[dy] = P s [x, dy]P t [y, B]<br />

= P s P t [x, B].<br />

Für x ∈ E ist (Ω, A, P x , (X t ) t≥0 ) ein Markoff-Prozess denn für s, t ∈ R + und B ∈ B ist<br />

Y := P Xs [X t ∈ B] = P . [X t ∈ B] ◦ X s<br />

eine σ(X s )- also F ∗ s -messbare Zufallsvariable und wegen Eigenschaft 3. eine Version von<br />

P x [X s+t ∈ B|F ∗ s ] = E[1 B ◦ X s−t |F ∗ s ].


27. MARKOFF-PROZESSE 233<br />

Also ist P x -fast sicher<br />

P x [X s+t ∈ B|F ∗ s ] = Y = E x [Y |X s ] = E x[ E x [1 B ◦ X s+t |F ∗ s ]|X s<br />

] 22.14<br />

= E x [1 B ◦ X s+t |X s ]<br />

= P x [X s+t ∈ B|X s ].<br />

Damit ist (Ω, A, P x , (X t ) t≥0 ) ein Markoff-Prozess.<br />

Zu zeigen bleibt, dass P ɛx die gemeinsame Verteilung von (X t ) t∈R+ ist, d.h. für jedes n ∈ N,<br />

B 1 , . . . , B n ∈ B und t 1 < . . . < t n ist<br />

∫<br />

∫<br />

∫<br />

P (Xt1 ,...,X tn )[B 1 × . . . × B n ] = P t1 [x, dx 1 ] P t2−t 1<br />

[x 1 , dx 2 ] . . . P tn−t n−1<br />

[x n−1 , dx n ]<br />

·1 B1×...×B n<br />

(x 1 , . . . , x n ).<br />

Der Beweis erfolgt mittels Induktion nach n. Für n = 1 ist die Formel klar. Für n → n + 1 gilt<br />

für<br />

A := {X t1 ∈ B 1 } ∩ . . . ∩ {X tn ∈ B n } ∈ F ∗ t n<br />

P x (X t1 ,...,X tn+1 ) [B 1 × . . . × B n+1 ] = P x[ {X tn+1 ∈ B n+1 } ∩ A ]<br />

∫<br />

∫<br />

22.17.1<br />

= P x [X tn+1 ∈ B n+1 |Ft ∗ n<br />

]dP x 3.<br />

= P Xtn [X tn+1−t n<br />

∈ B n+1 ]dP x<br />

A<br />

A<br />

∫<br />

= (1 B1 ◦ X t1 ) . . . (1 Bn ◦ X tn ) P tn+1 −t<br />

} {{ }<br />

n<br />

[X tn , B n+1 ]dP x<br />

=1<br />

∫<br />

A<br />

= 1 B1×...×B n<br />

◦ (X t1 , . . . , X tn )P tn+1 −t n<br />

[., B n+1 ]<br />

∫<br />

8.4<br />

=<br />

Ind.Ann.<br />

=<br />

◦ π {t1,...,tn}<br />

t n<br />

◦ (X t1 , . . . , X tn ) dP x<br />

} {{ }<br />

=X tn<br />

1 B1×...×B n<br />

P tn+1 −t n<br />

[., B n+1 ] ◦ π {t1,...,t n}dP x (X t1 ,...,X tn )<br />

∫<br />

∫<br />

P t1 [x, dx 1 ] P t2−t 1<br />

[x 1 , dx 2 ] . . .<br />

∫<br />

P tn−t n−1<br />

[x n−1 , dx n ]1 B1 (x 1 ) . . . 1 Bn (x n )<br />

∫<br />

P tn+1 −t n<br />

[x n , dx n+1 ]1 Bn+1 (x n+1 )<br />

∫<br />

=<br />

∫<br />

P t1 [x, dx 1 ]<br />

P t2−t 1<br />

[x 1 , dx 2 ] . . .<br />

∫<br />

P tn+1 −t n<br />

[x n , dx n+1 ]1 B1×...×B n+1<br />

(x 1 , . . . , x n+1 ).<br />


234 KAPITEL 6. MARTINGALTHEORIE<br />

27.12 Korollar<br />

Sei (E, B) polnisch und (Y t ) t∈R+ ein stochastischer Prozess mit Zustandsraum E. Ist die gemeinsame<br />

Verteilung von (Y t ) t∈R+ das Markoff-Maß P µ zu einer normalen Markoff’schen Halbgruppe<br />

(P t ) t≥0 und einer Startwahrscheinlichkeit µ auf E, so existiert eine Markoff’sche Prozess-Familie<br />

(Ω, A, P x , (X t ) t∈R+ ) x∈E , so dass (Y t ) t∈R+ äquivalent zum Markoff-Prozess (Ω, A, P µ , (X t ) t∈R+ )<br />

ist, wobei gilt<br />

∫<br />

P µ [B] = P x [B]µ[dx] (B ∈ B I ).<br />

Beweis: Wähle (X t ) als den kanonischen Prozess zum Markoff-Maß P µ . Da durch P µ die Markoff’sche<br />

Halbgruppe (P t ) t≥0 eindeutig bestimmt ist, gibt es nach 27.11.1 eine Markoff’sche Prozessfamilie<br />

mit<br />

P t [x, B] = P x [X t ∈ B] (t ≥ 0, x ∈ E, B ∈ B)<br />

und P x = P ɛx . Die Behauptung folgt nun aus 27.10.<br />


Bezeichnungen<br />

Allgemeines<br />

N<br />

Z<br />

Q<br />

R<br />

C<br />

E<br />

H<br />

K<br />

R<br />

Menge der natürlichen Zahlen.<br />

Menge der ganzen Zahlen.<br />

Menge der rationalen Zahlen.<br />

Menge der reellen Zahlen.<br />

Menge der komplexen Zahlen.<br />

bezeichnet ein Mengensystem.<br />

bezeichnet einen Halbring<br />

ein kompaktes System.<br />

bezeichnet einen Ring.<br />

K: Ω 1 × A 2 → R + bezeichnet einen stochastischen Kern.<br />

m<br />

bezeichnet einen Inhalt, ein Prämaß oder ein Maß.<br />

µ bezeichnet einen Inhalt, ein Prämaß oder ein Maß.<br />

P<br />

(E, d)<br />

bezeichnet ein Wahrscheinlichkeitsmaß.<br />

bezeichnet einen metrischen Raum.<br />

J ⊂⊂ I bezeichnet eine endliche Teilmenge J von I.<br />

a n = O(b n ) ⇐⇒ ∃c > 0 : a n<br />

≤ c (n ∈ N)<br />

b n<br />

Vergleich der Asymptotiken zweier Zahlenfolgen (a n ) n∈N und (b n ) n∈N .<br />

a n = o(b n ) ⇐⇒<br />

a n<br />

lim = 0<br />

n→∞ b n<br />

(E J , B J )<br />

Vergleich der Asymptotiken zweier Zahlenfolgen (a n ) n∈N und (b n ) n∈N .<br />

:= ⊗ ( ∏<br />

j , B j ) := E, B J =<br />

j∈J(E )<br />

B (p. 150)<br />

j∈J<br />

j∈J<br />

GL(d, R) Menge der reeller d × d-Matrizen mit det A ≠ 0.<br />

Rz der Realteil einer komplexen Zahl z.<br />

Iz der Imaginärteil einer komplexen Zahl z.<br />

Tr f Träger einer Funktion f.<br />

Œ<br />

”ohne Einschränkung”<br />

235


Mengen<br />

G(Ω)<br />

die Menge der offenen Mengen in Ω, d.h. die Elemente der Topologie von<br />

Ω. (p. 7)<br />

F(Ω) die Menge der abgeschlossenen Mengen in Ω. (p. 7)<br />

A ∩ E := {A ∩ E; E ∈ E}. (p. 9)<br />

CA das Komplement der Menge A. (p. 15)<br />

Ω J := ∏ Ω j der Produktraum von (Ω j ) j∈J . (p. 81)<br />

j∈J<br />

P(Ω) die Potenzmenge der Menge Ω.<br />

σ Ω (E) die vom Mengensystem E ⊆ P(Ω) erzeugte σ-Algebra. (p. 6)<br />

σ(E) := σ Ω (E). (p. 6)<br />

B(Ω)<br />

die Borelsche σ-Algebra des Raumes Ω, der mit einer Topologie versehen<br />

ist. (p. 7)<br />

σ(X i : i ∈ I) die von den (X i ) i∈I erzeugte σ-Algebra. (p. 80)<br />

⊗<br />

A i = A I die Produkt-σ-Algebra der (A i ) i∈I . (p. 81)<br />

i∈I<br />

A 1 ⊗ . . . A n :=<br />

T n :=<br />

n⊗<br />

i=1<br />

A i<br />

die Produkt-σ-Algebra der (A i ) i=1,...,n (p. 82)<br />

( ⋃ )<br />

σ A i<br />

i≥n<br />

die von (A i ) i≥n erzeugte σ-Algebra. (p. 111)<br />

∞⋂<br />

T ∞ :=<br />

F ∞<br />

F t+<br />

n=1<br />

T n<br />

die σ-Algebra der terminalen Ereignisse von (A n ) n∈N . (p. 111)<br />

:= σ ( ⋃ )<br />

F t<br />

t∈I<br />

die σ-Algebra einer Filtration, die von allen Elementen der Filtration<br />

erzeugt wird. (p. 198)<br />

:= ⋂ F s<br />

s∈I<br />

s≤t<br />

die rechtsstetige Filtration einer gegebenen Filtration (F t ) t∈I . (p. 198)<br />

F ∗ ≤t := σ(X s : s ∈ I, s ≤ t)<br />

kanonische Filtration eines Prozesses (X t ) t∈I . (p. 198)<br />

F T<br />

:= { A ∈ F ∞ : A ∩ {T ≤ t} ∈ F t (t ∈ I) } ⊆ F ∞<br />

σ-Algebra der T -Vergangenheit für eine Stoppzeit T . (p. 206)<br />

F T<br />

:= { A ∈ F ∞ : A ∩ {T < t} ∈ F t (t ∈ I) } ⊆ F ∞<br />

σ-Algebra der T -Vergangenheit für eine Optionszeit T . (p. 206)<br />

F −∞ := ⋂ t∈I<br />

F t für I = Z − oder I = R − . (p. 218)<br />

δ(E)<br />

:= δ Ω (E) := ⋂ {D : D Dynkin-System, E ⊆ D} das von E erzeugte<br />

Dynkin-System. (p. 69)<br />

236


{ ⋃<br />

n K ∪ :=<br />

i=1<br />

}<br />

K i : n ∈ N, K i ∈ K<br />

der von einem kompakten System K erzeugte Verband, der auch ein<br />

kompaktes System ist. (p. 65)<br />

R loc := {A ⊆ Ω : A ∩ R ∈ R (R ∈ R)} ⊇ R<br />

der von einem Ring R erzeugte lokale Ring. (p. 68)<br />

∞⋃<br />

lim inf A ⋂<br />

n := A k<br />

n→∞<br />

lim sup A n :=<br />

n→∞<br />

n=1 k≥n<br />

die Menge aller ω, die in allen bis auf endlich vielen A n liegen. (p. 50)<br />

∞⋂ ⋃<br />

n=1 k≥n<br />

A k<br />

die Menge aller ω, die in unendlich vielen A n liegen. (p. 50)<br />

A(ω 1 , Ω 2 ) := {ω 2 ∈ Ω 2 : (ω 1 , ω 2 ) ∈ A} (p. 85)<br />

∂A Rand einer Menge A. (p. 128)<br />

Maße<br />

µ σ Fortsetzung von µ auf E σ (Ω, R, m). (p. 30)<br />

µ ∗ inneres Maß eines Maßes µ. (p. 66)<br />

P ∗ I<br />

A ↦→ inf P I [B]<br />

B∈B I<br />

B⊇A<br />

äußeres Maß von P I . (p. 152)<br />

X(m) Bildmaß von X unter m. (p. 78)<br />

ɛ ω singuläre Verteilung von ω. (p. 1)<br />

m[A|B]<br />

bedingte Wahrscheinlichkeit von B unter der Hypothese A, falls m ein<br />

Wahrscheinlichkeitsmaß ist. (p. 16)<br />

N µ,σ 2 := g µ,σ 2 · λ 1<br />

die Normalverteilung mit Parametern µ und σ. (p. 104)<br />

[<br />

]<br />

1<br />

g µ,σ 2(x) = √ exp (x − µ)2<br />

−<br />

2πσ<br />

2 2σ 2<br />

die Dichte der Normalverteilung N µ,σ 2. (p. 104)<br />

Φ Verteilungsfunktion der Standardnormalverteilung. (p. 133)<br />

π λ Poisson-Verteilung zum Parameter λ. (p. 2)<br />

B(n, p) Binomialverteilung auf {0, . . . , n} zum Parameter p. (p. 2)<br />

m 1 ∗ . . . ∗ m n := n ∗<br />

i=1<br />

( ⊗<br />

n )<br />

m i := S n m i<br />

i=1<br />

die Faltung von m 1 , . . . , m n . (p. 99)<br />

m ′


µ n<br />

vage<br />

−−→ µ vage Konvergenz von endlichen Borel-Maßen. (p. 122)<br />

(p ij ) i∈I,j∈J eine stochastische Matrix. (p. 84)<br />

lim ←−<br />

P J<br />

J ⊂⊂ I<br />

K 1 K 2 :<br />

projektiver Limes einer Familie von Wahrscheinlichkeitsmaßen<br />

(P J ) J⊂⊂I . (p. 94)<br />

∫<br />

(x, B) ↦−→ K 1 [x, dy]K 2 [y, B]<br />

Produkt zweier stochastischer Kerne. (p. 158)<br />

(P s,t ) s,t∈I eine Markoff’sche Schar. (p. 159)<br />

s≤t<br />

(P t ) t∈I eine Markoff’sche Halbgruppe. (p. 159)<br />

(µ t ) t∈I eine Faltungshalbgruppe von Wahrscheinlichkeitsmaßen. (p. 159)<br />

P µ := lim ←−<br />

P J Markoff-Maß zu einer Startwahrscheinlichkeits µ und einer<br />

J ⊂⊂ I<br />

Markoff’schen Schar. (p. 164)<br />

P x := P ɛx das Markoff-Maß mit Startwahrscheinlichkeit ɛ x . (p. 172)<br />

P[A|B]<br />

:= P B [A] := E[1 A |B]<br />

bedingte Wahrscheinlichkeit von A unter der Hypothese B. (p. 192)<br />

P[A|Y = .] := E[1 A |Y = .]<br />

faktorisierte bedingte Wahrscheinlichkeit. (p. 195)<br />

P B<br />

P X|Y<br />

P X|Y =y<br />

Erwartungskern zu B, falls<br />

P[A|B] = P B [., A] fast sicher (A ∈ A). (p. 195)<br />

bedingte Verteilung von X unter der Hypothese Y , falls<br />

P X|Y [., A ′′ ] = P[X −1 (A ′′ )|Y ] fast sicher (A ′′ ∈ A ′′ ). (p. 196)<br />

faktorisierte bedingte Verteilung von X unter {Y = y}, falls<br />

P X|Y =. ◦ Y = P X|Y . (p. 196)<br />

f Maßdefinierende eines Borel-Maßes m. (p. 75)<br />

F Verteilungsfunktion eines Wahrscheinlichkeitsmaßes. (p. 76)<br />

F − (ω) := inf{y ∈ R : F (y) ≥ ω}<br />

inverse Verteilungsfunktion der Verteilungsfunktion F . (p. 125)<br />

Funktionen<br />

1 A Indikatorfunktion der Menge A. (p. 19)<br />

1 A(ω1,Ω 2) := 1 A (ω 1 , .) (p. 85)<br />

f + := sup(f, 0), Positivteil von f. (p. 22)<br />

f − := inf(f, 0), Negativteil von f. (p. 22)<br />

f − := −f − , negativer Negativteil von f. (p. 22)<br />

f A := f| A . (p. 37)<br />

f A := f1 A . (p. 37)<br />

⊗<br />

X j = X J = (X j ) j∈J Produktabbildung von (X j ) j∈J . (p. 82)<br />

j∈J<br />

S n :=<br />

n∑<br />

X i die Summenzufallsvariable der X 1 , . . . , X n . (p. 99)<br />

i=1<br />

238


X I (ω)(t) := X t (ω) ein Pfad eines stochastischen Prozesses (X t ) t∈I . (p. 149)<br />

X I (Ω)<br />

:= {X I (ω) : ω ∈ Ω} die Pfadmenge eines stochastischen Prozesses<br />

(X t ) t∈I . (p. 149)<br />

X T (ω) := X T (ω) (ω) die durch einen stochastischen Prozess (X t ) t∈I und eine<br />

Options- oder Stoppzeit T definierte Zufallsvariable. (p. 209)<br />

X(m) Bildmaß von X unter m. (p. 78)<br />

VertX = Vert m X = m X Verteilung der Zufallsvariable X. (p. 78)<br />

σ(X i : i ∈ I) die von den (X i ) i∈I erzeugte σ-Algebra. (p. 80)<br />

∫<br />

E[X] := XdP<br />

Erwartungswert einer integrierbaren Zufallsvariablen X. (p. 33)<br />

∫<br />

E[X] = xg(x)m[dx]<br />

Erwartungswert von X, falls die Verteilung von X die Dichte g bzgl. m<br />

hat. (p. 103)<br />

Var[X] :=<br />

∫ (X<br />

− E[X]<br />

) 2dP<br />

Varianz einer Zufallsvariable. (p. 46)<br />

∫<br />

( ∫<br />

Var[X] = x 2 g(x)m[dx] − xg(x)m[dx]<br />

σ[X]<br />

Varianz von X, falls die Verteilung von X die Dichte g bzgl. m hat. (p.<br />

103)<br />

:= √ Var[X] Standardabweichung oder Streuung einer Zufallsvariablen.<br />

(p. 46)<br />

Kov[X, Y ] := E [ (X − E[X])(Y − E[Y ]) ] = E[X · Y ] − E[X · Y ]<br />

Kovarianz von zwei integrierbaren Zufallsvariablen X und Y . (p. 98)<br />

kor[X, Y ] = Kov[X, Y ] der Korrellationskoeffizient zweier quadratisch integrierbarer<br />

Zufallsfariablen X und Y . (p.<br />

σ[X] · σ[Y ]<br />

98)<br />

X B bedingte Erwartung von X unter B. (p. 187)<br />

E B [X] := X B := E[X|B] bedingte Erwartung von X unter B. (p. 188)<br />

E[X|B]<br />

:= E[X|{∅, B, CB, Ω}] bedingte Erwartung von X unter der Hypothese<br />

B. (p. 189)<br />

E[X|Y = .] faktorisierte bedingte Erwartung von X unter Y . (p. 194)<br />

E[X|Y = y]<br />

:= E[X|Y = .](y)<br />

bedingter Erwartungswert von X unter {Y = y}. (p. 194)<br />

f ⊗ g Tensorprodukt von f und g. (p. 85)<br />

∫<br />

f ∗ g(x) := f(x − y)g(y)λ d [dy]<br />

Faltung zweier Funktionen. (p. 161)<br />

m − lim n<br />

n→∞<br />

stochastischer Limes der Folge (f n ) n∈N . (p. 54)<br />

S(F ) := {x ∈ R : F stetig in x}<br />

Menge der Stetigkeitsstellen der Verteilungsfunktion F . (p. 125)<br />

) 2<br />

239


[<br />

]<br />

1<br />

g µ,σ 2(x) = √ exp (x − µ)2<br />

−<br />

2πσ<br />

2 2σ 2<br />

V [s,t] X(ω)<br />

die Dichte der Normalverteilung N µ,σ 2. (p. 104)<br />

:= sup { ∑<br />

n |X ti (ω) − X ti−1 (ω)| : n ∈ N, s = t 0 < t 1 < . . . < t n = t }<br />

i=1<br />

Variation eines stochastischen Prozesses (X t ) t∈I . (p. 179)<br />

S f (R + ) Sprungfunktion einer Funktion f. (p. 181)<br />

U (a;b) (f)<br />

:= sup { n ∈ N : ∃t 1 < . . . < t 2n in I mit f(t 2j−1 ) < a, f(t 2j ) > b<br />

(1 ≤ j ≤ n) }<br />

Anzahl der aufsteigenden Überquerungen von f von (a; b). (p. 211)<br />

Räume<br />

(Ω, A, P) Wahrscheinlichkeitsraum. (p. 11)<br />

(Ω, A, (F t ) t∈I ) filtrierter Messraum. (p. 198)<br />

(Ω, A, P, (F t ) t∈I ) filtrierter Wahrscheinlichkeitsraum. (p. 198)<br />

L 0 (Ω, A) := L(Ω, A, R), Menge aller messbaren Abbildungen. (p. 18)<br />

F + := {f ∈ F : f ≥ 0}<br />

für eine Menge aus Funktionen F . (p. 23)<br />

F σ := {f ∈ R Ω : ∃(f n ) n∈N ∈ F N : f n ↑ f}<br />

für eine Menge aus Funktionen F . (p. 23)<br />

T (Ω, R) Menge der R-Treppenfunktionen. (p. 23)<br />

E(Ω, R, m) = {t ∈ T (Ω, R) : m[t < 0] < ∞}<br />

Menge der Elementarfunktionen. (p. 26)<br />

E + (Ω, R, m) := (E(Ω, R, m)) + . (p. 26)<br />

T + (Ω, R) := (T (Ω, R)) + . (p. 26)<br />

E σ (Ω, R, m) := (E(Ω, R, m)) σ . (p. 30)<br />

E σ := E σ (Ω, A, m). (p. 31)<br />

L p (m) := L p (Ω, A, m) = {f ∈ L 0 (Ω, A), N p (f) < ∞}<br />

Menge aller reellen, messbaren, p-fach integrierbaren Funktionen. (p. 42)<br />

( ∫ ) 1/p<br />

N p (f) := |f| p dm<br />

Ω<br />

Halbnorm, durch die L p (Ω) definiert ist. (p. 42)<br />

L ∞ (m)<br />

:= L ∞ (Ω, A, m) Menge aller rellen, A-messbaren m-fast überall beschränkten<br />

Funktionen. (p. 42)<br />

N ∞ (f) := inf{α ∈ R + : |f| ≤ α fast überall}. (p. 42)<br />

L p C (m)<br />

:= Lp (C, B(C), m) Menge aller messbaren, p-fach integrierbaren, komplexen<br />

Funktionen. (p. 45)<br />

l p C<br />

(I) Menge aller p-fach absolut summierbaren Folgen auf C. (p. 46)<br />

l ∞ C<br />

(I) Raum der beschränkten Folgen in C. (p. 46)<br />

240


L p (m)<br />

:= Lp (m)<br />

∼ Äquivalenzklassen aller Funktionen, die fast überall übereinstimmen.<br />

(p. 45)<br />

L p C (m)<br />

:= Lp (C, B(C), m) Äquivalenzklassen aller messbaren, p-fach integrierbaren,<br />

komplexen Funktionen. (p. 45)<br />

∫<br />

〈f, g〉 := fgdm<br />

Pseudoskalarprodukt auf L 2 (m). (p. 44)<br />

C(I, E) Menge aller stetigen Funktionen von I nach E. (p. 152)<br />

C b (E)<br />

K(E)]<br />

Menge der stetigen, beschränkten Funktionen auf E versehen mit der<br />

Supremumsnorm ||.||. (p. 121)<br />

Menge der stetigen Funktionen auf E mit kompaktem Träger, versehen<br />

mit der Supremumsnorm ||.||. (p. 121)<br />

C (0) (R)] :={f ∈ C b (R) : f gleichmäßig stetig}. (p. 121)<br />

C (k) (R)] :={f ∈ C b (R) : f, f (1) , . . . , f (k) ∈ C (0) (R)} (p. 121)<br />

M b +(E)] Menge der endlichen Borelmaße auf E. (p. 121)<br />

M 1 +(E) Menge der Wahrscheinlichkeitsmaße auf (E, B(E)). (p. 121)<br />

D(R + , Z)<br />

Menge der Funktionen ω : R + → Z, die isoton, rechtsseitig stetig sind<br />

mit Sprüngen der Größe 1. (p. 182)<br />

Integrale<br />

∫<br />

∫<br />

1 A dm := m[A]. (p. 26)<br />

∫<br />

∫<br />

f(ω)m[dω] :=<br />

∫<br />

fdm (p. 85)<br />

∫<br />

f(ω 1 , ω 2 )K 2 [ω 1 , dω 2 ] :=<br />

∫<br />

f(ω, .)dK 2 [ω 1 , .]. (p. 85)<br />

K 2 [ω 1 , A 2 ]m 1 [dω 1 ] := K 2 [., A 2 ]dm 1 (p. 86)<br />

∫A 1 ∫<br />

∫ A 1 ( ∫<br />

)<br />

∫<br />

m 1 [dω 1 ] K 2 [ω 1 , dω 2 ]f(ω 1 , ω 2 ) :=<br />

∫<br />

f(ω 1 , ω 2 )K 2 [ω 1 , dω 2 ] m 1 [dω 1 ] (p. 87)<br />

K[., dy]f(y) :=<br />

∫<br />

f(y)K[., dy] (p. 158)<br />

K 1 K 2 [x, B] := K 1 [x, dy]K 2 [y, B] (p. 158)<br />

241

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!