18.11.2013 Aufrufe

Vorlesungsskript - Fakultät für Mathematik

Vorlesungsskript - Fakultät für Mathematik

Vorlesungsskript - Fakultät für Mathematik

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Irrfahrten und Phänomene des Zufalls<br />

von<br />

Dipl.-math. oec. Bruno Ebner


Inhaltsverzeichnis<br />

1 Einführung 3<br />

1.1 Zufallsexperiment, Ergebnismenge und Wahrscheinlichkeit . . . . . . . . . . 3<br />

1.2 Irrfahrten 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

1.2.1 Symmetrische Irrfahrt auf einem Zahlenstrahl . . . . . . . . . . . . . 6<br />

1.3 Zufallsvariable und Erwartungswert . . . . . . . . . . . . . . . . . . . . . . 9<br />

2 Irrfahrten 2 11<br />

2.1 Erwartete Anzahl an Schritten bis zur Absorption . . . . . . . . . . . . . . 11<br />

2.1.1 Weitere symmetrische Irrfahrten . . . . . . . . . . . . . . . . . . . . 12<br />

2.1.2 Der Binomialkoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

2.2 Pfade von Irrfahrten und das Reflektionsprinzip . . . . . . . . . . . . . . . . 13<br />

3 Irrfahrten in Z 2 19<br />

3.1 Harmonische Funktionen in Z 2 . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

3.2 Lösung bestimmen über lineare Gleichungssysteme . . . . . . . . . . . . . . 21<br />

3.3 Lösung approximieren über Monte-Carlo-Methode . . . . . . . . . . . . . . 22<br />

3.4 Irrfahrten auf dem Zahlengitter in der Ebene ohne Schranken . . . . . . . . 22<br />

3.5 Das Banach’sche Streichholzproblem . . . . . . . . . . . . . . . . . . . . . . 23<br />

3.6 Bernoulli und Tennis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

3.7 Abschließende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 27<br />

Literaturverzeichnis 28<br />

1


Abbildungsverzeichnis<br />

1.1 Symmetrische Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

2.1 Pfad einer symmetrischen Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . 13<br />

2.6 Joseph L. F. Bertrand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

2.2 Pfade von Irrfahrten mit n = 50 (links) und n = 100 (rechts) Schritten. . . 17<br />

2.3 Pfade von Irrfahrten mit n = 500 (links) und n = 1000 (rechts) Schritten. . 17<br />

2.4 Pfade von Irrfahrten mit n = 10000 (links) und n = 50000 (rechts) Schritten. 17<br />

2.5 Reflektionsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

3.1 Zahlengitter S der Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />

3.2 Ein Pfad einer Irrfahrt in der Ebene mit n = 10000 Schritten. . . . . . . . . 22<br />

3.3 Irrfahrt im Zahlengitter S mit eingezeichneter Schranke B . . . . . . . . . . 24<br />

3.4 Zahlengitter S mit eingezeichneten Schranken B . . . . . . . . . . . . . . . 26<br />

2


Kapitel 1<br />

Einführung<br />

Zu Beginn machen wir uns mit einigen wahrscheinlichkeitstheoretischen Grundlagen vertraut.<br />

1.1 Zufallsexperiment, Ergebnismenge und Wahrscheinlichkeit<br />

Ein stochastischer Vorgang heißt ideales Zufallsexperiment, wenn folgende Gegebenheiten<br />

vorliegen:<br />

• Das Experiment wird unter vorher genau festgelegten Bedingungen (Versuchsbedingungen)<br />

durchgeführt.<br />

• Die Menge der möglichen Ergebnisse ist vor der Durchführung des Experiments<br />

bekannt.<br />

• Das Experiment kann prinzipiell beliebig oft wiederholt werden.<br />

Beispiel 1.1.1 Der einfache Würfelwurf eines fairen sechsseitigen Würfels ist ein ideales<br />

Zufallsexperiment, da er beliebig oft wiederholt werden kann und alle möglichen Ergebnisse<br />

durch die erzielten Augenzahlen bekannt sind.<br />

Die Menge der möglichen Ergebnisse eines idealen Zufallsexperiments bezeichnen wir mit<br />

Ω und nennen sie Ergebnismenge oder auch Grundraum. Die in der Ergebnismenge aufgeführten<br />

Elemente müssen nicht notwendig auch als Resultate eines Zufallsexperiments<br />

auftreten können. Wichtig <strong>für</strong> das Folgende ist nur, dass die Ergebnismenge Ω alle möglichen<br />

Ergebnisse enthält. Die Elemente von Ω werden mit ω, ω 1 , ω 2 , . . . oder anderen kleinen<br />

griechischen Buchstaben bezeichnet. Sie repräsentieren die möglichen Ergebnisse des Zufallsexperiments.<br />

3


Beispiel 1.1.2 Die Ergebnismenge eines einfachen Würfelwurfs wäre konkret<br />

Ω = {1, 2, 3, 4, 5, 6}.<br />

Wirft man den Würfel einmal und es erscheint die 2, so ist ω = 2 ∈ Ω das Ergebnis des<br />

idealen Zufallsexperiments.<br />

Ist Ω die Ergebnismenge eines Zufallsexperiments, so nennt man die Teilmengen A ⊂ Ω<br />

Ereignisse. Beobachtet man bei der Durchführung des Zufallsexperiments das Ergebnis<br />

ω ∈ Ω, so ist das Ereignis A ⊂ Ω eingetreten, falls ω ∈ A gilt. Falls dagegen ω ∉ A gilt, so<br />

ist das Ereignis A bei der Durchführung des Zufallsexperiments nicht eingetreten.<br />

Beispiel 1.1.3 Interessiert in unserem Beispiel des einfachen Würfelwurfs nur, ob die<br />

Augenzahl gerade ist, so kann man das Ereignis wie folgt modellieren<br />

A = {2, 4, 6}.<br />

Das Ereignis A tritt also ein, falls eine gerade Augenzahl gewürfelt wird.<br />

Sind A, B zwei Ereignisse so ist der Durchschnitt<br />

A ∩ B := {ω ∈ Ω : ω ∈ A und ω ∈ B}<br />

und die Vereinigung<br />

ein neues Ereignis.<br />

A ∪ B := {ω ∈ Ω : ω ∈ A oder ω ∈ B}<br />

Beispiel 1.1.4 Nehmen wir zu dem letzten Beispiel das Ereignis B der Augenzahlen kleiner<br />

gleich drei hinzu, also<br />

B := {1, 2, 3},<br />

so ist der Durchschnitt<br />

und die Vereinigung<br />

A ∩ B = {2, 4, 6} ∩ {1, 2, 3} = {2}<br />

A ∪ B = {2, 4, 6} ∪ {1, 2, 3} = {1, 2, 3, 4, 6}.<br />

Also ist das Ereignis A ∩ B das Ereignis eine 2 zu würfeln und das Ereignis A ∪ B eine<br />

der Augenzahlen ausser der 5 zu würfeln.<br />

Wir wollen im Folgenden von Wahrscheinlichkeiten reden. Da<strong>für</strong> benötigen wir eine konkrete<br />

Definition des Begriffs Wahrscheinlichkeit.<br />

4


Definition 1.1.5<br />

Ein endlicher Wahrscheinlichkeitsraum ist ein Paar (Ω, P ), wobei Ω eine Ergebnismenge<br />

und P eine auf den Teilmengen von Ω definierte reellwertige Funktion mit folgenden<br />

Eigenschaften ist:<br />

a) P (A) ≥ 0 <strong>für</strong> A ⊂ Ω,<br />

b) P (Ω) = 1,<br />

c) P (A ∪ B) = P (A) + P (B), falls A ∩ B = ∅.<br />

P heißt Wahrscheinlichkeitsverteilung auf Ω. P (A) heißt die Wahrscheinlichkeit des Ereignisses<br />

A.<br />

Es gibt zahlreiche Zufallsexperimente mit endlich vielen Ausgängen, bei denen wir keinen<br />

Ausgang vor dem anderen als wahrscheinlicher oder unwahrscheinlicher ansehen. In unserem<br />

Beispiel des Würfelwurfs würden wir bei einem exakt gefertigten Würfel alle der<br />

sechs Augenzahlen als gleich wahrscheinlich erachten. Bezeichnen wir mit |A| die Anzahl<br />

aller möglichen Ergebnisse des Ereignisses A, so können wir durch<br />

P (A) = |A|<br />

|Ω|<br />

<strong>für</strong> A ⊂ Ω,<br />

eine Wahrscheinlichkeitsverteilung angeben. In diesem Fall heißt der Wahrscheinlichkeitsraum<br />

(Ω, P ) Laplacescher Wahrscheinlichkeitsraum.<br />

Beispiel 1.1.6 Für unseren einfachen Würfelwurf gilt dann mit dem oben definierten<br />

Ereignis A<br />

P (A) = |A|<br />

|Ω| = |{2, 4, 6}|<br />

|{1, 2, 3, 4, 5, 6}| = 3 6 = 1 2 .<br />

Da wir im Folgenden die bedingten Wahrscheinlichkeiten benötigen führen wir sie hier<br />

kurz ein.<br />

Definition 1.1.7<br />

Es seien (Ω, P ) ein endlicher Wahrscheinlichkeitsraum und A, B ⊂ Ω mit P (B) > 0.<br />

Dann heißt<br />

P (A ∩ B)<br />

P (A|B) :=<br />

P (B)<br />

die bedingte Wahrscheinlichkeit von A unter der Bedingung B.<br />

Beispiel 1.1.8 In unserem Beispiel wäre also wegen |A ∩ B| = 1 und |B| = 3 und<br />

P (A ∩ B) =<br />

|A ∩ B|<br />

|Ω|<br />

= 1 6<br />

5<br />

und P (B) =<br />

|B|<br />

|Ω| = 1 2


die bedingte Wahrscheinlichkeit von A unter der Bedingung B gegeben durch<br />

P (A|B) =<br />

P (A ∩ B)<br />

P (B)<br />

=<br />

1<br />

6<br />

1<br />

2<br />

= 1 3 .<br />

1.2 Irrfahrten 1<br />

1.2.1 Symmetrische Irrfahrt auf einem Zahlenstrahl<br />

Ein Teilchen befindet sich zum Zeitpunkt 0 im Punkt x 0 = 0 auf der x-Achse. Zu den<br />

Zeitpunkten t = 1, 2, . . . wandert das Teilchen entweder einen Schritt nach links (x 1 = −1)<br />

oder einen Schritt nach rechts (x 1 = 1) mit derselben Wahrscheinlichkeit 1 2<br />

. Die Irrfahrt<br />

endet, falls das Teilchen eine der vorher festgelegten Schranken −a oder b erreicht, a, b ∈ N.<br />

Wir sprechen hier auch von der Absorption des Teilchens.<br />

✛<br />

−a<br />

✛<br />

✲<br />

-1 0 1<br />

b<br />

✲<br />

Abbildung 1.1: Symmetrische Irrfahrt<br />

Ohne Beschränkung der Allgemeinheit setzen wir die linke Schranke auf 0, den Startpunkt<br />

verschieben wir auf a und die rechte Schranke auf n = b+a. Dann bezeichnen wir mit p(x)<br />

<strong>für</strong> x = 1, . . . , n die Wahrscheinlichkeit im Punkt n absorbiert zu werden, falls das Teilchen<br />

sich gerade im Punkt x befindet. Die Funktion p(x) hat die folgenden Eigenschaften:<br />

a) p(0) = 0,<br />

b) p(n) = 1,<br />

c) p(x) = 1 2 p(x − 1) + 1 2p(x + 1) <strong>für</strong> x = 1, 2, . . . , n − 1.<br />

Die Eigenschaft a) folgt direkt aus der Definition der Funktion p da das Teilchen in 0<br />

absorbiert wurde und nicht mehr nach n kommen kann. Die Wahrscheinlichkeit in n absobiert<br />

zu werden falls das Teilchen sich in n befindet ist natürlich 1 und so kommt die<br />

Eigenschaft b) zu stande. Die letzte Eigenschaft lässt sich durch folgende Überlegung erklären:<br />

Falls das Teilchen sich im Punkt x befindet, x = 1, . . . , n − 1, so befindet es sich<br />

nach dem nächsten Schritt mit Wahrscheinlichkeit 1 2<br />

im Punkt x − 1 (oder im Punkt<br />

x + 1). Die Wahrscheinlichkeit dann in n absorbiert zu werden ist demzufolge p(x − 1)<br />

(bzw. p(x + 1)). Um die Regel nun korrekt zu erklären benötigen wir eine grundlegende<br />

Tatsache über bedingte Wahrscheinlichkeiten.<br />

6


Theorem 1.2.1<br />

Sei A ein Ereignis und B, C sich ausschließende Ereignisse (also falls B eintritt, so nicht<br />

C und umgekehrt, also B ∩ C = ∅ und B ∪ C = Ω). Dann gilt<br />

P (A) = P (B)P (A|B) + P (C)P (A|C).<br />

Beweis:<br />

Da B und C sich ausschließende Ereignisse sind, gilt<br />

A = (A ∩ B) ∪ (A ∩ C) und (A ∩ B) ∩ (A ∩ C) = ∅.<br />

Damit folgt mit der Definition der bedingten Wahrscheinlichkeit und der Eigenschaft c)<br />

der Wahrscheinlichkeitsverteilung P<br />

P (A) = P ((A ∩ B) ∪ (A ∩ C)) = P (A ∩ B) + P (A ∩ C) = P (B)P (A|B) + P (C)P (A|C).<br />

Setzen wir nun die Überlegung von oben in dieses Theorem ein, so folgt die Eigenschaft<br />

c) der Funktion p(x). Aber wie sieht nun die Funktion p(x) aus? Und endet eine solche<br />

Irrfahrt immer, auch wenn wir das n sehr groß wählen? Um Antworten auf diese Fragen<br />

zu geben, betrachten wir harmonische Funktionen.<br />

Harmonische Funktionen<br />

Wir lösen uns nun erstmal von den Irrfahrten und betrachten allgemein Funktionen <strong>für</strong> die<br />

die Eigenschaft c) gilt. In diesem Sinne bezeichnen wir mit S = {0, 1, . . . , n} die Menge der<br />

möglichen Punkte auf dem Zahlenstrahl, mit D = {1, . . . , n − 1} ⊂ S die inneren Punkte,<br />

also die Menge S vermindert um die beiden Schranken, und mit B = {0, n} die Menge der<br />

Schranken. Wir nennen eine Funktion f : S → R, x ↦→ f(x) harmonisch, falls sie auf der<br />

Menge D der Eigenschaft c) genügt, also gilt<br />

f(x) = 1 (f(x − 1) + f(x + 1)).<br />

2<br />

Gelten mit y 1 , y 2 ∈ R die folgenden Bedingungen<br />

f(0) = y 1 und f(n) = y 2<br />

so nennen wir diese Randbedingungen. Also ist die Funktion p(x) eine harmonische Funktion<br />

mit den Randbedingungen p(0) = 0 und p(n) = 1. Das Problem eine harmonische<br />

Funktion mit vorgegebenen Randbedingungen zu finden, wird auch das Dirichlet Problem<br />

genannt. Wir werden im Folgenden beweisen, dass das Problem eine eindeutige Lösung<br />

besitzt.<br />

□<br />

Theorem 1.2.2 (Maximumsprinzip)<br />

Eine harmonische Funktion f(x) nimmt ihr Maximum M und ihr Minimum m am Rand<br />

an.<br />

7


Beweis:<br />

Sei M der größte Wert der Funktion f. Falls nun f(x) = M <strong>für</strong> ein x ∈ D gilt, so gilt auch<br />

f(x − 1) = M = f(x + 1), da f(x) der Mittelwert dieser beiden Werte ist. Falls dies nun<br />

aber <strong>für</strong> f(x − 1) gilt, so gilt auch nach demselben Argument f(x − 2) = M. Führt man<br />

dies so fort, kommt man auf f(0) = M. Die gleiche Argumentation funktioniert auch <strong>für</strong><br />

das Minimum m.<br />

□<br />

Theorem 1.2.3 (Eindeutigkeitsprinzip)<br />

Seien f(x) und g(x) harmonische Funktionen auf S mit f(0) = g(0) und f(n) = g(n).<br />

Dann gilt<br />

f(x) = g(x), <strong>für</strong> alle x ∈ S.<br />

Beweis:<br />

Sei h(x) = f(x) − g(x). Dann gilt <strong>für</strong> x ∈ D<br />

1<br />

2 (h(x − 1) + h(x + 1)) = 1 (f(x − 1) − g(x − 1) + f(x + 1) − g(x + 1))<br />

2<br />

= 1 2 (f(x − 1) + f(x + 1)) − 1 (g(x − 1) + g(x + 1))<br />

2<br />

= f(x) − g(x) = h(x),<br />

da die Funktionen f(x) und g(x) nach Voraussetzung harmonisch sind. Also ist auch die<br />

Funktion h(x) harmonisch und es gilt h(0) = 0 und h(n) = 0. Wegen dem Maximumsprinzip<br />

ist dann sowohl das Maximum als auch das Minimum der Funktion h(x) gleich 0.<br />

Also muss <strong>für</strong> alle x ∈ S gelten h(x) = 0. Und somit stimmen die Funktionen f(x) und<br />

g(x) auf S überein.<br />

□<br />

Mit Hilfe des Eindeutigkeitsprinzips können wir uns nun Gedanken um die Funktion p(x)<br />

aus dem vorherigen Abschnitt machen. Wir sehen, dass falls wir eine harmonische Funktion<br />

mit den in a) und b) vorgeschriebenen Randbedingungen finden, diese auch eindeutig<br />

ist. Die einfachste Art unser Problem zu lösen, ist einfach mal zu raten: Eine lineare Funktion,<br />

die unsere Randbedingung erfüllt ist f(x) = x n<br />

, da f(0) = 0 und f(n) = 1 gilt. Bleibt<br />

noch die Eigenschaft c) zu prüfen. Es gilt<br />

1<br />

x − 1 + x + 1<br />

(f(x − 1) + f(x + 1)) = = x 2 2n n = f(x).<br />

Also haben wir eine harmonische Funktion mit den geforderten Randbedingungen gefunden<br />

und wegen dem Eindeutigkeitsprinzip gibt es auch keine weitere.<br />

Auch die zweite gestellte Frage, also die Frage nach der Endlichkeit einer solchen Irrfahrt,<br />

lässt sich mit Hilfe der harmonischen Funktionen leicht beantworten: Wir bezeichnen mit<br />

q(x) die Wahrscheinlichkeit, dass die Irrfahrt nie endet, falls das Teilchen sich am Punkt<br />

x befindet, also die Schranken B nie erreicht werden. Dann folgt mit den gleichen Überlegungen<br />

wie bei p(x), dass<br />

q(x) = 1 2 q(x − 1) + 1 q(x + 1)<br />

2<br />

8


gilt. Also ist q(x) eine harmonische Funktion und es gilt q(0) = q(n) = 0. Nun ist aber<br />

wegen dem Maximumsprinzip q(x) = 0 <strong>für</strong> alle x ∈ S.<br />

Interpretation als ”<br />

Penny Matching Game“<br />

Man stelle sich folgende Situation vor: Peter hat a und Paul b faire Münzen mit den Symbolen<br />

Zahl (z) und Wappen (w). Sie schnippen jeweils eine ihrer Münzen auf den Boden, so<br />

dass sie flach aufliegen. Ist bei beiden Münzen das gleiche Symbol zu sehen, so gewinnt Peter<br />

beide Münzen, sind unterschiedliche Symbole zu sehen, so gewinnt Paul beide Münzen.<br />

Das Spiel wird so lange gespielt bis einer von beiden keine Münze mehr hat (Absorption).<br />

Auch hier handelt es sich um eine symmetrische Irrfahrt. Die Wahrscheinlichkeit, dass<br />

Peter oder Paul eine Runde gewinnt, ist jeweils 1 2<br />

, da folgende Kombinationen pro Wurf<br />

auftreten können:<br />

{(w, w), (z, z), (w, z), (z, w)}.<br />

Wenden wir das oben gezeigte auf unser Spiel an, so ist die Wahrscheinlichkeit, dass Peter<br />

alle Münzen von Paul gewinnt durch p(a) = a n = a<br />

a+b<br />

gegeben. Respektive gewinnt Paul<br />

alle Münzen mit der Wahrscheinlichkeit 1 − p(a) =<br />

b<br />

b+a .<br />

Beispiel 1.2.4 Peter hat a = 1 Münze und Paul b = 99 Münzen. Die Wahrscheinlichkeit,<br />

dass Peter das Spiel gewinnt, liegt bei p(1) = 0.01 = 1%.<br />

1.3 Zufallsvariable und Erwartungswert<br />

Zufällige Ereignisse werden meist mit Hilfe von Zufallsvariablen beschrieben. Darunter<br />

versteht man eine Variable, deren Wert vom Ergebnis eines Zufallsexperiments abhängt.<br />

Definition 1.3.1<br />

Ist Ω eine Ergebnismenge, so heißt jede Abbildung<br />

X : Ω → R<br />

von Ω in die Menge der reellen Zahlen eine Zufallsvariable (auf Ω).<br />

Wir können eine Zufallsvariable X als eine Vorschrift ansehen, die jedem Ergebnis ω ∈ Ω<br />

des idealen Zufallsexperimentes eine reelle Zahl X(ω) zuordnet. Der Wert X(ω) heißt auch<br />

Realisierung der Zufallsvariablen zum Ausgang ω.<br />

Beispiel 1.3.2 Wir interessieren uns beim einfachen Würfelwurf <strong>für</strong> das Quadrat der<br />

geworfenen Augenzahl, also setzen wir als Zufallsvariable<br />

X(ω) = ω 2 , ω ∈ Ω.<br />

Die Zufallsvariable nimmt also die Werte 1, 4, 9, 16, 25 und 36 an.<br />

9


Ist Ω eine Ergebnismenge eines Zufallsexperiments und ist<br />

X : Ω → R, ω ↦→ X(ω),<br />

eine Zufallsvariable, so interessiert man sich in der Praxis <strong>für</strong> Ereignisse der Form<br />

A = {ω ∈ Ω : X(ω) = x} ⊂ Ω, x ∈ R,<br />

also <strong>für</strong> das Ereignis, dass bei Durchführung des Zufallsexperiments die Zufallsvariable X<br />

einen fest vorgegebenen Wert x ∈ R annimmt.<br />

Beispiel 1.3.3 Interessieren wir uns zum Beispiel <strong>für</strong> das Ereignis A so können wir dieses<br />

mit Hilfe der Zufallsvariablen X schreiben als<br />

A = {2, 4, 6} = {ω ∈ Ω : X(ω) = 4} ∪ {ω ∈ Ω : X(ω) = 16} ∪ {ω ∈ Ω : X(ω) = 36}.<br />

Wir betrachten allgemein <strong>für</strong> ein s ∈ N die endliche Ergebnismenge Ω = {ω 1 , . . . , ω s } mit<br />

einer durch P ({ω j }) <strong>für</strong> j = 1, . . . , s gegebenen Wahrscheinlichkeitsverteilung sowie X als<br />

Zufallsvariable auf Ω. Dann können wir den Erwartungswert einer Zufallsvariablen wie<br />

folgt definieren.<br />

Definition 1.3.4<br />

Für eine Zufallsvariable X : Ω → R auf einem endlichen Wahrscheinlichkeitsraum (Ω, P )<br />

heißt die Zahl<br />

E(X) := X(ω 1 )P ({ω 1 }) + X(ω 2 )P ({ω 2 }) + · · · + X(ω s )P ({ω s })<br />

der Erwartungswert von X.<br />

Wir können E(X) als durschnittliche Auszahlung pro Spiel auf lange Sicht ansehen, wenn<br />

wiederholt ein Glückspiel mit den möglichen Ergebnissen ω ∈ Ω und einer durch die<br />

Zufallsvariable X festgelegten Auszahlungsfunktion gespielt wird.<br />

Beispiel 1.3.5 Der Erwartungswert der Zufallsvariablen X aus Beispiel 1.3.2 ist wegen<br />

P ({ω}) = 1 6<br />

<strong>für</strong> alle ω ∈ Ω gegeben durch<br />

E(X) = X(1)P ({1}) + X(2)P ({2}) + · · · + X(6)P ({6})<br />

= 1P ({1}) + 4P ({2}) + · · · + 36P ({6})<br />

= 1 6 (1 + 4 + 9 + 16 + 25 + 36) = 91 6 ≈ 15.17.<br />

Sind X, Y Zufallsvariablen auf Ω und a ∈ R, so hat der Erwartungswert folgende Eigenschaften:<br />

a) E(X + Y ) = E(X) + E(Y ),<br />

b) E(aX) = aE(X).<br />

10


Kapitel 2<br />

Irrfahrten 2<br />

2.1 Erwartete Anzahl an Schritten bis zur Absorption<br />

Bei der in Abschnitt 1.2.1 eingeführten symmetrischen Irrfahrt auf dem Zahlenstrahl haben<br />

wir gesehen, dass das Teilchen früher oder später immer absorbiert wird. Eine weitere<br />

natürliche Frage stellt sich dann: Wie oft wird das Teilchen im Durchschnitt hin und her<br />

springen bis es absorbiert wird? Dieser Frage wollen wir uns im Folgenden widmen.<br />

Hierzu benötigen wir die gerade eingeführten Begriffe der Zufallsvariable und des Erwartungswertes.<br />

Wir bezeichnen mit<br />

N x := Anzahl der benötigten Schritte bis das Partikel absorbiert wird,<br />

dabei steht der Index x = 0, . . . , n <strong>für</strong> die Position des Teilchens. Von vornherein kennen<br />

wir zwei sichere Werte der Zufallsvariablen N x<br />

N 0 = 0 und N n = 0,<br />

da in diesen Positionen das Teilchen bereits absorbiert wurde. Befindet sich das Teilchen<br />

in der Position x = 1, . . . , n − 1 so läuft es einen Schritt (nach links oder rechts, jeweils<br />

mit Wahrscheinlichkeit 1 2<br />

) und kommt in den Positionen x − 1 oder x + 1 an. Von dort aus<br />

braucht es aber noch N x−1 bzw. N x+1 Schritte bis es absorbiert wird. Also können wir die<br />

Zufallsvariable N x schreiben als<br />

{ 1 + Nx−1 , mit Wahrscheinlichkeit 1<br />

N x =<br />

2 ,<br />

1 + N x+1 , mit Wahrscheinlichkeit 1 2 .<br />

Für den Erwartungswert E(N x ) hält demzufolge <strong>für</strong> x = 1, . . . , n − 1 die folgende Differenzengleichung<br />

E(N x ) = 1 + 1 2 E (N x−1) + 1 2 E (N x+1) .<br />

Die allgemeine Lösung der Differenzengleichung 1 ist gegeben durch<br />

E(N x ) = −x 2 + c 1 x + c 2 , c 1 , c 2 ∈ R.<br />

1 Das Lösen von Differenzengleichungen ist nicht Bestandteil des Schnupperkurses, weswegen in diesem<br />

Falle die Lösung angegeben wird. Es handelt sich hier um eine lineare Differenzengleichung 2. Ordnung,<br />

welche mit Standardmethoden gelöst werden kann.<br />

11


Mit den beiden sicheren Werten N 0 = N n = 0 ergeben sich die Erwartungswerte E(N 0 ) =<br />

E(N n ) = 0 und damit die Gleichungen<br />

c 2 = 0<br />

−n 2 + c 1 n + c 2 = 0.<br />

Setzt man c 2 = 0 in die zweite Gleichung ein, so folgt wegen n ≠ 0<br />

−n 2 + c 1 n = 0 ⇐⇒ n(c 1 − n) = 0 =⇒ c 1 = n.<br />

Eingesetzt ergibt dies den gesuchten Erwartungswert<br />

E(N x ) = −x 2 + nx.<br />

Falls wir also in x = a starten ergibt sich mit n = a + b als erwartete Anzahl an Schritten<br />

<strong>für</strong> eine symmetrische Irrfahrt auf dem Zahlenstrahl mit absorbierenden Schranken in 0<br />

und b + a<br />

E(N a ) = −a 2 + (a + b)a = ab.<br />

Erwartete Anzahl an Münzwürfen bis zum Ruin<br />

Wenden wir das eben berechnete auf die Situation des ”<br />

Penny Matching Games“an, so<br />

erhalten wir die verblüffende Antwort, dass selbst wenn Peter nur 1 Münze hat, das Spiel im<br />

Mittel 99-mal gespielt wird, bis einer der Spieler ruiniert ist, obwohl die Wahrscheinlichkeit,<br />

dass es nach einem Spiel schon endet, bei 50% liegt.<br />

2.1.1 Weitere symmetrische Irrfahrten<br />

In der Situation von Abschnitt 1.2.1 setzen wir a = ∞ und b ∈ N so sprechen wir von<br />

einer Irrfahrt mit nur einer absorbierenden Schranke. Auch hier stellt sich die Frage nach<br />

der Wahrscheinlichkeit der Absorption des Teilchens, da es ja prinzipiell in eine Richtung<br />

abdriften könnte (Übungsaufgabe). Setzen wir auch b = ∞ so sprechen wir von einer<br />

symmetrischen Irrfahrt ohne Schranken, da das Teilchen nie absorbiert wird.<br />

2.1.2 Der Binomialkoeffizient<br />

In Kapitel 1 haben wir den Laplaceschen Wahrscheinlichkeitsraum eingeführt. Um die<br />

möglichen Ergebnisse eines Ereignisses angeben zu können, sollten wir uns mit einigen<br />

zentralen Begriffen der Kombinatorik, der Lehre des Abzählens, vertraut machen. Unter<br />

der <strong>Fakultät</strong> einer Zahl n ∈ N verstehen wir die Zahl<br />

n! := n · (n − 1) · (n − 2) · · · 3 · 2 · 1.<br />

Beispiel 2.1.1 Die <strong>Fakultät</strong> ist eine sehr schnell wachsende Vorschrift:<br />

1! = 1, 2! = 2·1 = 2, 3! = 3·2·1 = 6, 4! = 4·3! = 24, 6! = 6·5·4! = 720 und 15! = 1307674368000.<br />

12


Der Binomialkoeffizient ist <strong>für</strong> n, k ∈ N mit k ≤ n definiert durch<br />

( n n!<br />

:=<br />

k)<br />

k!(n − k)! .<br />

Eine direkte Interpretation des Binomialkoeffizienten ist die Anzahl aller möglichen Ergebnisse,<br />

die man als zufällige Auswahl von genau k Elementen einer n elementigen Menge<br />

ohne Berücksichtigung der Reihenfolge treffen kann.<br />

Beispiel 2.1.2 Beim Lotto 6 aus 49 wird aus einer Urne mit 49 Kugeln genau 6 herausgenommen.<br />

Der Binomialkoeffizient liefert hier<strong>für</strong> die Anzahl an möglichen verschiedenen<br />

Ziehungen mit n = 49 und k = 6<br />

( ) 49 49! 49 · 48 · · · 3 · 2 · 1<br />

=<br />

=<br />

6 6!(49 − 6)! 6! · 43 · 42 · · · 3 · 2 · 1<br />

=<br />

49 · 48 · 47 · 46 · 45 · 44<br />

6!<br />

= 10068347520<br />

720<br />

= 13983816.<br />

2.2 Pfade von Irrfahrten und das Reflektionsprinzip<br />

Wir betrachten zunächst die Irrfahrt aus Abschnitt 1.2.1 und drehen diese um 90 Grad.<br />

Hinzu zeichnen wir eine Zeitachse beginnend im Ursprung (siehe Abbildung 2.1). Wir<br />

zeichnen den sogenannten Pfad einer Irrfahrt wie folgt ab: Wandert das Teilchen zum<br />

Zeitpunkt t 1 = 1 nach 1 so markieren wir dies mit einem Pfeil vom Punkt (0, 0) zum Punkt<br />

(1, 1). Wandert das Teilchen nach −1 so markieren wir dies mit einem Pfeil vom Punkt<br />

(0, 0) zum Punkt (1, −1). Dies wiederholen wir zu den Zeitpunkten t 2 , t 3 , . . . vom jeweiligen<br />

erreichten Punkt bis zur Absorption des Teilchens. Im Folgenden betrachten wir allgemein<br />

b<br />

✻<br />

✒<br />

✒<br />

✒<br />

1<br />

✒<br />

✒<br />

❘<br />

✒<br />

0<br />

❘<br />

1 2 3<br />

❘<br />

✲<br />

t<br />

−1<br />

Abbildung 2.1: Pfad einer symmetrischen Irrfahrt<br />

Pfade von Irrfahrten und geben hierzu wie in Abschnitt 2.1.1 die Restriktion der Schranken<br />

auf. Mathematisch gesehen kann man solch einen Pfad einer Irrfahrt als Realisierung von<br />

13


n ∈ N Zufallsvariablen X 1 , . . . , X n betrachten: Geht der Pfad zum Zeitpunkt t einen<br />

Schritt nach oben, so erhält die Variable X t den Wert 1, geht er einen Schritt nach unten,<br />

so erhält die Variable den Wert −1. Bei einer symmetrischen Irrfahrt gilt also<br />

Definieren wir<br />

P (X k = 1) = P (X k = −1) = 1 , <strong>für</strong> k = 1, . . . , n.<br />

2<br />

S k := X 1 + X 2 + · · · + X k<br />

als Partialsummen der ersten k Zufallsvariablen, so können wir S k als Gewinn (oder Verlust)<br />

zum Zeitpunkt k interpretieren. Es gilt<br />

S k − S k−1 = X k = ±1, S 0 := 0, k = 1, . . . , n. (2.1)<br />

Mit dieser Schreibweise kommen wir zur Definition eines Pfades einer Irrfahrt.<br />

Definition 2.2.1<br />

Seien n ∈ N und m ∈ Z. Ein Pfad {S 1 , S 2 , . . . , S n } vom Punkt (0, 0) zum Punkt (n, m) ist<br />

eine Linie (Polygonzug), die durch die Punkte (i, S i ) <strong>für</strong> i = 0, . . . , n geht und <strong>für</strong> die die<br />

Beziehung (2.1) mit S n = m gilt.<br />

Falls nun p der Zufallsvariablen X 1 , . . . , X n positiv und q negativ sind, so ist<br />

n = p + q und m = p − q.<br />

Da nichts über die genaue Zuordnung der Zufallsvariablen mit Wert 1 und mit Wert -1<br />

vorausgesetzt wurde, können diese laut Abschnitt 2.1.2 in<br />

( ) ( )<br />

p + q p + q<br />

N n,m = =<br />

p q<br />

verschiedenen Kombinationen ausgewählt werden.<br />

Beispiel 2.2.2 Betrachten wir eine symmetrische Irrfahrt ohne Schranken und fragen uns<br />

nach der Anzahl der Pfade der Irrfahrt von (0, 0) nach (14, 4). Dann muss also<br />

n = 14 = p + q und m = 4 = p − q<br />

sein. Daraus folgt also p = 4 + q damit q = 5 und p = 9. Damit ergibt sich die Anzahl an<br />

möglichen Pfaden<br />

( ) 14 14!<br />

N 14,4 = =<br />

= 14 · 13 · 11 = 2002.<br />

9 9!(14 − 9)!<br />

14


In den folgenden Bildern werden einige konkrete Pfade von symmetrischen Irrfahrten ohne<br />

absorbierende Schranken gezeigt. Die Bilder wurden mit dem Computer erzeugt und es<br />

wurden n = 50, 100, 500, 1000, 10000, 50000 Zufallsexperimente simuliert (siehe Abbildungen<br />

2.2-2.4).<br />

Betrachten wir nun die Punkte A = (a, α) und B = (b, β) mit a, b, α, β ∈ N und b > a.<br />

Unter der Spiegelung des Punktes A an der Zeitachse verstehen wir den Punkt A ′ =<br />

(a, −α). Unter einem Pfad von A nach B verstehen wir die Definition 2.2.1 mit A als<br />

Ursprung (0, 0) (siehe Abbildung 2.5).<br />

Theorem 2.2.3 (Reflektionsprinzip)<br />

Die Anzahl an Pfaden von A nach B, welche die Zeitachse berühren oder überqueren<br />

entspricht der Anzahl an Pfaden von A ′ nach B.<br />

Beweis:<br />

Wir betrachten einen Pfad von A nach B der die Zeitachse mindestens einmal berührt<br />

und spiegeln den Punkt A an der Zeitachse auf den Punkt A ′ . Nennen wir den ersten<br />

Berührungspunkt mit der Zeitachse T = (t, 0). Da der Pfad von A nach B die Zeitachse<br />

vor dem Punkt T nicht berührt, gibt es genauso viele Pfade von A nach T , welche die<br />

Zeitachse erst in T berühren, wie von A ′ nach T (Spiegelung). Und da danach die beiden<br />

Pfade identisch nach B laufen, ist das Theorem bewiesen.<br />

□<br />

Abbildung 2.6: Joseph<br />

L. F. Bertrand<br />

Das Reflektionsprinzip lässt sich sehr vielfältig in der Theorie<br />

der Irrfahrten einsetzen. Eine Anwendung findet sich in der von<br />

dem französischen <strong>Mathematik</strong>er Joseph Louis François Bertrand<br />

1887 vorgestellten Abstimmungsproblem: In einer Stichwahl<br />

erhält Kandidat P insgesamt p Stimmen und Kandidat Q<br />

erhält q Stimmen mit p > q (also Kandidat P hat die Wahl<br />

gewonnen). Wie groß ist die Wahrscheinlichkeit, dass während<br />

der Auszählung der Stimmen Kandidat P immer mehr Stimmen<br />

hatte als Kandidat Q?<br />

Wir gehen davon aus, dass die Stimmzettel nacheinander einer<br />

gut gemsichten Wahlurne entnommen werden. Den entscheidenden<br />

Hinweis <strong>für</strong> die Antwort auf diese Frage liefert das folgende<br />

Theorem.<br />

Theorem 2.2.4<br />

Seien n, m ∈ N mit n, m > 0 und m ≤ n. Die Anzahl der Pfade {S 1 , S 2 , . . . , S n } mit S n =<br />

m, also der Pfade vom Punkt (0, 0) zum Punkt (n, m), so dass S 1 > 0, S 2 > 0, . . . , S n > 0<br />

gilt, ist genau m n N n,m.<br />

15


Beweis:<br />

Da nach dem ersten Schritt S 1 = ±1 ist, gilt nach der Voraussetzung S 1 = 1. Also<br />

sind die wirklich in Frage kommenden Pfade alle diejenigen, die vom Punkt (1, 1) zum<br />

Punkt (n, m) laufen, dabei aber die Zeitachse weder berühren noch schneiden. Nach dem<br />

Reflektionsprinzip ist die Anzahl dieser Pfade gegeben durch<br />

( ) ( )<br />

p + q − 1 p + q − 1<br />

N n−1,m−1 − N n−1,m+1 =<br />

−<br />

p − 1 q − 1<br />

= p − q ( ) p + q<br />

p + q p<br />

und damit ist das Theorem bewiesen.<br />

= m n N n,m<br />

Nun können wir mit Hilfe des eben bewiesenen Theorems die Frage von Herrn Bertrand beantworten:<br />

Wir wissen, dass die Anzahl der Pfade von (0, 0) bis (n, m) welche die Zeitachse<br />

nie berühren gleich m n N n,m ist. Also ist die gesuchte Wahrscheinlichkeit P gegeben durch<br />

die Anzahl der Pfade welche die Zeitachse nie berühren geteilt durch die anzahl aller Pfade<br />

von (0, 0) bis (n, m):<br />

P :=<br />

m<br />

n N n,m<br />

N n,m<br />

= m n = p − q<br />

p + q .<br />

Beachte: Alle Pfade sind gleich wahrscheinlich (Laplacescher Wahrscheinlichkeitsraum).<br />

□<br />

16


−3 −2 −1 0 1 2 3 4<br />

−2 0 2 4 6<br />

0 10 20 30 40 50<br />

0 20 40 60 80 100<br />

Abbildung 2.2: Pfade von Irrfahrten mit n = 50 (links) und n = 100 (rechts) Schritten.<br />

0 10 20 30 40<br />

−20 −10 0 10 20<br />

0 100 200 300 400 500<br />

0 200 400 600 800 1000<br />

Abbildung 2.3: Pfade von Irrfahrten mit n = 500 (links) und n = 1000 (rechts) Schritten.<br />

−60 −40 −20 0 20 40 60<br />

−100 −50 0 50 100<br />

0 2000 4000 6000 8000 10000<br />

17<br />

0 10000 20000 30000 40000 50000<br />

Abbildung 2.4: Pfade von Irrfahrten mit n = 10000 (links) und n = 50000 (rechts) Schritten.


✻<br />

✒<br />

✒<br />

✒<br />

1<br />

❘<br />

❘<br />

✒<br />

0<br />

−1<br />

1 2 3<br />

❘<br />

❘<br />

✒<br />

✲<br />

t<br />

❄<br />

Abbildung 2.5: Reflektionsprinzip<br />

18


Kapitel 3<br />

Irrfahrten in Z 2<br />

Wir betrachten in diesem Abschnitt Zahlengitter in Z 2 := Z × Z = {(x, y) : x, y ∈<br />

Z}, also insbesondere eine Menge von Punkten (x, y) mit ganzzahligen Koordinaten x ∈<br />

{. . . , −2, −1, 0, 1, 2, . . .} und y ∈ {. . . , −2, −1, 0, 1, 2, . . .}. Wir bezeichnen mit S = D∪B ⊂<br />

Z 2 eine Menge von Punkten, welche die folgenden Bedingungen erfüllt:<br />

a) Die Mengen D und B sind disjunkt, es gilt also B ∩ D = ∅.<br />

b) Jeder Punkt in D hat alle vier Nachbarpunkte in S.<br />

c) Jeder Punkt von B hat mindestens einen Nachbarpunkt in D.<br />

d) Für alle Punkte E, F ∈ S gilt: Es gibt eine Folge von Punkten P 1 , . . . , P n ∈ D, so<br />

dass sie einen Weg von E nach F bilden (bzw. S ist zusammenhängend).<br />

Wir nennen die Punkte aus der Menge D die inneren Punkte von S und die Punkte aus der<br />

Menge B die Randpunkte von S (vergleiche Abschnitt 1.2.1). Eine symmetrische Irrfahrt<br />

auf einem Zahlengitter S mit Schranken in B führen wir wie folgt ein: Befindet ein Teilchen<br />

sich in einem Punkt (x, y) ∈ D so springt es jeweils mit Wahrscheinlichkeit 1 4<br />

zu einem<br />

seiner Nachbarpunkte, in diesem Fall also (x + 1, y), (x − 1, y), (x, y + 1) oder (x, y − 1).<br />

Kommt es in einem Punkt (a, b) ∈ B an, so wird es absorbiert und die Irrfahrt endet.<br />

Beispiel 3.0.5 Wir betrachten die Punktmengen<br />

und<br />

D = {(0, 0), (1, 0), (2, 0), (1, 1), (2, 1)}<br />

B = {(−1, 0), (0, −1), (0, 1), (1, 2), (2, 2), (3, 0), (3, 1), (1, −1), (2, −1)}.<br />

Graphisch kann man das Zahlengitter S = D∪B darstellen wie in Abbildung 3.1, wobei die<br />

ausgefüllten Punkte aus der Menge der Randpunkte B und die nichtausgefüllten Punkte<br />

aus der Menge der inneren Punkte D stammen.<br />

19


y<br />

✻<br />

1<br />

✛<br />

−1<br />

0<br />

1 2 3<br />

✲<br />

x<br />

−1<br />

Abbildung 3.1: Zahlengitter S der Irrfahrt<br />

In der Situation von Beispiel 3.0.5 bezeichnen wir im Folgenden mit p(x) die Wahrscheinlichkeit<br />

in den Schranken<br />

B 1 := {(−1, 0), (0, −1), (1, 0), (1, 2), (2, 2), (3, 1)}<br />

absorbiert zu werden. Weiter seien die inneren Punkte aus D lexikographisch durchnummeriert,<br />

also<br />

a = (0, 0), b = (1, 0), c = (2, 0), d = (1, 1), und e = (2, 1).<br />

Damit gelten die folgenden Eigenschaften der Funktion p(x):<br />

a) p(x) = 1 <strong>für</strong> alle x ∈ B 1 und p(x) = 0 <strong>für</strong> alle x ∈ B \ B 1 ,<br />

b) p(a) = 1 4 p(b) + 3 4 ,<br />

c) p(b) = 1 4 p(a) + 1 4 p(c) + 1 4 p(d),<br />

d) p(c) = 1 4 p(b) + 1 4 p(e),<br />

e) p(d) = 1 4 p(b) + 1 4 p(e) + 1 2 , und<br />

f) p(e) = 1 4 p(c) + 1 4 p(d) + 1 2 .<br />

Es stellt sich wie schon in Abschnitt 1.2.1 die Frage, wie man die gesuchte Funktion p(x)<br />

bestimmen kann und ob diese, so wie wir sie definiert haben, eindeutig ist. Die Frage nach<br />

der Eindeutigkeit können wir wie auf dem Zahlenstrahl behandeln und führen hier<strong>für</strong><br />

harmonische Funktionen ein.<br />

20


3.1 Harmonische Funktionen in Z 2<br />

Wie schon in Kapitel 1 nennen wir eine auf S definierte Funktion f : S → R, (x, y) ↦→<br />

f(x, y) harmonisch, falls <strong>für</strong> Punkte (x, y) ∈ D die Eigenschaft<br />

f(x, y) = 1 (f(x + 1, y) + f(x − 1, y) + f(x, y + 1) + f(x, y − 1))<br />

4<br />

gilt. Auch hier gibt es ein Maximums- und ein Eindeutigkeitsprinzip.<br />

Theorem 3.1.1 (Maximumsprinzip)<br />

Eine harmonische Funktion f(x, y) nimmt ihr Maximum M und ihr Minimum m am Rand<br />

an.<br />

Beweis: Übung!<br />

Theorem 3.1.2 (Eindeutigkeitsprinzip)<br />

Seien f(x, y) und g(x, y) harmonische Funktionen auf S mit f(a, b) = g(a, b) <strong>für</strong> (a, b) ∈ B.<br />

Dann gilt<br />

f(x, y) = g(x, y), <strong>für</strong> alle (x, y) ∈ S.<br />

Beweis: Übung!<br />

Die betrachtete Funktion p(x) ist eine harmonische Funktion mit gegebenen Randwerten,<br />

also ist diese nach dem Eindeutigkeitsprinzip, falls wir sie explizit angeben können, auch<br />

eindeutig bestimmt. Wie können wir in diesem Fall die Funktion p(x) bestimmen?<br />

3.2 Lösung bestimmen über lineare Gleichungssysteme<br />

Die Eigenschaften e)-f) bilden ein lineares Gleichungssystem mit 5 Unbekannten (hier<br />

p(a), p(b), p(c), p(d) und p(e)) und 5 Gleichungen. Lösen wir dieses lineare Gleichungssystem<br />

(Übung!), so kommen wir auf die eindeutige Lösung<br />

⎛<br />

⎜<br />

⎝<br />

p(a)<br />

p(b)<br />

p(c)<br />

p(d)<br />

p(e)<br />

⎞ ⎛<br />

⎟<br />

⎠ ≈ ⎜<br />

⎝<br />

0.8764045<br />

0.5056180<br />

0.3230337<br />

0.8230337<br />

0.7865169<br />

⎞<br />

⎟<br />

⎠ .<br />

21


3.3 Lösung approximieren über Monte-Carlo-Methode<br />

In der Stochastik werden zufällige Phänomene oft über die sogenannte Monte Carlo Methode<br />

1 simuliert. Dabei wird ein zufälliger Vorgang n-mal wiederholt (n ∈ N möglichst groß)<br />

und sich die relative Häufigkeit eines eintretenden Ereignisses angeschaut. Diese relative<br />

Häufigkeit wird als Schätzung der <strong>für</strong> dieses Ereignis zu erwartenden wahren Wahrscheinlichkeit<br />

genommen. In unserem Beispiel 3.0.5 implementieren wir die angegebene Irrfahrt<br />

auf dem Computer und führen sie ausgehend von den Punkten a bis e jeweils 10000 mal<br />

durch. Die sich dadurch ergebene Schätzung lautet<br />

⎛<br />

⎜<br />

⎝<br />

ˆp(a)<br />

ˆp(b)<br />

ˆp(c)<br />

ˆp(d)<br />

ˆp(e)<br />

⎞ ⎛<br />

⎟<br />

⎠ = ⎜<br />

⎝<br />

0.8785<br />

0.4975<br />

0.3165<br />

0.8275<br />

0.7825<br />

Die Approximation an die Lösung ist offensichtlich ganz gut. Möchte man eine genauere<br />

Näherung bekommen, so muss man einfach die Anzahl der durchlaufenen Irrfahrten<br />

erhöhen.<br />

3.4 Irrfahrten auf dem Zahlengitter in der Ebene ohne Schranken<br />

Betrachten wir die symmetrische Irrfahrt auf S = Z 2 mit B = ∅ so erhalten wir eine<br />

Irrfahrt ohne Schranken. Hier stellt sich schon wie in Kapitel 1 die Frage nach der<br />

⎞<br />

⎟<br />

⎠ .<br />

−80 −60 −40 −20 0 20<br />

−60 −40 −20 0 20 40<br />

Abbildung 3.2: Ein Pfad einer Irrfahrt in der Ebene mit n = 10000 Schritten.<br />

1 Begriffsbildung: Die Methode ist nach den berühmten Spielcasinos in Monte Carlo benannt<br />

22


Wahrscheinlichkeit einen beliebigen Punkt (x, y) ∈ Z 2 früher oder später zu besuchen.<br />

Äquivalent hierzu ist die Frage, ob ein Teilchen bei einer symmetrischen Irrfahrt in der<br />

Ebene immer an seinen Ausgangspunkt zurück kommt. Dieses Problem löst der Satz von<br />

Pólya.<br />

Theorem 3.4.1 (Satz von Pólya)<br />

Eine symmetrische Irrfahrt auf einem Zahlengitter in der Ebene ohne Schranken kommt<br />

immer zu ihrem Startwert zurück.<br />

Dieses Theorem wollen wir nicht beweisen. Es sei aber noch gesagt, dass dies in höheren<br />

Dimensionen (≥ 3) nicht mehr zutrifft. Im folgenden wollen wir auf diese sehr interessante<br />

Klasse von Irrfahrten aber nicht weiter eingehen.<br />

3.5 Das Banach’sche Streichholzproblem<br />

Der polnische <strong>Mathematik</strong>er Stefan Banach (geb. 1892, gest. 1945) stellte folgendes Problem:<br />

Eine Person hat in jeder seiner beiden Hosentaschen eine Streichholzschachtel mit<br />

n Streichhölzern. Wenn ein Streichholz gebraucht wird, zieht er mit gleicher Wahrscheinlichkeit<br />

eine Schachtel aus seinen Taschen und entnimmt eines. Dies macht er so lange bis<br />

er eine Schachtel zieht die leer ist. Wieviele Streichhölzer verbleiben im Durchschnitt noch<br />

in der nichtleeren Schachtel?<br />

Wir übertragen das Problem auf eine Irrfahrt in der Ebene. Dabei starten wir die Irrfahrt<br />

im Punkt (0, 0) und laufen mit Wahrscheinlichkeit 1 2<br />

nach rechts bzw. nach oben. Die Irrfahrt<br />

endet falls die Geraden x = n + 1 bzw. y = n + 1 erreicht werden (die Irrfahrt endet<br />

falls n + 1-mal eine der beiden Streichholzschachteln gezogen wird), siehe <strong>für</strong> eine Visualisierung<br />

der Irrfahrt mit inneren Punkten und Schranken Abbildung 3.3. Wir bezeichnen<br />

mit R die Anzahl an verbleibenden Streichhölzern in der nichtleeren Schachtel und mit N<br />

die Anzahl der Ziehungen bis eine der beiden Schachteln leer ist. Es gibt einen funktionalen<br />

Zusammenhang zwischen den beiden Zufallsvariablen R und N, da die Anzahl der<br />

benötigten Ziehungen gegeben ist durch n + 1 Ziehungen der am Ende leeren Schachtel<br />

und n − R Ziehungen der nichtleeren Schachtel. Es gilt also<br />

N = 2n + 1 − R.<br />

Um E(R) zu berechnen brauchen wir also E(N). Wir versuchen die Wahrscheinlichkeitsverteilung<br />

von N zu bestimmen. Dazu betrachten wir das Ereignis {N = k} <strong>für</strong><br />

k = n + 1, . . . , 2n + 1. Weiter bezeichnen wir mit p k := P (N = k). Falls also N = k gilt,<br />

so muss gelten<br />

1. n der ersten k − 1 Ziehungen fällt auf die linke Streichholzschachtel und auch die<br />

k-te Ziehung.<br />

2. n der ersten k − 1 Ziehungen fällt auf die rechte Streichholzschachtel und auch die<br />

k-te Ziehung.<br />

23


y<br />

✻<br />

n + 1<br />

1<br />

✻ ✲ ✲ ✻ ✲ ✲<br />

B<br />

✛<br />

−1<br />

0<br />

✲<br />

1 n + 1<br />

✲<br />

x<br />

−1<br />

Abbildung 3.3: Irrfahrt im Zahlengitter S mit eingezeichneter Schranke B<br />

Wegen<br />

(<br />

der Symmetrie dieser beiden Ereignisse sind sie gleichwahrscheinlich. Nun gibt es<br />

k−1<br />

)<br />

n Möglichkeiten (vgl. Abschnitt 2.1.2) in den ersten k − 1 Ziehungen n-mal die linke<br />

(rechte) Streichholzschachtel zu ziehen. Also ist die Wahrscheinlichkeit p k gegeben durch<br />

( ) ( ) k − 1 1 k−1 ( ) ( )<br />

1 k − 1 1 k−1<br />

p k = P (N = k) = 2<br />

n 2 2 = .<br />

n 2<br />

Für k = n + 1, . . . , 2n gilt <strong>für</strong> den Quotienten<br />

p k<br />

p k+1<br />

=<br />

( k−1<br />

n<br />

( k<br />

n<br />

) ( 1 k−1<br />

2)<br />

) ( 1<br />

) k<br />

=<br />

2<br />

2(k − n)<br />

k<br />

(3.1)<br />

und insbesondere gilt<br />

( ) 1 n ( ) ( 2n 1 2n<br />

p n+1 = und p 2n+1 =<br />

2<br />

n 2)<br />

Wir nutzen die Formel (3.1) aus, um den Erwartungswert<br />

E(N) = (n + 1)p n+1 + (n + 2)p n+2 + · · · + (2n)p 2n + (2n + 1)p 2n+1<br />

zu bestimmen. Zunächst schreiben wir (3.1) um zu<br />

2(k + 1)p k+1 = kp k + 2(n + 1)p k+1 .<br />

24


Summieren wir beiderseits über k = n + 1, n + 2, . . . , 2n auf, so erhalten<br />

2E(N) − 2(n + 1)p n+1 = E(N) − (2n + 1)p 2n+1 + 2(n + 1)(1 − p n+1 ).<br />

Auflösen nach E(N) liefert<br />

( ) ( ) 2n 1 2n<br />

E(N) = 2(n + 1) − (2n + 1)<br />

.<br />

n 2<br />

Wegen E(R) = 2n + 1 − E(N) ist also die gesuchte durchschnittliche Anzahl an in einer<br />

Schachtel verbleibenden Streichhölzern gegeben durch<br />

( ) ( ) 2n 1 2n<br />

E(R) = (2n + 1)<br />

− 1.<br />

n 2<br />

Falls wir also mit n = 50 Streichhölzern in einer Schachtel starten, so gilt<br />

E(R) ≈ 7.0385.<br />

Also werden im Mittel ungefähr 7 Streichhölzer in einer der beiden Schachteln übrig bleiben.<br />

Einen Link zu einer Simulation des Banach’schen Streichholzproblems findet sich auf<br />

der Homepage des Schnupperkurses.<br />

3.6 Bernoulli und Tennis<br />

Jakob Bernoulli (geb. 1654, gest. 1705) beschreibt in Letter to a Friend on the Sets in<br />

Court Tennis mit Hilfe von Irrfahrten die Gewinnwahrscheinlichkeit eines Spielers <strong>für</strong><br />

ein Spiel im Tennis in Abhängigkeit seiner Spielstärke in Relation zur Spielstärke seines<br />

Gegners. Betrachten wir ein Spiel im Tennis mit den üblichen Regeln. Anstatt der normalen<br />

Zählweise 0, 15, 30, 40, Spiel, notieren wir Punkte 0, 1, 2, . . .. Das Spiel endet also bei den<br />

Spielständen 4 − 0, 4 − 1, 4 − 2, 5 − 3, 6 − 4, . . . oder 0 − 4, 1 − 4, . . .. Wir betrachten das<br />

folgende Modell (siehe Abbildung 3.4): Die schwarzen Punkte gehören zur Menge der<br />

möglichen Spielstände S und die eingezeichneten Schranken B. Wir nehmen im Folgenden<br />

an, dass Spieler 1 mit Wahrscheinlichkeit p und Spieler 2 mit Wahrscheinlichkeit q = 1 − p<br />

einen Punkt macht und der Quotient p q<br />

= m ∈ N eine natürliche Zahl darstellt. Ein Spiel<br />

ist also eine Irrfahrt, die im Punkt (0, 0) startet, mit Wahrscheinlichkeit p einen Schritt<br />

nach rechts und mit Wahrscheinlichkeit q einen Schritt nach oben läuft. Sie endet, falls<br />

sie die Schranke B erreicht. Gesucht ist die Wahrscheinlichkeit P (i, j), dass Spieler 1 beim<br />

Spielstand (i, j) ∈ N 2 0 das Spiel <strong>für</strong> sich entscheidet, also gewinnt.<br />

Wir stellen die Lösung zu diesem Problem von Bernoulli von vor über 300 Jahren dar:<br />

Wir betrachten die Beziehung<br />

P (i, j) = pP (i + 1, j) + qP (i, j + 1).<br />

Nach zweimaligem Anwenden dieser Beziehung und einsetzen des Punktes (3, 3) erhalten<br />

wir<br />

P (3, 3) = p 2 P (5, 3) + 2pqP (4, 4) + q 2 P (3, 5).<br />

25


y<br />

✻<br />

B<br />

4<br />

3<br />

2<br />

B<br />

1<br />

✛<br />

−1<br />

0<br />

1 2 3 4<br />

✲<br />

x<br />

−1<br />

Abbildung 3.4: Zahlengitter S mit eingezeichneten Schranken B<br />

Wir wissen, dass Spieler 1 beim Stand von (5, 3) gewonnen hat, also P (5, 3) = 1 gilt,<br />

und er beim Stand von (3, 5) verloren hat, also P (3, 5) = 0 ist. Weiter gilt offensichtlich<br />

P (4, 4) = P (3, 3), da dann wieder Gleichstand ist und beide Spieler noch 2 Punkte in<br />

Folge benötigen um zu gewinnen. Daraus erhalten wir<br />

also<br />

P (3, 3) =<br />

Nun können wir einfach mit P (2, 4) = 0<br />

P (3, 3) = p 2 1 + 2pqP (3, 3)<br />

p2<br />

1 − 2pq = p2<br />

p 2 + q 2 =<br />

m2<br />

m 2 + 1 .<br />

und mit P (4, 2) = 1<br />

P (2, 3) = pP (3, 3) + qP (2, 4) =<br />

p3<br />

p 2 + q 2<br />

P (3, 2) = pP (4, 2) + qP (3, 3) = p +<br />

qp2<br />

p 2 + q 2 .<br />

Führt man dies nach gleichem Schema fort, so erhält man in Abhängigkeit von m die<br />

Ausgangswahrscheinlichkeit <strong>für</strong> den Gewinn eines Punktes<br />

P (0, 0) =<br />

m 7 + 5m 6 + 11m 5 + 15m 4<br />

m 7 + 5m 6 + 11m 5 + 15m 4 + 15m 3 + 11m 2 + 5m + 1 .<br />

Für einige konkrete Werte von m ∈ N ergibt die Auswertung der angegebenen Formel die<br />

folgende Tabelle:<br />

26


m 1 2 3 4<br />

P (0, 0)<br />

1<br />

2<br />

208<br />

243<br />

243<br />

256<br />

51968<br />

53125<br />

Man kann nun leicht alle Werte P (i, j) <strong>für</strong> (i, j) ∈ S angeben. Als Übung kann man zeigen,<br />

dass falls der Spieler 1 doppelt so stark ist wie sein Gegner, also insbesondere m = 2 gilt,<br />

Spieler 1 dem Gegner zwei Punkte Vorsprung geben kann und das Spiel ist annähernd<br />

fair. In diesem Fall gilt P (0, 2) ≈ 0.5136.<br />

3.7 Abschließende Bemerkungen<br />

Für diesen Schnupperkurs wurden die Bücher von Doyle und Snell [2], von Blom, Holst<br />

und Sandell [1] und von Feller [3] verwendet. Die Grundlagen entstammen dem Lehrbuch<br />

von Herrn Henze [4], welches eine gute Einführung in die Stochastik liefert und anhand<br />

dessen die Vorlesung Einführung in Stochastik (Stochastik 1) im Bachelor aufgebaut wird.<br />

27


Literaturverzeichnis<br />

[1] Holst L. Blom, G. and D. Sandell. Problems and Snapshots from the World of Probability.<br />

Springer, 1994.<br />

[2] P. G. Doyle and J. L. Snell. Random Walks and Electric Networks. The Mathematical<br />

Association of America, 1984.<br />

[3] W. Feller. An Introduction to Probability - Theory and Applications, Volume I. Wiley,<br />

2te edition, 1960.<br />

[4] N. Henze. Stochastik <strong>für</strong> Einsteiger - Eine Einführung in die faszinierende Welt des<br />

Zufalls. Vieweg+Teubner, 8te edition, 2010.<br />

28

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!