Vorlesungsskript - Fakultät für Mathematik
Vorlesungsskript - Fakultät für Mathematik
Vorlesungsskript - Fakultät für Mathematik
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Irrfahrten und Phänomene des Zufalls<br />
von<br />
Dipl.-math. oec. Bruno Ebner
Inhaltsverzeichnis<br />
1 Einführung 3<br />
1.1 Zufallsexperiment, Ergebnismenge und Wahrscheinlichkeit . . . . . . . . . . 3<br />
1.2 Irrfahrten 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
1.2.1 Symmetrische Irrfahrt auf einem Zahlenstrahl . . . . . . . . . . . . . 6<br />
1.3 Zufallsvariable und Erwartungswert . . . . . . . . . . . . . . . . . . . . . . 9<br />
2 Irrfahrten 2 11<br />
2.1 Erwartete Anzahl an Schritten bis zur Absorption . . . . . . . . . . . . . . 11<br />
2.1.1 Weitere symmetrische Irrfahrten . . . . . . . . . . . . . . . . . . . . 12<br />
2.1.2 Der Binomialkoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />
2.2 Pfade von Irrfahrten und das Reflektionsprinzip . . . . . . . . . . . . . . . . 13<br />
3 Irrfahrten in Z 2 19<br />
3.1 Harmonische Funktionen in Z 2 . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />
3.2 Lösung bestimmen über lineare Gleichungssysteme . . . . . . . . . . . . . . 21<br />
3.3 Lösung approximieren über Monte-Carlo-Methode . . . . . . . . . . . . . . 22<br />
3.4 Irrfahrten auf dem Zahlengitter in der Ebene ohne Schranken . . . . . . . . 22<br />
3.5 Das Banach’sche Streichholzproblem . . . . . . . . . . . . . . . . . . . . . . 23<br />
3.6 Bernoulli und Tennis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />
3.7 Abschließende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 27<br />
Literaturverzeichnis 28<br />
1
Abbildungsverzeichnis<br />
1.1 Symmetrische Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
2.1 Pfad einer symmetrischen Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . 13<br />
2.6 Joseph L. F. Bertrand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />
2.2 Pfade von Irrfahrten mit n = 50 (links) und n = 100 (rechts) Schritten. . . 17<br />
2.3 Pfade von Irrfahrten mit n = 500 (links) und n = 1000 (rechts) Schritten. . 17<br />
2.4 Pfade von Irrfahrten mit n = 10000 (links) und n = 50000 (rechts) Schritten. 17<br />
2.5 Reflektionsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />
3.1 Zahlengitter S der Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />
3.2 Ein Pfad einer Irrfahrt in der Ebene mit n = 10000 Schritten. . . . . . . . . 22<br />
3.3 Irrfahrt im Zahlengitter S mit eingezeichneter Schranke B . . . . . . . . . . 24<br />
3.4 Zahlengitter S mit eingezeichneten Schranken B . . . . . . . . . . . . . . . 26<br />
2
Kapitel 1<br />
Einführung<br />
Zu Beginn machen wir uns mit einigen wahrscheinlichkeitstheoretischen Grundlagen vertraut.<br />
1.1 Zufallsexperiment, Ergebnismenge und Wahrscheinlichkeit<br />
Ein stochastischer Vorgang heißt ideales Zufallsexperiment, wenn folgende Gegebenheiten<br />
vorliegen:<br />
• Das Experiment wird unter vorher genau festgelegten Bedingungen (Versuchsbedingungen)<br />
durchgeführt.<br />
• Die Menge der möglichen Ergebnisse ist vor der Durchführung des Experiments<br />
bekannt.<br />
• Das Experiment kann prinzipiell beliebig oft wiederholt werden.<br />
Beispiel 1.1.1 Der einfache Würfelwurf eines fairen sechsseitigen Würfels ist ein ideales<br />
Zufallsexperiment, da er beliebig oft wiederholt werden kann und alle möglichen Ergebnisse<br />
durch die erzielten Augenzahlen bekannt sind.<br />
Die Menge der möglichen Ergebnisse eines idealen Zufallsexperiments bezeichnen wir mit<br />
Ω und nennen sie Ergebnismenge oder auch Grundraum. Die in der Ergebnismenge aufgeführten<br />
Elemente müssen nicht notwendig auch als Resultate eines Zufallsexperiments<br />
auftreten können. Wichtig <strong>für</strong> das Folgende ist nur, dass die Ergebnismenge Ω alle möglichen<br />
Ergebnisse enthält. Die Elemente von Ω werden mit ω, ω 1 , ω 2 , . . . oder anderen kleinen<br />
griechischen Buchstaben bezeichnet. Sie repräsentieren die möglichen Ergebnisse des Zufallsexperiments.<br />
3
Beispiel 1.1.2 Die Ergebnismenge eines einfachen Würfelwurfs wäre konkret<br />
Ω = {1, 2, 3, 4, 5, 6}.<br />
Wirft man den Würfel einmal und es erscheint die 2, so ist ω = 2 ∈ Ω das Ergebnis des<br />
idealen Zufallsexperiments.<br />
Ist Ω die Ergebnismenge eines Zufallsexperiments, so nennt man die Teilmengen A ⊂ Ω<br />
Ereignisse. Beobachtet man bei der Durchführung des Zufallsexperiments das Ergebnis<br />
ω ∈ Ω, so ist das Ereignis A ⊂ Ω eingetreten, falls ω ∈ A gilt. Falls dagegen ω ∉ A gilt, so<br />
ist das Ereignis A bei der Durchführung des Zufallsexperiments nicht eingetreten.<br />
Beispiel 1.1.3 Interessiert in unserem Beispiel des einfachen Würfelwurfs nur, ob die<br />
Augenzahl gerade ist, so kann man das Ereignis wie folgt modellieren<br />
A = {2, 4, 6}.<br />
Das Ereignis A tritt also ein, falls eine gerade Augenzahl gewürfelt wird.<br />
Sind A, B zwei Ereignisse so ist der Durchschnitt<br />
A ∩ B := {ω ∈ Ω : ω ∈ A und ω ∈ B}<br />
und die Vereinigung<br />
ein neues Ereignis.<br />
A ∪ B := {ω ∈ Ω : ω ∈ A oder ω ∈ B}<br />
Beispiel 1.1.4 Nehmen wir zu dem letzten Beispiel das Ereignis B der Augenzahlen kleiner<br />
gleich drei hinzu, also<br />
B := {1, 2, 3},<br />
so ist der Durchschnitt<br />
und die Vereinigung<br />
A ∩ B = {2, 4, 6} ∩ {1, 2, 3} = {2}<br />
A ∪ B = {2, 4, 6} ∪ {1, 2, 3} = {1, 2, 3, 4, 6}.<br />
Also ist das Ereignis A ∩ B das Ereignis eine 2 zu würfeln und das Ereignis A ∪ B eine<br />
der Augenzahlen ausser der 5 zu würfeln.<br />
Wir wollen im Folgenden von Wahrscheinlichkeiten reden. Da<strong>für</strong> benötigen wir eine konkrete<br />
Definition des Begriffs Wahrscheinlichkeit.<br />
4
Definition 1.1.5<br />
Ein endlicher Wahrscheinlichkeitsraum ist ein Paar (Ω, P ), wobei Ω eine Ergebnismenge<br />
und P eine auf den Teilmengen von Ω definierte reellwertige Funktion mit folgenden<br />
Eigenschaften ist:<br />
a) P (A) ≥ 0 <strong>für</strong> A ⊂ Ω,<br />
b) P (Ω) = 1,<br />
c) P (A ∪ B) = P (A) + P (B), falls A ∩ B = ∅.<br />
P heißt Wahrscheinlichkeitsverteilung auf Ω. P (A) heißt die Wahrscheinlichkeit des Ereignisses<br />
A.<br />
Es gibt zahlreiche Zufallsexperimente mit endlich vielen Ausgängen, bei denen wir keinen<br />
Ausgang vor dem anderen als wahrscheinlicher oder unwahrscheinlicher ansehen. In unserem<br />
Beispiel des Würfelwurfs würden wir bei einem exakt gefertigten Würfel alle der<br />
sechs Augenzahlen als gleich wahrscheinlich erachten. Bezeichnen wir mit |A| die Anzahl<br />
aller möglichen Ergebnisse des Ereignisses A, so können wir durch<br />
P (A) = |A|<br />
|Ω|<br />
<strong>für</strong> A ⊂ Ω,<br />
eine Wahrscheinlichkeitsverteilung angeben. In diesem Fall heißt der Wahrscheinlichkeitsraum<br />
(Ω, P ) Laplacescher Wahrscheinlichkeitsraum.<br />
Beispiel 1.1.6 Für unseren einfachen Würfelwurf gilt dann mit dem oben definierten<br />
Ereignis A<br />
P (A) = |A|<br />
|Ω| = |{2, 4, 6}|<br />
|{1, 2, 3, 4, 5, 6}| = 3 6 = 1 2 .<br />
Da wir im Folgenden die bedingten Wahrscheinlichkeiten benötigen führen wir sie hier<br />
kurz ein.<br />
Definition 1.1.7<br />
Es seien (Ω, P ) ein endlicher Wahrscheinlichkeitsraum und A, B ⊂ Ω mit P (B) > 0.<br />
Dann heißt<br />
P (A ∩ B)<br />
P (A|B) :=<br />
P (B)<br />
die bedingte Wahrscheinlichkeit von A unter der Bedingung B.<br />
Beispiel 1.1.8 In unserem Beispiel wäre also wegen |A ∩ B| = 1 und |B| = 3 und<br />
P (A ∩ B) =<br />
|A ∩ B|<br />
|Ω|<br />
= 1 6<br />
5<br />
und P (B) =<br />
|B|<br />
|Ω| = 1 2
die bedingte Wahrscheinlichkeit von A unter der Bedingung B gegeben durch<br />
P (A|B) =<br />
P (A ∩ B)<br />
P (B)<br />
=<br />
1<br />
6<br />
1<br />
2<br />
= 1 3 .<br />
1.2 Irrfahrten 1<br />
1.2.1 Symmetrische Irrfahrt auf einem Zahlenstrahl<br />
Ein Teilchen befindet sich zum Zeitpunkt 0 im Punkt x 0 = 0 auf der x-Achse. Zu den<br />
Zeitpunkten t = 1, 2, . . . wandert das Teilchen entweder einen Schritt nach links (x 1 = −1)<br />
oder einen Schritt nach rechts (x 1 = 1) mit derselben Wahrscheinlichkeit 1 2<br />
. Die Irrfahrt<br />
endet, falls das Teilchen eine der vorher festgelegten Schranken −a oder b erreicht, a, b ∈ N.<br />
Wir sprechen hier auch von der Absorption des Teilchens.<br />
✛<br />
−a<br />
✛<br />
✲<br />
-1 0 1<br />
b<br />
✲<br />
Abbildung 1.1: Symmetrische Irrfahrt<br />
Ohne Beschränkung der Allgemeinheit setzen wir die linke Schranke auf 0, den Startpunkt<br />
verschieben wir auf a und die rechte Schranke auf n = b+a. Dann bezeichnen wir mit p(x)<br />
<strong>für</strong> x = 1, . . . , n die Wahrscheinlichkeit im Punkt n absorbiert zu werden, falls das Teilchen<br />
sich gerade im Punkt x befindet. Die Funktion p(x) hat die folgenden Eigenschaften:<br />
a) p(0) = 0,<br />
b) p(n) = 1,<br />
c) p(x) = 1 2 p(x − 1) + 1 2p(x + 1) <strong>für</strong> x = 1, 2, . . . , n − 1.<br />
Die Eigenschaft a) folgt direkt aus der Definition der Funktion p da das Teilchen in 0<br />
absorbiert wurde und nicht mehr nach n kommen kann. Die Wahrscheinlichkeit in n absobiert<br />
zu werden falls das Teilchen sich in n befindet ist natürlich 1 und so kommt die<br />
Eigenschaft b) zu stande. Die letzte Eigenschaft lässt sich durch folgende Überlegung erklären:<br />
Falls das Teilchen sich im Punkt x befindet, x = 1, . . . , n − 1, so befindet es sich<br />
nach dem nächsten Schritt mit Wahrscheinlichkeit 1 2<br />
im Punkt x − 1 (oder im Punkt<br />
x + 1). Die Wahrscheinlichkeit dann in n absorbiert zu werden ist demzufolge p(x − 1)<br />
(bzw. p(x + 1)). Um die Regel nun korrekt zu erklären benötigen wir eine grundlegende<br />
Tatsache über bedingte Wahrscheinlichkeiten.<br />
6
Theorem 1.2.1<br />
Sei A ein Ereignis und B, C sich ausschließende Ereignisse (also falls B eintritt, so nicht<br />
C und umgekehrt, also B ∩ C = ∅ und B ∪ C = Ω). Dann gilt<br />
P (A) = P (B)P (A|B) + P (C)P (A|C).<br />
Beweis:<br />
Da B und C sich ausschließende Ereignisse sind, gilt<br />
A = (A ∩ B) ∪ (A ∩ C) und (A ∩ B) ∩ (A ∩ C) = ∅.<br />
Damit folgt mit der Definition der bedingten Wahrscheinlichkeit und der Eigenschaft c)<br />
der Wahrscheinlichkeitsverteilung P<br />
P (A) = P ((A ∩ B) ∪ (A ∩ C)) = P (A ∩ B) + P (A ∩ C) = P (B)P (A|B) + P (C)P (A|C).<br />
Setzen wir nun die Überlegung von oben in dieses Theorem ein, so folgt die Eigenschaft<br />
c) der Funktion p(x). Aber wie sieht nun die Funktion p(x) aus? Und endet eine solche<br />
Irrfahrt immer, auch wenn wir das n sehr groß wählen? Um Antworten auf diese Fragen<br />
zu geben, betrachten wir harmonische Funktionen.<br />
Harmonische Funktionen<br />
Wir lösen uns nun erstmal von den Irrfahrten und betrachten allgemein Funktionen <strong>für</strong> die<br />
die Eigenschaft c) gilt. In diesem Sinne bezeichnen wir mit S = {0, 1, . . . , n} die Menge der<br />
möglichen Punkte auf dem Zahlenstrahl, mit D = {1, . . . , n − 1} ⊂ S die inneren Punkte,<br />
also die Menge S vermindert um die beiden Schranken, und mit B = {0, n} die Menge der<br />
Schranken. Wir nennen eine Funktion f : S → R, x ↦→ f(x) harmonisch, falls sie auf der<br />
Menge D der Eigenschaft c) genügt, also gilt<br />
f(x) = 1 (f(x − 1) + f(x + 1)).<br />
2<br />
Gelten mit y 1 , y 2 ∈ R die folgenden Bedingungen<br />
f(0) = y 1 und f(n) = y 2<br />
so nennen wir diese Randbedingungen. Also ist die Funktion p(x) eine harmonische Funktion<br />
mit den Randbedingungen p(0) = 0 und p(n) = 1. Das Problem eine harmonische<br />
Funktion mit vorgegebenen Randbedingungen zu finden, wird auch das Dirichlet Problem<br />
genannt. Wir werden im Folgenden beweisen, dass das Problem eine eindeutige Lösung<br />
besitzt.<br />
□<br />
Theorem 1.2.2 (Maximumsprinzip)<br />
Eine harmonische Funktion f(x) nimmt ihr Maximum M und ihr Minimum m am Rand<br />
an.<br />
7
Beweis:<br />
Sei M der größte Wert der Funktion f. Falls nun f(x) = M <strong>für</strong> ein x ∈ D gilt, so gilt auch<br />
f(x − 1) = M = f(x + 1), da f(x) der Mittelwert dieser beiden Werte ist. Falls dies nun<br />
aber <strong>für</strong> f(x − 1) gilt, so gilt auch nach demselben Argument f(x − 2) = M. Führt man<br />
dies so fort, kommt man auf f(0) = M. Die gleiche Argumentation funktioniert auch <strong>für</strong><br />
das Minimum m.<br />
□<br />
Theorem 1.2.3 (Eindeutigkeitsprinzip)<br />
Seien f(x) und g(x) harmonische Funktionen auf S mit f(0) = g(0) und f(n) = g(n).<br />
Dann gilt<br />
f(x) = g(x), <strong>für</strong> alle x ∈ S.<br />
Beweis:<br />
Sei h(x) = f(x) − g(x). Dann gilt <strong>für</strong> x ∈ D<br />
1<br />
2 (h(x − 1) + h(x + 1)) = 1 (f(x − 1) − g(x − 1) + f(x + 1) − g(x + 1))<br />
2<br />
= 1 2 (f(x − 1) + f(x + 1)) − 1 (g(x − 1) + g(x + 1))<br />
2<br />
= f(x) − g(x) = h(x),<br />
da die Funktionen f(x) und g(x) nach Voraussetzung harmonisch sind. Also ist auch die<br />
Funktion h(x) harmonisch und es gilt h(0) = 0 und h(n) = 0. Wegen dem Maximumsprinzip<br />
ist dann sowohl das Maximum als auch das Minimum der Funktion h(x) gleich 0.<br />
Also muss <strong>für</strong> alle x ∈ S gelten h(x) = 0. Und somit stimmen die Funktionen f(x) und<br />
g(x) auf S überein.<br />
□<br />
Mit Hilfe des Eindeutigkeitsprinzips können wir uns nun Gedanken um die Funktion p(x)<br />
aus dem vorherigen Abschnitt machen. Wir sehen, dass falls wir eine harmonische Funktion<br />
mit den in a) und b) vorgeschriebenen Randbedingungen finden, diese auch eindeutig<br />
ist. Die einfachste Art unser Problem zu lösen, ist einfach mal zu raten: Eine lineare Funktion,<br />
die unsere Randbedingung erfüllt ist f(x) = x n<br />
, da f(0) = 0 und f(n) = 1 gilt. Bleibt<br />
noch die Eigenschaft c) zu prüfen. Es gilt<br />
1<br />
x − 1 + x + 1<br />
(f(x − 1) + f(x + 1)) = = x 2 2n n = f(x).<br />
Also haben wir eine harmonische Funktion mit den geforderten Randbedingungen gefunden<br />
und wegen dem Eindeutigkeitsprinzip gibt es auch keine weitere.<br />
Auch die zweite gestellte Frage, also die Frage nach der Endlichkeit einer solchen Irrfahrt,<br />
lässt sich mit Hilfe der harmonischen Funktionen leicht beantworten: Wir bezeichnen mit<br />
q(x) die Wahrscheinlichkeit, dass die Irrfahrt nie endet, falls das Teilchen sich am Punkt<br />
x befindet, also die Schranken B nie erreicht werden. Dann folgt mit den gleichen Überlegungen<br />
wie bei p(x), dass<br />
q(x) = 1 2 q(x − 1) + 1 q(x + 1)<br />
2<br />
8
gilt. Also ist q(x) eine harmonische Funktion und es gilt q(0) = q(n) = 0. Nun ist aber<br />
wegen dem Maximumsprinzip q(x) = 0 <strong>für</strong> alle x ∈ S.<br />
Interpretation als ”<br />
Penny Matching Game“<br />
Man stelle sich folgende Situation vor: Peter hat a und Paul b faire Münzen mit den Symbolen<br />
Zahl (z) und Wappen (w). Sie schnippen jeweils eine ihrer Münzen auf den Boden, so<br />
dass sie flach aufliegen. Ist bei beiden Münzen das gleiche Symbol zu sehen, so gewinnt Peter<br />
beide Münzen, sind unterschiedliche Symbole zu sehen, so gewinnt Paul beide Münzen.<br />
Das Spiel wird so lange gespielt bis einer von beiden keine Münze mehr hat (Absorption).<br />
Auch hier handelt es sich um eine symmetrische Irrfahrt. Die Wahrscheinlichkeit, dass<br />
Peter oder Paul eine Runde gewinnt, ist jeweils 1 2<br />
, da folgende Kombinationen pro Wurf<br />
auftreten können:<br />
{(w, w), (z, z), (w, z), (z, w)}.<br />
Wenden wir das oben gezeigte auf unser Spiel an, so ist die Wahrscheinlichkeit, dass Peter<br />
alle Münzen von Paul gewinnt durch p(a) = a n = a<br />
a+b<br />
gegeben. Respektive gewinnt Paul<br />
alle Münzen mit der Wahrscheinlichkeit 1 − p(a) =<br />
b<br />
b+a .<br />
Beispiel 1.2.4 Peter hat a = 1 Münze und Paul b = 99 Münzen. Die Wahrscheinlichkeit,<br />
dass Peter das Spiel gewinnt, liegt bei p(1) = 0.01 = 1%.<br />
1.3 Zufallsvariable und Erwartungswert<br />
Zufällige Ereignisse werden meist mit Hilfe von Zufallsvariablen beschrieben. Darunter<br />
versteht man eine Variable, deren Wert vom Ergebnis eines Zufallsexperiments abhängt.<br />
Definition 1.3.1<br />
Ist Ω eine Ergebnismenge, so heißt jede Abbildung<br />
X : Ω → R<br />
von Ω in die Menge der reellen Zahlen eine Zufallsvariable (auf Ω).<br />
Wir können eine Zufallsvariable X als eine Vorschrift ansehen, die jedem Ergebnis ω ∈ Ω<br />
des idealen Zufallsexperimentes eine reelle Zahl X(ω) zuordnet. Der Wert X(ω) heißt auch<br />
Realisierung der Zufallsvariablen zum Ausgang ω.<br />
Beispiel 1.3.2 Wir interessieren uns beim einfachen Würfelwurf <strong>für</strong> das Quadrat der<br />
geworfenen Augenzahl, also setzen wir als Zufallsvariable<br />
X(ω) = ω 2 , ω ∈ Ω.<br />
Die Zufallsvariable nimmt also die Werte 1, 4, 9, 16, 25 und 36 an.<br />
9
Ist Ω eine Ergebnismenge eines Zufallsexperiments und ist<br />
X : Ω → R, ω ↦→ X(ω),<br />
eine Zufallsvariable, so interessiert man sich in der Praxis <strong>für</strong> Ereignisse der Form<br />
A = {ω ∈ Ω : X(ω) = x} ⊂ Ω, x ∈ R,<br />
also <strong>für</strong> das Ereignis, dass bei Durchführung des Zufallsexperiments die Zufallsvariable X<br />
einen fest vorgegebenen Wert x ∈ R annimmt.<br />
Beispiel 1.3.3 Interessieren wir uns zum Beispiel <strong>für</strong> das Ereignis A so können wir dieses<br />
mit Hilfe der Zufallsvariablen X schreiben als<br />
A = {2, 4, 6} = {ω ∈ Ω : X(ω) = 4} ∪ {ω ∈ Ω : X(ω) = 16} ∪ {ω ∈ Ω : X(ω) = 36}.<br />
Wir betrachten allgemein <strong>für</strong> ein s ∈ N die endliche Ergebnismenge Ω = {ω 1 , . . . , ω s } mit<br />
einer durch P ({ω j }) <strong>für</strong> j = 1, . . . , s gegebenen Wahrscheinlichkeitsverteilung sowie X als<br />
Zufallsvariable auf Ω. Dann können wir den Erwartungswert einer Zufallsvariablen wie<br />
folgt definieren.<br />
Definition 1.3.4<br />
Für eine Zufallsvariable X : Ω → R auf einem endlichen Wahrscheinlichkeitsraum (Ω, P )<br />
heißt die Zahl<br />
E(X) := X(ω 1 )P ({ω 1 }) + X(ω 2 )P ({ω 2 }) + · · · + X(ω s )P ({ω s })<br />
der Erwartungswert von X.<br />
Wir können E(X) als durschnittliche Auszahlung pro Spiel auf lange Sicht ansehen, wenn<br />
wiederholt ein Glückspiel mit den möglichen Ergebnissen ω ∈ Ω und einer durch die<br />
Zufallsvariable X festgelegten Auszahlungsfunktion gespielt wird.<br />
Beispiel 1.3.5 Der Erwartungswert der Zufallsvariablen X aus Beispiel 1.3.2 ist wegen<br />
P ({ω}) = 1 6<br />
<strong>für</strong> alle ω ∈ Ω gegeben durch<br />
E(X) = X(1)P ({1}) + X(2)P ({2}) + · · · + X(6)P ({6})<br />
= 1P ({1}) + 4P ({2}) + · · · + 36P ({6})<br />
= 1 6 (1 + 4 + 9 + 16 + 25 + 36) = 91 6 ≈ 15.17.<br />
Sind X, Y Zufallsvariablen auf Ω und a ∈ R, so hat der Erwartungswert folgende Eigenschaften:<br />
a) E(X + Y ) = E(X) + E(Y ),<br />
b) E(aX) = aE(X).<br />
10
Kapitel 2<br />
Irrfahrten 2<br />
2.1 Erwartete Anzahl an Schritten bis zur Absorption<br />
Bei der in Abschnitt 1.2.1 eingeführten symmetrischen Irrfahrt auf dem Zahlenstrahl haben<br />
wir gesehen, dass das Teilchen früher oder später immer absorbiert wird. Eine weitere<br />
natürliche Frage stellt sich dann: Wie oft wird das Teilchen im Durchschnitt hin und her<br />
springen bis es absorbiert wird? Dieser Frage wollen wir uns im Folgenden widmen.<br />
Hierzu benötigen wir die gerade eingeführten Begriffe der Zufallsvariable und des Erwartungswertes.<br />
Wir bezeichnen mit<br />
N x := Anzahl der benötigten Schritte bis das Partikel absorbiert wird,<br />
dabei steht der Index x = 0, . . . , n <strong>für</strong> die Position des Teilchens. Von vornherein kennen<br />
wir zwei sichere Werte der Zufallsvariablen N x<br />
N 0 = 0 und N n = 0,<br />
da in diesen Positionen das Teilchen bereits absorbiert wurde. Befindet sich das Teilchen<br />
in der Position x = 1, . . . , n − 1 so läuft es einen Schritt (nach links oder rechts, jeweils<br />
mit Wahrscheinlichkeit 1 2<br />
) und kommt in den Positionen x − 1 oder x + 1 an. Von dort aus<br />
braucht es aber noch N x−1 bzw. N x+1 Schritte bis es absorbiert wird. Also können wir die<br />
Zufallsvariable N x schreiben als<br />
{ 1 + Nx−1 , mit Wahrscheinlichkeit 1<br />
N x =<br />
2 ,<br />
1 + N x+1 , mit Wahrscheinlichkeit 1 2 .<br />
Für den Erwartungswert E(N x ) hält demzufolge <strong>für</strong> x = 1, . . . , n − 1 die folgende Differenzengleichung<br />
E(N x ) = 1 + 1 2 E (N x−1) + 1 2 E (N x+1) .<br />
Die allgemeine Lösung der Differenzengleichung 1 ist gegeben durch<br />
E(N x ) = −x 2 + c 1 x + c 2 , c 1 , c 2 ∈ R.<br />
1 Das Lösen von Differenzengleichungen ist nicht Bestandteil des Schnupperkurses, weswegen in diesem<br />
Falle die Lösung angegeben wird. Es handelt sich hier um eine lineare Differenzengleichung 2. Ordnung,<br />
welche mit Standardmethoden gelöst werden kann.<br />
11
Mit den beiden sicheren Werten N 0 = N n = 0 ergeben sich die Erwartungswerte E(N 0 ) =<br />
E(N n ) = 0 und damit die Gleichungen<br />
c 2 = 0<br />
−n 2 + c 1 n + c 2 = 0.<br />
Setzt man c 2 = 0 in die zweite Gleichung ein, so folgt wegen n ≠ 0<br />
−n 2 + c 1 n = 0 ⇐⇒ n(c 1 − n) = 0 =⇒ c 1 = n.<br />
Eingesetzt ergibt dies den gesuchten Erwartungswert<br />
E(N x ) = −x 2 + nx.<br />
Falls wir also in x = a starten ergibt sich mit n = a + b als erwartete Anzahl an Schritten<br />
<strong>für</strong> eine symmetrische Irrfahrt auf dem Zahlenstrahl mit absorbierenden Schranken in 0<br />
und b + a<br />
E(N a ) = −a 2 + (a + b)a = ab.<br />
Erwartete Anzahl an Münzwürfen bis zum Ruin<br />
Wenden wir das eben berechnete auf die Situation des ”<br />
Penny Matching Games“an, so<br />
erhalten wir die verblüffende Antwort, dass selbst wenn Peter nur 1 Münze hat, das Spiel im<br />
Mittel 99-mal gespielt wird, bis einer der Spieler ruiniert ist, obwohl die Wahrscheinlichkeit,<br />
dass es nach einem Spiel schon endet, bei 50% liegt.<br />
2.1.1 Weitere symmetrische Irrfahrten<br />
In der Situation von Abschnitt 1.2.1 setzen wir a = ∞ und b ∈ N so sprechen wir von<br />
einer Irrfahrt mit nur einer absorbierenden Schranke. Auch hier stellt sich die Frage nach<br />
der Wahrscheinlichkeit der Absorption des Teilchens, da es ja prinzipiell in eine Richtung<br />
abdriften könnte (Übungsaufgabe). Setzen wir auch b = ∞ so sprechen wir von einer<br />
symmetrischen Irrfahrt ohne Schranken, da das Teilchen nie absorbiert wird.<br />
2.1.2 Der Binomialkoeffizient<br />
In Kapitel 1 haben wir den Laplaceschen Wahrscheinlichkeitsraum eingeführt. Um die<br />
möglichen Ergebnisse eines Ereignisses angeben zu können, sollten wir uns mit einigen<br />
zentralen Begriffen der Kombinatorik, der Lehre des Abzählens, vertraut machen. Unter<br />
der <strong>Fakultät</strong> einer Zahl n ∈ N verstehen wir die Zahl<br />
n! := n · (n − 1) · (n − 2) · · · 3 · 2 · 1.<br />
Beispiel 2.1.1 Die <strong>Fakultät</strong> ist eine sehr schnell wachsende Vorschrift:<br />
1! = 1, 2! = 2·1 = 2, 3! = 3·2·1 = 6, 4! = 4·3! = 24, 6! = 6·5·4! = 720 und 15! = 1307674368000.<br />
12
Der Binomialkoeffizient ist <strong>für</strong> n, k ∈ N mit k ≤ n definiert durch<br />
( n n!<br />
:=<br />
k)<br />
k!(n − k)! .<br />
Eine direkte Interpretation des Binomialkoeffizienten ist die Anzahl aller möglichen Ergebnisse,<br />
die man als zufällige Auswahl von genau k Elementen einer n elementigen Menge<br />
ohne Berücksichtigung der Reihenfolge treffen kann.<br />
Beispiel 2.1.2 Beim Lotto 6 aus 49 wird aus einer Urne mit 49 Kugeln genau 6 herausgenommen.<br />
Der Binomialkoeffizient liefert hier<strong>für</strong> die Anzahl an möglichen verschiedenen<br />
Ziehungen mit n = 49 und k = 6<br />
( ) 49 49! 49 · 48 · · · 3 · 2 · 1<br />
=<br />
=<br />
6 6!(49 − 6)! 6! · 43 · 42 · · · 3 · 2 · 1<br />
=<br />
49 · 48 · 47 · 46 · 45 · 44<br />
6!<br />
= 10068347520<br />
720<br />
= 13983816.<br />
2.2 Pfade von Irrfahrten und das Reflektionsprinzip<br />
Wir betrachten zunächst die Irrfahrt aus Abschnitt 1.2.1 und drehen diese um 90 Grad.<br />
Hinzu zeichnen wir eine Zeitachse beginnend im Ursprung (siehe Abbildung 2.1). Wir<br />
zeichnen den sogenannten Pfad einer Irrfahrt wie folgt ab: Wandert das Teilchen zum<br />
Zeitpunkt t 1 = 1 nach 1 so markieren wir dies mit einem Pfeil vom Punkt (0, 0) zum Punkt<br />
(1, 1). Wandert das Teilchen nach −1 so markieren wir dies mit einem Pfeil vom Punkt<br />
(0, 0) zum Punkt (1, −1). Dies wiederholen wir zu den Zeitpunkten t 2 , t 3 , . . . vom jeweiligen<br />
erreichten Punkt bis zur Absorption des Teilchens. Im Folgenden betrachten wir allgemein<br />
b<br />
✻<br />
✒<br />
✒<br />
✒<br />
1<br />
✒<br />
✒<br />
❘<br />
✒<br />
0<br />
❘<br />
1 2 3<br />
❘<br />
✲<br />
t<br />
−1<br />
Abbildung 2.1: Pfad einer symmetrischen Irrfahrt<br />
Pfade von Irrfahrten und geben hierzu wie in Abschnitt 2.1.1 die Restriktion der Schranken<br />
auf. Mathematisch gesehen kann man solch einen Pfad einer Irrfahrt als Realisierung von<br />
13
n ∈ N Zufallsvariablen X 1 , . . . , X n betrachten: Geht der Pfad zum Zeitpunkt t einen<br />
Schritt nach oben, so erhält die Variable X t den Wert 1, geht er einen Schritt nach unten,<br />
so erhält die Variable den Wert −1. Bei einer symmetrischen Irrfahrt gilt also<br />
Definieren wir<br />
P (X k = 1) = P (X k = −1) = 1 , <strong>für</strong> k = 1, . . . , n.<br />
2<br />
S k := X 1 + X 2 + · · · + X k<br />
als Partialsummen der ersten k Zufallsvariablen, so können wir S k als Gewinn (oder Verlust)<br />
zum Zeitpunkt k interpretieren. Es gilt<br />
S k − S k−1 = X k = ±1, S 0 := 0, k = 1, . . . , n. (2.1)<br />
Mit dieser Schreibweise kommen wir zur Definition eines Pfades einer Irrfahrt.<br />
Definition 2.2.1<br />
Seien n ∈ N und m ∈ Z. Ein Pfad {S 1 , S 2 , . . . , S n } vom Punkt (0, 0) zum Punkt (n, m) ist<br />
eine Linie (Polygonzug), die durch die Punkte (i, S i ) <strong>für</strong> i = 0, . . . , n geht und <strong>für</strong> die die<br />
Beziehung (2.1) mit S n = m gilt.<br />
Falls nun p der Zufallsvariablen X 1 , . . . , X n positiv und q negativ sind, so ist<br />
n = p + q und m = p − q.<br />
Da nichts über die genaue Zuordnung der Zufallsvariablen mit Wert 1 und mit Wert -1<br />
vorausgesetzt wurde, können diese laut Abschnitt 2.1.2 in<br />
( ) ( )<br />
p + q p + q<br />
N n,m = =<br />
p q<br />
verschiedenen Kombinationen ausgewählt werden.<br />
Beispiel 2.2.2 Betrachten wir eine symmetrische Irrfahrt ohne Schranken und fragen uns<br />
nach der Anzahl der Pfade der Irrfahrt von (0, 0) nach (14, 4). Dann muss also<br />
n = 14 = p + q und m = 4 = p − q<br />
sein. Daraus folgt also p = 4 + q damit q = 5 und p = 9. Damit ergibt sich die Anzahl an<br />
möglichen Pfaden<br />
( ) 14 14!<br />
N 14,4 = =<br />
= 14 · 13 · 11 = 2002.<br />
9 9!(14 − 9)!<br />
14
In den folgenden Bildern werden einige konkrete Pfade von symmetrischen Irrfahrten ohne<br />
absorbierende Schranken gezeigt. Die Bilder wurden mit dem Computer erzeugt und es<br />
wurden n = 50, 100, 500, 1000, 10000, 50000 Zufallsexperimente simuliert (siehe Abbildungen<br />
2.2-2.4).<br />
Betrachten wir nun die Punkte A = (a, α) und B = (b, β) mit a, b, α, β ∈ N und b > a.<br />
Unter der Spiegelung des Punktes A an der Zeitachse verstehen wir den Punkt A ′ =<br />
(a, −α). Unter einem Pfad von A nach B verstehen wir die Definition 2.2.1 mit A als<br />
Ursprung (0, 0) (siehe Abbildung 2.5).<br />
Theorem 2.2.3 (Reflektionsprinzip)<br />
Die Anzahl an Pfaden von A nach B, welche die Zeitachse berühren oder überqueren<br />
entspricht der Anzahl an Pfaden von A ′ nach B.<br />
Beweis:<br />
Wir betrachten einen Pfad von A nach B der die Zeitachse mindestens einmal berührt<br />
und spiegeln den Punkt A an der Zeitachse auf den Punkt A ′ . Nennen wir den ersten<br />
Berührungspunkt mit der Zeitachse T = (t, 0). Da der Pfad von A nach B die Zeitachse<br />
vor dem Punkt T nicht berührt, gibt es genauso viele Pfade von A nach T , welche die<br />
Zeitachse erst in T berühren, wie von A ′ nach T (Spiegelung). Und da danach die beiden<br />
Pfade identisch nach B laufen, ist das Theorem bewiesen.<br />
□<br />
Abbildung 2.6: Joseph<br />
L. F. Bertrand<br />
Das Reflektionsprinzip lässt sich sehr vielfältig in der Theorie<br />
der Irrfahrten einsetzen. Eine Anwendung findet sich in der von<br />
dem französischen <strong>Mathematik</strong>er Joseph Louis François Bertrand<br />
1887 vorgestellten Abstimmungsproblem: In einer Stichwahl<br />
erhält Kandidat P insgesamt p Stimmen und Kandidat Q<br />
erhält q Stimmen mit p > q (also Kandidat P hat die Wahl<br />
gewonnen). Wie groß ist die Wahrscheinlichkeit, dass während<br />
der Auszählung der Stimmen Kandidat P immer mehr Stimmen<br />
hatte als Kandidat Q?<br />
Wir gehen davon aus, dass die Stimmzettel nacheinander einer<br />
gut gemsichten Wahlurne entnommen werden. Den entscheidenden<br />
Hinweis <strong>für</strong> die Antwort auf diese Frage liefert das folgende<br />
Theorem.<br />
Theorem 2.2.4<br />
Seien n, m ∈ N mit n, m > 0 und m ≤ n. Die Anzahl der Pfade {S 1 , S 2 , . . . , S n } mit S n =<br />
m, also der Pfade vom Punkt (0, 0) zum Punkt (n, m), so dass S 1 > 0, S 2 > 0, . . . , S n > 0<br />
gilt, ist genau m n N n,m.<br />
15
Beweis:<br />
Da nach dem ersten Schritt S 1 = ±1 ist, gilt nach der Voraussetzung S 1 = 1. Also<br />
sind die wirklich in Frage kommenden Pfade alle diejenigen, die vom Punkt (1, 1) zum<br />
Punkt (n, m) laufen, dabei aber die Zeitachse weder berühren noch schneiden. Nach dem<br />
Reflektionsprinzip ist die Anzahl dieser Pfade gegeben durch<br />
( ) ( )<br />
p + q − 1 p + q − 1<br />
N n−1,m−1 − N n−1,m+1 =<br />
−<br />
p − 1 q − 1<br />
= p − q ( ) p + q<br />
p + q p<br />
und damit ist das Theorem bewiesen.<br />
= m n N n,m<br />
Nun können wir mit Hilfe des eben bewiesenen Theorems die Frage von Herrn Bertrand beantworten:<br />
Wir wissen, dass die Anzahl der Pfade von (0, 0) bis (n, m) welche die Zeitachse<br />
nie berühren gleich m n N n,m ist. Also ist die gesuchte Wahrscheinlichkeit P gegeben durch<br />
die Anzahl der Pfade welche die Zeitachse nie berühren geteilt durch die anzahl aller Pfade<br />
von (0, 0) bis (n, m):<br />
P :=<br />
m<br />
n N n,m<br />
N n,m<br />
= m n = p − q<br />
p + q .<br />
Beachte: Alle Pfade sind gleich wahrscheinlich (Laplacescher Wahrscheinlichkeitsraum).<br />
□<br />
16
−3 −2 −1 0 1 2 3 4<br />
−2 0 2 4 6<br />
0 10 20 30 40 50<br />
0 20 40 60 80 100<br />
Abbildung 2.2: Pfade von Irrfahrten mit n = 50 (links) und n = 100 (rechts) Schritten.<br />
0 10 20 30 40<br />
−20 −10 0 10 20<br />
0 100 200 300 400 500<br />
0 200 400 600 800 1000<br />
Abbildung 2.3: Pfade von Irrfahrten mit n = 500 (links) und n = 1000 (rechts) Schritten.<br />
−60 −40 −20 0 20 40 60<br />
−100 −50 0 50 100<br />
0 2000 4000 6000 8000 10000<br />
17<br />
0 10000 20000 30000 40000 50000<br />
Abbildung 2.4: Pfade von Irrfahrten mit n = 10000 (links) und n = 50000 (rechts) Schritten.
✻<br />
✒<br />
✒<br />
✒<br />
1<br />
❘<br />
❘<br />
✒<br />
0<br />
−1<br />
1 2 3<br />
❘<br />
❘<br />
✒<br />
✲<br />
t<br />
❄<br />
Abbildung 2.5: Reflektionsprinzip<br />
18
Kapitel 3<br />
Irrfahrten in Z 2<br />
Wir betrachten in diesem Abschnitt Zahlengitter in Z 2 := Z × Z = {(x, y) : x, y ∈<br />
Z}, also insbesondere eine Menge von Punkten (x, y) mit ganzzahligen Koordinaten x ∈<br />
{. . . , −2, −1, 0, 1, 2, . . .} und y ∈ {. . . , −2, −1, 0, 1, 2, . . .}. Wir bezeichnen mit S = D∪B ⊂<br />
Z 2 eine Menge von Punkten, welche die folgenden Bedingungen erfüllt:<br />
a) Die Mengen D und B sind disjunkt, es gilt also B ∩ D = ∅.<br />
b) Jeder Punkt in D hat alle vier Nachbarpunkte in S.<br />
c) Jeder Punkt von B hat mindestens einen Nachbarpunkt in D.<br />
d) Für alle Punkte E, F ∈ S gilt: Es gibt eine Folge von Punkten P 1 , . . . , P n ∈ D, so<br />
dass sie einen Weg von E nach F bilden (bzw. S ist zusammenhängend).<br />
Wir nennen die Punkte aus der Menge D die inneren Punkte von S und die Punkte aus der<br />
Menge B die Randpunkte von S (vergleiche Abschnitt 1.2.1). Eine symmetrische Irrfahrt<br />
auf einem Zahlengitter S mit Schranken in B führen wir wie folgt ein: Befindet ein Teilchen<br />
sich in einem Punkt (x, y) ∈ D so springt es jeweils mit Wahrscheinlichkeit 1 4<br />
zu einem<br />
seiner Nachbarpunkte, in diesem Fall also (x + 1, y), (x − 1, y), (x, y + 1) oder (x, y − 1).<br />
Kommt es in einem Punkt (a, b) ∈ B an, so wird es absorbiert und die Irrfahrt endet.<br />
Beispiel 3.0.5 Wir betrachten die Punktmengen<br />
und<br />
D = {(0, 0), (1, 0), (2, 0), (1, 1), (2, 1)}<br />
B = {(−1, 0), (0, −1), (0, 1), (1, 2), (2, 2), (3, 0), (3, 1), (1, −1), (2, −1)}.<br />
Graphisch kann man das Zahlengitter S = D∪B darstellen wie in Abbildung 3.1, wobei die<br />
ausgefüllten Punkte aus der Menge der Randpunkte B und die nichtausgefüllten Punkte<br />
aus der Menge der inneren Punkte D stammen.<br />
19
y<br />
✻<br />
1<br />
✛<br />
−1<br />
0<br />
1 2 3<br />
✲<br />
x<br />
−1<br />
Abbildung 3.1: Zahlengitter S der Irrfahrt<br />
In der Situation von Beispiel 3.0.5 bezeichnen wir im Folgenden mit p(x) die Wahrscheinlichkeit<br />
in den Schranken<br />
B 1 := {(−1, 0), (0, −1), (1, 0), (1, 2), (2, 2), (3, 1)}<br />
absorbiert zu werden. Weiter seien die inneren Punkte aus D lexikographisch durchnummeriert,<br />
also<br />
a = (0, 0), b = (1, 0), c = (2, 0), d = (1, 1), und e = (2, 1).<br />
Damit gelten die folgenden Eigenschaften der Funktion p(x):<br />
a) p(x) = 1 <strong>für</strong> alle x ∈ B 1 und p(x) = 0 <strong>für</strong> alle x ∈ B \ B 1 ,<br />
b) p(a) = 1 4 p(b) + 3 4 ,<br />
c) p(b) = 1 4 p(a) + 1 4 p(c) + 1 4 p(d),<br />
d) p(c) = 1 4 p(b) + 1 4 p(e),<br />
e) p(d) = 1 4 p(b) + 1 4 p(e) + 1 2 , und<br />
f) p(e) = 1 4 p(c) + 1 4 p(d) + 1 2 .<br />
Es stellt sich wie schon in Abschnitt 1.2.1 die Frage, wie man die gesuchte Funktion p(x)<br />
bestimmen kann und ob diese, so wie wir sie definiert haben, eindeutig ist. Die Frage nach<br />
der Eindeutigkeit können wir wie auf dem Zahlenstrahl behandeln und führen hier<strong>für</strong><br />
harmonische Funktionen ein.<br />
20
3.1 Harmonische Funktionen in Z 2<br />
Wie schon in Kapitel 1 nennen wir eine auf S definierte Funktion f : S → R, (x, y) ↦→<br />
f(x, y) harmonisch, falls <strong>für</strong> Punkte (x, y) ∈ D die Eigenschaft<br />
f(x, y) = 1 (f(x + 1, y) + f(x − 1, y) + f(x, y + 1) + f(x, y − 1))<br />
4<br />
gilt. Auch hier gibt es ein Maximums- und ein Eindeutigkeitsprinzip.<br />
Theorem 3.1.1 (Maximumsprinzip)<br />
Eine harmonische Funktion f(x, y) nimmt ihr Maximum M und ihr Minimum m am Rand<br />
an.<br />
Beweis: Übung!<br />
Theorem 3.1.2 (Eindeutigkeitsprinzip)<br />
Seien f(x, y) und g(x, y) harmonische Funktionen auf S mit f(a, b) = g(a, b) <strong>für</strong> (a, b) ∈ B.<br />
Dann gilt<br />
f(x, y) = g(x, y), <strong>für</strong> alle (x, y) ∈ S.<br />
Beweis: Übung!<br />
Die betrachtete Funktion p(x) ist eine harmonische Funktion mit gegebenen Randwerten,<br />
also ist diese nach dem Eindeutigkeitsprinzip, falls wir sie explizit angeben können, auch<br />
eindeutig bestimmt. Wie können wir in diesem Fall die Funktion p(x) bestimmen?<br />
3.2 Lösung bestimmen über lineare Gleichungssysteme<br />
Die Eigenschaften e)-f) bilden ein lineares Gleichungssystem mit 5 Unbekannten (hier<br />
p(a), p(b), p(c), p(d) und p(e)) und 5 Gleichungen. Lösen wir dieses lineare Gleichungssystem<br />
(Übung!), so kommen wir auf die eindeutige Lösung<br />
⎛<br />
⎜<br />
⎝<br />
p(a)<br />
p(b)<br />
p(c)<br />
p(d)<br />
p(e)<br />
⎞ ⎛<br />
⎟<br />
⎠ ≈ ⎜<br />
⎝<br />
0.8764045<br />
0.5056180<br />
0.3230337<br />
0.8230337<br />
0.7865169<br />
⎞<br />
⎟<br />
⎠ .<br />
21
3.3 Lösung approximieren über Monte-Carlo-Methode<br />
In der Stochastik werden zufällige Phänomene oft über die sogenannte Monte Carlo Methode<br />
1 simuliert. Dabei wird ein zufälliger Vorgang n-mal wiederholt (n ∈ N möglichst groß)<br />
und sich die relative Häufigkeit eines eintretenden Ereignisses angeschaut. Diese relative<br />
Häufigkeit wird als Schätzung der <strong>für</strong> dieses Ereignis zu erwartenden wahren Wahrscheinlichkeit<br />
genommen. In unserem Beispiel 3.0.5 implementieren wir die angegebene Irrfahrt<br />
auf dem Computer und führen sie ausgehend von den Punkten a bis e jeweils 10000 mal<br />
durch. Die sich dadurch ergebene Schätzung lautet<br />
⎛<br />
⎜<br />
⎝<br />
ˆp(a)<br />
ˆp(b)<br />
ˆp(c)<br />
ˆp(d)<br />
ˆp(e)<br />
⎞ ⎛<br />
⎟<br />
⎠ = ⎜<br />
⎝<br />
0.8785<br />
0.4975<br />
0.3165<br />
0.8275<br />
0.7825<br />
Die Approximation an die Lösung ist offensichtlich ganz gut. Möchte man eine genauere<br />
Näherung bekommen, so muss man einfach die Anzahl der durchlaufenen Irrfahrten<br />
erhöhen.<br />
3.4 Irrfahrten auf dem Zahlengitter in der Ebene ohne Schranken<br />
Betrachten wir die symmetrische Irrfahrt auf S = Z 2 mit B = ∅ so erhalten wir eine<br />
Irrfahrt ohne Schranken. Hier stellt sich schon wie in Kapitel 1 die Frage nach der<br />
⎞<br />
⎟<br />
⎠ .<br />
−80 −60 −40 −20 0 20<br />
−60 −40 −20 0 20 40<br />
Abbildung 3.2: Ein Pfad einer Irrfahrt in der Ebene mit n = 10000 Schritten.<br />
1 Begriffsbildung: Die Methode ist nach den berühmten Spielcasinos in Monte Carlo benannt<br />
22
Wahrscheinlichkeit einen beliebigen Punkt (x, y) ∈ Z 2 früher oder später zu besuchen.<br />
Äquivalent hierzu ist die Frage, ob ein Teilchen bei einer symmetrischen Irrfahrt in der<br />
Ebene immer an seinen Ausgangspunkt zurück kommt. Dieses Problem löst der Satz von<br />
Pólya.<br />
Theorem 3.4.1 (Satz von Pólya)<br />
Eine symmetrische Irrfahrt auf einem Zahlengitter in der Ebene ohne Schranken kommt<br />
immer zu ihrem Startwert zurück.<br />
Dieses Theorem wollen wir nicht beweisen. Es sei aber noch gesagt, dass dies in höheren<br />
Dimensionen (≥ 3) nicht mehr zutrifft. Im folgenden wollen wir auf diese sehr interessante<br />
Klasse von Irrfahrten aber nicht weiter eingehen.<br />
3.5 Das Banach’sche Streichholzproblem<br />
Der polnische <strong>Mathematik</strong>er Stefan Banach (geb. 1892, gest. 1945) stellte folgendes Problem:<br />
Eine Person hat in jeder seiner beiden Hosentaschen eine Streichholzschachtel mit<br />
n Streichhölzern. Wenn ein Streichholz gebraucht wird, zieht er mit gleicher Wahrscheinlichkeit<br />
eine Schachtel aus seinen Taschen und entnimmt eines. Dies macht er so lange bis<br />
er eine Schachtel zieht die leer ist. Wieviele Streichhölzer verbleiben im Durchschnitt noch<br />
in der nichtleeren Schachtel?<br />
Wir übertragen das Problem auf eine Irrfahrt in der Ebene. Dabei starten wir die Irrfahrt<br />
im Punkt (0, 0) und laufen mit Wahrscheinlichkeit 1 2<br />
nach rechts bzw. nach oben. Die Irrfahrt<br />
endet falls die Geraden x = n + 1 bzw. y = n + 1 erreicht werden (die Irrfahrt endet<br />
falls n + 1-mal eine der beiden Streichholzschachteln gezogen wird), siehe <strong>für</strong> eine Visualisierung<br />
der Irrfahrt mit inneren Punkten und Schranken Abbildung 3.3. Wir bezeichnen<br />
mit R die Anzahl an verbleibenden Streichhölzern in der nichtleeren Schachtel und mit N<br />
die Anzahl der Ziehungen bis eine der beiden Schachteln leer ist. Es gibt einen funktionalen<br />
Zusammenhang zwischen den beiden Zufallsvariablen R und N, da die Anzahl der<br />
benötigten Ziehungen gegeben ist durch n + 1 Ziehungen der am Ende leeren Schachtel<br />
und n − R Ziehungen der nichtleeren Schachtel. Es gilt also<br />
N = 2n + 1 − R.<br />
Um E(R) zu berechnen brauchen wir also E(N). Wir versuchen die Wahrscheinlichkeitsverteilung<br />
von N zu bestimmen. Dazu betrachten wir das Ereignis {N = k} <strong>für</strong><br />
k = n + 1, . . . , 2n + 1. Weiter bezeichnen wir mit p k := P (N = k). Falls also N = k gilt,<br />
so muss gelten<br />
1. n der ersten k − 1 Ziehungen fällt auf die linke Streichholzschachtel und auch die<br />
k-te Ziehung.<br />
2. n der ersten k − 1 Ziehungen fällt auf die rechte Streichholzschachtel und auch die<br />
k-te Ziehung.<br />
23
y<br />
✻<br />
n + 1<br />
1<br />
✻ ✲ ✲ ✻ ✲ ✲<br />
B<br />
✛<br />
−1<br />
0<br />
✲<br />
1 n + 1<br />
✲<br />
x<br />
−1<br />
Abbildung 3.3: Irrfahrt im Zahlengitter S mit eingezeichneter Schranke B<br />
Wegen<br />
(<br />
der Symmetrie dieser beiden Ereignisse sind sie gleichwahrscheinlich. Nun gibt es<br />
k−1<br />
)<br />
n Möglichkeiten (vgl. Abschnitt 2.1.2) in den ersten k − 1 Ziehungen n-mal die linke<br />
(rechte) Streichholzschachtel zu ziehen. Also ist die Wahrscheinlichkeit p k gegeben durch<br />
( ) ( ) k − 1 1 k−1 ( ) ( )<br />
1 k − 1 1 k−1<br />
p k = P (N = k) = 2<br />
n 2 2 = .<br />
n 2<br />
Für k = n + 1, . . . , 2n gilt <strong>für</strong> den Quotienten<br />
p k<br />
p k+1<br />
=<br />
( k−1<br />
n<br />
( k<br />
n<br />
) ( 1 k−1<br />
2)<br />
) ( 1<br />
) k<br />
=<br />
2<br />
2(k − n)<br />
k<br />
(3.1)<br />
und insbesondere gilt<br />
( ) 1 n ( ) ( 2n 1 2n<br />
p n+1 = und p 2n+1 =<br />
2<br />
n 2)<br />
Wir nutzen die Formel (3.1) aus, um den Erwartungswert<br />
E(N) = (n + 1)p n+1 + (n + 2)p n+2 + · · · + (2n)p 2n + (2n + 1)p 2n+1<br />
zu bestimmen. Zunächst schreiben wir (3.1) um zu<br />
2(k + 1)p k+1 = kp k + 2(n + 1)p k+1 .<br />
24
Summieren wir beiderseits über k = n + 1, n + 2, . . . , 2n auf, so erhalten<br />
2E(N) − 2(n + 1)p n+1 = E(N) − (2n + 1)p 2n+1 + 2(n + 1)(1 − p n+1 ).<br />
Auflösen nach E(N) liefert<br />
( ) ( ) 2n 1 2n<br />
E(N) = 2(n + 1) − (2n + 1)<br />
.<br />
n 2<br />
Wegen E(R) = 2n + 1 − E(N) ist also die gesuchte durchschnittliche Anzahl an in einer<br />
Schachtel verbleibenden Streichhölzern gegeben durch<br />
( ) ( ) 2n 1 2n<br />
E(R) = (2n + 1)<br />
− 1.<br />
n 2<br />
Falls wir also mit n = 50 Streichhölzern in einer Schachtel starten, so gilt<br />
E(R) ≈ 7.0385.<br />
Also werden im Mittel ungefähr 7 Streichhölzer in einer der beiden Schachteln übrig bleiben.<br />
Einen Link zu einer Simulation des Banach’schen Streichholzproblems findet sich auf<br />
der Homepage des Schnupperkurses.<br />
3.6 Bernoulli und Tennis<br />
Jakob Bernoulli (geb. 1654, gest. 1705) beschreibt in Letter to a Friend on the Sets in<br />
Court Tennis mit Hilfe von Irrfahrten die Gewinnwahrscheinlichkeit eines Spielers <strong>für</strong><br />
ein Spiel im Tennis in Abhängigkeit seiner Spielstärke in Relation zur Spielstärke seines<br />
Gegners. Betrachten wir ein Spiel im Tennis mit den üblichen Regeln. Anstatt der normalen<br />
Zählweise 0, 15, 30, 40, Spiel, notieren wir Punkte 0, 1, 2, . . .. Das Spiel endet also bei den<br />
Spielständen 4 − 0, 4 − 1, 4 − 2, 5 − 3, 6 − 4, . . . oder 0 − 4, 1 − 4, . . .. Wir betrachten das<br />
folgende Modell (siehe Abbildung 3.4): Die schwarzen Punkte gehören zur Menge der<br />
möglichen Spielstände S und die eingezeichneten Schranken B. Wir nehmen im Folgenden<br />
an, dass Spieler 1 mit Wahrscheinlichkeit p und Spieler 2 mit Wahrscheinlichkeit q = 1 − p<br />
einen Punkt macht und der Quotient p q<br />
= m ∈ N eine natürliche Zahl darstellt. Ein Spiel<br />
ist also eine Irrfahrt, die im Punkt (0, 0) startet, mit Wahrscheinlichkeit p einen Schritt<br />
nach rechts und mit Wahrscheinlichkeit q einen Schritt nach oben läuft. Sie endet, falls<br />
sie die Schranke B erreicht. Gesucht ist die Wahrscheinlichkeit P (i, j), dass Spieler 1 beim<br />
Spielstand (i, j) ∈ N 2 0 das Spiel <strong>für</strong> sich entscheidet, also gewinnt.<br />
Wir stellen die Lösung zu diesem Problem von Bernoulli von vor über 300 Jahren dar:<br />
Wir betrachten die Beziehung<br />
P (i, j) = pP (i + 1, j) + qP (i, j + 1).<br />
Nach zweimaligem Anwenden dieser Beziehung und einsetzen des Punktes (3, 3) erhalten<br />
wir<br />
P (3, 3) = p 2 P (5, 3) + 2pqP (4, 4) + q 2 P (3, 5).<br />
25
y<br />
✻<br />
B<br />
4<br />
3<br />
2<br />
B<br />
1<br />
✛<br />
−1<br />
0<br />
1 2 3 4<br />
✲<br />
x<br />
−1<br />
Abbildung 3.4: Zahlengitter S mit eingezeichneten Schranken B<br />
Wir wissen, dass Spieler 1 beim Stand von (5, 3) gewonnen hat, also P (5, 3) = 1 gilt,<br />
und er beim Stand von (3, 5) verloren hat, also P (3, 5) = 0 ist. Weiter gilt offensichtlich<br />
P (4, 4) = P (3, 3), da dann wieder Gleichstand ist und beide Spieler noch 2 Punkte in<br />
Folge benötigen um zu gewinnen. Daraus erhalten wir<br />
also<br />
P (3, 3) =<br />
Nun können wir einfach mit P (2, 4) = 0<br />
P (3, 3) = p 2 1 + 2pqP (3, 3)<br />
p2<br />
1 − 2pq = p2<br />
p 2 + q 2 =<br />
m2<br />
m 2 + 1 .<br />
und mit P (4, 2) = 1<br />
P (2, 3) = pP (3, 3) + qP (2, 4) =<br />
p3<br />
p 2 + q 2<br />
P (3, 2) = pP (4, 2) + qP (3, 3) = p +<br />
qp2<br />
p 2 + q 2 .<br />
Führt man dies nach gleichem Schema fort, so erhält man in Abhängigkeit von m die<br />
Ausgangswahrscheinlichkeit <strong>für</strong> den Gewinn eines Punktes<br />
P (0, 0) =<br />
m 7 + 5m 6 + 11m 5 + 15m 4<br />
m 7 + 5m 6 + 11m 5 + 15m 4 + 15m 3 + 11m 2 + 5m + 1 .<br />
Für einige konkrete Werte von m ∈ N ergibt die Auswertung der angegebenen Formel die<br />
folgende Tabelle:<br />
26
m 1 2 3 4<br />
P (0, 0)<br />
1<br />
2<br />
208<br />
243<br />
243<br />
256<br />
51968<br />
53125<br />
Man kann nun leicht alle Werte P (i, j) <strong>für</strong> (i, j) ∈ S angeben. Als Übung kann man zeigen,<br />
dass falls der Spieler 1 doppelt so stark ist wie sein Gegner, also insbesondere m = 2 gilt,<br />
Spieler 1 dem Gegner zwei Punkte Vorsprung geben kann und das Spiel ist annähernd<br />
fair. In diesem Fall gilt P (0, 2) ≈ 0.5136.<br />
3.7 Abschließende Bemerkungen<br />
Für diesen Schnupperkurs wurden die Bücher von Doyle und Snell [2], von Blom, Holst<br />
und Sandell [1] und von Feller [3] verwendet. Die Grundlagen entstammen dem Lehrbuch<br />
von Herrn Henze [4], welches eine gute Einführung in die Stochastik liefert und anhand<br />
dessen die Vorlesung Einführung in Stochastik (Stochastik 1) im Bachelor aufgebaut wird.<br />
27
Literaturverzeichnis<br />
[1] Holst L. Blom, G. and D. Sandell. Problems and Snapshots from the World of Probability.<br />
Springer, 1994.<br />
[2] P. G. Doyle and J. L. Snell. Random Walks and Electric Networks. The Mathematical<br />
Association of America, 1984.<br />
[3] W. Feller. An Introduction to Probability - Theory and Applications, Volume I. Wiley,<br />
2te edition, 1960.<br />
[4] N. Henze. Stochastik <strong>für</strong> Einsteiger - Eine Einführung in die faszinierende Welt des<br />
Zufalls. Vieweg+Teubner, 8te edition, 2010.<br />
28