13.07.2015 Aufrufe

Peter Sendfeld: Riffle Shuffle und Cut-Off Effekt. Münster, März 2005.

Peter Sendfeld: Riffle Shuffle und Cut-Off Effekt. Münster, März 2005.

Peter Sendfeld: Riffle Shuffle und Cut-Off Effekt. Münster, März 2005.

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Westfälische Wilhelms-Universität <strong>Münster</strong>Institut für Mathematische Statistik<strong>Riffle</strong> <strong>Shuffle</strong> <strong>und</strong> <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>Diplomarbeitvorgelegt vonWalter <strong>Peter</strong> <strong>Sendfeld</strong>Thema gestellt vonProfessor Dr. G. Alsmeyer15. <strong>März</strong> 2005


InhaltsverzeichnisEinleitungv1 Random Walks auf Gruppen 11.1 Random Walks auf endlichen Gruppen . . . . . . . . . . . . . . . . 11.2 Die Gruppe S n der Permutationen . . . . . . . . . . . . . . . . . . . 61.3 Beschreibung eines Mischvorgangs . . . . . . . . . . . . . . . . . . . 82 Der <strong>Riffle</strong> <strong>Shuffle</strong> 132.1 Modelle für den <strong>Riffle</strong> <strong>Shuffle</strong> . . . . . . . . . . . . . . . . . . . . . 132.2 Aufsteigende Sequenzen . . . . . . . . . . . . . . . . . . . . . . . . 322.3 Eulersche Zahlen <strong>und</strong> aufsteigende Sequenzen . . . . . . . . . . . . 422.4 Konvergenz gegen die Gleichverteilung: Der <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> . . . . . 492.5 Obere <strong>und</strong> untere Schranke für die Totalvariation . . . . . . . . . . 532.6 Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong> <strong>Shuffle</strong> . . . . . . . . . . 58Symbolverzeichnis 83Literaturverzeichnis 85


EinleitungDer <strong>Riffle</strong> 1 <strong>Shuffle</strong> 2 oder Dovetail 3 <strong>Shuffle</strong> ist eine weit verbreitete Methode, einenKartenstapel zu mischen. Dabei werden die Karten nach einer Spielr<strong>und</strong>e in zweiungefähr gleich große Päckchen geteilt. Von diesen wird jeweils eines in die linke<strong>und</strong> eines in die rechte Hand genommen. Dann werden eine oder mehrere Kartenabwechselnd aus beiden Händen fallengelassen <strong>und</strong> die Karten so sukzessiveineinandergeblättert. Durch wiederholtes Mischen soll die Reihenfolge der Kartenso verändert werden, dass keine der am Spiel beteiligten Personen diese vorhersagenkann. Wie oft der Kartenstapel gemischt werden muss, um eine ausreichendeZufälligkeit der Kartenreihenfolge zu erreichen, ist die zentrale Frage. Am09.01.1990 war in der New York Times [13] die Antwort in Form der folgendenSchlagzeile zu lesen:In card shuffling, 7 is winning number“.”Präziser formuliert, sind für einen Kartenstapel mit 52 Karten sieben Mischvorgängenötig, um den Kartenstapel hinreichend zu mischen. Kartenspiele mit52 Karten sind beispielsweise Blackjack, Bridge <strong>und</strong> Schafkopf. Dem Zeitungsartikellagen die Forschungsergebnisse von David Bayer <strong>und</strong> Persi Diaconis zu Gr<strong>und</strong>e.In ihrem im Jahre 1992 veröffentlichen Artikel ”Trailing the Dovetail <strong>Shuffle</strong> to itslair“ (siehe [6]) stellten sie verschiedene wahrscheinlichkeitstheoretische Modellefür den <strong>Riffle</strong> <strong>Shuffle</strong> vor. Sie wiesen nach, dass für einen Kartenstapel mit n Karten⌊ 3 2 log 2 n⌋ − 2 Mischvorgänge in einem gewissen Sinne ausreichen. Darüber hinaus1 riffle (engl.): durchblättern2 shuffle (engl.): Mischen, Mischvorgang3 dovetail (engl.): Schwalbenschwanz


viEinleitungerlaubten ihre Ergebnisse eine weitere erstaunliche Aussage: Einerseits sind wenigerals ⌊ 3 2 log 2 n⌋ − 2 Mischvorgänge nicht ausreichend <strong>und</strong> andererseits mehr als⌊ 3 2 log 2 n⌋−2 Mischvorgänge nicht notwendig, um einen Kartenstapel mit n Kartenausreichend zu mischen. Dieses Phänomen wird als <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> bezeichnet.Das Ziel dieser Arbeit ist die wahrscheinlichkeitstheoretische Erfassung <strong>und</strong>Präzisierung des <strong>Riffle</strong> <strong>Shuffle</strong>s <strong>und</strong> <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s. Wir orientieren uns dabeimaßgeblich an den Ergebnissen von Bayer <strong>und</strong> Diaconis [6].Das sukzessive Mischen von Karten wird als stochastischer Prozess X =(X m ) m≥0 auf einem Wahrscheinlichkeitsraum (Ω, A, P ) interpretiert. Dabei gibtdie Zufallsgröße X m für m ≥ 0 die Kartenreihenfolge nach m sukzessiven Mischvorgängenin geeigneter Weise an. Wir werden zeigen, dass der konstruierte ProzessX ein Random Walk <strong>und</strong> zugleich eine zeitlich homogene, irreduzible <strong>und</strong> aperiodischeMarkov-Kette ist. Der Zustandsraum des Prozesses X, der aus allen möglichenKartenreihenfolgen von n Karten besteht, ist dabei die Gruppe der PermutationenS n . Die eindeutig bestimmte stationäre Verteilung ist die Gleichverteilung U Snauf S n . Ein m-mal gemischter Kartenstapel wird als hinreichend gemischt angesehen,wenn alle Kartenreihenfolgen annähernd gleichwahrscheinlich sind, das heißtdie Totalvariation ‖P Xm − U Sn ‖ von P Xm <strong>und</strong> der Gleichverteilung U Sn auf S nhinreichend klein ist. Der Ergodensatz rechtfertigt dieses Vorgehen. Für n = 52<strong>und</strong> m = 1, . . . , 20 führt eine Berechnung der Totalvariation zu der Darstellung inAbbildung 1, die den <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> veranschaulicht.Mit Blick auf Abbildung 1 ist der <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> ein ”Phasen-Übergang“: Vomersten bis zum fünften Mischvorgang befindet sich die Totalvariation nah bei ihremmaximalen Wert von 1. Während der nächsten vier Mischvorgänge fällt sie jedochrapide auf einen Wert nahe 0.Der Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s erweist sich im Allgemeinen als äußertschwierig. Bislang sind zwar zahlreiche Beispiele für Markov-Ketten mit <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> bekannt (siehe hierzu [2], [10], [20], [21] <strong>und</strong> [24]), jedoch ist keine allgemeineTheorie verfügbar.In Kapitel 1 werden wir zunächst vom Zustandsraum S n abstrahieren <strong>und</strong>Random Walks auf beliebigen endlichen Gruppen vorstellen, die zugleich Markov-


Einleitungvii✻0.751 • • • •••0.50.25•••• • • • • • • • • • • ✲0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20Abbildung 1: m ↦−→ ‖P Xm − U Sn ‖ für n = 52 <strong>und</strong> m = 1, . . . , 20.Ketten bilden. Ferner stellen wir ein wahrscheinlichkeitstheoretisches Modell fürdas sukzessive Kartenmischen vor, das von verschiedenen Autoren zur Modellierungvon Mischvorgängen verwendet wird (siehe hierzu [1], [2], [6], [9], [14], [20]<strong>und</strong> [21]).Kapitel 2 widmet sich ausschließlich dem <strong>Riffle</strong> <strong>Shuffle</strong> <strong>und</strong> dem Nachweis des<strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong> <strong>Shuffle</strong> in Form des folgenden Theorems (siehe Theorem2.6.9 in Abschnitt 2.6).Theorem. Wird ein Stapel mit n Karten m n = (⌊ 3 2 log 2 n⌋ + j)-mal, j ∈ Z,j ≥ −⌊ 3 log 2 2 n⌋, nach dem <strong>Riffle</strong> <strong>Shuffle</strong> gemischt, so gilt)‖P Xmn − U Sn ‖ −→ 1 − 2Φ(− 2−jn→∞ 4 √ ,3wobei Φ die Verteilungsfunktion der Standardnormalverteilung sei.In Kapitel 2 werden wir zunächst den <strong>Riffle</strong> <strong>Shuffle</strong> auf drei verschiedeneArten wahrscheinlichkeitstheoretisch modellieren. Diese Modelle führen schließlichzur selben Abbildung durch eine Markov-Kette bzw. einen Random WalkX = (X m ) m≥0 . Sie ermöglichen nicht nur die explizite Angabe der VerteilungenP Xm , m ≥ 0, sondern auch die der m-Schritt-Übergangswahrscheinlichkeiten der


viiiEinleitungMarkov-Kette X für m ≥ 1. Hierbei <strong>und</strong> im weiteren Vorgehen erweisen sich dieEulerschen Zahlen <strong>und</strong> ihre Verbindungen zur Kombinatorik <strong>und</strong> Wahrscheinlichkeitstheorieals zentrale Hilfsmittel (siehe hierzu [7], [8], [23] <strong>und</strong> [26]). Abschließendwerden wir den <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> mathematisch präzisieren <strong>und</strong> die asymptotischeAussage des obigen Theorems herleiten.Ich bedanke mich bei Herrn Professor Dr. G. Alsmeyer für die Vergabe dieserDiplomarbeit <strong>und</strong> die umfassende Betreuung. Er hat mein Interesse für das Themageweckt <strong>und</strong> mir mit wertvollen Hinweisen über manche Hürde hinweggeholfen.


Kapitel 1Random Walks auf GruppenDieses Kapitel dient der Einführung in die Theorie der Random Walks auf Gruppen,die für die wahrscheinlichkeitstheoretische Modellierung von Mischvorgängennotwendig ist. Es werden ausschließlich endliche Gruppen betrachtet. Die Ergebnisseentstammen in weiten Teilen, sofern nicht anders angegeben, [1], [9], [20]<strong>und</strong> [21]. Begriffe aus der Gruppentheorie entnehmen wir [15]. Für die Theorie derMarkov-Ketten wird auf [4] verwiesen.1.1 Random Walks auf endlichen GruppenSei G eine endliche Gruppe mit Verknüpfung ”◦“ <strong>und</strong> neutralem Element id.Die Ordnung von G ist die Anzahl |G| der Elemente von G. Sei T ⊂ G <strong>und</strong>T − def= {x −1 | x ∈ T }. T heißt Erzeuger von G, fallsG = ⋃{x 1 ◦ . . . ◦ x n | x i ∈ T ∪ T − , i = 1, . . . , n} def= 〈T 〉.n∈N 0◦(n) defFür n ∈ N definieren wir T = {x 1 ◦ . . . ◦ x n | x i ∈ T , i = 1, . . . , n}. Für eineendliche Gruppe G ist G = 〈T 〉 wegen x} ◦ .{{ . . ◦ x}= id für alle x ∈ G äquivalent zu|G|-malG = ⋃ n∈NT ◦(n) .


2 Kapitel 1 Random Walks auf GruppenGegeben eine Teilmenge T ⊂ G ist 〈T 〉 eine Untergruppe von G <strong>und</strong> zwar diekleinste Untergruppe die T umfasst.Für x, y ∈ G schreiben wir auch kurz xy in der multiplikativen Schreibweiseanstatt x ◦ y. Das neutrale Element id ∈ G nennen wir auch Einselement. EineUntergruppe N ⊂ G heißt Normalteiler von G, wenn xN = Nx für alle x ∈ G gilt.Die Mengen xN <strong>und</strong> Nx heißen Links- bzw. Rechtsnebenklassen von N bezüglichx. Sei H eine weitere Gruppe. Eine Abbildung ϕ : G −→ H heißt Gruppenhomomorphismus,falls ϕ(xy) = ϕ(x)ϕ(y) für alle x, y ∈ G gilt.Ist ein Wahrscheinlichkeitsmaß Q auf (G, P(G)) gegeben, so definieren wir denTräger von Q alssupp(Q) def= {x ∈ G | Q({x}) > 0}<strong>und</strong> einen stochastischen Kern K Q : G × P(G) −→ [0, 1] durchK Q (x, {y}) def= Q({x −1 y}) für x, y ∈ G.Für x ∈ G sei δ x die Dirac-Verteilung in x auf (G, P(G)).1.1.1 Definition. Seien λ <strong>und</strong> Q Wahrscheinlichkeitsmaße auf (G, P(G)) <strong>und</strong>(Y m ) m≥0 eine Folge G-wertiger, stochastisch unabhängiger Zufallsvariablen auf einemgeeigneten Wahrscheinlichkeitsraum (Ω, A, P ) mit P Y 0= λ <strong>und</strong> P Ym = Qdeffür alle m ≥ 1. Die Folge (X m ) m≥0 mit X m = Y 0 ◦ . . . ◦ Y m für m ≥ 0 heißt(Q, λ)-Random Walk auf G oder, falls λ = δ id , kurz Q-Random Walk auf G.Dann ist X = (X m ) m≥0 eine zeitlich homogene endliche Markov-Kette mitZustandsraum G, Anfangsverteilung λ <strong>und</strong> Übergangskern K Q . Sind zwei WahrscheinlichkeitsmaßeQ 1 <strong>und</strong> Q 2 auf (G, P(G)) gegeben, so definieren wir die FaltungQ 1 ∗ Q 2 von Q 1 <strong>und</strong> Q 2 durchQ 1 ∗ Q 2 ({x}) def= ∑ y∈GQ 1 ({y})Q 2 ({y −1 x}), x ∈ G. (1.1.1)1.1.2 Bemerkung. Sei X = (X m ) m≥0 ein (Q, λ)-Random Walk auf G. Dann giltfür alle m ≥ 1P Xm = λ ∗ Q ∗ . . . ∗ Q = λ ∗ Q} {{ }∗(m) , (1.1.2)m-mal


1.1 Random Walks auf endlichen Gruppen 3∗(1) def∗(k) defwobei Q = Q <strong>und</strong> Q = Q ∗ Q ∗(k−1) für k ≥ 2.Im Fall λ = δ id gilt für alle m ≥ 1P Xm = Q ∗(m) . (1.1.3)Beweis. Sei x ∈ G beliebig. Dann gilt wegen der stochastischen Unabhängigkeitder Y i , i ≥ 0,P (X 1 = x) = P (Y 0 Y 1 = x)= P ( ⋃{Y 0 = y, Y 1 = y −1 x} )y∈G= ∑ y∈GP (Y 0 = y)P (Y 1 = y −1 x)= ∑ y∈Gλ({y})Q({y −1 x}) = λ ∗ Q({x}).(1.1.2) <strong>und</strong> (1.1.3) folgen dann per Induktion aus obiger Gleichung unter Beachtungvon δ id ∗ Q = Q.m ≥ 1Aus der Definition des Übergangskerns K Q <strong>und</strong> (1.1.2) erhalten wir für alleP Xm = λ(K Q ◦ . . . ◦ K} {{ Q}m-mal) def= λK (m)wobei λK Q (·) def= ∫ G K Q(x, ·)λ(dx) <strong>und</strong> ”◦“ hier die übliche Hintereinanderschaltungvon Kernen bezeichne. Ferner gilt für alle k, m ≥ 0P X m+k|X m=· = K (k)QP Xm -f.s.,wobei K (0) defQ(x, ·) = δ x (·). Die k-Schritt-Übergangswahrscheinlichkeiten seien fürk ∈ N definiert durchp (k)x,ydefDann gilt für alle k ∈ N <strong>und</strong> x, y ∈ G= K (k) (x, {y}), x, y ∈ G.p (k)Qx,y = K (k) (x, {y})Q= Q ∗(k) ({x −1 y})Q ,


4 Kapitel 1 Random Walks auf Gruppen= Q ∗(k) ({id x −1 y})= K (k)Q (id, {x−1 y})= p (k)id,x −1 ydef= p (k)x −1 y . (1.1.4)Der nächste Satz stammt von Woess [25] <strong>und</strong> charakterisiert Irreduzibilität <strong>und</strong>Aperiodizität (siehe Definition 7.6. <strong>und</strong> 7.9. in [4]) der Markov-Kette (X m ) m≥0 .1.1.3 Satz. Sei G eine endliche Gruppe, Q ein Wahrscheinlichkeitsmaß auf(G, P(G)) <strong>und</strong> X = (X m ) m≥0 ein (Q, λ)-Random Walk. Dann gilt(a) X ist irreduzibel genau dann, wenn supp(Q) ein Erzeuger von G ist.(b) Sei X irreduzibel. Genau dann ist X aperiodisch, wenn supp(Q) keine Teilmengeeiner Nebenklasse eines beliebigen nicht-trivialen Normalteilers von Gist.Beweis. zu (a): ⇒“ Sei X irreduzibel <strong>und</strong> x ∈ G. Dann existiert ein k ∈ N, so”dass p (k)x > 0. Wegenp (k)x= Q ∗(k) ({x})= ∑ z 1 ∈G∑=Q({z 1 })Q ∗(k−1) ({z −11 x})z 1 ,...,z k−1 ∈GQ({z 1 }) · . . . · Q({z k−1 })Q({z −1k−1 · . . . · z−1 1 x}) > 0existieren z 1 , . . . , z k−1 ∈ G mit z 1 , . . . , z k−1 , z −1k−1 ·. . .·z−1 1 x ∈ supp(Q). Daraus folgtx ∈ 〈supp(Q)〉 <strong>und</strong> somit G ⊂ 〈supp(Q)〉.⇐“ Nach (1.1.4) reicht es zu zeigen, dass für jedes x ∈ G ein k ∈ N existiert”mit p (k)x > 0. Sei x ∈ G <strong>und</strong> y ∈ supp(Q) beliebig. Wegen 〈supp(Q)〉 = G existiertein k ∈ N <strong>und</strong> y 1 , . . . , y k−1 ∈ supp(Q) mit y 1 · . . . · y k−1 = xy −1 . Dann gilty = y −1k−1 · . . . · y−1 1 x <strong>und</strong>p (k)x =∑z 1 ,...,z k−1 ∈GQ({z 1 }) · . . . · Q({z k−1 })Q({z −1k−1 · . . . · z−1 1 x})≥ Q({y 1 }) · . . . · Q({y k−1 })Q({y −1k−1 · . . . · y−1 1 x})k−1∏= Q({y}) Q({y i }) > 0.i=1


1.1 Random Walks auf endlichen Gruppen 5zu (b): Für den Beweis verweisen wir auf [25].Das nächste Lemma zeigt den Zusammenhang zwischen dem Träger der m-fachen Faltung von Q <strong>und</strong> der vom Träger von Q erzeugten Untergruppe.1.1.4 Lemma. Sei G eine endliche Gruppe <strong>und</strong> Q ein Wahrscheinlichkeitsmaßauf (G, P(G)). Dann gilt für alle m ≥ 0supp ( Q ∗(m)) = (supp(Q)) ◦(m) (1.1.5)<strong>und</strong> somit〈supp(Q)〉 = ⋃ (supp(Q)) ◦(m) = ⋃ supp ( Q ∗(m)) . (1.1.6)m≥0m≥0Beweis. (1.1.6) folgt direkt aus (1.1.5), wir zeigen daher (1.1.5). Da für m = 0, 1nichts zu zeigen ist, sei m ≥ 2.” ⊂“ Sei x ∈ supp ( Q ∗(m)) beliebig. Wegen∑Q ∗(m) ({x}) = Q({z 1 }) · . . . · Q({z m−1 })Q({zm−1 −1 · . . . · z1 −1 x}) > 0z 1 ,...,z m−1 ∈Gexistieren z 1 , . . . , z m−1 ∈ G mit z 1 , . . . , z m−1 , z −1m−1 · . . . · z −11 x ∈ supp(Q). Vermöge(supp(Q)) ◦(m) = {y 1 · . . . · y m | y 1 , . . . , y m ∈ supp(Q)} <strong>und</strong>erhalten wir x ∈ (supp(Q)) ◦(m) .z 1 · . . . · z m−1 (z −1m−1 · . . . · z −11 x) = x” ⊃“ Sei x ∈ (supp(Q))◦(m) beliebig <strong>und</strong> y 1 , . . . , y m ∈ supp(Q) mitx = y 1 · . . . · y m . Dann gilt ym−1 · . . . · y1 −1 x = y m <strong>und</strong> somit∑Q ∗(m) ({x}) = Q({z 1 }) · . . . · Q({z m−1 })Q({zm−1 −1 · . . . · z1 −1 x})z 1 ,...,z m−1 ∈G≥ Q({y 1 }) · . . . · Q({y m−1 })Q({ym−1 −1 · . . . · y1 −1 x})m∏= Q({y i }) > 0.i=1Dies zeigt x ∈ supp(Q ∗(m) ).


6 Kapitel 1 Random Walks auf GruppenEine stationäre Verteilung der Markov-Kette X ist die Gleichverteilungdef ∑U G = 1|G| x∈G δ x auf (G, P(G)), denn für alle x ∈ G giltU G ∗ Q({x}) = ∑ y∈GU G ({y})Q({y −1 x}) = 1|G| .Zusammen mit der Endlichkeit von G <strong>und</strong> Korollar 10.7. in [4] erhalten wir unmittelbarden folgenden Satz.1.1.5 Satz. Sei G eine endliche Gruppe, Q ein Wahrscheinlichkeitsmaß auf(G, P(G)), dessen Träger supp(Q) die Gruppe G erzeugt, <strong>und</strong> X = (X m ) m≥0 eineMarkov-Kette mit Übergangskern K Q <strong>und</strong> beliebiger Anfangsverteilung. Dann istX positiv rekurrent <strong>und</strong> besitzt die eindeutig bestimmte stationäre Verteilung U G .Die Totalvariation oder der Variationsabstand zweier Maße Q 1 <strong>und</strong> Q 2 auf(G, P(G)) ist definiert als‖Q 1 − Q 2 ‖ def= sup |Q 1 (A) − Q 2 (A)| = 1A⊂G2∑∣ Q1 ({x}) − Q 2 ({x}) ∣ .Ist ein (Q, λ)-Random Walk X auf G irreduzibel <strong>und</strong> aperiodisch, so konvergiertX nach Satz 1.1.5 <strong>und</strong> dem Ergodensatz (siehe Satz 11.1. in [4]) für jedeAnfangsverteilung λ in Totalvariation gegen die Gleichverteilung U G auf G, dasheißtx∈Glim ‖P Xm − U G ‖ = lim ‖λ ∗m→∞ m→∞ Q∗(m) − U G ‖ = 0.1.2 Die Gruppe S n der PermutationenIn diesem Abschnitt sei n ∈ N <strong>und</strong> S n{1, . . . , n}, das heißtdie Gruppe der Permutationen vonS n = {π : {1, . . . , n} → {1, . . . , n} | π bijektiv}.Eine Permutation π ∈ S n wird gewöhnlich in der Form()1 2 · · · nπ =π(1) π(2) · · · π(n)


1.2 Die Gruppe S n der Permutationen 7dargestellt. Wir kürzen dies ab, indem wir nur die untere Zeile übernehmen <strong>und</strong>diese in eckige Klammern setzen: π = [π(1), . . . , π(n)]. Wir entnehmen die folgendenDefinitionen <strong>und</strong> Aussagen über die Struktur von S n aus [15].1.2.1 Definition. Eine Permutation π heißt r-Zyklus, wenn es paarweise verschiedeneZahlen i 1 , . . . , i r ∈ N ≤n = {1, . . . , n} gibt, r ≥ 2,defmit(i) π(i j ) = i j+1 , j = 1, . . . , r − 1, π(i r ) = i 1 <strong>und</strong>(ii) π(i) = i für i ≠ i 1 , . . . , i r .In dieser Situation verwenden wir für π die Schreibweise π = [i 1 , . . . , i r ] Z .1.2.2 Definition. Ein 2-Zyklus π = [i, j] Z ∈ S n heißt Transposition.Eine Transposition π = [i, j] Z vertauscht also gerade die Zahlen i <strong>und</strong> j miteinander<strong>und</strong> lässt alle übrigen Zahlen unverändert. Wir bezeichnen die Menge allerTranspositionen in S n mit T n , das heißtT ndef= { [i, j] Z | i, j ∈ N ≤n , i ≠ j } .Die Menge der Transpositionen erzeugt S n . Es gilt also〈T n 〉 = ⋃ m≥0T ◦(m)n = S n . (1.2.1)Nach (1.2.1) ist jede Permutation das endliche Produkt von Transpositionen. Wirnennen eine Permutation gerade bzw. ungerade, falls sie sich als das Produkt einergeraden bzw. ungeraden Anzahl von Transpositionen darstellen lässt. Eine Permutationkann nicht gerade <strong>und</strong> ungerade zugleich sein. Wir bezeichnen die Mengealler geraden Permutationen mit A n .Die Signumsfunktion sgn : S n −→ {−1, 1}, definiert durchsgn(π) = (−1) s ,falls π = σ 1 · . . . · σ s für σ 1 , . . . , σ s ∈ T n , ist ein Gruppenhomomorphismus. Für dieMenge A n aller geraden Permutationen giltA n = {π ∈ S n | sgn(π) = 1}.


8 Kapitel 1 Random Walks auf GruppenWir erinnern noch einmal an die Definition des Normalteilers: Eine UntergruppeN ⊂ S n heißt Normalteiler von S n , wenn xN = Nx für alle x ∈ S n gilt. PerDefinition sind also {id} <strong>und</strong> S n selbst stets Normalteiler von S n . {id} <strong>und</strong> S nwerden als triviale Normalteiler von S n bezeichnet. Die folgenden Ausführungengeben Auskunft über die weitere Normalteilerstruktur von S n für n ∈ N.1.2.3 Satz. Für n ≥ 5 ist A n der einzige nicht-triviale Normalteiler von S n .Die Kleinsche Vierergruppe V 4 ist die Menge aller Doppeltranspositionen in S 4 ,das heißtV 4 = {id, [1, 2] Z [3, 4] Z , [1, 3] Z [2, 4] Z , [1, 4] Z [2, 3] Z }.Die Kleinsche Vierergruppe ist ein nicht-trivialer Normalteiler von S 4 . Die Normalteilervon S n sind für n ∈ N in der folgenden Übersicht aufgeführt:n = 1 : {id} = S 1 ,n = 2 : {id} A 2 = S 2 ,n = 3 : {id} A 3 S 3 ,n = 4 : {id} V 4 A 4 S 4 ,n ≥ 5 : {id} A n S n .1.3 Beschreibung eines MischvorgangsIn diesem Abschnitt führen wir den Begriff der Mischmethode <strong>und</strong> ein wahrscheinlichkeitstheoretischesModell für das sukzessive Mischen von Karten ein.Wir beginnen unsere Betrachtungen mit einem Stapel von n Karten, n ∈ N.Die Karten seien von 1 bis n nummeriert <strong>und</strong> nach aufsteigenden Werten von linksnach rechts vor uns ausgelegt.Wir identifizieren im Folgenden die Reihenfolge der Karten mit einem n-Tupelx = (x 1 , . . . , x n ) ∈ N n ≤n,≠ , wobeiN n ≤n,≠def= {(y 1 , . . . , y n ) ∈ {1, . . . , n} n | y i ≠ y j für i ≠ j}.


1.3 Beschreibung eines Mischvorgangs 9Dabei bedeutet x i = j, dass sich Karte j an i-ter Stelle befindet. Ein ungemischterStapel wird also durch das Tupel (1, . . . , n) beschrieben. Führen wir nun einenMischvorgang durch, das heißt, ändern wir die Reihenfolge der Karten, so könnenwir dies durch eine Permutationπ ∈ S n = {σ : {1, . . . , n} → {1, . . . , n} | σ bijektiv}beschreiben. Dabei bedeute π(i) = j, dass die Karte, die sich nach dem Mischvorgangan Position i befindet, vor dem Mischvorgang an Position j lag.Führen wir m ∈ N Mischvorgänge nacheinander durch, gegeben durch diePermutationen π 1 , . . . , π m , so ist dies äquivalent zu einem einzelnen Mischvorganggegeben durch die Permutation π 1 ◦. . .◦π m . Beginnen wir mit einem ungemischtenStapel, so gilt für die Reihenfolge x (k) der Karten nach dem k-ten Mischvorgang:x (k) = ( π 1 ◦ . . . ◦ π k (1), . . . , π 1 ◦ . . . ◦ π k (n) ) , k = 1, . . . , m.Das folgende Beispiel 1.3.1 verdeutlicht, dass die Unterscheidung zwischen denzu den einzelnen Mischvorgängen gehörigen Kartenreihenfolgen <strong>und</strong> Permutationennotwendig ist. Soll ein Kartenstapel m-mal sukzessive gemäß den Permutationenπ 1 , . . . , π m gemischt werden, so führt, wie oben beschrieben, einmaliges Mischengemäß der Permutation π 1 ◦ . . . ◦ π m zu derselben Reihenfolge. Entgegender Intuition ist also π 1 ◦ . . . ◦ π m die richtige“ Permutation <strong>und</strong> nicht etwa”π m ◦ . . . ◦ π 1 . Dies liegt an der von uns gewählten Art, einen Mischvorgang durcheine Permutation zu beschreiben: Eine einzelne Permutation beschreibt nicht dieReihenfolge, in der die Karten nach dem Mischen vor uns liegen, sondern nur derenReihenfolgeänderung <strong>und</strong> zwar unabhängig von den speziellen Kartenwerten. DiePermutation π 1 ◦ . . . ◦ π m beschreibt daher die sukzessiven Reihenfolgeänderungenbeginnend beim letzten Mischvorgang: Für i = 1, . . . , n gibt zunächst π m (i)die Postion an, an der die Karte an Position i vor dem Mischen gemäß π m lag.Soll nun die gesamte Reihenfolgeänderung nach m-maligem Mischen angegebenwerden, so müssen nacheinander π m−1 auf π m , π m−2 auf π m−1 ◦ π m usw. bis hinzu π 1 auf π 2 ◦ . . . ◦ π m angewendet werden. Die Reihenfolgeänderungen müssenalso beginnend beim letzten Mischvorgang bis zum ersten Mischvorgang zurückverfolgtwerden. Daraus resultiert dann die Permutation π 1 ◦ . . . ◦ π m . Auch diesenSachverhalt verdeutlicht das folgende Beispiel.


10 Kapitel 1 Random Walks auf Gruppen1.3.1 Beispiel. Wir beginnen mit einem ungemischten Stapel. Ändert sich die Reihenfolgeder Karten durch einen ersten Mischvorgang von (1, . . . , n) in(n, 1, 2, . . . , n − 1), so ist π 1 = [n, 1, 2, . . . , n − 1] = [1, n, n − 1, . . . , 3, 2] Z diezugehörige Permutation. In einem zweiten Mischvorgang werde die Reihenfolgegemäß der Permutation π 2 = [3, 2, 1, 4, . . . , n] = [1, 3] Z geändert. Die Reihenfolgeder Karten nach dem zweiten Mischvorgang lautetx (2) = ( π 1 ◦ π 2 (1), . . . , π 1 ◦ π 2 (n) ) = (2, 1, n, 3, . . . , n − 1).Für die Reihenfolge der Karten nach dem zweiten Mischvorgang gilt alsox (2) ≠ (π 2 (1), . . . , π 2 (n))<strong>und</strong>x (2) ≠ (π 2 ◦ π 1 (1), . . . , π 2 ◦ π 1 (n)).Die Wahl der Permutation, nach der wir einen Kartenstapel bei einem einzelnenMischvorgang mischen, ist zufallsabhängig:1.3.2 Definition. Eine Mischmethode Q ist eine Wahrscheinlichkeitsverteilung Qauf (S n , P(S n )).Ein wahrscheinlichkeitstheoretisches Modell für das sukzessive Mischen einesKartenstapels nach einer festgelegten Mischmethode Q ist der Q-Random Walkauf S n (siehe Definition 1.1.1): Wollen wir einen Stapel von n Karten m-mal nachder Mischmethode Q mischen, so wählen wir zunächst eine Realisation (π 1 , . . . , π m )der Zufallsvariable (Y 1 , . . . , Y m ). Als Ergebnis des Mischvorgangs erhalten wir dieRealisation π 1 ◦ . . . ◦ π m der Zufallsvariable X m . Wir können dabei sowohl beiVorliegen eines ungemischten, als auch bei Vorliegen eines gemischten Stapels vorBeginn des Mischvorgangs, etwa gemäß der Permutation π ∈ S n , das Dirac-Maßin der Identität δ id als Anfangsverteilung wählen, denn für alle m ∈ N gilt‖δ π ∗ Q ∗(m) − U Sn ‖ = 1 ∑ ∣ ∣∣δπ∗ Q ∗(m) ({σ}) − 1 ∣2n!σ∈S n= 1 ∑ ∣ ∣∣ ∑δ π ({τ})Q ∗(m) ({τ −1 σ}) − 1 ∣2n!σ∈S n τ∈S n= 1 ∑ ∣ ∣∣Q ∗(m) ({π −1 σ}) − 1 ∣2n!σ∈S n


1.3 Beschreibung eines Mischvorgangs 11= 1 ∑ ∣ ∣∣Q ∗(m) ({σ}) − 1 ∣2n!σ∈S n= ‖Q ∗(m) − U Sn ‖= ‖δ id ∗ Q ∗(m) − U Sn ‖.Ferner führt eine etwaige mit der Wahl von δ id als Anfangsverteilung verb<strong>und</strong>eneUmnummerierung der Karten nicht zu einem Informationsverlust, da die zu einemMischvorgang gehörige Permutation nicht die tatsächliche Reihenfolge der Karten,sondern nur deren Reihenfolgeänderung beschreibt.


Kapitel 2Der <strong>Riffle</strong> <strong>Shuffle</strong>In diesem Kapitel stellen wir den <strong>Riffle</strong> <strong>Shuffle</strong> <strong>und</strong> wahrscheinlichkeitstheoretischeModellierungen für die vom <strong>Riffle</strong> <strong>Shuffle</strong> auf S n induzierte Mischmethode vor. MitHilfe dieser Modelle wird es möglich sein, den <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> für den <strong>Riffle</strong> <strong>Shuffle</strong>nachzuweisen. Die Resultate in diesem Kapitel orientieren sich, sofern nicht andersangegeben, an [6].2.1 Modelle für den <strong>Riffle</strong> <strong>Shuffle</strong>Der <strong>Riffle</strong> <strong>Shuffle</strong> ist eine der meist verwendeten Methoden, einen Kartenstapelzu mischen. Dabei wird ein ungemischter Stapel von n Karten ungefähr halbiert,die beiden Hälften werden dann sukzessive ineinandergeblättert 1 . Ein mathematischesModell für den <strong>Riffle</strong> <strong>Shuffle</strong> wurde 1955 von Gilbert <strong>und</strong> Shannon [12] <strong>und</strong>unabhängig 1981 von Reeds [17] vorgestellt: Ein Kartenstapel von n Karten wirdin zwei Päckchen A 1 <strong>und</strong> A 2 geteilt. Dabei sei die Wahrscheinlichkeit, dass A 1 dieersten k Karten enthält, durch B(n, 1/2)({k}) = ( nk)/2 n , k = 0, . . . , n, gegeben.Die beiden Päckchen werden dann so ineinandergeblättert, dass die Wahrscheinlichkeit,dass eine Karte vom ersten bzw. zweiten Päckchen fällt, proportional zurAnzahl der verbliebenen Karten in den Päckchen ist. Das heißt, falls im ersten <strong>und</strong>1”ineinanderblättern“ bedeutet, die beiden Hälften so ineinanderzumischen, dass die Reihenfolgeder Karten in den einzelnen Hälften erhalten bleibt.


14 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>zweiten Päckchen j 1 bzw. j 2 Karten verbleiben, so ist die Wahrscheinlichkeit, dassdie nächste Karte von Päckchen i fällt j i /(j 1 +j 2 ), i = 1, 2. Nach Gilbert, Shannon<strong>und</strong> Reeds wird der <strong>Riffle</strong> <strong>Shuffle</strong> auch GSR-<strong>Shuffle</strong> genannt.Der <strong>Riffle</strong> <strong>Shuffle</strong> lässt sich für a ∈ N ≥2def= {n ∈ N | n ≥ 2} analog zu einema-<strong>Riffle</strong> <strong>Shuffle</strong> erweitern, indem der Kartenstapel in a Päckchen A 1 , . . . , A a geteiltwird. Die Anzahl der Karten in den Päckchen sei dabei multinomialverteilt. Diesbedeutet, dass die Wahrscheinlichkeit, dass Päckchen A 1 die ersten k 1 Karten,Päckchen A 2 die nächsten k 2 Karten usw. enthält, für(k 1 , . . . , k a ) ∈ ∑ andef={(j 1 , . . . , j a ) ∈ {0, . . . , n} a ∣ ∣∣a∑k=1}j k = ndurch( )n 1M(n, 1/a)({(k 1 , . . . , k a )}) =k 1 , . . . , k a a . ngegeben sei. Die a Päckchen werden dann wie folgt ineinandergeblättert: Sind inden einzelnen Päckchen j 1 , . . . , j a Karten verblieben, so fällt die nächste Kartevon Päckchen i mit der Wahrscheinlichkeit j i /(j 1 + . . . + j a ), i = 1, . . . , a. Wirbezeichnen einen a-<strong>Riffle</strong> <strong>Shuffle</strong> von n Karten auch als GSR-(a, n)-<strong>Shuffle</strong>. ImFolgenden stellen wir zwei Modelle vor, die, wie wir in Satz 2.1.7 sehen werden, diegleiche Mischmethode auf S n induzieren wie der GSR-(a, n)-<strong>Shuffle</strong>. Die verbalenBeschreibungen der Modelle sind bei verschiedenen Autoren zu finden, etwa in [1],[2], [6], [9], [14] <strong>und</strong> [16]. Sei im Folgenden a ∈ N ≥2 .1. Maximum-Entropie-Modell: In diesem Modell gehen wir davon aus, dassalle möglichen Arten, einen Stapel in a Päckchen aufeinanderfolgender Karten zuteilen <strong>und</strong> diese dann ineinanderzublättern, gleich wahrscheinlich sind. Leere Päckchensind zugelassen. Jedes nichtleere Päckchen muss aus den Karten k, . . . , k+l fürgeeignetes k ∈ N ≤n <strong>und</strong> l ∈ N 0,n−1def= {0, . . . , n − 1} bestehen. Dieses Modell gibtalso jeder beliebigen Kombination aus Päckcheneinteilung <strong>und</strong> dem anschließendenIneinanderblättern dieselbe Wahrscheinlichkeit <strong>und</strong> maximiert so die Entropieunter allen möglichen Wahrscheinlichkeitsverteilungen auf der Menge aller solchenKombinationen.


2.1 Modelle für den <strong>Riffle</strong> <strong>Shuffle</strong> 15Dieser Sachverhalt lässt sich folgendermaßen modellieren: Wir wählen zunächstein Tupel (x 1 , . . . , x n ) ∈ {0, . . . , a − 1} n = N n 0,a−1 nach der Laplace-Verteilung aufN n 0,a−1. Dann zählen wir alle Nullen, Einsen, Zweien usw. in (x 1 , . . . , x n ). Fallswir j 1 Nullen, j 2 Einsen usw. erhalten haben, bilden wir a Päckchen A 1 , . . . , A amit den Karten 1 bis j 1 bzw. j 1 + 1 bis j 1 + j 2 usw. Schließlich verteilen wir dieKarten aus Päckchen A i unter Beibehaltung ihrer Reihenfolge auf die Positionenin (x 1 , . . . , x n ) mit x k = i − 1.Wir verwenden hier <strong>und</strong> im folgenden Modell n-Tupel x ∈ {0, . . . , a − 1} n <strong>und</strong>nicht etwa x ∈ {1, . . . , a} n , da dies für die Darstellung unserer folgenden Ergebnissein Lemma 2.1.8, Lemma 2.1.9, Lemma 2.1.10 <strong>und</strong> Satz 2.1.11 hilfreich ist.Sei U N n0,a−1die Laplace-Verteilung auf N n 0,a−1 <strong>und</strong> x = (x 1 , . . . , x n ) ∈ N n 0,a−1.defFür k = 1, . . . , a definieren wir j x,k = |{l | x l = k − 1}| <strong>und</strong>A x,kdef={ ( ∑k−1)j x,i + 1, . . . ,i=1k∑j x,i}.Ferner definieren wir zu x eine Permutation π x ∈ S n induktiv durch π x (1) =min A x,x1 +1 <strong>und</strong>π x (i) = min { A x,xi +1\{π x (1), . . . , π x (i − 1)} } (2.1.1)i=1für i = 2, . . . , n. Sei X M a,n : (N n 0,a−1, P(N n 0,a−1)) −→ (S n , P(S n )) die für x ∈ N n 0,a−1durch X M a,n(x) def= π x definierte Funktion. Die Definition der Permutation π x findetsich für den Fall a = 2 in äquivalenter Form in Beispiel 4.17 in [1].Wir können nun die Maximum-Entropie-Mischmethode Q M a,n einführen, indemwir für B ∈ P(S n ) setzenQ M a,n(B) def= U N n0,a−1(X M a,n ∈ B).Dann gilt für alle π ∈ S nQ M a,n({π}) = |{x ∈ {0, . . . , a − 1}n | π x = π}|a n . (2.1.2)2.1.1 Beispiel. Ein Mischvorgang im Maximum-Entropie-Modell mit a = 2 <strong>und</strong>n = 10 zu x = (0, 1, 1, 0, 1, 0, 1, 0, 0, 1) ∈ N 100,1 = {0, 1} 10 (siehe Abbildung 2.1).


16 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>a.✞A♣✝☎✞2♣✆✝☎✞3♣✆✝☎✞4♣✆✝☎✞5♣✆✝☎✞6♣✆✝☎✞7♣✆✝☎✞8♣✆✝☎✞9♣✆✝☎✞10♣✆✝☎✆b.✞A♣✝☎✞2♣✆✝☎✞3♣✆✝☎✞4♣✆✝☎✞5♣✆✝☎✆✞6♣✝☎✞7♣✆✝☎✞8♣✆✝☎✞9♣✆✝☎✞10♣✆✝☎✆c.d.✞ ☎✞ ☎ ✞ ☎ ✞ ☎✞☎A ✞ ☎✞☎ 2 ✞ ☎ 3 ✞ ☎ 4 5 ✞♣ 6 7 ♣ 8 ♣ 9 ♣ ♣ 10✝ ✆✝ ✆ ✝ ✆ ✝ ✆✝✆♣ ♣ ♣ ♣♣✝ ✆✝✆ ✝ ✆ ✝ ✆✝0✞1☎✞1☎✞0☎✞1☎✞0☎✞1☎✞0☎✞0☎✞1☎✞A 6 7 2 8 3 9 4 5 10♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣✝ ✆✝✆✝✆✝✆✝✆✝✆✝✆✝✆✝✆✝☎✆☎✆Abbildung 2.1: Mischvorgang im Maximum-Entropie-Modell.a.: Wir beginnen mit einem geordneten Kartenstapel <strong>und</strong> identifizieren Ass“ ”mit dem Wert 1.b.: Der Stapel wird in zwei Päckchen geteilt, das erste Päckchen A 1 bestehtaus den Karten 1 bis j x,1 = 5, das zweite Päckchen A 2 aus den Karten j x,1 + 1 = 6bis j x,1 + j x,2 = 10.c.,d.: Die beiden Päckchen werden ineinandergeblättert: Alle Karten aus PäckchenA 1 werden auf die Positionen in x mit x i = 0 verteilt, i = 1, . . . , 10, <strong>und</strong> alleKarten aus Päckchen A 2 auf die Positionen in x mit x i = 1, i = 1 . . . , 10. DerStapel wurde also nach der Permutation π x = [1, 6, 7, 2, 8, 3, 9, 4, 5, 10] gemischt.2. Inverses Modell: Das folgende Modell beschreibt einen inversen <strong>Riffle</strong><strong>Shuffle</strong>. Wir wählen wieder ein Tupel (x 1 , . . . , x n ) ∈ N n 0,a−1 nach der Laplace-Verteilung auf N n 0,a−1. Dann ordnen wir der Karte i den Wert x i zu <strong>und</strong> legen alleKarten mit dem Wert 0 unter Beibehaltung ihrer Reihenfolge an den Anfang desStapels, dahinter platzieren wir alle Karten mit dem Wert 1 usw., bis hin zu allenKarten mit dem Wert a − 1. Päckchen A l besteht beim inversen <strong>Riffle</strong> <strong>Shuffle</strong> ausallen Karten, denen der Wert l − 1 zugeordnet wird, l = 1, . . . , n. Auch in diesem


2.1 Modelle für den <strong>Riffle</strong> <strong>Shuffle</strong> 17Modell können leere Päckchen entstehen, sofern nicht alle Werte 0, . . . , a − 1 in xvertreten sind.Sei x = (x 1 , . . . , x n ) ∈ N n 0,a−1. Wir definieren eine Permutation π x −induktiv durch π x −(1) = min { k | x k = min{x 1 , . . . , x n } } <strong>und</strong>∈ S nπ x −(i) = min { {k | x k = l}\{π x −(1), . . . , π x −(i − 1)} } (2.1.3)für j x,1 + . . . + j x,l < i ≤ j x,1 + . . . + j x,l+1 , l = 0, . . . , a − 1. Falls j x,1 positiv ist, dasheißt ein k ∈ {1, . . . , n} existiert mit x k = 0, so gilt π x −(1) = min { k | x k = 0 } .Sei X I a,n : (N n 0,a−1, P(N n 0,a−1)) −→ (S n , P(S n )) die für x ∈ N n 0,a−1 durchX I a,n(x) def= π x −definierte Funktion. Wir definieren die Mischmethode Q I a,n für B ∈ P(S n ) durchQ I a,n(B) def= U N n0,a−1(X I a,n = π −1 , π ∈ B). (2.1.4)Dann gilt für alle π ∈ S nQ I a,n({π}) = |{x ∈ {0, . . . , a − 1}n | π x − = π −1 }|a n . (2.1.5)2.1.2 Beispiel. Ein Mischvorgang im inversen Modell: Wie in Beispiel 2.1.1 seiena = 2, n = 10 <strong>und</strong> x = (0, 1, 1, 0, 1, 0, 1, 0, 0, 1) ∈ N 100,1 = {0, 1} 10 (siehe Abbildung2.2).a.: Wir beginnen mit einem geordneten Kartenstapel <strong>und</strong> identifizieren ”Ass“mit dem Wert 1.b.: Karte i wird der Wert x i zugeordnet, i = 1, . . . , 10.c.,d.: Das erste Päckchen A 1 besteht aus den Karten 1, 4, 6, 8, 9, das zweitePäckchen aus den Karten 2, 3, 5, 7, 10. Alle Karten aus Päckchen A 1 werden anden Anfang des Stapels gelegt, dahinter alle Karten aus Päckchen A 2 . Der Stapelwurde gemäß der Permutation π x − = [1, 4, 6, 8, 9, 2, 3, 5, 7, 10] gemischt.Um nun den Mischvorgang gemäß (2.1.4) zu erhalten, werden die Schritte a. bisd. in umgekehrter Reihenfolge durchgeführt, das heißt der geordnete Kartenstapelwird gemäß π −1x − gemischt. Der inverse <strong>Riffle</strong> <strong>Shuffle</strong> gemäß π x − invertiert also


18 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>a.b.✞ ☎✞☎✞☎✞☎✞☎✞☎✞☎✞☎✞☎✞A 2 3 4 5 6 7 8 9 10♠ ♠ ♠ ♠ ♠ ♠ ♠ ♠ ♠ ♠✝ ✆✝✆✝✆✝✆✝✆✝✆✝✆✝✆✝✆✝0 1 1 0 1 0 1 0 0 1✞ ☎✞ ☎ ✞ ☎ ✞ ☎✞☎A ✞ ☎✞☎ 4 ✞ ☎ 6 ✞ ☎ 8 9 ✞♠ 2 3 ♠ 5 ♠ 7 ♠ ♠ 10✝ ✆✝ ✆ ✝ ✆ ✝ ✆✝✆♠ ♠ ♠ ♠♠✝ ✆✝✆ ✝ ✆ ✝ ✆✝☎✆☎✆c.✞A♠✝☎✞4♠✆✝☎✞6♠✆✝☎✞8♠✆✝☎✞9♠✆✝☎✆✞2♠✝☎✞3♠✆✝☎✞5♠✆✝☎✞7♠✆✝☎✞10♠✆✝☎✆d.✞A♠✝☎✞4♠✆✝☎✞6♠✆✝☎✞8♠✆✝☎✞9♠✆✝☎✞2♠✆✝☎✞3♠✆✝☎✞5♠✆✝☎✞7♠✆✝☎✞10♠✆✝☎✆Abbildung 2.2: Mischvorgang im inversen Modell.gerade den Mischvorgang im Maximum-Entropie-Modell gemäß π x aus Beispiel2.1.1. Er ordnet also den gemischten Kartenstapel zurück in die Ausgangslage.Das Mischen kann somit als inverses Sortieren“ bezeichnet werden. Wir werden”diese Beobachtung in Lemma 2.1.6 belegen.Bayer <strong>und</strong> Diaconis [6], [9] nennen mit dem geometrischen Modell eine weitereMöglichkeit zur Modellierung des GSR-(a, n)-<strong>Shuffle</strong>. Es lässt sich auch hier zeigen,dass das geometrische Modell äquivalent zu den beiden vorangegangenen ist,in dem Sinne, dass es dieselbe Mischmethode auf S n induziert. Wir werden allerdingsauf den technischen Beweis verzichten, da uns das geometrische Modell imweiteren Vorgehen keine Vorzüge gegenüber dem Maximum-Entropie-Modell bzw.dem inversen Modell bietet. Wir geben jedoch im Anschluss an die Modellierungeine kurze Beweisskizze an.3. Geometrisches Modell: Wir wählen n Punkte x 1 , . . . , x n im Einheitsintervallvoneinander unabhängig <strong>und</strong> gleichverteilt. Diese ordnen wir der Größe nach,


2.1 Modelle für den <strong>Riffle</strong> <strong>Shuffle</strong> 19so dass x 1 ≤ . . . ≤ x n . Die Abbildungf a : (x 1 , . . . , x n ) ↦−→ (f a(1) (x 1 ), . . . , f a (n) (x n )) = (ax 1 (mod 1), . . . , ax n (mod 1))bildet das Intervall [0, 1] n auf sich selbst ab. f a sortiert die Punkte x 1 , . . . , x n um<strong>und</strong> induziert so ein Wahrscheinlichkeitsmaß auf S n (siehe Abbildung 2.3).✻1 ◦ ◦ ◦ ◦. . .01a2a3a. . .a−1a 1✲Abbildung 2.3: Die Funktion f (1)a : [0, 1] −→ [0, 1) mit f (1)a (x) = ax (mod 1).Seien X 1 , . . . , X n stochastisch unabhängig <strong>und</strong> identisch R(0, 1)-verteilte Zufallsgrößenauf einem Wahrscheinlichkeitsraum (Ω G , A G , Q G ) <strong>und</strong>T : [0, 1] n −→ [0, 1] n die Ordnungsstatistik mitT (x 1 , . . . , x n ) = (x (1) , . . . , x (n) ) für (x 1 , . . . , x n ) ∈ [0, 1] n .Die Funktion f a : [0, 1] n −→ [0, 1) n mit f a = (f (1)a, . . . , f a(n) ) sei definiert durchf a(i) (x i ) def= ax i (mod 1) = ax i − ⌊ax i ⌋ (2.1.6)für x i ∈ [0, 1] <strong>und</strong> i = 1, . . . , n, wobei ⌊x⌋ die untere Gauss-Klammer von x ∈R sei. Ferner sei R = (R 1 , . . . , R n ) : [0, 1] n −→ N n ≤n die Rangstatistik mitR j : [0, 1] n −→ N ≤n ,R j (x 1 , . . . , x n ) = |{i | x i ≤ x j }|für (x 1 , . . . , x n ) ∈ [0, 1] n <strong>und</strong> j = 1, . . . , n.


20 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>2.1.3 Bemerkung. Für die in (2.1.6) definierte Funktion gilt(a) f a ist B n [0,1] -Bn [0,1) -messbar.(b) f a(1) (X 1 ), . . . , f a (n) (X n ) sind stochastisch unabhängig <strong>und</strong> identisch R(0, 1)-verteilt.Beweis. zu (a): Für i ≤ n <strong>und</strong> s, t ∈ [0, 1) mit s < t giltf (i)aa−1−1( ) ⋃(s, t] =k=0( s + ka, t + k ]∈ B [0,1] . (2.1.7)azu (b): Die stochastische Unabhängigkeit folgt aus (a) <strong>und</strong> der stochastischenUnabhängigkeit von X 1 , . . . , X n . Sei i ≤ n <strong>und</strong> t ∈ (0, 1]. Dann giltQ G (f (i)a((X i ) ≤ t) = Q X i f(i)a ∈ [0, t] )= Q X iG=G( a−1∑a−1k=0⋃k=0[ ka , t + kata = t.])(2.1.8)Für t ≤ 0 erhalten wir unmittelbar Q G (f a(i) (X i ) ≤ t) = 0 <strong>und</strong> für t > 1 analog zu(2.1.8)Q G (f (i)a((X i ) ≤ t) = Q X iG f(i)aSomit gilt Q f (i)a (X i )G= R(0, 1) für i = 1, . . . , n.∈ [0, t] ) (= Q X iG f(i)a ∈ [0, 1] ) = 1.Wir definieren die Abbildung XaG def= R ◦ f a ◦ T ◦ X, X = (X 1 , . . . , X n ), <strong>und</strong>das Maß Q G a,n : P(S n ) −→ [0, 1] für B ∈ P(S n ) durchQ G a,n(B) def= Q G(XGa ∈ B ) . (2.1.9)Damit durch diese Definition ein Wahrscheinlichkeitsmaß auf (S n , P(S n )) definiertwird, muss XaG f.s. S n -wertig sein. Wie die folgende Bemerkung zeigt, ist diestatsächlich der Fall.


2.1 Modelle für den <strong>Riffle</strong> <strong>Shuffle</strong> 212.1.4 Bemerkung. Q G a,n ist ein Wahrscheinlichkeitsmaß auf (S n , P(S n )).Beweis. Es ist zu zeigen, dass X G aQ G - f. s. S n -wertig ist, alsoQ G a,n(S n ) = Q G (R ◦ f a ◦ T ◦ X ∈ N n ≤n,≠) = 1. (2.1.10)Dies ist genau dann der Fall, wenn Q G (f a ◦ T ◦ X ∈ [0, 1) n≠) = 1 gilt. Sei(x 1 , . . . , x n ) ∈ [0, 1] n , dann gilt<strong>und</strong> somitDa f (1)af a (x 1 , . . . , x n ) ∈ [0, 1) n≠ ⇐⇒ f a(x (1) , . . . , x (n) ) ∈ [0, 1) n≠Q G (f a ◦ T ◦ X ∈ [0, 1) n≠ ) = Q G(f a ◦ X ∈ [0, 1) n≠ ).(X 1 ), . . . , f a(n) (X n ) nach Bemerkung 2.1.3 stochastisch unabhängig <strong>und</strong> stetigverteilt sind, ergibt sich Q G (f a ◦ X ∈ [0, 1) n≠) = 1 <strong>und</strong> daraus (2.1.10).2.1.5 Lemma. Sei a ∈ N <strong>und</strong> x, y ∈ [ i−1a , i a)für ein i ∈ N, dann giltx < y ⇐⇒ ax (mod 1) < ay (mod 1).Beweis. Seien x 0 , y 0 ∈ [i − 1, i) für ein i ∈ N. Dann gilt wegen ⌊x 0 ⌋ = ⌊y 0 ⌋x 0 < y 0 ⇐⇒ x 0 − y 0 < ⌊x 0 ⌋ − ⌊y 0 ⌋⇐⇒ x 0 − ⌊x 0 ⌋ < y 0 − ⌊y 0 ⌋⇐⇒ x 0 (mod 1) < y 0 (mod 1).Die Behauptung folgt, indem wir x 0 = ax <strong>und</strong> y 0 = ay setzen.Wir führen nun die Funktion J a = (J 1 , . . . , J a ) : [0, 1] n −→ ∑ anein, indem wirfür (x 1 , . . . , x n ) ∈ [0, 1] n <strong>und</strong> i = 1, . . . , n definierenJ i ((x 1 , . . . , x n )) def= |{j | x j ∈ [ i−1a , i a)}|.Mit Lemma 2.1.5 erhalten wir die folgende Interpretation eines durch eine Realisationx = (x 1 , . . . , x n ) der Zufallsvariablen X = (X 1 , . . . , X n ) gegebenen Mischvorgangs(R ◦ f a ◦ T ) ((x 1 , . . . , x n )) (siehe auch Abbildung 2.3):


22 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>Zunächst können wir die Punkte x 1 , . . . , x n <strong>und</strong> f (1)a(x (1) ), . . . , f a(n) (x (n) ) jeweilsals paarweise verschieden voraussetzen, da zum einen X 1 , . . . , X n stetig verteiltsind <strong>und</strong> zum anderen f a ◦T ◦X fast sicher [0, 1) n≠-wertig ist. Zusätzlich nehmen wirnoch x 1 , . . . , x n < 1 an. Nach Anwendung der Ordnungsstatistik T auf (x 1 . . . , x n )sortiert die Funktion f a das Tupel (x (1) , . . . , x (n) ) um. Nach Lemma 2.1.5 bleibtdabei die Rangfolge aller Punkte, die im selben Intervall [ i−1a , i a)für ein i ≤ aliegen, unverändert. Gegeben i, j ≤ a mit i ≠ j <strong>und</strong> Punktemit der Eigenschaftx (i1 ), . . . , x (ir1 ) ∈ [ i−1, ) ia a <strong>und</strong> x(j1 ), . . . , x (jr2 ) ∈ [ j−1, )ja ax (i1 ) < . . . < x (ir1 ) <strong>und</strong> x (j1 ) < . . . < x (jr2 ),kann durch Anwendung der Funktion f a ihre Rangfolge geändert werden. Da jedochdie Rangfolge der Punkte innerhalb des Intervalls [ i−1, ) [ ia a bzw. j−1, ja a)jeweilsdurch f a nach Lemma 2.1.5 nicht geändert wird, verzahnen“ sich die beiden”Kettenf (i 1)a (x (i1 )), . . . , f (ir 1 )a (x (ir1 )) <strong>und</strong> f (j 1)a (x (j1 )), . . . , f (jr 2 )a (x (jr2 )).Daraus folgt, dass wir die Anzahl der Karten in den Päckchen A 1 , . . . , A a beidem durch (R ◦ f a ◦ T ) ((x 1 , . . . , x n )) gegebenen Mischvorgang mit der Anzahl derPunkte x 1 , . . . , x n in den einzelnen Intervallen [ [0, a) 1 , 1 , [ 2a a), . . . ,a−1, 1) identifizierenkönnen. Die Anzahl der Karten in den Päckchen A 1 , . . . , A a ist alsoageradedurch J 1 (x), . . . , J a (x) gegeben. Genauer ist Päckchen A k dann für k = 1, . . . , agegeben durchA k ={ ∑k−1J i (x) + 1, . . . ,i=1k∑i=1}J i (x) .Es lässt sich zeigen, dass das geometrische Modell die gleiche Mischmethode aufS n erzeugt, wie das Maximum-Entropie-Modell. Hierzu betrachte man für a ∈ N ≥2<strong>und</strong> x ∈ [0, 1] die a-adische Entwicklung von x. Eine solche ist gegeben durch eineFolge (z k ) k≥1 ∈ {0, . . . , a − 1} N mitx = ∑ k≥1z k a −k .


2.1 Modelle für den <strong>Riffle</strong> <strong>Shuffle</strong> 23Diese Darstellung ist im Allgemeinen nicht eindeutig bestimmt, es existieren jedochfür jedes x ∈ [0, 1] höchstens zwei verschiedene a-adische Entwicklungen. SeiY = (Y j,k ) j≤n,k≥1 eine Zufallsvariable mit stochastisch unabhängigen <strong>und</strong> auf{0, . . . , a − 1} Laplace-verteilten Komponenten. Dann gilt für j = 1, . . . , nP ∑ k≥1 Y j,ka −k = R(0, 1).Somit kann das geometrische Modell wie folgt beschrieben werden: Wir wählenzunächst eine Realisation(y 1 , . . . , y n ) = ( )(y 1,k ) k≥1 , . . . , (y n,k ) k≥1der Zufallsvariablen Y . Im geometrischen Modell entspricht dies der Wahl von nPunktenx 1 = ∑ y 1,k a −k , . . . , x n = ∑ y n,k a −k .k≥1k≥1Die Ordnung x (1) , . . . , x (n) der Punkte x 1 , . . . , x n der Größe nach, entspricht derlexikographischen Ordnung y (1) , . . . , y (n) der Folgen y 1 , . . . , y n . Die Anwendung vonf a auf (x (1) , . . . , x (n) ) findet ihr Analogon in der Anwendung der Shift-Operationσ auf y (1) , . . . , y (n) , die für (z k ) k≥1 ∈ {0, . . . , a − 1} N definiert ist durchσ ((z k ) k≥1 ) = (z k ) k≥2 .Ermitteln wir nun die Ränge der Punkte f (1)a(x (1) ), . . . , f a(n) (x (n) ), so zeigt sich, dassdie Ränge im Wesentlichen von den ersten Komponenten von σ(y (1) ), . . . , σ(y (n) )abhängen. Da diese aber vereinfacht gesprochen wiederum modulo Ordnung <strong>und</strong>Anwendung der Shift-Operation aus einer Realisation von n stochastischunabhängigen <strong>und</strong> über {0, . . . , a − 1} Laplace-verteilten Zufallsgrößen stammen,zeigt sich dann die Äquivalenz von geometrischem Modell <strong>und</strong> Maximum-Entropie-Modell.Wir wenden uns nun wieder dem Maximum-Entropie-Modell <strong>und</strong> dem inversenModell zu. Das folgende Lemma bestätigt die Beobachtung aus Beispiel 2.1.2, dassder zu x ∈ N n 0,a−1 gehörige Mischvorgang gemäß π x aus dem Maximum-Entropie-Modell das Inverse des Mischvorgangs π x − aus dem inversen Modell ist.


24 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>2.1.6 Lemma. Sei x ∈ N n 0,a−1. Dann gilt π −1x = π x −.Beweis. Sei x = (x 1 , . . . , x n ) ∈ N n 0,a−1 beliebig. Wir nehmen o.B.d.A. j x,i ≠ 0für i = 1, . . . , a an. Sonst setzen wir b def= |{x 1 , . . . , x n } ∩ N 0,a−1 | <strong>und</strong> definierenx ′ = (x ′ 1, . . . , x ′ n) ∈ N n 0,b−1 durchx ′ idef= x i − ∣ ∣ { k ∈ {0, . . . , n} | k < x i , k ≠ x 1 , . . . , x n}∣ ∣ , i = 1, . . . , n.Dann gilt j x ′ ,i ≠ 0 für i = 1, . . . , b. Ferner erhalten wir A x ′ ,k = A x,lk ≠ ∅ fürdefk = 1, . . . , b, wobei l k induktiv definiert ist durch l 1 = min{i | A x,i ≠ ∅} <strong>und</strong>l kdef= min{i > l k−1 | A x,i ≠ ∅}für k = 2, . . . , b. Dann gilt π x = π x ′ wegen der Definition (2.1.1) von π x .Sei also j x,i ≠ 0 für i = 1, . . . , a. Es existieren k 0 , . . . , k a ∈ N mit0 = k 0 < k 1 < . . . < k a−1 < k a = n <strong>und</strong>A x,l+1 = {k l + 1, . . . , k l+1 }für l = 0, . . . , a − 1. Wir definieren i 1 , . . . , i n ∈ N ≤n durchi kl +1def= min{i |x i = l}, l = 0, . . . , a − 1 <strong>und</strong>defi j = min { {i | x i = l}\{i kl +1, . . . , i j−1 } }für k l + 1 < j ≤ k l+1 <strong>und</strong> l = 0, . . . , a − 1.Wir zeigen nun mit einer Induktion π x (i j ) = j für j = 1, . . . , n. Ausi 1 = min{i | x i = 0} folgt x i1 = 0 <strong>und</strong> somitπ x (i 1 ) = min { A x,xi1 +1\{π x (1), . . . , π x (i 1 − 1)} }= min { A x,1 \{π x (1), . . . , π x (i 1 − 1)} } = min A x,1 = 1.(2.1.11)Sei m ≤ n beliebig <strong>und</strong> π x (i j ) = j für j < m. Wir zeigen π x (i m ) = m. Seil ∈ {0, . . . , a − 1}, so dass k l + 1 ≤ m ≤ k l+1 . Falls m = k l + 1, so folgt wegeni m = min{i | x i = l}


2.1 Modelle für den <strong>Riffle</strong> <strong>Shuffle</strong> 25analog zu (2.1.11) π x (i m ) = m. Gilt andererseits k l + 1 < m ≤ k l+1 , so folgt ausi m = min { {i | x i = l}\{i kl +1, . . . , i m−1 } } die Beziehungi m > i kl +1, . . . , i m−1 .Ferner gilt π x (j) /∈ A x,l+1 für alle j < i m mit j ≠ i kl +1, . . . , i m−1 . Dann folgtzusammen mit x im = l <strong>und</strong> der Induktionsvoraussetzungπ x (i m ) = min { A x,xim +1\{π x (1), . . . , π x (i m − 1)} }= min { A x,l+1 \{π x (1), . . . , π x (i m − 1)} }= min { A x,l+1 \{π x (i kl +1), . . . , π x (i m−1 )} }= min { A x,l+1 \{k l + 1, . . . , m − 1} }= min { {k l + 1, . . . , k l+1 }\{k l + 1, . . . , m − 1} }= m.Also gilt π x (i j ) = j für j = 1, . . . , n. Aus der Definition der i j folgt unmittelbari j = min { {i | x i = l}\{i 1 , . . . , i j−1 } }für k l + 1 ≤ j ≤ k l+1 <strong>und</strong> l = 0, . . . , a − 1. Wegen πx−1 (j) = i j für j = 1, . . . , nerhalten wir zusammen mit (2.1.3)πx−1 (1) = i 1 = min{k | x k = 0} = π x −(1).Daraus folgt wiederum mit (2.1.3) induktiv für k l +1 ≤ j ≤ k l+1 <strong>und</strong> l = 0, . . . , a−1πx−1 (j) = i j<strong>und</strong> somit π −1x = π x −.= min { {k | x k = l}\{i 1 , . . . , i j−1 } }= min { {k | x k = l}\{πx−1 (1), . . . , πx −1 (j − 1)} }= min { {k | x k = l}\{π x −(1), . . . , π x −(j − 1)} }= π x −(j)Wir kommen nun zu dem bereits angekündigten Resultat, dass das Maximum-Entropie-Modell <strong>und</strong> das inverse Modell die gleiche Mischmethode wie der GSR-(a, n)-<strong>Shuffle</strong> erzeugen (siehe Lemma 1, Abschnitt 3 in [6] <strong>und</strong> Abschnitt 3 in [16]).


26 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>2.1.7 Satz. Das Maximum-Entropie-Modell <strong>und</strong> das inverse Modell erzeugen diegleiche Mischmethode, das heißt für alle n ∈ N giltQ M a,n = Q I a,n.Ferner beschreiben beide Modelle den GSR-(a, n)-<strong>Shuffle</strong>.Beweis. Sei n ∈ N. Q M a,n = Q I a,n folgt unter Benutzung von (2.1.2) <strong>und</strong> (2.1.5) direktaus πx−1 = π x − für alle x ∈ N n 0,a−1. Es reicht also zu zeigen, dass das Maximum-Entropie-Modell den GSR-(a, n)-<strong>Shuffle</strong> beschreibt.Wir teilen den GSR-(a, n)-<strong>Shuffle</strong> in zwei Schritte auf: Im ersten Schritt werdendie Päckchengrößen nach einer M(n, 1/a)-Verteilung gewählt, das heißt dieWahrscheinlichkeit, dass die Päckchen A 1 , . . . , A a j 1 , . . . , j a Karten enthalten, istfür (j 1 , . . . , j a ) ∈ ∑ angegeben durch( )n 1M(n, 1/a)({(j 1 , . . . , j a )}) =j 1 , . . . , j a a . nIm zweiten Schritt blättern wir die Päckchen in der zu Beginn dieses Kapitels aufSeite 14 beschriebenen Weise ineinander.Gegeben die Päckchengrößen (j 1 , . . . , j a ) ∈ ∑ ansind dann alle möglichen Mischvorgängegleichwahrscheinlich: Die Wahrscheinlichkeit, dass die Karten in einerbeliebigen Reihenfolge sukzessive von den Päckchen A 1 , . . . , A a fallen, ist wegenj 1 + . . . + j a = n gegeben durchj 1 (j 1 − 1) · . . . · 1 · . . . · j a (j a − 1) · . . . · 1(j 1 + . . . + j a )(j 1 + . . . + j a − 1) · . . . · 1 = j 1! · . . . · j a !n!( ) −1n=.j 1 , . . . , j aDie Wahrscheinlichkeit für einen beliebigen GSR-(a, n)-<strong>Shuffle</strong> mit Päckchengrößenj 1 , . . . , j a im ersten Schritt ist dann gegeben durch( ) ( ) −1n 1 n= 1 j 1 , . . . , j a a n j 1 , . . . , j a a . nDas heißt alle möglichen GSR-(a, n)-<strong>Shuffle</strong> sind gleichwahrscheinlich mit Wahrscheinlichkeit1/a n . Im Maximum-Entropie-Modell entsprechen der erste <strong>und</strong> zweiteSchritt gerade der Wahl eines x ∈ N n 0,a−1, denn j x,1 , . . . , j x,a ∈ ∑ anlegen die


2.1 Modelle für den <strong>Riffle</strong> <strong>Shuffle</strong> 27Päckchengrößen fest <strong>und</strong> x selbst die Reihenfolge, in der die Karten ineinandergeblättertwerden. Die Wahrscheinlichkeit, dass ein GSR-(a, n)-<strong>Shuffle</strong> in der Permutationπ ∈ S n resultiert, ist dann gegeben durch die Anzahl aller x ∈ N n 0,a−1 mitπ x = π, dividiert durch die Anzahl a n aller möglichen Mischvorgänge. Die gesuchteWahrscheinlichkeit entspricht also geradewas wir beweisen mussten.|{x ∈ N n 0,a−1 | π x = π}|a n= Q M a,n({π}),Die folgenden Resultate dieses Abschnitts orientieren sich an den Ausführungenin Abschnitt 7.2 in [16]. Sie sind allerdings in der hier formulierten Weise in derverwendeten Literatur nicht zu finden, dies gilt insbesondere für den Beweis vonSatz 2.1.11.Wir bezeichnen nun für ein x ∈ N n 0,a−1 einen Mischvorgang, der durch diePermutation π x beschrieben wird, als GSR-(a, n)-<strong>Shuffle</strong> <strong>und</strong> einen Mischvorgang,der durch π x − beschrieben wird, als inversen GSR-(a, n)-<strong>Shuffle</strong>. Ferner setzen wirdefQ a,n = Q M a,n = Q I a,n.Seien a, b ∈ N ≥2 . Für das weitere Vorgehen definieren wir eine totale Ordnungauf N 0,a−1 × N 0,b−1 , genannt ”lexikographische Ordnung nach der zweitenKomponente“: Für (x i , y i ) ∈ N 0,a−1 × N 0,b−1 , i = 1, 2, setzen wir(x 1 , y 1 ) ≤ (x 2 , y 2 ) :⇐⇒ (x 1 ≤ x 2 , y 1 = y 2 ) oder y 1 < y 2 . (2.1.12)2.1.8 Lemma. Seien a, b ∈ N ≥2 <strong>und</strong> (x i , y i ) ∈ N 0,a−1 × N 0,b−1 , i = 1, 2. Dann gilt(x 1 , y 1 ) ≤ (x 2 , y 2 ) ⇐⇒ ay 1 + x 1 ≤ ay 2 + x 2 . (2.1.13)Beweis. ⇒“ Falls gilt x ” 1 ≤ x 2 <strong>und</strong> y 1 = y 2 , so folgt direktay 1 + x 1 ≤ ay 2 + x 2 .Gilt andererseits y 1 < y 2 , so folgt x 1 − x 2 ≤ a wegen x 1 , x 2 ∈ {0, . . . , a − 1} <strong>und</strong>somity 1 < y 2 ⇒ ay 1 < ay 2⇒ a ≤ ay 2 − ay 1


28 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>⇒ x 1 − x 2 ≤ ay 2 − ay 1⇒ ay 1 + x 1 ≤ ay 2 + x 2 .” ⇐“ Im Fall ay 1 + x 1 = ay 2 + x 2 folgt wegen der Eindeutigkeit der Divisionmit Rest x 1 = x 2 <strong>und</strong> y 1 = y 2 . Es gilt also (x 1 , y 1 ) = (x 2 , y 2 ). Falls andererseitsay 1 + x 1 < ay 2 + x 2 ist, so gilt entweder x 1 < x 2 <strong>und</strong> y 1 = y 2 oder y 1 < y 2 , also inbeiden Fällen per Definition (x 1 , y 1 ) ≤ (x 2 , y 2 ).Für x ∈ N n 0,a−1, y ∈ N n 0,b−1definieren wirDann gilt entsprechendx ◦ y def= ay πx + x = (ay πx(1) + x 1 , . . . , ay πx(n) + x n ). (2.1.14)y ◦ x = bx πy + y = (bx πy(1) + y 1 , . . . , bx πy(n) + y n ).Den Nutzen dieser Definition, die in ähnlicher Weise in Abschnitt 7.2 in [16] zufinden ist, zeigt das folgende Lemma.2.1.9 Lemma. Seien a, b ∈ N ≥2 , x ∈ N n 0,a−1 <strong>und</strong> y ∈ N n 0,b−1 . Dann giltπ x − ◦ π y − = π (x,yπx ) − = π (x◦y) −, (2.1.15)wobei π (x,yπx ) −bestimmt ist.entsprechend (2.1.3) gemäß der in (2.1.12) definierten OrdnungBeweis. π x − ◦ π y − beschreibt einen inversen GSR-(a, n)-<strong>Shuffle</strong> gemäß π x − gefolgtvon einem inversen GSR-(b, n)-<strong>Shuffle</strong> gemäß π y −: Das heißt zunächst wird Kartei der Wert x i zugeordnet, i = 1, . . . , n. Dann werden alle Karten in die Reihenfolge(πx −(1), . . . , π x −(n) ) sortiert, das heißt alle Karten mit dem Wert 0 werden unterBeibehaltung ihrer Reihenfolge an den Anfang des Stapels gelegt, gefolgt von allenKarten mit dem Wert 1, bis hin zu allen Karten mit dem Wert a−1. Anschließendwird der Karte an Position π x −(i) der Wert y i zugeordnet, i = 1, . . . , n, <strong>und</strong> dieKarten in der bekannten Weise nach aufsteigenden Werten von 0 bis b − 1 in(y 1 , . . . , y n ) sortiert. Wir notieren dabei die Werte x 1 , . . . , x n <strong>und</strong> y 1 , . . . , y n auf deneinzelnen Karten (siehe (2.1.16)), indem wir zunächst auf die Karte an Position j


2.1 Modelle für den <strong>Riffle</strong> <strong>Shuffle</strong> 29den Wert x j schreiben <strong>und</strong> anschließend gemäß π x − mischen. Dann schreiben wirauf die Karte an Position j den Wert y j rechts von dem Wert x πx − (j), der nach demMischen gemäß π x − bereits auf dieser Karte steht. Anschließend mischen wir dieKarten gemäß π y −. Die Karte an Position j trägt also jeweils die folgenden Werte:x jπ x −−→ x πx −(j)y j−→ (xπx −(j), y j ) π y −−→ (x πx −◦π y −(j), y πy −(j)). (2.1.16)Wegen x πx −(1) ≤ . . . ≤ x πx −(n) gilty πy −(j) ≤ y πy −(j+1)=⇒ x πx −◦π y −(j) ≤ x πx −◦π y −(j+1).Daraus folgt, dass die Werte (x πx −◦π y −(1), y πy −(1)), . . . , (x πx −◦π y −(n), y πy −(n)) derKarten nach dem Mischen gemäß π x − ◦π y − lexikographisch nach der zweiten Komponentesortiert sind. Es gilt also(x πx −◦π y −(1), y πy −(1)) ≤ . . . ≤ (x πx −◦π y −(n), y πy −(n)).Notieren wir nun vor dem Mischen gemäß π x − ◦ π y −den Wert (x j , y (πx −) −1 (j)) aufKarte j, so trägt die Karte, die sich nach dem Mischen gemäß π x − ◦π y − an Positionj befindet, den Wert(x πx −◦π y −(j), y (πx −) −1 ◦π x −◦π y −(j)) = (x πx −◦π y −(j), y πy −(j)).Wir können also in einem einzelnen Mischvorgang alle Karten nach aufsteigendenWerten (x 1 , y (πx −) −1 (1) ), . . . , (x n, y (πx −) −1 (n)) sortieren <strong>und</strong> erhalten dieselbe Permutationwie beim sukzessiven Mischen nach π x − <strong>und</strong> π y −, das heißt es giltπ x − ◦ π y − = π (x,y(πx− )−1 ) = π (x,yπx ),wobei die letzte Gleichheit aus (π x −) −1 = π x folgt. Da die Rangfolge der Tupel(x 1 , y πx(1)), . . . , (x n , y πx(n)) <strong>und</strong> der Werte ay πx(1) + x 1 , . . . , ay πx(n) + x n jedoch nachLemma 2.1.8 identisch ist, gilt<strong>und</strong> somit insgesamt (2.1.15).π (x,yπx ) = π (x◦y) −


30 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>Für den Beweis des nächsten Satzes benötigen wir noch ein weiteres technischesLemma, das zwei wichtige Aussagen über die in (2.1.14) definierten Verknüpfungenx ◦ y <strong>und</strong> y ◦ x, x ∈ N n 0,a−1, y ∈ N n 0,b−1 , beinhaltet.2.1.10 Lemma. Seien a, b ∈ N ≥2 , x, x ′ ∈ N n 0,a−1 <strong>und</strong> y, y ′ ∈ N n 0,b−1 . Dann geltendie folgenden Aussagen:(i) x ◦ y = x ′ ◦ y ′ ⇐⇒ x = x ′ , y = y ′ ⇐⇒ y ◦ x = y ′ ◦ x ′ ,(ii) N n 0,ab−1 = {y ◦ x | (x, y) ∈ Nn 0,a−1 × N n 0,b−1 }.Beweis. zu (i): Wir führen den Beweis der zweiten Äquivalenz, da wir diese im Beweisvon Satz 2.1.11 benutzen werden. Die erste Äquivalenz wird analog bewiesen.Aus y ◦ x = y ′ ◦ x ′ folgt zunächst für i = 1, . . . , nbx πy(i) + y i = bx ′ π y ′(i) + y ′ i.Wegen x i ∈ {0, . . . , a − 1} <strong>und</strong> y i ∈ {0, . . . , b − 1} für i = 1, . . . , n <strong>und</strong> a, b ≥ 2folgt dann aus der Eindeutigkeit der Division mit Restbx πy(i) = bx ′ π y ′(i) <strong>und</strong> y i = y ′ i (2.1.17)für i = 1, . . . , n. Damit ergibt sich y = y ′ <strong>und</strong> daraus unmittelbar π y = π y ′. Nach(2.1.17) erhalten wir dann bx = bx ′ . Insgesamt gilt also x = x ′ <strong>und</strong> y = y ′ . Dieumgekehrte Richtung ist wegen π y = π y ′trivial.zu (ii): ”⊂“ Sei z = (z 1 , . . . , z n ) ∈ N n 0,ab−1 = {0, . . . , ab − 1}n beliebig. Wirdefinieren y = (y 1 , . . . , y n ) durch<strong>und</strong> x = (x 1 , . . . , x n ) durchy idef= z i (mod b), i = 1, . . . , n,defx πy(i)Dann gilt x ∈ N n 0,a−1, y ∈ N n 0,b−1 <strong>und</strong>y ◦ x = bx πy + y= z i − y i, i = 1, . . . , n.b= (bx πy(1) + y 1 , . . . , bx πy(n) + y n )


2.1 Modelle für den <strong>Riffle</strong> <strong>Shuffle</strong> 31(= b · z1 − y 1+ y 1 , . . . , b · zn − y nbb= (z 1 , . . . , z n ) = z.+ y n)Daraus folgt N n 0,ab−1 ⊂ {y ◦ x | (x, y) ∈ Nn 0,a−1 × N n 0,b−1 }.⊃“ Für die umgekehrte Inklusion notieren wir”0 ≤ bx πy(i) ≤ b(a − 1) <strong>und</strong> 0 ≤ y i ≤ b − 1für alle (x, y) ∈ N n 0,a−1 × N n 0,b−1N n 0,a−1 × N n 0,b−1 <strong>und</strong> i = 1, . . . , n<strong>und</strong> i = 1, . . . , n. Dann folgt für alle (x, y) ∈0 ≤ bx πy(i) + y i ≤ b(a − 1) + b − 1 = ab − 1.Es gilt also y ◦ x ∈ N n 0,ab−1 für alle (x, y) ∈ Nn 0,a−1 × N n 0,b−1 .Der folgende Satz zeigt, dass das sukzessive Mischen nach den MischmethodenQ a,n <strong>und</strong> Q b,n als einmaliges Mischen nach der Mischmethode Q ab,n interpretiertwerden kann. Diese einfache Beziehung erlaubt eine erhebliche Vereinfachung des<strong>Riffle</strong> <strong>Shuffle</strong>s, denn sie ermöglicht es, dass eine beliebige Anzahl sukzessiver Mischvorgängemit beliebigen Päckchenanzahlen als einmaliger Mischvorgang aufgefasstwerden kann. Wir präzisieren diese Aussage im anschließenden Korollar.2.1.11 Satz. Seien a, b ∈ N ≥2 <strong>und</strong> n ∈ N. Ein GSR-(a, n)-<strong>Shuffle</strong> gefolgt voneinem GSR-(b, n)-<strong>Shuffle</strong> ist äquivalent zu einem GSR-(ab, n)-<strong>Shuffle</strong>, das heißtQ a,n ∗ Q b,n = Q ab,n .Beweis. Seien a, b ∈ N ≥2 <strong>und</strong> n ∈ N beliebig. Nach Bemerkung 1.1.2 <strong>und</strong> denvorangehenden Erläuterungen ist zu zeigen Q a,n ∗Q b,n = Q ab,n . Sei π ∈ S n beliebig.Dann gilt wegen Lemma 2.1.9 <strong>und</strong> Lemma 2.1.10 unter Verwendung des inversenModellsQ ab,n ({π}) = ∣ {z ∈ Nn0,ab−1 | π z − = π −1 } ∣ /(ab)n= ∣ {(x, y) ∈ Nn0,a−1 × N n 0,b−1 | π (y◦x) − = π −1 } ∣ /(ab)n= ∣ {x ∈ Nn0,a−1 , y ∈ N n 0,b−1 | π y − ◦ π x − = π −1 } ∣ /(ab)n


32 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>= ∣ ∣ ⋃{x ∈ N n 0,a−1, y ∈ N n 0,b−1 | π x − = σ −1 , π y − = π −1 σ} ∣ /(ab)nσ∈S n= ∑ ∣ {x ∈ N n 0,a−1 | π x − = σ −1 } ∣ ∣ {y ∈ Nn0,b−1 | π y − = π −1 σ} ∣ ·a n b nσ∈S n= ∑ σ∈S nQ a,n ({σ})Q b,n ({(π −1 σ) −1 }) = ∑ σ∈S nQ a,n ({σ})Q b,n ({σ −1 π})= Q a,n ∗ Q b,n ({π}).Hierbei gehen in der zweiten Zeile entscheidend (i) <strong>und</strong> (ii) aus Lemma 2.1.10 ein.Es gilt also Q ab,n = Q a,n ∗ Q b,n .Aus Satz 2.1.11 ergibt sich direkt das folgende Korollar.2.1.12 Korollar. Seien m, n ∈ N, a 1 , . . . , a m ∈ N ≥2 , π ∈ S n <strong>und</strong> a def= ∏ mi=1 a i.Dann giltQ a1 ,n ∗ . . . ∗ Q am,n = Q aπ(1) ,n ∗ . . . ∗ Q aπ(m) ,n = Q a,n .2.2 Aufsteigende SequenzenIn diesem Abschnitt geben wir die Wahrscheinlichkeit, dass ein GSR-(a, n)-<strong>Shuffle</strong>in der Permutation π ∈ S n resultiert, explizit an. Dafür ist es notwendig, den Begriffder aufsteigenden Sequenz einzuführen. Unter Benutzung von Korollar 2.1.12ist es dadurch sogar möglich, die Verteilung Q ∗(m)a,n für alle m ≥ 1 zu bestimmen.Mit Blick auf (1.1.4) sind damit schon die m-Schritt Übergangswahrscheinlichkeitendes Q a,n -Random Walks auf S n gegeben.2.2.1 Definition. Sei π ∈ S n . Eine aufsteigende Sequenz oder kurz Sequenz vonπ ist eine Kette ( (i 1 , π(i 1 )), . . . , (i k , π(i k )) ) , so dass gilt(i) i 1 , . . . , i k ∈ N ≤n , i 1 < . . . < i k ,(ii) π(i j ) + 1 = π(i j+1 ) für j = 1, . . . , k − 1,(iii) π(l) ≠ π(i 1 ) − 1 für l = 1, . . . , i 1 − 1 <strong>und</strong> π(l) ≠ π(i k ) + 1 für l = i k + 1, . . . , n.


2.2 Aufsteigende Sequenzen 33Eine aufsteigende Sequenz von π ∈ S n kann somit auch als maximal aufsteigendeTeilkette von π bezeichet werden. Jede Permutation π zerfällt vollständig inaufsteigende Sequenzen <strong>und</strong> ist durch Angabe aller ihrer aufsteigenden Sequenzeneindeutig festgelegt. Wir sagen, die Sequenz ( (i k+1 , π(i k+1 )), . . . , (i l , π(i l )) ) folgtauf die Sequenz ( (i 1 , π(i 1 )), . . . , (i k , π(i k )) ) , falls π(i k )+1 = π(i k+1 ) gilt. Aufgr<strong>und</strong>von Definition 2.2.1 gilt dann notwendigerweise i k+1 > i k , das heißt die beidenSequenzen lassen sich nicht zu einer einzelnen Sequenz vereinen.Aufsteigende Sequenzen sind eng mit den Sprungstellen einer Permutation verb<strong>und</strong>en.2.2.2 Definition. Sei π ∈ S n <strong>und</strong> i ∈ {1, . . . , n − 1}. Die Permutation π hat eineSprungstelle oder einen Descent in i, falls π(i) > π(i + 1).Sei R n,kdef= {π ∈ S n | π hat k aufsteigende Sequenzen}, k = 1, . . . , n, <strong>und</strong>D n,kdef= {π ∈ S n |π hat k Descente }, k = 1, . . . , n−1. Wir definieren die FunktionenR n , D n : S n −→ N ≤n für π ∈ S n durchR n (π) = r ⇐⇒ π ∈ R n,r <strong>und</strong>D n (π) = r ⇐⇒ π ∈ D n,r .Wir setzen von nun an R = R n <strong>und</strong> D = D n . Aufgr<strong>und</strong> von Definition 2.2.1<strong>und</strong> 2.2.2 gilt R(S n ) = {1, . . . , n}, D(S n ) = {1, . . . , n − 1} <strong>und</strong> für π ∈ S nD(π) = |{i ≤ n − 1 | π(i) > π(i + 1)}|.2.2.3 Beispiel. Für die Permutation π = [4, 1, 2, 5, 7, 3, 6, 8] ∈ S 8 gilt R(π) = 3,denn π hat die drei aufeinanderfolgenden aufsteigenden Sequenzen((2, 1), (3, 2), (6, 3)),((1, 4), (4, 5)), (7, 6))<strong>und</strong>((5, 7), (8, 8)).Für die Inverse π −1 = [2, 3, 6, 1, 4, 7, 5, 8] gilt D(π) = 2. Sie hat Descente in 3 <strong>und</strong>6.Aufschluss über den Zusammenhang zwischen aufsteigenden Sequenzen <strong>und</strong>Descenten gibt das folgende Lemma.


34 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>2.2.4 Lemma. Sei π ∈ S n <strong>und</strong> r ∈ N ≤n . π besitzt genau dann r aufsteigendeSequenzen, wenn π −1 r − 1 Descente hat, das heißtR(π) = r ⇐⇒ D(π −1 ) = r − 1.Beweis. Für r = 1 folgt die Behauptung direkt ausR(π) = 1 ⇐⇒ π = id ⇐⇒ D(π) = 0.Sei also r ≥ 2.” ⇒“ Wir wählen k 0, . . . , k r ∈ N mit0 = k 0 < k 1 < . . . < k r−1 < k r = n<strong>und</strong> paarweise verschiedene i 1 , . . . , i n ∈ N ≤n , so dass die r aufsteigenden Sequenzenvon π gegeben sind durch((i1 , 1)), . . . , (i k1 , k 1 ) ) , ( (i k1 +1, k 1 + 1)), . . . , (i k2 , k 2 ) ) , . . . ,((ikr−1 +1, k r−1 + 1)), . . . , (i n , n) ) .Dann gilt π(i j ) = j <strong>und</strong> π −1 (j) = i j für j = 1, . . . , n. Die Anzahl der Descente vonπ −1 ist gegeben durchD(π −1 ) = |{j ≤ n − 1 | π −1 (j) > π −1 (j + 1)}|= |{j ≤ n − 1 | i j > i j+1 }|.Aufgr<strong>und</strong> der Definition der aufsteigenden Sequenz gilt i j < i j+1 für j = k l +1, . . . , k l+1 , l = 0, . . . , r − 1 <strong>und</strong>i j > i j+1 für j = k l <strong>und</strong> l = 1, . . . , r − 1.Daraus folgt unmittelbar D(π −1 ) = r − 1.” ⇐“ Seien k 1, . . . , k r−1 ∈ N mit0 def= k 0 < k 1 < . . . < k r−1 < k rdef= n


2.2 Aufsteigende Sequenzen 35die Sprungstellen von π −1 <strong>und</strong> i 1 , . . . , i n ∈ N ≤n , so dass π −1 (j) = i j für j =1, . . . , n. Dann giltπ −1 (k l ) > π −1 (k l + 1) für l = 1, . . . , r − 1 <strong>und</strong>π −1 (k l + 1) < . . . < π −1 (k l+1 ) für l = 0, . . . , r − 1.Daraus folgt wegen π −1 (j) = i j , j = 1, . . . , n,i k1 > i k1 +1, i k2 > i k2 +1 . . . , i kr−1 > i kr−1 +1 <strong>und</strong>i 1 < . . . < i k1 , i k1 +1 < . . . < i k2 , . . . ,i kr−1 +1 < . . . < i n .Wegen π(i j ) = j für j = 1, . . . , n sind die aufsteigenden Sequenzen von π danngegeben durch((i1 , 1)), . . . , (i k1 , k 1 ) ) , ( (i k1 +1, k 1 + 1)), . . . , (i k2 , k 2 ) ) , . . . ,((ikr−1 +1, k r−1 + 1)), . . . , (i n , n) ) .Also ist R(π) = r.Bei einem GSR-(a, n)-<strong>Shuffle</strong> eines ungemischten Kartenstapels helfen uns dieaufsteigenden Sequenzen, die ursprünglichen Päckchen wiederzuentdecken: Sie sindnach dem Ineinanderblättern als aufsteigende Sequenzen zu erkennen (siehe Beispiel2.1.1). Dies wird im Beweis des folgenden Theorems (siehe Theorem 3, Abschnitt3 in [6]) deutlich. Wie eingangs dieses Abschnitts beschrieben, erweist essich als Schlüssel zur Bestimmung der Verteilung Q ∗(m)a,n <strong>und</strong> somit zur Berechnungder Totalvariation ‖Q ∗(m)a,n − U Sn ‖ für m ≥ 1.2.2.5 Theorem. Sei n ∈ N, a ∈ N ≥2 <strong>und</strong> π ∈ S n . Die Wahrscheinlichkeit, dassein GSR-(a, n)-<strong>Shuffle</strong> in der Permutation π resultiert, ist gegeben durch)wobei ( )m def= 0 für m < n.nQ a,n ({π}) =( n+a−R(π)na n , (2.2.1)Beweis. Seien n ∈ N, π ∈ S n beliebig <strong>und</strong> R(π) = r. Ausgehend vom Maximum-Entropie- bzw. inversen Modell ist die gesuchte Wahrscheinlichkeit bestimmt durch


36 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>die Anzahl aller möglichen Arten, einen ungemischten Stapel in a PäckchenA 1 ,. . . ,A a zu unterteilen, so dass π ein möglicher Mischvorgang ist. Dies gilt, dadie Reihenfolge, in der die Karten ineinandergeblättert werden, bereits eindeutigdurch π festgelegt ist. Wir wählen k 0 , . . . , k r ∈ N mit0 = k 0 < k 1 < . . . < k r−1 < k r = n,so dass die r aufsteigenden Sequenzen von π gegeben sind durch((i1 , 1)), . . . , (i k1 , k 1 ) ) , ( (i k1 +1, k 1 + 1)), . . . , (i k2 , k 2 ) ) , . . . ,((ikr−1 +1, k r−1 + 1)), . . . , (i n , n) ) .Sei nun A 1 , . . . , A a eine Päckchenfolge, so dass π ein möglicher Mischvorgang ist.Da sich die Karten in den einzelnen Päckchen vor <strong>und</strong> nach dem Ineinanderblätternin derselben Reihenfolge befinden, besteht jede Sequenz in π aus aufeinanderfolgendenPäckchen A k , . . . , A k+l mit geeignetem k ∈ N ≤a <strong>und</strong> l ∈ {0, . . . , a−1}. Die VereinigungA k ∪ . . . ∪ A k+l von aufeinanderfolgenden Päckchen A k , . . . , A k+l bezeichnenwir als Paket. Zwei aufeinanderfolgende Sequenzen ( (i kj−1 , k j−1 ) ) , . . . , (i kj , k j ) )<strong>und</strong> ( (i kj +1, k j + 1)), . . . , (i kj+1 , k j+1 ) ) müssen in verschiedenen Paketen aufeinanderfolgenderPäckchen liegen, da es sonst nicht möglich ist, die Karte k j + 1 vorder Karte k j einzusortieren. Hieraus folgt unmittelbar Q a,n ({π}) = 0 für r > a∧n.Sei also im Folgenden r ≤ a ∧ n. Dann existieren j 1 , . . . , j r1 ≤ j 1 < . . . < j r−1 < j r = a <strong>und</strong>∈ {1, . . . , a}, mitA 1 ∪ . . . ∪ A j1 = {1, . . . , k 1 }, A j1 +1 ∪ . . . ∪ A j2 = {k 1+1 , . . . , k 2 }, . . . ,A jr−1 +1 ∪ . . . ∪ A a = {k r−1 + 1, . . . , n}. (2.2.2)Wir zählen nun alle Möglichkeiten ab, einen ungemischten Stapel in a PäckchenA ′ 1, . . . , A ′ a zu unterteilen, so dass π ein möglicher Mischvorgang ist. Wir zeigenunsere Behauptung auf zwei verschiedene Arten, indem wir zwei unterschiedlichekombinatorische Abzählargumente verwenden.1. Abzählargument (Kombination ohne Wiederholung): Wir codieren zunächstjede Päckchenfolge A ′ 1, . . . , A ′ a eineindeutig durch ein (n + a − 1)-Tupel bestehendaus n Sternchen ∗“ <strong>und</strong> a − 1 Trennstrichen |“. Enthalten die Päckchen” ”


2.2 Aufsteigende Sequenzen 37A ′ 1, . . . , A ′ a l 1 , . . . , l a Karten, (l 1 , . . . , l a ) ∈ ∑ an , so besetzen wir den l 1, . . . , l a entsprechendviele Positionen mit Sternchen <strong>und</strong> trennen die so entstandenen a Blöckedurch a − 1 Trennstriche:A ′ 1, . . . , A ′ a ↔ (∗, . . . , ∗ | ∗, . . . , ∗ | . . . | ∗, . . . , ∗). (2.2.3)} {{ } } {{ } } {{ }l 1 -mal l 2 -mall a-malUm nun alle Möglichkeiten abzuzählen, einen ungemischten Stapel so in a PäckchenA ′ 1, . . . , A ′ a zu unterteilen, dass π ein möglicher Mischvorgang ist, genügt es schon,alle Möglichkeiten zu bestimmen, die a−1 Trennstriche auf n+a−1 Positionen zuverteilen, so dass die gemäß (2.2.3) bestimmte Päckchenfolge zum Mischvorgangπ gehört. Die n Sternchen nehmen dann gerade die verbleibenden Positionen ein.Die Reihenfolge, in der die einzelnen Karten ineinandergeblättert werden, ist durchπ eindeutig festgelegt ist. Daher führt eine Päckchenfolge A ′ 1, . . . , A ′ a genau dannzum Mischvorgang π, wenn sie von der Form (2.2.2) ist. Dann sind aber r − 1Pakete bereits durch π festgelegt, das heißt die Positionen der r − 1 Trennstrichezwischen diesen Paketen sind vorgegeben: Vor dem ersten Trennstrich müssen sichk 1 Sternchen befinden, vor dem zweiten Trennstrich k 2 Sternchen usw. Es bleibenalso noch (a − 1) − (r − 1) = a − r Trennstriche, die beliebig auf die n + a − 1Positionen verteilt werden können. Hierbei ist zu beachten, dass tatsächlich jededer n + a − 1 Positionen von den a − r Trennstrichen eingenommen werden kann,da die Positionen der übrigen r −1 Trennstriche zwar festgelegt sind, aber von denvorher schon vergebenen Positionen abhängen: Werden zunächst a−r Trennstricheverteilt, so erhalten wir ein (n + a − 1)-Tupel, bestehend aus a − r Trennstrichen<strong>und</strong> (n + a − 1) − (a − r) = n + r − 1 Leerstellen ⊔“, der Form”(⊔, . . . , ⊔ | ⊔, . . . , ⊔ | . . . | ⊔, . . . , ⊔),} {{ } } {{ } } {{ }m 1 -mal m 2 -malm a-malmit geeigneten m 1 , . . . , m a ∈ ∑ an. Die n Sternchen <strong>und</strong> die übrigen r − 1 Trennstrichemüssen dann so auf die Leerstellen-Positionen verteilt werden, dass sich vordem ersten der r − 1 Trennstriche k 1 Sternchen befinden, vor dem zweiten Trennstrichk 2 Sternchen usw. Wir kennzeichnen die r − 1 festgelegten Trennstriche


38 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>durch ”↓“:(∗, . . . , ∗| . . . |∗, . . . , ∗} {{ }k 1 -mal ”∗“↓ ∗, . . . , ∗| . . . , |∗, . . . , ∗ ↓ . . . ↓ ∗, . . . , ∗| . . . |∗, . . . , ∗).} {{ }k 2 -mal ”∗“.} {{ }k r-mal ∗“ ”Es gibt ( ) (n+a−ra−r = n+a−r)n Möglichkeiten die a − r Trennstriche auf n + a − rPositionen zu verteilen <strong>und</strong> somit ( )n+a−rn Möglichkeiten den Kartenstapel so in aPäckchen zu teilen, dass π ein möglicher Mischvorgang ist. Somit gilt alsoQ a,n ({π}) =( n+a−rn)a n ,da es insgesamt a n mögliche GSR-(a, n)-<strong>Shuffle</strong> gibt.2. Abzählargument (Kombination mit Wiederholung): Die n Karten seien nachaufsteigenden Werten von links nach rechts vor uns ausgelegt. Zwischen zwei Karten,sowie vor der ersten <strong>und</strong> nach der letzten Karte sei jeweils ein Fach aufgestellt(siehe Abbildung 2.4). Insgesamt benötigen wir hierzu n + 1 Fächer.✞1♣✝☎✆✞2♣✝☎✆✞3♣✝☎✆. . .✞n♣✝☎✆Abbildung 2.4: Fächerverteilung: n + 1 Fächer zwischen n Karten.Wir können nun jede Päckchenfolge A ′ 1, . . . , A ′ a eineindeutig durch a − 1 ununterscheidbareKugeln, die wir auf die n+1 Fächer verteilen, identifizieren: Beginntbei Karte j ein Päckchen, so legen wir eine Kugel in das Fach links von Kartej. Bleibt ein Päckchen leer, so legen wir eine Kugel in das Fach links von derKarte, bei der das nächste nichtleere Päckchen beginnt. Ist das letzte Päckchenoder sind mehrere der letzten Päckchen leer, so legen wir eine oder der Anzahlder leeren letzten Päckchen entsprechend viele Kugeln in das letzte Fach. Dabeibenötigen wir nur a − 1 <strong>und</strong> nicht etwa a Kugeln, da bei Karte 1 immer mindestensein Päckchen beginnt. Enthalten die Päckchen also A ′ 1, . . . , A ′ a l 1 , . . . , l a


2.2 Aufsteigende Sequenzen 39Karten, (l 1 , . . . , l a ) ∈ ∑ an, das heißtA ′ 1 = {1, . . . , l 1 }, A ′ 2 = {l 1 + 1, . . . , l 1 + l 2 }, . . . , A ′ a = {l 1 + . . . + l a−1 + 1, . . . , n},so verteilen wir die Kugeln den Werten l 1 , . . . , l a entsprechend auf die Fächer: Dieerste Kugel legen wir in das Fach links von Karte l 1 + 1, die zweite Kugel indas Fach links von Karte l 1 + l 2 + 1 usw., bis hin zur (a − 1).-Kugel, die wir indas Fach links von Karte l 1 + . . . + l a−1 + 1 legen, bzw in das letzte Fach, fallsl 1 +. . .+l a−1 +1 = n+1. Hierbei ist zu beachten, dass für den Fall l 1 = 0 das erstePäckchen leer bleibt, das heißt A ′ 1 = ∅, <strong>und</strong> die erste der a − 1 Kugeln in das Fachlinks von Karte 1 gelegt wird. Ebenso können für den Fall, dass nicht sämtlichl 1 , . . . , l a von Null verschieden sind, mehrere Kugeln in einem Fach liegen (sieheAbbildung 2.5: Das erste <strong>und</strong> dritte Päckchen A 1 <strong>und</strong> A 3 sind leer, das zweitePäckchen A 2 besteht aus den Karten 1, 2, 3).✞1•♣✝☎✆✞2♣✝☎✆✞ ☎ ✞3♣ •• 4♣✝ ✆ ✝☎✆. . .✞n♣✝☎✆Abbildung 2.5: Beispiel für eine Kugelverteilung.Eine Päckchenfolge A ′ 1, . . . , A ′ a führt genau dann zum Mischvorgang π, wennsie von der Form (2.2.2) ist, das heißtA ′ 1 ∪ . . . ∪ A ′ j 1= {1, . . . , k 1 }, A ′ j 1 +1 ∪ . . . ∪ A ′ j 2= {k 1+1 , . . . , k 2 }, . . . ,A ′ j r−1 +1 ∪ . . . ∪ A ′ a = {k r−1 + 1, . . . , n},wobei 0 < k 1 < . . . < k r−1 < n <strong>und</strong> 1 ≤ j 1 < . . . < j r−1 < j r = a. Dann sind r − 1Pakete bereits durch π festgelegt, das heißt die Fachbelegung von r −1 Kugeln, dieden Beginn der einzelnen Pakete festlegen, sind vorgegeben: Die erste Kugel liegtin dem Fach links von Karte k 1 + 1, die zweite Kugel liegt in dem Fach links vonKarte k 2 +1 usw. <strong>und</strong> die letzte Kugel im Fach links von Karte k r−1 +1. Es bleibenalso noch (a − 1) − (r − 1) = a − r Kugeln, die beliebig auf die n + 1 Fächer verteiltwerden können, dabei können mehrere Kugeln in dasselbe Fach gelegt werden, daauch leere Päckchen zugelassen sind. Es gibt insgesamt ( ) ((n+1)+a−r−1(n+1)−1 = n+a−r)n


40 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>Möglichkeiten die a − r ununterscheidbaren Kugeln auf n + 1 Fächer zu verteilen<strong>und</strong> somit ( )n+a−rn Möglichkeiten den Kartenstapel so in a Päckchen zu teilen, dassπ ein möglicher Mischvorgang ist. Insgesamt zeigt dies wiederum)( n+a−rnQ a,n ({π}) = ,a nda es insgesamt a n mögliche GSR-(a, n)-<strong>Shuffle</strong> gibt.Für a ∈ N ≥2 ist der Träger von Q a,n nach Theorem 2.2.5 gegeben durchsupp(Q a,n ) = { π ∈ S n | R(π) ∈ {1, . . . , a ∧ n} } . (2.2.4)Ferner ergibt sich zusammen mit Korollar 2.1.12 die folgende Verallgemeinerungvon Theorem 2.2.5, in der die Verteilung Q ∗(m)a,n explizit angegeben ist.2.2.6 Korollar. (i) Seien m, n ∈ N, a 1 , . . . , a m ∈ N ≥2 , a def= ∏ mi=1 a i <strong>und</strong> π ∈S n . Dann gilt( n+a−R(π))nQ a1 ,n ∗ . . . ∗ Q am,n({π}) =a n . (2.2.5)(ii) Seien m, n ∈ N, a ∈ N ≥2 <strong>und</strong> π ∈ S n . Dann giltQ ∗(m)a,n ({π}) =( n+a m −R(π)n)a mn . (2.2.6)Aus Korollar 2.2.6 (2.2.6) <strong>und</strong> Lemma 1.1.4 erhalten als weitere triviale Folgerungdas folgende Korollar.2.2.7 Korollar. Seien m, n ∈ N <strong>und</strong> a ∈ N ≥2 . Eine Permutation π ist ein möglichesErgebnis von m sukzessiven GSR-(a, n)-Mischvorgängen genau dann, wennR(π) ∈ {1, . . . , a m ∧ n}, das heißtsupp(Q ∗(m)a,n ) = { π ∈ S n | R(π) ∈ {1, . . . , a m ∧ n} } = (supp(Q a,n )) ◦(m) .Für a ∈ N ≥2 ist die Funktion r ↦→ ( )n+a−rn /a n auf {1, . . . , a∧n} streng monotonfallend. Wegen R(id) = 1 ist daher Q a,n ({id}) > Q a,n ({π}) für alle π ∈ S n \{id}.Gegeben einen Q a,n -Random Walk X = (X m ) m≥0 auf S n , ist demnach in jedemMischvorgang das Mischen gemäß der Identität id wahrscheinlicher als das Mischennach jeder anderen Permutation. Allerdings führt wiederholtes Mischen nach demGSR-(a, n)-<strong>Shuffle</strong> tatsächlich dazu, dass ein Kartenstapel ”gut durchgemischt“wird:


2.2 Aufsteigende Sequenzen 412.2.8 Satz. Seien n ∈ N <strong>und</strong> a ∈ N ≥2 fest <strong>und</strong> (X m ) m≥0 ein Q a,n -Random Walkauf S n . Dann konvergieren die Verteilungen von X m in Totalvariation gegen dieGleichverteilung U Snauf S n , das heißtlim ‖P Xm − U Sn ‖ = limm→∞ m→∞ ‖Q∗(m) a,n − U Sn ‖ = 0.Beweis. X = (X m ) m≥0 ist eine endliche Markov-Kette. Nach dem Ergodensatzreicht es daher zu zeigen, dass X (a) irreduzibel <strong>und</strong> (b) aperiodisch ist. Da fürn = 1 nichts zu zeigen ist, sei n ≥ 2 <strong>und</strong> a ≥ 2.zu (a): Jede Transposition [i, i+1] Z ∈ S n mit i ≤ n−1 zerfällt in zwei Sequenzen((1, 1), . . . , (i − 1, i − 1), (i + 1, i))<strong>und</strong>((i, i + 1), (i + 2, i + 2), . . . , (n, n)),was [i, i + 1] Z ∈ supp(Q a,n ) vermöge Korollar 2.2.7 impliziert.Sei [i, j] Z eine Transposition mit |i − j| > 1. Wegen [i, j] Z = [j, i] Z können wiri < j annehmen. Dann hat [i, j] Z die drei aufeinanderfolgenden Sequenzen( ) ( )(1, 1), . . . , (i − 1, i − 1), (j, i) , (i + 1, i + 1), . . . , (j − 1, j − 1) <strong>und</strong>( )(i, j), (j + 1, j + 1), . . . , (n, n) .Definieren wir nun zwei Permutationen π 1 , π 2 ∈ S n durch()def 1 · · · i − 1 i i + 1 · · · j − 1 j j + 1 · · · nπ 2 =<strong>und</strong>1 · · · i − 1 i i + 2 · · · j i + 1 j + 1 · · · n()def 1 · · · i − 1 i i + 1 · · · j − 1 j j + 1 · · · nπ 1 =,1 · · · i − 1 j i · · · j − 2 j − 1 j + 1 · · · nso gilt()1 · · · i − 1 i i + 1 · · · j − 1 j j + 1 · · · nπ 1 ◦ π 2 == [i, j] Z1 · · · i − 1 j i + 1 · · · j − 1 i j + 1 · · · n<strong>und</strong> R(π 1 ) = R(π 2 ) = 2. Also folgt wiederum mit Korollar 2.2.7[i, j] Z ∈ (supp(Q a,n )) ◦(2) = {π ◦ σ | π, σ ∈ supp(Q a,n )}.Insgesamt gilt dann T n ⊂ (supp(Q a,n )) ◦(2) <strong>und</strong> somit wegen (1.2.1)〈supp(Q a,n )〉 = S n . Also ist X nach Satz 1.1.3 (a) irreduzibel.


42 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>zu (b): Wegen R(id) = 1 folgt aus Korollar 2.2.7 id ∈ supp(Q a,n ) <strong>und</strong> daherp (m)π,π = p (m)π −1 π = p(m) id= Q ∗(m)a,n ({id}) > 0für alle π ∈ S n <strong>und</strong> für alle m ∈ N. Damit ist X aperiodisch.Wir können die Aperiodizität von X auch auf andere Weise mit Hilfe von Satz1.1.3 (b) <strong>und</strong> der Ergebnisse aus Abschnitt 1.2 zeigen: Wir zeigen supp(Q a,n )⊂/ πNfür alle π ∈ S n <strong>und</strong> alle nicht-trivialen Normalteiler von S n . Mit Blick auf die Listeder Normalteiler von S n in Abschnitt 1.2 ist für n = 2 nichts zu zeigen. Für n = 3<strong>und</strong> n ≥ 5 ist A n der einzige nicht-triviale Normalteiler von S n . Es existierenσ 1 , σ 2 ∈ supp(Q a,n ) mit sgn(σ 1 ) = 1 <strong>und</strong> sgn(σ 2 ) = −1, etwa σ 1 = id <strong>und</strong> σ 2 =[1, 2] Z . Wegen sgn(ρ) = 1 für alle ρ ∈ A n <strong>und</strong> da sgn ein Gruppenhomomorphismusist, gilt jedoch für jedes π ∈ S n entweder sgn(σ) = 1 für alle σ ∈ πA n , fallssgn(π) = 1, oder sgn(σ) = −1 für alle σ ∈ πA n , falls sgn(π) = −1. Daraus folgtsupp(Q a,n )⊂/ πA n für n = 3 <strong>und</strong> n ≥ 5. Für n = 4 gilt ebenfalls sgn(σ) = 1 füralle σ ∈ V 4 bzw. A 4 . Insgesamt gilt also supp(Q a,n )⊂/ πN für alle π ∈ S n <strong>und</strong>alle nicht-trivialen Normalteiler von S n . Da X nach (a) irreduzibel ist, folgt dieAperiodizität von X also aus Satz 1.1.3 (b).2.3 Eulersche Zahlen <strong>und</strong> aufsteigende SequenzenIm vorherigen Abschnitt haben wir gezeigt, dass die aufsteigenden Sequenzen derSchlüssel zur Angabe der Wahrscheinlichkeiten Q ∗(m)a,n ({π}) für π ∈ S n <strong>und</strong> m ≥ 1sind. Aufsteigende Sequenzen sind eng mit den Eulerschen Zahlen verb<strong>und</strong>en. DieseVerbindung werden wir im Folgenden aufzeigen <strong>und</strong> für verschiedene Resultatenutzen.Sei n ∈ N. Für r = 1, . . . , n bezeichnen wir die Anzahl aller Permutationen in S nmit r aufsteigenden Sequenzen mit A n,r , also A n,r = |R n,r |. Wir setzen A n,x = 0 fürx ≠ 1, . . . , n. Gegeben sei im Folgenden ein Q a,n -Random Walk X = (X m ) m≥0 . Diestochastische Folge R(X) = (R(X m )) m≥0 gibt dann die Anzahlen der Sequenzender Markov-Kette X an. Mit Korollar 2.2.6 erhalten wir die Verteilung von R(X m ),


2.3 Eulersche Zahlen <strong>und</strong> aufsteigende Sequenzen 43m ≥ 0. Für m ≥ 0 <strong>und</strong> r = 1, . . . , n giltP (R(X m ) = r) = P Xm ({π ∈ S n | R(π) = r})= Q ∗(m)a,n (R n,r ) (2.3.1)= A ( )n,r n + a m − r.a mn nSummieren wir (2.3.1) über r = 1, . . . , n, so erhalten wir mit m = 1 für allen, a ∈ Na n =n∑r=1( ) a + n − rA n,r . (2.3.2)nGleichung (2.3.2) ist die sogenannte Worpitzky-Identität. Nach [26] entsprechen dieA n,r dann gerade den Eulerschen Zahlen. Verschiedene Eigenschaften der EulerschenZahlen <strong>und</strong> Aussagen über ihre Verbindungen zur Wahrscheinlichkeitstheorie<strong>und</strong> Kombinatorik finden sich ferner in [7], [8], [19], [22] <strong>und</strong> [23]. Für r = 1, . . . , nerhalten wir aus der Definition der Eulerschen Zahlen die RekursionA n,r = rA n−1,r + (n + 1 − r)A n−1,r−1 ,wobei A 0,0def= 1, A n,0def= 0 <strong>und</strong> A n−1,ndef= 0.Wegen R n,1 = {id}, R n,n = {[n, n − 1, . . . , 1]} <strong>und</strong> |S n | = n! folgt unmittelbarA n,1 = A n,n = 1 <strong>und</strong>n∑A n,r = n!.r=1Aus [26] erhalten wir ferner für r = 1, . . . , n die Symmetrie-EigenschaftA n,r = A n,n−r+1 ,sowie die geschlossene Form der Eulerschen Zahlen∑r−1( ) n + 1A n,r = (−1) i (r − i) n . (2.3.3)ii=0In Tabelle 2.1 sind die Werte der Eulerschen Zahlen für 1 ≤ r ≤ n ≤ 8 aufgelistet.Die Eulerschen Zahlen besitzen neben der Verbindung zur Kombinatorik eineweitere wichtige wahrscheinlichkeitstheoretische Interpretation:


44 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>r=1 2 3 4 5 6 7 8n=1 12 1 13 1 4 14 1 11 11 15 1 26 66 26 16 1 57 302 302 57 17 1 120 1191 2416 1191 120 18 1 247 4293 15619 15619 4293 247 1Tabelle 2.1: Eulersche Zahlen A n,r für 1 ≤ r ≤ n ≤ 8.2.3.1 Satz. Gegeben seien stochastisch unabhängige <strong>und</strong> identisch R(0, 1)-verteilteZufallsgrößen X 1 , . . . , X n . Dann entspricht1n! A n,k für k = 1, . . . , n der Wahrscheinlichkeit,dass die Summe von X 1 , . . . , X n im Intervall (k − 1, k] liegt, dasheißtwobei S ndef= ∑ ni=1 X i.P (S n ∈ (k − 1, k]) = 1 n! A n,k, (2.3.4)Beweis. Den folgenden kurzen Beweis entnehmen wir [23]. Sei F n die Verteilungsfunktionvon S n . Dann gilt nach Theorem 1 in Abschnitt I.9 aus [11] für alle x ≥ 0F n (x) = 1 n!⌊x⌋∧n∑( ) n(−1) i (x − i) n ,ii=0wobei ⌊x⌋ die untere Gauss-Klammer von x sei. Sei nun 1 ≤ k ≤ n. Dann folgtaus obiger Gleichung unter Beachtung von ( ) (n+1i = n(i)+ni−1)für i = 1, . . . , n <strong>und</strong>)= 0 zusammen mit (2.3.3)( n−1F n (k) − F n (k − 1) = 1 n!= 1 n!k∑( ) n(−1) i (k − i) n − 1 ∑k−1in!i=0k∑( ) n(−1) i (k − i) n − 1 in!i=0i=0k∑i=1(−1) i ( ni)((k − 1) − i) n( ) n(−1) i−1 (k − i) ni − 1


2.3 Eulersche Zahlen <strong>und</strong> aufsteigende Sequenzen 45= 1 k∑( ) n(−1) i (k − i) n + 1 k∑( ) n(−1) i (k − i) nn! in! i − 1i=0i=0= 1 k∑( ) n + 1(−1) i (k − i) nn!ii=0= 1 ∑k−1( ) n + 1(−1) i (k − i) n (2.3.5)n!ii=0= 1 n! A n,k.Ist M eine Markov-Kette <strong>und</strong> ϕ eine auf dem Zustandsraum von M definierteFunktion, so überträgt sich die Markov-Eigenschaft von M im Allgemeinen nichtauf ϕ(M). In Satz 2.3.3 zeigen wir, dass die stochastische Folge (R(X m )) m≥0 , alsodie Folge der Sequenzanzahlen der Markov-Kette (X m ) m≥0 , jedoch wiederum eineMarkov-Kette bildet. Wir benötigen hierzu zunächst ein hinreichendes Kriteriumaus [18], das Voraussetzungen nennt, unter denen eine Funktion angewandt aufeinen Markov-Prozess (in stetiger Zeit) wiederum einen Markov-Prozess bildet.Seien S <strong>und</strong> S ′ endliche Mengen <strong>und</strong> (P t ) t∈[0,∞) eine Familie von Wahrscheinlichkeitsmaßenauf (S, P(S)), ϕ : (S, P(S)) −→ (S ′ , P(S ′ )) <strong>und</strong> B(S ′ ) die Mengealler reellen Funktionen auf S ′ . ϕ heißt vollständig für die Familie (P t ) t∈[0,∞) , fallsfür f ∈ B(S ′ ) gilt∫S ′f(s ′ )P ϕt (ds ′ ) = 0 für alle t ∈ [0, ∞) =⇒ f = 0.2.3.2 Lemma. Seien S, S ′ wie oben, ϕ : (S, P(S)) −→ (S ′ , P(S ′ )) <strong>und</strong> (M t ) t∈[0,∞)ein Markov-Prozess in stetiger Zeit mit Zustandsraum S <strong>und</strong> Anfangsverteilung λauf einem Wahrscheinlichkeitsraum (Ω, A, P ). Es gelte ferner:(i) Für alle t ∈ [0, ∞) <strong>und</strong> y ∈ S ′ ist die regulär bedingte Verteilung von M tgegeben ϕ(M t ) = y unabhängig von t.(ii) ϕ ist vollständig für (P Mt ) t∈[0,∞) .Dann ist (ϕ(M t )) t∈[0,∞) ein Markov-Prozess mit Anfangsverteilung P ϕ(M 0) .


46 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>Um Lemma 2.3.2 auf unsere Situation eines Q a,n -Random Walks X mit Folgeder Sequenzanzahlen R(X) anwenden zu können, betten wir die stochastische FolgeR(X) = (R(X m )) m≥0 in einen stochastischen Prozess (R(M t )) t∈[0,∞) in stetiger Zeitein. Dazu sei (N t ) t∈[0,∞) ein von (X m ) m≥0 stochastisch unabhängiger <strong>und</strong> zeitlichhomogener Poisson-Prozess. Für t > 0 ist N t dann eine mit dem Parameter tPoisson-verteilte Zufallsgröße, das heißt für m ∈ N 0 giltP (N t = m) = P oi(t)({m}) = e −t tm m! . (2.3.6)Für t = 0 ist N 0 = δ 0 . Wir definieren den stochastischen Prozess M = (M t ) t∈[0,∞)durchM tdef= X Nt , t ∈ [0, ∞).Nach Abschnitt 1.3 in [21] ist M dann ein zeitlich homogener Markov-Prozess instetiger Zeit. Die zeitliche Homogenität von M folgt dabei aus der zeitlichen Homogenitätvon X. Zu einem Zeitparameter t ∈ [0, ∞) befindet sich der Prozess in demZustand, den die Markov-Kette X zum Zeitpunkt N t annimmt. Wir betrachtennun die zu M gehörige Folge der Sequenzanzahlen R(M) = (R(M t )) t∈[0,∞) . WegenR(S n ) = N ≤n ist der stochastische Prozess R(M) N ≤n -wertig. Für t ∈ [0, ∞) <strong>und</strong>r = 1, . . . , n gilt wegen der stochastischen Unabhängigkeit von (R(X m )) m≥0 <strong>und</strong>(N t ) t∈[0,∞) <strong>und</strong> (2.3.1)P (R(M t ) = r) = P (R(X Nt ) = r)( ⋃)= P {N t = m, R(X m ) = r}m≥0= ∑ m≥0P (N t = m)P (R(X m ) = r)= ∑ m≥0e −t tm m! P (R(X m) = r)∑( )= A n,r e −t tm m! · 1 n + a m − r. (2.3.7)a mn nm≥0Für t = 0 erhalten wir wegen N 0 = δ 0 , X 0 = id P -f.s. <strong>und</strong> R(id) = 1 speziellP (R(M 0 ) = r) = P (R(X 0 ) = r) = δ 1 ({r}). (2.3.8)


2.3 Eulersche Zahlen <strong>und</strong> aufsteigende Sequenzen 47Wir berechnen nun für t ∈ [0, ∞) <strong>und</strong> r = 1, . . . , n die regulär bedingte Verteilungvon M t gegeben R(M t ) = r. Sei π ∈ S n beliebig. Dann erhalten wir analogzur Rechnung in (2.3.7)P (M t = π, R(M t ) = r) = ∑ e −t tm m! P (X m = π, R(X m ) = r)m≥0Wegen δ r ({R(π)}) = δ Rn,r ({π}) gilt dann= ∑ m≥0e −t tm m! P (X m = π)P (R(π) = r)= δ r ({R(π)}) ∑ m≥0e −t tm m! ·P (M t = π, R(M t ) = r) = δ Rn,r ({π}) ∑ m≥0e −t tm m! ·( )1 n + a m − r.a mn n( )1 n + a m − r. (2.3.9)a mn nUnter Benutzung von (2.3.7) <strong>und</strong> (2.3.9) ergibt sichP (M t = π | R(M t ) = r) = 1A n,rδ Rn,r ({π}), (2.3.10)das heißt die regulär bedingte Verteilung von M t gegeben R(M t ) = r ist unabhängigvon t. Wir kommen nun zu dem bereits angekündigten Resultat.2.3.3 Satz. Sei n ∈ N, a ∈ N ≥2 <strong>und</strong> X = (X m ) m≥0 ein Q a,n -Random Walk. Dannist R(X) = (R(X m ) m≥0 ) eine zeitlich homogene Markov-Kette mit ZustandsraumN ≤n <strong>und</strong> Anfangsverteilung P R(X 0) = δ 1 .Beweis. Sei n ∈ N <strong>und</strong> a ∈ N ≥2 <strong>und</strong> M der oben zu X konstruierte Markov-Prozessin stetiger Zeit. Mit Lemma 2.3.2 zeigen wir, dass R(M) eine Markov-Kette mitAnfangsverteilung P R(M 0) ist. Nach (2.3.10) ist für t ∈ [0, ∞) <strong>und</strong> r = 1, . . . , n dieregulär bedingte Verteilung von M t gegeben R(M t ) = r unabhängig von t.Wir zeigen nun die Vollständigkeit von R für (P Mt ) t∈[0,∞) . Sei f ∈ B(N ≤n ) mit∫fdPR(M t) = 0 für alle t ∈ [0, ∞). Nach (2.3.7) gilt wegen der Beschränktheitvon f∫n∑ ∑( )fdP R(Mt) = e −t tm m! · An,r n + a m − rf(r)a mn nr=1 m≥0= e ∑ ( n∑ ( ) )−t t m A n,r n + a m − rf(r) = 0m! a mn nm≥0 r=1


48 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>für alle t ∈ [0, ∞). Aus dem Identitätssatz für Potenzreihen folgt dann für allem ≥ 0n∑r=1( )A n,r n + a m − rf(r) = 0a mn n<strong>und</strong> somitn∑r=1( )n + a m − rA n,r f(r) = 0. (2.3.11)nWir definieren die Funktion g : R −→ R für x ∈ R durchg(x) def==n∑( ) n + x − rA n,r n!f(r)nr=1n∑A n,r ((x − r + 1) · . . . · (x − r + n)) f(r)r=1= A n,1 x(x + 1) · . . . · (x − 1 + n)f(1) (2.3.12)+ A n,2 (x − 1)x · . . . · (x − 2 + n)f(2).+ A n,n (x − n + 1) · . . . · (x − 1)xf(n),wobei die oben autretenden Binomialkoeffizienten an dieser Stelle für alle x ∈ Rdefiniert seien durch( xn)def=x(x − 1) · . . . · (x − n + 1).1 · 2 · . . . · nDann ist g ein relles Polynom vom Grad ≤ n. Nach (2.3.11) gilt g(a m ) = 0 für allem ≥ 0. Wegen a ≥ 2 hat g also unendlich viele Nullstellen <strong>und</strong> es folgt g = 0. Mitx = 1, . . . , n erhalten wir dann aus (2.3.12)f(1) = f(2) = . . . = f(n) = 0.Dies zeigt die Vollständigkeit von R für (P Mt ) t∈[0,∞) . Nach Lemma 2.3.2 ist R(M)also ein Markov-Prozess mit Anfangsverteilung P R(M 0) , wobei nach (2.3.8)P R(M 0) = δ 1 gilt. Da X zeitlich homogen ist, gilt dasselbe für M <strong>und</strong> somit für


2.4 Konvergenz gegen die Gleichverteilung: Der <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> 49R(M). Nach Kapitel 8 in [5] ist dann auch die in den Markov-Prozess R(M)” eingebettete“ stochastische Folge R(X) = (R(X m)) m≥0 eine zeitlich homogeneMarkov-Kette. R(X) hat so wie R(M) den Zustandsraum N ≤n <strong>und</strong> wegenP R(X 0) = P R(M 0) = δ 1 die Anfangsverteilung δ 1 .2.4 Konvergenz gegen die Gleichverteilung: Der<strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>Nach Satz 2.2.8 konvergiert ein Q a,n -Random Walk auf S n in Totalvariation gegendie Gleichverteilung U Sn . Wir untersuchen im Folgenden den GSR-(2, n)-<strong>Shuffle</strong><strong>und</strong> leiten Aussagen über die Konvergenzrate her. In diesem Abschnitt sei a = 2,defQ n = Q 2,n <strong>und</strong> X = (X m ) m≥0 ein Q n -Random Walk.Die computergestützte Berechnung des Variationabstands ‖Q ∗(m)n− U Sn ‖, alsoder ”Entfernung“ eines m-mal nach dem GSR-(2, n)-<strong>Shuffle</strong> gemischten Kartenstapelsvon der Gleichverteilung, mit Hilfe der Formel‖Q ∗(m)n − U Sn ‖ = 1 2∑ ∣ ∣∣Q ∗(m)n ({π}) − 1 ∣n!π∈S nist schon bei üblichen Kartenstapelgrößen auf Gr<strong>und</strong> der Anzahl von n! zu berechnendenTermen nicht möglich. So sind beispielsweise für einen Skat-Kartenstapel32! Terme zu berechnen, für einen Blackjack-, Bridge- oder Schafkopf-Kartenstapel52! <strong>und</strong> Rommé-Spieler sehen sich der Anzahl von 104! Termen ausgeliefert.Mit Hilfe der aufsteigenden Sequenzen lässt sich der Rechenaufwand jedochdrastisch auf die Berechnung von n Termen reduzieren, denn für m ≥ 0 erhaltenwir mit Korollar 2.2.6 (ii)‖Q ∗(m)n − U Sn ‖ = 1 ∑ ∣ ∣∣Q ∗(m)n ({π}) − 1 ∣2n!π∈S n= 1 ∑ ∣( )∣∣ n + 2 m − R(π) 12n 2 − 1 ∣mn n!π∈S n


50 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>= 1 2= 1 2n∑ ∑ ∣( )∣∣ n + 2 m − r 1n 2 − 1 ∣mn n!π∈R n,rn∑ ∣( )∣∣ n + 2 m − r 1A n,rn 2 − 1 ∣∣. (2.4.1)mn n!r=1r=1Dabei bezeichnen A n,1 , . . . , A n,n die Eulerschen Zahlen, die durchfür r = 1, . . . , n gegeben sind.∑r−1( ) n + 1A n,r = (−1) i (r − i) nii=0In Tabelle 2.2 ist der Variationsabstand von Q ∗(m)n<strong>und</strong> der GleichverteilungU Sn für die gebräuchlichen Kartenstapelgrößen n = 24, 32, 48, 52, 104 <strong>und</strong> m =1, . . . , 10 Mischvorgänge aufgelistet. Der Variationsabstand wurde mit Hilfe von(2.4.1) berechnet.m=1 2 3 4 5 6 7 8 9 10n=24 1.000 0.999 0.998 0.723 0.418 0.211 0.109 0.055 0.028 0.01432 1.000 1.000 0.999 0.929 0.597 0.322 0.164 0.084 0.042 0.02148 1.000 1.000 1.000 0.999 0.888 0.546 0.297 0.149 0.076 0.03852 1.000 1.000 1.000 0.999 0.924 0.614 0.334 0.167 0.085 0.043104 1.000 1.000 1.000 1.000 1.000 0.988 0.772 0.454 0.237 0.119Tabelle 2.2: ‖Q ∗(m)n − U Sn ‖ für n = 24, 32, 48, 52, 104 <strong>und</strong> m = 1, . . . , 10.Für n = 52 ist der Variationsabstand von Q ∗(m)n <strong>und</strong> U Sn für m = 1, . . . , 20Mischvorgänge in Abbildung 2.6 in einem Graphen abgetragen. Es wird deutlich,dass der Variationsabstand bis zu einer Anzahl von m = 5 Mischvorgängennahe bei seinem maximalen Wert von 1 liegt. Innerhalb der nächsten vier Mischvorgängenähert er sich jedoch abrupt seinem Minimum von 0 an. Diese abrupteAnnäherung innerhalb eines relativ kurzen Zeitraums wird als <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> oder<strong>Cut</strong>-<strong>Off</strong>-Phänomen bezeichnet. Ein Blick auf den aktuellen Stand der Forschung offenbart,dass es sich beim <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> tatsächlich um ein Phänomen handelt: Esist bislang nicht gelungen, anhand der Struktur des Zustandsraums <strong>und</strong> des Übergangskernseiner ergodischen Markov-Kette Bedingungen abzuleiten, unter denen


2.4 Konvergenz gegen die Gleichverteilung: Der <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> 51✻0.751 • • • •••0.50.25•••• • • • • • • • • • • ✲0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20Abbildung 2.6: m ↦−→ ‖Q ∗(m)n − U Sn ‖ für n = 52 <strong>und</strong> m = 1, . . . , 20.bei der Konvergenz gegen die stationäre Verteilung ein <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> auftritt.Vielmehr ist in jedem einzelnen Fall eine explizite Berechnung oder Approximationdes Variationsabstands nötig. Diaconis [10] äußert jedoch die Vermutung, dassdas <strong>Cut</strong>-<strong>Off</strong>-Phänomen vor allem bei reversiblen Markov-Ketten auftritt, bei denender zweitgrößte Eigenwert der zugehörigen Übergangsmatrix eine hohe Vielfachheitaufweist. Wilson [24] konnte im Jahre 2004 den <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> für zahlreicheMarkov-Ketten nachweisen, deren Zustandsraum als Lozenge interpretiert werdenkann. Eine Lozenge ist ein Rhombus mit 60 ◦ <strong>und</strong> 120 ◦ Winkeln <strong>und</strong> Kanten derLänge 1. Er verwendete die Fourier-Theorie <strong>und</strong> Kopplungsargumente, um obere<strong>und</strong> untere Schranken für die Totalvariation herzuleiten. Für einige Kartenmischmodelle<strong>und</strong> Markov-Ketten konnte so der <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> nachgewiesen werden.Wir geben nun eine präzisere Definition des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s (siehe Abschnitt2.4.2 in [21]). Ist G eine endliche Gruppe, so sei U G wie im Vorangegangenendie Gleichverteilung auf G. Für n ≥ 1 sei G n eine endliche Gruppe. Wir bezeichneneine Familie von Wahrscheinlichkeitsmaßen (P n ) n≥1 als ergodische Familieauf ((G n , P(G n ))) n≥1 , falls für alle n ≥ 1 P n ein Wahrscheinlichkeitsmaß auf(G n , P(G n )) ist <strong>und</strong> der P n -Random Walk auf G n ergodisch, das heißt irreduzibel<strong>und</strong> aperiodisch mit stationärer Verteilung U Gn ist.2.4.1 Definition. Sei (G n ) n≥1 eine Familie endlicher Gruppen <strong>und</strong> (P n ) n≥1 eine


52 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>ergodische Familie von Wahrscheinlichkeitsmaßen auf ((G n , P(G n ))) n≥1 . Die Familie(P n ) n≥1 besitzt einen <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> (in Totalvariation) mit <strong>Cut</strong>-<strong>Off</strong>-Zeiten(t n ) n≥1 , falls folgende Bedingungen erfüllt sind:(i) Es gilt t n ≥ 0 für alle n ≥ 1 <strong>und</strong> lim n→∞ t n = ∞.(ii) Für alle ε ∈ (0, 1) <strong>und</strong> m n = ⌊(1 + ε)t n ⌋ gilt lim n→∞ ‖P ∗(mn)n − U Gn ‖ = 0.(iii) Für alle ε ∈ (0, 1) <strong>und</strong> m n = ⌊(1 − ε)t n ⌋ gilt lim n→∞ ‖P ∗(mn)n − U Gn ‖ = 1.Besitzt eine Familie (P n ) n≥1 einen <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> mit <strong>Cut</strong>-<strong>Off</strong>-Zeiten (t n ) n≥1 , sobedeutet dies, dass die Funktion m ↦→ ‖Pn∗(m) −U Gn ‖ bis zu einem Zeitpunkt vor“ ”⌊t n ⌋ nah bei ihrem maximalen Wert von 1 bleibt. Nach dem Zeitpunkt ⌊t n ⌋ fälltsie rasch auf einen Wert nahe 0. Dieser ”Phasen-Übergang“ vollzieht sich dabeiinnerhalb eines im Vergleich zu ⌊t n ⌋ relativ kurzen Zeitraums der Größenordnungo(t n ).Aus Abschnitt 2.4.2 in [21] bzw. Abschnitt 1 in [10] erhalten wir eine weitere<strong>und</strong> zugleich striktere Definition des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s.2.4.2 Definition. Sei (G n ) n≥1 eine Familie endlicher Gruppen <strong>und</strong> (P n ) n≥1 eineergodische Familie von Wahrscheinlichkeitsmaßen auf ((G n , P(G n ))) n≥1 . DieFamilie (P n ) n≥1 besitzt einen starken <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> (in Totalvariation) mit <strong>Cut</strong>-<strong>Off</strong>-Zeiten ((t n , b n )) n≥1 , falls folgende Bedingungen erfüllt sind:(i) Es gilt t n ≥ 0, b n > 0 für alle n ≥ 1, lim n→∞ t n = ∞ <strong>und</strong> lim n→∞ b n /t n = 0.def(ii) Für alle c ∈ R <strong>und</strong> m n = ⌊t n + cb n ⌋ gilt lim n→∞ ‖Pn∗(mn) − U Gn ‖ = f(c) füreine reelle Funktion f mit lim c→∞ f(c) = 0 <strong>und</strong> lim c→−∞ f(c) = 1.In der obigen Definition kann c ∈ R auch durch j ∈ Z ersetzt werden. Ausder Definition von starkem <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> <strong>und</strong> <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> folgt unmittelbar,da ‖Pn∗(m) − U Gn ‖ monoton fallend in m ist (siehe Lemma 3.5 in [1]), dass einstarker <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> mit <strong>Cut</strong>-<strong>Off</strong>-Zeiten ((t n , b n )) n≥1 einen <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> mit<strong>Cut</strong>-<strong>Off</strong>-Zeiten (t n ) n≥1 impliziert:


2.5 Obere <strong>und</strong> untere Schranke für die Totalvariation 532.4.3 Bemerkung. Sei (G n ) n≥1 eine Familie endlicher Gruppen <strong>und</strong> (P n ) n≥1 eineergodische Familie von Wahrscheinlichkeitsmaßen auf ((G n , P(G n ))) n≥1 . Falls(P n ) n≥1 einen starken <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> mit <strong>Cut</strong>-<strong>Off</strong>-Zeiten ((t n , b n )) n≥1 besitzt, sobesitzt (P n ) n≥1 einen <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> mit <strong>Cut</strong>-<strong>Off</strong>-Zeiten (t n ) n≥1 .Beweis. Sei ((t n , b n )) n≥1 wie in Definition 2.4.2 <strong>und</strong> ε ∈ (0, 1). Wir zeigen∗(⌊(1+ε)tn⌋)lim ‖Pn − U G ‖ = 0.n→∞Sei c > 0 beliebig. Wegen lim n→∞ b n /t n = 0 <strong>und</strong> lim n→∞ t n = ∞ existiert einN = N ε,c ∈ N mit εt n > cb n für alle n ≥ N. Da ‖Pn∗(m) − U Gn ‖ monoton fallend inm ist (siehe Lemma 3.5 in [1]), gilt für alle n ≥ N wegen ⌊(1+ε)t n ⌋ = ⌊t n +εt n ⌋ ≥⌊t n + cb n ⌋<strong>und</strong> somit‖P ∗(⌊(1+ε)tn⌋)n− U Gn ‖ ≤ ‖P ∗(⌊tn+cbn⌋)n− U Gn ‖lim sup ‖Pn∗(⌊(1+ε)tn⌋) − U Gn ‖ ≤ lim ‖Pn∗(⌊tn+cbn⌋) − U Gn ‖ = f(c).n→∞n→∞Da c > 0 beliebig gewählt war, erhalten wir vermöge lim c→∞ f(c) = 0 <strong>und</strong>0 ≤ f ≤ 1lim sup ‖Pn∗(⌊(1+ε)tn⌋) − U Gn ‖ ≤ inf lim ∗(⌊tn+cbn⌋)‖Pn− U Gn ‖ = inf f(c) = 0.n→∞c∈R n→∞ c∈RMit ‖P ∗(⌊(1+ε)tn⌋)n− U Gn ‖ ≥ 0 folgt insgesamtAnalog erhalten wir∗(⌊(1+ε)tn⌋)lim ‖Pn − U Gn ‖ = 0.n→∞∗(⌊(1−ε)tn⌋)lim ‖Pn − U Gn ‖ = 1.n→∞2.5 Obere <strong>und</strong> untere Schranke für die TotalvariationWir werden im nächsten Abschnitt zeigen, dass die Familie (Q n ) n≥1 der GSR-(2, n)-Mischmethoden, n ≥ 1, einen starken <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> mit <strong>Cut</strong>-<strong>Off</strong>-Zeiten


54 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>((t n , b n )) = (( 3 2 log 2 n, 1)) n≥1 besitzt, wobei log 2 den Logarithmus zur Basis 2 bezeichne.Mit Blick auf Definition 2.4.2 bedeutet dies, dass für große Kartenstapelgrößenn eine Anzahl von ⌊ 3 2 log 2 n⌋ Mischvorgängen hinreichend <strong>und</strong> notwendigist, um den Kartenstapel ”gut durchzumischen“.‖Q ∗(m)nDie folgenden oberen <strong>und</strong> unteren Schranken für die Totalvariation− U Sn ‖ nach m-maligem Mischen nach dem GSR-(2, n)-<strong>Shuffle</strong> gehen aufReeds [17] zurück <strong>und</strong> finden sich, abgesehen von der Asymptotik für die untereSchranke, auch in [2], [9] <strong>und</strong> [16]. Sie gehören zu den zeitlich frühesten Ergebnissenzum <strong>Riffle</strong> <strong>Shuffle</strong> <strong>und</strong> sind deswegen an dieser Stelle aufgeführt. Im Vergleichzu den Resultaten von Bayer <strong>und</strong> Diaconis [6] besitzen sie jedoch nur geringeAussagekraft.2.5.1 Satz (Untere Schranke). Seien m, n ∈ N. Dann gilt‖Q ∗(m)n − U Sn ‖ ≥ 1 − 1 2∑m ∧nn!r=1A n,r((2 m ∧ n) − n 2∼ 1 − Φ √n→∞ n12wobei Φ die Verteilungsfunktion der Standardnormalverteilung sei.Beweis. Seien m, n ∈ N. Für alle A ⊂ S n gilt‖Q ∗(m)n− U Sn ‖ ≥ |Q ∗(m)n (A) − U Sn (A)|.Wählen wir A = supp(Q ∗(m)n ), so folgt mit Korollar 2.2.7‖Q ∗(m)n− U Sn ‖ ≥ 1 − | supp(Q∗(m) n )|n!= 1 − |{π ∈ S n | R(π) ≤ 2 m ∧ m}|n!= 1 −2∑m ∧nr=1= 1 − 1 n!|{π ∈ S n | R(π) = r}|n!∑A n,r .2 m ∧n( )∑Den Nachweis für die asymptotische Aussage 1− 1 2 m ∧n(2n! r=1A n,r ∼ 1−Φm ∧n)−√ n 2n12für n → ∞ erbringen wir an späterer Stelle <strong>und</strong> zwar im Beweis von Lemmar=1),


2.5 Obere <strong>und</strong> untere Schranke für die Totalvariation 552.6.6. Ersetzen wir dort in (2.6.20) h ∗ durch (2 m ∧ n) − n/2, so erhalten wir dieBehauptung.Für den Beweis der oberen Schranke wird eine stark stationäre Stoppzeit fürden Q n -Random Walk konstruiert. Für die allgemeine Definition der Stoppzeit <strong>und</strong>der stark stationären Stoppzeit verweisen wir auf die Abschnitte 3 <strong>und</strong> 18 in[4]. Inder Situation des Q n -Random Walks auf S n reicht die folgende Definition aus.2.5.2 Definition. Sei X = (X m ) m≥0 ein Q n -Random Walk auf einem messbarenRaum (Ω, A, P ) (mit eindeutig bestimmter stationärer Verteilung U Sn ). Einemessbare Abbildung T : Ω −→ N 0 ∪ {∞} mit {T = m} ∈ σ(X 0 , . . . , X m ) fürm ≥ 0 heißt stark stationäre Stoppzeit, wenn sie die folgenden zwei Bedingungenerfüllt:(i) P (T < ∞) = 1,(ii) P (X m = π | T = m) = U Sn ({π}) für alle m ≥ 0 <strong>und</strong> π ∈ S n .2.5.3 Bemerkung. Sei T eine stark stationäre Stoppzeit für den Q n -RandomWalk X. Dann gilt für alle m ≥ 0‖Q ∗(m)n− U Sn ‖ ≤ P (T > m).Beweis. Sei m ≥ 0 <strong>und</strong> A ⊂ S n beliebig. Dann gilt nach Definition 2.5.2 (ii)P (X m ∈ A) = P (X m ∈ A, T ≤ m) + P (X m ∈ A, T > m)Daraus folgt unmittelbar‖Q ∗(m)n= P (X m ∈ A | T ≤ m)P (T ≤ m) + P (X m ∈ A | T > m)P (T > m)= U Sn (A)(1 − P (T > m)) + P (X m ∈ A | T > m)P (T > m)= U Sn (A) + (P (X m ∈ A | T > m) − U Sn (A))P (T > m).− U Sn ‖ = ‖P Xm − U Sn ‖= supA⊂S n‖P Xm (A) − U Sn (A)‖= supA⊂S nP (T > m)|P (X m ∈ A | T > m) − U Sn (A)|≤ P (T > m).


56 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>Die folgende obere Schranke für die Totalvariation ‖Q ∗(m)n− U Sn ‖ ist aus demGeburtstagsproblem“ bekannt. Aufgr<strong>und</strong> des geringen Nutzens der oberen”Schranke im Vergleich zu unseren späteren Ergebnissen, verzichten wir auf einendetaillierten Beweis.2.5.4 Satz (Obere Schranke). Seien m, n ∈ N. Dann gilt‖Q ∗(m)n− U Sn ‖ ≤ 1 −n∏i=1(1 − i2 m ).Beweis. Wir werden für den Beweis das inverse Modell benutzten, jedoch mit einerleichten Modifikation: Im inversen Modell (siehe (2.1.4)) haben wir die MischmethodeQ I a,n für B ⊂ S n durchQ I a,n(B) = U N n0,a−1(X I a,n = π −1 , π ∈ B)definiert. Wir definieren wir nun die Mischmethode Q I a,n für B ⊂ S n durchQ I a,n(B) def= U N n0,a−1(X I a,n = π, π ∈ B).<strong>und</strong> Q ndef= Q I 2,n. Dann gilt mit I : S n −→ S n definiert durch I(π) = π −1 , π ∈ S n ,wegen (Q I n) I = Q I n unter Beachtung von (1.1.1) aus Symmetriegründen‖Q ∗(m)n− U Sn ‖ = ‖(Q I 2,n) ∗(m) − U Sn ‖= ‖(Q I 2,n) ∗(m) − U Sn ‖= ‖Q ∗(m)n− U Sn ‖für alle m ≥ 0. Wir können also für die Abschätzung der Totalvariation auch das inverseModell in obiger Form heranziehen. Wir konstruieren nun die stark stationäreStoppzeit T <strong>und</strong> erinnern daran, dass sich die Karten vor dem Mischen in der Reihenfolge(1, . . . , n) befinden. Im inversen Modell in obiger Form können wir nun diesukzessiven Mischvorgänge wie folgt abbilden. Für den m-ten Mischvorgang wählenwir ein n-Tupel x (m) = (x (m)1 , . . . , x (m)n ) als Realisation einer auf {0, 1} n LaplaceverteiltenZufallsgröße X (m) , markieren Karte i mit dem Wert x (m)i <strong>und</strong> mischendie Karten gemäß der in (2.1.3) definierten Permutation π x (m) −. Wir markierendabei die Werte in den einzelnen Mischvorgängen von links nach rechts auf jeder


2.5 Obere <strong>und</strong> untere Schranke für die Totalvariation 57einzelnen Karte. Die Zufallsgrößen X (1) , X (2) , . . . seien stochastisch unabhängig.Die Werte auf Karte i nach dem m-ten Mischvorgang sind dann gegeben durch dasm-Tupel y (m)i = (x (1)i , . . . , x (m)i ). Solange die Werte y (k)i <strong>und</strong> y (k)j für k ≤ m auf zweiverschiedenen Karten i <strong>und</strong> j identisch sich, befinden sich die Karten in derselbenrelativen Reihenfolge wie zu Beginn des ersten Mischvorgangs, da sie bei jedemeinzelnen Mischvorgang im selben Päckchen liegen. Wir wählen T als den erstenZeitpunkt m, zu dem die Tupel y (m)1 , . . . , y n(m) ∈ {0, 1} m bzw. die stochastisch unabhängigen<strong>und</strong> auf {0, 1} m Laplace-verteilten Zufallsgrößen Y (m)1 , . . . , Y n(m) paarweiseverschieden sind. Dann ist T f.s. endlich <strong>und</strong> eine streng stationäre Stoppzeit:Gegeben T = m sind alle Reihenfolgen X m = (π(1), . . . , π(n)), π ∈ S n des Kartenstapelsnach m Mischvorgängen gleich wahrscheinlich, da für zwei beliebigeKarten i, j aus Symmetriegründen π(i) > π(j) <strong>und</strong> π(i) < π(j) gleich wahrscheinlichsind. Die Wahrscheinlichkeit P (T > m), dass die Zufallsgrößen Y (m)1 , . . . , Y n(m)nicht paarweise verschieden sind, kann dann analog zum Geburtagsproblem“ be-”rechnet werden: Es gibt 2 m mögliche {0, 1} m -wertige m-Tupel (Geburtstage), vondiesen müssen bei n zufällig ausgewählten Tupeln (Personen) mindestens zweiübereinstimmen. Für die gesuchte Wahrscheinlichkeit gilt dannn−1∏(P (T > m) = 1 − 1 − i ).2 mAldous <strong>und</strong> Diaconis zeigen in [2], dass mit k ndef= ⌊2 log 2 n⌋i=1‖Q ∗(kn)n− U Sn ‖ ≤ P (T > k n ) −→n→∞1 − e −1/2 ≈ 0, 3935gilt. Sei ⌈x⌉ die obere Gauss-Klammer von x ∈ R. Für die untere Schranke derdefTotalvariation aus Satz 2.5.1 gilt bereits mit m n = ⌈log 2 n⌉ wegen 2 mn ≥ n <strong>und</strong>∑ nr=1 A n,r = n!‖Q ∗(mn)n − U Sn ‖ ≥ 1 − 1 2∑m ∧nA n,r = 0.n!Es zeigt sich, dass die obere <strong>und</strong> untere Schranke für die Feststellung des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s ungeeignet sind. In Tabelle 2.3 sind die Werte der Totalvariation‖Q ∗(m)n − U Sn ‖ <strong>und</strong> der oberen <strong>und</strong> unteren Schranke für n = 52 <strong>und</strong> m = 1, . . . , 10aufgelistet.r=1


58 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>m 1 2 3 4 5 6 7 8 9 10obere 1.000 1.000 1.000 1.000 1.000 1.000 0.999 0.996 0.931 0.73252 1.000 1.000 1.000 1.000 0.924 0.614 0.334 0.167 0.085 0.043untere 1.000 1.000 1.000 0.999 0.002 0.000 0.000 0.000 0.000 0.000Tabelle 2.3: Obere <strong>und</strong> untere Schranke für ‖Q ∗(m)52 − U S52 ‖ <strong>und</strong> m = 1, . . . , 10.2.6 Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong><strong>Shuffle</strong>Wir zeigen in diesem Abschnitt den starken <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> mit <strong>Cut</strong>-<strong>Off</strong>-Zeiten(( 3 2 log 2 n, 1)) n≥1 für die Familie (Q n ) n≥1 der GSR-(2, n)-Mischmethoden, wobeilog 2 den Logarithmus zur Basis 2 bezeichne. Bevor wir den <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> am Endedieses Abschnitts nachweisen können, benötigen wir einige Hilfmittel. Zunächstgeben wir eine Approximation für die in (2.2.6) bestimmte Wahrscheinlichkeit an,dass m sukzessive GSR-(2, n)-<strong>Shuffle</strong> in der Permutation π resultieren.Ist m eine beliebige Anzahl von Mischvorgängen eines Kartenstapels mit nKarten, so können wir m darstellen alsm = ⌊log 2 (n 3/2 )⌋ + jmit einer ganzen Zahl j ≥ −⌊log 2 (n 3/2 )⌋. j beschreibt also die Anzahl der Mischvorgängevor bzw. nach ⌊log 2 (n 3/2 )⌋. Wählen wir nun θ n ∈ [0, 1) mit<strong>und</strong> c def= 2 j , so erhalten wir⌊log 2 (n 3/2 )⌋ + θ n = log 2 (n 3/2 )m = ⌊log 2 (n 3/2 )⌋ + j= log 2 (n 3/2 ) − θ n + j= log 2 (n 3/2 2 j ) − θ n= log 2 (n 3/2 c) − θ n .Wir können nun eine Umparametrisierung der Anzahl der Mischvorgänge vornehmen,indem wir sie beschreiben durch die MengeZ def= {c = 2 j | j ∈ Z}.


2.6 Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong> <strong>Shuffle</strong> 59Für m = log 2 (n 3/2 c) − θ n < 0 setzen wir Q ∗(m)n= Q ∗(0)n = δ id .2.6.1 Satz. Sei n ≥ 1, c ∈ Z, m = m n,c = ⌊log 2 (n 3/2 c)⌋, π ∈ S n mit R(π) = r ≤2 m ∧ n <strong>und</strong> h n,r ∈ R gegeben durch r = n 2 + h n,r. Dann giltQ ∗(m)n ({π}) = 1 n! exp ( 1c √ n( )wobei f n ∈ Ohn,r(c <strong>und</strong> gnn ∈ O 1c n).(− h n,r + 1 )2 + f n − 124c − 1 2 2(hn,rcn) 2+ g n), (2.6.1)Beweis. Seien zunächst n ∈ N <strong>und</strong> c ∈ Z fest <strong>und</strong> r ≤ 2 m ∧ n. Wir wählenθ n ∈ [0, 1) wie oben mit m = log 2 (n 3/2 c) − θ n . Nach (2.2.6) erhalten wir zusammenmit r = n 2 + h n,r <strong>und</strong> 2 m = cn 3/2 2 −θnQ ∗(m)n ({π}) =( ) n + 2 m − R(π) 1n 2 mn= 1 ( )2 m + n − r· · · 2m + 1 − rn! 2 m 2 m= 1 ( n∑ (n! exp log 1 + i − r ))2 m i=1= 1 ( ∑n−1(n! exp log 1 + n − i − r ))2 m i=0= 1 ( ∑n−1(n! exp log 1 + (n/2) − h ))n,r − i. (2.6.2)cn 3/2 2 −θn i=0Mittels einer Taylor-Entwicklung erhalten wir für alle x ∈ (− 1 2 , 1)x − x22 + x33 − x4 ≤ log(1 + x) ≤ x − x22 + x33 . (2.6.3)Um die obige Abschätzung auf (2.6.2) anwenden zu können, müssen wir nun c ∈ Zso groß wählen, dass− 1 2 < (n/2) − h n,r − i< 1 (2.6.4)cn 3/2 2 −θnfür r = 1, . . . , n <strong>und</strong> i = 0, . . . , n − 1 gilt. Wegen θ n ∈ [0, 1) gilt∣ ∣ (n/2) − h n,r − i ∣∣∣ ∣=r − i ∣∣∣cn 3/2 2 ∣ ≤−θn cn 3/2 2 −θn2θncn 1/2 < 2cn 1/2


60 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>für r = 1, . . . , n <strong>und</strong> i = 0, . . . , n − 1. Wählen wir nun c ≥ 4n −1/2 , so erhaltenwir (2.6.4). Wir können also (2.6.3) auf (2.6.2) anwenden <strong>und</strong> erhalten wegen| (n/2)−hn,r−i | > | (n/2)−hn,r−i | für alle c ≥ 4n −1/2cn 3/2 2 −θncn 3/2Q ∗(m)n ({π}) ≤ 1 ( 1n! exp ∑n−1( ncn 3/2 2 − h n,r − i)i=0i=01 ∑n−1( )n 3+3c 3 n 9/2 2 − h n,r − i),− 1 ∑n−12c 2 n 3i=0( n2 − h n,r − i) 2(2.6.5)Q ∗(m)n ({π}) ≥ 1 ( 1n! exp ∑n−1( ncn 3/2 2 − h n,r − i)+1 ∑n−13c 3 n 9/2i=0i=0( n2 − h n,r − i− 1 ∑n−12c 2 n 3i=0i=0( n2 − h n,r − i) 2) 3 1 ∑n−1( )n 4−c 4 n 6 2 − h n,r − i).(2.6.6)Zusammen mit ∑ n−1i=1 i = n(n−1) , ∑ n−12∑ n−1i=1 i4 = n(n−1)(2n−1)(3n(n−1)−1) ergibt sich301 ∑n−1( ncn 3/2 2 − h n,r − i)= −h n,r + 1 2c √ ,ni=01 ∑n−12c 2 n 3i=0i=0( n2 − h n,r − ii=1 i2 = n(n−1)(2n−1)) 2=124c 2 + 1 2(hn,rcn6, ∑ n−1) 2+ 1 − 6h n,r12c 2 n 2 ,i=1 i3 = n2 (n−1) 24<strong>und</strong>1 ∑n−1( n) 33c 3 n 9/2 2 − h − 1n,r − i =4 n3 h n,r − nh 3 n,r + 1 8 n3 + 3 2 nh2 n,r − 1nh 2 n,r3c 3 n 9/2= 1 − 2h n,r24c 3 n − 2h3 n,r − 3h 2 n,r + h n,r, (2.6.7)3/2 6c 3 n 7/21 ∑n−1( n 4c 4 n 6 2 − h 3nn,r − i) 4 + 20n 2 (6h 2 n,r − 6h n,r + 1) − 8=240c 4 n 5i=0+ h4 n,r − 2h 3 n,r + h 2 n,rc 4 n 5 .


2.6 Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong> <strong>Shuffle</strong> 61Definieren wirg 1,ndef= 1 − 6h n,r12c 2 n 2 ,f 1,ndef=1 ∑n−13c 3 n 9/2i=0i=0( n) 32 − h n,r − i ,defg 2,n = 1 ∑n−1( n) 4c 4 n 6 2 − h n,r − i <strong>und</strong>g 3,ndef= g 1,n + g 2,n ,( )so gilt f 1,n ∈ Ohn,r(c <strong>und</strong> gn 3/2 1,n , g 2,n , g 3,n ∈ O 1c n). Unter Benutzung der obigendefGleichungen folgt aus (2.6.5) <strong>und</strong> (2.6.6) mit f n = c √ ( )nf 1,n ∈ Ohn,rc für allec ≥ 4n −1/2Q ∗(m)n ({π}) ≤ 1 (n! exp −hn,r + 1 2c √ n= 1 n! exp ( 1c √ nQ ∗(m)n ({π}) ≥ 1 (n! exp −hn,r + 1 2c √ n− 124c 2 − 1 2(hn,rn) 2− g 1,n + f 1,n)cn(− h n,r + 1 )2 + f n − 124c − 1 (hn,r2 2 cn− 124c − 1 ( ) 2 )hn,r− g 2 2 cn 3,n + f 1,n= 1 ( 1(n! exp c √ − h n,r + 1 )n 2 + f n − 124c − 1 2 2Insgesamt ergibt sich schließlich wegen g 1,n , g 3,n ∈ O ( )1nQ ∗(m)n ({π}) = 1 n! exp ( 1( )mit f n ∈ Ohn,r(c <strong>und</strong> gnn ∈ O 1c n).(c √ − h n,r + 1 )n 2 + f n− 124c 2 − 1 2(hn,rcn(hn,rSei m ∈ N. Für den Variationsabstand von Q ∗(m)n <strong>und</strong> U Sn gilt‖Q ∗(m)n − U Sn ‖ = 1 ∑ ∣ ∣∣Q ∗(m)n ({π}) − 1 ∣2n!π∈S n= sup|Q ∗(m)nA⊂S n(A) − U Sn (A)|.cn) 2− g 1,n),) 2− g 3,n).) 2+ g n)


62 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>Dabei wird das Supremum für die MengeA n,mdef={ ∣ ∣∣π ∈ S n Q∗(m)n ({π}) ≥ 1 }n!angenommen. Da Q ∗(m)n ({π}) nach (2.2.6) jedoch nur über R(π) von π abhängt<strong>und</strong> monoton fallend in R(π) ist, giltwobei r ∗ definiert sei durchA n,m = {π ∈ S n | R(π) ≤ r ∗ } ,Q ∗(m)n ({π}) ≥ 1 n! ⇐⇒ R(π) ≤ r∗ .Sei h n,R(π) wie in Satz 2.6.1 gegeben durch R(π) = n 2 + h n,R(π) <strong>und</strong> h ∗ def= h n,r ∗ =r ∗ − n . Dann erhalten wir2Q ∗(m)n ({π}) ≥ 1 n! ⇐⇒ h n,R(π) ≤ h ∗ <strong>und</strong> (2.6.8)A n,m = { π ∈ S n | h n,R(π) ≤ h ∗} .Der Variationsabstand von Q ∗(m)n <strong>und</strong> U Sn kann somit, unter Beachtung von − n 2 +1 ≤ h n,r ≤ n 2‖Q ∗(m)nfür r = 1, . . . , n, wie folgt berechnet werden− U Sn ‖ = Q ∗(m)n (A n,m ) − U Sn (A n,m )= ∑ (Q∗(m)n ({π}) − U Sn ({π}) )π∈A n,m∑(Q ∗(m)1≤r≤r ∗ π∈R n,r= ∑= ∑ (A n,r1≤r≤r ∗=∑q ∗(m)− n 2 +1≤h≤h∗ A n,h+n2n ({π}) − 1 n!))n (r) − 1 n!( (qn∗(m) h + n )− 1 2 n!), (2.6.9)wobei A n,h+n die Eulerschen Zahlen sind mit A n,h+ n = 0 für alle − n + 1 ≤ h ≤ n 2 2 2 2mit h + n /∈ {1, . . . , n} <strong>und</strong> q∗(m)2n (r) für r = 1, . . . , n definiert sei durchqn∗(m) (r) def=( n + 2 m − rn) 12 mn .Der nächste Satz gibt Auskunft über die Gestalt von h ∗ . Zuvor notieren wir allerdingsnoch das folgende Lemma.


2.6 Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong> <strong>Shuffle</strong> 632.6.2 Lemma. Gegeben sei die Situation von Satz 2.6.1. Dann giltwobei G 1,n ∈ O c( 1n)<strong>und</strong> G2,n ∈ O c (1).f n = 112c 2 + G 1,n + G 2,n , (2.6.10)Beweis. In der Situation von Satz 2.6.1 gilt nach (2.6.7) wegen f n = c √ nf 1,n mith = h n,rf n = 1 − 2h24c 2 n − 2h3 − 3h 2 + h.6c 2 n 3Wegen h = r − n erhalten wir daraus2f n = 1 − 2(r − n 2 )24c 2 n− 2(r − n 2 )3 − 3(r − n 2 )2 + (r − n 2 )6c 2 n 3= 124c 2 + 1 − 2r24c 2 n − (r − n 2 )33c 2 n 3 + 3(r − n 2 )2 − (r − n 2 )6c 2 n 3 . (2.6.11)Wir betrachten nun die einzelnen Terme in (2.6.11). Zunächst setzen wirdefG 1,n = 3(r − n 2 )2 − (r − n)26c 2 n 3defG 3,n = 1 − 2r24c 2 n .<strong>und</strong>Wegen 1 ≤ r ≤ n erhalten wir G 1,n ∈ O c( 1n)<strong>und</strong> G3,n ∈ O c (1). Ferner giltwobei G 4,ndef= − 1− (r − n 2 )33c 2 n 3 = − 13c 2 ( rn − 1 2(r 3− 3r2 + 3r3c 2 n 3 2n 2 4n) 3= − 1 ( r33c 2 n − 3r23 2n + 3r2 4n − 1 8= 124c − 1 ( r32 3c 2 n − 3r23 2n + 3r )2 4n= 124c + G 4,n,2)∈ O c (1). Setzen wir nun nochG 2,ndef= G 3,n + G 4,n ,so folgt insgesamtf n = 112c + G 2 1,n + G 2,n(mit G 1,n ∈ O 1c n)<strong>und</strong> G2,n ∈ O c (1).)


64 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>Wir kommen nun zu dem bereits angekündigten Resultat über h ∗ . Es besagt,dass h ∗ von der Form h ∗ = − √ n24c + O c(1) ist.2.6.3 Satz. Sei n ≥ 1, c ∈ Z, m = m n,c = log 2 (n 3/2 c)−θ n , π ∈ S n <strong>und</strong> h ∗ definiertdurch (2.6.8), das heißtQ ∗(m)n ({π}) ≥ 1 n! ⇐⇒ R(π) − n 2 ≤ h∗ .Dann gilt(wobei F n ∈ O c)√1n√ nh ∗ = −24c + 112c + 1 2 2 + F n + G n , (2.6.12)<strong>und</strong> G n ∈ O c (1).Beweis. Sei c ∈ Z fest <strong>und</strong> π ∈ S n mit R(π) = r ≤ 2 m ∧ n. In der Situationvon Satz 2.6.1 setzen wir wieder h = h n,r . Dann ist Q ∗(m)n ({π}) ≥ 1 n!nach (2.6.1)äquivalent zu1(c √ − h + 1 )n 2 + f n − 1( )wobei f n ∈ Ohn,rc ngleich 0 so erhalten wir⇐⇒24c 2 − 1 2( ) 2 h+ gcn n ≥ 0,<strong>und</strong> g n ∈ O c( 1n). Setzen wir den Exponenten in (2.6.1)0 = 1 (c √ − h + 1 )n 2 + f n√ nh = −24c + 1 2 + f n −− 124c − 1 ( ) 2 h+ g 2 2 cn nh22cn 3/2 + c√ ng n . (2.6.13)Wir können nun h iterativ in zwei Schritten ermitteln, indem wir h bzw. den Term−h22cn 3/2von −in (2.6.13) wiederholt nach oben <strong>und</strong> unten abschätzen. Als obere Schrankeh22cn 3/2werden wir dabei 0 wählen.Wegen − n 2 + 1 ≤ h ≤ n 2 gilt −h2 ≥ − n24<strong>und</strong> somit nach (2.6.13) unter Beachtungvon c > 0√ nh ≥ −24c + 1 2 + f n −√ n= −24c + 1 2 + f n −= −n2√ n6c + 1 2 + f n + c √ ng n .8cn + c√ ng 3/2 n√ n8c + c√ ng n


2.6 Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong> <strong>Shuffle</strong> 65Zusammen mit h ≤ − √ n+ 1 + f 24c 2 2 n + c √ ng n erhalten wir dann den ersten Iterationsschritt√ n−6c + 1 2 + f n + c √ √ nng n ≤ h ≤ −24c + 1 2 + f n + c √ ng n . (2.6.14)Wir setzen F 1,ndef= 1 2 + f n + c √ ng n . Dann ist F 1,n ∈ O c( hn)<strong>und</strong> nach (2.6.14) gilth 2 ≤ max{ (F 1,n −wobei F n,max ∈ O c (n). Daraus folgt√ ) 2n,24c(F 1,n −√ ) 2}n6c0 ≥ − h22cn 3/2≥ − 12cn F def3/2 n,max = − F 2,ndef= F n,max ,(1mit F 2,n ∈ O c√ n). Dann erhalten wir wiederum zusammen mit (2.6.13) denzweiten Iterationsschritt√ n−24c + 1 2 + f n − F 2,n + c √ √ nng n ≤ h ≤ −24c + 1 2 + f n + c √ ng n . (2.6.15)Vermöge Lemma 2.6.2 gilt f n = 1 + G12c 2 n mit G n ∈ O c (1) <strong>und</strong> somit√ n−24c + 1 2 + 112c + G 2 n − F 2,n + c √ √ nng n ≤ h ≤ −24c + 1 2 + 112c + G 2 n + c √ ng n .Insgesamt gilt somit wegen c √ ng n ∈ O c(für ein F n ∈ O c()√1n<strong>und</strong> G n ∈ O c (1). Dies bedeutet, dass h ∗ von der gewünschtenGestalt in (2.6.12) ist.)√1n√ nh = −24c + 1 2 + 112c + G 2 n + F nWir werden nun Approximationen für die in der Totalvariation∑( (‖Q ∗(m)n − U Sn ‖ =qn∗(m) h + n )− 1 )2 n!− n 2 +1≤h≤h∗ A n,h+n2


66 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>auftretenden Terme 1 n! A n,h+ n 2 für − n 2 + 1 ≤ h ≤ n 2 <strong>und</strong> ∑ − n 2 +1≤h≤h∗ 1 n! A n,h+ n 2 fürn → ∞ angeben.Wir beginnen mit dem Term 1 A n! n,h+ n . Das folgende Lemma entstammt [23]2(Proposition 2, Teil (ii) <strong>und</strong> (iii)). Der zweite Teil ergibt sich allerdings aus einerModifikation des dortigen Beweises von Proposition 2 (iii). Zur Vollständigkeitgeben wir die Beweise für beide Teile an.2.6.4 Lemma. Sei n ∈ N.(i) Für x > 0 <strong>und</strong> x ndef= x √ n12 + n 2 giltlimn→∞√ n121n! A n,⌊x n⌋ = φ(x) def= 1 √2πe −x2 /2 .(ii) Für − n + 1 ≤ h ≤ n mit h + n ∈ N gilt2 2 2√⎛ ( ) ⎞16n! A n,h+ n = 2πn exp ⎝− 1 2h√ ⎠2 n+ R n ,12wobei R n ∈ o ( 1n).Beweis. Seien X 1 , . . . , X n stochastisch unabhängige <strong>und</strong> identisch R(0, 1)-verteiltedefZufallsgrößen, S n = ∑ ni=1 X i <strong>und</strong> F n die Verteilungsfunktion von S n . Es giltES n = n/2 <strong>und</strong> V arS n = n/12. Wir definieren die Standardisierung von S n durchdefT n = S n − n 2√ n.12Dann gilt für die Verteilungsfunktion G n von T n <strong>und</strong> alle x ∈ R nach dem zentralenGrenzwertsatzG n (x) = F n(x√ n12 + n 2)def−→ Φ(x) =n→∞∫ x−∞1√2πe −t2 /2 dt.defzu (i): Sei x > 0 beliebig, x n = x √ n+ n, a 12 2 n = a n (x) def= x n − ⌊x n ⌋ <strong>und</strong>n ≥ x 2 /3. Dann gilt x n ≤ n. Nach Satz 2.3.1 folgt vermögeF n (x) = G n(x −n√ n122)


2.6 Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong> <strong>Shuffle</strong> 67für alle x ∈ R <strong>und</strong> dem Mittelwertsatz der Differentialrechnung1n! A n,⌊x n⌋ = F n (⌊x n ⌋) − F n (⌊x n ⌋ − 1)= F n (x n − a n ) − F n (x n − (1 + a n ))( √ ) (√ )1212= G n x − a n − G n x − (1 + a n )nn√12=n G′ n(y n )√√12mit x − (1 + a n ) < y 12n n < x − a n . Sei g n n die Dichte der standardisiertenZufallsgröße T n . Dann gilt G ′ n(x) = g n (x) für alle x ∈ R. Mit Hilfe einer Edgeworth-Entwicklung (Theorem 1, Abschnitt XVI.2 in [11]) erhalten wir für n → ∞( ) 1g n (x) − φ(x) = o √n (2.6.16)gleichmäßig in x. Hierbei beachten wir ET13 = 0 <strong>und</strong> die quadratische Integrierbarkeitder charakteristischen Funktion von T 1 . Daraus erhalten wirlimn→∞√ n121n! A n,⌊x n⌋ = limn→∞G ′ n(y n )= limn→∞g n (y n )= 1 √2πe −x2 /2 .zu (ii): Nach Theorem 1, Abschnitt I.9 in [11] besitzt S n+1 die Lebesque-Dichte( λ-Dichte) f n+1 mitf n+1 (x) = 1 n!⌊x⌋∑i=0(−1) i ( n + 1ifür x ∈ R. Sei − n 2 + 1 ≤ h ≤ n 2 mit h + n 2 ∈ N. Dann gilt x n(2.3.5) <strong>und</strong> (2.6.17) folgt1n! A n,x n= F n (x n ) − F n (x n − 1)= 1 ∑x n( ) n + 1(−1) i (x n − i) nn!ii=0)(x − i) n 1 (0,n+1) (x) (2.6.17)def= h + n 2≤ n <strong>und</strong> mit= f n+1 (x n ). (2.6.18)


68 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>Für die Dichten f n+1 von S n+1 <strong>und</strong> g n+1 von T n+1 = ( ) √S n+1 − n+12 /n+1gilt12nach dem Transformationssatz die Beziehung√⎛ ⎞12f n+1 (x) =n + 1 g ⎝ x n − n+12n+1 √ ⎠ ,n+112woraus mit (2.6.18)√112n! A n,x n=n + 1 g n+1⎛⎝ x n − n+12√n+112⎞⎠folgt. Mit Hilfe von (2.6.16) erhalten wir für n → ∞( ) ( )11g n+1 (x) − φ(x) = o √ = o √n n + 1(2.6.19)gleichmäßig√ ( )in x. Aus (2.6.19) erhalten wir dann unter Beachtung von12o √1n+1 n= o ( 1n)<strong>und</strong>√⎛ ⎞12n + 1 φ ⎝ x √⎛ ⎞n − n+12√ ⎠ 12=n+1 n + 1 φ ⎝ h − 1 2√ ⎠n+11212√ ( ) ( 12=n φ h 1+ on)√ n12insgesamt⎞⎝ x √n − n+1( )2√ ⎠ 12 1+n+1 n + 1 o √n12√ ( ) ( 12=n φ h 1√ n+ on)12√⎛ ( ) ⎞12 1= √ exp ⎝− 1 2 (h√ ⎠ 1n 2π 2 n+ on)12√⎛ ( ) ⎞6=πn exp ⎝− 1 2 (⎠ 1+ o .2n)√⎛112n! A n,⌊x n⌋ =n + 1 φh√ n12


2.6 Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong> <strong>Shuffle</strong> 69Bayer <strong>und</strong> Diaconis behaupten in [6], dass sich die Asymptotik in Lemma 2.6.4(ii) unter Benutzung derselben Quellen noch verschärfen lässt:2.6.5 Lemma. Sei n ∈ N. Für − n 2 + 1 ≤ h ≤ n 2 mit h + n 2 ∈ N gilt(wobei R n ∈ o√⎛ ( ) ⎞16n! A n,h+ n = 2πn exp ⎝− 1 2h√ ⎠2 n(1 + R n ),12√1n).Mit Hilfe des obigen Lemmas zeigen Bayer <strong>und</strong> Diaconis [6] Theorem 2.6.8.Wir werden jedoch einen anderen Weg einschlagen (vergleiche den Beweis vonTheorem 4, Abschnitt 4 in [6] <strong>und</strong> den Beweis von Gleichung (2.6.22) im Beweisvon Theorem 2.6.8). Zunächst benötigen wir das folgende Lemma, das Auskunftüber das Verhalten der Summe ∑ 1 − A n 2 +1≤h≤h∗ n! n,h+ n für n → ∞ gibt, wobei nach2Satz 2.6.3 h ∗ = − √ n+ O 24c c(1) gilt.2.6.6 Lemma. Sei n ∈ N <strong>und</strong> Φ die Verteilungsfunktion der Standardnormalverteilung.Dann giltwobei S n ∈ O c(√1n).∑(1n! A n,h+ n = Φ − 1 )24c √ + S n ,3− n 2 +1≤h≤h∗Beweis. Wie im Beweis von Lemma 2.6.4 sei wiederum S n die Summe von n stochastischunabhängigen <strong>und</strong> identisch R(0, 1)-verteilten Zufallsgrößen, F n die Verteilungsfunktionvon S n ,T n = S n − n 2√ n12die Standardisierung von S n <strong>und</strong> G n die Verteilungsfunktion von T n . Durch Integrationder Edgeworth-Entwicklung (2.6.19) der Dichte g n von T n (siehe auch(4.1), Abschnitt XVI.4 in [11]) erhalten wir für n → ∞( ) 1G n (x) − Φ(x) = o √n


70 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>gleichmäßig in x. Dann gilt vermöge F n (x) = G n((x −n2)/√ n12)für alle x ∈ R<strong>und</strong> (2.3.4) für n → ∞∑ 1n! A n,h+ n = ∑ ( (F2 n h + n )− F n(h + n ))22 − 1 − n 2 +1≤h≤h∗ − n 2 +1≤h≤h∗ (= F n h ∗ + n )− F n (0)( 2)h ∗= G n√ n12( )h ∗= Φ √ n12( ) 1+ o √n . (2.6.20)Wegen h ∗ = − √ n24c + O c(1) gilth ∗√ n12<strong>und</strong> somit für n → ∞= − 12c √ 12 + O c∑− n 2 +1≤h≤h∗ 1n! A n,h+ n 2 = Φ (− 14c √ 3 + O c( ) 1 √n = − 1 ( ) 14c √ 3 + O c √n(= Φ − 1 )4c √ 3(= Φ − 1 )4c √ 3( )) ( )11√n + o √n( ) ( )1 1+ O c √n + o √n+ O c( 1 √n),dabei geht in der zweiten Zeile der Mittelwertsatz der Differentialrechnung ein.Das nächste Lemma ist wiederum technischer Natur.2.6.7 Lemma. Für n ∈ N sei S n die Summe von n stochastisch unabhängigen<strong>und</strong> identisch R(0, 1)-verteilten Zufallsgrößen X 1 , . . . , X n <strong>und</strong>T n = S n − n 2√ n12die Standardisierung von S n . Dann gelten die folgenden Aussagen:(a) Die Familie (exp(aT n )) n∈N ist für jedes a ∈ R gleichgradig integrierbar.


2.6 Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong> <strong>Shuffle</strong> 71(b) Sei G n die Verteilungsfunktion von T n <strong>und</strong> (x n ) n≥1 eine reelle Folge mitlim n→∞ x n / √ n = 0, das heißt x n ∈ o( √ n). Dann gilt1 − G n (x n )limn→∞ 1 − Φ(x n ) = lim G n (−x n )n→∞ Φ(−x n ) = 1,wobei Φ die Verteilungsfunktion der Standardnormalverteilung sei.Beweis. zu (a): Für a = 0 ist nichts zu zeigen. Sei daher a ≠ 0 beliebig. NachKorollar 50.3. (e) in [3] ist (exp(aT n )) n∈N gleichgradig integrierbar, falls ein p > 1existiert mitsup E| exp(aT n )| p < ∞.n∈NWegen | exp(aT n )| p = exp(paT n ) für alle p ∈ R reicht es daher zu zeigensup E exp(aT n ) < ∞.n∈NSei ψ die momenterzeugende Funktion von X 1 , das heißt ψ(t) = E exp(tX 1 ), t ∈ R.Es gilt ψ(0) = 1 <strong>und</strong> für t ≠ 0ψ(t) =∫ 10e tx dx = et − 1.tDann erhalten wir für n ≥ 1, da X 1 , . . . , X n stochastisch unabhängig <strong>und</strong> identischverteilt sind, mit b def= a √ 12 für n ≥ 1( ))(Sn − n 2E exp(aT n ) = E exp a √ n12( n∑(a √ ))12= E exp √ X k − a√ 12k=1 n 2 √ n( (= exp −b ) ( )) n b2 √ E exp √ X 1nn( (= exp −b ) ( )) n b2 √ ψ √n n⎛( ) ⎞n(= ⎝exp −b ) exp √b2 √ n− 1⎠nb √ n


72 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>=⎛ (⎝ expb2 √ n) ( ) ⎞− exp − b2 √ n⎠b √ nn.Mittels der Taylor-Entwicklungen( ) bexp2 √ n(exp −b )2 √ nergibt sich daraus= 1 + b2 √ n + b28n += 1 − b2 √ n + b28n −(√ blim E exp(aT n+n) = limn→∞ n→∞( )b3 148n + o ,3/2 n 3/2( )b3 148n + o 3/2 n 3/2b3 + o ( 124n 3/2b √ n)) nn 3/2= lim(1 + 1 ( )) b2nn→∞ n 24 + o (1) ( ) ( )b2 a2= exp = exp < ∞.24 2Dann folgt sup n∈N E exp(aT n ) < ∞, was wir beweisen mussten.zu (b): Die Aussage ist ein Spezialfall von Theorem 2, Gleichung (7.28), AbschnittXVI.7 in [11]. In unserer Situation gilt dort λ 1 = 0 wegen µ 3 = ET 3 1 = 0.Die Behauptung folgt dann aus der Gültigkeit von 1 − G n (x) = G n (−x) <strong>und</strong>1 − Φ(x) = Φ(−x) für alle x ∈ R <strong>und</strong> n ≥ 1.Wir kommen nun zur Hauptaussage dieses Abschnitts, mit Hilfe derer wir nachweisen,dass die Familie (Q n ) n≥1 der GSR-(2, n)-Mischmethoden einen starken<strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> mit <strong>Cut</strong>-<strong>Off</strong>-Zeiten (( 3 log 2 2 n, 1)) n≥1 besitzt. Wir erinnern daran,dass Q ∗(m)n = Q ∗(0)n = δ id für m < 0 gesetzt war.2.6.8 Theorem. Sei c ∈ Z = {2 j | j ∈ Z} <strong>und</strong> m n = m n,c = ⌊log 2 (n 3/2 c)⌋ fürn ∈ N. Dann gilt(limn→∞ ‖Q∗(mn) n − U Sn ‖ = 1 − 2Φ − 1 )4c √ ,3wobei Φ die Verteilungsfunktion der Standardnormalverteilung sei.


2.6 Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong> <strong>Shuffle</strong> 73Beweis. Sei n ≥ 1, c ∈ Z, m n = ⌊log 2 (n 3/2 c)⌋. Nach (2.6.9) gilt∑( (‖Q ∗(mn)n − U Sn ‖ =qn∗(mn) h + n )− 1 )2 n!=− n 2 +1≤h≤h∗ A n,h+n2∑A n,h+n q∗(mn)2 n− n 2 +1≤h≤h∗wobei qn∗(mn) ( )h +n2 gegeben ist durch(qn∗(mn) h + n )2(h + n )−2( n + 2 m=n −(h + n 2n)∑− n 2 +1≤h≤h∗ 1n! A n,h+ n 2 ,) 12 mnn .(2.6.21)Aufgr<strong>und</strong> von unserer Definition A n,r = 0 für r ≠ 1, . . . , n, sei im Folgenden h + n 2stets ganzzahlig. Nach Lemma 2.6.6 gilt für den zweiten Summanden in (2.6.21)∑(limn→∞ n! A n,h+ n = Φ − 1 )24c √ . (2.6.22)3I 1 n− n 2 +1≤h≤h∗ 1Wir betrachten nun den ersten Summanden in (2.6.21). Zunächst setzen wir{}def= h ∣ − 10n3/4√ ≤ h ≤ h ∗ <strong>und</strong>cI 2 ndef=dabei sei n so groß, dass I 1 n, I 2 n ≠ ∅.Wir betrachten zunächst∑{h ∣ − n }2 + 1 ≤ h < −10n3/4 √ , ch∈I 1 nA n,h+n q∗(mn)2 n(h + n ).2Sei S n die Summe von n stochastisch unabhängigen <strong>und</strong> identisch R(0, 1)-verteilten Zufallsgrößen <strong>und</strong>T n = S n − n 2√ n12die Standardisierung von S n . Nach Satz 2.3.1 gilt für alle h1n! A n,h+(h n = P + n22 − 1 < S n ≤ h + n ). (2.6.23)2


74 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>Für h ∈ In, 1 also − 10n3/4 √ c≤ h ≤ h ∗ = − √ n+ O 24c c(1), gilt ferner− 10n 1/4 c ≤ h3/2 cn ≤ − 1 ( ) 124c 2√ n + O cn<strong>und</strong> damit für alle h ∈ I 1 n12c √ n + O c( 1 √n)− 1 2( 2 ( ) ( )h 1 1+ O c = O c √n .cn)nInsgesamt erhalten wir daraus weiter unter Benutzung von Satz 2.6.1 <strong>und</strong> (2.6.23)∑h∈I 1 nA n,h+n q∗(mn)2 n(h + n )= ∑ 2h∈In1= ∑ (11n! A n,h+ n exp 2c √ nh∈In1 ( ) −1 ∑ A n,h+n2= exp24c 2 n!h∈In1( −1= exp1n! A n,h+ n 2n! q∗(mn) n(−h + 1 2 + O ( h) )c − 1n(exp −(1n! A n,h+ n exp −2hc √ n + 12c √ n + O chc √ n + O c) ∑24c 2 h∈In( ) 1−1 ∑ (= expP h + n 24c 2 2 − 1 < S n ≤ h + n )2h∈In1( −1= exp) ∑24c 2 h∈In⎛1( ) −1= exp E24c 2( ) −1= exp E24c 2P⎝ ∑ h∈I 1 n⎛⎝ ∑ h∈I 1 n(h − 1√ n12)< T n ≤ √ hn121 { }exp√h−1


2.6 Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong> <strong>Shuffle</strong> 75wegen c > 0( )− 1c √ T n + √ 112n< − 112c √ 12h√ n12≤ − 1c √ 12 T n.Sei nun n so groß, dass h ∗ = − √ n+ O def24c c(1){< 0 <strong>und</strong> h n = min{h ∈}In}. 1 Dann giltwegen h + n ∈ N für alle h ∈ 2 I1 n <strong>und</strong> In 1 = h ∣ − 10n3/4 √ c≤ h ≤ h ∗h n = − 10n3/4√ c+ a nfür ein a n ∈ [0, 1). Wir können den Erwartungswert in (2.6.24) somit unter Benutzungvonh n − 1√ n12nach oben abschätzen durch⎛E ⎝ ∑ h∈In11 { }exp√h−1


76 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>von (exp(−1/(c √ 12) T n )) n≥1 <strong>und</strong> dem zentralen Grenzwertsatz( )− 14c √ 13 +Oc √n∫limn→∞− 10√ 12n√ 1/4c+ √ an−1n12( )exp − 1c √ x dP Tn =12− 1∫ 4c√ 3−∞1√ exp 2π( )− x2 − x2 c √ dx.12Dasselbe Ergebnis erhalten wir analog für die untere Schranke. Insgesamt gilt somitzusammen mit (2.6.24)lim∑n→∞h∈In1A n,h+n q∗(mn)2 n(h + n )= exp ( )− 124c22=− 1∫ 4c√ 3−∞− 1∫ 4c√ 3−∞1√ exp 2π1√ exp 2π( )− x2 − x2 c √ dx12( ( ) ) 2− 1 x + 12 2c √ dx3( ) 1= Φ4c √ . (2.6.25)3Wir betrachten nun∑h∈I 2 nA n,h+n q∗(mn)2 n(h + n ).2Da die Funktionr ↦→ q ∗(mn)n (r) =( n + 2m n− rn) 12 mnnmonoton fallend in r ist, gilt für alle − n + 1 ≤ h ≤ n mit h + n ∈ N2 2 2(qn∗(mn) h + n )≤ qn ∗(mn) (1).2Für n → ∞ folgt daraus mit Hilfe von Satz 2.6.1, wenn dort h n,r = − n +1 gewählt2wird,q ∗(mn)n(h + n )2≤ q ∗(mn)n (1)= 1 n! exp ( 1c √ n( n2 − 1 2 + O c (1))− 124c − 1 ( −n+ 1 ) 2 ( )2 1+ O 2 c2 cnn)


2.6 Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong> <strong>Shuffle</strong> 77= 1 (√ ) ( ( )n1n! exp exp O c √n2c) (= 1 n! exp (√ n2c≤ 1 n! exp (√ n2c∼ 1 n! exp (√ n2cexp)exp).− 124c − 1 2 2( )) 1O c √n exp( ( )) 1O c √n(− 16c 2 )( 14c 2 − 1c 2 n + 1c 2 n 2 ))(2.6.26)defSei h{ n = max{h ∈ In}. 2 Dann}gilt wegen h + n ∈ N für alle h ∈ I 2 2 n <strong>und</strong>In 2 = h ∣ − n + 1 ≤ h < − 10n3/4 √2 ch n = − 10n3/4√ c− b nfür ein b n ∈ [0, 1). Damit erhalten wir nach Satz 2.3.1 mit S n > 0 P -f.s∑ 1n! A n,h+ n = ∑ (P h + n22 − 1 < S n ≤ h + n )2h∈In2 h∈In(2= P 0 < S n ≤ h n + n )(2= F n h n + n )( 2)h n= G n√ n12( ( ) √ )= G n − 10n3/4 12√ − b nc n()∼ G n − 10√ 12n 1/4√ . (2.6.27)cBayer <strong>und</strong> Diaconis [6] behaupten, dass nach Abschnitt XVI.7 in [11] die folgendeBeziehung gilt∑h∈I 2 n⎛ (1n! A n,h+ n ∼ 1210n 1/4√ 2π exp ⎝− 1 10 √ ) ⎞ 212n 1/4√ ⎠ .2 cMittels (2.6.27) gelangen wir zu einer anderen Beziehung (vergleiche (2.6.28)).Nach Lemma 2.6.7 folgt mit x ndef= 10 √ 12n 1/4 / √ c <strong>und</strong> Φ(−x) ∼ 1/(x √ 2π)e −x2 /2 ,


78 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>x → ∞, für n → ∞∑h∈I 2 n()1n! A n,h+ n = G n − 10√ 12n 1/4√2 c∼ Φ∼()− 10√ 12n 1/4√ c⎛√ (c10n 1/4√ 24π exp ⎝− 1 10 √ ) ⎞ 212n 1/4√ ⎠ (2.6.28)2 c<strong>und</strong> somit zusammen mit (2.6.26) für n → ∞∑h∈I 2 nA n,h+n q∗(mn)2 n()(h + n )≤ G n − 10√ 12n 1/4√ exp2c()∼ Φ − 10√ (√ )12n 1/4 n√ exp c 2c∼=(√ ) ( ( ))n1exp O c √n2c⎛√ (c10n 1/4√ 24π exp ⎝− 1 10 √ ) 212n 1/4√ +2 c( √(10 12) 2 − 1 ) √ n√ (c10n 1/4√ 24π exp −2c⎞√ n⎠2c)= O c( 1n 1/4 ). (2.6.29)Fassen wir nun die Ergebnisse aus (2.6.22), (2.6.25) <strong>und</strong> (2.6.29) zusammen, soerhalten wir abschließend unter Benutzung von Φ(x) = 1 − Φ(−x) für alle x ∈ Rlimn→∞ ‖Q∗(mn) n − U Sn ‖ = limn→∞<strong>und</strong> somit die Behauptung.∑− n 2 +1≤h≤h∗ A n,h+n2(q ∗(mn)n( ) (1= Φ4c √ − Φ − 1 )3 4c √ 3(= 1 − 2Φ − 1 )4c √ 3(h + n )− 1 )2 n!


2.6 Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong> <strong>Shuffle</strong> 79Ersetzen wir in Theorem 2.6.8 den Parameter c wiederum durch 2 j , j ∈ Z,so entspricht j der Anzahl der Mischvorgänge vor bzw. nach ⌊ 3 2 log 2 n⌋ <strong>und</strong> wirerhalten vermöge[1 − 2Φlimc→∞limc→0[1 − 2Φ)]4c √ = lim3(− 1 )]4c √ 3(− 1j→∞[= limj→−∞1 − 2Φ(− 2−j4 √ 3[1 − 2Φ)]= 0 <strong>und</strong>)]4 √ = 13(− 2−junter Hinweis auf Definition 2.4.2 unmittelbar das folgende Theorem.2.6.9 Theorem. Wird ein Stapel mit n Karten m n = (⌊ 3 2 log 2 n⌋ + j)-mal, j ∈ Z,j ≥ −⌊ 3 log 2 2 n⌋, nach der GSR-(2, n)-Mischmethode Q 2,n gemischt, so gilt)limn→∞ ‖Q∗(mn) 2,n − U Sn ‖ = 1 − 2Φ(− 2−j4 √ ,3wobei Φ die Verteilungsfunktion der Standardnormalverteilung sei.Ferner besitzt die Familie (Q 2,n ) n≥1 einen starken <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong> mit <strong>Cut</strong>-<strong>Off</strong>-Zeiten ((⌊ 3 2 log 2 n⌋, 1)) n≥1 .Für große n sind somit ⌊ 3 2 log 2 n⌋ <strong>Riffle</strong> <strong>Shuffle</strong> hinreichend <strong>und</strong> notwendig, umeinen Kartenstapel mit n Karten hinreichend zu mischen. Mit m n = ⌊ 3 log 2 2 n⌋ giltfür den Variationsabstand ‖Q ∗(mn)2,n − U Sn ‖ für große n)‖Q ∗(mn)2,n − U Sn ‖ ≈ 1 − 2Φ(− 14 √ 3≈ 0.115.In Tabelle 2.4 <strong>und</strong> Abbildung 2.7 sind die Werte der Funktion j ↦→ 1 − 2Φabgetragen.( )− 2−j4 √ 3j -6 -5 -4 -3 -2 -1 0 1 2 3 4f(j) 1.000 0.999 0.979 0.752 0.436 0.227 0.115 0.058 0.029 0.014 0.007( )Tabelle 2.4: f(j) = 1 − 2Φ − 2−j4 √ 3für j = −6, . . . , 4.Welcher Wert von der Totalvariation tatsächlich unterschritten werden muss,um den Kartenstapel als hinreichend gemischt anzusehen, liegt in der Beurteilungdes jeweiligen Betrachters. So findet sich beispielsweise in [20] die Schranke


80 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>• • • • • • •1✻•0.5•• 12e• • • • • • • • • • • ✲-10 -9 -8 -7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10( )Abbildung 2.7: j ↦−→ 1 − 2Φ − 2−j4 √ für j = −10, . . . , 10.31/(2e) ≈ 0.184, während von Bayer <strong>und</strong> Diaconis [6] der Kartenstapel schon beieinem Wert von 1/2 als hinreichend gemischt angesehen wird. Für große n sindnach Theorem 2.6.9 ⌊ 3 2 log 2 n⌋ − 2 Mischvorgänge nötig um den Wert 1/2 in Totalvariationzu unterschreiten. Die Schranke 1/2 wird von Mann [16] durch diefolgende Überlegung motiviert:Wir nehmen an, ein Kartenstapel mit n Karten sei so gemischt, dass jede Reihenfolgeder Karten gleich wahrscheinlich ist, das heißt jede Reihenfolge π ∈ S nhabe die Wahrscheinlichkeit U Sn = 1/n!. n sei als gerade vorausgesetzt. Nach demMischen fällt die oberste Karte vom Stapel, so dass wir deren Wert i erkennen.Legen wir diese Karte nun wieder mit der Rückseite oben auf den Kartenstapel,so ist die zufällige Reihenfolge der Karten zerstört, da wir wissen, welchen Wertdie oberste Karte trägt. Legen wir die Karte wieder an eine zufällige Position innerhalbdes Stapels, so ist die zufällige Reihenfolge der Karten wieder gegeben.Wir platzieren die Karte allerdings an einer zufälligen Position innerhalb der oberenHälfte des Stapels <strong>und</strong> zwar so, dass wir nicht wissen, welche Position diesist. Die möglichen Permutationen nach denen der Kartenstapel dann gemischt ist,entsprechen exakt der Menge der Permutationen in S n , die Karte i in die obereHälfte des Stapels mischen. Dies ist genau die Hälfte aller Permutationen inS n . Die Wahrscheinlichkeit für eine solche Permutation π ist dann gegeben durch


2.6 Nachweis des <strong>Cut</strong>-<strong>Off</strong>-<strong>Effekt</strong>s für den <strong>Riffle</strong> <strong>Shuffle</strong> 81Q({π}) = 2/n!, alle übrigen Permutationen treten mit Wahrscheinlichkeit 0 auf.Wir berechnen nun den Verlust, gemessen in Totalvariation, den wir durch diesesVorgehen im Vergleich zur vollständigen Zufälligkeit der Kartenreihenfolgenerleiden:‖Q − U Sn ‖ = 1 ∑∣ ∣∣∣Q({π}) − 1 2n! ∣π∈S n= 1 ( n!22 2 ∣n! − 1 n! ∣ + n!2 ∣ 0 − 1 )n! ∣= 1 2 .Die Totalvariation liefert den Wert 1/2. Nach Mann ist dieser Wert innerhalb derSpanne von 0 bis 1 vergleichsweise groß, obwohl sich Karte i an einer zufälligenPosition in der oberen Hälfte des Kartenstapels befindet <strong>und</strong> der Kartenstapelwegen der zufälligen Reihenfolge aller übrigen Karten von ihm als hinreichendgemischt angesehen werden kann.Wir geben allerdings zu bedenken, dass die Beschränkung auf nur die Hälftealler Permutationen in S n eine hinreichende Mischung der Karten verhindert. Dasfolgende Beispiel soll diesen Einwand motivieren: Ein fairer Würfel werde einmalgeworfen, das Ergebnis des Wurfes sei gerade, aber über diese Information hinausunbekannt. Jede der Zahlen 2, 4, 6 ist dann gleich wahrscheinlich mit Wahrscheinlichkeit1/3. Die richtige Augenzahl kann also mit Wahrscheinlichkeit 1/3 geratenwerden. Sei U die Gleichverteilung auf {1, . . . , 6} <strong>und</strong> U die Gleichverteilung auf{2, 4, 6}. Dann gilt für die Totalvariation wie im obigen Beispiel‖U − U‖ = 1 (312 ∣3 − 1 ∣ ∣∣∣ 6∣ + 3 0 − 1 )6∣= 1 2 .Die Werte 3 log 2 2 n, ⌊ 3 log 2 2 n⌋ <strong>und</strong> ⌊ 3 log 2 2 n⌋ − 2 für gebräuchliche Kartenstapelgrößensind in Tabelle 2.5 angegeben.Die tatsächlichen Anzahlen an Mischvorgängen, die notwendig sind, um dieWerte 1/2 <strong>und</strong> 1/(2e) in Totalvariation zu unterschreiten, weichen von den inTabelle 2.5 angegebenen Werten ab. Die Abweichungen resultieren daraus, dass


82 Kapitel 2 Der <strong>Riffle</strong> <strong>Shuffle</strong>n 24 32 48 52 10432 2 n 6.88 7.50 8.38 8.55 10.05⌊ 3 log 2 2 n⌋ 6 7 8 8 10⌊ 3 2 log 2 n⌋ − 2 4 5 6 6 8Tabelle 2.5: 3 2 log 2 n, ⌊ 3 2 log 2 n⌋ <strong>und</strong> ⌊ 3 2 log 2 n⌋ − 2 für n = 24, 32, 48, 52, 104.Theorem 2.6.9 eine asymptotische Aussage ist, die nur für große n von Bedeutungist. Die tatsächlichen Werte ergeben sich aus einer exakten Berechnung der Totalvariation(siehe Tabelle 2.2 auf Seite 50) <strong>und</strong> sind in Tabelle 2.6 angegeben. Andieser Stelle soll nun auch die Aussage ”In card shuffling, 7 is winning number“aus der Einleitung präzisiert werden. Für einen Kartenstapel mit 52 Karten sind7 <strong>Riffle</strong> <strong>Shuffle</strong> notwendig, um die Entfernung 1/2 zur Gleichverteilung auf S 52 inTotalvariation gerade zu unterschreiten.n 24 32 48 52 1041/(2e) 7 7 8 8 101/2 5 6 7 7 8Tabelle 2.6: Minimale Anzahl an Mischvorgängen m mit ‖Q ∗(m)n − U Sn ‖ < S,S = 1/(2e), 1/2 für n = 24, 32, 48, 52, 104.


SymbolverzeichnisN = {1, 2, 3, . . . }N 0 = N ∪ {0}N ≥nN ≤nN 0,n−1B n≠|G|P(G)∑ an= {k ∈ N | k ≥ n}, n ∈ N= {1, . . . , n}, n ∈ N= {0, . . . , n − 1}, n ∈ N= {(x 1 , . . . , x n ) ∈ B n | x i ≠ x j ∀ i ≠ j}, B ⊂ R, n ∈ NMächtigkeit der endlichen Menge GPotenzmenge der Menge G= {(j 1 , . . . , j a ) ∈ N a 0,n | ∑ ak=1 j k = n}, a, n ∈ NZ = {2 j | j ∈ Z}B nB n Cδ xBorelsche σ-Algebra über R nSpur-σ-Algebra von B n unter C ∈ B nDirac-Maß in xM(n, 1/a) Multinomialverteilung mit Parametern n <strong>und</strong> a-mal 1/aΦVerteilungsfunktion der StandardnormalverteilungφDichte der StandardnormalverteilungP oi(t)Poisson-Verteilung mit Parameter tQ ∗(m)m-fache Faltung der Verteilung QQ a,n GSR-(a, n)-Mischmethode, n ∈ N, a ≥ 2Q nGSR-(2, n)-Mischmethode, n ∈ NR(0, 1) Gleichverteilung auf [0, 1]σ(X 0 , . . . , X m ) von den Zufallsvariablen X 0 , . . . , X m erzeugte σ-Algebrasupp(Q)= {x ∈ Ω | Q(x) > 0}, Q diskretes Wahrscheinlichkeitsmaß


84 SymbolverzeichnisU G = 1|G|auf (Ω, P(Ω))∑x∈G δ x, G endliche MengeS n = { π : {1, . . . , n} −→ {1, . . . , n} | π bijektiv } ,π = [i 1 , . . . , i r ] Zπ(i j ) = i j+1 , j = 1, . . . , r − 1, π(i r ) = i 1 <strong>und</strong> π(i) = i füri ≠ i 1 , . . . , i rA n = { π ∈ S n | sgn(π) = 1 }D n,k = {π ∈ S n | π hat k Sprungstellen}, k = 1, . . . , n − 1R n,k= {π ∈ S n | π hat k aufsteigende Sequenzen}, k = 1, . . . , nT n = { [i, j] Z ∈ S n | i, j ∈ {1, . . . , n}, i ≠ j } ,V 4 = {id, [1, 2] Z [3, 4] Z , [1, 3] Z [2, 4] Z , [1, 4] Z [2, 3] Z },A n,kT −〈T 〉= |R n,k | falls k = 1, . . . , n <strong>und</strong> = 0 sonst{x −1 | x ∈ T }, T ⊂ G, G Gruppe⋃n∈N 0{x 1 ◦ . . . ◦ x n | x i ∈ T ∪ T − , i = 1, . . . , n}, T ⊂ G,G Gruppef n ∼ g n lim n→∞ f n /g n = 1f n ∈ o(g n ) lim n→∞ f n /g n = 0f n ∈ O(g n ) ∃ n 0 ∈ N, K ∈ [0, ∞): |f n /g n | ≤ K ∀ n ≥ n 0f n ∈ O c (g n ) ∀ c ∈ R: f n = f n,c , g n = g n,c <strong>und</strong> ∃ n 0 (c) ∈ N,K c ∈ [0, ∞): |f n,c /g n,c | ≤ K c ∀ n ≥ n 0 (c)log 2 Logarithmus zur Basis 2x ∨ y = max{x, y}x ∧ y = min{x, y}⌊x⌋= max{k ∈ Z | k ≤ x}, untere Gauss-Klammer⌈x⌉= min{k ∈ Z | k ≥ x}, obere Gauss-Klammer


Literaturverzeichnis[1] Aldous, D. (1981/82): Random Walks on finite groups and rapidly mixingMarkov Chains. Séminaire de Probabilités XVII. Lecture Notes in Mathematics986, 243-297.[2] Aldous, D.; Diaconis P. (1986): Shuffling cards and Stopping Times. AmericanMathematical Monthly, Volume 93, No. 5, 333-348.[3] Alsmeyer, G. (2003): Wahrscheinlichkeitstheorie. Skripten zur MathematischenStatistik Nr. 30, 3. Auflage, Universität <strong>Münster</strong>.[4] Alsmeyer, G. (2002): Stochastische Prozesse Teil 1. Skripten zur MathematischenStatistik Nr. 33, 2. Auflage, Universität <strong>Münster</strong>.[5] Brémaud, P. (1999): Markov Chains, Gibbs Fields, Monte Carlo Simulationand Queues. Springer, New York.[6] Bayer, D.; Diaconis, P. (1992): Trailing the Dovetail <strong>Shuffle</strong> to its lair. Annalsof Applied Probability, Volume 2, No. 2, 294-313.[7] Carlitz, L. (1959): Eulerian Numbers and Polynomials. Mathematics Magazine,Volume 32, No. 5, 247-260.[8] Carlitz, L.; Kurtz, D. C.; Scoville, R.; Stackelberg, O. P. (1972): Asymptoticproperties of Eulerian Numbers. Zeitschrift für Wahrscheinlichkeitstheorie <strong>und</strong>verwandte Gebiete 23, 47-54.


86 Literaturverzeichnis[9] Diaconis, P. (1988): Group Representations in probability and statistics. LectureNotes-Monograph Series 11, Institute of Mathematical Statistics, Hayward,California.[10] Diaconis, P. (1996): The <strong>Cut</strong>off Phenomenon in finite Markov Chains. Proceedingsof the National Academy of Science, Volume 93, 1659-1664.[11] Feller, W. (1971): An introduction to Probability Theory and its applications.Volume II, 2. Auflage, John Wiley and Sons, Inc.[12] Gilbert, E. (1955): Theory of Shuffling. Technical Memorandum, Bell Laboratories.[13] Kolata, G. (1990): In shuffing cards, 7 is winning number. New York Times,Spätausgabe vom 09.01.1990.[14] Lalley, S. P. (1999): <strong>Riffle</strong> <strong>Shuffle</strong>s and their associated Dynamical Systems.Journal of Theoretical Probability, Volume 12, No. 4, 903-932.[15] Lorenz, F. (1996): Einführung in die Algebra. 3. Auflage, Spektrum Verlag,Heidelberg/Berlin.[16] Mann, B. (1995): How many times should you shuffle a deck of cards? Topicsin Contemporary Probability and Its Applications, Ed. J. Laurie Snell, CRCPress Boca Raton, 261-289.[17] Reeds, J. (1981): Theory of <strong>Riffle</strong> Shuffling. Unveröffentlichtes Manuskript.[18] Rogers, L. C. G.; Pitman, J. W. (1981): Markov Functions. Annals of Probability,Volume 9, No. 4, 573-582.[19] Salama, I. A.; Kupper L. L. (1986): A geometric interpretation for the EulerianNumbers. American Mathematical Monthly, Volume 93, No. 1, 51-52.[20] Saloff-Coste, L. (2004): Random Walks on finite groups. Probability on discretestructures, Encyclopaedia of Mathematical Science, Volume 110 (HarryKesten, Editor), Springer, Berlin, 263-346.


Literaturverzeichnis 87[21] Saloff-Coste, L. (1997): Lectures on finite Markov Chains. Lecture Notes inMathematics 1665, Lectures on Probability Theory and Statistics, Ecole d’Etéde Probabilités de Saint-Flour XXVI-1996, E. Giné et al., 301-413.[22] Stanley, R. P. (1997): Enumerative combinatorics. Cambridge studies in advancedmathematics, Volume 49, Cambridge University Press, Cambridge.[23] Tanny, S. (1973): A probabilistic interpretation of the Eulerian Numbers. DukeMathematical Journal, Volume 40, 717-722. Corrigenda (1974), Volume 41,689.[24] Wilson, D. B. (2004): Mixing times of Lozenge Tiling and card shuffling MarkovChains. Annals of Applied Probability, Volume 14, No. 1, 274-325.[25] Woess, W. (1980): Aperiodische Wahrscheinlichkeitsmaße auf topologischenGruppen. Monatshefte Mathematik 90, 339-345.[26] Worpitzky, J. (1883): Studien über die Bernoullischen Zahlen <strong>und</strong> EulerschenZahlen, Journal für die reine <strong>und</strong> angewandte Mathematik 94, 203-232.


Ich versichere, dass ich die Diplomarbeit selbständig verfasst <strong>und</strong> keine anderenals die angegebenen Quellen <strong>und</strong> Hilfsmittel benutzt habe. Alle Stellen der Arbeit,die anderen Werken dem Wortlaut oder Sinn nach entnommen wurden, habe ichin jedem Fall unter Angabe der Quelle als Entlehnung kenntlich gemacht.<strong>Münster</strong>, 15. <strong>März</strong> 2005(Walter <strong>Peter</strong> <strong>Sendfeld</strong>)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!