s 6/6 4/7 4/7 2/4 1 3 6 2/2 2/3 2/2 0/3 4 4/4 1/1 2 5 8 6/6 2/2 6.2 Der Ford-Fulkerson-Algorithmus 1/1 0/2 6/9 7 t Abbildung 6.2: Beispiel-Digraph für den Ford-Fulkerson-Algorithmus. Also funktioniert (6.13) auch bei rationalen Daten. Lässt man (zumin<strong>des</strong>t theoretisch) auch irrationale Kapazitäten zu, so kann man Beispiele konstruieren, bei denen Algorithmus (6.13) nicht nach endlicher Zeit abbricht. Aber auch bei ganzzahligen Daten gibt es Probleme. Ein Durchlauf der Markierungs- und Überprüfungsphase und der Augmentierungsphase kann offenbar in O(m), m = |A|, Schritten durchgeführt werden. Nach jedem Durchlauf wird der Flusswert um min<strong>des</strong>tens 1 erhöht. Ist also v der Wert <strong>des</strong> maximalen (s, t)-Flusses, so ist die Laufzeit von (6.13) O(m · v). Diese Laufzeit ist nicht polynomial in n + m + a∈A 〈ca〉, und wenn man die im Verfahren (6.13) noch nicht exakt spezifizierten Schritte ungeschickt ausführt, kann man tatsächlich zu exorbitanten Laufzeiten kommen. Allerdings haben Edmonds and Karp (1972) gezeigt: (6.14) Satz. Falls in Algorithmus (6.13) jeder Augmentierungsschritt entlang eines augmentierenden [s, t]-Weges mit minimaler Bogenzahl durchgeführt wird, dann erhält man einen Maximalfluss nach höchstens mn 2 Augmentierungen. Also ist die Gesamtlaufzeit dieser <strong>Version</strong> <strong>des</strong> Verfahrens (6.13) O(m2n). △ Satz (6.14) gilt für beliebige (auch irrationale) Bogenkapazitäten. Es ist in diesem Zusammenhang interessant zu bemerken, dass praktisch jeder, der Verfahren (6.13) implementiert, die Edmonds-Karp-Vorschrift einhält. Üblicherweise arbeitet man die Knoten in Breadth-First-Reihenfolge ab. Dies führt zu augmentierenden Wegen minimaler Bogenzahl. Das heißt, man implementiert die Menge U der markierten und noch nicht abgearbeiteten Knoten als Schlange. Wird ein Knoten in Schritt 5 oder 6 zu U hinzugefügt, so kommt er an das Ende der Schlange. In Schritt 4 wird immer der Knoten i ∈ U gewählt, der am Anfang der Schlange steht. (6.15) Beispiel. Wir betrachten den in Abbildung 6.2 dargestellten Digraphen. Die erste Zahl <strong>des</strong> Zahlenpaares bei einem Bogen gibt den gegenwärtigen Fluss durch den Bogen an, die zweite die Kapazität <strong>des</strong> Bogens. In Abbildung 6.2 starten wir also mit einem Fluss <strong>des</strong> Wertes 10. Wir führen einen Durchlauf der Markierungs- und Überprüfungsphase vor. Im weiteren sei VOR = (VOR(1), VOR(2), . . . , VOR(8), VOR(t)) EPS = (EPS(1), EPS(2), . . . , EPS(8), EPS(t)). 1/5 3/3 1/1 123
6 Maximale Flüsse in Netzwerken Das Verfahren beginnt wie folgt: 2. W := {s}, U := {s}. 3. – 4. Wir wählen s ∈ U und setzen U := ∅. 5. W := {s, 2}, U := {2}, VOR = (−, +s, −, −, −, −, −, −, −), EPS = (−, 3, −, −, −, −, −, −, −). 6. – 7. – 3. – 4. Wir wählen 2 ∈ U, U := ∅. 5. – 6. W := {s, 2, 4}, U := {4}, VOR = (−, +s, −, −2, −, −, −, −, −), EPS = (−, 3, −, 2, −, −, −, −, −). 7. – 3. – 4. Wir wählen 4 ∈ U, U := ∅. 5. W := {s, 2, 4, 5}, U := {5}, VOR = (−, +s, −, −2, +4, −, −, −, −), EPS = (−, 3, −, 2, 2, −, −, −, −). 6. W := {s, 2, 4, 5, 1, 3}, U := {5, 1, 3}, VOR = (−4, +s, −4, −2, +4, −, −, −, −), EPS = (2, 3, 2, 2, 2, −, −, −, −). 7. – 3. – 4. Wir wählen 5 ∈ U, U := {1, 3}. 5. – 6. – 7. – 3. – 4. Wir wählen 1 ∈ U, U := {3}. 5. – 6. – 7. – 3. – 4. Wir wählen 3 ∈ U, U := ∅. 5. W := {s, 2, 4, 5, 1, 3, 6}, U := {6}, VOR = (−4, +s, −4, −2, +4, +3, −, −, −), EPS = (2, 3, 2, 2, 2, 2, −, −, −). 6. – 7. – 3. – 4. Wir wählen 6 ∈ U, U := ∅. 5. W := {s, 2, 4, 5, 1, 3, 6, 7}, U := {7}, VOR = (−4, +s, −4, −2, +4, +3, +6, −, −), EPS = (2, 3, 2, 2, 2, 2, 2, −, −). 6. – 7. – 3. – 4. Wir wählen 7 ∈ U, U := ∅. 5. W := {s, 2, 4, 5, 1, 3, 6, 7, t}, U := {t}, VOR = (−4, +s, −4, −2, +4, +3, +6, −, +7), EPS = (2, 3, 2, 2, 2, 2, 2, −, 2). 6. (Hier wird noch 8 markiert, das ist aber irrelevant, da t bereits markiert ist) 7. t ∈ W 124
- Seite 1 und 2:
Einführung in die Lineare und Komb
- Seite 4 und 5:
Inhaltsverzeichnis 1 Einführung 1
- Seite 6 und 7:
1 Einführung 1.1 Einführendes Bei
- Seite 8 und 9:
1.1 Einführendes Beispiel muss der
- Seite 10 und 11:
t 2 ≤ s s ≤ 3 −s + t ≤ 1
- Seite 12 und 13:
1.2 Optimierungsprobleme wobei u ei
- Seite 14 und 15:
1.2 Optimierungsprobleme Theorie al
- Seite 16 und 17:
2 Grundlagen und Notation 2.1 Graph
- Seite 18 und 19:
2.1 Graphen und Digraphen: Wichtige
- Seite 20 und 21:
2.1 Graphen und Digraphen: Wichtige
- Seite 22 und 23:
(a) (c) 2.1 Graphen und Digraphen:
- Seite 24 und 25:
2.1 Graphen und Digraphen: Wichtige
- Seite 26 und 27:
2.2 Lineare Algebra uns auf Q oder
- Seite 28 und 29:
und meinen damit, dass A die folgen
- Seite 30 und 31:
2.2 Lineare Algebra wie in der line
- Seite 32 und 33:
2.3 Polyeder und lineare Programme
- Seite 34 und 35:
(2.4) Bemerkung. Die Lösungsmenge
- Seite 36 und 37:
2.3 Polyeder und lineare Programme
- Seite 38 und 39:
2.3 Polyeder und lineare Programme
- Seite 40 und 41:
V. Chvátal. Linear Programming. Fr
- Seite 42 und 43:
3 Diskrete Optimierungsprobleme Die
- Seite 44 und 45:
3.2 Klassische Fragestellungen der
- Seite 46 und 47:
(a) (b) 3.2 Klassische Fragestellun
- Seite 48 und 49:
3.3 Graphentheoretische Optimierung
- Seite 50 und 51:
3.3 Graphentheoretische Optimierung
- Seite 52 und 53:
3.3 Graphentheoretische Optimierung
- Seite 54 und 55:
3.3 Graphentheoretische Optimierung
- Seite 56 und 57:
• Schaltkreisentwurf • Standort
- Seite 58 und 59:
3.3 Graphentheoretische Optimierung
- Seite 60 und 61:
3.3 Graphentheoretische Optimierung
- Seite 62 und 63:
Literaturverzeichnis T. L. Gertzen
- Seite 64 und 65:
4 Komplexitätstheorie und Speicher
- Seite 66 und 67:
4.1 Probleme, Komplexitätsmaße, L
- Seite 68 und 69:
4.2 Die Klassen P und N P, N P-Voll
- Seite 70 und 71:
4.2 Die Klassen P und N P, N P-Voll
- Seite 72 und 73:
4.2 Die Klassen P und N P, N P-Voll
- Seite 74 und 75:
4 4.3 Datenstrukturen zur Speicheru
- Seite 76 und 77:
4.3 Datenstrukturen zur Speicherung
- Seite 78 und 79: 4.3 Datenstrukturen zur Speicherung
- Seite 80: R. E. Tarjan. Data structures and n
- Seite 83 und 84: 5 Bäume und Wege Der Beweis ist et
- Seite 85 und 86: 5 Bäume und Wege (2) =⇒ (3) Ist
- Seite 87 und 88: 5 Bäume und Wege Haben wir einen A
- Seite 89 und 90: 5 Bäume und Wege Falls T \ {ei} zu
- Seite 91 und 92: 5 Bäume und Wege /****************
- Seite 93 und 94: 5 Bäume und Wege THEN w[dope[i]+j]
- Seite 95 und 96: 5 Bäume und Wege Wie Beispiel (5.1
- Seite 97 und 98: 5 Bäume und Wege (a) F. Schiller.
- Seite 99 und 100: 5 Bäume und Wege DISTk(u) die Län
- Seite 101 und 102: 5 Bäume und Wege VOR(3) = 2. Wir s
- Seite 103 und 104: 5 Bäume und Wege 4. DO u = 1 TO v
- Seite 105 und 106: 5 Bäume und Wege Sei nun P ein kü
- Seite 107 und 108: 5 Bäume und Wege (b) D enthält ge
- Seite 109 und 110: 5 Bäume und Wege C2 C1 s 4 C3 C4 2
- Seite 111 und 112: 5 Bäume und Wege ders vorgehen: z.
- Seite 113 und 114: 5 Bäume und Wege ist ein System vo
- Seite 115 und 116: 5 Bäume und Wege heißt (allgemein
- Seite 117 und 118: 5 Bäume und Wege Um lästige Trivi
- Seite 119 und 120: Literaturverzeichnis A. Goldberg. P
- Seite 121 und 122: 6 Maximale Flüsse in Netzwerken Al
- Seite 123 und 124: 6 Maximale Flüsse in Netzwerken de
- Seite 125 und 126: 6 Maximale Flüsse in Netzwerken s
- Seite 127: 6 Maximale Flüsse in Netzwerken W
- Seite 131 und 132: 6 Maximale Flüsse in Netzwerken s
- Seite 133 und 134: Literaturverzeichnis L. R. Ford, Jr
- Seite 135 und 136: 7 Flüsse mit minimalen Kosten Ein
- Seite 137 und 138: 7 Flüsse mit minimalen Kosten Dami
- Seite 139 und 140: 7 Flüsse mit minimalen Kosten Dami
- Seite 141 und 142: 7 Flüsse mit minimalen Kosten 2. K
- Seite 143 und 144: 7 Flüsse mit minimalen Kosten schr
- Seite 145 und 146: 7 Flüsse mit minimalen Kosten Erf
- Seite 147 und 148: 7 Flüsse mit minimalen Kosten Die
- Seite 149 und 150: 7 Flüsse mit minimalen Kosten (7.2
- Seite 151 und 152: 7 Flüsse mit minimalen Kosten W f
- Seite 153 und 154: 7 Flüsse mit minimalen Kosten r s
- Seite 156 und 157: 8 Grundlagen der Polyedertheorie In
- Seite 158 und 159: (c) Ist F = {x ∈ P | c T x = γ}
- Seite 160 und 161: (a) =⇒ (d): Nach Definition ist {
- Seite 162 und 163: (8.12) Folgerung. Sei P = P = (A, b
- Seite 164 und 165: 9 Die Grundversion des Simplex-Algo
- Seite 166 und 167: 9.1 Basen, Basislösungen, Entartun
- Seite 168 und 169: 9.1 Basen, Basislösungen, Entartun
- Seite 170 und 171: 9.2 Basisaustausch (Pivoting), Simp
- Seite 172 und 173: gilt daher ⎛ ⎜ F · E = ⎜ ⎝
- Seite 174 und 175: 9.2 Basisaustausch (Pivoting), Simp
- Seite 176 und 177: 9.3 Das Simplexverfahren (c) Ist x
- Seite 178 und 179:
Setze (II.6) Updating B ′ := (p1,
- Seite 180 und 181:
9.3 Das Simplexverfahren (Die Trans
- Seite 182 und 183:
9.3 Das Simplexverfahren x2 = 0 nic
- Seite 184 und 185:
9.3 Das Simplexverfahren Wir führe
- Seite 186 und 187:
9.3 Das Simplexverfahren Das letzte
- Seite 188 und 189:
9.4 Spalten- und Zeilenauswahlregel
- Seite 190 und 191:
9.5 Die Phase I (2) Kleinster-Varia
- Seite 192 und 193:
9.5 Die Phase I x ≥ 0. Wir müsse
- Seite 194:
x1 x2 x3 s1 s2 s3 9.5 Die Phase I 6
- Seite 197 und 198:
10 Fourier-Motzkin-Elimination und
- Seite 199 und 200:
10 Fourier-Motzkin-Elimination und
- Seite 201 und 202:
10 Fourier-Motzkin-Elimination und
- Seite 203 und 204:
10 Fourier-Motzkin-Elimination und
- Seite 205 und 206:
10 Fourier-Motzkin-Elimination und
- Seite 207 und 208:
11 Das Farkas-Lemma und Dualitätst
- Seite 209 und 210:
11 Das Farkas-Lemma und Dualitätst
- Seite 211 und 212:
11 Das Farkas-Lemma und Dualitätst
- Seite 213 und 214:
11 Das Farkas-Lemma und Dualitätst
- Seite 215 und 216:
11 Das Farkas-Lemma und Dualitätst
- Seite 217 und 218:
11 Das Farkas-Lemma und Dualitätst
- Seite 219 und 220:
11 Das Farkas-Lemma und Dualitätst
- Seite 221 und 222:
11 Das Farkas-Lemma und Dualitätst
- Seite 223 und 224:
12 Ganzzahligkeit von Polyedern: Ei
- Seite 225 und 226:
12 Ganzzahligkeit von Polyedern: Ei
- Seite 227 und 228:
12 Ganzzahligkeit von Polyedern: Ei
- Seite 229:
12 Ganzzahligkeit von Polyedern: Ei