01.11.2013 Aufrufe

Tabl_Det_SS_09 - Institut für Mathematik

Tabl_Det_SS_09 - Institut für Mathematik

Tabl_Det_SS_09 - Institut für Mathematik

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

ii0


Fachbereich Informatik und <strong>Mathematik</strong><br />

ISMI - <strong>Institut</strong> <strong>für</strong> Stochastik<br />

& Mathematische Informatik<br />

Vektorräume und <strong>Tabl</strong>eaus<br />

WS 20<strong>09</strong><br />

H. Dinges<br />

5. Dezember 2011


INHALTSVERZEICHNIS<br />

i<br />

Inhaltsverzeichnis<br />

5.1 Teilvektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />

5.2 Das Austauschverfahren und Spaltentableaus. . . . . . . . . . . . . . . . . 12<br />

5.3 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

5.4 Ausblicke auf lineare Ungleichungen . . . . . . . . . . . . . . . . . . . . . . 35<br />

5.4 Dreiecksreduktion; LU-Faktorisierung. . . . . . . . . . . . . . . . . . . . . 40<br />

5.5 Linearformen, Bilinearformen und Dualität . . . . . . . . . . . . . . . . . . 49<br />

5.6 Tensoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59<br />

5.7 Alternierende Multilinearformen . . . . . . . . . . . . . . . . . . . . . . . . 70<br />

5.8 <strong>Det</strong>erminanten und Unterdeterminanten . . . . . . . . . . . . . . . . . . . 78<br />

5.9 Material . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


Abschnitt V 1<br />

Einleitung zum Einschub<br />

Wir haben oben im Kapitel I. Rechengrößen‘ Vektoren als geometrische Objekte kennengelernt<br />

und in übersichtlichen Beispielen ins Spiel gebracht. — Das ist es, was man in<br />

der Regel einem Nichtmathematiker in der Grundvorlesung nahezubringen versucht. Den<br />

effizienten Umgang mit Systemen von Vektoren und linearen Gleichungssystemen lernt er<br />

(oder sie) dann in der Veranstaltung zur Numerischen <strong>Mathematik</strong>.<br />

Den <strong>Mathematik</strong>studenten wird heute meistens schon sehr früh eine algebraische Theorie<br />

der Vektorräume und ihrer linearen Abbildungen vorgelegt, nachdem man davor nur<br />

ganz kurz und förmlich die ‘Gundbegriffe’ Menge, Gruppe, Körper und Ring definiert hat.<br />

Dieser Aufbau der Grundvorlesung, der sich dann auf kürzestem Weg auf die linearen<br />

Gleichungssysteme und die <strong>Det</strong>erminantenlehre des 19. Jahrhunderts stürzt, scheint mir<br />

nicht glücklich. Die Idee der Basis eines endlichdimensionalen (reellen oder komplexen)<br />

Vektorraums ist so plausibel, dass sie auch ohne Beweis mit Verstand und Erfolg verwendet<br />

werden kann. Und es scheint mir kein guter Beitrag zur Entwicklung von geometrischer<br />

Kompetenz, wenn man die Idee der Abbildung <strong>für</strong> den Anfänger an die lineare Theorie<br />

bindet —dem Anfänger sollte m. E. die Gelegenheit geboten werden, sich anhand von<br />

anschaulicheren Objekten die prinzipiellen und vielseitig verwendbaren Denkweisen der<br />

analytischen Geometrie zu erarbeiten. Ich denke z. B. an die Permutationen oder an<br />

konkrete Abbildungen der komplexen Ebene (oder des ‘Anschauungsraums’).<br />

Eine genauere Untersuchung der algebraischen Struktur eines Vektorraums würde ich<br />

gerne an das Ende des ersten Semesters rücken. Der hier vorgestellte Einschub <strong>für</strong> ‘echte’<br />

<strong>Mathematik</strong>er trägt der heute üblichen Forderung Rechnung, die Vektorräume, gleich<br />

wenn sie zum ersten Mal ins Bild kommen, als Gelegenheit zu nutzen, eine systematisch<br />

aufgebaute algebraisch-algorithmische Theorie vorzustellen. Er bleibt nicht ganz beim<br />

Üblichen. Wir geben uns z. B. mehr als üblich Mühe mit der Notation der Tupel und<br />

mit der Differenzierung der verschiedenen Aspekte der Matrizenrechnung. Die linearen<br />

Gleichungssysteme behandeln wir mit der in der Lehrbuchliteratur noch nicht so weit<br />

verbreiteten Methode der <strong>Tabl</strong>eaus. Das in den üblichen Lehrtexten besonders geschätzte<br />

Gauss’sche Eliminationsverfahren (mit den sog. elementaren Matrixumformungen) wird<br />

zwar kurz abgehandelt, nimmt aber bei uns keinen zentralen Platz ein. Die Austauschmethode<br />

<strong>für</strong> <strong>Tabl</strong>eaus ist ihm u. E. deutlich überlegen, sowohl im Hinblick auf die Übersichtlichkeit<br />

der Resultate (und dem Aspekt der Vektorraumdualität) als auch wegen ihrer<br />

Anwendbarkeit bei den linearen Ungleichungen.<br />

Diejenigen, die bereit sind, die im 5. Unterabschnitt auf das Studium der linearen Gleichungssysteme<br />

folgenden abstrakt-algebraischen Betrachtungsweisen bis zum Ende des<br />

Semesters aufzuschieben, sollten zurückwechseln zu den ( dem Anfänger leichter zugänglichen)<br />

Betrachtungen unseres Manuskripts, am besten vielleicht sofort ins Kapitel II.<br />

‘Abbildungen’. Die Resultate des Einschubs werden erst viel später gebraucht, und die<br />

auch die späten Abschnitte des Kapitels I. ‘Rechengrößen’ können später erarbeitet werden<br />

werden. Bevor wir uns nun der algebraischen Theorie der Vektorräume zuwenden,<br />

schicken wir einen Überblick über einige nützliche Ausdrucksweisen voraus.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


2 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Die Sprache der Familien, Zeilen, Spalten und Matrizen<br />

Eine Familie mit der Indexmenge I liegt vor, wenn jeden i aus I ein Objekt o i zugeordnet<br />

ist. Man notiert {o i : i ∈ I} oder (o i ) i∈I . Man spricht auch von einer Schar mit dem<br />

Scharparameter i aus I, oder im Englischen ‘family’ oder ‘collection of objects, parametrized<br />

by i ∈ I’. Das Objekt o i heisst der Eintrag in der Position i, oder im Englischen<br />

‘entry in position i’.<br />

Eine Familie zu einer endlichen Indexmenge nennt man auch ein I-Tupel. Ein n-Tupel<br />

ist eine Familie mit einer Indexmenge der Mächtigkeit n. Häufig ist I = {1, 2, . . ., n} und<br />

man notiert dann auch {o i : i = 1, 2, . . ., n} oder einfach (o 1 , o 2 , . . .,o n ).<br />

Wenn die Indexmenge I abzählbar ist, dann spricht man auch von einer Folge von<br />

Objekten, indiziert mit den Elementen der abzählbaren Menge I. Häufig ist I = N =<br />

{1, 2, . . .} oder I = Z + = N 0 = {0, 1, 2, . . .} und man notiert {o i : i = 1, 2, . . .} bzw. {o i :<br />

i = 0, 1, 2, . . .}. Auch die Notationen (o 1 , o 2 , . . .) bzw. (o 0 , o 1 , o 2 , . . .) sind gebräuchlich.<br />

Bemerke: Wenn {v i : i ∈ I} eine endliche Familie von Vektoren (in irgendeinem<br />

Vektorraum V ) ist, dann ist ∑ i∈I v i ein wohlbestimmter Vektor. Es kommt nicht darauf<br />

an, dass man die Indizes irgendwie anordnet, die Reihenfolge der Summanden spielt keine<br />

Rolle. Wenn die Indexmenge partioniert ist, I = I 1 + I 2 (disjunkte Vereinigung), dann<br />

gilt offenbar ∑ i∈I v i = ∑ i∈I 1<br />

v i + ∑ i∈I 2<br />

v i .<br />

Eine I × J-Matrix A mit Einträgen aus der Menge O liegt vor, wenn jedem Paar<br />

ij ∈ I × J eine Element o ij aus O zugeordnet ist. Man notiert auch A = (o ij ) ij∈I×J .<br />

Die i ∈ I heissen die Zeilenindizes der Matrix, die j ∈ J heissen die Spaltenindizes. Das<br />

Objekt o ij heisst der Eintrag in der Position ij oder auch der Eintrag in der i-ten Zeile<br />

und j-ten Spalte.<br />

Eine m × n-Matrix ist eine I × J-Matrix, wo |I| = m, |J| = n. Im Falle I =<br />

{1, 2, . . ., m} und J = {1, 2, . . ., n} kann man von der ersten, zweiten,... Zeile bzw.<br />

Spalte sprechen. Wenn man eine n × m-Matrix auf Papier notiert, dann muss man sich<br />

<strong>für</strong> eine Aufzählung der Indexmengen entscheiden; man liest man von links nach rechts<br />

und von oben nach unten.<br />

⎛<br />

⎞<br />

o 11 o 12 . . . o 1n<br />

A = (o ij ) i=1,...,m; j=1,...,n = ⎜o 21 o 22 . . . o 2n<br />

⎟<br />

⎝. . . . . . . . . . . . . . . . . . . ⎠<br />

o m1 o m2 . . . o mn<br />

Warnung: Die Menge aller I-Tupel mit Einträgen aus der Objektmenge O hat zunächst<br />

einmal keinerlei algebraische Struktur. Wir müssen im konkreten Fall festlegen, welche<br />

Rechenoperationen wir ins Spiel bringen wollen.<br />

Zeilen und Spalten<br />

Wenn wir die I-Tupel mit Einträgen aus einem Körper K (in der naheliegenden Weise) zu<br />

einem K-Vektorraum machen, dann wollen wir einen Unterschied machen zwischen dem<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


Abschnitt V 3<br />

Raum der I- Spalten K I Sp und dem Raum der I- Zeilen KI Z . Man muss beachten: I-<br />

Zeilen mit Einträgen aus K kann man linear kombinieren, ebenso I-Spalten. Eine I-Spalte<br />

kann man aber nicht zu einer I-Zeile dazuaddieren.<br />

In der ‘Vektorrechnung’, die wir unten entwickeln, arbeitet man nicht nur mit Tupeln<br />

von Skalaren, sondern häufig auch mit Tupeln von Vektoren. Beispielsweise ist ein ‘aufspannendes<br />

System’ oder speziell eine ‘Basis’ in der Regel als eine Familie von Vektoren<br />

{u i : i ∈ I} gegeben, und nicht einfach als eine Menge von Vektoren.<br />

Auch hier mag es manchmal hilfreich sein, darauf hinzuweisen, ob man sich das Tupel<br />

als eine Zeile oder als eine Spalte aufgelistet denken will.<br />

Eine I × J-Matrix versteht man manchmal gerne als ein Tupel von I-Spalten, nebeneinandergeschrieben<br />

mit dem Scharparameter j ∈ J. Manchmal denkt man dabei lieber<br />

an ein Tupel von J-Zeilen, untereinandergeschrieben mit dem Scharparameter i ∈ I.<br />

Die Unterteilung von Familien und Matrizen<br />

Eine Familie von Objekten zerteilt man, indem man die Indexmenge zerteilt. (Der Fachmannsagt<br />

‘partitioniert’) Die Partition I = I 1 + I 2 (disjunkte Vereinigung) macht aus<br />

einer Familie mit dem Scharparameter i ∈ I zwei Familien, nämlich {o i : i ∈ I 1 } und<br />

{o i : i ∈ I 2 }. Andererseits: Wenn zwei Familien mit disjunkte Pametermengen I 1 und I 2<br />

gegeben sind, dann kann man diese zu einer Familie mit der Parametermenge I = I 1 + I 2<br />

zusammenfügen.<br />

Wichtig ist das Zerteilen von Matrizen, welches durch eine Partitionierung der Spaltenmenge<br />

(oder der Zeilenmenge) entsteht. Wenn wir bei einer Matrix A deutlich machen<br />

wollen, dass es sich um eine I ×J-Matrix handelt, dann notieren wir A = A I J . Wir denken<br />

besonders an Matrizen mit Einträgen aus einem Körper. Für A = A I J und B = BJ K ist<br />

das Produkt eine wohldefinierte I × K-Matrix A · B = CK I .<br />

Wenn die Indexmengen zerlegt sind, dann schreiben wir manchmal<br />

A I 1+I 2<br />

J 1 +J 2<br />

=<br />

⎛<br />

⎝<br />

A I 1<br />

J 1<br />

A I 1<br />

J 2<br />

A I 2<br />

J 1<br />

A I 2<br />

J 2<br />

⎞<br />

⎠ =<br />

⎛<br />

⎝<br />

A I 1<br />

J1<br />

A I 2<br />

J1<br />

⎞<br />

A I 1<br />

J2<br />

⎠ .<br />

A I 2<br />

J2<br />

Unterteilte Matrizen werden wir nur dann multiplizieren, wenn die Partition der Spaltenmenge<br />

der ersten Matrix J = J 1 + J 2 dieselbe ist, wie die Partition der Zeilenmenge des<br />

zweiten Faktors. In diesem Fall haben wir<br />

( ) ( )<br />

A11 A 12 B11 B<br />

· 12<br />

A 21 A 22 B 21 B 22<br />

=<br />

=<br />

( )<br />

C11 C 12<br />

=<br />

C 21 C 22<br />

( )<br />

A11 B 11 + A 12 B 21 A 11 B 12 + A 12 B 22<br />

.<br />

A 21 B 11 + A 22 B 21 A 21 B 12 + A 22 B 22<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


4 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

5.4 Teilvektorräume<br />

Es sei K irgendein Körper.<br />

Definition 5.8 (K-Vektorraum). Ein K-Vektorraum ist ein Tupel<br />

(V,o, +, ·) .<br />

Hierbei ist V eine Menge mit einem ausgezeichneten Element o und einer Verknüpfung<br />

+, welche (V,o, +) zu einer kommutativen Gruppe macht, wo o das neutrale Element ist.<br />

Die skalare Multiplikation · ist eine Abbildung<br />

K × V → V , (a,v) ↦→ a · v<br />

mit den Eigenschaften<br />

a · (v 1 + v 2 ) = a · v 1 + a · v 2 ,<br />

(a + b) · v = a · v + a · v ,<br />

a · (b · v) = (a · b) · v ,<br />

1 · v = v .<br />

Notation: Es sollte dem Anfänger eine Hilfe sein, wenn wir in unserem Text die<br />

Vektoren zunächst einmal mit Fettbuchstaben bezeichnen. Um die (<strong>für</strong> handschriftliche<br />

Notizen eher unbequeme) Unterscheidung der Alphabete überflüssig zu machen, werden<br />

wir aber darauf achten, die Vektoren vorwiegend mit Buchstaben wie u, v, w zu bezeichnen,<br />

während wir <strong>für</strong> die Skalare vorwiegend Buchstaben wie a, b, c verwenden. Es müssen<br />

dann in der Handschrift nur noch Wege gefunden werden, den Skalar 0 nicht mit dem Nullvektor<br />

o zu verwechseln. Für Teilvektorräume benützen wir Buchstaben wie U, V, W. Wir<br />

betrachten hier Mengen und (meist endliche) Familien von Vektoren in einem festen K-<br />

Vektorraum V . In diesem Unterabschnitt (und auch später manchmal) werden wir die<br />

Vektoren aus V von rechts mit Skalaren multipizieren. In der Sache macht das keinen<br />

Unterschied; w · a ist derselbe Vektor wie a · w.<br />

Definition 5.9 (Teilvektorraum). Eine nichtleere Teilmenge W eines K-Vektorraums<br />

(<br />

V,o, +, K<br />

)<br />

heisst ein Teilvektorraum (oder auch ein Unterraum), wenn sie gegen Addition<br />

und skalare Multiplikation stabil ist, wenn sie also mit den eingeschränkten Operationen<br />

selbst ein K-Vektorraum ist.<br />

w 1 ,w 2 ∈ W ⇒ w 1 + w 2 ∈ W; w ∈ W, a ∈ K ⇒ a · w ∈ W.<br />

Bemerke: Der Gesamtraum V und der Raum {o}, der nur aus dem Nullvektor besteht,<br />

sind Teilvektorräume. Wir wollen nicht dem Brauch folgen, letzteren den Nullraum zu<br />

nennen. Das Wort ‘Nullraum’ werden wir an anderen Stellen benötigen. .<br />

Satz 5.4.1. Zu jeder Menge M von Vektoren in V existiert ein kleinster M umfassender<br />

Teilvektorraum.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.4 : Teilvektorräume 5<br />

Erster Beweis: Der Durchschnitt von (beliebig vielen) Teilvektorräumen des umfassenden<br />

Raums V ist offenbar ein Teilvektorraum. Der Durchschnitt aller die Menge M<br />

umfassenden Teilvektorräume ist der kleinste M umfassende Teilvektorraum. Ein weiteren<br />

Beweis, welcher etwas über die Elemente sagt, werden wir umgehend führen.<br />

Definition 5.10 (Lineare Hülle, Erzeugendensystem). Den kleinsten M umfassenden<br />

Teilvektorraum nennt man die lineare Hülle oder den von M aufgespannten Vektorraum.<br />

Man bezeichnet ihn mit span M.<br />

Im gleichen Sinn: Wenn {w α : α ∈ I} eine Familie von Vektoren ist, dann nennt<br />

man den kleinsten Teilvektorraum W, der alle w α enthält, den von den w α aufgespannten<br />

Vektorraum. Man nennt ihn auch die lineare Hülle der Familie; und man notiert<br />

W = span{w α : α ∈ I}. Man sagt in diesem Fall, die Familie {w α : α ∈ I} sei ein<br />

Erzeugendensystem des Teilvektorraums W.<br />

Satz 5.4.2. Die lineare Hülle der Familie {w α : α ∈ I} ist die Gesamtheit aller Vektoren<br />

von der Gestalt w = ∑ α a α · w α , wobei nur endlich viele der Koeffizienten ≠ 0 sind.<br />

Der Beweis liegt auf der Hand.<br />

Wichtig ist die folgende Situation: Seien W 1 und W 2 Teilvektorräume von V . Der von der<br />

Vereinigung W 1 ∪ W 2 aufgespannte Vektorraum W wird häufig mit W 1 + W 2 bezeichnet;<br />

er besteht aus allen Vektoren von der Gestalt w = w 1 + w 2 mit w i ∈ W i .<br />

Warnung: Hier bezeichnet W 1 + W 2 nicht, wie bei uns sonst üblich, die disjunkte<br />

Vereinigung zweier Mengen. Im Falle, wo W 1 und W 2 nur den Nullvektor gemeinsam<br />

haben, nennt man W 1 + W 2 die ‘innere direkte Summe’ der beiden Teilvektorräume; und<br />

man bringt die Eigenschaft W 1 ∩ W 2 = {o} durch die die Notation W = W 1 ⊕ W 2 zum<br />

Ausdruck.<br />

Hinweis: Wenn V 1 und V 2 irgendwelche K-Vektorräume sind, die zunächst einmal nichts<br />

miteinander zu tun haben, dann kann man die Menge der Paare (v 1 , v 2 ) als einen Vektoraum<br />

verstehen, den man als die ‘äussere direkte Summe’ bezeichnet und wie eine ìnnere<br />

direkte Summe innerhalb eines gegebenen Vektorraums mit V = V 1 ⊕ V 2 bezeichnet.<br />

Dim<br />

Definition 5.11 (Endlich erzeugter Unterraum, Dimension).<br />

Ein Vektorraum V heisst abzählbar (bzw. endlich) erzeugt, wenn eine abzählbare (bzw. endliche)<br />

aufspannende Familie existiert. Einen endlich erzeugten Vektorraum nennt man<br />

auch einen endlichdimensionalen Vektorraum. Die minimale Länge einer aufspannenden<br />

Familie heisst die Dimension des Vektorraums.<br />

Programm: Im Folgenden werden wir sehen, dass jeder Teilvektorraum eines abzählbar<br />

erzeugten Vektorraums ebenfalls abzählbar erzeugt ist. Im endlichdimensionalen Fall wird<br />

sich zeigen, dass jeder echte Teilvektorraum eine echt kleinere Dimension hat.<br />

Definition 5.12 (Lineare Unabhängigkeit). Man nennt eine Familie {w α : α ∈ I} linear<br />

unabhängig, wenn man den Nullvektor nur auf die triviale Weise als Linearkombination<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


6 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

der w α gewinnen kann.<br />

{w α : α ∈ I} linear unabhängig ⇐⇒<br />

(∑<br />

α<br />

)<br />

a α · w α = o ⇒ ∀α : a α = 0 .<br />

Wenn die Familie nicht linear unabhängig ist, dann ist sie linear abhängig, und das<br />

bedeutet, dass man den Nullvektor auf nichttriviale Weise linear kombinieren kann. Es<br />

existieren Indizes α 1 , . . .,α m und Koeffizienten a 1 , . . .,a m ≠ 0, sodass ∑ m<br />

l=1 a l · w αl = o.<br />

In diesem Falle kann man jeden der Vektoren w αk als Linearkombination der übrigen<br />

gewinnen.<br />

Satz 5.4.3 (Die Existenz linear unabhängiger Erzeugendensysteme).<br />

Der Vektorraum V sei die lineare Hülle der (endlichen oder abzählbaren) Familie {w k :<br />

k ∈ K}. Es existiert dann eine linear unabhängige Teilfamilie, welche V aufspannt.<br />

Beweis:<br />

Wir beweisen mehr: Es sei in V auch noch ein linear unabhängiges m-Tupel (u 1 , . . .,u m )<br />

gegeben, und die Indexmenge K sei angeordnet, K = N. Wir zeigen, dass eine Teilfolge<br />

K ′ = (i 1 , i 2 , . . .) existiert, sodass (u 1 , . . .,u m ,w i1 ,w i2 , . . .) ein linear unabhängiges Erzeugendensystem<br />

von V ist.<br />

Es ist nichts zu zeigen, wenn bereits (u 1 , . . .,u m ) den Vektorraum V aufspannt.<br />

Wenn das nicht so ist, dann sei w i1 der erste Vektor, welcher nicht im Vektorraum<br />

V m = span(u 1 , . . .,u m ) liegt. Das (m + 1)-Tupel (u 1 , . . .,u m ,w i1 ) ist linearunabhängig;<br />

denn die Annahme einer nichttrivialen Relation b 1 ·u 1 +· · ·+b m ·u m +b m+1 ·w i1 = o führt<br />

sowohl im Fall b m+1 = 0 als auch im Fall b m+1 ≠ 0 zu einem Widerspruch mit den Annahmen.<br />

In derselben Weise fahren wir fort. Entweder gelangen wir in endlich vielen Schritten<br />

zu einem linear unabhängigen aufspannenden System, oder finden eine unendliche linear<br />

unabhängige Folge, mit deren Einträgen man jedes w n linear kombinieren kann.<br />

Das Resultat kann man auch folgendermaßen ausdrücken<br />

asiserg Satz 5.4.4 (Basisergänzungssatz). Im Vektorraum V sei {u i : i ∈ I} ein linear unabhängiges<br />

System und {w k : k ∈ K} ein aufspannendes System. Man kann dann das<br />

System der u i durch Vektoren aus dem Vorrat des Systems der w k zu einem linear unabhängigen,<br />

V aufspannenden System ergänzen.<br />

Definition 5.13 (Basis). Ein linear unabhängiges Erzeugendensystem eines Vektorraums<br />

heisst eine Basis dieses Vektorraums.<br />

Eine Basis von V ist auch dadurch gekennzeichnet, dass man jeden Vektor aus V auf<br />

genau eine Weise als Linearkombination der Basisvektoren gewinnen kann. Wir zeigen,<br />

dass jede Basis dieselbe Länge hat; diese Länge ist die minimale Länge eines aufspannenden<br />

Systems; und das ist nach unserer Definition 5.4 die Dimension des Vektorraums.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.4 : Teilvektorräume 7<br />

Hinweis<br />

Wir haben eben gesehen, dass jeder abzählbar erzeugte Vektorraum eine Basis besitzt.—<br />

Die Frage, ob jeder Vektorraum eine Basis besitzt, wollen wir hier nicht verfolgen. Eine<br />

positive(!) Antwort auf diese Frage erfordert eine kompetente Nutzung des sog. Auswahlaxioms.<br />

sisaustausch Piv Satz 5.4.5 (Basisaustausch). Jede Basis eines endlich erzeugten Vektorraums hat dieselbe<br />

Länge.<br />

Beweis: Es seien (u 1 , . . .,u m ) und (v 1 , . . .,v n ) Basen von V . Wir nehme m ≤ n an und<br />

zeigen m = n.<br />

Der Vektor v 1 besitzt (genau) eine Darstellung durch die u i . Wir können annehmen, dass<br />

der Koeffizient von u 1 ungleich 0 ist, da wir frei sind, die u i umzunummerieren. Wir<br />

können dann u 1 und die v j mit j ≥ 2 aus den Vektoren in M 1 = (v 1 ,u 2 , . . .,u m ) linear<br />

kombinieren.<br />

pivot (1)<br />

(2)<br />

u 1 · a 1j +<br />

∑<br />

1<br />

u i · a i1 = v 1 ; v 1 · −<br />

a<br />

i<br />

11<br />

m∑<br />

1<br />

u i · a ij = v j = v 1 · a 1j +<br />

a 11<br />

i=2<br />

m∑ 1<br />

u i · a i1 = u 1 .<br />

a 11<br />

m∑<br />

( )<br />

1<br />

u i · a ij − a i1 a 1j .<br />

a 11<br />

i=2<br />

i=2<br />

M 1 ist eine Basis; denn alle u i liegen in span M 1 und eine nichttriviale Relation würde<br />

auch eine nichttriviale Relation in M 0 = (u 1 ,u 2 , . . .,u m ) ergeben.<br />

v 2 besitzt eine Darstellung in der Basis M 1 , v 1 · b 12 + u 2 · b 22 + · · · + u m · b m2 = v 2 . Nicht<br />

alle Koeffizienten der u i können verschwinden. Wir können b 22 ≠ 0 annehmen und nach<br />

u 2 auflösen. Wir erhalten eine Basis M 2 = (v 1 ,v 2 ,u 3 , . . .,u m ). Mit der Darstellung von<br />

v 3 in dieser Basis fahren wir fort. Wenn wir die Anordnung der verbliebenen u i <strong>für</strong> den<br />

nächsten Schritt passend machen, dann können wir weiter austauschen; u 3 gegen v 3 , und<br />

so weiter, bis alle u i aus der Basis entfernt sind. Wir haben schliesslich eine Basis, die aus<br />

Vektoren v j besteht. Kein echtes Teilsystem von (v 1 , . . .,v n ) spannt den Raum auf, also<br />

gilt m = n.<br />

Wir werden die Rechenschritte des Austauschverfahrens im nächsten Abschnitt noch im<br />

Einzelnen verfolgen.<br />

Warnung: Man hört manchmal Sätze wie den folgenden: ”<br />

Gegeben seien n linear<br />

unabhängige Vektoren ...“. Gemeint ist natürlich: ”<br />

Gegeben sei ein linear unabhängiges<br />

n-Tupel von Vektoren ...“. Nicht die Vektoren sind linear unabhängig, sondern das Tupel.<br />

Man sagt auch manchmal (inkorrekterweise): ”<br />

Der Vektor v ist linear abhängig von<br />

den Vektoren ...“. Gemeint ist, dass er linear abhängig ist vom Tupel der Vektoren... ;<br />

d. h. dass er in der linearen Hülle der betreffenden Menge von Vektoren liegt.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


8 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

MaBaWe Satz 5.4.6 (Die Matrix eines Basiswechsels). Es sei {u i : i ∈ I} eine Basis des Vektorraums<br />

U. Eine Familie {w k : k ∈ K} ist genau dann ebenfalls eine Basis, wenn sie mittels<br />

einer invertierbaren Matrix A I K aus den u i hervorgeht;<br />

(3) w k = ∑ i<br />

u i · a i k <strong>für</strong> k ∈ K; (u 1 , . . .,u m ) · A = (w 1 , . . .,w m ).<br />

Beweis:<br />

Wenn die Matrix A invertierbar ist, dann stellt die Inverse A −1 die u i durch die w k dar.<br />

Wir haben ein aufspannendes System der Länge |K| = |I| = m, also eine Basis.<br />

Wenn nun {w k : k ∈ K} eine Basis ist und A die (eindeutig bestimmte) Matrix, die<br />

die w k aus den u i linear kombiniert, dann müssen wir die Invertierbarkeit von A zeigen.<br />

Wir machen das recht ausführlich, weil es uns Gelegenheit gibt, Nützliches über Matrizen<br />

und den Raum der I-Spalten (mit seiner ‘Standardbasis’ {e i : i ∈ I}) zu sagen.<br />

Man sagt von einer Matrix A I K , dass sie eine Rechtsinverse besitzt, wenn ihre Spaltenmengen<br />

den Raum K I Sp aller i-Spalten aufspannt. In diesem Fall kann man nämlich<br />

insbesondere die Einheitsspalten e i aus den Spalten von A linear kombinieren. Wenn man<br />

solche Koeffizienten-Tupel zu den Spalten einer Matrix R = RI<br />

K zusammenfasst, ergibt<br />

sich A I K · RK I = EI I. Umgekehrt zeigt AI K · RK I = EI I dass man alle I-Spalten aus den<br />

Spalten von A linear kombinieren kann.<br />

Die Matrix A ist jedenfalls dann invertierbar, wenn sie eine Rechtsinverse besitzt<br />

und linear unabhängige Spalten hat, wenn also die Menge der Spalten von A eine Basis<br />

von K I Sp ist. In diesem Fall kann man nämlich die Spalten von A nur auf die triviale<br />

Weise aus den Spalten von A linear kombinieren, R ist eindeutig bestimmt, und aus<br />

A · (RA) = (AR) · A = A folgt RA = EK K . Die Matrix R ist also auch Linksinverse; A ist<br />

invertierbar.<br />

Es sei nun {w k : k ∈ K} eine Basis und R die Matrix, die die u i durch die w k darstellt.<br />

(u i = ∑ k w k · ri k). R ist eine Rechtsinverse, weil man die u i nur auf die triviale Weise aus<br />

den u i linear kombinieren kann, und<br />

(u 1 , . . .,u m ) · AR = (u 1 , . . .,u m ).<br />

Wegen |K| = |I| ist R tatsächlich die Inverse, R = A −1 .<br />

Satz 5.4.7 (Dimensionsformel). Sind V und W Teilvektorräume eines endlichdimensionalen<br />

Vektorraums, dann sind auch U = V ∪ W und V + W Teilvektorräume und es<br />

gilt<br />

(4)<br />

dim ( V + W ) + dim ( V ∩ W ) = dim V + dim W.<br />

Beweis:<br />

Es sei dim V = s, dim W = t, dim U = r; und es sei (u 1 ,u 2 , . . .,u r ) eine Basis von U. Wir<br />

können diese Basis einerseits zu einer Basis von V fortsetzen, (u 1 , . . .,u r , v 1 , . . .,v s−r )<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.4 : Teilvektorräume 9<br />

und andererseits zu einer Basis von W, (u 1 , . . .,u r , w 1 , . . .,w t−r ). Wenn wir die hier<br />

auftretenden r + (s − r) + (t − r) Vektoren zusammennehmen, erhalten wir ein V + W<br />

aufspannendes System. Wir müssen zeigen, dass dieses (s+t−r)-Tupel linear unabhängig<br />

ist. Wenn man den Nullvektor linear kombiniert ∑ i u i · a i + ∑ j v j · b j + ∑ k w k · c k = o,<br />

dann liegt der Vektor ∑ i u i · a i + ∑ j v j · b j = − ∑ k w k · c k sowohl in V als in W.<br />

Da aber die Vektoren in V ∩ W auf nur eine Weise aus den Elementen der Familie<br />

(u 1 , . . .,u r , v 1 , . . .,v s−r ) linear kombiniert werden können, haben wir b j = 0 <strong>für</strong> alle j.<br />

Ebenso ergibt sich c k = 0 <strong>für</strong> alle k; und schliesslich folgt aus ∑ i u i ·a i = o, dass auch alle<br />

Koeffizienten a i verschwinden. Wenn V ′ = span{v 1 , . . .,v s−r }; W ′ = span{w 1 , . . .,w t−r },<br />

dann haben wir V + W = U ⊕ V ′ ⊕ W ′ .<br />

Vektorraum-Homomorphismen<br />

Definition 5.14. Es sei U ein m-dimensionaler und W ein n-dimensionaler K-<br />

Vektorraum. Eine Abbildung ϕ : W → U heisst eine lineare Abbildung oder auch ein<br />

K-Vektorraum-Homomorphismus, wenn <strong>für</strong> alle Vektoren w und alle Skalare a gilt<br />

(5) ϕ(w 1 + w 2 ) = ϕ(w 1 ) + ϕ(w 2 ); (‘Additivität’); ϕ(a · w) = a · ϕ(w).<br />

Der Definitionsbereich W heisst auch der Urbildraum, U heisst der Zielraum von ϕ. Zum<br />

Homomorphismus definiert man den Kern und das Bild<br />

ker ϕ = {w : ϕ(w) = 0}<br />

⊆ W<br />

im ϕ = {u : u = ϕ(w) <strong>für</strong> ein w ∈ W } ⊆ U.<br />

Die Dimension des Bilds heisst der Rang der Abbildung ϕ.<br />

Wir erwähnen auch noch einige weitere Bezeichnungen<br />

Sprechweise 5.4.1. Ein Vektorraum-Homomorphismus ϕ heisst<br />

Monomorphismus, wenn er injektiv ist, d. h. wenn der Kern aus dem Nullvektor besteht,<br />

Epimorphismus, wenn er surjektiv ist, wenn also der Bildraum der gesamte Zielraum ist,<br />

Isomorphimus, wenn er bijektiv ist.<br />

Ein Vektorraum-Homomorphismus von W in sich heisst Endomorphismus, und er<br />

heisst Automorphismus, wenn er bijektiv ist.<br />

Rg Satz 5.4.8 (Satz vom Rang). Wenn ein Homomorphismus eines n-dimensionalen Vektorraums<br />

den Rang r hat, dann hat sein Kern die Dimension n − r.<br />

Beweis:<br />

Es sei (w 1 ,w 2 , . . .,w k ) eine Basis des Kerns, und (w k+1 , , . . .,w n ) eine Fortsetzung zu<br />

einer Basis von W. Die Bildvektoren (ϕ(w k+1 ), . . .,ϕ(w n )) spannen offenbar den Bildraum<br />

auf. Wir zeigen, dass sie linear unabhängig sind. Ist nämlich ∑ n<br />

j=k+1 a j · ϕ(w j )<br />

( ∑n<br />

)<br />

= ϕ<br />

j=k+1 a j · w j<br />

der Nullvektor, so liegt ∑ n<br />

j=k+1 a j · w j im Kern. Die lineare Hülle<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


10 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

der Familie (w k+1 , , . . .,w n ) hat aber mit ker ϕ nur den Nullvektor gemeinsam. Wegen<br />

der linearen Unabhängigkeit verschwinden alle Koeffizienten a j .<br />

Der Spezialfall r = n liefert den<br />

Bij Satz 5.4.9 (Satz von der Bijektivität). Es sei ϕ ein Homomorphismus eines n-dimensionalen<br />

Vektorraums in einen n-dimensionalen Vektorraum. ϕ ist dann genau dann ein<br />

Epimorphismus, wenn ϕ ein Monomorphismus ist. Anders gesagt: Bei einer linearen Abbildung<br />

eines n-dimensionalen Vektorraum in einen n-dimensionalen Vektorraum ist die<br />

Surjektivität ebenso wie die Injektivität notwendig und hinreichend <strong>für</strong> die Bijektivität.<br />

Konstruktionsaufgaben:<br />

Der Matrizenkalkül ist ein mächtiges Hilfsmittel, wenn Konstruktionen in Vektorräumen<br />

gefordert sind. Wir benützen die folgenden Sprech- und Notationsweisen:<br />

Sprechweise 5.4.2. Der von den Spalten einer I × J-Matrix A aufgespannte Teilraum<br />

des Raums K I Sp heisst der Spaltenraum der Matrix. Wir bezeichnen ihn mit span Sp A.<br />

Seine Dimension heisst der Spaltenrang der Matrix A.<br />

Der von den Zeilen einer I ×J-Matrix A aufgespannte Teilraum des Raums K J Z heisst<br />

der Zeilenraum der Matrix. Wir bezeichnen ihn mit span Z A. Seine Dimension heisst der<br />

Zeilenrang der Matrix A.<br />

Wir haben abstrakt bewiesen, dass es in einem (endlichdimensionalen) Vektorraum<br />

zu jeder Familie von Vektoren {v j : j ∈ J} eine Teilfamilie gibt, welche eine Basis<br />

des aufgespannten Teilvektorraums ist. Im nächsten Abschnitt wollen wir eine solche<br />

Teilfamilie konkret finden in einer Situation wie der folgenden: Im m-dimensionalen Raum<br />

U<br />

∑<br />

mit der Basis {u i : i ∈ I} sind n Vektoren v j durch ihre Basisdarstellung gegeben:<br />

i∈I u i · a ij = v j <strong>für</strong> j ∈ J. Die Vektoren v j erscheinen damit als die Spalten in einer<br />

I × J-Matrix A. Es stellen sich jetzt die Aufgaben:<br />

1. Finde ein linear unabhängiges Tupel von maximaler Länge, sagen wir {v j : j ∈ J | }.<br />

2. Finde die Darstellung der übrigen v j in der gefundenen Basis.<br />

v m = ∑ j∈J | v j · k j m <strong>für</strong> m ∈ J ‖ = J \ J | .<br />

3. Entscheide von einer vorgegebenen Spalte ṽ , ob sie als Linearkombinationen der<br />

Spalten von A dargestellt werden kann. ṽ = ∑ i u i · b i = ∑ j v j · x j . ?<br />

4. Gegeben sei eine Basis {v j : j ∈ J} eines Unterraums V und eine Basis {w k :<br />

k ∈ K} eines Unterraums W. Bestimme die Dimension d und finde eine Basis des<br />

Durchschnitts.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.4 : Teilvektorräume 11<br />

Bemerke: Die letztere Konstruktionsaufgabe kann man auch etwas anders formulieren:<br />

Die Elemente des Durchschnitts sind diejenigen Vektoren, die sich sowohl aus den v j als<br />

auch aus den w k linear kombinieren lassen. Gesucht ist ein linear unabhängiges d-Tupel<br />

von Vektoren der Gestalt s l = ∑ j v j · b jl = ∑ k w k · c kl <strong>für</strong> l ∈ L; (|L| = d).<br />

Zum Programm<br />

Die Technik der Berechnung, die wir im nächsten Abschnitt entwickeln, heisst die Austauschmethode<br />

oder auch die Methode der Pivot-Transformationen. Diese Technik wird<br />

sich nicht nur <strong>für</strong> die hier genannten Aufgabenstellungen als nützlich erweisen; sie wird<br />

z. B. auch im folgenden Abschnitt beim Lösen linearer Gleichungssysteme Anwendung<br />

finden.<br />

Der algebraisch orientierte Leser, der sich hier nicht mit algorithmischen Überlegungen<br />

befassen will, kann sofort in den Abschnitt über Vektorraumdualität springen. Die Erfahrung<br />

lehrt allerdings, dass viele Anfänger den Begriff der Dualität als relativ schwierig<br />

empfinden. Den meisten Anfängern sollte daher lieber empfohlen werden, vorher Erfahrungen<br />

mit einfacheren Themen zu sammeln, einerseits mit den Begriff der Abbildung<br />

(unser Kapitel II) und andererseits mit euklidischen Vektorräumen (unser Kapitel IV).<br />

Eine höchst wichtige Anwendung findet die Methode der Pivot-Transformationen in<br />

der Theorie der linearen Optimierung. Die Aufgabenstellung werden wir unten kurz skizzieren;<br />

und wir werden einige mathematische Sätze formulieren, ohne sie zu beweisen. Ein<br />

angemessenes Verständnis <strong>für</strong> die lineare Optimierung setzt nämlich die Begriffswelt der<br />

Dualität voraus, die wir erst noch entwickeln müssen. Mit unseren Hinweisen wollen wir<br />

den mehr praktisch orientierten Leser dazu motivieren, sich (zum passenden Zeitpunkt)<br />

mit diesem (recht abstrakten aber höchst wirksamen) Konzept ernsthaft zu befassen.<br />

Bemerkung zur Lehre: Einen merkwürdigen Umstand sollten wir nicht verschweigen.<br />

Unsere Studierenden erwarten (aus welchen Gründen auch immer), dass sie in der Grundvorlesung<br />

‘Lineare Algebra’ lernen, lineare Gleichungssysteme zu ‘lösen’, und dass zu diesem<br />

Zweck das sog. Gauss’schen Eliminationsverfahren ausführlich behandelt wird. Dem<br />

Pivot-Austausch begegnen sie mit Skepsis; anscheinend vermuten sie, dass irgendeine inhaltliche<br />

oder didaktische Weisheit der Grund da<strong>für</strong> ist, dass die gängigen Lehrbücher der<br />

Linearen Algebra das Austauschverfahren nicht behandeln und durchgängig auf die sog.<br />

elementaren Zeilentransformationen setzen. Ich kann den zweifelnden Studierenden nur<br />

sagen, dass ich keine guten Gründe kenne, beim Gewohnten zu bleiben. Das Austauschverfahren<br />

ist nicht schwierig, und es hat sowohl mathematischen Reiz als auch praktische<br />

Bedeutung. Da es auch noch reichhaltigen Übungsstoff zum Umgang mit Matrizen bietet,<br />

sollte es m. E. in der mathematischen Grundvorlesung einen prominenten Platz einnehmen.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


12 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

5.5 Das Austauschverfahren und Spaltentableaus.<br />

Eine lineare Beziehung im K-Vektorraum W ist eine Gleichung der Form<br />

∑<br />

w 1 · a 1 + w 2 · a 2 + . . . + w m · a m = 0. oder w k · a k = 0.<br />

Man spricht von einer nichttrivialen linearen Beziehung, wenn nicht alle Koeffizienten 0<br />

sind. Eine nichttriviale Beziehung kann man bekanntlich ‘auflösen’ nach jedem w k mit<br />

a k ≠ 0. Wenn wir nun ein System linearer Beziehungen aufschreiben wollen, dann brauchen<br />

wir Matrizen. Wir interessieren uns ganz besonders <strong>für</strong> Familien linearer Beziehungen,<br />

die allesamt ‘aufgelöst’ sind. Darunter verstehen wir ein Gleichungssystem der Form<br />

∑<br />

(6) u i · a ij = v j <strong>für</strong> alle j ∈ J; oder (u 1 , . . .,u m ) · A = (v 1 , . . .,v n ).<br />

i∈I<br />

mit einer I × J-Matrix A, |I| = m, |J| = n.<br />

Eine überzeugende Darstellung liefert auch die Notation als ein sog. Spaltentableau.<br />

u 1 a 11 a 12 . . . . . . a 1n<br />

u 2 a 21 a 22 . . . . . . a 2n<br />

k∈K<br />

(7)<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

u m a m1 a m2 . . . . . . a mn<br />

= v 1 = v 2 · · · · · · = v n<br />

Freie Anordnung der Reihen Wenn man Beipiele von Matrizen oder <strong>Tabl</strong>eaus zu<br />

Papier bringt, dann muss man sich <strong>für</strong> eine Anordnung der Zeilen und Spalten entscheiden.<br />

Die Anordnung hat in den folgenden Konstruktionen keine intrinsische Bedeutung; wir<br />

können sie jederzeit ändern, die identifizierenden Zeilen- bzw. Spaltenindizes am Rand<br />

müssen aber natürlich mitgenommen werden.<br />

Basen am linken Rand<br />

Wir denken jetzt an einen m-dimensionalen Vektorraum U mit der Basis {u i : i ∈ I}.<br />

Durch die I × J-Matrix A ist ein J-Tupel von Vektoren v j gegeben. Wenn der Eintrag<br />

α = a 11 nicht verschwindet, dann liefert der Austausch von v 1 gegen u 1 eine weitere Basis<br />

(v 1 ,u 2 , . . .,u m ) · B = (u 1 ,v 2 , . . .,v n ). Die Einträge der Matrix B haben wir bereits<br />

oben im Satz 5.1.5 auf Seite 7 berechnet. In der Pivot-Position erscheint der Eintrag<br />

b 11 = 1 = 1<br />

α a 11<br />

. Die weiteren Einträge in der ersten Spalte sind b i1 = −a i1 · 1 ; die weiteren<br />

α<br />

Einträge in der ersten Zeile sind b 1j = 1 · a α 1j. Im übrigen Bereich der Matrix haben wir<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.5 : Das Austauschverfahren und Spaltentableaus. 13<br />

b ij = a ij − a i1 · 1 · a α 1j. Man kann die verkürzte Matrix ˜B auch folgendermaßen schreiben,<br />

wenn man mit s die verkürzte erste Spalte und mit z die verkürzte erste Zeile bezeichnet:<br />

˜B = Ã − s · a−1 11 · z.<br />

Man kann sich das Rechenverfahren folgendermaßen organisiert denken: Der Eintrag α<br />

in der Pivotposition ist durch sein Reziprokes zu ersetzen. Die restliche neue Pivot-Spalte<br />

ergibt sich aus der alten durch Multiplikation mit − 1 . Die übrigen neuen Pivot-Spalten<br />

α<br />

(unter Ausschluss der Pivot-Zeile!) erhält man, indem man zu den alten ein Vielfaches der<br />

neuen Pivot-Spalte (das ist s · (− 1 ) dazuaddiert; welches Vielfaches das ist, erkennt man<br />

α<br />

am Eintrag in der alten Pivot-Zeile. Schliesslich ist auch noch die alte Pivot-Zeile (durch<br />

Multiplikation mit 1 ) zu aktualisieren. Beachte: Wenn man die transponierte Matrix AT<br />

α<br />

in der angegeben Weise transformiert, bekommt man nicht ganz die transponierte Matrix;<br />

es gibt da eine Unsymmetrie bzgl. des Vorzeichens, die wir später aufklären werden, wenn<br />

wir auch von sog. Zeilentableaus sprechen.<br />

Sprechweise 5.5.1 (Pivot-Transformation). Der Übergang von der Matrix A zur Matrix<br />

B heißt die (kleine) Pivot-Transformation zur Pivot-Position (1,1). (Pivot ist das englische<br />

Wort <strong>für</strong> Dreh- und Angelpunkt. ‘Pivotieren um (i ∗ , j ∗ )’ kann man als ‘Schwenken um<br />

(i ∗ , j ∗ )’ übersetzen.) Eine Pivot-Transformation P ij gibt es zu jeder Pivot-Position (i, j),<br />

in welcher ein Eintrag ≠ 0 steht. Bei einer solchen Transformation tauscht ein Symbol<br />

aus dem unteren Rand seinen Platz mit einem Symbol am linken Rand. Ein Zeilenindex<br />

mutiert zu einem Spaltenindex und umgekehrt.<br />

Man bemerke: Wenn man zweimal um ‘dieselbe’ Position ‘schwenkt’, kommt man zur<br />

Ausgangssituation zurück. Für die Einträge neben dem Pivot ist das offensichtlich. Für die<br />

übrigen Einträge ergibt sich b ij −b i1 b −1<br />

11 b 1j = ( )<br />

a ij − a i1 a −1<br />

11 a 1j − ai1 a −1<br />

11 b −1<br />

11 a −1<br />

11 a 1j = a ij .<br />

Verwandte Matrizen<br />

Wir wollen nun Pivot-Tansformationen hintereinanderschalten. Die Matrizen B, die wir so<br />

aus der gegebenen I ×J-Matrix A gewinnen können, nennen wir verwandte Matrizen. Die<br />

verwandten Matrizen haben ein Format (J | +I ‖ )×(I | +J ‖ ), wo I | +I ‖ = I und J | +J ‖ = J<br />

Partitionen der Indexmengen sind. Wir haben eben gesehen, dass die Verwandtschaft in<br />

der Tat eine Äquivalenzrelation ist: Wenn B mit A verwandt ist, dann ist auch A mit B<br />

verwandt.<br />

Festlegungen und Notationen<br />

1. Bei den Matrizen, die wir hier betrachten, spielen die Indexmengen I und J eine<br />

wichtige Rolle. Das soll heissen: die Zeilen und die Spalten haben Namen und die<br />

Indexmengen sind disjunkt. Die m+n Vektoren, die in den Anwendungen durch die<br />

verschiedenen <strong>Tabl</strong>eaus in Beziehung gesetzt werden, haben Namen.<br />

2. Wenn wir bei einer Matrix A das Format sichtbar machen wollen, dann fügen wir<br />

manchmal die Indexmenge der Spalten als oberen und die Indexmenge der Zeilen<br />

als unteren Index hinzu, also z. B. A = A I J und A 12 = A I|<br />

J ‖ .<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


14 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

3. Wenn diese Notation zu aufwendig erscheint, notieren wir auch<br />

J | J ‖ I | J ‖<br />

(8)<br />

I | A 11 . A 12 J | B 11 . B 12<br />

............... ...............<br />

I ‖ A 21 . A 22 I ‖ B 21 . B 22<br />

4. Die Verwandtschaft hat zunächst mit linearen Beziehungen in Vektorräumen nichts<br />

zu tun. Verwandtschaft bedeutet, dass eine Folge von Pivot-Transformationen existiert,<br />

welche die eine Matrix in die andere überführt. Wir werden allerdings sehen,<br />

dass die Interpretationen durch Familien linearer Beziehungen in einem Vektorraum<br />

bei den Beweisen eine Hilfe sein können .<br />

Wir konzentrieren uns zunächst allein auf die Matrizen. Die vielerlei Interpretationsmöglichkeiten<br />

stellen wir zurück. Wir formulieren die wichtigsten Aussagen zum Begriff der<br />

Verwandtschaft, die wir dann nach und nach beweisen werden.<br />

Warnung: Wenn man in gängigen Lehrbüchern der Linearen Algebra von ‘äquivalenten’<br />

oder von ‘ähnlichen’ Matrizen spricht, dann ist dort nicht die hier definierte Verwandtschaft<br />

gemeint. Dort spielen üblicherweise die sog. elementaren Zeilentransformationen<br />

eine zentrale Rolle. Wenn doch Pivot-Transformationen auftauchen, dann geschieht das<br />

in den Kapiteln über Systeme linearer Ungleichungen; das Stichwort dort lautet ‘Simplexverfahren’.<br />

verwMat Satz 5.5.1 (Berechnung verwandter Matrizen). Gegeben ist eine Matrix A = A I J vom<br />

Format I × J. Es gilt dann<br />

1. Für ein Paar von Partitionen I = I | + I ‖ , J = J | + J ‖ gibt es höchstens eine<br />

verwandte Matrix vom Format (J | + I ‖ ) × (I | + J ‖ ).<br />

2. Wenn B die verwandte Matrix zum Austausch I | ❀ J | ist, dann ist die Teilmatrix<br />

B 11 vom Format J | × I | die Inverse von A 11 = A I| , also B<br />

J | 11 = A −1<br />

11 . Weiter gilt<br />

B 21 = −A 21 · A −1<br />

11 , B 12 = A −1<br />

11 · A 12, B 22 = A 22 − A 21 · A −1<br />

11 · A 12.<br />

Wenn man die Matrix A als eine Familie von I-Spalten {s j : j ∈ J | } auffasst, also<br />

als eine Familie von Vektoren im Vektorraum K I Sp aller I-Spalten, dann kann man die<br />

Frage nach der Existenz einer verwandten Matrix von einem vorgegebenen Format so<br />

beantworten:<br />

Satz 5.5.2 (Erreichbare Formate).<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.5 : Das Austauschverfahren und Spaltentableaus. 15<br />

1. Genau dann, wenn die Familie {s j : j ∈ J | } linear unabhängig ist, existiert <strong>für</strong><br />

ein geeignetes I | eine verwandte Matrix vom Format (J | + I ‖ ) × (J | + I ‖ ). Die<br />

Zeilenmenge {t i : i ∈ I | } ist dann linear unabhängig.<br />

2. Wenn A 11 eine invertierbare Teilmatrix ist, dann existiert eine Folge von Pivot-<br />

Transformationen mit dem Resultat<br />

( )<br />

B11 = A −1<br />

11 B<br />

(9)<br />

12 = A −1<br />

11 A 12<br />

B 21 = −A 21 · A −1<br />

11 B 22 = A 22 − A 21 · A −1<br />

11 · A 12<br />

3. Ist A eine m × n-Matrix vom Rang r und A 11 eine invertierbare Teilmatrix vom<br />

Rang s, dann hat die Matrix B 22 = A 22 − A 21 A −1<br />

11 A 12 den Rang r − s.<br />

Beweis der Sätze<br />

Wir interpretieren die verwandten Matrizen A und B (von der Größe m×n) als die Koeffizientenschemata<br />

<strong>für</strong> lineare Beziehungen zwischen den Vektoren u 1 , . . .,u m ,v 1 , . . .,v n im<br />

m-dimensionalen Vektorraum U mit der Basis {u i : i ∈ I}. Die Pivot-Transformationen<br />

bringen neue m-Tupel von Vektoren an den linken Rand, die alternative Basen darstellen.<br />

Die dort neu erscheinenden Vektoren seien v 1 , . . .,v l , die <strong>für</strong> sie an den unteren Rand<br />

gewanderten Vektoren seien u 1 , . . .,u l . Wir gehen zur Matrizenschreibweise über, wo wir<br />

den Buchstaben E <strong>für</strong> die Einheitsmatrix benützen, sowohl <strong>für</strong> die Einheitsmatrix vom<br />

Format I ‖ × I ‖ , als auch <strong>für</strong> die vom Format I | × I | . Das Format der auftretenden Nullmatrizen<br />

erschliesst sich aus der Stellung dieser Nullmatrizen.<br />

(10)<br />

(11)<br />

( )<br />

A11 A<br />

(u | , u ‖ ) · 12<br />

A 21 A 22<br />

( )<br />

B11 B<br />

(v | , u ‖ ) · 12<br />

B 21 B 22<br />

( )<br />

A11 0<br />

= (v | , v ‖ ); (u | , u ‖ ) ·<br />

A 21 E<br />

( )<br />

B11<br />

= (u | , v ‖ ); (v | , u ‖ ) ·<br />

B 21<br />

= (v | , u ‖ );<br />

= u |<br />

Da es nur eine einzige Art gibt, die Einträge des Tupels u | = {u i : i ∈ I | } als Linearkombinationen<br />

der u i darzustellen, nämlich die triviale, haben wir<br />

( ) ( ) (<br />

A11 0 B11 E<br />

· = .<br />

E B 21 0)<br />

A 21<br />

Das ergibt A 11 · B 11 = E und A 21 · B 11 + B 21 = 0.<br />

Die restliche Gleichungen ergeben sich, wenn wir die Basisdarstellungen der Einträge des<br />

Tupels v ‖ = {v j : j ∈ J ‖ } betrachten.<br />

u | A 12 + u ‖ A 22 = v ‖ = v | B 12 + u ‖ B 22 = (u | A 11 + u ‖ A 21 ) · B 12 + u ‖ B 22<br />

A 12 = A 11 · B 12 A 22 = A 21 · B 12 + B 22 = −B 21 B11 −1 B 12 + B 22 .<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


16 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Den Übergang von A zu B gemäß den obigen Gleichungen nennen wir eine (große) Pivot-<br />

Transformation zur (invertierbaren) Pivot-Matrix A 11 (von der Größe s × s).<br />

Die Interpretation der verwandten Matrizen in den Spaltentableaus führt die Erreichbarkeit<br />

auf den Satz vom Basisaustausch 5.1.5 zurück; wenn A 11 eine ( invertierbare ) Teilmatrix<br />

A11<br />

der Ausgangsmatrix ist, dann sind die I-Spalten der Matrix linear unabhängig;<br />

A 21<br />

und man kann sie im Tausch in die gegebene Basis einbringen.<br />

Wir wollen uns noch etwas mit der Matrix B 22 = A 22 − A 21 A −1<br />

11 A 21 befassen: Es sei<br />

A 11 eine invertierbare Teilmatrix vom Rang s; der Spaltenraum V der Matrix A sei r-<br />

dimensional. Wir zeigen, dass die Matrix B 22 r −s linear unabhängige Spalten hat. O. B.<br />

d. Allgemeinheit können wir annehmen, dass die Spalten von A linear unabhängig sind.<br />

Wir betrachten das (r−s)-Tupel w ‖ = (v ‖ )−(v | )·B 12 = (u ‖ )·B 22 . Offenbar ist (v | , w ‖ )<br />

ebenso wie (v | , v ‖ ) eine Basis von V . Andererseits folgt aus<br />

( )<br />

A11 0<br />

(v | , w ‖ ) = (u | , u ‖ ) · ,<br />

A 21 B 22<br />

dass die Spalten der Matrix B 22 linear unabhängig sind. Damit sind die Sätze über verwandte<br />

Matrizen bewiesen.<br />

In den Beweisen zum Begriff der Verwandtschaft haben wir vom reinen Matrizenkalkül<br />

entfernt; wir haben etwas gelernt über Systeme von Vektoren in einem m-dimensionalen<br />

Vektorraum V , der nicht notwendigerweise der Raum der m-Spalten mit den Einheitsspalten<br />

als ausgezeichneter Basis ist. Diese Einsichten formulieren wir als Satz:<br />

Satz 5.5.3 (Partieller Basisaustausch). Es sei {u i : i ∈ I} eine Basis des m-dimensionalen<br />

Raums U und es sei {v j : j<br />

∑<br />

∈ J} irgendeine Familie von Vektoren in U, gegeben durch<br />

die Basisdarstellungen<br />

i∈I u i · a ij = v j <strong>für</strong> j ∈ J.<br />

Es seien J | und I | so, dass B = {v j : j ∈ J | } ∪ {u i : i ∈ I ‖ = I \ I | } eine Basis von U<br />

ist. Es existiert dann eine mit A verwandte Matrix B vom Format (J | + I ‖ ) × (I | + J ‖ ).<br />

Sie liefert die Darstellungen der übrigen u i und v j durch die Basis B.<br />

∑<br />

v k · b k i + ∑ u l · b l i = u i <strong>für</strong> i ∈ I | ;<br />

k∈J | l∈I<br />

∑<br />

‖ v k · b k j + ∑ u l · b l j = v j <strong>für</strong> j ∈ J ‖ .<br />

k∈J | l∈I ‖<br />

Wenn wir die auszutauschenden Basisvektoren an den Anfang des m-Tupels stellen, dann<br />

sieht das so aus<br />

( )<br />

( ) ( ) A11 A<br />

u1 , . . .,u m · A = u1 , . . .,u s ,u s+1 , . . .,u m · 12<br />

= ( )<br />

v<br />

A 21 A 1 , . . .,v s ,v s+1 , . . .,v n ;<br />

22<br />

( )<br />

( ) B11 B<br />

v1 , . . .,v s ,u s+1 , . . .,u m · 12<br />

= ( )<br />

u<br />

B 21 B 1 , . . .,u s ,v s+1 , . . .,v n .<br />

22<br />

(12)<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.5 : Das Austauschverfahren und Spaltentableaus. 17<br />

Sprechweise 5.5.2 ( Maximaler Austausch). Eine große Pivot-Transformation zu einer<br />

Teilmatrix vom vollen Rang r nennen wir einen maximalen Austausch.<br />

In den folgenden Zahlenbeispielen versuchen wir in einer Folge von Pivot-Transformationen<br />

möglichst viele Zeilen gegen Spalten auszutauschen. Die ausgewählten Pivots sind<br />

mit einem ∗ gekennzeichnet. Wir haben Zeilen und Spalten von vorneherein so angeordnet,<br />

dass die Pivot-Wahl entlang der Diagonalen vernünftig ist. Beim praktischen<br />

Rechnen muss man erst nach und nach lernen, was eine vernünftige Anordnung sein<br />

könnte. ( Wir werden ) das unten weiter diskutieren. Die Interpretation des Endprodukts<br />

B11 B<br />

B = 12<br />

verschieben auf später. Hier geht es zunächst einmal nur ums Rechnen.<br />

B 21 0<br />

1ZB Beispiel 5.5.1. (Erstes Zahlenbeispiel)<br />

u 1 1 ∗ 2 4 1 v 1 1 2 4 1<br />

u 2 1 1 1 0 u 2 −1 −1 ∗ −3 −1<br />

u 3 −1 0 2 1 u 3 1 2 6 2<br />

= v 1 = v 2 = v 3 = v 4 = u 1 = v 2 = v 3 = v 4<br />

v 1 −1 2 −2 −1 v 1 A −1<br />

11 . B 12<br />

v 2 1 −1 3 1 v 2 . . . . . . .... . . .<br />

u 3 −1 2 0 0 u 3 −1 2 0 0<br />

= u 1 = u 2 = v 3 = v 4 = u 1 = u 2 = v 3 = v 4<br />

Die Nullmatrix in der rechten unteren Ecke (genauer gesagt: die Zeile (0, 0)) bedeutet<br />

<strong>für</strong> die ursprüngliche Matrix A 22 − A 21 A −1<br />

11 A 12 = 0. Und in der Tat haben wir<br />

A 21 A −1<br />

11 A 12 = ( −1 0 )( ) ( )<br />

−1 2 4 1<br />

= ( 2 1 ) = A<br />

1 −1 1 0<br />

22 .<br />

2ZB<br />

Beispiel 5.5.2. (Zweites Zahlenbeispiel) Die Matrix im folgenden Beispiel hat den Rang 3.<br />

Wir können die 3 × 3-Matrix in der linken oberen Ecke invertieren. Die Rechenergebnisse<br />

des ersten Beispiels können wir teilweise verwenden, weil sich die beiden Matrizen nur in<br />

der rechten unteren Ecke unterscheiden.<br />

u 1 1 ∗ 2 4 1 v 1 1 2 4 1<br />

u 2 1 1 1 0 u 2 −1 −1 ∗ −3 −1<br />

u 3 −1 0 1 2 u 3 1 2 5 3<br />

= v 1 = v 2 = v 3 = v 4 = u 1 = v 2 = v 3 = v 4<br />

v 1 −1 2 −2 −1 v 1 1 −2 −2 −3<br />

v 2 1 −1 3 1 v 2 −2 5 3 4<br />

u 3 −1 2 −1 ∗ 1 v 3 1 −2 −1 −1<br />

= u 1 = u 2 = v 3 = v 4 = u 1 = u 2 = u 3 = v 4<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


18 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Aus den Endprodukten solcher Serien Umformungen können wir nun interessante Eigenschaften<br />

der gegebenen Matris A ablesen.<br />

MaxAu Satz 5.5.4 (Maximaler Austausch). Wenn die Spalten der Matrix A = A I J einen r-dimensionalen<br />

Teilraum des Raums K I aufspannen, dann existiert eine invertierbare Teilmatrix<br />

von der Größe r × r. Wenn A 11 = A I| eine solche Matrix ist, dann gibt es einen<br />

J |<br />

Austausch I | ❀ J | und die dazugehörige verwandte Matrix B hat die Gestalt<br />

( ) (<br />

B11 B<br />

B = 12 A −1<br />

11 A −1<br />

11<br />

=<br />

A ) ( )<br />

12 M K<br />

(13)<br />

B 21 B 22 −A 21 · A −1 =<br />

11 0 −L 0<br />

In diesem Falle besitzt die ursprüngliche Matrix die Faktorisierung<br />

( )<br />

A11<br />

A = · A −1<br />

11<br />

A · (A ( )<br />

) E<br />

I | ( )<br />

(14)<br />

11 , A 12 = · A 11 · E<br />

21 L<br />

J | , K<br />

L = L I|<br />

I<br />

= A ‖ 21 · A −1<br />

11 , K = KJ| J<br />

= A −1<br />

‖ 11 A 12.<br />

( )<br />

E<br />

I |<br />

( )<br />

(Bemerke: Hier besteht aus r I-Spalten, und E<br />

L<br />

J | , K aus r J-Zeilen.)<br />

Beweis<br />

In jeder maximal ausgetauschten Matrix B ist die Teilmatrix B 22 die Nullmatrix. Wäre<br />

das nämlich nicht so, dann könnte man eine weitere Pivot-Transformation in die Wege<br />

leiten, welche ein weiteres j zu einem i macht, und man hätte dazu eine invertierbare<br />

Teilmatrix vom Rang r + 1. Die Rücktransformation liefert wegen B −1<br />

11 = A 11<br />

A 21 = −B 21 A 11 , A 12 = A 11 B 12 , A 22 = B 22 − B 21 A 11 B 12<br />

und wegen B 22 = 0 die höchst bedeutsame Faktorisierung unserer Matrix<br />

( ) (<br />

A11 A<br />

A = 12 E<br />

(15)<br />

= · A<br />

A 21 A 22 L)<br />

11 · (E<br />

, K )<br />

mit<br />

K = A −1<br />

11 · A 12, L = A 21 · A −1<br />

11 .<br />

Bemerke: In der entsprechenden Faktorisierung <strong>für</strong> die transponierte Matrix tauschen K<br />

und L die Plätze. Genauer gesagt:<br />

( ) E<br />

A T =<br />

K T · A T 11 · (E , L T)<br />

Die Teilmatrix Matrix A 11 ist genau dann invertierbar, wenn ihre Transponierte invertierbar<br />

ist: (A T 11 ) )−1 = (A −1<br />

11 )T . In der Situation des Satzes spannen die Zeilen der Teilmatrix<br />

(<br />

A11 , A 12 = A11 · (E,<br />

K ) (<br />

den<br />

)<br />

r-dimensionalen<br />

(<br />

Zeilenraum der Matrix A auf, so wie<br />

A11 E<br />

die Spalten der Teilmatrix = · A<br />

A 21 L)<br />

11 den Spaltenraum aufspannen.<br />

Die Faktorisierung der Matrix A präzisiert den äusserst wichtigen<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.5 : Das Austauschverfahren und Spaltentableaus. 19<br />

ZRg=SRg Satz 5.5.5 (Zeilenrang = Spaltenrang). Für jede Matrix ist der Spaltenrang gleich dem<br />

Zeilenrang. Wenn der Rang mindestens r ist, dann gibt es eine invertierbare Teilmatrix<br />

vom Rang r.<br />

Wir sollten an dieser Stelle vielleicht (<strong>für</strong> den Kenner) erwähnen, dass es das Ziel<br />

des sog. Gauss’schen Eliminitationsverfahrens ist, eine bequeme Basis <strong>für</strong> den Zeilenraum<br />

einer m×n-Matrix zu konstruieren. Bei der Suche nach einem r-Tupel linear unabhängiger<br />

Zeilen findet man gleichzeitig auch ein r-Tupel linear unabhängiger Spalten. Man gewinnt<br />

also auch eine Partition der Spaltenmenge J = J | + J ‖ , sodass die Spalten {s j ; j ∈ J | }<br />

eine Basis des Spaltenraums sind. Bei der Konstruktion dieser Partition orientieren sind<br />

die meisten Version des Gauss-Verfahrens an einer vorgegebenen Anordnung der Reihen.<br />

Bei unserer Konstruktion spielt die (ursprüngliche) Anordnung der Reihen keine Rolle.<br />

Bemerkung zur Pivot-Wahl<br />

Die erste Behauptung im ersten Satz besagt: Wenn wir mit zwei Serien von Pivot-<br />

Transformationen zu einem Austausch der Indexmengen in I | gegen die Indexmengen<br />

J | gelangt sind, dann sind wir bei derselben Koeffizientenmatrix angelangt. Dies ist theoretisch<br />

so, nicht aber in der Praxis des Rechnens. Da man in der Regel nicht ganz genau<br />

rechnen kann, kann sich der eine Weg als wesentlich empfindlicher gegenüber Rechenungenauigkeiten<br />

erweisen als der andere; die Pivot-Wahl ist ein delikates Problem der Numerik.<br />

3ZB Beispiel 5.5.3. Die folgende durch ein kleines ε gestörte Matrix A ε soll invertiert werden.<br />

Die inverse Matrix A −1<br />

ε<br />

⎛ ⎞<br />

1 1 0<br />

A ε = ⎝ 1 1 + ε 2 ⎠<br />

0<br />

1<br />

2<br />

1<br />

2<br />

sollte nahe bei A −1<br />

0 liegen. Durch schlechte Pivot-Wahl würden<br />

aber problematische Zwischenresultate auftreten; die linke obere 2 ×2-Matrix ist nämlich<br />

nahe an einer singulären Matrix. Wir wählen (1, 1), (3, 3), (2, 2) als unsere Pivots.<br />

j 1 j 2 j 3 j 4 i 1 j 2 j 3 j 4<br />

i 1 1 ∗ +1 0 2 j 1 +1 +1 0 2<br />

i 2 +1 1 + ε +2 0 i 2 −1 ε +2 −2<br />

i 3 0 + 1 2<br />

+ 1 2<br />

−1 i 3 0 + 1 2<br />

1<br />

2<br />

∗<br />

−1<br />

i 1 j 2 i 3 j 4 i 1 i 2 i 3 j 4<br />

1 1<br />

j 1 +1 +1 0 +2 und <strong>für</strong> j 1 −2 +2<br />

2 2<br />

i 2 −1 (ε − 2) ∗ 1<br />

−4 0 ε = 0 j 2 − 1 +2 0<br />

2 2<br />

j 3 0 +1 +2 −2 weiter j 3 − 1 1<br />

0 −2<br />

2 2<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


20 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Die Berechnung spezieller Lösungen eines inhomogenen Systems<br />

Wir können aus dem maximal ausgetauschten <strong>Tabl</strong>eau eine Reihe interessanter Informationen<br />

ablesen. Zunächst einmal finden wir die Dimension des von den v j aufgespannten<br />

Vektorraums; wir identifizieren sogar eine Basis des von den v j aufgespannten Vektorraums,<br />

und wir finden die Darstellung der übrigen v j , j ∈ J ‖ in dieser Basis.<br />

Andererseits ergeben sich ohne weitere komplizierte Rechnungen spezielle Lösungen<br />

des inhomogenen linearen Gleichungssystems A ·⃗x = b, indem man folgendermaßen argumentiert:<br />

Gegeben sei eine m × n-Matrix A und eine zusätzliche m-Spalte b. Es gilt, die Spalte<br />

b als Linearkombination der Spalten von A darzustellen. Das passt zu unserem Ansatz,<br />

wenn man die Spalten als Linearkombinationen der Einheitsspalten deutet. Offenbar kann<br />

man b genau dann als Linearkombinationen der Spalten von A darstellen, wenn die ‘erweiterte’<br />

Matrix (A .b) denselben Spaltenrang hat wie A. In diesem Fall (und nur in diesem!)<br />

kann <strong>für</strong> einen maximalen Austausch von (A .b) die letzte Spalte bei der Pivotwahl ausgeschlossen<br />

bleiben. Und wenn man diese ‘zusätzliche’ Spalte ausschliesst, dann liefern<br />

die Einträge in der letzten Spalte des maximal ausgetauschten <strong>Tabl</strong>eau die gewünschte<br />

Darstellung von b als Linearkombination der ausgetauschten Spalten.<br />

Im ersten Zahlenbeispiel sind die dritte und die vierte Spalte der gegebenen Matrix<br />

Linearkombinationen der beiden ersten Spalten:<br />

v 3 = (−2) · v 1 + 3 · v 2 , v 4 = (−1) · v 1 + 1 · v 2 ,<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

4 1 2 1 1 2<br />

⎝1⎠ = (−2) · ⎝ 1 ⎠ + 3 · ⎝1⎠ , ⎝0⎠ = (−1) · ⎝ 1 ⎠ + 1 · ⎝1⎠ .<br />

2<br />

−1 0 1<br />

−1 0<br />

Im zweiten Zahlenbeispiel sagt uns die letzte Spalte des maximal ausgetauschten Spaltentableaus<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

1 2 4 x 1 1<br />

x 1 −3<br />

⎝ 1 1 1⎠<br />

⎝x 2 ⎠ = ⎝0⎠<br />

⇐⇒ ⎝x 2 ⎠ = ⎝ 4 ⎠ .<br />

−1 0 1 x 3 2<br />

x 3 −1<br />

Die letzte Spalte der usprünglichen Matrix lässt sich also (offenbar auf genau eine Weise)<br />

als Linearkombination der drei ersten Spalten darstellen.<br />

geoInt<br />

Geometrische Deutung<br />

In den Zahlenbeispielen sind wir von Vektoren v 1 ,v 2 ,v 3 ,v 4 in einem 3-dimensionalen<br />

Raum U ausgegangen. In allen Fällen erzeugt das Paar v 1 ,v 2 einen zweidimensionalen<br />

Vektorraum V und das Paar v 3 ,v 4 einen zweidimensionalen Vektorraum W. Im dritten<br />

Beispiel ist sofort zu sehen, wie der Durchschnitt aussieht. Im ersten Zahlenbeispiel hat<br />

die Matrix A den Rang 2 mit der Konsequenz V = W. Im zweiten Zahlenbeispiel ist<br />

geometrische Sachlage interessanter: Zwei ‘Ebenen’ durch den Nullpunkt, die nicht gleich<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.5 : Das Austauschverfahren und Spaltentableaus. 21<br />

4ZB<br />

sind, schneiden sich bekanntlich in einer ‘Geraden’. Der dazugehörige eindimensionale<br />

Teilvektorraum wird von einem Vektor w aufgespannt, der sich sowohl aus v 1 ,v 2 als auch<br />

aus v 3 ,v 4 linear kombinieren lässt. Einen solchen Vektor liefert uns die letzte Spalte des<br />

ausgetauschten <strong>Tabl</strong>eaus. Dort sehen wir nämlich −3v 1 + 4v 2 − v 3 = v 4 ; und das liefert<br />

einen Vektor der gewünschten Art −3v 1 + 4v 2 = ˜w = v 3 + v 4 . Die Probe ist leicht<br />

zu bewerkstelligen. Zur Berechnung braucht man aber wohl doch ein Verfahren von der<br />

Komplexität des maximalen Austauschs.<br />

Das Verfahren zur Konstruktion einer Basis des Durchschnitts zweier Teilvektorräume<br />

funktioniert allgemein: Wir bilden ein Spaltentableau, indem wir Basen der<br />

fraglichen Vektorräume V und W nebeneinanderschreiben. Nehmen wir an, die Längen<br />

der Basen seien s und t. Die Dimension r von V + W ergibt sich aus dem Rang dieser<br />

Matrix, und dieser Rang ist die maximale Anzahl austauschbarer Basisvektoren. Wenn<br />

wir einen maximalen Austausch durchführen, dann bleiben s +t −r lineare Beziehungen,<br />

in welchen kein u i vorkommt. Diese liefern eine Basis des Durchschnitts V ∩ W.<br />

Die oben konstruierte Faktorisierung der gegebenen Matrix, und die ‘Blöcke’ K und L<br />

werden unten diskutiert. Hier noch zwei Zahlenbeispiele zur großen Pivot-Transformation.<br />

Beispiel 5.5.4. (Viertes Zahlenbeispiel). Die folgende Matrix 4 × 4-Matrix A ist zu invertieren.<br />

Es fällt auf, dass sich in der rechten unteren Ecke ein ‘Einheitsmatrix’ vom<br />

Format (i 2 , i 3 , i 4 ) × (j 2 , j 3 , j 4 ) findet. Es bietet sich daher als erster Austauschschritt<br />

eine ‘große Schwenkung’ um diese Matrix an. Dies führt zur Matrix B vom Format<br />

(i 1 , j 2 , j 3 , j 4 ) × (j 1 , i 2 , i 3 , i 4 ).<br />

⎛<br />

⎞<br />

⎛<br />

⎞<br />

2. 1 1 1<br />

−1. −1 −1 −1<br />

( )<br />

· · · · · · · · · · · ·<br />

( )<br />

· · · · · · · · · · · ·<br />

A11 A<br />

A = 12<br />

=<br />

1. 1 0 0<br />

B11 B <br />

12<br />

=<br />

+1. 1 0 0<br />

A 21 A 22 ⎜<br />

⎟ B<br />

⎝ 1. 0 1 0<br />

21 B 22 ⎜<br />

⎟<br />

⎠<br />

⎝+1. 0 1 0 ⎠<br />

1. 0 0 1<br />

+1. 0 0 1<br />

( )<br />

denn wir haben B 22 = A −1<br />

22 , B 12 = −A 12·A −1<br />

22 = (−1, −1, −1), B 21 = A −1 111<br />

22 ·A 12 = ,<br />

( ) 111<br />

B 11 = A 11 − A 12 B 21 = 2 − (1, 1, 1) = (−1).<br />

Die ‘Schwenkung’ um die linke obere Ecke (i 1 , j 1 ) liefert die Inverse<br />

⎛<br />

⎞<br />

−1. 1 1 1<br />

( )<br />

· · · · · · · · · · · ·<br />

A −1 C11 C<br />

= C = 12<br />

=<br />

1. 0 −1 −1<br />

.<br />

C 21 C 22 ⎜<br />

⎝ 1. −1 0 −1<br />

⎟<br />

⎠<br />

1. −1 −1 0<br />

( )<br />

denn C 11 = B11 −1 = (−1)−1 , C 21 = −B 21 B11 −1 = 111<br />

; C 12 = (1, 1, 1), und<br />

( ) 111<br />

C 22 = B 22 − B 21 C 12 = E 3 − (1, 1, 1).<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


22 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

5ZB<br />

Beispiel 5.5.5. (Fünftes Zahlenbeispiel): Ein maximaler Austausch ist gesucht <strong>für</strong> die<br />

folgende 4 ×5-Matrix A. Es wird sich herausstellen, dass man die ersten drei Zeilen gegen<br />

die ersten drei Spalten austauschen kann. Um die Notation nicht zu belasten, unterdrücken<br />

wir die Randbeschriftung (die aber natürlich sehr wichtig ist). Zunächst sehen wir, dass<br />

die linke obere 2 × 2 invertierbar ist; und wir können die Inverse B 11 = A −1<br />

11 auch sofort<br />

angeben.<br />

⎛<br />

⎞ ⎛<br />

⎞<br />

4 3 . 2 −1 4<br />

4 −3 . −1 −1 4<br />

5 4 . 3 −1 4<br />

−5 4 . 2 1 −4<br />

A =<br />

· · · · · · · · · · · · · · ·<br />

B =<br />

· · · · · · · · · · · · · · ·<br />

⎜<br />

⎝−2 −2 . −1 2 −3<br />

⎟ ⎜<br />

⎠ ⎝ −2 2 . 1 ∗ 2 −3<br />

⎟<br />

⎠<br />

11 6 . 4 1 11<br />

−14 9<br />

. 3 6 −9<br />

denn<br />

B 11 = A −1<br />

11 = ( )<br />

+4 −3<br />

−5 +4<br />

B 12 = +A −1<br />

11 A 12 = ( +4 −3<br />

−5 +4<br />

B 21 = −A 21 A −1<br />

11 = ( −<br />

B 22 = A 22 − A 21 B 12 =<br />

−2 −2<br />

11 +6<br />

)( 2 −1 4<br />

3 −1 4<br />

)( +4 −3<br />

−5 +4<br />

A 22 − ( −2 −2<br />

11 +6<br />

) (<br />

=<br />

−1 −1 +4<br />

)<br />

+2 +1 −4<br />

) (<br />

=<br />

−2 +2<br />

)<br />

−14 +9 ,<br />

)( −1 −1 +4<br />

+2 +1 −4<br />

)<br />

= · · · =<br />

( +1 +2 −3<br />

+3 +6 −9<br />

)<br />

.<br />

Das Schwenken um die durch * angezeigte Position (3, 3) liefert ein maximal ausgetauschtes<br />

<strong>Tabl</strong>eau<br />

i 1 i 2 i 3 j 4 j 5<br />

j 1 +2 −1 +1<br />

j 2 −1 0 −2<br />

. +1 +1<br />

. −3 +2<br />

j 3 −2 +2 +1 . +2 −3<br />

. . . . . . . . . . . . . . . . . .<br />

−8 +3 −3 . 0 0<br />

i 4<br />

Fazit: Die gegebene Matrix A hat den Rang 3. Die 3 ×3-Matrix in der linken oberen Ecke<br />

ist invertierbar, und wir haben die Inverse explizit bestimmt; sie ist die 3 × 3-Matrix in<br />

der linken oberen Ecke des ausgetauschten <strong>Tabl</strong>eaus.<br />

Weiter können wir schliessen: die vierte und die fünfte Spalte der ursprünglichen Matrix<br />

A lassen sich aus den drei ersten Spalten linear kombinieren; und die hinteren Spalten des<br />

ausgetauschten <strong>Tabl</strong>eaus zeigen die (eindeutig bestimmten) Koeffizienten.<br />

Wenn wir den Begriff des Zeilentableaus behandelt haben, dann werden wir auch ablesen,<br />

dass die vierte Zeile y 4 der ursprünglichen Matrix eine Linearkombination der ersten drei<br />

Zeilen ist.<br />

(−8) · y 1 + 3 · y 2 + (−3) · y 3 = −y 4 .<br />

Eine weitere Interpretation unseres Rechenergebnisses werden wir kennenlernen, wenn<br />

wir später die Matrix als einen zweistufigen Tensor interpretieren.— Doch kommen wir<br />

zunächst zu den Zeilentableaus.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.5 : Das Austauschverfahren und Spaltentableaus. 23<br />

Das Zeilentableau zu einer Matrix A I J<br />

Es hat sich im obigen Beweis als nützlich erwiesen, mit den verwandten Matrizen Spaltentableaus<br />

zu assoziieren, die Zusammenhänge in einem m-dimensionalen Vektorraum<br />

beschreiben. Wir wollen jetzt auch noch ein sog. Zeilentableaus assoziieren. Hierzu denken<br />

wir an eine Familie von Vektoren {f j : j ∈ J} ∪ {g i : i ∈ I} in einem n-dimensionalen<br />

Vektorraum F, an eine Familie also, in welcher die folgenden linearen Beziehungen bestehen.<br />

⎛ ⎞<br />

f 1 ⎛ ⎞<br />

∑<br />

a ij · f j = −g i f 2<br />

−g 1<br />

<strong>für</strong> alle i ∈ I; oder A · ⎜ ⎟<br />

⎝ . ⎠ = ⎜ ⎟<br />

(16)<br />

⎝ . ⎠<br />

j∈J<br />

f n −g m<br />

Das dazugehörige Zeilentableau lautet<br />

(17)<br />

2<br />

f 1 f 2 . . . . . . f n<br />

a 11 a 12 . . . . . . a 1n = −g 1<br />

a 21 a 22 . . . . . . a 2n = −g 2<br />

.<br />

.<br />

.<br />

.<br />

. = .<br />

. = .<br />

a m1 a m2 . . . . . . a mn = −g m<br />

Wenn a 11 ≠ 0, dann können wir die erste Gleichung nach −f 1 auflösen und in den weiteren<br />

Zeilen f 1 durch g 1 ersetzen. Das liefert<br />

n∑<br />

a 11 f 1 + a 1j f j = −g 1 1<br />

n∑<br />

; g 1 1<br />

(18)<br />

+ a 1j f j ; = −f 1<br />

a<br />

2<br />

11 a<br />

2 11<br />

n∑<br />

a i1 f 1 + a ij f j = −g i 1<br />

n∑<br />

= −a i1 g 1 1<br />

(19)<br />

+ (a ij − a i1 a 1j )f j .<br />

a 11 a 11<br />

Der Vergleich mit der Umrechnung auf Seite 7 zeigt, dass die Koeffizientenmatrix des aktualisierten<br />

<strong>Tabl</strong>eaus die Pivot-Transformierte von A ist. (Hier bewährt sich die getroffene<br />

Vorzeichenkonvention!)<br />

Mit einer maximalen Serie von Pivot-Transformationen gelangen wir zu einer äquivalenten<br />

Darstellung der gegebenen linearen Beziehungen von der Form<br />

(20)<br />

( M K<br />

−L 0<br />

)<br />

·<br />

( g<br />

|<br />

f ‖ )<br />

=<br />

2<br />

( −f<br />

|<br />

−g ‖ )<br />

Die Faktorisierung, die zum gewählten maximalen Austausch gehört, zeigt<br />

( )<br />

E<br />

I | ( ) ( ) ( ) f<br />

| −g<br />

|<br />

(21)<br />

· A 11 · E<br />

L<br />

J | , K ·<br />

f ‖ =<br />

−g ‖ .<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


24 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Eine naheliegende Realisierung des Zeilentableaus finden wir im Raum F = K J Z der<br />

J-Zeilen. Die Vektoren −g i werden als Linearkombinationen der ‘Einheitszeilen’ e j geschrieben.<br />

Der vollständige Austausch löst die Frage nach einer Basis <strong>für</strong> den Zeilenraum<br />

der Matrix A, und er berechnet, wie sich die übrigen Zeilen aus dem ausgewählten linear<br />

unabhängigen r-Tupel linear kombinieren lassen. Beim vierten Zahlenbeispiel haben<br />

wir bereits darauf hingewiesen. Auch das erste Zahlenbeispiel erlaubt eine Interpretation<br />

dieser Art: Dort ist die dritte Zeile ist eine Linearkombination der beiden ersten:<br />

(−1) · (1, 2, 4, 1) + 2 · (1, 1, 1, 0) = (−1) · (−1, 0, 2, 0).<br />

Ausblick: Bis hierher mag es so aussehen, als wenn sich die Idee der Zeilentableaus<br />

in einer einfachen Analogie zur Idee der Spaltentableaus erschöpft. So ist das aber nicht.<br />

Wir werden Szenarien kennenlernen, wo die simultane Betrachtung der zueinander dualen<br />

<strong>Tabl</strong>eaus zu einer Matrix A angezeigt ist.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.6 : Lineare Gleichungssysteme 25<br />

5.6 Lineare Gleichungssysteme<br />

Zur Geschichte des Lösens von Gleichungen<br />

Das Lösen von Gleichungen ist ein sehr altes Thema der <strong>Mathematik</strong>. Die Vorstellungen,<br />

was darunter zu verstehen ist, haben sich aber im Laufe der Jahrhunderte stark verändert.<br />

In der heutigen Schulmathematik denkt man z. B. an das Lösen quadratischer Gleichungen<br />

(und die Schüler sind glücklich darüber, dass es da eine ‘Lösungsformel’ gibt). Man denkt<br />

möglicherweise auch an allgemeinere Situationen, etwa an Situationen der folgenden Art:<br />

Gegeben ist eine Funktion einer ‘Variablen’ x, sagen wir G(x), und ein Wert b. Man<br />

bestimme ˜x so, dass G(˜x) = b. In der ‘Gleichung’ G(x) = b heisst x die ‘Unbekannte’.<br />

Es erhebt sich natürlich sofort die Frage, ob es eine ‘Lösung’ ˜x gibt, und ob die Lösung<br />

gegebenenfalls eindeutig bestimmt ist. —Eigentlich kann man erst dann, wenn darüber<br />

Klarheit besteht, darangehen, ‘die Lösung zu berechnen’. Zunächst einmal kann man die<br />

Gleichung nur umformen in der Hoffnung, sie zu vereinfachen. Wenn nur die Existenz<br />

einer Lösung, nicht aber die Eindeutigkeit geklärt ist, wird man nach der ‘Lösungsmenge’<br />

fragen; das ist die Menge aller ‘Werte der Variablen’ x, <strong>für</strong> welche die Gleichung G(x) = b<br />

erfüllt ist, oder anders gesagt, in welchen die Funktion G(·) der Wert b annimmt.<br />

Die Vielzahl der sprachlichen Wendungen ist <strong>für</strong> den Unerfahrenen nicht leicht zu<br />

durchschauen. Er könnte z. B. mit einigem Recht fragen, warum das x manchmal als<br />

Variable und manchmal als Unbekannte bezeichnet wird. Man mag bedauern, dass es<br />

auf Fragen dieser Art keine schnellen Antworten gibt. Es gibt aber nicht nur historische<br />

Gründe <strong>für</strong> die Vielfalt der Ausdrucksweisen; man kann und sollte nicht versuchen,<br />

sie durch eine dekretierte Sprachregelung ausser Kraft zu setzen; denn die traditionellen<br />

Ausdrücke prägen bis heute die Vorstellungswelt der <strong>Mathematik</strong>er.<br />

Das Rechnen mit der ‘Unbekannten’ x wurde im 16. Jahrhundert erfunden. Es gilt<br />

als ein wichtiger Beitrag von Vieta (1540 – 1603), dass er darauf bestanden hat, schon in<br />

den Bezeichnungen eine Unterscheidung zu treffen zwischen den Bekannten (man könnte<br />

sagen den gegebenen Parametern des Problems) und den Unbekannten, die man zu bestimmen<br />

sucht. Auf Descartes (1596 –1662) geht die Gepflogenheit zurück, Buchstaben<br />

am Anfang des Alphabets <strong>für</strong> Parameter zu benützen und Buchstaben am Ende des Alphabets<br />

<strong>für</strong> die Unbekannten. Eine zentrale Idee von Descartes’ ‘Analytischer Geometrie’<br />

ist die Korrespondenz zwischen einer Gleichung f(x, y) = 0 und der Menge der Punkte,<br />

deren ‘Koordinaten’ die Gleichung erfüllen.<br />

Wenn die Alten von einer Unbekannten in einer Gleichung sprachen, dann dachten<br />

sie an bestimmte Zahl, welche man zwar im Augenblick noch nicht explizit kennt, mit<br />

dem man aber schon einmal rechnen kann. Durch das ‘Auflösen’ der Gleichung wird der<br />

‘explizite’ Wert der Unbekannten ermittelt.<br />

Wenn man von einer Variablen spricht, dann denkt man traditionsgemäß an etwas,<br />

das sich verändert oder verändert wird, um schliesslich Werte (in einem festgelegten Bereich)<br />

anzunehmen. Die Variablen spielen eine zentrale Rolle im Denken von Newton<br />

(1643 – 1727). Die algebraische Ausdrucksweise ist da aber mit geometrischen Vorstellungen<br />

durchsetzt; Newton spricht von Variablen <strong>für</strong> Fluenten und Fluxionen, die durch<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


26 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Gleichungen in Beziehung zueinander gesetzt werden.<br />

Neben den Variablen und Unbekannten gibt es in der heutigen <strong>Mathematik</strong> auch noch<br />

die Unbestimmten, bei denen man zunächst einmal nicht daran denkt, dass sie irgendwelche<br />

Werte annehmen. Sie fungieren einfach als Rechengrößen (einer festgelegten Art).<br />

Der Begriff der Funktion hat eine verschlungene Geschichte. Bis in die Mitte des 17.<br />

Jahrhunderts beschränkten sich praktisch alle Autoren, die mit Funktionen zu tun haben,<br />

auf Fragen, die mit algebraischen Kurven zusammenhängen. Mit der Erfindung der Differential<br />

– und Integralrechnung wurde das zwar anders, es kamen viele neue Funktionen<br />

ins Bild; aber erst im 19. Jahrhundert hat der Begriff der Funktion scharfe Formen angenommen.<br />

Und noch etwas später hat dann auch die Idee der Lösungsmenge (in einem<br />

gegebenen Lösungsbereich) eine scharfe Form angenommen.<br />

Was schliesslich den Begriff der Gleichung betrifft, so erklären ihn die <strong>Mathematik</strong>er bis<br />

heute lieber durch Beispiele als durch eine allgemeine Begriffsbestimmung. Die Analytiker<br />

denken etwa so wie die Alten an das Lösen von Gleichungen. Algebraiker operieren mit<br />

Gleichungen, sie denken aber in der Regel nicht ans ‘Lösen’ – was das heisst, kann von<br />

Fall zu Fall sehr verschieden sein. Wir denken im Folgenden zunächst einmal eher wie die<br />

Analytiker; es wird sich aber zeigen, dass auch die algebraische Betrachtungsweise mit<br />

Unbestimmten an der Stelle von ’festen Werten’ große Vorzüge hat. Im konkreten Fall<br />

werden wir mit den Unbestimmten nach den Regeln der Vektorraumtheorie rechnen.<br />

Das ‘Lösen von Gleichungssystemen’ ist nichts anderes als das Lösen von Gleichungen.<br />

Man hat da Tupel von Gleichungen <strong>für</strong> Tupel von Variablen. In einem konkreten Fall aus<br />

der Grundvorlesung ‘Analysis’ könnte das etwa folgendermaßen aussehen: Gegeben ist ein<br />

m-Tupel von glatten Funktionen von n Variablen über einem Bereich B ⊆ R n und ein<br />

m-Tupel von Zahlen b. Zu lösen ist das Gleichungssystem<br />

g 1 (x 1 , x 2 , . . ....,x n ) = b 1 ,<br />

g 2 (x 1 , x 2 , . . ....,x n ) = b 2 ,<br />

.<br />

g m (x 1 , x 2 , . . ....,x n ) = b m .<br />

Man schreibt das auch kurz als G(⃗x) = ⃗ b, wobei man sich ⃗x als eine J-Spalte (|J| = n)<br />

und ⃗ b als eine I-Spalte (|I| = m) vorstellt.<br />

.<br />

Eine Analogie zum ‘Lösen’ von Extremwertproblemen: Aus analytischer Sicht<br />

gibt es Ähnlichkeiten zwischen dem ‘Lösen’ von Gleichungen und dem ‘Lösen’ von Extremwertproblemen.<br />

Gegeben ist ein Bereich B ⊂ R n und eine auf B definierte reellwertige<br />

Funktion h(·). Die Aufgabe lautet: Man finde den ‘Maximalwert’ M = sup{h(Q) : Q ∈ B}<br />

sowie die ‘Menge der Maximalstellen’ {Q : Q ∈ B, h(Q) = M}.<br />

Es gibt natürlich auch hier Probleme mit der Lösbarkeit. Es kann z. B. passieren, dass h(·)<br />

auf B nach oben unbeschränkt ist; d. h. M = +∞. Und es kann (auch bei endlichem M)<br />

passieren, dass die Zielfunktion den Wert M nicht annimmt: {Q : Q ∈ B, h(Q) = M} = ∅.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.6 : Lineare Gleichungssysteme 27<br />

Die Lösungsmengen linearer Gleichungssysteme<br />

Bei den linearen Gleichungssystemen, die wir hier jetzt (aufbauend auf dem Schulwissen)<br />

ausführlich diskutieren wollen, sind die g i (·) K-wertige affine Funktionen auf einem<br />

endlichdimensionen K-Vektorraum V , der nicht notwendigerweise der R n ist. In geometrischer<br />

Betrachtung sind die Lösungsmengen als Teilvektorräume oder affine Teilräume<br />

zu interpretieren, (wenn sie nicht gerade einmal leer sind).<br />

Die algebraische Sicht auf die linearen Gleichunssysteme lässt mehr Spielraum: Neben<br />

den ‘bekannten’ Größen kommen auch ‘Unbestimmte’ und ‘Unbekannte’ ins Bild neben<br />

den sog. ‘bekannten’ Größen, die man auch Parameter nennen kann. Diese sind Zahlen<br />

(d. h. Skalare in K) a, b, c, . . . mit Indizes, die meistens in Spalten, Zeilen oder Matrizen<br />

versammelt sind.<br />

Die Unbestimmten und Unbekannten müssen nicht <strong>für</strong> Zahlen stehen, sie werden gelegentlich<br />

auch als Vektoren oder Linearformen zu interpretieren sein. Entscheidend ist,<br />

dass sie mit Hilfe der ‘bekannten’ Zahlen zueinander in Beziehung gesetzt werden. Das<br />

Lösen eines Gleichungssystems besteht im Folgenden darin, dass man die Gleichungen so<br />

umformt, dass gewisse lineare Zusammenhänge bequem abzulesen sind.<br />

Notation: Die auftretenden Symbole werden häufig Indizes tragen. Man beachte dabei:<br />

Selbst wenn die Indizes gelegentlich Elemente einer Zahlenmenge wie J = {1, 2, . . ., n}<br />

sind, so haben die hochgestellten Indizes doch nichts mit Potenzen zu tun. Die Disziplin<br />

des Hoch- und Tiefstellens der Indizes folgt einem hier noch geheimen Plan, den die<br />

Studierenden nicht weiter beachten (oder gar imitieren) sollten. Der Anfänger sollte die<br />

Indizes dort setzen, wo sie ihm typographisch am besten passen, im Zweifelsfalle als untere<br />

Indizes! Bei uns wird in der Regel, (die wir aber aus typographischen Gründen nicht<br />

sklavisch einhalten) ein hochgestellter Index andeuten, dass wir uns die Objekte als Spalte<br />

arrangiert denken, ein tiefgestellter Index soll dagegen (in der Regel) andeuten, dass die<br />

Objekte nebeneinander stehen. So wollen wir die Familie der Spalten einer I × J-Matrix<br />

mit {s j : j ∈ J} bezeichnen, die Familie der Zeilen aber mit {t i : i ∈ I}. Die Einträge<br />

einer I × J-Matrix müssten nach dieser Regel eigentlich mit a i j bezeichnet werden. Wir<br />

werden die Regel in unkritischen Situationen immer wieder verletzen, falls dadurch die<br />

wichtigen Aspekte der Formeln leichter lesbar werden.<br />

Sprechweise 5.6.1. Ein inhomogenes lineares Gleichungssystem ist ein Gleichungssystem<br />

der Form<br />

(22)<br />

∑<br />

a<br />

i<br />

j · x j = b i <strong>für</strong> i ∈ I oder kurz Ax = b .<br />

Dabei ist die I × J-Matrix A und die I-Spalte b gegeben. Wenn man die rechte Seite b<br />

gleich 0 setzt, erhält man das dazugehörige homogene Gleichungssystem Ax = 0.<br />

Die Matrix-Schreibweise lässt unmittelbar einen Zusammenhang hervorteten, den wir<br />

als Satz formulieren:<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


28 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Satz 5.6.1 (Lösungsmengen). Die Lösungsmenge eines homogenen linearen Gleichungssystems<br />

ist ein Vektorraum. Wenn die Lösungsmenge eines inhomogenen linearen Gleichungssystems<br />

nicht leer sein, dann ergibt sich die allgemeine Lösung dadurch, dass man<br />

zu einer speziellen Lösung des inhomogenen Systems die allgemeine Lösung des homogenen<br />

Systems dazuaddiert. Die Lösungsmenge ist ein affiner Raum.<br />

Beweis: A˜x = b =⇒ A · (˜x + x) = b <strong>für</strong> alle x mit Ax = 0.<br />

Man formuliert diese Aussage gerne auch als einen Satz über lineare Abbildungen im<br />

Sinne der Betrachtungsweisen, die wir zum Satz vom Rang 5.1.8 auf Seite 9 entwickelt<br />

haben.<br />

DarstM<br />

Sprechweise 5.6.2. (Die darstellende Matrix einer linearen Abbildung)<br />

Es sei ϕ : W → U eine lineare Abbildung. {w j : j ∈ J} sei eine Basis des Urbildraums<br />

W, und {u i : i ∈ I} sei eine Basis des Zielraums U. Die eindeutige (!) Darstellung der<br />

Bildvektoren v j in der Basis {u i : i ∈ I} liefert eine I × J-Matrix A:<br />

v j = ϕ(w j ) = ∑ i∈I<br />

u i · a i j, <strong>für</strong> i ∈ I<br />

(23)<br />

(<br />

ϕ(w1 ), . . .,ϕ(w n ) ) = ( u 1 , . . .,u m<br />

)<br />

· A.<br />

Diese Matrix A I J heisst die darstellende Matrix <strong>für</strong> ϕ bzgl. der gegebenen Basen.<br />

Wenn man ohne alle weiteren Konstrukte allein von einer A = A I J ausgehen will,<br />

dann ist es naheliegend und üblich, allein mit den Mitteln der Matrizenrechnung eine<br />

lineare Abbildung zu A konstruieren, und zwar eine lineare Abbildung des Spaltenraum<br />

W = K J Sp in den Spaltenraum V = KI Sp : den J-Einheitsspalten werden die Spalten v j der<br />

Matrix zugeordnet. Und damit ist die lineare Abbildung festgelegt: der J-Spalte x mit den<br />

Einträgen x j ist die I-Spalte ϕ(x) mit den Einträgen (A · x) i = ∑ j ai j · x j zugeordnet:<br />

ϕ : x ↦→ Ax.<br />

Der Bildraum dieser Abbildung ist offenbar der Spaltenraum der Matrix A. Aufgaben,<br />

die einen solchen Spaltenraum betreffen, haben wir im vorigen Abschnitt ausführlich behandelt.<br />

Wir haben gesehen, wie man durch das Austauschverfahren Basen <strong>für</strong> diesen<br />

r-dimensionalen Vektorraum findet, und wir haben gesehen, wie man bei einer vorgegebenen<br />

I-Spalte entscheidet, ob sie zum Spaltenraum der Matrix gehört und wie sie sich<br />

gegebenenfalls als Linearkombination der ausgewählten Basis darstellt.<br />

Im Folgenden werden wir uns ebenso ausführlich mit dem Kern der durch A gegebenen<br />

linearen Abbildung befassen. Der Kern ist offenbar die Lösungsmenge des linearen Gleichungssystems<br />

{x : Ax = 0}. Wir wollen bequeme Basen <strong>für</strong> diesen n − r-dimensionalen<br />

Vektorraum finden.<br />

Wir betrachten auch lineare Gleichungssysteme mit unbestimmter rechter Seite.<br />

Ein solches hat (bei uns hier in der Regel) die Form Ax = −y, wo y die I-Spalte mit<br />

den unbestimmten Einträgen y i ist. Wir betrachten nochmals das Zahlenschema aus dem<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.6 : Lineare Gleichungssysteme 29<br />

Ersten Zahlenbeispiel 5.2.1 von Seite 17, jetzt aber im Sinne der Gleichungssysteme:<br />

In Matrizenschreibweise<br />

1 · x 1 + 2 · x 2 + 4 · x 3 + 1 · x 4 = −y 1<br />

1 · x 1 + 1 · x 2 + 1 · x 3 + 0 · x 4 = −y 2<br />

−1 · x 1 + 0 · x 2 + 2 · x 3 + 1 · x 4 = −y 3 .<br />

⎛<br />

⎝<br />

1 2 4 1<br />

1 1 1 0<br />

−1 0 2 1<br />

Standardmäßig stellen sich drei Probleme<br />

⎛<br />

⎞<br />

⎠ ⎜<br />

⎝<br />

⎞<br />

x 1<br />

x 2<br />

x 3<br />

x 4<br />

I. Für welche Werte von y existiert eine Lösung?<br />

⎛<br />

⎟<br />

⎠ = ⎝<br />

⎞<br />

−y 1<br />

−y 2 ⎠<br />

−y 3<br />

II. Man finde eine spezielle Lösung zu jedem guten Wert von y.<br />

III. Finde eine übersichtliche Darstellung der Menge aller Lösungen.<br />

In der Sprache der linearen Abbildungen ϕ : W → U entsprechen dem die Probleme<br />

I. Charakterisiere das Bild imϕ.<br />

II. Finde ein spezielles Urbild zu jedem guten v.<br />

III. Finde eine übersichtliche Beschreibung von kerϕ.<br />

1ZBZ<br />

Für das Erste Zahlenbeispiel 5.2.1 von Seite 17 sind die Fragen schnell zu beantworten,<br />

wenn wir uns auf die oben durchgeführten Rechnungen stützen. Die Folge der<br />

Pivot-Transformationen, die zu einem maximalen Austausch führen. brauchen wir hier<br />

nicht noch einmal vorzuführen. Die Randbeschriftung ist das einzige, was sich ändert.<br />

x 1 x 2 z 1 z 2 y 1 y 2 z 1 z 2<br />

1 2 4 1 = −y 1 −1 2 −2 −1 = −x 1<br />

1 1 1 0 = −y 2 1 −1 3 1 = −x 2<br />

−1 0 2 1 = −y 3 −1 2 0 0 = −y 3<br />

Aus dem gemäß der Methode des maximalen Austauschs umgeformten <strong>Tabl</strong>eau kann<br />

man alles ablesen, was uns interessiert:<br />

I) Eine Lösung existiert genau dann, wenn die dritte Gleichung erfüllt ist<br />

−y 1 + 2y 2 = −y 3 .<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


30 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

II) Zu jedem guten y gibt es eine spezielle Lösung von der Form (x 1 , x 2 , 0, 0) T , nämlich<br />

(<br />

−1 +2<br />

1 −1<br />

) ( )<br />

y1<br />

=<br />

y 2<br />

(<br />

−x<br />

1<br />

−x 2 )<br />

.<br />

III) Die Lösungsmenge der homogenen Gleichung ist zweidimensional. Wir können z frei<br />

wählen. Die Spalten der folgenden Matrix bilden eine Basis des Lösungsraums.<br />

⎛ ⎞<br />

−2 −1<br />

⎜+3 +1<br />

⎟<br />

⎝−1 0⎠<br />

0 −1<br />

Nach demselben Schema behandeln wir das Zweite Zahlenbeispiel von Seite 17. Hier<br />

geht es jetzt um das folgende lineare Gleichungssystem.<br />

⎛ ⎞<br />

⎛ ⎞ x<br />

1 2 4 1<br />

1 ⎛ ⎞<br />

⎝ 1 1 1 0⎠⎜<br />

x 2<br />

−y 1<br />

⎟<br />

⎝ x<br />

−1 0 1 2<br />

3 ⎠ = ⎝ −y 2 ⎠ .<br />

x 4 −y 3<br />

Wir schreiben das als Zeilentableau, wobei wir die ersten drei ‘Unbekannten’ als ein Tripel<br />

x notieren und das x 4 durch z ersetzen. Den maximalen Pivot-Austausch haben wir oben<br />

auf Seite 17 vorgeführt. Wir erhielten<br />

x z y z<br />

1 2 4 . 1 1 −2 −2 . −3<br />

1 1 1 . 0 = −y −2 5 3<br />

−1 0 1 . 2 1 −2 −1 . −1<br />

. 4 = −x .<br />

Hier kann man wieder alles ablesen, was in den Fragen I, II, III gefragt wurde, z.B.: Das<br />

Lösungsgebilde des homogenen Systems ist eindimensional.; z kann man beliebig wählen,<br />

z. B. z = −1. Die Spalte mit den Einträgen −3, 4, −1, −1 ist eine Basis.<br />

Wir kommen nochmals auf die Interpretation des Spaltentableaus auf Seite 20 zurück.<br />

Wir hatten uns da die Aufgabe gestellt, eine Basis des Durchschnitts von V = span{s 1 ,s 2 }<br />

und W = span{s 3 ,s 4 } zu finden. Wenn eine Linearkombination der Spalten unserer Matrix<br />

die Nullspalte ergibt, s 1 · c 1 + s 2 · c 2 + s 3 · c 3 + s 4 · c 4 = o, dann bedeutet das, dass das<br />

Quadrupel c eine Lösung des homogenen Gleichungssystems ist. Das Quadrupel von oben<br />

liefert einen Basisvektor ˜w <strong>für</strong> den Durchschnitt s 1 · (−3) +s 2 · 4 = ˜w = +s 3 · 1+s 4 · 1.<br />

Fazit: Es ist manchmal nur Geschmacksache, ob man ein Problem in der Sprache der<br />

Spaltentableaus studiert, oder lieber in der Sprache der Zeilentableaus.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.6 : Lineare Gleichungssysteme 31<br />

Abgekürzte Rechnung <strong>für</strong> konkrete rechte Seiten<br />

Wenn wir statt der unbestimmten nur eine konkrete rechte Seite zu bearbeiten haben,<br />

dann müssen wir auf dem Weg zu einem aussagekräftigen <strong>Tabl</strong>eau nicht alle Aktualisierungen<br />

durchführen. Die Inverse der Matrix wird nicht benötigt, wenn man nur das<br />

folgende spezielle Gleichungssystem lösen will<br />

⎛ ⎞ ⎛ ⎛ ⎞<br />

⎞<br />

−1 +2 +1 x 1<br />

⎝+3 −8 −2⎠<br />

⎝x 2 ⎠ =<br />

+1 0 +4 x 3<br />

−2<br />

⎝+4⎠ .<br />

−2<br />

Wir wissen bereits, wie man das Problem in der Sprache der Spaltentableaus beschreibt.<br />

Hier wollen wir ein Zeilentableau heranziehen. Man beachte die Konstante −1 am oberen<br />

Rand; sie signalisiert, dass die vierte Spalte <strong>für</strong> die Pivotwahl tabu ist.<br />

x 1 x 2 x 3 −1 0 x 2 x 3 −1<br />

−1 2 1 −2 = 0 2 ∗ 5 −4 = 0<br />

3 −8 −2 4 = 0 −8 −14 10 = 0<br />

1 ∗ 0 4 −2 = 0 1 0 4 −2 = −x 1<br />

0 0 x 3 −1 0 0 0 −1<br />

1/2 5/2 −4/2 = −x 2 1/2 = −x 2<br />

−6 ∗ 6 = 0 −1/6 −1 = −x 3<br />

4 −2 = −x 1 2 = −x 1<br />

⎛ ⎞<br />

2<br />

Die eindeutig bestimmte Lösung ist also ⃗x = ⎝1/2⎠.<br />

−1<br />

Nach diesen Beispielen formulieren wir den allgemeinen Satz<br />

Satz 5.6.2 (Gleichungssysteme mit unbestimmter rechter Seite). Es sei A eine m × n-<br />

Matrix vom Rang r, und A 11 eine invertierbare r × r-Teilmatrix. Wir setzen<br />

1. Das Gleichungssystem<br />

K = A −1<br />

11 · A 12 , L = A 21 · A −1<br />

11 .<br />

A · x =<br />

ist genau dann lösbar, wenn L · y | = y ‖ .<br />

( ) ( ) ( )<br />

A11 A 12 x<br />

| y<br />

|<br />

· = −<br />

A 21 A 22 x ‖ y ‖<br />

2. Für beliebig vorgegebenes y | , x ‖ ergibt sich genau eine Lösung ( )<br />

x |<br />

x . Es gilt<br />

‖<br />

( ) ( ) x<br />

| y<br />

|<br />

A · = − ⇐⇒ −x | = A −1<br />

x ‖ Ly | 11 · y | + K · x ‖ .<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


32 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Beweis<br />

Den Beweis liest man ab aus dem mit Hilfe von A 11 maximal ausgetauschten <strong>Tabl</strong>eau.<br />

x | x || y | x ||<br />

A 11 . A 12 = −y | A −1<br />

11 . K = −x |<br />

............. .............<br />

A 21 . A 22 = −y || −L . 0 = −y ||<br />

Durch die hier gegebene Interpretation der großen Pivot-Transformation (mit A 11 ) wird<br />

plausibel, warum man K gelegentlich den Kernblock nennt und L den Bildblock.<br />

Die ‘Lösung des linearen Gleichungssystems mit unbestimmter rechter Seite’ kann<br />

man auch aus Faktorisierung ablesen, die wir im Satz 5.2.4 hergeleitet haben. Bei diesem<br />

Zugang in der Sprache des Matrizenkalküls kommt auch sehr schön der Gesichtspunkt der<br />

Dualität zum Vorschein.<br />

Satz 5.6.3. Es sei A eine I ×J-Matrix vom Rang. Die Teilmatrix A 11 vom Format I | ×J |<br />

sei invertierbar, I | = J | = r. Wir setzen I ‖ = I \ I | . Es gilt dann<br />

(24)<br />

A =<br />

( )<br />

A11<br />

· A −1<br />

11<br />

A · (A )<br />

11 , A 12<br />

21<br />

=<br />

( )<br />

E<br />

I |<br />

· A 11 ·<br />

L<br />

( )<br />

E J | , K<br />

mit L = L I|<br />

I ‖ = A 21 · A −1<br />

11 , K = KJ| J ‖ = A −1<br />

11 A 12.<br />

Der Kern und das Bild der Abbildung x ↦−→ A · x können mit K und L folgendermaßen<br />

beschrieben werden:<br />

(25)<br />

(26)<br />

A ·<br />

( x<br />

|<br />

x ‖ )<br />

= 0 ⇐⇒ (E J | , K) ·<br />

y ∈ span Sp A ⇐⇒ y =<br />

( )<br />

( )<br />

x<br />

|<br />

K<br />

= 0, ⇐⇒ x ∈ span<br />

x ‖ Sp .<br />

−E J ‖<br />

( ) ( )<br />

( )<br />

y<br />

| E<br />

I |<br />

y<br />

|<br />

y ‖ ∈ span Sp ⇐⇒ (L, −E I‖ )<br />

L<br />

y ‖ = 0.<br />

Beweis<br />

Die ersten r Spalten der Matrix A sind linear unabhängig; sie sind sogar eine Basis des<br />

Spaltenraums von A. Die ersten r Zeilen sind eine Basis des Zeilenraums. Die Gleichungen<br />

( ) ( )<br />

A12 A11<br />

= · K; (A<br />

A 22 A 21 , A 22 ) = L · (A 11 , A 12 )<br />

21<br />

zeigen, wie sich die restlichen Spalten bzw. Zeilen als Linearkombinationen der ersten r<br />

Spalten bzw. Zeilen darstellen.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.6 : Lineare Gleichungssysteme 33<br />

( K<br />

Offenbar gilt A ·x = 0 ⇐⇒ (E J | , K) ·x = 0. Die Gleichung (E, K) · = 0 zeigt,<br />

( )<br />

−E)<br />

K<br />

dass die n − r Spalten der Matrix das Gleichungssystem lösen. Da sie linear<br />

−E J ‖<br />

unabhängig sind, bilden sie eine Basis des (n − r)-dimensionalen Lösungsraums.<br />

( ) ( ) E<br />

I |<br />

A11<br />

Die r Spalten von = · A −1<br />

11 sind eine Basis des Bildraums. Die Matrix<br />

L A 12<br />

(L, −E I‖ ) hat den Rang m − r. Der Lösungsraum des Gleichungssystems (L, −E) · y = 0<br />

( ) E<br />

I |<br />

ist also r-dimensional, und zwar wegen (L, −E I‖ ) · = 0 gerade unser Bildraum.<br />

L<br />

Äquivalente Einsichten: Unser Satz erscheint als ein Satz über eine I×J-Matrix A. In<br />

vielen Lehrbüchern der elementaren Linearen Algebra identifiziert man eine I ×J-Matrix<br />

A mit der dazugehörigen linearen Abbildung ϕ des Raums der J-Spalten in den Raum<br />

der I-Spalten. Es wird dort die Aufgabe gestellt, Kern und Bild einer solchen Abbildung<br />

konkret und übersichtlich zu beschreiben.<br />

Der Kern der Abbildung ist hier zunächst als die Lösungsmenge eines homogenen Gleichungssystems<br />

gegeben. Man will diesen Kern nun auch als die lineare Hülle einer (linear<br />

unabhängigen) Familie von J-Spalten darstellen. In einem Zwischenschritt bestimmt man<br />

eine Basis des Raums der Zeilen der gegebenen Matrix (und evtl. auch eine Darstellung<br />

der ‘überflüssigen’ Zeilen in dieser Basis).<br />

Das Bild ist ein Teilraum des Raums der I-Spalten; es ist zunächst als die lineare Hülle<br />

der Spalten von A gegeben; nämlich als der ‘Spaltenraum’ von A. Es ist die Aufgabe gestellt,<br />

die Eigenschaft einer I-Spalte, im Spaltenraum zu liegen, durch das Erfülltsein eines<br />

(linear unabhängigen) Systems von homogenen Gleichungen zu beschreiben. Ein nützlicher<br />

Zwischenschritt besteht darin, aus der Familie der Spalten eine Basis auszuwählen<br />

(Die Darstellung der ‘überflüssigen’ Spalten durch die ausgewählten Basisvektoren könnte<br />

obendrein von Interesse sein).<br />

Wir haben gesehen, dass die Methode des maximalen Austauschs alle diese Probleme<br />

simultan erledigt. Für das erste Problem ist die Matrix K = A −1<br />

11 · A 12 zuständig, <strong>für</strong> das<br />

zweite Problem die Matrix L = A 21 · A −1<br />

11 .<br />

( K<br />

ker ϕ = span , imϕ = {y : (L, −E) · y = 0}.<br />

−E)<br />

Ausserdem liefert der maximale Austausch — das wollen wir nicht vergessen— die Inverse<br />

einer Teilmatrix vom Rang r.<br />

Die beiden Einsichten, die wir eben als Sätze über Matrizen (oder lineare Abbildungen<br />

von Spaltenräumen) formuliert haben, kann man auch in die Sprache der Linearformen<br />

übersetzen. Eine Linearform auf einem K-Vektorraum ist bekanntlich eine K-wertige<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


34 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Funktion l(·) mit der Eigenschaft<br />

l(a · v + b · w) = a · l(v) + b · l(w).<br />

Konkrete Beispiele liefert der Matrizenkalkül, wenn man die J-Zeilen als Linearformen<br />

auf dem Vektorraum der J-Spalten versteht, und die I-Spalten als Linearformen auf dem<br />

Vektorraum der I-Zeilen. Wenn wir beide Einsichten als Aussagen über Teilvektorräume<br />

eines n-dimensionalen Vektorraums formulieren, dann ergibt sich aus dem Bewiesenen der<br />

Satz 5.6.4. Einen r- dimensionalen Teilvektorraum W eines n-dimensionalen Vektorraums<br />

kann man einerseits als die lineare Hülle eines Systems von Vektoren beschreiben;<br />

es reichen r Vektoren, und die Methode des maximalen Austauschs (<strong>für</strong> das Spaltentableau)<br />

leistet eine Auswahl.<br />

Man kann W andererseits als das Nullstellengebilde einer Familie von linearen Gleichungen<br />

beschreiben. Es reichen n − r Gleichungen, und die Methode des maximalen<br />

Austauschs (<strong>für</strong> das Zeilentableau) leistet eine Auswahl.<br />

Auch der Übergang von der einen Darstellung zur anderen wird durch einen maximalen<br />

Austausch erledigt.<br />

(Die Darstellung der Teilvektorräume einerseits als eine lineare Hüllen und andererseits<br />

als Lösungsmengen eines homogenen Gleichungssystems wird uns im Rahmen der<br />

Vektorraumdualität noch weiter beschäftigen.)<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.7 : Ausblicke auf lineare Ungleichungen 35<br />

5.7 Ausblicke auf lineare Ungleichungen<br />

Der Pivot-Austausch bewährt sich nicht nur dann, wenn es im Endeffekt um einen maximalen<br />

Austausch geht. Wir diskutieren (in der gebotenen Kürze ohne Beweise) einen<br />

Aufgabenbereich, wo eine Matrix A durch eine Serie von Pivot-Transformationen in eine<br />

verwandte Matrix transformiert werden soll, deren <strong>Tabl</strong>eau wir ein final oder vorzeichengerecht<br />

ausgetauschtes <strong>Tabl</strong>eau nennen wollen. Wenn zu A eine vorzeichengerechte<br />

verwandte Matrix existiert, dann wird sie häufig eindeutig bestimmt sein; es kann aber<br />

viel Rechenarbeit kosten, sie zu finden. Wir können hier lediglich die einfachsten Grundideen<br />

andeuten. Wir folgen dem Brauch, erste lineare Optimierungsprobleme durch kleine<br />

Geschichten leichter memorierbar zu machen.<br />

Eine Maximierungsaufgabe<br />

Eine Abteilung in einem Produktionsbetrieb hat festgestellt, dass mit im Moment brachliegenden<br />

Resourcen täglich gewisse Mengen von Produkten herstellen könnten, die sich<br />

zu bekannten Preisen verkaufen lassen. Es handelt sich um Muttern, Stifte und Bolzen.<br />

Die Kiste Muttern bringt den Betrag 3 (in einer gewissen Währung), die Kiste Stifte<br />

den Betrag 2, und die Kiste Bolzen den Betrag 2, 5. Wenn also täglich n Kisten Muttern,<br />

t Kisten Stifte und b Kisten Bolzen produziert werden, dann bringt das den Ertrag<br />

3 · n + 2 · t + 2, 5 · b. Die benötigten Resourcen sind Arbeitszeit, und Betriebszeiten auf<br />

zwei Maschinen. Diese werden bei der Produktion der verschiedenen Produkten in unterschiedlichem<br />

Masse beansprucht; und sie sind beschränkt.(Die Zahlenwerte finden sich<br />

unten in der Tabelle). Es ist nun nach einem optimalen Produktionsplan gefragt. Welche<br />

Mengen sollten hergestellt werden, welche Resourcen sollten voll ausgeschöpft werden,<br />

und bei welchen sollte man einen ‘Schlupf’, d.h. ein gewisses Maß der Nichtausnützung<br />

zulassen?<br />

Aufgabe M1;<br />

Maximiere mit nichtnegativen n, t, b die affine Funktion<br />

M = 3 · n + 2 · t + 2, 5 · b<br />

unter den Nebenbedingungen<br />

4 · n + 2 · t + 2 · b ≤ 12<br />

1 · n + 0 · t + 1 · b ≤ 2<br />

0 · n + 1 · t + 3 · b ≤ 4.<br />

Aufgabe M2; Wir haben eine 3 ×3-Matrix A, eine 3-Spalte b und eine 3-Zeile c und<br />

wir suchen nach dem Maximum von<br />

⎛ ⎞<br />

n<br />

⎛ ⎞<br />

n<br />

⎛ ⎞<br />

n<br />

M = c · ⎝t⎠<br />

unter der Bedingung ⎝t⎠ ≥ o, A · ⎝t⎠ ≤ b.<br />

b<br />

b<br />

b<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


36 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Wenn wir die sog. Schlupfvariablen einführen:<br />

4 · n + 2 · t + 2 · b − 12 = −S 1 ,<br />

1 · n + 0 · t + 1 · b − 2 = −S 2 ,<br />

0 · n + 1 · t + 3 · b − 4 = −S 3 .<br />

dann werden aus den Ungleichungen die Bedingungen S i ≥ 0 <strong>für</strong> i ∈ I = {i 1 , i 2 , i 3 }, und<br />

wir können die Maximierungsaufgabe folgendermaßen als ein Zeilentableau formulieren:<br />

Aufgabe M3:<br />

n t b −1<br />

4 2 2 . 12 = −S 1<br />

1 0 1 . 2 = −S 2<br />

0 1 3 . 4 = −S 3<br />

................<br />

3 2 2, 5 . 0 = M<br />

M maximal mit (n, t, b, S 1 , S 2 , S 3 ) ≥ 0 !<br />

Lösung: Wir werden sehen, dass (n, t, b, S 1 , S 2 , S 3 ) = (1, 4, 0, 0, 1, 0) der ertragreichste<br />

Produktionsplan ist. Es lohnt sich also nicht, Bolzen zu produzieren; und es schadet<br />

nicht, wenn die erste Maschine nicht voll ausgelastet ist.<br />

Daneben formulieren wir auch eine lineare Minimierungsaufgabe, wieder in der Form<br />

einer kleinen Geschichte:<br />

Eine Minimierungsaufgabe<br />

Es werden (zu bekannten Preisen) drei Nahrungsmittel angeboten, die jedes eine gewisse<br />

Menge von drei wichtigen Grundstoffen enthält. Ein Diätspezialist soll zu einem möglichst<br />

geringen Preis einen Diätplan aus den drei Nahrungsmitteln so zusammenstellen, dass die<br />

Gesamtmenge jedes Grundstoffs ein vorgegebenes Niveau übertrifft. Die Minimierungsaufgabe<br />

wollen wir wieder auf dreierlei Weisen in mathematischer Sprache formulieren:<br />

Aufgabe m1;<br />

Minimiere mit nichtnegativen u 1 , u 2 , u 3 die affine Funktion<br />

unter den Nebenbedingungen<br />

m = 12 · u 1 + 2 · u 2 + 4 · u 3<br />

4 · u 1 + 1 · u 2 + 0 · u 3 ≥ 3<br />

2 · u 1 + 0 · u 2 + 1 · u 3 ≥ 2<br />

2 · u 1 + 1 · u 2 + 3 · u 3 ≥ 2, 5.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.7 : Ausblicke auf lineare Ungleichungen 37<br />

Aufgabe m2; Wir haben eine 3×3-Matrix A, eine 3-Spalte b und eine 3-Zeile c; und<br />

wir suchen nach dem Minimum von m = (u 1 , u 2 , u 3 ) · b unter der Nebenbedingung<br />

(u 1 , u 2 , u 3 ) ≥ o, (u 1 , u 2 , u 3 ) · A ≥ c.<br />

Wenn wir die sog. Überschussvariablen einführen:<br />

4 · u 1 + 1 · u 2 + 0 · u 3 − 3 = T 1 ,<br />

2 · u 1 + 0 · u 2 + 1 · u 3 − 2 = T 2 ,<br />

2 · u 1 + 1 · u 2 + 3 · u 3 − 2, 5 = T 3 .<br />

dann werden aus den Ungleichungen die Bedingungen T i ≥ 0 <strong>für</strong> i ∈ I = {i 1 , i 2 , i 3 }, und<br />

wir können die Minimierungsaufgabe folgendermaßen als ein Spaltentableau formulieren:<br />

Aufgabe m3:<br />

u 1 4 2 2 . 12<br />

u 2 1 0 1 . 2<br />

u 3 0 1 3 . 4<br />

........................<br />

−1 3 2 2, 5 . 0<br />

= T 1 = T 2 = T 3 = m<br />

m minimal mit (u 1 , u 2 , u 3 , T 1 , T 2 , T 3 ) ≥ 0 !<br />

Lösung: Wir werden sehen, dass (u 1 , u 2 , u 3 , T 1 , T 2 , T 3 ) = ( 3 , 0, 1 , 0, 0, 1 ) die kostengünstigste<br />

Zusammenstellung ist. Es ist also nicht nötig, das zweite Nahrungsmittel in den<br />

4 2 2<br />

Diätplan aufzunehmen, und es verursacht keine unnötigen Kosten, wenn der dritte Grundstoff<br />

überreichlich verabreicht wird. Die minimalen Kosten belaufen sich auf<br />

m = 3 4 · 12 + 1 2 · 4 = 9 + 2 = 11.<br />

Vergleich der Lösungen der beiden zueinander dualen Optimierungsaufgaben:<br />

Bei der Auskunft über optimalen Zielwerte fällt auf ˜m = ˜M = 11. Und diese Gleichheit<br />

ist kein Zufall, wie wir sehen werden, wenn wir die beiden zueinander dualen <strong>Tabl</strong>eaus<br />

simultan umformen.<br />

x 1 x 2 x 3 −1 x 1 y 3 x 3 −1<br />

u 1 4 2 2 . 12 = −y 1 u 1 4 ∗ −2 −4<br />

u 2 1 0 1 . +2 = −y 2 u 2 1 0 1<br />

.+ 4 = −y 1<br />

.+ 2 = −y 2<br />

u 3 0 1 ∗ 3 . +4 = −y 3 v 2 0 1 +3 .+ 4 = −x 2<br />

. . . . . . . . . . . . . . . . . . . . . . . .<br />

−1 3 2 2, 5 . 0 = M −1 3 −2 −3, 5 . − 8 = M<br />

= v 1 = v 2 = v 3 = m = v 1 = u 3 = v 3 = m<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


38 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

v 1<br />

1<br />

4<br />

y 1 y 3 x 3 −1 0 0 0 −1<br />

. +1 = −x 1 0<br />

u 2 . +1 = −y 2 0<br />

. ⊕ = −x 1<br />

. ⊕ = −y 2<br />

v 2 . +4 = −x 2 0<br />

. ⊕ = −x 2<br />

. . . . . . . . . . . . . . . . . . . . . . . .<br />

−1 − 3 − 1 − 1 . −11 = M −1 ⊖ ⊖ ⊖. −11 = M<br />

4 2 2<br />

= u 1 = u 3 = v 3 = m = u 1 = u 3 = v 3 = m<br />

Die positiven Vorzeichen in der rechten Randspalte zeigen, dass (y 1 , y 3 , x 3 ) = ( 0, 0, 0)<br />

einen zulässigen Produktionsplan liefert. Die negativen Vorzeichen in der unteren Randspalte<br />

zeigen, dass (v 1 , u 2 , v 2 ) = ( 0, 0, 0) einen zulässigen Einkaufsplan liefert.<br />

Die negativen Vorzeichen in der unteren Randspalte zeigen auch: Wenn wir uns mit<br />

(y 1 , y 3 , x 3 ) irgendwie in den zulässigen positiven Oktanten hineinbegäben, dann lieferte<br />

die letzte Zeile einen verminderten Gewinn.<br />

Entsprechend zeigen die positiven Vorzeichen in der rechten Randspalte, dass die Kosten<br />

des Einkaufsplans steigen, wenn wir uns irgendwie in den zulässigen positiven Oktanten<br />

hineinbegeben.<br />

Fazit: Aus den Vorzeichen in den Randspalten eines ’final ausgetauschten’ <strong>Tabl</strong>eau<br />

sind die Lösungen beider Optimierungsprobleme abzulesen.<br />

Es stellen sich insbesondere zwei Fragen:<br />

1. Durch welche Argumente ( ) oder Rechnungen kann man entscheiden, ob zu einer erweiterten<br />

Matrix eine verwandte Matrix mit den gewünschten Vorzeichen<br />

A b<br />

c d<br />

am Rand existiert;<br />

2. Wenn es eine verwandte Matrix mit den gewünschten Vorzeichen am Rand gibt, wie<br />

findet man sie.<br />

Antworten geben die folgenden Sätze, die wir leider hier nicht beweisen können:<br />

( ) A b<br />

Satz 5.7.1 (Duale Lösbarkeit). Das Maximierungssproblem zur erweiterten Matrix<br />

c d<br />

besitzt genau dann eine Lösung, wenn das Minimierungsproblem eine Lösung besitzt.<br />

Notwendig und hinreichend <strong>für</strong> die Lösbarkeit ist die Erfüllbarkeit der beiden Ungleichungssysteme<br />

x ≥ o, A · x ≤ b und u ≥ o, u · A ≥ c.<br />

Satz 5.7.2. Wenn <strong>für</strong> eine erweiterte Matrix A die Optimierungsprobleme lösbar sind,<br />

dann existiert eine Folge von Pivot-Transformationen, welche zu einem final ausgetauschten<br />

<strong>Tabl</strong>eau führt.<br />

Hinweis: Leider gibt es keine letzlich überzeugenden Regeln der Pivot-Wahl. Es ist<br />

sogar so, dass alle Regeln bei unfreundlich gewählten Matrizen sehr lange Serien von<br />

Pivot-Transformationen erzeugen. Für die Praxis ist dies nicht so schlimm; man benützt<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.7 : Ausblicke auf lineare Ungleichungen 39<br />

Regeln der Pivot-Wahl, die sich in weiten Anwendungsbereichen bewährt haben — und<br />

löst damit in der Tat in großem Umfang praktisch wichtige lineare Optimierungsaufgaben.<br />

Wir werden die Sätze beweisen, wenn wir den Begriff der Dualität beherrschen. Hier<br />

können wir aber schon einmal anhand eines bemerkenswerten algebraischen Zusammenhang<br />

plausibel machen, dass der optimale Wert <strong>für</strong> das Minimierungsproblem übereinstimmt<br />

mit dem optimalen Wert <strong>für</strong> das Maximierungsproblem.<br />

Satz 5.7.3 (Einschachtelung der Optimalwerte).<br />

Gegeben seien ˜x, ũ mit ˜x ≥ o, A · ˜x ≤ b, ũ ≥ o, ũ · A ≥ c.<br />

Für die Zahlen ˜M = c · ˜x und ˜m = ũ · b gilt dann ˜M ≤ ˜m.<br />

Beweis<br />

Wenn das (m+n+1)-Tupel (x, y, M) das Zeilentableau erfüllt und das (m+n+1)-Tupel<br />

(u, v, m) das Spaltentableau, dann lesen wir ab<br />

A · x − b = −y<br />

c · x − d = M<br />

und<br />

u · A − c = v<br />

u · b − d = m<br />

(Hier sind x und y skalare Spalten; u und v sind skalare Zeilen; d, m und M sind Skalare).<br />

Wenn wir einsetzen finden wir v · x = (u · A − c) · x und u · (−y) = u · (A · x − b).<br />

Die Differenz ergibt v · x + u · y = u · b − c · x = m − M.<br />

Im Falle (˜x, ỹ) ≥ 0 und (ũ, ṽ) ≥ 0 ist die linke Seite nichtnegativ und die Behauptung folgt.<br />

Zur Geometrie: Es verlangt nach einem geometrischen Verständnis <strong>für</strong> konvexe Mengen<br />

und insbesodere <strong>für</strong> die Durchschnitte von Halbräumen, wenn man plausibel machen<br />

will, dass in einer optimalen Lösung eine gehörige Anzahl der Zahlenwerte Null sind; das<br />

Optimum wird stets in einem‘Extremalpunkt’ des Zulässigkeitsbereichs angenommen. Wir<br />

stellen diesen geometrischen Aspekt zurück.<br />

Die Formulierung M2 des Maximierungsproblems erlaubt eine einsichtige geometrische<br />

Interpretation, welche schon einmal ein ersten Hinweis auf den Zusammenhang mit dem<br />

Minimierungsproblem gibt.<br />

Nehmen wir an, dass die Menge P M = {x : x ≥ 0, A · x ≤ 0} nichtleer ist. Wenn<br />

dieser Durchschnitt abgeschlossener Halbräume beschränkt ist, dann nimmt jede stetige<br />

Funktion (und inbesondere jede affine Funktion f(x) = c · x − d) auf P M ihr Maximum<br />

an. Da nun aber P M auch unbeschränkt sei kann, steht nicht fest, ob die uns speziell<br />

vorgegebene Funktion auf P M nach oben beschränkt ist. Wir wissen immerhin von einigen<br />

affinen Funktionen a i (·), dass sie auf P M beschränkt sind: jede Zeile der Matrix liefert eine<br />

affine Funktion a i · x − b i , die auf P M nicht positiv ist. Jede positive Linearkombination<br />

dieser a i (·) ist ebenfalls nicht positiv auf P M .<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


40 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Wir haben also eine hinreichende Bedingung da<strong>für</strong>, dass die vorgegebene affine Funktion<br />

c · x − d nach oben beschränkt ist.<br />

∑<br />

∃(u 1 , . . .,u m ) ≥ (0, . . ., 0) mit u i·a i ≥ c =⇒ sup{ ( c·x−d ) : x ∈ P M } < ∞.<br />

i<br />

Die Prämisse bedeutet, dass das Ungleichungssystem <strong>für</strong> das duale Minimierungsproblem<br />

erfüllbar ist: P m = {u : u ≥ 0, u · A ≥ c} ≠ ∅. Wenn man mit der Idee der dualen Kegel<br />

vertraut ist, dann kann man schnell sehen, dass die Bedingung auch notwendig ist. In der<br />

Theorie der konvexen Dualität beweist man nämlich den ( <strong>für</strong> den Anfänger auch ohne<br />

Beweis verständlichen) Satz:<br />

Satz 5.7.4. Wenn eine Linearform l auf einem endlichen Durchschnitt von Halbräumen<br />

{v : l i (v) ≤ 0 <strong>für</strong> alle i ∈ I} nichtpositiv ist, dann ist sie eine positive Linearkombination<br />

der l i ; es existieren also u i ≥ 0, sodass l = ∑ i u i · l i .<br />

Zur Interpretation In der Sprache unseres Beispiels kann man den Einschachtelungssatz<br />

folgendermaßen ausdrücken. Wenn eines der Optimierungsprobleme (und damit auch<br />

das duale) eine Lösung besitzt, wenn also beide Ungleichungssysteme erfüllbar sind, dann<br />

liefert jede zulässige ‘Einkaufsplan’ u eine obere Schranke <strong>für</strong> den Gewinn im Maximierungsproblems;<br />

und jeder zulässige ‘Produktionsplan’ x liefert eine untere Schranke <strong>für</strong> die<br />

Kosten im Minimierungsproblem. Diese Beobachtung suggeriert die (durchaus berechtigte)<br />

Hoffnung, dass man sich durch schrittweises Verbessern zulässiger Produktions- oder<br />

Einkaufspläne an Maximal- und Minimalwert herantasten kann. Man beachte, dass wir im<br />

Beispiel die Pivot-Wahlen so getroffen haben, dass die Nullen am oberen Rand zulässige<br />

Produktionspläne lieferten, während sich der Ertrag steigerte.<br />

Wenn die Schranken zusammenfallen, dann haben wir eine Lösung beider Optimierungsaufgaben.<br />

In diesem Fall verschwinden alle Produkte u i · y i und alle Produkte v j · x j . Das<br />

erlaubt den Schluss: Wenn ein optimaler Produktionsplan in der i-ten Position eine echt<br />

positiven ‘Schlupf’ hat, dann wird <strong>für</strong> einen optimalen Einkaufsplan das i-te Nahrungsmittel<br />

nicht benötigt. Wenn ein optimaler Einkaufsplan beim j-ten Grundstoff einen echt<br />

positiven Überschuss liefert, dann kommt das j-te Produkt in einem optimalen Produktionsplan<br />

nicht vor.<br />

In unserem Beispiel haben wir nicht versucht, zu der durch eine kleine Geschichte motivierte<br />

primalen Maximierungsaufgabe eine Geschichte zu erfinden, welche eine ‘inhaltliche’<br />

Beziehung zwischen dem primale und dem dualen Programm suggeriert; wir haben nur<br />

den formalen Aspekt herausgestellt. Es sollte aber erwähnt werden, dass sich in manchen<br />

Anwendungen tatsächlich ein inhaltlicher Zusammenhang zwischen den beiden Optimierungsaufgaben<br />

aufdrängt, und dass ein solcher inhaltlicher Zusammenhang gelegentlich<br />

gute Dienste bei heuristischen Überlegungen leistet.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.7 : Ausblicke auf lineare Ungleichungen 41<br />

Sensitivitätsanalyse: ‘Schattenpreise’ ( ) Wir nehmen an, dass die Optimierungsprobleme<br />

zur erweiterten Matrix optimal gelöst sind durch ˜x ≥ 0 bzw. ũ ≥ 0, und<br />

A b<br />

c d<br />

wir nehmen an, wir hätten ein vorzeichengerecht ausgetauschtes <strong>Tabl</strong>eau.<br />

x | x ‖ −1 y | x ‖ −1<br />

u | A 11 A 12 . b | = −y | v | B 11 B 12 . + f | = −x |<br />

u ‖ A 21 A 22 . b ‖ = −y ‖ u ‖ B 21 B 22 . + f ‖ = −y ‖<br />

−1 c | c ‖ . d = M −1 −e | −e ‖ . ˜d = M<br />

= v | = v ‖ = m = u | = v ‖ = m<br />

Wenn wir die Restriktionen b lockern, oder anders gesagt, wenn wir einen kleinen Betrag<br />

(zu einem angemessenen Preis) dazukaufen, dann können wir erwarten, dass der optimale<br />

Ertrag steigt. Interessant sind allerdings nur diejenigen Resourcen i ∈ I | , die bei unserer<br />

optimalen Lösung ausgeschöpft werden, die also dem Pivot-Austausch unterzogen werden.<br />

Der Anstieg des Ertrags ist (in der Nähe unserer optimalen Lösung) eine lineare Funktion<br />

von y | , nämlich e | · y | . Man nennt daher die Zahl e i den Schattenpreis der i-ten Resource.<br />

Nach den Rechenregeln <strong>für</strong> den großen Pivot- Austausch ergibt sich e | = c | · A −1<br />

11 .<br />

Betrachten wir unser Zahlenbeispiel: Die optimalen Produktionsmengen und der dazugehörige<br />

Schlupf sind (x | , x ‖ , y | , y ‖ ) = (f | , 0, 0, f ‖ ). In diesem optimalen Produktionsplan<br />

wird die Arbeitszeit und die Betriebszeit der zweiten Maschine voll ausgeschöpft. Der<br />

angemessene Preis <strong>für</strong> einen kleinen Zusatz in diesen Resourcen ist der dadurch erzielte<br />

Ertragszuwachs<br />

∆ (Ertrag) = e | · ∆ (relevante Resourcen)<br />

Im obigen Zahlenbeispiel ∆(Ertrag) = 3/4 · ∆(Arbeitszeit) + 1/2 · ∆(2. Betriebszeit).<br />

Gehen wir nun zum dualen Minimierungsproblem. Das vorzeichengerecht ausgetauschte<br />

<strong>Tabl</strong>eau liefert den optimalen Einkaufsplan und die dazugehörigen Überschüsse (ũ | , ṽ ‖ ) =<br />

(e | , e ‖ ). Wenn wir in der Minimierungsaufgabe die Forderungen in den Positionen j ∈ J |<br />

ein wenig erhöhen, dann werden die Kosten des optimalen Einkaufsplans steigen. Es<br />

kommt allerdings nur die Forderungen j ∈ J | an, die Forderungen in den Positionen<br />

j ∈ J ‖ spielen keine Rolle; denn die werden beim optimalen Einkaufsplan ohnehin übertroffen.<br />

Die zusätzlichen Kosten interpretiert man als die Preise, die man auf einem geeigneten<br />

Markt <strong>für</strong> den Hinzukauf der fehlenden (kleinen) Mengen der Nährstoffe aufwenden<br />

müsste. Die angemessenen ‘Schattenpreise’ wären mit f | = A −1<br />

11 · b| anzusetzen; denn<br />

∆ (Kosten) = ∆ (relevante Forderungen) · f | .<br />

Im obigen Zahlenbeispiel ∆(Kosten)= ∆(T 1 ) · 1 + ∆(T 2 ) · 4.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


42 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Wir haben somit eine doppelte Interpretation der Einträge in den Randspalten der<br />

vorzeichengerecht ausgetauschten <strong>Tabl</strong>eaus. Das J | -Tupel f | gibt <strong>für</strong> das Maximierungsproblem<br />

die Mengen im Produktionsplan an; <strong>für</strong> das Minimierungsproblem zeigt es die<br />

Schattenpreise der kritischen Erfordernisse.<br />

Die I | -Zeile e | gibt <strong>für</strong> das Minimierungsproblem die Mengen im Einkaufsplan an; <strong>für</strong><br />

das Maximierungsproblem zeigt es die Schattenpreise der restringierten Resourcen.<br />

Ein Zweipersonen-Nullsummenspiel Die Spieler A und B spielen (in vielen Runden)<br />

gegeneinander. Der Spieler A gewinnt, was der Spieler B verliert. Spieler A kann aus<br />

drei ‘reinen’ Strategien j ∈ J wählen, der Spieler B hat zwei reine Strategien zur Auswahl.<br />

Der Verlust a ij , den Spieler<br />

(<br />

A erleidet,<br />

)<br />

wenn die Strategien i und j aufeinanderprallen<br />

1 3 0<br />

sei durch die Matrix A = gegeben. Wenn A mit der ‘gemischten’ Strategie<br />

4 0 6<br />

(x 1 , x 2 , x 3 ) gegen die reinen Strategien von B antritt, erleidet er einen erwarteten Verlust,<br />

den A durch eine möglichst kleine Zahl v begrenzt sehen will. Wir verstehen v als eine<br />

Variable und formulieren das Anliegen von A als ein lineares Maximierungsproblem.<br />

Aufgabe MA; Auf dem Raum P M = {(x 1 , x 2 , x 3 , v) : x j ∈ R + , v ∈ R} ist die<br />

Linearform −v zu maximieren unter den Nebenbedingungen<br />

1 · x 1 + 3 · x 2 + 0 · x 3 ≤ v<br />

4 · x 1 + 0 · x 2 + 6 · x 3 ≤ v<br />

x 1 + x 2 + x 3 = 1.<br />

Das entsprechende Anliegen des Spielers B formulieren wir als ein Minimierungsproblem.<br />

Aufgabe mB; Auf dem Raum P m = {(u 1 , u 2 , g) : u i ∈ R + , g ∈ R} ist die Linearform<br />

−g zu minimieren unter den Nebenbedingungen<br />

u 1 · 1 + u 2 · 4<br />

u 1 · 3 + u 2 · 0<br />

u 1 · 0 + u 2 · 6<br />

≤ g<br />

≤ g<br />

≤ g<br />

u 1 + u 2 = 1<br />

Die beiden Probleme passen in dasselbe <strong>Tabl</strong>eau, und wir werden sehen, was wir aus<br />

einem passend ausgetauschten <strong>Tabl</strong>eau ablesen können.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.8 : Dreiecksreduktion; LU-Faktorisierung. 43<br />

5.8 Dreiecksreduktion; LU-Faktorisierung.<br />

Das sog. Gauss’sche Eliminationsverfahren kann zunächst einmal als ein Verfahren zur<br />

‘Lösung’ linearer Gleichungssysteme verstanden werden. Es bietet aber auch (ebenso wie<br />

das Verfahren des maximalen Austauschs) Ansätze <strong>für</strong> weitergehende Überlegungen. Es<br />

ist üblich, bei der Beschäftigung mit dem Gauss-Verfahren den Begriff der Dreiecksmatrix<br />

ins Spiel zu bringen. Wir wollen (einem gefühlten Erwartungsdruck nachgebend) die<br />

Grundidee skizzieren. Es soll aber festgestellt werden, dass die Thematik der Dreiecksmatrizen<br />

<strong>für</strong> die von uns bevorzugte geometrische Sicht keine Rolle spielt. Der eilige Leser<br />

wird den Abschnitt überspringen. Für den algebraisch orientierten Leser bietet sich ein<br />

Sprung in die Thematik der Vektorraumdualität (Abschnitt 5.5) an. Eine andere vernünftige<br />

Fortsetzung bietet die Thematik der Konvexität, die wir im Kapitel III (’Metrik,<br />

Norm, Konvexität’) entwickeln.<br />

Es gibt mehrere Varianten des Eliminationsverfahrens; wir betrachten diejenige, die auf<br />

die sog. LU-Faktorisierung führt. (LU steht <strong>für</strong> ”<br />

lower-upper“, weil es dabei um untere und<br />

obere Dreiecksmatrizen geht.) Der Ausgangspunkt ist ein I-Tupel von homogenen linearen<br />

Gleichungen g i (·) = 0 <strong>für</strong> ein J-Tupel von skalaren ‘Unbekannten’ x j , welches man sich zu<br />

einer J-Spalte zusammengefasst denkt, also zu einem ‘unbekannten’ Element x aus K J Sp .<br />

Die g i (·) sind durch J-Zeilen gegeben; sie werden zu einer I×J-Matrix A zusammengefasst.<br />

Man sucht die Lösungsmenge {x : Ax = 0}. (Wir werden es im Folgenden unterlassen,<br />

irgend welche Spalten oder Zeilen mit Fettbuchstaben herauszuheben.)<br />

Bei der Eliminationsmethode geht man vom gegebenen System {g i (·) : i ∈ I} durch<br />

sog. elementare Zeilentransformationen zu Systemen {h k (·) : k ∈ K} über, welche in dem<br />

Sinn ‘äquivalent’ sind, dass sie denselben Lösungsraum haben. Man hofft, die Lösungsmenge<br />

des transformierten Systems besser zu überschauen. Das Gauss’schen Verfahren<br />

fordert (im Gegensatz zum Verfahren des maximalen Austauschs) eine Anordnung der<br />

Zeilen und Spalten. Wenn man in manchen didaktischen Aufbereitungen des Verfahrens<br />

den Begriff der Zeilen-Stufenform findet, dann heisst das, dass man die Anordnung der<br />

Reihen ernst nimmt. Inhaltlich gibt es keinen zwingenden Grund, bei einer (möglicherweise<br />

anfänglich vorgegebenen) Anordung der Reihen zu bleiben. Bei der Variante, die wir<br />

hier präsentieren, fühlen wir uns frei, im Laufe der Rechnung Vertauschungen von Zeilen<br />

oder Spalten vorzunehmen.<br />

Die Anordnung der Zeilen erfährt im Eliminationsverfahren keine Aufmerksamkeit.<br />

Über ein Umordnen der Spalten im Laufe der Rechnung muss Buch geführt werden. Der<br />

Ablauf der Rechnung wird durch eine Folge von Pivot-Wahlen bestimmt: (i 1 , j 1 ), (i 2 , j 2 ), . . ..<br />

Zwingende Regeln <strong>für</strong> die Pivot-Wahl werden in der Regel nicht genannt; insofern ist die<br />

Gauss’sche Eliminationsmethode kein Algorithmus im strengen Sinn (ebenso wenig wie<br />

das oben behandelte Verfahren des maximalen Austauschs) . Es ist am übersichtlichsten<br />

<strong>für</strong> die Präsentation, wenn I und J von vorneherein so angeordnet sind, dass die Pivot-<br />

Wahl (1, 1), (2, 2), . . ., (r, r) möglich (und sogar empfehlenswert) ist. Nehmen wir also an,<br />

dass uns die Zeilen mit den Indizes i ∈ I | und die Spalten mit den Indizes j ∈ J | in dieser<br />

besonders günstigen Reihenfolge geliefert wurden.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


44 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Das Verfahren der Dreiecksreduktion<br />

Die erste Zeile der m × n-Matrix A bleibt unangetastet. (Man geht davon aus, dass der<br />

Eintrag in der Position (1, 1) eine Zahl α 1 ≠ 0 ist.) Von den weiteren Zeilen wird ein<br />

Vielfaches der ersten Zeile subtrahiert, sodass alle die entstehenden Zeilen an erster Stelle<br />

den Eintrag = 0 haben. Die zweite Zeile bleibt von nun an unangetastet. Das von uns<br />

geforderte Glück der günstigen Anordnung besteht darin, dass die neue zweite Zeile in der<br />

Diagonalposition (2, 2) einen Eintrag α 2 ≠ 0 hat. Von den späteren Zeilen wird nun ein<br />

Vielfaches dieser neuen zweiten Zeile subtrahiert, sodass die entstehenden Zeilen auch in<br />

der zweiten Position den Eintrag 0 haben. Die dritte Zeile bleibt von nun an unangetastet<br />

usw. Das geht so weiter, bis nur noch Nullzeilen vorhanden sind. Bei einer Matrix vom<br />

Rang r passiert das nach r Schritten, wie wir sehen werden.<br />

Die Zeilenoperationen entsprechen der Multiplikation mit einer sehr speziellen Matrix<br />

L, die wir unten näher studieren werden. Wenn das Verfahren zu Ende kommt, dann<br />

haben eine unterteilte Matrix der Gestalt<br />

( )<br />

à M<br />

(27)<br />

L · A = ,<br />

0 0<br />

wo à eine nichtsinguläre obere Dreiecksmatrix ist. Wir nennen sie die Dreicksreduzierte<br />

vom Format I | × J | . Ihre Inverse Ã−1 , ( die übrigens durch das sog. Rückwärtseinsetzen<br />

leicht zu berechnen ist,) hat das Format J | ×I | . Die Matrix K = Ã−1 ·M nennen wir die<br />

Kernmatrix vom Format J | × J ‖ .<br />

Die Inversion der ‘Dreiecksreduzierten’ führt zu einer weiteren Faktorisierung von A und<br />

schliesslich zu einer äusserst bequemen Basis der Lösungsmenge unseres homogenen linearren<br />

Gleichungssystems:<br />

( )<br />

E<br />

(28) L · A = Ã · J |<br />

K<br />

I | .<br />

0 0<br />

(<br />

K<br />

Es gilt A · ⃗x = 0 genau dann, wenn ⃗x im Spaltenraum der J × J ‖ -Matrix liegt.<br />

−E)<br />

Erstes Zahlenbeispiel<br />

A =<br />

A (1) =<br />

A (2) =<br />

⎛<br />

⎝<br />

⎛<br />

1 ∗ 2 4<br />

⎞<br />

1<br />

1 1 1 0 ⎠<br />

−1 0 2 1<br />

1 2 4 1<br />

0 −1 ∗ −3 −1<br />

⎞<br />

⎝<br />

⎠<br />

⎛<br />

0 2 6 2<br />

⎞<br />

1 2 4 1<br />

⎝ 0 −1 −3 −1<br />

0 0 0 0<br />

⎠ =<br />

(<br />

à M<br />

0 0<br />

)<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.8 : Dreiecksreduktion; LU-Faktorisierung. 45<br />

Für eine 4-Spalte ⃗x ( gilt A ) · ⃗x = 0 ⇔ A (1) · ⃗x = 0 ⇔ A (2) · ⃗x = 0 .<br />

x<br />

|<br />

Schreiben wir ⃗x = (mit x<br />

z<br />

| und z von der Länge 2), so bedeutet das<br />

Ãx | + Mz = 0 oder<br />

− x | = Ã−1 · Mz = K · z<br />

Die 2-Spalte z kann beliebig gewählt werden; zu jeder Wahl gibt es dann genau ein x |<br />

welches z zu einer Lösung komplettiert. Da à eine obere Dreiecksmatrix ist, kann man<br />

die Einträge x r ,( x r−1 , .). .,x n rekursiv ( zu)<br />

den Einträgen ( von ) ( Mz ) bestimmen. ( )<br />

−1<br />

−4 1 2 x<br />

1 −4<br />

Beispiel a) z = , Mz = ;<br />

0 +3 0 −1 x 2 + = 0.<br />

+3<br />

also x 2 = +3 und ( +4 = ) x 1 + 2x 2 ( = x 1 + ) 6, x 1 ( = −2. ) ( ) ( )<br />

0<br />

−1 1 2 x<br />

1 −1<br />

Beispiel b) z = , Mz = ;<br />

−1 +1 0 −1 x 2 + = 0.<br />

+1<br />

also x 2 = +1 und +1 = x 1 + 2x 2 = x 1 + 2; x 1 = −1.<br />

Damit haben wir eine Basis der Lösungsmenge, nämlich die Spalten der Matrix<br />

⎛ ⎞<br />

( )<br />

−2 −1<br />

K<br />

= ⎜+3 +1<br />

⎟<br />

−E ⎝−1 0 ⎠<br />

0 −1<br />

Anstelle des Rückwärtseinsetzens <strong>für</strong> einzelne Werte von z kann man auch mit einem<br />

Eliminationsverfahren von unten her die Matrix à in eine Diagonalmatrix umformen.<br />

Manche Bücher nennen dieses Vorgehen das Gauss-Jordan-Verfahren.<br />

Exkurs: Dreiecksmatrizen<br />

Unsere Umformungen waren Zeilenoperationen. Eine Zeilenoperation bedeutet bekanntlich<br />

eine Matrizenmultiplikation von links.<br />

Da wir eine günstige Anordnung der Zeilen und Spalten voraussetzten, war es angezeigt,<br />

die elementaren Zeilenoperationen mit sog. unteren Dreiecksmatrizen durchzuführen;<br />

wir addierten Vielfache ‘früherer’ Zeilen zu ‘späteren’ Zeilen. So führt also unsere Version<br />

des Eliminationsverfahrens auf die Idee der Dreicksmatrizen. Dabei handelt es sich<br />

im konkreten Fall um spezielle Dreiecksmatrizen, nämlich solche, die in der Diagonalen<br />

Einsen haben. Solche Matrizen nennt man normierte untere Dreiecksmatrizen. (Sie haben<br />

hier alle das Format I × I). Wir machen Gebrauch von einer offensichtlichen Tatsache,<br />

die wir als Lemma formulieren<br />

Satz 5.8.1. (Normierte untere Dreiecksmatrizen)<br />

Für die I × I-Matrizen mit einer festgelegten Anordnung der Indexmenge Igilt<br />

- Das Produkt (normierter) unterer Dreiecksmatrizen ist eine (normierte) untere Dreieckmatrix.<br />

- Normierte untere Dreiecksmatrizen sind invertierbar, und die Inversen sind normierte<br />

untere Dreiecksmatrizen.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


46 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Matrizen mit angeordneten Reihen, quadratische Matrizen: Wir müssen hier<br />

den Begriff der Dreiecksmatrix etwas genauer ins Auge fassen, einen Begriff, den wir bisher<br />

nicht konzipieren konnten, weil er eine Anordnung der Zeilen und Spalten der Matrix<br />

voraussetzt. Wir wollen nicht der Praxis vieler Lehrbücher folgen, die beim Begriff der<br />

Matrix stillschweigend eine Anordnung der Spalten und Zeilen mitdenken. (Die intuitive<br />

Vorstellung von einer Matrix als einem rechteckigen Zahlenschema ist <strong>für</strong> diese Lehrbücher<br />

offenbar dadurch mitbestimmt, dass man beim Bilden des Rechtecks und beim Operieren<br />

auf dem Papier die Anordnung nicht offen lassen kann.) Im Gegensatz zu dieser Praxis<br />

ist uns daran gelegen, eine Anordnung der Reihen nicht ohne Not ins Spiel zu bringen.<br />

Eine nichtreflektierte fixierte Anordnung der Reihen kann sich nämlich als sehr hinderlich<br />

erweisen. Beim Austauschverfahren wäre es in der Tat abwegig, die Reihen durch ihre<br />

Positionen identifizieren zu wollen; die Reihen brauchen Namen, üblicherweise in der Form<br />

von Indizes aus I + J (disjunkte Vereinigung).<br />

Bei dieser Gelegenheit muss festgehalten werden: Eine quadratische Matrix ist eine Matrix<br />

mit einer ausgezeichneten Bijektion zwischen Zeilenindex- und Spaltenindexmenge.<br />

Eine solche kann, muss aber nicht durch Aufzählungen der beiden Indexmengen gegeben<br />

sein. Eine I × J-Matrix mit |I| = |J| = n qualifiziert (<strong>für</strong> uns) nur dann als eine quadratische<br />

Matrix, wenn eine Bijektion I ←→ J festgelegt ist. Das impliziert z.B., dass die<br />

Matrix einer Basistransformation zunächst einmal keine quadratische Matrix ist.<br />

Es gibt natürlich auch Szenarien, in welchen fixierte Anordnungen der Reihen am<br />

Platze sind, und zwar nicht nur im Hinblick auf eine sparsame Notation. Wenn man<br />

eine Anordnung der Spalten und Reihen fixiert, dann kann man den Begriff einer (verallgemeinerten)<br />

Dreicksmatrix bilden. Dieser bietet dann die Grundlage <strong>für</strong> die folgende<br />

naheliegende Verallgemeinerung des obigen Lemma:<br />

Sprechweise 5.8.1. (Verallgemeinerte Dreiecksmatrizen)<br />

(<br />

)<br />

Für eine Indexmenge I sei I = ∅ ⊂ I 1 ⊂ I 1 +I 2 ⊂ . . . ⊂ I 1 +I 2 +· · ·+I m = I eine strikt<br />

aufsteigende Folge von Teilmengen; wir nennen I eine Ausschöpfung der Indexmenge I.<br />

Von einer I × I-Matrix A sagen wir, dass sie bzgl. I eine obere Dreiecksmatrix ist, wenn<br />

die Teilmatrizen A kl vom Format I k × I l Nullmatrizen sind <strong>für</strong> k > l. Die Teilmatrizen<br />

A kk vom Format I k × I k nennen wir die Matrizen entlang der Diagonalen.<br />

Satz 5.8.2. Wenn die I × I-Matrizen A und B bzgl. der Ausschöpfung I obere Dreiecksmatrizen<br />

sind, dann ist auch das Produkt C = A · B eine obere Dreiecksmatrix bzgl. der<br />

Ausschöpfung I.<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

A 11 A 12 A 13 B 11 B 12 B 13 C 11 C 12 C 13<br />

⎝ 0 A 22 A 23<br />

⎠ · ⎝ 0 B 22 B 23<br />

⎠ = ⎝ 0 C 22 C 23<br />

⎠<br />

0 0 A 33 0 0 B 33 0 0 C 33<br />

und es gilt A kk · B kk = C kk <strong>für</strong> k = 1, . . .,m.<br />

Eine obere Dreiecksmatrix A ist genau dann invertierbar, wenn die Matrizen entlang<br />

der Diagonalen invertierbar sind.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.8 : Dreiecksreduktion; LU-Faktorisierung. 47<br />

Der Beweis liegt auf der Hand. Wir bemerken, dass es <strong>für</strong> invertierbare Dreiecksmatrizen<br />

eine Art Rückwärtseinsetzen gibt. Wenn<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

A 11 A 12 A 13 F 11 F 12 F 13 E 11 0 0<br />

⎝ 0 A 22 A 23<br />

⎠ · ⎝ 0 F 22 F 23<br />

⎠ = ⎝ 0 E 22 0 ⎠<br />

0 0 A 33 0 0 F 33 0 0 E 33<br />

dann bedeutet das A 33 · F 33 = E und A 22 · F 23 + A 23 · F 33 = 0, also F 23 = −F 22 · A 23 · F 33 .<br />

So geht das weiter: Die harte Arbeit besteht darin, die Matrizen entlang der Diagonalen<br />

zu invertieren; die Berechnung der Matrizen oberhalb der Diagonalen benötigt nur das<br />

Addieren und Multiplizieren von Matzrizen.<br />

LU-Faktorisierungen<br />

Kehren wir zum Eliminationsverfahren zurück: Für die oben beschriebene Dreiecksreduktion<br />

von A entlang der Diagonalen brauchen wir dieselbe Eigenschaft der Anordnung der<br />

Reihen, die wir auch brauchen, wenn wir beim Austauschverfahren den Pivot-Austausch<br />

entlang der Diagonalen durchführen wollen. Es ist nämlich zu fordern, dass die Teilmatrizen<br />

in der linken oberen Ecke bis zur Größe r invertierbar sind. Eine solche Anordnung<br />

gibt es offensichtlich; man wird sie aber in der Regel erst schrittweise finden können,<br />

wenn man das Verfahren in Gang gesetzt hat. Die Leistung des Elimitationsverfahrens<br />

formulieren wir als Satz<br />

Satz 5.8.3 (Dreiecksreduktion). Sei A eine m×n-Matrix vom Rang r, deren Teilmatrizen<br />

am oberen linken Ende bis zur Größe r × r invertierbar sind.<br />

Es existiert dann eine normierte untere Dreiecksmatrix L vom Format n × n, sodass<br />

( )<br />

à M<br />

L · A = ,<br />

0 0<br />

wo à eine nichtsinguläre obere Dreiecksmatrix von der Größe r × r ist.<br />

Die untere Dreiecksmatrix ˜L der Größe r×r in der linken oberen Ecke von L ist eindeutig<br />

bestimmt.<br />

Beweis :<br />

Die Existenz ergibt sich aus dem angegebenen Eliminationsverfahren.<br />

Die Eindeutigkeitsaussage beweisen wir zunächst <strong>für</strong> r = m. Seien also L und K untere<br />

Dreiecksmatrizen mit den gewünschten Eigenschaften. Wir zeigen L = K. In der Tat<br />

(29) L · A = (Ã . M) , K · A = ( ˜B . N) =⇒ L −1 · Ã = A = K−1 · ˜B<br />

und deswegen K·L −1 = ˜B·Ã−1 . Die obere Dreicksmatrix ˜B·Ã−1 ist gleich einer normierten<br />

unteren Dreicksmatrix ist. Es kann sich nur um die Einheitsmatrix E handeln. Wir haben<br />

also à = ˜B und K = L.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


48 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Im allgemeinen Fall haben wir<br />

( ) ( ) ( ˜L 0 A11 A | 12 Ã M<br />

=<br />

L 21 L 22 A 21 A 22 0 0<br />

)<br />

also ˜L · A 11 = Ã, und daraus ist ˜L eindeutig zu bestimmen.<br />

Die Kurzfassung dieses Resultats heißt der<br />

Satz 5.8.4 (Satz von der eindeutigen LU-Faktorisierung). Die Zeilen und die Spalten<br />

einer nichtsingulären Matrix kann man so anordnen, dass die so angeordnete Matrix A<br />

in eindeutiger Weise faktorisiert werden kann.<br />

A = L −1 · D · U ,<br />

wo D eine Diagonalmatrix, L eine normierte untere und U eine normierte obere Dreiecksmatrix<br />

ist.<br />

Bemerke: Die Anordnung der Reihen, die eine LU-Faktorisierung ermöglichen, ist<br />

i. Allg. nicht eindeutig bestimmt.<br />

Die Lösung inhomogener linearer Gleichungssysteme<br />

Das inhomogene Gleichungssystem Ax = b verwandeln wir in die Gleichung Ax − b = 0,<br />

also in eine homogene Gleichung mit der erweiterten Matrix (A . b). Da L nichtsingulär<br />

ist, haben wir<br />

( )<br />

( )<br />

x<br />

|<br />

x<br />

|<br />

(30) A − b = 0 ⇐⇒ LA − Lb = 0<br />

x || x ||<br />

Die Lösungsmenge ist dieselbe wie die zum folgenden <strong>Tabl</strong>eau<br />

x | x || −1<br />

à . M . ˜b = 0<br />

................<br />

0<br />

. 0<br />

. c = 0<br />

wobei<br />

) (˜b<br />

= Lb .<br />

c<br />

Daraus ist abzulesen:<br />

I) Das System Ax = b ist genau dann lösbar, wenn c = 0, wenn also Lb von der Stelle<br />

r + 1 an Einträge = 0 hat. Dies ist genau dann der Fall, wenn die erweiterte Matrix<br />

(A . b) denselben Rang hat wie A.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.8 : Dreiecksreduktion; LU-Faktorisierung. 49<br />

II) Für ein gutes b bekommen wir eine spezielle Lösung aus der impliziten Gleichung<br />

Ãx | = ˜b , die man durch Rückwärtseinsetzen lösen kann.<br />

III) Zu einer beliebig vorgegebenen r-Spalte x | bestimmt sich die Lösung ( x |<br />

x || )<br />

aus der<br />

Gleichung ˜x | + Mx || − ˜b = 0, die man wieder mit Rückwärtseinsetzen lösen kann.<br />

Unbestimmte rechte Seite Statt Ax = −y schreiben wir<br />

x<br />

A<br />

y<br />

E = 0<br />

.<br />

Äquivalent ist L(Ax + y) = 0, also<br />

x | x || y<br />

à . M . = 0<br />

.........<br />

0<br />

. 0<br />

. L<br />

. = 0<br />

Die Lösbarkeitsbedingung lautet Ly = ( ỹ<br />

0)<br />

.<br />

Zu einem guten y ergibt sich <strong>für</strong> jedes x || eine Lösung ( )<br />

x |<br />

x aus der durch Rückwärtssubstitution<br />

leicht lösbaren || Gleichung<br />

Ãx | + Mx || + ỹ = 0 .<br />

Bemerke : Man kann weiter mit Ã−1 multiplizieren und erhält <strong>für</strong> ein gutes y (der<br />

Länge r) und eine beliebig vorgegebene Spalte x ‖ (der Länge n − r) die Lösung x |<br />

x | + (Ã−1 M)x || + (A | | )−1 · y = 0<br />

die uns in der Sprache der <strong>Tabl</strong>eaus wohlvertraut ist.<br />

Zweites Zahlenbeispiel in Dreiecksreduktion<br />

A −1<br />

11 · y + K · x‖ = −x | ,<br />

Wir suchen alle Lösungen des folgenden Systems mit unbestimmter rechter Seite<br />

⎛ ⎞ ⎛ ⎞<br />

( )<br />

x<br />

| 1 2 4 1 ( )<br />

A · = ⎝ 1 1 1 0 ⎠ x<br />

| −y 1<br />

= ⎝ −y<br />

z<br />

2 ⎠<br />

z<br />

−1 0 1 2<br />

−y 3<br />

Wir haben elementare Zeilenumformungen vorgenommen, und zwar<br />

⎛<br />

1 ·<br />

⎞ ⎛<br />

· 1 ·<br />

⎞<br />

·<br />

⎛<br />

1 ·<br />

⎞<br />

·<br />

L = ⎝ 0 1 ·<br />

0 2 1<br />

⎠ ⎝ −1 1 ·<br />

1 0 1<br />

⎠ = ⎝ −1 1 ·<br />

−1 2 1<br />

⎠<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


50 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Damit sind zur oberen Dreiecksmatrix à gelangt, und zur Spalte M:<br />

⎛<br />

⎞<br />

1 2 4 . 1<br />

(Ã . M) = L · A = ⎜<br />

⎝ 0 −1 −3 . −1<br />

⎟<br />

⎠<br />

0 0 −1 . 1<br />

( )<br />

x<br />

|<br />

Das zum ursprüngliche System äquivalente Gleichungssystem (Ã . M) · = −L · y<br />

z<br />

⎛ ⎞<br />

1<br />

à · x | + ⎝ −1 ⎠ · z + L · y = 0<br />

1<br />

kann jetzt durch ”<br />

Rückwärtssubstitution“ nach x | aufgelöst werden.<br />

Alternativ kann man die Gleichung aber auch mit Ã−1 multiplizieren; d.h. man kann<br />

durch weitere Zeilenoperationen (jetzt zu einer oberen Dreiecksmatrix) den Anfang der<br />

langen Matrix (Ã . M . L) (im Sinne des sog. Gauss-Jordan-Verfahrens) auf Diagonalgestalt<br />

bringen. In unserem Fall ergibt sich<br />

⎛ ⎞ ⎛ ⎞⎛<br />

⎞<br />

−3 1 −2 −2 y 1<br />

x | + ⎝ 4 ⎠ · z + ⎝ −2 5 3 ⎠⎝<br />

y 2 ⎠ = 0 .<br />

−1 1 −2 −1 y 3<br />

Die Matrix am Ende ist Ã−1 · L = (A −1<br />

11 . Das ist eine Matrix, die wir früher durch<br />

vollständigen Austausch berechnet haben. Damit sind wir bei der Lösung in der Form<br />

eines Zeilentableau:<br />

y z<br />

1 −2 −2 . −3 = −x 1<br />

−2 5 3 . 4 = −x 2<br />

1 −2 −1 . −1 = −x 3<br />

Bemerkungen zum praktischen Lösen von Gleichungssystemen Das exakte ‘Lösen‘<br />

eines etwas größeren (inhomogenen) linearen Gleichungssystems erfordert einen beachtlichen<br />

Rechenaufwand, Der vollständige Austausch erfordert im Beispiel 3 · 12 = 36 Aktualisierungen.<br />

Beim abgekürzten Verfahren sind es 18 Aktualisierungen – und es ist da<br />

nicht viel nutzloses Rechnen im Spiel. Beim Eliminationsverfahren braucht man ungefähr<br />

ebenso viele Operationen. Ein großer Vorteil der <strong>Tabl</strong>eaus scheint uns die Übersichtlichkeit<br />

zu sein; in jeder Etappe der Rechnung sind alle Informationen in knapper Form auf<br />

dem Tisch. (Man denke z.B. an die Zeilen- oder Spaltenumordnungen). Ich kenne keinen<br />

Grund da<strong>für</strong>, dass die elementaren Lehrbücher (angeblich aus didaktischen Gründen) die<br />

Eliminationsmethode bevorzugen. Es gibt wenige Ausnahmen. Erfreulich ist es, dass diese,<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.8 : Dreiecksreduktion; LU-Faktorisierung. 51<br />

auch wenn sie sehr elementar sind, die Gelegenheit benützen, auch das sog. Simplexverfahren<br />

zu behandeln. Ein Beispiel, welches auch reichliches Übungs- und Rechenmaterial<br />

bietet, soll erwähnt werden:<br />

Gewirtz, A.;, Sitomer, H.; Tucker, A.W.: Constructive Linear Algebra, Prentice-Hall<br />

Inc., N. Jersey, 1974<br />

Empfehlungen <strong>für</strong> die praktische Behandlung linearer Gleichungssysteme und die Matrizeninversion<br />

ergeben sich aus den Erfahrungen der Numeriker. Bei speziellen Typen von<br />

Matrizen empfehlen die Praktiker mit guten Gründen dem Problemtyp angepasste spezielle<br />

Methoden. In vielen Anwendungsfällen (aus den Natur- und Ingenieur-Wissenschaften)<br />

ist kein finites Verfahren geeignet; man nähert sich der Lösung einer Gleichung Ax = b<br />

mit geeigneten Iterationsverfahren. Beispielsweise würde ein Praktiker bei Problemen wie<br />

dem folgenden wohl kaum mit Verfahren wie dem Eliminationsverfahren oder dem Austauschverfahren<br />

arbeiten.<br />

Aufgabe<br />

Sei q(·) eine quadratische Funktion auf einem hochdimensionalen R n .<br />

q(x) = a 0 + a · x + 1 2 xT · A · x<br />

mit einer positiv definiten Matrix A und einer vorgegebenen Zeile a.<br />

Gesucht ist die (eindeutig bestimmte!) Minimalstelle ˜x, d.h. dasjenige ˜x <strong>für</strong> welches gilt<br />

q(x) = const + 1 2 (x − ˜x)T · A · (x − ˜x) .<br />

Das Problem kann als ein lineares Gleichungssystem verstanden werden. Wegen<br />

1<br />

2 (x − ˜x)T · A · (x − ˜x) = 1 2 xT · A · x − (˜x T · A)x + 1 2˜xT · A · ˜x<br />

kommt es nämlich darauf an, ˜x so zu bestimmen, dass −˜x T · A = a, also A˜x = −a T . Die<br />

Tatsache, dass A positiv definit ist, erlaubt viel effektivere Herangehensweisen als die oben<br />

betrachteten Eliminationsmethoden.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


52 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

5.9 Linearformen, Bilinearformen und Dualität<br />

In diesem Abschnitt nähern wir uns in drei Schritten dem Begriff des dualen Paars von<br />

Vektorräumen. Zuerst betrachten wir den Raum der Linearformen auf einem endlichdimensionalen<br />

K−Vektorraum, dann im gleichen Stil den Vektorraum der Bilinearformen.<br />

Im dritten Schritt studieren den Begriff des Dualitätspaars; hier geht es um ein Paar von<br />

(hier endlichdimensionalen) Vektorräumen mit einer ausgezeichneten nichtausgearteten<br />

Bilinearform.<br />

Die Konstruktionen sind technisch recht einfach. Die Erfahrung zeigt jedoch, dass der<br />

Anfänger eine ganze Reihe begrifflicher Hürden zu überwinden hat, bis er sich die Idee<br />

der Vektorraumdualität zueigen gemacht hat.<br />

Definition 5.15 ( Linearformen und Bilinearformen).<br />

Eine K-wertige Funktion l(·) auf einem K-Vektorraum heisst eine Linearform, wenn gilt<br />

(31) l(v + w) = l(v) + l(w); (‘Additivität’); l(a · v) = a · l(v).<br />

Es seien F und V K-Vektorräume. Eine K-wertige Funktion b(·, ·) auf dem cartesischen<br />

Produkt F × V heisst eine Bilinearform, wenn gilt<br />

b(f + g, v) = b(f, v) + b(g, v); b(f, v + w) = b(f, v) + b(f, w) (‘Biadditivität’);<br />

(32)<br />

b(a · f, v ) = a · b(f, v) = b(f, v · a).<br />

Die Menge aller Linearformen auf einem unendlichdimensionalen Vektorraum ist unüberschaubar.<br />

Auf endlichdimensionalen Vektorräumen dagegen ist die Sachlage sehr einfach.<br />

Satz 5.9.1. Wenn V ein n-dimensionaler Vektorraum ist, dann ist die Menge der Linearformen<br />

(mit der punktweisen Addition und skalaren Multiplikation) ein n-dimensionaler<br />

Vektorraum.<br />

Wenn F m-dimensional ist, und V n-dimensional, dann ist die Menge aller Bilinearformen<br />

auf F × V ein (m · n)-dimensionaler Vektorraum.<br />

Der Beweis wird sich ergeben. Wir holen weiter aus:<br />

Wenn {v j : j ∈ J} eine Basis von V ist, dann besitzt jeder Vektor eine Darstellung<br />

v = ∑ j v j · x j mit eindeutig bestimmten Koeffizienten x j = x j (v). Für jedes j ist die<br />

Zuordnung v ↦→ x j (v) eine Linearform. Die Familie {x j : j ∈ J} ist in der Tat eine Basis<br />

des Raums aller Linearformen auf V . Um das zu zeigen, müssen wir nachweisen, dass<br />

jede Linearform l(·) auf genau eine Weise aus den x j linear kombiniert werden kann. Zwei<br />

Linearformen sind gleich auf ganz V , wenn sie in allen v k übereinstimmen. Und es gilt<br />

{<br />

x j (v k ) = δ j k = 1 wenn j = k<br />

0 wenn j ≠ k<br />

Wenn a j = l(v j ), dann stimmen l(·) und ∑ j a j ·x j in allen v k und damit überall überein.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.9 : Linearformen, Bilinearformen und Dualität 53<br />

Sprechweise 5.9.1 (Dualraum). Der Vektorraum aller Linearformen auf einem Vektorraum<br />

V heisst der (algebraische) Dualraum zu V . Er wird mit V ∗ bezeichnet. Ist V<br />

endlichdimensional und {v j : j ∈ J} eine Basis, so heisst die eben konstruierte Familie<br />

{x j : j ∈ J} die duale Basis. Man nennt sie auch die Familie der Koordinatenfunktionen<br />

zur gegebenen Basis.<br />

Sprechweise 5.9.2 (Auswertung). Für ein v ∈ V heisst die Zuordnung l(·) ↦→ l(v)<br />

die Auswertung an der Stelle v. Diese Auswertung ist <strong>für</strong> jedes v ∈ V eine Linearform<br />

auf dem Dualraum; durch die Auswertung in v ist der Vektor v eindeutig bestimmt; und<br />

die Auswertung in einer Linearkombination ist die (punktweise) Linearkombination dieser<br />

Auswertungen.<br />

Wenn man die Begriffsbildung der Auswertung verstanden hat, dann bedarf der folgende<br />

Satz keines Beweises.<br />

Satz 5.9.2 (Bidualraum). Wenn V endlichdimensional ist, dann entsprechen die Linearformen<br />

auf dem Dualraum in natürlicher Weise den Vektoren. Man sagt kurz: Der Dualraum<br />

des Dualraums (man nennt ihn auch den Bidualraum) ist der Vektorraum selbst;<br />

V ∗∗ = V .<br />

Hinweis: In unendlichdimensionalen Räumen kann es sehr wohl Linearformen auf dem<br />

Dualraum geben, die nicht die Auswertungen in einem Vektor sind. Wir bleiben in diesem<br />

Abschnitt (ohne weitere Erwähnung) bei den endlichdimensionalen Vektorräumen.<br />

cogred Satz 5.9.3 (Co- und kontragrediente Transformation).<br />

Es seien {u i : i ∈ I} und {v j : j ∈ J} Basen eines Vektorraums U. Wenn die Matrix<br />

A = A I J den Basiswechsel von I nach J beschreibt, ∑ i u i · a i j = v j, dann leistet dieselbe<br />

Matrix A I J den Koordinatenwechsel von J nach I.<br />

Die inverse Matrix B = BI J = A−1 beschreibt den Basiswechsel von J nach I und den<br />

Koordinatenwechsel von I nach J.<br />

Beweis<br />

Wir drücken einen beliebigen Vektor v in beiden Basen aus. Da die Koeffizienten eindeutig<br />

bestimmt sind, gilt<br />

∑<br />

u i · y i = v = ∑ v j · x j = ∑ u i · a i jx j = ∑ ( ) ∑<br />

u i · a i jx k =⇒ ∑ a i jx j = y i .<br />

i<br />

j<br />

ij<br />

i j<br />

j<br />

u k = ∑ v j · b j k = ∑ u i · a i j bj k = ∑ ( ) ∑ (33)<br />

u i · a i j bj k<br />

=⇒ ∑ a i j bj k = δi k .<br />

j<br />

ij<br />

i j<br />

j<br />

Wir greifen in abstrakteren Worten zwei Probleme auf, welches wir oben bereits rechnerisch<br />

gelöst haben. Wir wissen, dass man Teilvektorräume einerseits durch Basen beschreiben<br />

kann und andererseits als Nullstellengebilde von Linearformen. Für einen r-<br />

dimensionalen Teilraum eines m-dimensionalen Raums U benötigt man ein r-Tupel linear<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


54 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

unabhängiger Vektoren oder ein m − r-Tupel linear unabhängiger Linearformen. Den<br />

Übergang von der einen Darstellung zur anderen kann man folgendermaßen bewerkstelligen.<br />

I. Das Ũ aufspannende linear unabhängige r-Tupel v 1, . . .,v r wird zu einer Basis des<br />

Gesamtraums U fortgesetzt. Die dazu duale Basis sei l 1 , . . .,l r , l r+1 , . . .,l m . Ein Vektor<br />

v gehört zu Ũ genau dann, wenn er von lr+1 , . . .,l m annulliert wird.<br />

II. Der n − r-dimensionale Teilraum Ṽ des n-dimensionalen Vektorraums V sei als<br />

das Nullstellengebilde der Linearformen y 1 , . . .,y r gegeben. Dieses r-Tupel wird zu einer<br />

Basis des Dualraums V ∗ fortgesetzt. w 1 , . . .,w r , w r+1 , . . ., w n sei die dazu duale Basis<br />

von V . w r+1 , . . .,w n ist eine Basis von Ṽ .<br />

Die Konstruktionen werden zu Rechenaufgaben (im Matrizen- oder <strong>Tabl</strong>eau-Kalkül),<br />

wenn man darauf besteht, dass die Vektoren und die Linearformen konkret dargestellt<br />

werden, die Vektoren in einer vorgegebenen Basis und die Linearformen in der dazu dualen<br />

Basis. Als eine Übung zur Vertiefung führen wir noch vor, wie man die Rechnungen auf<br />

den Satz von den co- und kontra-gredienten Basiswechsel zurückführen kann.<br />

Satz 5.9.4 (Vorgegebene Nullität). Es sei B 0 = {u i : i ∈ I} eine Basis eines m-<br />

dimensionalen Vektorraums U und B 0 = {y i : i ∈ I} die dazu duale Basis von U ∗ .<br />

Gegeben sei eine linear unabhängige Familie {v j : j ∈ J | } und I ‖ so, dass, B 1 = {v j :<br />

j ∈ J | } ∪ {u i : i ∈ I ‖ } eine Basis von U ist. Die Basisdarstellung bzgl. B 0 liefert eine<br />

invertierbare Matrix A 11 und eine weitere Matrix A 21 vermöge<br />

( )<br />

( ) A11 0<br />

v| ,u ‖ = (u| ,u ‖ ) · .<br />

A 21 E<br />

Mit L = A 21 · A −1<br />

11<br />

gilt dann<br />

v ∈ span{v j : j ∈ J | } ⇐⇒ −L · y | (v) = −y ‖ (v).<br />

Beweis<br />

( )<br />

( )<br />

A11 0<br />

A<br />

−1<br />

11 0<br />

Die Matrix des Basiswechsels ist<br />

mit der Inversen<br />

.<br />

A 21 E m−r −L E<br />

( ) ( ) ( )<br />

m−r<br />

z<br />

| A<br />

−1<br />

Die duale Basis ist<br />

z ‖ 11 0 y<br />

|<br />

=<br />

−L E m−r y ‖ . Ein Vektor v in der Basisdarstellung<br />

v = ∑ J<br />

v | j · z j + ∑ I<br />

u ‖ i · z i gehört genau dann zur linearen Hülle der v j , wenn die Koeffizienten<br />

z j verschwinden. Und das bedeutet z ‖ (v) =<br />

) (−L ( )<br />

y |<br />

. E m−r y ‖ (v) = 0.<br />

Analog kann man das Problem formulieren, das Nullstellengebilde eines m-Tupels<br />

linear unabhängiger Linearformen durch eine Basis darzustellen:<br />

Satz 5.9.5 (Basis <strong>für</strong> ein Nullstellengebilde). Es sei B 0 = {x j : j ∈ J} eine Basis eines<br />

n-dimensionalen Vektorraums V ∗ und B 0 = {w j : j ∈ J} die dazu duale Basis von V .<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.9 : Linearformen, Bilinearformen und Dualität 55<br />

Gegeben sei eine linear unabhängige Familie {y i : i ∈ I} von Linearformen und eine<br />

Teilmenge J ‖ von J so, dass B 1 = {y i : i ∈ I} ∪ {x j : j ∈ J ‖ } eine Basis von V ∗ ist.<br />

Die duale Basis sei B 1 = (v | , v ‖ )<br />

Zum Basiswechsel in V ∗ von B 0 B 1<br />

(<br />

x<br />

|<br />

x ‖<br />

)<br />

<br />

( ) −y<br />

=<br />

x ‖<br />

( ) ( )<br />

A11 A 12 x<br />

|<br />

·<br />

0 E n−r x ‖<br />

gehört der Basiswechsel der dualen Basen B 0 B 1 mit Hilfe der inversen Matrix<br />

( ) A<br />

−1<br />

11 −K<br />

(w | , w ‖ ) (v | , v ‖ ) = (w | , w ‖ ) ·<br />

0 E n−r<br />

mit K = A −1<br />

11 · A 12. Ein Vektor v = ∑ i∈I ci ·v i + ∑ j∈J<br />

d j ·v ‖ j wird genau dann von allen<br />

Linearformen y i annulliert, wenn er in der Hülle der v j , j ∈ J ‖ liegt.<br />

Bemerke: Die v j sind die Einträge in der J ‖ -Zeile v ‖ = (w | , w ‖ ) · (−K )<br />

E<br />

Wenn die w j die Einheitsspalten sind, dann sind die v j die Spalten der Matrix ( )<br />

−K<br />

E . –<br />

Und das ist die uns längst bekannte Antwort.<br />

Bilinearformen und Tensoren<br />

Wir studieren jetzt im gleichen Sinn die Bilinearformen auf F × V .<br />

{f l : l ∈ L} sei eine Basis von F; {l l : l ∈ L} sei die duale Basis.<br />

{v j : j ∈ J} sei eine Basis von V ; {x j : j ∈ J} sei die duale Basis.<br />

Die Dimension des Vektorraums aller Bilinearformen auf F × V ergibt sich aus dem<br />

folgenden Lemma; wir konstruieren da nämlich Basen dieses Vektorraums.<br />

Satz 5.9.6. Eine Bilinearform b(·, ·) auf F ×V ist durch die Werte b l j = b(fl , v j ) eindeutig<br />

bestimmt. Zu jeder L × J-Matrix (b l j ) gibt es genau eine Bilinearform mit b(fl , v j ) = b l j .<br />

Beweis<br />

Wenn b(·, ·) eine Linearform ist, dann gilt<br />

(34) g = ∑ l<br />

y l · f l ,<br />

v = ∑ j<br />

v j · x j =⇒ b (g,v) = ∑ lj<br />

y l b l j xj .<br />

Damit ist die erste Aussage (‘Eindeutigkeit’) bewiesen. Zur Illustration der Existenz bringen<br />

wir nochmals die Matrizenschreibweise zur Geltung: Notieren wir die Koeffizienten y l<br />

als eine Zeile der Länge |L| und die Koeffizienten x j als Spalte der Länge |J|. Für jede<br />

L × J-Matrix B gewinnen wir eine Bilinearform<br />

⎛ ⎞<br />

x 1<br />

⎜ ⎟<br />

(35) b(·, ·) : F × V ∋ (g,v) ↦−→ (y 1 , . . .,y |L| ) · B · ⎝ . ⎠ .<br />

x |J|<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


56 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Die Bilinearform ˜b(·, ·) zur Matrix ˜B, die in der Position (m, k) den Eintrag 1 und sonst<br />

lauter Nullen hat, bezeichnet man ( im sog. Tensorkalkül ) als das Tensorprodukt der<br />

Linearformen l m und x k ; und man notiert ˜b(·, ·) = l m ⊗x k . Für die Bilinearform im Satz<br />

haben wir also<br />

(36) b(·, ·) = ∑ b l j · l l ⊗ x j .<br />

Damit ist gezeigt:<br />

Satz 5.9.7. Wenn {l l : l ∈ L} eine Basis von F ∗ ist und {x j : j ∈ J} eine Basis von<br />

V ∗ , dann ist die Menge aller l l ⊗x j eine Basis des Raums aller Bilinearformen auf F ×V.<br />

Der Vektorraum aller Bilinearformen auf F × V heisst auch das Tensorprodukt der<br />

Vektorräume F ∗ und V ∗ . Er wird mit F ∗ ⊗ V ∗ bezeichnet.<br />

Definition 5.16 (Rang einer Bilinearform). Sind l und x Linearformen auf F bzw. V ,<br />

so nennt man die Bilinearform<br />

(37) l ⊗ x : F × V ∋ (g,v) ↦−→ l(g) · x(v).<br />

ihr Tensorprodukt. Die speziellen Bilinearformen der Form l ⊗ x nennt man die zweistufigen<br />

Tensoren vom Rang 1 oder auch die faktorisierbaren zweistufigen Tensoren. Einen<br />

(zweistufigen) Tensor, den man als Summe von r faktorisierbaren Tensoren gewinnen<br />

kann, nennt man einen (zweistufigen) Tensor vom Rang ≤ r.<br />

Wir bemerken. Wenn F m-dimensional und V n-dimensional ist, dann haben alle<br />

Tensoren einen Rang ≤ min{m, n}; denn mit m j = ∑ l bl j l l und z l = ∑ j bl j x j gilt<br />

∑<br />

m j ⊗ x j = ∑<br />

j<br />

lj<br />

b l j · l l ⊗ x j = ∑ l<br />

l l ⊗ z l .<br />

Wir wollen noch eine offensichtliche Tatsache als Satz festhalten.<br />

Satz 5.9.8. Im Vektorraum F ∗ ⊗ V ∗ gelten die Regeln<br />

(38)<br />

(l | + l ‖ ) ⊗ x = l | ⊗ x + l ‖ ⊗ x l ⊗ (x | + x ‖ ) = l ⊗ x | + l ⊗ x ‖ ;<br />

l ⊗ (a · x) = a · (l ⊗ x) = l · (a ⊗ x).<br />

Beispiel 5.9.1. Ein Beispiel, welchem unsere Notation entgegenkommt ist das folgende:<br />

V = K J Sp, V ∗ = K J Z; F = K L Z, F ∗ = K L Sp.<br />

In diesem Beispiel kann man die Matrizennotation benützen. Im Matrizenkalkül sagt<br />

man: wenn man eine L-Spalte mit einer J-Zeile multipliziert, erhält man eine L×J-Matrix.<br />

(Es würde allerdings der Klarheit dienen, wenn man in dieser Situation lieber das Zeichen<br />

⊗ benützte) Die Linearkombinationen solcher Matrizen kann man als L × J-Matrizen<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.9 : Linearformen, Bilinearformen und Dualität 57<br />

verstehen; insofern ist im Beispiel der Raum F ∗ ⊗V ∗ der Raum aller L ×J-Matrizen. Der<br />

Wert der Bilinearform lässt sich nun als Matrizenprodukt schreiben nach dem Schema:<br />

L-Zeile × (L × J)-Matrix × J-Spalte = Skalar “.<br />

”<br />

Nachdem wir gesehen haben, dass man die Elemente des Vektorraums F mit den Linearformen<br />

auf F ∗ identifizieren kann, und die Vektoren ∈ V mit den Linearformen auf<br />

V ∗ , ist klar, was f ⊗ v bedeutet: Es handelt sich um eine Bilinearform auf dem cartesischen<br />

Produkt F ∗ × V ∗ , und zwar um eine faktorisierbare Bilinearform, d.h. um einen<br />

zweistufigen Tensor vom Rang 1. Und es gilt<br />

Satz 5.9.9 (Spezielle duale Basen). Wenn {f l : l ∈ L} eine Basis von F ist und<br />

{v j : j ∈ J} eine Basis von V , dann ist die Familie {f l ⊗ v j : l ∈ L, j ∈ J } eine Basis<br />

des Raums F ⊗ V = F ∗∗ × V ∗∗ aller Bilinearformen auf F ∗ × V ∗ . Die duale Basis ist<br />

{l l ⊗ x j : l ∈ L, j ∈ J }.<br />

Der folgende Satz bedarf keines Beweises<br />

duTens Satz 5.9.10 (Dualität der Tensorprodukte). Jede Bilinearform b(·, ·) auf F ×V lässt sich<br />

auf genau eine Weise zu einer Linearform B auf dem Vektorraum F ⊗ V , also zu einem<br />

Element von F ∗ × V ∗ fortsetzen. Andererseits bestimmt jede Linearform auf F ⊗ V eine<br />

Bilinearform auf F × V . B(f ⊗ v) = b(f, v).<br />

Man bedenke: Über individuelle Vektoren (und individuelle Linearformen) kann der<br />

<strong>Mathematik</strong>er eigentlich überhaupt nichts sagen. Alle mathematisch relevanten Aussagen<br />

beziehen sich auf Systeme, in welchen mehrere Vektoren (oder Linearformen) vorkommen.<br />

Man denke z. B. an die lineare Unabhängigkeit. Bei den Tensoren der Stufe ≥ 2 ist<br />

das anders. Ein einzelner Tensor der Stufe ≥ 2, (insbesondere eine Bilinearform) kann<br />

Eigenschaften haben, die andere Tensoren (insbesodere eine andere Bilinearform nicht<br />

hat); ein Tensor hat beispielsweise einen Rang. Wir werden später mehr zum Begriff des<br />

Rangs eines Tensors sagen. Hier wollen wir nur einmal kurz <strong>für</strong> Tensoren zweiter Stufe,<br />

also <strong>für</strong> Bilinearformen bemerken:<br />

Sprechweise 5.9.3. Zu einer Bilinearform b(·, ·) auf F × V gehören zwei Nullräume<br />

(auch Nullitäten genannt) und zwei ‘Wertebereiche’ oder Bildräume (‘ranges’ im Englischen),<br />

nämlich<br />

N (b)<br />

F<br />

(39) = {f : b(f, v) = 0 <strong>für</strong> alle v ∈ V } ⊆ F<br />

(40) N (b)<br />

V<br />

= {v : b(f, v) = 0 <strong>für</strong> alle f ∈ F } ⊆ V<br />

(41)<br />

(42)<br />

R (b)<br />

F ∗ = {b( ·,v) : v ∈ V }<br />

∗<br />

⊆ F<br />

R (b)<br />

V ∗ = {b(f, · ) : f ∈ F } ⊆ V ∗<br />

Definition 5.17 (Dualitätssystem). Eine Bilinearform heisst nichtausgeartet, wenn beide<br />

Nullräume nur aus dem Nullvektor bestehen. Wenn <strong>für</strong> ein Paar von Vektorräumen F, V<br />

eine nichtausgeartete Bilinearform ausgezeichnet ist, dann sagt man, dass die Bilinearform<br />

eine dualen Paarung (oder ein Dualitätssystem) definiert.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


58 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Hinweis: Der Begriff des Dualitätssystems hat sich vor allem beim Umgang mit unendlichdimensionalen<br />

Vektorräumen bewährt. Man will (oder muss) es da nämlich vermeiden,<br />

den Begriff des ‘algebraischen’ Dualraums ins Spiel zu bringen. Für einen unendlichdimensionalen<br />

Vektorraum ist nämlich der Raum V ∗ aller Linearformen i. Allg. unüberschaubar<br />

groß und dessen Dualraum umso mehr.<br />

Da wir hier nur endlichdimensionale Vektorräume studieren wollen, können wir den<br />

Begriff des Dualitätssystems plastischer beschreiben.<br />

Satz 5.9.11. Eine nichtausgeartete Bilinearform (oder ‘Skalarprodukt’) auf F ×V ist ein<br />

Isomorphismus F ←→ V ∗ oder (äquivalent) ein Isomorphismus V ←→ F ∗<br />

f ←→ 〈f, ·〉<br />

v ←→ 〈·,v〉.<br />

Der folgende Satz sagt das genauer<br />

Satz. Zu einem endlichdimensionalen dualen Paar ( F, V, 〈 · , · 〉 ) gewinnt man Isomorphismen<br />

ϕ : F → V ∗ und ψ : V → F ∗ , wenn man definiert<br />

(43)<br />

(44)<br />

ϕ : F ∋ f ↦−→ 〈 f , · 〉 ∈ V ∗ ,<br />

ψ :<br />

V ∋ v ↦−→ 〈 · , v 〉 ∈ F ∗<br />

Ist umgekehrt ι(·) ein Isomorphismus von F auf V ∗ , dann ist<br />

〈 · , · 〉 : F × V ∋ (f,v) ↦−→ 〈 f , v 〉 = ι(f) v<br />

eine nichtausgeartete Bilinearform auf F × V .<br />

Beweis<br />

Man kann ϕ und ψ <strong>für</strong> jede Bilinearform b(·, ·) definieren; man gewinnt in jedem Falle<br />

Homomorphismen. Es sei dim F = m, dim V = n, s der Rang von ϕ, und t der Rang<br />

von ψ. (Den Rang einer linearen Abbildung haben wir schon früher definiert.) Wir haben<br />

dim ker ϕ = dim N (b)<br />

F<br />

= m − s; dim imϕ = dim R(b)<br />

V ∗ = s ≤ n,<br />

dim ker ψ = dim N (b)<br />

V<br />

= n − t; dim imψ = dim R (b)<br />

F ∗ = t ≤ m,<br />

Wenn b(·, ·) nichtausgeartet ist, dann gilt m − s = 0 = n − t, also s = t = m = n. Nach<br />

dem Satz auf Seite 10 sind ϕ und ψ Isomorphismen. Wenn umgekehrt ein Isomorphismus<br />

ι : F → V ∗ gegeben ist, dann gilt jedenfalls dimF = dim V ∗ = dim V. Ausserdem existiert<br />

zu jedem v ≠ o ein f mit ι(f) v ≠ 0; also ist b(·,v) nicht die Nullform. Die Abbildung ψ<br />

ist injektiv und b(·, ·) ist nicht ausgeartet.<br />

In einem endlichdimensionalen Dualitätssystem ( F, V, 〈 · , · 〉 ) ist also jede Linearform<br />

auf V von der Form 〈f , ·〉 mit einem wohlbestimmten f; und jede Linearform auf V ist<br />

von der Form 〈 ·, v〉 mit einem wohlbestimmten v.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.9 : Linearformen, Bilinearformen und Dualität 59<br />

‘Skalares Produkt’<br />

Eine nichtausgeartete Bilinearform 〈 · , · 〉 nennt man manchmal auch ein skalares Produkt..<br />

Die Sprechweise sind da aber leider nicht einheitlich<br />

• Manche elementaren Texte reden nur dann von einem skalaren Produkt, und zwar<br />

von einem ‘skalaren Produkt auf V ’, wenn auf V × V eine symmetrische nichtausgeartete<br />

Bilinearform ausgezeichnet ist; 〈w, v〉 = 〈v, w〉. — Bei uns haben die<br />

beiden Vektorräume zuerst einmal nichts miteinander zu tun.<br />

• Manche pflegen einen noch weiter eingeschränkten Sprachgebrauch. Sie sprechen<br />

vom Skalarprodukt oder vom ‘inneren Produkt’ zweier Vektoren nur dann, wenn es<br />

um Vektoren in einem euklidischen Raum geht, wenn sich also die Bilinearform aus<br />

einer euklidischen Norm abgeleitet;<br />

〈w, v〉 = 1 2(<br />

‖w + v‖ 2 − ‖w‖ 2 ‖ − ‖v‖ 2) = 1 4(<br />

‖w + v‖ 2 − ‖w − v‖ 2) .<br />

• Warnung: Das analog gebildetet sog. innere Produkt in einem unitären (oder einem<br />

Hilbert’schen) Raum passt nicht ins Schema, weil dort das ‘innere Produkt’ nicht<br />

bilinear ist, sondern ‘sesquilinear’. — Dieses besonders wichtige ‘innere Produkt’<br />

wird bei uns an anderer Stelle ausführlich diskutiert; wir werden dabei der zurecht<br />

beliebten Notation von P. Dirac folgen: 〈 · | · 〉 mit einem senkrechten Strich anstelle<br />

von 〈 · , · 〉 mit einem Komma.<br />

Beispiel 5.9.2. 1. Sei V irgendeine endlichdimensionaler K-Vektorraum. Die Auswertung<br />

einer Linearform in einem Vektor macht das Paar (V ∗ , V ) zu einem Dualitätssystem.<br />

Man spricht von der natürlichen Dualität zwischen V ∗ und V . Ebenso<br />

haben wir im endlichdimensionalen Fall die natürliche Dualität zwischen V ∗∗ und<br />

V ∗ . Ein Vorzug der Sprechweisen um die Dualitätssysteme liegt darin, dass hier<br />

beide Räume von vorneherein als gleichberechtigt behandelt werden.<br />

2. Der Matrixkalkül liefert ein ‘natürliches’ Skalarprodukt <strong>für</strong> den Raum F = K J Z der<br />

J-Zeilen, und den Raum V = K J Sp der J-Spalten nach dem Schema Zeile mal<br />

”<br />

Spalte ergibt Skalar“ 〈f , v 〉 = f · v.<br />

3. Man kann eine beliebige nichtsinguläre J × J-Matrix S dazu benützen, auf dem<br />

Raumpaar K J Z × KJ Sp eine ‘Dualität’ auszuzeichnen: b(ζ,⃗x) = ∑ jk sj k ·ζ j ·x k <strong>für</strong> jede<br />

Zeile ζ und jede Spalte ⃗x. Jede nichtausgeartete Bilinearformen auf dem Raumpaar<br />

K J Z ×KJ Sp wird in dieser Weise durch eine nichtsinguläre J ×J-Matrix S beschrieben.<br />

4. In der Geometrie spielen die symmetrischen nichtausgearteten Bilinearformen auf<br />

V × V eine besondere Rolle. Man denke z. B. an die Bilinearform, die einem Paar<br />

von reellen 4-Spalten (x, y) den Wert 〈x, y〉 = x 0 · y 0 − x 1 · y 1 − x 2 · y 2 − x 3 · y 3<br />

zuordnet.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


60 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

5. Zuletzt sei auch noch das bereits aus der Schule bekannte Beispiel genannt: Der<br />

Raum der reellen 3-Spalten wird zu einem euklidischen Raum, indem man die symmetrische<br />

Bilinearform ∑ 3<br />

k=1 yk x k auszeichnet.<br />

Wir formulieren unsere Erkenntnisse über endlichdimensionale Dualitätssysteme nochmal<br />

in einem<br />

Satz 5.9.12 (Durchschnitt und Verbindung in einem Dualitätssystem). Es sei ( F, V, 〈·, ·〉 )<br />

ein n-dimensionales Dualitätssystem. Für jeden r-dimensionalen Teilraum W ⊆ V ist<br />

W † = {f : 〈f, w〉 = 0 <strong>für</strong> alle w ∈ W }<br />

ein n − r-dimensionaler Teilraum von F, und es gilt <strong>für</strong> Teilvektorräume W 1 , W 2<br />

(45)<br />

(46)<br />

(47)<br />

(W 1 + W 2 ) † = W † 1 ∩ W † 2;<br />

(W 1 ∩ W 2 ) † = W † 1 + W † 2<br />

W †† = {v : 〈f, v〉 = 0 <strong>für</strong> alle f ∈ W † } = W<br />

Hinweise: Wenn man es mit einer symmetrischen nichtausgearteten Bilinearform auf<br />

V ×V zu tun haben, dann nennt man W † das orthogonale Komplement und man notiert<br />

auch W ⊥ .<br />

Auch im unendlichdimensionalen Hilbertraum gibt es den Begriff des orthogonalen<br />

Komplements einer Menge von Vektoren. Hier ist aber W ⊥⊥ = W nicht <strong>für</strong> alle Teilvektorräume<br />

W richtig. Das orthogonale Komplement des orthogonalen Komplements<br />

ist ein abgeschlossener Teilraum, und zwar der kleinste abgeschlossene W umfassende<br />

Teilvektorraum. Man nennt W ⊥⊥ auch die abgeschlossene lineare Hülle von W.<br />

Satz 5.9.13 (Adjungierte Abbildungen). Es seien ( F 1 , V 1 , 〈· , · 〉 1<br />

)<br />

und<br />

(<br />

F2 , V 2 , 〈· , · 〉 2<br />

)<br />

Dualitätssysteme: Zu jedem Homomorphismus χ : V 1 → V 2 gibt es dann genau einen<br />

Homomorphimus ˜χ : F 2 → F 1 , sodass gilt<br />

(48) 〈 f 2 , χ(v 1 ) 〉 2 ; = 〈 ˜χ(f 2 ) , v 1 〉 1 <strong>für</strong> alle v 1 ∈ V 1 , f 2 ∈ F 2 .<br />

Der Beweis liegt auf der Hand: 〈 f 2 , χ(·) 〉 2 ist eine Linearform auf V 1 , also von der<br />

Form 〈g 1 , · 〉 1 mit einem wohlbestimmten g 1 ∈ F 1 ; und die Zuordnung f 2 ↦→ g 1 ist linear.<br />

Man nennt ˜χ den zu χ (bzgl. der gegebenen Dualitäten) adjungierten Homomorphismus.<br />

Es gilt offensichtlich (˜χ) ∼ = χ. Wenn F i = V i ∗ , dann ist ˜χ nichts anderes als die<br />

duale Abbildung, und die bezeichnet man häufig mit χ ∗ .<br />

Hinweise: Auch hier sind die Sprechweisen uneinheitlich. Manche Lehrbücher sprechen<br />

von adjungierten Abbildungen nur dann, wenn in beiden Räumen 〈 · , · 〉 i symmetrische<br />

Bilinearformen (oder im komplexen Fall hermitische Formen) ausgezeichnet sind.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.9 : Linearformen, Bilinearformen und Dualität 61<br />

Hinweis: Dualität im Sinne der projektiven Geometrie<br />

Wir diskutieren <strong>für</strong> einen n-dimensionalen K-Vektorraum V die natürliche Dualität mit<br />

dem Raum V ∗ der linearen Funktionen auf V . Das Nullstellengebilde einer Linearform<br />

(≠ o) nennt man eine Hyperebene durch den Nullpunkt. Ein r-dimensionaler Teilraum W<br />

kann beschrieben werden als der Durchschnitt von n − r solchen Hyperebenen. Ein linear<br />

unabhängiges n − r-Tupel von Hyperebenen hat einen r-dimensionalen Durchschnitt.<br />

Denken wir an den dreidimensionalen Anschauungsraum: Jede Gerade durch den Nullpunkt<br />

(aufgespannt von einem Vektor v) kann als den Durchschnitt zweier Ebenen beschrieben<br />

werden. Jede von einem linear unabhängigen Paar von Vektoren aufgespannte<br />

Ebene wird durch eine einzige lineare Gleichung beschrieben.<br />

Für eine anschauliche Hilfskonstruktion wählen wir eine Ebene H, die nicht durch<br />

den Nullpunkt geht. Wenn wir von der einen Ebene H absehen, die zu H parallel ist,<br />

dann schneidet jede Ebene durch den Nullpunkt diese ausgezeichnete Ebene H in einer<br />

Geraden, und die Geraden, die nicht parallel zu H sind, schneiden diese in genau einem<br />

Punkt.<br />

Die Punkte und Geraden in H bilden eine sog. affine Ebene. Über die Geometrie in<br />

einer affinen Ebene wird an anderer Stelle ausführlich zu sprechen sein. Hier geben wir<br />

zu bedenken. Wenn es um den Schnittpunkt zweier Geraden geht, dann muß man in<br />

der affinen Geometrie die Paare paralleler Geraden als Sonderfall behandeln. Wenn man<br />

nun aber zur Menge der ‘Geraden’ noch (unter dem Namen unendlichferne Gerade) ein<br />

zusätzliches Objekt hinzufügt, dessen ‘Punkte’ mit den H nicht schneidenden Geraden<br />

zu identifizieren sind, dann erhält man eine sog. projektive Ebene. In einer projektiven<br />

Ebene gilt ohne Ausnahme: Zwei Gerade (die nicht gleich sind) schneiden sich in genau<br />

einem Punkt; zwei Punkte (die nicht zusammenfallen, und durchaus auch unendlichferne<br />

Punkte sein dürfen) bestimmen immer eine Gerade.<br />

Wer sich daran gewöhnt hat, braucht die Hilfsvorstellung mit der unendlichfernen<br />

Geraden und ihren Punkten nicht mehr; er wird die Geraden durch den Nullpunkt des n-<br />

dimensionalen Vektorraums V als Punkte im Sinne der projektiven Geometrie anerkennen<br />

und die r-dimensionalen Teilvektorräume als die (r − 1)- dimensionalen Teilräume des<br />

(n−1)-dimensionalen‘projektiven Raums’. Durchschnitte und ‘Verbindungen’ der Objekte<br />

im projektiven Raum haben eine perfekte Entsprechung in der Welt der Teilvektorräume.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


62 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

5.10 Tensoren<br />

Sprechweise 5.10.1. Es seien U 1 , U 2 , . . .,U k Vektorräume, U1 ∗, U 2 ∗, . . .,U k ∗ ihre Dualräume,<br />

und 〈 · , · 〉 1 , 〈 · , · 〉 2 , . . .,〈·, · 〉 k die dazugehörigen Dualitäten. Für u ∈ U l und f ∈ Ul ∗ bezeichnet<br />

also 〈f , u 〉 l den Wert der Linearform f im ‘Punkt’ u, oder anders gesagt, den<br />

‘Wert der Linearform’ u im ‘Punkt’ f. - Die Bezeichnung f (u) <strong>für</strong> diesen Skalar erscheint<br />

uns unnötig umständlich; ausserdem bringt sie die Gleichberechtigung der Vektoren und<br />

Linearformen (V ∗∗ = V ) nicht in der gewünschten Deutlichkeit zum Ausdruck. 〈 · , u 〉 l<br />

ist in unserem Sinne dasselbe Objekt wie u; 〈f, · 〉 l ist dasselbe Objekt wie f.<br />

So, wie wir den Vektor u 1 oder 〈 · , u 1 〉 1 als Linearform auf U1 ∗ verstehen können, so<br />

können wir 〈 · , u 1 〉 1 · 〈 · , u 2 〉 2 · · · 〈 · , u k 〉 k als eine Multilinearform auf U1 ∗ ×U 2 ∗ × · · ·×U k<br />

∗<br />

verstehen. Man spricht von einem faktorisierbaren k-stufigen Tensor und notiert u 1 ⊗u 2 ⊗<br />

· · · ⊗ u k . Die Menge der Linearkombinationen solcher faktorisierbarer Tensoren, nennnt<br />

man die Tensoren in U 1 ⊗ U 2 ⊗ · · · ⊗ U k .<br />

Satz 5.10.1. Jede Multilinearform auf U1 ∗ ×U2 ∗ ×· · ·×Uk ∗ lässt sich als Linearkombination<br />

von faktorisierbaren Tensoren schreiben. Wenn {u i : i ∈ I 1 } eine Basis von U 1 ist, {u i :<br />

i ∈ I 2 } eine Basis von U 2 usw. , dann ist das System aller Tensoren von der Gestalt<br />

u i1 ⊗ u i2 ⊗ · · · ⊗ u ik<br />

mit i 1 ∈ I 1 , i 2 ∈ I 2 , . . .,i k ∈ I k<br />

eine Basis des Tensorprodukts U 1 ⊗U 2 ⊗· · ·⊗U k . Jeder Tensor besitzt also eine Darstellung<br />

(49) T = ∑<br />

mit eindeutig bestimmten Koeffizienten.<br />

I 1 ×···×I k<br />

a i 1i 2 ...ik<br />

· u i1 ⊗ u i2 ⊗ · · · ⊗ u ik<br />

Im Falle der Bilinearformen, d. h. im Spezialfall k = 2 haben wir den Beweis ausführlich<br />

dargestellt. Für k-stufige Tensoren geht das alles genauso. Für jemanden, der sich in<br />

jedem der ‘Faktoren’ des Tensorprodukts auf eine Basis festgelegt hat, ist eine Tensor ein<br />

System von k-fach indizierten Einträgen ( a i 1i 2 ...i k<br />

)I 1 ×···I k<br />

.<br />

(Mit der Hochstellung der Indizes deutet man an, dass man die Tensoren als ‘k-fach kontragredient‘<br />

(oder ‘k-fach kontravariant’) ansehen will, Wir werden unten auch noch sog.<br />

cogrediente und gemischte Tensoren kennenlernen; da gibt es dann noch weitere Konventionen,<br />

was das Hoch- und Tiefstellen der Indizes betrifft. Wir werden dort diskutieren,<br />

was was es mit den Wörtern co- und kontragredient oder -variant auf sich hat.)<br />

Sprechweise 5.10.2 (Rang eines Tensors). Man sagt von einem Tensor, er habe den Rang<br />

≤ r, wenn er sich als Linearkombinaton von r faktorisierbaren Tensoren präsentieren lässt.<br />

Die Operation ⊗ ist in jeder Position additiv und damit linear. (Skalare Faktoren kann<br />

man in jeden am Produkt beteiligten Vektoren ‘hineinziehen’). Sie ist multilinear.<br />

(u 1 + v 1 ) ⊗ u 2 ⊗ · · · ⊗ u k = u 1 ⊗ u 2 ⊗ · · · ⊗ u k + v 1 ⊗ u 2 ⊗ · · · ⊗ u k<br />

u 1 ⊗ (u 2 + v 2 ) ⊗ · · · ⊗ u k = u 1 ⊗ u 2 ⊗ · · · ⊗ u k + u 1 ⊗ v 2 ⊗ · · · ⊗ u k<br />

. . . . . .<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.10 : Tensoren 63<br />

Man beachte: Wenn uns zwei Summen gegeben sind<br />

∑<br />

∑<br />

u α 1 ⊗ u α 2 ⊗ · · · ⊗ u α k und u β 1 ⊗ u β 2 ⊗ · · · ⊗ u β k ,<br />

α<br />

dann gibt es viele Möglichkeiten, eine evtl. vorliegende Gleichheit festzustellen. Man kann<br />

beide Summen in eine (willkürlich gegebene) Basis umrechnen. Dies läuft darauf hinaus,<br />

dass man <strong>für</strong> eine genügend große Familie von k-Tupeln {̟γ = fγ 1 × · · · × fk γ : γ ∈ Γ}<br />

die Summen 〈 ̟γ , ∑ α . . . 〉 und 〈 ̟γ , ∑ β<br />

. . . 〉 auswertet. Manchmal kann man aber<br />

auch mit einigen geschickten multilinearen Rechenschritten von der einen Summe zur<br />

anderen gelangen. Diese Bemerkung macht man manchmal zur Grundlage einer Definition<br />

des Tensorprodukts, welche die Wirkung auf Linearformen nicht ins Spiel bringt. Man<br />

definiert:<br />

formSuT Definition 5.18. Das Tensorprodukt ergibt sich aus dem System aller formalen Summen<br />

von faktorisierbaren Tensoren , wenn man Summen ∑ α uα 1 ⊗uα 2 ⊗ · · · ⊗uα k , die sich durch<br />

multilineare Operationen in einander umrechnen lassen, als gleich betrachtet.<br />

Wenn man in einen Tensor aus U 1 ⊗ U 2 ⊗ · · · ⊗ U k an einer Stelle, sagen wir an der<br />

k-ten, eine feste Linearform f k ∈ Uk ∗ einsetzt, dann erhält man einen k −1-stufigen Tensor<br />

aus U 1 ⊗ U 2 ⊗ · · · ⊗ U k−1 . Und diese Zuordnung ist linear. Wenn man an zwei Stellen,<br />

sagen wir an den beiden letzten, ein Paar von Linearformen einsetzen, dann erhält man<br />

einen k − 2-stufigen Tensor, und diese Zuordnung ist bilinear.<br />

Gemischte Tensoren<br />

ϕ (k) : U ∗ k −→ U 1 ⊗ U 2 ⊗ · · · ⊗ U k−1 ,<br />

ϕ (k−1,k) : U ∗ k−1 × U ∗ k −→ U 1 ⊗ U 2 ⊗ · · · ⊗ U k−2 .<br />

Die Vektoren aus U und die Linearformen auf U (d. h. also die Elemente von U ∗ ) bezeichnet<br />

man auch als Tensoren erster Stufe. Die Vektoren v ∈ U heissen kontragrediente<br />

Tensoren erster Stufe, die Covektoren f ∈ U ∗ heissen cogrediente Tensoren erster Stufe.<br />

Bei den Tensoren zweiter Stufe hat man vier Typen: Neben U 1 ⊗ U 2 werden nämlich<br />

noch drei weitere Tensorprodukte ins Auge gefasst, nämlich U 1 ⊗U ∗ 2, U ∗ 1 ⊗U 2 und U ∗ 1 ⊗U ∗ 2.<br />

Die Elemente des ursprünglichen Tensorprodukts nennt man die zweifach kontragrediente<br />

Tensoren, die Elemente der weiteren werden kontra-cogredient, co-kontragredient und<br />

kontra-cogredient genannt. Die zweifach cogredienten Tensoren sind (in natürlicher Weise)<br />

mit den Linearformen auf dem Raum U 1 ⊗ U 2 zu identifizieren. Im gleichen Sinn sind die<br />

Räume U 1 ⊗ U ∗ 2, U ∗ 1 ⊗ U 2 zueinander dual.<br />

Für allgemeines k haben wir neben U 1 ⊗ U 2 ⊗ · · · ⊗ U k die weiteren 2 k − 1 Tensorprodukte<br />

zu betrachten, die wir erhalten, indem wir an irgendwelchen Positionen den<br />

Vektorraum U κ durch den Vektorraum U ∗ κ ersetzen. Die Elemente dieser Tensorprodukte<br />

nennt man gemischt kontra-cogrediente Tensoren (kontragredient in den Positionen ...,<br />

und cogredient in den Positionen...). Nehmen wir an, wir hätten in jedem U κ eine Basis<br />

β<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


64 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

{u i : i ∈ I κ } gewählt und {l i : i ∈ I κ } sei die duale Basis. Wir erhalten dann <strong>für</strong> jedes<br />

gemischte Tensorprodukt eine spezielle Basis bestehend aus Produkten von Vektoren<br />

und Covektoren, wo zu jedem κ ein u i bzw. ein l i zu wählen ist. Im Falle des dreistufigen<br />

Tensorprodukts U 1 ⊗ U ∗ 2 ⊗ U 3 beispielsweise hat ein solches Basiselement die Gestalt<br />

u i1 ⊗ l i 2<br />

⊗ u i3 . Die Tensoren besitzen eine eindeutige Darstellung<br />

(50) T = ∑<br />

i 1 i 2 i 3<br />

a i 1<br />

i2<br />

i3<br />

· u i1 ⊗ l i 2<br />

⊗ u i3 .<br />

Dieses Beispiel dürfte die Konventionen des Hoch-und Tiefstellens des Indizes hinlänglich<br />

illustrieren. Die Konvention wird manchmal durch die Regeln erläutert, die beim Übergang<br />

zu neuen Basen zu beachten sind. Solche Regeln sind nur dann nötig, wenn man<br />

die Ausdrücke u i1 ⊗ l i 2<br />

⊗ u i3 unterdrückt; wenn man also das System der Koeffizienten<br />

betrachtet (was zweifellos manchmal die Übersichtlichkeit verbessern kann). Aus unserer<br />

Sicht ist alles geklärt durch den Satz 5.5.3.<br />

Es sei (v 1 , . . .,v m ) = (u 1 , . . .,u m )·G ein Basiswechsel (z. B. in der k-ten Position).<br />

Für die Transformation der dualen Basis benötigt man dann die inverse Matrix H = G −1 .<br />

(51) u i = ∑ j∈J k<br />

v j · g j i <strong>für</strong> i ∈ I k ; y i = ∑ j∈J k<br />

h i j · l j <strong>für</strong> i ∈ I k .<br />

Daraus ergibt sich die Transformation der Koeffizientenschemata. Für die kontragredienten<br />

Positionen sind die Matrizen H zuständig, <strong>für</strong> die cogredienten Positionen die Matrizen<br />

G, die ‘mit der Basistransformation gehen’.<br />

Bei der Identifikation des Typs eines gemischten Tensors fragt man gerne, welche<br />

Objekte er ‘verarbeiten’ kann. Ein Vektor in der k-ten Position kann einen Covektor in der<br />

k-ten Position verarbeiten; ein Covektor verarbeitet einen Vektor. Ein co-kontragredienter<br />

Tensor (in den Positionen (k, l) ) verarbeitet einen kontra-cogredienten Tensor in diesen<br />

Positionen. Das Ergebnis der ‘Verarbeitung’ eines eingesetzten Objekts ist ein Tensor<br />

geringerer Stufe. So können die Tensoren k-ter Stufe auf vielfältige Weise als multilineare<br />

Abbildungen eines Tensorprodukts der Stufe m in ein Tensorprodukt der Stufe k − m<br />

verstanden werden. Das Umgekehrte ebenso richtig: eine multilineare Abbildung eines<br />

gemischte Tensorprodukts der m-ten Stufe in ein gemischtes Tensorprodukt der (m-k)-<br />

ten Stufe kann als ein gemischter Tensor der Stufe k verstanden werden.<br />

Beispiel. Es sei V der vierdimensionale Vektorraum der 2 ×2-Matrizen. Ein interessanter<br />

gemischter Tensor der Stufe 3 ist die Matrizen-Multiplikation. Normalerweise wird man<br />

sie als eine bilineare Abbildung V × V ↦−→ V verstehen. Angemessener erscheint aber die<br />

Interpretation als Tensor, wenn man Fragen stellt, wie z. B. die nach dem Rang dieses<br />

Tensors. Es hat sich herausgestellt, dass der Rang nicht so groß ist, wie man das auf den<br />

ersten Blick erwartet. Um die vier Eiträge in der Produktmatrix C = A ·B zu berechnen,<br />

braucht man nicht alle 8 Produkte a 11 · b 11 , a 12 · b 21 , a 11 · b 12 , a 21 · b 22 , a 21 · b 11 , . . .. Es<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.10 : Tensoren 65<br />

gilt nämlich<br />

Zum Matrizenkalkül<br />

c 11 = E 1 + E 2 + E 3 + E 4 ; c 22 = E 1 + E 5 + E 6 − E 7 ,<br />

c 21 = E 3 + E 6 ; c 12 = E 5 − E 4 ; wobei<br />

E 3 = a 22 (b 11 + b 21 ); E 4 = (a 11 − a 12 ) · b 22 ;<br />

E 5 = a 11 (b 12 + b 22 ); E 6 = (a 21 − a 22 ) · b 11<br />

E 1 = (a 11 − a 22 ) · (b 11 − b 22 ); E 2 = (a 12 − a 22 ) · (b 21 + b 22 );<br />

E 7 = (a 11 + a 21 ) · (b 11 + b 12 ).<br />

Der Matrixkalkül hat nichts mit geometrischer Anschauung zu tun. Die Geometrie liefert<br />

daher keinen Grund <strong>für</strong> das Hoch- und Tiefstellen der Indizes. Es scheint dennoch<br />

in manchen Situationen der Übersichtlichkeit zu dienen, wenn man die Spalten als kontragrediente<br />

und die Zeilen als cogrediente Vektoren versteht. In unserer Darstellung des<br />

Matrixkalküls stehen demgemäß (in der Regel) bei den Spalten die Indizes oben, während<br />

die Einträge in einer Zeile untere Indizes tragen.<br />

Matrizen dienen vielen Zwecken. Wenn man z. B. eine symmetrische(!) Matrix zur<br />

Darstellung einer quadratischen Funktion auf einem Vektorraum benützt, dann sollten<br />

u. E. beide Indizes unten stehen q(⃗x) = ∑ ij a ij · x i x j . Die dahinterstehende Vorstellung<br />

ist die, dass zur quadratischen Funktion (und zu der dazugehörigen symmetrischen Bilinearform<br />

b(⃗x, ⃗y) = ∑ ij a ij ·x i y j ) ein zweifach cogredienter Tensor gehört, der einem Paar<br />

von Vektoren eine Zahl zuordnet.<br />

Andererseits: Die Hoch- und Tiefstellung der Indizes einer I × J-Matrix A = A I J<br />

suggeriert, dass die Matrix als ein kontra-cogredienten Tensor T verstanden werden soll;<br />

sie wird konkret als Darstellungsform <strong>für</strong> eine lineare Abbildung des Raums J-Spalten in<br />

den Raum der I-Spalten verstanden, oder aber als eine Darstellungsform <strong>für</strong> eine lineare<br />

Abbildung des Raums der I-Zeilen in den Raum der J-Zeilen.<br />

T : K J Sp ∋ ⃗x → A · ⃗x ∈ K I Sp<br />

T : K I Z ∋ ξ → ξ · A ∈ K J Z<br />

Betrachten wir die Matrizennotation noch etwas genauer. Den faktorisierbaren Tensoren<br />

in U 1 ⊗U2 ∗ = KI Sp ⊗KJ Z entsprechen die Matrizen vom Rang 1; das sind die Matrizen der<br />

Gestalt ( I-Spalte⊗J-Zeile). Wenn man in einen faktorisierbaren Tensor w 1 ⊗f 2 ∈ U 1 ⊗U2<br />

∗<br />

an der zweiten Stelle einen Vektor w 2 einsetzt, dann erhält man einen Vektor in U 1 , und<br />

zwar stets ein Vielfaches von w 1 . w 1 ⊗ f 2 ( )<br />

· ,w 2 = w1 · 〈f 2 , w 2 〉 2 .<br />

Wenn man in irgendeinen Tensor T ∈ U 1 ⊗ U2 ∗ an der zweiten Stelle Vektoren w 2<br />

einsetzt, dann erhält man in linearer Weise Vektoren ∈ U 1 . In diesem Sinne entsprechen<br />

die kontra-cogredienten Tensoren T aus U 1 ⊗ U2 ∗ den linearen Abbildungen ϕ : U 2 → U 1 .<br />

Wenn man in den Tensor T aus U 1 ⊗ U2 ∗ an der ersten Stelle eine Linearform einen<br />

Covektor f 1 ∈ U1 ∗ einsetzt, dann ergibt sich die duale Abbildung ϕ∗ : U1 ∗ → U 2 ∗. Beide<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


66 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Beobachtungen kommen in der folgenden Formel zum Ausdruck<br />

(52) T ( · , · ) = ∑ w1 α ⊗ f2 α ( · , · ) = ∑ 〈 〉〈<br />

· , w<br />

α<br />

1 f<br />

2<br />

α , · 〉 = 〈 · , ϕ(·) 〉 = 〈 ϕ ∗ (·) , ·〉.<br />

α<br />

α<br />

Der Wertebereich von ϕ liegt in span{w1 α }. Der Wertebereich von ϕ∗ liegt in span{fα 2 }.<br />

Wenn T ein Tensor vom Rang r ist, und T = ∑ r<br />

α=1 wα 1 ⊗f2 α , dann ist {wα 1 } eine Basis des<br />

Wertebereichs R (T )<br />

U 1<br />

und {fα 2 )<br />

} ist eine Basis des Wertebereichs R(T<br />

U<br />

. Das wollen wir noch<br />

2 ∗<br />

einmal in etwas anderen Worten sagen. Wir wollen zeigen, dass der maximale Austausch<br />

<strong>für</strong> eine Matrix des Rangs r explizit eine Darstellung des zugehörigen Tensors als Summe<br />

von r faktorisierbaren Tensoren liefert.<br />

Die Wertebereiche eines Tensors zweiter Stufe<br />

Die Idee des Rangs eines zweistufigen Tensors wollen wir nun noch einmal in der Sprache<br />

der Matrizen formulieren. Wir wollen damit die Tatsache Zeilenrang = Spaltenrang“(<strong>für</strong><br />

”<br />

eine beliebige m × n-Matrix) und die Idee des maximalen Austauschs im Lichte der Tensorrechnung<br />

noch einmal vertiefen.<br />

Es {u i : i ∈ I} sei eine Basis des m-dimensionalen Vektorraums U = U 1 ; und es<br />

sei {x j : j ∈ J} eine Basis eines n-dimensionalen Vektorraums F = U2 ∗ . Es wird sich<br />

als bequem erweisen, die Koeffizienten zu den Vektoren v = ∑ i u i · a i als I-Spalten zu<br />

notieren. Die Koeffizienten zu einem g = ∑ j b j · x j werden wir als J-Zeilen notieren. Ein<br />

faktorisierbarer Tensor in U ⊗ F wird demgemäß durch eine I × J-Matrix von der Form<br />

Spalte ⊗ Zeile repräsentiert. Ein beliebiger Tensor T ∈ U ×F ist durch eine I ×J-Matrix<br />

A = A I J repräsentiert. T = ∑ ij ai j ·u i ⊗x j . Und die Doppelsumme suggeriert das folgende<br />

Diagramm<br />

x 1 x 2 . . . . . . x n<br />

u 1 a 11 a 12 . . . . . . a 1n<br />

(53)<br />

u 2 a 21 a 22 . . . . . . a 2n<br />

. . .<br />

.<br />

. . .<br />

.<br />

u m a m1 a m2 . . . . . . a mn<br />

Wir erinnern noch einmal an die Pivot-Transformationen einer Matrix, die zu den sog. verwandten<br />

Matrizen führen. Wenn wir die Matrix A (ohne jeden Versuch einer Interpretation)<br />

einem maximalen Austausch unterziehen, dann gelangen wir gemäß dem Satz 5.2.4<br />

zu einer ‘verwandten’ Matrix der Gestalt<br />

( M K<br />

−L 0<br />

) (<br />

=<br />

A −1<br />

11 A −1<br />

11 A 12<br />

−A 21 · A −1<br />

11 0<br />

)<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.10 : Tensoren 67<br />

Dies ergibt <strong>für</strong> die ursprüngliche Matrix die Faktorisierung<br />

( ) ( )<br />

A11 A<br />

A = 12 Er<br />

= · A<br />

A 21 A 22 L 11 · (E<br />

r K ) ( )<br />

A11<br />

= · M · (A )<br />

A 11 A 12<br />

21<br />

Wir numerieren die r Spalten des ersten Faktors mit s = 1, . . ., r und die Zeilen des<br />

letzten Faktors mit t = 1, . . ., r und erhalten damit a i j = ∑ r<br />

s,t=1 ai s · m s t · a t j und somit<br />

) )<br />

r∑<br />

(54) T = m s t · u i · a i s ⊗ a t j · x j<br />

s,t=1<br />

( ∑<br />

i<br />

Dies liefert Darstellungen des Tensors als Summe von r faktorisierbarenTensoren. Wir<br />

können das Ergebnis noch in ein wenig anderes Licht rücken, indem wir die die dualen<br />

Basen ins Spiel bringen<br />

( ∑<br />

j<br />

{w j : j ∈ J} auf U 2 = F ∗ dual zu {x j : j ∈ J}<br />

{l i : i ∈ I} auf U ∗ 1 dual zu {u i : i ∈ I}<br />

Der Tensor T repräsentiert die lineare Abbildung ϕ : U 2 −→ U 1 und die dazu duale<br />

Abbildung ϕ ∗ : U ∗ 1 −→ U ∗ 2 mit<br />

ϕ(w j ) = ∑ ij ai j · u i ⊗ x j( · ,w j<br />

)<br />

=<br />

∑i u i · a i j,<br />

ϕ ∗ (l i ) = ∑ ij ai j · u i ⊗ x j( l i , · ) = ∑ j ai j · x j .<br />

Wie wir eben gesehen haben, brauchen wir <strong>für</strong> die Darstellung unseres Tensors nur die<br />

die Bilder {v j = ϕ(w j ) : j ∈ J | } und die Bilder {−y i = ϕ ∗ (l i ) : i ∈ I | }. Es gilt<br />

(55) T = ∑<br />

m j i · ϕ(w j ) ⊗ ϕ ∗ (l i ) = ∑<br />

m j i · v j ⊗ (−y i ),<br />

I | ×J | I | ×J |<br />

Durch partielle Summation über s bzw. t erhalten wir Darstellungen Von T als Summen<br />

als Summen von r faktorisierten Tensoren.<br />

T = ∑ s<br />

v s ⊗ ˜z s = ∑ t<br />

˜w t ⊗ −y t mit ˜z s = ∑ t<br />

m s t(−y t ),<br />

˜w t = ∑ s<br />

m s t · v s .<br />

Noch schöner ist aber wohl die Repräsentation des Tensors durch das folgende <strong>Tabl</strong>eau<br />

vom Format J | × I | , welches der linken oberen Ecke einer maximal ausgetauschten<br />

verwandten Matrix entspricht.<br />

−y 1 −y 2 . . . . . . −y r<br />

v 1 m 11 m 12 . . . . . . m 1r<br />

(56)<br />

v 2 m 21 m 22 . . . . . . m 2r<br />

. . .<br />

.<br />

. . .<br />

.<br />

v r m r1 m r2 . . . . . . m rr<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


68 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Vektoren und Tensoren im Anschauungsraum<br />

Die Idee der Vektoren und Tensoren war bis vor Kurzem an den Anschauungsraum geknüpft.<br />

Heute denkt man man allgemeinere Situationen. Ausserdem ist zu bedenken, dass<br />

es nicht nur einen Anschauungsraum gibt. Zu nennen sind neben dreidimensionalen euklidischen<br />

Anschauungsraum und dem vierdimensionalen Anschauungsraum der speziellen<br />

Relativitätstheorie (den man auch den Minkowski-Raum nennt) jedenfalls auch der affine<br />

Anschauungsraum (zu einem beliebigen K-Vektorraum), obwohl man natürlich zugestehen<br />

muss, dass Anschaulichkeit nicht überall und nicht <strong>für</strong> jeden dasselbe bedeutet.<br />

Der Anschauung zugänglich sind zweifellos auch die ‘gekrümmten’ Räume, ohne die<br />

Theorien wie die allgemeine Relativitätstheorie nicht auskommen. Die gekrümmten Räume<br />

der Differentialgeometrie haben in unabweisbarer Deutlichkeit gezeigt, dass man (in der<br />

Geometrie!) unterscheiden muss zwischen den ‘echten’ Vektoren, die (irgendwie) mit Verschiebungen<br />

zu tun haben und den sog. Covektoren, die meistens dazu dienen, den Anstieg<br />

einer Funktion zu beschreiben. Was die an einen Punkt angehefteten Vektoren betrifft, so<br />

sprach man in der Mechanik lange Zeit von den virtuellen Verrückungen (von einem Punkt<br />

aus), heute spricht der Geometer von den Tangentialvektoren (in einem Fusspunkt), wenn<br />

er an die ‘echten’ Vektoren denkt. Die Covektoren (in einem Fusspunkt) sind andererseits<br />

eng an die ‘Gradienten’ glatter Funktionen geknüpft. Covektorfelder werden entlang von<br />

Kurven ‘integriert’, und wenn es sich beim Covektorfeld um ein echtes Gradientenfeld (zu<br />

einem Potential) handelt, dann kommt bei allen Kurven von P nach Q dasselbe Integral<br />

heraus, nämlich die Potentialdifferenz. Ein Beispiel ist das Kraftfeld der Newton’schen<br />

Mechanik, welches sich aus dem Gravitationspotential einer Massenverteilung herleitet.<br />

Auf eine Probemasse wirkt in jedem Punkt eine Kraft; um die Probemasse gegen die<br />

Kraft von P nach Q zu bewegen, muss die ‘Arbeit’ geleistet werden, die sich aus der<br />

Potentialdifferenz zwischen P und Q ergibt.<br />

So weit sollte man schon einmal vorausdenken, wenn man sich mit Vektoren und<br />

Covektoren im affinen Anschauungsraum befasst; hier gibt es nämlich per se wenig Futter<br />

<strong>für</strong> einedifferenzierte Anschauung. Der affine Raum ist homogen, die Vektoren kann man in<br />

jedem Fusspunkt ansetzen, sie entsprechen globalen Verschiebungen, ‘Pfeilklassen’ nennt<br />

man sie deswegen in der Schule. Die Covektoren im affinen Raum sind die Linearformen<br />

f, meistens repräsentiert durch affine Funktionen. Wenn man von P nach Q = P +v geht,<br />

dann erfährt die affine Funktion einen Zuwachs 〈f,v〉; das ist der Wert der Linearform f<br />

im Vektor v.<br />

Das Wort Tensor kommt aus der Elastizitätstheorie. (Es ist abgeleitet aus dem lateinischen<br />

Wort ‘tendere’ = spannen, oder ‘tensus’ = gespannt.) Wenn auf ein elastisches<br />

Medium Kräfte wirken, dann entstehen einerseits Spannungen und andererseits Verformungen.<br />

Die Verformung ist als ein (ortsabhängiger) zweifach kontragredienter symmetrischer<br />

Tensor zu deuten; entsprechend den elastischen Eigenschaften des Materials steht sie<br />

in Korrespondenz zur Spannung im betreffenden Punkt, einem zweifach cogredienten symmetrischen<br />

Tensor. Verantwortlich <strong>für</strong> diese Korrespondenz ist ein Tensor vierter Stufe,<br />

der (im glatten Fall in linearer Weise) der Spannung die Verformung zuordnet. Die beiden<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.10 : Tensoren 69<br />

aus den zueinander dualen Vektorräumen stammenden Tensoren ergeben zusammen die<br />

‘infinitesimal’ geleistete Verformungsarbeit.<br />

Etwas einfacher ist die Lage in der sog. Elektrostatik <strong>für</strong> ein dielektrisches Material.<br />

Die elektrische Spannung ruft eine Polarisierung hervor, gemäß dem Dielektrizitätstensor<br />

ε. Die Spannung E ist vom Typ eines Covektors (aus der Potentialdifferenz abgeleitet),<br />

die dielektrische Verschiebung D ist vom Typ eines Vektors, einer Verformung. Das innere<br />

Produkt liefert die Energiedichte. Nur im ‘isotropen’ Fall kann man (in irgendeinem Sinne)<br />

sagen, dass die Verformung in dieselbe Richtung weist wie die Spannung. Es ist nicht<br />

der metrische Tensor, der verantwortlich ist <strong>für</strong> den Zusammenhang sondern der Dielektrizitätstensor;<br />

nur in einem isotropen Medium ist es mit einer Dielektrizitätskonstanten<br />

getan. Mehr über physikalische Aspekte des Tensorbegriffs (sowohl in der nichtrelativistischen<br />

als auch in der relativistischen Welt) findet man in den berühmten Feynman-<br />

Lectures, Band II, Kapitel 31, ‘Tensoren’.<br />

In der euklidischen Geometrie wie auch im Minkowski-Raum hat man ein symmetrisches<br />

inneres Produkt zwischen Vektoren, und das bedeutet im Sinne der Tensorrechnung<br />

einen Isomorphismus zwischen dem Raum der Vektoren und dem Raum der Covektoren<br />

(Linearformen). Solange man nicht differenzieren will, muss noch nicht interessieren, dass<br />

in der (auf die allgemeine Relativitätstheorie gerichtete) Differentialgeometrie dieser sog.<br />

metrische Tensor ortsabhängig ist; wichtig ist zunächst einmal, dass der metrische Tensor<br />

in jedem Punkt einen Isomorphismus liefert zwischen dem Tangentialraum und dem<br />

Cotangentialraum.<br />

In der ‘Anschauung’ ist dieser metrische Tensor manchen Leuten so präsent, dass<br />

sie gar nicht mehr darüber reden; der von ihm gestiftete Isomorphismus zwischen den<br />

Vektoren und den Covektoren führt sie zu einer unausgesprochenen Identifizierung dieser<br />

Objekte. ( Schon im Schulunterricht hat man ja gelernt, dass man den Anstieg einer<br />

affinen Funktion durch einen Vektor beschreiben sollte, der senkrecht (?!) auf den Niveaulinien<br />

steht.) Dem Unvorsichtigen fällt es danach schwer, zu sehen, dass der Wert<br />

einer Linearform in einem Punkt (logisch gesehen) etwas anderes ist als das euklidische<br />

innere Produkt zweier Vektoren. Damit fällt der mathematischen Anfängervorlesung die<br />

Aufgabe zu, <strong>für</strong> die Tensorrechnung einer kurzschlüssigen ‘Anschauung’ entgegenarbeiten<br />

und den Unterschied zwischen Vektoren und Covektoren herauszuarbeiten. Wir hoffen,<br />

mit unseren sorgfältigen Überlegungen zur Dualität dazu einen Beitrag zu leisten.<br />

Die Situation, an welcher sich die Anschaulichkeit des traditionellen Tensorkalkül orientiert,<br />

kann man in moderner Terminologie etwa folgendermaßen beschreiben: Gegeben<br />

ist ein reeller Vektorraum V mit einer Dualität 〈 ·, ·〉 auf V ×V , den man den metrischen<br />

Tensor nennen könnte. (Die Dualtät ist symmetrisch, im euklidischen Fall positiv definit,<br />

in der speziellen Relativitätstheorie vierdimensional mit der bekannten Signatur). Es<br />

wurde eine Basis {u i : i ∈ I} gewählt. Die Zahlen g ik = 〈u i ,u k 〉 nennt man die cogredienten<br />

Koeffizienten des metrischen Tensors. Für einen Vektor v = ∑ i ai u i nennt man den<br />

Summanden a i u i (oder manchmal auch den blossen Skalar a i ) die i-te kontragrediente<br />

Komponente (der Index wird hochgestellt!).<br />

Es sei nun {l i : i ∈ I} die duale Basis (sodass also l i (v) = a i ). Wenn man die<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


70 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Linearform l(·) = 〈 v , · 〉 in dieser dualen Basis darstellen will, dann braucht man dazu<br />

die sog. cogredienten Komponenten des Vektors, die man jetzt mit tiefgestellten Indizes<br />

auflistet.<br />

(57) 〈 ∑ i<br />

a i · u i , · 〉 = ∑ k<br />

a k · l k (·) mit<br />

a k = ∑ i<br />

g ik a i .<br />

In der Tat liefern diese a k <strong>für</strong> jeden Vektor w = ∑ k bk · u k<br />

〈v , w 〉 = 〈 ∑ a i u i , ∑ b k u k 〉 = ∑ ik<br />

a i b k g ik = ∑ k<br />

a k b k = ∑ k<br />

a k · l k (w).<br />

Der Tensorkalkül wurde in der ersten Hälfte des 20. Jahrhunderts ganz auf Koordinatendarstellungen<br />

gegründet. Eine wichtige Rolle spielt das Hoch- und Tiefstellen der<br />

Indizes. Die maßgeblichen Impulse kamen aus den berühmten Vorlesungen über allgemeine<br />

Relativitätstheorie, die Hermann Weyl zum ersten Mal 1917 an der ETH Zürich<br />

gehalten hat. (H. Weyl: Raum Zeit Materie, in sechster Auflage 1970 im Springer-Verlag)<br />

Der Sachverhalt, auf den sich der Formalismus bezieht, entspricht dem Szenario, welches<br />

wir eben ohne Bezugnahme auf Physik entworfen haben:<br />

Es sei {e i : i ∈ I} eine Basis <strong>für</strong> den Raum der Vektoren. In der Darstellung eines Vektors<br />

v = ∑ x i e i heissen die x i (mit hochgestellten Indizes) die kontragredienten Komponenten<br />

des Vektors v. Das metrische innere Produkt ist gegeben durch die symmetrische Matrix<br />

(g ij ) ij<br />

= (e i ,e j ) ij<br />

. ( · , ·) meint das metrische innere Produkt. Die zur gegebenen Basis<br />

duale Basis wird mit {e i : i ∈ I} bezeichnet. Linearformen haben die Gestalt ∑ z i e i . Der<br />

Wert dieser Linearform im Vektor v ist 〈 ∑ z i e i , ∑ x j e j 〉 = ∑ z i x i . Andererseits hat das<br />

metrische innere Produkt zweier Vektoren die Form ( ∑ y k e k , v ) = ( ∑ y k e k , ∑ x i e i ) =<br />

∑<br />

ik yk g ki x i = 〈 ∑ z i e i ,v〉 mit z i = ∑ k g kiy k .<br />

Der Tensorkalkül, den man in der Relativitätstheorie benützt, notiert anders. Die<br />

gewählten Basen bleiben im Hintergrund, sie tauchen in der Notation nicht auf. Man<br />

schreibt y i statt z i und nennt diese Zahlen die cogredienten Komponenten des Vektors mit<br />

den kontragredienten Komponenten y k . Die Notation unterdrückt nicht nur die e i und die<br />

e i , sondern auch das Summenzeichen, und man schreibt y i = y k g ik . Das Summenzeichen<br />

wird auch in allgemeineren Situationen mit mehrfach indizierten Größen unterdrückt,<br />

gemäß der sog. Einstein-Konvention, welche sagt: Wenn irgendwo in einem System von<br />

indizierten Größen ein Index sowohl oben als auch unten auftritt, dann wird über ihn<br />

summiert.<br />

Der Übergang vom Tupel (y k ) zum Tupel (y i ) mit Hilfe des metrischen Tensors heisst<br />

das Herunterziehens des Index. Man kann den Index natürlich auch wieder hinaufziehen;<br />

man braucht dazu den metrischen Tensors in kontra-kontragredienten Komponenten:<br />

y k = g ik y i , wo (g ij ) die zu (g ij ) inverse Matrix ist. Bei einem dreistufigen Tensor<br />

könnte das Herunterziehen etwa so aussehen: a ijk g jl = a i l k . Der Buchstabe a bleibt unverändert,<br />

weil auf beiden Seite der Gleichung derselbe Tensor gemeint ist. Übrigens:<br />

Wenn wir beim metrischen Tensor selbst einen Index hinaufziehen, dann erhalten wir das<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.10 : Tensoren 71<br />

Kroneckersymbol g ij g ik = δ j k<br />

. Anders gesagt: die co-kontragredienten Komponenten des<br />

metrischen Tensors sind das Kroneckersymbol.<br />

Auffallend ist, dass in diesem Tensorkalkül der Unterschied zwischen den kontragredienten<br />

und den cogredienten Vektoren (und Tensoren) mittels des metrischen Tensors<br />

zum Verschwinden gebracht wird. An die Stelle dieser (nach unserer Meinung sehr wichtigen)<br />

Unterscheidung tritt die Unterscheidung zwischen den kontra- und cogredienten<br />

Komponenten desselben Vektors (bzw. Tensors ). H.Weyl schreibt auf Seite 37 des erwähnten<br />

Buchs:<br />

Es ist vielfach versucht worden, in unserm Gebiet eine solche invariante,<br />

mit den Tensoren selbst und nicht mit ihren Komponenten arbeitende Bezeichnungsweise<br />

auszubilden, wie sie in der Vektorrechnung besteht. Was aber dort<br />

am Platze ist, erweist sich <strong>für</strong> den viel weiter gespannten Rahmen des Tensorkalküls<br />

als äußerst unzweckmäßig. Es werden eine solche Fülle von Namen<br />

und ein solcher Apparat von Rechenregeln nötig (wenn man nicht doch immer<br />

wieder auf die Komponenten zurückgreifen will), dass damit ein Gewinn von<br />

sehr erheblichem negativem Betrag erreicht wird. Man muß gegen diese Orgien<br />

des Formalismus, mit dem man heute sogar die Techniker zu belästigen<br />

beginnt, nachdrücklich protestieren.<br />

Die Zeit geht weiter. Der traditionelle Tensorkalkül hat sich zweifellos in wichtigen Bereichen<br />

bewährt. In der reinmathematischen Tensorrechnung wird man jedoch auf einer<br />

klaren Unterscheidung von Vektoren und Covektoren bestehen müssen, obwohl es von<br />

vorneherein keine Gründe gibt, den einen oder den anderen Partner in einem Dualitätspaar<br />

herauzuheben. Eine ‘Identifizierung’ der Covektoren mit den Vektoren kommt nicht<br />

in Betracht, wenn man <strong>für</strong> die Vektorräume, deren Tensorprodunkt man bilden will, keine<br />

ausgezeichnete Dualität auf V × V hat.<br />

Kontroverse didaktische Positionen<br />

Da wir nun schon einmal bei didaktischen Fragen sind, möchte ich mein Plädoyer <strong>für</strong> die<br />

Vektorraumdualität präzisieren: Nach meiner Auffassung sollte man mit den Anfängern<br />

die elementaren Beispiele <strong>für</strong> Dualitätspaare zunächst sauber auseinanderhalten<br />

• Die Matrizenrechnung sieht vor, eine J-Zeile t mit einer J-Spalte s zu ‘multiplizieren’,<br />

sodass das Resultat ein Skalar ist: 〈t, s 〉 = t · s. Die Matrizenrechnung sieht<br />

nicht vor, zwei Spalten (oder zwei Zeilen) miteinander zu multiplizieren.<br />

• Die Theorie des euklidischen Raums (wie auch die Theorie des Minkowski-Raums)<br />

kennt das Skalarprodukt zweier Vektoren. Es handelt sich um eine symmetrische<br />

bilineare Operation ( · , · ) auf V × V .<br />

• Die Theorie des Hilbert-Raums kennt das Produkt eines ‘bra-Vektors’ mit einem<br />

‘ket-Vektor’. Es handelt sich um eine sesquilineare Operation. 〈 · | · 〉 auf V × V .<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


72 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Die (mehr oder weniger delikaten) Gemeinsamkeiten dieser Strukturen sollten kein Thema<br />

der ersten Anfängervorlesungen sein. Euklidische Geometrie, Hilbertraum-Geometrie<br />

und das Rechnen mit Zeilen und Spalten sollten zunächst einmal als getrennte Bereiche<br />

mit Blick auf spezifische Anwendungen entwickelt werden. Alle drei Strukturen gehören<br />

m. E. in die Anfängerausbildung. Auf dem Niveau der Anfängervorlesungen sind aber<br />

nicht die Gemeinsamkeiten wichtig, sondern die verschiedenartigen Ausrichtungen auf<br />

Anwendungen.<br />

Die rein-algebraische Tensorrechnung ist technisch sehr einfach, aber auch wenig ergiebig.<br />

Bedeutsam werden die Tensoren erst in Verbindung mit geometrischen Betrachtungen.<br />

Diese können z. B. dadurch ins Spiel kommen, dass auf den beteiligten Vektorräumen interessante<br />

Dualitäten ausgezeichnet sind. Weitere interessante Aspekte können sich durch<br />

Symmetrieeigenschaften der Tensoren ergeben. Besonders wichtig sind da die antisymmetrischen<br />

Tensoren, die wir im nächsten Abschnitt behandeln.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.11 : Alternierende Multilinearformen 73<br />

5.11 Alternierende Multilinearformen<br />

Dieser Abschnitt setzt Vertrautheit mit den Permutationen voraus, insbesondere mit dem<br />

Begriff des Signums einer Permutation. Ausserdem bauen wir auf den Begriff der Multilinearform,<br />

den wir im Abschnitt Tensorrechnung vorgestellt haben.<br />

Definition 5.19. Es sei V ein n-dimensionaler K-Vektorraum. Eine Multilinearform Φ<br />

auf dem p-fachen cartesischen Produkt V × V × · · · × V heisst eine alternierende p-<br />

Form, wenn sie verschwindet, sobald im p-Tupel der Argumente irgendwelche Vektoren<br />

mehrfach auftreten. Man spricht auch einfach von einer p-Form auf V . ∧p (V ∗ ) bezeichnet<br />

den Vektorraum aller alternierenden p-Formen.<br />

Lemma 5.11.1. Es sei Φ eine alternierende k-Form. Der Wert von Φ wechselt das Vorzeichen,<br />

wenn man die Argumente in irgendeinem Paar von Positionen vertauscht.<br />

Beweis<br />

Es genügt, die Aussage <strong>für</strong> zwei aneinanderliegende Positionen zu beweisen; denn jede<br />

Transposition zweier Objekte in einer Reihe kann durch das Hintereinanderschalten einer<br />

ungeraden Anzahl von Transpositionen nebeneinanderliegender Objekte erzeugt werden.<br />

Die Reduktion auf den Spezialfall erleichtert die Notation. Es gilt<br />

0 = Φ(. . .,v + w, v + w, . . .) =<br />

= Φ(. . . , v, v, . . .) + Φ(. . .,w, w, . . .) + Φ(. . . , v, w, . . .) + Φ(. . . , w, v, . . .) =<br />

= 0 + 0 + Φ(. . . , v, w, . . .) + Φ(. . . , w, v, . . .).<br />

( )<br />

1 2 . . . p<br />

Wenn man die Argumente gemäß der Permutation π =<br />

permutiert,<br />

dann multipliziert sich der Wert von Φ mit dem Signum der Permutation sign(π).<br />

π(1) π(2) . . . π(p)<br />

Wir wollen im Folgenden voraussetzen, dass im Körper K gilt 1 + 1 ≠ 0. In diesem Fall<br />

ist eine Multilinearform genau dann eine alternierende p-Form, wenn <strong>für</strong> alle Paare v, w<br />

und alle Positionen gilt Φ(. . .,v, w, . . .) + Φ(. . . , w, v, . . .) = 0<br />

Satz 5.11.1.<br />

Die Menge ∧p (V ∗ ) aller alternierenden p-Formen ist ein Vektorraum der Dimension ( n<br />

p)<br />

.<br />

Beweis<br />

Wir konstruieren eine Basis, bestehend aus sogenannten faktorisierbaren p-Formen. Zu<br />

diesem Zweck wählen wir zunächst einmal in V eine Basis {u i : i ∈ I}, und wir bezeichnen<br />

die duale Basis mit {l i : i ∈ I}. Bekanntlich ist eine Multilinearform auf V ×V ×· · ·×V eindeutig<br />

festgelegt, wenn man ihre Werte in den Tupeln (u j1 , . . .u jp ) festlegt; und jede Festlegung<br />

liefert ein Multilinearform. Eine alternierende p-Form gewinnt man genau dann,<br />

wenn jede Permutation der Argumente das Vorzeichen um den Faktor sign(π) verändert<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


74 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

(was insbesondere nach sich zieht, dass nur die Tupel mit paarweise verschiedenen Einträgen<br />

einen Wert ≠ 0 erhalten können.) Wir definieren nun <strong>für</strong> ein p-Tupel (i 1 , i 2 , . . .,i p )<br />

(mit paarweise verschiedenen Indizes aus I) eine Multilinearform Φ = l i 1<br />

∧ l i 2<br />

∧ . . . ∧ l ip ,<br />

indem wir festlegen<br />

Φ(u j1 , . . ., u jp ) = +1 oder = −1,<br />

wenn (j 1 , j 2 , . . .,j p ) aus (i 1 , i 2 , . . ., i p ) durch eine gerade bzw. durch eine ungerade Permutation<br />

hervorgeht. In den übrigen p-Tupeln (u j1 , . . .u jp ) hat Φ den Wert 0.<br />

Die hier konstruierten Multilinearformen nennt man Dachprodukte mit den ‘Faktoren’<br />

l i 1<br />

, . . .,l ip . Die Reihenfolge ist wichtig; wenn man zwei Indizes im Index-Tupel<br />

(i 1 , i 2 , . . .,i p ) gegeneinander austauscht (‘transponiert’), dann unterscheiden sich die Dachprodukte<br />

um den Faktor −1.<br />

Aus dieser Eigenschaft (zusammen mit 1 + 1 ≠ 0) können wir schliessen, dass alle<br />

unsere Multilinearformen l i 1<br />

∧ l i 2<br />

∧ . . . ∧ l ip wirklich alternierende p-Formen sind. Wenn<br />

man nämlich eine solche Multilinearform in einem p-Tupel von Vektoren auswertet, in<br />

welchem ein v doppelt vorkommt, dann ändert sich der Wert der Multilinearform nicht,<br />

wenn man die betreffenden Indizes im Dachprodukt l i 1<br />

∧ l i 2<br />

∧ . . . ∧ l ip vertauscht; da er<br />

aber andererseits in sein negatives übergeht, ist er = 0.<br />

Dachprodukte l i 1<br />

∧ l i 2<br />

∧ . . . ∧ l ip , in welchen ein l i mehr als einmal vorkommt, sind<br />

identisch = 0. Denken wir uns jetzt (<strong>für</strong> den Augenblick) die Indexmenge I angeordnet,<br />

etwa I = {1, 2, . . ., n} mit der üblichen Ordnung. Wir zeigen, dass die Dachprodukte zu<br />

den Index-Tupeln mit i 1 < i 2 < . . . < i p ) eine Basis des Raums aller alternierenden p-<br />

Formen ist. (Es gibt bekanntlich ( n<br />

p)<br />

solche p-Tupel). Es sei Φ eine alternierende p-Form;<br />

und <strong>für</strong> i 1 < i 2 < . . . < i p ) sei a i1 i 2 ...i p<br />

= Φ(u i1 , u i2 , . . .,u ip ). Es gilt dann<br />

Φ =<br />

∑<br />

i 1


5.11 : Alternierende Multilinearformen 75<br />

dann haben wir<br />

(l 1 ∧ l 2 ∧ . . . ∧ l p) (v 1 , v 2 , . . .,v p ) = ∑ ( )<br />

i1 i<br />

sign 2 . . . i p<br />

· a i 1<br />

1 2 . . . p 1 a i 2<br />

2 · · ·a ip<br />

p<br />

= ∑ ( )<br />

j1 j<br />

sign 2 . . . j<br />

(58)<br />

p<br />

· a<br />

1 2 . . . p<br />

1 j 1<br />

a 2 j 2 · · ·a p j p<br />

Dabei ist über alle Permutationen der Zahlen 1, 2, . . ., n zu summieren.<br />

Der Ausdruck hängt offenbar nicht davon ab, wie wir das gegebene Tupel l 1 ∧l 2 ∧. . .∧l p<br />

zu einer Basis von V ∗ erweitert haben. Aus der Formel lesen wir noch mehr ab, z. B. die<br />

Linearität des Dachprodukts in der ersten Position (und dann auch in jeder Position).<br />

Wenn nämlich ˜l eine weitere Linearform ist und ã j = 〈 ˜l, v j 〉, dann gilt<br />

((l 1 + ˜l) ∧ l 2 ∧ . . . ∧ l p) (v 1 , v 2 , . . .,v p ) = ∑ sign<br />

( )<br />

j1 j 2 . . . j p<br />

· (a 1 j<br />

1 2 . . . p 1<br />

+ ã j1 )a 2 j 2 · · ·a p j p<br />

Satz 5.11.2. Das p-fache Dachprodukt von Linearformen auf V liefert eine wohldefinierte<br />

alternierende p-Form. Die Dachproduktbildung ist in jeder Position linear, und jede<br />

Transposition der Faktoren ändert das Vorzeichen des Dachprodukts.<br />

Wenn wir bedenken, dass die Vektoren aus V in natürlicher Weise als die Linearformen<br />

auf V ∗ aufzufassen sind, dann ist auch geklärt, was es mit den alternierenden p-Formen auf<br />

V ∗ auf sich hat. Eine Basis <strong>für</strong> diesen Raum ist {u i1 ∧u i2 ∧. . .∧u ip : i 1 < i 2 < . . . < i p .}.<br />

Und diese Basis ist in der Tat die duale Basis zu {l i 1<br />

∧l i 2<br />

∧...∧l ip : i 1 < i 2 < . . . < i p }.<br />

Definition 5.20. Der ( n<br />

p)<br />

-dimensionale Vektorraum aller alternierenden p-Formen auf<br />

dem n-dimensionalen Vektorraum V wird mit ∧ p ( V ∗) bezeichnet. Der dazu duale Raum<br />

heisst der Raum der (alternierenden) p-Vektoren und wird mit ∧ p ( V ) bezeichnet. Diejenigen<br />

Elemente, die sich als Dachprodukt w 1 ∧w 2 ∧. . . ∧w p schreiben lassen, heissen die<br />

faktorisierbaren p-Vektoren.<br />

Es ist <strong>für</strong> manche Zwecke bequemer, wenn man bei der Konstruktion des Raums<br />

∧ p<br />

(<br />

V<br />

)<br />

die Linearformen aus dem Spiel lässt. Man kann ebenso vorgehen, wie wir das bei<br />

den Tensorprodukten in der Definition 5.11 skizziert haben Wir können die p-Vektoren<br />

als Äquivalenzklassen von formalen Linearkombinationen verstehen, indem wir definieren:<br />

formSuAlt Definition. Die p-Vektoren ergeben sich als Äquivalenzklassen von Linearkombinationen<br />

p-facher Dachprodukte<br />

∑<br />

a α · l 1 α ∧ l2 α ∧ . . . ∧ lp α ,<br />

α<br />

wobei solche Linearkombinationen als gleich zu gelten haben, die sich mit den Regeln der<br />

Multilinearität und der Transpositionsregeln ineinander umrechnen lassen:<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


76 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

(i) Für jedes p-Tupel von Vektoren und jedes j gilt<br />

w 1 ∧ . . . ∧ w j ∧ w j+1 ∧ . . . ∧ w p = (−1) · w 1 ∧ . . . ∧ w j+1 ∧ w j ∧ . . . ∧ w p<br />

( ”<br />

Transpositionen ändern das Vorzeichen“)<br />

(ii) a · w 1 ∧ w 2 ∧ . . . ∧ w p = ( a · w 1<br />

)<br />

∧ w2 ∧ . . . ∧ w p<br />

( ”<br />

Skalare Faktoren kann man aus jedem Faktor herausziehen“)<br />

(iii) (w ′ 1 + w ′′<br />

1) ∧ w 2 ∧ . . . ∧ w p = w ′ 1 ∧ w 2 ∧ . . . ∧ w p + w ′′<br />

1 ∧ w 2 ∧ . . . ∧ w p<br />

(Das Dachprodukt ist in jedem Faktor linear)<br />

Bemerke: Wegen der Transpositionsregel müssen wir die Linearität, die in allen Positionen<br />

gegeben ist, nur <strong>für</strong> die erste Position aufführen.<br />

Den oben bewiesenen Satz von der Basis können wir nun auch so formulieren:<br />

Satz. Es sei {v i : i ∈ I = {1, 2, . . ., n}} eine Basis von V . Wir bezeichnen mit ( I<br />

p)<br />

die<br />

Menge aller aufsteigenden Teilfolgen H der Länge p in I; und wir definieren <strong>für</strong> jedes<br />

solche H = ( 1 ≤ i 1 < i 2 < · · · < i p ≤ n ) den p-Vektor<br />

v H = v i1 ∧ v i2 ∧ . . . ∧ v ip .<br />

Das System { v H : H ∈ ( I<br />

p)}<br />

ist dann eine Basis des Vektorraums<br />

∧ p<br />

(<br />

V<br />

)<br />

aller p-Vektoren.<br />

Die Konstruktion der Grassmann-Algebra<br />

Die Elemente von ∧ p ( V ) nennt man manchmal auch die alternierenden Multivektoren der<br />

Stufe p. Den Raum ∧ 1 ( V ) identifiziert man man dem Vektorraum V . Den Skalarenkörper<br />

K fügt man als den eindimensionalen Raum ∧ 1 ( V ) . Die direkte Summe<br />

n⊕<br />

p∧(<br />

V<br />

)<br />

= K ⊕ V ⊕<br />

2∧(<br />

V<br />

)<br />

⊕ · · · ⊕<br />

n<br />

∧(<br />

V<br />

)<br />

p=0<br />

erhält die Struktur einer assoziativen nichtkommutativen Algebra, indem man das Dachprodukt<br />

als eine Produktbildung auf diesem 2 n - dimensionalen K-Vektorraum versteht:<br />

Für faktorisierbare p-Vektoren P ∈ ∧ p ( V ) und Q ∈ ∧ q ( V ) ist P ∧Q der p+q-Vektor,<br />

der durch das Zusammenfügen der beiden Dachprodukte entsteht.<br />

Man beachte<br />

(−1) p·q · Q ∧ P = P ∧ Q.<br />

(<br />

P ∧ Q<br />

)<br />

∧ R = P ∧<br />

(<br />

Q ∧ R<br />

)<br />

.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.11 : Alternierende Multilinearformen 77<br />

Wenn P und Q als Summen von Dachprodukten gegeben sind, dann wird distributiv<br />

ausmultipliziert.<br />

(∑<br />

a α · w α 1 ∧ · · ) (∑<br />

·wα p ∧ b β · w β 1 ∧ · · ) ∑<br />

·wβ q = a α b β · w α 1 ∧ · · ·wα p ∧ wβ 1 ∧ · · ·wβ q .<br />

α<br />

β<br />

Beachte: Wenn man einen der Faktoren nach den Regeln der alternierenden Multilinearität<br />

umrechnet, dann ergibt das auch zulässige Umrechnungen <strong>für</strong> das Dachprodukt. Die<br />

Dachproduktbildung ist also in der Grassmann-Algebra wohldefiniert, und sie erfüllt die<br />

Distributivgesetze.<br />

Beispiel. Es sei n = 3, p = 2. Eine Basis von V sei {e 1 , e 2 , e 3 }. Die duale Basis sei<br />

{x, y, z}. Der Raum der 2-Vektoren ist dreidimensional. Seine Elemente haben die Form<br />

a·e 1 ∧e 2 +b·e 1 ∧e 3 +c·e 2 ∧e 3 . Wir haben hier insofern einen besonderen Fall vor uns, als<br />

wir jeden 2-Vektor als ein Dachprodukt schreiben können, im Falle a ≠ 0 beispielsweise<br />

a · e 1 ∧ e 2 + b · e 1 ∧ e 3 + c · e 2 ∧ e 3 = 1 a (a · e 1 − c · e 3 ) ∧ (a · e 2 + b · e 3 ).<br />

Das ist eine Spezialität der Konstellation p = n − 1. Die 2-Vektoren in einem 3-dimensio<br />

nalen (reellen) Vektorraum stellt man sich als Flächenstücke vor. Zunächst denkt man<br />

vielleicht an Parallelogramme, die man noch umformen kann, ohne aus der aufgespannten<br />

Ebene herauszugehen: a∧(b−c·a) = a∧b = −b∧a = (c·b)∧( 1 a). Die beiden Faktoren<br />

c<br />

in der Dachproduktdarstellung bilden eine Basis der betreffenden Ebene.<br />

Die 3-Vektoren im 3-dimensionalen (reellen) Vektorraum stellt man sich als Raumstücke<br />

vor. Man kann sie in ihrer Größe vergleichen. Im reellen Fall bringen sie auch noch<br />

eine Orientierung zum Ausdruck. Wenn nämlich e ′ 1 ∧ e′ 2 ∧ e′ 3<br />

ein positives Vielfaches von<br />

e 1 ∧ e 2 ∧ e 3 ist, dann sagt man, die beiden Basen (in der gegebenen Aufzählung ihrer<br />

Elemente) sind gleich orientiert.<br />

Sprechweise 5.11.1. Wir haben hier ein Element der Grassmann-Algebra zu V , welches<br />

homogen ist vom Grade p einen p-Vektor genannt. Manchmal nennt man ein solches<br />

Objekt auch einen alternierenden Tensor der Stufe p zum Vektorraum V . Ein homogenes<br />

Element der Grassmann-Algebra ∧ p ( V ∗) heisst eine alternierende p-Form <strong>für</strong> den<br />

Vektorraum V . Besonders wichtig sind die Dachprodukte von p Vektoren und die Dachprodukte<br />

von p Linearformen. Man nennt sie die faktorisierbaren p-Vektoren bzw. die<br />

faktorisierbaren Multilinearformen.<br />

Mit den faktorisierbaren Dachprodukten kann man eine überzeugende geometrische<br />

Vorstellung verbinden. Man betrachtet die Vielfachen eines p-fachen Dachprodukts als<br />

spezielle Geraden in der Grassmann-Algebra, welche in einer natürlichen eineindeutigen<br />

Beziehung zu den p-dimensionalen Teilvektorräumen von V stehen. Wenn nämlich P =<br />

w 1 ∧ w 2 ∧ . . . ∧w p ein nichtverschwindendes p-faches Dachprodukt ist, dann spannen die<br />

beteiligten w j einen p-dimensionalen Teilvektorraum auf; und ein Vektor w liegt genau<br />

αβ<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


78 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

dann in diesem Teilraum, wenn er P annihiliert in dem Sinne 0 = P ∧ w. Jeden (n − 1)-<br />

Vektor P kann als ein (n − 1)-faches Dachprodukt schreiben. Man muss sich nur eine<br />

Basis des Annihilators besorgen. Wenn p /∈ {1, n − 1}, dann kann man nicht jeden p-<br />

Vektor als ein p-faches Dachprodukt schreiben. Die Algebraiker nennen die Menge der<br />

faktorisierbaren Dachprodukte die Grassmann-Mannigfaltigkeit zu V .<br />

<strong>Det</strong>erminanten und Unterdeterminanaten<br />

Im Matrizenkalkül interessiert man sich <strong>für</strong> den<br />

Satz 5.11.3 (Charakterisierung der <strong>Det</strong>erminante). Auf der Menge aller I × I-Matrizen<br />

mit Einträgen aus K gibt es genau eine K-wertige Funktion, welche als Funktion der<br />

Spalten (oder Zeilen) multilinear und alternierend ist, und in der Einheitsmatrix den Wert<br />

1 hat. Diese Funktion det(·) ist multiplikativ, d. h. es gilt det(A · B) = det(A) det(B).<br />

Beweis<br />

Wenn es eine Funktion mit den angegebenen Eigenschaften gibt, dann verschwindet diese<br />

<strong>für</strong> die singulären Matrizen; denn man kann in diesem Falle eine Zeile als Linearkombination<br />

der übrigen Zeilen schreiben. Bei einer nichsingulären Matrix können wir durch eine<br />

Folge von elementaren Spaltenumformungen eine Matrix erzeugen, die in jeder Zeile genau<br />

einen nichtverschwindenden Eintrag hat. (Von den gegebenen Zeilen werden immer wieder<br />

Vielfache der übrigen Spalten subtrahiert, bis diese Form erreicht ist; diese Umformungen<br />

ändern nicht den Wert der <strong>Det</strong>erminante.) Die Positionen der nichtverschwindenden<br />

Einträge bestimmen eine Permutation der Indexmenge I. Der Wert der <strong>Det</strong>erminante ist<br />

das Produkt der nichtverschwindenden Einträge multipliziert mit dem Vorzeichen dieser<br />

Permutation.– Das ist der Eindeutigkeitsbeweis.<br />

Die Existenz ergibt sich aus der expliziten Formel ( ‘Formel von Leibniz’)<br />

(59) det A = ∑ sign<br />

( )<br />

i1 i 2 . . . i p<br />

1 2 . . . p<br />

· a i 1<br />

1 a i 2<br />

2 · · ·a ip<br />

p .<br />

Betrachten wir <strong>für</strong> eine nichtsinguläre Matrix B die Funktion A ↦−→ det(A · B). Sie ist<br />

multilinear und alternierend und daher ein Vielfaches der <strong>Det</strong>erminantenfunktion. Dies<br />

beweist die Multiplikativität.<br />

Man bemerke, dass in unserer Formulierung des Satzes die Anordung der Indexmenge<br />

keine Rolle spielt. Man kann auf die Festlegung einer Reihenfolge verzichten, weil man eine<br />

ausgezeichnete Bijektion der Menge der Spaltenindizes auf die Menge der Zeilenindizes<br />

hat, die Identität nämlich. Wenn man die <strong>Det</strong>erminante einer I ×J-Matrix definieren will,<br />

dann geht das nur, wenn man festlegt, welche Bijektionen I ↔ J als die geraden, und<br />

welche als die ungeraden gelten sollen. Es geht nicht darum, die Zeilen und Spalten in einer<br />

fixen Reihenfolge aufzuschreiben; man muss nur daran denken, dass die mit elementaren<br />

Umformungen umgeformten Zeilen und Spalten ihren Namen behalten.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.11 : Alternierende Multilinearformen 79<br />

Die Minoren einer Matrix<br />

Für die nächsten Überlegungen wird es bequem sein, wenn wir uns die Indexmengen<br />

vollständig geordnet denken. Wir wollen Teilmatrizen A K H einer gegebenen I ×J-Matrix<br />

A I J betrachten, die dadurch entstehen, dass man die Zeilen streicht, die nicht zu K<br />

gehören und die Spalten, die nicht zu H gehören |K| = |H|. Die <strong>Det</strong>erminantenfunktionen<br />

det A K H zu solchen Teilmatrizen sollen die mit der Reihenfolge verträglichen Bijektionen<br />

als gerade Bijektionen betrachten.<br />

det A K H<br />

heißt der Minor zu K × H<br />

Wir übernehmen die Anordnung der Zeilen und Spalten von der ursprünglichen Anordnung<br />

in der Matrix A.<br />

1 . . . H . . . n<br />

1<br />

.<br />

◦ ◦ ◦<br />

◦ ◦ ◦<br />

K<br />

◦ ◦ ◦<br />

.<br />

m<br />

Die Entwicklung nach der ersten Spalte<br />

Wir denken uns die Spalten der Matrix A als Linearkombination der Einheitsspalten e i<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


80 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

gegeben: v j = ∑ i e i · a i j. Es gilt<br />

(60)<br />

v 1 ∧ v 2 ∧ . . . ∧ v n = v 1 ∧ ∑<br />

a i 2 2 · · ·a in n · e i2 ∧ · · · ∧ e in<br />

i 2 ...i n<br />

= e 1 · a 1 1 ∧ ∑<br />

a i 2 2 · · ·a in n · e i2 ∧ · · · ∧ e in +<br />

=<br />

i 2 ...i n≠1<br />

+e 2 · a 2 1 ∧ ∑<br />

i 2 ...i n≠2<br />

+ · · · · · ·<br />

+e n · a n 1 ∧ ∑<br />

i 2 ...i n≠n<br />

a i 2 2 · · ·a in n · e i2 ∧ · · · ∧ e in +<br />

a i 2 2 · · ·a in n · e i2 ∧ · · · ∧ e in<br />

(<br />

)<br />

a 1 1C 1 1 + a 2 1C 1 2 + · + a n 1C 1 n<br />

· e 1 ∧ e 2 ∧ . . . ∧ e n .<br />

Hierbei ist (−1) i+1 C i 1 der Minor, wo die i-te Zeile und die erste Spalte gestrichen ist. Der<br />

richtige, aber etwas komplizierte Name wäre C i 1 = (−1) i+1 det A I\{i} J\{1}. Die Vorzeichen<br />

kommen daher, dass der voranstehende Faktor e i an der i-ten Stelle eingegliedert wird.<br />

Hinweis: Früher brauchte man <strong>für</strong> die Zahlen C j i den Namen Cofaktor. Die Cofaktoren<br />

sind bis auf den gemeinsamen Faktor det A die Einträge der inversen Matrix A −1 . Wir<br />

formulieren das als<br />

Satz 5.11.4. Wenn C j i = (−1) i+j det A I\{i} J\{j}, dann gilt<br />

(61)<br />

∑<br />

C j i · a i k =<br />

i<br />

{<br />

det A<br />

falls k = j<br />

0 falls k ≠ j .<br />

Den Fall k = j = 1 haben wir eben abgehandelt. Wenn wir in der ersten Spalte nicht<br />

v 1 , sondern ein anderes v k eingesetzt hätten, dann hätten wir den Wert 0 erhalten. Die<br />

Fälle j ≠ 1 erledigen sich durch Umstellen.<br />

Als Konsequenz ergibt sich die sog Cramer’sche Regel.<br />

Satz 5.11.5. Wenn A eine nichtsinguläre Matrix ist, dann hat das Gleichungssystem<br />

A · x = b <strong>für</strong> jedes b genau eine Lösung, und die ergibt sich mit Hilfe der Matrix C der<br />

Cofaktoren.<br />

x = A −1 · b = 1<br />

det A · C · b.<br />

Für den Eintrag x j des Lösungsvektors in der Position j bedeutet das<br />

)<br />

x j · det A = det<br />

(v 1 , · · · , b, · · · , v n .<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.11 : Alternierende Multilinearformen 81<br />

Beweis: Bei der Lösung des Gleichungssystems geht es darum, die Spalte b = als Linearkombination<br />

der Spalten v j darzustellen. Wenn wir den Spaltenvektor b = (∑ )<br />

x j v j<br />

an der Stelle j ins Dachprodukt einbringen, dann ergibt sich<br />

(∑ )<br />

)<br />

v 1 ∧ · · · ∧ x j v j ∧ · · · ∧ v n = x j ·<br />

(v 1 ∧ . . . ∧ v n<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


82 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

5.12 <strong>Det</strong>erminanten und Unterdeterminanten<br />

Für diejenigen, die noch eine Weile an den klassischen Ausdrucksweisen festhalten wollen,<br />

präsentieren wir hier einige Resultate der Theorie der p-Formen und p-Vektoren in der<br />

Sprache des Matrizenkalküls. Vertrautheit mit den Permutationen wird vorausgesetzt,<br />

ausserdem die Idee der Matrix eines Basiswechsels. Die Idee der Vektorraumdualität wird<br />

nicht vorausgesetzt, und auch nur wenig Wissen über lineare Gleichungssysteme.<br />

Im Matrizenkalkül interessiert man sich <strong>für</strong> den<br />

Char<strong>Det</strong> Satz 5.12.1 (Charakterisierung der <strong>Det</strong>erminante). Auf der Menge aller I × I-Matrizen<br />

mit Einträgen aus K gibt es genau eine K-wertige Funktion, welche als Funktion der Spalten<br />

(oder Zeilen) multilinear und alternierend ist, und in der Einheitsmatrix E den Wert<br />

1 hat. Diese Funktion det(·) ist multiplikativ, d. h. es gilt det(A · B) = det(A) det(B).<br />

Beweis<br />

Wir beweisen mehr. Wir zeigen, dass der Vektorraum aller alternierenden n-Formen<br />

auf dem n-dimensionalen Raum aller I-Spalten eindimensional ist. (Diese Formen nennt<br />

man auch <strong>Det</strong>erminantenfunktionen.) Um eine spezielle alternierende n-Form festzulegen,<br />

genügt es, ihren Wert in einer einzigen Permutationsmatrix festzulegen.<br />

Zeigen wir zuerst die Eindeutigkeit: Es sei Φ eine Funktion auf der Menge der angeordneten<br />

nTupel von I-Spalten mit der Eigenschaft, dass sich ihr Wert nicht ändert,<br />

wenn man von irgendeiner Spalte ein Vielfaches einer anderen Spalte subtrahiert. Man<br />

sieht sofort: Bei einer nichsingulären Matrix können wir durch eine Folge solcher Spaltenumformungen<br />

eine Matrix erzeugen, die in jeder Zeile genau einen nichtverschwindenden<br />

Eintrag hat. Die Positionen der nichtverschwindenden Einträge bestimmen eine Permutation<br />

der Indexmenge I. Man nennt Φ eine <strong>Det</strong>erminantenfunktion, wenn ausserdem noch<br />

die Multiplikation einer Spalte mit dem Faktor c den Wert von Φ mit c multipliziert.<br />

Es ist nun klar: der Wert der <strong>Det</strong>erminantenfunktion Φ in dem gegebenen angeordneten<br />

Tupel von Spalten ist das Produkt der nichtverschwindenden Einträge multipliziert mit<br />

dem Wert in der betreffenden Permutationsmatrix.<br />

(Im Hinblick auf die Überlegungen unten bemerken wir schon hier, dass wir diese Permutationsmatrix<br />

wir als eine Bijektion der Menge der Zeilenindizes auf die Menge der<br />

Spaltenindizes verstehen.) Die Werte in den gleichgerichteten Permutationen unterscheiden<br />

sich nicht, in entgegengesetzten Permutationen unterscheiden sie sich um den Faktor<br />

−1. Es gibt also höchstens eine Funktion mit den angegebenen Eigenschaften. Und daraus<br />

folgt ihre Multiplikativität. Betrachten wir nämlich <strong>für</strong> eine nichtsinguläre Matrix B die<br />

Funktion A ↦−→ Φ(A · B). Diese ist multilinear und alternierend und daher bis auf den<br />

Faktor ΦB = Φ(E · B) die Funktion Φ(·). <strong>Det</strong>erminantenfunktion.<br />

Die Existenz ergibt sich aus der expliziten Formel ( ‘Formel von Leibniz’)<br />

(62) det A = ∑ sign<br />

( )<br />

i1 i 2 . . . i p<br />

· a i 1<br />

1 2 . . . p 1 a i 2<br />

2 · · ·a ip<br />

p .<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.12 : <strong>Det</strong>erminanten und Unterdeterminanten 83<br />

Didaktischer Hinweis: Wenn man im elementaren Unterricht erklärt, eine m × n-Matrix<br />

sei ein rechteckiges Schema von Elementen aus einem Körper, dann denkt man (mehr<br />

oder weniger bewusst), dass es da eine erste, zweite,...,m-te Zeile gibt, und eine erste,<br />

zweite, ..., n-te Spalte. Beim Begriff der I × J-Matrix, wie wir ihn verwenden, ist von<br />

einer Anordnung der Indexmengen I und J nicht die Rede.Und bei Gelegenheiten wie der<br />

Pivot-Transformation war es sehr bequem, dass wir uns die Zeilen und Spalten in einer<br />

beliebigen Anordnung aufschreiben durften. Allerdings mussten wir immer darauf, wohin<br />

die Indizes aus I + J wanderten. Bei uns hatten die Zeilen und Spalten Namen (und<br />

zunächst einmal keine Positionen). Dabei gingen wir davon aus, dass die Indexmengen I<br />

und J disjunkt sind. Wenn wir dennoch schon manchmal von einer I×I-Matrix gesprochen<br />

haben, dann war das ungenau; wir gingen in diesen Fällen davon aus, dass uns (zusätzlich!)<br />

eine ausgezeichnete Bijektion I ↔ J gegeben ist.<br />

Den Anfängern wird gesagt, dass sich die <strong>Det</strong>erminantentheorie auf n × n-Matrizen<br />

bezieht, deren Zeilen und Spalten durch die Zahlen 1, 2, . . ., n identifiziert seien. Dem<br />

wollen wir nicht unbedingt zustimmen. Es ist natürlich notwendig, darauf hinzuweisen,<br />

dass die Vertauschung von Zeilen oder Spalten (die man bei Rechnungen schon gern<br />

einmal ins Spiel bringt) Aufmerksamkeit erfordert, wenn es um <strong>Det</strong>erminanten geht. Man<br />

muss bedenken: Wenn man von der <strong>Det</strong>erminante einer I × J-Matrix (als einem Skalarl)<br />

sprechen will, dann geht das nur, wenn man festlegt, <strong>für</strong> welche Bijektionen I ↔ J die<br />

Permutationsmatrizen den Wert +1 haben sollen. Wir sollten das vielleicht noch etwas<br />

genauer sagen: Wenn τ und σ Bijektionen I → J sind, dann nennt man sie gleichgerichtet,<br />

wenn σ ◦τ −1 eine gerade Permutation ist, andernfalls nennt man sie verschieden gerichtet.<br />

Die Menge aller Bijektionen zerfällt in zwei Klassen.Und die Frage nach der <strong>Det</strong>erminante<br />

einer Matrix vom Format I ×J bezieht sich immer auch auf die Entscheidung <strong>für</strong> eine der<br />

beiden Klassen gleichgerichteter Bijektionen I ↔ J. Die Formel det(A ·B) = det A ·det B<br />

ist nur dann richtig, wenn die drei Entscheidungen zusammenpassen; andernfalls ist das<br />

Vorzeichen zu ändern.<br />

Was das heisst, wird augenfällig, wenn man an die Matrizen von Basiswechseln denkt.<br />

Gegeben seien Basen eines Vektorraums V.<br />

{u i : i ∈ I}, {v j : j ∈ J}, {w k : k ∈ K} mit<br />

v j = ∑ i<br />

u i · a i j;<br />

w k = ∑ j<br />

v j · b j k = ∑ i<br />

u i · c i k.<br />

Wir haben also Matrizen A I J, B J K, C I K = A I J · B J K. Wenn wir die n-fachen Dachprodukte<br />

in irgendeiner Reihenfolge aufschreiben, dann erhalten wir Skalare a, b, c mit<br />

(∑ ) (∑ )<br />

v j1 ∧ · · · ∧ v jn = u i1 · a i 1<br />

j1 ∧ · · · ∧ u in · a in j n<br />

= a · u 1 ∧ · · · ∧ u n ,<br />

i 1 i n<br />

w k1 ∧ · · · ∧ w kn = b · v j1 ∧ · · · ∧ v jn = b · a · u 1 ∧ · · · ∧ u n .<br />

Die Zahlen a, b, c sind bis auf das Vorzeichen die <strong>Det</strong>erminanten von A, B, C. Es<br />

hängt nicht von der Reihenfolge ab, in welcher wir die v j aufgelistet werden (man wird<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


84 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

sie natürlich in beiden Gleichungen gleichgerichtet aufzählen), wohl aber von den in den<br />

Indexmengen I und K gewählten Anordnungen, ob c = a·b richtig ist oder c = −a·b.<br />

Wenn es bei B um die Rücktransformation geht, wenn also die w-Basis wieder die u-Basis<br />

ist in der gleichen Ausrichtung, dann haben wir a · b = 1. Die <strong>Det</strong>erminante der inversen<br />

Matrix ist in jedem Falle die Reziproke der Ausgangsmatrix.<br />

Fazit: Die <strong>Det</strong>erminante einer I × J-Matrix ist nur bis auf einen Faktor ±1 definiert,<br />

wenn man keine der beiden Klassen von gleichgerichteten Bijektionen I ↔ als die ‘positive’<br />

auszeichnet. Wir können aber darauf hinweisen, dass die Vorzeichenfrage bei den reellen<br />

Matrizen speziellen Aspekt besitzt. Man kann dort nämlich aufgrund des Vorzeichens<br />

der <strong>Det</strong>erminanten einen Unterschied machen zwischen den gleichorientierten und den<br />

verschiedenorientierten Basen.— Und die Orientierung ist in der Tat ein wichtiges Thema<br />

in der reellen Geometrie.<br />

Warnung: Die Fragen der Anordnung von Zeilen und Spalten sind ziemlich langweilig<br />

und unschön. Die folgenden Überlegungen können nur demjenigen Lesern zur Lektüre<br />

empfohlen werden, der sich eingehend mit verallgemeinerten Dreiecksmatrizen befassen<br />

will. Wer kein starkes Interesse an Vorzeichenfragen hat, sollte sofort zu unserem ‘Produktsatz’<br />

<strong>für</strong> Dreiecksmatrizen übergehen, welcher die Vorzeichenfrage ausklammert.<br />

Sprechweise 5.12.1 (Matrizen mit angeordneten Reihen). Für die folgenden Konstruktionen<br />

wird es nötig sein, dass wir uns die Indexmengen der Matrizen als vollständig<br />

geordnet denken. Dabei verstehen wir Anordnungen der Indexmengen I und J als injektive<br />

Abbildungen α : I → N und β : J → N. Wenn wir α(·) und β(·) spezifiziert<br />

haben dann sprechen wir von einer Matrix mit angeordneten Reihen oder kurz von einer<br />

angeordneten Matrix. Die i-te Zeile der angeordneten I × J-Matrix heisst die Zeile in der<br />

Position α(i). Die j-te Spalte heisst die Spalte in der Position β(j). Eine Umordnung der<br />

Reihen kommt dadurch zustande, dass wir den Wertebereich von α mit einer Permutation<br />

σ und den Wertebereich von β mit einer Permutation τ permutieren. Im Hinblick auf die<br />

<strong>Det</strong>erminantenbildung nennen wir das Paar (σ ◦ α, τ ◦ β) eine vorzeichenneutrale Umordnung<br />

der Reihen, wenn entweder beide Permutationen σ und τ gerade sind oder beide<br />

ungerade ; wenn die eine Permutation gerade und die andere ungerade ist, dann entsteht<br />

eine vorzeichenändernde Anordnung der Reihen.<br />

In vielen Fällen wird der Wertebereich von α(·) die lückenlose Zahlenmenge {1, 2, . . ., m}<br />

sein, und auch β(J) = {1, 2, . . ., n}. (In diesem Fall sprechen wir von aufgezählten Zeilen<br />

und Spalte). Wir wollen aber nicht auf einer Aufzählung bestehen, weil wir α(·) und β(·)<br />

auch dazu benützen wollen, die Reihen von Teilmatrizen anzuordnen; wir können von<br />

der induzierten Anordnung der Reihen sprechen. Andererseits können wir von der r × r-<br />

Matrix in der linken oberen Ecke sprechen bzw. von der (n − r) × (n − r)-Matrix in der<br />

rechten unteren Ecke. Nachdem wir bisher mit Matrizen gearbeitet haben, in welchen eine<br />

Anordnung überflüssig war, war es kein Problem, von unterteilten Matrizen zu sprechen;<br />

es ging nur um Partitionen der Indexmengen I und J.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.12 : <strong>Det</strong>erminanten und Unterdeterminanten 85<br />

iIm Hinblick auf das Vorzeichen der <strong>Det</strong>erminanten müssen wir genauer sein, wenn<br />

es um das Unterteilen einer Matrix geht. Betrachten wir partitionierte Indexmengen I =<br />

I | +I ‖ und J = J | +J ‖ . Es ist klar, was es heisst, wenn wir sagen, dass wir die Teilmatrix<br />

A I| J in die linke obere Ecke bringen und gleichzeitig die Teilmatrix | AI‖ J ‖| in die rechte<br />

untere Ecke, ohne die interne Anordnung der Reihen anzutasten. Eine solche Umordnung<br />

der Reihen erfordert wohlbestimmte Permutationen σ und τ. Sie kann vorzeichenneutral<br />

sein oder vorzeichenändernd.<br />

Betrachten wir als Beispiel das Vorhaben, den Eintrag a∗ in der Position (i∗, j∗) in<br />

die linke obere zu bringen, ohne die interne Anordnung der Reihen im Rest anzutasten.<br />

Dabei nehmen wir jetzt aber doch an, dass bei der I ×J-Matrix die Zeilen und die Spalten<br />

in die Positionen 1, 2, . . ., n positioniert sind. In diesem Fall ist eine vorzeichenändernde<br />

Umordnung der Reihen genau dann gefordert, wenn α(i∗) + β(j∗) eine ungerade Zahl<br />

ist. Allgemeiner gilt: Für das Vorhaben, ein Paar (I | , J ‖ in die linke obere Ecke zu<br />

bringen, ist eine vorzeichenändernde Umordnung der Reihen genau dann erforderlich,<br />

wenn ∑ i∈I<br />

α(i) + ∑ | j∈J<br />

β(j) ungerade ist. Es ist dieser Fall, der uns unten im Satz 5.8.3<br />

|<br />

das negative Vorzeichen abverlangt.<br />

Verallgemeinerte Dreiecksmatrizen<br />

Wenn die Zeilen und Spalten einer I × J-Matrix mit |I| = |J| = n angeordnet sind, dann<br />

ist klar, was eine untere (bzw. obere) Dreiecksmatrix ist. Wir wollen nun auch gewisse<br />

unterteilte Matrizen als verallgemeinerte Dreiecksmatrizen verstehen.<br />

Sprechweise 5.12.2. Es seien Partitionen der Indexmengen gegeben I = I 1 +I 2 +· · ·+I l ,<br />

J = J 1 + J 2 + · · · + J l mit |I 1 | = |J 1 | = n 1 ; |I 2 | = |J 2 | = n 2 ; . . .; |I l | = |J l | = n l Wir sagen,<br />

die I × J-Matrix sei eine obere Dreicksmatrix bzgl. der Ausschöpfungen I 1 ⊂ I 1 + I 2 ⊂<br />

· · · ⊂ I 1 + I 2 + · · · + I l = I und J 1 ⊂ J 1 + j 2 ⊂ · · · ⊂ J 1 + J 2 + · · · + J l = J, wenn die<br />

Teilmatrizen ‘unter der Diagonale’ Nullmatrizen sind: A Is J t<br />

= 0 <strong>für</strong> s > t.<br />

A I J =<br />

⎛<br />

⎞<br />

A I 1<br />

J1 A I 1<br />

J2 A I 1<br />

J3<br />

⎜ 0 A I 2<br />

J2 A I 2<br />

J3<br />

⎟<br />

⎝<br />

⎠ .<br />

0 0 A I 3<br />

J3<br />

Satz 5.12.2 (Produkte von Dreiecksmatrizen). Das Produkt oberer Dreiecksmatrizen ist<br />

eine obere Dreiecksmatrix; das Produkt unterer Dreiecksmatrizen ist eine untere Dreiecksmatrix,<br />

Die <strong>Det</strong>erminante einer oberen (oder unteren) Dreiecksmatrix ist (bis auf das<br />

Vorzeichen) das Produkt der <strong>Det</strong>erminanten entlang der Diagonalen.<br />

Beweis<br />

Für die üblichen Dreicksmatrizen, wo die Indexmenge in Einerschritten ausgeschöpft wird,<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


86 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

liegt der Beweis auf der Hand. In der Leibnizformel gibt es nämlich in diesem Fall nur<br />

eine Permutation, die einen Beitrag zur <strong>Det</strong>erminante leistet, und zwar die Permutation<br />

entlang der Diagonalen.<br />

Im allgemeinen Fall muss man zuerst einmal präzisieren. Es ist selbstverständlich zu<br />

fordern. dass die unterteilten Faktoren A = A I J und B = B J K in einer mit der Unterteilung<br />

verträglichen Weise miteinander multipliziert werden, d. h. , dass die Ausschöpfung<br />

der Menge J der Spaltenindizes von A dieselbe ist wie die Ausschöpfung der Menge der<br />

Zeilenindizes von B. In diesem Fall entstehen unter der Diagonalen Nullmatrizen und<br />

entlang der Diagonalen die Matrizen C 11 = A 11 · B 11 , C 22 = A 22 · B 22 , . . .,C ll = A ll · B ll .<br />

Betrachten wir diejenigen I×I-Matrizen, die bezüglich der Ausschöpfung I 1 ⊂ I 1 +I 2 ⊂<br />

· · · ⊂ I 1 + I 2 + · · · + I l = I (<strong>für</strong> Zeilen und Spalten) untere Dreieckmatrizen sind. Wenn<br />

man die <strong>Det</strong>erminantenfunktion einschränkt auf die Menge derjenigen unteren Dreiecksmatrizen,<br />

die in allen Diagonalkästen ausser dem ersten die Einheitsmatrix haben, dann<br />

erhält man nach dem Satz 78 die <strong>Det</strong>erminantenfunktion auf der Menge aller Matrizen<br />

vom Format I 1 × I 1 . Dies gilt ebenso <strong>für</strong> die übrigen quadratischen Teilmatrizen. Und so<br />

ergibt sich die Produktzerlegung der <strong>Det</strong>erminantenfunktion auf der Menge der verallgemeinerten<br />

unteren Dreiecksmatrizen zur gegebenen Ausschöpfung der Indexmenge.<br />

Wir diskutieren eine ‘Anwendung’ auf die Thematik des Pivot-Austauschs. Bei einem<br />

maximalen Austausch <strong>für</strong> eine nichtsinguläre Matrix A I J gelangen wir zur inversen Matrix<br />

(vom Format J × I). Auf dem Weg haben wir Pivot-Positionen (i 1 , j 1 ), . . .,(i n , j n )<br />

zu wählen (und dort jeweils den Einträge α 1 , . . .,α n durch die Reziprokwerte 1<br />

α 1<br />

, . . ., 1<br />

α n<br />

zu ersetzen). Die Zahlen α k sollte man sich merken. Ihr Produkt ergibt nämlich die <strong>Det</strong>erminante<br />

der invertierten Matrix. Die Aussage werden wir allerdings nur bis auf das<br />

Vorzeichen beweisen; <strong>für</strong> einen Satz, der auch das Vorzeichen richtig liefert, bräuchten wir<br />

die diffizilen Aussagen über Matrizen mit angeordneten Reihen, die wir oben entwickelt<br />

haben.<br />

<strong>Det</strong>Piv Satz 5.12.3 (Die <strong>Det</strong>erminanten zum Pivot-Austausch). Es seien wie im Satz ?? A und<br />

B unterteilte Matrizen<br />

A =<br />

mit A 11 · B 11 = E und<br />

( )<br />

A11 A 12<br />

A 21 A 22<br />

B =<br />

( )<br />

B11 B 12<br />

B 21 B 22<br />

B 21 = −A 21 · A −1<br />

11 , B 12 = A −1<br />

11 · A 12, B 22 = A 22 − A 21 · A −1<br />

11 · A 12.<br />

Es gilt dann ± det A = det A 11 · det B 22 .<br />

(Das Vorzeichen werden wir später diskutieren.)<br />

Beweis<br />

Das Prinzip, aber auch die Vorzeichenproblematik wird deutlich, wenn wir zuerst den Fall<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.12 : <strong>Det</strong>erminanten und Unterdeterminanten 87<br />

eines einfachen Pivot- Tauschs <strong>für</strong> eine 2 × 2-Matrix betrachten.<br />

A =<br />

( ) a b<br />

c d<br />

( 1<br />

)<br />

b<br />

B = a a<br />

− c d − c 1b a a<br />

Die behauptete Produktdarstellung von det A ist richtig, wenn wir die gegeben Aufzählung<br />

der Reihen als Repräsentanten einer positiven Bijektion nehmen. Wenn wir um die Pivot-<br />

Position (1, 2) ‘drehen’, dann ergibt das Produkt der beiden Pivoteinträge den Wert bc −<br />

ad.<br />

Den Beweis können wir aber auch so führen, dass er <strong>für</strong> eine beliebige invertierbare<br />

Matrix am linken oberen Ende eine n × n-Matrix passt. Es gilt<br />

( ) (<br />

A11 A 12 E −A<br />

−1<br />

11 A )<br />

12<br />

=<br />

A 22 0 E<br />

A 21<br />

( )<br />

A11 0<br />

A 21 B 22<br />

Die <strong>Det</strong>erminanten der neu eingeführten verallgemeinerten Dreiecksmatrizen liefern das<br />

Ergebnis. Nach diesem Muster berechnen wir eine <strong>Det</strong>erminante, die uns später noch<br />

beschäftigen wird.<br />

Wir wollen die Konstruktion der k-Vektoren auf einige klassische Themen der <strong>Det</strong>erminantenlehre<br />

anwenden.<br />

I. Die Minoren einer Matrix<br />

Wenn man aus einer m ×n-Matrix A einige Spalten und einige Zeilen streicht, sodass nur<br />

noch die Zeilen zu den Indizes ∈ K und die Spalten zu den Indizes ∈ H übrig bleiben<br />

(<br />

|H| = k = |K|<br />

)<br />

, so erhält man eine k × k-Teilmatrix, die wir mit A<br />

K<br />

H bezeichnen.<br />

(Mit dem oberen Index werden bei uns die Zeilen indiziert, der untere Index verweist auf<br />

Spalten.)<br />

det A K H heißt der Minor zu K × H .<br />

Hier übernehmen wir die Anordnung der Zeilen und Spalten von der ursprünglichen Anordnung<br />

in der Matrix A.<br />

1 ≤ m 1 < m 2 < . . .m k ≤ m mit {m 1 , . . .,m k } = K<br />

1 ≤ n 1 < n 2 . . . < n k ≤ n mit {n 1 , . . .,n k } = H .<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


88 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

1 . . . H . . . n<br />

1<br />

.<br />

◦ ◦ ◦<br />

◦ ◦ ◦<br />

K<br />

◦ ◦ ◦<br />

.<br />

m<br />

Satz (Spezielle Basiswechsel in Λ k V )<br />

Seien {v 1 , . . .,v n } und {w 1 , . . .,w n } Basen von V<br />

(w 1 , . . .,w n ) = (v 1 , . . .,v n ) · A , w j = ∑ v i · a i j ;<br />

(v 1 , . . .,v n ) = (w 1 , . . .,w n ) · B , v i = ∑ w j · b j i .<br />

Für k-Teilmengen K und H ⊆ {1, 2, . . ., n} definieren wir<br />

v K = v m1 ∧ . . . ∧ v mk mit 1 ≤ m 1 < . . . < m k ≤ m = n<br />

w H = w n1 ∧ . . . ∧ v nk mit 1 ≤ n 1 < . . . < n k ≤ n.<br />

Sowohl die {v K : |K| = k} als auch die {w H : |H| = k} sind eine Basis von Λ k V .<br />

Die Einträge in der Matrix des Basiswechsels sind die Minoren. Es gilt<br />

w H = ∑ v K · det ( )<br />

A K H<br />

K<br />

v K = ∑ w H · det ( BK) H .<br />

H<br />

Beweis<br />

Sei n 1 < n 2 < . . . < n k mit {n 1 , . . .,n k } = H. Dann gilt<br />

w H = (∑ ) (∑ )<br />

v i1 · a i 1<br />

n1<br />

∧ . . . ∧ vik · a i k<br />

nk<br />

= ∑<br />

n1<br />

. . . a i k<br />

nk · v i1 ∧ . . . ∧ v ik .<br />

i 1 ...i k<br />

a i 1<br />

Wir sammeln nach den (i 1 , . . .,i k ) mit {i 1 , . . .,i k } = K und stellen die Faktoren in aufsteigende<br />

Reihenfolge. signσ sei das Vorzeichen dieser Permutation.<br />

w n1 ∧ . . . ∧ w nk = ∑ K<br />

v K · ∑ signσ · a i 1<br />

n1 · . . . · a i k<br />

nk<br />

= ∑ v K · det ( A K H)<br />

q.e.d.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.12 : <strong>Det</strong>erminanten und Unterdeterminanten 89<br />

II. Cofaktoren und der Laplace’sche Entwicklungssatz<br />

Definition<br />

A = ( a i j)<br />

sei eine n × n-Matrix.<br />

Man streiche die h-te Spalte und die k-te Zeile. Man gewinnt den Cofaktor C h k zu ak h (in<br />

der Matrix A) aus der <strong>Det</strong>erminante dieser Matrix<br />

Die Minoren einer Matrix<br />

C h k := (−1) h+k · det A K H .<br />

Wir wollen Teilmatrizen A K H einer gegebenen I × J-Matrix A I J betrachten, die dadurch<br />

entstehen, dass man die Zeilen streicht, die nicht zu K gehören und die Spalten, die<br />

nicht zu H gehören |K| = |H|. Die <strong>Det</strong>erminantenfunktionen det A K H zu solchen Teilmatrizen<br />

sollen die mit der Reihenfolge verträglichen Bijektionen als gerade Bijektionen<br />

betrachten.<br />

det A K H heißt der Minor zu K × H<br />

Wichtig ist dabei, das wir die Anordnung der Zeilen und Spalten von der ursprünglichen<br />

Anordnung der Zeilen und Spalten in der großen Matrix A übernehmen.<br />

1 ≤ m 1 < m 2 < . . .m k ≤ m mit {m 1 , . . .,m k } = K<br />

1 ≤ n 1 < n 2 . . . < n k ≤ n mit {n 1 , . . .,n k } = H .<br />

1 . . . H . . . n<br />

1<br />

.<br />

◦ ◦ ◦<br />

◦ ◦ ◦<br />

K<br />

◦ ◦ ◦<br />

.<br />

m<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


90 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Die Entwicklung nach der ersten Spalte<br />

Wir denken uns die Spalten der Matrix A als Linearkombination der Einheitsspalten e i<br />

gegeben: v j = ∑ i e i · a i j. Es gilt<br />

(63)<br />

v 1 ∧ v 2 ∧ . . . ∧ v n = v 1 ∧ ∑<br />

a i 2 2 · · ·a in n · e i2 ∧ · · · ∧ e in<br />

i 2 ...i n<br />

= e 1 · a 1 1 ∧ ∑<br />

a i 2 2 · · ·a in n · e i2 ∧ · · · ∧ e in +<br />

=<br />

i 2 ...i n≠1<br />

+e 2 · a 2 1 ∧ ∑<br />

i 2 ...i n≠2<br />

+ · · · · · ·<br />

+e n · a n 1 ∧ ∑<br />

i 2 ...i n≠n<br />

a i 2 2 · · ·a in n · e i2 ∧ · · · ∧ e in +<br />

a i 2 2 · · ·a in n · e i2 ∧ · · · ∧ e in<br />

(<br />

)<br />

a 1 1C 1 1 + a 2 1C 1 2 + · + a n 1C 1 n<br />

· e 1 ∧ e 2 ∧ . . . ∧ e n .<br />

Hierbei ist (−1) i+1 C 1 i der Minor, wo die i-te Zeile und die erste Spalte gestrichen ist. Der<br />

richtige, aber etwas komplizierte Name wäre C 1 i = (−1) i+1 det A I\{i} J\{1}. Die Vorzeichen<br />

kommen daher, dass der voranstehende Faktor e i an der i-ten Stelle eingegliedert wird.<br />

Hinweis: Früher brauchte man <strong>für</strong> die Zahlen C j i den Namen Cofaktor. Die Cofaktoren<br />

sind bis auf den gemeinsamen Faktor det A die Einträge der inversen Matrix A −1 . Wir<br />

formulieren das als<br />

Satz 5.12.4. Wenn C j i = (−1) i+j det A I\{i} J\{j}, dann gilt<br />

(64)<br />

∑<br />

C j i · a i k =<br />

i<br />

{<br />

det A<br />

falls k = j<br />

0 falls k ≠ j .<br />

Den Fall k = j = 1 haben wir eben abgehandelt. Wenn wir in der ersten Spalte nicht<br />

v 1 , sondern ein anderes v k eingesetzt hätten, dann hätten wir den Wert 0 erhalten. Die<br />

Fälle j ≠ 1 erledigen sich durch Umstellen.<br />

Als Konsequenz ergibt sich die sog Cramer’sche Regel.<br />

Satz 5.12.5. Wenn A eine nichtsinguläre Matrix ist, dann hat das Gleichungssystem<br />

A · x = b <strong>für</strong> jedes b genau eine Lösung, und die ergibt sich mit Hilfe der Matrix C der<br />

Cofaktoren.<br />

x = A −1 · b = 1<br />

det A · C · b.<br />

Für den Eintrag x j des Lösungsvektors in der Position j bedeutet das<br />

)<br />

x j · det A = det<br />

(v 1 , · · · , b, · · · , v n .<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.12 : <strong>Det</strong>erminanten und Unterdeterminanten 91<br />

Beweis: Bei der Lösung des Gleichungssystems geht es darum, die Spalte b = als Linearkombination<br />

der Spalten v j darzustellen. Wenn wir den Spaltenvektor b = (∑ )<br />

x j v j<br />

an der Stelle j ins Dachprodukt einbringen, dann ergibt sich<br />

(∑ )<br />

)<br />

v 1 ∧ · · · ∧ x j v j ∧ · · · ∧ v n = x j ·<br />

(v 1 ∧ . . . ∧ v n<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


92 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

5.13 Material<br />

Alte <strong>Tabl</strong>eau-Versuche<br />

Bsp1 Beispiel 5.13.1. [Erstes Zahlenbeispiel]<br />

u 1 1 ∗ 2 4 1 v 1 1 2 4 1<br />

u 2 1 1 1 0 u 2 −1 −1 ∗ −3 −1<br />

u 3 −1 0 2 1 u 3 1 2 6 2<br />

= v 1 = v 2 = v 3 = v 4 = u 1 = v 2 = v 3 = v 4<br />

v 1 −1 2 −2 −1 v 1 A −1<br />

11 . B 21<br />

v 2 1 −1 3 1 v 2 . . . . . . .... . . .<br />

u 3 −1 2 0 0 u 3 −1 2 0 0<br />

= u 1 = u 2 = v 3 = v 4 = u 1 = u 2 = v 3 = v 4<br />

Die Nullmatrix in der rechten unteren Ecke (genauer gesagt: die Zeile (0, 0)) bedeutet<br />

<strong>für</strong> die ursprüngliche Matrix A 22 − A 21 A −1<br />

11 A 12 = 0. Und in der Tat haben wir<br />

A 21 A −1<br />

11 A 12 = ( −1 0 ) ( ) ( )<br />

−1 2 4 1<br />

= ( 2 1 ) = A<br />

1 −1 1 0<br />

22 .<br />

Bsp2 Beispiel 5.13.2 (Zweites Zahlenbeispiel). Die Matrix im folgenden Beispiel hat den Rang<br />

3. Wir können die 3×3-Matrix in der linken oberen Ecke invertieren. Die Rechenergebnisse<br />

des ersten Beispiels können wir teilweise verwenden, weil sich die beiden Matrizen nur in<br />

der rechten unteren Ecke unterscheiden.<br />

u 1 1 ∗ 2 4 1 v 1 1 2 4 1<br />

u 2 1 1 1 0 u 2 −1 −1 ∗ −3 −1<br />

u 3 −1 0 1 2 u 3 1 2 5 3<br />

= v 1 = v 2 = v 3 = v 4 = u 1 = v 2 = v 3 = v 4<br />

v 1 −1 2 −2 −1 v 1 1 −2 −1 1<br />

v 2 1 −1 3 1 v 2 −2 5 3 4<br />

u 3 −1 2 −1 ∗ 1 v 3 1 −2 −1 −1<br />

= u 1 = u 2 = v 3 = v 4 = u 1 = u 2 = u 3 = v 4<br />

u 1 1 ∗ 2 4 1 v 1 1 2 4 1<br />

u 2 1 1 1 0 u 2 −1 −1 ∗ −3 −1<br />

u 3 −1 0 1 2 u 3 1 2 5 3<br />

= v 1 = v 2 = v 3 = v 4 = u 1 = v 2 = v 3 = v 4<br />

v 1 −1 2 −2 −1 v 1 1 −2 −1 1<br />

v 2 1 −1 3 1 v 2 −2 5 3 4<br />

u 3 −1 2 −1 ∗ 1 v 3 1 −2 −1 −1<br />

= u 1 = u 2 = v 3 = v 4 = u 1 = u 2 = u 3 = v 4<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.13 : Material 93<br />

J | J ‖ I | J ‖<br />

(65)<br />

I | A 11 . A 12 J | B 11 . B 12<br />

............... ...............<br />

I ‖ A 21 . A 22 I ‖ B 21 . B 22<br />

(66)<br />

u I | A I| . A I| v<br />

J | J ‖ J | B J |<br />

. B J |<br />

I | J ‖<br />

................... ...................<br />

u I ‖<br />

A I‖<br />

J | . A I‖<br />

J ‖ u I ‖ B I‖<br />

I | . B I‖<br />

J ‖<br />

= v J | = v J ‖ = u I | = v J ‖<br />

⎛<br />

⎞<br />

.<br />

I |<br />

A 11 . A 12<br />

.<br />

⎜<br />

⎝. . . . . . . . . . . . . . . ⎟<br />

⎠<br />

I ‖ A 21 . A 22<br />

J |<br />

I ‖<br />

⎛<br />

⎞<br />

.<br />

B 11 . B 12<br />

.<br />

⎜<br />

⎝. . . . . . . . . . . . . . . ⎟<br />

⎠<br />

B 21 . B 22<br />

J | J ‖ I | J ‖<br />

Bemerke<br />

Für jemanden, der exakt rechnen kann, ist jede Folge (i 1 , j 1 ), . . ., (i r , j r ), <strong>für</strong> welche die<br />

entsprechenden k × k-Matrizen (<strong>für</strong> k = 1, . . .,r) invertierbar sind, eine mögliche Pivot-<br />

Wahl. Solche Folgen gibt es nach Satz 4 in V.2.<br />

Die Numeriker wissen, dass es ”<br />

schlecht konditionierte“ Matrizen gibt; das sind Matrizen,<br />

bei welchen eine einigermaßen zuverlässige Inversion hohen Rechenaufwand erfordert. Mit<br />

dieser Problematik wollen wir uns nicht befassen. In unseren Zahlenbeispielen konnten wir<br />

die Pivots entlang der Diagonale wählen. Wir würden die Wahl anderer Pivot-Position<br />

bevorzugen, wenn wir nach (k − 1) Austauschschritten in der Position (k, k) einen sehr<br />

kleinen Eintrag antreffen, wie im folgenden Zahlenbeispiel:<br />

Drittes Zahlenbeispiel<br />

Wir betrachten das Gleichungssystem zur gestörten Matrix<br />

⎛ ⎞<br />

1 1 0<br />

A ε = ⎝ 1 1 + ε 2 ⎠<br />

0<br />

1<br />

2<br />

Die inverse Matrix A −1<br />

ε sollte nahe bei A −1<br />

0 liegen. Durch schlechte Pivot-Wahl würden<br />

aber problematische Zwischenresultate auftreten; die linke obere 2 ×2-Matrix ist nämlich<br />

1<br />

2<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


94 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

nahe an einer singulären Matrix. Wir wählen (1, 1), (3, 3), (2, 2) als unsere Pivots.<br />

x 1 x 2 x 3 y 1 x 2 x 3<br />

1 ∗ 1 0 = −y 1 1 1 0 = −x 1<br />

1 1 + ε 2 = −y 2 −1 ε 2 = −y 2<br />

0<br />

1<br />

2<br />

1<br />

= −y 3 1<br />

0<br />

2 2<br />

1 ∗<br />

2<br />

= −y 3<br />

y 1 x 2 y 3 y 1 y 2 y 3<br />

1 1 0 = −x 1 1 1<br />

und <strong>für</strong><br />

−2 = −x 1<br />

2 2<br />

−1 (ε − 2) ∗ −4 = −y 2 1<br />

ε = 0 − 1 2 = −x 2<br />

2 2<br />

0 1 2 = −x 3 weiter − 1 1<br />

0 = −x 3<br />

2 2<br />

Die Inverse von A ε ergibt sich ganz harmlos als eine Matrix in der Nähe von<br />

⎛ ⎞<br />

A −1<br />

0 = 1 1 1 −4<br />

⎝ 1 −1 4 ⎠<br />

2<br />

−1 1 0<br />

Spaltentableau Wir haben oben ein Gleichungssystem durch ein Zeilentableau ausgedrückt.<br />

Ebenso interessant ist das Spaltentableau. Diesem wollen wir hier aber eine andere<br />

Interpretation geben.<br />

Gegeben sei ein System von I-Spalten {w j : j ∈ J}. Der i-te Eintrag in w j sei a i j . Wenn<br />

wir mit u i die i-te Einheitsspalte bezeichnen, dann haben wir<br />

Dies schreiben wir als ein Spaltentableau<br />

w j = ∑ u i · a i j <strong>für</strong> j ∈ J .<br />

u 1<br />

.<br />

u m<br />

= w 1 . . . = w n<br />

A<br />

Wenn a 1 1 ≠ 0, dann ist {w 1, u 2 , . . .,u m } eine Basis und die weiteren w j werden mittels des<br />

ausgetauschten <strong>Tabl</strong>eaus durch die neue Basis ausgedrückt. Das haben wir bereits in V1<br />

gesehen. (Steinitz’sches Austauschlemma). Wir wollen möglichst viele u i gegen passende<br />

w j austauschen. Damit gelangen wir zum vollständig ausgetauschten <strong>Tabl</strong>eau.<br />

w | B | |<br />

. B | ||<br />

...............<br />

u || B ||<br />

|<br />

. 0<br />

= u | . . . = w ||<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.13 : Material 95<br />

Das r-Tupel w | ist eine Basis von span{w j : j ∈ J}. Die Matrix B | ||<br />

w j aus den Elementen dieser Basis linear kombiniert werden:<br />

zeigt, wie die übrigen<br />

w | · B | || = w || .<br />

Auch die übrigen Blöcke haben interessante Interpretationen. Bevor wir das ausführen,<br />

wollen wir einen matrizentheoretischen Satz über alle möglichen Zwischenergebnisse beweisen.<br />

Satz<br />

Durch eine Serie von Pivot-Transformationen sei ein äquivalentes <strong>Tabl</strong>eau entstanden.<br />

Aus der (I | + I || ) × (J | + J || )-Matrix A sei die (J | + I || ) × (I | + J || )-Matrix B entstanden.<br />

Es gilt dann <strong>für</strong> die Blöcke<br />

(i) B | | = (A| | )−1<br />

(ii) B | || = (A| | )−1 · A | ||<br />

B ||<br />

|<br />

= −A ||<br />

|<br />

· (A | | )−1<br />

(iii) B ||<br />

|| = A|| || − A|| |<br />

· (A | | )−1 · A | ||<br />

Zweites Zahlenbeispiel mit Leerstellen<br />

Bsp2 Beispiel 5.13.3 (Zweites Zahlenbeispiel). Die Matrix im folgenden Beispiel hat den Rang<br />

3. Wir können die 3×3-Matrix in der linken oberen Ecke invertieren. Die Rechenergebnisse<br />

des ersten Beispiels können wir teilweise verwenden, weil sich die beiden Matrizen nur in<br />

der rechten unteren Ecke unterscheiden.<br />

j 1 j 2 j 3 j 4 i 1 j 2 j 3 j 4<br />

i 1 1 ∗ +1 0 2 j 1 +1 +1 0 2<br />

i 2 +1 1 + ε +2 0 i 2 −1 ε +2 −2<br />

i 3 0 + 1 2<br />

+ 1 2<br />

−1 i 3 0 + 1 2<br />

1<br />

2<br />

∗<br />

−1<br />

i 1 j 2 i 3 j 4 i 1 i 2 i 3 j 4<br />

1 1<br />

j 1 +1 +1 0 +2 und <strong>für</strong> j 1 −2 +2<br />

2 2<br />

i 2 −1 (ε − 2) ∗ 1<br />

−4 0 ε = 0 j 2 − 1 +2 0<br />

2 2<br />

j 3 0 +1 +2 −2 weiter j 3 − 1 1<br />

0 −2<br />

2 2<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


96 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

x 1 x 2 x 3 −1 0 x 2 x 3 −1<br />

−1 2 1 −2 = 0 2 ∗ 5 −4 = 0<br />

3 −8 −2 4 = 0 −8 −14 10 = 0<br />

1 ∗ 0 4 −2 = 0 1 0 4 −2 = −x 1<br />

(67)<br />

0 0 x 3 −1 0 0 0 −1<br />

1/2 5/2 −4/2 = −x 2 1/2 = −x 2<br />

−6 ∗ 6 = 0 −1/6 −1 = −x 3<br />

4 −2 = −x 1 2 = −x 1<br />

(<br />

B11 = A −1<br />

11 B 12 = A −1<br />

11 A )<br />

12<br />

B 21 = −A 21 · A −1<br />

11 B 22 = A 22 − A 21 · A −1<br />

11 · A 12<br />

x 1 x 2 x 3 −1 x 1 x 2 x 3 −1<br />

u 1 . = −y 1 u 1 . = −y 1<br />

u 1 . = −y 1 u 1 . = −y 1<br />

u 1 . = −y 1 u 1 . = −y 1<br />

. . . . . . . . . . . . . . . . . . . . . . . .<br />

u 1 . = M u 1 . = M<br />

= v 1 = v 2 = v 3 = m = v 1 = v 2 = v 3 = m<br />

x 1 x 2 x 3 −1 x 1 x 2 x 3 −1<br />

u 1 . = −y 1 u 1 . = −y 1<br />

u 1 . = −y 1 u 1 . = −y 1<br />

u 1 . = −y 1 u 1 . = −y 1<br />

. . . . . . . . . . . . . . . . . . . . . . . .<br />

u 1 . = M u 1 . = M<br />

= v 1 = v 2 = v 3 = m = v 1 = v 2 = v 3 = m<br />

x 1 x 2 x 3 −1 x 1 x 2 x 3 −1<br />

u 1 . = −y 1 u 1 . = −y 1<br />

u 1 . = −y 1 u 1 . = −y 1<br />

u 1 . = −y 1 u 1 . = −y 1<br />

. . . . . . . . . . . . . . . . . . . . . . . .<br />

u 1 . = M u 1 . = M<br />

= v 1 = v 2 = v 3 = m = v 1 = v 2 = v 3 = m<br />

(68)<br />

u I | A I|<br />

J | . A I|<br />

J ‖ v J | B J |<br />

I | . B J |<br />

J ‖<br />

u I ‖<br />

A I‖<br />

J |<br />

. A I‖<br />

J ‖ u I ‖ B I‖<br />

I |<br />

. B I‖<br />

J ‖<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


5.13 : Material 97<br />

x | x || y | x ||<br />

ξ | A | |<br />

. A | ||<br />

= −y | η | B | |<br />

. B | ||<br />

= −x |<br />

............. .............<br />

ξ || A ||<br />

|<br />

. A ||<br />

||<br />

= −y || ξ || B ||<br />

|<br />

. 0 = −y ||<br />

= η | = η || = ξ | = η ||<br />

x | x || y | x ||<br />

A 11 . A 12 = −y | A −1<br />

11 . K = −x |<br />

............. .............<br />

A 21 . A 22 = −y || −L . 0 = −y ||<br />

n t b −1<br />

4 2 2 . 12 = −S 1<br />

1 0 1 . 2 = −S 2<br />

0 1 3 . 4 = −S 3<br />

................<br />

3 2 2, 5 . 0 = M<br />

(69)<br />

(<br />

B11 = A −1<br />

11 B 12 = A −1<br />

11 A 12<br />

B 21 = −A 21 · A −1<br />

11 B 22 = A 22 − A 21 · A −1<br />

11 · A 12<br />

)<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011


98 Abschnitt V Vektorräume und <strong>Tabl</strong>eaus<br />

Rückblick auf die <strong>Det</strong>erminanten Schon in alten Zeiten, als man noch nichts wusste<br />

von Matrizenmultiplikation und Matrizenkalkül, hat man gelegentlich einem quadratischen<br />

Zahlenschema eine Zahl zugeordnet, die man heute (nach dem Vorschlag von Gauss,<br />

1801) die <strong>Det</strong>erminante nennt. Man sagt, die <strong>Det</strong>erminanten gehen auf Leibniz zurück,<br />

obwohl Wissenschaftshistoriker herausgefunden haben, dass der japanische Wissenschaftler<br />

Seki Kowa sie auch schon 1683 kannte. Die Idee geriet in Vergessenheit, bis der Genfer<br />

Professor Gabriel Cramer um 1750 die <strong>Det</strong>erminanten zur Lösung linearer Gleichungssysteme<br />

benützte. U. a. Gauss und Cauchy haben mit <strong>Det</strong>erminanten gearbeitet. Im Laufe<br />

des 19. Jahrhunderts wurde die Idee langsam zum Allgemeingut, vor allem durch eine<br />

berühmte Arbeit von C. G. Jacobi: ‘De formatione et proprietatibus determinantium’<br />

(1841).<br />

Die <strong>Det</strong>erminanten erscheinen heute als ein Hilfsmittel in verschiedenen Bereichen von<br />

Algebra und Geometrie. Die Algebraiker sind begeistert von der Tatsache, dass die <strong>Det</strong>erminante<br />

(ähnlich wie die sog. Diskriminante und die sog. Resolvente) eine Existenzaussage<br />

in einer algebraischen Formel fasst. Im Rahmen der linearen und multilinearen Algebra<br />

haben wir uns besonders <strong>für</strong> die folgenden Aspekte interessiert:<br />

1. Die (klassische) <strong>Det</strong>erminante ordnet jeder quadratischen K-Matrix A einen Skalar<br />

det(A) ∈ K zu. Die Zuordnung ist multiplikativ: det(A · B) = det(A) · det(B).<br />

Die <strong>Det</strong>erminante verschwindet genau dann, wenn A singulär ist.<br />

2. Eine <strong>Det</strong>erminantenfunktion ∆(·) ordnet jedem angeordneten n-tupel von Vektoren<br />

in einem n-dimensionalen K-Vektorraum V einen Skalar zu, sodass gilt<br />

i) ∆(·, . . .,·) ist linear in jeder Position<br />

ii) ∆(·, . . .,·) wechselt das Vorzeichen, wenn man zwei Einträge gegeneinander<br />

austauscht.<br />

Die Menge aller <strong>Det</strong>erminantenfunktionen auf V n ist ein eindimensionaler Vektorraum.<br />

3. Den Begriff nach 1) kann man auf I × J-Matrizen erweitern, wenn eine Bijektion<br />

I ↔ J ausgezeichnet ist. Dies ist insbesondere dann wichtig, wenn man sich mit den<br />

Unterdeterminanten einer gegebenen Matrix befasst.<br />

4. Den Begriff nach 2) kann man zum Kalkül der alternierenden k-Formen erweitern.<br />

Die Koeffizienten beim Basiswechsel in der Grassmann-Algebra werden mit Hilfe<br />

von <strong>Det</strong>erminanten beschrieben.<br />

@ Prof. Dr. H. Dinges, <strong>Tabl</strong>eaus (<strong>SS</strong> 20<strong>09</strong>), 5. Dezember 2011

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!