21.11.2014 Aufrufe

Skript - Universität Paderborn

Skript - Universität Paderborn

Skript - Universität Paderborn

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Lineare Algebra I-II<br />

Joachim Hilgert<br />

Der vorliegende Text ist das <strong>Skript</strong> zu den Vorlesungen Lineare Algebra I,II, die ich<br />

im WS 2010/2011 und im SS 2011 an der Universität <strong>Paderborn</strong> gehalten habe.<br />

<strong>Paderborn</strong>, den 9.7.2011<br />

J. Hilgert


Inhaltsverzeichnis<br />

0 Vorbemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3<br />

0.1 Vom Wesen der Mathematik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3<br />

0.2 Über die Abstraktion in der Mathematik . . . . . . . . . . . . . . . . . . . . . . . . 5<br />

0.3 Die Sprache der Mathematik: Mengenlehre . . . . . . . . . . . . . . . . . . . . . . 12<br />

Teil I Systeme von Gleichungen und Zahlen<br />

1 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

1.1 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

1.2 Der Gaußalgorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27<br />

1.3 Gleichungssysteme mit zwei Unbekannten . . . . . . . . . . . . . . . . . . . . . . . 39<br />

2 Lineare Unterräume des K n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />

2.1 Lösungsräume homogener Gleichungssysteme . . . . . . . . . . . . . . . . . . . . 43<br />

2.2 Lineare Abhängigkeit und Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . 47<br />

2.3 Basen für lineare Unterräume des K n . . . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />

2.4 Die Dimension eines linearen Unterraums des K n . . . . . . . . . . . . . . . . . 57<br />

3 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />

3.1 Matrizen und lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />

3.2 Bijektivität und Invertierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74<br />

4 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85<br />

4.1 Permutationen und Permutationsmatrizen . . . . . . . . . . . . . . . . . . . . . . . 85<br />

4.2 Die Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />

4.3 Weitere Rechenverfahren für Determinanten und Inverse . . . . . . . . . . . 105<br />

Teil II Vektorräume und ihre Abbildungen<br />

5 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119<br />

5.1 Vektorräume und Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119<br />

5.2 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123<br />

5.3 Quotientenräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136<br />

5.4 Dualräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143<br />

5.5 Direkte Summen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149


Inhaltsverzeichnis 1<br />

6 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157<br />

6.1 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157<br />

6.2 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163<br />

6.3 Polynomfunktionen und charakteristisches Polynom . . . . . . . . . . . . . . . 166<br />

6.4 Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177<br />

7 Die Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183<br />

7.1 Zerlegung in invariante Teilräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183<br />

7.2 Nilpotenz und ϕ-Ketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192<br />

7.3 Die Jordan–Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203<br />

Teil III Geometrische Strukturen auf Vektorräumen<br />

8 Bi- und Sesquilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217<br />

8.1 Matrizendarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217<br />

8.2 Nichtausgeartete Sesquilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226<br />

8.3 Hermitesche Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232<br />

8.4 Diagonalisierbarkeit von hermiteschen Formen . . . . . . . . . . . . . . . . . . . 240<br />

9 Innere Produkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247<br />

9.1 Definitheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247<br />

9.2 Adjungierte Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255<br />

9.3 Der Spektralsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263<br />

10 Normen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269<br />

10.1 Normen und innere Produkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269<br />

10.2 Die Operatornorm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273<br />

Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281<br />

Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283


0<br />

Vorbemerkungen<br />

0.1 Vom Wesen der Mathematik<br />

Man kann Mathematik als eine Verfeinerung der Alltagssprache auffassen. Sie<br />

dient dazu, beobachtbare Vorgänge so präzise zu beschreiben, dass es möglich wird,<br />

Gesetzmäßigkeiten zu erkennen. Die Entdeckung der Newtonschen Gesetze der Mechanik,<br />

die die Planetenbewegungen ebenso bestimmen wie die Flugbahn eines Satelliten,<br />

ist ohne eine mathematische Formulierung kaum denkbar. Mathematische<br />

Beschreibungen sollten nicht als Abbilder, sondern als Modelle betrachtet werden<br />

und sind daher nicht durch die Situation festgelegt. Man braucht etwas Mathematik,<br />

um ein Wahlergebnis statistisch so aufzubereiten, dass man es auf einer Zeitungsseite<br />

wiedergeben kann; die präzisen Hochrechnungen aus relativ wenigen ausgezählten<br />

Wahlkreisen zu erhalten, erfordert jedoch sehr viel mehr mathematischen Aufwand.<br />

An den obigen Beispielen kann man zwei Funktionen der Mathematik ablesen:<br />

Modellierung und Prognose. Die Newtonsche Mechanik ist das mathematische Modell<br />

für die Bewegung massiver Gegenstände und es ist Aufgabe der Mathematik,<br />

Flugbahnen vorherzuberechnen.<br />

Die Modellierung ist eine Aufgabe, die nicht von der Mathematik oder dem<br />

Mathematiker allein geleistet werden kann. Es ist Fachwissen in den Disziplinen<br />

nötig, in deren Zuständigkeit das zu beschreibende System fällt. Daher kommen<br />

Modellierungsprobleme in Mathematikbüchern meist nur am Rande vor.<br />

In der Regel beinhaltet ein mathematisches Modell gesetzmässige Zusammenhänge<br />

zwischen verschiedenen Eigenschaften des Systems. So sind zum Beispiel Spannung<br />

und Stromstärke in einem Stromkreis über eine Materialeigenschaft, den Widerstand,<br />

gekoppelt. Kennt man zwei dieser Grössen, kann man die dritte berechnen.<br />

Für den Mathematiker bedeutet ”<br />

Prognose“ sehr oft das Herausrechnen einer unbekannten<br />

Grösse aus einer Reihe von bekannten Grössen. Die zentrale Problemstellung<br />

der Mathematik wird daher gern als das ”<br />

Lösen von Gleichungen“ beschrieben.<br />

Das Lösen von Gleichungen ist keineswegs ein Automatismus. Die meisten Gleichungen<br />

lassen sich nicht explizit lösen, und auch einfachen Gleichungen ist normalerweise<br />

nicht anzusehen, ob sie überhaupt eine Lösung haben. Man prüft z.B.<br />

leicht nach, dass die Gleichung<br />

x 2 + y 2 = z 2<br />

in den Unbekannten x, y, z von x = 3, y = 4, z = 5 gelöst wird. Eine solche ganzzahlige<br />

Lösung dieser Gleichung heisst ein pythagoräisches Zahlentripel. Mit etwas<br />

elementarer Geometrie kann man ein Konstruktionsverfahren angeben, wie man alle<br />

pythagoräischen Zahlentripel findet. Für die Fermatsche Gleichung<br />

x n + y n = z n


4 0 Vorbemerkungen<br />

in den Unbekannten x, y, z mit einer vorgegebenen natürlichen Zahl n > 2 dagegen<br />

gibt es keine positiven ganzzahligen Lösungen. Das war von P. Fermat (1601–1665)<br />

behauptet worden, aber es bedurfte dreihundert Jahre intensiver mathematischer<br />

Forschung, dies 1996 zu beweisen.<br />

Mathematik ist also mehr als nur eine sprachliche Lupe. Losgelöst von der Modellierung<br />

beobachteter Phänomene schafft sie sich eine eigene Begriffswelt und<br />

Werkzeuge, mit denen man diese Begriffswelt untersuchen kann. Der Versuch Gleichungen<br />

zu lösen hat viele neue mathematische Entwicklungen in Gang gesetzt, aber<br />

den Begriffen und Techniken, die heute zum Repertoir des Mathematikers gehören,<br />

ist diese Abstammung oft nicht mehr anzusehen.<br />

Beispiel 0.1.1 (Die Entwicklung des Zahlbegriffs). In den natürlichen Zahlen<br />

N: 1, 2, 3, . . . findet man keine Lösung der Gleichung<br />

x + 1 = 1.<br />

Nimmt man die Null hinzu, so findet man zwar hierfür eine Lösung, nicht aber für<br />

die Gleichung<br />

x + 1 = 0.<br />

Dafür braucht man die ganzen Zahlen Z: . . . , −3, −2, −1, 0, 1, 2, 3, . . ., die wiederum<br />

nicht ausreichen, um die Gleichung<br />

2x + 1 = 0<br />

zu lösen. Zu diesem Zweck führt man die rationalen Zahlen Q: m n<br />

mit m ∈ Z und<br />

0 ≠ n ∈ Z ein. Schon die alten Griechen wussten, dass in den rationalen Zahlen die<br />

Gleichung<br />

x 2 = 2<br />

nicht lösbar ist. Man führt die reellen Zahlen R als ”<br />

Grenzwerte“ von rationalen<br />

Zahlen (z.B. unendliche Dezimalbrüche) ein und stößt wieder an eine Grenze: Die<br />

Gleichung<br />

x 2 = −1<br />

ist nicht lösbar in R. Wenn man schließlich die komplexen Zahlen C als Paare<br />

(a, b) reeller Zahlen mit<br />

(a, b) + (a ′ , b ′ ) = (a + a ′ , b + b ′ ) und (a, b)(a ′ , b ′ ) = (aa ′ − bb ′ , ab ′ + ba ′ )<br />

als Addition und Multiplikation einführt, so lässt sich der Fundamentalsatz der<br />

Algebra beweisen:<br />

Satz: Über C sind alle Polynomgleichungen, d.h. Gleichungen der Form<br />

lösbar.<br />

a k x k + a k−1 x k−1 + . . . + a 1 x + a 0 = 0,<br />

Analysiert man die Vorgehensweise, so findet man folgende Prinzipien, die auch in<br />

anderen Situationen zum Einsatz kommen:<br />

• Man schafft den richtigen Rahmen für ein Problem (hier das Lösen von Polynomgleichungen).<br />

• Der Lösungsbegriff wird verallgemeinert (Lösung in welchem Zahlbereich?).<br />

• Später kann man dann immer noch die Frage stellen, ob es eine Lösung in einem<br />

kleineren Zahlbereich gegeben hat, wie z.B: im Fermatschen Problem:<br />

x n + y n = z n für ganzzahlige x, y, z.<br />

⊓⊔


0.2 Über die Abstraktion in der Mathematik 5<br />

0.2 Über die Abstraktion in der Mathematik<br />

Der grundlegende Ansatz der modernen Mathematik ist es, Dinge über ihre Eigenschaften<br />

zu beschreiben und sich dabei möglichst auf diejenigen Eigenschaften<br />

zu beschränken, die für die zu behandelnde Frage wirklich relevant sind. Wenn man<br />

die Umlaufbahn eines Raumgleiters beschreiben will, dann betrachtet man ihn als<br />

einen bewegten Punkt (den Schwerpunkt). Will man ihn von einer Umlaufbahn in<br />

eine andere steuern, muss man ihn als dreidimensionales Objekt auffassen mit ausgezeichneten<br />

Richtungen, in die die Steuerraketen Schub ausüben. Beim Andocken<br />

an eine Raumstation spielt die genaue Form des Gleiters eine Rolle, und beim Eintauchen<br />

in die Atmosphäre auch noch die Hitzebeständigkeit des Materials. Diese<br />

Abstraktion vom Raumgleiter auf ein Objekt mit einigen klar festgelegten Eigenschaften<br />

erleichtert es, Ähnlichkeiten mit in anderen Zusammenhängen gefundenen<br />

Beschreibungen und Lösungen zu erkennen und zu benutzen. Bewegte Massepunkte<br />

modellieren auch Wurfgeschosse oder Planeten, in der Aerodynamik von Tragflächen<br />

verfügt man über eine lange Erfahrung, und die Hitzebeständigkeit von Kacheln betrachtet<br />

man auch nicht erst seit dem Eintritt ins Raumfahrtzeitalter.<br />

Da der hohe Abstraktionsgrad für viele die höchste Hürde im Studium der Mathematik<br />

ist, soll die Bedeutung der Abstraktion für die Mathematik hier an einer<br />

Reihe von Beispielen noch näher erläutert werden. Zuerst geht es um den Übergang<br />

von konkreten Modellen zu abstrakten Methoden:<br />

Beispiel 0.2.1 (Stromkreise). Betrachte einen Stromkreis mit einer Spannungsquelle<br />

U und drei Widerständen R 1 , R 2 , R 3 :<br />

I 3<br />

❄<br />

I 2<br />

❄<br />

R 3<br />

R 2<br />

U<br />

I 1<br />

❄<br />

R 1<br />

Der Zusammenhang zwischen der Spannung U, den Widerständen R 1 , R 2 , R 3<br />

und den resultierenden Stromstärken I 1 , I 2 , I 3 ist durch die Kirchhoffschen Gesetze<br />

gegeben, die hier folgende Gleichungen erzwingen:<br />

I 1 = I 2 + I 3<br />

U = R 1 I 1 + R 2 I 2<br />

R 2 I 2 = R 3 I 3<br />

Dabei sind Spannung und Widerstände bekannt und die Stromstärken zu berechnen.<br />

Man kann das erreichen, indem man eine Gleichung nach einer der gesuchten<br />

Größen auflöst, das Ergebnis in die anderen Gleichungen einsetzt und so die Zahl<br />

der Gleichungen und der Unbekannten um Eins reduziert hat. Dieses Verfahren wiederholt<br />

man und löst die letzte Gleichung nach der einzig verbliebenen Unbekannten<br />

auf. Dann setzt man das Ergebnis wieder in die anderen Gleichungen ein und findet<br />

so sukzessive auch die anderen Unbekannten.<br />

Im physikalisch gesehen realistischen Fall R 1 , R 2 , R 3 > 0 findet man so


6 0 Vorbemerkungen<br />

I 2 = R 3<br />

R 2<br />

I 3<br />

I 1 = I 2 + I 3 = ( R 3<br />

R 2<br />

+ 1)I 3 = (1 + R 2<br />

R 3<br />

)I 2<br />

U = R 1R 2 + R 1 R 3 + R 3 R 2<br />

I 3<br />

R 2<br />

I 3 =<br />

R 2 U<br />

R 1 R 2 + R 2 R 3 + R 1 R 3<br />

I 2 =<br />

R 3 U<br />

R 1 R 2 + R 2 R 3 + R 1 R 3<br />

I 1 =<br />

(R 2 + R 3 )U<br />

R 1 R 2 + R 2 R 3 + R 1 R 3<br />

Wir können also feststellen:<br />

• Wir haben die Gleichung gelöst.<br />

• Die Lösung war nicht wirklich algorithmisch, d.h. automatisierbar, weil wir nicht<br />

vorgeschrieben haben, welche Gleichung nach welcher Unbekannten aufgelöst<br />

werden soll.<br />

• Für jeden Schaltkreis müssten wir uns neu entscheiden, wie wir die Gleichungen<br />

lösen wollen.<br />

Beispiel 0.2.2 (Produktionsmodell). Betrachten wir ein Produktionssystem bestehend<br />

aus drei Produzenten mit je einem Produkt, das nach außen (an den Markt)<br />

und untereinander (zur Ermöglichung der Produktion) geliefert wird. Mit x 1 , x 2 , x 3<br />

werden die produzierten Mengen (einheitlich gemessen z.B. in Geldwert) bezeichnet.<br />

Annahme: Die von i an j gelieferte Menge ist proportional zu der von j produzierten<br />

Menge: a ij x j . Sei y i die Nachfrage des Marktes nach dem Produkt von i. Ziel ist<br />

dann (nach Leontief) die Herstellung des folgenden Gleichgewichts von Produktion<br />

und Nachfrage.<br />

⊓⊔<br />

y 1<br />

✟ ✟✟✯ y 3<br />

❄<br />

✻<br />

✉ x 1<br />

✁<br />

✁✕ ❆❑<br />

✁<br />

❆ ❆<br />

a 13 x 3 ✁<br />

❆ a 12 x 2<br />

✁<br />

❆ ✁☛<br />

✁ ❆❆❯<br />

✟<br />

✉<br />

✲<br />

✟✙ ✟ ✛ ❆<br />

❍<br />

✉<br />

x 3 x 2 ❍❍❥<br />

❍❨ ❍ y2 ❍<br />

Es ergeben sich folgende Gleichungen<br />

y 1 = x 1 − a 12 x 2 − a 13 x 3<br />

y 2 = x 2 − a 21 x 1 − a 23 x 3<br />

y 3 = x 3 − a 31 x 1 − a 32 x 2<br />

⊓⊔


0.2 Über die Abstraktion in der Mathematik 7<br />

Wir vergleichen die Gleichungen der beiden Beispiele und formen sie etwas um,<br />

damit die Analogien deutlicher werden:<br />

I 1 = I 2 + I 3<br />

U = R 1 I 1 + R 2 I 2<br />

R 2 I 2 = R 3 I 3<br />

↓<br />

I 1 + (−1)I 2 + (−1)I 3 = 0<br />

R 1 I 1 + R 2 I 2 + 0I 3 = U<br />

0 + R 2 I 2 + (−1)R 3 I 3 = 0<br />

↓<br />

1 −1 −1 0<br />

R 1 R 2 0 U<br />

0 R 2 −R 3 0<br />

y 1 = x 1 − a 12 x 2 − a 13 x 3<br />

y 2 = x 2 − a 21 x 1 − a 23 x 3<br />

y 3 = x 3 − a 31 x 1 − a 32 x 2<br />

↓<br />

x 1 + (−a 12 )x 2 + (−a 13 )x 3 = y 1<br />

(−a 21 )x 1 + x 2 + (−a 23 )x 3 = y 2<br />

(−a 31 )x 1 + (−a 32 )x 2 + x 3 = y 3<br />

↓<br />

1 −a 12 −a 13 y 1<br />

−a 21 1 −a 23 y 2<br />

−a 31 −a 32 1 y 3<br />

Die resultierenden Zahlenschemata nennt man Matrizen und durch eine systematisierte<br />

Variante des sukzessiven Variableneliminierens von oben (dem Gauß-<br />

Algorithmus) kann man daraus die Unbekannten bestimmen. Wir stellen fest:<br />

• Mit dem Übergang von den Gleichungen zu den Matrizen hat man nur redundante<br />

Information aus den Gleichungen entfernt und gleichzeitig die Übersichtlichkeit<br />

erhöht.<br />

• Die Anzahl der Gleichungen und der Unbekannten ist für das Vorgehen hier völlig<br />

unerheblich und in den Anwendungen kommen durchaus Gleichungssysteme mit<br />

mehr als 10000 Variablen vor.<br />

• An dieser Stelle ist nichts darüber gesagt worden, welche Rolle die resultierende<br />

mathematische Struktur bei der Auswahl der mathematischen Modelle gespielt<br />

hat (in der Physik gibt es da natürlich weniger Optionen als in der Ökonomie).<br />

Als nächstes betrachten wir einige Beispiele dafür, wie man aus konkreten Problemen<br />

in natürlicher Weise auf abstrakte (algebraische) Strukturen geführt wird:<br />

Beispiel 0.2.3 (Teilbarkeitsregeln). Wir beginnen mit der Frage: Gibt es eine<br />

Teilbarkeitsregel für 7?<br />

Eine Zahl ist durch 7 teilbar, wenn sie bei Teilung durch 7 den Rest 0 liefert. Es<br />

liegt also nahe, von jeder Zahl z den Rest r zu betrachten, der sich ergibt, wenn<br />

man durch 7 teilt. Man schreibt dann<br />

z ≡ r mod 7<br />

und spricht vom Teilen mit Rest modulo 7. Wir schreiben unsere Zahlen im Zehnersystem<br />

und an dieser Darstellung wollen wir die Teilbarkeit durch 7 ablesen. Es ist<br />

also nicht abwegig, zunächst die Reste modulo 7 der Zehnerpotenzen zu berechnen:<br />

1 = 1 ≡ 1 mod 7 1 = 0 + 1<br />

10 = 10 × 1 ≡ 3 × 1 mod 7 ≡ 3 mod 7 10 = 7 + 3<br />

100 = 10 × 10 ≡ 3 × 3 mod 7 ≡ 2 mod 7 100 = 98 + 2<br />

1000 = 10 × 100 ≡ 3 × 2 mod 7 ≡ 6 mod 7 1000 = 994 + 6<br />

10000 = 10 × 1000 = 3 × 6 mod 7 ≡ 4 mod 7 10000 = 9996 + 4<br />

100000 = 10 × 10000 ≡ 3 × 4 mod 7 ≡ 5 mod 7 100000 = 99995 + 5<br />

1000000 = 10 × 100000 ≡ 3 × 5 mod 7 ≡ 1 mod 7 1000000 = 999999 + 1


8 0 Vorbemerkungen<br />

Ab hier wiederholen sich die Reste der Zehnerpotenzen modulo 7, weil man ja<br />

modulo 7 immer wieder mit 3 multipliziert:<br />

10000000 = 10 × 1000000 ≡ 3 × 1 mod 7 ≡ 3 mod 7<br />

etc.<br />

Man schreibt jetzt eine beliebige Zahl im Zehnersystem, d.h. als gewichtete Summe<br />

von Zehnerpotenzen, z.B.<br />

94328 = 9 × 10000 + 4 × 1000 + 3 × 100 + 2 × 10 + 8 × 1<br />

und rechnet die Reste modulo 7 aus:<br />

94328 mod 7 ≡ 9 × 4 + 4 × 6 + 3 × 2 + 2 × 3 + 8 × 1 mod 7<br />

Die Zahl 94328 ist also durch 7 teilbar, wenn<br />

9 × 4 + 4 × 6 + 3 × 2 + 2 × 3 + 8 × 1<br />

durch 7 teilbar ist. Wir haben also eine ”<br />

gewichtete Quersummenregel“<br />

Man multipliziere die<br />

Einer mit 1<br />

Zehner mit 3<br />

Hunderter mit 2<br />

Tausender mit 6<br />

Zehntausender mit 4<br />

Hunderttausender mit 5<br />

und dann von vorne, etc.<br />

So erhält man eine gewichtete Quersumme. Die Zahl ist durch 7 teilbar<br />

genau dann, wenn die gewichtete Quersumme durch 7 teilbar ist.<br />

Die Vorgehensweise lässt sich sofort auf andere Zahlen übertragen:<br />

Teilbarkeit durch n:<br />

1.Schritt: Bestimme die ”<br />

Restklassen“ modulo n der 10er-Potenzen. Da es nur endlich<br />

viele Restklassen gibt, ergibt sich nach einem endlichen ”<br />

Anlauf“ eine periodische<br />

Struktur:<br />

Abb. 0.1. Periodische Struktur der Reste von 10er-Potenzen<br />

(Bemerkung: Dass es für 7 keinen Anlauf gibt, liegt daran, dass 7 eine Primzahl<br />

ist.)


2.Schritt: Schreibe eine Zahl m in der Form<br />

0.2 Über die Abstraktion in der Mathematik 9<br />

m = a k 10 k + a k−1 10 k−1 + . . . + a 1 10 + a 0<br />

und berechne die Restklasse von m über die Restklassen der a j gewichtet mit<br />

den Restklassen der 10 j .<br />

Aus dem allgemeinen Verfahren kann man als Übung die üblichen Teilbarkeitsregeln<br />

für:<br />

3 (Quersumme)<br />

4 (letzten zwei Ziffern)<br />

5 (letzte Ziffer)<br />

8 (letzten drei Ziffern)<br />

9 (Quersumme)<br />

11 (alternierende Quersumme)<br />

ableiten.<br />

Analyse der Vorgehensweise:<br />

• Statt mit den Zahlen selbst haben wir mit ihren Resten modulo 7 gearbeitet,<br />

d.h. Zahlen mit gleichen Resten (diese bilden die Restklasse modulo 7) sind in<br />

dieser Problemstellung in jeder Hinsicht gleichwertig (äquivalent).<br />

• Die Aufteilung in Äquivalenzklassen nach dem relevanten Merkmal (Restklassen<br />

modulo 7) bringt eine drastische Reduktion der Anzahl der zu betrachtenden<br />

Objekte (von unendlich vielen auf 7).<br />

Abb. 0.2. Visualisierung der Aufteilung in Äquivalenzklassen<br />

• Wir haben die Rechenoperationen + und × auf die Restklassen übertragen (das<br />

habe ich in der Tabelle der Zehnerpotenzen versteckt) und damit eine abstrakte<br />

algebraische Struktur eingeführt, d.h. eine Menge (die Restklassen) mit<br />

Verknüpfungen (Addition und Multiplikation; hier ergibt sich ein sogenannter<br />

Ring).<br />

+ 0 1 2 3 4 5 6<br />

× 0 1 2 3 4 5 6<br />

0 0 1 2 3 4 5 6<br />

0 0 0 0 0 0 0 0<br />

1 1 2 3 4 5 6 0<br />

1 0 1 2 3 4 5 6<br />

2 2 3 4 5 6 0 1<br />

2 0 2 4 6 1 3 5<br />

3 3 4 5 6 0 1 2<br />

3 0 3 6 2 5 1 4<br />

4 4 5 6 0 1 2 3<br />

4 0 4 1 5 2 6 3<br />

5 5 6 0 1 2 3 4<br />

5 0 5 3 1 6 4 2<br />

6 6 0 1 2 3 4 5<br />

6 0 6 5 4 3 2 1<br />

• Wir haben festgestellt, dass sich die Methode von 7 auf beliebige Zahlen verallgemeinern<br />

lässt und es ist dann auch nicht mehr schwer, vom Zehner- auf<br />

ein beliebiges anderes System überzugehen.<br />

⊓⊔


10 0 Vorbemerkungen<br />

Abb. 0.3. Regelmäßige Vielecke<br />

Beispiel 0.2.4 (Symmetrie).<br />

Betrachte die regelmäßigen Vielecke in Abbildung 0.2.4.<br />

Es stellt sich die Frage, wie man die augenfälligen Symmetrie-Eigenschaften dieser<br />

Figuren präzise beschreiben kann. Hier ist eine erste Antwort: Symmetrie ist eine<br />

Bewegung, die die Figur mit sich selbst zur Deckung bringt (z.B. Spiegelung oder<br />

Rotation). Solche Symmetrien kann man hintereinanderschalten und erhält wieder<br />

eine algebraische Struktur (hier ist es eine Gruppe).<br />

A<br />

B<br />

C<br />

B<br />

B<br />

C<br />

D<br />

C D A A<br />

Abb. 0.4. Verknüpfung von Symmetrien<br />

D<br />

Es ist allerdings nicht wirklich klar, was eine Bewegung ist und damit ist der Begriff<br />

Symmetrie etwas vage gelassen. Abhilfe schafft hier der Begriff der Abbildung,<br />

ein Begriff, der in Mathematik absolut zentral ist:<br />

Wenn A und B zwei Mengen (von irgendwelchen Objekten, z.B. Punkten auf<br />

einem Vieleck) sind, dann ist eine Abbildung f : A → B eine Vorschrift, jedem Element<br />

von A ein Element von B zuzuordnen. Dies ist eine Abstraktion der Vorstellungen<br />

”<br />

Vergleichen“ (von A und B z.B. durch Übereinanderlegen) und ”<br />

Messen“<br />

(von A durch B z.B. durch Anlegen eines Maßstabs oder durch Zuordnung einer<br />

Zahl).<br />

Jetzt lässt sich eine präzisere Definition von Symmetrie formulieren: Eine Symmetrie<br />

von A ist eine Abbildung f : A → A, für die jedes Element von A als Bild<br />

von genau einem Element von A auftaucht (jedes Element wird von genau einem<br />

Pfeil getroffen). An dieser Stelle kann man dann noch Zusatzforderungen stellen<br />

(z.B. Geraden auf Geraden, Winkel sollen erhalten bleiben, die Figuren sollen nicht<br />

zerrissen werden, etc.)<br />

Wenn man nur die Rotationssymmetrien des n-Ecks betrachtet, dann liefert n-<br />

malige Anwendung der Rotation um 360<br />

n<br />

Grad (von einer Ecke auf die nächste) die


0.2 Über die Abstraktion in der Mathematik 11<br />

A<br />

B<br />

A ‘‘größer’’ als B<br />

A<br />

f<br />

B<br />

A ‘‘kleiner’’ als B<br />

A<br />

f<br />

Die Punkte von A<br />

werden gemessen<br />

Abb. 0.5. Messen und Vergleichen von Mengen<br />

00000 11111<br />

11111 00000<br />

00000000<br />

11111 00000<br />

111<br />

11111<br />

000 111<br />

000<br />

111<br />

11111<br />

00011111<br />

00000<br />

000<br />

11111<br />

111<br />

00000<br />

11111<br />

11100000<br />

00000<br />

11111 00000<br />

11111<br />

000<br />

111<br />

00000<br />

000<br />

11111<br />

111<br />

11111<br />

11111<br />

00000000<br />

111 000 111<br />

11111<br />

11111000<br />

00000<br />

11100000<br />

000 111<br />

11111<br />

11111<br />

00000111<br />

11111<br />

00000000<br />

111<br />

11111<br />

000 111 000 111<br />

Abb. 0.6. Zerreißen“ von Mengen<br />

”<br />

Identität. Das erinnert an die n-fache Addition von 1 in den Restklassen modulo n<br />

aus Beispiel 0.2.3. Vergleichen wir<br />

• die Rotationen R k des n-Ecks um k× 360<br />

n<br />

Grad mit der Hintereinanderausführung<br />

und<br />

• die Restklassen [k] = {m | m ≡ k mod n} modulo n mit der Addition,<br />

so finden wir eine Korrespondenz<br />

die zusätzlich<br />

R k ←→ [k],<br />

R k ◦ R k ′ = [k] + [k ′ ]<br />

erfüllt (◦ bezeichnet die Hintereinanderausführung). Man sagt, die beiden Strukturen<br />

sind isomorph (hier als Gruppen) und stellt fest, dass Aussagen, die die<br />

Verknüpfungen betreffen, mit dieser Isomorphie von einer zur anderen Struktur<br />

einfach transferiert werden können.<br />

⊓⊔


12 0 Vorbemerkungen<br />

0.3 Die Sprache der Mathematik: Mengenlehre<br />

Die ersten Objekte mathematischer Überlegungen waren Zahlen und geometrische<br />

Figuren. Was diese Objekte eigentlich sind, war praktisch von Anfang an<br />

Gegenstand intensiver Überlegungen und kontroverser Philosophien. Im Laufe der<br />

Zeit kamen weitere mathematische Objekte ganz unterschiedlicher Natur hinzu wie<br />

z.B. Variablen, Gleichungen, Funktionen, etc. Die moderne Mathematik bedient<br />

sich der Mengenlehre zur Beschreibung aller mathematischen Objekte. Zahlen, Figuren,<br />

Funktionen sind Mengen mit gewissen Eigenschaften. Dabei ist keineswegs<br />

klar, was eine Menge ist. Der Begründer der Mengenlehre G. Cantor gab folgende<br />

Definition“ einer Menge: Unter einer Menge verstehen wir jede Zusammenfassung<br />

”<br />

von bestimmten wohlunterschiedenen Objekten unserer Anschauung oder unseres<br />

Denkens zu einem Ganzen. Dies ist keine wirkliche Erklärung, weil der unbekannte<br />

Begriff Menge auf den ebenfalls unbekannten Begriff Zusammenfassung zu einem<br />

Ganzen zurückgeführt wird. Widersprüchliche Bildungen solcher Zusammenfassungen<br />

führen zu logischen Problemen wie dem vom Dorfbarbier, der alle Männer des<br />

Dorfes rasiert, die sich nicht selbst rasieren (rasiert er sich selbst oder nicht?). Antinomien<br />

wie diese führten Anfang des zwanzigsten Jahrhunderts in einen Streit über<br />

die Grundlagen der Mathematik, der bis heute nicht wirklich ausgestanden ist. Für<br />

die gegenwärtige Praxis der Mathematik ist vor allem bedeutsam, dass sich die axiomatische<br />

Methode, eine Theorie aus nicht hinterfragten Grundtatsachen (Axiomen)<br />

unter Benutzung festgelegter logischer Regeln aufzubauen, universell durchgesetzt<br />

hat.<br />

Auch für die Mengenlehre und die Logik gibt es solche axiomatischen Zugänge,<br />

allerdings sind sie für den Laien oder Anfänger nicht nachvollziehbar. Daher stützt<br />

man sich bei der Einführung in die Mathematik auf (möglichst wenige) intuitive<br />

Konzepte, aus denen man dann das mathematische Gebäude aufbaut. Diese intuitiven<br />

Konzepte werden schließlich (in Vorlesungen wie Axiomatische Mengentheorie“<br />

”<br />

oder Logik“) hinterfragt, wenn die Studierenden eine gewisse Vertrautheit mit mathematischen<br />

Denkweisen erlangt ”<br />

haben.<br />

Ausgangspunkt für unseren ”<br />

naiven“ Zugang zur Mengenlehre ist, dass eine<br />

Menge durch ihre Elemente festgelegt wird: Eine Menge ist gebildet, wenn feststeht,<br />

welche Objekte dazugehören. Die Objekte, die zu einer Menge gehören, heißen<br />

Elemente der Menge. Wenn M eine Menge ist und a ein Element von M, dann<br />

schreibt man a ∈ M (a ist Element von M). Eine Menge kann man beschreiben,<br />

indem man alle ihre Elemente aufzählt, oder aber indem man ihre Elemente durch<br />

eine Eigenschaft charakterisiert:<br />

{a, b, c, d, e}<br />

ist die Menge der ersten fünf (kleinen) Buchstaben des Alphabets und<br />

{x | x ∈ Z und x 2 ∈ Z}<br />

ist die Menge der durch 2 teilbaren ganzen Zahlen (wenn wir akzeptieren, dass Z<br />

die Menge der ganzen Zahlen ist). Die Klammern { }, die in dieser Schreibweise<br />

vorkommen, nennt man Mengenklammern. Will man klarstellen, dass eine Menge<br />

aus Elementen einer vorgegebenen Menge X besteht, schreibt man auch<br />

{x ∈ X | Eigenschaften von x},<br />

zum Beispiel<br />

{x ∈ Z | x 2 ∈ Z}


0.3 Die Sprache der Mathematik: Mengenlehre 13<br />

für die geraden Zahlen von oben. Wenn a kein Element von M ist, schreibt man<br />

a ∉ M. Entsprechend unserem Ausgangspunkt nennen wir zwei Mengen gleich,<br />

wenn sie die gleichen Elemente enthalten. Also sind die Mengen<br />

gleich, nicht aber die Mengen<br />

{a, b, c, d, e} und {e, d, c, b, a}<br />

{a, b, c, d, e} und {e, d, b, a}.<br />

Wenn A und B Mengen sind, dann heißt A eine Teilmenge von B, wenn jedes<br />

Element von A auch Element von B ist. Man schreibt dann A ⊆ B. Es gilt also<br />

{e, d, b, a} ⊆ {a, b, c, d, e}.<br />

Für jede Teilmenge A ⊆ B kann man ihr Komplement 1<br />

{b ∈ B | b ∉ A}<br />

betrachten. Es wird mit B\A oder (wenn B aus dem Kontext klar ist) ∁A bezeichnet.<br />

Wenn A keine Teilmenge von B ist, schreibt man A ⊈ B. Die Menge<br />

PM := {N | N ⊆ M}<br />

aller Teilmengen von M heißt die Potenzmenge von M.<br />

Hat man zwei Mengen A und B, so gibt es verschiedene Möglichkeiten, daraus<br />

neue Mengen zu konstruieren:<br />

{x | x ∈ A oder x ∈ B}<br />

heißt die Vereinigung von A und B und wird mit A∪B bezeichnet. Dagegen heißt<br />

{x | x ∈ A und x ∈ B}<br />

der Schnitt von A und B und wird mit A ∩ B bezeichnet. Um sicherzustellen, dass<br />

der Schnitt zweier Mengen immer gebildet werden kann, muss man eine besondere<br />

Menge zulassen: die leere Menge, die überhaupt kein Element enthält und mit ∅<br />

oder { } bezeichnet wird.<br />

Die Definition von Schnitt und Vereinigung von zwei Mengen lässt sich problemlos<br />

auf beliebig viele Mengen verallgemeinern: Hat man eine Familie von Mengen<br />

A j mit j ∈ J, so ist<br />

⋃<br />

A j = {x | es gibt ein j ∈ J mit x ∈ A j }<br />

j∈J<br />

die Vereinigung der A j und<br />

⋂<br />

A j = {x | für alle j ∈ J gilt x ∈ A j }<br />

j∈J<br />

der Schnitt der A j . Die Vereinigung von disjunkten Mengen, d.h. Mengen, deren<br />

Schnitt leer ist, bezeichnen wir oft mit A ∪ . B bzw. ⋃ .<br />

j∈J<br />

A j .<br />

Eine dritte Menge, die man aus A und B bauen kann, ist das kartesische<br />

Produkt. Es besteht aus allen geordneten Paaren (a, b) mit a ∈ A und b ∈ B und<br />

wird mit A × B bezeichnet:<br />

1 Allgemeiner könnte man auch B \ A := {b ∈ B | b ∉ A} definieren ohne dabei vorauszusetzen,<br />

dass A eine Teilmenge von B ist.


14 0 Vorbemerkungen<br />

A × B := {(a, b) | a ∈ A, b ∈ B}.<br />

(Wann immer wir eine neue Bezeichnung N für ein bekanntes Objekt B einführen,<br />

schreiben wir N := B.)<br />

Das kartesische Produkt lässt sich auch für mehr als zwei Faktoren definieren:<br />

Wenn A 1 , . . . , A k Mengen sind, dann setzt man<br />

A 1 × . . . × A k := {(a 1 , . . . , a k ) | a j ∈ A j , j = 1, . . . , k}<br />

und bezeichnet die (a 1 , . . . , a k ) als k-Tupel. Wenn alle A j gleich sind, z.B. eine<br />

Menge M, schreibt man auch einfach M k für die Produktmenge M × . . . × M, d.h.<br />

} {{ }<br />

k-mal<br />

M k := {(m 1 , . . . , m k ) | m j ∈ M}.<br />

Das kartesische Produkt ist nützlich, wenn es darum geht, Beziehungen zwischen<br />

Elementen einer oder mehrerer Mengen zu modellieren. Betrachtet man als<br />

Beispiel die Menge H aller Hörer der Vorlesung Analysis I und S die Menge aller<br />

an der Universität <strong>Paderborn</strong> angebotenen Studienrichtungen, so lässt sich aus der<br />

Teilmenge<br />

{(x, F ) ∈ H × S | x studiert F }<br />

von H × S ablesen, welcher Hörer welches Fach studiert. Allgemein bezeichnet man<br />

jede Teilmenge R eines kartesischen Produkts A × B als eine Relation zwischen<br />

A und B. Die Interpretation von (a, b) ∈ R ist: a ”<br />

steht in Relation“ R zu b. Man<br />

schreibt auch oft aRb statt (a, b) ∈ R. Wenn A gleich B ist, d.h. die Relation aus<br />

Elementen von A × A besteht, spricht man auch von einer Relation auf A.<br />

Beispiel 0.3.1. Sei A = {1, 3, 5} und B = {2, 3, 4}. Dann ist<br />

R := {(1, 2), (1, 3), (1, 4), (3, 4)}<br />

eine Relation. Bei genauerem Hinsehen stellt man fest, dass (a, b) ∈ A × B genau<br />

dann Element der Relation ist, wenn a kleiner als b ist. Wenn man jetzt die Relation<br />

< statt R nennt, wird die Schreibweise aRb zu a < b. Auf diese Weise erhält man<br />

eine saubere mengentheoretische Beschreibung der Relation ohne auf die gewohnte<br />

intuitive Schreibweise verzichten zu müssen.<br />

Wenn jedes Element von A zu genau einem Element von B in Relation steht,<br />

nennt man so eine Relation eine Abbildung oder Funktion von A nach B. Die<br />

Idee hinter dieser Setzung ist, dass man jedem Element a von A genau ein Element<br />

b von B zuordnen will, nämlich dasjenige mit (a, b) ∈ R. Man schreibt dann<br />

R: A → B, a ↦→ R(a)<br />

und R(a) = b für (a, b) ∈ R. Auch hier dient die veränderte Schreibweise dazu,<br />

saubere mengentheoretische Definitionen (in denen nicht von Variablen etc. die<br />

Rede ist) und die traditionelle Notation für Funktionen unter einen Hut zu bringen.<br />

Die obige Relation zwischen Hörern der Analysis I und Studienrichtungen der<br />

Universität <strong>Paderborn</strong> ist also genau dann eine Funktion, wenn jeder Hörer für eine<br />

Studienrichtung eingeschrieben ist, aber nicht für mehrere (jedem Hörer lässt sich in<br />

eindeutiger Weise eine Studienrichtung zuordnen). Nicht ausgeschlossen ist durch


0.3 Die Sprache der Mathematik: Mengenlehre 15<br />

die Definition der Funktion, dass mehrere Hörer für die gleiche Studienrichtung<br />

eingeschrieben sind.<br />

Die Formalisierung des Funktionsbegriffs als Teilmenge eines kartesischen Produkts<br />

mit gewissen Eigenschaften ist ein erstes Beispiel dafür, dass die Mengenlehre<br />

in der Lage ist, einen einheitlichen Rahmen für zunächst als ganz verschieden betrachtete<br />

mathematische Begriffe zu schaffen. Sie ist ein wesentlicher Schritt im stufenweisen<br />

Aufbau eines immer komplexer werdenden mathematischen Universums,<br />

in dem nach immer den gleichen Prinzipien aus Mengen Funktionen zwischen Mengen,<br />

dann Mengen von Funktionen zwischen Mengen, dann Funktionen zwischen<br />

Mengen von Funktionen zwischen Mengen, etc. werden.<br />

An dieser Stelle könnte man schon eine Reihe von Eigenschaften von Vereinigungsund<br />

Durchschnittsmengen, Relationen und Funktionen beweisen. Da hier aber die<br />

Mengentheorie nicht Selbstzweck, sondern nur Startpunkt für das Studium von<br />

Zahlensystemen, Gleichungen und Funktionen sein soll, schieben wir mengentheoretische<br />

Überlegungen immer dort ein, wo sie tatsächlich gebraucht werden.<br />

Mathematische Gesetzmäßigkeiten werden normalerweise als Sätze formuliert.<br />

Sätze können unterschiedliches Gewicht und unterschiedliche Funktionen haben.<br />

Einen Satz, den man (gemessen am Kontext) relativ leicht beweisen kann, bezeichnet<br />

man oft als Proposition. Sätze, die vorbereitender Natur sind, werden oft<br />

Lemma genannt. Das Wort Lemma (Plural: Lemmata) ist griechisch und bedeutet<br />

wörtlich ”<br />

Annahme“ (vgl. auch Dilemma). Dagegen heißen Sätze, die mehr oder<br />

weniger unmittelbare Konsequenzen eines vorausgehenden Satzes sind, oft Korollar.<br />

Wir schließen diese Vorbemerkung mit einem speziellen mengentheoretischen<br />

Axiom ab, das in der Grundlagendebatte eine besondere Rolle gespielt hat. In der<br />

Linearen Algebra ist es noch nicht unverzichtbar, aber sowohl in der Algebra als<br />

auch der Analysis kommt man ohne dieses Axiom nicht sehr weit. Ein wichtiger<br />

Grund für uns, dieses Axiom an dieser Stelle einzuführen ist, dass man mehrere<br />

dazu äquivalente Axiome angegeben kann, die ganz unterschiedlich plausibel sind.<br />

Axiom 0.3.2 (Auswahlaxiom). Sei Γ eine Menge und {U γ | γ ∈ Γ } eine Menge<br />

von nichtleeren Mengen. Dann kann man aus jedem U γ ein Element x γ ∈ U γ<br />

auswählen.<br />

Schwierigkeiten macht das Auswahlaxiom, wenn Γ sehr viele (z.B. überabzählbar<br />

viele) Elemente enthält. Das Auswahlaxiom ist plausibel, aber unabhängig von den<br />

gängigen Axiomensystemen der Mengenlehre (z.B. Zermelo–Fraenkel) und damit<br />

nicht beweisbar. Die Frage, ob man das Auswahlaxiom benutzen darf, hat im Grundlagenstreit<br />

eine wichtige Rolle gespielt. Wir merken an, dass wir das Auswahlaxiom<br />

benutzen, wo immer wir es nicht vermeiden können.<br />

Eine partielle Ordnung auf einer Menge M ist eine Relation ≤ auf M, die<br />

folgende Eigenschaften hat:<br />

(a) x ≤ x (Reflexivität).<br />

(b) Aus x ≤ y und y ≤ z folgt x ≤ z (Transitivität).<br />

(c) Aus x ≤ y und y ≤ x folgt x = y (Antisymmetrie).<br />

Man schreibt auch y ≥ x für x ≤ y. Eine partielle Ordnung, die<br />

für alle x, y ∈ M : (x ≤ y oder y ≤ x)


16 0 Vorbemerkungen<br />

erfüllt, heißt totale Ordnung.<br />

Um sich die Schreibarbeit zu vereinfachen und um später bei komplizierteren Aussagen<br />

den Überblick zu behalten, benutzt man für die Quantoren ”<br />

für alle“ und ”<br />

es<br />

existiert ein“ abkürzende Schreibweisen:<br />

• Statt ”<br />

für alle“ (oder ”<br />

zu jedem“) schreibt man ”<br />

∀“<br />

• Statt ”<br />

gibt es“ (oder ”<br />

existiert“) schreibt man ”<br />

∃“<br />

Sei (M, ≤) eine partiell geordnete Menge und N ⊆ M. Dann heißt x ∈ M eine<br />

obere Schranke von N, wenn y ≤ x für alle y ∈ N gilt. Analog heißt x ∈ M eine<br />

untere Schranke von N, wenn x ≤ y für alle y ∈ N gilt.<br />

N heißt total geordnet oder eine Kette, wenn die Einschränkung der Relation<br />

≤ auf N eine totale Ordnung ist.<br />

Eine total geordnete Menge M heißt induktiv geordnet, wenn jede total geordnete<br />

Teilmenge eine obere Schranke besitzt. Ein Element x ∈ N heißt maximal<br />

in N, wenn<br />

∀x ′ ∈ N : (x ≤ x ′ ⇒ x = x ′ ).<br />

Axiom 0.3.3 (Zornsches Lemma).<br />

maximales Element.<br />

Jede induktiv geordnete Menge hat ein<br />

Eine total geordnete Menge M heißt wohlgeordnet, wenn jede nichtleere Teilmenge<br />

N von M ein kleinstes Element hat, d.h. eine untere Schranke, die zu N<br />

gehört.<br />

Axiom 0.3.4 (Wohlordnungssatz). Jede Menge kann wohlgeordnet werden.<br />

Es klar ist, wie man die natürlichen oder die ganzen Zahlen wohlordnen kann.<br />

Man sich damit auch relativ leicht überlegt, wie das für die rationalen Zahlen zu<br />

bewerkstelligen ist. Andererseits ist überhaupt nicht zu sehen, wie eine Wohlordnung<br />

auf den reellen Zahlen auszusehen hat. Die übliche Ordnung tut es ganz sicher<br />

nicht: was zum Beispiel sollte die kleinste Zahl sein, oder die kleinste Zahl, die im<br />

herkömmlichen Sinne strikt positiv ist?<br />

Man kann zeigen, dass das Zornsche Lemma 0.3.3 äquivalent zu einer Reihe<br />

anderer mengentheoretischer Aussagen ist, darunter auch das Auswahlaxiom 0.3.2<br />

und der Wohlordnungssatz 0.3.4. Damit ist das Zornsche Lemma zwar in der Mengenaxiomatik<br />

von Zermelo-Fraenkel unter Zuhilfenahme des Auswahlaxioms beweisbar,<br />

nicht aber ohne dieses. Es birgt daher dieselben Schwierigkeiten wie das<br />

Auswahlaxiom und wir setzen es als Axiom ein.<br />

Es stellt sich also heraus, dass das Zornsche Lemma äquivalent zu einer ”<br />

offensichtlich<br />

richtigen“ Aussage ist (dem Auswahlaxiom), aber auch zu einer ”<br />

offensichtlich<br />

falschen“ (dem Wohlordnungssatz). Plausibilitätsargumenten ist in der<br />

Mathematik also mit Vorsicht zu begegnen.<br />

Literatur: [DH85], [GH70], [Ha72], [If86], [Kat98], [Kl72], [Si98]<br />

Übung 0.3.1 (Mengen I). Unter den folgenden sechs Aussagen sind einige nur verschiedene<br />

Beschreibungen ein und desselben Sachverhalts. Man finde heraus, welche das sind<br />

(mit Begründung):


0.3 Die Sprache der Mathematik: Mengenlehre 17<br />

a) {x} ⊂ M b) {x} ∈ M c) x ∈ M<br />

d) {x} ∩ M = ∅ e) {x} \ M = ∅ f) M \ {x} = ∅ .<br />

Übung 0.3.2 (Mengen II). Man entscheide, ob die folgenden Aussagen richtig oder falsch<br />

sind.<br />

(i) 1 ∈ {1, {2, 3}}.<br />

(ii) 1 ∈ {2, {1, 3}}.<br />

(iii)1 ∈ {{1}, 2, 3}.<br />

(iv){1} = {1, {1}}.<br />

Übung 0.3.3 (Mengen III). Zeige: Für M, N ⊂ X gilt<br />

(v) ∅ ∈ ∅.<br />

(vi){1} ⊆ {{1}, 2, 3}.<br />

(vii){1, 2} = {2, 1}.<br />

(viii)∅ = {∅}.<br />

X \ (M ∪ N) = (X \ M) ∩ (X \ N) .<br />

Übung 0.3.4 (Mengen IV). Zeige: Für M, N ⊂ X gilt<br />

X \ (M ∩ N) = (X \ M) ∪ (X \ N) .<br />

Übung 0.3.5 (Abbildungen I). Eine Abbildung f : M → N heißt injektiv, falls es für<br />

jedes y ∈ N höchstens ein x ∈ M gibt mit f(x) = y. Die Abbildung f heißt surjektiv, falls<br />

es für jedes y ∈ N (mindestens) ein x ∈ M gibt mit f(x) = y.<br />

Man entscheide, welche der folgenden Abbildungen injektiv und/oder surjektiv ist. Hierbei<br />

sei S die Menge der Studierenden der Universität <strong>Paderborn</strong>.<br />

1. f : S → N, f(s) =Matrikelnummer von s,<br />

2. f : S → {Studienfächer der Universität <strong>Paderborn</strong>}, f(s) =Studienfach von s,<br />

3. f : Z → Z, x ↦→ 2x + 1, d) f : Z → Z, x ↦→ x 2 , e) f : N → N, x ↦→ x 2 .<br />

Übung 0.3.6 (Abbildungen II). Sei M = {a, b} eine Menge mit genau zwei Elementen<br />

a, b. Bestimme die Menge Abb(M, M) aller Abbildungen f : M → M.<br />

Übung 0.3.7 (Abbildungen III). Sei f : X → Y eine Abbildung und für N ⊂ Y bezeichne<br />

das Urbild von N unter f. Zeige:<br />

f −1 (N) := {x ∈ X | f(x) ∈ N}<br />

1. Für M 1 ⊂ M 2 ⊂ X und N 1 ⊂ N 2 ⊂ Y gilt<br />

2. Für M ⊂ X und N ⊂ Y gilt<br />

f(M 1) ⊂ f(M 2) und f −1 (N 1) ⊂ f −1 (N 2) .<br />

M ⊂ f −1 (f(M)) und f(f −1 (N)) ⊂ N .<br />

Übung 0.3.8 (Abbildungen IV). Es sei f : M → N eine Abbildung. Man zeige:<br />

f injektiv ⇐⇒ f(M \ A) ⊂ N \ f(A) für alle A ⊂ M .<br />

Übung 0.3.9 (Abbildungen V). Seien f : X → Y und g : Y → X Abbildungen, für die<br />

g(f(x)) = x für alle x ∈ X und f(g(y)) = y für alle y ∈ Y gilt. Zeige:<br />

1. f ist injektiv<br />

(Beweisstruktur: Seien x, x ′ ∈ X mit f(x) = f(x ′ ). Dann gilt . . . , also x = x ′ .)<br />

2. f ist surjektiv<br />

(Beweisstruktur: Sei y ∈ Y . Wähle x = . . ., dann ist f(x) = y.)<br />

Übung 0.3.10 (Abbildungen VI). Welche der folgenden Aussagen gelten für alle Abbildungen<br />

f : X → Y und alle Teilmengen M, N von X:<br />

1. f(M ∩ N) = f(M) ∩ f(N),<br />

2. f(M ∪ N) = f(M) ∪ f(N),<br />

3. f(X \ M) = Y \ f(M).


18 0 Vorbemerkungen<br />

Beweise die Aussagen bzw. gib ein Gegenbeispiel an.<br />

Übung 0.3.11 (Mengen).<br />

1. Seien N, M Mengen. Zeige:<br />

M ⊂ N ⇐⇒ P(M) ⊂ P(N) ,<br />

wobei P(M) die Potenzmenge von M bezeichnet.<br />

2. Finde eine Folge von Mengen A 1, A 2, . . ., so dass A 1 ∩ . . . ∩ A n ≠ ∅ gilt für alle n ∈ N,<br />

es aber kein x gibt mit x ∈ A n für alle n ∈ N.


Teil I<br />

Systeme von Gleichungen und Zahlen


Vorbemerkung<br />

Wir beginnen diesen Teil mit dem Studium linearer Gleichungssysteme, d.h.<br />

Systemen der Form<br />

a 11 x 1 + ... + a 1n x n = b 1<br />

.<br />

. .<br />

a m1 x 1 + ... + a mn x n = b m<br />

(LGS)<br />

wobei die a ij Elemente eines Körpers K sind (z.B. des Körpers R aller reellen Zahlen)<br />

und die x j die (in K) zu bestimmenden Unbekannten (vgl. Kapitel 1).<br />

Die Lösungsmengen linearer Gleichungssysteme führen auf den Begriff des linearen<br />

Unterraums von K n = {(x 1 , . . . , x n ) | x j ∈ K}. Genauere Fragen nach<br />

der Größe“ der Lösungsmengen liefern Begriffe wie lineare Unabhängigkeit“,<br />

” ”<br />

” Basis“ und Dimension“ (vgl. Kapitel 2). Insbesondere führt das Problem, zwei<br />

”<br />

Lösungsmengen zu vergleichen auf den Begriff der linearen Abbildung“. Die Berechnung<br />

von Lösungen und charakteristischen Größen wie Dimensionen wird stark<br />

”<br />

erleichtert durch die Matrizenrechnung (vgl. Kapitel 3).<br />

Ein eigenes Kapitel ist den Determinanten“ gewidmet (vgl. Kapitel 4). Dies sind<br />

”<br />

Zahlen, die man quadratischen Matrizen zuordnen kann. An der Determinante kann<br />

man ablesen, ob eine lineare Abbildung umkehrbar ist. Später wird man sehen, dass<br />

Determinanten auch ganz natürlich in der Berechnung von Volumina auftauchen<br />

und eine wichtige Rolle in der Beschreibung linearer Abbildungen spielen.


1<br />

Lineare Gleichungssysteme<br />

In diesem Kapitel zeigen wir, wie man lineare Gleichungssysteme mit Hilfe des<br />

Gauß-Algorithmus systematisch lösen kann. Neben einigen Umformulierungen des<br />

Gauß-Algorithmus betrachten wir auch die Struktur der Lösungsmengen im Falle<br />

zweier Variablen. Dieser einfache Fall liefert dann den Ansatzpunkt für eine eingehendere<br />

Untersuchung der Lösungsmengen allgemeiner linearer Gleichungssysteme.<br />

Es gibt mehrere Gründe dafür, eine Vorlesung ”<br />

Lineare Algebra“ mit der Untersuchung<br />

von linearen Gleichungssystemen zu beginnen. Einer davon ist rein didaktisch:<br />

Zumindest kleine lineare Gleichungssysteme kommen auch im Schulunterricht<br />

vor, man knüpft also bei Bekanntem an. Außerdem kann man das gesetzte Ziel,<br />

diese Systeme zu lösen wann immer das geht, direkt angehen und muss nicht vorher<br />

langwierig einen großen Apparat einführen, mit dem man das gestellte Problem<br />

dann löst. Im weiteren Verlauf bieten die linearen Gleichungssysteme dann auch die<br />

Möglichkeit, eine Reihe von Konzepten 1 einzuführen, die überall in der Mathematik<br />

eine zentrale Rolle spielen. Aber es lässt sich auch inhaltlich begründen das Lösen<br />

von linearen Gleichungen an den Anfang zu stellen. Das Lösen von Gleichungen<br />

allgemein ist ein zentrales Anliegen der Mathematik und ein Großteil der (approximativen)<br />

Lösungsverfahren, die man kennt, basieren darauf, das jeweilige Problem<br />

in geschickter Weise auf ein lineares Problem zurückzuführen. Sehr viel strukturelle<br />

Mathematik dient genau dem Zweck, diese ”<br />

Linearisierung“ wirklich durchführen<br />

zu können.<br />

1.1 Körper<br />

An sich ist es für die Zwecke dieses Kapitels gut genug alle Rechnungen mit<br />

den als bekannt vorausgesetzten reellen Zahlen R durchzuführen. Um aber präzise<br />

darüber buchführen zu können, welche Eigenschaften der reellen Zahlen wir wirklich<br />

dabei benutzen, führen wir den Begriff des Körpers ein. Bis auf weiteres werden<br />

wir nur die Körpereigenschaften verwenden. Wenn wir schließlich speziellere Eigenschaften<br />

brauchen, werden wir gesondert darauf hinweisen.<br />

Seien M und N zwei Mengen, wobei wir eine Menge ganz naiv als Ansammlung<br />

von Objekten, ihren Elementen, auffassen 2 . Eine Abbildung ϕ : M → N ist eine<br />

1 wie z.B. Vektorräume, Dimension, Basen, Lineare Abbildungen u.v.m.<br />

2 Die Fallstricke, die die Betrachtungsweise in sich birgt (Paradoxien á la Russell!), ignorieren<br />

wir in dieser Vorlesung.


24 1 Lineare Gleichungssysteme<br />

Vorschrift, die jedem Element m ∈ M genau ein Element ϕ(m) ∈ N zuordnet. Man<br />

schreibt m ↦→ ϕ(m).<br />

Definition 1.1.1. Ein Körper ist eine Menge K, die mindestens zwei Elemente<br />

enthält, zusammen mit zwei Abbildungen +, · : K × K → K, genannt Addition<br />

und Multiplikation, so dass gilt:<br />

(Add)<br />

(1) (∀a, b ∈ K) a + b = b + a (Kommutativgesetz)<br />

(2) (∀a, b, c ∈ K) a + (b + c) = (a + b) + c (Assoziativgesetz)<br />

(3) (∃0 ∈ K) (∀a ∈ K) 0 + a = a (Neutrales Element oder Null)<br />

(4) (∀a ∈ K) (∃b ∈ K) a + b = 0 (Additives inverses Element)<br />

(Mult)<br />

(1) (∀a, b ∈ K) a · b = b · a (Kommutativgesetz)<br />

(2) (∀a, b, c ∈ K) a · (b · c) = (a · b) · c (Assoziativgesetz)<br />

(3) (∃1 ∈ K) (∀a ∈ K) 1 · a = a (Neutrales Element oder Eins)<br />

(4) (∀a ∈ K \ {0}) (∃b ∈ K) a · b = 1 (Inverses Element von a)<br />

(Dist) (∀a, b, c ∈ K) (a + b) · c = a · c + b · c (Distributivgesetz)<br />

Im Distributivgesetz haben wir die ”<br />

Punkt vor Strich“ Konvention benutzt, nach<br />

der Multiplikationen immer vor Additionen ausgeführt werden. Ansonsten müsste<br />

man (a + b) · c = (a · c) + (b · c) schreiben. In der Multiplikation schreibt man für<br />

gewöhnlich einfach ab statt a · b.<br />

Diese Auflistung von Eigenschaften, die die reellen Zahlen alle erfüllen, zeigt<br />

also, dass R ein Körper ist.<br />

Die folgenden Beispiele zeigen, dass mehrere der schon in den Vorbemerkungen<br />

angesprochenen Zahlbereiche Körper sind, aber nicht alle. Gerade für das Lösen<br />

von Gleichungen ist die Existenz von multiplikativen Inversen besonders wichtig.<br />

Ohne diese Eigenschaft verkompliziert sich alles enorm. Daher betreibt man in einer<br />

Anfängervorlesung die Lineare Algebra nicht über den ganzen Zahlen Z, obwohl die<br />

Suche nach ganzzahligen Lösungen von großem Interesse wäre.<br />

Beispiel 1.1.2. (a) Sei Q ⊆ R die Menge von Brüchen der Form p q<br />

mit p und q ≠ 0<br />

aus den ganzen Zahlen. Dann ist Q mit den von R geerbten Verknüpfungen<br />

(Addition und Multiplikation) ein Körper, den man den Körper der rationalen<br />

Zahlen nennt.<br />

(b) Die Menge Z der ganzen Zahlen erfüllt bzgl. der normalen Addition und<br />

Multiplikation alle Körperaxiome bis auf eines: Die Existenz des multiplikativen<br />

Inversen. Eine solche Menge nennt man einen kommutativen Ring mit Eins<br />

c) Hätte man nicht vorausgesetzt, dass ein Körper mindestens zwei Elemente haben<br />

muss, dann wäre auch die Menge {0} mit den Verknüpfungen 0 + 0 = 0<br />

und 0 · 0 = 0 ein Körper.<br />

(d) Die zweielementige Menge {g, u} mit den Verknüpfungen<br />

+ g u<br />

g g u<br />

u u g<br />

· g u<br />

g g g<br />

u g u<br />

ist ein Körper mit g als Null und u als Eins 3 .<br />

3 Man sollte g als ”<br />

gerade“ lesen und u als ”<br />

ungerade“. Dann spiegeln die beiden Verknüpfungen<br />

das Verhalten von geraden und ungeraden Zahlen unter Addition und Multiplikation<br />

wieder.


1.1 Körper 25<br />

⊓⊔<br />

Beispiel 1.1.3. Definiere auf C := {(a, b) | a, b ∈ R} die Addition<br />

und die Multiplikation<br />

(a, b) + (a ′ , b ′ ) := (a + a ′ , b + b ′ )<br />

(a, b) · (a ′ , b ′ ) := (aa ′ − bb ′ , ab ′ + ba ′ ).<br />

Dann ist C ein Körper mit (0, 0) als Null und (1, 0) als Eins (Übung). Dieser Körper<br />

heißt der Körper der komplexen Zahlen.<br />

Um die Schreibweise zu erleichtern, führt man die Notation a + ib für (a, b)<br />

ein. Die Zahl a nennt man den Realteil Re(a + ib) von a + ib und die Zahl b den<br />

Imaginärteil Im(a + ib) von a + ib.<br />

Man betrachtet R als Teilmenge von C, indem man a mit (a, 0) = a + i0 identifiziert.<br />

Definiert man die imaginäre Einheit i := (0, 1), so erhält man zunächst<br />

(a, 0) + i · (b, 0) = (a, 0) + (0, 1) · (b, 0) = (a, 0) + (0, b) = (a, b) = a + ib<br />

(also entstehen durch die Identifikation a = (a, 0) keine Zweideutigkeiten). Außerdem<br />

gilt<br />

i · i = (0, 1) · (0, 1) = (−1, 0) = −1.<br />

Die Multiplikation<br />

(a + ib) · (a ′ + ib ′ ) = (aa ′ − bb ′ ) + i(ab ′ + ba ′ )<br />

entsteht also durch formales Ausmultiplizieren. Auch hier lässt man normalerweise<br />

den Multiplikationspunkt weg und schreibt zz ′ statt z · z ′ .<br />

⊓⊔<br />

Der Körper der komplexen Zahlen spielt in der Linearen Algebra eine ganz wesentliche<br />

Rolle. Der Grund dafür ist der Fundamentalsatz der Algebra, der besagt,<br />

dass für jede polynomiale Gleichung Lösungen existieren. Auch andere Körper haben<br />

diese Eigenschaft, die man algebraische Abgeschlossenheit nennt. Aber weder<br />

R noch Q sind algebraisch abgeschlossen.<br />

Bis auf weiteres reicht es jedoch aus, sich bei allen Rechnungen die reellen Zahlen<br />

vorzustellen, sich dabei aber immer klarzumachen, dass in den Rechnungen keine<br />

anderen als die Körpereigenschaften der reellen Zahlen benutzt werden.<br />

Es folgen einige Rechenregeln für Körper, die man unmittelbar aus den Axiomen<br />

in Definition 1.1.1 ableiten kann.<br />

Bemerkung 1.1.4. Sei K ein Körper.<br />

(i) Es gibt genau eine Null und genau eine Eins in K: Wenn nämlich 0 und 0 ′ beide<br />

Nullen sind, dann gilt<br />

0 = 0 + 0 ′ = 0 ′ .<br />

Für die Eins geht das Argument analog.<br />

(ii) Es gibt zu a ∈ K genau ein additives Inverses b ∈ K, das man dann mit −a<br />

bezeichnet: Wenn b, b ′ ∈ K additive Inverse von a ∈ K sind, dann gilt<br />

b = b + 0 = b + (a + b ′ ) = (b + a) + b ′ = 0 + b ′ = b ′ .<br />

Man nennt das additive Inverse von a oft auch einfach das Negative von a.


26 1 Lineare Gleichungssysteme<br />

(iii) Es gibt zu a ∈ K \ {0} genau ein multiplikatives Inverses b ∈ K, das man dann<br />

mit a −1 bezeichnet: Wenn b, b ′ ∈ K multiplikative Inverse von a ∈ K \ {0} sind,<br />

dann gilt<br />

b = b1 = b(ab ′ ) = (ba)b ′ = 1b ′ = b ′ .<br />

(iv) Für alle a ∈ K gilt 0a = 0: Wegen 0a + 0a = (0 + 0)a = 0a haben wir<br />

0 = 0a + (−0a) = (0a + 0a) + (−0a) = 0a + ( 0a + (−0a) ) = 0a + 0 = 0a.<br />

(v) Es gilt (−1)a = −a für alle a ∈ K, weil<br />

a + (−1)a = 1a + (−1)a = (1 + (−1))a = 0a = 0.<br />

⊓⊔<br />

Übungen zu Abschnitt 1.1<br />

Axiome<br />

Übung 1.1.1. Zeige, dass in einem Körper immer 0 ≠ 1 gilt.<br />

Übung 1.1.2. Betrachte die Körperaxiome, wie sie in Definition 1.1.1 aufgeführt sind. Man<br />

zeige, dass<br />

(Mult) (3)<br />

(∃1 ∈ K \ {0}) : (∀a ∈ K) 1a = a<br />

auch durch<br />

(Mult) (3 ′ )<br />

(∃1 ∈ K) : (∀a ∈ K) 1a = a<br />

ersetzt werden kann. Dies zeigt, dass die Forderungen, dass K mindestens zwei Elemente<br />

enthält und dass 1 ≠ 0 gilt, redundant sind.<br />

Übung 1.1.3. Betrachte die Körperaxiome, wie sie in Definition 1.1.1 aufgeführt sind. Man<br />

zeige, dass die beiden Axiome (Add) (3) und (Add) (4) gemeinsam ersetzt werden können<br />

durch das Axiom<br />

(Add) (3 ′ ) (∀a, b ∈ K)(∃x ∈ K) : a + x = b (Lösbarkeit) .<br />

Zeigen Sie hierzu, dass die Forderung von (Add) (1)−(4) gleichbedeutend ist mit der Forderung<br />

von (Add) (1),(2),(3 ′ ).<br />

Beispiele<br />

Übung 1.1.4 (Teilen mit Rest). Sei eine natürliche Zahl n ∈ N = {1, 2, 3, . . .} fest gegeben.<br />

Zu jeder ganzen Zahl a ∈ Z betrachte den Rest R n(a), der bleibt, wenn man a durch<br />

n teilt. Dann ist R n(a) ∈ {0, 1, . . . , n − 1} und es gilt a = n · b + R n(a), wobei b ∈ Z eine<br />

ganze Zahl ist. Dann ist Z die disjunkte Vereinigung der Mengen<br />

{a ∈ Z | R n(a) = 0}, . . . , {a ∈ Z | R n(a) = n − 1},<br />

die man die Restklassen von Z modulo n nennt. Wenn zwei Zahlen a, b ∈ Z zur selben<br />

Restklasse gehören, schreibt man a ≡ b mod n. Die Menge aller Restklassen modulo n<br />

bezeichnet man mit Z/nZ.<br />

(i) Für a ∈ Z bezeichne die (eindeutig bestimmte) Restklasse von Z, die a enthält, mit<br />

[a]. Zeige, dass durch<br />

[a] + [b] := [a + b] und [a] · [b] := [ab]<br />

zwei Abbildungen Z/nZ × Z/nZ → Z/nZ definiert werden.


1.2 Der Gaußalgorithmus 27<br />

(ii) Man stelle für die in (i) definierten Verknüpfungen 4 für die Zahlen n = 2, 3, 4, 5 Verknüpfungstafeln<br />

analog denen aus Beispiel 1.1.2(d) auf.<br />

(iii) Man zeige, dass Z/2Z, Z/3Z und Z/5Z Körper sind, nicht aber Z/4Z.<br />

Übung 1.1.5. Verifiziere, dass für alle (a, b), (c, d), (e, f) ∈ C gilt:<br />

1. Kommutativität: (a, b) · (c, d) = (c, d) · (a, b),<br />

2. Assoziativität: ( (a, b) · (c, d) ) · (e, f) = (a, b) · ((c,<br />

d) · (e, f) ) ,<br />

3. Existenz eines neutralen Element: (1, 0) · (a, b) = (a, b) · (1, 0) = (a, b).<br />

Übung 1.1.6. Sei eine komplexe Zahl (a, b) ∈ C gegeben mit (a, b) ≠ (0, 0). Bestimme eine<br />

komplexe Zahl (a ′ , b ′ ) ∈ C, so dass<br />

(a, b) · (a ′ , b ′ ) = (1, 0)<br />

gilt. Ist (a ′ , b ′ ) eindeutig bestimmt? Gilt auch (a ′ , b ′ ) · (a, b) = (1, 0) ?<br />

1.2 Der Gaußalgorithmus<br />

In diesem Abschnitt geben wir ein konstruktives Verfahren zur Bestimmung<br />

von Lösungsmengen beliebig großer Systeme von linearen Gleichungen an. Die notationellen<br />

Vereinfachungen dieser Lösungsmethode werden unser Einstieg in die<br />

Matrizenrechnung sein. Wir beginnen mit einer präzisen Formulierung der zu behandelnden<br />

Gleichungssysteme.<br />

Definition 1.2.1. Sei K ein Körper. Eine lineare Gleichung über K ist eine Gleichung<br />

der Form<br />

a 1 x 1 + . . . + a n x n = b.<br />

(LG)<br />

Dabei sind a 1 , . . . a n , b ∈ K als bekannt vorausgesetzte Zahlen, die man die Koeffizienten<br />

der Gleichung nennt, und x 1 , . . . , x n die Unbekannten. Ein lineares<br />

Gleichungssystem ist eine endliche Menge von linearen Gleichungen:<br />

a 11 x 1 + . . . + a 1n x n = b 1<br />

.<br />

. .<br />

a m1 x 1 + . . . + a mn x n = b m .<br />

(LGS)<br />

Die Lösungsmenge von (LGS) ist die Menge<br />

{(x 1 , . . . , x n ) ∈ K n | die x 1 , . . . , x n erfüllen (LGS)},<br />

wobei K n einfach die Menge aller n-Tupel (x 1 , . . . , x n ) mit x j ∈ K für j = 1, . . . , n<br />

bezeichnet (siehe auch Seite 14).<br />

Wir beginnen unsere systematische Lösungstheorie für (LGS) mit einer Diskussion<br />

des Falls einer einzigen Gleichung, d.h. (LG).<br />

Bemerkung 1.2.2. Eine einzelne lineare Gleichung (LG) lässt sich wie folgt lösen:<br />

1. Fall: a 1 = . . . = a n = 0 und b = 0. In diesem Fall lösen alle x 1 , . . . , x n ∈ K die<br />

Gleichung.<br />

4 Addition und Multiplikation von Restklassen


28 1 Lineare Gleichungssysteme<br />

2. Fall: a 1 = . . . = a n = 0 und b ≠ 0. In diesem Fall löst keine Wahl von x 1 , . . . , x n<br />

die Gleichung.<br />

3. Fall: Nicht alle a j sind Null. Sei a m , 1 ≤ m ≤ n, der erste von Null verschiedene<br />

Koeffizient.<br />

0x 1 + . . . + 0x m−1 + a m x m + . . . + a n x n = b<br />

In diesem Fall wähle x m+1 , . . . , x n beliebig:<br />

und setze<br />

0x 1 + . . . + 0x m−1 + a m x m + a m+1 x m+1 + . . . + a n x n = b,<br />

x m := 1<br />

a m<br />

(b − a m+1 x m+1 − . . . − a n x n ).<br />

Die Wahl der x 1 , . . . , x m−1 hat auf die Gleichung keinen Einfluß.<br />

Das Ergebnis ist: Wählt man x 1 , . . . , x m−1 , x m+1 , . . . , x n beliebig und setzt x m<br />

wie in (∗), dann hat man alle Lösungen von (LG).<br />

(∗)<br />

⊓⊔<br />

Algorithmus 1.2.3 (Gaußalgorithmus, erste Version). Der Gaußalgorithmus<br />

ist ein Verfahren zur Lösung von linearen Gleichungssystemen über Körpern:<br />

Gegeben sei ein Körper K und ein lineares Gleichungssystem (LGS) mit a ij , b i ∈ K<br />

für i = 1, . . . , m und j = 1, . . . , n. Die Idee hinter dem Algorithmus ist, sukzessiv<br />

Unbekannte aus den Gleichungen zu eliminieren, bis man entweder nur noch<br />

eine Unbekannte hat, oder aber erkennt, dass die Unbekannten keine Bedingungen<br />

erfüllen müssen.<br />

1. Schritt: Wenn gilt a 1j = . . . = a mj = 0, dann muss x j keine Bedingung erfüllen,<br />

d.h. x j ist frei wählbar. Seien N := {j ∈ {1, . . . , n} | (∀i = 1, . . . , m) a ij = 0}<br />

(Nullspalten) und U := {1, . . . , n} \ N (nicht-Nullspalten). Streiche alle<br />

Nullspalten.<br />

Ergebnis:<br />

a 1j1 x j1 + . . . + a 1ju x ju = b 1<br />

a 2j1 x j1 + . . . + a 2ju x ju = b 2<br />

(∗ 1 )<br />

.<br />

. .<br />

a mj1 x j1 + . . . + a mju x ju = b m<br />

Nach diesem Schritt gibt es keine Nullspalten mehr, die neue erste Spalte ist<br />

die j 1 -te Spalte, wobei U = {j 1 , . . . , j u } (der Grösse nach geordnet).<br />

2. Schritt: Sei a pj1 der erste von Null verschiedene Koeffizient in der (neuen) ersten<br />

Spalte. Dann vertausche die erste mit der p-ten Zeile.<br />

Ergebnis:<br />

a ′ 1j 1<br />

x j1 + . . . + a ′ 1j u<br />

x ju = b ′ 1<br />

a ′ 2j 1<br />

x j1 + . . . + a ′ 2j u<br />

x ju = b ′ 2<br />

(∗ 2 )<br />

.<br />

. .<br />

a ′ mj 1<br />

x j1 + . . . + a ′ mj u<br />

x ju = b ′ m<br />

Nach diesem Schritt ist der erste Koeffizient in der ersten Zeile von Null verschieden.


1.2 Der Gaußalgorithmus 29<br />

3. Schritt: Teile jeden Koeffizienten in der ersten Zeile durch den ersten Koeffizienten.<br />

Ergebnis:<br />

x j1 + a′ 1j 2<br />

a ′ 1j 1<br />

}{{}<br />

a ′′<br />

1j 2<br />

x j2 + . . . + a′ 1j u<br />

a ′ 1j 1<br />

}{{}<br />

a ′′<br />

1ju<br />

x ju = b′ 1<br />

a ′ 1j 1<br />

}{{}<br />

b ′′<br />

1<br />

Nach diesem Schritt ist der erste Koeffizient in der ersten Zeile gleich 1.<br />

4. Schritt: Subtrahiere von der i-ten Zeile a ′ ij 1<br />

-mal die erste Zeile (i ≥ 2).<br />

Ergebnis:<br />

x j1 + a ′′<br />

1j 2<br />

x j2 + . . . + a ′′<br />

1j u<br />

x ju = b ′′<br />

1<br />

a ′′<br />

2j 2<br />

x j2 + . . . + a ′′<br />

2j u<br />

x ju = b ′′<br />

2<br />

.<br />

. .<br />

a ′′ mj 2<br />

x j2 + . . . + a ′′ mj u<br />

x ju = b ′′ m<br />

Beachte, dass jeder der vier Schritte rückgängig gemacht werden kann, d.h., keine<br />

Information wurde verschenkt. Genauer, wenn (x j1 , . . . , x ju ) eine Lösung von<br />

(∗ 4 ) ist, dann ist (x 1 , . . . , x n ) für beliebige x j mit j ∈ N eine Lösung von (LGS)<br />

und umgekehrt ist für jede Lösung (x 1 , . . . , x n ) von (LGS) auch (x j1 , . . . , x ju )<br />

eine Lösung von (∗ 4 ). Nochmal anders ausgedrückt: Alle vier Schritte lassen die<br />

Lösungsmenge unverändert 5 .<br />

Iteration: Wenn man jetzt das System<br />

(∗ 4 )<br />

a ′′<br />

2j 2<br />

x j2 + . . . + a ′′<br />

2j u<br />

x ju = b ′′<br />

2<br />

.<br />

. .<br />

a ′′ mj 2<br />

x j2 + . . . + a ′′ mj u<br />

x ju = b ′′ m<br />

(∗∗)<br />

lösen kann, dann erhält man zu jeder Lösung (x j2 , . . . , x ju ) von (∗∗) genau eine<br />

Lösung (x j1 , . . . , x ju ) von (∗ 4 ), indem man die erste Zeile von (∗ 4 ) nach x j1<br />

auflöst, d.h.<br />

x j1 = b ′′<br />

1 − (a ′′<br />

1j 2<br />

x j2 + . . . + a ′′<br />

1j u<br />

x ju ).<br />

Also wiederholt man die Schritte 1 bis 4 für das kleinere System (∗∗).<br />

⊓⊔<br />

Wenn man das System (∗∗) im Iterationsschritt betrachtet, erkennt man, warum<br />

man am Anfang den banal erscheinenden Schritt des Nullspaltenstreichens 6 in den<br />

5 An dieser Stelle ist zu zeigen, dass die linearen Gleichungssysteme vor und nach dem<br />

jeweiligen Schritt die gleichen Lösungsmengen haben. Für den 3. Schritt kann man das<br />

wie folgt machen: Wenn (x j1 , . . . , x ju ) die Gleichung<br />

a ′ 1j 1<br />

x j1 + a ′ 1j 2<br />

+ . . . + a ′ 1j u<br />

x ju = b ′ 1<br />

(∗)<br />

löst, dann gilt<br />

x j1 + a′ 1j 2<br />

a ′ 1j 1<br />

x j2 + . . . + a′ 1j u<br />

a ′ 1j 1<br />

x ju = b′ 1<br />

a ′ 1j 1<br />

.<br />

Umgekehrt, wenn (x j1 , . . . , x ju ) die Gleichung (∗∗) löst, dann gilt auch (∗). Damit sind<br />

die Lösungsmengen dieser beiden Gleichungen identisch und weil die anderen Gleichungen<br />

des Systems sich im 3. Schritt nicht ändern, ist der Beweis komplett. Die entsprechenden<br />

Nachweise für die anderen Schritte sind dem Leser als Übung überlassen.<br />

6 Wer würde schon ein Gleichungssystem so aufstellen, in dem gewisse Variablen nur mit<br />

Nullen als Koeffizienten vorkommen?<br />

(∗∗)


30 1 Lineare Gleichungssysteme<br />

Algorithmus aufgenommen hat: In (∗∗) können nämlich durch die vorhergegangenen<br />

Schritte sehr wohl Nullspalten entstanden sein.<br />

Beispiel 1.2.4.<br />

x 1 + 2x 2 + 3x 3 + 4x 4 = 5<br />

4x 1 + 5x 2 + 6x 3 + 7x 4 = 8<br />

3x 1 + 4x 2 + 5x 3 + 6x 4 = 7<br />

0x 1 + x 2 + 2x 3 + 3x 4 = 4<br />

❀<br />

x 1 + 2x 2 + 3x 3 + 4x 4 = 5<br />

− 3x 2 − 6x 3 − 9x 4 = −12<br />

− 2x 2 − 4x 3 − 6x 4 = −8<br />

x 2 + 2x 3 + 3x 4 = 4<br />

❀<br />

x 1 + 2x 2 + 3x 3 + 4x 4 = 5<br />

x 2 + 2x 3 + 3x 4 = 4<br />

− 2x 2 − 4x 3 − 6x 4 = −8<br />

x 2 + 2x 3 + 3x 4 = 4<br />

❀<br />

x 1 + 2x 2 + 3x 3 + 4x 4 = 5<br />

x 2 + 2x 3 + 3x 4 = 4<br />

0x 2 + 0x 3 + 0x 4 = 0<br />

0x 2 + 0x 3 + 0x 4 = 0<br />

Also kann man x 3 und x 4 frei wählen und berechnet dann x 2 und x 1 wie folgt:<br />

x 2 berechnen: x 2 + 2x 3 + 3x 4 = 4 liefert x 2 = 4 − 2x 3 − 3x 4 .<br />

x 1 berechnen: x 1 + 2x 2 + 3x 3 + 4x 4 = 5 liefert x 1 = −3 + x 3 + 2x 4<br />

Die Lösungsmenge ist also<br />

{(−3 + x 3 + 2x 4 , 4 − 2x 3 − 3x 4 , x 3 , x 4 ) ∈ R 4 | x 3 , x 4 ∈ R}.<br />

⊓⊔<br />

Im Prinzip hat man das Problem, die Lösungsmengen linearer Gleichungssysteme<br />

zu bestimmen, mit dem Algorithmus 1.2.3 gelöst: Jedes lineare Gleichungssystem<br />

lässt sich mit dem Gaussalgorithmus lösen, sofern eine Lösung existiert. Allerdings<br />

kann man den Algorithmus noch erheblich ökonomischer formulieren und dabei<br />

zusätzliche Einsichten gewinnen, die für die weitere Entwicklung der Linearen Algebra<br />

wichtig sind.<br />

Eine Matrix ist ein rechteckiges Zahlenschema der Form<br />

⎛<br />

⎞<br />

a 11 . . . a 1n<br />

⎜<br />

⎟<br />

⎝ . . ⎠ .<br />

a m1 . . . a mn<br />

Die a i1 , . . . , a in für i = 1, . . . , m heißen die Zeilen der Matrix und die<br />

⎛ ⎞<br />

a 1j<br />

⎜<br />

⎝<br />

⎟<br />

. ⎠<br />

a mj<br />

für j = 1, . . . , n die Spalten der Matrix.<br />

Wir führen einige neue Bezeichnungen für die Daten eines linearen Gleichungssystems<br />

(LGS) ein. Die Matrizen<br />

⎛<br />

⎛<br />

⎜<br />

⎝<br />

⎞<br />

a 11 a 12 . . . a 1n<br />

.<br />

⎟<br />

. . ⎠<br />

a m1 a m2 . . . a mn<br />

und<br />

⎜<br />

⎝<br />

⎞<br />

a 11 a 12 . . . a 1n b 1<br />

⎟<br />

. . . . ⎠<br />

a m1 a m2 . . . a mn b m


1.2 Der Gaußalgorithmus 31<br />

heißen die Koeffizientenmatrix bzw. die erweiterte Koeffizientenmatrix von<br />

(LGS).<br />

Um die verschiedenen Schritte im Gaußalgorithmus 1.2.3 effizient beschreiben<br />

zu können, betrachtet man für eine Matrix die folgenden elementaren Zeilenumformungen<br />

7 .<br />

Definition 1.2.5 (Elementare Zeilenumformungen).<br />

Typ I(p, q): Vertauschen zweier Zeilen (p) und (q).<br />

Typ II(p; c): Multiplikation einer Zeile (p) mit c ≠ 0.<br />

Typ III(c, p; q): Addition des c-fachen einer Zeile (p) zu einer anderen Zeile (q).<br />

Die elementaren Zeilenumformungen lassen sich durch ebensolche Umformungen<br />

wieder rückgängig machen, d.h. invertieren:<br />

I(p, q) invertiert I(p, q).<br />

II(p; c −1 ) invertiert II(p; c).<br />

III(−c, p; q) invertiert III(c, p; q).<br />

Proposition 1.2.6. Zwei lineare Gleichungssysteme, deren erweiterte Koeffizientenmatrizen<br />

durch eine elementare Zeilenumformung auseinander hervorgehen, haben<br />

dieselben Lösungsmengen.<br />

Beweis. Für die Umformungen vom Typ I(p, q) ist das trivial und die Umformungen<br />

vom Typ II(p; c) wurden in Fußnote 5 behandelt. Der Fall der Umformungen vom<br />

Typ III(c, p; q) sei den Lesern als Übung überlassen.<br />

⊓⊔<br />

Mithilfe von Koeffizientenmatrix und elementaren Zeilenumformungen lässt sich<br />

der Gaußalgorithmus wie folgt darstellen:<br />

Algorithmus 1.2.7 (Gaußalgorithmus, zweite Version).<br />

1.Schritt: Streiche alle Spalten, die nur aus Nullen bestehen. Die übrig bleibenden<br />

Spalten seien j 1 < . . . < j u .<br />

Ergebnis:<br />

⎛<br />

⎜<br />

⎝<br />

⎞<br />

a 1j1 a 1j2 . . . a 1ju b 1<br />

⎟<br />

. . . . ⎠<br />

a mj1 a mj2 . . . a mju b m<br />

2.Schritt: Wenn a pj1 ≠ 0 und a ij1 = 0 für i < p, dann I(1, p).<br />

Ergebnis:<br />

⎛<br />

a ′ 1j 1<br />

a ′ 1j 2<br />

. . . a ′ 1j u<br />

b ′ ⎞<br />

1<br />

⎜<br />

⎟<br />

⎝ . . . . ⎠<br />

a ′ mj 1<br />

a ′ mj 2<br />

. . . a ′ mj u<br />

b ′ m<br />

7 Selbstverständlich lassen sich auch die analogen elementare Spaltenumformungen<br />

betrachten, aber die werden im Moment noch nicht gebraucht.


32 1 Lineare Gleichungssysteme<br />

3.Schritt: II(1;<br />

1<br />

a ′ 1j 1<br />

).<br />

Ergebnis:<br />

⎛<br />

1 a ′′<br />

1j 2<br />

. . . a ′′<br />

1j u<br />

b ′′ ⎞<br />

1<br />

a ′ 2j 1<br />

a ′ 2j 2<br />

. . . a ′ 2j u<br />

b ′ 2<br />

⎜<br />

⎟<br />

⎝ . . . . ⎠<br />

a ′ mj 1<br />

a ′ mj 2<br />

. . . a ′ mj u<br />

b ′ m<br />

4.Schritt: III(−a ′ ij 1<br />

, 1; i), i = 2, . . . , m.<br />

Ergebnis:<br />

⎛<br />

1 a ′′<br />

1j 2<br />

. . . a ′′<br />

1j u<br />

b ′′ ⎞<br />

1<br />

0 a ′′<br />

2j 2<br />

. . . a ′′<br />

2j u<br />

b ′′<br />

2<br />

⎜<br />

⎟<br />

⎝ . . . . ⎠<br />

0 a ′′ mj 2<br />

. . . a ′′ mj u<br />

b ′′ m<br />

Iteration: Starte das Verfahren mit<br />

⎛<br />

⎜<br />

⎝<br />

a ′′<br />

2j 2<br />

. . . a ′′<br />

2j u<br />

b ′′<br />

2<br />

.<br />

. . .<br />

a ′′ mj 2<br />

. . . a ′′ mj u<br />

b ′′ m<br />

⎞<br />

⎟<br />

⎠<br />

⊓⊔<br />

Beispiel 1.2.8. (i)<br />

x 1 + 2x 2 + 3x 3 + 4x 4 = 5<br />

4x 1 + 5x 2 + 6x 3 + 7x 4 = 8<br />

3x 1 + 4x 2 + 5x 3 + 6x 4 = 7<br />

0x 1 + x 2 + 2x 3 + 3x 4 = 4<br />

⎛ ⎞ ⎛<br />

⎞ ⎛<br />

⎞ ⎛ ⎞<br />

1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5<br />

⎜ 4 5 6 7 8<br />

⎟<br />

⎝ 3 4 5 6 7 ⎠ ❀ ⎜ 0 −3 −6 −9 −12<br />

⎟<br />

⎝ 0 −2 −4 −6 −8 ⎠ ❀ ⎜ 0 1 2 3 4<br />

⎟<br />

⎝ 0 −2 −4 −6 −8 ⎠ ❀ ⎜ 0 1 2 3 4<br />

⎟<br />

⎝ 0 0 0 0 0 ⎠<br />

0 1 2 3 4 0 1 2 3 4 0 1 2 3 4 0 0 0 0 0<br />

und man fährt fort wie in Beispiel 1.2.4.<br />

(ii)<br />

ix 1 + 3x 2 = −1<br />

3x 1 − ix 2 = 2<br />

( ) ( ) ( )<br />

i 3 −1 1 −3i i 1 −3i i<br />

❀<br />

❀<br />

❀<br />

3 −i 2 3 −i 2 0 8i 2 − 3i<br />

führt auf x 2 = − 3 8 − 1 4 i und x 1 = i + 3ix 2 = 3 4 − 1 8 i.<br />

( )<br />

1 −3i i<br />

0 1 − 3 8 − 1 4 i<br />

⊓⊔<br />

Der erste Schritt des Gaußalgorithmus (Streichen der Nullspalten) kann bei der<br />

Iteration zu Verwirrung führen, weil man ständig die Variablenanzahl ändern muss.<br />

Darum schleppt man oft die Nullspalten mit, übergeht sie aber im Algorithmus. Als<br />

Ergebnis des Gaußalgorithmus 1.2.7 erhält man eine Matrix im selben Format wie<br />

die erweiterte Koeffizientenmatrix des ursprünglichen (LGS). Genauer, man findet<br />

die folgende Proposition:


1.2 Der Gaußalgorithmus 33<br />

Proposition 1.2.9. Jede (Koeffizienten-) Matrix lässt sich durch elementare Zeilenumformungen<br />

auf eine Zeilenstufenform bringen:<br />

⎛<br />

⎞<br />

0 · · · 0 1 ∗ · · · · · · · · · · · · · · · · · · ∗ · · ·<br />

. . 0 0 · · · 0 1 ∗ · · · · · · ∗ · · ·<br />

. .<br />

. . . . . .<br />

. . 0 0 · · · 0 1 · · ·<br />

. . . . . . . . 0 · · ·<br />

⎜<br />

⎟<br />

⎝ . . . . . . . . . . ⎠<br />

0 · · · 0 0 0 · · · 0 0 0 · · · 0 0 · · ·<br />

Die Stellen einer Matrix in Zeilenstufenform, an denen in einer Zeile zum ersten<br />

Mal eine 1 steht, nennen wir die Stufen der Matrix. Die Anzahl der Spalten, die man<br />

von einer Stufe aus nach links gehen muss, um eine Zeile höher die vorhergehende<br />

Stufe zu finden, heißt die Stufenlänge der Stufe. Die Stufenlänge ist 1, falls die<br />

erste Spalte des betreffenden Iterationsschritts keine Nullspalte ist. Auf jeden Fall<br />

ist die Anzahl der Stufen kleiner gleich der Anzahl der Zeilen bzw. der Spalten (je<br />

nach dem, was kleiner ist).<br />

⊓⊔<br />

Bemerkung 1.2.10. Betrachte jetzt ein lineares Gleichungssystem (LGS) und<br />

bringe die erweiterte Koeffizientenmatrix durch elementare Zeilenumformungen auf<br />

Zeilenstufenform (vgl. Proposition 1.2.9). Seien s 1 < . . . s k die Nummern der Spalten,<br />

in denen eine Stufe vorkommt, d.h. a lsl = 1 und a ij = 0 für (i, j) ≠ (l, s l ) mit<br />

i ≥ l und j ≤ s l . In anderen Worten links unterhalb der Eins stehen Nullen.<br />

Aus einer erweiterten Koeffizientenmatrix in Zeilenstufenform lassen sich verschiedene<br />

Informationen über die Lösungsmenge des zugehörigen 8 (LGS), sofort<br />

ablesen:<br />

Lösbarkeit: Das System (LGS) ist dann und nur dann lösbar, wenn s k ≤ n. In<br />

anderen Worten, wenn h die Anzahl der Stufen der Zeilenstufenform der Koeffizientenmatrix<br />

ist und k die Anzahl der Stufen der Zeilenstufenform der erweiterten<br />

Koeffizientenmatrix, dann muss für die Lösbarkeit von (LGS) gelten<br />

h = k. Um das einzusehen, nehmen wir an, dass s k = n + 1, d.h. in der letzten<br />

Spalte gibt es eine Stufe. Dann hat man die Gleichung<br />

0x 1 + . . . + 0x n = 1<br />

zu lösen, was offensichtlich nicht geht. Umgekehrt, wenn s k ≤ n, dann ist jede<br />

Gleichung des Systems entweder von der Form 0 = 0 oder von der Form<br />

x j + a j+1 x j+1 + . . . + a n x n = b i ,<br />

was für beliebige x j+1 , . . . , x n mit passendem x j gelöst werden kann.<br />

Bestimmung der Lösungsmenge: Wir nehmen jetzt an, dass das (LGS) in Zeilenstufenform<br />

gegeben ist und s k ≤ n. Ziel ist es, diejenigen (x 1 , . . . , x n ) zu<br />

bestimmen, die Lösungen von (LGS) sind.<br />

(A) Alle x j mit j ∉ S := {s 1 , . . . , s k } sind frei wählbar (in K).<br />

8 und damit aller (LGS) aus deren erweiterter Koeffizientenmatrix diese Zeilenstufenform<br />

durch elementare Zeilenumformungen gewonnen werden kann


34 1 Lineare Gleichungssysteme<br />

(B) Die Zahlen x s1 , . . . , x sk<br />

müssen dann das Gleichungssystem<br />

x s1 + a 1,s1+1x s1+1 + . . . + a 1,n x n = b 1<br />

x s2 + a 2,s2+1x s2+1 + . . . + a 1,n x n = b 2<br />

x sk + a k,sk +1x sk +1 + . . . + a 1,n x n = b k<br />

lösen (alle anderen Zeilen von (LGS) liefern nur Nullen und keine Bedingungen).<br />

Das lässt sich von unten nach oben bewerkstelligen:<br />

1. Schritt: Da keine der Spalten s k + 1, . . . , n eine Stufe enthält, sind alle<br />

x j mit j = s k + 1, . . . , n schon in (A) bestimmt worden (durch freie<br />

Wahl). Die Zahl x sk wird dann eindeutig durch die Gleichung<br />

x sk = b k − (a k,sk +1x sk +1 + . . . + a 1,n x n )<br />

festgelegt.<br />

2. Schritt: Da mit Ausnahme von s k keine der Spalten s k−1 + 1, . . . , n eine<br />

Stufe enthält, sind alle x j mit j = s k−1 + 1, . . . , n schon entweder in (A)<br />

(durch freie Wahl) oder in Schritt B.1 bestimmt worden. Die Zahl x sk−1<br />

wird dann eindeutig durch die Gleichung<br />

festgelegt.<br />

x sk−1 = b k−1 − (a k−1,sk−1 +1x sk−1 +1 + . . . + a 1,n x n )<br />

.<br />

k. Schritt: Da mit Ausnahme von s 2 , . . . , s k keine der Spalten s 1 +1, . . . , n<br />

eine Stufe enthält, sind alle x j mit j = s 1 + 1, . . . , n schon entweder<br />

in (A) (durch freie Wahl) oder in den Schritten (B.1) bis (B.(k − 1))<br />

bestimmt worden. Die Zahl x s1 wird dann eindeutig durch die Gleichung<br />

x s1 = b 1 − (a 1,s1+1x s1+1 + . . . + a 1,n x n )<br />

festgelegt.<br />

Zusammen liefern (A) und (B) alle möglichen Lösungen von (LGS).<br />

Nicht-triviale Lösungen: Wenn b i = 0, i = 1, . . . , m, dann ist (LGS) immer<br />

lösbar, weil in diesem Fall in der letzten Spalte der erweiterten Koeffizientenmatrix<br />

keine Stufe sein kann. Es ist z.B. (0, . . . , 0) eine Lösung. Wenn n > m<br />

(mehr Unbekannte als Gleichungen), dann ist n − k ≥ n − m > 0 und es existieren<br />

auch von Null verschiedene Lösungen, weil S eine echte Teilmenge von<br />

{1, . . . , n} sein muss.<br />

.<br />

⊓⊔<br />

Beispiel 1.2.11. Wenn die erweiterte Koeffizientenmatrix von (LGS) durch<br />

⎛<br />

⎞<br />

0 1 2 3 4 5 6<br />

⎜ 0 0 0 1 2 3 4<br />

⎟<br />

⎝ 0 0 0 0 0 1 2 ⎠<br />

0 0 0 0 0 0 0<br />

gegeben ist, dann gilt k = 3, n = 6 und s 1 = 2, s 2 = 4, s 3 = 6. Dementsprechend<br />

gilt


x 6 = 2<br />

x 5 = frei zu wählen<br />

x 4 = 4 − (2x 5 + 3x 6 )<br />

x 3 = frei zu wählen<br />

x 2 = 6 − (2x 3 + 3x 4 + 4x 5 + 5x 6 )<br />

x 1 = frei zu wählen<br />

1.2 Der Gaußalgorithmus 35<br />

Wir führen noch eine abkürzende Schreibweise für das lineare Gleichungssystem<br />

(LGS) ein:<br />

n∑<br />

a ij x j = b i , i = 1, . . . , m. (LGS)<br />

j=1<br />

Dabei symbolisiert das Zeichen ∑ den griechischen Buchstaben Σ (Sigma) und<br />

steht für Summe: ∑ k<br />

j=1 a j = a 1 + . . . + a k . Das lineare Gleichungssystem<br />

n∑<br />

a ij x j = 0, i = 1, . . . , m (HLGS)<br />

j=1<br />

heisst das zu (LGS) gehörige homogene lineare Gleichungssystem. Das System<br />

(LGS) heisst selbst homogen, wenn b i = 0 für alle i = 1, . . . , m.<br />

⊓⊔<br />

Proposition 1.2.12. Sei (y 1 , . . . , y n ) eine Lösung von (LGS). Dann erhält man<br />

alle Lösungen von (LGS), indem man zu (y 1 , . . . , y n ) alle Lösungen des zugehörigen<br />

homogenen Systems (HLGS) addiert (komponentenweise).<br />

Beweis.<br />

Also gilt<br />

n∑<br />

a ij y j = b i , i = 1, . . . , m.<br />

j=1<br />

n∑<br />

a ij z j = b i für i = 1, . . . , m genau dann, wenn<br />

j=1<br />

n ∑<br />

j=1<br />

a ij (z j − y j ) = 0 für<br />

i = 1, . . . , m. Letzteres heißt aber gerade, dass (x 1 , . . . , x n ) mit x j = z j − y j eine<br />

Lösung des homogenen Systems (HLGS) ist.<br />

⊓⊔<br />

Beispiel 1.2.13. Betrachte das (LGS)<br />

x 1 + x 2 + x 3 = 1<br />

x 1 − x 2 + x 3 = 0<br />

x 1 + x 3 = 1 2<br />

Der Gaußalgorithmus 1.2.7 liefert<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1<br />

⎝ 1 −1 1 0 ⎠ ❀ ⎝ 0 −2 0 −1 ⎠ ❀ ⎝<br />

1<br />

0 1 0 ⎠<br />

1 0 1 1 2<br />

0 −1 0 − 1 2<br />

❀ ⎝ 0 1 0 1 ⎠<br />

2<br />

0 −1 0 − 1 2<br />

2<br />

0 0 0 0<br />

d.h. wir erhalten das (LGS)<br />

x 1 + x 2 +x 3 = 1<br />

x 2 = 1 2


36 1 Lineare Gleichungssysteme<br />

Eine Lösung ist durch x 2 = 1 2 , x 1 = 1 2<br />

und x 3 = 0 gegeben. Das resultierende<br />

(HLGS)<br />

x 1 + x 2 +x 3 = 0<br />

x 2 = 0<br />

liefert die Bedingungen x 2 = 0 und x 1 + x 3 = 0. Wählt man x 3 = r ∈ R beliebig, so<br />

sieht man, dass die Lösungen von (HLGS) alle die Form (r, 0, −r) mit beliebigem<br />

r ∈ R haben. Aus der Summe der Lösungen des homogenen Systems und der speziellen<br />

Lösung ( 1 2 , 1 2<br />

, 0) für das inhomogene System ergibt sich die Lösungsmenge des<br />

inhomogenen Systems als {( 1 2 + r, 1 2<br />

, −r) | r ∈ R}.<br />

⊓⊔<br />

Übungen zu Abschnitt 1.2<br />

Übung 1.2.1. Man stelle fest, ob die folgenden Gleichungssysteme in R n eine Lösung haben<br />

und gebe diese gegebenenfalls an:<br />

a)<br />

x 1 − x 2 + 2x 3 = 1<br />

2x 1 + x 2 − x 3 = 0<br />

3x 1 + x 3 = 2<br />

b)<br />

c)<br />

2x 1 − 3x 2 + x 3 = 0<br />

x 1 + x 2 − x 3 = 0<br />

5x 1 − 5x 2 + x 3 = 0<br />

x 1 + x 2 + x 3 + x 4 + x 5 + x 6 = 4<br />

x 1 + x 2 + x 3 − x 4 − x 5 − x 6 = 2<br />

x 1 − x 2 + x 3 − x 4 + x 5 − x 6 = 2<br />

Übung 1.2.2. Man löse, soweit möglich, die folgenden Gleichungssysteme:<br />

a)<br />

x 1 + x 2 + x 3 = 2<br />

2x 1 + 4x 2 − 4x 3 = 4<br />

3x 1 + x 2 + 3x 3 = 0<br />

b)<br />

c)<br />

x 1 + 2x 2 + 2x 3 = 12<br />

2x 1 + 4x 2 + 5x 3 = 4<br />

5x 1 + 10x 2 + 11x 3 = 9<br />

x 1 + x 2 + x 3 + x 4 = 14<br />

2x 1 + 2x 2 − 4x 3 + 5x 4 = 20<br />

5x 1 + 4x 2 + 5x 3 + 5x 4 = 50<br />

d) Wie lautet die Lösung von c), wenn x 1, . . . , x 4 ∈ Z gelten soll?<br />

Übung 1.2.3. Man löse, soweit möglich, das folgende Gleichungssystem:<br />

4x 1 + 2x 2 + 2x 3 − x 4 − 3x 5 − 9x 6 − 4x 7 − 10x 8 = 2<br />

− 2x 2 − 2x 3 − x 4 + 4x 5 + 12x 6 + 4x 7 − 2x 8 = −16<br />

x 1 + x 2 + x 3 − 5x 5 − 15x 6 − 2x 7 − 2x 8 = 11<br />

9x 1 + 3x 2 + 3x 3 − 3x 4 − 3x 5 − 9x 6 − 6x 7 − 24x 8 = −9<br />

Übung 1.2.4. Gegeben sei das folgende vom Parameter t ∈ R abhängige lineare Gleichungssystem<br />

in R 3 :<br />

(2 − t)x 1 + 3x 2 − 6x 3 = 1<br />

3x 1 + (2 − t)x 2 − 6x 3 = 1<br />

−6x 1 − 6x 2 + (11 − t)x 3 = −2


1.2 Der Gaußalgorithmus 37<br />

(a) Man bestimme die Lösungsmenge des LGSs für t = −1.<br />

(b) Für welche t ∈ R ist das LGS eindeutig lösbar?<br />

(c) Für welche t ∈ R ist das zugehörige HLGS durch (x 1, x 2, x 3) ≠ (0, 0, 0) lösbar?<br />

Übung 1.2.5. Gegeben sei das folgende vom Parameter a ∈ R abhängige lineare Gleichungssystem<br />

in R 3 :<br />

ax 1 + 4x 2 + ax 3 = 1<br />

− 2x 2 + 4x 3 = 3<br />

2x 1 + ax 2 + 6x 3 = 4<br />

(a) Für welche a ∈ R ist das LGS lösbar?<br />

(b) Für welche a ∈ R ist das LGS eindeutig lösbar?<br />

(c) Für welche a ∈ R ist das zugehörige HLGS durch (x 1, x 2, x 3) ≠ (0, 0, 0) lösbar?<br />

Übung 1.2.6. Gegeben seien die folgenden Gleichungssysteme in R n :<br />

1)<br />

2)<br />

3x 1 − 2x 2 + x 3 = 1<br />

5x 1 − 4x 2 + 3x 3 = 2<br />

7x 1 − 6x 2 + 5x 3 = 3<br />

x 1 + x 2 − x 3 − x 4 = 1<br />

2x 1 + 5x 2 − 7x 3 − 5x 4 = −2<br />

2x 1 − x 2 + x 3 + 3x 4 = 4<br />

5x 1 + 2x 2 − 4x 3 + 2x 4 = 6<br />

(a) Man bestimme die Lösungsmengen der zugehörigen homogenen Systeme.<br />

(b) Man bestimme die Lösungsmengen der gegebenen Systeme.<br />

Übung 1.2.7. Gegeben seien die folgenden Gleichungssysteme in R n :<br />

1)<br />

2)<br />

2x 1 + 3x 2 + 4x 3 = 2<br />

3x 1 + 4x 2 + 5x 3 = −1<br />

x 1 + x 2 + x 3 = −3<br />

x 1 + x 2 + x 3 + x 4 = 14<br />

2x 1 + 3x 2 − 4x 3 + 5x 4 = 20<br />

3x 1 − 2x 2 − 5x 3 + 2x 4 = −4<br />

5x 1 + 4x 2 + 30x 3 − 5x 4 = 25<br />

(a) Man bestimme die Lösungsmengen der zugehörigen homogenen Systeme.<br />

(b) Man bestimme die Lösungsmengen der gegebenen Systeme.<br />

Übung 1.2.8. Gegeben sei ein lineares Gleichungssystem<br />

a 11x 1 + . . . + a 1nx n = b 1<br />

.<br />

.<br />

.<br />

a m1x 1 + . . . + a mnx n = b m.<br />

(LGS)<br />

mit a ij, b i ∈ K für 1 ≤ i ≤ m, 1 ≤ j ≤ n. Für 1 ≤ k < l ≤ m und λ ∈ K sei (LGS ′ ) das<br />

Gleichungssystem, das aus (LGS) hervorgeht durch Addition des λ-fachen der k-ten Zeile<br />

auf die l-te Zeile.<br />

1. Bestimme die Koeffizienten des linearen Gleichungssystems (LGS ′ ).<br />

2. Zeige, dass (x 1, . . . , x n) genau dann eine Lösung von (LGS) ist, wenn es eine Lösung<br />

von (LGS ′ ) ist.


38 1 Lineare Gleichungssysteme<br />

Übung 1.2.9. Es sei das folgende Gleichungssystem gegeben<br />

a 11x 1 + a 12x 2 = b 1<br />

a 21x 1 + a 22x 2 = b 2<br />

mit a 11, a 21, a 12, a 22, b 1, b 2 ∈ R. Wie sind a 11, a 21, a 12, a 22, b 1, b 2 zu wählen (nur Beispiele!),<br />

wenn das System keine, genau eine, bzw. unendliche viele Lösungen haben soll? Kann man<br />

auch erreichen, dass alle Paare (x 1, x 2) das System lösen?<br />

Übung 1.2.10. Bestimme mit Hilfe des Gaußalgorithmus (zweite Version) die Lösungsmenge<br />

des linearen Gleichungssystems<br />

x 1 − x 2 + x 3 = 1 ,<br />

− x 1 − x 2 + x 3 = 1 ,<br />

x 1 + x 2 − x 3 = 1 .<br />

Übung 1.2.11. Gegeben sei das folgenden Gleichungssysteme in R 3 :<br />

2x 1 + 3x 2 + 4x 3 = 3<br />

3x 1 + 4x 2 + 5x 3 = 0<br />

x 1 + x 2 + x 3 = −3<br />

1. Man bestimme die Lösungsmenge des zugehörigen homogenen Systems.<br />

2. Man bestimme die Lösungsmenge des gegebenen Systems.<br />

Übung 1.2.12. Gegeben sei das folgende lineare Gleichungssystem in R 3<br />

(2a − 1)x 1 + ax 2 + x 3 = 2 − a<br />

ax 1 + ax 2 + x 3 = 1<br />

x 1 + x 2 + ax 3 = 1<br />

Man bestimme die Lösungsmenge des LGSs in Abhängigkeit von dem Parameter a ∈ R.<br />

Übung 1.2.13. Lösen Sie folgendes LGS über den komplexen Zahlen und stellen Sie die<br />

Lösung in der Form (z 1, z 2, z 3) = (x 1 + i y 1, x 2 + i y 2, x 3 + i y 3) mit x k , y k ∈ R dar.<br />

z 1 + (2 + i)z 2 + i z 3 = 1<br />

(1 − i)z 1 + z 2 − 2i z 3 = 2 − i<br />

−z 1 + (2 + 3i)z 2 − i z 3 = 3<br />

Übung 1.2.14. Eine 4 × 4-Matrix heißt ein magisches Viereck, wenn die Summe der Einträge<br />

jeder Zeile, jeder Spalte und jeder der zwei Diagonalen dieselbe Zahl s ist. Man<br />

ersetzte die Sterne durch Zahlen, so dass folgende Matrix ein magisches Viereck wird:<br />

⎛ ⎞<br />

⋆ 2 ⋆ ⋆<br />

⎜⋆ ⋆ ⋆ 3<br />

⎟<br />

⎝1 ⋆ ⋆ ⋆⎠<br />

⋆ ⋆ 3 ⋆<br />

Übung 1.2.15. Ein Schokoladenfabikant kauft Restbestände an Schoko-Osterhasen auf,<br />

um diese zu Weihnachtsmännern umzuschmelzen. Vier Sorten von Osterhasen O 1, . . . , O 4<br />

sind erhältlich, die Kakao und Pflanzenfett in folgender Zusammensetzung enthalten:<br />

in % O 1 O 2 O 3 O 4<br />

K 2 17 32 8<br />

F 3 18 18 11<br />

Preis in 1 6 7 3<br />

e/kg<br />

Wie kauft der Fabrikant möglichst kostengünstig ein, wenn er Weihnachtsmänner mit dem<br />

Gesamtgewicht 15 kg mit 21 % Kakao und 17 % Pflanzenfett herstellen will?


1.3 Gleichungssysteme mit zwei Unbekannten 39<br />

1.3 Gleichungssysteme mit zwei Unbekannten<br />

Lösungsmengen von linearen Gleichungssystemen sind nicht irgendwelche Mengen,<br />

sondern sie haben eine spezielle Struktur, die sich sehr gut geometrisch interpretieren<br />

lässt. Wir illustrieren dies für homogene lineare Gleichungssysteme in dem<br />

besonders einfachen Fall von nur zwei Unbekannten. Die mögliche Zeilenstufenformen<br />

der Koeffizientenmatrix sehen dann wie folgt aus:<br />

a) Zwei Stufen:<br />

⎛ ⎞<br />

1 r<br />

0 1<br />

0 0<br />

⎜ .<br />

⎝ . . ⎟<br />

. ⎠<br />

0 0<br />

•<br />

Das HLGS hat die Form x 2 = 0, x 1 + rx 2 = 0, was auf die Lösungsmenge<br />

{(x 1 , x 2 ) ∈ K 2 | x 1 = 0 = x 2 } führt.<br />

b) Eine Stufe in der ersten Spalte:<br />

⎛ ⎞<br />

1 r<br />

0 0<br />

⎜ ⎟<br />

⎝ . . ⎠<br />

0 0<br />

✟ ✟✟✟✟✟ nicht horizontal!<br />

Hier ist x 2 frei wählbar und x 1 + rx 2 = 0 führt auf x 1 = −rx 2 . Also ist die<br />

Lösungsmenge {(x 1 , x 2 ) ∈ K 2 | x 1 = −rx 2 }.<br />

c) Eine Stufe in der zweiten Spalte:<br />

⎛ ⎞<br />

0 1<br />

0 0<br />

⎜ ⎟<br />

⎝ . . ⎠<br />

0 0<br />

Jetzt gilt x 2 = 0 und x 1 ist frei wählbar, d.h. die Lösungsmenge ist {(x 1 , x 2 ) ∈<br />

K 2 | x 2 = 0}.<br />

d) Keine Stufe:<br />

⎛ ⎞<br />

0 0<br />

⎜ ⎟<br />

⎝ . . ⎠<br />

0 0<br />

Hier sind x 2 und x 1 frei wählbar, d.h. die Lösungsmenge ist K 2 .


40 1 Lineare Gleichungssysteme<br />

Im Fall a) hat das zugehörige (HLGS) nur eine Lösung: (0, 0). Dagegen löst im<br />

Fall d) jedes Paar (x 1 , x 2 ) das (HLGS). Wir wollen die Lösungsmengen in den<br />

Fällen b) und c) geometrisch beschreiben. Es wird sich herausstellen, dass diese<br />

Lösungsmengen Geraden sind. Um präzise sagen zu können, was eine Gerade ist,<br />

führen wir zunächst den n-dimensionalen Zahlenraum ein:<br />

Definition 1.3.1. Sei K ein Körper. Dann heißt K n = {x = (x 1 , . . . , x n ) | x j ∈<br />

K, j = 1, . . . , n} der n-dimensionale Zahlenraum über K. Seine Elemente werden<br />

auch als Vektoren bezeichnet. Auf K n gibt es zwei Rechenoperationen, die<br />

(Vektor)Addition und die Multiplikation mit Skalaren (d.h. Elementen von K,<br />

die wir als Zahlen“ interpretieren).<br />

”<br />

Addition: (x 1 , . . . , x n ) + (y 1 , . . . , y n ) := (x 1 + y 1 , . . . , x n + y n )<br />

Multiplikation mit einem Skalar: c(x 1 , . . . , x n ) := (cx 1 , . . . , cx n )<br />

Es gelten folgende Rechenregeln, wie man unter Verwendung der Körperaxiome<br />

leicht verifiziert (Übung):<br />

(x + y) + z = x + (y + z) ∀x, y, z ∈ K n (Assoziativgesetz)<br />

x + y = y + x ∀x, y ∈ K n (Kommutativgesetz)<br />

c(x + y) = cx + cy<br />

∀x, y ∈ K n , c ∈ K (1. Distributivgesetz)<br />

(c + d)x = cx + dx ∀x ∈ K n , c, d ∈ K (2. Distributivgesetz)<br />

c(dx) = (cd)x<br />

∀x ∈ K n , c, d ∈ K<br />

1x = x<br />

0x = (0, . . . , 0) =: 0 ∈ K n<br />

x + 0 = x<br />

∀x ∈ K n<br />

x + (−1)x = 0<br />

∀x ∈ K n<br />

Wir betrachten die Lösungen eines linearen Gleichungssystems in n Variablen<br />

als Punkte in K n . Lösungsmengen sind also Teilmengen des K n . Die Menge L :=<br />

{v + tw ∈ K n | t ∈ K} mit fest gewählten v ∈ K n und w ∈ K n \ {0} heißt die affine<br />

Gerade durch v mit Richtungsvektor w.<br />

✡ ✡✡ + 2w<br />

✡ ✡✡✣•v<br />

✡ ✡<br />

✡ •v ✡<br />

✡✣ w<br />

✡<br />

✡ ✡ ✡<br />

Wenn v = 0, dann sagt man auch einfach L sei eine Gerade (ohne ”<br />

affin“).<br />

Bemerkung 1.3.2. Die Lösungsmengen der obigen homogenen linearen Gleichungssysteme<br />

lassen sich mithilfe der Vektor-Verknüpfungen wie folgt beschreiben:<br />

{0 + t(−r, 1) | t ∈ K} im Fall b)<br />

und<br />

{0 + t(1, 0) | t ∈ K} im Fall c).<br />

Insbesondere sind beide Lösungsmengen Geraden durch den Nullpunkt.<br />

⊓⊔


1.3 Gleichungssysteme mit zwei Unbekannten 41<br />

Wir zeigen jetzt, dass jede Gerade durch den Nullpunkt als Lösungsmenge einer<br />

homogenen linearen Gleichung vorkommt.<br />

Proposition 1.3.3. Für L ⊂ K 2 sind folgende Aussagen äquivalent:<br />

(1) L ist eine Gerade durch den Nullpunkt.<br />

(2) L ist Lösungsmenge eines homogenen linearen Gleichungssystems (in zwei Unbekannten)<br />

mit einer Zeilenstufenform, in der genau eine Stufe vorkommt.<br />

(3) L ist Lösungsmenge einer homogenen linearen Gleichung a 1 x 1 + a 2 x 2 = 0 mit<br />

(a 1 , a 2 ) ≠ (0, 0).<br />

Beweis. ”<br />

(1) ⇒ (3)“: Sei L = {tw ∈ K 2 | t ∈ K} mit w = (w 1 , w 2 ) ≠ (0, 0). Dann<br />

erfüllt jedes x = (x 1 , x 2 ) ∈ L die Gleichung w 2 x 1 − w 1 x 2 = 0.<br />

” (3) ⇒ (2)“: Betrachte die Koeffizientenmatrix (a 1, a 2 ). Ihre Zeilenstufenform ist<br />

( 1 ∗<br />

)<br />

, wenn a1 ≠ 0, und<br />

(<br />

0 1<br />

)<br />

, wenn a1 = 0 (weil dann a 2 ≠ 0 gelten muss).<br />

Also hat man jeweils genau eine Stufe.<br />

” (2) ⇒ (1)“: Das wurde in Bemerkung 1.3.2 nachgewiesen. ⊓⊔<br />

Als Ergebnis halten wir fest: Die Lösungsmengen von homogenen linearen Gleichungssystemen<br />

in zwei Variablen sind entweder<br />

• der Nullpunkt,<br />

• eine Gerade durch den Nullpunkt, oder<br />

• die ganze Ebene.<br />

Nach Proposition 1.2.12 sind daher die Lösungen von beliebigen linearen Gleichungssystemen,<br />

wenn überhaupt welche existieren, entweder<br />

• ein Punkt,<br />

• eine affine Gerade, oder<br />

• die ganze Ebene.<br />

Umgekehrt zeigen Proposition 1.2.12 und Proposition 1.3.3, dass jeder Punkt, jede<br />

Gerade und die ganze Ebene jeweils Lösung eines linearen Gleichungssystems ist<br />

(vgl. Übung 1.3.1).<br />

Übungen zu Abschnitt 1.3<br />

Übung 1.3.1. Zeige, dass jede affine Gerade in R 2 die Lösungsmenge einer linearen Gleichung<br />

ist.<br />

Übung 1.3.2. Es sei das folgende Gleichungssystem gegeben<br />

a 11x 1 + a 12x 2 = b 1<br />

a 21x 1 + a 22x 2 = b 2<br />

mit a 11, a 21, a 12, a 22, b 1, b 2 ∈ R. Wie sind a 11, a 21, a 12, a 22, b 1, b 2 zu wählen (nur Beispiele!),<br />

wenn das System keine, genau eine, bzw. unendliche viele Lösungen haben soll? Kann man<br />

auch erreichen, dass alle Paare (x 1, x 2) das System lösen?


42 1 Lineare Gleichungssysteme<br />

Übung 1.3.3. Man stelle die Lösungsmengen der Gleichungen 2x+3y = 0 und 2x+3y = 6<br />

sowohl graphisch als auch im 2-dimensionalen Zahlenraum dar. Weiter zeige man, dass die<br />

Lösungsmenge der inhomogenen Gleichung eine affine Gerade ist.<br />

Übung 1.3.4. Zwei verschiedene affine Geraden L = {v +tw : t ∈ R, v, w ∈ R 2 , w ≠ 0} und<br />

L ′ = {v ′ + tw ′ : t ∈ R, v ′ , w ′ ∈ R 2 , w ′ ≠ 0} haben keinen oder genau einen Schnittpunkt.<br />

Wie kann man das an den Vektoren v, w, v ′ , w ′ erkennen?<br />

Übung 1.3.5. Der Einfluß von Rundungsfehlern kann bei der Behandlung linearer Gleichungssysteme<br />

erheblich sein. Man berechne für ε > 0 jeweils die Lösungsmenge von<br />

(a)<br />

(b)<br />

(c)<br />

x + y = 2<br />

x + (1 + ε)y = 2 + ε,<br />

x + y = 2<br />

x + (1 + ε)y = 2,<br />

x + y = 2<br />

x + y = 2.<br />

Übung 1.3.6. Man zeige: Das lineare Gleichungssystem<br />

a x 1 + b x 2 = 0<br />

c x 1 + d x 2 = 0<br />

mit a, b, c, d ∈ K hat genau dann eine von (0, 0) verschiedene Lösung, wenn ad − bc = 0 ist.<br />

Übung 1.3.7. Man zeige, daß die affinen Geraden L = {v + tw ∈ R n | t ∈ R} und<br />

L ′ = {v ′ + sw ′ ∈ R n | s ∈ R} (mit v, v ′ ∈ R n und w, w ′ ∈ R n \ {0}) genau dann<br />

übereinstimmen, wenn v ′ ∈ L und w ′ = cw mit c ∈ R \ {0} gilt.<br />

Übung 1.3.8.<br />

Gegeben sei das folgende lineare Gleichungssystem in R 3<br />

(2k − 1)x 1 + kx 2 + x 3 = 2 − k<br />

kx 1 + kx 2 + x 3 = 1<br />

x 1 + x 2 + kx 3 = 1<br />

(a) Man bestimme die Lösungsmenge des LGSs in Abhängigkeit von dem Parameter k ∈<br />

R.<br />

(b) Man bestimme eine Basis der Lösungsmenge des zugehörigen HLGSs in Abhängigkeit<br />

von dem Parameter k ∈ R.


2<br />

Lineare Unterräume des K n<br />

In diesem Kapitel entwickeln wir verschiedene neue Begriffe ( ”<br />

linearer Unterraum“,<br />

”<br />

lineare Unabhängigkeit“, ”<br />

linearer Spann“, ”<br />

Basis“, ”<br />

Dimension“ etc.),<br />

die man braucht um die Lösungsmengen linearer Gleichungssysteme möglichst effizient<br />

zu beschreiben. Diese Begriffe werden sich aber auch in anderen Kontexten<br />

als sehr nützlich erweisen.<br />

2.1 Lösungsräume homogener Gleichungssysteme<br />

In diesem Abschnitt beginnen wir mit einer genaueren Untersuchung der Lösungsmengen<br />

von homogenen linearen Gleichungssystemen. Dabei dienen die geometrischen<br />

Erkenntnisse aus Abschnitt 1.3 als Inspiration und Muster.<br />

Proposition 2.1.1. Sei<br />

j=1<br />

n∑<br />

a ij x j = 0, i = 1, . . . , m, ein homogenes lineares Gleichungssystem<br />

mit Lösungsmenge U.<br />

(a) Wenn v, w ∈ U, dann gilt v + w ∈ U.<br />

(b) Wenn v ∈ U, t ∈ K, dann gilt tv ∈ U.<br />

Beweis. Gegeben seien t, s ∈ K und v, w ∈ U. Man zeigt (a) und (b) gleichzeitig,<br />

wenn man zeigt, dass dann tv + sw ∈ U gilt.<br />

n∑<br />

a ij (tv j + sw j ) =<br />

j=1<br />

n∑<br />

ta ij v j +<br />

j=1<br />

n∑<br />

sa ij w j = t<br />

j=1<br />

n∑<br />

a ij v j<br />

j=1<br />

} {{ }<br />

= 0 nach Vor.<br />

+s<br />

n∑<br />

a ij w j<br />

j=1<br />

} {{ }<br />

= 0 nach Vor.<br />

= 0.<br />

⊓⊔<br />

Wir gießen die Eigenschaften von Lösungsmengen homogener linearer Gleichungssysteme<br />

in eine Definition, die gleichzeitig den Begriff einer Geraden (durch<br />

den Nullpunkt) verallgemeinert.<br />

Definition 2.1.2. Eine Teilmenge ∅ ≠ U ⊆ K n heißt linearer Unterraum, wenn<br />

gilt:<br />

a) Für alle u, v ∈ U gilt u + v ∈ U.<br />

(Abgeschlossenheit unter der Addition)


44 2 Lineare Unterräume des K n<br />

b) Für alle t ∈ K und u ∈ U gilt tu ∈ U.<br />

(Abgeschlossenheit unter Multiplikation mit Skalaren)<br />

Beispiel 2.1.3. (i) Die Mengen {0} und K n sind lineare Unterräume von K n . Man<br />

nennt sie die trivialen Unterräume.<br />

(ii) Jede Gerade in K n durch 0 ist ein linearer Unterraum.<br />

(iii) Jede Lösungsmenge eines (HLGS) in n Variablen ist nach Proposition 2.1.1 ein<br />

linearer Unterraum des K n .<br />

(iv) Der Schnitt von linearen Unterräumen ist selbst wieder ein linearer Unterraum.<br />

(v) Die Vereinigung von zwei linearen Unterräumen ist genau dann ein linearer<br />

Unterraum, wenn die beiden Räume ineinander enthalten sind (Übung).<br />

⊓⊔<br />

Einer der großen Vorteile der linearen Unterräume von K n ist der Umstand,<br />

dass wenige Elemente solcher Unterräume genügen, diese vollständig zu beschreiben.<br />

Letztendlich werden wir sehen, dass man lineare Unterräume immer aus endlich<br />

vielen Elementen rekonstruieren kann. Insbesondere kann man dann im Prinzip<br />

die vollständige Information über den Lösungsraum eines homogenen linearen Gleichungssystems<br />

im Computer abspeichern, obwohl der Lösungsraum selbst unendlich<br />

viele Elemente enthält, falls dies für den Körper gilt.<br />

Wir nähern uns diesen Tatsachen zunächst dadurch an, dass wir studieren, wie<br />

man zu vorgegebenen Teilmengen A von K n den kleinstmöglichen linearen Unterraum<br />

baut, der diese Teilmenge enthält.<br />

Definition 2.1.4. Sei A ⊆ K n beliebige (nicht leere) Teilmenge. Die Menge<br />

{ k∑ ∣ }<br />

span(A) := c j a j ∈ K n ∣∣ k ∈ N, aj ∈ A, c j ∈ K<br />

j=1<br />

heißt der lineare Spann oder die lineare Hülle von A. Man sagt auch, A spannt<br />

span(A) auf oder A erzeugt span(A). Dementsprechend spricht man auch von A<br />

als einem Erzeugendensystem für span(A). Eine endliche Summe der Form<br />

v =<br />

k∑<br />

c j a j ∈ K n<br />

j=1<br />

heißt Linearkombination der a 1 , . . . , a k , d.h., der lineare Spann von A ist gerade<br />

die Menge der Linearkombinationen von Elementen aus A. Um lästige Fallunterscheidungen<br />

zu vermeiden, setzt man<br />

span(∅) := {0}.<br />

Die Setzung span(∅) := {0} lässt sich durch den folgenden Satz motivieren, weil<br />

{0} der kleinste Untervektorraum eines Vektorraum ist.<br />

Proposition 2.1.5. Sei A ⊆ K n . Dann ist span(A) der kleinste lineare Unterraum,<br />

der A enthält, d.h.<br />

(a) span(A) ist ein linearer Unterraum.<br />

(b) Wenn A ⊆ U und U ein linearer Unterraum ist, dann gilt span(A) ⊆ U.


∑<br />

Beweis. (a) Seien u = m ∑<br />

c j a j , v = k<br />

j=1<br />

2.1 Lösungsräume homogener Gleichungssysteme 45<br />

c ′ l a′ l<br />

l=1<br />

j=1<br />

l=1<br />

und t, s ∈ K. Dann gilt<br />

m∑<br />

k∑<br />

su + tv = sc j a j + tc ′ la ′ l ∈ span(A).<br />

(b) Seien u 1 , . . . , u k ∈ U, c 1 , . . . , c k ∈ K. Dann zeigt man mit Induktion über k,<br />

k∑<br />

dass c j u j ∈ U gilt. Insbesondere ist das für a 1 , . . . , a k ∈ A ⊆ U richtig, d.h.<br />

j=1<br />

span(A) ⊆ U.<br />

⊓⊔<br />

Wir listen einige Spezialfälle von Proposition 2.1.5 auf:<br />

Bemerkung 2.1.6. (i) Wenn A = {a 1 , . . . , a k }, dann schreiben wir span(a 1 , . . . , a k )<br />

statt span({a 1 , . . . , a k }).<br />

(ii) Sei e j ∈ K n der Vektor, der überall Nullen hat, nur an der j-ten Stelle eine 1:<br />

Dann gilt<br />

e j := (0, . . . , 0, 1<br />

}{{}<br />

j-te<br />

Stelle<br />

, 0, . . . , 0).<br />

span(e 1 , . . . , e k ) = {x ∈ K n | x = (x 1 , . . . , x n ) und x k+1 = . . . = x n = 0}<br />

für k ≤ n. Zum Beispiel haben wir in K 3 :<br />

e 1 = (1, 0, 0) e 2 = (0, 1, 0), e 3 = (0, 0, 1)<br />

span(e 1 , e 2 ) = {c 1 e 1 + c 2 e 2 | c 1 , c 2 ∈ K}<br />

= {(c 1 , 0, 0) + (0, c 2 , 0) | c 1 , c 2 ∈ K}<br />

= {(c 1 , c 2 , 0) | c 1 , c 2 ∈ K}<br />

= {(c 1 , c 2 , c 3 ) | c 3 = 0}<br />

(iii) Seien U 1 , U 2 zwei lineare Unterräume in K n . Dann ist in der Regel U 1 ∪ U 2 ⊆ K n<br />

kein linearer Unterraum (vgl. Beispiel 2.1.3(v)).<br />

{ ∑<br />

m<br />

span(U 1 ∪ U 2 ) = c j a j<br />

+<br />

j=1 i=1<br />

} {{ }<br />

∈U 1<br />

k∑ ∣ }<br />

∣∣<br />

d i b i m, k ∈ N, cj , d i ∈ K, a j ∈ U 1 , b i ∈ U 2<br />

} {{ }<br />

∈U 2<br />

= {u 1 + u 2 | u 1 ∈ U 1 , u 2 ∈ U 2 }<br />

Man schreibt auch U 1 + U 2 für diese Menge und spricht von der Summe der<br />

beiden Unterräume.<br />

⊓⊔<br />

Beachte, dass sich A nicht aus span(A) zurückgewinnen lässt: Wenn man in der<br />

Notation von Bemerkung 2.1.6 hat A 1 = {e 1 , e 2 } und A 2 = {e 1 , e 2 , e 1 + e 2 }, dann<br />

gilt span(A 1 ) = K 2 = span(A 2 ).


46 2 Lineare Unterräume des K n<br />

Man schreibt die Elemente des n-dimensionalen Zahlenraums K n oft nicht in<br />

der Form (a 1 , . . . , a n ), d.h. als Zeilenvektoren, sondern in der Form<br />

⎛<br />

⎜<br />

⎝<br />

⎞<br />

a 1<br />

.<br />

a n<br />

d.h. als Spaltenvektoren. Das nimmt mehr Platz weg, hat aber andere schreibtechnische<br />

Vorteile, die klar werden sobald man über Matrizenmultiplikation spricht.<br />

⎟<br />

⎠ ,<br />

Übungen zu Abschnitt 2.1<br />

Linearer Spann<br />

Übung 2.1.1. Man zeige die Richtigkeit der folgenden Aussagen für A, B ⊆ K n :<br />

(a) A = span(A) gilt genau dann, wenn A ein linearer Unterraum ist.<br />

(b) A ⊆ B impliziert span(A) ⊆ span(B).<br />

(c) span(A ∪ B) = span(A) + span(B).<br />

Übung 2.1.2. Seien A und B Teilmengen von K n . Man zeige: A ⊆ B impliziert span(A) ⊆<br />

span(B).<br />

Übung 2.1.3. Es seien<br />

⎛<br />

⎞<br />

a 11 . . . a 1n<br />

⎜<br />

A =<br />

⎝<br />

.<br />

.<br />

a m1 . . . a mn<br />

⎟<br />

⎠ und B =<br />

⎛<br />

⎞<br />

a 11 . . . a 1n b 1<br />

⎜<br />

⎝<br />

.<br />

⎟<br />

.<br />

. ⎠<br />

a m1 . . . a mn b m<br />

die Koeffizientenmatrix und die erweiterte Koeffizientenmatrix eines linearen Gleichungssystems.<br />

Dann sind<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

a 11 a 1n b 1<br />

⎜<br />

⎟ ⎜<br />

⎝<br />

. ⎠ , . . . ,<br />

⎟ ⎜<br />

⎝<br />

. ⎠ ,<br />

. ⎟<br />

⎝ .. ⎠<br />

a m1 a mn b m<br />

die Spaltenvektoren der erweiterten Koeffizientenmatrix. Beweise die Äquivalenz der<br />

folgenden Aussagen:<br />

(1) Das System ist lösbar.<br />

(2) span(A) = span(B). Dabei ist der lineare Spann span(M) einer Matrix M definiert<br />

als der lineare Spann der Spaltenvektoren von M.<br />

Übung 2.1.4. Gegeben seien die Vektoren<br />

⎛ ⎞ ⎛ ⎞ ⎛<br />

0<br />

λi<br />

z 1 = ⎜ 0<br />

⎟<br />

⎝ 2 ⎠ , z2 = ⎜ λ<br />

⎟<br />

⎝ 1 ⎠ , z3 = ⎜<br />

⎝<br />

2i<br />

i<br />

λi<br />

λ<br />

0<br />

0<br />

⎞<br />

⎟<br />

⎠ ,<br />

⎛<br />

z4 = ⎜<br />

⎝<br />

3<br />

0<br />

i<br />

−1 + 3i<br />

⎞<br />

⎟<br />

⎠ ,<br />

⎛ ⎞<br />

0<br />

z5 = ⎜ −1<br />

⎟<br />

⎝ 1 ⎠ ,<br />

λ<br />

aus C 4 , wobei λ ∈ C sei. Bestimme die Menge M = {λ ∈ C | span(z 1, . . . , z 5) ≠ C 4 }.<br />

Lineare Unterräume<br />

Übung 2.1.5. Man zeige, dass A = span(A) genau dann gilt, wenn A ein linearer Unterraum<br />

ist.


2.2 Lineare Abhängigkeit und Unabhängigkeit 47<br />

Übung 2.1.6. (a) Man zeige, daß der Schnitt von linearen Unterräumen stets wieder ein<br />

linearer Unterraum ist.<br />

(b) Seien U und V lineare Unterräume von R n . Man zeige, dass U ∪V nur dann ein linearer<br />

Unterraum von R n sein kann, wenn U ⊆ V oder V ⊆ U.<br />

Übung 2.1.7. Sei A ⊆ K n . Zeige<br />

span(A) = ⋂ {U ⊆ K n | A ⊆ U, U lin. Unterraum von K n }.<br />

Übung 2.1.8. Welche der folgenden Mengen sind lineare Unterräume von R 3 bzw. R 2 ?<br />

M 1 = {(x 1, x 2, x 3): x i ∈ R, x 3 = 0}.<br />

M 2 = {(x 1, x 2): x 1 ≠ x 2, x i ∈ R}.<br />

M 3 = {(x 1, x 2): x 1 + x 2 = 0, x i ∈ R}.<br />

M 4 = {(x 1, x 2): x 1 ∈ R, x 2 ∈ Z}.<br />

M 5 = {(x 1, x 2, x 3): x 1 = x 2 = x 3, x i ∈ R}.<br />

Übung 2.1.9. Welche der folgenden Mengen sind lineare Unterräume von R 2 bzw. R 3 ?<br />

1. M 1 = {(x 1, x 2) ∈ R 2 | x 1 · x 2 = 0},<br />

2. M 2 = {(x 1, x 2) ∈ R 2 | x 1 ≤ x 2},<br />

3. M 3 = {(x 1, x 2, x 3) ∈ R 3 | x 1 2 + x 2 2 + x 3 2 = 0},<br />

4. M 4 = {(x 1, x 2, x 3) ∈ R 3 | 1 · x 1 + 2 · x 2 + 3 · x 3 = 0}.<br />

Man begründe die Antworten und skizziere die Mengen M 1 und M 2 in R 2 .<br />

2.2 Lineare Abhängigkeit und Unabhängigkeit<br />

Wir arbeiten weiter an dem Projekt lineare Unterräume durch möglichst wenige<br />

Elemente vollständig zu charakterisieren. Der nächste Schritt ist es zu untersuchen,<br />

wie viele Elemente nötig sind, um einen vorgegebenen linearen Unterraum aufzuspannen.<br />

Die Quintessenz der folgenden Definition, die in ihrer Bedeutung gar nicht<br />

überschätzt werden kann, ist, dass man eine aufspannende Menge nicht weiter verkleinern<br />

kann, wenn sie linear unabhängig ist.<br />

Definition 2.2.1. Eine Teilmenge A ⊆ K n heißt linear abhängig, wenn schon<br />

eine echte Teilmenge von A ausreicht, um span(A) aufzuspannen:<br />

(∃A ′ A)<br />

span(A ′ ) = span(A).<br />

Ansonsten heißt A linear unabhängig.<br />

Beispiel 2.2.2. (i) {e 1 , e 2 , e 1 + e 2 } ist linear abhängig.<br />

(ii) {e 1 , e 2 } ist linear unabhängig:<br />

{e 1 } ⊆ {e 1 , e 2 }, span(e 1 ) = {(x 1 , 0) | x 1 ∈ K} K 2 = span(e 1 , e 2 ).<br />

Analog gilt auch, dass span(e 2 ) K 2 .<br />

(iii) Wenn 0 ∈ A ⊆ K n , dann ist A linear abhängig, weil span(A) = span(A \ {0}).


48 2 Lineare Unterräume des K n<br />

(iv) Sei A ⊆ K n . Wenn es ein a ∈ A mit a ∈ span(A \ {a}) gibt, dann ist A linear<br />

abhängig: Setzt man nämlich A ′ := A \ {a} A, dann gilt nach Voraussetzung<br />

∑<br />

a = m c j a ′ j wobei a′ j ∈ A \ {a} = A′ . Aber dann folgt<br />

j=1<br />

span(A) =<br />

{<br />

ta +<br />

}<br />

k∑<br />

d i b i | b i ∈ A ′ , t, d i ∈ K, k ∈ N<br />

i=1<br />

⎧<br />

⎨ m∑<br />

= tc<br />

⎩ j a ′ j +<br />

j=1<br />

⎫<br />

k∑<br />

⎬<br />

d i b i | a ′ j, b i ∈ A ′ , c j , t, d i ∈ K, k ∈ N<br />

⎭<br />

i=1<br />

⊆ span(A ′ ) ⊆ span(A)<br />

und es folgt, dass span(A) = span(A ′ ).<br />

(v) Wenn v 1 , . . . , v k ∈ A verschieden und c 1 , . . . , c k ∈ K nicht alle 0 sind, jedoch<br />

k∑<br />

c j v j = 0<br />

j=1<br />

(NLR)<br />

gilt (so eine Gleichung nennt man eine nicht-triviale lineare Relation), dann<br />

ist A linear abhängig. Um das zu sehen, kann man o.B.d.A. (ohne Beschränkung<br />

der Allgemeinheit) annehmen 1 , dass c 1 ≠ 0. Durch Umstellen der Gleichung<br />

findet man<br />

k∑ ( )<br />

v 1 = − cj<br />

c 1<br />

v j ∈ span(A \ {v 1 })<br />

j=2<br />

und dies zeigt nach (iv) die lineare Abhängigkeit von A.<br />

⊓⊔<br />

Die Aussage aus Beispiel 2.2.2(v) lässt sich auch umkehren und so erhält man<br />

eine Charakterisierung der Linearen Unabhängigkeit, die von großer praktischer<br />

Bedeutung ist, weil sie in vielen Situation als Test eingesetzt werden kann.<br />

Satz 2.2.3. Eine Teilmenge A ⊆ K n ist genau dann linear abhängig, wenn es eine<br />

nicht-triviale lineare Relation der Form (NLR) zwischen Elementen von A gibt.<br />

Beweis. ⇐“: Dies wurde in Beispiel 2.2.2(v) gezeigt.<br />

”<br />

” ⇒“: Wenn A linear abhängig ist, dann gibt es A′ A mit span(A ′ ) = span(A).<br />

Sei v ∈ A \ A ′ ∑<br />

und v = k c j v j , v j ∈ A ′ , c j ∈ K. Dann ist<br />

j=1<br />

1v +<br />

k∑<br />

(−c j )v j = 0<br />

j=1<br />

die gewünschte nicht-triviale lineare Relation.<br />

⊓⊔<br />

1 Man kann die v’s und c’s ja umnumerieren.


2.2 Lineare Abhängigkeit und Unabhängigkeit 49<br />

Korollar 2.2.4 (Test auf lineare Unabhängigkeit).<br />

linear unabhängig, wenn gilt:<br />

Für v 1 , . . . , v k ∈ A verschieden und c 1 , . . . , c k ∈ K mit<br />

c 1 = . . . = c k = 0.<br />

A ⊆ K n ist genau dann<br />

k∑<br />

c j v j = 0 folgt, dass<br />

j=1<br />

Beispiel 2.2.5. Sei v 1 = (1, 0, 0), v 2 = (1, 1, 0), v 3 = (1, 1, 1) ∈ R 3 und A =<br />

{v 1 , v 2 , v 3 }.<br />

0 = c 1 v 1 + c 2 v 2 + c 3 v 3 = (c 1 + c 2 + c 3 , c 2 + c 3 , c 3 )<br />

impliziert erst c 3 = 0, dann c 2 = 0 und schließlich c 1 = 0. Also ist A linear unabhängig.<br />

⊓⊔<br />

Beispiel 2.2.6. Die Teilmenge A ⊆ K n habe mehr als n Elemente. Dann ist A<br />

ist linear abhängig. Wenn nämlich v 1 , . . . , v n+1 ∈ A verschieden sind und v j =<br />

(v j,1 , . . . , v j,n ), dann hat das homogene Gleichungssystem<br />

n+1<br />

∑<br />

x j v j,i = 0<br />

j=1<br />

i = 1, . . . , n<br />

mehr Unbekannte als Gleichungen. Es lässt daher (vgl. Bemerkung 1.2.10) eine von<br />

0 verschiedene Lösung (c 1 , . . . , c n+1 ) zu. Diese erfüllt dann<br />

n+1<br />

∑<br />

c j v j = 0<br />

j=1<br />

und wir haben eine nicht-triviale lineare Relation.<br />

⊓⊔<br />

Beispiel 2.2.7. Betrachte eine Matrix in Zeilenstufenform mit k Stufen. Weiter<br />

seien v 1 , . . . , v k ∈ K n die ersten k Zeilenvektoren der Matrix. Dann ist die Menge<br />

{v 1 , . . . , v k } linear unabhängig: Wir wenden Korollar 2.2.4 an und nehmen an, dass<br />

gilt<br />

k∑<br />

c j v j = 0.<br />

j=1<br />

Zu zeigen ist also, dass alle c j Null sind. Seien s 1 < . . . < s k die Spaltennummern, in<br />

denen Stufen auftauchen. Dann gilt für den Koeffizienten v i,s1 von v i in der s 1 -ten<br />

Spalte<br />

{<br />

1 i = 1<br />

v i,s1 =<br />

0 i = 2, . . . , k<br />

und es folgt c 1 = 0 sowie ∑ k<br />

i=2 c iv i = 0. Genauso finden wir<br />

{<br />

1 i = 2<br />

v i,s2 =<br />

0 i = 3, . . . , k,<br />

was dann c 2 = 0 und ∑ k<br />

i=3 c iv i = 0 zeigt. Wir fahren so fort und finden sukzessive<br />

c 1 = . . . = c k = 0.<br />

⊓⊔


50 2 Lineare Unterräume des K n<br />

Übungen zu Abschnitt 2.2<br />

Übung 2.2.1. Man teste die folgenden Mengen auf lineare Unabhängigkeit:<br />

1. {(1, 1, 1), (1, −1, 1), (−1, 1, 1)} ⊂ R 3 ,<br />

2. {(3, −2, 1), (5, −3, 1), (4, −5, 6)} ⊂ R 3 .<br />

Übung 2.2.2. Man teste die folgenden Mengen auf lineare Unabhängigkeit:<br />

a) {(−2, −2, 2, 4, 4), (3, 6, 9, 6, 3), (3, 5, −7, 2, 2), (4, 8, −6, 8, 7)}<br />

b) {(4, 1, 1, −2), (−7, −2, −4, 7), (7, 1, −7, 8), (9, 2, −7, 3)}<br />

c) {(1, 2, 3, 4), (2, 3, 4, 5), (3, 4, 5, 6), (4, 5, 6, 7), (5, 6, 7, 8)}<br />

Hinweis: Es ist möglich, Teil c) ohne Rechnung zu beantworten.<br />

Übung 2.2.3. Ist die Menge<br />

linear unabhängig?<br />

{(4, 5, −7, 1, 2), (2, 1, 3, 1, 2), (−1, 0, 8, 0, −3), (3, 9, 1, 1, 7)}<br />

Übung 2.2.4. Für welche Werte der Parameter a, b ∈ R ist die Menge {u, v, w} linear<br />

abhängig? Dabei ist<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

1<br />

1<br />

1<br />

u = ⎝1⎠ , v = ⎝1 + a 2 ⎠ , w = ⎝1 + b 2 ⎠ .<br />

1<br />

1 + a 2 2a<br />

Übung 2.2.5. Für welche Werte des Parameters t ∈ R ist die Menge {a 1, a 2, a 3, a 4} linear<br />

abhängig? Dabei ist<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

1<br />

2<br />

1<br />

3<br />

2t<br />

a 1 =<br />

⎜ 1<br />

⎟<br />

⎝ −2 ⎠ , a2 = 5<br />

⎜−2t<br />

⎟<br />

⎝ 1 ⎠ , a3 = t + 2<br />

⎜ 1<br />

⎟<br />

⎝ −t ⎠ , a4 = 8<br />

⎜ 3<br />

⎟<br />

⎝ 2 ⎠ .<br />

2t − 1<br />

8<br />

3<br />

13<br />

Übung 2.2.6. Begründe oder widerlege:<br />

1. Sind u, v, w ∈ K n Vektoren, so dass die Mengen {u, v}, {u, w}, {v, w} linear unabhängig<br />

sind, dann ist auch {u, v, w} linear unabhängig.<br />

2. Sind die Vektoren u, v, w ∈ K n linear unabhängig, so sind auch u + v, v + w, u + w<br />

linear unabhängig.<br />

Übung 2.2.7. Es seien Vektoren w 1, w 2, w 3, w 4 ∈ R n gegeben, und es sei<br />

v 1 = w 1 + w 2 + w 3 + w 4 ,<br />

v 2 = 2w 1 + 2w 2 + w 3 − w 4 ,<br />

v 3 = w 1 + w 2 + 3w 3 − w 4 ,<br />

v 4 = 2w 1 − w 3 + w 4 ,<br />

v 5 = − w 2 + w 3 − w 4 .<br />

Man beweise, dass (v 1, . . . , v 5) linear abhängig ist.<br />

Hinweis: Man kann diese Aufgabe dadurch lösen, dass man eines der v i als Linearkombination<br />

der anderen vier darstellt. Es gibt aber auch einen Beweis, bei dem man überhaupt<br />

nicht zu rechnen braucht!<br />

Übung 2.2.8. Gegeben seien eine Matrix A und ein Vektor b als<br />

⎛<br />

⎞ ⎛ ⎞<br />

2 − t 3 −6<br />

1<br />

A = ⎝ 3 2 − t −6 ⎠ , b = ⎝ 1 ⎠ .<br />

−6 −6 11 − t<br />

−2<br />

(a) Bestimme die Lösung von Ax = b für t = −1.<br />

(b) Für welche t ∈ R ist Ax = 0 durch ein x ≠ 0 lösbar?<br />

(c) Für welche t ∈ R ist Ax = b lösbar?


2.3 Basen für lineare Unterräume des K n<br />

2.3 Basen für lineare Unterräume des K n 51<br />

Mit dem Konzept der linearen Spanns einer Menge können wir feststellen, ob sie<br />

groß genug ist einen linearen Unterraum zu rekonstruieren, mit dem Konzept der<br />

linearen Unabhängigkeit können wir feststellen, ob es dabei Redundanzen gibt. In<br />

Kombination führen die beiden Konzepte auf das Konzept der Basis eines linearen<br />

Unterraums. Solche Basen kann man als die minimalen Mengen betrachten, aus<br />

denen man den linearen Unterraum rekonstruieren kann.<br />

Definition 2.3.1. Sei U ⊆ K n ein linearer Unterraum. Eine Basis für U ist eine<br />

Menge {v 1 , . . . , v k } ⊆ U mit<br />

a) span(v 1 , . . . , v k ) = U,<br />

b) {v 1 , . . . , v k } ist linear unabhängig.<br />

Die Zahl k heißt die Länge der Basis. Ähnlich wie im Fall des linearen Spanns<br />

definiert man: ∅ ist eine Basis für {0}.<br />

An dieser Stelle ist noch nichts darüber ausgesagt, ob es überhaupt solche Basen<br />

gibt (außer für den Null-Unterraum). Wir werden aber zeigen, dass jeder lineare<br />

Unterraum von K n eine Basis hat.<br />

So wie wir Basen definiert haben sind sie Teilmengen von K n , d.h. bei der<br />

Auflistung der Basiselemente kommt es nicht auf die Reihenfolge an. Später, wenn<br />

wir Basen als Rechenhilfen benutzen, wird es nützlich sein auch eine Reihenfolge<br />

der Basiselemente festzulegen.<br />

Beispiel 2.3.2. (a) Sei 0 ≠ v ∈ K n . Dann ist {v} ist eine Basis für Kv.<br />

(b) Die Menge {e 1 , . . . , e n } aus Bemerkung 2.1.6(ii) ist eine Basis für K n , die man<br />

die Standardbasis oder auch kanonische Basis nennt. Man meint damit<br />

dann auch die hier vorgegebene Reihenfolge.<br />

⊓⊔<br />

Satz 2.3.3. Sei U ⊆ K n ein linearer Unterraum und v 1 , . . . , v k ∈ U. Dann sind<br />

folgende Aussagen äquivalent:<br />

(1) {v 1 , . . . , v k } ist eine Basis für U.<br />

(2) Jedes u ∈ U lässt sich in eindeutiger Weise als Linearkombination der v 1 , . . . , v k<br />

schreiben.<br />

Beweis. Idee: Die beiden Teilbedingungen für die Eigenschaft von {v 1, . . . , v k } Basis zu<br />

sein, lassen sich als Existenz, bzw. Eindeutigkeit der Linearkombination umformulieren.<br />

Sei u ∈ U. Die Existenz der Linearkombination ist nach Definition 2.1.4<br />

äquivalent zu span(v 1 , . . . , v k ) = U.<br />

Die Eindeutigkeit der Linearkombination ist dagegen äquivalent zur linearen<br />

Unabhängigkeit von {v 1 , . . . , v k }: Falls nämlich {v 1 , . . . , v k } linear unabhängig ist,<br />

folgt aus u = ∑ k<br />

j=1 c jv j = ∑ k<br />

j=1 d jv j , dass ∑ k<br />

j=1 (c j − d j )v j = 0 und daher (vgl.<br />

Korollar 2.2.4) c j = d j für alle j. Umgekehrt, wenn aus ∑ k<br />

j=1 c jv j = 0 = ∑ k<br />

j=1 0·v j<br />

folgt, dass für alle j gilt c j = 0, dann folgt (wieder aus Korollar 2.2.4) die lineare<br />

Unabhängigkeit von {v 1 , . . . , v k }.<br />

⊓⊔


52 2 Lineare Unterräume des K n<br />

Der folgende Satz wird uns den Induktionsschritt im Nachweis dafür liefern, dass<br />

jeder lineare Unterraum von K n eine Basis hat.<br />

Satz 2.3.4 (Basis-Ergänzungssatz). Seien V ⊆ U ⊆ K n lineare Unterräume<br />

und {v 1 , . . . , v k } eine Basis für V . Dann gibt es Elemente u 1 , . . . , u m ∈ U, so dass<br />

{v 1 , . . . , v k ,u 1 , . . . , u m } eine Basis für U ist.<br />

Beweis. Idee: Falls V U ist, ergänze {v 1, . . . , v k } um ein Element in U \ V und<br />

verifiziere, dass die resultierende Menge linear unabhängig ist. Dann iteriere.<br />

1. Fall: Wenn V = U, dann ist nichts zu zeigen.<br />

2. Fall: Wenn V U, dann gibt es ein u ∈ U \ V und {v 1 , . . . , v k , u} ist linear<br />

unabhängig. Um das einzusehen, stellen wir zunächst fest, dass<br />

⎛ ⎞<br />

k∑<br />

⎝ c j v j<br />

⎠ + cu = 0<br />

j=1<br />

impliziert c = 0, weil wir andernfalls<br />

u = − 1 c<br />

k∑<br />

c j v j =<br />

j=1<br />

k∑ (<br />

c −<br />

j<br />

)<br />

c vj ∈ V<br />

hätten, was im Widerspruch zu u ∈ U \ V stünde. Also gilt ∑ k<br />

j=1 c jv j = 0<br />

und das zeigt wegen der linearen Unabhängigkeit von {v 1 , . . . , v k }, dass c 1 =<br />

0, . . . , c k = 0. Damit haben wir die lineare Unabhängigkeit von {v 1 , . . . , v k , u}<br />

nachgewiesen.<br />

Jetzt setzen wir u 1 := u und U 1 := span(v 1 , . . . , v k , u 1 ) ⊆ U. Dann ist<br />

{v 1 , . . . , v k , u 1 } nach dem obigen Argument eine Basis für U 1 und man kann<br />

die bisherigen Beweisschritte für U 1 statt V wiederholen, falls U 1 V gilt.<br />

Auf diese Weise findet man u 1 , . . . , u j , . . . ∈ U und lineare Unterräume U 1 ⊆<br />

. . . ⊆ U j ⊆ . . . ⊆ U mit der Eigenschaft, dass {v 1 , . . . , v k , u 1 , . . . , u j } eine Basis<br />

für U j ist. Da nach Beispiel 2.2.6 keine Basis mehr als n Elemente haben kann,<br />

muss irgendwann der erste Fall eintreten, d.h., es gibt ein m mit U m = U.<br />

Folglich ist {v 1 , . . . , v k ,u 1 , . . . , u m } ist eine Basis für U.<br />

j=1<br />

⊓⊔<br />

Korollar 2.3.5. Jeder lineare Unterraum U von K n hat eine Basis.<br />

Beweis. Falls U = {0}, dann ist ∅ nach Definition eine Basis für U. Andernfalls<br />

wenden wir Satz 2.3.4 auf U mit V = {0} an und finden so eine Basis für U. ⊓⊔<br />

Satz 2.3.6 (Basisauswahlsatz). Sei U = span(v 1 , . . . , v k ) ⊆ K n . Dann gibt es<br />

eine Teilmenge {v i1 , . . . , v ir } ⊆ {v 1 , . . . , v k }, so dass {v i1 , . . . , v ir } eine Basis für U<br />

ist.<br />

Beweis. Idee:<br />

Elemente.<br />

Teste {v 1, . . . , v k } auf lineare Unabhängigkeit und streiche überflüssige<br />

Wir testen {v 1 , . . . , v k } auf lineare Unabhängigkeit.


2.3 Basen für lineare Unterräume des K n 53<br />

1. Fall: Wenn {v 1 , . . . , v k } linear unabhängig ist, gibt es nichts zu zeigen.<br />

2. Fall: Wenn {v 1 , . . . , v k } linear abhängig ist, dann existiert eine echte Teilmenge<br />

{v i1 , . . . , v ir } {v 1 , . . . , v k } mit<br />

span(v i1 , . . . , v ir ) = span(v 1 , . . . , v k ) = U.<br />

Jetzt wiederholt man den Test mit der kleineren Menge. Dieses Verfahren bricht<br />

ab, weil man in jedem Schritt mindestens ein Element streicht. Man ist dann in Fall<br />

1 und hat die gewünschte Basis. ⊓⊔<br />

Unsere Motivation für die Einführung linearer Unterräume war, dass die Lösungsmengen<br />

von homogenen linearen Gleichungssystemen solche Unterräume sind. Mit<br />

der Einführung von Basen können wir jetzt unser Versprechen einlösen, diese Lösungsräume<br />

durch endlich viele Elemente vollständig zu charakterisieren.<br />

Beispiel 2.3.7. Wir suchen ein Verfahren, mit dem für jeden Lösungsraum eines<br />

homogenen linearen Gleichungssystems eine Basis gefunden werden kann. In diesem<br />

Beispiel soll zunächst illustriert werden, was dabei die Schwierigkeiten sind. Das<br />

allgemeine Verfahren wird dann in Satz 2.3.8 angegeben.<br />

Sei jetzt (a ij ) i<br />

j<br />

Beispiel 1:<br />

= 1 , ... ,<br />

= 1 , ... ,<br />

m<br />

n<br />

eine in Zeilenstufenform gegebene Koeffizientenmatrix.<br />

( ) 1 2 3 4<br />

0 0 1 2<br />

Beispiel 2:<br />

liefert die Lösungsmenge<br />

x 4 beliebig<br />

x 3 = −2x 4<br />

x 2 beliebig<br />

x 1 = −2x 2 − 3x 3 − 4x 4 = −2x 2 + 2x 4 .<br />

( )<br />

1 2 0 −2<br />

0 0 1 2<br />

liefert die Lösungsmenge<br />

x 4 beliebig<br />

x 3 = −2x 4<br />

x 2 beliebig<br />

x 1 = −2x 2 + 2x 4 .<br />

Die Idee zur allgemeinen Konstruktion einer Basis ist jetzt, von den frei wählbaren<br />

x j alle bis auf jeweils eines zu 0 zu setzen und das eine zu 1. Um dann eine Lösung<br />

zu erhalten, muss man noch die nicht frei wählbaren x sr sukzessive so modifizieren,<br />

dass alle Gleichungen auch wirklich erfüllt sind. Diese zu modifizierenden x’e sind<br />

genau die, die zu einer Stufe gehören.<br />

In Beispiel 1 kann man mit (0, 0, 0, 1) anfangen und diesen Vektor mit der<br />

2. Gleichung zu (0, 0, −2, 1) modifizieren. Diesen Vektor modifiziert man dann mit<br />

der 1. Gleichung zu (2, 0, −2, 1). Den Vektor (0, 1, 0, 0) modifiziert man mit der<br />

1. Gleichung zu (−2, 1, 0, 0). Man sieht dann sofort, dass {(2, 0, −2, 1), (−2, 1, 0, 0)}<br />

tatsächlich eine Basis für den Lösungsraum ist. Beachte dabei folgendes: Wollte<br />

man (0, 0, 0, 1) zunächst mit der 1. Gleichung modifizieren, dann hätte man keine<br />

eindeutige Auswahl, (?, 0, ?, 1), und die Wahl der 3. Komponente würde die Wahl<br />

der 1. Komponente beeinflussen.<br />

In Beispiel 2 findet man mit denselben Rechenschritten dieselbe Basis. Der Unterschied<br />

ist folgender: Wollte man jetzt (0, 0, 0, 1) mit der 1. Gleichung modifizieren,<br />

dann hätte man zwar wieder keine eindeutige Auswahl, (?, 0, ?, 1), aber die Wahl<br />

der 3. Komponente würde die Wahl der 1. Komponente nicht beeinflussen. Der<br />

Grund dafür ist, dass der Koeffizient über der Stufe in der dritten Spalte 0 ist. Wir<br />

können also die 3. Komponente beliebig setzen, z.B. zu 0, und finden (2, 0, 0, 1).


54 2 Lineare Unterräume des K n<br />

Jetzt liefern die beiden Modifikationen mit der 1. Gleichung und der 2. Gleichung<br />

zusammen (2, 0, −2, 1). Dies ist eine Art Parallelisierung“ der Modifikationen, die<br />

”<br />

sich in der allgemeinen Konstruktion als eine einfache Formel für die Basisvektoren<br />

niederschlagen wird.<br />

⊓⊔<br />

Satz 2.3.8. Sei (a ij ) i<br />

j<br />

= 1 , ... ,<br />

= 1 , ... ,<br />

m<br />

n<br />

die Koeffizientenmatrix eines homogenen linearen<br />

Gleichungssystems (HLGS), gegeben in Zeilenstufenform mit Stufen in den Spalten<br />

s 1 , . . . , s k . Weiter sei a isr = 0 für i ≠ r. Dann bilden die Vektoren v j ∈ K n ,<br />

j ∈ M := {1, . . . , n} \ {s 1 , . . . , s k }, gegeben durch<br />

v j = e j −<br />

k∑<br />

a lj e sl<br />

eine Basis des Lösungsraums. Die Länge dieser Basis ist n − k.<br />

Beweis. Idee: Man verifiziert direkt, dass die angegebenen Vektoren das Gleichungssystem<br />

lösen und benutzt Korollar 2.2.4 um die lineare Unabhängigkeit von {v j | j ∈ M}<br />

nachzuweisen. Dass jede Lösung eine Linearkombination dieser v j ist, erhält man mit Bemerkung<br />

1.2.10.<br />

l=1<br />

1) Wir zeigen zuerst, dass die v j Lösungen des (HLGS) sind. Die Komponenten<br />

des Zeilenvektors v j = (v j,1 , . . . , v j,n ) sind durch<br />

⎧<br />

⎪⎨ 1 s = j ∈ M<br />

v j,s = −a lj s = s l<br />

⎪⎩<br />

0 sonst<br />

gegeben, also kann man wegen a isl =<br />

n∑<br />

a is v j,s = a ij +<br />

s=1<br />

{<br />

0 i ≠ l<br />

1 i = l<br />

wie folgt rechnen<br />

k∑<br />

a isl (−a lj ) = a ij + 1(−a ij ) = 0.<br />

l=1<br />

2) Als nächstes zeigen wir, dass die Menge {v j | j ∈ M} linear unabhängig ist.<br />

Wenn<br />

0 = ∑ c j v j = ∑ k∑<br />

c j e j + d l e sl<br />

j∈M j∈M<br />

gilt, dann sind alle Koeffizienten, insbesondere die c j , gleich Null, weil {e 1 , . . . , e n }<br />

linear unabhängig ist. Also sind nach Korollar 2.2.4 die v j linear unabhängig.<br />

3) Schließlich zeigen wir noch, dass die v j , j ∈ M, den Lösungsraum aufspannen.<br />

Um das einzusehen erinnert man sich an Bemerkung 1.2.10, die zeigt, dass man<br />

jede beliebige Lösungen (x 1 , . . . , x n ) ∈ K n erhalten kann, indem man die x j mit<br />

j ∈ M frei wählt und dann die x sl für l = 1, . . . , k daraus berechnet. Also gibt<br />

es zu jeder Vorgabe von Zahlen c j ∈ K, j ∈ M, genau eine Lösung (x 1 , . . . , x n ),<br />

die x j = c j für alle j ∈ M erfüllt. Aber ∑ c j v j ist so eine Lösung, d.h.<br />

j∈M<br />

l=1<br />

∑<br />

c j v j = (x 1 , . . . , x n ).<br />

s∈M<br />

Damit ist span{v j | j ∈ M} ist der ganze Lösungsraum.


2.3 Basen für lineare Unterräume des K n 55<br />

⊓⊔<br />

Die Aussage von Satz 2.3.8 über die Länge der Basis ist kompatibel mit der<br />

Vorstellung, dass die Menge K n aller n-Tupel n Freiheitsgrade hat und diese durch<br />

k effektive Gleichungen (eine für jede Stufe) auf n − k Freiheitsgrade reduziert<br />

werden.<br />

Beachte, dass jede Matrix in Zeilenstufenform durch elementare Zeilenumformungen<br />

vom Typ III in eine Matrix übergeführt werden kann, auf die sich der Satz<br />

2.3.8 anwenden lässt. Dazu addiert man einfach geeignete Vielfache der Zeile mit<br />

Stufe zu den Zeilen darüber und erreicht so, dass über den Stufen nur Nullen stehen.<br />

Beispiel 2.3.9. Wir greifen das Beispiel 2 aus 2.3.7 nochmal auf. Es gilt s 1 =<br />

1, s 2 = 3 und die Formel aus Satz 2.3.8 liefert<br />

M = {1, 2, 3, 4} \ {1, 3} = {2, 4},<br />

v 2 = e 2 − (a 12 e 1 + a 22 e 3 ) = (0, 1, 0, 0) − (2, 0, 0, 0) = (−2, 1, 0, 0),<br />

v 4 = e 4 − (a 14 e 1 + a 24 e 3 ) = (0, 0, 0, 1) − (−2, 0, 0, 0) − (0, 0, 2, 0) = (2, 0, −2, 1).<br />

⊓⊔<br />

Übungen zu Abschnitt 2.3<br />

Übung 2.3.1. Es sei U := {(x 1, x 2, x 3) ∈ R 3 | x 1 + x 2 + x 3 = 0}.<br />

1. Zeige, dass U ein linearer Unterraum von R 3 ist.<br />

2. Bestimme eine Basis von U.<br />

Übung 2.3.2. Man finde eine Basis für den Lösungsraum folgendes homogenen linearen<br />

Gleichungssystems in R 4 :<br />

x 1 + 2x 2 + 3x 3 + 4x 4 + 5x 5 = 0<br />

x 2 + x 3 + 2x 4 + 2x 5 = 0<br />

x 4 + 3x 5 = 0<br />

Übung 2.3.3. Man bestimme jeweils eine Basis des Lösungsraum von<br />

Übung 2.3.4. Es seien<br />

und<br />

2x 1 − 3x 2 + 2x 3 + 4x 4 + 5x 5 + 2x 7 = 0<br />

4x 1 − 6x 2 + 4x 3 + 10x 4 + 8x 5 − x 7 = 0<br />

2x 1 − 3x 2 + 2x 3 + 5x 4 + 4x 5 + 3x 6 − x 7 = 0<br />

⎧⎛<br />

⎪⎨<br />

A = ⎜<br />

⎝<br />

⎪⎩<br />

1<br />

1<br />

−1<br />

2<br />

⎛ ⎞<br />

1<br />

u = ⎜ −1<br />

⎟<br />

⎝ 0 ⎠ ,<br />

1<br />

⎞ ⎛ ⎞ ⎛<br />

2<br />

⎟<br />

⎠ , ⎜ 0<br />

⎟<br />

⎝ 3 ⎠ , ⎜<br />

⎝<br />

1<br />

⎛<br />

v = ⎜<br />

⎝<br />

0<br />

−2<br />

1<br />

−1<br />

1<br />

5<br />

−3<br />

4<br />

⎞⎫<br />

⎪⎬<br />

⎟<br />

⎠<br />

⎪⎭<br />

(a) Man zeige, dass u, v ∈ span(A).<br />

(b) Man gebe –falls möglich– eine Basis von span(A) an, die die Vektoren u and v enthält.<br />

⎞<br />

⎟<br />

⎠ .


56 2 Lineare Unterräume des K n<br />

Übung 2.3.5. Man finde jeweils eine Basis für die Lösungsräume folgender homogenen<br />

linearen Gleichungssystemen in R 4 :<br />

(a)<br />

(b)<br />

Übung 2.3.6. Es seien<br />

x 1 + 2x 2 + 3x 3 + 4x 4 = 0<br />

x 3 + 2x 4 = 0<br />

2x 1 + x 2 = 0<br />

x 1 − x 3 = 0<br />

x 2 + x 4 = 0<br />

V 1 := span ( (3, 8, −2, 7), (2, 9, −4, 4), (2, 5, −1, 3) ) ,<br />

V 2 := span ( (1, 3, −1, 4), (0, 4, −3, 1), (−3, 1, −5, 2) ) .<br />

Man bestimme jeweils eine Basis von V 1, V 2, V 1 + V 2 und V 1 ∩ V 2.<br />

Übung 2.3.7. Es seien<br />

V 1 := span ( (1, 1, 2, 1), (0, −2, 1, 0), (1, −1, 3, 1) ) ,<br />

V 2 := span ( (3, 1, 7, 3), (−3, 2, −5, −1), (0, 3, 2, 2) ) .<br />

Man bestimme jeweils eine Basis von V 1, V 2, V 1 + V 2 und V 1 ∩ V 2.<br />

Übung 2.3.8. Es seien<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

0<br />

0<br />

0<br />

2<br />

v 1 = ⎝ 1 ⎠ , v 2 = ⎝1⎠ , v 3 = ⎝1⎠ , v 4 = ⎝3⎠ .<br />

−1<br />

1<br />

2<br />

4<br />

Ferner seien U 1 = span(v 1, v 2) und U 2 = span(v 3, v 4). Man bestimme jeweils eine Basis<br />

von U 1 ∩ U 2 und U 1 + U 2.<br />

Übung 2.3.9 (Komplexe Unterräume). Im komplexen Vektorraum C 3 seien die Unterräume<br />

⎧⎛<br />

⎞ ∣ ⎫ ⎧⎛<br />

⎞ ∣ ⎫<br />

⎨ α ∣∣∣∣∣ ⎬ ⎨ α ∣∣∣∣∣ ⎬<br />

U 1 = ⎝β⎠ ∈ C 3 iα − β = γ<br />

⎩<br />

⎭ , U2 = ⎝β⎠ ∈ C 3 iα − iγ = β<br />

⎩<br />

⎭<br />

γ<br />

γ<br />

gegeben. Bestimme jeweils eine Basis von U 1, U 2, U 1 ∩ U 2 und U 1 + U 2.<br />

Übung 2.3.10. Es sei {v 1, . . . , v n} eine Basis von K n und u := c 1v 1+· · ·+c nv n ein weiterer<br />

Vektor mit c i ∈ K für i = 1, . . . , n. Zeigen Sie:<br />

n∑<br />

{v 1 − u, . . . , v n − u} Basis von K n ⇐⇒ c i ≠ 1 .<br />

Übung 2.3.11. Es seien gegeben<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛<br />

2 −4 6<br />

v 1 = ⎜ 1<br />

⎟<br />

⎝ 3 ⎠ , v2 = ⎜ −2<br />

⎟<br />

⎝ −6 ⎠ , v3 = ⎜ 3<br />

⎟<br />

⎝ 4 ⎠ , v4 = ⎜<br />

⎝<br />

2 −4 5<br />

0<br />

−1<br />

−13<br />

0<br />

⎞ ⎛<br />

⎟<br />

⎠ , v5 = ⎜<br />

⎝<br />

(a) Man bestimme Basen für die folgenden Unterräume<br />

U 1 = span(v 1),<br />

U 2 = span(v 1, v 2),<br />

.<br />

U 7 = span(v 1, . . . , v 7).<br />

0<br />

3<br />

−9<br />

−6<br />

(b) Für welche i, j = 1, . . . , 7 gilt U i ⊆ U j und für welche U i = U j?<br />

i=1<br />

⎞ ⎛ ⎞ ⎛<br />

0<br />

⎟<br />

⎠ , v6 = ⎜ 0<br />

⎟<br />

⎝ 0 ⎠ , v7 = ⎜<br />

⎝<br />

7<br />

6<br />

3<br />

9<br />

12<br />

⎞<br />

⎟<br />

⎠ .


2.4 Die Dimension eines linearen Unterraums des K n 57<br />

2.4 Die Dimension eines linearen Unterraums des K n<br />

Der nachfolgende Satz 2.4.1 zeigt, dass wir nicht befürchten müssen, bei der<br />

Konstruktion der Basis in Satz 2.3.8 eine unnötig lange Basis gefunden zu haben.<br />

Satz 2.4.1 (Invarianz der Basislänge). Die Länge einer Basis für einen linearen<br />

Unterraum U ⊆ K n hängt nicht von der Basis, sondern nur von U ab.<br />

Beweis. Idee: Stelle die Elemente der einen Basis als Linearkombinationen der anderen<br />

Basis dar und betrachte das homogene lineare Gleichungssystem, das aus den Koeffizienten<br />

dieser Darstellung entsteht.<br />

Seien {v 1 , . . . , v r } und {u 1 , . . . , u s } zwei Basen für U. Zu zeigen ist, dass r = s<br />

gilt. Aus Symmetriegründen reicht es zu zeigen, dass s ≤ r gilt; danach vertauscht<br />

man einfach die Rollen von r und s, d.h., von {v 1 , . . . , v r } und {u 1 , . . . , u s }. Jetzt<br />

stellen wir die Elemente von {u 1 , . . . , u s } als Linearkombinationen der {v 1 , . . . , v r }<br />

Basis dar, was wegen span{v j | j = 1, . . . , r} = U möglich ist:<br />

r∑<br />

u i = c ij v j<br />

j=1<br />

i = 1, . . . , s<br />

j = 1, . . . , r.<br />

Als nächstes betrachten wir das homogene lineare Gleichungssystem mit Koeffizientenmatrix<br />

(c ij ) i = 1 , ... , s<br />

j = 1 , ... , r<br />

s∑<br />

c ij x i = 0<br />

i=1<br />

r<br />

s<br />

Gleichungen<br />

Unbekannte<br />

Wenn jetzt r < s wäre, dann hätte das System nach Bemerkung 1.2.10 eine von<br />

Null verschiedene Lösung (x 1 , . . . , x s ) ≠ 0. Wegen<br />

s∑<br />

x i u i =<br />

i=1<br />

s∑<br />

i=1<br />

x i<br />

⎛<br />

⎝<br />

r∑<br />

j=1<br />

c ij v j<br />

⎞<br />

⎠ =<br />

i<br />

j<br />

∑<br />

= 1 , ... , s<br />

= 1 , ... , r<br />

x i c ij v j =<br />

r∑<br />

c ij x i<br />

)<br />

( s∑<br />

v j<br />

j=1 i=1<br />

} {{ }<br />

0<br />

stünde dies aber nach Satz 2.2.4 im Widerspruch zur linearen Unabhängigkeit von<br />

{u 1 , . . . , u s }. Damit ist s ≤ r bewiesen. ⊓⊔<br />

= 0<br />

Als Ergebnis der bisherigen Überlegungen zum Thema lineare Unabhängigkeit<br />

und Basen halten wir fest: Die minimale Anzahl von Elementen, die man benötigt,<br />

um einen vorgegebenen linearen Unterraum aufzuspannen, hängt ausschließlich von<br />

diesem Unterraum ab. Insbesondere findet man zu jedem (HLGS) in n Variablen<br />

eine Menge {v 1 , . . . , v k } ⊆ K n mit k ≤ n so, dass jede Lösung von (HLGS) eine<br />

Linearkombination der v j ist, aber keine Teilmenge von {v 1 , . . . , v k } ausreicht,<br />

um den Lösungsraum aufzuspannen. Man sieht also, dass der Lösungsraum eines<br />

(LGS), obwohl er im allgemeinen unendlich viele Elemente hat, durch endlich viele<br />

Zahlen vollständig beschrieben werden kann. Die Anzahl der benötigten Elemente<br />

hängt nicht vom Auswahlverfahren ab, sondern ist eine Invariante, d.h. eine<br />

Kenngröße, des entsprechenden Lösungsraums. Wir nennen sie die Dimension des<br />

Lösungsraums. Die Eigenschaften von Dimensionen werden uns im nächsten Abschnitt<br />

beschäftigen.


58 2 Lineare Unterräume des K n<br />

Später werden wir auch sehen, dass in Verallgemeinerung des Falles von Geraden<br />

durch den Nullpunkt, jeder lineare Unterraum von K n der Lösungsraum<br />

eines (HLGS) in endlich vielen Variablen ist. Das heißt, Lösungsräume von homogenen<br />

linearen Gleichungsystemen sind gar keine wirklichen Spezialfälle linearer<br />

Unterräume.<br />

Motiviert durch die Invarianz der Basislänge in Satz 2.4.1 definieren wir die<br />

Dimension eines linearen Unterraums und untersuchen, wie die Dimensionen von<br />

Schnitten und linearen Hüllen von Unterräumen mit den Dimensionen dieser Unterräume<br />

zusammenhängen. Abgesehen davon, dass die Dimension eine saubere<br />

mathematische Formulierung des physikalischen Begriffs ”<br />

Anzahl der Freiheitsgrade“<br />

ist, ist sie auch beweistechnisch sehr nützlich, denn man kann viele Aussagen<br />

über Vektorräume mit Induktion über die Dimension beweisen, ähnlich wie wir das<br />

im Beweis des Basisergänzungssatzes 2.3.4 schon gesehen haben.<br />

Definition 2.4.2. Die Dimension eines linearen Unterraums U von K n ist die<br />

Länge einer (beliebigen) Basis für U. Man schreibt dim K (U) für diese Zahl.<br />

Beispiel 2.4.3. (i) Es gilt dim(K n ) = n, denn {e 1 , . . . , e n } ist eine Basis für K n .<br />

(ii) Sei (a ij ) i = 1 , ... , m eine Koeffizientenmatrix in Zeilenstufenform und U der<br />

j = 1 , ... , n<br />

Lösungsraum des zugehörigen (HLGS). Dann gilt<br />

dim K (U) = n − (Anzahl der Stufen).<br />

Das ist nach Satz 2.3.8 klar für Zeilenstufenformen, die die Voraussetzungen<br />

dieses Satzes erfüllen. Da aber jeder Zeilenstufenform durch elementare Zeilenumformungen<br />

in eine solche umgewandelt werden kann, ohne die Anzahl der Stufen zu<br />

verändern (vgl. die Bemerkungen im Anschluss an den Beweis von Satz 2.3.8), gilt<br />

die Formel nach Proposition 1.2.6 auch für alle anderen Zeilenstufenformen. ⊓⊔<br />

Satz 2.4.4 (Dimensionsformel für Unterräume).<br />

Unterräume.<br />

Seien U 1 , U 2 ⊆ K n lineare<br />

(i) Wenn U 1 ⊆ U 2 , dann gilt dim K (U 1 ) ≤ dim K (U 2 ). Falls zusätzlich dim K (U 1 ) =<br />

dim K (U 2 ) gilt, hat man U 1 = U 2 .<br />

(ii) Es gilt<br />

dim K (U 1 ) + dim K (U 2 ) = dim K (U 1 + U 2 ) + dim K (U 1 ∩ U 2 ).<br />

Beweis. Idee: Ergänze mit Satz 2.3.4 Basen der kleinen Unterräume zu Basen der<br />

größeren Unterräume.<br />

(i) {v 1 , . . . , v r } sei eine Basis von U 1 . Ergänze diese mithilfe von Satz 2.3.4 zu einer<br />

Basis {v 1 , . . . , v r , v r+1 , . . . , v r+s } von U 2 . Dann gilt<br />

}<br />

dim (U 1 ) = r<br />

‖<br />

⇒ s = 0<br />

dim (U 2 ) = r + s,<br />

d.h. {v 1 , . . . , v r } ist eine Basis von U 2 . Damit haben wir U 1 = U 2 .


2.4 Die Dimension eines linearen Unterraums des K n 59<br />

(ii) Sei {u 1 , . . . , u d } eine Basis für U 1 ∩ U 2 . Betrachte U 1 ∩ U 2 einmal als linearen<br />

Unterraum von U 1 und einmal als linearen Unterraum von U 2 . Dementsprechend<br />

ergänze {u 1 , . . . , u d } einerseits zu einer Basis {u 1 , . . . , u d , v 1 , . . . , v r } für U 1 und<br />

andererseits zu einer Basis {u 1 , . . . , u d , w 1 , . . . , w s } für U 2 . Wir zeigen jetzt, dass<br />

die u 1 , . . . , u d , v 1 , . . . , v r , w 1 , . . . , w s paarweise verschieden sind und die Menge<br />

{u 1 , . . . , u d , v 1 , . . . , v r , w 1 , . . . , w s } eine Basis für U 1 + U 2 ist. Dazu müssen wir<br />

die Menge auf lineare Unabhängigkeit prüfen und zeigen, dass sie ganz U 1 + U 2<br />

aufspannt.<br />

Lineare Unabhängigkeit:<br />

d∑<br />

a i u i +<br />

i=1<br />

r∑<br />

b j v j<br />

+<br />

j=1 k=1<br />

∈U 1<br />

} {{ }<br />

impliziert (vgl. Korollar 2.2.4)<br />

s∑<br />

c k w k ∈ U 2 ∩ U 1<br />

k=1<br />

so, dass man eine Darstellung<br />

hat. Dies schreibt man um in<br />

s∑<br />

c k w k =<br />

k=1<br />

s∑<br />

c k w k +<br />

k=1<br />

s∑<br />

c k w k = 0<br />

} {{ }<br />

∈U 2<br />

d∑<br />

a ′ iu i<br />

i=1<br />

d∑<br />

(−a ′ i)u i = 0<br />

i=1<br />

und folgert c k = 0, weil {u 1 , . . . , u d , w 1 , . . . , w s } linear unabhängig ist. Dann<br />

hat man aber<br />

d∑<br />

r∑<br />

a i u i + b j v j = 0,<br />

i=1<br />

j=1<br />

woraus a i , b j = 0 folgt, weil {u 1 , . . . , u d , v 1 , . . . , v r } linear unabhängig ist.<br />

Damit sieht man zunächst, dass die u 1 , . . . , u d , v 1 , . . . , v r , w 1 , . . . , w s paarweise<br />

verschieden sind und dann die lineare Unabhängigkeit der Menge<br />

{u 1 , . . . , u d , v 1 , . . . , v r , w 1 , . . . , w s }.<br />

Linearer Spann:<br />

t 1 ∈ U 1 ⇒ t 1 = ∑ a i u i + ∑ b j v j ,<br />

t 2 ∈ U 2 ⇒ t 2 = ∑ a ′ iu i + ∑ c k w k ,<br />

t 1 + t 2<br />

} {{ }<br />

∈U 1+U 2<br />

= ∑ (a i + a ′ i)u i + ∑ b j v j + ∑ c k w k .<br />

Also ist jedes Element von U 1 + U 2 eine Linearkombination von Elementen<br />

in<br />

{u 1 , . . . , u d , v 1 , . . . , v r , w 1 , . . . , w s }.<br />

Damit haben wir gezeigt, dass diese Menge eine Basis für U 1 + U 2 ist und es<br />

bleiben nur noch die Längen der einzelnen Basen abzuzählen:


60 2 Lineare Unterräume des K n<br />

dim K (U 1 + U 2 ) = d + r + s<br />

dim K (U 1 ∩ U 2 ) = d<br />

dim K (U 1 ) = d + r<br />

dim K (U 2 ) = d + s<br />

Korollar 2.4.5. Sind U 1 , U 2 ⊆ K n Hyperebenen, d.h., gilt dim K (U 1 ) = dim K (U 2 ) =<br />

n − 1, so gilt dim(U 1 ∩ U 2 ) = n − 1 oder dim(U 1 ∩ U 2 ) = n − 2.<br />

Beweis. Wegen U 1 ∩ U 2 ⊆ U 1 gilt dim K (U 1 ∩ U 2 ) ≤ dim K U 1 = n − 1 Nach der<br />

Dimensionsformel gilt außerdem<br />

dim K (U 1 ∩ U 2 ) = dim K U 1 + dim K U 2 − dim K (U 1 + U 2 ) ≥ 2(n − 1) − n = n − 2<br />

⊓⊔<br />

.<br />

⊓⊔<br />

Wendet man den Begriff der Dimension auf den Lösungsraum eines (HLGS)<br />

an, so erhält man eine wichtige Information über die Größe des Lösungsraums.<br />

Genauer gesagt, ist U der Lösungsraum eines (HLGS) in n Variablen, dann braucht<br />

man mindestens<br />

n · dim K (U) = Anzahl der Komponenten in jedem Vektor mal<br />

Anzahl der Basisvektoren<br />

Zahlen, um U vollständig zu beschreiben.<br />

Es gibt noch weitere Möglichkeiten, aus der Koeffizientenmatrix Informationen<br />

über den Lösungsraum eines (HLGS) abzulesen. Dazu benötigt man aber noch<br />

zusätzliche Werkzeuge zur Untersuchung von Matrizen, die wir in den nächsten<br />

Kapiteln bereitstellen.<br />

Übungen zu Abschnitt 2.4<br />

Übung 2.4.1. Sei W := {(x 1, x 2, x 3) ∈ R 3 | x 1 − x 2 = x 2 − x 3 = 0}. Zeige, dass W ein<br />

1-dimensionaler linearer Unterraum von R 3 ist.<br />

Übung 2.4.2. Berechne die Dimensionen von span(A) für<br />

(i)<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

2 −2 1 −4<br />

⎪⎨<br />

A = ⎜ 0<br />

⎟<br />

⎝ 3 ⎠<br />

⎪⎩<br />

, ⎜ 3<br />

⎟<br />

⎝ 6 ⎠ , ⎜ 5<br />

⎟<br />

⎝ 1 ⎠ , ⎜ 6<br />

⎪⎬<br />

⎟<br />

⎝ 12 ⎠<br />

⎪⎭<br />

−4 −5 3 −10<br />

(ii)<br />

(iii)<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

⎨ 1 2 3 ⎬<br />

A = ⎝ 2 ⎠ , ⎝ 3 ⎠ , ⎝ 1 ⎠<br />

⎩<br />

⎭<br />

3, 1 2<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

−6 1 14<br />

⎪⎨<br />

4<br />

A =<br />

⎜ −14<br />

⎟<br />

⎝ −10 ⎠ , −1<br />

⎜ −2<br />

⎟<br />

⎝ 3 ⎠ , −11<br />

⎪⎬<br />

⎜ 11<br />

⎟<br />

⎝ 30 ⎠<br />

⎪⎩<br />

⎪⎭<br />

2 6 27


2.4 Die Dimension eines linearen Unterraums des K n 61<br />

Übung 2.4.3. Man berechne die Dimensionen von span(A) für<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

⎨ 1 2 3 ⎬<br />

(a) A = ⎝ 2 ⎠ , ⎝ 3 ⎠ , ⎝ 1 ⎠<br />

⎩<br />

⎭ ;<br />

3 1 2<br />

(b) A = {1, 2, 3, 4, . . .} ⊆ R;<br />

(c) A = {e 1 + e 2, e 2 + e 3, e 3 + e 4, e 4 + e 1} ⊆ R n , n ≥ 4.<br />

Übung 2.4.4. Ein Unterraum H von K n heißt eine Hyperebene, wenn dim K H = n − 1.<br />

Seien H eine Hyperebene von K n und V ein Unterraum von K n mit dim K V = h, so<br />

dass V H. Man bestimme dim K (V ∩ H).<br />

Übung 2.4.5. Eine lineare Abbildung ϕ : R 3 → R 3 sei gegeben durch<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

1 1 0 1<br />

ϕ ⎝1⎠ = ϕ ⎝ 0 ⎠ = ϕ ⎝1⎠ = ⎝−2⎠<br />

0 −1 2 1<br />

⎛ ⎞<br />

x 1<br />

Man bestimme ϕ ⎝x 2<br />

⎠ und die Dimension von ϕ(R 3 ).<br />

x 3<br />

Übung 2.4.6. Gegeben seien folgende Vektoren in K 4 :<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛<br />

0<br />

0<br />

1<br />

−2<br />

1<br />

v 1 = ⎜1<br />

⎟<br />

⎝1⎠ , v2 = ⎜2<br />

⎟<br />

⎝3⎠ , v3 = ⎜1<br />

⎟<br />

⎝1⎠ , v4 = ⎜ 0<br />

⎟<br />

⎝ 1 ⎠ , v5 = ⎜3<br />

⎟<br />

⎝2⎠ , v6 = ⎜<br />

⎝<br />

1<br />

5<br />

2<br />

1<br />

1<br />

Ferner seien<br />

(a) Man bestimme eine Basis von U 1.<br />

(b) Warum gilt dim K (U 1 ∩ U 2) > 0?<br />

U 1 = span(v 1, v 2, v 3, v 4), U 2 = span(v 5, v 6).<br />

Übung 2.4.7. Es sei U ⊆ K n ein linearer Unterraum und ϕ: K n → K m eine lineare Abbildung.<br />

Man zeige, dass dim K<br />

(<br />

ϕ(U)<br />

)<br />

≤ dimK (U).<br />

1<br />

1<br />

0<br />

−1<br />

⎞<br />

⎟<br />

⎠ .


3<br />

Matrizenrechnung<br />

In diesem Kapitel führen wir lineare Abbildungen K n → K m ein, beschreiben,<br />

welcher Zusammenhang zwischen Matrizen und solchen Abbildungen besteht, und<br />

zeigen, wie dieser Zusammenhang die Matrizenrechnung motiviert. Insbesondere<br />

werden das Matrizenprodukt, die Inversion von Matrizen und der Rang einer Matrix<br />

eingeführt. Wir schreiben die Elemente des n-dimensionalen Zahlenraumes K n hier<br />

in der Regel als Spaltenvektoren.<br />

3.1 Matrizen und lineare Abbildungen<br />

Gegeben sei eine Matrix<br />

⎛<br />

⎞<br />

a 11 · · · a 1n<br />

⎜<br />

⎟<br />

A := ⎝ . . ⎠<br />

a m1 · · · a mn<br />

mit Einträgen in einem Körper K. Dieser Matrix ordnet man eine Abbildung<br />

zu, die durch<br />

⎛ ⎞<br />

x 1<br />

⎜<br />

x := ⎝ .<br />

x n<br />

gegeben ist.<br />

⎟<br />

⎠ ϕ A<br />

↦−→<br />

ϕ A : K n → K m<br />

⎛<br />

⎞<br />

a 11 x 1 + · · · + a 1n x n<br />

⎜<br />

⎝ .<br />

.<br />

a m1 x 1 + · · · + a mn x n<br />

⎟<br />

⎠ =: ϕ A (x) ∈ K m<br />

Wir bezeichnen die Menge aller Matrizen mit m Zeilen, n Spalten und Koeffizienten<br />

in K mit Mat(m × n, K) der auch mit K m×n .<br />

Für A ∈ Mat(m×n, K) und b ∈ K m lässt sich das zugehörige lineare Gleichungssystem<br />

n∑<br />

a ij x j = b i , i = 1, . . . , m (LGS)<br />

wie folgt schreiben:<br />

j=1<br />

ϕ A (x) = b.


64 3 Matrizenrechnung<br />

An dieser Stelle machen wir einen kleinen Exkurs zum Thema Abbildungen.<br />

Grob gesprochen, haben Abbildungen den Zweck, Definitions- und Wertebereich zu<br />

vergleichen. Betrachte die folgenden Definitionen: Sei ϕ: N → M eine Abbildung.<br />

(a) ϕ heißt injektiv, wenn es zu jedem m ∈ M höchstens ein n ∈ N mit ϕ(n) = m<br />

gibt, d.h. aus ϕ(n) = ϕ(n ′ ) folgt n = n ′ .<br />

(b) ϕ heißt surjektiv, wenn zu jedem m ∈ M mindestens ein n ∈ N mit ϕ(n) = m<br />

gibt.<br />

(c) ϕ heißt bijektiv, wenn ϕ injektiv und surjektiv ist, d.h. zu jedem m ∈ M<br />

existiert genau ein n ∈ N mit ϕ(n) = m.<br />

(d) Sei N ′ eine Teilmenge von N. Dann heißt ϕ(N ′ ) := {ϕ(n) | n ∈ N ′ } das Bild<br />

von N ′ unter ϕ. Man nennt ϕ(N) auch einfach das Bild von ϕ.<br />

(e) Sei M ′ eine Teilmenge von M. Dann heißt ϕ −1 (M ′ ) := {n ∈ N | ϕ(n) ∈ M ′ }<br />

das Urbild von M ′ unter ϕ.<br />

Die Interpretation von Abbildungen als Vergleichsmaßstab liefert dann, dass N<br />

kleiner“ als M ist, falls es eine injektive Abbildung ϕ: N → M gibt. Dagegen ist<br />

”<br />

N größer“ als M, falls es eine surjektive Abbildung ϕ: N → M gibt.<br />

”<br />

Diese Art von Vergleich kann man über Abbildungen auch sehr gut quantitativ<br />

fassen.<br />

Auf Gleichungssysteme angewandt, liefern die Begriffe injektiv, surjektiv und<br />

bijektiv:<br />

ϕ A injektiv: Zu b ∈ K m existiert höchstens eine Lösung von (LGS).<br />

ϕ A surjektiv: Zu b ∈ K m existiert mindestens eine Lösung von (LGS).<br />

ϕ A bijektiv: Zu b ∈ K m existiert genau eine Lösung von (LGS).<br />

Abbildungen mit zueinander passenden Definitions- und Wertebereichen kann<br />

man verknüpfen: Für zwei Abbildungen ϕ: N → M und ψ : M → L definiert man<br />

ψ ◦ ϕ: N → L durch<br />

(ψ ◦ ϕ)(n) = ψ ( ϕ(n) ) ∀n ∈ N.<br />

Wenn ρ: L → P eine weitere Abbildung ist, dann folgt aus dieser Definition der<br />

Verknüpfung (Hintereinanderausführung) von Abbildungen sofort<br />

(ρ ◦ ψ) ◦ ϕ = ρ ◦ (ψ ◦ ϕ),<br />

d.h. die Verknüpfung von Abbildungen ist eine assoziative Operation.<br />

Eine Abbildung ψ : M → N heißt Umkehrabbildung von ϕ: N → M, wenn<br />

ψ ◦ ϕ = id N und ϕ ◦ ψ = id M gibt. Eine Abbildung ϕ: N → M hat höchstens eine<br />

Umkehrabbildung: Wenn nämlich ψ 1 , ψ 2 : M → N beides Umkehrabbildungen sind,<br />

dann gilt<br />

ψ 1 = ψ 1 ◦ id M = ψ 1 ◦ (ϕ ◦ ψ 2 ) = (ψ 1 ◦ ϕ) ◦ ψ 2 = id N ◦ψ 2 = ψ 2 .<br />

Man bezeichnet die Umkehrabbildung von ϕ (wenn sie existiert - in diesem Fall<br />

nennen wir ϕ umkehrbar oder invertierbar) mit ϕ −1 : M → N.<br />

Wenn ϕ eine Umkehrabbildung hat, dann ist ϕ bijektiv: Aus ϕ(n) = ϕ(n ′ ) folgt<br />

n = ϕ −1 ◦ ϕ(n) = ϕ −1 ◦ ϕ(n ′ ) = n ′<br />

und für m ∈ M gilt m = ϕ ( ϕ −1 (m) ) . Umgekehrt, wenn ϕ: N → M eine bijektive<br />

Abbildung ist, dann gibt es eine Umkehrabbildung ϕ −1 : M → N zu ϕ, die durch<br />

ϕ(n) ↦→ n definiert ist.


3.1 Matrizen und lineare Abbildungen 65<br />

Die beiden folgenden Lemmata sind nützlich, wenn es darum geht, nachzuweisen,<br />

dass eine Abbildung ψ : M → N die Umkehrabbildung von ϕ ist:<br />

Lemma 3.1.1. Seien ϕ: N → M und ψ : M → N Abbildungen. Wenn ϕ injektiv<br />

ist, dann folgt aus ϕ ◦ ψ = id M die Gleichheit ψ ◦ ϕ = id N .<br />

Beweis. Für n ∈ N gilt ϕ ( ψ ◦ ϕ(n) ) = ϕ(n), also ψ ◦ ϕ(n) = n, weil ϕ injektiv<br />

ist.<br />

⊓⊔<br />

Lemma 3.1.2. Sei ϕ: N → M eine bijektive Abbildung und ψ : M → N eine weitere<br />

Abbildung. Dann sind folgende Aussagen äquivalent:<br />

(1) ϕ ◦ ψ = id M .<br />

(2) ψ ◦ ϕ = id N .<br />

Beweis. (1) ⇒ (2)“: Dies folgt aus Lemma 3.1.1.<br />

”<br />

(2) ⇒ (1)“: Wegen Lemma 3.1.1 genügt es zu zeigen, dass ψ injektiv ist. Dazu sei<br />

”<br />

ψ(m) = ψ(m ′ ) mit m, m ′ ∈ M. Da ϕ surjektiv ist, gibt es n, n ′ ∈ N mit ϕ(n) = m<br />

und ϕ(n ′ ) = m ′ . Aber dann gilt<br />

n = ψ ◦ ϕ(n) = ψ(m) = ψ(m ′ ) = ψ ◦ ϕ(n ′ ) = n ′<br />

und somit m = m ′ .<br />

⊓⊔<br />

Für A ∈ Mat(m × n, K) und x ∈ K n führen wir folgende Schreibweise ein:<br />

Ax := ϕ A (x).<br />

Wenn man alle Vektoren (als Spaltenvektoren) ausschreibt, liest sich das wie folgt:<br />

⎛<br />

⎞ ⎛ ⎞ ⎛<br />

⎞<br />

a 11 · · · a 1n x 1 a 11 x 1 + · · · + a 1n x n<br />

⎜<br />

⎟ ⎜ ⎟ ⎜<br />

⎟<br />

⎝ . . ⎠ ⎝ . ⎠ = ⎝ .<br />

. ⎠ .<br />

a m1 · · · a mn x n a m1 x 1 + · · · + a mn x n<br />

Lemma 3.1.3. Sei A ∈ Mat(m × n, K). Dann gilt<br />

ϕ A (rx + sy) = rϕ A (x) + sϕ A (y), ∀r, s ∈ K ∀x, y ∈ K n .<br />

Beweis. Dies folgt sofort aus folgender Rechnung (vgl. Satz 2.1.1)<br />

a i1 (rx 1 +sy 1 )+. . .+a in (rx n +sy n ) = r(a i1 x 1 +. . .+a in x n )+s(a i1 y 1 +. . .+a in y n ).<br />

⊓⊔<br />

Definition 3.1.4. Eine Abbildung ϕ: K n ↦→ K m heißt K-linear, wenn<br />

ϕ(rx + sy) = rϕ(x) + sϕ(y) ∀r, s ∈ K, ∀x, y ∈ K n .<br />

Die Menge aller K-linearen Abbildungen von K n → K m wird mit Hom K (K n , K m )<br />

bezeichnet. Wenn aus dem Kontext klar ist, mit welchem Körper man arbeitet,<br />

spricht man einfach von linearen Abbildungen.


66 3 Matrizenrechnung<br />

Mit Induktion sieht man sofort, dass für jede Linearkombination ∑ s<br />

j=1 c jv j ∈ K n<br />

mit v j ∈ K n und c j ∈ K sowie jede lineare Abbildung ϕ: K n → K m gilt<br />

( s∑ )<br />

ϕ c j v j =<br />

j=1<br />

s∑<br />

c j ϕ(v j ).<br />

j=1<br />

Satz 3.1.5. Jede lineare Abbildung ϕ: K n ↦→ K m ist von der Form ϕ A mit A ∈<br />

Mat(m × n, K). Das A ist dabei eindeutig bestimmt, d.h. die Abbildung<br />

ist bijektiv.<br />

Φ: Mat(m × n, K) → Hom K (K n , K m )<br />

A ↦→ ϕ A<br />

Beweis. Idee: Betrachte für alle linearen Abbildungen die Bilder der Standardbasis. Die<br />

j-te Spalte der gesuchten Matrix ist das Bild des j-ten Standardbasisvektors.<br />

Gegeben sei ϕ ∈ Hom K (K n , K m ). Betrachte die Bilder der Standardbasis für K n<br />

unter ϕ<br />

⎛ ⎞<br />

0<br />

.<br />

⎛ ⎞<br />

0<br />

a 1j<br />

K n ϕ<br />

∋ e j =<br />

1<br />

⎜<br />

↦→<br />

. ⎟<br />

⎝ . ⎠ := ϕ(e j ) ∈ K m .<br />

0<br />

a<br />

⎜ ⎟<br />

mj<br />

⎝ . ⎠<br />

0<br />

Für die Matrix<br />

gilt dann<br />

⎛<br />

⎞<br />

a 11 · · · a 1n<br />

⎜<br />

⎟<br />

A = ⎝ . . ⎠<br />

a m1 · · · a mn<br />

⎛ ⎞<br />

a 1j<br />

⎜ ⎟<br />

ϕ A (e j ) = ⎝ . ⎠ = ϕ(e j ).<br />

a mj<br />

Da jedes x als Linearkombination x = ∑ n<br />

j=1 c je j der Standardbasis geschrieben<br />

werden kann und wegen der Linearität von ϕ die Identität<br />

ϕ A (x) =<br />

n∑<br />

c j ϕ A (e j ) =<br />

j=1<br />

n∑<br />

c j ϕ(e j ) = ϕ(x)<br />

gilt, folgt daraus, dass ϕ A (x) = ϕ(x) für alle x ∈ K n .<br />

Um die Eindeutigkeit von A mit ϕ A = ϕ zu zeigen, nehmen wir an, dass ϕ A =<br />

ϕ A ′. Wenn A = (a ij ) i = 1 , ... , n und A ′ = (a ′ ij) i = 1 , ... , n , dann ist der i–te Eintrag<br />

j = 1 , ... , m<br />

j = 1 , ... , m<br />

von ϕ A (e j ) gleich a ij und der i–te Eintrag von ϕ A ′(e j ) gleich a ′ ij . Also gilt a ij = a ′ ij<br />

für alle i ∈ {1, . . . , m} und j ∈ {1, . . . , n}.<br />

⊓⊔<br />

j=1<br />

In der Analysis spielen die linearen Abbildungen aus Hom R (R n , R m ) eine ganz<br />

zentrale Rolle. Durch sie beschreibt man nämlich die Ableitungen, die geometrisch


3.1 Matrizen und lineare Abbildungen 67<br />

nichts anderes sind als lineare Approximationen der zu untersuchenden differenzierbaren<br />

Abbildungen. Im Falle skalarwertiger Funktionen in einer Variablen hat<br />

man n = m = 1 und die lineare Abbildung wird durch eine 1 × 1-Matrix, d.h. eine<br />

Zahl beschrieben. Diese Zahl ist nichts anderes als die Steigung der Tangente an<br />

den Graphen, d.h. der Wert der Ableitung der Funktion an der gegebenen Stelle. In<br />

mehreren Variablen ist die resultierende Matrix genau die Jacobi-Matrix, die man<br />

aus den partiellen Ableitungen bildet.<br />

Die Umkehrabbildung von Φ: Mat(m × n, K) → Hom K (K n , K m ) bezeichnen wir<br />

mit ϕ ↦→ A ϕ . Damit gilt insbesondere<br />

und<br />

A ϕB<br />

ϕ Aψ<br />

= Φ −1 (ϕ B ) = Φ −1( Φ(B) ) = B<br />

= Φ(A ψ ) = Φ ( Φ −1 (ψ) ) = ψ<br />

für alle B ∈ Mat(m × n, K) und alle ψ ∈ Hom K (K n , K m ).<br />

Beispiel 3.1.6. (i) Identität:<br />

(ii) Streckung mit c ∈ K:<br />

⎛ ⎞<br />

1 0 · · · 0<br />

}<br />

id : K n → K n<br />

, A<br />

x ↦→ x<br />

id = 1 n :=<br />

0 1 . . . .<br />

⎜ .<br />

⎝ . . . . ⎟<br />

. .. 0 ⎠ .<br />

0 · · · 0 1<br />

⎛ ⎞<br />

c 0 · · · 0<br />

}<br />

ϕ : K n → K n<br />

.<br />

, A<br />

x ↦→ cx<br />

ϕ =<br />

0 c .. .<br />

⎜<br />

⎝ . . . . ⎟<br />

. .. 0 ⎠ .<br />

0 · · · 0 c<br />

(iii) Spiegelung an der von e 2 und e 3 aufgespannten Ebene:<br />

⎛ ⎞ ⎛ ⎞<br />

⎛ ⎞<br />

x 1<br />

−x 1<br />

−1 0 0<br />

⎝ x 2<br />

⎠ ↦→<br />

ϕ ⎝ x 2<br />

⎠ , A ϕ = ⎝ 0 1 0 ⎠<br />

x 3 x 3<br />

0 0 1<br />

⊓⊔<br />

Die Verknüpfung ϕ B ◦ ϕ A : K n → K l zweier linearer Abbildungen<br />

ist wieder linear:<br />

K n<br />

ϕ A<br />

−→ K m ϕ B<br />

−→ K l<br />

(ϕ B ◦ ϕ A )(rx + sy) = ϕ B (ϕ A (rx + sy))<br />

= ϕ B (rϕ A (x) + sϕ A (y))<br />

= rϕ B (ϕ A (x)) + sϕ B (ϕ A (y))<br />

= r(ϕ B ◦ ϕ A )(x) + s(ϕ B ◦ ϕ A )(y).<br />

Daher findet man nach Satz 3.1.5 eine eindeutig bestimmte Matrix P ∈ Mat(l ×<br />

n, K) mit ϕ B ◦ ϕ A = ϕ P . Wir bezeichnen dieses P mit BA und nennen es das


68 3 Matrizenrechnung<br />

Matrizenprodukt von B und A. Wenn zusätzlich C ∈ Mat(k × l, K), d.h. ϕ C ∈<br />

Hom K (K l , K k ), dann hat man ϕ C ◦ (ϕ B ◦ ϕ A ) = (ϕ C ◦ ϕ B ) ◦ ϕ A , also gilt<br />

(CB)A = C(BA),<br />

d.h., das Matrizenprodukt ist assoziativ.<br />

Wir geben eine explizite Formel für das Matrizenprodukt an:<br />

Satz 3.1.7 (Matrizenmultiplikation). Seien A ∈ Mat(m × n, K), B ∈ Mat(l ×<br />

m, K). Dann gilt<br />

m∑<br />

ϕ B ◦ ϕ A = ϕ P mit P = BA ∈ Mat(l × n, K), wobei p ij = b ik a kj .<br />

Schema:<br />

Zeile × Spalte“<br />

”<br />

k=1<br />

l<br />

B<br />

m<br />

A<br />

m<br />

=<br />

BA<br />

n<br />

l<br />

n<br />

Beweis.<br />

⎛ ⎞<br />

⎛ ⎞<br />

⎛ ⎞ 1<br />

0<br />

a 1j<br />

⎜ ⎟<br />

0<br />

ϕ A (e j ) = ⎝ . ⎠ = a 1j ⎜ ⎟ + . . . + a mj ⎜ .<br />

⎟<br />

⎝ . ⎠<br />

⎝ 0 ⎠<br />

a mj<br />

0<br />

1<br />

} {{ }<br />

} {{ }<br />

=:f 1<br />

=:f m<br />

,<br />

d.h. {f 1 , . . . , f m } ist die Standardbasis für K m . Analog erhält man:<br />

⎛ ⎞<br />

b 1k<br />

⎜ ⎟<br />

ϕ B (f k ) = ⎝ . ⎠ = b 1k g 1 + . . . + b lk g l ,<br />

b lk<br />

wobei {g 1 , . . . , g l } ist die Standardbasis für K l ist.<br />

ϕ B ◦ ϕ A (e j ) = ϕ B (a 1j f 1 + . . . + a mj f m )<br />

= a 1j ϕ B (f 1 ) + . . . + a mj ϕ B (f m )<br />

= a 1j (b 11 g 1 + . . . + b l1 g l ) + . . . + a mj (b 1m g 1 + . . . + b lm g l )<br />

= (a 1j b 11 + . . . + a mj b 1m )g 1 + . . . + (a 1j b l1 + . . . + a mj b lm )g l<br />

m∑<br />

m∑<br />

= (b 1k a kj )g 1 + . . . + (b lk a kj )g l ,<br />

k=1<br />

k=1<br />

d.h. die j–te Spalte von BA ist:<br />

⎛ ⎞<br />

m∑<br />

b 1k a kj<br />

k=1<br />

⎜ .<br />

⎟<br />

⎝ m∑ ⎠<br />

b lk a kj<br />

Damit folgt die Behauptung.<br />

k=1<br />

⊓⊔


3.1 Matrizen und lineare Abbildungen 69<br />

Beispiel 3.1.8. (i) Die Elemente des n-dimensionalen Zahlenraums (Spaltenvektoren)<br />

lassen sich als Matrizen interpretieren: K n = Mat(n × 1, K). Wenn also<br />

A ∈ Mat(m × n, K) und x ∈ K n , dann gilt für das Matrizenprodukt Ax<br />

⎛<br />

⎛ ⎛<br />

Ax =<br />

⎜<br />

⎝<br />

⎞ ⎞<br />

a 11 · · · a 1n x 1<br />

⎟ ⎜<br />

. . ⎠ ⎝ .<br />

a m1 · · · a mn x n<br />

⎟<br />

⎠ =<br />

⎜<br />

⎝<br />

⎞<br />

a 11 x 1 + · · · + a 1n x n<br />

.<br />

.<br />

a m1 x 1 + · · · + a mn x n<br />

⎟<br />

⎠ = ϕ A (x),<br />

d.h., die Notation für das Matrizenprodukt ist kompatibel mit unserer vorherigen<br />

Setzung Ax = ϕ A (x). Das lineare Gleichungssystem (LGS) mit erweiterter<br />

Koeffizientenmatrix (A, b) lässt sich schreiben: Ax = b.<br />

(ii) Für alle A ∈ Mat(m × n, K) gilt 1 m A = A, d.h.<br />

⎛ ⎞ ⎛<br />

⎞<br />

1 0 a 11 · · · a 1n<br />

⎜<br />

⎝<br />

. ..<br />

⎟ ⎜<br />

⎠ ⎝ . .<br />

0 1 a m1 · · · a mn<br />

⎟<br />

⎠ =<br />

⎛<br />

⎞<br />

a 11 · · · a 1n<br />

⎜<br />

⎝ . .<br />

a m1 · · · a mn<br />

und A1 n = A.<br />

(iii) Für y ∈ Mat(1 × n, K) (= K n als Zeilenvektoren) und x ∈ Mat(n × 1, K) (= K n<br />

als Spaltenvektoren) gilt<br />

⎛<br />

⎞<br />

x 1<br />

⎜<br />

yx = (y 1 , . . . , y n ) ⎝ .<br />

x n<br />

⎟<br />

⎠ ,<br />

⎟<br />

⎠ = y 1 x 1 + . . . + y n x n .<br />

(iv) Das folgende Beispiel zeigt, dass das Matrizenprodukt selbst auf quadratischen<br />

Matrizen nicht kommutativ ist.<br />

( ) ( ) ( ) ( ) ( ) ( )<br />

0 1 0 0 1 0 0 0 0 0 0 1<br />

= ≠ =<br />

.<br />

0 0 1 0 0 0 0 1 1 0 0 0<br />

Beispiel 3.1.9. Die elementaren Zeilenumformungen können durch Multiplikationen<br />

mit bestimmten Elementarmatrizen von links beschrieben werden. Die entsprechenden<br />

elementaren Spaltenumformungen erreicht man durch Multiplikation<br />

mit Elementarmatrizen von rechts.<br />

(i)<br />

⎛<br />

⎜<br />

⎝<br />

1 0<br />

. ..<br />

1<br />

0 0 . . . 0 1<br />

0 1 0 0<br />

0 . . .<br />

. .. . .. .<br />

. 0 1 0<br />

1 0 . . . 0 0<br />

1<br />

. ..<br />

⎞<br />

}<br />

0<br />

{{<br />

1<br />

}<br />

E I(p,q) ∈Mat(m×m,K)<br />

⎛<br />

⎞ ⎛<br />

⎞<br />

a 11 · · · a 1n a 11 · · · a 1n<br />

. .<br />

. .<br />

a p1 · · · a pn<br />

a q1 · · · a qn<br />

. .<br />

=<br />

. .<br />

.<br />

a q1 · · · a qn<br />

a p1 · · · a pn<br />

⎜<br />

⎟ ⎜<br />

⎟<br />

⎝ . . ⎠ ⎝ . . ⎠<br />

a<br />

⎟ m1 · · · a mn a m1 · · · a mn<br />

⎠<br />

⊓⊔


70 3 Matrizenrechnung<br />

(ii)<br />

(iii)<br />

⎛<br />

1<br />

⎜<br />

⎝<br />

. ..<br />

1<br />

c<br />

1<br />

⎛<br />

⎝ 0 0 1<br />

⎞ ⎛<br />

0 1 0 ⎠ ⎝ 2 1 3<br />

⎞ ⎛<br />

2 3 1 ⎠ = ⎝ 7 8 9<br />

⎞<br />

2 3 1 ⎠<br />

1 0 0 7 8 9 2 1 3<br />

} {{ }<br />

E I(1,3) ∈Mat(3×3,R)<br />

⎞<br />

⎛<br />

⎞ ⎛<br />

⎞<br />

a 11 · · · a 1n a 11 · · · a 1n<br />

.<br />

.<br />

a p1 · · · a pn<br />

=<br />

ca p1 · · · ca pn<br />

.<br />

⎜<br />

⎟ ⎜<br />

⎟<br />

⎝<br />

. ⎟ . ⎠ ⎝ . ⎠<br />

.. ⎠ a m1 · · · a mn a m1 · · · a mn<br />

1<br />

} {{ }<br />

E II(p;c) c≠0<br />

(iv)<br />

⎛<br />

1<br />

⎜<br />

⎝<br />

. ..<br />

1<br />

1 . . . c<br />

. 1 .<br />

.<br />

. .. .<br />

. 1 .<br />

0 . . . 1<br />

⎞<br />

⎛<br />

⎞ ⎛<br />

⎞<br />

a 11 · · · a 1n<br />

a 11 · · · a 1n<br />

. .<br />

.<br />

.<br />

a p1 · · · a pn<br />

a p1 + ca q1 · · · a pn + ca qn<br />

. .<br />

=<br />

.<br />

.<br />

a q1 · · · a qn<br />

a q1 · · · a qn<br />

⎜<br />

⎟ ⎜<br />

⎟<br />

⎝<br />

. . ⎠ ⎝ .<br />

. ⎠<br />

. ⎟ .. ⎠ a m1 · · · a mn a m1 · · · a mn<br />

1<br />

} {{ }<br />

E III(c,q;p) ∈Mat(m×m,K)<br />

Das c ist oberhalb bzw. unterhalb der Diagonale, je nach dem, ob q > p oder<br />

q < p gilt.<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

1 0 0 2 1 3 2 1 3<br />

(v) ⎝ 2 1 0 ⎠ ⎝ 2 3 1 ⎠ = ⎝ 6 5 7 ⎠<br />

0 0 1 7 8 9 7 8 9<br />

⊓⊔<br />

Übungen zu Abschnitt 3.1<br />

Abbildungen<br />

Übung 3.1.1. Es sei f : M → N eine Abbildung. Zeige:<br />

f surjektiv ⇐⇒ N \ f(A) ⊂ f(M \ A) für alle A ⊂ M .<br />

Übung 3.1.2. Seien A und B zwei Mengen mit jeweils n Elementen und ϕ: A → B eine<br />

Abbildung. Man zeige, dass die folgenden Aussagen äquivalent sind:<br />

(1) ϕ ist bijektiv.


3.1 Matrizen und lineare Abbildungen 71<br />

(2) ϕ ist injektiv.<br />

(3) ϕ ist surjektiv.<br />

Übung 3.1.3. Seien X, Y und Z beliebige Mengen mit Abbildungen f : X → Y und<br />

g : Y → Z. Sei f surjektiv. Man betrachte folgende Eigenschaften:<br />

A: g ◦ f ist injektiv.<br />

B: g ist injektiv.<br />

Man beweise, dass g injektiv ist, wenn g ◦ f injektiv ist, auf folgende Weise:<br />

(a) Mit direktem Beweis: A ⇒ B.<br />

(b) Durch Kontraposition der Implikation: Nicht B ⇒ nicht A.<br />

(c) Mit einem Widerspruchsbeweis.<br />

(d) Man nehme jetzt an, daß X, Y und Z Vektorräume und f und g linear sind. Man gebe<br />

einen vierten Beweis mittels der Eigenschaft: Es seien V und W Vektorräume. Eine<br />

lineare Abbildung h : V → W ist genau dann injektiv, wenn h −1 ({0}) = {0}.<br />

Übung 3.1.4. Entscheide, ob die folgenden Abbildungen umkehrbar sind und bestimme<br />

gegebenenfalls die Umkehrabbildung. Hierbei sei 2Z = {2·k | k ∈ Z} die Menge der geraden<br />

Zahlen.<br />

ϕ 1 : Z → 2Z, k ↦→ 2k , ϕ 2 : Z → N, x ↦→ x 2 ,<br />

( )<br />

ϕ 3 : R → R, x ↦→ 2 x − 3 ,<br />

ϕ 4 : R → R 2 x<br />

, x ↦→, ,<br />

−x<br />

( ) ( )<br />

( ) ( )<br />

ϕ 5 : R 2 → R 2 x1 x1 − x 2<br />

, ↦→<br />

, ϕ<br />

x 2 −x 1 + x 6 : R 2 → R 2 x1 x1 − x 2<br />

, ↦→<br />

.<br />

2 x 2 x 1 + x 2<br />

Gibt es eine Abbildung ϕ : N → Z, die umkehrbar ist?<br />

Lineare Abbildungen<br />

Übung 3.1.5. Eine lineare Abbildung ϕ : R 2 → R 3 sei gegeben durch<br />

Man bestimme ϕ((5, 7)) und ϕ((x 1, x 2)).<br />

ϕ((1, 1)) = (1, 0, −2)<br />

ϕ((1, 2)) = (0, 1, −1).<br />

Übung 3.1.6. Eine lineare Abbildung ϕ : R 3 → R 2 sei gegeben durch<br />

ϕ((1, 1, 1)) = (2, 1) ,<br />

ϕ((1, 2, 0)) = (1, 0) ,<br />

ϕ((2, 0, 1)) = (3, 2) .<br />

Man bestimme ϕ((1, 2, 3)) und ϕ((x 1, x 2, x 3)).<br />

Übung 3.1.7. Seien ϕ, ψ Abbildungen gegeben durch<br />

⎛ ⎞<br />

x 1<br />

( )<br />

ϕ : R 3 → R 2 , ⎝x 2<br />

⎠ x1 + x 2<br />

↦→ , ψ : R 2 → R 4 ,<br />

x<br />

x 3 − x 1<br />

3<br />

⎛ ⎞<br />

)<br />

3 x 1 − x 2<br />

↦→ ⎜ x 2<br />

⎟<br />

x 2<br />

⎝ −x 1<br />

⎠ .<br />

3x 1 − 2x 2<br />

Zeige, dass ϕ, ψ lineare Abbildungen sind und bestimme die Verknüpfung ψ ◦ ϕ.<br />

(<br />

x1<br />

Übung 3.1.8. Es seien die folgenden Matrizen A 1, A 2, B 1, B 2 gegeben:<br />

⎛ ⎞<br />

⎛ ⎞<br />

3<br />

1<br />

1<br />

1<br />

A 1 =<br />

⎜ 1<br />

⎟ ∈ Mat(5 × 1, R),<br />

⎝ 1 ⎠ A2 = −2<br />

5<br />

∈ Mat(7 × 1, R),<br />

⎜ 4<br />

⎟<br />

1<br />

⎝ −6 ⎠<br />

−5


72 3 Matrizenrechnung<br />

B 1 = (−2, 1, 2, 0, −1) ∈ Mat(1 × 5, R), B 2 = (2, −1, 3, 1, −1, 0, 0) ∈ Mat(1 × 7, R).<br />

Bestimme die Mengen<br />

ϕ A1 (R), ϕ A2 (R), ϕ B1 (R 7 ), ϕ B2 (R 5 ), ϕ A1 B 1<br />

(R 7 ), ϕ B1 A 1<br />

(R), ϕ A2 B 2<br />

(R 5 ), ϕ B2 A 2<br />

(R).<br />

Übung 3.1.9. Es seien<br />

ϕ : R 2 → R 3 ,<br />

ψ : R 3 → R 2 ,<br />

⎛ ⎞<br />

( ) x 1 + 2x 2<br />

x1<br />

↦→ ⎝ 2x<br />

x 1 + x 2<br />

⎠<br />

2<br />

x 2<br />

⎛ ⎞<br />

x 1<br />

(<br />

)<br />

⎝ x 2<br />

⎠<br />

x 1<br />

↦→<br />

.<br />

3x<br />

x 1 + 2x 2 + x 3<br />

3<br />

Man bestimme Matrizen A, B, C, D, so dass ϕ = ϕ A, ψ = ϕ B, ϕ ◦ ψ = ϕ C, ψ ◦ ϕ = ϕ D<br />

gilt.<br />

Übung 3.1.10. (a) Was bewirkt die Abbildung, die zu der Matrix<br />

( )<br />

cos α − sin α<br />

A =<br />

sin α cos α<br />

gehört (geometrische Deutung)?<br />

(b) Es seien gegeben die Matrizen<br />

( )<br />

cos α − sin α<br />

A =<br />

sin α cos α<br />

( )<br />

cos β − sin β<br />

und B =<br />

.<br />

sin β cos β<br />

Überprüfe die folgenden Additionstheoreme durch geeignete Matrizenmultiplikationen:<br />

(i) sin(α ± β) = sin α cos β ± cos α sin β.<br />

(ii) cos(α ± β) = cos α cos β ∓ sin α sin β.<br />

(ii) sin 2 α + cos 2 α = 1.<br />

Übung 3.1.11. (a) Sei a = (a 1, a 2) ∈ R 2 . Zeige, dass die Abbildung σ a : R 2 → R 2 , die<br />

durch<br />

2(a1x1 + a2x2)<br />

σ a(x) := x −<br />

(a 2 1 + a2 2 ) a<br />

definiert wird, linear ist.<br />

(b) Sei a = (a 1, a 2) ≠ (0, 0). Berechne die Menge<br />

F := {x ∈ R 2 : σ a(x) = x}<br />

und interpretiere F geometrisch.<br />

(c) Bestimme die Matrix, die zu σ a gehört, und interpretiere σ a geometrisch.<br />

(d) Sei a = (1, 0) und b = (sin α, cos α). Bestimme die Matrix, die zu σ b ◦ σ a gehört und<br />

interpretiere die Abbildung σ b ◦ σ a geometrisch.<br />

Übung 3.1.12. Gibt es im R 2 zwei Vektoren mit ganzzahligen Komponenten, die einen<br />

Winkel von 30 ◦ einschließen?<br />

Übung 3.1.13. Gib jeweils eine von Null verschiedene Matrix A ∈ Mat(3 × 3, R) an, für<br />

die ϕ A die folgenden Eigenschaften hat (mit Beweis der Eigenschaft):<br />

(i) ϕ A ist surjektiv.<br />

(ii) ϕ A ist injektiv.<br />

(iii) ϕ A ist nicht surjektiv.<br />

(iv) ϕ A ist nicht injektiv.<br />

Übung 3.1.14.<br />

1. Es sei eine Abbildung ϕ : R 2 → R 3 gegeben durch<br />

⎛ ⎞<br />

(( )) x 2<br />

x1<br />

ϕ = ⎝3 x<br />

x 1 − x 2<br />

⎠ .<br />

2<br />

2 x 2<br />

Zeige zunächst, dass ϕ R-linear ist, und bestimme anschließend eine geeignete Matrix<br />

A, so dass ϕ = ϕ A gilt.


3.1 Matrizen und lineare Abbildungen 73<br />

{( 1<br />

2. Bestimme eine lineare Abbildung ϕ : R 2 → R 2 mit ϕ(R 2 ) = span .<br />

1)}<br />

Übung 3.1.15. Man bestimme die Matrix der linearen Abbildung ϕ : R 2 → R 3 , die durch<br />

⎛ ⎞<br />

⎛ ⎞<br />

( 1 ( 2<br />

1<br />

ϕ = ⎝3⎠ 2<br />

, ϕ = ⎝2⎠<br />

2)<br />

0)<br />

4<br />

4<br />

gegeben ist.<br />

Übung 3.1.16. Die sieben Zwerge sitzen rund um einen Tisch, jeder mit einer Tasse vor<br />

sich. In den Tassen befinden sich unterschiedliche Mengen Milch; insgesamt sind es drei<br />

Liter.<br />

Nun verteilt der erste Zwerg den Inhalt seiner Tasse gleichmäßig auf die übrigen sechs;<br />

anschließend tut dies auch der zweite, usw. Nachdem schließlich auch der siebte Zwerg den<br />

Inhalt seiner Tasse gleichmäßig auf die übrigen sechs verteilt hat, stellen die sieben Zwerge<br />

fest, dass jeder gerade so viel Milch in seiner Tasse hat wie zu Beginn.<br />

Wie viel Milch hatte am Anfang jeder Zwerg in seiner Tasse?<br />

Matrizenmultiplikation<br />

Übung 3.1.17. Die Multiplikation einer Matrix mit einer Elementarmatrix von links liefert<br />

die elementaren Zeilenumformungen. Interpretiere die Multiplikation einer Matrix mit<br />

einer Elementarmatrix von rechts.<br />

Übung 3.1.18. Sei A ∈ Mat(n × n, R) und schreibe A 2 := AA, A 3 = AAA, . . . Berechne<br />

A 4 für folgende Matrizen A:<br />

⎛<br />

⎞ ⎛ ⎞<br />

⎛ ⎞ 1 7 0 0 0 2 1 0 0 2<br />

0 1 7 9<br />

⎜ 0 0 3 2<br />

⎟<br />

⎝ 0 0 0 8 ⎠ ,<br />

0 −1 0 0 0<br />

⎜ 0 0 0 1 0<br />

⎟<br />

⎝<br />

⎠ ,<br />

0 2 0 0 0<br />

⎜ 0 0 2 0 0<br />

⎟<br />

⎝ ⎠ .<br />

0 0 0 0<br />

0 0 0 0 1<br />

0 0 0 0 0<br />

Übung 3.1.19. Betrachte die Matrizen<br />

⎛ ⎞<br />

0 0 0 1 1<br />

0 0 0 1 1<br />

A =<br />

⎜ 0 0 0 0 0<br />

⎟<br />

⎝ 1 1 0 0 0 ⎠ ,<br />

1 1 0 0 0<br />

⎛ ⎞<br />

0 0 a b<br />

B 2 = ⎜ 0 0 c d<br />

⎟<br />

⎝ 0 0 0 0 ⎠ ,<br />

0 0 0 0<br />

0 0 0 1 1<br />

0 0 0 0 1<br />

⎛ ⎞<br />

0 0 0 0<br />

B1 = ⎜ 0 0 0 0<br />

⎟<br />

⎝ a b 0 0 ⎠<br />

c d 0 0<br />

⎛ ⎞<br />

1 −1 0 0<br />

C = ⎜ 0 −1 0 0<br />

⎟<br />

⎝ 1 −1 1 −1 ⎠<br />

0 −1 0 −1<br />

und berechne A 2 , A 3 , A 4 , B 1C, B 2C, B 2 1, C 2 . Kann man etwas über A 7 sagen, ohne zu rechnen?<br />

Übung 3.1.20. Es seien A, B ∈ Mat(n × n, R) mit AB = 1 n. Zeige, dass auch BA = 1 n<br />

gilt.<br />

Übung 3.1.21. Man zeige: Die Menge<br />

{( ) x −y<br />

M :=<br />

y x<br />

}<br />

| x, y ∈ R<br />

mit der üblichen Matrizenaddition und Multiplikation bildet einen Körper.


74 3 Matrizenrechnung<br />

Übung 3.1.22. Es sei ϕ : R 3 → R 3 die lineare Abbildung, die durch<br />

⎛ ⎞<br />

x 1 + x 3<br />

ϕ(x) = ⎝ x 2<br />

⎠<br />

x 1 + x 3<br />

gegeben ist. Schreibe ϕ 2 := ϕ ◦ ϕ, ϕ 3 := ϕ ◦ ϕ ◦ ϕ, usw. Man bestimme ϕ 7 .<br />

Übung 3.1.23 (Diagonalmatrizen). Es sei A ∈ Mat(n × n, K) eine Diagonalmatrix mit<br />

paarweise verschiedenen Einträgen α 1, . . . , α n ∈ K auf der Diagonalen, d.h.<br />

⎛<br />

⎞<br />

α 1 0 · · · 0<br />

0 α 2 0<br />

A = ⎜<br />

⎝<br />

.<br />

. ..<br />

. ⎟ mit αi ≠ αj für i ≠ j.<br />

.. ⎠<br />

0 0 · · · α n<br />

Man zeige: Gilt AB = BA, so ist B ∈ Mat(n × n, K) auch eine Diagonalmatrix.<br />

Übung 3.1.24 (Distributivität der Matrizenmultiplikation). Betrachte Matrizen A, B ∈<br />

Mat(m × n, K), X, Y ∈ Mat(n × k, K) und zeige mit Satz 3.1.7 die beiden folgenden Distributivgesetze:<br />

A(X + Y ) = AX + AY und (A + B)X = AX + BX.<br />

3.2 Bijektivität und Invertierbarkeit<br />

In diesem Abschnitt geben wir Kriterien dafür an, dass eine lineare Abbildung<br />

ϕ ∈ Hom K (K n , K m ) bijektiv ist und erhalten so weitere Kriterien für die eindeutige<br />

Lösbarkeit von linearen Gleichungssystemen. Die dabei entwickelten Methoden<br />

führen auf den Begriff des Rangs einer Matrix, mit dem man dann auch einfache<br />

Kriterien für die Injektivität und Surjektivität von ϕ angeben kann.<br />

Als Vorbereitung beweisen wir eine einfache Proposition die illustriert wie lineare<br />

Abbildungen lineare Strukturen transportieren. Sie wird auch in vielen anderen<br />

Kontexten nützlich sein.<br />

Proposition 3.2.1. Seien ϕ ∈ Hom K (K n , K m ) eine lineare Abbildung und U ⊆<br />

K n , V ⊆ K m lineare Unterräume. Dann gilt:<br />

(i) ϕ(U) ⊆ K m ist ein linearer Unterraum.<br />

(ii) ϕ −1 (V ) = {x ∈ K n | ϕ(x) ∈ V } ⊆ K n ist ein linearer Unterraum.<br />

(iii) Wenn {v 1 , . . . , v k } ⊆ K m linear unabhängig ist und für {u 1 , . . . , u k } ⊆ K n gilt<br />

ϕ(u j ) = v j , dann ist auch {u 1 , . . . , u k } linear unabhängig.<br />

Beweis. Idee: (i) und (ii) folgen direkt aus den Definitionen. Für (iii) wendet man<br />

Korollar 2.2.4 an.<br />

(i) Für r, r ′ ∈ K, x, x ′ ∈ U und y = ϕ(x), y ′ = ϕ(x ′ ) gilt<br />

ry + r ′ y ′ = rϕ(x) + r ′ ϕ(x ′ ) = ϕ(rx + r ′ x ′ ) ∈ ϕ(U).<br />

(ii) Für x, x ′ ∈ ϕ −1 (V ) und r, r ′ ∈ K gilt<br />

ϕ(rx + r ′ x ′ ) = rϕ(x) + r ′ ϕ(x ′ ) ∈ V.


3.2 Bijektivität und Invertierbarkeit 75<br />

(iii) Wenn 0 = ∑ n<br />

j=1 c ju j , dann gilt<br />

( ∑<br />

n )<br />

0 = ϕ(0) = ϕ c j u j =<br />

j=1<br />

n∑<br />

c j ϕ(u j ) =<br />

j=1<br />

n∑<br />

c j v j ,<br />

j=1<br />

also c 1 = . . . = c n = 0 (vgl. Korollar 2.2.4).<br />

⊓⊔<br />

Als nächstes geben wir verschiedene Charakterisierungen der Injektivität von<br />

linearen Abbildungen an, die einerseits den Nachweis von Injektivität erleichtern,<br />

andererseits bei der Charakterisierung der Bijektivität nützlich sein werden. eine<br />

sehr nützliche Größe in diesem Kontext ist der Kern<br />

ker(ϕ) := ϕ −1 ({0}) = {x ∈ K n | ϕ(x) = 0}<br />

einer linearen Abbildung ϕ ∈ Hom K (K n , K m ), der nach Proposition 3.2.1 ein linearer<br />

Unterraum von K n ist.<br />

Proposition 3.2.2. Sei ϕ ∈ Hom K (K n , K m ). Dann sind äquivalent:<br />

(1) ϕ ist injektiv.<br />

(2) ker(ϕ) = {0}.<br />

(3) {ϕ(v 1 ), . . . , ϕ(v n )} ist linear unabhängig für jede Basis {v 1 , . . . , v n } von K n .<br />

(4) {ϕ(v 1 ), . . . , ϕ(v n )} ist linear unabhängig für eine Basis {v 1 , . . . , v n } von K n .<br />

Beweis. Idee: Für ”<br />

(4)⇒(2)“ schreibt man ein Element von ker ϕ als Linearkombination<br />

der v j und wendet ϕ darauf an. Dann liefern Satz 2.3.3 und Korollar 2.2.4 die Behauptung.<br />

Die Implikationen ”<br />

(2) ⇒ (1) ⇒ (3) ⇒ (4)“ verifiziert man direkt mit den Definitionen.<br />

” (2) ⇒ (1)“: Wenn ϕ(x) = ϕ(x′ ), dann gilt wegen der Linearität ϕ(x − x ′ ) = 0 und<br />

dann nach (2) auch x − x ′ = 0. Also ist ϕ injektiv.<br />

” (1) ⇒ (3)“: Aus 0 = ∑ ( ∑<br />

n )<br />

j = 1 n c j ϕ(v j ) = ϕ c j v j<br />

folgt 0 = ∑ n<br />

j=1 c jv j und damit c 1 = . . . = c n = 0.<br />

(3) ⇒ (4)“: Offensichtlich.<br />

”<br />

” (4) ⇒ (2)“: Sei v ∈ ϕ−1 ({0}) und {v 1 , . . . , v n } eine Basis für K n . Dann kann man<br />

v wegen Satz 2.3.3 in der Form v = ∑ n<br />

j=1 c jv j schreiben. Aus ϕ( ∑ n<br />

j=1 c jv j ) = 0<br />

folgt dann ∑ n<br />

j=1 c jϕ(v j ) = 0, und wegen (4) mit Korollar 2.2.4 dann c 1 = . . . =<br />

c n = 0, und schließlich v = ∑ n<br />

j=1 c jv j = 0.<br />

j=1<br />

⊓⊔<br />

Injektivität und Surjektivität von linearen Abbildungen lassen Rückschlüsse auf<br />

die relative Größe von Definitionsbereichen und Bildbereichen zu (vgl. auch die<br />

Bemerkungen auf Seite 64).<br />

Lemma 3.2.3. (i) Wenn ϕ ∈ Hom K (K n , K m ) injektiv ist, dann gilt n ≤ m.<br />

(ii) Wenn ϕ ∈ Hom K (K n , K m ) surjektiv ist, dann gilt n ≥ m.<br />

Beweis. (i) {ϕ(e 1 ), . . . , ϕ(e n )} ist linear unabhängig, also existieren mindestens n<br />

linear unabhängige Vektoren in K m , also n ≤ m (vgl. Beispiel 2.2.6).


76 3 Matrizenrechnung<br />

(ii) {ϕ(e 1 ), . . . , ϕ(e n )} spannt den linearen Unterraum ϕ(K n ) = K m auf, enthält<br />

also nach Satz 2.3.6 eine Basis für K m . Also gilt m ≤ n.<br />

⊓⊔<br />

Wir sehen also, dass ϕ ∈ Hom K (K n , K m ) nur bijektiv sein kann, wenn n = m ist.<br />

Wenn umgekehrt n = m gilt, reicht es Injektivität oder Surjektivität nachzuweisen<br />

um die Bijektivität zu zeigen:<br />

Satz 3.2.4. Sei ϕ ∈ Hom K (K n , K n ). Dann sind folgende Aussagen äquivalent:<br />

(1) ϕ ist injektiv.<br />

(2) ϕ ist surjektiv.<br />

(3) ϕ ist bijektiv.<br />

(4) ϕ hat eine K-lineare Umkehrabbildung ψ.<br />

Beweis. Idee: Man benutzt die Propositionen 3.2.1 und 3.2.2 um die Äquivalenz von<br />

(1) und (2) zu zeigen und damit auch die Äquivalenz von (1), (2) und (3). Der Rest folgt,<br />

weil Umkehrabbildungen linearer Abbildungen linear sind.<br />

” (1) ⇒ (2)“: Sei {e 1, . . . , e n } die Standardbasis für K n . Nach Proposition 3.2.2 ist<br />

die Menge {ϕ(e 1 ), . . . , ϕ(e n )} linear unabhängig. Wegen dim K (K n ) = n ist also<br />

{ϕ(e 1 ), . . . , ϕ(e n )} eine Basis für K n . Wenn jetzt x ∈ K n beliebig ist, können<br />

wir schreiben<br />

n∑<br />

( ∑<br />

n )<br />

x = d j ϕ(e j ) = ϕ d j e j<br />

j=1<br />

und sehen die Surjektivität von ϕ.<br />

” (2) ⇒ (1)“: Wegen der Surjektivität gibt es v j ∈ K n mit ϕ(v j ) = e j . Nach Proposition<br />

3.2.1 ist {v 1 , . . . , v n } ⊆ K n linear unabhängig, also eine Basis für K n .<br />

Damit folgt die Behauptung aus Proposition 3.2.2.<br />

j=1<br />

Damit haben wir die Äquivalenz der ersten drei Aussagen.<br />

” (3) ⇔ (4)“: Die Implikation (4) ⇒ (3)“ ist klar und wenn (3) gilt, wissen wir,<br />

”<br />

dass ϕ eine eindeutig bestimmte Umkehrabbildung ψ hat. Zu zeigen ist dann<br />

nur noch, dass ψ auch linear ist. Dazu:<br />

ψ(ry 1 + sy 2 ) = ψ ( rϕ(ψ(y 1 )) + sϕ(ψ(y 2 )) ) = ψ ◦ ϕ(rψ(y } {{ } 1 ) + sψ(y 2 ))<br />

id<br />

= rψ(y 1 ) + sψ(y 2 ).<br />

⊓⊔<br />

Wir bringen jetzt zu einer linearen Abbildung ϕ ∈ Hom K (K n , K n ) die zugehörigen<br />

Matrix A ϕ ∈ Mat(n×n, K) ins Spiel und charakterisieren die Bijektivität<br />

von ϕ durch Eigenschaften von A ϕ . Dies führt dann auf den Begriff der inversen<br />

Matrix, der an vielen Stellen wieder auftauchen wird.<br />

Satz 3.2.5. Sei A ∈ Mat(n × n, K). Dann sind folgende Aussagen äquivalent:<br />

(1) ϕ A ist bijektiv.<br />

(2) Es gibt ein B ∈ Mat(n × n, K) mit BA = 1 n .<br />

(3) Es gibt ein B ∈ Mat(n × n, K) mit AB = 1 n .<br />

(4) Es gibt ein B ∈ Mat(n × n, K) mit BA = AB = 1 n .


3.2 Bijektivität und Invertierbarkeit 77<br />

⎛ ⎞<br />

1 ∗<br />

⎜<br />

(5) A hat eine Zeilenstufenform mit n Stufen: ⎝<br />

. ..<br />

⎟<br />

⎠.<br />

1<br />

(6) Jede Zeilenstufenform von A hat n Stufen.<br />

Wenn diese Bedingungen erfüllt sind, dann gilt B = A ϕ<br />

−1. Insbesondere ist B<br />

A<br />

jeweils eindeutig bestimmt und es handelt sich in den Bedingungen (2)-(4) jeweils<br />

um dasselbe B.<br />

Beweis. Idee: Schreibe ψ für ϕ A und, falls ψ bijektiv ist, setze B = A ψ −1. Dann wende<br />

mehrfach die Sätze 3.1.5 und 3.2.4 an.<br />

Schreibe ψ für ϕ A und, falls ψ bijektiv ist, setze B = A ψ −1 (vgl. Satz 3.1.5).<br />

Dann gilt ϕ B = ϕ (Aψ −1 ) = ψ −1 .<br />

” (1) ⇒ (2)“: Wegen ϕ 1n = id K n = ϕ B ◦ ϕ A = ϕ BA<br />

zeigt Satz 3.1.5, dass BA = 1 n .<br />

” (2) ⇒ (1)“: Beachte, dass id K n = ϕ 1 n<br />

= ϕ BA = ϕ B ◦ ϕ A . Wenn ϕ A (x) = ϕ A (y),<br />

dann gilt<br />

x = ϕ B (ϕ A (x)) = ϕ B (ϕ A (y)) = y.<br />

Also ist ϕ A injektiv, mit Satz 3.2.4 daher sogar bijektiv.<br />

” (1) ⇒ (3)“: Analog zum Schritt “(1) ⇒ (2)” folgt die Identität AB = 1 n aus<br />

id K n = ψ ◦ ψ −1 = ϕ A ◦ ϕ B .<br />

” (3) ⇒ (1)“: Beachte, dass id K n = ϕ A ◦ϕ B die Surjektivität von ϕ A impliziert, also<br />

mit Satz 3.2.4 auch die Injektivität.<br />

(1) ⇔ (4)“: Dies folgt jetzt sofort aus den bisherigen Beweisschritten, weil in den<br />

”<br />

Schritten (1) ⇒ (2)“ und (1) ⇒ (3)“ jeweils das gleiche B benutzt wurde.<br />

” ”<br />

(5) ⇔ (6)“: Da die Anzahl der Stufen einer Zeilenstufenform durch die Dimension<br />

des Lösungsraums der Gleichung Ax = 0 bestimmt wird, ist sie für jede<br />

”<br />

Zeilenstufenform gleich (vgl. Beispiel 2.4.3).<br />

” (1) ⇔ (6)“: ϕ A ist genau dann bijektiv, wenn die Gleichung Ax = b für jedes<br />

b ∈ K n eindeutig lösbar ist. Die analoge Aussage gilt für jede Zeilenstufenform<br />

Z von A. Also ist ϕ A bijektiv genau dann, wenn ϕ Z bijektiv ist. Da die Gleichung<br />

Zx = b nach Bemerkung 1.2.10 genau dann für jede rechte Seite lösbar ist, wenn<br />

sie n Stufen enthält, folgt die Behauptung.<br />

Wenn wir jetzt annehmen, dass die sechs Bedingungen erfüllt sind, dann zeigen<br />

die Argumente in (1) ⇒ (2)“ und (1) ⇒ (3)“, dass B = A ” ” ϕ<br />

−1 die Bedingungen<br />

A<br />

erfüllt. Wenn C eine weitere Matrix mit CA = 1 ist, dann ist (3) erfüllt und damit<br />

auch (1). Also gilt<br />

ϕ C = ϕ C ◦ ϕ A ◦ ϕ −1<br />

A<br />

= ϕ CA ◦ ϕ −1<br />

A<br />

= ϕ 1 ◦ ϕ −1<br />

A<br />

und Satz 3.1.5 liefert C = B. Analog liefert AC = 1 mit<br />

ϕ C = ϕ −1<br />

A<br />

◦ ϕ A ◦ ϕ C = ϕ −1<br />

A<br />

◦ ϕ AC = ϕ −1<br />

A<br />

= ϕ−1 A<br />

◦ ϕ 1 = ϕ −1<br />

A<br />

= ϕ B<br />

= ϕ B<br />

ebenfalls C = B.<br />

⊓⊔<br />

Bemerkung 3.2.6. In der Situation von Satz 3.2.5(4) nennt man die Matrix A<br />

invertierbar. Beachte, dass die Matrix B in Satz 3.2.5(2-4) eindeutig bestimmt


78 3 Matrizenrechnung<br />

ist. Die so bestimmte Matrix B heißt dann die inverse Matrix von A und man<br />

schreibt A −1 dafür.<br />

Der Satz 3.2.5 zeigt insbesondere noch einmal, dass für A, B ∈ Mat(n × n, K)<br />

die Gleichungen AB = 1 und BA = 1 äquivalent sind. Es muss also nur eine von<br />

beiden nachgewiesen werden, um zu zeigen, dass die Matrizen A und B zueinander<br />

invers sind.<br />

⊓⊔<br />

Beispiel 3.2.7. Für die elementaren Zeilenumformungen übersetzt sich die Tatsache,<br />

dass sie durch ebensolche rückgängig gemacht werden können in die Tatsache,<br />

dass die Inversen der zugehörigen Matrizen selbst wieder zu elementaren Zeilenumformungen<br />

gehörige Matrizen sind (vgl. Beispiel 3.1.9):<br />

(i) E −1<br />

I(p,q) = E I(p,q).<br />

(ii) E −1<br />

II(p;c) = E II(p;c −1 ).<br />

(iii) E −1<br />

III(c;q,p) = E III(−c;q,p).<br />

⊓⊔<br />

Bemerkung 3.2.8. Seien A, B ∈ Mat(n × n, K) invertierbar. Dann ist auch AB<br />

invertierbar und es gilt (AB) −1 = B −1 A −1 , wie man an folgender Rechnung sieht<br />

(<br />

B −1 A −1)( AB ) = B −1 A −1 AB = B −1 1B = B −1 B = 1.<br />

⊓⊔<br />

Bemerkung 3.2.9. Zur Berechnung der inversen Matrix A −1 von A ∈ Mat(n ×<br />

n, R) kann man die Gleichung AX = 1 als Familie von linearen Gleichungssystemen<br />

lesen, indem man jede Spalte von X als Variablensatz und jede Spalte von<br />

1 als rechte Seite auffasst. Dann löst man diese Gleichungen simultan, indem man<br />

die Matrix (A, 1) auf Zeilenstufenform bringt. Wenn A invertierbar ist, dann hat<br />

diese Zeilenstufenform nach Satz 3.2.5 genau n-Stufen und man kann sie anschließend<br />

durch weitere elementare Zeilenumformungen auf die Gestalt (1, B) bringen.<br />

Andernfalls erhält man weniger als n Stufen und erkennt, dass A nicht invertierbar<br />

war. Seien (für den Fall, dass A invertierbar ist) die elementaren Zeilenumformungen<br />

durch die Matrizen E 1 , . . . , E r beschrieben. Dann haben wir:<br />

E r · · · E 1 (A, 1) = (E r · · · E 1 A, E r · · · E 1 ) = (1, B).<br />

Dies zeigt A −1 = E r · · · E 1 = B.<br />

Beispiel 3.2.10.<br />

⎛ ⎞ ⎛<br />

⎞<br />

3 1 1 1 0 0 1 1/3 1/3 1/3 0 0<br />

⎝ 0 3 1 0 1 0 ⎠ ❀ ⎝ 0 3 1 0 1 0 ⎠<br />

3 0 3 0 0 1 0 −1 2 −1 0 1<br />

⎛<br />

⎞ ⎛<br />

⎞<br />

1 1/3 1/3 1/3 0 0 1 1/3 1/3 1/3 0 0<br />

❀ ⎝ 0 1 1/3 0 1/3 0 ⎠ ❀ ⎝ 0 1 1/3 0 1/3 0 ⎠<br />

0 0 7/3 −1 1/3 1 0 0 1 −3/7 1/7 3/7<br />

⎛<br />

⎞ ⎛<br />

⎞<br />

1 1/3 0 10/21 1/21 −1/7 1 0 0 3/7 −2/21 −2/21<br />

❀ ⎝ 0 1 0 1/7 6/21 −1/7 ⎠ ❀ ⎝ 0 1 0 1/7 6/21 −1/7 ⎠ .<br />

0 0 1 −3/7 1/7 3/7 0 0 1 −3/7 1/7 3/7<br />

⊓⊔<br />

⊓⊔


3.2 Bijektivität und Invertierbarkeit 79<br />

Wir wenden uns jetzt der Frage zu, wie man Injektivität und Surjektivität einer<br />

linearen Abbildung ϕ ∈ Hom K (K n , K m ) auch für n ≠ m an der zugehörigen Matrix<br />

A = A ϕ ablesen kann. Für die Injektivität werden wir dabei wieder auf Proposition<br />

3.2.2 zurückgreifen, die bisher entwickelten Techniken werden es uns aber auch<br />

erlauben die Surjektivität zu charakterisieren, wenn wir in den Matrizen die Rollen<br />

von Zeilen und Spalten vertauschen.<br />

Definition 3.2.11. Sei<br />

⎛<br />

⎞<br />

a 11 · · · a 1n<br />

⎜<br />

⎟<br />

A = ⎝ . . ⎠ ∈ Mat(m × n, K).<br />

a m1 · · · a mn<br />

Die Matrix<br />

⎛<br />

⎞<br />

a 11 · · · a m1<br />

A ⊤ ⎜<br />

⎟<br />

:= ⎝ . . ⎠ ∈ Mat(n × m, K)<br />

a 1n · · · a mn<br />

heißt die transponierte Matrix von A. Die aus den Zeilen von A gewonnenen<br />

Vektoren<br />

a Zeile<br />

i := (a i1 , . . . , a in ), i = 1, . . . , m<br />

heißen die Zeilenvektoren von A und die aus den Spalten von A gewonnenen<br />

Vektoren<br />

⎛ ⎞<br />

a 1j<br />

⎜ ⎟<br />

a Spalte<br />

j := ⎝ . ⎠ , j = 1, . . . , n<br />

a mj<br />

heißen die Spaltenvektoren von A. Man nennt dim(span{a Zeile<br />

i | i = 1, . . . , m})<br />

den Zeilenrang von A und dim(span{a Spalte<br />

j | j = 1, . . . , n}) den Spaltenrang von<br />

A.<br />

Bemerkung 3.2.12. (i) (AB) ⊤ = B ⊤ A ⊤ (Übung: Nachrechnen!).<br />

(ii) Zeilenrang(A) = Spaltenrang(A ⊤ ).<br />

(iii) Der Zeilenrang ändert sich bei elementaren Zeilenumformungen nicht:<br />

Typ I: Klar, weil sich die Menge der Zeilenvektoren bei Zeilenvertauschung nicht<br />

ändert, also auch nicht der lineare Spann der Zeilenvektoren.<br />

Typ II: Klar, weil hier nur ein Zeilenvektor durch ein von Null verschiedenes<br />

Vielfaches ersetzt wurde, was am linearen Spann der Zeilenvektoren nichts<br />

ändert.<br />

Typ III:<br />

span(a Zeile<br />

1 , . . . , a Zeile<br />

n ) = span(a Zeile<br />

1 , . . . , a Zeile<br />

i−1 , a Zeile<br />

i<br />

+ ca Zeile<br />

k<br />

andererseits aber auch a Zeile<br />

i<br />

weil einerseits a Zeile<br />

i<br />

eine Linearkombination von a Zeile<br />

i<br />

eine Linearkombination von a Zeile<br />

i<br />

+ ca Zeile<br />

k , a Zeile<br />

i+1 , . . . , a Zeile<br />

n ),<br />

und a Zeile<br />

k<br />

ist,<br />

+ ca Zeile<br />

k<br />

und<br />

a Zeile<br />

k<br />

.<br />

(iv) Der Zeilenrang einer Matrix in Zeilenstufenform ist gleich der Anzahl der Stufen<br />

(siehe Beispiel 2.2.7).


80 3 Matrizenrechnung<br />

(v) Der Spaltenrang ändert sich bei elementaren Zeilenumformungen auch nicht:<br />

Weil elementare Zeilenumformungen durch ebensolche wieder rückgängig gemacht<br />

werden können, reicht es zu zeigen, dass der Spaltenrang bei solchen<br />

Umformungen nicht größer wird.<br />

Seien jetzt a Spalte<br />

1 , . . . , a Spalte<br />

n die Spaltenvektoren von A und E eine Elementarmatrix.<br />

Dann gilt<br />

d.h., die Ea Spalte<br />

j<br />

EA = E ( a Spalte<br />

1 , . . . , a Spalte<br />

n<br />

span ( Ea Spalte<br />

1<br />

} {{ }<br />

ϕ E (a Spalte<br />

1 )<br />

)<br />

=<br />

(<br />

Ea<br />

Spalte<br />

1 , . . . , Ea Spalte<br />

n<br />

sind die Spaltenvektoren von EA, und<br />

, . . . , Ea<br />

Spalte<br />

n<br />

} {{ }<br />

ϕ E (a Spalte<br />

n )<br />

)<br />

,<br />

)<br />

= ϕE<br />

(<br />

span(a<br />

Spalte<br />

1 , . . . , a Spalte<br />

n ) ) .<br />

Nach Satz 2.3.6 gibt es Ea Spalte<br />

j 1<br />

, . . . , Ea Spalte<br />

j k<br />

, die zusammen eine Basis für den<br />

linearen Spann von Ea Spalte<br />

1 , . . . , Ea Spalte<br />

n bilden. Nach Proposition 3.2.1(iii) ist<br />

{a Spalte<br />

j 1<br />

, . . . , a Spalte<br />

} linear unabhängig. Also gilt<br />

j k<br />

dim span ( Ea Spalte<br />

1 , . . . , Ea Spalte<br />

n<br />

)<br />

= k ≤ dim span<br />

(<br />

a<br />

Spalte<br />

1 , . . . , a Spalte<br />

n<br />

)<br />

.<br />

⊓⊔<br />

Lemma 3.2.13. Sei A ∈ Mat(m × n, K). Dann gilt<br />

Zeilenrang(A) = Spaltenrang(A).<br />

Beweis. Idee: O.B.d.A. kann angenommen werden, dass A in Zeilenstufenform vorliegt.<br />

Nach Bemerkung 3.2.12 können wir annehmen, dass A in Zeilenstufenform ist.<br />

Sei Zeilenrang(A) = r. Dann ist r gerade die Anzahl der Stufen in A. Die Spaltenvektoren<br />

von A liegen im Unterraum<br />

⎧⎛<br />

⎞<br />

⎫<br />

⎪⎨ x 1<br />

⎪⎬<br />

⎜ ⎟<br />

⎝ . ⎠ ∣ x r+1 , . . . , x m = 0<br />

⎪⎩<br />

⎪⎭<br />

x m<br />

von R m . Die Standardbasisvektoren e 1 , . . . , e r ∈ K m bilden eine Basis dieses Unterraums,<br />

der daher genau die Dimension r hat. Also gilt nach Satz 2.4.4(i), dass<br />

Spaltenrang(A) ≤ r.<br />

Behauptung: Die r Spaltenvektoren der Spalten, in denen eine Stufe vorkommt, sind<br />

linear unabhängig.<br />

Seien dazu s 1 , . . . , s r die Nummern der Spalten von A, in denen eine Stufe<br />

vorkommt. Wir nehmen an, dass ∑ r<br />

k=1 c ka Spalte<br />

s k<br />

= 0 gilt. Betrachte die r-ten Komponenten<br />

a r,jk der a Spalte<br />

j k<br />

für k = 1, . . . , r. Weil A in Zeilenstufenform ist, sind sie<br />

alle 0, nur a r,jr , die r-te Komponente von a Spalte<br />

j r<br />

ist 1. Also gilt c r = 0. Als nächstes<br />

betrachtet man die r −1-ten Komponenten der a Spalte<br />

j k<br />

für k = 1, . . . , r −1 und findet<br />

c r−1 = 0, etc.<br />

Mit der Behauptung ist jetzt gezeigt, dass der Spaltenrang von A mindestens<br />

r ist. Zusammen mit der vorhergehenden Überlegung finden wir also, dass<br />

Spaltenrang(A) = r.<br />

⊓⊔


3.2 Bijektivität und Invertierbarkeit 81<br />

Definition 3.2.14. Sei A ∈ Mat(m × n, K). Dann nennt man<br />

Rang(A) := Spaltenrang(A) = Zeilenrang(A)<br />

einfach den Rang von A.<br />

Satz 3.2.15. Sei A ∈ Mat(m × n, K). Dann gilt<br />

(i) ϕ A ist surjektiv genau dann, wenn Rang(A) = m.<br />

(ii) ϕ A ist injektiv genau dann, wenn Rang(A) = n.<br />

Beweis. (i) ϕ A ist genau dann surjektiv, wenn<br />

K m = ϕ A (K n ) = ϕ A (span(e 1 , . . . , e n ) ) = span ( ϕ A (e 1 ), . . . , ϕ A (e n ) ) ,<br />

was wiederum wegen Satz 2.4.4(i) äquivalent zu<br />

m = dim K m = Spaltenrang(A) = Rang(A)<br />

ist, weil ϕ A (e j ) = Ae j der j-te Spaltenvektor von A ist.<br />

(ii) Nach Proposition 3.2.2 ist ϕ A genau dann injektiv, wenn {ϕ A (e 1 ), . . . , ϕ A (e n )}<br />

linear unabhängig ist. Das ist aber genau dann der Fall, wenn<br />

Rang(A) = Spaltenrang(A) = n.<br />

⊓⊔<br />

Bemerkung 3.2.16 (Lösbarkeit inhomogener Gleichungssysteme). Betrachte<br />

ein (LGS) der Form Ax = b. Es ist genau dann lösbar, wenn der Spaltenvektor<br />

b im Bild der linearen Abbildung ϕ A liegt. Da dieses Bild von den Spaltenvektoren<br />

der Matrix A aufgespannt wird, ist die Lösbarkeit von Ax = b äquivalent zu<br />

Rang(A) = Rang(A|b), wobei (A|b) die erweiterte Koeffizientenmatrix des Gleichungssystems<br />

Ax = b ist.<br />

⊓⊔<br />

Übungen zu Abschnitt 3.2<br />

Invertierbarkeit<br />

Übung 3.2.1. Sind die folgenden Matrizen invertierbar?<br />

⎛ ⎞ ⎛<br />

⎛ ⎞ 0 0 0 1<br />

1 2 3<br />

A = ⎝ 2 3 1 ⎠ , B = ⎜ 1 0 0 0<br />

⎟<br />

⎝ ⎠ , C = ⎜<br />

⎝<br />

3 1 2<br />

0 1 0 0<br />

0 0 1 0<br />

1 2 −3 0<br />

3 5 1 4<br />

−1 −1 −5 −3<br />

4 3 2 1<br />

Übung 3.2.2. Sind die folgenden Matrizen invertierbar?<br />

⎛ ⎞ ⎛ ⎞<br />

1 2 3 1 2 4<br />

A = ⎝ 1 2 3 ⎠ , B = ⎝ 0 3 5 ⎠ , AB, BA, A 2 , B 2 .<br />

1 2 3 0 0 6<br />

Übung 3.2.3. Zeige: Es gibt eine Bijektion zwischen der Menge aller Basen von R n und<br />

der Menge GL(n, R) aller invertierbaren n × n-Matrizen.<br />

⎞<br />

⎟<br />

⎠ .


82 3 Matrizenrechnung<br />

Übung 3.2.4. Stelle fest, ob die linearen Abbildungen ϕ A, ϕ B, ϕ C und ϕ D mit<br />

⎛ ⎞ ⎛ ⎞<br />

1 0 0 2<br />

0 0 1 0<br />

A = ⎜ 0 0 1 0<br />

⎟<br />

⎝ 0 1 0 0 ⎠ , B = ⎜ 1 0 0 0<br />

⎟<br />

⎝ 0 1 0 0 ⎠ ,<br />

0 0 0 1<br />

0 0 0 1<br />

⎛ ⎞ ⎛<br />

⎞<br />

0 0 0 1<br />

−1 0 0 −2<br />

C = ⎜ 0 2 0 0<br />

⎟<br />

⎝ 0 0 3 0 ⎠ , D = ⎜ 0 0 −1 0<br />

⎟<br />

⎝ 0 1 0 0 ⎠<br />

1 0 0 0<br />

0 0 0 1<br />

umkehrbar sind und gib gegebenenfalls die Umkehrabbildung an.<br />

Übung 3.2.5. Stelle fest, ob die linearen Abbildungen ϕ A, ϕ B und ϕ C mit<br />

⎛ ⎞ ⎛ ⎞<br />

1 0 0 2<br />

0 0 1 0 ⎛ ⎞<br />

A = ⎜ 0 0 1 0<br />

⎟<br />

⎝ 0 1 0 0 ⎠ , B = ⎜ 1 0 0 0<br />

1 0 1<br />

⎟<br />

⎝ 0 1 0 0 ⎠ , C = ⎝ 1 1 1 ⎠<br />

0 1 1<br />

0 0 0 1<br />

0 0 0 1<br />

umkehrbar sind und gib gegebenenfalls die Umkehrabbildung an.<br />

Übung 3.2.6. (a) Stelle fest, ob die linearen Abbildungen ϕ A und ϕ B mit<br />

⎛<br />

⎞<br />

⎛ ⎞<br />

1 2 −3 0<br />

1 2 3<br />

A = ⎝ 2 3 1 ⎠ , B = ⎜ 3 5 1 4<br />

⎟<br />

⎝ −1 −1 −5 −3 ⎠ .<br />

3 2 1<br />

4 3 2 1<br />

umkehrbar sind.<br />

(b) Stelle fest, ob die linearen Abbildungen ϕ C und ϕ D mit<br />

⎛ ⎞ ⎛<br />

0 0 0 1<br />

C = ⎜ 0 2 0 0<br />

⎟<br />

⎝ 0 0 3 0 ⎠ , D = ⎜<br />

⎝<br />

1 0 0 0<br />

−1 0 0 −2<br />

0 0 −1 0<br />

0 1 0 0<br />

0 0 0 1<br />

⎞<br />

⎟<br />

⎠ .<br />

umkehrbar sind und gib gegebenenfalls die Umkehrabbildung an.<br />

Übung 3.2.7. Man stelle fest, ob die lineare Abbildung ϕ : R 4 → R 4 mit<br />

⎛<br />

⎞<br />

x 2 + x 3 + x 4<br />

ϕ(x) = ⎜ −x 1 + x 3 + x 4<br />

⎟<br />

⎝ −x 1 − x 2 + x 4<br />

⎠<br />

−x 1 − x 2 − x 3<br />

umkehrbar ist, und gebe die Umkehrabbildung an.<br />

Übung 3.2.8. Man gebe ein Kriterium an, wann die Matrix<br />

( ) a b<br />

A = mit a, b, c, d ∈ K<br />

c d<br />

invertierbar ist, und bestimme für diesen Fall ihre Inverse.<br />

Übung 3.2.9 (Blockmatrizen).<br />

1. Es seien A, A ′ ∈ K r×r , B, B ′ ∈ K r×s , C, C ′ ∈ K s×r , D, D ′ ∈ K s×s Matrizen, und<br />

( ) ( )<br />

A B<br />

X := , X ′ A ′ B ′<br />

:=<br />

C D<br />

C ′ D ′ ∈ K (r+s)×(r+s) .<br />

Begründen Sie die folgende Regel zur Multiplikation der Blockmatrizen X, X ′ :<br />

( ) ( ) ( )<br />

A B A ′ B ′ AA ′ + BC ′ AB ′ + BD ′<br />

C D C ′ D ′ =<br />

CA ′ + DC ′ CB ′ + DD ′ .<br />

Wie lässt sich diese Multiplikation von Blockmatrizen noch verallgemeinern?


3.2 Bijektivität und Invertierbarkeit 83<br />

2. Seien A ∈ K r×r , D ∈ K s×s invertierbar und B ∈ K r×s beliebig. Bestimmen Sie die<br />

Inverse der Matrix<br />

( ) A B<br />

∈ K (r+s)×(r+s) .<br />

0 D<br />

Rang<br />

( ) a b<br />

Übung 3.2.10. (i) Berechne die Zeilenstufenform von A = .<br />

c d<br />

(ii) Zeige, dass der Zeilenrang von A genau<br />

(<br />

dann<br />

)<br />

zwei ist, wenn ad − bc ≠ 0.<br />

1 0<br />

(iii) Gib eine 2 × 2-Matrix B an mit BA = .<br />

0 1<br />

( ) 1 0<br />

(iv) Zeige, dass AB = ist.<br />

0 1<br />

Übung 3.2.11. Bestimme den Rang von A in Abhängigkeit von t ∈ R:<br />

⎛ ⎞<br />

5 − t 1 3<br />

A = ⎝ 1 −2 1 ⎠ .<br />

0 t 0<br />

Übung 3.2.12. Man bestimme den Rang der folgenden Matrizen und berechne im Fall<br />

maximalen Rangs die zugehörige inverse Matrix.<br />

⎛ ⎞ ⎛ ⎞<br />

−1 1 3<br />

0 α β<br />

A = ⎝−2 1 1⎠ , B = ⎝−α 0 γ⎠ ,<br />

1 0 3<br />

−β −γ 0<br />

wobei α, β, γ ∈ R.<br />

Übung 3.2.13. Man bestimme den Rang von A in Abhängigkeit von k ∈ R:<br />

⎛ ⎞<br />

1 k 1<br />

A = ⎜−1 0 1<br />

⎟<br />

⎝ 3 −1 k⎠ .<br />

k −1 1<br />

Übung 3.2.14. Es sei<br />

A n =<br />

Zeige Rang A n = n und bestimme A −1<br />

5 .<br />

⎛<br />

⎞<br />

1 1 1 · · · 1<br />

1 2 2 · · · 2<br />

1 2 3 · · · 3<br />

⎜<br />

⎝<br />

. . .<br />

.<br />

..<br />

. ⎟ .. ⎠<br />

1 2 3 · · · n<br />

∈ R n×n .<br />

Übung 3.2.15. Sei A ∈ Mat(m × n, K) und B ∈ Mat(n × p, K). Zeigen Sie:<br />

(AB) ⊤ = B ⊤ A ⊤ ,<br />

wobei A ⊤ die transponierte Matrix von A ist.<br />

Kern und Bild<br />

Übung 3.2.16. Es sei ϕ : K n → K n eine lineare Abbildung. Zeige:<br />

ker(ϕ) = ker(ϕ 2 ) =⇒ ker(ϕ) ∩ ϕ(K n ) = {0} .<br />

Übung 3.2.17. Es sei ϕ : K n → K n eine lineare Abbildung. Zeige:<br />

ker(ϕ) ∩ ϕ(K n ) = {0} =⇒ ker(ϕ) = ker(ϕ 2 ) .


84 3 Matrizenrechnung<br />

Übung 3.2.18. Existieren lineare Abbildungen ϕ : R 2 → R 2 mit<br />

a) ker(ϕ) = {(x 1, x 2) ∈ R 2 | − 1 ≤ x 1 ≤ 1};<br />

b) im (ϕ) := ϕ(R 2 ) = {(y 1, y 2) ∈ R 2 | 2y 1 − 3y 2 = 0};<br />

c) ϕ ( {(x 1, x 2) ∈ R 2 | x 1 + x 2 = 0} ) = {(y 1, y 2) ∈ R 2 | y 2 1 + y 2 2 = 1};<br />

d) ϕ((1, 2)) = (1, 3), ϕ((3, 2)) = (−1, 0), ϕ((4, −4)) = (−2, 1)?<br />

Man konstruiere ein Beispiel oder begründe, warum es kein Beispiel geben kann.<br />

Übung 3.2.19 (Dimensionsformel für lineare Abbildungen). Es sei ϕ : K n → K m eine<br />

lineare Abbildung. Zeige:<br />

dim ker(ϕ) + dim ϕ(K n ) = n .<br />

Übung 3.2.20 (Dimension von Bildern linearer Abbildungen). Es sei U ⊆ K n ein linearer<br />

Unterraum und ϕ: K n → K m eine lineare Abbildung. Man zeige, dass dim K<br />

(<br />

ϕ(U)<br />

)<br />

≤<br />

dim K(U).<br />

Übung 3.2.21. Es sei ϕ A : R 4 → R 3 gegeben mit<br />

⎛ ⎞<br />

1 2 3 0<br />

A = ⎝0 −1 1 2 ⎠ .<br />

2 0 1 −1<br />

Man bestimme eine Basis des Kerns und eine Basis des Bildes von ϕ A.<br />

Übung 3.2.22. Es sei ϕ : K n → K n eine lineare Abbildung, für die ϕ 2 = ϕ gilt. Zeigen<br />

Sie:<br />

1. ker(ϕ) ∩ ϕ(K n ) = {0} und K n = ker(ϕ) + ϕ(K n ),<br />

2. ϕ ist genau dann injektiv, wenn ϕ = id K n gilt.


4<br />

Determinanten<br />

Determinanten sind Zahlen, die aus quadratischen Matrizen gewonnen werden<br />

und die wichtige Kenngrößen dieser Matrizen sind. So ist z.B eine quadratische<br />

Matrix genau dann invertierbar, wenn ihre Determinante nicht verschwindet. Eine<br />

andere Motivation für die Einführung von Determinanten ist ihre Rolle in Volumenberechnungen<br />

und der mehrdimensionalen Integrationstheorie (Stichworte: Transformationsformel<br />

und Differentialformen). Determinanten gehen in gewisser Weise<br />

schon über die Lineare Algebra hinaus, denn sie sind Beispiele für multilineare<br />

Abbildungen. Wegen ihrer ausgesprochen wichtigen Anwendungen innerhalb der Linearen<br />

Algebra werden sie trotzdem in jeder Vorlesung zum Thema behandelt.<br />

In diesem Kapitel führen wir die Determinanten nur ein und zeigen, welche<br />

Rolle sie in der Untersuchung von invertierbaren Matrizen spielen. Weitergehende<br />

Anwendungen (Stichwort: Eigenwerte) werden erst in späteren Kapiteln behandelt.<br />

Auf dem Weg zur Definition der Determinanten werden wir die Gelegenheit nutzen<br />

Begriffe wie Permutationen und Gruppen einzuführen, die in der Mathematik von<br />

universellem Interesse sind.<br />

4.1 Permutationen und Permutationsmatrizen<br />

Zur Vorbereitung der Determinanten betrachten wir Permutationsmatrizen,<br />

die bijektive Selbstabbildungen endlicher Mengen beschreiben, unter anderem zur<br />

mathematischen Formulierung von Symmetrie-Eigenschaften dienen und von unabhängigem<br />

Interesse sind (z.B. in der Kombinatorik oder der Stochastik).<br />

Definition 4.1.1. Eine Permutationsmatrix ist eine Matrix<br />

⎛<br />

⎞<br />

p 11 · · · p 1n<br />

⎜<br />

⎟<br />

P = ⎝ . . ⎠ ∈ Mat(n × n, K)<br />

p n1 · · · p nn<br />

mit p ij ∈ {0, 1} und ∑ n<br />

j=1 p ij = 1 = ∑ n<br />

i=1 p ij, d.h., in jeder Zeile und in jeder<br />

Spalte steht genau eine Eins und sonst lauter Nullen. Wir bezeichnen die Menge<br />

der Permutationsmatrizen in Mat(n × n, K) mit PM n<br />

Die Zeilenstufenform einer Permutationsmatrix lässt sich durch Umformungen<br />

vom Typ I erreichen und ist gleich 1 n . Also ist nach Satz 3.2.15 jede Permutationsmatrix<br />

invertierbar und die zugehörige lineare Abbildung bijektiv. Auch die Inverse<br />

einer Permutationsmatrix kann man sehr leicht berechnen. Es gilt


86 4 Determinanten<br />

⎛<br />

⎞ ⎛<br />

⎞<br />

p 11 · · · p 1n p 11 · · · p n1<br />

P P ⊤ ⎜<br />

⎟ ⎜<br />

= ⎝ . . ⎠ ⎝ . .<br />

p n1 · · · p nn p 1n · · · p nn<br />

mit<br />

Also gilt C = 1 n und P ⊤ = P −1 .<br />

c ij = p i1 p j1 + . . . + p in p jn =<br />

⎟<br />

⎠ = C :=<br />

{ 0 i ≠ j<br />

1 i = j.<br />

⎛<br />

⎞<br />

c 11 · · · c 1n<br />

⎜<br />

⎟<br />

⎝ . . ⎠<br />

c n1 · · · c nn<br />

Bemerkung 4.1.2. Sei P ∈ PM n ⊆ Mat(n × n, K) eine Permutationsmatrix und<br />

{e 1 , . . . , e n } die Standardbasis für K n . Dann bildet ϕ P die Menge B := {e 1 , . . . , e n }<br />

auf sich selbst ab:<br />

⎛<br />

⎛<br />

ϕ P (e 1 ) =<br />

⎜<br />

⎝<br />

⎞<br />

p 11<br />

.<br />

p n1<br />

⎟<br />

⎠ , . . . , ϕ P (e n ) =<br />

⎜<br />

⎝<br />

⎞<br />

p 1n<br />

.<br />

p nn<br />

Man kann jetzt die Einschränkung ϕ P | B : B → B, b ↦→ ϕ P (b) von ϕ P auf B als<br />

eigenständige Abbildung ϕ: B → B der endlichen Menge B in sich selbst auffassen.<br />

Zur Untersuchung dieser Abbildung können dann auch Abzählargumente verwendet<br />

werden, die für Abbildungen auf unendlichen Mengen nicht automatisch zur<br />

Verfügung stehen.<br />

⎟<br />

⎠ .<br />

Proposition 4.1.3. M und N seien endliche Mengen mit gleich vielen Elementen.<br />

Sei ϕ: M → N eine Abbildung. Dann sind folgende Aussagen äquivalent:<br />

(1) ϕ ist injektiv.<br />

(2) ϕ ist surjektiv.<br />

(3) ϕ ist bijektiv.<br />

Beweis. Sei k die Anzahl der Elemente in M (und N).<br />

” (1) ⇒ (2)“: Wenn M = {m 1, . . . , m k } und L := {ϕ(m 1 ), . . . , ϕ(m k )} ⊆ N, dann<br />

sind wegen (1) alle Elemente von L verschieden, d.h. diese Menge hat k Elemente<br />

und ist daher gleich N.<br />

” (2) ⇒ (1)“: Wenn ϕ nicht injektiv ist, gibt es m ≠ m′ in M mit ϕ(m) = ϕ(m ′ ),<br />

also hat ϕ(M) höchstens k −1 Elemente. Dann kann ϕ aber nicht surjektiv sein.<br />

Mit diesen beiden Beweisschritten folgt dann auch die Äquivalenz von (1) und (2)<br />

mit (3).<br />

⊓⊔<br />

Die Proposition 4.1.3 zeigt, dass die Abbildung<br />

ϕ P | {e1,...e n} : {e 1 , . . . e n } → {e 1 , . . . e n }<br />

für jedes vorgegebene P ∈ PM n bijektiv ist, weil sie die Einschränkung einer injektiven<br />

Abbildung, also selbst injektiv ist. Also erhält man zu jeder Permutationsmatrix<br />

P ∈ PM n eine bijektive Abbildung<br />

durch<br />

d.h. σ P (j) = k, wenn ϕ P (e j ) = e k .<br />

σ P : {1, . . . , n} → {1, . . . , n}<br />

e σP (j) = ϕ P (e j ),


4.1 Permutationen und Permutationsmatrizen 87<br />

Definition 4.1.4. Eine bijektive Abbildung σ : {1, . . . , n} → {1, . . . , n} heißt eine<br />

Permutation von {1, . . . , n}. Die Menge aller Permutationen von {1, . . . , n} wird<br />

mit S n bezeichnet (S für symmetrische Gruppe, siehe Definition 4.1.5). Wir<br />

benutzen die folgende Schreibweise für σ : {1, . . . , n} → {1, . . . , n}:<br />

( )<br />

1 · · · n<br />

.<br />

σ(1) · · · σ(n)<br />

Definition 4.1.5. Eine Menge G zusammen mit einer Verknüpfung ∗: G × G → G<br />

heißt eine Gruppe, wenn folgende Bedingungen erfüllt sind:<br />

(a) a ∗ (b ∗ c) = (a ∗ b) ∗ c ∀a, b, c ∈ G (Assoziativgesetz).<br />

(b) ∃e ∈ G mit e ∗ a = a ∀a ∈ G (Neutrales Element oder Einselement).<br />

(c) ∀a ∈ G existiert b ∈ G mit b ∗ a = e (inverses Element von a).<br />

Wenn keine Verwechslungsgefahr besteht, lässt man das Verküpfungszeichen<br />

weg, außer es ist ein +.<br />

Bemerkung 4.1.6. Aus diesen Axiomen lassen sich sofort einige Folgerungen ziehen:<br />

(i) Wenn a ∗ b = e für a, b ∈ G, dann gilt auch b ∗ a = e.<br />

Um das zu sehen, beachte zunächst, dass<br />

(b ∗ a) ∗ (b ∗ a) = b ∗ (a ∗ b) ∗ a = b ∗ e ∗ a = b ∗ a<br />

gilt. Außerdem gibt es ein c ∈ G mit c ∗ (b ∗ a) = e. Damit rechnet man<br />

e = c ∗ (b ∗ a) = c ∗ (b ∗ a) ∗ (b ∗ a) = e ∗ (b ∗ a) = b ∗ a.<br />

(ii) a ∗ e = a für alle a ∈ G:<br />

Es gibt ein b ∈ G mit b ∗ a = e und mit (i) rechnet man<br />

a ∗ e = a ∗ (b ∗ a) = (a ∗ b) ∗ a = e ∗ a = a.<br />

(iii) e ist eindeutig bestimmt: e ′ = e ∗ e ′ = e.<br />

(iv) Das Inverse b zu a ist eindeutig bestimmt: b = b ∗ e = b ∗ (a ∗ b ′ ) = (b ∗ a) ∗ b ′ =<br />

e ∗ b ′ = b ′ .<br />

In vielen Büchern wird e ∗ a = a ∗ e und b ∗ a = e = a ∗ b gleich mit in die<br />

Definition einer Gruppe geschrieben. Die obigen Überlegungen zeigen aber, dass ein<br />

solches Axiomensystem für Gruppen redundant ist.<br />

⊓⊔<br />

Gruppen tauchen an vielen Stellen in der Mathematik auf, an denen es um<br />

strukturerhaltende“ Abbildungen geht, wie zum Beispiel bei der Beschreibung von<br />

”<br />

Symmetrien geometrischer (aber auch anderer mathematischer) Objekte. Man betrachte<br />

dazu etwa die Symmetrien regulärer Vielecke wie im Beispiel 0.2.4 aus<br />

der Vorbemerkung. Üblicherweise erleichtert das Vorhandensein von Symmetrien<br />

die mathematische Behandlung von Problemen. In manchen Kontexten liefern sie<br />

auch völlig neue Einsichten - so lassen sich die üblichen Erhaltungssätze der Physik<br />

(Energie, Impuls, Drehimpuls etc.) mit Symmetrien in den zugrunde liegenden Bewegungsgesetzen<br />

erklären. Eine sensationelle Entdeckung war die Beobachtung des<br />

jungen Galois kurz vor seinem gewaltsamen Tod im Jahr 1832, dass man Gruppen


88 4 Determinanten<br />

(die es als abstrakte Struktur damals noch gar nicht gab) dazu benutzen kann die<br />

Lösbarkeit von Polynomgleichungen durch das Ziehen von Wurzeln (wie bei den<br />

quadratischen Gleichungen) zu studieren. Heutzutage wird das in praktisch jeder<br />

Algebravorlesung vorgeführt.<br />

Beispiel 4.1.7. (i) Die symmetrische Gruppe S n ist bzgl. der Verknüpfung von<br />

Abbildungen eine Gruppe mit der Identität als neutralem Element und der<br />

inversen Abbildung als Gruppeninversem.<br />

(ii) Die Menge PM n ist eine Gruppe bzgl. der Matrizenmultiplikation mit 1 n als<br />

neutralem Element und der inversen Matrix als Gruppeninversem.<br />

(iii) Sei K ein Körper. Die Menge GL(n, K) aller invertierbaren Matrizen in Mat(n×<br />

n, K) ist eine Gruppe bzgl. der Matrizenmultiplikation mit 1 n als neutralem<br />

Element und der inversen Matrix als Gruppeninversem. Man nennt diese Gruppe<br />

die allgemeine lineare Gruppe.<br />

⊓⊔<br />

Im bisherigen Verlauf der Vorlesung haben wir schon eine Reihe von Gruppen<br />

gesehen, ohne diese Tatsache explizit festgestellt zu haben:<br />

Beispiel 4.1.8. Sei K ein Körper.<br />

(i) Für jedes n ∈ N ist K n bzgl. der Addition eine Gruppe mit 0 als neutralem<br />

Element und dem Negativen als Gruppeninversem.<br />

(ii) Jeder lineare Unterraum U von K n ist bzgl. der Addition eine Gruppe mit 0 als<br />

neutralem Element und dem Negativen als Gruppeninversem.<br />

(iii) Für alle m, n ∈ N ist Mat(m×n, K) bzgl. der komponentenweisen Addition eine<br />

Gruppe mit der 0-Matrix als neutralem Element und −A als Gruppeninversem<br />

von A. Dabei ist −A die Matrix, die man aus A erhält, wenn man jeden eintrag<br />

mit −1 multipliziert.<br />

(iv) Für alle m, n ∈ N ist Hom K (K n , K m ) eine Gruppe bzgl. der Addition ϕ + ψ, die<br />

durch<br />

(ϕ + ψ)(x) := ϕ(x) + ψ(x) ∀x ∈ K n<br />

gegeben ist. Das Gruppeninverse −ϕ von ϕ ist dann durch (−ϕ)(x) := − ( ϕ(x) )<br />

für x ∈ K n gegeben. Es sollte nicht mit der inversen Abbildung ϕ −1 , die es für<br />

ϕ ja auch geben kann, verwechselt werden.<br />

(v) K \ {0} ist bzgl. der Multiplikation eine Gruppe mit 1 als neutralem Element<br />

und dem multiplikativen Inversem als Gruppeninversem.<br />

(vi) {±1} ist bzgl. der Multiplikation eine Gruppe mit 1 als neutralem Element und<br />

dem multiplikativen Inversem als Gruppeninversem.<br />

⊓⊔<br />

Die additiven Standardbeispiele, zu denen auch die Gruppe (Z, +) gehört, sind<br />

der Grund dafür, dass man das Pluszeichen + nur für kommutative Gruppen<br />

benutzt, d.h. für solche, die<br />

a ∗ b = b ∗ a ∀a, b ∈ G (Kommutativgesetz)<br />

erfüllen. Man schreibt dann immer −a für das Gruppeninverse von a und nennt es<br />

das Negative von a.<br />

Sei σ eine Permutation, dann setzt man<br />

⎛<br />

⎞<br />

δ 1σ(1) · · · δ 1σ(n)<br />

⎜<br />

⎟<br />

P σ := (e σ(1) , . . . , e σ(n) ) = ⎝ . . ⎠ ,<br />

δ nσ(1) · · · δ nσ(n)


wobei<br />

4.1 Permutationen und Permutationsmatrizen 89<br />

δ ij =<br />

{<br />

1 für i = j<br />

0 für i ≠ j<br />

das Kronecker–Delta ist. Beachte, dass P σ ∈ PM n gilt: Die Spalten enthalten als<br />

Standardbasisvektoren jeweils nur eine Eins (und sonst lauter Nullen). In jeder Zeile<br />

kommt eine Eins vor, weil jeder Standardbasisvektor als Spaltenvektor vorkommt.<br />

Es sind nicht mehr als eine Eins pro Zeile, weil ein Standardbasisvektor nicht mehr<br />

als einmal als Spaltenvektor vorkommen kann.<br />

Beispiel 4.1.9. Sei<br />

dann ist<br />

Umgekehrt gilt σ Pσ = σ.<br />

σ =<br />

( ) 1 2 3 4<br />

,<br />

2 3 4 1<br />

⎛ ⎞<br />

0 0 0 1<br />

P σ = ⎜ 1 0 0 0<br />

⎟<br />

⎝ 0 1 0 0 ⎠ .<br />

0 0 1 0<br />

Proposition 4.1.10. (i) S n hat n! = n(n − 1) · · · 2 · 1 Elemente.<br />

(ii) PM n hat n! = n(n − 1) · · · 2 · 1 Elemente.<br />

Beweis. (i) Man zählt nacheinander die Möglichkeiten ab, die Zahl σ(j) für j =<br />

1, . . . , n festzulegen:<br />

( )<br />

1 2 · · · n<br />

σ(1) σ(2) · · · σ(n)<br />

σ(1) n Möglichkeiten<br />

σ(2) (n − 1) Möglichkeiten<br />

. .<br />

σ(n) 1 Möglichkeit,<br />

Insgesamt hat man also n(n − 1) · · · 1 Wahlmöglichkeiten.<br />

(ii) Man zählt nacheinander die Möglichkeiten ab, in den Zeilen 1, . . . , n die Eins<br />

zu positionieren:<br />

⎛ ⎞<br />

· · · 1 · · ·<br />

⎜ · · · 1 · · ·<br />

⎟<br />

⎝ ⎠<br />

· · · 1 · · ·<br />

← n Möglichkeiten, die 1 zu setzen,<br />

← (n − 1) Möglichkeiten, die 1 zu setzen,<br />

.<br />

← 1 Möglichkeit, die 1 zu setzen.<br />

Insgesamt hat man also auch hier n(n − 1) · · · 1 Wahlmöglichkeiten.<br />

⊓⊔<br />

Proposition 4.1.11. Die Abbildungen<br />

sind zueinander invers.<br />

S n → PM n , σ ↦→ P σ und PM n → S n , P ↦→ σ P


90 4 Determinanten<br />

Beweis. Wir zeigen zunächst σ (Pτ ) = τ, weisen also nach, dass die Verknüpfung<br />

S n → PM n → S n der beiden Abbildungen die Identität auf S n liefert. Dazu müssen<br />

wir wegen e σP (j) = ϕ P (e j ) die Identität<br />

ϕ (Pτ )(e j ) = e τ(j) für alle j = 1, . . . , n<br />

nachrechnen:<br />

⎛ ⎞<br />

⎛ ⎞<br />

0<br />

0<br />

⎛<br />

⎞<br />

.<br />

⎛ ⎞<br />

.<br />

δ 1τ(1) · · · δ 1τ(n)<br />

⎜<br />

⎟<br />

0<br />

δ 1τ(j)<br />

ϕ (Pτ )(e j ) = ⎝ . . ⎠<br />

1<br />

⎜ ⎟<br />

0<br />

= ⎝ . ⎠ =<br />

1<br />

= e τ(j) .<br />

δ nτ(1) · · · δ nτ(n) 0<br />

δ<br />

⎜ ⎟ nτ(j) 0<br />

⎜ ⎟<br />

⎝ . ⎠<br />

⎝ . ⎠<br />

0<br />

0<br />

Damit ist jetzt klar, dass<br />

S n → PM n ,<br />

σ ↦→ P σ<br />

injektiv ist. Also folgt mit Proposition 4.1.10 und Proposition 4.1.3, dass diese<br />

Abbildung sogar invertierbar ist. Aber dann folgt die Behauptung aus Lemma 3.1.2.<br />

⊓⊔<br />

Die formale Ähnlichkeit von Proposition 4.1.11 mit Satz 3.1.5 springt natürlich<br />

ins Auge. Analog zu den dort bewiesenen Identitäten A (ϕB ) = B und ϕ (Aψ ) = ψ<br />

erhalten wir hier<br />

σ (Pτ ) = τ und P (σQ ) = Q ∀τ ∈ S n , Q ∈ PM n .<br />

Eine weitere Analogie ist, dass auch hier die Verknüpfung von Abbildungen in das<br />

Matrizenprodukt übergeführt wird, was wir zunächst an einem Beispiel testen.<br />

Beispiel 4.1.12. Seien<br />

σ =<br />

( ) 1 2 3 4<br />

, τ =<br />

2 3 4 1<br />

( ) 1 2 3 4<br />

.<br />

4 3 2 1<br />

Dann ist<br />

sowie<br />

σ ◦ τ =<br />

⎛ ⎞ ⎛ ⎞<br />

0 0 0 1<br />

0 0 0 1<br />

P σ = ⎜ 1 0 0 0<br />

⎟<br />

⎝ 0 1 0 0 ⎠ , P τ = ⎜ 0 0 1 0<br />

⎟<br />

⎝ 0 1 0 0 ⎠<br />

0 0 1 0<br />

1 0 0 0<br />

⎛ ⎞<br />

( )<br />

1 0 0 0<br />

1 2 3 4<br />

, P<br />

1 4 3 2 (σ◦τ) = P σ P τ = ⎜ 0 0 0 1<br />

⎟<br />

⎝ 0 0 1 0 ⎠ .<br />

0 1 0 0<br />

⊓⊔<br />

Proposition 4.1.13. (i) Für alle ρ, τ ∈ S n gilt ρ ◦ τ ∈ S n und ρ −1 ∈ S n .<br />

(ii) Für alle R, Q ∈ PM n gilt RQ ∈ PM n und R −1 ∈ PM n .<br />

(iii) Für alle R, Q ∈ PM n gilt σ RQ = σ R ◦ σ Q .


(iv) Für alle ρ, τ ∈ S n gilt P (ρ◦τ) = P ρ P τ .<br />

4.1 Permutationen und Permutationsmatrizen 91<br />

Beweis. Idee: (i) - (iii) sind eine einfache Verifikation und (iv) folgt aus (iii).<br />

(i) Es reicht nach Proposition 4.1.3 zu zeigen, dass die Abbildung ρ ◦ τ injektiv ist.<br />

Dazu:<br />

}<br />

ρ ◦ τ(k) = ρ(τ(k))<br />

ρ inj.<br />

‖<br />

=⇒ τ(k) = τ(l) =⇒ τ inj.<br />

k = l<br />

ρ ◦ τ(l) = ρ(τ(l))<br />

(dieses Argument gilt allgemein: die Verknüpfung injektiver Abbildungen ist<br />

injektiv).<br />

(ii) Wegen e ⊤ i e j = δ ij folgt die Abgeschlossenheit von PM n unter Matrizenmultiplikation<br />

sofort aus der Definition von PM n . Man sieht das aber auch durch<br />

einfaches Nachrechnen: Seien R, Q ∈ PM n als R = (r ik ) und Q = (q kj ) gegeben.<br />

Dann rechnet man für die Spaltensummen von RQ<br />

n∑<br />

i=1 k=1<br />

n∑<br />

r ik q kj =<br />

n∑<br />

i=1<br />

r iσ<br />

−1<br />

Q (j) = 1<br />

und analog erhält man für die Zeilensummen von RQ die Identität<br />

n∑<br />

j=1 k=1<br />

n∑<br />

r ik q kj =<br />

n∑<br />

q σR (i)j = 1.<br />

Wegen R −1 = R ⊤ für R ∈ PM n folgt auch die Abgeschlossenheit unter Inversenbildung.<br />

(iii) Mit RQe j = e σ(RQ) (j) und Qe j = e σQ (j) findet man<br />

(iv) Wegen (iii) können wir rechnen<br />

j=1<br />

}<br />

R(Qe j ) = e σR (σ Q (j))<br />

⇒ σ<br />

RQe j = e (RQ) (j) = σ R ◦ σ Q (j)<br />

σ(RQ) (j)<br />

σ (Pρ◦τ ) = ρ ◦ τ = σ (Pρ) ◦ σ (Pτ ) = σ (PρP τ ).<br />

Dies impliziert aber P ρ◦τ = P ρ P τ .<br />

⊓⊔<br />

Die Proposition 4.1.13 liefert insbesondere den Nachweis der Behauptung aus<br />

Beispiel 4.1.7, dass S n und PM n bzgl. Verknüpfung bzw. der Matrizenmultiplikation<br />

Gruppen sind. Sie zeigt aber auch, dass diese Gruppen sich ”<br />

nicht wesentlich“<br />

unterscheiden, da es eine Bijektion zwischen beiden Mengen gibt, die die Gruppenoperationen<br />

ineinander überführt. Wir fassen dies in einen neuen Begriff.<br />

Definition 4.1.14. Wenn (G, ∗) und (H, ⋄) zwei Gruppen sind, dann heißt eine<br />

Abbildung ϕ: G → H ein Gruppenhomomorphismus, wenn gilt<br />

ϕ(a ∗ b) = ϕ(a) ⋄ ϕ(b) ∀a, b ∈ G. (†)<br />

Seien e G und e H die neutralen Elemente in G bzw. H. Dann impliziert (†) die<br />

Gleichheit ϕ(e G ) ⋄ ϕ(e G ) = ϕ(e G ∗ e G ) = ϕ(e G ) und wie in Bemerkung 4.1.5(i) sieht<br />

man, dass daraus<br />

ϕ(e G ) = e H .


92 4 Determinanten<br />

Wegen ϕ(a −1 ) ⋄ ϕ(a) = ϕ(a −1 ∗ a) = ϕ(e G ) = e H folgt dann auch<br />

ϕ(a −1 ) = ϕ(a) −1 ∀a ∈ G,<br />

wobei man links das Inverse in G und rechts das Inverse in H zu nehmen hat.<br />

Wenn ϕ zusätzlich bijektiv ist, dann nennt man ϕ einen Gruppenisomorphismus.<br />

In diesem Fall ist die Umkehrabbildung ϕ −1 : H → G automatisch auch eine<br />

Gruppenisomorphismus, weil<br />

ϕ −1 (h ⋄ k) = ϕ −1 (h) ∗ ϕ −1 (k)<br />

∀h, k ∈ H<br />

aus<br />

ϕ ( ϕ −1 (h) ∗ ϕ −1 (k) ) = ϕ ( ϕ −1 (h) ) ⋄ ϕ ( ϕ −1 (k) ) = h ⋄ k = ϕ ( ϕ −1 (h ⋄ k) )<br />

folgt. Man sagt, G und H sind isomorph. Also zeigt Proposition 4.1.13, dass S n<br />

und PM n isomorphe Gruppen sind.<br />

Als nächstes betrachten wir eine spezielle Sorte von besonders einfachen Permutationen,<br />

aus denen man alle Permutationen zusammensetzen kann.<br />

Definition 4.1.15. Eine Permutation der Form<br />

( )<br />

1 · · · k · · · l · · · n<br />

σ k,l =<br />

1 · · · l · · · k · · · n<br />

heißt eine Transposition.<br />

Satz 4.1.16. Jedes σ ∈ S n ist das Produkt von Transpositionen:<br />

σ = σ k1,l 1<br />

◦ · · · ◦ σ km,l m<br />

.<br />

Beweis. Idee: Betrachte die Permutationsmatrix P σ zu σ und wende elementare Zeilenumformungen<br />

vom Typ I an. Dann liefert Proposition 4.1.13 die Behauptung.<br />

Betrachte die zu σ gehörige Permutationsmatrix P σ . Diese Matrix kann mit<br />

elementaren Zeilenumformungen vom Typ I auf die Gestalt<br />

⎛ ⎞<br />

1<br />

⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠ = 1 n<br />

1<br />

gebracht werden, d.h. es existieren Elementarmatrizen vom Typ I: E 1 , . . . , E m mit<br />

E m · · · E 1 P σ = 1 n . Die Elementarmatrizen vom Typ I sind aber gerade von der<br />

Form P σp,q . Also haben wir<br />

P σkm,lm · · · P σk1 ,l 1<br />

P σ = 1 n<br />

und damit<br />

P σ = P σk1 ,l 1<br />

· · · P σkm,lm = P σk1 ,l 1 ◦...◦σ km,lm<br />

,<br />

wobei die letzte Gleichheit aus Proposition 4.1.13 folgt.<br />

⊓⊔


4.1 Permutationen und Permutationsmatrizen 93<br />

Das folgende Beispiel zeigt, dass es nicht nur eine Möglichkeit gibt, eine Permutation<br />

als Produkt von Transpositionen zu schreiben.<br />

Beispiel 4.1.17. (i) Es gilt σ 1,4 = σ 1,2 ◦ σ 2,3 ◦ σ 3,4 ◦ σ 2,3 ◦ σ 1,2 ∈ S n<br />

( ) ( ) ( ) ( ) ( )<br />

1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4<br />

◦<br />

◦<br />

◦<br />

◦<br />

2 1 3 4 1 3 2 4 1 2 4 3 1 3 2 4 2 1 3 4<br />

( ) 1 2 3 4<br />

=<br />

4 2 3 1<br />

1 2 3 4<br />

(ii) σ k,l = σ k,k+1 ◦ σ k+1,k+2 ◦ · · · ◦ σ l−2,l−1 ◦ σ l−1,l ◦ · · · ◦ σ k,k+1 ∈ S n für alle 1 ≤<br />

} {{ } } {{ }<br />

l−k−1<br />

l−k<br />

k < l ≤ n (Übung: Nachrechnen!).<br />

⊓⊔<br />

Es gibt aber Bedingungen an die Anzahl der Transpositionen, die man braucht,<br />

um eine vorgegebene Permutation als Produkt von Transpositionen zu schreiben:<br />

Jede Permutation kann entweder nur als Produkt von geradzahlig vielen Transpositionen<br />

oder aber nur als Produkt von ungeradzahlig vielen Transpositionen<br />

geschrieben werden. Für den Beweis brauchen wir folgende Definition:<br />

Definition 4.1.18. Sei σ ∈ S n . Ein Paar (i, j) ∈ {1, . . . , n} × {1, . . . , n} heißt ein<br />

Fehlstand von σ, wenn gilt:<br />

i < j und σ(i) > σ(j).<br />

Sei f σ die Anzahl der Fehlstände von σ. Man kann also f σ als die Anzahl Kreuzungen<br />

in der graphischen Darstellung von σ interpretieren, oder auch als die Anzahl der<br />

Paare von Einsen in P σ , für die die obere Eins rechts von der unteren Eins steht.<br />

1 2 3 4 5 6<br />

1<br />

1<br />

1<br />

1<br />

1<br />

1<br />

Dann heißt<br />

das Signum von σ.<br />

sign(σ) := (−1) fσ =<br />

{ 1 fσ gerade<br />

−1 f σ ungerade


94 4 Determinanten<br />

Beispiel 4.1.19. An der Permutationsmatrix<br />

⎛<br />

P σk,l =<br />

⎜<br />

⎝<br />

1 0<br />

. ..<br />

1<br />

0 0 . . . 0 1<br />

0 1 0 0<br />

0 . . .<br />

. .. . .. .<br />

. 0 1 0<br />

1 0 . . . 0 0<br />

1<br />

. ..<br />

0 1<br />

zur Transposition σ k,l mit k < l liest man sofort ab, dass f σk,l = 2(l −k −1)+1 gilt.<br />

Insbesondere hat eine Transposition der Form σ k,k+1 nur einen einzigen Fehlstand.<br />

Also ist das Signum einer Transposition immer gleich −1.<br />

⊓⊔<br />

⎞<br />

⎟<br />

⎠<br />

Satz 4.1.20. (i) Für alle σ ∈ S n gilt 1<br />

sign(σ) = ∏ i


(ii) Mit dem ersten Teil können wir rechnen:<br />

4.1 Permutationen und Permutationsmatrizen 95<br />

sign(σ ◦ τ) = ∏ (σ ◦ τ)(i) − (σ ◦ τ)(j)<br />

i − j<br />

i


96 4 Determinanten<br />

Übungen zu Abschnitt 4.1<br />

Permutationen<br />

Übung 4.1.1. Gegeben seien folgende Permutationen:<br />

( ) ( 1 2 3 4 5<br />

1 2 3 4 5<br />

σ =<br />

, τ =<br />

3 5 4 1 2<br />

1 4 3 2 5<br />

)<br />

, ρ =<br />

( ) 1 2 3 4 5<br />

.<br />

4 2 1 3 5<br />

(a) Bestimme σ −1 und überprüfe das Ergebnis mittels der zugehörigen Permutationsmatrizen<br />

A σ und A σ −1 = (A σ) −1 .<br />

(b) Berechne ρ ◦ σ mit Hilfe der zugehörigen Permutationsmatrizen.<br />

(c) Berechne τ ◦ ρ direkt.<br />

(d) Berechne sign(σ), sign(τ), sign(ρ), sign(σ −1 ), sign(τ ◦ σ) und sign ( (τ ◦ ρ) ◦ (ρ ◦ σ) ) .<br />

Übung 4.1.2. Gegeben sei Permutation<br />

( )<br />

1 2 3 4 5 6<br />

σ =<br />

.<br />

4 5 6 1 3 2<br />

Bestimme σ −1<br />

(i) über die zugehörige Permutationsmatrix<br />

(ii) direkt.<br />

Übung 4.1.3. Ein Zykel in S n ist eine Permutation, die bei einer Teilmenge von {1, . . . , n}<br />

einen Ringtausch bewirkt. Beispiel:<br />

( )<br />

1 2 3 4 5 6<br />

σ =<br />

2 3 5 4 1 6<br />

bewirkt den Ringtausch 1 → 2 → 3 → 5 → 1. Man schreibt als Abkürzung für einen Zykel<br />

einfach die am Ringtausch beteiligten Elemente hintereinander. Hier: ( 1 2 3 5 ) .<br />

(i) Stelle fest, ob die folgenden Permutationen Zykel sind:<br />

( )<br />

1 2 3 4 5 6 7<br />

σ =<br />

, τ =<br />

5 6 7 1 4 3 2<br />

ρ =<br />

( )<br />

1 2 3 4 5 6<br />

.<br />

5 6 4 3 1 2<br />

( 1 2 3 4 5<br />

2 5 3 4 1<br />

(ii) Schreibe diejenigen Permutationen aus (i), die keine Zykel sind, als Produkt von Zykeln.<br />

(iii) Schreibe die Permutationen aus (i) als Produkte von Transpositionen.<br />

Übung 4.1.4. Seien Hom(R n , R n ) := {ϕ: R n → R n | ϕ linear}, PM n die Menge der n×n-<br />

Permutationsmatrizen und S n die Menge der Permutationen auf {1, . . . , n}. Betrachte die<br />

Abbildungen<br />

und<br />

und zeige:<br />

Φ: Mat(n × n, R) → Hom(R n , R n )<br />

A ↦→ ϕ A<br />

˜Φ: P M n → S n<br />

A ↦→ σ A<br />

(i) Es gibt genau eine Abbildung Ψ : S n → Hom(R n , R n ) mit Φ | PMn = Ψ ◦ ˜Φ.<br />

(ii) Ψ ist injektiv.<br />

(iii) Ψ(σ ◦ τ) = Ψ(σ) ◦ Ψ(τ) für alle σ, τ ∈ S n.<br />

)<br />

,


Übung 4.1.5. Gegeben sei die Permutation<br />

( )<br />

1 2 3 4 5 6 7<br />

σ =<br />

.<br />

3 7 6 5 1 4 2<br />

(a) Bestimme σ −1<br />

(i) direkt,<br />

(ii) über die zugehörige Permutationsmatrix.<br />

(b) Berechne σ 2 .<br />

(c) Berechne sign(σ).<br />

(d) Schreibe σ als Produkt von Transpositionen.<br />

Übung 4.1.6. Gegeben sei die Permutation<br />

( )<br />

1 2 3 4 5 6 7 8 9<br />

σ =<br />

.<br />

2 3 4 5 1 7 6 9 8<br />

(a) Man schreibe σ als Produkt von Transpositionen.<br />

(b) Man bestimme sign(σ).<br />

4.1 Permutationen und Permutationsmatrizen 97<br />

Übung 4.1.7 (♣♦♥♠). Gespielt wird mit einem 52er Blatt. Nacheinander legt man 13<br />

offene Karten in einer Reihe aus. Dann beginnt man wieder von vorne und legt eine zweite<br />

Reihe von 13 offenen Karten unter die erste Reihe. Hat man vier Reihen offen ausgelegt,<br />

kann es los gehen.<br />

Ziel ist es nun, aus jeder der 13 so erhaltenen Spalten genau eine Karte zu wählen,<br />

so dass die 13 ausgewählten Karten alle verschiedenen Werten haben (vom As bis zum<br />

König). Die Reihenfolge, mit der die 13 Werte aus den Spalten ausgewählt werden, ist<br />

unerheblich. Z.B. ist (7, 3, 5, König, As, 8, Bube, Dame, 2, 4, 6, 10, 9) eine zugelassene<br />

Wahl. Die Farbe der Karten spielt dabei auch keine Rolle.<br />

Eine solche Auswahl ist immer möglich. Warum?<br />

Gruppen<br />

Übung 4.1.8. Man zeige, dass die Menge<br />

{( )<br />

}<br />

a b<br />

M = ∈ Mat(2 × 2, R)<br />

−b a<br />

∣ (a, b) ≠ (0, 0)<br />

zusammen mit der Matrizenmultiplikation eine Gruppe bilden.<br />

Übung 4.1.9. Es sei I := (−1, 1) = {x ∈ R | − 1 < x < 1}, und für a, b ∈ I sei<br />

a ⋆ b := a + b<br />

1 + ab .<br />

1. Zeige, dass ⋆ eine Abbildung von I × I nach I ist.<br />

2. Zeige, dass (I, ⋆) ist eine kommutative Gruppe.<br />

3. Löse die Gleichung 1 2 ⋆ x ⋆ 1 7 = 1 3 .<br />

Übung 4.1.10. (a) Stelle eine Multiplikationstafel von S 3 auf.<br />

(b) Definiere die Ordnungsfunktion ord: S 3 → N durch<br />

ord(σ) := min{n ∈ N: σ n = id}.<br />

Hier ist N := {1, 2, 3, . . . } die Menge der natürlichen Zahlen, und id : {1, 2, 3} →<br />

{1, 2, 3} die identische Abbildung. Berechne ord(σ) für alle σ ∈ S 3.<br />

(c) Zeige: Man kann jedes Element von S 3 als ein Produkt von (eventuell mehreren Exemplaren<br />

von) (1 2) und (2 3) schreiben.<br />

(d) Die minimale Anzahl von Exemplaren von (1 2) und (2 3), die man in (c) braucht,<br />

um σ zu schreiben, heißt die Länge l(σ) von σ. Man setzt dabei l(id) := 0. Berechne<br />

l(σ) für alle σ ∈ S 3.


98 4 Determinanten<br />

4.2 Die Determinante<br />

Wir beginnen diesen Abschnitt mit der Definition der Determinante einer quadratischen<br />

Matrix und beweisen dann eine Reihe von grundlegenden Eigenschaften. Im<br />

Weiteren konzentrieren wir uns auf Verfahren, mit denen man die Determinante<br />

berechnen kann. Die wichtigen Anwendungen auf die Untersuchung von Matrizen<br />

und ihre zugehörigen linearen Abbildungen werden erst später behandelt.<br />

Definition 4.2.1. Die Determinante einer quadratischen Matrix A = (a ij ) ∈<br />

Mat(n × n, K) ist definiert durch<br />

det(A) := ∑<br />

σ∈S n<br />

sign(σ)a 1σ(1) · a 2σ(2) · . . . · a nσ(n) .<br />

Diese Definition ist auch unter den Namen Leibniz-Formel für die Determinante<br />

bekannt. Wir betrachten die Determinante als Abbildung det: Mat(n × n, K) → K.<br />

Später werden wir sie aber auch als Abbildung det: K n × . . . × K n → K von der<br />

Menge der n-Tupel von (Zeilen/Spalten)-Vektoren in den Körper interpretieren.<br />

Beispiel 4.2.2. (i) Für n = 1 gilt A = (a 11 ) und S 1 = {id}, also haben wir:<br />

det(A) = ∑<br />

σ∈S 1<br />

sign(σ)a 1σ(1) = a 11 .<br />

(ii) Im Fall n = 2 besteht S n aus zwei Elementen,<br />

)<br />

S 2 = ,<br />

{ ( 1 2<br />

1 2<br />

( 1 2<br />

2 1<br />

) }<br />

,<br />

was zu folgender Formel führt:<br />

( )<br />

a11 a<br />

det 12<br />

= ∑<br />

sign(σ)a<br />

a 21 a 1σ(1) a 2σ(2)<br />

22<br />

σ∈S 2<br />

= 1 · a 11 a 22 + (−1) · a 12 a 21<br />

= a 11 a 22 − a 12 a 21 .<br />

(iii) Für n = 3 hat man<br />

{ ( ) ( ) ( ) ( ) ( ) ( )<br />

1 2 3 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3<br />

}<br />

S 3 = , , , , ,<br />

,<br />

1 2 3 2 3 1 3 1 2 3 2 1 1 3 2 2 1 3<br />

} {{ } } {{ } } {{ } } {{ } } {{ } } {{ }<br />

sign(σ)=1 sign(σ)=1 sign(σ)=1 sign(σ)=−1 sign(σ)=−1 sign(σ)=−1<br />

damit<br />

⎛<br />

det ⎝ a ⎞<br />

11 a 12 a 13<br />

a 21 a 22 a 23<br />

⎠ = a 11a 22 a 33 + a 12 a 23 a 31 + a 13 a 21 a 32<br />

−a<br />

a 31 a 32 a 13 a 22 a 31 − a 11 a 23 a 32 − a 12 a 21 a 33<br />

33<br />

was als Regel von Sarrus geschrieben wird:<br />

a 11 a 12 a 13<br />

↘ ↘ ↘<br />

a 21 a 22 a 23 a 21 −<br />

↘ ↘ ↘<br />

a 31 a 32 a 33 a 31 a 32<br />

a 31 a 32 a 33<br />

a 11 a 12 a 13 a 11 a 12<br />

↗ ↗ ↗<br />

a 21 a 22 a 23 a 21<br />

↗ ↗ ↗<br />

⊓⊔


4.2 Die Determinante 99<br />

Als nächstes verifizieren wir einige Eigenschaften der Determinante, von denen<br />

wir später nachweisen werden, dass sie die Determinante schon eindeutig bestimmen.<br />

Satz 4.2.3. Sei A ∈ Mat(n × n, K).<br />

(i) Vertauscht man in A zwei Zeilen, so ändert sich nur das Vorzeichen der Determinante.<br />

(ii) Multipliziert man eine Zeile mit einer Zahl t ∈ K, so multipliziert sich die<br />

Determinante auch mit t.<br />

(iii) Addiert man das Vielfache einer Zeile zu einer anderen Zeile, so ändert sich<br />

die Determinante nicht.<br />

(iv) det(1 n ) = 1.<br />

Beweis. Idee: Man rechnet das mit der Leibniz-Formel nach.<br />

(i) Setze<br />

⎛<br />

⎞<br />

.<br />

a k1 · · · a kn<br />

A :=<br />

.<br />

⎜<br />

⎝ a l1 · · · a ln<br />

⎟<br />

⎠<br />

.<br />

⎛<br />

⎞<br />

.<br />

a l1 · · · a ln<br />

und A ′ :=<br />

.<br />

.<br />

⎜<br />

⎝ a k1 · · · a kn<br />

⎟<br />

⎠<br />

In der folgenden Rechnung benutzt man in der ersten Umformung, dass die<br />

Abbildung<br />

S n → S n , σ ↦→ σ ◦ σ k,l<br />

bijektiv ist:<br />

det(A) = ∑<br />

τ∈S n<br />

sign(τ)a 1τ(1) · . . . · a kτ(k) · . . . · a lτ(l) · . . . · a nτ(n)<br />

= ∑<br />

σ∈S n<br />

sign(σ ◦ σ k,l )a 1(σ◦σk,l )(1) · . . . · a k(σ◦σk,l )(k) · . . .<br />

. . . · a l(σ◦σk,l )(l) · . . . · a n(σ◦σk,l )(n)<br />

= − ∑<br />

σ∈S n<br />

sign(σ)a 1σ(1) · . . . · a kσ(l) · . . . · a lσ(k) · . . . · a nσ(n)<br />

= − ∑<br />

σ∈S n<br />

sign(σ)a 1σ(1) · . . . · a lσ(k) · . . . · a kσ(l) · . . . · a nσ(n)<br />

= − det(A ′ ).<br />

(ii), (iii) Um beide Punkte gleichzeitig abhandeln zu können, setzen wir<br />

⎛<br />

⎞<br />

.<br />

a k1 · · · a kn<br />

A ′ :=<br />

.<br />

⎜<br />

⎝ ta l1 + sa k1 · · · ta ln + sa kn<br />

⎟<br />

⎠<br />

Dann gilt<br />

.<br />

.<br />

⎛<br />

⎞<br />

.<br />

a k1 · · · a kn<br />

und A ′′ :=<br />

.<br />

.<br />

⎜<br />

⎝ a k1 · · · a kn<br />

⎟<br />

⎠<br />

.


100 4 Determinanten<br />

det(A ′ ) = ∑<br />

sign(σ)a 1σ(1) · . . . · (ta lσ(l) + sa kσ(l) ) · . . . · a nσ(n)<br />

σ∈S n<br />

( )<br />

∑<br />

= t sign(σ)a 1σ(1) · . . . · a lσ(l) · . . . · a nσ(n)<br />

σ∈S n<br />

( )<br />

∑<br />

+ s sign(σ)a 1σ(1) · . . . · a kσ(k) · . . . · a kσ(l) · . . . · a nσ(n)<br />

σ∈S n<br />

= t det(A) + s det(A ′′ ).<br />

Es genügt daher zu zeigen, dass det(A ′′ ) = 0 ist. Beachte, dass man durch<br />

Vertauschen der k-ten und der l-ten Zeilen A ′′ nicht ändert, also det(A ′′ ) =<br />

− det(A ′′ ) gilt. Wenn 2 ≠ 0 in K, dann folgt det(A ′′ ) = 0. Wenn dagegen 2 = 0,<br />

dann ist sign konstant gleich Eins und man findet jeden Summanden in det(A ′′ )<br />

zweimal, weil die Summanden für σ und σ ◦ σ k,l gleich sind. Also folgt auch hier<br />

det(A ′′ ) = 0.<br />

(iv)<br />

det(1 n ) = ∑<br />

σ∈S n<br />

sign(σ)δ 1σ(1) · . . . · δ nσ(n) = sign(id)1 = 1.<br />

⊓⊔<br />

Bemerkung 4.2.4. Wir betrachten jetzt die Matrizen aus Mat(n × n, K) als n-<br />

Tupel von Zeilenvektoren und schreiben die Determinante dementsprechend als<br />

Abbildung<br />

det: K n × · · · × K n → K.<br />

Dann lassen sich die Bedingungen aus Satz 4.2.3 wie folgt umformulieren:<br />

(i) det(v 1 , . . . , v k , . . . , v l , . . . , v n ) = − det(v 1 , . . . , v l , . . . , v k , . . . , v n ).<br />

(ii) det(v 1 , . . . , tv k , . . . , v n ) = t det(v 1 , . . . , v n ).<br />

(iii) det(v 1 , . . . , v k , . . . , v l + sv k , . . . , v n ) = det(v 1 , . . . , v n ).<br />

(iv) det(e 1 , . . . , e n ) = 1.<br />

Aus dem Beweis von Satz 4.2.3 liest man außerdem noch folgende Eigenschaften<br />

ab:<br />

(a) Es gilt det(v 1 , . . . , v k , . . . , v l , . . . , v n ) = 0 für v k = v l und k ≠ l.<br />

(b)<br />

det(v 1 , . . . , rv k +sv ′ k, . . . , v n ) = r det(v 1 , . . . , v k , . . . , v n )+s det(v 1 , . . . , v ′ k, . . . , v n ),<br />

denn die Rechnung im Beweis von Satz 4.2.3(iii) lässt sich wie folgt modifizieren:<br />

det(v 1 , . . . , rv k + sv ′ k, . . . , v n ) =<br />

= ∑<br />

sign(σ)a 1σ(1) · . . . · (ta kσ(k) + sa ′ kσ(k) ) · . . . · a nσ(n)<br />

σ∈S n<br />

( )<br />

∑<br />

= t sign(σ)a 1σ(1) · . . . · a kσ(k) · . . . · a nσ(n)<br />

σ∈S n<br />

( )<br />

∑<br />

+ s<br />

σ∈S n<br />

sign(σ)a 1σ(1) · . . . · a ′ kσ(k) · . . . · a nσ(n)<br />

= t det(v 1 , . . . , v k , . . . , v n ) + s det(v 1 , . . . , v ′ k, . . . , v n ).


4.2 Die Determinante 101<br />

⊓⊔<br />

Satz 4.2.5. Die Eigenschaften (i)–(iv) aus Satz 4.2.3 legen die Determinante fest.<br />

Beweis. Idee: Man benutzt die Eigenschaften (i)–(iv) um die Aussage auf Matrizen in<br />

Zeilenstufenform zurückzuführen, für die sie leicht zu verifizieren ist.<br />

Sei f : Mat(n × n, K) → K mit (i)–(iv) aus Satz 4.2.3. Dann ist zu zeigen, dass<br />

f(A) = det(A) für alle A ∈ Mat(n × n, K) gilt. Nach Satz 4.2.3 und den Voraussetzungen<br />

an f genügt es zu zeigen, dass f(A) = det(A) für A in Zeilenstufenform<br />

gilt.<br />

1. Fall: A nicht invertierbar. Dann gibt es eine Nullzeile und (ii) zeigt, dass det(A) =<br />

0 = f(A).<br />

2. Fall: A invertierbar. Dann ist A nach Satz 3.2.5 von der Form<br />

A =<br />

⎛<br />

⎜<br />

⎝<br />

1 ∗<br />

. ..<br />

0 1<br />

und lässt sich durch Umformungen vom Typ III auf die Form<br />

⎛ ⎞<br />

1 0<br />

⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠<br />

0 1<br />

⎞<br />

⎟<br />

⎠<br />

bringen. Also gilt det(A) = det(1 n ) = 1 und f(A) = f(1 n ) = 1.<br />

⊓⊔<br />

Beispiel 4.2.6. Da die Elementarmatrizen aus Beispiel 3.1.9 durch die entsprechende<br />

elementare Zeilenumformung aus der Einsmatrix hervorgehen, liefert Satz 4.2.3<br />

auch die Determinanten dieser Matrizen:<br />

(i) det(E I(p,q) ) = −1.<br />

(ii) det(E II(p;c) ) = c.<br />

(iii) det(E III(c,q;p) ) = 1.<br />

⊓⊔<br />

Jetzt können wir die Invertierbarkeit einer quadratischen Matrix und somit<br />

die eindeutige Lösbarkeit der zugehörigen linearen Gleichungssysteme über das<br />

Nichtverschwinden der Determinante charakterisieren. Nebenbei bemerkt führt diese<br />

Charakterisierung auch zu der Einsicht, dass ”<br />

die meisten“ Matrizen invertierbar<br />

sind 2 , weil die ”<br />

meisten“ Elemente von K eben nicht Null sind. Grob gesprochen<br />

heißt das, dass man bei zufällig hingeschriebenen quadratischen Matrizen nur geringe<br />

Chancen hat eine zu finden, die nicht invertierbar ist.<br />

Satz 4.2.7. Seien A, B ∈ Mat(n × n, K). Dann gilt<br />

(i) det(A) = 0 ⇔ Rang(A) < n ⇔ A ist nicht invertierbar.<br />

2 Um zu präzisieren, was man hier mit ”<br />

die meisten“ meint, braucht man Begriffe aus<br />

der Topologie wie stetige Abbildung und offene und dichte Teilmengen. Für K = R lernt<br />

man üblicherweise in der Vorlesung Analysis II, wie man so eine Aussage beweist.


102 4 Determinanten<br />

(ii) det(AB) = det(A) det(B).<br />

(iii) det(A ⊤ ) = det(A)<br />

(iv) det(A −1 ) = ( det(A) ) −1<br />

.<br />

Beweis. Idee: Die Äquivalenz der Aussagen in (i) folgt durch Kombination von Satz<br />

3.2.5, Bemerkung 3.2.12 und Satz 4.2.5. Die Multiplikativität der Determinante führt man<br />

auf den Fall zurück, dass A zu einer elementaren Zeilenoperation gehört. Die Multiplikativität<br />

aus Teil (ii) verifiziert man zunächst für den Fall, dass A eine Elementarmatrix ist,<br />

wobei man Beispiel 4.2.6 benutzt. Dann kann man wegen Bemerkung 3.2.9 invertierbare<br />

A’s behandeln. Der Fall von nichtinvertierbarem A folgt aus (i). Den Rest rechnet man<br />

mit der Leibniz-Formel nach.<br />

(i) Die Äquivalenz<br />

Rang(A) < n ⇔ A ist nicht invertierbar<br />

folgt aus Satz 3.2.5.<br />

Um auch die erste Äquivalenz zu zeigen, stellen wir fest, dass det(A) mit einer<br />

von Null verschiedenen Zahl multipliziert wird, wenn A durch eine elementare<br />

Zeilenumformung verändert wird. Also gilt det(A) = 0 genau dann, wenn jede<br />

Zeilenstufenform A ′ Determinante Null hat. Auch der Rang einer Matrix ändert<br />

sich nach Bemerkung 3.2.12 bei elementaren Zeilenumformungen nicht. Damit<br />

können wir o.B.d.A. annehmen, dass A in Zeilenstufenform ist. Dann zeigt der<br />

Beweis von Satz 4.2.5, dass det(A) = 0, wenn A nicht invertierbar ist, und<br />

det(A) = 1, wenn A invertierbar ist. Damit folgt die Behauptung.<br />

(ii) 1. Fall: A = E I(p,q) . Dann entsteht AB durch Umformung vom Typ I aus B,<br />

d.h. det(AB) = − det(B) = det(A) det(B).<br />

2. Fall: A = E II(c;p) . Dann entsteht AB durch Umformung vom Typ II(c; p)<br />

aus B, d.h., det(AB) = c det(B) = det(A) det(B).<br />

3. Fall: A = E III(c;p,q) . Dann entsteht AB durch Umformung vom Typ III(c; p, q)<br />

aus B, d.h., det(AB) = det(B) = det(A) det(B).<br />

4. Fall: Rang(A) = n. In diesem Fall ist A invertierbar, also gibt es nach Bemerkung<br />

3.2.9 Elementarmatrizen E 1 , . . . , E r mit E r · · · E 1 A = 1 n . Damit<br />

gilt<br />

A = E1 −1 · · · Er −1 .<br />

Wir sehen insbesondere, dass jede invertierbare (n × n)–Matrix ist ein Produkt<br />

von Elementarmatrizen ist. Da die Inverse einer Elementarmatrix nach<br />

Beispiel 3.2.7 wieder eine Elementarmatrix ist, erlauben die ersten drei Fälle<br />

folgende Rechnung:<br />

det(AB) = det(E1 −1 · · · Er −1 B)<br />

= det(E1 −1 ) det(E−1 2 · · · Er −1 B)<br />

= det(E1 −1 ) det(E−1 2 ) · · · det(E−1 r ) det(B)<br />

= det(E1 −1 E−1 2 · · · Er<br />

−1 ) det(B)<br />

= det(A) det(B).<br />

.<br />

5. Fall: A nicht invertierbar. Wäre jetzt AB invertierbar, so hätte man<br />

A(B(AB) −1 ) = (AB)(AB) −1 = 1 n<br />

und mit Bemerkung 3.2.6 die Invertierbarkeit von A. Also ist AB nicht<br />

invertierbar, so dass wegen (i) gilt det(AB) = 0 = det(A). Zusammen findet<br />

man also det(AB) = 0 = det(A) det(B).


4.2 Die Determinante 103<br />

(iii) Mit der Identität sign(σ) = sign(σ −1 ) sowie der schon früher benutzten Tatsache,<br />

dass die Abbildung S n → S n , τ ↦→ τ −1 bijektiv ist, können wir wie folgt<br />

rechnen:<br />

det(A ⊤ ) = ∑<br />

sign(σ) a σ(1),1 · · · a σ(n),n<br />

σ∈S n<br />

= ∑<br />

sign(σ) a 1,σ −1 (1) · · · a n,σ −1 (n)<br />

σ∈S n<br />

= ∑<br />

sign(τ −1 ) a<br />

} {{ } 1,τ(1) · · · a n,τ(n)<br />

τ −1 ∈S n<br />

= ∑<br />

=sign(τ)<br />

τ∈S n<br />

sign(τ) a 1,τ(1) · · · a n,τ(n)<br />

= det(A).<br />

(iv) Folgt sofort aus (ii) und det(1 n ) = 1.<br />

⊓⊔<br />

Bemerkung 4.2.8. (i) Aus Satz 4.2.7(iii) erkennt man, dass man überall, wo in<br />

diesem Abschnitt mit Zeilenvektoren gearbeitet wurde, auch mit Spaltenvektoren<br />

arbeiten kann, indem man A durch A ⊤ ersetzt.<br />

(ii) Satz 4.2.7(ii) zeigt, dass die Einschränkung det | GLn(K) : GL n (K) → K × ein<br />

Gruppenhomomorphismus ist.<br />

⊓⊔<br />

Beispiel 4.2.9.<br />

⎛ ⎞<br />

c 1 ∗<br />

⎜<br />

A = ⎝<br />

. ..<br />

⎟<br />

⎠<br />

0 c n<br />

cj≠0<br />

=⇒ det(A) = c 1 · · · c n ,<br />

weil A durch Umformungen vom Typ III in<br />

⎛ ⎞<br />

c 1 0<br />

⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠<br />

0 c n<br />

überführt werden kann und dann sukzessive mit II(j; 1 c j<br />

) in 1 n . Die Gleichung<br />

det(A) = c 1 · · · c n bleibt aber auch richtig, wenn einzelne c j ’s Null sind. Dazu muss<br />

man nur zeigen, dass det(A) = 0, falls es ein c j = 0 gibt. Wenn aber<br />

⎛<br />

A =<br />

⎜<br />

⎝<br />

c 1 ∗ ∗<br />

. .. . ∗<br />

0 c j−1 ∗<br />

0 ∗ . . . ∗<br />

0 c j+1 ∗<br />

0<br />

⎞<br />

. ⎟<br />

. .. ⎠<br />

0 0 c n<br />

gilt, dann hat eine Zeilenstufenform von A höchstens n − 1 Stufen. Also folgt<br />

Rang(A) < n und damit det(A) = 0.<br />

⊓⊔


104 4 Determinanten<br />

Bemerkung 4.2.10. Es gilt det(P σ ) = sign(σ), denn für Transpositionen σ = σ k,l<br />

gilt P σ = E I(k,l) und daher<br />

sign(σ k,l ) = −1 = det(P σk,l ).<br />

Allgemein schreiben wir dann: σ = τ 1 ◦ · · · ◦ τ k mit Transpositionen τ j und rechnen<br />

sign(σ) = sign(τ 1 ) · · · sign(τ k )<br />

= det(P τ1 ) · · · det(P τk )<br />

= det(P τ1 · · · P τk )<br />

= det(P τ1◦...◦τ k<br />

)<br />

= det(P σ ),<br />

wobei wir Proposition 4.1.13 und Satz 4.1.20 benutzt haben.<br />

⊓⊔<br />

Übungen zu Abschnitt 4.2<br />

Übung 4.2.1. Man bestimme die Determinanten der folgenden Matrizen:<br />

⎛ ⎞<br />

⎛ ⎞ −7 3 8 1<br />

2 3 0<br />

⎝−1 3 2⎠ , ⎜ 1 1 0 1<br />

⎟<br />

⎝ 4 2 −1 3⎠ .<br />

4 1 0<br />

5 1 0 9<br />

Übung 4.2.2. Man bestimme die Determinanten der folgenden Matrizen:<br />

⎛ ⎞<br />

⎛ ⎞<br />

( )<br />

1 1 1 1<br />

1 0 1<br />

2 4<br />

, ⎝1 1 1⎠ , ⎜1 2 2 2<br />

⎟<br />

−1 2<br />

⎝1 2 3 3⎠<br />

0 1 1<br />

1 2 3 4<br />

Übung 4.2.3. Für welche Werte von α, β ∈ R sind die folgenden Matrizen invertierbar?<br />

⎛ ⎞ ⎛ ⎞<br />

1 1 1<br />

β 1 0<br />

A 1 := ⎝1 1 α⎠ , A 2 := ⎝1 β 1⎠ .<br />

1 α 1<br />

0 1 β<br />

Übung 4.2.4. Betrachte die Abbildung det: Mat(n × n, R) → R.<br />

(a) Zeige, dass det surjektiv ist.<br />

(b) Ist det injektiv?<br />

(c) Ist det: Mat(n × n, R) → R eine lineare Abbildung?<br />

(d) Es sei GL(n, R) die Gruppe aller invertierbaren Matrizen in Mat(n × n, R) und betrachte<br />

R \ {0} als Gruppe bezüglich der Multiplikation. Ist det : GL(n, R) → R \ {0}<br />

ein Gruppenhomomorphismus?<br />

Übung 4.2.5. Betrachte die Abbildungen<br />

und<br />

Zeige<br />

((<br />

x1<br />

((<br />

x1<br />

ϕ: R 2 × R 2 → R<br />

) ( ))<br />

y1<br />

, ↦→ x<br />

x 2 y 1y 1 − x 2y 2<br />

2<br />

ψ : R 2 × R 2 → R<br />

) ( ))<br />

y1<br />

, ↦→ x<br />

x 2 y 1y 2 + x 2y 1.<br />

2


4.3 Weitere Rechenverfahren für Determinanten und Inverse 105<br />

(i) ϕ(u, rv + sw) = rϕ(u, v) + sϕ(u, w) für alle r, s ∈ R, u, v, w ∈ R 2 .<br />

(ii) ψ(u, rv + sw) = rψ(u, v) + sψ(u, w) für alle r, s ∈ R, u, v, w ∈ R 2 .<br />

(iii) ϕ(u, v) = ϕ(v, u) für alle u, v ∈ R 2 .<br />

(iv) ψ(u, v) = ψ(v, u) für alle u, v ∈ R 2 .<br />

(v) Finde eine Abbildung γ : R 2 × R 2 → R mit<br />

(a) γ(u, rv + sw) = rγ(u, v) + sγ(u, w) für alle r, s ∈ R, u, v, w ∈ R 2 .<br />

(b) γ(u, v) = γ(v, u) für alle u, v ∈ R 2 .<br />

(c)<br />

(( ) ( )) (( ) ( ))<br />

1 1 1 0<br />

γ , = γ , = 1.<br />

0 0 0 1<br />

Übung 4.2.6. Zeige<br />

⎛<br />

⎞<br />

1 2 12 18<br />

( det ⎜ 3 4 3 −10<br />

⎟ 1 2<br />

⎝ 0 0 −1 2 ⎠ = det 3 4<br />

0 0 4 8<br />

)<br />

det<br />

( ) −1 2<br />

.<br />

4 8<br />

4.3 Weitere Rechenverfahren für Determinanten und Inverse<br />

In diesem Abschnitt stellen wir diverse Formeln und Rechenverfahren für Determinanten<br />

zusammen. Einige davon sind für praktische Berechnungen nützlich, andere,<br />

wie die Cramersche Regel, braucht man eher für theoretische Überlegungen (zum<br />

Beispiel, um nachzuweisen, dass die Inversenbildung ein differenzierbarer Prozess<br />

ist).<br />

Bemerkung 4.3.1 (Kästchen-Regel). Sei<br />

( )<br />

A1 ∗<br />

A =<br />

0 A 2<br />

mit A 1 ∈ Mat(p × p, K), und A 2 ∈ Mat(q × q, K) wobei p + q = n. Dann gilt<br />

det(A) = det(A 1 ) det(A 2 ).<br />

Um dies einzusehen, schreibt man<br />

det(A) = ∑<br />

sign(σ) a 1,σ(1) · . . . · a p,σ(p) · a p+1,σ(p+1) · . . . · a n,σ(n)<br />

} {{ }<br />

σ∈S n<br />

=0, wenn es ein r∈{p+1,...,n} mit σ(r)∈{1,...,p} gibt<br />

Das Produkt a 1σ(1) · · · a nσ(n) ist nur von Null verschieden, wenn σ({p + 1, . . . , n}) ⊆<br />

{p + 1, . . . , n}. Dann zeigt Proposition 4.1.3, dass σ({p + 1, . . . , n}) = {p + 1, . . . , n}<br />

und es folgt σ({1, . . . , p}) = {1, . . . , p}. Setze<br />

σ 1 := σ| {1,...,p} ∈ S p<br />

σ 2 := σ| {p+1,...,p+q} ∈ ˜S q := {Permutationen von {p + 1, . . . , p + q}}<br />

Durch Umnumerieren kann man ˜S q mit S q identifizieren und so Permutationsmatrizen<br />

P σ2 , die Anzahl f σ2 der<br />

(<br />

Fehlstände<br />

)<br />

und das Signum sign(σ 2 ) für σ 2 definieren.<br />

Pσ1 0<br />

Für ein solches σ gilt P σ =<br />

und f<br />

0 P σ = f σ1 + f σ2 , wobei f σ die Anzahl<br />

σ2<br />

der Fehlstände von σ und f σi die Anzahl der Fehlstände von σ i ist. Damit rechnen<br />

wir<br />

sign(σ) = (−1) fσ = (−1) fσ 1 +fσ 2 = (−1)<br />

f σ1 (−1)<br />

f σ2 = sign(σ1 ) sign(σ 2 ).


106 4 Determinanten<br />

Indem wir jetzt nur über die σ summieren, die zur Determinante von A tatsächlich<br />

einen von Null verschiedenen Summanden beitragen können, finden wir<br />

∑<br />

det(A) =<br />

sign(σ 1 ) sign(σ 2 ) ·<br />

σ 1∈S p,σ 2∈ ˜S q<br />

·(a 1,σ1(1) · . . . · a p,σ1(p))(a p+1,σ2(p+1) · . . . · a p+q,σ2(p+q))<br />

⎛<br />

⎞<br />

= ⎝ ∑<br />

sign(σ 1 )(a 1,σ1(1) · . . . · a p,σ1(p)) ⎠ ·<br />

σ 1∈S p<br />

⎛<br />

⎞<br />

· ⎝ ∑<br />

sign(σ 2 )(a p+1,σ2(p+1) · . . . · a p+q,σ2(p+q)) ⎠<br />

σ 2∈ ˜S q<br />

= det(A 1 ) det(A 2 ).<br />

⊓⊔<br />

Beispiel 4.3.2 (Vandermonde Determinante). Eine Vandermondesche Matrix<br />

ist eine Matrix V ∈ Mat((n + 1) × (n + 1), K) von der Gestalt<br />

⎛<br />

⎞<br />

1 x 1 x 2 1 . . . x n 1<br />

1 x 2 x 2 2 . . . x n 2<br />

V := ⎜<br />

⎝<br />

.<br />

. . . ..<br />

⎟<br />

. ⎠ ,<br />

1 x n+1 x 2 n+1 . . . x n n+1<br />

mit Zahlen x 1 , . . . , x n+1 ∈ K. Wir werden zeigen, dass für n ≥ 1<br />

∏<br />

(x i − x j )<br />

n≥i>j≥1<br />

die Determinante dieser Matrix ist. Das ist klar für n = 1, und wir führen den<br />

Beweis mittels Induktion nach n: Als erstes ziehen wir die erste Zeile von jeder<br />

anderen ab und erhalten<br />

⎛<br />

⎞<br />

1 x 1 x 2 1 . . . x n 1<br />

0 x 2 − x 1 x 2 2 − x 2 1 . . . x n 2 − x n 1<br />

det V = det ⎜<br />

⎝<br />

.<br />

. . . ..<br />

⎟<br />

. ⎠ := det V ′ .<br />

0 x n+1 − x 1 x 2 n+1 − x 2 1 . . . x n n+1 − x n 1<br />

Jetzt subtrahieren wir das x 1 -fache der n-ten Spalte von der (n+1)-ten Spalte, dann<br />

das x 1 -fache der (n−1)-ten Spalte von der n-ten u.s.w. Zum Beispiel erhalten wir in<br />

der k-ten Zeile (für k = 2, . . . , n+1) für die letzte Spalte x n k −xn 1 −x 1 (x n−1<br />

k<br />

−x1 n−1 ) =<br />

x n k − x 1x n−1<br />

k<br />

= (x k − x 1 )x n−1<br />

k<br />

. Damit gilt dann<br />

⎛<br />

⎞<br />

1 0 0 . . . 0<br />

det V ′ 0 x 2 − x 1 x 2 (x 2 − x 1 ) . . . x2 n−1 (x 2 − x 1 )<br />

= det ⎜<br />

⎝<br />

.<br />

. .<br />

. ..<br />

⎟<br />

. ⎠<br />

0 x n+1 − x 1 x n+1 (x n+1 − x 1 ) . . . x n−1<br />

n+1 (x n+1 − x 1 )<br />

⎛<br />

n+1<br />

1 x<br />

∏<br />

2 x 2 2 . . . x n−1 ⎞<br />

2<br />

⎜<br />

= (x j − x 1 ) det ⎝<br />

.<br />

. . . ..<br />

⎟<br />

. ⎠ .<br />

j=2<br />

1 x n+1 x 2 n+1 . . . x n−1<br />

n+1<br />

Die zweite Gleichheit ist dabei eine Konsequenz von Satz 4.2.3(ii) und der Kästchen-<br />

Regel in Bemerkung 4.3.1. Jetzt folgt die Behauptung mit Induktion.<br />

⊓⊔


4.3 Weitere Rechenverfahren für Determinanten und Inverse 107<br />

Bemerkung 4.3.3 (Berechnung durch Zeilenumformung).<br />

die folgenden modifizierten elementaren Zeilenumformungen:<br />

Typ I ′ : Vertausche zwei Zeilen und multipliziere die letzte Zeile mit (−1)<br />

Typ II ′ : Multipliziere die p–te Zeile mit c ≠ 0 und die letzte Zeile mit 1 c<br />

Typ III: Wie gehabt<br />

Wir betrachten<br />

Durch Umformungen vom Typ I ′ , II ′ , III lässt sich jede Matrix auf ”<br />

modifizierte<br />

Zeilenstufenform“ bringen, die sich von der gewöhnlichen Zeilenstufenform nur in<br />

der letzten Zeile unterscheidet und dort nur in der letzten Komponente (alle anderen<br />

sind ohnehin Null). Man verändert in diesem Prozess die Determinante nicht! Es<br />

gibt für n × n–Matrizen zwei Möglichkeiten:<br />

(i) Wenn man weniger als n Stufen hat, d.h. die letzte Zeile Null ist, dann ist die<br />

Determinante Null.<br />

(ii) Wenn man n Stufen hat, ist das Ergebnis von der Form<br />

⎛<br />

⎜<br />

⎝<br />

1 ∗ ∗<br />

. .. .<br />

0 1 ∗<br />

0 . . . 0 d<br />

⎞<br />

⎟<br />

⎠ ,<br />

also ist die Determinante gleich d.<br />

⊓⊔<br />

Beispiel 4.3.4.<br />

⎛ ⎞<br />

1 2 3<br />

⎝ 2 3 4 ⎠ →<br />

III<br />

3 4 6<br />

⎛<br />

1 2 3<br />

det ⎝ 2 3 4<br />

3 4 6<br />

⎛<br />

1 2 3<br />

⎝ 0 −1 −2<br />

0 −2 −3<br />

⎞<br />

⎞<br />

⎠ II’<br />

→<br />

⎛ ⎞<br />

1 2 3<br />

⎝ 0 1 2<br />

0 2 3<br />

⎠ III<br />

→<br />

⎛<br />

1 2 3<br />

⎝ 0 1 2<br />

0 0 −1<br />

⎠ = 18 + 24 + 24 − 27 − 16 − 24 = −1.<br />

⎞<br />

⎠<br />

⊓⊔<br />

Bemerkung 4.3.5 (Entwicklung nach Spalten oder Zeilen). Betrachte eine<br />

Matrix A ∈ Mat(n × n, K). Die (n − 1) × (n − 1)–Matrix, die aus A entsteht, wenn<br />

man die i–te Zeile und die j–te Spalte streicht, bezeichnen wir mit A i,j und nennen<br />

sie die (i, j)-te Streichmatrix. Seien<br />

v i = (a i1 , . . . , a in ) = (a i1 , 0, . . . , 0) + . . . + (0, . . . , 0, a in ) = a i1 e 1 + . . . + a in e n<br />

die Zeilenvektoren der (n × n)-Matrix A. Dann erhält man<br />

⎛<br />

⎞ ⎛ ⎞<br />

⎛<br />

a 11 a 12 · · · a 1n<br />

a 11 e 1<br />

a 21 a 22 · · · a 2n<br />

det(A) = det ⎜<br />

⎟<br />

⎝ . . . ⎠ = det v 2<br />

⎜ ⎟<br />

⎝ . ⎠ + . . . + det ⎜<br />

⎝<br />

a n1 a n2 · · · a nn v n<br />

a 1n e n<br />

v 2<br />

und bringt im j-ten Summanden die j-te Spalte mithilfe der Permutation<br />

.<br />

v n<br />

⎞<br />

⎟<br />


108 4 Determinanten<br />

( )<br />

1 2 . . . j − 1 j j + 1 . . . n<br />

2 3 . . . j 1 j + 1 . . . n<br />

in die erste Spalte. Das bedeutet, man schiebt die j-te Spalte (j −1)-mal nach links,<br />

was j − 1 Transpositionen entspricht. Also ist das Signum dieser Permutation gleich<br />

(−1) j−1 und wir erhalten<br />

( )<br />

a11 0 · · · 0<br />

det(A) = det<br />

∗ A 1,1<br />

( )<br />

a12 0 · · · 0<br />

+ (−1) det<br />

∗ A 1,2<br />

( )<br />

+ (−1) 2 a13 0 · · · 0<br />

det<br />

∗ A 1,3<br />

.<br />

+ (−1) n−1 det<br />

( )<br />

a1n 0 · · · 0<br />

∗ A 1,n<br />

= a 11 det(A 1,1 ) − a 12 det(A 1,2 ) + . . . + (−1) n−1 a 1n det(A 1,n )<br />

n∑<br />

= (−1) j−1 a 1j det(A 1,j ).<br />

j=1<br />

Diese Art det(A) zu berechnen, nennt man Entwicklung der Determinante nach der<br />

ersten Zeile.<br />

Ebenso kann man auch nach anderen Zeilen entwickeln: Bringt man die p–te<br />

Zeile durch (p − 1) Vertauschungen in die erste Zeile und entwickelt dann nach der<br />

ersten Zeile, so erhält man die folgende Formel für die Entwicklung nach der p–ten<br />

Zeile:<br />

n∑<br />

det(A) = (−1) j+p a pj det(A p,j )<br />

j=1<br />

Jetzt vertauscht man die Rollen von Zeilen und Spalten und erhält analog eine<br />

Formel für die Entwicklung nach der q–ten Spalte:<br />

det(A) =<br />

n∑<br />

(−1) q+i a iq det(A i,q )<br />

i=1<br />

Diese Formeln sind auch unter dem Namen Laplace–Entwicklungssatz bekannt.<br />

⊓⊔<br />

Beispiel 4.3.6. Wir berechnen die Determinante von A =<br />

⎛ ⎞<br />

1 2 3<br />

⎝4 5 6⎠ durch Ent-<br />

7 8 9<br />

wicklung nach der zweiten Zeile:


4.3 Weitere Rechenverfahren für Determinanten und Inverse 109<br />

⎛ ⎞ ⎛ ⎞<br />

1 2 3<br />

4 5 6<br />

det ⎝ 4 5 6 ⎠ = − det ⎝ 1 2 3 ⎠<br />

7 8 9<br />

7 8 9<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

4 0 0 0 5 0 0 0 6<br />

= − det ⎝ 1 2 3 ⎠ − det ⎝ 1 2 3 ⎠ − det ⎝ 1 2 3 ⎠<br />

7 8 9 7 8 9 7 8 9<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

4 0 0 5 0 0 6 0 0<br />

= − det ⎝ 1 2 3 ⎠ + det ⎝ 2 1 3 ⎠ − det ⎝ 3 1 2 ⎠<br />

7 8 9 8 7 9 9 7 8<br />

( ) ( ) ( )<br />

2 3<br />

1 3<br />

1 2<br />

= −4 det + 5 det − 6 det<br />

8 9<br />

7 9<br />

7 8<br />

= (−4) · det(A 2,1 ) + 5 · det(A 2,2 ) − 6 · det(A 2,3 )<br />

= (−4) · (−6) + 5 · (−12) − 6 · (−6) = 0.<br />

⊓⊔<br />

Die Laplace-Formeln sind für praktische Berechnungen immer dann von Interesse,<br />

wenn es Zeilen oder Spalten mit vielen Nullen gibt.<br />

Beispiel 4.3.7.<br />

liefert<br />

⎛<br />

⎞<br />

c 1 ∗ ∗ . . . ∗<br />

0 c 2 ∗ . . . ∗<br />

A =<br />

0 0 . . . . ..<br />

. .<br />

⎜<br />

⎝<br />

. ⎟<br />

. . .. cn−1 ∗ ⎠<br />

0 0 . . . 0 c n<br />

det(A) = c 1 det(A 1,1 ) = c 1 c 2 det(. . .) = . . . = c 1 c 2 · · · c n .<br />

⊓⊔<br />

Die folgenden beiden Bemerkungen zeigen, dass man die Determinanten auch<br />

dazu benutzen kann, geschlossene Formeln (im Gegensatz zu Algorithmen, d.h. Berechnungsvorschriften)<br />

für inverse Matrizen und Lösungen von linearen Gleichungssystemen<br />

(im Falle eindeutiger Lösbarkeit) anzugeben. Insbesondere sieht man, dass<br />

für K = R die Lösungsformeln differenzierbar von den Daten abhängen.<br />

Bemerkung 4.3.8 (Berechnen der Inversen mit der Cramerschen Regel).<br />

Sei<br />

⎛<br />

⎞<br />

a 11 · · · a 1n<br />

⎜<br />

⎟<br />

A = ⎝ . . ⎠ ∈ Mat(n × n, K).<br />

a n1 · · · a nn<br />

Man definiert die adjunkte Matrix A adj ∈ Mat(n × n, K) zu A durch<br />

A adj<br />

pq = (−1) p+q det(A q,p )<br />

und berechnet das Matrizenprodukt von A und A adj via<br />

(A A adj ) iq =<br />

n∑<br />

a ij (−1) q+j det(A q,j ).<br />

j=1


110 4 Determinanten<br />

1. Fall: i = q. Entwickle det(A) nach der q-ten Zeile. Dann sieht man<br />

(A A adj ) qq =<br />

n∑<br />

a qj (−1) q+j det(A q,j ) = det(A).<br />

j=1<br />

2. Fall: i ≠ q. Betrachte die Matrix<br />

⎛<br />

⎞<br />

a 11 · · · a 1n<br />

. .<br />

a i1 · · · a in<br />

i–te Zeile<br />

A ′ =<br />

. .<br />

a i1 · · · a in<br />

q–te Zeile<br />

⎜<br />

⎟<br />

⎝ . . ⎠<br />

a n1 · · · a nn<br />

und entwickle det(A ′ ) nach der q-ten Zeile. Es ergibt sich<br />

weil A q,j = A ′ q,j gilt.<br />

0 = det(A ′ ) =<br />

n∑<br />

a ij (−1) j+q det(A ′ q,j) = (A A adj ) iq<br />

j=1<br />

Zusammen erhalten wir A A adj = det(A) · 1 und dies führt auf die Cramersche<br />

Regel:<br />

A −1 =<br />

1<br />

det(A) Aadj falls det(A) ≠ 0.<br />

Für 2 × 2-Matrizen liefert die Cramersche Regel die folgende Formel<br />

( ) −1<br />

a b<br />

=<br />

c d<br />

1<br />

ad − bc<br />

( ) d −b<br />

.<br />

−c a<br />

⊓⊔<br />

Bemerkung 4.3.9 (Cramersche Regel für Gleichungssysteme). Sei A ∈<br />

Mat(n × n, K) invertierbar und b ∈ K n (Spaltenvektor). Wir betrachten das lineare<br />

Gleichungssystem Ax = b. Mit der Cramerschen Regel 4.3.8 erhält man<br />

was sich in Koordinaten als<br />

x k =<br />

1<br />

det(A)<br />

j=1<br />

x = A −1 b =<br />

1<br />

det(A) (Aadj )b,<br />

n∑<br />

(A adj 1<br />

) kj b j =<br />

det(A)<br />

n∑<br />

(−1) k+j det(A j,k )b j<br />

für k = 1, . . . , n schreiben lässt. Entwickelt man jetzt die Matrix<br />

⎛<br />

⎞<br />

a 11 · · · b 1 · · · a 1n<br />

A (k) := ⎜ . . .<br />

⎟ ∈ Mat(n × n, K),<br />

⎝ a n1 · · · b<br />

}{{} n · · · a nn<br />

⎠<br />

k–te Spalte<br />

j=1


4.3 Weitere Rechenverfahren für Determinanten und Inverse 111<br />

in der die k-te Spalte von A durch b ersetzt ist, nach der k–ten Spalte, so findet<br />

man<br />

n∑<br />

det(A (k) ) = (−1) k+j det(A j,k )b j ,<br />

also<br />

j=1<br />

x k = det(A(k) )<br />

det(A) .<br />

⊓⊔<br />

Übungen zu Abschnitt 4.3<br />

Übung 4.3.1. Berechne die Determinante der Matrix<br />

⎛ ⎞<br />

1 2 7<br />

A = ⎝ 2 8 10 ⎠<br />

7 10 13<br />

(a) über die Definition ∑ σ∈S 3<br />

sign(σ)a 1σ(1) a 2σ(2) a 3σ(3) ,<br />

(b) mit der Regel von Sarrus,<br />

(c) mit Zeilenumformungen.<br />

Übung 4.3.2. Berechne<br />

⎛ ⎞<br />

−7 3 8 1<br />

det ⎜ 1 1 0 1<br />

⎟<br />

⎝ 4 2 −1 3 ⎠<br />

5 1 0 9<br />

(i) mit Zeilenumformungen<br />

(ii) durch Entwicklung nach Zeilen oder Spalten.<br />

Übung 4.3.3. Gegeben sei die Matrix A ∈ Mat(n × n, R) mit<br />

⎧<br />

⎨ 3 für i ≤ j<br />

a ij = 101 für i = n, j = 1<br />

⎩<br />

0 sonst.<br />

Berechne det(A).<br />

Übung 4.3.4. Löse das folgende Gleichungssystem mit Hilfe der Cramerschen Regel:<br />

−x 1 + x 2 + 2x 3 = 0<br />

2x 1 + 4x 2 + 3x 3 = 1<br />

2x 1 + 3x 2 + x 3 = 1.<br />

Übung 4.3.5. Gegeben sei die Matrix<br />

⎛<br />

2 4 0<br />

⎞<br />

A = ⎝ 3 5 4 ⎠ .<br />

−1 −1 −3<br />

Berechne A −1 mit der Cramer’schen Regel.


112 4 Determinanten<br />

Übung 4.3.6. Die Matrix A n ∈ Mat(n × n, R) sei gegeben durch A n = (a kj ) k,j=1,...,n mit<br />

⎧<br />

1 für k = 1<br />

⎪⎨<br />

−j für k = j + 1<br />

a kj =<br />

k für k = j − 1<br />

⎪⎩<br />

0 sonst.<br />

Zeige durch Induktion, dass für n ≥ 2 gilt: det(A n) = n! (Hinweis: Überprüfe die Formel<br />

zuerst für die Fälle n = 2 und n = 3).<br />

Übung 4.3.7. Bestimme alle<br />

⎛<br />

⎞<br />

x 11 x 12 x 13<br />

X = ⎝ x 21 x 22 x 23<br />

⎠ ∈ Mat(3 × 3, R)<br />

x 31 x 32 x 33<br />

mit<br />

⎛ ⎞ ⎛ ⎞<br />

1 2 3 1 0 −1<br />

X ⎝ 4 3 2 ⎠ = ⎝ 0 0 0 ⎠ .<br />

2 −1 −4 0 1 2<br />

Übung 4.3.8. Berechne die Determinante der folgenden n × n Matrix:<br />

⎛<br />

⎞<br />

λ 0 . . . 0 n<br />

1 · · : n − 1<br />

0 · · · :<br />

⎜ · · · 0 3<br />

.<br />

⎟<br />

⎝ : · · λ 2 ⎠<br />

0 . . . 0 1 λ − 1<br />

Hinweis: Entwickle nach der letzten Spalte.<br />

Übung 4.3.9. Es seien A ∈ Mat(n × n, K) eine invertierbare Matrix und b ∈ K n . Dann hat<br />

das LGS Ax = b die eindeutige Lösung x = A −1 b ∈ K n . Diese Lösungsmethode kann auf<br />

den Fall von nicht-invertierbaren und sogar nicht-quadratischen Koeffizientenmatrizen A<br />

verallgemeinert werden.<br />

Es seien A ∈ Mat(n × m, K) und B ∈ Mat(m × n, K) mit ABA = A.<br />

(a) Man berechne B, wenn n = m und A invertierbar ist.<br />

(b) Man gebe ein Beispiel einer Matrix A ∈ Mat(n × m, K), für die es mehrere Matrizen<br />

B ∈ Mat(m × n, K) mit ABA = A gibt.<br />

(c) Jetzt seien n, m und A ∈ Mat(n × m, K) beliebig. Ferner sei b ∈ K n . Man betrachte<br />

das LGS Ax = b in K m und zeige:<br />

(i) Wenn das LGS Ax = b lösbar ist, dann ist x := Bb eine Lösung.<br />

(ii) Das LGS Ax = b ist genau dann lösbar, wenn ABb = b.<br />

(iii)Wenn Ax = b lösbar ist, ist der Vektor x := Bb + (1 m − BA)y eine Lösung für<br />

jedes y ∈ K m .<br />

(iv)Wenn Ax = b lösbar ist, gibt es zu jeder Lösung x 0 ein y 0 ∈ K m , so dass x 0 =<br />

Bb + (1 m − BA)y 0.<br />

[Bemerkung: (iii) und (iv) zeigen, dass jede Lösung des lösbaren LGS Ax = b ist von<br />

der Form x = Bb + (1 m − BA)y mit y ∈ K m beliebig.]<br />

(d) Es sei A ∈ Mat(n × m, K) beliebig und b ∈ K n , so dass Ax = b lösbar ist.<br />

(i) Man wende (c) an, um zu zeigen: Wenn es eine Matrix B ∈ Mat(m × n, K) gibt, so<br />

dass BA = 1 m und ABb = b, dann ist die Lösung von Ax = b eindeutig bestimmt.<br />

Man schreibe die Lösung explizit.<br />

(ii) Man interpretiere das Ergebnis in (i) durch die zu A gehörige lineare Abbildung.<br />

Übung 4.3.10. Man bestimme alle<br />

⎛<br />

⎞<br />

x 11 x 12 x 13<br />

X = ⎝ x 21 x 22 x 23<br />

⎠ ∈ Mat(3 × 3, R)<br />

x 31 x 32 x 33


4.3 Weitere Rechenverfahren für Determinanten und Inverse 113<br />

mit<br />

⎛<br />

1 4 2<br />

⎞ ⎛ ⎞<br />

1 0 0<br />

⎝ 2 3 −1 ⎠ X = ⎝<br />

3 2 −4<br />

0 0 1 ⎠ .<br />

−1 0 2<br />

Übung 4.3.11. Man bestimme alle<br />

⎛<br />

⎞<br />

x 11 x 12 x 13<br />

X = ⎝ x 21 x 22 x 23<br />

⎠ ∈ Mat(3 × 3, R)<br />

x 31 x 32 x 33<br />

mit<br />

Übung 4.3.12. Man berechne<br />

(a) mit der Regel von Sarrus;<br />

(b) mit Zeilenumformen.<br />

⎛<br />

1 4 2<br />

⎞ ⎛ ⎞<br />

1 0 0<br />

⎝ 2 3 −1 ⎠ X = ⎝<br />

3 2 −4<br />

0 0 1 ⎠ .<br />

−1 0 2<br />

⎛ ⎞<br />

2 2 10<br />

det ⎝ 2 5 7 ⎠<br />

−3 −1 2<br />

Übung 4.3.13. Sei A ∈ Mat(n×n, K). Man berechne die Determinante der 2n×2n-Matrix<br />

( ) A A<br />

det<br />

−A A<br />

als Funktion von det(A).<br />

Übung 4.3.14. Gegeben sei die Matrix<br />

⎛ ⎞<br />

1 2 4 8 16<br />

0 1 2 4 8<br />

A =<br />

⎜0 0 1 2 4<br />

⎟<br />

⎝0 0 0 1 2 ⎠ .<br />

0 0 0 0 1<br />

(a) Bestimme die Inverse A −1 von A.<br />

(b) Man löse das lineare Gleichungssystem Ax = b in R 5 , wobei b = (1, 1, 1, 1, 1) t<br />

Spaltenvektor mit allen Komponenten gleich 1 ist .<br />

der<br />

Übung 4.3.15. Man zeige: die Determinante einer Matrix A ∈ Mat(n × n, K) mit mehr<br />

als n 2 − n Einträge gleich Null ist Null.<br />

Übung 4.3.16. Eine Matrix A = (a ij) n i,j=1 ∈ Mat(n×n, K) heißt schiefsymmetrisch, wenn<br />

a ij = −a ji für alle i, j = 1, . . . , n gilt.<br />

Man zeige, dass die Determinante einer schiefsymmetrischen Matrix A ∈ Mat(n×n, K)<br />

für K = R oder K = C gleich Null ist, wenn n ungerade ist.<br />

[Hinweis: Man betrachte die transponierte Matrix von A]<br />

Übung 4.3.17. Die Zahlen 20604, 53227, 25755, 20927 und 78421 sind durch 17 teilbar.<br />

Man zeige, dass auch die Determinante der Matrix<br />

⎛ ⎞<br />

2 0 6 0 4<br />

5 3 2 2 7<br />

A =<br />

⎜2 5 7 5 5<br />

⎟<br />

⎝2 0 9 2 7⎠<br />

7 8 4 2 1<br />

durch 17 teilbar ist.


114 4 Determinanten<br />

Übung 4.3.18 (Schiefsymmetrische Matrizen). Eine Matrix A ∈ K n×n heißt schiefsymmetrisch,<br />

falls A ⊤ = −A gilt.<br />

Man zeige, dass die Determinante einer schiefsymmetrischen Matrix A ∈ K n×n für K = R<br />

oder C gleich Null ist, wenn n ungerade ist.<br />

Übung 4.3.19 (Laplaceentwicklung). Zeige per Induktion nach n:<br />

⎛<br />

⎞<br />

λ 0 . . . 0 a n<br />

−1 · · : a n−1<br />

det<br />

0 · · · :<br />

⎜ · · · 0 a 3<br />

= λ n + a 1λ n−1 + · · · + a n−1λ + a n.<br />

⎟<br />

⎝ : · · λ a 2<br />

⎠<br />

0 . . . 0 −1 λ + a 1<br />

Übung 4.3.20. Löse das folgende Gleichungssystem mit Hilfe der Cramerschen Regel:<br />

−x 1 + x 2 + 2x 3 = 0<br />

2x 1 + 4x 2 + 3x 3 = 1<br />

2x 1 + 3x 2 + x 3 = 1.<br />

Übung 4.3.21. Es seien A ∈ Mat(n × m, K) und B ∈ Mat(m × n, K). Man zeige, dass<br />

( ) ( )<br />

1n A 1m B<br />

det(1 n − AB) = det = det = det(1<br />

B 1 m A 1 m − BA).<br />

n<br />

Übung 4.3.22 (Blockmatrizen). Seien A, B, C, D ∈ Mat(n × n, K).<br />

1. Zeigen Sie anhand eines Beispiels, dass die Gleichung<br />

( ) A B<br />

det = det(AD − CB) (∗)<br />

C D<br />

im Allgemeinen nicht gilt.<br />

2. Beweisen Sie (∗) für den Fall, dass A invertierbar ist und mit C kommutiert, d.h.<br />

AC = CA.<br />

Hinweis: Multiplizieren Sie die obige Matrix von links mit einer geeigneten Matrix der<br />

Form ( 1 n 0<br />

X 1 n<br />

)<br />

.<br />

Übung 4.3.23. Gibt es eine Menge M von quadratischen Matrizen mit folgenden Eigenschaften?<br />

(1) M ist unendlich;<br />

(2) jede Matrix in M ist nicht-invertierbar;<br />

(3) M ist eine Gruppe bezüglich Multiplikation.<br />

Warum? Welche ist die Antwort, wenn wir (2) durch folgende Eigenschaft (2 ′ ) ersetzen?<br />

Dabei ist<br />

(2 ′ ) Eine Matrix E in M ist invertierbar, und alle Matrizen in M \ {E} sind nichtinvertierbar.<br />

Übung 4.3.24. Sei A ∈ Mat(n × n, R) invertierbar. Man zeige: Wenn die Summe der<br />

Einträge jeder Zeile von A dieselbe Zahl S ≠ 0 ist, dann ist die Summe der Einträge jeder<br />

Zeile von A −1 dieselbe Zahl 1/S.


Teil II<br />

Vektorräume und ihre Abbildungen


Vorbemerkung<br />

In diesem Teil der Vorlesung abstrahieren wir die n-dimensionalen Zahlenräume<br />

und ihre Unterräume zu allgemeinen Vektorräumen. Wir übertragen Begriffe wie<br />

lineare Abbildung, Basis und Dimension in diesen Kontext und werden sehen, dass<br />

die Mehrzahl der Resultate hier seine Entsprechungen hat, solange man sich auf<br />

den Fall endlicher Dimension einschränkt. Auf diese Weise werden auch Mengen<br />

wie Mat(m × n, K) oder Hom K (K n , K m ) für die Methoden der Linearen Algebra<br />

zugänglich, es handelt sich auch dabei um endlichdimensionale Vektorräume. Anderen<br />

Vektorräumen begegnet man in der Analysis, z.B: Räumen von stetigen Funktionen.<br />

Diese Räume sind im Allgemeinen nicht endlichdimensional. Nichtsdestotrotz<br />

sind die fundamentalen Begriffsbildungen wie lineare Abbildungen, lineare Unterräume<br />

und lineare Unabhängigkeit von Teilmengen auch in solchen Vektorräumen<br />

gewinnbringend einsetzbar.<br />

Jeder endlich dimensionale Vektorraum kann über eine Basis mit einem n-<br />

dimensionalen Zahlenraum identifiziert werden und so lassen sich alle Rechentechniken,<br />

die in Teil I entwickelt wurden, auch für allgemeine endlich dimensionale Vektorräume<br />

anwenden. Es werden in diesem abstrakten Kontext aber auch zusätzliche<br />

Konzepte sichtbar, die neue Anwendungen erschließen und bekannte Rechentechniken<br />

in neuem Licht erscheinen lassen. Wir besprechen insbesondere Quotientenvektorräume,<br />

duale Vektorräume und direkte Summen von Vektorräumen.<br />

In Kapitel 6 beginnen wir eine systematische Untersuchung linearer Abbildungen<br />

zwischen endlich dimensionalen Vektorräumen. Besonderes Augenmerk richten<br />

wir dabei auf die Darstellung durch Matrizen bei vorgegebenen Basen für die<br />

Vektorräume. Gesucht werden dabei immer Basen für die man möglichst einfache<br />

Matrizen, z.B. Diagonalmatrizen, erhält. Diese Untersuchungen führen auf die Begriffe<br />

Eigenwert und Eigenvektor. Das Hauptergebnis wird der Satz von der Jordan-<br />

Normalform sein, der allerdings erst in Kapitel 7 bewiesen wird.


5<br />

Vektorräume<br />

In diesem Kapitel fassen wir die wesentlichen Eigenschaften der n-dimensionalen<br />

Zahlenräume zu einem Axiomensystem zusammen und gewinnen so den Begriff des<br />

Vektorraums (vgl. die Rechenregeln in Abschnitt 1.3). Dies erlaubt insbesondere das<br />

genauere Studium von Strukturen wie Räumen von Matrizen oder linearen Abbildungen,<br />

die schon bei den Untersuchungen von linearen Unterräumen der Zahlenräume<br />

aufgetaucht waren. Weitere Anwendungen dieses Konzepts finden sich in der Analysis<br />

und später in praktisch allen Gebieten der Mathematik.<br />

Neben den schon für lineare Unterräume des K n betrachteten Eigenschaften studieren<br />

wir auch abstraktere Konstruktionen wie Quotientenräume, Dualräume und<br />

direkte Summen.<br />

5.1 Vektorräume und Homomorphismen<br />

Definition 5.1.1. Sei K ein Körper. Ein K-Vektorraum ist eine Gruppe (V, +)<br />

zusammen einer Abbildung · : K × V → V, (c, v) ↦→ cv, genannte skalare Multiplikation<br />

mit folgenden Eigenschaften:<br />

v + w = w + v ∀v, w ∈ V (Kommutativgesetz)<br />

c(v + w) = cv + cw ∀v, w ∈ V, c ∈ K (1. Distributivgesetz)<br />

(c + d)v = cv + dv ∀v ∈ V, c, d ∈ K (2. Distributivgesetz)<br />

c(dv) = (cd)v ∀v ∈ V, c, d ∈ K<br />

1v = v<br />

Man bezeichnet das neutrale Element bezüglich der Addition + in V mit 0 und<br />

nennt es die Null des Vektorraums. Das additive Inverse von v ∈ V wird mit −v<br />

bezeichnet. Man nennt es auch das Negative von v.<br />

Beispiel 5.1.2. (i) (K n , +, ·) mit der skalaren Multiplikation aus Definition 1.3.1<br />

ist K-Vektorraum.<br />

(ii) Jeder lineare Unterraum U von K n ist bezüglich der von K n geerbten Addition<br />

und skalaren Multiplikation ein K-Vektorraum.<br />

(iii) Mat(m × n, K) mit der komponentenweisen Addition und komponentenweisen<br />

skalaren Multiplikation ist ein K-Vektorraum.<br />

(iv) Hom K (K n , K m ) mit den durch<br />

(ϕ + ψ)(x) := ϕ(x) + ψ(x)<br />

(cϕ)(x) := c ( ϕ(x) )


120 5 Vektorräume<br />

für x ∈ K n definierten Verknüpfungen (man spricht von der punktweisen<br />

Addition und skalaren Multiplikation) ist ein K-Vektorraum.<br />

⊓⊔<br />

Beispiel 5.1.3. Sei M eine Menge und V ein K-Vektorraum. Dann ist die Menge<br />

W aller Abbildungen von M nach V bzgl. der durch<br />

(f + g)(m) := f(m) + g(m)<br />

(cf)(m) := c ( f(m) )<br />

für m ∈ M definierten punktweisen Verknüpfungen ein K-Vektorraum<br />

⊓⊔<br />

In diesem Beispiel könnte man als M ein Intervall I in R wählen und V = R.<br />

Dann erhält man den Vektorraum aller reellwertigen Funktionen auf I. Aus den<br />

Eigenschaften, die man in der Analysis für stetige und differenzierbare Funktionen<br />

beweist, liest man leicht ab, dass auch die Menge der stetigen Funktionen f : I → R<br />

und (falls I ein offenes Intervall ist) die Menge der differenzierbaren Funktionen<br />

f : I → R bezüglich der punktweisen Verknüpfungen reelle Vektorräume sind.<br />

Die folgende Bemerkung lässt sich genau wie Bemerkung 1.1.4 einsehen (Übung):<br />

Bemerkung 5.1.4. Sei K ein Körper, V ein K-Vektorraum und v ∈ V . Dann gilt<br />

0v = 0 und (−1)v = −v.<br />

⊓⊔<br />

Man kann das Konzept des linearen Unterraums problemlos auf den Fall abstrakter<br />

Vektorräume übertragen und reduziert so für viele Beispiele den Nachweis der<br />

Gültigkeit der Rechenregeln für Vektorräume auf den Nachweis, dass die betrachtete<br />

Teilmenge abgeschlossen unter der Addition und der skalaren Multiplikation<br />

des Vektorraums ist. Dies gilt zum Beispiel für die Räume stetiger oder differenzierbarer<br />

Funktionen, bei denen man sich nur klar machen muss, dass Summen<br />

und skalare Vielfache von stetigen/differenzierbaren Funktionen selbst wieder stetig/differenzierbar<br />

sind.<br />

Definition 5.1.5. Sei (V, +, ·) ein K-Vektorraum. Eine nichtleere Teilmenge U ⊆ V<br />

heißt Untervektorraum (oder auch ein linearer Unterraum), wenn:<br />

(1) u + v ∈ U für alle u, v ∈ U.<br />

(2) cu ∈ U für alle c ∈ K, u ∈ U.<br />

Bemerkung 5.1.6. Sei (V, +, ·) ein K-Vektorraum und U ⊆ V ein Untervektorraum.<br />

Dann ist (U, +, ·) mit den Einschränkungen der Operationen ein K-<br />

Vektorraum. Um das einzusehen, reicht es nachzuweisen, dass sowohl die Null in<br />

V als auch die additiven Inversen von Elementen aus U in U liegen, denn die Rechenregeln<br />

gelten ja automatisch, weil V ein Vektorraum ist. Nach Bemerkung 5.1.4<br />

haben wir aber 0 = 0u ∈ U und −u = (−1)u ∈ U.<br />

⊓⊔<br />

Beispiel 5.1.7. Die Menge der oberen Dreiecksmatrizen<br />

⎧⎛<br />

⎞⎫<br />

⎪⎨ ∗ · · · ∗ ⎪⎬<br />

⎜<br />

⎝<br />

. ..<br />

⎟<br />

. ⎠ ⊆ Mat(n × n, K)<br />

⎪⎩ ⎪⎭<br />

0 ∗<br />

ist K-Untervektorraum von Mat(n × n, K).<br />

⊓⊔


5.1 Vektorräume und Homomorphismen 121<br />

Definition 5.1.8. Seien (V, +, ·) und (W, ⊕, ⊙) zwei K-Vektorräume 1 . Eine Abbildung<br />

ϕ : V → W heißt K-Vektorraum-Homomorphismus oder auch K-linear,<br />

wenn gilt:<br />

ϕ(c 1 v 1 + c 2 v 2 ) = c 1 ⊙ ϕ(v 1 ) ⊕ c 2 ⊙ ϕ(v 2 ) ∀c 1 , c 2 ∈ K, v 1 , v 2 ∈ V.<br />

Die Menge aller K-Vektorraum-Homomorphismen von V nach W bezeichnen wir<br />

mit Hom K (V, W ). Wenn V = W , schreiben wir auch End K (V ) für Hom K (V, V ) und<br />

nennen die Elemente dieser Menge Endomorphismen von V . Ein K-Vektorraum-<br />

Homomorphismus ϕ heißt K-Vektorraum-Isomorphismus, wenn ϕ bijektiv ist.<br />

Bemerkung 5.1.9. (vgl. Satz 3.2.4) Wenn ϕ: V → W ein K-Vektorraum-Isomorphismus<br />

ist, dann ist auch die Umkehrabbildung ϕ −1 : W → V K-linear, d.h. ein K-<br />

Vektorraum-Isomorphismus (vgl. Satz 3.2.4): Um das einzusehen, betrachten wir<br />

w 1 , w 2 ∈ W und v 1 , v 2 ∈ V mit ϕ(v 1 ) = w 1 und ϕ(v 2 ) = w 2 . Dann gilt<br />

ϕ −1 (c 1 w 1 + c 2 w 2 ) = ϕ −1 (c 1 ϕ(v 1 ) + c 2 ϕ(v 2 ))<br />

Wenn V = W ist, zeigt dies, dass die Menge<br />

= ϕ −1 (ϕ(c 1 v 1 + c 2 v 2 ))<br />

= c 1 v 1 + c 2 v 2<br />

= c 1 ϕ −1 (w 1 ) + c 2 ϕ −1 (w 2 ).<br />

GL(V ) := {ϕ ∈ End K (V ) | ϕ bijektiv}<br />

bzgl. der Verknüpfung von Abbildungen eine Gruppe ist. Man nennt GL(V ) die<br />

allgemeine lineare Gruppe von V .<br />

⊓⊔<br />

Beispiel 5.1.10. Die Abbildung<br />

Φ: Mat(m × n, K) → Hom K (K n , K m )<br />

A ↦→ ϕ A<br />

aus Satz 3.1.5 ist ein K-Vektorraum-Isomorphismus. Dazu muss man nur die K-<br />

Linearität von Φ nachweisen, die aber sofort aus der Definition folgt (Übung: Nachprüfen!).<br />

⊓⊔<br />

Bemerkung 5.1.11. Seien V und W zwei K-Vektorräume. Dann ist Hom K (V, W )<br />

ein Untervektorraum des K-Vektorraumes aller Abbildungen von V nach W . Um<br />

das einzusehen, betrachten wir ϕ, ψ ∈ Hom K (V, W ) und r, s ∈ K. Für c 1 , c 2 ∈ K<br />

und v 1 , v 2 ∈ V zeigt dann die Rechnung<br />

(rϕ + sψ)(c 1 v 1 + c 2 v 2 ) = rϕ(c 1 v 1 + c 2 v 2 ) + sψ(c 1 v 1 + c 2 v 2 )<br />

die Behauptung.<br />

= rc 1 ϕ(v 1 ) + rc 2 ϕ(v 2 ) + sc 1 ψ(v 1 ) + sc 2 ψ(v 2 )<br />

= c 1 (rϕ(v 1 ) + sψ(v 1 )) + c 2 (rϕ(v 2 ) + sψ(v 2 ))<br />

= c 1 (rϕ + sψ)(v 1 ) + c 2 (rϕ + sψ)(v 2 )<br />

1 Normalerweise lässt man die Punkte für die Multiplikation ganz weg und benutzt immer<br />

das gleiche Additionszeichen +. Hier dienen die unterschiedlichen Symbole nur dazu, zu<br />

betonen, dass auf der linken und der rechten Seite der definierenden Gleichung für die<br />

Homomorphie-Eigenschaft unterschiedliche Verknüpfungen zu benutzen sind.<br />

⊓⊔


122 5 Vektorräume<br />

Die folgende Proposition ist eine Verallgemeinerung der ersten beiden Teile<br />

von Proposition 3.2.1 und wird auch genauso bewiesen (Übung: Durchführen!) wie<br />

3.2.1(i) und 3.2.1(ii).<br />

Proposition 5.1.12. Sei ϕ ∈ Hom K (V, W ) eine K-lineare Abbildung und E ⊆<br />

V, F ⊆ W lineare Unterräume. Dann gilt:<br />

(i) ϕ(E) ⊆ W ist ein linearer Unterraum.<br />

(ii) ϕ −1 (F ) = {x ∈ V | ϕ(v) ∈ F } ⊆ V ist ein linearer Unterraum.<br />

Zwei Spezialfälle von Proposition 5.1.12 spielen eine besondere Rolle und erhalten<br />

eigene Namen.<br />

Definition 5.1.13. Sei ϕ: V → W ein K-Vektorraum-Homomorphismus. Dann<br />

heißt ϕ(V ) das Bild von ϕ und ϕ −1 ({0}) der Kern von ϕ. Die beiden Unterräume<br />

werden mit im (ϕ) und ker (ϕ) bezeichnet 2 .<br />

Proposition 5.1.14. Sei ϕ: V → W ein K-Vektorraum-Homomorphismus. Dann<br />

gilt<br />

(i) ϕ ist surjektiv genau dann, wenn im (ϕ) = W .<br />

(ii) ϕ ist injektiv genau dann, wenn ker (ϕ) = {0} (vgl. Proposition 3.2.2).<br />

Beweis. Der erste Teil folgt sofort aus der Definition. Wenn ϕ injektiv ist, hat die<br />

Null in W nur ein Urbild, also besteht der Kern von ϕ nur aus der Null in V .<br />

Umgekehrt sei ker (ϕ) = {0} und ϕ(v) = ϕ(v ′ ). Dann gilt<br />

ϕ(v − v ′ ) = ϕ(v) − ϕ(v ′ ) = 0<br />

und somit v = v ′ . Dies zeigt, dass ϕ injektiv ist.<br />

⊓⊔<br />

Übungen zu Abschnitt 5.1<br />

Übung 5.1.1. Sei K ein Körper. Zeige: (Mat(m × n, K), +, ·) mit der komponentenweisen<br />

Addition und skalaren Multiplikation ist ein K-Vektorraum.<br />

Übung 5.1.2. Sei V der R-Vektorraum aller reellen Funktionen f : R → R. Weiter setze<br />

und<br />

Sind U 1 und U 2 Untervektorräume?<br />

U 1 = {f ∈ V : f differenzierbar, f ′ (0) = 0}<br />

U 2 = {f ∈ V : f differenzierbar, f ′ (0) = 1}.<br />

Übung 5.1.3. Sei V ein K-Vektorraum sowie U 1 und U 2 zwei Untervektorräume von V .<br />

(i) Zeige, dass U 1 ∩ U 2 ein Untervektorraum von V ist.<br />

(ii) Zeige, dass die Summe U 1 + U 2 := {u 1 + u 2 | u 1 ∈ U 1, u 2 ∈ U 2} von U 1 und U 2 ein<br />

Untervektorraum von V ist.<br />

Übung 5.1.4. Eine Matrix A ∈ Mat(n × n, K) heißt schiefsymmetrisch, wenn A = −A ⊤ .<br />

1. Man zeige, dass die Menge SSym(n, K) aller schiefsymmetrischen Matrizen A ∈<br />

Mat(n × n, K) ein Untervektorraum von (Mat(n × n, K), +, ·) mit der koeffizientenweisen<br />

Addition und skalaren Multiplikation ist.<br />

2. Man berechne die Dimension von SSym(n, R) als R-Vektorraum.<br />

2 im steht für image und ker für kernel - die englischen Bezeichnungen haben sich jenseits<br />

elementarer deutschsprachiger Lehrbücher praktisch universell durchgesetzt.


5.2 Basis und Dimension 123<br />

5.2 Basis und Dimension<br />

In diesem Abschnitt verallgemeinern wir die Begriffe, die wir in Kapitel 2 im Zuge<br />

unserer Untersuchung von von Lösungsmengen linearer Gleichungssysteme für lineare<br />

Unterräume von K n gefunden haben, auf allgemeine K-Vektorräume. Es wird<br />

sich herausstellen, dass vieles, auch Formulierungen von Sätzen und deren Beweise,<br />

problemlos (oft fast wörtlich) übertragen werden kann.<br />

Die Existenz von Addition und skalarer Multiplikation erlaubt es, auf beliebigen<br />

K-Vektorräumen Linearkombinationen ∑ m<br />

j=1 c jv j zu bilden 3 . Dies ermöglicht die<br />

unmittelbare Verallgemeinerung der Begriffe linearer Spann, Lineare Abhängigkeit<br />

und Basis aus den Definitionen 2.1.4, 2.2.1 und 2.3.1 auf allgemeine K-Vektorräume.<br />

Definition 5.2.1. Sei (V, +, ·) ein K-Vektorraum und A ⊆ V eine Teilmenge. Dann<br />

heißt<br />

{ ∑<br />

m ∣ }<br />

∣∣<br />

span(A) := c j a j m ∈ N, aj ∈ A, c j ∈ K<br />

j=1<br />

der lineare Spann (oder die lineare Hülle) von A. Weiter heißt A linear<br />

abhängig, wenn es eine echte Teilmenge A ′ A mit span(A ′ ) = span(A) gibt.<br />

Andernfalls heißt A linear unabhängig. Schließlich ist A eine Basis für V , wenn<br />

A linear unabhängig ist und V aufspannt (d.h. span(A) = V ).<br />

Bemerkung 5.2.2. In der Definition 2.3.1 einer Basis für einen linearen Unterraum<br />

von K n haben wir von vorneherein angenommen, dass eine solche Basis endlich<br />

ist. Korollar 2.3.5 zeigte dann, dass es so eine (endliche) Basis wirklich gibt.<br />

Das Argument im Beweis von Satz 2.4.1 liefert mithilfe des Tests auf lineare Unabhängigkeit<br />

2.2.4 außerdem, dass jede linear unabhängige Teilmenge {u 1 , . . .} von<br />

K n endlich ist und zwar mit höchstens so vielen Elementen, wie sie eine beliebige<br />

endliche Basis hat (Übung: Man verifiziere dies!). Da es für K n eine (kanonische)<br />

Basis mit n Elementen gibt, können linear unabhängige Teilmengen von K n also<br />

höchstens n Elemente haben. Man hätte also insbesondere auf die Annahme, dass<br />

Basen endlich sind, verzichten können.<br />

Es sei nochmals betont, dass wir in Definition 5.2.1 die Endlichkeit einer Basis<br />

nicht voraussetzen.<br />

⊓⊔<br />

Die folgende Variante des Tests auf lineare Unabhängigkeit erhält man wie das<br />

Korollar 2.2.4, in dem man wörtlich den Beweis von Satz 2.2.3 überträgt (Übung:<br />

Durchführen!):<br />

Satz 5.2.3 (Test auf lineare Unabhängigkeit).<br />

A ⊆ V . Dann sind folgende Aussagen äquivalent:<br />

(1) A ist linear unabhängig.<br />

(2) Für v 1 , . . . , v k ∈ A verschieden und c 1 , . . . , c k ∈ K mit<br />

c 1 = . . . = c k = 0.<br />

Sei V ein K-Vektorraum und<br />

k∑<br />

c j v j = 0 folgt, dass<br />

3 Es sei hier nochmals explizit darauf hingewiesen, dass die hier betrachteten Summen<br />

immer endlich sind. Um unendliche Summen bilden zu können, bräuchte man Grenzwertbegriffe,<br />

für allgemeine Körper nicht zur Verfügung stehen.<br />

j=1


124 5 Vektorräume<br />

Die Beweisidee für Satz 5.2.3 lässt sich ganz einfach zusammenfassen: Man kann<br />

jedes v j mit c j ≠ 0 durch die anderen v i ’s ausdrücken und daher aus A entfernen,<br />

ohne den Spann zu verkleinern.<br />

Mit Satz 5.2.3 erhält man auch eine Verallgemeinerung von Satz 2.3.3:<br />

Satz 5.2.4. Sei V ein K-Vektorraum und B ⊆ V . Dann sind folgende Aussagen<br />

äquivalent:<br />

(1) B ist eine Basis für V .<br />

(2) Jedes v ∈ V lässt sich in eindeutiger Weise als Linearkombination von Elementen<br />

aus B schreiben.<br />

Beweis. Die Existenz einer Linearkombination für jedes v ∈ V ist äquivalent<br />

zu span(B) = V . Wegen Satz 5.2.3 ist die Eindeutigkeit der Linearkombination<br />

äquivalent zur linearen Unabhängigkeit von B (die Details dieses Arguments findet<br />

man im Beweis von Satz 2.3.3).<br />

⊓⊔<br />

Beispiel 5.2.5. Sei E ij ∈ Mat(m × n, K) die Matrix, die als Einträge nur Nullen<br />

hat, außer an der Stelle ij, wo sie eine Eins hat. Dann ist {E ij | i = 1, . . . m; j =<br />

1, . . . , n} eine Basis für Mat(m × n, K), weil jede Matrix sich in eindeutiger Weise<br />

als Linearkombination der E ij schreiben lässt. Die Koeffizienten sind dabei gerade<br />

die Einträge der Matrix.<br />

⊓⊔<br />

Lemma 5.2.6. Sei ϕ: V → W ein K-Vektorraum-Isomorphismus und A ⊆ V .<br />

Dann gilt:<br />

(i) span(ϕ(A)) = ϕ(span(A)).<br />

(ii) A ist linear (un)abhängig genau dann, wenn ϕ(A) ⊆ W linear (un)abhängig ist.<br />

(iii) A ist eine Basis für V genau dann, wenn ϕ(A) eine Basis für W ist.<br />

Beweis. Idee: Elementare Verifikationen.<br />

(i)<br />

ϕ ( span(A) ) ({ ∑<br />

m ∣ })<br />

∣∣<br />

= ϕ c j a j m ∈ N, aj ∈ A, c j ∈ K<br />

j=1<br />

j=1<br />

{ ∑<br />

m }<br />

= c j ϕ(a j ) ∣ m ∈ N, a j ∈ A, c j ∈ K<br />

= span ( ϕ(A) ) .<br />

(ii) Wegen der Bijektivität von ϕ ist A ′ A äquivalent zu ϕ(A ′ ) ϕ(A). Mit dem<br />

ersten Teil sind dann auch span(A ′ ) = span(A) und span(ϕ(A ′ )) = span(ϕ(A))<br />

äquivalent und die Behauptung folgt.<br />

(iii) Dieser Teil ist eine unmittelbare Konsequenz der beiden ersten Teile.<br />

⊓⊔<br />

Die Vektorraum-Axiome erfassen alle bisher benutzten Eigenschaften der n-<br />

dimensionalen Zahlenräume bis auf eine: Die Existenz einer Basis der Länge n.<br />

Der folgende Satz zeigt, dass man durch Hinzunahme dieser Eigenschaft den K n im<br />

wesentlichen charakterisiert hat.


5.2 Basis und Dimension 125<br />

Satz 5.2.7. Sei V ≠ {0} ein K-Vektorraum. Dann sind folgende Aussagen äquivalent:<br />

(1) V hat eine Basis mit n Elementen.<br />

(2) Jede Basis für V hat n Elemente und es gibt auch so eine Basis 4 .<br />

(3) V ist isomorph zu K n , d.h. es gibt einen Isomorphismus von K-Vektorräumen<br />

ϕ: V → K n .<br />

Beweis. Idee: Zeige mit dem Argument aus dem Beweis von 2.4.1, dass zwei Basen, von<br />

denen eine endlich ist, nicht unterschiedliche Länge haben können. Dann definiere mithilfe<br />

einer Basis eine lineare Abbildung V → K n , die einem Vektor die Koeffizienten bzgl. der<br />

Basis zuordnet.<br />

” (1) ⇒ (2)“: Sei {v 1, . . . , v n } eine Basis und {w 1 , . . . } eine weitere Basis. Wörtlich<br />

wie im Beweis von 2.4.1 sieht man, dass {w 1 , . . . } nicht mehr als n Elemente<br />

hat (vgl. auch Bemerkung 5.2.2). Insbesondere ist die zweite Basis endlich:<br />

{w 1 , . . . , w m } mit m ≤ n. Jetzt vertauscht man die Rollen der Basen: n ≤ m,<br />

also n = m.<br />

” (2) ⇒ (3)“: Sei {v 1, . . . , v n } eine Basis für V . Wegen Satz 5.2.4 kann man durch<br />

( ∑<br />

n )<br />

n∑<br />

ϕ c j v j := (c 1 , . . . , c n ) = c j e j ∈ K n<br />

j=1<br />

eine Abbildung ϕ: V → K n definieren. Diese Abbildung ist bijektiv mit Umkehrabbildung<br />

n∑<br />

ψ : K n → V, (c 1 , . . . , c n ) ↦→ c j v j .<br />

Bleibt zu zeigen, dass ϕ linear ist: Für v = ∑ n<br />

j=1 c jv j und w = ∑ n<br />

j=1 d jv j<br />

rechnet man<br />

j=1<br />

j=1<br />

( ∑ n )<br />

ϕ(rv + sw) = ϕ (rc j + sd j )v j<br />

j=1<br />

= (rc 1 + sd 1 , . . . , rc n + sd n )<br />

= r(c 1 , . . . , c n ) + s(d 1 , . . . , d n )<br />

= rϕ(v) + sϕ(w).<br />

” (3) ⇒ (1)“: Dies folgt unmittelbar aus Lemma 5.2.6. ⊓⊔<br />

Eine wesentliche Lehre, die man aus Satz 5.2.7 zieht, ist, dass man Rechnungen<br />

für K-Vektorräume mit endlicher Basis in K n durchführen kann, sobald man eine<br />

Basis mit n Elementen gefunden hat. Damit werden alle Methoden, die man für K n<br />

entwickelt hat, auch für solche Vektorräume verfügbar. Man sollte sich aber klar<br />

machen, dass solche Rechnungen dann von der Wahl der Basis abhängen. Es wird<br />

sich daher immer wieder die Frage stellen, wie man für ein gegebenes Problem eine<br />

Basis in geschickter Art und Weise wählen kann.<br />

Manche Objekte und Größen, die man aus einer Basis und der zugehörigen<br />

Realisierung des Vektorraums als K n gewinnt, hängen gar nicht von der Wahl der<br />

Basis ab. Dies ist zum Beispiel für die Anzahl der Elemente in der Basis der Fall,<br />

wie Satz 5.2.7 zeigt. Solche Objekte und Größen fasst man als dem ursprünglichen<br />

Vektorraum zugehörig auf. Auf begrifflicher Ebene wird man also immer die Frage<br />

4 Mithilfe des Zornschen Lemmas 0.3.3 kann man zeigen, dass jeder Vektorraum eine<br />

Basis hat, d.h. dieser Zusatz ist unter Annahme des Zornschen Lemmas überflüssig.


126 5 Vektorräume<br />

beantworten wollen, wie sich eine abgeleitete Größe verändert, wenn man die Basis<br />

durch eine andere Basis ersetzt.<br />

Definition 5.2.8. Ein K-Vektorraum V, der eine endliche Basis hat, heißt endlich<br />

dimensional. Die Länge der Basis (und damit jeder Basis) heißt die Dimension<br />

von V (schreibe: dim K (V ) oder dim(V ), wenn K aus dem Kontext klar ist). Wenn<br />

V nicht endlich dimensional ist, dann schreibt man dim(V ) = ∞ und sagt, V ist<br />

unendlich dimensional.<br />

Bemerkung 5.2.9. Lemma 5.2.6 zeigt, dass isomorphe Vektorräume gleiche Dimension<br />

haben.<br />

⊓⊔<br />

Die elementaren Methoden der linearen Algebra beziehen sich zum überwiegenden<br />

Teil auf die Behandlung endlich dimensionaler Vektorräume. Vieles lässt sich<br />

für unendlich dimensionale Vektorräumen retten, die eine Basis mit abzählbar vielen<br />

Elementen 5 haben. Unendlich dimensionale Vektorräume, die keine solche Basis<br />

zulassen, tauchen typischerweise in der Analysis als Räume von Funktionen auf. Zu<br />

ihrer Behandlung sind dann zusätzliche Strukturen erforderlich, wie z.B. Konvergenzbegriffe,<br />

die passende Approximationen ermöglichen. Die so gebildete Kombination<br />

von Linearer Algebra und Analysis nennt man Funktionalanalysis.<br />

Beispiel 5.2.10 (Folgen). Sei K ein Körper und V := {a: N → K} die Menge<br />

aller Folgen in K. Wir schreiben in diesem Kontext auch a n für a(n) und (a n ) n∈N<br />

für a: N → K. Dann definieren die punktweisen Verknüpfungen<br />

(a + b)(n) := a(n) + b(n) und (ra)(n) := r ( a(n) )<br />

eine K-Vektorraumstruktur auf V . Die Folgen e (i) für i ∈ N, die durch e (i)<br />

j := δ ij<br />

definiert sind, bilden eine linear unabhängige Teilmenge von V , sie spannen V aber<br />

nicht auf, denn jede Linearkombination dieser Folgen hat nur endlich viele von Null<br />

verschiedene Folgenglieder, d.h. Funktionswerte. Umgekehrt lässt sich aber jede<br />

Folge mit nur endlich vielen von Null verschiedenen Folgengliedern als Linearkombination<br />

der e (i) schreiben. Also ist {e (i) | i ∈ N} eine Basis für<br />

U := {a ∈ V | ∃n ∈ N : ∀m ≥ n gilt a m = 0}.<br />

Je nach Kontext ist es manchmal praktischer die Indizierung von Folgen schon<br />

bei 0 beginnen zu lassen, d.h. N in Beispiel 5.2.10 durch N 0 = N ∪ {0} zu ersetzen.<br />

Oft hat man auch nur eine (unendliche) Teilmenge von N als Indexmenge.<br />

Beispiel 5.2.11 (Polynome und Polynomfunktionen).<br />

(i) Wir bezeichnen die Menge aller Folgen (k n ) n∈N0 in K, für die nur endlich viele<br />

k n von Null verschieden sind, mit K[X]. Dann ist K[X] ein K-Untervektorraum<br />

des Raumes aller Abbildungen von N 0 nach K (d.h., aller K-wertigen Folgen).<br />

Sei X j ∈ K[X] die Folge, die als j-tes Folgenglied eine Eins hat und sonst<br />

lauter Nullen. Dann ist {X j | j ∈ N 0 } eine Basis für K[X]. Insbesondere ist<br />

jedes Element von K[X] von der Form<br />

5 Das bedeutet, es gibt eine Bijektion zwischen der Basis und den natürlichen Zahlen.<br />

⊓⊔


F (X) :=<br />

n∑<br />

a j X j .<br />

j=0<br />

5.2 Basis und Dimension 127<br />

Man nennt die Elemente von K[X] Polynome (in einer Variablen). Normalerweise<br />

schreibt man 1 für X 0 und einfach a 0 für a 0 X 0 = a 0 1.<br />

(ii) Nach Beispiel 5.1.3 und Bemerkung 5.1.6 ist die Menge<br />

{<br />

f : K → K ∣ ∃ n ∈ N 0 , a 0 , . . . , a n ∈ K : ∀x ∈ K gilt f(x) =<br />

n∑<br />

a j x j}<br />

ein K-Vektorraum. Wir bezeichnen sie mit Pol(K) und nennen ihre Elemente<br />

Polynomfunktionen.<br />

(iii) Es ist klar, dass man zwei Elemente von Pol(K) miteinander multiplizieren kann<br />

und als Ergebnis wieder eine Polynomfunktion erhält. Dabei gilt<br />

( ∑<br />

N c j x j)( ∑<br />

M d k x k) N∑ M∑<br />

= c j d k x j+k .<br />

j=0<br />

k=0<br />

j=0 k=0<br />

Dies motiviert die Einführung einer Multiplikation auch auf K[X] durch<br />

( ∑<br />

N c j X j)( ∑<br />

M d k X k) N∑ M∑<br />

:= c j d k X j+k ,<br />

j=0<br />

k=0<br />

j=0 k=0<br />

was sich für Monome zu X j X k := X j+k spezialisiert. Diese Multiplikationen<br />

machen Pol(K) und K[X] zu kommutativen Ringen, die sich später als sehr<br />

wichtig herausstellen werden.<br />

⊓⊔<br />

j=1<br />

Für einen Körper K mit unendlich vielen Elementen kann man zeigen, dass die<br />

Vektorräume K[X] und Pol(K) isomorph sind. Deshalb macht man zum Beispiel<br />

normalerweise keinen Unterschied zwischen reellen Polynomen und reellen Polynomfunktionen.<br />

Für endliche Körper sieht das ganz anders aus. So gibt es z.B.<br />

für den Körper F 2 := {0, 1} mit zwei Elementen nur 4 verschiedene Funktionen<br />

F 2 → F 2 , während F 2 [X] unendlich viele Elemente hat.<br />

Satz 5.2.7 und Lemma 5.2.6 erlauben es uns, etliche der in Kapitel 2 für lineare<br />

Unterräume von K n erzielten Resultate samt ihren Beweisen auf allgemeine endlich<br />

dimensionale K-Vektorräume zu übertragen (Übung: Durchführen!).<br />

Satz 5.2.12. Sei V ein endlich dimensionaler K-Vektorraum. Dann gilt (vgl. Korollar<br />

2.3.5, Satz 2.3.4, Satz 2.3.6, Satz 2.4.4 und Übung 5.1.3):<br />

(i) Jeder K-Untervektorraum von V ist endlich dimensional.<br />

(ii) Basis-Ergänzung: Seien U ′ ⊂ U ⊂ V Untervektorräume. Dann lässt sich jede<br />

Basis {u ′ 1, . . . , u ′ m} für U ′ zu einer Basis {u ′ 1, . . . , u ′ m, u 1 , . . . , u k } für U<br />

ergänzen.<br />

(iii) Basis-Auswahl: Sei U = span{v 1 , . . . , v k } ⊂ V . Dann enthält {v 1 , . . . , v k } eine<br />

Basis für U.<br />

(iv) U 1 ⊆ U 2 ⊆ V seien lineare Unterräume. Dann gilt dim K (U 1 ) ≤ dim K (U 2 ) und<br />

im Falle, dass dim K (U 1 ) = dim K (U 2 ) ist, hat man U 1 = U 2 .<br />

(v) Dimensionsformel: U 1 und U 2 seien lineare Unterräume von V . Dann gilt<br />

dim K (U 1 ) + dim K (U 2 ) = dim K (U 1 + U 2 ) + dim K (U 1 ∩ U 2 )


128 5 Vektorräume<br />

Beweis. Idee: Man kann entweder die Beweise der zitierten Ergebnisse aus Kapitel 2 modifizieren<br />

oder aber einen Isomorphismus ϕ: V → K n benutzen und damit die Ergebnisse<br />

selbst transferieren.<br />

Wir führen die zweite Methode für (i) und (ii) vor und überlassen die übrigen<br />

Aussagen dem Leser als Übung. Sei also ϕ: V → K n ein Isomorphismus von K-<br />

Vektorräumen.<br />

(i) Eine Teilmenge U ⊆ V ist genau dann ein Untervektorraum, wenn ϕ(U) ein<br />

linearer Unterraum von ϕ(V ) = K n ist. Nach Korollar 2.3.5 hat ϕ(U) also<br />

eine Basis w 1 , . . . , w r . Dann zeigt Lemma 5.2.6, dass ϕ −1 (w 1 ), . . . , ϕ −1 (w r ) eine<br />

Basis für U ist.<br />

(ii) Ergänze {ϕ(u ′ 1), . . . , ϕ(u ′ m)} mithilfe von Satz 2.3.4 zu einer Basis<br />

{ϕ(u ′ 1), . . . , ϕ(u ′ m), w 1 , . . . , w k }<br />

für ϕ(U). Dann ist {u ′ 1, . . . , u ′ m, ϕ −1 (w 1 ), . . . , ϕ −1 (w k )} eine Basis für U.<br />

⊓⊔<br />

Proposition 5.2.13. Seien V und W K-Vektorräume und B eine Basis für V .<br />

(i) Jede K-lineare Abbildung ϕ: V → W ist durch ihre Einschränkung auf B<br />

vollständig bestimmt.<br />

(ii) Jede Abbildung ψ : B → W lässt sich in eindeutiger Weise zu einer K-linearen<br />

Abbildung ϕ: V → W fortsetzen (d.h. ϕ| B = ψ).<br />

Beweis. Idee:<br />

Basen.<br />

Schreibe die Elemente der Vektorräume als Linearkombinationen der<br />

(i) Sei v ∈ V . Dann lässt sich v nach Satz 5.2.4 als Linearkombination der Elemente<br />

von B schreiben: v = ∑ b∈B c bb, wobei nur endlich viele der c b von 0 verschieden<br />

sind. Also gilt<br />

ϕ(v) = ∑ b∈B<br />

c b ϕ(b)<br />

und ϕ ist durch seine Werte auf B vollständig bestimmt.<br />

(ii) Die Eindeutigkeit folgt sofort aus dem ersten Teil. Zur Existenz zieht man wieder<br />

Satz 5.2.4 heran, um v in eindeutiger Weise als Linearkombination der Elemente<br />

von B schreiben: v = ∑ b∈B c bb. Dann definiert man eine Abbildung ϕ: V → W<br />

durch<br />

ϕ(v) := ∑ b∈B<br />

c b ψ(b)<br />

und muss zeigen, dass ϕ K-linear ist. Dies ist aber eine elementare Rechnung:<br />

Mit v = ∑ b∈B c bb und w = ∑ b∈B d bb findet man<br />

( ∑<br />

)<br />

ϕ(rv + sw) = ϕ (rc b + sd b )b<br />

b∈B<br />

= ∑ b∈B(rc b + sd b )ψ(b)<br />

= ∑ rc b ψ(b) + ∑ sd b ψ(b)<br />

b∈B<br />

b∈B<br />

( ∑ ) ( ∑ )<br />

= r c b ψ(b) + s d b ψ(b)<br />

b∈B<br />

= rϕ(v) + sϕ(w).<br />

b∈B


5.2 Basis und Dimension 129<br />

⊓⊔<br />

Bemerkung 5.2.14. Sei K ein Körper, V ein endlich dimensionaler K-Vektorraum<br />

und {v 1 , . . . , v n } eine Basis für V . Nach Satz 5.2.4 lässt sich jedes v ∈ V in eindeutiger<br />

Weise als Linearkombination der Basiselemente schreiben:<br />

n∑<br />

v = x i v i .<br />

i=1<br />

Die Zahlen (x 1 , . . . , x n ) heißen die Koordinaten von v bzgl. der Basis. Beachte,<br />

dass es zur Bestimmung der Koordinaten von v auf die Reihenfolge der Basiselemente<br />

ankommt. Es ist also im Grunde nicht genug, eine Basis zu wählen, sondern<br />

man wählt eine Basis zusammen mit einer Anordnung ihrer Elemente. Wenn<br />

wir {v 1 , . . . , v n } für eine Basis schreiben, soll immer diese Basis in der Anordnung<br />

v 1 , . . . , v n gemeint sein.<br />

Definition 5.2.15. Seien V und W zwei endlich dimensionale K–Vektorräume<br />

{v 1 , . . . , v n } und {w 1 , . . . , w m } Basen für V und W . Weiter sei ϕ: V → W linear.<br />

Wir definieren die darstellende Matrix<br />

⎛<br />

⎞<br />

a 11 · · · a 1n<br />

⎜<br />

⎟<br />

A ϕ = ⎝ . . ⎠<br />

a m1 · · · a mn<br />

von ϕ bzgl. {v 1 , . . . , v n } und {w 1 , . . . , w m } durch<br />

ϕ(v j ) =<br />

m∑<br />

a ij w i j = 1, . . . , n.<br />

i=1<br />

An sich müsste man die beiden Basen in die Notation der darstellenden Basis mit<br />

aufnehmen, denn sie hängt entscheidend von der Wahl der Basen ab (wie genau<br />

werden wir noch eingehend untersuchen).<br />

Bemerkung 5.2.16. Seien V und W zwei endlich dimensionale K–Vektorräume<br />

{v 1 , . . . , v n } und {w 1 , . . . , w m } Basen für V und W .<br />

(i) Seien v ∈ V und (x 1 , . . . , x n ) die Koordinaten von v bzgl. {v 1 , . . . , v n }, sowie<br />

(y 1 , . . . , y m ) die Koordinaten von ϕ(v) bzgl. {w 1 , . . . , w m }. Dann gilt<br />

A ϕ x = y,<br />

wobei x = (x 1 , . . . , x n ) ⊤ und y = (y 1 , . . . , y m ) ⊤ . Um dies einzusehen, rechnet<br />

man<br />

m∑<br />

n∑<br />

n∑<br />

y i w i = ϕ(v) = ϕ( x j v j ) = x j ϕ(v j )<br />

i=1<br />

=<br />

n∑<br />

j=1 i=1<br />

j=1<br />

m∑<br />

a ij x j w i =<br />

i=1<br />

j=1<br />

⎛ ⎞<br />

m∑ n∑<br />

⎝ a ij x j<br />

⎠ w i<br />

j=1<br />

und erhält<br />

n∑<br />

y i = (A ϕ x) i = a ij x j .<br />

j=1


130 5 Vektorräume<br />

(ii) Für V = K n und W = K m mit den Standardbasen {v 1 , . . . , v n } = {e 1 , . . . , e n }<br />

und {w 1 , . . . , w m } = {f 1 , . . . , f m } ist die darstellende Matrix einer linearen<br />

Abbildung ϕ ∈ Hom K (K n , K m ) gerade die im Beweis von Satz 3.1.5 konstruierte<br />

Matrix A ϕ , d.h. unsere Notation ist kompatibel mit der Notation aus Kapitel 3,<br />

wenn man als Basen der Zahlenräume die Standardbasen wählt.<br />

⊓⊔<br />

Für zwei endlich dimensionale K-Vektorräume V und W ist Hom K (V, W ) ein<br />

K-Vektorraum (vgl. Bmerkung 5.1.11). Der folgende Satz liefert zusammen mit<br />

Beispiel 5.2.5, dass dim K (Hom K (V, W )) = dim K (Mat(m × n, K)) = nm, falls n =<br />

dim K (V ) und m = dim K (W ) gilt.<br />

Satz 5.2.17. Seien V und W endlich dimensionale K-Vektorräume mit den Basen 6<br />

v := {v 1 , . . . , v n } und w := {w 1 , . . . , w m }, sowie ϕ ∈ Hom K (V, W ). Dann definiert<br />

die Gleichung<br />

m∑<br />

ϕ(v j ) = a ij w i<br />

(∗)<br />

einen K-Vektorraum-Isomorphismus<br />

Die Umkehrabbildung<br />

i=1<br />

Φ w v = Φ : Hom K (V, W ) → Mat(m × n, K)<br />

ϕ ↦→ A ϕ := (a ij ) i =<br />

j =<br />

Φ −1 : Mat(m × n, K) → Hom K (V, W )<br />

A ↦→ ϕ A .<br />

1 , ... ,<br />

1 , ... ,<br />

m .<br />

n<br />

ist durch<br />

gegeben.<br />

m∑<br />

ϕ A (v j ) = a ij w i .<br />

i=1<br />

(∗∗)<br />

Beweis. Idee: Schreibe die Elemente der Vektorräume als Linearkombination der Basen.<br />

Die Abbildung Φ ist nach Satz 5.2.4 wohldefiniert. Wir zeigen zunächst, dass Φ<br />

∑<br />

K-linear ist. Mit ϕ(v j ) = m a ij w i und ψ(v j ) = ∑ m<br />

i=1 b ijw i rechnet man<br />

i=1<br />

m∑<br />

m∑<br />

(rϕ + sψ)(v j ) = r a ij w i + s b ij w i =<br />

i=1<br />

i=1<br />

m∑<br />

(ra ij + sb ij )w i<br />

i=1<br />

Also gilt<br />

Φ(rϕ + sψ) = (ra ij + sb ij ) i<br />

j<br />

= r(a ij ) i = 1 , ...<br />

j = 1 , ...<br />

= 1 , ... ,<br />

= 1 , ... ,<br />

,<br />

,<br />

= rΦ(ϕ) + sΦ(ψ).<br />

m<br />

n<br />

m<br />

n<br />

+ s(b ij ) i<br />

j<br />

Nach Proposition 5.2.13 definiert (∗∗) eine Abbildung<br />

= 1 , ... ,<br />

= 1 , ... ,<br />

6 Hier betrachten wir die Basen als Auflistung der Basiselemente in einer fixierten Reihenfolge,<br />

vgl. Bemerkung 5.2.14.<br />

m<br />

n


Ψ : Mat(m × n, K) → Hom K (V, W )<br />

A ↦→ ϕ A<br />

5.2 Basis und Dimension 131<br />

Es bleibt zu zeigen, dass Ψ die Umkehrfunktion von Φ ist. Aus (∗) folgt, dass<br />

ker (Φ) = {0} und aus (∗∗) folgt, dass Φ(ϕ A ) = A. Also ist Φ bijektiv und es gilt<br />

Φ ◦ Ψ = id. Damit folgt die Behauptung aus Lemma 3.1.2.<br />

⊓⊔<br />

Bemerkung 5.2.18. Für V = K n , W = K m mit jeweils der Standardbasis erhält<br />

man in Satz 5.2.17 gerade die Korrespondenz<br />

A ↦→ ϕ A<br />

ϕ ↦→ A ϕ<br />

aus Satz 3.1.5.<br />

⊓⊔<br />

Beispiel 5.2.19. (i) Betrachte V = R 2 mit der Basis {v 1 = (1, 1), v 2 = (−1, 1)}<br />

und W = R 3 mit der Basis {w 1 = (1, 1, 1), w 2 = (1, 1, 0), w 3 = (1, 0, 0)}. Dann<br />

gilt für ϕ ∈ Hom R (R 2 , R 3 ) mit ϕ(x, y) = (x, x + y, x − y), dass<br />

ϕ(v 1 ) = ϕ(1, 1) = (1, 2, 0) = 2w 2 − w 3 ,<br />

ϕ(v 2 ) = ϕ(−1, 1) = (−1, 0, −2) = −2w 1 + 2w 2 − w 3 ,<br />

⎛ ⎞<br />

0 −2<br />

A ϕ = ⎝ 2 2 ⎠ .<br />

−1 −1<br />

(ii) Für V = R 2 mit {v 1 = (1, 1), v 2 = (−1, 1)} und W = R 3 mit {w 1 =<br />

(1, 0, 0), w 2 = (0, 1, 0), w 3 = (0, 0, 1)} mit ϕ(x, y) = (x, x + y, x − y) findet<br />

man<br />

ϕ(v 1 ) = (1, 2, 0) = w 1 + 2w 2 ,<br />

ϕ(v 2 ) = (−1, 0, −2) = −w 1 − 2w 3 ,<br />

⎛ ⎞<br />

1 −1<br />

A ϕ = ⎝ 2 0 ⎠ .<br />

0 −2<br />

Beispiel 5.2.20. Für eine fest gewählte Matrix A ∈ Mat(m × n, K) betrachte die<br />

Abbildung λ A : Mat(n × k, K) → Mat(m × k, K), die durch λ A (X) = AX definiert<br />

ist. Mit der Formel der Matrizenmultiplikation aus Satz 3.1.7 rechnet man nach<br />

(Übung: Durchführen!), dass ϕ linear ist. Seien E ij , i = 1, . . . , n, j = 1, . . . , k<br />

bzw. F rj , r = 1, . . . , m, j = 1, . . . , k die in Beispiel 5.2.5 beschriebenen Basen von<br />

Mat(n × k, K) und Mat(m × k, K). Wir ordnen die Basen wie folgt an:<br />

Wegen<br />

E 11 , E 12 , . . . , E 1k , E 21 , . . . , E 2k , E 31 , . . . , E nk ,<br />

F 11 , F 12 , . . . , F 1k , F 21 , . . . , F 2k , F 31 , . . . , F mk .<br />

λ A (E ij ) =<br />

m∑<br />

a ri F rj<br />

ist die darstellende Matrix von λ A bezüglich dieser Basen durch die Blockmatrix<br />

r=1<br />

⊓⊔


132 5 Vektorräume<br />

⎛<br />

⎞<br />

a 11 · 1 k . . . a 1n · 1 k<br />

⎜<br />

⎟<br />

⎝ .<br />

. ⎠<br />

a m1 · 1 k . . . a mn · 1 k<br />

gegeben. Um das nachzurechnen überlegt man sich, dass v k(i−1)+j = E ij und<br />

w k(r−1)+s = F rs in der obigen Anordnung die durchnumerierten Basen {v 1 , . . . , v nk }<br />

für Mat(n×k, K) bzw. {w 1 , . . . , w mk } für Mat(m×k, K) liefert, für die entsprechend<br />

gilt<br />

m∑<br />

λ A (v k(i−1)+j ) = a ri w k(r−1)+j<br />

r=1<br />

Das nächste Beispiel zeigt, dass die definierende Gleichung<br />

⊓⊔<br />

ϕ(v j ) = ∑ i<br />

a ij w i<br />

auch für unendliche Basen sinnvoll ist. In diesem Fall kriegt man dann ”<br />

Matrizen“<br />

mit unendlich vielen Zahlen und/oder Spalten.<br />

Beispiel 5.2.21. Sei V der Vektorraum Pol(R, R) der reellen Polynomfunktionen<br />

aus Beispiel 5.2.11. Als Basis wählen wir (Übung: Weise nach, dass dies wirklich eine<br />

Basis ist!) die Monome {x 0 , x 1 , x 2 , . . .}. Betrachte die Ableitung als Abbildung<br />

D : V → V , d.h. D(f) = f ′ . Aus der Analysis weiß man, dass D linear ist und<br />

D(x k ) = kx k−1 erfüllt. Also ist die darstellende Matrix“ von D bzgl. der Basis<br />

”<br />

{x 0 , x 1 , x 2 , . . .}<br />

⎛<br />

⎞<br />

0 1 0 . . . . . . . . .<br />

. 0 2 0 . . . . . .<br />

. . 0 3 0 . . .<br />

⎜<br />

. ⎝.<br />

. . 0 4 .. ⎟<br />

⎠<br />

.<br />

. . . . .. . ..<br />

gegeben. Wenn man jetzt D auf den endlichen Untervektorraum aller Polynomfunktionen<br />

vom Grad kleiner oder gleich n − 1 einschränkt, dann ergibt sich als<br />

darstellende Matrix im Sinne von Definition 5.2.15 die linke obere n × n-Ecke der<br />

obigen unendlichen Matrix“.<br />

⊓⊔<br />

”<br />

Übungen zu Abschnitt 5.2<br />

Linearer Spann, Lineare Unabhängigkeit und Basen<br />

Übung 5.2.1. Sei V ein K-Vektorraum und ∅ ≠ A ⊆ V eine beliebige nichtleere Teilmenge.<br />

Zeige, dass span(A) der kleinste Untervektorraum von V ist, der A enthält (vgl.<br />

Proposition 2.1.5). Man nennt A auch ein Erzeugendensystem für Vektorraum span(A).<br />

Da der kleinste Untervektorraum überhaupt die Menge {0} ist, motiviert diese Charakterisierung<br />

von span(A) die Definition: span(∅) := {0}.<br />

Übung 5.2.2. Sei V ein K-Vektorraum und U 1, U 2 Untervektorräume von V . Zeige, dass<br />

(Vgl. Übung 5.1.3 und Bemerkung 2.1.6.)<br />

U 1 + U 2 = span(U 1 ∪ U 2).


5.2 Basis und Dimension 133<br />

Übung 5.2.3. Zeige, dass der Vektorraum V aller stetigen Funktionen f : R → R nicht<br />

endlich dimensional ist. (Hinweis: Finde unendlich viele linear unabhängige Funktionen.)<br />

Übung 5.2.4. Berechne die Koordinaten von (1, 2, 3, 4) ⊤ ∈ R 4 der Basen<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

1 1 1 1<br />

2 0 0 1<br />

⎪⎨<br />

⎜ 0<br />

⎟<br />

⎝ 0 ⎠<br />

⎪⎩<br />

, ⎜ 1<br />

⎟<br />

⎝ 0 ⎠ , ⎜ 1<br />

⎟<br />

⎝ 1 ⎠ , ⎜ 1<br />

⎪⎬ ⎪⎨<br />

⎟<br />

⎝ 1 ⎠ und ⎜ 0<br />

⎟<br />

⎝ 0 ⎠<br />

⎪⎭ ⎪⎩<br />

, ⎜ 1<br />

⎟<br />

⎝ 1 ⎠ , ⎜ 2<br />

⎟<br />

⎝ 2 ⎠ , ⎜ 0<br />

⎪⎬<br />

⎟<br />

⎝ 1 ⎠ .<br />

⎪⎭<br />

0 0 0 1<br />

2 0 2 0<br />

Übung 5.2.5. (a) Sind die Vektoren<br />

⎛ ⎞<br />

3<br />

⎛<br />

5<br />

⎞ ⎛ ⎞<br />

−1<br />

⎝ 1 ⎠ , ⎝ −1 ⎠ , ⎝ 5 ⎠<br />

4 2 8<br />

linear abhängig?<br />

(b) Gib eine Basis für den Spann dieser drei Vektoren an.<br />

(c) Erweitere diese Basis zu einer Basis von R 3 .<br />

Übung 5.2.6. Welche Koordinaten haben<br />

⎛ ⎞<br />

4<br />

⎛<br />

8<br />

⎞<br />

a = ⎝ 11 ⎠ , b = ⎝ −9 ⎠<br />

7<br />

−5<br />

bzgl. der Basis ⎧ ⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

⎨ 1 2 7 ⎬<br />

⎝ 0 ⎠ , ⎝ −3 ⎠ , ⎝ 5 ⎠<br />

⎩⎛<br />

⎭ ?<br />

2 −3 −1<br />

Übung 5.2.7. Betrachte den Vektorraum V = {f : N → R} mit der punktweisen Addition<br />

und skalaren Multiplikation.<br />

(i) Zeige, dass die Menge U aller f ∈ V , für die nur endlich viele Funktionswerte von Null<br />

verschieden sind, ein Untervektorraum von V ist.<br />

(ii) Finde eine Basis für U.<br />

(iii) Gib Beispiele von Funktionen aus V an, die sich nicht als Linearkombinationen dieser<br />

Basisfunktionen schreiben lassen.<br />

Übung 5.2.8. Es sei K 2[X] = {F (X) = a 0 + a 1X + a 2X 2 | a 0, a 1, a 2 ∈ K} die Menge aller<br />

Polynome vom Grad ≤ 2, wobei a 0 := a 0X 0 .<br />

(a) Man zeige, dass K 2[X] ein Untervektorraum von K[X] ist.<br />

(b) Man gebe eine Basis für K 2[X] an.<br />

(c) Es sei W := span(1 + X 2 , −X 2 , 2 + X 2 ). Man bestimme eine Basis für W .<br />

Übung 5.2.9. Sei K ein Körper und U der Raum aller Folgen in K, die nur endlich viele<br />

von Null verschiedene Folgenglieder haben (vgl. Beispiel 5.2.10). Zeige, dass die Folgen<br />

eine Basis für U bilden.<br />

f (1) := (1, 0, . . .)<br />

f (2) := (1, 1, 0, . . .)<br />

f (3) := (1, 1, 1, 0, . . .)<br />

f (4) := (1, 1, 1, 1, 0, . . .)<br />

.<br />

Übung 5.2.10. Benutze das Zornsche Lemma, um zu zeigen, dass jeder Vektorraum eine<br />

Basis hat.


134 5 Vektorräume<br />

Dimension<br />

Übung 5.2.11. Seien V und W K-Vektorräume und ϕ: V → W linear und injektiv. Weiter<br />

sei U ⊆ V ein K-Untervektorraum. Zeige, dass ϕ(U) ein K-Untervektorraum von W mit<br />

dim ϕ(U) = dim U ist.<br />

Übung 5.2.12. Berechne die Dimensionen von span(A) für<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛<br />

0 0 2 3 −2<br />

⎪⎨<br />

2<br />

1<br />

1<br />

2<br />

0<br />

span<br />

4<br />

⎜ −6<br />

,<br />

2<br />

⎟ ⎜ −1<br />

,<br />

−3<br />

⎟ ⎜ 0<br />

,<br />

−1<br />

⎟ ⎜ 3<br />

,<br />

0<br />

⎟ ⎜ −4<br />

,<br />

⎟ ⎜<br />

⎝ −4 ⎠ ⎝ −2 ⎠ ⎝ 0 ⎠ ⎝ 2 ⎠ ⎝ −8 ⎠ ⎝<br />

⎪⎩<br />

2 0 1 −1 2<br />

0<br />

0<br />

0<br />

−2<br />

0<br />

1<br />

⎞<br />

⎛<br />

,<br />

⎟ ⎜<br />

⎠ ⎝<br />

2<br />

0<br />

−5<br />

3<br />

2<br />

0<br />

⎞⎫<br />

⎪⎬<br />

⊆ R 6 .<br />

⎟<br />

⎠<br />

⎪⎭<br />

Übung 5.2.13. Eine Matrix A ∈ Mat(n × n, K) heißt schief- oder antisymmetrisch,<br />

wenn A = −A ⊤ .<br />

(a) Man zeige, dass die Menge Asym(n, K) aller schiefsymmetrischen Matrizen A ∈<br />

Mat(n × n, K) ein Untervektorraum von (Mat(n × n, K), +, ·) mit der koeffizientenweisen<br />

Addition und Skalarmultiplikation ist.<br />

(b) Man berechne die Dimension von Asym(n, R) als R-Vektorraum.<br />

Übung 5.2.14. Für eine Menge M und einen Körper K sei Abb(M, K) der Vektorraum<br />

der Abbildungen von M nach K mit punktweiser Addition und skalarer Multiplikation.<br />

1. Man zeige, dass Abb(M, K) genau dann endlich dimensional ist, wenn M endlich ist.<br />

2. (Für Ambitionierte)<br />

Gibt es im Fall |M| = ∞ eine Basis von Abb(M, K) mit abzählbar vielen Elementen?<br />

Darstellende Matrizen<br />

Übung 5.2.15. Sei ϕ: V → W K-linear, {v 1, . . . , v n} eine Basis für V und {w 1, . . . , w m}<br />

eine Basis für W . Weiter seien A ϕ = (a ij) die darstellende Matrix von ϕ sowie (x 1, . . . , x n)<br />

und (y 1, . . . , y m) die Koordinaten von x ∈ V und ϕ(x) ∈ W bzgl. dieser Basen. Zeige:<br />

⎛<br />

⎛ ⎛<br />

⎜<br />

⎝<br />

⎞ ⎞<br />

a 11 . . . a 1n x 1<br />

.<br />

⎟ ⎜<br />

.<br />

. ⎠ ⎝<br />

.<br />

a m1 . . . a mn x n<br />

⎟<br />

⎠ =<br />

⎜<br />

⎝<br />

⎞<br />

y 1<br />

.<br />

y m<br />

⎟<br />

⎠ .<br />

Übung 5.2.16. Finde eine lineare Abbildung ϕ: R 4 → R 4 mit<br />

⎧⎛<br />

⎞ ⎛ ⎞⎫<br />

1 0<br />

⎪⎨<br />

span ⎜ 2<br />

⎟<br />

⎝ 3 ⎠<br />

⎪⎩<br />

, ⎜ 1<br />

⎪⎬<br />

⎟<br />

⎝ 2 ⎠ = im (ϕ) = ker (ϕ).<br />

⎪⎭<br />

4 3<br />

Gib die Matrix A ϕ (bzgl. der Standardbasis) an.<br />

Übung 5.2.17. Die R-lineare Abbildung ϕ: R 4 → R 4 erfülle<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛<br />

1 −3 0 0 1<br />

ϕ ⎜ 2<br />

⎟<br />

⎝ 0 ⎠ = ⎜ 0<br />

⎟<br />

⎝ 1 ⎠ ; ϕ ⎜ 0<br />

⎟<br />

⎝ 2 ⎠ = ⎜ −8<br />

⎟<br />

⎝ −10 ⎠ ; ϕ ⎜ 0<br />

⎟<br />

⎝ −1 ⎠ = ⎜<br />

⎝<br />

3 7 2 4 2<br />

−3<br />

4<br />

6<br />

5<br />

⎞ ⎛ ⎞ ⎛ ⎞<br />

1 3<br />

⎟<br />

⎠ ; ϕ ⎜ 1<br />

⎟<br />

⎝ 1 ⎠ = ⎜ −4<br />

⎟<br />

⎝ −7 ⎠ .<br />

1 6<br />

(i) Bestimme die Matrix A ϕ bezüglich der Standardbasis {e 1, e 2, e 3, e 4}.<br />

(ii) Bestimme die Matrix A ϕ bezüglich der Basis {e 1, e 1 +e 2, e 1 +e 2 +e 3, e 1 +e 2 +e 3 +e 4}.<br />

Übung 5.2.18. Betrachte die Abbildung ϕ: R 3 → R 2 mit<br />

ϕ(x, y, z) = (y + z, x − y).


5.2 Basis und Dimension 135<br />

(i) Zeige, dass ϕ linear ist.<br />

(ii) Bestimme die Matrix A ϕ von ϕ bezüglich der folgenden Paare von Basen:<br />

R 3 R 2<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞ ⎫<br />

⎨ 1 0 0 ⎬<br />

⎝ 0 ⎠ , ⎝ 1 ⎠ , ⎝ 0 ⎠ ,<br />

⎩<br />

⎭<br />

0 0 1<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

⎨ 1 0 0 ⎬<br />

⎝ 0 ⎠ , ⎝ 1 ⎠ , ⎝ 0 ⎠<br />

⎩<br />

⎭<br />

0 0 1<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

⎨ 1 1 1 ⎬<br />

⎝ 0 ⎠ , ⎝ 1 ⎠ , ⎝ 1 ⎠<br />

⎩<br />

⎭<br />

0 0 1<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

⎨ 1 1 1 ⎬<br />

⎝ 0 ⎠ , ⎝ 1 ⎠ , ⎝ 1 ⎠<br />

⎩<br />

⎭<br />

0 0 1<br />

{( ) ( )}<br />

1 0<br />

,<br />

0 1<br />

{( ) ( )}<br />

1 1<br />

,<br />

1 2<br />

{( ) ( )}<br />

1 0<br />

,<br />

0 1<br />

{( ) ( )}<br />

1 1<br />

, .<br />

1 2<br />

Übung 5.2.19. Betrachte die lineare Abbildung ϕ : R 3 → R 2 mit<br />

ϕ(x, y, z) = (y + z, x − y) .<br />

Bestimme die Matrix A ϕ von ϕ bezüglich der folgenden Paare von Basen:<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

⎨ 1 0 0 ⎬ {( ) (<br />

a) ⎝0⎠ , ⎝1⎠ , ⎝0⎠<br />

1 0<br />

⎩<br />

⎭ , , ;<br />

0 1)}<br />

0 0 1<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

⎨ 2 3 1 ⎬ {( ) ( )}<br />

b) ⎝ 1 ⎠ , ⎝1⎠ , ⎝−2⎠<br />

2 −1<br />

⎩<br />

⎭ , , .<br />

1 1<br />

−1 0 2<br />

Übung 5.2.20. Sei Pol(R, R) der Vektorraum der Polynomfunktionen auf R.<br />

1. Man begründe, dass<br />

Pol n(R, R) := {f : R → R | ∃a j ∈ R : ∀x ∈ R gilt f(x) =<br />

n∑<br />

a jx j }<br />

ein (n + 1)-dimensionaler Untervektorraum von Pol(R, R) ist und bestimme eine Basis<br />

von Pol n(R, R).<br />

2. Man zeigen, dass die Ableitungsabbildung<br />

ϕ : Pol n(R, R) → Pol n(R, R), p ↦→ p ′<br />

eine lineare Abbildung ist und bestimme die Matrixdarstellung von ϕ bezüglich der<br />

Basis aus a) (für Bild- und Urbildraum).<br />

Übung 5.2.21. Es sei Pol n(R, R) der Vektorraum der Polynome vom Grad n (siehe<br />

Übung 5.2.20). Für x 0, . . . , x n ∈ R paarweise verschieden sei L j ∈ Pol n(R, R) das zugehörige<br />

Lagrange-Polynom,<br />

L j : R → R, x ↦→<br />

∏<br />

0kn<br />

k≠j<br />

x − x k<br />

x j − x k<br />

.<br />

a) Zeige: (L 0, . . . , L n) ist eine Basis von Pol n(R, R).<br />

(Hinweis: Zeige, dass L j(x l ) = 1 für l = j, ansonsten Null).<br />

j=0


136 5 Vektorräume<br />

b) Gebe eine konkrete Darstellung von p ∈ Pol n(R, R) durch obige Basis an, und folgere<br />

daraus: Stimmen p, q ∈ Pol n(R, R) in (n + 1) verschiedenen Punkten überein, so sind<br />

sie gleich.<br />

c) Wieviele verschiedene Nullstellen kann p ∈ Pol n(R, R) \ {0} höchstens haben?<br />

Übung 5.2.22. Gegeben sei die lineare Abbildung ϕ : R 4 → R 3 , ϕ(x) = Ax mit<br />

⎛<br />

⎞<br />

1 −1 0 1<br />

A := ⎝2 3 −2 1 ⎠ .<br />

0 2 1 −4<br />

Bestimme die Matrix A ϕ von ϕ bezüglich der folgenden Basen von R 4 bzw. R 3 :<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

1 1 0 0 ⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

⎪⎨<br />

⎜1<br />

⎟<br />

⎝1⎠ ⎪⎩<br />

, ⎜0<br />

⎟<br />

⎝1⎠ , ⎜1<br />

⎟<br />

⎝1⎠ , ⎜0<br />

⎪⎬ ⎨ 1 0 2 ⎬<br />

⎟<br />

⎝1⎠<br />

; ⎝−1⎠ , ⎝1⎠ , ⎝0⎠<br />

⎩<br />

⎭ ⎪⎭<br />

.<br />

0 1 1<br />

1 0 0 1<br />

Übung 5.2.23 (Magische Quadrate). Q ∈ Q n×n heißt ein verallgemeinertes magisches<br />

Quadrat, Bez. Q ∈ M n , wenn die Summe der Koeffizienten in jeder Zeile, Spalte und den<br />

beiden Diagonalen, den gleichen Wert ergibt. Dieser Wert heißt Quadratsumme von Q.<br />

a) Man zeige, dass M n ein Untervektorraum von Q n×n ist.<br />

b) Man zeige, dass es im Fall n = 3 für alle Zahlen a 11 =: a, a 12 =: b, a 21 =: c eindeutige<br />

Koeffizienten a jk gibt, so dass (a jk ) ∈ M 3 mit Quadratsumme S = 1 (6a + 3b + 3c)<br />

4<br />

ist. Geben Sie diese Koeffizienten an.<br />

c) Man zeige, dass dim M 3 = 3 gilt.<br />

5.3 Quotientenräume<br />

In diesem Abschnitt führen wir ein neues Konzept der linearen Algebra ein, auf das<br />

man beim Studium der linearen Unterräume von Zahlenräumen nicht so einfach stoßen<br />

würde. Vektorraumstrukturen kann man nämlich auch auf Mengen finden, die<br />

dadurch zustande kommen, dass man Elemente von gegebenen Mengen aufgrund gewisser<br />

gemeinsamer Eigenschaften miteinander identifiziert. Mathematisch präzise<br />

formuliert heißt das, man bildet Äquivalenzklassen zu einer Äquivalenzrelation und<br />

studiert Vektorraumstrukturen auf der Menge der Äquivalenzklassen. Solche Quotientenstrukturen<br />

spielen in der (Linearen) Algebra eine sehr wichtige Rolle. Wir<br />

beschränken uns in diesem Abschnitt aber auf eine einzige Anwendung, die noch<br />

dazu aus der Analysis kommt: Wir skizzieren, wie man die reellen Zahlen mithilfe<br />

eines Quotientenvektorraums aus den rationalen Zahlen konstruieren kann.<br />

Wir beginnen mit einer Präzisierung des Begriffs einer Äquivalenzrelation, der<br />

in Abschnitt 0.2 schon angesprochen wurde.<br />

Definition 5.3.1. Sei M eine Menge. Eine Relation auf M ist eine Teilmenge R<br />

von M × M = {(x, y) | x ∈ M, y ∈ M}. Man schreibt auch xRy für (x, y) ∈ R. Eine<br />

Relation R auf M heißt Äquivalenzrelation, wenn:<br />

(a) xRx ∀x ∈ M (Reflexivität)<br />

(b) xRy ⇒ yRx ∀x, y ∈ M (Symmetrie)<br />

(c) xRy, yRz ⇒ xRz ∀x, y, z ∈ M (Transitivität)<br />

Sei R eine Äquivalenzrelation auf M. Dann heißt<br />

[x] R := {y ∈ M | xRy}<br />

die Äquivalenzklasse von x bzgl. R. Die Menge aller Äquivalenzklassen wird mit<br />

M/R bezeichnet. Die Elemente einer Äquivalenzklasse nennt man Repräsentanten<br />

der Äquivalenzklasse.


5.3 Quotientenräume 137<br />

Die Definitionen zeigen unmittelbar, dass zwei Elemente genau dann äquivalent<br />

sind, wenn ihre Äquivalenzklassen gleich sind. Daher ist M die disjunkte Vereinigung<br />

der Äquivalenzklassen.<br />

Beispiel 5.3.2. (i) Die Diagonale {(x, y) ∈ M × M | x = y} ist eine Äquivalenzrelation,<br />

die die Gleichheit beschreibt. Hier haben die Äquivalenzklassen jeweils<br />

nur ein Element.<br />

(ii) Sei X Menge und M = {U ⊆ X | U endlich} die Menge aller endlichen Teilmengen<br />

von X. Bezeichnet man die Anzahl der Elemente in U ∈ M mit |U|,<br />

so ist {(U, V ) ∈ M × M | |U| = |V |} eine Äquivalenzrelation, für die die<br />

Äquivalenzklassen aus den Mengen gleicher Mächtigkeit bestehen.<br />

(iii) Sei (V, +, ·) ein K-Vektorraum und U ⊆ V ein K-Untervektorraum. Dann ist<br />

∼ U := {(v, w) ∈ V × V | v + U = w + U}<br />

eine Äquivalenzrelation auf V . Zwei Elemente v und w in V sind bezüglich<br />

dieser Relation genau dann äquivalent, wenn v − w ∈ U. Also sind die<br />

Äquivalenzklassen gerade die Mengen der Form<br />

[v] := [v] ∼U = {v + u | u ∈ U} = v + U.<br />

Man schreibt V/U statt V/∼ U für die Menge der Äquivalenzklassen.<br />

⊓⊔<br />

Satz 5.3.3. Sei (V, +, ·) ein K-Vektorraum und U ⊆ V ein K-Untervektorraum,<br />

dann ist V/U ein K-Vektorraum bzgl.:<br />

[v] + [w] := [v + w]<br />

v, w ∈ V<br />

c · [v] := [c · v] v ∈ V, c ∈ K.<br />

Die Abbildung π : V → V/U ist ein surjektiver K-Vektorraum-Homomorphismus<br />

mit ker (π) = U.<br />

Beweis. Idee: Wähle auf der linken Seite unterschiedliche Repräsentanten für die Äquivalenzklassen<br />

und überprüfe ob rechts die gleichen Äquivalenzklassen herauskommen. Alles<br />

andere sind Routinerechnungen unter Benutzung der Vektorraumeigenschaften von V .<br />

Die zentrale Frage ist hier die nach der Wohldefiniertheit: Die Addition zweier<br />

Äquivalenzklassen wird unter Verwendung zweier Repräsentanten erklärt. Also<br />

muss man sicher stellen, dass eine andere Wahl der Repräsentanten nicht zu einem<br />

anderen Ergebnis führt. D.h. man stellt folgende Frage: Folgt aus [v] = [v ′ ] und<br />

[w] = [w ′ ], dass auch [v + w] = [v ′ + w ′ ] gilt?<br />

Für die Addition lässt sich die Antwort wie folgt formulieren: [v] = [v ′ ] und<br />

[w] = [w ′ ] liefern v−v ′ ∈ U und w−w ′ ∈ U, also wegen der Abgeschlossenheit von U<br />

unter der Addition auch (v+w)−(v ′ +w ′ ) ∈ U. Aber dann gilt [v+w] = [v ′ +w ′ ] nach<br />

Definition der Äquivalenzrelation. Also ist die Addition in der Tat wohldefiniert.<br />

Ähnlich geht man beim Nachweis der Wohldefiniertheit der skalaren Multiplikation<br />

vor: Wenn [v] = [w], dann ist v−w ∈ U und somit auch cv−cw = c(v−w) ∈ U,<br />

d.h., [cv] = [cw].<br />

Für die Assoziativität der Addition rechnet man<br />

([v] + [w]) + [x] = [v + w] + [x] = [v + w + x] = [v] + [w + x] = [v] + ([w] + [x])


138 5 Vektorräume<br />

und die Kommutativität sieht man ganz analog. Die Identität [0]+[v] = [0+v] = [v]<br />

liefert, dass [0] ∈ V/U die Null der Vektorraumstruktur sein muss. Entsprechend<br />

findet man mit [v] + [−v] = [v − v] = [0], das additives Inverse [−v] von [v]. Die<br />

Assoziativität der skalaren Multiplikation ist eine Konsequenz von<br />

c · (d · [v]) = c · [d · v] = [c · (d · v)] = [(cd) · v] = (cd) · [v].<br />

Die Identität 1 · [v] = [1 · v] = [v] ist klar, und die Distributivgesetze errechnen sich<br />

wie folgt:<br />

(c + d) · [v] = [(c + d)v] = [cv + dv] = c · [v] + d · [v],<br />

c · ([v] + [w]) = c · [v] + c · [w] = [cv] + [cw] = c · [v] + c · [w].<br />

Bleibt die Aussage über π : V → V/U zu zeigen. Die Surjektivität ist klar, weil<br />

jede Äquivalenzklasse von der Form [v] für ein v ∈ V ist. Die Homomorphie-<br />

Eigenschaften sind eine Konsequenz der Rechnungen zur Wohldefiniertheit und<br />

π −1 (0) = U folgt direkt aus der Definition von π.<br />

⊓⊔<br />

Definition 5.3.4. Der Vektorraum V/U aus Satz 5.3.3 heißt der Quotientenraum<br />

von V nach U. Die Abbildung π : V → V/U nennt man die kanonische Projektion<br />

von V auf V/U.<br />

V<br />

v’<br />

0<br />

v’+w’<br />

w’ w<br />

v<br />

v+w<br />

u<br />

[v+w]=[v’+w’]=[v]+[w]<br />

[w]=[w’]<br />

[v]=[v’]<br />

U = [u] =[0]<br />

Abb. 5.1. Quotientenraum<br />

Das folgende Beispiel stammt aus der Analysis und liefert eine Möglichkeit, die<br />

reellen Zahlen aus den rationalen Zahlen zu konstruieren.<br />

Beispiel 5.3.5 (Konstruktion der reellen Zahlen). Sei W der Vektorraum aller<br />

Folgen in Q (vgl. Beispiel 5.2.10) und V die Teilmenge der Cauchy-Folgen. Das<br />

bedeutet, eine Folge (a n ) n∈N ist in V , wenn es zu jedem N ∈ N eine Zahl n 0 ∈ N<br />

gibt, für die<br />

∀k, m ≥ n 0 : |a k − a m | ≤ 1 N<br />

gilt. Dabei ist | · | der übliche Betrag auf den rationalen Zahlen, der durch<br />

{<br />

r wenn r ≥ 0<br />

|r| =<br />

−r wenn r < 0


5.3 Quotientenräume 139<br />

gegeben ist. Mithilfe der Dreiecksungleichung<br />

|r + s| ≤ |r| + |s| ∀r, s ∈ Q<br />

für den Betrag sieht man leicht, dass V ein Untervektorraum von W ist (Übung:<br />

überprüfen!).<br />

Eine Folge (a n ) n∈N heißt Nullfolge, wenn es zu jedem N ∈ N eine Zahl n 0 ∈ N<br />

gibt, für die<br />

∀k ≥ n 0 : |a k | ≤ 1 N<br />

gilt. Wieder mit der Dreiecksungleichung sieht man, dass die Teilmenge U der Nullfolgen<br />

ist ein Untervektorraum von V ist (Übung: überprüfen!). Der Quotientenvektorraum<br />

V/U lässt sich als die Menge der ”<br />

Grenzwerte“ (die Frage ist, in welchem<br />

Raum!?) von rationalen Folgen interpretieren. Man hat dann die Addition auf V/U,<br />

die durch die Vektorraumstruktur gegeben ist. Darüber hinaus liefert komponentenweise<br />

Multiplikation von Folgen auch eine Multiplikation auf V/U. Es lässt sich<br />

nachrechnen (Übung: überprüfen!), dass V/U mit diesen beiden Verknüpfungen zu<br />

einem Körper wird, dessen Einselement die Äquivalenzklasse [1] der konstanten<br />

Folge 1 ist (die Null ist das Nullelement der Vektorraumstruktur). Die Abbildung<br />

ι: Q → V/U, die jeder rationalen Zahl r die Äquivalenzklasse [r] der konstanten<br />

Folge r zuordnet, ist injektiv. Außerdem erfüllt sie<br />

ι(r + s) = ι(r) + ι(s) und ι(r · s) = ι(r) · ι(s),<br />

d.h. sie ist ein Körper-Homomorphismus. Jetzt kann man auf V/U eine Ordnung<br />

und einen Betrag definieren, für die sich dann nachrechnen lässt, dass alle<br />

Forderungen, die man an die reellen Zahlen stellt, erfüllt sind. D.h. die Konstruktion<br />

des Quotientenraums von Vektorräumen eröffnet uns in der Tat die Möglichkeit,<br />

die reellen Zahlen R zu konstruieren.<br />

⊓⊔<br />

Satz 5.3.6 (Isomorphie). Sei ϕ ∈ Hom K (V, W ). Dann ist die Abbildung<br />

ϕ : V/ ker (ϕ) → im (ϕ)<br />

[v] ↦→ ϕ(v)<br />

wohldefiniert und ein K-Vektorraum-Isomorphismus.<br />

Beweis. Die Wohldefiniertheit ist eine Konsequenz der Äquivalenzen<br />

[v] = [w] ⇐⇒ v − w ∈ ker (ϕ) ⇐⇒ ϕ(v) = ϕ(w).<br />

Wenn ϕ([v]) = ϕ(v) = ϕ(w) = ϕ([w]), dann gilt [v] = [w], d.h. ϕ ist injektiv. Die<br />

Surjektivität ist klar. Um zu zeigen, dass ϕ K-linear ist, rechnen wir<br />

ϕ(r[v] + s[w]) = ϕ([rv + sw]) = ϕ(rv + sw) = rϕ(v) + sϕ(w) = rϕ([v]) + sϕ([w]).<br />

Mit Satz 5.3.6 erhalten wir ein Diagramm von Abbildungen, in dem die Hakenpfeile<br />

↩→ einfach die jeweiligen Inklusionen einer Teilmenge in die Obermenge<br />

bezeichnen:<br />

V <br />

π<br />

ϕ<br />

<br />

<br />

<br />

<br />

ker (ϕ) V/ ker (ϕ)<br />

0<br />

ϕ<br />

ϕ<br />

W<br />

<br />

<br />

im (ϕ)<br />

⊓⊔


140 5 Vektorräume<br />

Das Diagramm ist kommutativ, was bedeutet, dass man dasselbe Ergebnis erhält,<br />

wenn man den Pfeilen folgend auf unterschiedlichen Wegen vom Start- zum Zielpunkt<br />

läuft. In diesem Beispiel heißt das nichts anderes als ϕ = ϕ ◦ π. Man nennt<br />

diese Zerlegung von ϕ in zwei Abbildungen auch die kanonische Faktorisierung.<br />

Beispiel 5.3.7. Für die Abbildung ϕ : R 3 → R 3 , (x, y, z) ↦→ (y, z, 0) gilt ker (ϕ) =<br />

{(x, 0, 0) | x ∈ R} = span(e 1 ) und im (ϕ) = {(x, y, 0) | x, y ∈ R} = span(e 1 , e 2 ). ⊓⊔<br />

Satz 5.3.8 (Dimensionsformel für Quotientenräume). Sei V ein endlich dimensionaler<br />

K-Vektorraum und U ein K-Untervektorraum. Dann gilt:<br />

dim(V ) = dim(U) + dim(V/U).<br />

Beweis. Idee: Ergänze eine Basis von U zu einer Basis von V und betrachte die Bilder<br />

der ergänzten Vektoren in V/U.<br />

Sei {u 1 , . . . , u r } eine Basis für U. Mit Satz 5.2.12 ergänzen wir diese zu einer<br />

Basis {u 1 , . . . , u r , v 1 , . . . , v s } für V und betrachten [v 1 ], . . . , [v s ] ∈ V/U.<br />

Behauptung 1: {[v 1 ], . . . , [v s ]} ⊆ V/U ist linear unabhängig.<br />

Um das einzusehen benutzen wir Satz 5.2.3 und rechnen<br />

0 =<br />

s∑<br />

c j [v j ] =<br />

j=1<br />

s∑<br />

s∑<br />

[c j v j ] = [ c j v j ],<br />

j=1<br />

was auf ∑ s<br />

j=1 c jv j − 0 ∈ U führt. D.h. wir können wegen Satz 5.2.4 schreiben<br />

Dies kann man zu<br />

s∑<br />

c j v j =<br />

j=1<br />

s∑<br />

c j v j −<br />

j=1<br />

r∑<br />

d i u i .<br />

i=1<br />

j=1<br />

r∑<br />

d i u i = 0<br />

i=1<br />

umformulieren, woraus wegen der linearen Unabhängigkeit der Basis für V folgt<br />

c 1 = . . . = c s = d 1 = . . . = d r = 0.<br />

Behauptung 2: span{[v 1 ], . . . , [v s ]} = V/U.<br />

Zum Beweis stellen zuerst fest, dass jedes Element von V/U von der Form [v]<br />

ist. Wieder mit Satz 5.2.4 können wir schreiben<br />

Dann gilt<br />

und die Behauptung folgt.<br />

v =<br />

r∑<br />

a i u i +<br />

i=1<br />

} {{ }<br />

∈U<br />

s∑<br />

b j v j .<br />

j=1<br />

[ s∑ ]<br />

[v] = b j v j =<br />

j=1<br />

s∑<br />

b j [v j ]<br />

j=1


5.3 Quotientenräume 141<br />

Also ist {[v 1 ], . . . , [v s ]} eine Basis für V/U und man muss nur noch die Dimensionen<br />

abzählen:<br />

dim(V ) = r + s, dim(U) = r, dim(V/U) = s.<br />

⊓⊔<br />

Satz 5.3.9 (Dimensionsformel für lineare Abbildungen). Sei ϕ ∈ Hom K (V, W )<br />

mit dim(V ) < ∞. Dann gilt<br />

dim(V ) = dim(ker (ϕ)) + dim(im (ϕ)).<br />

Beweis. Idee: Kombiniere Satz 5.3.8 mit Satz 5.3.6.<br />

Wegen Satz 5.3.8 haben wir<br />

dim(V ) = dim ( ker (ϕ) ) + dim ( V/ ker (ϕ) ) .<br />

Aber Satz 5.3.6 und Bemerkung 5.2.9 zeigen dim(im (ϕ)) = dim(V/ ker (ϕ)).<br />

⊓⊔<br />

Übung 5.3.1. Sei V = {f : [−1, 1] → R | stetig} und U = {f : [−1, 1] → R: stetig, f(−1) =<br />

f(1) = 0}. Zeige:<br />

(i) V ist ein R-Vektorraum und U ist ein Untervektorraum von V .<br />

(ii) V/U ist isomorph zu R 2 .<br />

Übung 5.3.2. Sei ϕ: V → W ein K-Vektorraumhomomorphismus und U ⊆ V ein Untervektorraum.<br />

Zeige, dass folgende Aussagen äquivalent sind:<br />

(a) U ⊆ ker ϕ.<br />

(b) ϕ faktorisiert über V/U, d.h. es existiert eine K-lineare Abbildung ψ : V/U → W mit<br />

ψ([v]) = ϕ(v), wobei [v] die Klasse von v ∈ V in V/U ist.<br />

Übung 5.3.3. Definiere die Ordnungsfunktion ord: S 3 → N durch<br />

und setze<br />

ord(σ) := min{n ∈ N | σ n = (1)}<br />

R 1 := {(σ, σ ′ ) ∈ S 3 × S 3 | ord(σ) = ord(σ ′ )}.<br />

Zeige, dass R 1 eine Äquivalenzrelation ist und bestimme alle Äquivalenzklassen.<br />

Übung 5.3.4. (i) Die minimale Anzahl von Exemplaren von (1 2) und (2 3), die man in (i)<br />

braucht, um σ zu schreiben, heißt die Länge l(σ) von σ. Man setzt dabei l((1)) := 0.<br />

Berechne l(σ) für alle σ ∈ S 3.<br />

(ii) Betrachte<br />

R 2 := {(σ, σ ′ ) ∈ S 3 × S 3 | l(σ) = l(σ ′ )}.<br />

Zeige, dass R 2 eine Äquivalenzrelation ist und bestimme alle Äquivalenzklassen.<br />

Übung 5.3.5. Sei Z die Menge der ganzen Zahlen und sei n ∈ N festgelegt. Setze<br />

R n := {(a, b) ∈ Z × Z | ∃m ∈ Z mit b − a = mn},<br />

also aR nb genau dann, wenn b − a durch n teilbar ist.<br />

(a) Man zeige, dass R n eine Äquivalenzrelation ist.<br />

(b) Wie viele verschiedene Äquivalenzklassen bezüglich R n gibt es?


142 5 Vektorräume<br />

Übung 5.3.6. Seien U und W Untervektorräume des K-Vektorraums V . Man zeige, dass<br />

die Quotientenräume (U + W )/W und U/(U ∩ W ) K-isomorph sind.<br />

Hinweis: Für u ∈ U und w ∈ W setze [u+w] + für die Äquivalenzklasse von u+w ∈ U +W<br />

in (U + W )/W und [u] ∩ für die Äquivalenzklasse von u ∈ U in U/(U ∩ W ). Man betrachte<br />

die Abbildung ψ : (U + W )/W → U/(U ∩ W ) gegeben durch ψ([u + w] +) = [u] ∩. (Ist ψ<br />

wohldefiniert?)<br />

Übung 5.3.7. Sei<br />

D =<br />

{( )<br />

}<br />

a b<br />

∈ Mat(2 × 2, R) ∣ a, b, d ∈ R<br />

0 d<br />

die Menge der 2 × 2 oberen Dreiecksmatrizen. Man zeige:<br />

(a) D ist ein Untervektorraum von Mat(2×2, R) mit der koeffizientenweisen Addition und<br />

Skalarmultiplikation.<br />

(b) Der Quotientenraum Mat(2 × 2, R)/D ist isomorph zu R.<br />

Übung 5.3.8. Seien U, V und W endlich dimensionale K-Vektorräume und<br />

ϕ : U → V<br />

ψ : V → W<br />

ein injektiver K-Homomorphismus,<br />

ein surjektiver K-Homomorphismus.<br />

Man zeige: wenn Kern(ψ) = Bild(ϕ), dann gilt<br />

dim K (U) + dim K (W ) = dim K (V ).<br />

Übung 5.3.9. Durch die Zuordnungen f((1, 2)) = (0, 0) und f((0, 1)) = (0, 1) ist eine<br />

lineare Abbildung f : R 2 → R 2 gegeben.<br />

(a) Man bestimme den Kern von f.<br />

(b) Man skizzieren den Quotientenvektorraum R 2 / ker (f) und im (f).<br />

(c) Man beschreibe die kanonische Faktorisierung von f, insbesondere den Quotientenhomomorphismus<br />

π : R 2 → R 2 / ker (f) und den Isomorphismus f : R 2 / ker (f) → im (f).<br />

Übung 5.3.10. Gegeben seien die Vektoren<br />

⎛ ⎞<br />

⎛ ⎞<br />

1<br />

0<br />

v 1 = ⎜1<br />

⎟<br />

⎝0⎠ und v2 = ⎜0<br />

⎟<br />

⎝1⎠<br />

0<br />

1<br />

in R 4 . Weiter sei W = Span(v 1, v 2) und sei<br />

π : R 4 −→ R 4 /W<br />

v<br />

↦−→ [v] = v + W<br />

die kanonische Projektion von R 4 nach dem Quotientenvektorraum R 4 /W .<br />

(a) Man zeige, dass B 1 = {[e 1], [e 3]} eine Basis von R 4 /W ist. Hier bezeichnet B =<br />

{e 1, e 2, e 3, e 4} die Standardbasis in R 4 .<br />

(b) Man bestimme die Matrix von π bezüglich der Basen B und B 1.<br />

(c) Man zeige, dass B ′ = {e 1, e 3, v 1, v 2} eine Basis von R 4 ist.<br />

(d) Man bestimme die Matrix von π bezüglich der Basen B ′ und B 1.<br />

Übung 5.3.11. Untersuche, ob die nachfolgenden Relationen reflexiv, symmetrisch und/oder<br />

transitiv sind:<br />

1. M := R × R, (x, y) ∼ (x ′ , y ′ ) : ⇐⇒ xy ′ = x ′ y ,<br />

2. M := (R × R) \ {(0, 0)}, (x, y) ∼ (x ′ , y ′ ) : ⇐⇒ xy ′ = x ′ y ,<br />

3. M := Abb(R, R), f ∼ g : ⇐⇒ ∃c ∈ R : ∀x ∈ R : f(x) − g(x) = c ,<br />

4. M := Z, m ∼ n : ⇐⇒ m + n ist gerade.


5.4 Dualräume 143<br />

5.4 Dualräume<br />

Das Konzept des Dualraums wirkt aufgesetzt, solange man sich nur für n-dimensionale<br />

Zahlenräume interessiert. Aber schon wenn man sich die Frage stellt, welche<br />

linearen Unterräume denn als Lösungsmengen von homogenen linearen Gleichungssystemen<br />

vorkommen können (vgl. Abschnitt 1.3), wird man in natürlicher Weise<br />

auf den Dualraum des n-dimensionalen Zahlenraums geführt, dessen Elemente man<br />

als homogene lineare Gleichungen auf dem Zahlenraum interpretieren kann. In der<br />

Analysis tauchen Dualräume in natürlicher Weise im Kontext von Richtungsableitungen<br />

auf.<br />

Wir beginnen mit der formalen Definition eines Dualraums:<br />

Definition 5.4.1. Sei V ein K-Vektorraum, dann heißt V ∗ := Hom K (V, K) der<br />

Dualraum von V und die Elemente von V ∗ heißen Linearformen oder auch<br />

lineare Funktionale auf V .<br />

Nach Satz 5.2.17 gilt für endlich dimensionales V dann dim K (V ∗ ) = dim K (V ).<br />

Diese Aussage bleibt aber auch für unendlich dimensionales V richtig (Übung).<br />

In der Differentialrechnung von skalarwertigen Funktionen mehrerer Variabler<br />

sind die Ableitungen in natürlicher Weise Elemente des Dualraums von R n : Jedem<br />

Richtungsvektor in R n wird eine skalarwertige Richtungsableitung zugeordnet und<br />

diese Zuordnung ist linear.<br />

Die Identifikation von (K n ) ∗ mit der Menge der homogenen linearen Gleichungen<br />

in n Variablen wird durch<br />

a 1 x 1 + . . . + a n x n = 0 ( (x 1 , . . . , x n ) ↦→ a 1 x 1 + . . . + a n x n<br />

)<br />

gegeben. Das wird uns später helfen zu sehen, dass, genau wie im Falle n = 2, jeder<br />

lineare Unterraum von K n die Lösungsmenge eines homogenen linearen Gleichungssystems<br />

ist.<br />

Beispiel 5.4.2. Wenn dim(V ) = n, dann kann man mit Satz 5.2.17 einen Isomorphismus<br />

zwischen V ∗ und Mat(1 × n, K) bekommen. Auch daran lässt sich<br />

dim(V ∗ ) = n ablesen.<br />

⊓⊔<br />

Satz 5.4.3. Sei V ein K-Vektorraum mit Basis {v 1 , . . . , v n }. Definiere f i ∈ V ∗ für<br />

i = 1, . . . , n via f i (v j ) = δ ij . Dann ist {f 1 , . . . , f n } eine Basis für V ∗ (genannt die<br />

duale Basis).<br />

Beweis. Idee: Werte Linearkombinationen der f i in den v j aus.<br />

Wenn ∑ n<br />

i=1 c if i = 0, dann ergibt die Auswertung in v j<br />

0 =<br />

n∑<br />

c i f i (v j ) =<br />

i=1<br />

n∑<br />

c i δ ij = c j ∀j = 1, . . . , n.<br />

i=1<br />

Also sind die f i linear unabhängig. Da aber dim(V ∗ ) = dim(V ) = n gilt, bilden die<br />

f i sogar eine Basis.<br />

⊓⊔


144 5 Vektorräume<br />

Satz 5.4.4. Sei ϕ ∈ Hom K (V, W ). Dann ist<br />

ϕ ∗ : W ∗ → V ∗ ,<br />

f ↦→ f ◦ ϕ<br />

eine K-lineare Abbildung, die als duale Abbildung von ϕ bezeichnet wird.<br />

Beweis. Für r, s ∈ K und f, h ∈ W ∗ rechnet man<br />

ϕ ∗ (rf + sh)(v) = ( (rf + sh) ◦ ϕ ) (v)<br />

= (rf + sh)(ϕ(v))<br />

= rf(ϕ(v)) + sh(ϕ(v))<br />

= r(f ◦ ϕ(v)) + s(h ◦ ϕ(v))<br />

= rϕ ∗ (f)(v) + sϕ ∗ (h)(v)<br />

= ( rϕ ∗ (f) + sϕ ∗ (h) ) (v).<br />

Also gilt ϕ ∗ (rf + sh) = rϕ ∗ (f) + sϕ ∗ (h).<br />

⊓⊔<br />

Satz 5.4.5. Seien V und W endlich dimensionale K-Vektorräume sowie {v 1 , . . . , v n }<br />

und {w 1 , . . . , w m } Basen dafür. Weiter seien {f 1 , . . . , f n } und {g 1 , . . . , g m } die<br />

zugehörigen dualen Basen für V ∗ und W ∗ . Für ϕ ∈ Hom(V, W ) und ϕ ∗ ∈<br />

Hom(W ∗ , V ∗ ) gilt bzgl. dieser Basen für die darstellenden Matrizen von ϕ und<br />

ϕ ∗ A ϕ ∗ = (A ϕ ) ⊤ .<br />

Beweis. Idee: Schreibe die ϕ(v j) als Linearkombinationen der w i und berechne damit<br />

ϕ ∗ (g i)(v j).<br />

Sei A ϕ = (a ij ) i<br />

j<br />

Basen. Dann gilt<br />

und<br />

= 1 , ... ,<br />

= 1 , ... ,<br />

m<br />

n<br />

die darstellende Matrix für ϕ bzgl. der gegebenen<br />

ϕ(v j ) =<br />

m∑<br />

a ij w i<br />

( ∑ m ) m∑<br />

ϕ ∗ (g i )(v j ) = (g i ◦ ϕ)(v j ) = g i (ϕ(v j )) = g i a lj w l = a lj g i (w l ) = a ij .<br />

} {{ }<br />

l=1<br />

l=1<br />

δ il<br />

i=1<br />

Wegen<br />

finden wir<br />

d.h.<br />

ϕ ∗ (g i ) =<br />

n∑<br />

k=1<br />

a ik f k (v j ) = a ij<br />

} {{ }<br />

δ kj<br />

n∑<br />

a ik f k i = 1, . . . , m,<br />

k=1<br />

⎛<br />

⎞<br />

a 11 · · · a m1<br />

⎜<br />

⎟<br />

A ϕ ∗ = ⎝ . . ⎠ = A ⊤ ϕ .<br />

a 1n · · · a mn<br />

⊓⊔


ψ<br />

5.4 Dualräume 145<br />

Bemerkung 5.4.6. Es gilt für U−−→V<br />

−−→W , dass (ϕ ◦ ψ) ∗ = ψ ∗ ◦ ϕ ∗ ist und<br />

Satz 5.4.5 zeigt daher, dass (AB) ⊤ = B ⊤ A ⊤ , weil jede Matrix A als A ϕ für eine<br />

passende Abbildung ϕ geschrieben werden kann (vgl. Bemerkung 3.2.12). ⊓⊔<br />

ϕ<br />

Satz 5.4.7. Seien V und W zwei endlichdimensionale K-Vektorräume und ϕ ∈<br />

Hom K (V, W ). Dann gilt für die darstellenden Matrizen A ϕ und A ϕ ∗ bzgl. beliebiger<br />

Basen die Identität<br />

Rang(A ϕ ) = dim(im (ϕ)) = dim(im (ϕ ∗ )) = Rang(A ϕ ∗).<br />

Man nennt dim ( im (ϕ) ) den Rang von ϕ und schreibt Rang(ϕ) dafür.<br />

Beweis. Idee: Benütze zwei Basen, um Isomorphismen von V und W nach K n und K m<br />

zu konstruieren, übertrage ϕ bei gleichbleibender darstellender Matrix in diese Räume und<br />

beachte, dass jetzt Bilder durch den Spann von Spaltenvektoren gegeben sind.<br />

Seien {v 1 , . . . , v n } und {w 1 , . . . , w n } Basen für V bzw. W. Dann erhält man aus<br />

Bemerkung 5.2.14 K-Vektorraumisomorphismen α : K n → V und β : K m → W :<br />

⎛ ⎞<br />

⎛ ⎞<br />

x 1<br />

y<br />

⎜ ⎟<br />

n∑<br />

1<br />

⎜ ⎟<br />

m∑<br />

α ⎝ . ⎠ = x j v j , β ⎝ . ⎠ = y j w i .<br />

x<br />

j=1<br />

n y<br />

i=1<br />

m<br />

Betrachte die Verknüpfung<br />

K n<br />

α<br />

→ V<br />

ϕ<br />

→ W<br />

β −1<br />

→ K m<br />

und beachte<br />

⎛ ⎞<br />

a 1j<br />

β −1 ◦ ϕ ◦ α(e j ) = β −1 ◦ ϕ(v j ) = β −1( ∑<br />

m ) m∑<br />

.<br />

a ij w i = a ij β −1 (w i ) =<br />

a ij<br />

,<br />

i=1<br />

i=1<br />

⎜ ⎟<br />

⎝ . ⎠<br />

a mj<br />

wobei e j der j-te Standardbasisvektor in K n ist. Dies zeigt, dass die darstellende<br />

Matrix von β −1 ◦ ϕ ◦ α (bzgl. der Standardbasen) auch A ϕ ist.<br />

⎛ ⎞<br />

a 1j<br />

Wir haben einerseits im (β −1 ⎜ ⎟<br />

◦ ϕ ◦ α) = span(a 1 , . . . , a n ) mit a j = ⎝ . ⎠ .<br />

a mj<br />

Andererseits gilt<br />

im (β −1 ◦ ϕ ◦ α) = β −1 ◦ ϕ ◦ α(K n ) = β −1 (ϕ(V )) = β −1( im (ϕ) ) .<br />

Mit Lemma 5.2.6, Lemma 3.2.13 und Satz 5.4.5 rechnet man jetzt<br />

dim ( im (ϕ) ) = dim ( im (β −1 ◦ ϕ ◦ α) )<br />

= dim ( span(a 1 , . . . , a n ) )<br />

= Rang(A ϕ )<br />

= Rang(A ⊤ ϕ )<br />

= Rang(A ϕ ∗)<br />

= dim ( im (ϕ ∗ ) ) .<br />

⊓⊔


146 5 Vektorräume<br />

Das in der folgenden Definition eingeführte Konzept des Annulators erweist sich<br />

als nützlich bei der Beschreibung des Kerns einer dualen Abbildung.<br />

Definition 5.4.8. Sei V ein K-Vektorraum und A ⊆ V . Dann heißt<br />

der Annullator von A.<br />

A 0 := {f ∈ V ∗ | f(a) = 0 ∀a ∈ A}<br />

Bemerkung 5.4.9. A 0 ist immer ein K-Untervektorraum von V ∗ , denn<br />

(rf + sh)(a) = rf(a) + sh(a) = r · 0 + s · 0 ∀r, s ∈ K ∀f, h ∈ A 0 ∀a ∈ A<br />

impliziert rf + sh ∈ A 0 .<br />

⊓⊔<br />

Proposition 5.4.10. Für ϕ ∈ Hom K (V, W ) gilt ker (ϕ ∗ ) = (im (ϕ)) 0 .<br />

Beweis. Beachte, dass ϕ ∗ (g)(v) = g(ϕ(v)) für alle g ∈ W ∗ , v ∈ V . Also gelten die<br />

folgenden Äquivalenzen:<br />

g ∈ (im (ϕ)) 0 ⇐⇒ g(ϕ(v)) = 0<br />

∀v ∈ V<br />

⇐⇒ ϕ ∗ (g)(v) = 0 ∀v ∈ V<br />

⇐⇒ ϕ ∗ (g) = 0 ∈ V ∗<br />

⇐⇒ g ∈ ker (ϕ ∗ ).<br />

⊓⊔<br />

Beispiel 5.4.11. Betrachte die Matrix<br />

⎛<br />

A = ⎝ 0 1 0<br />

⎞<br />

0 0 1⎠<br />

0 0 0<br />

und die zugehörige lineare Abbildung<br />

⎛ ⎞<br />

x<br />

ϕ A : R 3 → R 3 , ⎝y⎠ ↦→<br />

z<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

0 1 0 x y<br />

⎝0 0 1⎠<br />

⎝y⎠ = ⎝z⎠ .<br />

0 0 0 z 0<br />

Wie in Beispiel 5.4.2 können wir den Dualraum von R 3 = Mat(3 × 1, R) mit dem<br />

Raum Mat(1 × 3, R), d.h. dem Raum der reellen Zeilenvektoren mit drei Spalten<br />

identifizieren. Das zu (a, b, c) gehörige lineare Funktional ist dann durch<br />

⎛ ⎞<br />

x<br />

(a, b, c) ⎝y⎠ = ax + by + cz,<br />

z<br />

d.h. durch Matrizenmultiplikation gegeben. Nach Definition der dualen Abbildung<br />

muss also gelten<br />

⎛ ⎞<br />

⎛ ⎞<br />

⎛ ⎞ ⎛ ⎞<br />

(<br />

ϕ<br />

∗<br />

A (a, b, c) ) x<br />

⎝y⎠ = (a, b, c) ( x<br />

ϕ A<br />

⎝y⎠ ) 0 1 0 x<br />

= (a, b, c) ⎝0 0 1⎠<br />

⎝y⎠ .<br />

z<br />

z<br />

0 0 0 z


Dies führt auf<br />

Jetzt rechnet man sofort<br />

und<br />

⎛ ⎞<br />

0 1 0<br />

ϕ ∗ A(a, b, c) = (a, b, c) ⎝0 0 1⎠ = (0, a, b).<br />

0 0 0<br />

{ ⎛<br />

im (ϕ A ) = ⎝ x ⎞<br />

y⎠ ∣ }<br />

∣ x, y ∈ R<br />

0<br />

ker (ϕ ∗ A) = {(0, 0, c) | c ∈ R} = im (ϕ A )) 0<br />

nach, hat also die Proposition 5.4.10 für dieses Beispiel verifiziert.<br />

Betrachte die kanonische Basis<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

1 0 0<br />

⎝0⎠ , ⎝1⎠ , ⎝0⎠<br />

0 0 1<br />

5.4 Dualräume 147<br />

für R 3 . Dann ist (1, 0, 0), (0, 1, 0), (0, 0, 1) die duale Basis für Mat(1 × 3, R) ∼ = R 3 .<br />

Die darstellende Matrix von ϕ ∗ A bzgl. dieser Matrix ergibt sich aus<br />

ϕ ∗ A(1, 0, 0) = (0, 1, 0), ϕ ∗ A(0, 1, 0) = (0, 0, 1), ϕ ∗ A(0, 0, 0) = (0, 0, 0)<br />

zu<br />

⎛ ⎞<br />

0 0 0<br />

⎝1 0 0⎠ = A ⊤<br />

0 1 0<br />

und wir haben auch Satz 5.4.4 für dieses Beispiel verifiziert.<br />

⊓⊔<br />

Bemerkung 5.4.12. (i) Sei V ein K-Vektorraum und U ⊆ V ein linearer Unterraum.<br />

Die duale Abbildung der Injektion j : U → V ist die Einschränkungsabbildung<br />

ρ: V ∗ → U ∗ , f ↦→ f| U ,<br />

deren Kern gerade U 0 ist (vgl. auch Proposition 5.4.10). Nach Proposition 5.3.9<br />

gilt dim(ker ρ) = dim V −dim(im ρ). Da eine lineare Abbildung durch ihre Werte<br />

auf einer Basis beliebig vorgegeben werden kann, lässt sich jede Linearform<br />

auf U zu einer Linearform auf V fortsetzen: Man ergänzt eine Basis für U zu<br />

einer Basis für V und setzt das vorgegebene lineare Funktional auf U mit 0<br />

(oder irgendwelchen anderen Werten) auf den zusätzlichen Basisvektoren fort.<br />

Also ist ρ surjektiv und es gilt<br />

dim U 0 = dim V − dim U.<br />

(ii) Sei jetzt V = K n und f 1 , . . . , f k eine Basis für U 0 . Betrachte die lineare Abbildung<br />

⎛ ⎞<br />

f 1 (v)<br />

ϕ: K n → K k ⎜ ⎟<br />

, v ↦→ ⎝ . ⎠ ,<br />

f k (v)<br />

deren Kern offensichtlich U enthält. Betrachtet man die Linearformen f j als<br />

Zeilenvektoren, d.h. als Elemente von Mat(1 × n, K), die auf den Elementen<br />

von K n = Mat(n × 1, K) durch Matrizenmultiplikation wirken, so ist ϕ nichts


148 5 Vektorräume<br />

anderes als die Matrizenmultiplikation mit der Matrix A ∈ Mat(k ×n, K), deren<br />

Zeilen die f j ’s sind. Diese Zeilen sind nach Voraussetzung linear unabhängig,<br />

also hat A den Rang k. Mit den Sätzen 5.3.9 und 5.4.7 sowie (i) rechnet man<br />

jetzt<br />

dim U ≤ dim( ker ϕ) = n − dim( im ϕ) = n − k = dim U<br />

und es folgt U = ker ϕ. Also ist U die Lösungsmenge des homogenen linearen<br />

Gleichungssystems<br />

Ax = 0.<br />

Es ist also jeder lineare Unterraum von K n der Lösungsraum eines homogenen<br />

linearen Gleichungssystems.<br />

⊓⊔<br />

Übung 5.4.1. Gegeben seien die Vektoren in R 3<br />

⎛ ⎞<br />

1<br />

u 1 = ⎝−1⎠ ,<br />

⎛ ⎞<br />

2<br />

u 2 = ⎝0⎠ ,<br />

⎛ ⎞<br />

−1<br />

u 3 = ⎝ 2 ⎠ .<br />

2<br />

1<br />

0<br />

(a) Man zeige, dass B = {u 1, u 2, u 3} eine Basis von R 3 ist.<br />

(b) Man bestimme die zu B gehörige duale Basis von R 3 .<br />

Übung 5.4.2. Betrachte die lineare Abbildung ϕ: R 4 → R 4 mit<br />

⎛ ⎞ ⎛ ⎞<br />

x 1 x 3 − x 4<br />

ϕ ⎜x 2<br />

⎟<br />

⎝x 3<br />

⎠ = ⎜x 2 − x 3<br />

⎟<br />

⎝x 1 − x 2<br />

⎠ .<br />

x 4 x 1 − x 4<br />

(a) Bestimme Kern ϕ und Bild ϕ.<br />

(b) Bestimme Kern ϕ ∗ und Bild ϕ ∗ .<br />

Übung 5.4.3. Es seien die folgenden Linearformen f 1, f 2, f 3, f 4 gegeben (f i : R 6 → R):<br />

Sind f 1, f 2, f 3, f 4 linear abhängig?<br />

f 1(x 1, . . . , x 6) = x 1 + x 3 + x 6,<br />

f 2(x 1, . . . , x 6) = x 2 + x 4,<br />

f 3(x 1, . . . , x 6) = x 2 + x 3 + x 5,<br />

f 4(x 1, . . . , x 6) = x 1 + x 4 − x 5 + x 6.<br />

Übung 5.4.4. Betrachte die Abbildung ϕ: R 4 → R 4 mit<br />

(i) Zeige, dass ϕ linear ist.<br />

(ii) Bestimme ker ϕ und im ϕ.<br />

(iii) Bestimme ker ϕ ∗ und im ϕ ∗ .<br />

ϕ(x 1, x 2, x 3, x 4) = (x 3 − x 4, x 2 − x 3, x 1 − x 2, x 1 − x 4).<br />

Übung 5.4.5. Sei V ein endlich dimensionaler K-Vektorraum und V ∗ der Dualraum von<br />

V . Sei weiter V ∗∗ := (V ∗ ) ∗ der Dualraum von V ∗ . Zeige: Die Abbildung ϕ: V → V ∗∗<br />

definiert durch<br />

(<br />

ϕ(v)<br />

)<br />

(f) = f(v), für v ∈ V und f ∈ V<br />

∗<br />

ist ein K-Vektorraumisomorphismus. (Hinweis: Es genügt zu zeigen, dass ϕ K-linear und<br />

injektiv ist.)<br />

Übung 5.4.6. Sei V ein R-Vektorraum und W ein Untervektorraum von V . Gegeben sei<br />

eine lineare Abbildung f : W → R sowie ein Vektor v 0 ∈ V \ W . Zeige: Es existiert eine<br />

lineare Abbildung F : W → R mit F (w) = f(w) für alle w ∈ W und F (v 0) = 1.


5.5 Direkte Summen 149<br />

Übung 5.4.7. Sei V ein K-Vektorraum und V ∗ der zu V duale Vektorraum. Für A ⊆ V<br />

bezeichnet A 0 = {f ∈ V ∗ | f(a) = 0 ∀a ∈ A} ⊆ V ∗ den Annulator von A. Analog sei für<br />

X ⊆ V ∗ der Annulator von X definiert als<br />

0 X := {v ∈ V | f(v) = 0 ∀f ∈ X} ⊆ V .<br />

Zeige: Ist V endlich dimensional und U ⊆ V ein linearer Unterraum, so gilt 0 (U 0 ) = U.<br />

Hinweis: Für die Inklusion ”<br />

⊂“ zeige man zunächst folgende Aussage: Ist B =<br />

(v 1, . . . , v n) eine Basis von V mit U := span{v 1, . . . , v k } und ist (f 1, . . . , f n) die zu B<br />

duale Basis von V ∗ , so ist {f k+1 , . . . , f n} ⊂ U 0 . (Diese Elemente bilden sogar eine Basis<br />

von U 0 .)<br />

Übung 5.4.8. Betrachte die lineare Abbildung ϕ : R 3 → R 2 mit<br />

ϕ(x, y, z) = (y + z, x − y) ,<br />

und folgende Basen von R 3 bzw. R 2 (vgl. Präsenzaufgabe 1)<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

⎨ 2 3 1 ⎬ {( ) ( )}<br />

⎝ 1 ⎠ , ⎝1⎠ , ⎝−2⎠<br />

2 −1<br />

⎩<br />

⎭ , , .<br />

1 1<br />

−1 0 2<br />

1. Bestimme die zu diesen Basen dualen Basen von (R 3 ) ∗ ∼ = Mat(1 × 3, R) bzw. (R 2 ) ∗ ∼ =<br />

Mat(1 × 2, R).<br />

2. Bestimme die Matrixdarstellung der dualen linearen Abbildung ϕ ∗ : (R 2 ) ∗ → (R 3 ) ∗<br />

bezüglich dieser Basen einerseits durch Anwendung der Definition von ϕ ∗ und andererseits<br />

durch Anwendung von Satz 5.4.5.<br />

Übung 5.4.9. Es seien V , W endlich dimensionale K-Vektorräume und ϕ ∈ Hom K(V, W ).<br />

Sei ϕ ∗ ∈ Hom(W ∗ , V ∗ ) die zu ϕ duale Abbildung. Man zeige:<br />

ϕ ist surjektiv<br />

⇐⇒ ϕ ∗ ist injektiv.<br />

5.5 Direkte Summen<br />

In diesem Abschnitt untersuchen wir wie man Vektorräume aus kleineren Vektorräumen<br />

zusammensetzen kann. Dies wird später in der Untersuchung der Feinstruktur<br />

von linearen Abbildungen sehr wichtig sein, aber hier beschränken wir uns<br />

wieder auf nur einen Typus von Anwendung, der durch die Analysis motiviert ist.<br />

Wir betrachten Graphen von linearen linearen Abbildungen, die wir uns als lineare<br />

Approximationen von beliebigen differenzierbaren Abbildungen vorstellen. Dann<br />

zeigen wir, dass diese Untervektorräume die direkten Summen von Urbild- und<br />

Bildraum sind. Schließlich beweisen wir die lineare Version des Satzes über implizite<br />

Funktionen, der eine zentrale Rolle in der Differentialrechnung von Funktionen<br />

mehrerer Variablen spielt.<br />

Definition 5.5.1. Sei M ⊆ N und V j , j ∈ M eine Menge von K-Vektorräumen.<br />

Dann heißt<br />

⊕<br />

V j :=<br />

{f : M → ⋃ ∣ }<br />

∣∣<br />

V j f(j) ∈ Vj , f fast überall Null<br />

j∈M<br />

j∈M<br />

direkte Summe der V j . Dabei bedeutet f fast überall Null, dass f nur an endlich<br />

vielen Stellen von Null verschiedene Werte annimmt. Man schreibt (v j ) j∈M für die<br />

Abbildung f : M → ⋃ j∈M V j mit f(j) = v j .<br />

Wenn M = {1, . . . , n} ist, schreibt man auch V 1 ⊕ . . . ⊕ V n statt ⊕ j∈M V j und<br />

(v 1 , . . . , v n ) statt (v j ) j∈M .


150 5 Vektorräume<br />

Proposition 5.5.2. Sei M ⊆ N und V j , j ∈ M eine Menge von K-Vektorräumen.<br />

Dann ist ⊕ j∈M V j ein Vektorraum bzgl. der Verknüpfungen<br />

(v j ) j∈M + (w j ) j∈M := (v j + w j ) j∈M<br />

c(v j ) j∈M := (cv j ) j∈M .<br />

Beweis. Um zu zeigen, dass die Verknüpfungen wohldefiniert sind, muss man beachten,<br />

dass die Summe von zwei fast überall verschwindenden Abbildungen selbst<br />

wieder fast überall verschwindet. Die Rechengesetze folgen unmittelbar aus den<br />

entsprechenden Gesetzen für die einzelnen V j .<br />

⊓⊔<br />

Beispiel 5.5.3 (Graphen). Sei ϕ: V → W eine lineare Abbildung. Dann ist der<br />

Graph<br />

Γ (ϕ) := {(v, w) ∈ V ⊕ W | ϕ(v) = w}<br />

von ϕ ein Untervektorraum von V ⊕ W .<br />

Beispiel 5.5.4 (Implizite Funktionen). Seien U, V und W endlich dimensionale<br />

K-Vektorräume und f : U ⊕ V → W eine K-lineare Abbildung. Weiter sei (u 0 , v 0 ) ∈<br />

U ⊕ V mit f(u 0 , v 0 ) = 0 gegeben. Wir nehmen an, dass die lineare Abbildung<br />

F 2 : V → W, v ↦→ f(0, v) invertierbar ist. Dann gibt es zu jedem u ∈ U ein eindeutig<br />

bestimmtes g(u) = v ∈ V mit g(u 0 ) = v 0 und f(u, v) = 0. Die so definierte<br />

Abbildung g : U → V ist für u = u 0 + t ∈ U durch die Formel<br />

g(u 0 + t) = v 0 − F −1<br />

2 ◦ F 1 (t) (5.1)<br />

mit F 1 : U → W, u ↦→ f(u, 0) gegeben. In Abbildung 5.2 wird die Situation für<br />

U = V = R und f eine Projektion auf einen Gerade in U ⊕ V = R 2 skizziert.<br />

Zum Nachweis der Behauptung rechnen wir<br />

f(u 0 + t, v 0 + s) = f(u 0 , v 0 ) + f(t, s) = f(u 0 , v 0 ) + f(t, 0) + f(0, s)<br />

= F 1 (t) + F 2 (s), (5.2)<br />

so dass f(u 0 + t, v 0 + s) = 0 genau dann gilt, wenn s = −F2 −1 ◦ F 1 (t), d.h. wenn<br />

g(u) = v = v 0 + s.<br />

Da f als linear angenommen wurde, gilt f(0, 0) = 0, also g(0) = 0. Damit<br />

erhalten wir zunächst v 0 = −F2 −1 ◦ F 1 (u 0 ) und dann g(u) = −F2 −1 ◦ F 1 (u 0 ), was<br />

einfacher ist als die Formel (5.1) für g. Der Beweis für den allgemeinen Satz über<br />

implizite Funktionen besteht darin, die allgemeine Situation in cleverer Art und<br />

Weise durch den hier geschilderten linearen Fall zu approximieren. Beim Versuch<br />

die obigen Aussagen auf nichtlineare Funktionen f zu verallgemeinern stellt man<br />

fest, dass F 1 und F 2 die Rolle der partiellen Ableitungen von f an der Stelle (u 0 , v 0 )<br />

in Richtung der U-, bzw. V -Variablen spielen. Die Formel (5.1) sowie die Rechnung<br />

(5.2) lassen sich als Taylorentwicklungen interpretieren:<br />

g(u 0 + t) = g(u 0 ) − F −1<br />

2 ◦ F 1 (t). (5.3)<br />

Man bekommt dann zwar die Existenz von g, aber auch das nur lokal und ohne eine<br />

exakte Formel. Einzig die Ableitung von g in u 0 lässt sich zu −F −1<br />

2 ◦ F 1 berechnen.<br />

⊓⊔<br />

⊓⊔


5.5 Direkte Summen 151<br />

U<br />

F 1<br />

V<br />

v<br />

v<br />

0<br />

(u , v )<br />

0 0<br />

u<br />

0<br />

u<br />

−1<br />

f (0)<br />

(u,g(u))<br />

U<br />

f<br />

W<br />

V<br />

F<br />

2<br />

Abb. 5.2. Implizite Funktion<br />

Definition 5.5.5. Um einen vorgegeben Vektorraum in kleinere Bausteine zu zerlegen,<br />

führt man den Begriff der inneren direkten Summe ein. Sei V ein K-<br />

Vektorraum, M ⊆ N und V j , j ∈ M eine Menge von Untervektorräumen von V .<br />

Der Untervektorraum<br />

( ⋃ ) { ∑ ∣ }<br />

∣∣<br />

span V j = v j vj ∈ V j , fast alle v j = 0<br />

j∈M<br />

j∈M<br />

heißt die Summe der V j und wird mit ∑ j∈M V j bezeichnet. Die Summe ∑ j∈M V j<br />

heißt direkt, wenn<br />

⊕<br />

ϕ:<br />

j∈M<br />

V j → V, (v j ) j∈M ↦→ ∑ j∈M<br />

ein injektiver K-Vektorraum-Homomorphismus ist. V heißt die innere direkte<br />

Summe der V j , wenn ϕ ein K-Vektorraum-Isomorphismus ist. In diesem Fall<br />

schreibt man auch ⊕ j∈M V j für V .<br />

v j<br />

Proposition 5.5.6. (i) Die Abbildung ϕ: ⊕ j∈M V j → V ist immer ein K-Vektorraum-Homomorphismus.<br />

Die Betonung in der Definition liegt also auf injektiv.<br />

(ii) Die ( Injektivität ist äquivalent zu folgender Bedingung: Jede Menge von Vektoren<br />

⋃<br />

in<br />

j∈M j)<br />

V \ {0}, die aus jedem V j höchstens ein Element enthält, ist linear<br />

unabhängig.<br />

(iii) V ist genau dann die innere direkte Summe der V j , j ∈ M, wenn jedes v ∈ V<br />

in eindeutiger Weise als Summe von Elementen aus den V j geschrieben werden<br />

kann.


152 5 Vektorräume<br />

Beweis. (i) Ist durch einfaches Nachrechnen zu zeigen.<br />

(ii) Wir nehmen zunächst an, dass ϕ injektiv ist. Für eine Linearkombination<br />

∑<br />

cj v j = 0 mit v j ∈ V j \ {0} folgt dann aus ϕ((c j v j ) j∈M ) = 0 sofort c j v j = 0<br />

für alle j ∈ M. Damit gilt aber wegen v j ≠ 0 schon c j = 0. Also sind die v j<br />

linear unabhängig.<br />

( ⋃ )<br />

Umgekehrt, wenn jede Menge von Vektoren in<br />

j∈M V j \{0}, die aus jedem V j<br />

höchstens ein Element enthält, linear unabhängig ist, gilt für (v j ) j∈M ∈ ker (ϕ)<br />

mit v j = 0 für fast alle j ∈ M wegen der Relation 0 = ϕ((v j ) j∈M ) = ∑ j∈M 1·v j<br />

schon v j = 0 für alle j ∈ M.<br />

(iii) Sei V die direkte innere Summe der V j . Dann ist ϕ ein Isomorphismus. Wegen<br />

der Surjektivität lässt sich jedes v ∈ V als Summe ∑ j∈M v j mit v j ∈ V j<br />

schreiben. Wenn ∑ j∈M v j = ∑ j∈M v′ j , dann folgt ∑ j∈M (v j − v j ′ ) = 0, d.h.<br />

(v j − v j ′ ) j∈M ∈ ker ϕ = {0}, was die Eindeutigkeit der Summendarstellung<br />

zeigt. Umgekehrt folgt dann genauso aus der Existenz der Summendarstellung<br />

die Surjektivität von ϕ und aus der Eindeutigkeit der Summendarstellung die<br />

Injektivität von ϕ.<br />

⊓⊔<br />

Beispiel 5.5.7. Sei V ein K-Vektorraum und {v j | j ∈ M} eine Basis für V . Dann<br />

ist V die innere direkte Summe der Räume V j := Kv j , weil jedes Element von V<br />

in eindeutiger Weise als Summe von endlich vielen Elementen der V j geschrieben<br />

werden kann.<br />

⊓⊔<br />

Beispiel 5.5.8. Betrachte die folgenden Untervektorräume von K n :<br />

U 1 = {(x 1 , . . . , x n ) | x 1 = . . . = x m = 0}<br />

U 2 = {(x 1 , . . . , x n ) | x m+1 = . . . = x n = 0}<br />

1 ≤ m < n<br />

Dann gilt K n = U 1 ⊕ U 2 .<br />

⊓⊔<br />

Proposition 5.5.9. Sei M = {1, . . . , k} und V = ⊕ j∈M V j mit dim(V j ) = r j .<br />

Dann gilt dim(V ) = ∑ j∈M r j. Genauer, sei {v (j)<br />

1 , . . . , v(j) r j<br />

} eine Basis für V j . Dann<br />

ist {v (1)<br />

1 , . . . , v(1) r 1<br />

, . . . , v (k)<br />

1 , . . . , v(k) r k<br />

} eine Basis für V .<br />

Beweis. Es genügt zu beobachten, dass sich jedes Element von V in eindeutiger<br />

Weise als Summe von Elementen aus den V j schreiben lässt und jedes Element aus<br />

den V j in eindeutiger Weise als Linearkombination von Elementen der jeweiligen<br />

Basis geschrieben werden kann. Jetzt braucht man nur noch abzuzählen. ⊓⊔<br />

Im Rest dieses Abschnitts deuten wir an, wie die Zerlegung in innere direkte<br />

Summen, die Untersuchung von linearen Abbildungen erleichtern kann. Das ”<br />

Motto“<br />

der beschriebenen Vorgehensweise ist: Wähle Basen geschickt, um einfache darstellende<br />

Matrizen zu erhalten. Im nächsten Kapitel werden wir diesen Ansatz systematisch<br />

verfolgen.<br />

Definition 5.5.10. Sei V die innere direkte Summe der Unterräume V j , j ∈ M und<br />

ϕ ∈ Hom K (V, V ). Die Zerlegung V = ⊕ j∈M V j heißt ϕ-invariant, wenn ϕ(V j ) ⊆ V j<br />

für alle j ∈ M.


5.5 Direkte Summen 153<br />

Bemerkung 5.5.11. Sei ϕ ∈ Hom K (V, V ) und V = V 1 ⊕ · · · ⊕ V k eine ϕ-invariante<br />

innere direkte Summenzerlegung. Weiter seien r j := dim V j , {v (j)<br />

1 , . . . , v(j) r j<br />

} eine<br />

Basis für V j , und {v (1)<br />

1 , . . . , v(1) r 1<br />

, . . . , v (k)<br />

1 , . . . , v(k) r k<br />

} die entsprechende Basis für V .<br />

Es sei<br />

(<br />

Setzt man A (j) :=<br />

a (j)<br />

li<br />

ϕ(v (j)<br />

i ) =<br />

A ϕ bzgl. dieser Basis die Gestalt<br />

)<br />

r j<br />

∑<br />

l=1<br />

a (j)<br />

li v(j) l<br />

i = 1, . . . , r j .<br />

l=1,...,r j<br />

, dann bedeutet dies, dass die darstellende Matrix<br />

i=1,...,r j<br />

⎛<br />

⎜<br />

⎝<br />

⎞<br />

A (1) 0<br />

. .. ⎟<br />

⎠<br />

0 A (k)<br />

hat. Solche Matrizen nennt man Blockdiagonalmatrizen. Ist umgekehrt A ϕ von<br />

der obigen Gestalt bzgl. einer Basis<br />

{v (1)<br />

r 1<br />

1 , . . . , v(1)<br />

, . . . , v (k)<br />

1 , . . . , v(k) r k<br />

}<br />

für V , so liefert V j := span(v (j)<br />

1 , . . . , v(j) r j<br />

) eine ϕ-invariante innere direkte Summenzerlegung<br />

V = V 1 ⊕ · · · ⊕ V k .<br />

⊓⊔<br />

Bemerkung 5.5.12. Sei V ein K-Vektorraum und U, U ′ lineare Unterräume von<br />

V mit<br />

V = U + U ′ := {u + u ′ | u ∈ U, u ′ ∈ U ′ }.<br />

Dann ist V genau dann die innere direkte Summe von U und U ′ , wenn U ∩U ′ = {0}<br />

ist.<br />

Wenn nämlich U ∩ U ′ = {0} und v = u + u ′ = w + w ′ mit u, w ∈ U sowie<br />

u ′ , w ′ ∈ U ′ , dann gilt u − w = w ′ − u ′ ∈ U ∩ U ′ = {0}, d.h. u = w und u ′ = w ′ .<br />

Wegen V = U + U ′ und Proposition 5.5.6(iii) liefert dies V = U ⊕ U ′ .<br />

Umgekehrt, wenn V = U ⊕ U ′ , dann gilt für v ∈ U ∩ U ′ sowohl v = 0 + v mit<br />

0 ∈ U und v ∈ U ′ als auch v = v + 0 mit v ∈ U und 0 ∈ U ′ . Wieder mit Proposition<br />

5.5.6(iii) folgt also v = 0.<br />

⊓⊔<br />

Beispiel 5.5.13 (Projektionen). Es sei V ein K-Vektorraum, und seien U und<br />

W Untervektorräume von V mit V = U ⊕ W . Die Selbstabbildung<br />

p U : V −→ V,<br />

v = u + w ↦−→ u<br />

mit u ∈ U and w ∈ W ist wohldefiniert, da u (and w) eindeutig durch v bestimmt<br />

ist. Offensichtlich ist diese Abbildung linear und hat das Bild U. Wir nennen die<br />

Abbildung p U die Projektion auf U entlang W . In der Terminologie von Summen<br />

(oder Produkten) von Vektorräumen wird der Name Projektion oft für die<br />

lineare Abbildung pr U : V −→ U gebraucht, deren Einschränkung die Identität<br />

auf U ist und die den Kern W hat. Anstelle dieses Zugangs nehmen wir hier die<br />

Hintereinanderausführung von pr U mit der Einbettung ι : U −→ V mit u ↦−→ u,<br />

d.h. p U = ι ◦ pr U . Diese Definition hat die folgende nützliche Konsequenz:


154 5 Vektorräume<br />

Behauptung: Eine lineare Abbildung p : V −→ V ist genau dann eine Projektion,<br />

wenn p = p 2 := p ◦ p ist.<br />

Sei p die Projektion auf U entlang W , und sei v = u + w die eindeutige Zerlegung<br />

mit u ∈ U und w ∈ W . Dann gilt p(v) = u mit der eindeutigen Darstellung<br />

p(v) = u + 0. Damit haben wir p 2 (v) = p(u + 0) = u = p(v).<br />

Sei umgekehrt p : V −→ V eine lineare Abbildung mit p 2 = p. Wir werden zeigen,<br />

dass V = im p ⊕ ker p ist:<br />

1. Sei v ∈ ker p ∩ im p. Insbesondere haben wir dann v = p(v ′ ) für ein v ′ ∈ V .<br />

Weil auch v ∈ ker p gilt, erhalten wir v = p(v ′ ) = p 2 (v ′ ) = p(v) = 0. Demzufolge<br />

gilt im p ∩ ker p = {0}.<br />

2. Wir zeigen, dass V = im p + ker p ist: Dazu sei v ein beliebiges Element aus<br />

V . Wir setzen w := v − p(v) und erhalten auf Grund der Linearität p(w) =<br />

p(v − p(v)) = p(v) − p 2 (v) = 0. Also gilt w ∈ ker p und da v = p(v) + w ist, sind<br />

wir fertig.<br />

Somit folgt V = im p ⊕ ker p. Es bleibt noch zu zeigen, dass die Einschränkung<br />

von p auf im (p) die Identität ist. Dafür sei u ∈ im (p). Dann gibt es ein v ∈ V<br />

mit u = p(v), und damit erhalten wir u = p(v) = p 2 (v) = p(u). Deshalb ist p die<br />

Projektion auf im (p) entlang ker(p), was die Behauptung zeigt.<br />

Sei nun V ein endlich dimensionaler K-Vektorram, und sei p die Projektion auf<br />

U entlang W . Dann wählen wir Basen {u 1 , . . . , u r } und {w 1 , . . . , w s } für U bzw.<br />

W . Dann ist {u 1 , . . . , u r , w 1 , . . . , w s } nach Proposition 5.5.9 eine Basis für V . Da p<br />

die Identität auf U ist und auf W die Nullabbildung, hat p bezüglich dieser Basis<br />

die darstellende Matrix<br />

( )<br />

1r 0<br />

A p = .<br />

0 0<br />

⊓⊔<br />

Übung 5.5.1. V sei ein endlich dimensionaler R-Vektorraum und U ein R-Untervektorraum<br />

von V . Weiter sei W die Menge der linearen Abbildungen ϕ: V → V mit der Eigenschaft<br />

U ⊆ ker(ϕ).<br />

(a) Zeige, dass W ein R-Untervektorraum von Hom R (V, V ) ist.<br />

(b) Beweise die Dimensionsformel<br />

dim(W ) = ( dim(V ) − dim(U) ) dim(V ).<br />

Übung 5.5.2. Sei ϕ: K n → K n K-linear und diagonalisierbar (d.h. es existiert eine Basis<br />

bzgl. der A ϕ diagonal ist). Zeige, dass<br />

K n = (ker ϕ) ⊕ (im ϕ).<br />

Übung 5.5.3. Sei V ein endlich dimensionaler K-Vektorraum mit dim(V ) = n und U, U ′ <br />

V zwei K-Untervektorräume von V .<br />

(a) Zeige:<br />

(i) U ∪ U ′ ist kein Untervektorraum von V , wenn U U ′ und U ′ U.<br />

(ii) Wenn dim U = dim U ′ , dann gibt es ein v ∈ V mit<br />

dim(Kv + U) = dim(Kv + U ′ ) = 1 + dim U.<br />

(iii) Wenn dim U = dim U ′ , dann gibt es einen Untervektorraum W von V mit<br />

U ⊕ W = U ′ ⊕ W = V.


5.5 Direkte Summen 155<br />

(b) Zeige: Wenn es einen Untervektorraum W von V mit<br />

U ⊕ W = U ′ ⊕ W = V<br />

gibt, dann gilt dim U = dim U ′ .<br />

Übung 5.5.4. Sei V ein K-Vektorraum und α, β lineare Abbildungen auf V , so dass<br />

α + β = id V<br />

α ◦ β = β ◦ α = 0<br />

(die identische Abbildung)<br />

(die Nullabbildung).<br />

Man zeige:<br />

(a) α 2 = α und β 2 = β.<br />

(b) V = α(V ) ⊕ β(V ).<br />

Übung 5.5.5. Sei V ein K-Vektorraum, V ∗ der duale Vektorraum und f ∈ V ∗ \{0}. Zeige:<br />

Für jedes v ∈ V mit f(v) ≠ 0 gilt<br />

V = K v ⊕ ker(f) .<br />

Übung 5.5.6. Zeige, dass<br />

ϕ : R 2 → R 2 ,<br />

(<br />

x1<br />

)<br />

↦→ 1 x 2 3<br />

( )<br />

−x1 + 2x 2<br />

−2x 1 + 4x 2<br />

eine Projektion ist und bestimme die Zerlegung R 2 = U ⊕ W , so dass ϕ die Projektion auf<br />

U entlang W ist. Skizziere U und W in R 2 und die Wirkung von ϕ auf R 2 .<br />

Übung 5.5.7. Es seien<br />

U g := {f ∈ Abb(R, R) | f(x) = f(−x) ∀ x ∈ R}<br />

U u := {f ∈ Abb(R, R) | f(x) = −f(−x) ∀ x ∈ R}<br />

die Menge der geraden bzw. ungeraden Funktionen. Zeige:<br />

a) U g und U u sind Untervektorräume von Abb(R, R).<br />

b) U g ⊕ U u = Abb(R, R), d.h. U g + U u = Abb(R, R) und U g ∩ U u = {0}.<br />

Hinweis: Ist f : R → R, so ist x ↦→ 1 (f(x) + f(−x)) eine gerade Funktion.<br />

2<br />

Übung 5.5.8 (Shifts). Sei V := Abb(N, R) = {(a 0, a 1, a 2, . . .) | a j ∈ R ∀ j ∈ N} der<br />

Vektorraum aller reeller Zahlenfolgen und S, T : V → V definiert durch<br />

S((a 0, a 1, a 2, . . .)) := (a 1, a 2, a 3, . . .),<br />

T ((a 0, a 1, a 2, . . .)) := (0, a 0, a 1, a 2, . . .).<br />

a) Zeige, dass S, T ∈ End R (V ).<br />

b) Untersuche S und T auf Injektivität und Surjektivität und bestimme die Kerne von<br />

S und T und die Bilder von S und T .<br />

c) Zeige, dass T ◦ S und S ◦ T Projektionen sind. Dabei heißt P ∈ End R (V ) eine Projektion,<br />

wenn P 2 := P ◦ P = P ist.<br />

Übung 5.5.9. Sei V ein K-Vektorraum und seien U 1, U 2 lineare Unterräume. Dann gilt<br />

V = U 1 ⊕ U 2 genau dann, wenn V = U 1 + U 2 und U 1 ∩ U 2 = {0} (vgl. Bemerkung 5.5.12).<br />

Man zeige, dass ein entsprechendes Kriterium für Summen von mehr als zwei Unterräumen<br />

falsch ist, d.h. man konstruiere ein Beispiel für die folgende Situation: V = U 1 + U 2 + U 3<br />

mit U i ∩ U j = {0} für i ≠ j, aber die Summe U 1 + U 2 + U 3 ist nicht direkt.<br />

Übung 5.5.10. Sei V ein endlich dimensionaler K-Vektorraum und V ∗ der Dualraum von<br />

V . Sei weiter V ∗∗ := (V ∗ ) ∗ der Dualraum von V ∗ . Zeige: Die Abbildung ϕ: V → V ∗∗<br />

definiert durch<br />

(<br />

ϕ(v)<br />

)<br />

(f) = f(v), für v ∈ V und f ∈ V<br />

∗<br />

ist ein K-Vektorraumisomorphismus.<br />

Hinweis: Es genügt zu zeigen, dass ϕ K-linear und injektiv ist.


156 5 Vektorräume<br />

Übung 5.5.11. Es seien<br />

U := {x ∈ R 3 | x 1 + x 2 + x 3 = 0} , W := span{(1, 2, 3) ⊤ ∈ R 3 } .<br />

Zeige, dass U ⊕ W = R 3 , und bestimme die Matrixdarstellung (bzgl. der Standardbasis<br />

von R 3 ) der Projektion ϕ von R 3 auf U entlang W .<br />

Hinweis: Stelle ϕ zunächst bezüglich einer Basis dar, die der Zerlegung R 3 = U ⊕ W<br />

entspricht, und führe dann einen Basiswechsel durch.


6<br />

Lineare Abbildungen<br />

In diesem Kapitel untersuchen wir die Frage, wie die darstellende Matrix einer<br />

linearen Abbildung von der Auswahl der Basis abhängt. Eine wichtige Frage wird<br />

sein, wie man die Basen wählen muss, um möglichst einfache Matrizen zu erhalten,<br />

mit denen man gut rechnen kann.<br />

6.1 Basiswechsel<br />

Definition 6.1.1. Sei K ein Körper, V ein endlich dimensionaler K-Vektorraum<br />

und {v 1 , ..., v n } eine Basis für V . Nach Satz 5.2.4 lässt sich jedes v ∈ V in eindeutiger<br />

Weise als Linearkombination der Basiselemente schreiben:<br />

n∑<br />

v = x i v i .<br />

i=1<br />

Jetzt sei {w 1 , . . . , w n } eine weitere Basis für V . Jedes w j ist Linearkombination der<br />

v i :<br />

n∑<br />

w j = a ij v i ∀j = 1, . . . , n.<br />

Die so entstandene Matrix<br />

i=1<br />

⎛<br />

⎞<br />

a 11 · · · a 1n<br />

⎜<br />

⎟<br />

A = ⎝ . . ⎠<br />

a n1 · · · a nn<br />

heißt die Übergangsmatrix von {v 1 , . . . , v n } nach {w 1 , . . . , w n }.<br />

Satz 6.1.2. Seien {v 1 , . . . , v n } und {w 1 , . . . , w n } Basen für V .<br />

(i) Die Übergangsmatrix A von {v 1 , . . . , v n } nach {w 1 , . . . , w n } ist invertierbar.<br />

Genauer, A −1 ist die Übergangsmatrix von {w 1 , . . . , w n } nach {v 1 , . . . , v n }.<br />

∑<br />

(ii) Sei v = n ∑<br />

x i v i = n y j w j , dann gilt folgende Identität für die Koordinaten:<br />

i=1<br />

j=1<br />

⎛ ⎞<br />

x 1<br />

⎜<br />

⎝ .<br />

x n<br />

⎟<br />

⎠ =<br />

⎛<br />

⎞ ⎛ ⎞<br />

a 11 · · · a 1n y 1<br />

⎜<br />

⎟ ⎜<br />

⎝ . . ⎠ ⎝ .<br />

a n1 · · · a nn y n<br />

⎟<br />

⎠ .


158 6 Lineare Abbildungen<br />

Beweis. Idee: Betrachte die Übergangsmatrizen von {v 1, . . . , v n} nach {w 1, . . . , w n} und<br />

von {w 1, . . . , w n} nach {v 1, . . . , v n} und wende Satz 5.2.4 an.<br />

(i) Schreibe v i = ∑ n<br />

k=1 b kiw k , d.h.<br />

⎛<br />

⎞<br />

b 11 · · · b 1n<br />

⎜<br />

⎟<br />

B = ⎝ . . ⎠<br />

b n1 · · · b nn<br />

ist die Übergangsmatrix von {w 1 , . . . , w n } nach {v 1 , . . . , v n }. Dann gilt<br />

v i =<br />

n∑<br />

k=1<br />

b ki<br />

n ∑<br />

l=1<br />

a lk v l =<br />

n∑ n∑<br />

( a lk b ki )v l<br />

und daher, wegen Satz 5.2.4, ∑ n<br />

k=1 a lkb ki = δ li . Dies zeigt AB = 1 n und nach<br />

Satz 3.2.5 folgt dann automatisch, dass BA = 1 n .<br />

(ii) Wegen<br />

n∑<br />

x i v i = v =<br />

i=1<br />

n∑<br />

y j w j =<br />

j=1<br />

n∑<br />

l=1<br />

∑<br />

n<br />

y j<br />

j=1 i=1<br />

k=1<br />

a ij v i =<br />

n∑ n∑<br />

( a ij y j )v i<br />

folgt, wieder mit Satz 5.2.4, x i = ∑ n<br />

j=1 a ijy j und das zeigt die Behauptung.<br />

i=1<br />

j=1<br />

⊓⊔<br />

Als nächstes untersuchen wir, wie sich Basiswechsel auf die Darstellung von<br />

linearen Abbildungen als Matrizen auswirken.<br />

Seien V und W zwei endlich dimensionale K–Vektorräume. Weiter seien {v 1 , . . . , v n }<br />

und {v 1, ′ . . . , v n} ′ Basen für V sowie {w 1 , . . . , w m } und {w 1, ′ . . . , w m} ′ Basen für<br />

W . Wenn C ∈ Mat(n × n, K) und D ∈ Mat(m × m, K) die dazugehörigen<br />

Übergangsmatrizen von {v 1 , . . . , v n } nach {v 1, ′ . . . , v n} ′ bzw. von {w 1 , . . . , w m } nach<br />

{w 1, ′ . . . , w m} ′ sind, dann gilt<br />

n∑<br />

v j ′ = c ij v i<br />

i=1<br />

∀j = 1, . . . , n<br />

und<br />

w ′ s =<br />

m∑<br />

d rs w r ∀s = 1, . . . , m.<br />

r=1<br />

Betrachte ϕ ∈ Hom K (V, W ) und seine darstellende Matrix A ϕ bzgl. der Basen<br />

{v 1 , . . . , v n } und {w 1 , . . . , w m }. Wir bezeichnen die darstellende Matrix von ϕ bzgl.<br />

der Basen {v 1, ′ . . . , v n} ′ und {w 1, ′ . . . , w m} ′ mit<br />

⎛<br />

⎞<br />

Satz 6.1.3. A ′ ϕ = D −1 A ϕ C.<br />

A ′ ϕ =<br />

⎜<br />

⎝<br />

a ′ 11 · · · a ′ 1n<br />

. .<br />

a ′ m1 · · · a ′ mn<br />

⎟<br />

⎠ .


6.1 Basiswechsel 159<br />

Beweis. Idee: Schreibe ϕ(v j) ′ auf zwei verschiedene Weisen als Linearkombination der<br />

w r: Einmal, indem man zuerst v j ′ als Linearkombination der v i schreibt und dann ϕ anwendet,<br />

und einmal, indem man ϕ(v j) ′ als Linearkombination der w r ′ schreibt und dann<br />

den Basiswechsel durchführt.<br />

und<br />

Rechne<br />

m∑<br />

m∑<br />

ϕ(v j) ′ = a ′ rjw r ′ =<br />

r=1<br />

( ∑<br />

n )<br />

ϕ(v j) ′ = ϕ c ij v i =<br />

i=1<br />

Mit Satz 5.2.4 ergibt sich<br />

m∑<br />

d sr a ′ rj =<br />

r=1<br />

a ′ rj<br />

r=1 s=1<br />

n∑<br />

c ij ϕ(v i ) =<br />

i=1<br />

m∑<br />

m∑ ( ∑ m<br />

d sr w s = d sr a ′ rj<br />

n∑<br />

∑<br />

m<br />

c ij<br />

i=1 s=1<br />

s=1<br />

r=1<br />

a si w s =<br />

)<br />

w s<br />

m∑ ( ∑<br />

n a si c ij<br />

)w s .<br />

s=1<br />

i=1<br />

n∑<br />

a si c ij ∀ s = 1, . . . , m; j = 1, . . . , n,<br />

i=1<br />

d.h. DA ′ ϕ = A ϕ C und daher A ′ ϕ = D −1 A ϕ C.<br />

⊓⊔<br />

Wir fassen die entscheidenden Formeln für den Basiswechsel zusammen:<br />

V<br />

ϕ<br />

−→ W<br />

{v 1 , . . . , v n }<br />

↓ C<br />

{v 1, ′ . . . , v n}<br />

′ {w 1 , . . . , w m }<br />

↓ D<br />

{w 1, ′ . . . , w m}<br />

′<br />

n∑<br />

m∑<br />

v j ′ = c ij v i w s ′ = d rs w r<br />

i=1<br />

ϕ(v j ) = ∑ m<br />

r=1 a rjw r<br />

ϕ(v ′ j ) = ∑ m<br />

r=1 a′ rj w′ r<br />

A ϕ = (a ij )<br />

A ′ ϕ = (a ′ ij ) = D−1 A ϕ C<br />

r=1<br />

Der Spezialfall des Basiswechsels, in dem V = W und {v 1 , . . . , v n } = {w 1 , . . . , w n }<br />

sowie {v ′ 1, . . . , v ′ n} = {w ′ 1, . . . , w ′ n}, führt auf folgende Definition.<br />

Definition 6.1.4. A, A ′ ∈ Mat(n×n, K) heißen ähnlich, wenn es ein C ∈ GL(n, K)<br />

mit A ′ = C −1 AC gibt.<br />

Proposition 6.1.5. Die Ähnlichkeit von Matrizen ist eine Äquivalenzrelation.<br />

Beweis. Reflexivität: A = C −1 AC für C = 1.<br />

Symmetrie: A ′ = C −1 AC ⇒ A = D −1 A ′ D für D = C −1 .<br />

Transitivität: A ′ = C −1 AC und A ′′ = D −1 A ′ D impliziert<br />

A ′′ = D −1 C −1 ACD = (CD) −1 A(CD).<br />

⊓⊔


160 6 Lineare Abbildungen<br />

Bemerkung 6.1.6. Seien V ein endlich dimensionaler K-Vektorraum sowie {v 1 , . . . , v n }<br />

und {w 1 , . . . , w n } zwei Basen für V . Betrachte V ∗ = Hom K (V, K) und die dualen<br />

Basen {f 1 , . . . , f n } von {v 1 , . . . , v n }, und {g 1 , . . . , g n } von {w 1 , . . . , w n }. Seien<br />

⎛<br />

⎛<br />

D =<br />

⎜<br />

⎝<br />

⎞<br />

d 11 · · · d 1n<br />

. .<br />

d n1 · · · d nn<br />

⎟<br />

⎠ und C =<br />

⎜<br />

⎝<br />

⎞<br />

c 11 · · · c 1n<br />

⎟<br />

. . ⎠<br />

c n1 · · · c nn<br />

die Übergangsmatrizen von {f 1 , . . . , f n } nach {g 1 , . . . , g n } bzw. von {g 1 , . . . , g n }<br />

nach {f 1 , . . . , f n }. D.h., es gilt<br />

g j =<br />

n∑<br />

d ij f i und f i =<br />

i=1<br />

n∑<br />

c ji g j .<br />

Nach Satz 6.1.2 haben wir D −1 = C. Wenn A die Übergangsmatrix von {v 1 , . . . , v n }<br />

nach {w 1 , . . . , w n } ist, gilt wegen<br />

( ∑<br />

n )<br />

f l (w k ) = f l a ik v i =<br />

i=1<br />

n∑<br />

i=1<br />

j=1<br />

a ik f l (v i ) = a lk<br />

} {{ }<br />

δ il<br />

und<br />

die Gleichheit C = A ⊤ .<br />

( ∑<br />

n<br />

f l (w k ) = c jl g j<br />

)(w k ) =<br />

j=1<br />

n∑<br />

j=1<br />

c jl g j (w k ) = c kl<br />

} {{ }<br />

δ jk<br />

⊓⊔<br />

Satz 6.1.7. Wenn ϕ: V → W den Rang k hat, dann gibt es Basen {v 1 , . . . , v n }<br />

und {w 1 , . . . , w m } so, dass die darstellende Matrix A ϕ ∈ Mat(m × n, K) von ϕ bzgl.<br />

{v 1 , . . . , v n } und {w 1 , . . . , w m } die Form<br />

⎛ ⎞<br />

1 0<br />

. .. A ϕ = ⎜ 0<br />

⎟<br />

⎝ 0 1 ⎠<br />

0 0<br />

mit k von Null verschiedenen Spalten hat.<br />

Beweis. Idee: Zeige, dass jede invertierbare Matrix einen Basiswechsel von einer vorgegebenen<br />

Basis zu einer neuen Basis definiert und führe so das Problem darauf zurück zu<br />

zeigen, dass die darstellende Matrix von ϕ bzgl. einer beliebigen Basis durch elementare<br />

Zeilen- und Spaltenumformungen auf die gesuchte Form gebracht werden kann.<br />

Sei C ∈ Mat(n × n, K) invertierbar. Zu vorgegebener Basis {v 1 , . . . , v n } von V<br />

gibt es eine neue Basis {v 1, ′ . . . , v n} ′ mit Übergangsmatrix von {v 1 , . . . , v n } nach<br />

{v 1, ′ . . . , v n} ′ gleich C. Um das einzusehen, setze v j ′ := ∑ n c ij v i für j = 1, . . . , n.<br />

Dann ist {v ′ 1, . . . , v ′ n} linear unabhängig, weil<br />

0 =<br />

n∑<br />

r j v j ′ =<br />

j=1<br />

n∑<br />

∑<br />

n<br />

r j<br />

j=1 i=1<br />

c ij v i =<br />

i=1<br />

n∑ ( ∑<br />

n c ij r j<br />

)v i<br />

i=1<br />

j=1


6.1 Basiswechsel 161<br />

impliziert, dass ∑ n<br />

j=1 c ijr j = 0 für i = 1, . . . , n, woraus<br />

⎛<br />

⎞ ⎛ ⎞<br />

c 11 · · · c 1n r 1<br />

⎜<br />

⎟ ⎜ ⎟<br />

⎝ . . ⎠ ⎝ . ⎠ = 0<br />

c n1 · · · c nn r n<br />

folgt. Da C invertierbar ist, heißt das r 1 = . . . = r n = 0. Analog gilt für W : Zu<br />

D ∈ Mat(m×m, K) und vorgegebener Basis {w 1 , . . . , w m } für W existiert eine Basis<br />

{w 1, ′ . . . , w m} ′ mit Übergangsmatrix D von {w 1 , . . . , w m } nach {w 1, ′ . . . , w m}. ′ Nach<br />

Satz 6.1.3 genügt es zu zeigen, dass man zu jeder Matrix A ∈ Mat(m × n, K) mit<br />

Rang(A) = k invertierbare Matrizen C ∈ Mat(n × n, K) und D ∈ Mat(m × m, K)<br />

mit ( )<br />

1k 0<br />

= D −1 AC<br />

0 0<br />

finden kann.<br />

Die Strategie ist, D −1 aus elementaren Zeilenumformungen und C aus elementaren<br />

Spaltenumformungen zusammenzusetzen:<br />

⎛<br />

1 ∗ ∗<br />

A ❀ Z Zeilenstufenform von A ❀<br />

S 1<br />

⎜<br />

⎝<br />

. ..<br />

0 0<br />

⎞<br />

⎟<br />

⎠<br />

S<br />

❀<br />

⎛ ⎞<br />

1 0 0<br />

1 0<br />

⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠<br />

0 0<br />

Genauer gesagt, man berechnet die Zeilenstufenform (k Stufen), führt dann einen<br />

Spaltentausch so durch, dass die Stufen in den Spalten 1 bis k liegen. Dann benutzt<br />

man weitere Spaltenumformungen um die Matrix auf die gewünschte Form<br />

zu bringen. Die Ausführung der Details dieses Arguments sei dem Leser als Übung<br />

überlassen.<br />

⊓⊔<br />

Übung 6.1.1. Betrachte die lineare Abbildung Φ: R 3 → R 2 mit<br />

Φ(x, y, z) = (x + y + z, x + y)<br />

und berechne A Φ bzgl. der Standardbasen. Kann man andere Basen finden, bzgl. derer Φ<br />

dieselbe Matrix hat? (Hinweis: Suche nach geeigneten Übergangsmatrizen.)<br />

Übung 6.1.2. Sei V = Mat(2 × 2, R) und A ∈ V . Definiere eine Abbildung ϕ: V → V<br />

durch ϕ(X) = XA + AX.<br />

(i) Zeige, dass ϕ linear ist.<br />

(ii) Gib eine spezielle Matrix A ∈ Mat(2 × 2, R) an, für die ϕ injektiv und surjektiv ist.<br />

(iii) Zeige, dass ϕ nicht injektiv ist, falls det(A) = 0.<br />

Übung 6.1.3. Sind die folgenden Matrizen ähnlich?<br />

⎛ ⎞ ⎛ ⎞<br />

1 0 0 0<br />

1 0 0 1<br />

A = ⎜ 0 2 0 1<br />

⎟<br />

⎝ 0 0 3 0 ⎠ , B = ⎜ 0 2 0 0<br />

⎟<br />

⎝ 0 0 3 0 ⎠ .<br />

0 0 0 1<br />

0 0 0 1<br />

Übung 6.1.4. Die Matrizen<br />

( ) 1 0<br />

E 11 = , E<br />

0 0 12 =<br />

( ) 0 1<br />

, E<br />

0 0 21 =<br />

( ) 0 0<br />

, E<br />

1 0 22 =<br />

( ) 0 0<br />

0 1<br />

bilden eine Basis B von Mat(2 × 2, C). Sei α die lineare Abbildung auf Mat(2 × 2, C)<br />

definiert durch


162 6 Lineare Abbildungen<br />

wobei<br />

α(X) := AX + XB,<br />

A =<br />

Man finde die Matrix von α bezüglich B.<br />

Übung 6.1.5. Es seien<br />

zwei Basen von R 2 .<br />

B =<br />

( ) 1 2<br />

, B =<br />

−1 0<br />

(( ( 2 1<br />

, , B<br />

1)<br />

3))<br />

′ =<br />

X ∈ Mat(2 × 2, C),<br />

( ) 2 0<br />

.<br />

3 1<br />

(( ) ( −1 2<br />

, ,<br />

1 3))<br />

1. Bestimme die Übergangsmatrix von B nach B ′ . Beschreibe den Vektor v = (0, 1) ⊤<br />

bezüglich der Basen B und B ′ und überprüfe in diesem Fall die Aussage von Satz<br />

6.1.1.<br />

2. Betrachte die lineare Abbildung ϕ : R 2 → R 3 , die bezüglich der Basis B von R 2 und<br />

der Standardbasis (e 1, e 2, e 3) von R 3 gegeben ist durch<br />

⎛ ⎞<br />

0 3<br />

A ϕ = ⎝ 1 2⎠ .<br />

−1 0<br />

Bestimme die Matrixdarstellung von ϕ bezüglich B ′ und (e 1, e 2, e 3).<br />

Übung 6.1.6. Sind die beiden Matrizen<br />

⎛ ⎞<br />

1 1 0<br />

⎝0 2 0⎠ ,<br />

0 0 1<br />

⎛ ⎞<br />

1 0 1<br />

⎝0 2 0⎠ ∈ R 3×3<br />

0 0 1<br />

ähnlich?<br />

Übung 6.1.7. Es seien V, W K-Vektorräume mit den Basen B V = (v 1, v 2) von V und<br />

B W = (w 1, w 2, w 3) von W . Die lineare Abbildung ϕ : V → W habe bezüglich dieser Basen<br />

die Matrix<br />

⎛ ⎞<br />

1 0<br />

A ϕ = ⎝ 2 −1⎠ .<br />

−3 1<br />

Es sei nun B ′ W = (w ′ 1, w ′ 2, w ′ 3) eine weitere Basis von W mit<br />

w 1 = w ′ 1 + 2 w ′ 2 ,<br />

w 2 = −w ′ 1 − 2 w ′ 3 ,<br />

w 3 = 3 w ′ 1 + w ′ 2 + w ′ 3 .<br />

Welche Matrix hat ϕ bezüglich der Basen B V und B ′ W ?<br />

Übung 6.1.8. Sei V := Pol 3(R, R) der Vektorraum der Polynome vom Grad ≤ 3 mit Basis<br />

B = (f 0, f 1, f 2), wobei f k (x) = x k . Außerdem sei B ′ = (L 0, L 1, L 2) die Basis von V<br />

bestehend aus den Lagrange-Polynomen, wie sie in Übungsaufgabe 5 für x 0 = 0, x 1 = 1,<br />

x 2 = 2 definiert sind.<br />

1. Bestimme die Übergangsmatrix des Basiswechsels von B nach B ′ .<br />

2. Bestimme die Matrixdarstellung der Ableitungsabbildung ϕ : V → V , ϕ(p) = p ′<br />

bezüglich der folgenden Basen für Urbild- und Bildraum:<br />

(i) B, B, (ii) B ′ , B, (iii) B, B ′ , (iv) B ′ , B ′ .


6.2 Eigenwerte und Eigenvektoren<br />

6.2 Eigenwerte und Eigenvektoren 163<br />

Eigenwerte sind Zahlen, die man quadratischen Matrizen sowie linearen Selbstabbildungen<br />

von Vektorräumen zuordnen kann, und die wichtige Eigenschaften dieser<br />

dieser Matrizen bzw. Endomorphismen beschreiben. Eigenvektoren sind dann solche<br />

Vektoren, die unter den entsprechenden Matrizenmultiplikationen bzw. Abbildungen<br />

auf Vielfache von sich selbst abgebildet werden. In den Anwendungen tauchen<br />

Eigenwerte zum Beispiel als Eigenfrequenzen von schwingenden Systemen auf. Eigenvektoren<br />

findet man als zum Beispiel als Hauptachsen von Trägheitstensoren in<br />

der Mechanik wieder.<br />

Definition 6.2.1. Sei ϕ ∈ Hom K (V, V ). Eine Zahl λ ∈ K heißt Eigenwert von ϕ,<br />

wenn es ein 0 ≠ v ∈ V mit ϕ(v) = λv gibt. Der Vektor v heißt dann Eigenvektor<br />

von ϕ zum Eigenwert λ. Für λ ∈ K heißt die Lösungsmenge von ϕ(v) = λv der<br />

Eigenraum von ϕ zum Eigenwert λ, falls sie von Null verschieden ist. Sie wird mit<br />

V λ bezeichnet.<br />

Sei A ∈ Mat(n × n, K). Eine Zahl λ ∈ K heißt Eigenwert von A, wenn es<br />

ein 0 ≠ v ∈ K n mit Av = λv gibt. Der Vektor v heißt dann Eigenvektor von<br />

A zum Eigenwert λ. Sei wieder λ ∈ K. Die Lösungsmenge von Av = λv heißt der<br />

Eigenraum von A zum Eigenwert λ falls sie von Null verschieden ist.<br />

Proposition 6.2.2. Seien ϕ ∈ Hom K (V, V ) und A ∈ Mat(n × n, K).<br />

(i) Sei 0 ≠ v ∈ V . Dann gibt es höchstens ein λ ∈ K so, dass v ein Eigenvektor<br />

von ϕ zum Eigenwert λ ist.<br />

(ii) Sei 0 ≠ v ∈ K n . Dann gibt es höchstens ein λ ∈ K so, dass v ein Eigenvektor<br />

von A zum Eigenwert λ ist.<br />

(iii) Wenn λ ∈ K, dann ist V λ ein Untervektorraum von V .<br />

(iv) Seien λ 1 , . . . , λ k verschiedene Eigenwerte von ϕ und 0 ≠ v j ∈ V λj . Dann ist<br />

{v 1 , . . . , v k } linear unabhängig.<br />

(v) Seien λ 1 , . . . , λ k paarweise verschiedene Eigenwerte von A und v j ein Eigenvektor<br />

von A zum Eigenwert λ i für j = 1, . . . k. Dann ist {v 1 , . . . , v k } linear<br />

unabhängig.<br />

Beweis. (i) Wenn λ 1 v = ϕ(v) = λ 2 v, dann gilt (λ 1 − λ 2 )v = 0, also λ 1 − λ 2 = 0,<br />

weil sonst<br />

1<br />

1<br />

v = (λ 1 − λ 2 )v = 0 = 0.<br />

λ 1 − λ 2 λ 1 − λ 2<br />

(ii) Analog zu (i).<br />

(iii) Wenn v, w ∈ V λ und r, s ∈ K, dann gilt<br />

ϕ(rv + sw) = rϕ(v) + sϕ(w) = rλv + sλw = λ(rv + sw).<br />

(iv) Induktion über k: Sei ∑ k<br />

j=1 c jv j = 0. Dann gilt<br />

( k∑ ) ( k∑ )<br />

0 = ϕ c j v j − λ 1 c j v j =<br />

j=1<br />

j=1<br />

k∑<br />

c j (λ j − λ 1 )v j .<br />

Induktion zeigt, dass {v 2 , . . . , v k } linear unabhängig ist, also folgt c 2 = . . . =<br />

c k = 0. Dann ist aber auch c 1 = 0.<br />

(v) Analog zu (iv).<br />

⊓⊔<br />

j=1


164 6 Lineare Abbildungen<br />

Proposition 6.2.2(i) zeigt insbesondere, dass man von dem zu einem Eigenvektor<br />

gehörigen Eigenwert sprechen kann.<br />

Satz 6.2.3. Die folgenden Aussagen für A ∈ Mat(n × n, K) sind äquivalent.<br />

(1) A ist ähnlich zu einer Diagonalmatrix.<br />

(2) K n hat eine Basis aus Eigenvektoren von A.<br />

Beweis. Idee: Die Diagonalelemente sind die Eigenwerte und die Übergangsmatrizen<br />

sind gerade die Übergangsmatrizen zwischen der Standardbasis und der Basis der Eigenvektoren.<br />

” (1)⇒(2)“: Wenn ⎛ ⎞<br />

d 1<br />

. ..<br />

d n<br />

⎜<br />

⎝<br />

⎟<br />

⎠ = C −1 AC,<br />

dann gilt<br />

⎛ ⎞ ⎛ ⎞<br />

0 0<br />

⎛ ⎞<br />

d 1 C −1 ⎜<br />

ACe j = ⎝<br />

. ..<br />

⎟<br />

.<br />

.<br />

⎠<br />

1<br />

=<br />

d j<br />

= d j e j .<br />

⎜ ⎟ ⎜ ⎟<br />

d n ⎝ . ⎠ ⎝ . ⎠<br />

0 0<br />

Wir setzen v j := Ce j und erhalten Av j = d j v j , d.h. die v j sind Eigenvektoren<br />

von A. Da C invertierbar ist, ist {v 1 , . . . , v n } eine Basis für K n (vgl. Lemma<br />

5.2.6).<br />

” (1)⇐(2)“: Sei {v 1, . . . , v n } eine Basis aus Eigenvektoren für K n und λ 1 , . . . , λ n<br />

die zugehörigen Eigenwerte (nicht notwendigerweise verschieden). Weiter sei<br />

C = (c ij ) die Übergangsmatrix von {e 1 , . . . , e n } nach {v 1 , . . . , v n }, d.h.<br />

Man erhält<br />

v j =<br />

n∑<br />

c ij e i = Ce j .<br />

i=1<br />

ACe j = Av j = λ j v j = C(λ j e j )<br />

und C −1 ACe j = λ j e j . Zusammen ergibt sich<br />

⎛ ⎞<br />

λ 1 0<br />

C −1 ⎜<br />

AC = ⎝<br />

. ..<br />

⎟<br />

⎠<br />

0 λ n<br />

⊓⊔<br />

Bemerkung 6.2.4. Im Beweis von Satz 6.2.3 wurde gezeigt, dass man als Matrix<br />

C, die die Ähnlichkeit von A zu einer Diagonalmatrix D via C −1 AC = D bewirkt,<br />

die Übergangsmatrix von der Standardbasis zur vorgegebenen Basis von Eigenvektoren<br />

wählen kann.<br />

⊓⊔<br />

Satz 6.2.5. Sei λ ∈ K. Dann sind für A ∈ Mat(n × n, K) äquivalent:


6.2 Eigenwerte und Eigenvektoren 165<br />

(1) Es existiert ein Eigenvektor v ∈ K n , so dass λ der zugehörige Eigenwert ist.<br />

(2) det(A − λ1) = 0.<br />

Beweis.<br />

∃v ≠ 0 : Av = λv ⇔ ∃v ≠ 0 : (A − λ1)v = 0<br />

⇔ A − λ1 ist nicht invertierbar (nach Satz 3.2.5)<br />

⇔ det(A − λ1) = 0 (nach Satz 4.2.7)<br />

⊓⊔<br />

( ) 3 0<br />

Beispiel 6.2.6. (i) Sei A = , dann ist (A − λ1) =<br />

0 2<br />

det(A − λ1) ( = (3 −)<br />

λ)(2 − λ) = 0 für λ 1 = 3 und λ 2 = 2.<br />

−2 1<br />

(ii) Für A =<br />

gilt<br />

1 −1<br />

( 3 − λ 0<br />

)<br />

0 2 − λ<br />

( )<br />

−2 − λ 1<br />

det(A − λ1) = det<br />

= (λ + 2)(λ + 1) − 1 = λ 2 + 3λ + 1.<br />

1 −1 − λ<br />

Die Nullstellen von λ ↦→ λ 2 + 3λ + 1 in R sind λ ± := −3±√ 5<br />

2<br />

. Die zugehörigen<br />

Eigenvektoren erhält man als Lösungen der (HLGS)<br />

( ( )<br />

−2 − λ+ 1<br />

0<br />

=<br />

0<br />

) ( )<br />

x1<br />

1 −1 − λ + x 2<br />

( ) ( )<br />

−2 − λ− 1 x1<br />

=<br />

1 −1 − λ − x 2<br />

( 0<br />

0<br />

)<br />

.<br />

und<br />

Diese Lösungen sind<br />

( ) 2<br />

c<br />

1 + √ 5<br />

und<br />

( ) 2<br />

c<br />

1 − √ .<br />

5<br />

Wir sehen insbesondere, dass A ähnlich zu einer Diagonalmatrix ist.<br />

⊓⊔<br />

Übung 6.2.1. Bestimme die reellen Eigenwerte und die zugehörigen Eigenräume für die<br />

folgenden Matrizen:<br />

⎛ ⎞<br />

( ) ( )<br />

1 1 0<br />

2 1<br />

3 1<br />

A 1 = , A<br />

1 2<br />

2 = , A<br />

−2 4<br />

3 = ⎝0 1 1⎠ .<br />

0 0 1<br />

Bestimme für A 1 eine Matrix C ∈ GL(2, R), so dass C −1 AC = D eine Diagonalmatrix ist.<br />

Berechne A 1 5 .<br />

Übung 6.2.2. Sei V ein K-Vektorraum, ϕ ∈ Hom K(V, V ) und λ ∈ K ein Eigenwert von ϕ.<br />

Zeige: Ist ϕ invertierbar, so ist λ ≠ 0, und 1/λ ist ein Eigenwert von ϕ −1 .


166 6 Lineare Abbildungen<br />

6.3 Polynomfunktionen und charakteristisches Polynom<br />

In diesem Abschnitt untersuchen wir die Funktion λ ↦→ det(A − λ1), wie sie im<br />

letzten Abschnitt vorgekommen ist, systematisch. Wie in Beispiel 5.2.11 schon definiert,<br />

heißt eine Abbildung P : K → K eine Polynomfunktion, wenn sie von der<br />

Gestalt P (λ) = ∑ n<br />

j=0 a jλ j mit n ∈ N 0 und a j ∈ K ist (dabei setzt man λ 0 = 1 für<br />

alle λ ∈ K).<br />

Wir rufen den Raum Pol(K) aller Polynomfunktionen aus Beispiel 5.2.11 in Erinnerung.<br />

Definition 6.3.1. (i) Eine Nullstelle von P ∈ Pol(K) ist ein λ ∈ K mit P (λ) = 0.<br />

Wenn L ein Körper ist, in dem K enthalten ist, dann lässt sich P auch als<br />

Element von Pol(L) auffassen, indem man λ ↦→ ∑ n<br />

j=0 a jλ j für λ ∈ L betrachtet.<br />

Daher kann man auch von Nullstellen von P in L sprechen.<br />

(ii) Die Polynomfunktionen λ ↦→ aλ k mit a ≠ 0 heißen die Monome. Insbesondere<br />

nennen wir auch die Funktion λ ↦→ λ 0 := 1 ein Monom.<br />

Pol(K) ist ein K-Vektorraum und die Monome spannen Pol(K) auf. Im allgemeinen<br />

bilden die Polynomfunktionen λ ↦→ λ n mit n ∈ N jedoch keine Basis für Pol(K).<br />

D.h., wenn P ∈ Pol(K) von der Form P (λ) = ∑ n<br />

j=0 a jλ j ist, dann kann es durchaus<br />

passieren, dass P (λ) = 0 für alle λ ∈ K ist, obwohl nicht alle a j gleich Null sind.<br />

Betrachte zum Beispiel die Polynomfunktion λ ↦→ P (λ) := λ + λ 3 auf dem zweielementigen<br />

Körper K = {0, 1}. Wir werden jedoch sehen, dass solche Pathologien<br />

nicht auftreten können, wenn K unendlich viele Elemente hat.<br />

Allgemeiner können solche Pathologien vermieden werden, wenn wir die in Beispiel<br />

5.2.11 eingeführten Polynome aus K[X] anstatt Polynomfunktionen benutzen.<br />

Für diese bilden die {X j | j ∈ N 0 } eine Basis. Auch Polynome können multipliziert<br />

werden (in der selben Weise wie Polynomfunktionen, vgl. Beispiel 5.2.11,<br />

aber auch Bemerkung 6.3.5 weiter unten). Grob gesprochen liegt der Vorteil hier<br />

darin, dass die Operationen mit den X j sich nicht mit den Körperoperationen mischen“.<br />

Die ganze Theorie in diesem und dem nächsten Abschnitt kann also ohne ”<br />

die obigen Hindernisse entwickelt werden. Allerdings muss man dazu auch den Begriff<br />

der Nullstelle für Polynome einführen: Ein λ ∈ K ist eine Nullstelle von<br />

f(X) = ∑ n<br />

j=0 a jX j ∈ K[X], wenn f(λ) := ∑ n<br />

j=0 a jλ j = 0.<br />

Wenn wir voraussetzen, dass der Körper K unendlich viele Elemente hat, dann<br />

sind Pol(K) und K[X] isomorph und man kann alle Resultate über Pol(X) auch als<br />

Resultate über K[X] betrachten (Details dazu findet man in Bemerkung 6.3.5.<br />

Lemma 6.3.2 (Polynomdivision).<br />

∑<br />

Sei P (λ) = n a j λ j ∈ Pol(K). Wenn a ∈ K<br />

eine Nullstelle von P ist, dann gibt es ein Q ∈ Pol(K) mit Q(λ) = n−1 ∑<br />

b j λ j und<br />

P (λ) = (λ − a)Q(λ) für alle λ ∈ K. Wenn nicht alle a j gleich 0 sind, dann kann<br />

man auch die b j so wählen, dass nicht alle gleich 0 sind.<br />

Beweis. Idee: Stelle ein lineares Gleichungssystem für die Polynomkoeffizienten auf.<br />

j=0<br />

Durch Koeffizientenvergleich wird man durch die Rechnung<br />

j=0


n∑<br />

j=0<br />

auf das Gleichungssystem<br />

6.3 Polynomfunktionen und charakteristisches Polynom 167<br />

n−1<br />

∑<br />

a j λ j = (λ − a) b j λ j<br />

j=0<br />

j=0<br />

n−1<br />

∑<br />

n−1<br />

∑<br />

= b j λ j+1 − ab j λ j<br />

=<br />

n∑<br />

j=1<br />

j=0<br />

n−1<br />

∑<br />

b j−1 λ j − b j aλ j<br />

j=0<br />

n−1<br />

∑<br />

= −ab 0 + (b j−1 − b j a)λ j + b n−1 λ n .<br />

j=1<br />

(6.1)<br />

−ab 0 = a 0<br />

b 0 −ab 1 = a 1<br />

b 1 −ab 2 = a 2<br />

. .. . .<br />

b n−1 = a n<br />

b n−2 −ab n−1 = a n−1<br />

geführt, das man wie folgt schreiben kann:<br />

⎛<br />

⎞<br />

−a<br />

1 −a<br />

⎛<br />

1 −a<br />

1 . . ⎜<br />

.<br />

⎝<br />

⎜<br />

⎝<br />

. ⎟ .. −a ⎠<br />

1<br />

⎞<br />

b 0<br />

.<br />

b n−1<br />

⎟<br />

⎠ =<br />

⎛ ⎞<br />

a 0<br />

⎜<br />

⎝ .<br />

a n<br />

Jede Lösung (b 0 , . . . , b n−1 ) ⊤ von (6.1) liefert ein Q ∈ Pol(K) mit den gewünschten<br />

Eigenschaften: Q(λ) = ∑ n−1<br />

j=0 b jλ j und nicht alle b j können 0 sein, wenn die rechte<br />

Seite von (6.1) nicht Null ist. Um (6.1) zu lösen, betrachtet man zwei Fälle:<br />

1. Fall: Wenn a = 0, dann gilt P (0) = 0 = a 0 . Also ist b n−1 = a n , b n−2 =<br />

a n−1 , . . . , b 0 = a 1 eine Lösung.<br />

2. Fall: Wenn a ≠ 0, rechne<br />

⎟<br />

⎠ .


168 6 Lineare Abbildungen<br />

⎛<br />

⎞<br />

−a a 0<br />

1 −a a 1<br />

1 −a a 2<br />

1 . . . .<br />

⎜<br />

⎝<br />

. ⎟<br />

.. −a an−1 ⎠<br />

1 a n<br />

⎛<br />

⎞<br />

1 −a −1 a 0<br />

0 −a a 1 + a −1 a 0<br />

1 −a a 2<br />

❀<br />

. .. . .. ⎜<br />

.<br />

⎟<br />

⎝<br />

⎠<br />

⎛<br />

⎞<br />

1 −a −1 a 0<br />

0 1 −a −1 a 1 − a −2 a 0<br />

0 0 a 2 + a −1 a 1 + a −2 a 0<br />

❀<br />

❀ . . . ❀<br />

⎜ . .<br />

⎟<br />

⎝<br />

⎠<br />

⎛<br />

⎞<br />

1 −a −1 a 0<br />

1 −a −1 a 1 − a −2 a 0<br />

1 −a −1 a 2 − a −2 a 1 − a −3 a 0<br />

❀<br />

. .. .<br />

⎜<br />

.<br />

⎟<br />

⎝ 1 −a −1 a n−1 − a −2 a n−2 − . . . − a −n a 0<br />

⎠<br />

0 a n + a −1 a n−1 + . . . + a −n a 0<br />

Aber wegen a ≠ 0 gilt<br />

a n + a −1 a n−1 + . . . + a −n a 0 = a −n (a n a n + . . . + aa 1 + a 0 ) = a −n P (a) = 0.<br />

Also ist das System lösbar (vgl. Bemerkung 3.2.16).<br />

⊓⊔<br />

Bemerkung 6.3.3 (Hornerschema und Polynomdivision). Das Ergebnis in<br />

Lemma 6.3.2 kann man auch mit dem sogenannten Hornerschema zeigen:<br />

Behauptung: Sei p eine Polynomfunktion in Pol(K) mit p(x) = a n x n + . . . + a 0<br />

für x ∈ K, dann gilt für jedes y ∈ K mit y ≠ x, dass<br />

p(x) − p(y)<br />

x − y<br />

= b 0 x n−1 + . . . + b n−1 ,<br />

wobei die b 0 , b 1 , . . . durch die folgende Rekursion (Hornerschema) gegeben sind<br />

Weiterhin gilt b n = p(y).<br />

b 0 := a n ,<br />

b k := b k−1 y + a n−k for k = 1, . . . n.<br />

Beweis: Wir multiplizieren einfach und sammeln die Koeffizienten von x k , dann<br />

wenden wir die obige Rekursion an:


6.3 Polynomfunktionen und charakteristisches Polynom 169<br />

(x − y) · (b 0 x n−1 + b 1 x n−2 + . . . + b n−1 )<br />

= (b 0 x n + b 1 x n−1 + . . . + b n−1 x) − (b 0 yx n−1 + . . . + b n−1 y)<br />

= b 0 x n + (b 1 − b 0 y)x n−1 + . . . + (b n−1 − b n−2 y)x − b n−1 y<br />

= a n x n + a n−1 x n−1 + . . . + a 1 x + a 0 − b n<br />

= p(x) − b n .<br />

Für diese Rechnung brauchen wir nicht vorauszusetzen, dass y ≠ x. Für x = y,<br />

erhalten wir also 0 = p(y) − b n , und somit<br />

(x − y) · (b 0 x n−1 + b 1 x n−2 + . . . + b n−1 ) = p(x) − b n = p(x) − p(y).<br />

Ist y eine Nullstelle von p(x), dann liefert das obige Resultat das Ergebnis in Lemma<br />

6.3.2.<br />

⊓⊔<br />

Satz 6.3.4. Sei P ∈ Pol(K) mit P (λ) =<br />

n ∑<br />

j=0<br />

Null. Dann hat P höchstens n Nullstellen in K.<br />

a j λ j und es seien nicht alle a j gleich<br />

Beweis. Idee: Dividiere alle Nullstellen mit Polynomdivision heraus.<br />

Wir führen den Beweis mit Induktion über n:<br />

” n = 0“: In diesem Fall gilt P (λ) = a 0 ≠ 0 und daher hat P keine Nullstelle.<br />

” n − 1 ❀ n“:<br />

1. Fall: Wenn P keine Nullstelle hat, sind wir fertig.<br />

2. Fall: Wenn P (a) = 0, dann wenden wir Lemma 6.3.2 an und erhalten ein Q ∈<br />

Pol(K) mit P (λ) = (λ − a) · Q(λ) und Q(λ) = n−1 ∑<br />

b j λ j für alle λ, wobei<br />

die b j das Gleichungssystem (6.1) erfüllen, also nicht alle 0 sein können.<br />

Jetzt können wir Induktion auf Q anwenden und erhalten, dass Q höchstens<br />

n − 1 Nullstellen hat. Die Polynomfunktion λ ↦→ λ − a hat aber genau eine<br />

Nullstelle, nämlich a. Also hat P hat höchstens n Nullstellen.<br />

j=0<br />

⊓⊔<br />

Man kann Satz 6.3.4 auch mithilfe der Vandermonde-Determinanten beweisen.<br />

Dazu formulieren wir den Satz 6.3.4 zunächst etwas um:<br />

Satz 6.3.4 ′ Wenn eine Polynomfunktion P (λ) = ∑ n<br />

j=0 a jλ j mit a j ∈ K mindestens<br />

n + 1 Nullstellen hat, dann sind alle a j gleich Null.<br />

Beweis. Betrachte verschiedene Nullstellen x 1 , . . . , x n+1 ∈ K von P (λ). Dann gilt<br />

0 = P (x i ) = a 0 + a 1 x i + a 2 x 2 i + . . . + a n x n i (6.2)<br />

für i = 1, . . . , n + 1. Damit wird (6.2) zu einem homogenen linearen Gleichungssystem<br />

der folgenden Gestalt<br />

⎛ ⎞<br />

⎛<br />

⎞<br />

1 x 1 . . . x n a 0<br />

1<br />

⎜<br />

⎟<br />

a 1<br />

⎝ . . ⎠ · ⎜ ⎟ = 0. (6.3)<br />

⎝<br />

1 x n+1 . . . x n . ⎠<br />

n+1<br />

a n<br />

Die Koeffizientenmatrix V dieses Systems ist gerade eine Vandermondesche Matrix.<br />

Wegen Beispiel 4.3.2 gilt


170 6 Lineare Abbildungen<br />

det V = ∏ j>i(x j − x i ) ≠ 0,<br />

da die x i paarweise verschieden sind. Deshalb ist V nach Theorem 4.2.7(i) invertierbar,<br />

und somit hat (6.3) nur eine Lösung, nämlich den Nullvektor. Das bedeutet,<br />

dass a i = 0 für i = 0, . . . , n.<br />

⊓⊔<br />

Bemerkung 6.3.5. Der Körper K habe unendlich viele Elemente.<br />

(i) Aus Satz 6.3.4 kann man ableiten, dass die Monome {λ ↦→ λ k | k ∈ N 0 } eine<br />

Basis für Pol(K) bilden: Weil K mehr als n Elemente hat, folgt mit Satz 6.3.4 aus<br />

P (λ) = ∑ n<br />

j=0 a jλ j = 0 für alle λ ∈ K, dass alle a j gleich 0 sein müssen. Damit<br />

sind die Monome linear unabhängig. Aber sie spannen Pol(K) nach Definition<br />

auf.<br />

(ii) Wegen (i) kann man jedem Monom λ ↦→ λ k seinen (durch die Funktion eindeutig<br />

bestimmten) Grad k zuordnen. Insbesondere ist der Grad von λ ↦→ λ 0 = 1<br />

gleich<br />

∑<br />

0. Allgemeiner nennt man für eine Polynomfunktion λ ↦→ f(λ) :=<br />

n<br />

j=0 a jλ j mit a n ≠ 0 die Zahl n den Grad von f. Man setzt oft Grad 0 := −∞.<br />

(iii) Pol(K) nach (i) isomorph zum Vektorraum K[X] (vgl. Beispiel 5.2.11) aller<br />

Polynome (d.h. Folgen (a n ) n∈N0 in K, für die nur endlich viele k n von Null<br />

verschieden sind):<br />

ϕ: K[X] → Pol(K), (a n ) n∈N0 ↦→ (λ ↦→ ∑ a n λ n ).<br />

n∈N 0<br />

Darum macht man für unendliche Körper keinen Unterschied zwischen Polynomen<br />

und Polynomfunktionen. Insbesondere nennt man in diesem Fall eine<br />

Polynomfunktion auch einfach ein Polynom.<br />

(iv) Man kann Polynomfunktionen nicht nur addieren, sondern auch punktweise<br />

multiplizieren. Überträgt man dieses Produkt mit ϕ auf K[X], so erhält man<br />

mit<br />

(a n ) n∈N0 (b n ) n∈N0 = (c n ) n∈N0<br />

c n =<br />

n∑<br />

a j b n−j .<br />

j=0<br />

Dieses Produkt kann man natürlich auch für endliche Körper definieren.<br />

Setze X := {0, 1, 0, . . .} ∈ K[X]. Mit obigem Produkt erhält man dann, in<br />

Übereinstimmung mit der Notation aus dem Beispiel 5.2.11,<br />

X k := X<br />

}<br />

·<br />

{{<br />

· · X<br />

}<br />

= { 0, . . . , 0 , 1, 0, . . .} ∈ K[X].<br />

} {{ }<br />

k Faktoren (k − 1)-mal<br />

⊓⊔<br />

Beispiel 6.3.6. Auf K = R hat das Polynom P (λ) = 5λ 8 + 1 den Grad 8. Ein<br />

Polynom der Form P (λ) = aλ+b hat Grad kleiner gleich 1. Genauer gilt Grad P = 1<br />

für a ≠ 0 und Grad P = 0 für a = 0 und b ≠ 0. Wenn a = b = 0 ist, dann haben<br />

wir Grad P = −∞ ≤ 1.<br />

⊓⊔


6.3 Polynomfunktionen und charakteristisches Polynom 171<br />

Definition 6.3.7. Sei A ∈ Mat(n × n, K). Dann heißt<br />

n∑<br />

tr(A) := a ii<br />

i=1<br />

die Spur von A.<br />

Bemerkung 6.3.8. Seien A, B ∈ Mat(n×n, K), dann kann man durch eine direkte<br />

Rechnung sehen, dass tr(AB) = tr(BA) gilt. Dafür setzen wir A = (a ij ) und B =<br />

(b ij ):<br />

n∑ n∑<br />

n∑ n∑<br />

tr(AB) = a lk b kl = b kl a lk = tr(BA).<br />

k=1 l=1<br />

l=1 k=1<br />

⊓⊔<br />

Satz 6.3.9. Sei K ein Körper und A ∈ Mat(n × n, K). Betrachte die Polynomfunktion<br />

χ A : K → K<br />

λ ↦→ det(A − λ1)<br />

Wenn K unendlich viele Elemente hat, dann gilt für die eindeutig bestimmte Darstellung<br />

der Form χ A (λ) = ∑ n<br />

j=0 a jλ j , dass<br />

a n = (−1) n ,<br />

a n−1 = (−1) n−1 tr(A),<br />

a 0 = det(A).<br />

Beweis. Idee: Benutze die Definition der Determinante als alternierende Summe.<br />

Nach Definition gilt<br />

χ A (λ) = ∑<br />

σ∈S n<br />

sign(σ)(a 1σ(1) − λδ 1σ(1) ) · . . . · (a nσ(n) − λδ nσ(n) ).<br />

Man multipliziert die Produkte aus und gruppiert die Summe dann nach Potenzen<br />

von λ um. Als Ergebnis erhält man:<br />

Koeffizient von λ n :<br />

∑<br />

sign(σ)(−1) n δ 1σ(1)···δ nσ(n) = (−1) n .<br />

} {{ }<br />

σ∈S n ⎧<br />

⎨ 1 σ = id<br />

=<br />

⎩ 0 sonst<br />

Koeffizient von λ n−1 :<br />

∑<br />

σ∈S n<br />

sign(σ)(−1) n−1 (a 1σ(1) δ 2σ(2) · · · δ nσ(n) + a 2σ(2) δ 1σ(1) δ 3σ(3) · · · δ nσ(n) + . . . +<br />

+a nσ(n) δ 1σ(1) · · · δ n−1σ(n−1) )<br />

= (−1) n−1 (a 11 + . . . + a nn ).<br />

Koeffizient von 1 = λ 0 :<br />

∑<br />

σ∈S n<br />

sign(σ)a 1σ(1) · · · a nσ(n) = det(A).<br />

⊓⊔


172 6 Lineare Abbildungen<br />

Definition 6.3.10. Sei K ein Körper und A ∈ Mat(n × n, K). Man bezeichnet<br />

χ A (X) := ∑<br />

σ∈S n<br />

sign(σ)(a 1σ(1) − δ 1σ(1) X) · . . . · (a nσ(n) − δ nσ(n) X) ∈ K[X].<br />

als das charakteristische Polynom von A.<br />

Man nennt üblicherweise auch die Polynomfunktion λ ↦→ χ A (λ) das charakteristische<br />

Polynom von A. Wirklich berechtigt ist das aber nur, wenn K unendlich<br />

viele Elemente hat. Andernfalls muss man sich immer vergewissern, ob das charakteristische<br />

Polynom oder die Polynomfunktion λ ↦→ det(A − λ1) gemeint ist. Wenn<br />

betont werden soll, dass man von der Polynomfunktion λ ↦→ χ A (λ) spricht, wird in<br />

diesem Text der Name charakteristische Polynomfunktion benutzt, der in der<br />

Literatur aber nicht gebräuchlich ist.<br />

Satz 6.3.11. Seien A ′ , A ∈ Mat(n × n, K) und C ∈ GL(n, K) mit A ′ = C −1 AC.<br />

Dann gilt für alle λ ∈ K.<br />

χ A ′(λ) = χ A (λ).<br />

Beweis.<br />

χ A ′(λ) = det(A ′ − λ1)<br />

= det(C −1 AC − λC −1 1C)<br />

= det(C −1 (A − λ1)C)<br />

= det(C −1 ) det(A − λ1) det(C)<br />

= χ A (λ)<br />

⊓⊔<br />

Man kann zeigen, dass man auch für quadratische Matrizen, deren Einträge<br />

in K[X] liegen, durch die alternierende Summe in Definition 4.2 Determinanten<br />

definieren, kann, für die alle Regeln, die im Beweis von Satz 6.3.11 benutzt worden,<br />

ihre Gültigkeit behalten. Die Aussage von Satz 6.3.11 wird dann zu χ A ′(X) =<br />

χ A (X), d.h. die charakteristischen Polynome ähnlicher Matrizen sind gleich. Für<br />

Körper mit unendlich vielen Elementen bekommen wir das wegen der Isomorphie<br />

von Pol(K) ∼ = K[X] direkt aus Satz 6.3.11.<br />

Definition 6.3.12. Sei K ein Körper und V ein endlich dimensionaler K-Vektorraum.<br />

Für ϕ ∈ End K (V ) definiert man das charakteristische Polynom χ ϕ (X) von ϕ<br />

durch<br />

χ ϕ (X) := χ Aϕ (X),<br />

wobei A ϕ die darstellende Matrix von ϕ bezüglich einer beliebigen Basis für V ist.<br />

Analog kann man die charakteristische Polynomfunktion χ ϕ von ϕ durch<br />

für alle λ ∈ K definieren.<br />

χ ϕ (λ) := χ Aϕ (λ)<br />

Proposition 6.3.13. Sei K ein Körper, A, A ′ ∈ Mat(n × n, K) und C ∈ GL(n, K).<br />

Wenn A ′ = C −1 AC gilt, dann folgt


(i) det(A ′ ) = det(A).<br />

(ii) tr(A ′ ) = tr(A).<br />

(iii) A ′ und A haben dieselben Eigenwerte.<br />

6.3 Polynomfunktionen und charakteristisches Polynom 173<br />

Beweis. (i) folgt sofort aus Satz 4.2.7, weil man damit<br />

det(C −1 AC) = det(C −1 ) det(A) det(C) = det(A) det(1) = det(A)<br />

erhält, und (ii) folgt aus Bemerkung 6.3.8 via<br />

tr(C −1 AC) = tr(ACC −1 ) = tr(A).<br />

Wenn K unendlich viele Elemente hat folgen beide Punkte durch Kombination von<br />

Satz 6.3.9 mit Satz 6.3.11. Teil (iii) ist eine unmittelbare Konsequenz von Satz 6.3.11<br />

und Definition 6.2.1.<br />

⊓⊔<br />

Beachte, dass Proposition 6.3.13 nichts über die Eigenvektoren von A und A ′<br />

aussagt. Diese werden i.a. verschieden sein. Genauer, wenn A ′ = C −1 AC, dann gilt<br />

Av = λv genau dann, wenn A ′ (C −1 v) = λ(C −1 v).<br />

Definition 6.3.14. Sei K ein Körper und V ein endlich dimensionaler K-Vektorraum.<br />

Für ϕ ∈ End K (V ) definiert man das die Spur tr ϕ und die Determinante det ϕ<br />

durch<br />

tr ϕ := tr Aϕ und det ϕ := det Aϕ ,<br />

wobei A ϕ die darstellende Matrix von ϕ bezüglich einer beliebigen Basis für V ist.<br />

In Bemerkung 6.3.8 wurde gezeigt, dass tr(AB) = tr(BA). Für die Determinate<br />

erhält man det(AB) = det(BA) unmittelbar aus Satz 4.2.7. Nun wollen wir zeigen,<br />

dass analoge Aussagen auch für das charakteristische Polynom und damit für alle<br />

seine Koeffizienten gilt.<br />

Satz 6.3.15. Sei K ein Körper und A, B ∈ Mat(n × n, K). Dann gilt die folgende<br />

Gleichheit von Polynomfunktionen:<br />

χ AB = χ BA .<br />

Beweis. Idee: Man führt die Aussage Satz 6.3.11 auf den Fall A 2 = A zurück, den man<br />

wiederum mit Satz 6.1.7 beweisen kann.<br />

(i) Wir betrachten zunächst den Spezialfall, dass A 2 = A gilt. Sei ϕ die lineare<br />

Selbstabbildung von K n , welche zu A gehört. Dann ist ϕ eine Projektion und<br />

nach Beispiel 5.5.13 gibt es eine Basis für K n bezüglich der die darstellende<br />

Matrix von ϕ bezüglich dieser Basis die Gestalt<br />

( )<br />

1r 0<br />

0 0<br />

hat. Wegen Theorem 6.1.3 gibt es eine invertierbare Matrix mit<br />

( )<br />

P −1 1r 0<br />

AP = . (∗)<br />

0 0<br />

Wir zerlegen P −1 BP in der gleichen Weise in Blockmatrizen wie sie in (∗)<br />

vorkommen, d.h.


174 6 Lineare Abbildungen<br />

P −1 BP =<br />

( ) C D<br />

E F<br />

mit C ∈ Mat(r × r, K), D ∈ Mat(r × (n − r)), K, E ∈ Mat((n − r) × r, K), und<br />

D ∈ Mat((n − r) × (n − r)). Dann haben wir<br />

( ) ( ) ( )<br />

P −1 ABP = P −1 AP · P −1 1r 0 C D C D<br />

BP = · =<br />

0 0 E F 0 0<br />

und<br />

P −1 BAP = P −1 BP · P −1 AP =<br />

( ) C D<br />

·<br />

E F<br />

( )<br />

1r 0<br />

=<br />

0 0<br />

( ) C 0<br />

.<br />

E 0<br />

Die zwei letzten Matrizen in diesen Gleichungen haben nach der Kästchenregel<br />

in Bemerkung 4.3.1 dieselbe charakteristische Polynomfunktion. Somit erhalten<br />

wir mit Satz 6.3.11, dass<br />

χ AB (λ) = χ P −1 ABP (λ) = χ P −1 BAP (λ) = χ BA (λ).<br />

(ii) Nun betrachten wir den allgemeinen Fall. Dazu zeigen wir die folgende Behauptung,<br />

welche von eigenständigem Interesse ist:<br />

Behauptung: Für jedes A ∈ Mat(n × n, K), gibt es Matrizen P, Q ∈ GL(n, K)<br />

so, dass (P −1 AQ) 2 = P −1 AQ gilt.<br />

Wenn diese Behauptung gezeigt ist, folgt unsere ursprüngliche Aussage mit<br />

Satz 6.3.11 durch Anwendung von (ii) auf P −1 AQ und Q −1 BP :<br />

χ AB (λ) = χ (P −1 AQ)(Q−1BP )(λ) = χ (Q −1 BP )(P −1 AQ)(λ) = χ BA (λ).<br />

Beweis der Behauptung: Nach Satz 6.1.7 gibt es Basen {v 1 , . . . , v n } und<br />

{v 1, ′ . . . , v n} ′ für K n , bzgl. der die ( lineare ) Abbildung ϕ A : K n → K n , x ↦→ Ax<br />

1r 0<br />

die darstellende Matrix A ϕ = mit r = Rang A hat. Dann kann man<br />

0 0<br />

nach Satz 6.1.3 die Übergangsmatrizen von der Standardbasis zu {v 1 , . . . , v n }<br />

und {v 1, ′ . . . , v n} ′ als P und Q wählen, weil A 2 ϕ = A ϕ gilt.<br />

⊓⊔<br />

Beispiel 6.3.16. Betrachte<br />

( )<br />

4 2<br />

∈ Mat(2 × 2, R). Dann rechnet man<br />

3 −1<br />

χ A (λ) = det(A − λ1)<br />

( )<br />

4 − λ 2<br />

= det<br />

3 −1 − λ<br />

= (4 − λ)(−1 − λ) − 6<br />

= λ 2 − 3λ − 10.<br />

Die Eigenwerte von A, d.h. die Nullstellen von χ A sind gegeben durch<br />

λ ± = 3 ± √ 9 + 40<br />

= 3 ± 7 {<br />

5<br />

=<br />

2 2 −2<br />

Die Eigenvektoren zum Eigenwert λ = 5 sind die von Null verschiedenen Lösungen<br />

des homogenen linearen Gleichungssystems (A − 5 · 1)x = 0, d.h. hier


6.3 Polynomfunktionen und charakteristisches Polynom 175<br />

( 2<br />

x = µ<br />

1)<br />

mit µ ∈ R \ {0}. Analog sind die Eigenvektoren zum Eigenwert λ = −2 sind die<br />

von Null verschiedenen Lösungen des homogenen linearen Gleichungssystems (A +<br />

2 · 1)x = 0, d.h.<br />

x = µ<br />

{( ( )}<br />

2 −1<br />

mit µ ∈ R \ {0}. Da ,<br />

1)<br />

3<br />

ähnlich zu einer Diagonalmatrix.<br />

( ) 5 1<br />

Beispiel 6.3.17. Betrachte<br />

( ) −1<br />

3<br />

eine Basis für R 2 ist, ist A nach Satz 6.2.3<br />

∈ Mat(2×2, R). Dann ist χ A (λ) = (λ−3) 2 und<br />

−4 1<br />

λ = 3 ist der einzige Eigenwert von A. Die Eigenvektoren zum Eigenwert λ = 3 sind<br />

die von Null verschiedenen Lösungen des homogenen linearen Gleichungssystems<br />

(A − 3 · 1)x = 0, d.h.<br />

x = µ<br />

( ) −1<br />

−2<br />

mit µ ∈ R \ {0}. Also gibt es keine Basis aus Eigenvektoren und A ist nach Satz<br />

6.2.3 nicht ähnlich zu einer Diagonalmatrix. ⊓⊔<br />

( ) 2 −5<br />

Beispiel 6.3.18. Betrachte ∈ Mat(2 × 2, R). Dann ist χ<br />

1 −2<br />

A (λ) = λ 2 + 1 und<br />

es gibt keinen Eigenwert von A in R. Wir können allerdings A auch als komplexe<br />

Matrix, d.h. als Element von Mat(2 × 2, C) betrachten. Man rechnet sofort nach,<br />

dass ±i Nullstellen des komplexen Polynoms λ 2 + 1 sind. Da es nicht mehr als zwei<br />

Nullstellen geben kann, sind also die Eigenwerte von A, betrachtet als komplexe<br />

Matrix, gerade i und −i.<br />

Die Eigenvektoren in C 2 zum Eigenwert λ = ±i sind die von Null verschiedenen<br />

Lösungen des homogenen linearen Gleichungssystems (A ∓ i · 1)x = 0, d.h.<br />

( ) 2 ∓ i<br />

x = µ<br />

1<br />

mit µ ∈ C \ {0}. Also gibt es eine Basis aus Eigenvektoren und A ist nach Satz 6.2.3<br />

ähnlich zu einer Diagonalmatrix in Mat(2 × 2, C).<br />

⊓⊔<br />

⊓⊔<br />

Das in Beispiel 6.3.18 vorgeführte Verhalten ist typisch. Man findet über C<br />

immer Eigenwerte und Eigenvektoren. Der Grund dafür ist der Fundamentalsatz<br />

der Algebra, der besagt, dass jedes nichtkonstante Polynom über C eine Nullstelle<br />

hat und der am einfachsten mit Funktionentheorie (Stoff des 4. Semesters) bewiesen<br />

wird.<br />

Satz 6.3.19 (Fundamentalsatz der Algebra). Jedes Polynom über C zerfällt<br />

in Linearfaktoren, d.h. jedes Polynom ist von der Form<br />

P (λ) = c(λ − λ 1 ) · · · (λ − λ n ),<br />

wobei die λ j ∈ C nicht notwendigerweise verschieden sind.<br />

⊓⊔


176 6 Lineare Abbildungen<br />

Übung 6.3.1. Finde Eigenwerte und Eigenvektoren von<br />

⎛ ⎞ ⎛ ⎞<br />

13 0 −4 6 −3 0<br />

⎝ 0 10 0 ⎠ , ⎝ −8 4 −8 ⎠ ,<br />

−4 0 7 2 −1 8<br />

( ) −1 0<br />

.<br />

2 3<br />

Übung 6.3.2. Zeige: Die Eigenwerte einer Dreiecksmatrix sind gerade die Zahlen auf der<br />

Diagonale.<br />

Übung 6.3.3. Sei Φ: V → V K-linear (dim(V ) < ∞) und A Φ die Matrix von Φ bezüglich<br />

einer Basis. Zeige: Die Menge der Eigenwerte von A Φ hängt nicht von der Basis ab.<br />

Übung 6.3.4. Sei V der Vektorraum aller Funktionen f : R → R der Form f(x) = ax 2 +<br />

bx + c. Definiere Φ: V → V durch<br />

Φf(x) := (x 4 + 2x 3 − 3 2 − x + 1)f ′′ (x) + (−2x 3 − 2x 2 + 2x)f ′ (x) + (2x 2 − 1)f(x).<br />

(i) Zeige, dass Φ R-linear ist.<br />

(ii) Finde Eigenwerte und Eigenvektoren von Φ.<br />

Übung 6.3.5. Sei K ein Körper mit unendlich vielen Elementen und A ∈ Mat(n × n, K).<br />

Zeige:<br />

(i) χ cA(λ) = c n χ A(c −1 λ) für alle c ∈ K \ {0}.<br />

(ii) Wenn A t = −A, dann gilt<br />

χ A(−λ) = (−1) n χ A(λ).<br />

(iii) Wenn A ∈ GL(n, K), dann gilt<br />

χ A −1(λ) =<br />

1<br />

det(A) (−λ)n χ A(λ −1 ).<br />

Übung 6.3.6. (a) Bestimme die Eigenwerte und Eigenvektoren von<br />

⎛ ⎞<br />

3 1 −1<br />

⎝ 2 2 −1 ⎠ .<br />

1 1 1<br />

(b) Wie sieht die Matrix bzgl. der Basis {e 1, e 1 + e 2, e 1 + e 2 + e 3} aus?<br />

Übung 6.3.7. Die Abbildung ϕ: R 3 → R 3 sei gegeben durch:<br />

⎛<br />

1<br />

⎞ ⎛<br />

4<br />

⎞ ⎛<br />

0<br />

⎞ ⎛ ⎞<br />

1<br />

⎛<br />

0<br />

⎞<br />

ϕ ⎝ 0 ⎠ = ⎝ 4 ⎠ , ϕ ⎝ 1 ⎠ = ⎝ 4 ⎠ , ϕ ⎝ 1 ⎠ =<br />

−1 −2 −1 2 −1<br />

(a) Bestimme die Matrix von ϕ bzgl. der Standardbasis.<br />

(b) Bestimme die Eigenwerte.<br />

(c) Bestimme die zugehörigen Eigenvektoren.<br />

⎛<br />

⎝<br />

⎞<br />

3<br />

8 ⎠ .<br />

−2<br />

Übung 6.3.8. Die Abbildung ϕ: Mat(2×2, R) → Mat(2×2, R) sei definiert durch ϕ(X) =<br />

CX, wobei C eine fest gewählte Matrix aus Mat(2 × 2, R) ist.<br />

(a) Zeige, dass ϕ R-linear ist.<br />

(b) Bestimme die Matrix von ϕ bzgl. der Basis<br />

{ ( ) ( 1 0<br />

0 1<br />

B 1 = , B<br />

0 0 2 =<br />

0 0<br />

des Raumes Mat(2 × 2, R).<br />

(c) Zeige die Beziehung χ Aϕ (λ) = ( χ C(λ) )2 .<br />

(d) Welche Eigenwerte hat ϕ im Fall C =<br />

)<br />

, B 3 =<br />

( 0 0<br />

1 0<br />

)<br />

?<br />

( ) 0 0<br />

, B<br />

1 0 4 =<br />

( )} 0 0<br />

0 1


6.4 Diagonalisierbarkeit 177<br />

Übung 6.3.9. Sei V = Mat(3 × 3, C).<br />

(i) Zeige, dass die Vorschrift ϕ(M) = −M t eine lineare Abbildung ϕ: V → V definiert.<br />

(ii) Finde eine Basis für V und gib die Matrix A ϕ von ϕ bzgl. dieser Basis an.<br />

(iii) Zeige, dass ϕ nur die Eigenwerte 1 und −1 hat.<br />

(iv) Bestimme die Eigenräume von ϕ zu den Eigenwerten 1 und −1.<br />

Übung 6.3.10. Bestimme die charakteristischen Polynome folgender Matrizen:<br />

⎛<br />

⎞<br />

⎛ ⎞<br />

2 5 2 3 −1<br />

13 0 −4<br />

0 −3 7 1 −4<br />

⎝ 0 10 0 ⎠ ,<br />

⎜ 0 0 5 1 0<br />

⎟<br />

−4 0 7 ⎝ 0 0 0 −2 0 ⎠ .<br />

0 4 4 1 5<br />

Übung 6.3.11. Man ermittle die Eigenwerte der folgenden Matrizen und gebe den jeweils<br />

zugehörigen Eigenraum an.<br />

⎛ ⎞<br />

1 1 0<br />

A 1 = ⎝ 0 1 1 ⎠ ,<br />

⎛ ⎞<br />

1 0 0<br />

A 2 = ⎝ 0 1 1 ⎠ ,<br />

⎛ ⎞<br />

1 0 0<br />

A 3 = ⎝ 0 1 0 ⎠ ,<br />

0 0 1<br />

0 0 1<br />

0 0 1<br />

⎛ ⎞<br />

1 1 0<br />

⎛ ⎞<br />

1 0 0<br />

⎛ ⎞<br />

1 0 0<br />

A 4 = ⎝ 0 1 1 ⎠ , A 5 = ⎝ 0 1 1 ⎠ , A 6 = ⎝ 0 1 0 ⎠ .<br />

0 0 2<br />

0 0 2<br />

0 0 2<br />

Übung 6.3.12. Sei V der Vektorraum der reellen Folgen a = (a 0, a 1, a 2, . . .) und ϕ: V → V<br />

definiert durch ϕ(a) = (a 1, 2a 2, 3a 3, . . .).<br />

(i) Zeige, dass ϕ linear ist und bestimme den Kern von ϕ.<br />

(ii) Zeige, dass jede reelle Zahl ein Eigenwert von ϕ ist.<br />

(iii) Sei U der Unterraum von V , der aus allen Folgen besteht, die nur endlich viele von<br />

Null verschiedene Folgenglieder haben. Zeige, dass ϕ(U) ⊆ U.<br />

(iv) Welche Zahlen kommen als Eigenwerte von ϕ| U vor?<br />

Übung 6.3.13. Es sei A = (a ij) ∈ Mat(n × n, C) mit a ij = 1 für i, j = 1, . . . , n. Bestimme<br />

die Eigenwerte und Eigenräume von A.<br />

Übung 6.3.14. Sei K ein Körper mit unendlich vielen Elementen, V ein K-Vektorraum,<br />

dim V < ∞, und ϕ ∈ End K(V ) mit charakteristischer Polynomfunktion χ ϕ. Sei µ ∈ K und<br />

χ ϕ(λ) = (λ − µ) r · g(λ) für ein r ∈ N 0 und mit einer Polynomfunktion g, für die g(µ) ≠ 0<br />

gilt. Zeige:<br />

1. µ ist Eigenwert von ϕ genau dann, wenn r > 0,<br />

2. r ≥ dim ker (ϕ − µ · id V ).<br />

Übung 6.3.15. Sei V der Vektorraum der reellen Folgen a = (a 0, a 1, a 2, . . .) und sei<br />

ϕ: V → V die lineare Abbildung definiert durch ϕ(a) = (a 1, 2a 2, 3a 3, . . .).<br />

1. Zeige, dass jede reelle Zahl ein Eigenwert von ϕ ist.<br />

2. Sei U der Unterraum von V , der aus allen Folgen besteht, die nur endlich viele von<br />

Null verschiedene Folgenglieder haben. Zeige, dass ϕ(U) ⊆ U.<br />

3. Welche Zahlen kommen als Eigenwerte von ϕ| U vor?<br />

6.4 Diagonalisierbarkeit<br />

Definition 6.4.1. Eine Matrix heißt diagonalisierbar, wenn sie ähnlich zu einer<br />

Diagonalmatrix ist (vgl. Satz 6.2.3).


178 6 Lineare Abbildungen<br />

Proposition 6.4.2. Sei K ein Körper und A ∈ Mat(n × n, K).<br />

(i) Wenn A diagonalisierbar ist, dann zerfällt χ A (λ) in Linearfaktoren, d.h.<br />

χ A (λ) = c(λ − λ 1 ) · · · (λ − λ n )<br />

mit c, λ j ∈ K. Es gilt c ≠ 0K.<br />

(ii) Wenn χ A (λ) = c(λ − λ 1 ) · · · (λ − λ n ) mit c ≠ 0 und λ i ≠ λ j für i ≠ j, dann ist<br />

A diagonalisierbar.<br />

Beweis. Idee: Den ersten Teil rechnet man mithilfe von Satz 6.3.11 einfach. Den zweiten<br />

Teil führt man mit Satz 6.2.5 und Proposition 6.2.2(iv) auf Satz 6.2.3 zurück.<br />

(i) Sei<br />

C −1 AC =<br />

⎛ ⎞<br />

λ 1<br />

⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠ .<br />

λ n<br />

Dann gilt<br />

⎛<br />

⎞<br />

λ 1 − λ<br />

⎜<br />

χ A (λ) = χ C −1 AC(λ) = det ⎝<br />

. ..<br />

⎟<br />

⎠ = (−1) n (λ − λ 1 ) · · · (λ − λ n ).<br />

λ n − λ<br />

(ii) Die Zahlen λ 1 , . . . , λ n sind nach Satz 6.2.5 die Eigenwerte von A. Seien v 1 , . . . , v n<br />

dazugehörige Eigenvektoren. Nach Proposition 6.2.2(iv) ist {v 1 , . . . , v n } linear<br />

unabhängig, also eine Basis für K n . Satz 6.2.3 zeigt jetzt, dass A diagonalisierbar<br />

ist.<br />

⊓⊔<br />

Beispiel 6.4.3. Betrachte die Rotationsmatrizen<br />

( )<br />

cos α sin α<br />

A =<br />

.<br />

− sin α cos α<br />

Das charakteristische Polynom ist χ A (λ) = (cos α − λ) 2 + sin 2 α, das über R genau<br />

dann verschwindet, wenn<br />

sin 2 α = 0 und λ = cos α.<br />

Das kann aber nur passieren, wenn α = 0 oder α = π. In diesen Fällen gilt<br />

( )<br />

( )<br />

1 0<br />

−1 0<br />

A = bzw. A =<br />

.<br />

0 1<br />

0 −1<br />

Über C kann man immer zwei Nullstellen finden:<br />

λ 1/2 = cos α ± i sin α,<br />

d.h. über C lässt sich jede Rotationsmatrix diagonalisieren.<br />

⊓⊔


Beispiel 6.4.4. Betrachte die Matrix<br />

⎛ ⎞<br />

a 1 0<br />

. .. . ..<br />

A = ⎜ ⎟ ∈ Mat(n × n, K).<br />

⎝ a 1 ⎠<br />

0 a<br />

6.4 Diagonalisierbarkeit 179<br />

So eine Matrix nennt man einen Jordan-Block. Das charakteristische Polynom<br />

χ A (λ) = (a − λ) n hat nur eine Nullstelle, nämlich λ = a. Um die zugehörigen<br />

Eigenvektoren zu finden, lösen wir<br />

⎛ ⎞<br />

⎛ ⎞ x<br />

0 1 0 1<br />

⎛ ⎞<br />

x 2<br />

. .. . ..<br />

.<br />

0 = (A − a1)x = ⎜ ⎟<br />

= ⎜ .<br />

⎟<br />

⎝ 0 1 ⎠ ⎜ ⎟ ⎝<br />

⎝ x<br />

0 0 n−1<br />

⎠ x n<br />

⎠ ,<br />

0<br />

x n<br />

d.h., der Eigenraum zum Eigenwert a ist Ke 1 . Also kann A nicht diagonalisierbar<br />

sein, wenn n > 1 ist.<br />

⊓⊔<br />

Satz 6.4.5. Sei K ein Körper und A ∈ Mat(n × n, K). Dann sind äquivalent:<br />

(1) A ist diagonalisierbar.<br />

(2) (a) χ A (λ) = (λ 1 − λ) r1 · · · (λ k − λ) r k<br />

mit paarweise verschiedenen λ 1 , . . . , λ k<br />

und r 1 + . . . + r k = n.<br />

(b) Rang(A − λ j 1) = n − r j , d.h. dim V λj = r j .<br />

Beweis. Idee: Die Implikation (1) ⇒ (2)“ erhält man durch Nachrechnen, wobei man<br />

”<br />

A − λ j1 als lineare Abbildung ϕ j betrachtet und Satz 5.4.7 mit Satz 5.3.9 kombiniert.<br />

Für die Umkehrung wählt man beliebige Basen für die eigenräume um die Aussage auf<br />

Satz 6.2.3 zurückzuführen.<br />

(1) ⇒ (2)“: Wenn A diagonalisierbar ist, findet man eine Übergangangsmatrix C<br />

”<br />

mit<br />

⎛ ⎞<br />

µ 1 0<br />

A ′ = C −1 ⎜<br />

AC = ⎝<br />

. ..<br />

⎟<br />

⎠ .<br />

0 µ n<br />

Indem man Zeilen und Spalten simultan vertauscht, d.h. als Übergangsmatrizen<br />

Elementarmatrizen vom Typ I benützt, kann man erreichen, dass die gleichen<br />

Eigenwerte zu Blöcken zusammengefasst werden:<br />

⎛<br />

λ 1 0<br />

. .. λ 1 λ 2 . .. A ′ = C −1 AC =<br />

λ 2 .<br />

. .. λ k ⎜<br />

⎝<br />

. ⎟ .. ⎠<br />

0 λ k<br />


180 6 Lineare Abbildungen<br />

Es folgt sofort, dass<br />

χ A (λ) = χ A ′(λ) = (λ 1 − λ) r1 · · · (λ k − λ) r k<br />

mit r 1 + . . . + r k = n und paarweise verschiedenen λ j . Wegen<br />

⎛<br />

⎞<br />

λ 1 − λ j 0<br />

. .. λ 1 − λ j . .. 0<br />

(A ′ − λ j 1) =<br />

. .. 0<br />

. .. λ k − λ j ⎜<br />

⎝<br />

. ⎟<br />

.. ⎠<br />

0 λ k − λ j<br />

berechnet man den Rang von A − λ j 1 wie folgt. Seien<br />

ϕ j : K n → K n<br />

v ↦→ (A − λ j 1)v<br />

und<br />

ψ : K n → K n<br />

v ↦→ Cv<br />

sowie A ϕj = A − λ j 1, dann gilt mit Satz 5.4.7<br />

Rang(A − λ j 1) = Rang(ϕ j )<br />

= Rang(ψ −1 ◦ ϕ j ◦ ψ)<br />

= Rang(C −1 (A − λ j 1)C)<br />

= Rang(A ′ − λ j 1)<br />

= n − r j .<br />

Beachte, dass ker ϕ j = V λj . Aus Satz 5.4.7 und der Dimensionsformel in Satz<br />

5.3.9 ergibt sich<br />

also dim V λj = r j .<br />

dim(im ϕ j ) = Rang(A ϕj ) = n − r j<br />

dim(im ϕ j ) = n − dim(ker ϕ j ) = n − dim V λj<br />

” (2) ⇒ (1)“: Jedes v ∈ V λ j<br />

\ {0} ist ein Eigenvektor von A zum Eigenwert λ j . Wir<br />

wollen also eine Basis von K n finden, die aus Elementen der V λj mit j = 1, . . . , k<br />

besteht. Wähle Basen {v (j)<br />

1 , . . . , v(j) r j<br />

} für die V λj .<br />

Behauptung: {v (1)<br />

1 , . . . , v(1) r 1<br />

, . . . , v (k)<br />

1 , . . . , v(k) r k<br />

} ist linear unabhängig. (Da diese<br />

Menge n Elemente hat, ist man nach Satz 6.2.3 fertig, denn man hat dann<br />

eine Basis aus Eigenvektoren gefunden.)<br />

Beweis der Behauptung:<br />

Beachte, dass<br />

0 =<br />

k∑<br />

j=1<br />

(<br />

c<br />

(j)<br />

1 v(j)<br />

r j<br />

1 + . . . + c (j)<br />

v (j)<br />

r j<br />

)<br />

. (∗)


(A − λ 2 1) · · · (A − λ k 1)v (j)<br />

i<br />

6.4 Diagonalisierbarkeit 181<br />

= (λ j − λ 2 ) · · · (λ j − λ k )v (j)<br />

i .<br />

Wenn wir jetzt (A − λ 2 1) · · · (A − λ k 1) auf (∗) anwenden, erhalten wir<br />

0 =<br />

k∑<br />

(λ j − λ 2 ) · · · (λ j − λ k )(c (j)<br />

1 v(j) 1 + . . . + c (j) v r (j)<br />

j<br />

)<br />

j=1<br />

= (λ 1 − λ 2 ) · · · (λ 1 − λ k )<br />

} {{ }<br />

≠0<br />

Also gilt c (1)<br />

1 = . . . = c (1)<br />

r 1<br />

j = 2, . . . , k.<br />

(c (1)<br />

1 v(1)<br />

1 + . . . + c (1)<br />

r j<br />

r 1<br />

v (1)<br />

r 1<br />

).<br />

= 0 und analog sehen wir c (j)<br />

1 = . . . = c (j)<br />

r j<br />

= 0 für<br />

⊓⊔<br />

Übung 6.4.1. Seien a, b ∈ R.<br />

(i) Finde die Eigenwerte und Eigenvektoren der Matrix<br />

⎛ ⎞<br />

0 a 0<br />

A := ⎝ b 0 b ⎠ .<br />

0 a 0<br />

(ii) Für welche a, b ∈ R ist A diagonalisierbar?<br />

Übung 6.4.2. Definiere die Fibonacci-Zahlen a 0, a 1, a 2, . . . rekursiv durch<br />

(i) Berechne a 3, . . . , a 10.<br />

(ii) Zeige:<br />

a 0 := 0, a 1 := 1, , a n+1 := a n + a n−1 ∀n ∈ N.<br />

( )<br />

an+1 a n<br />

=<br />

a n a n−1<br />

( ) n<br />

1 1<br />

∀n ∈ N.<br />

1 0<br />

(iii) Zeige: a n+1a<br />

( n−1 −<br />

)<br />

a 2 n = (−1) n .<br />

1 1<br />

(iv) Zeige, dass diagonalisierbar ist und gib eine Basis für R 2 an, die aus Eigenvektoren<br />

dieser Matrix besteht.<br />

1 0<br />

(v) Zeige, dass<br />

a n = 1 ( √<br />

(1 + 5) n<br />

2 n√ − (1 − √ 5) n)<br />

5<br />

für alle n ∈ N gilt.<br />

Übung 6.4.3. Für a, b ∈ R mit a · b > 0 sei<br />

⎛ ⎞<br />

0 a 0<br />

A = ⎝b 0 b⎠ ∈ R 3×3 .<br />

0 a 0<br />

1. Zeige, dass A diagonalisierbar ist, d.h. A ist ähnlich zu einer Diagonalmatrix D.<br />

2. Bestimme im Fall a = 2, b = 1 eine Matrix C ∈ GL(3, R), so dass C −1 AC = D.<br />

Übung 6.4.4. Bestimme die Diagonalisierbarkeit von<br />

⎛ ⎞<br />

0 s 2 0 0<br />

A := ⎜1 0 0 0<br />

⎟<br />

⎝0 0 0 t 2 ⎠<br />

0 0 1 0<br />

in Abhängigkeit von s, t ∈ R.


182 6 Lineare Abbildungen<br />

Übung 6.4.5 (Simultane Diagonalisierbarkeit). Sei V ein K-Vektorraum, dim V = n <<br />

∞, und seien ϕ, ψ diagonalisierbare Endomorphismen von V mit ϕ ◦ ψ = ψ ◦ ϕ. Zeige, dass<br />

es eine Basis aus gemeinsamen Eigenvektoren von ϕ und ψ gibt.<br />

Hinweis: Führe eine Induktion nach n durch und mache im Induktionsschritt eine Fallunterscheidung<br />

je nachdem, ob ϕ nur einen oder mehrere verschiedene Eigenwerte hat.<br />

Übung 6.4.6. Sei<br />

⎛ ⎞<br />

1 0 0<br />

A = ⎝ −1 1 −2 ⎠ ∈ R 3×3 .<br />

4 −3 2<br />

Zeige, dass A diagonalisierbar ist (d.h. A ist ähnlich zu einer Diagonalmatrix) und bestimme<br />

ein C ∈ GL(n, R) mit C −1 A C = D, D Diagonalmatrix. Berechne A 5 .<br />

Übung 6.4.7. Die Abbildung ϕ: Mat(2×2, R) → Mat(2×2, R) sei definiert durch ϕ(X) =<br />

CX, wobei C = ( a c d b ) eine fest gewählte Matrix aus Mat(2 × 2, R) ist.<br />

1. Zeige, dass ϕ R-linear ist.<br />

2. Bestimme die Matrix A ϕ von ϕ bzgl. der Basis B 1 = ( 1 0 0<br />

0 1<br />

0 0<br />

0<br />

), B2 = (<br />

0 0<br />

), B3 = (<br />

1 0 ),<br />

B 4 = ( 0 0 0<br />

1<br />

) von Mat(2 × 2, R).<br />

3. Zeige die Beziehung χ Aϕ (λ) = ( χ C(λ) )2 .<br />

4. Welche Eigenwerte hat ϕ im Fall C =<br />

( ) 0 0<br />

?<br />

1 0<br />

Übung 6.4.8. Bestimme α, β ∈ R, so dass −x 3 + x das charakteristische Polynom von<br />

⎛ ⎞<br />

α 1 −2<br />

A := ⎝ 0 −1 2 ⎠<br />

−1 β 1<br />

ist. Berechne dann die Eigenwerte und Eigenvektoren von A sowie eine Matrix S, so dass<br />

S −1 AS Diagonalgestalt hat.<br />

Übung 6.4.9. Eine Matrix A ∈ Mat(n × n, K) heißt nilpotent, falls es ein n ∈ N gibt mit<br />

A n = 0.<br />

1. Zeige: Ist A nilpotent, so ist 0 ein Eigenwert von A, und es gibt keine anderen Eigenwerte.<br />

2. Bestimme alle A ∈ Mat(n × n, K), die sowohl nilpotent als auch diagonalisierbar sind.<br />

Übung 6.4.10. Sei V ein R-Vektorraum, dim V < ∞. Sei ϕ ein diagonalisierbarer Endomorphismus<br />

für den gilt: Sind v und w Eigenvektoren von ϕ, so v + w ein Eigenvektor von<br />

ϕ oder v + w = 0. Zeige, dass es ein λ ∈ R gibt, so dass ϕ = λ · id V .


7<br />

Die Jordan-Normalform<br />

In Abschnitt 6.4 haben wir gesehen, dass nicht jede Matrix ähnlich zu einer Diagonalmatrix<br />

ist, selbst wenn die charakteristische Polynomfunktion in Linearfaktoren<br />

zerfällt. In Beispiel 6.4.4 hatten wir den Jordan-Block<br />

⎛<br />

A = ⎜<br />

⎝<br />

a 1<br />

. .. . ..<br />

a 1<br />

a<br />

den man auch mit dem Satz 6.4.5 behandeln kann: Die charakteristische Polynomfinktion<br />

ist (λ − a) n , zerfällt also in Linearfaktoren. Es gilt aber Rang(A − a1 n ) =<br />

n − 1 ≠ 0 für n > 1. In gewisser Weise ist dieses Beispiel das schlimmstmögliche,<br />

denn die Dimension des Eigenraums ker (ϕ A −a id) zu dem vorgegebenen Eigenwert<br />

a ist minimal. Also ist man am weitesten davon entfernt, eine Basis von Eigenvektoren<br />

zu finden. Es stellt sich heraus, dass man genügend Vektoren findet, wenn<br />

man nicht nur Lösungen von (A − a1)x = 0, sondern auch von (A − a1) k x = 0 mit<br />

k ∈ N, zulässt. Diese Methode funktioniert ganz allgemein und führt dazu, dass man<br />

für Körper, die hinreichend viele Element haben, folgende Aussage zeigen kann: Jede<br />

Matrix, deren charakteristische Polynomfunktion in Linearfaktoren zerfällt, ist<br />

ähnlich zu einer Blockdiagonalmatrix ist, deren Blöcke Jordanblöcke sind.<br />

⎞<br />

⎟<br />

⎠ ,<br />

7.1 Zerlegung in invariante Teilräume<br />

Definition 7.1.1. Sei A ∈ Mat(n × n, K) und ϕ ∈ End K (V ) sowie λ ∈ K ein<br />

Eigenwert von A und ϕ.<br />

(a) Der verallgemeinerte Eigenraum von A zum Eigenwert λ ist die Vereinigungsmenge<br />

der Lösungsräume der Gleichungen<br />

(A − λ1) m x = 0, m ∈ N.<br />

(b) Der verallgemeinerte Eigenraum von ϕ zum Eigenwert λ ist die Vereinigungsmenge<br />

V λ der Lösungsräume der Gleichungen<br />

(ϕ − λ id) m (v) = 0, m ∈ N.


184 7 Die Jordan-Normalform<br />

Bemerkung 7.1.2. Da die Lösungsräume V m der Gleichungen (ϕ − λ id) m (v) = 0<br />

für m = 1, 2, . . . eine aufsteigende Folge von Untervektorräumen sind, ist auch der<br />

verallgemeinerte Eigenraum von ϕ zum Eigenwert λ ein Untervektorraum von V .<br />

Wegen<br />

(ϕ − λ id) m( ϕ(v) ) = ϕ ( (ϕ − λ id) m v ) = ϕ(0) = 0<br />

für alle v ∈ V m , gilt ϕ(V m ) ⊆ V m und somit auch ϕ(V λ ) ⊆ V λ .<br />

Wenn V endlich dimensional ist, dann muss die Folge V 1 ⊆ V 2 ⊆ V 3 ⊆ . . .<br />

stationär werden, d.h. es muss ein k ∈ N geben, das V k = V k+1 = V k+2 = . . . erfüllt,<br />

weil die Dimensionen der V m nicht größer als dim V sein können.<br />

Wenn A ∈ Mat(n × n, K), dann betrachtet man ϕ A ∈ Hom K (K n , K n ) und findet<br />

so analoge Aussagen für die Lösungsräume von (A − λ1) m (v) = 0.<br />

⊓⊔<br />

Lemma 7.1.3 (Triagonalisierbarkeit). Sei A ∈ Mat(n × n, K). Wenn die charakteristische<br />

Polynomfunktion von A in Linearfaktoren zerfällt, d.h.,<br />

χ A (λ) = c(λ 1 − λ) · · · (λ n − λ)<br />

gilt, und K mindestens n + 1 Elemente hat, dann ist c = 1 und A ähnlich zu einer<br />

oberen Dreiecksmatrix<br />

⎛ ⎞<br />

λ 1 ∗<br />

⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠ .<br />

0 λ n<br />

Man kann dabei die λ’s beliebig ordnen.<br />

Beweis. Induktion über n.<br />

” n = 1“: Dieser Fall ist trivial, denn es gilt A = (a) und χ A(λ) = a − λ.<br />

” n − 1 ⇒ n“: Zu zeigen ist: Es existiert eine Basis von Kn bzgl. der ϕ := ϕ A die<br />

Gestalt<br />

⎛ ⎞<br />

λ 1 ∗<br />

⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠<br />

0 λ n<br />

hat. Die Aussage über c folgt dann automatisch.<br />

Die λ j sind die Eigenwerte von A. Sei v 1 ein Eigenvektor zu λ 1 . Ergänze (vgl.<br />

Basisergänzungssatz 2.3.4) {v 1 } zu einer Basis {v 1 , . . . , v n } für K n . Bezüglich<br />

dieser Basis hat ϕ die Matrix<br />

⎛<br />

A ′ := ⎜<br />

⎝<br />

λ 1 ∗ · · · ∗<br />

0<br />

. A 1<br />

0<br />

d.h. A ′ ist ähnlich zu A. Also haben wir nach Satz 6.3.11 und der Kästchenregel<br />

aus Bemerkung 4.3.1<br />

Andererseits gilt<br />

und somit<br />

⎞<br />

⎟<br />

⎠ ,<br />

χ A (λ) = det(A ′ − λ1 n ) = (λ 1 − λ) det(A 1 − λ1 n−1 ).<br />

χ A (λ) = χ A ′(λ) = c(λ 1 − λ)[(λ 2 − λ) · · · (λ n − λ)]


7.1 Zerlegung in invariante Teilräume 185<br />

c(λ 2 − λ) · · · (λ n − λ) = det(A 1 − λ1 n−1 )<br />

für alle λ ≠ λ 1 . Nach Voraussetzung gibt es n Nullstellen von det(A 1 −λ1 n−1 )−<br />

c(λ 2 − λ) · · · (λ n − λ) in K. Satz 6.3.4 zeigt also, dass<br />

det(A 1 − λ1 n−1 ) = c(λ 2 − λ) · · · (λ n − λ)<br />

als Polynomfunktionen. Jetzt können wir mit Induktion schließen, dass es ein<br />

C 1 ∈ GL(n − 1, K) mit<br />

⎛<br />

⎜<br />

⎝<br />

λ 2<br />

⎞<br />

∗<br />

. ..<br />

0 λ n<br />

⎟<br />

⎠ = C −1<br />

1 A 1C 1<br />

gibt. Damit können wir wie folgt rechnen und so den Beweis abschließen:<br />

⎛ ⎞<br />

1 0<br />

⎜ ⎟<br />

⎝ 0 C 1<br />

⎠<br />

−1 ⎛<br />

λ 1<br />

⎜<br />

⎝<br />

⎞ ⎛ ⎞ ⎛<br />

⎞<br />

∗ 1 0 λ 1 ∗<br />

⎛ ⎞<br />

λ 1 ∗<br />

⎟ ⎜ ⎟<br />

0 A 1<br />

⎠ ⎝ 0 C 1<br />

⎠ = ⎜<br />

⎝ 0 C1 −1 A ⎟<br />

1C 1<br />

⎠ = ⎜<br />

⎝<br />

. ..<br />

0 λ n<br />

⎟<br />

⎠ .<br />

⊓⊔<br />

Beispiel 7.1.4. Sei K = {0, 1} der Körper mit zwei Elementen und<br />

⎛ ⎞<br />

1 0 0<br />

A = ⎝0 1 1⎠ .<br />

0 1 0<br />

Dann ist χ A (λ) = (1 + λ)(λ 2 + λ + 1) = (1 + λ) = (1 + λ) 3 für alle λ ∈ K,<br />

d.h. χ A zerfällt in Linearfaktoren. Das Induktionsargument aus dem Beweis von<br />

Lemma 7.1.3 funktioniert aber nicht, denn im ersten Induktionsschritt stößt man<br />

auf die Matrix<br />

( ) 1 1<br />

A 1 = ,<br />

1 0<br />

deren charakteristische Polynomfunktion χ A1 (λ) = λ 2 + λ + 1 = 1 ist. D.h. A 1<br />

erfüllt die Induktionsvoraussetzung nicht.<br />

Im Prinzip könnte es sein, dass nur der Beweis von Lemma 7.1.3 schief geht, die<br />

Aussage aber nach wie vor richtig bleibt. Aber auch dafür ist A ein Gegenbeispiel:<br />

Angenommen A ist ähnlich zu<br />

⎛ ⎞<br />

λ 1 ∗ ∗<br />

A ′ := ⎝ 0 λ 2 ∗ ⎠ .<br />

0 0 λ 3<br />

Da Rang(A) = 3 ist und ähnliche Matrizen gleichen Rang haben, darf keines der λ j<br />

gleich Null sein. Also muss gelten λ 1 = λ 2 = λ 3 = 1. Aber dann ist tr(A ′ ) = 1 + 1 +<br />

1 = 1, während tr(A) = 1 + 1 + 0 = 0, was im Widerspruch zu Proposition 6.3.13<br />

steht.<br />

⊓⊔


186 7 Die Jordan-Normalform<br />

Bemerkung 7.1.5. Seien E, F ∈ Mat(s × s, K) mit e ij = 0 für j < i + t E und<br />

f ij = 0 für j < i + t F , d.h. von der Form<br />

⎛ ⎞<br />

⎞<br />

0 · · · 0 ∗<br />

0 · · · 0 ∗<br />

⎜<br />

. .. 0 ⎟<br />

⎜<br />

. .. 0 ⎟<br />

E =<br />

⎜<br />

⎝<br />

. .. .<br />

0 0<br />

⎛<br />

⎟<br />

⎠ und F = ⎜<br />

⎝<br />

. .. .<br />

0 0<br />

Hier sind t E und t F die entsprechende Anzahl von Null–Nebendiagonalen. Für G =<br />

EF gilt dann g ij = 0 für j < i + t E + t F , d.h., G ist von der Form<br />

⎛ ⎞<br />

0 · · · 0 ∗<br />

. .. G =<br />

0<br />

⎜<br />

⎝<br />

. ⎟ .. . ⎠<br />

0<br />

mit t E + t F Null-Nebendiagonalen. Dies folgt aus der Rechnung<br />

g ij =<br />

s∑<br />

e im f mj =<br />

m=1<br />

j−t<br />

∑ F<br />

m=i+t E<br />

e im f mj .<br />

Insbesondere ist die s-te Potenz einer strikt oberen Dreiecksmatrix der Größe s × s<br />

immer Null.<br />

⊓⊔<br />

⎟<br />

⎠ .<br />

Satz 7.1.6. Sei K ein Körper mit mindestens n+1 Elementen und V ein K-Vektorraum<br />

der Dimension n und ϕ ∈ End K (V ). Sei<br />

χ ϕ (λ) = (λ 1 − λ) r1 · · · (λ k − λ) r k<br />

mit λ i ≠ λ j für i ≠ j und r 1 + . . . + r k = n. Dann gilt<br />

(i) V λj = ker ((ϕ − λ j id) rj ).<br />

(ii) dim K (V λj ) = r j .<br />

(iii) V = ⊕ k<br />

j=1 V λj ist eine ϕ-invariante direkte Summe.<br />

Beweis. Idee: Schreibe V λ i<br />

als ker ( (ϕ − λ j id) ) t j<br />

für passende t j ∈ N und ahme den<br />

Beweis von Satz 6.4.5 nach, um zu sehen, dass V λ 1<br />

+ . . . + V λ k<br />

direkt ist. Für den Rest<br />

zählt man Dimensionen.<br />

Aus Bemerkung 7.1.2 sehen wir, dass die V λi und die Räume ker ((ϕ − λ j id) tj )<br />

für beliebige t j ∈ N ϕ-invariant sind. Da V endlich dimensional ist, gibt es Zahlen<br />

t j ∈ N mit<br />

V λj = ker ( (ϕ − λ j id) tj ) .<br />

Als nächstes zeigen wir, dass die Summe der V λj direkt ist. Dazu müssen wir<br />

nach Proposition 5.5.6 zeigen, dass aus v 1 + . . . + v k = 0 mit (ϕ − λ j id) tj (v j ) = 0<br />

folgt v 1 = . . . = v k = 0. Man geht dabei ähnlich vor wie beim Beweis von Satz 6.4.5:<br />

Wende (ϕ − λ 2 id) t2 · · · (ϕ − λ k id) t k<br />

auf v 1 + . . . + v k an. Man erhält<br />

0 = (ϕ − λ 2 id) t2 · · · (ϕ − λ k id) t k<br />

(v 1 + . . . + v k ) = (ϕ − λ 2 id) t2 · · · (ϕ − λ k id) t k<br />

(v 1 )<br />

weil die Reihenfolge der (ϕ − λ j id) tj<br />

nun v 1 ≠ 0 ist und<br />

beliebig ist und (ϕ − λ j id) tj (v j ) = 0. Wenn


7.1 Zerlegung in invariante Teilräume 187<br />

u 1 := v 1 , u 2 := (ϕ−λ k id)(v 1 ), . . . , u 1+tk +...+t 2<br />

:= (ϕ−λ 2 id) t2 · · · (ϕ−λ k id) t k<br />

(v 1 ),<br />

dann gibt es also ein s ∈ {1, . . . , t k + . . . + t 2 } mit u s ≠ 0 und u s+1 = 0. Insbesondere<br />

gibt es ein j ∈ {2, . . . , k} mit (ϕ − λ j id)(u s ) = 0, d.h. u s ist ein Eigenvektor<br />

von ϕ zum Eigenwert λ j . Andererseits gilt wegen der ϕ-Invarianz auch<br />

u s ∈ ker ((ϕ − λ 1 id) t1 ). Aber dann rechnen wir<br />

0 = (ϕ − λ 1 id) t1 (u s ) = (λ j − λ 1 ) t1 u s<br />

und dieser Widerspruch zeigt, dass v 1 = 0 gilt. Analog sehen wir auch, dass alle<br />

anderen v i Null sind.<br />

Wir haben also gesehen, dass die Summe der V λj direkt ist. Insbesondere folgt<br />

(∗)<br />

k∑<br />

k⊕<br />

dim K (V λj ) = dim K ( V λj ) ≤ dim K (V ) = n.<br />

j=1<br />

j=1<br />

Nach Lemma 7.1.3 gibt es eine Basis für V bzgl. der die darstellende Matrix A ϕ<br />

von ϕ die Gestalt<br />

⎛<br />

λ 1 ∗<br />

. .. ˜∗<br />

0 λ 1 λ 2 ∗<br />

⎜<br />

⎝<br />

. ⎟ .. ⎠<br />

0 λ k<br />

⎞<br />

hat (vgl. Abschnitt 6.1). Dann gehört der Spann der ersten r 1 Basisvektoren zu<br />

ker ( (ϕ − λ 1 id) r1 )<br />

, weil die linke obere (r1 × r 1 )-Ecke A 1 von A der Gleichung<br />

genügt (vgl. Bemerkung 7.1.5). Also gilt<br />

(A 1 − λ 1 1) r1 = 0<br />

dim ( ker ( (ϕ − λ 1 id) r1)) ≥ r 1 .<br />

Da man die Eigenwerte umordnen kann, gilt analog<br />

(∗∗)<br />

dim ( ker ( (ϕ − λ j id) rj )) ≥ r j<br />

für alle j = 1, . . . , k. Dann ist aber wegen (∗) und ker ( (ϕ − λ j id) rj )<br />

⊆ V<br />

λ j<br />

n =<br />

k∑<br />

r j ≤<br />

j=1<br />

k∑<br />

dim(V λj ) ≤ n<br />

j=1<br />

und dies zeigt die Gleichheit dim(V λj ) = r j für alle j = 1, . . . , k. Wegen (∗∗) gilt<br />

dann aber auch<br />

ker ( (ϕ − λ j id) rj ) = V λj<br />

und der Satz ist bewiesen.<br />

⊓⊔


188 7 Die Jordan-Normalform<br />

Korollar 7.1.7. Sei K ein Körper mit mindestens n + 1 Elementen und V ein<br />

K-Vektorraum der Dimension n. Für ϕ ∈ End K (V ) sei<br />

χ ϕ (λ) = (λ 1 − λ) r1 · · · (λ k − λ) r k<br />

mit λ i ≠ λ j für i ≠ j und r 1 + . . . + r k = n. Dann hat die Einschränkung ϕ j :=<br />

ϕ| V<br />

λ j : V λj → V λj auf den verallgemeinerten Eigenraum V λj nur einen Eigenwert,<br />

nämlich λ j . Die charakteristische Polynomfunktion von ϕ j ist (λ j − λ) rj .<br />

Beweis. Der Eigenraum V λj = {v ∈ V | ϕ(v) = λ j v} ist in V λj enthalten, also hat<br />

ϕ j den Eigenwert λ j . Sei jetzt µ ∈ K ein beliebiger Eigenwert von ϕ j und v ∈ V λj<br />

ein Eigenvektor dazu. Dann ist v ein Eigenvektor von ϕ zum Eigenwert µ, also<br />

enthalten in V µ ⊆ V µ . Da die Summe der verallgemeinerten Eigenräume nach Satz<br />

7.1.6 direkt ist, gilt µ = λ j .<br />

Wegen Bemerkung 5.5.11 hat die darstellende Matrix von ϕ bzgl. jeder Basis<br />

von V , die aus Elementen von V λ1 ∪ . . . ∪ V λ k<br />

besteht, Blockdiagonalgestalt (mit<br />

den zugehörigen darstellenden Matrizen der ϕ j als Blöcken), und daher zerfällt das<br />

charakteristische Polynom von ϕ als<br />

χ ϕ = χ ϕ1 · · · χ ϕk .<br />

Nach dem ersten Teil des Beweises hat χ ϕj nur die Nullstelle λ j . Weil K mehr als<br />

n Elemente hat, kann man jetzt r j -mal λ j − λ mit Polynomdivision (siehe Lemma<br />

6.3.2) aus χ ϕ und χ ϕj herausteilen und erhält<br />

(λ 2 − λ) r2 · · · (λ k − λ) r k<br />

= χ ϕ2 · · · χ ϕk .<br />

Analog verfährt man mit λ 2 , . . . , λ k und findet schließlich χ ϕj = (λ j − λ) rj für alle<br />

j = 1, . . . , k.<br />

⊓⊔<br />

Korollar 7.1.8. Sei K ein Körper mit mindestens n + 1 Elementen. Dann ist jede<br />

Matrix A ∈ Mat(n × n, K), deren charakteristische Polynomfunktion in Linearfaktoren<br />

χ A (λ) = (λ 1 − λ) r1 · · · (λ k − λ) r k<br />

mit λ i ≠ λ j für i ≠ j und r 1 + . . . + r k = n zerfällt, ähnlich zu einer Matrix<br />

⎛<br />

⎞<br />

A 1 0<br />

A 2 ⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠<br />

0 A r<br />

mit A j ∈ Mat(r j × r j , K) und χ Aj (λ) = (λ j − λ) rj .<br />

Beweis. Wende den Korollar 7.1.7 auf ϕ A ∈ End K (K n ) (definiert durch ϕ A (x) =<br />

Ax) an.<br />

⊓⊔<br />

Beispiel 7.1.9. Betrachte die Matrix<br />

⎛<br />

⎞<br />

4 1 0 0 0<br />

0 3 1 0 0<br />

A =<br />

⎜ −1 −1 2 0 0<br />

⎟<br />

⎝ 0 0 0 3 1 ⎠<br />

−1 −1 −1 −1 1


7.1 Zerlegung in invariante Teilräume 189<br />

und die durch A bzgl. der Standardbasis gegebene lineare Abbildung ϕ = ϕ A : R 5 →<br />

R 5 . Die charakteristische Polynomfunktion χ A = χ ϕ ist gegeben durch:<br />

⎛<br />

⎞<br />

4 − λ 1 0 ( )<br />

det(A − λ · 1) = det ⎝ 0 3 − λ 1 ⎠ 3 − λ 1<br />

det<br />

−1 1 − λ<br />

−1 −1 2 − λ<br />

= ( (4 − λ)(3 − λ)(2 − λ) − 1 + (4 − λ) ) ( (3 − λ)(1 − λ) + 1 )<br />

= (3 − λ) 3 (2 − λ) 2<br />

Die Eigenwerte sind λ 1 = 3 und λ 2 = 2 und die zugehörigen Vielfachheiten r 1 = 3<br />

und r 2 = 2<br />

⎛<br />

A − 3 · 1 =<br />

⎜<br />

⎝<br />

1 1 0 0 0<br />

0 0 1 0 0<br />

−1 −1 −1 0 0<br />

0 0 0 0 1<br />

−1 −1 −1 −1 −2<br />

⎞<br />

⎟<br />

⎠<br />

⎛<br />

⎞<br />

0 0 0 0 0<br />

0 0 0 0 0<br />

(A − 3 · 1) 3 =<br />

⎜ 0 0 0 0 0<br />

⎟<br />

⎝ 2 2 2 2 3 ⎠<br />

−3 −3 −3 −3 −4<br />

⎛<br />

A − 2 · 1 =<br />

⎜<br />

⎝<br />

2 1 0 0 0<br />

0 1 1 0 0<br />

−1 −1 0 0 0<br />

0 0 0 1 1<br />

−1 −1 −1 −1 −1<br />

⎞<br />

⎟<br />

⎠<br />

⎛<br />

⎞<br />

4 3 1 0 0<br />

−1 0 1 0 0<br />

(A − 2 · 1) 2 =<br />

⎜ −2 −2 −1 0 0<br />

⎟<br />

⎝ −1 −1 −1 0 0 ⎠ .<br />

0 0 0 0 0<br />

Mit Satz 7.1.6 ergibt sich V λ1 = ker ((ϕ A − 3 id) 3 ) = {x ∈ R 5 | (A − 3 · 1) 3 x = 0}<br />

Eine Zeilenstufenform von (A − 3 · 1) 3 ist:<br />

⎛ ⎞<br />

1 1 1 1 0<br />

0 0 0 0 1<br />

⎜ 0 0 0 0 0<br />

⎟<br />

⎝ 0 0 0 0 0 ⎠<br />

0 0 0 0 0<br />

Daraus finden wir eine Basis für V λ1 (vgl. auch Satz 2.3.8):<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

1 1 1<br />

−1<br />

⎜ 0<br />

⎟<br />

⎝ 0 ⎠ , 0<br />

⎜ −1<br />

⎟<br />

⎝ 0 ⎠ , 0<br />

⎜ 0<br />

⎟<br />

⎝ −1 ⎠ .<br />

0 0 0<br />

Weiter gilt V λ2 = ker ((ϕ A − 2 id) 2 ) = {x ∈ R 5 | (A − 2 · 1) 2 x = 0} und eine<br />

Zeilenstufenform von (A − 2 · 1) 2 ist:<br />

⎛ ⎞<br />

1 0 0 0 0<br />

0 1 0 0 0<br />

⎜ 0 0 1 0 0<br />

⎟<br />

⎝ 0 0 0 0 0 ⎠<br />

0 0 0 0 0<br />

Als Basis für V λ2 finden wir: ⎛ ⎞ ⎛ ⎞<br />

0 0<br />

0<br />

⎜ 0<br />

⎟<br />

⎝ 1 ⎠ , 0<br />

⎜ 0<br />

⎟<br />

⎝ 0 ⎠ .<br />

0 1


190 7 Die Jordan-Normalform<br />

An dieser Stelle können wir eine Basis für V = R 5 angeben, bzgl. der die Abbildung<br />

ϕ = ϕ A Blockdiagonalgestalt hat und jeder Block nur einen Eigenwert.<br />

Diese Basis ist einfach die Vereinigung der Basen für V λ1 und V λ2 , die wir oben<br />

angegeben haben:<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

1 1 1 0 0<br />

−1<br />

⎜ 0<br />

⎟<br />

⎝ 0 ⎠ , 0<br />

⎜ −1<br />

⎟<br />

⎝ 0 ⎠ , 0<br />

⎜ 0<br />

⎟<br />

⎝ −1 ⎠ , 0<br />

⎜ 0<br />

⎟<br />

⎝ 1 ⎠ , 0<br />

⎜ 0<br />

⎟<br />

⎝ 0 ⎠ .<br />

0 0 0 0 1<br />

Die zugehörige Übergangsmatrix ist:<br />

⎛<br />

⎞<br />

1 1 1 0 0<br />

−1 0 0 0 0<br />

C =<br />

⎜ 0 −1 0 0 0<br />

⎟<br />

⎝ 0 0 −1 1 0 ⎠<br />

0 0 0 0 1<br />

und ihre Inverse<br />

Also gilt<br />

⎛<br />

⎞<br />

0 −1 0 0 0<br />

0 0 −1 0 0<br />

C −1 =<br />

⎜ 1 1 1 0 0<br />

⎟<br />

⎝ 1 1 1 1 0 ⎠ .<br />

0 0 0 0 1<br />

⎛ ⎞<br />

3 1 0 0 0<br />

0 3 1 0 0<br />

A ′ = C −1 AC =<br />

⎜ 0 0 3 0 0<br />

⎟<br />

⎝ 0 0 0 3 1 ⎠ .<br />

0 0 0 −1 1<br />

Beachte dabei, dass beide Blöcke jeweils nur einen Eigenwert haben.<br />

⊓⊔<br />

Übung 7.1.1. Konstruiere für die Matrix<br />

⎛<br />

1 4 3 7<br />

⎞<br />

2<br />

1 −1 −2 −5 −1<br />

A =<br />

⎜ 2 −4 1 −6 −2<br />

⎟<br />

⎝−2 4 2 9 2 ⎠<br />

2 −1 0 −3 1<br />

eine ähnliche Matrix, die Blockdiagonalform hat, und bei der jeder Teilblock nur einen<br />

Eigenwert besitzt. Gib ebenfalls die zugehörige Transformationsmatrix an.<br />

Übung 7.1.2. Konstruiere für die Matrix<br />

⎛<br />

4 1 1<br />

⎞<br />

1<br />

A = ⎜−1 2 −1 −1<br />

⎟<br />

⎝ 6 1 −1 1 ⎠<br />

6 −1 4 2<br />

eine ähnliche Matrix, die Blockdiagonalform hat, und bei der jeder Teilblock nur einen<br />

Eigenwert besitzt. Gib ebenfalls die zugehörige Transformationsmatrix an.


7.1 Zerlegung in invariante Teilräume 191<br />

Übung 7.1.3. Sei V ein K-Vektorraum und V 1, V 2 Untervektorräume von V mit V =<br />

V 1 ⊕ V 2 und dim K V 1 = n, dim K V 2 = m. Weiter sei {e 1, . . . , e n} (bzw. {e n+1, . . . , e n+m})<br />

eine Basis von V 1 (bzw. V 2). Die lineare Abbildung ϕ ∈ Hom K (V, V ) habe darstellende<br />

Matrix (in Blockdiagonalform)<br />

( )<br />

A11 A 12<br />

A =<br />

A 21 A 22<br />

bzgl. {e 1, . . . , e n, e n+1, . . . , e n+m}. Hier A 11 ∈ Mat(n × n, K), A 22 ∈ Mat(m × m, K), usw.<br />

Man zeige:<br />

(a) Es gilt genau dann A 21 = 0, wenn V 1 ϕ-invariant ist.<br />

(b) Sei W ein ϕ-invarianter Untervektorraum von V und ψ := ϕ| W : W → W . Man zeige,<br />

daß das charakteristische Polynom von ψ das charakteristische Polynom von ϕ teilt,<br />

d.h. es gibt ein Polynom p(λ) mit χ ϕ(λ) = χ ψ (λ)p(λ) für alle λ ∈ K.<br />

Übung 7.1.4. Man bestimme die verallgemeinerten Eigenräume der Matrix<br />

⎛ ⎞<br />

1 1 0<br />

A = ⎝−4 −2 1 ⎠ ∈ Mat(3 × 3, R).<br />

4 1 −2<br />

Übung 7.1.5. Sei R 2[x] der Vektorraum der reellen Polynome vom Grad ≤ 2 und sei<br />

ϕ : R 2[x] → R 2[x] die lineare Abbildung mit Matrix<br />

⎛ ⎞<br />

4 −1 −2<br />

A = ⎝2 1 −2⎠<br />

1 −1 1<br />

bezüglich der Basis {−1 + x, x + x 2 , x 2 }.<br />

(a) Man finde ϕ(x + 1).<br />

(b) Man bestimme die Eigenwerte von ϕ und die zugehörigen Eigenvektoren in R 2[x].<br />

Übung 7.1.6. Bestimme alle t ∈ R, so dass folgende Matrix triagonalisierbar ist:<br />

( ) 1 2<br />

A := ∈ R 2×2<br />

t −3<br />

Bestimme für t = −2 eine Matrix C ∈ GL(2, R), so dass CAC −1 eine obere Dreiecksmatrix<br />

ist.<br />

Übung 7.1.7. Berechne für die Matrix<br />

⎛<br />

1 4 3 7<br />

⎞<br />

2<br />

1 −1 −2 −5 −1<br />

A =<br />

⎜ 2 −4 1 −6 −2<br />

⎟<br />

⎝−2 4 2 9 2 ⎠<br />

2 −1 0 −3 1<br />

das charakteristische Polynom und bestimme hieraus (möglichst explizit) eine ähnliche<br />

Matrix, die Blockdiagonalform hat, und bei der jeder Teilblock nur einen Eigenwert besitzt.<br />

Wodurch ist die zugehörige Transformationsmatrix gegeben?<br />

Übung 7.1.8. Sei V ein K-Vektorraum mit dim V < ∞ und ϕ ∈ End K(V ). Zeige:<br />

1. Ist ϕ diagonalisierbar und U ⊂ V ein ϕ-invarianter Unterraum, so ist auch ϕ| U diagonalisierbar.<br />

2. Ist V = ⊕ r<br />

i=1<br />

Ui die direkte Summe von ϕ-invarianten Unterräumen, so ist ϕ genau<br />

dann diagonalisierbar, wenn ϕ| Ui für alle i diagonalisierbar ist.<br />

Hinweis zu a). Führe einen Widerspruchsbeweis mit Hilfe der Menge M := U \ ⊕ λ U λ,<br />

wobei U λ ⊂ U der Eigenraum von ϕ| U zum Eigenwert λ ist. Betrachte ein u ∈ M, bei<br />

dem die Anzahl der Summanden ≠ 0 in u = ∑ λ v λ bezüglich der Zerlegung V = ⊕ λ V λ<br />

minimal ist.


192 7 Die Jordan-Normalform<br />

Übung 7.1.9. Konstruiere für die Matrix<br />

⎛<br />

5 3<br />

⎞<br />

12<br />

A = ⎝ 1 3 4 ⎠ ∈ R 3×3<br />

−1 −2 −3<br />

eine ähnliche Matrix, die Blockdiagonalform hat, und bei der jeder Teilblock nur einen<br />

Eigenwert besitzt. Gib außerdem die zugehörige Transformationsmatrix an.<br />

7.2 Nilpotenz und ϕ-Ketten<br />

Die Zerlegung einer linearen Abbildung in Stücke mit nur einem Eigenwert, wie<br />

sie durch den Satz 7.1.6 und Korollar 7.1.8 bewerkstelligt wird, eröffnet uns die<br />

Möglichkeit, das Problem der Bestimmung alle Äquivalenzklassen von ähnlichen<br />

Matrizen in leichter handhabbare Teilprobleme zu zerlegen. In diesem Abschnitt<br />

konzentrieren wir uns auf Abbildungen mit nur einem Eigenwert. Es wird sich sehr<br />

schnell herausstellen, dass man dann auch annehmen darf, dass dieser Eigenwert<br />

gleich Null ist. Damit ist man dann bei den nilpotenten Abbildungen.<br />

Falls K mindestens n + 1 Elemente hat und A ∈ Mat(n × n, K) ist, folgt mit<br />

Lemma 7.1.3 aus der Gleichung χ A (λ) = (λ 0 − λ) n , dass A ähnlich zu einer Matrix<br />

der Form<br />

⎛ ⎞<br />

λ 0 ∗<br />

⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠<br />

0 λ 0<br />

ist. Insbesondere ist dann A − λ 0 · 1 ähnlich zu einer Matrix der Form<br />

⎛ ⎞<br />

0 ∗<br />

⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠ ,<br />

0 0<br />

d.h. einer strikt oberen Dreiecksmatrix. Bemerkung 7.1.5 zeigt, dass eine Potenz<br />

dieser Matrix gleich Null sein muss.<br />

Lemma 7.2.1. Sei V ein K-Vektorraum der Dimension n, ϕ ∈ End K (V ) und<br />

χ ϕ die charakteristische Polynomfunktion von ϕ. Dann sind folgende Aussagen<br />

äquivalent:<br />

(1) Es gibt eine Basis für V bzgl. der die darstellende Matrix von ϕ ein strikt obere<br />

Dreiecksmatrix ist.<br />

(2) Es gibt ein m ∈ N mit ϕ m = 0.<br />

(3) ϕ n = 0.<br />

Diese drei äquivalenten Eigenschaften implizieren<br />

(4) χ ϕ (λ) = (−1) n λ n .<br />

Wenn K mindestens n + 1 Elemente hat, sind alle vier Eigenschaften äquivalent.<br />

Beweis. Idee: Die Implikation ”<br />

(3) ⇒ (2)“ ist klar und die Implikation ”<br />

(1) ⇒ (2)“<br />

folgt aus Bemerkung 7.1.5. Die Implikationen ”<br />

(2) ⇒ (1), (4)“ zeigt man mit Induktion<br />

über n = dim(V ). Die Implikation ”<br />

(4) ⇒ (1)“ ist, unter der Zusatzvoraussetzung an K,<br />

eine Konsequenz von Lemma 7.1.3.


7.2 Nilpotenz und ϕ-Ketten 193<br />

Die Implikation (3) ⇒ (2)“ ist klar und die Implikation (1) ⇒ (2)“ folgt aus<br />

” ”<br />

Bemerkung 7.1.5. Die Implikation (4) ⇒ (1)“ ist, unter der Zusatzvoraussetzung<br />

”<br />

an K, eine Konsequenz von Lemma 7.1.3.<br />

Jetzt nehmen wir an, dass (2) gilt und beweisen (1) und (4) mit Induktion<br />

über n = dim(V ). Der Induktionsanfang ist trivial, da für n = 1 und ϕ m = 0<br />

sofort ϕ = 0 folgt. Für den Induktionsschritt sei also ϕ m = 0 und v ∈ V von Null<br />

verschieden. Dann gibt es ein kleinstes m o ∈ {1, . . . , m} mit ϕ mo (v) = 0. Setze<br />

w = ϕ mo−1 (v). Dann ist w ein Eigenvektor zum Eigenwert 0. Ergänze {w} zu einer<br />

Basis {w, v 1 , . . . , v n−1 } für V . Bezüglich dieser Basis hat die darstellende Matrix<br />

von ϕ dann die Gestalt<br />

⎛ ⎞<br />

0 ∗ · · · ∗<br />

⎜ 0<br />

⎟<br />

A = ⎜<br />

⎝<br />

. A 1<br />

0<br />

⎟<br />

⎠ .<br />

Betrachte die m-fache Potenz dieser Matrix. Es gilt<br />

⎛ ⎞<br />

0 ∗ · · · ∗<br />

0 = A m 0<br />

= ⎜ ⎟<br />

⎝ . A m ⎠ ,<br />

1<br />

0<br />

also insbesondere A m 1 = 0. Mit Induktion, angewandt auf ϕ A1 ∈ End K (K n−1 ), folgt<br />

einerseits χ A1 = (−1) n−1 λ n−1 und damit<br />

χ A (λ) = (−λ)χ A1 (λ) = (−1) n λ n ,<br />

also (4). Andererseits findet man mit Induktion auch eine Basis {v 1, ′ . . . , v n−1} ′ für<br />

K n−1 , bzgl. der ϕ A1 eine strikte obere Dreiecksmatrix A ′ 1 als darstellende Matrix<br />

hat. D.h. A 1 ist ähnlich zu einer strikten oberen Dreiecksmatrix A ′ 1. Wenn C ∈<br />

GL(n − 1, K) die Gleichung A ′ 1 = C −1 A 1 C erfüllt, dann gilt<br />

( ) ( ) ( ) ( ) ( )<br />

1 0 0 ∗ 1 0 1 ∗<br />

′ 1 ∗<br />

′<br />

0 C −1 =<br />

0 A 1 0 C 0 C −1 =<br />

A 1 C 0 A ′ .<br />

1<br />

Also ist A ähnlich zu einer strikten oberen Dreiecksmatrix und es gilt (1).<br />

⊓⊔<br />

Beispiel 7.2.2. Eine modifizierte Version von Beispiel 7.1.4 zeigt, dass für die Implikation<br />

(4) ⇒ (3)“ in Lemma 7.2.1 nicht auf die Voraussetzung an die Anzahl<br />

”<br />

der Elemente in K verzichtet werden kann: Sei K = {0, 1} der Körper mit zwei<br />

Elementen und<br />

⎛<br />

A = ⎝ 0 0 0<br />

⎞<br />

0 1 1⎠ .<br />

0 1 0<br />

Dann ist χ A (λ) = λ(λ 2 + λ + 1) = λ = λ 3 für alle λ ∈ K, d.h. ϕ A erfüllt die<br />

Bedingung (4) aus Lemma 7.2.1. Wegen<br />

⎛<br />

A 3 = ⎝ 0 0 0<br />

⎞ ⎛<br />

0 1 1⎠<br />

⎝ 0 0 0<br />

⎞ ⎛<br />

0 1 1⎠<br />

⎝ 0 0 0<br />

⎞ ⎛<br />

0 1 1⎠ = ⎝ 0 0 0<br />

⎞ ⎛<br />

0 1 1⎠<br />

⎝ 0 0 0<br />

⎞ ⎛<br />

0 0 1⎠ = ⎝ 0 0 0<br />

⎞<br />

0 1 0⎠<br />

0 1 0 0 1 0 0 1 0 0 1 0 0 1 1 0 0 1<br />

gilt aber die Bedingung (3) nicht.<br />

⊓⊔


194 7 Die Jordan-Normalform<br />

Definition 7.2.3. Eine lineare Abbildung ϕ: V → V heißt nilpotent, wenn sie<br />

die äquivalenten Bedingungen (1)–(3) aus Lemma 7.2.1 erfüllt. Eine Matrix A ∈<br />

Mat(n × n, K) heißt nilpotent, wenn ϕ A nilpotent ist, d.h. wenn es ein l ∈ N mit<br />

A l = 0 gibt. Wenn ϕ nilpotent ist und 0 ≠ v ∈ V , dann heißt<br />

v, ϕ(v), ϕ 2 (v), . . . , ϕ m (v)<br />

die ϕ–Kette von v, wenn ϕ m (v) ≠ 0 und ϕ m+1 (v) = 0 ist.<br />

Bemerkung 7.2.4. Jede ϕ-Kette einer nilpotenten linearen Abbildung ist linear<br />

unabhängig. Wenn nämlich 0 = ∑ m<br />

j=0 a jϕ j (v) (nach Definition ist ϕ 0 = id), dann<br />

gilt<br />

0 = ϕ k( ∑<br />

m ) m−k<br />

∑<br />

a j ϕ j (v) = a j ϕ j+k (v).<br />

j=0<br />

Dies liefert für k = m, m − 1, . . . , 0 sukzessive a 0 = 0, a 1 = 0, . . . , a m = 0.<br />

Darstellende Matrizen von nilpotenten linearen Abbildungen können als strikt<br />

obere Dreiecksmatrizen gewählt werden. Der Zweck der ϕ–Ketten besteht darin,<br />

besonders einfache strikt obere Dreiecksmatrizen als darstellende Matrizen zu finden<br />

(einfach heißt hier, besonders viele Nullen).<br />

j=0<br />

⊓⊔<br />

Beispiel 7.2.5. (i) Wenn die ϕ–Kette {ϕ m (v), ϕ m−1 (v), . . . , ϕ(v), v} zu v eine Basis<br />

für V ist, dann hat die darstellende Matrix von ϕ bzgl. dieser Basis die<br />

Gestalt<br />

⎛<br />

⎞<br />

0 1 0 . . . 0<br />

. .. . .. . .. .<br />

. .. . .. 0<br />

⎜<br />

⎝<br />

. ⎟ .. 1 ⎠<br />

0 0<br />

(ii) Wenn für v, w ∈ V \{0} die Vereinigung {ϕ m (v), . . . , ϕ(v), v, ϕ n (w), . . . , ϕ(w), w}<br />

der beiden zugehörigen ϕ-Ketten eine Basis für V ist, dann hat die Matrix von<br />

ϕ bzgl. dieser Basis die Gestalt<br />

⎛<br />

⎜<br />

⎝<br />

0 1<br />

. .. . ..<br />

. .. 1<br />

0<br />

0 1<br />

. .. . ..<br />

. .. . ..<br />

. .. 1<br />

0<br />

⎞<br />

⎟<br />

⎠<br />

⊓⊔<br />

Im folgenden Satz wird gezeigt, dass man zu einem nilpotenten ϕ ∈ Hom K (V, V )<br />

immer eine Basis finden kann, die eine Vereinigung von ϕ-Ketten ist. Der Beweis<br />

ist konstruktiv, d.h. er zeigt auch wie man diese Basen findet.


Satz 7.2.6. Sei ϕ: V → V nilpotent und dim V = n.<br />

(i) Der Spann einer ϕ–Kette ist ϕ–invariant.<br />

(ii) V hat eine Basis, die eine Vereinigung von ϕ–Ketten ist.<br />

7.2 Nilpotenz und ϕ-Ketten 195<br />

Beweis. Idee: Teil (i) des Satzes ist offensichtlich. Für (ii) konstruiert man Untervektorräume<br />

W (q) von ker(ϕ q ) mit ker(ϕ q−1 ) ⊕ W (q) = ker(ϕ q ) und ϕ(W (q) ) ⊆ W (q−1) .<br />

Ausgehend von einer Basis für ker(ϕ p ) konstruiert man eine Basis für V durch abwechselnde<br />

ϕ-Kettenbildung und Basisergänzung in den W (q) .<br />

Teil (i) des Satzes ist offensichtlich. Um (ii) zu zeigen, setze U (j) = ker(ϕ j ).<br />

Dann gilt<br />

{0} = U (0) ⊆ U (1) ⊆ . . . ⊆ U (q) ⊆ . . . ⊆ U (p−1) ⊆ U (p) = V<br />

und<br />

∀q = 1, . . . , p : ϕ(U (q) ) ⊆ U (q−1) .<br />

Behauptung: Seien u 1 , . . . , u l ∈ U (q) so, dass ihre Bilder<br />

ũ 1 := u 1 + U (q−1) , . . . , ũ l := u l + U (q−1)<br />

in U (q) /U (q−1) linear unabhängig sind (insbesondere sind dann auch u 1 , . . . , u l ∈<br />

U (q) linear unabhängig).<br />

(a) Falls q > 1, dann gilt ϕ(u 1 ) + U (q−2) , . . . , ϕ(u l ) + U (q−2) sind linear unabhängig<br />

in U (q−1) /U (q−2) .<br />

(b) Wenn {ũ 1 , . . . , ũ l } eine Basis für U (q) /U (q−1) ist, dann gilt für W (q) = span{u 1 , . . . , u l }<br />

U (q) = U (q−1) ⊕ W (q) .<br />

Beweis der Behauptung: Für ”<br />

q = 1“ ist nur (b) zu zeigen und das ist wegen<br />

U (0) = {0} trivial.<br />

Sei nun q ≥ 2. Wenn<br />

dann gilt<br />

was<br />

0 =<br />

l∑<br />

c i (ϕ(u i ) + U (q−2) ) ∈ U (q−1) /U (q−2) ,<br />

i=1<br />

l∑<br />

c i ϕ(u i ) ∈ U (q−2) ,<br />

i=1<br />

l∑<br />

c i u i ∈ ker ϕ q−1 = U (q−1)<br />

i=1<br />

zur Folge hat. Dies wiederum bedeutet, dass<br />

0 =<br />

l∑<br />

c i (u i + U (q−1) ) ∈ U (q) /U (q−1) .<br />

i=1<br />

Nach Voraussetzung sind dann alle c j = 0. Dies zeigt (a).<br />

Um auch den Teil (b) der Behauptung zu zeigen, genügt es<br />

U (q−1) ∩ W (q) = {0}


196 7 Die Jordan-Normalform<br />

nachzuweisen, weil wir mit Satz 5.3.8 und (dem Beweis von) Satz 2.4.4 die Dimensionsformeln<br />

und<br />

dim W (q) = l = dim ( U (q) /U (q−1)) = dim U (q) − dim U (q−1)<br />

dim(W (q) + U (q−1) ) = dim U (q−1) + dim W (q) − dim(U (q−1) ∩ W (q) )<br />

haben: Aus U (q−1) ∩ W (q) = {0} folgt nämlich dim(W (q) + U (q−1) ) = dim(U (q) ),<br />

also W (q) + U (q−1) ) = U (q) . Beide Bedingungen zusammen sind aber gleichwertig<br />

mit W (q) ⊕ U (q−1) ) = U (q) .<br />

Jedes Element von W (q) ist von der Form ∑ l<br />

i=1 c iu i ∈ U (q−1) . Wenn aber<br />

∑ l<br />

i=1 c iu i ∈ U (q−1) , dann gilt ∑ l<br />

i=1 c iũ i = 0, also c i = 0 für alle i = 1, . . . , l.<br />

Damit ist die Behauptung bewiesen.<br />

Konstruktion der aus ϕ-Ketten bestehenden Basis:<br />

0. Schritt: Wähle eine Basis ũ (p)<br />

1 , . . . , ũ(p) l p<br />

für U (p) /U (p−1) und dann Vektoren<br />

u (p)<br />

1 , . . . , u(p) l p<br />

∈ U (p) mit ũ (p)<br />

i = u (p)<br />

i + U (p−1) . Das geht, weil der kanonische<br />

Quotientenhomomorphismus U (p) → U (p) /U (p−1) surjektiv ist. Teil (b) der Behauptung<br />

zeigt, dass für W (p) := span(u (p)<br />

1 , . . . , u(p) l p<br />

)<br />

U (p) = U (p−1) ⊕ W (p) ,<br />

gilt. Teil (a) der Behauptung zeigt, dass<br />

{ϕ(u (p)<br />

1 ) + U (p−2) , . . . , ϕ(u (p)<br />

l p<br />

) + U (p−2) }<br />

in U (p−1) /U (p−2) linear unabhängig ist.<br />

1. Schritt: Ergänze ϕ(u (p)<br />

1 ) + U (p−2) , . . . , ϕ(u (p) ) + U (p−2) zu einer Basis<br />

ϕ(u (p)<br />

für U (p−1) /U (p−2)<br />

ũ (p−1)<br />

i<br />

gilt:<br />

= u (p−1)<br />

i<br />

1 ) + U (p−2) , . . . , ϕ(u (p)<br />

l p<br />

l p<br />

) + U (p−2) , ũ (p−1)<br />

1 , . . . , ũ (p−1)<br />

l p−1<br />

und wähle Vektoren u (p−1)<br />

1 , . . . , u (p−1)<br />

l p−1<br />

∈ U (p−1) so, dass<br />

+ U (p−2) . Teil (b) der Behauptung zeigt, dass für<br />

W (p−1) := span{ϕ(u (p)<br />

1<br />

), . . . , ϕ(u(p)<br />

l p<br />

), u (p−1)<br />

1 , . . . , u (p−1)<br />

l p−1<br />

}.<br />

U (p−1) = U (p−2) ⊕ W (p−1) .<br />

Teil (a) der Behauptung zeigt, dass<br />

{<br />

ϕ 2 (u (p)<br />

1 ) + U (p−3) , . . . , ϕ 2 (u (p) ) + U (p−3) , ϕ(u (p−1)<br />

1 ) + U (p−3) , . . . , ϕ(u (p1)<br />

l p−1<br />

) + U (p−3)}<br />

in U (p−2) /U (p−3) linear unabhängig ist.<br />

j=1<br />

l p<br />

In Schritt q − 1 findet man, dass die Vektoren<br />

q⋃ {<br />

ϕ j( u (p−q+j) )<br />

1 + U (p−q−1) , . . . , ϕ j( u (p−q+j) ) }<br />

l p−q+j<br />

+ U<br />

(p−q−1)<br />

in U (p−q) /U (p−q−1) linear unabhängig sind.<br />

.


q. Schritt Ergänze<br />

q⋃ {<br />

j=1<br />

ϕ j( u (p−q+j)<br />

1<br />

7.2 Nilpotenz und ϕ-Ketten 197<br />

)<br />

+ U (p−q−1) , . . . , ϕ j( u (p−q+j)<br />

l p−q+j<br />

)<br />

+ U<br />

(p−q−1) }<br />

durch ũ (p−q)<br />

1 , . . . , ũ (p−q)<br />

l p−q<br />

zu einer Basis für U (p−q) /U (p−q−1) und wähle Vektoren<br />

u (p−q)<br />

1 , . . . , u (p−q)<br />

l p−q<br />

∈ U (p−q) so, dass ũ (p−q)<br />

1 = u (p−q)<br />

i + U (p−q−1) . Dann ist<br />

q⋃ {<br />

j=0<br />

ϕ j( u (p−q+j)<br />

1<br />

)<br />

+ U (p−q−1) , . . . , ϕ j( u (p−q+j)<br />

l p−q+j<br />

)<br />

+ U<br />

(p−q−1) }<br />

eine Basis für U (p−q) /U (p−q−1) . Teil (b) der Behauptung zeigt, dass für<br />

⎛<br />

q⋃ {<br />

W (p−q) := span ⎝ ϕ j( u (p−q+j) )<br />

1 , . . . , ϕ<br />

j ( u (p−q+j) ) }⎞ ⎠<br />

l p−q+j<br />

gilt:<br />

j=0<br />

j=0<br />

U (p−q) = U (p−q−1) ⊕ W (p−q) .<br />

Teil (a) der Behauptung zeigt, dass<br />

q⋃ {<br />

ϕ j+1( u (p−q+j) )<br />

1 + U (p−q−2) , . . . , ϕ j+1( u (p−q+j) ) }<br />

l p−q+j<br />

+ U<br />

(p−q−2)<br />

in U (p−q−1) /U (p−q−2) linear unabhängig ist.<br />

Als Ergebnis unserer Konstruktion erhalten wir das folgende Schema:<br />

.<br />

U (1) . . . U (p−q) . . . U (p−2) U (p−1) U (p)<br />

ϕ p−1 (u (p)<br />

1 ) ← . . . ← ϕq (u (p)<br />

1 ) ← . . . ← ϕ2 (u (p)<br />

1 ) ← ϕ(u(p) 1 ) ← u(p) 1<br />

.<br />

.<br />

. . .<br />

ϕ p−1 (u (p)<br />

l p<br />

) ← . . . ← ϕ q (u (p)<br />

l p<br />

) ← . . . ← ϕ 2 (u (p)<br />

l p<br />

) ← ϕ(u (p)<br />

l p<br />

) ← u (p)<br />

l p<br />

ϕ p−2 (u (p−1)<br />

1 ) ← . . . ← ϕ q−1 (u (p−1)<br />

1 ) ← . . . ← ϕ(u (p−1)<br />

1 ) ← u (p−1)<br />

1 W (p)<br />

.<br />

.<br />

. .<br />

ϕ p−2 (u (p−1)<br />

l p−1<br />

) ← . . . ← ϕ q−1 (u (p−1) ) ← . . . ← ϕ(u (p−1) ) ← u (p−1)<br />

l p−1<br />

.<br />

.<br />

ϕ p−q (u (p−q+1)<br />

1 ) ← . . . ← ϕ(u (p−q+1)<br />

1 ) ← . . .<br />

.<br />

.<br />

.<br />

.<br />

ϕ p−q (u (p−q+1)<br />

l p−q+1<br />

) ← . . . ← ϕ(u (p−q+1)<br />

l p−q+1<br />

) ← . . .<br />

ϕ p−q−1 (u (p−q)<br />

1 ) ← . . . ← u (p−q)<br />

1<br />

.<br />

.<br />

ϕ p−q−1 (u (p−q)<br />

l p−q<br />

) ← . . . ← u (p−q)<br />

l p−q<br />

.<br />

u (1)<br />

1.<br />

. W (p−q)<br />

l p−1<br />

l p−1<br />

. W (p−1)<br />

u (1)<br />

l 1<br />

W (1)


198 7 Die Jordan-Normalform<br />

Damit sehen wir<br />

V = U (p) = U (p−1) ⊕ W (p) = . . . = W (1) ⊕ . . . ⊕ W (p) ,<br />

woraus mit Proposition 5.5.9 folgt, dass<br />

p−1<br />

⋃<br />

q⋃ {<br />

q=0 j=0<br />

ϕ j( u (p−q+j)<br />

1<br />

)<br />

, . . . , ϕ<br />

j ( u (p−q+j) ) }<br />

l p−q+j<br />

eine Basis für V ist, die aus ϕ-Ketten besteht.<br />

⊓⊔<br />

Wenn man die im Beweis von Satz 7.2.6 gewonnene Basis entsprechend dem<br />

dort angegebenen Schema von links oben nach rechts unten liest, dann hat die darstellende<br />

Matrix von ϕ bzgl. dieser Basis Blockdiagonalgestalt mit Jordanblöcken,<br />

die auf der Diagonale Nullen stehen haben.<br />

Beispiel 7.2.7. Wir greifen die Matrix A aus Beispiel 7.1.9 noch einmal auf und<br />

betrachten für ϕ = ϕ A zunächst ϕ| V λ 1 : V λ1 → V λ1 mit λ 1 = 3. Die Abbildung<br />

ψ 1 := ϕ| V λ 1 − 3 id : V λ1 → V λ1 hat bzgl. der Basis<br />

⎛ ⎞ ⎛<br />

1<br />

−1<br />

⎜ 0<br />

⎟<br />

⎝ 0 ⎠ , ⎜<br />

⎝<br />

0<br />

1<br />

0<br />

−1<br />

0<br />

0<br />

⎞ ⎛<br />

⎟<br />

⎠ , ⎜<br />

⎝<br />

1<br />

0<br />

0<br />

−1<br />

0<br />

⎞<br />

⎟<br />

⎠<br />

für V λ1<br />

die darstellende Matrix<br />

⎛ ⎞<br />

0 1 0<br />

A ′ 1 = ⎝ 0 0 1 ⎠ .<br />

0 0 0<br />

Die Potenzen dieser Matrix sind:<br />

⎛ ⎞2<br />

⎛ ⎞<br />

⎛ ⎞<br />

0 1 0 0 0 1<br />

0 1 0<br />

(A ′ 1) 2 = ⎝ 0 0 1 ⎠ = ⎝ 0 0 0 ⎠ , (A ′ 1) 3 = ⎝ 0 0 1 ⎠<br />

0 0 0 0 0 0<br />

0 0 0<br />

Jetzt müssen wir die Kerne ker (ψ 1 ) l berechnen, d.h. wir müssen die Gleichungen<br />

(A ′ 1) l x = 0 lösen und dann feststellen (Übung!), dass x = (x 1 , x 2 , x 3 ) ⊤ genau dann<br />

eine Lösung dieser Gleichung ist, wenn<br />

⎛ ⎞ ⎛<br />

1<br />

−1<br />

x 1 ⎜ 0<br />

⎟<br />

⎝ 0 ⎠ + x 2 ⎜<br />

⎝<br />

0<br />

gilt. Als Ergebnis erhält man<br />

1<br />

0<br />

−1<br />

0<br />

0<br />

⎞<br />

⎛<br />

⎟<br />

⎠ + x 3 ⎜<br />

⎝<br />

1<br />

0<br />

0<br />

−1<br />

0<br />

⎞<br />

⎟<br />

⎠ ∈ ker (ψ 1) l<br />

3<br />

= 0.


0 ⊂ ker ψ<br />

} {{ } 1 ⊂ ker ψ1<br />

2 } {{ }<br />

⎛ ⎞ ⎛ ⎞ ⎛<br />

1 1 1<br />

−1<br />

−1<br />

0<br />

R<br />

0<br />

R<br />

0<br />

+R<br />

−1<br />

⎜<br />

⎝ 0 ⎟ ⎜<br />

⎠ ⎝ 0 ⎟ ⎜<br />

⎠ ⎝ 0<br />

0 0 0<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

0 1<br />

1<br />

0<br />

ψ ⎜0<br />

1<br />

−1<br />

ψ<br />

⎟ ← ⎜ 0<br />

1<br />

0<br />

⎟ ←<br />

⎜−1<br />

⎟<br />

⎝0⎠<br />

⎝ 0 ⎠ ⎝ 0 ⎠<br />

0 0<br />

0<br />

7.2 Nilpotenz und ϕ-Ketten 199<br />

⎞<br />

⎟<br />

⎠<br />

⊂ ker ψ 3 1 = V λ1<br />

ψ 1<br />

←<br />

Genauso verfahren wir jetzt mit V λ2 . Wegen<br />

( )<br />

3 − λ 1<br />

det<br />

= (2 − λ) 2<br />

−1 1 − λ<br />

⎛<br />

⎜<br />

⎝<br />

1<br />

0<br />

0<br />

−1<br />

0<br />

⎞<br />

⎟<br />

⎠<br />

ist λ 2 = 2 der einzige Eigenwert von ϕ| V λ 2 : V λ2 → V λ2 . Die Abbildung ψ 2 :=<br />

ϕ| V λ 2 − 2 id : V λ2 → V λ2 hat bzgl. der Basis<br />

⎛ ⎞ ⎛ ⎞<br />

0 0<br />

0<br />

⎜ 0<br />

⎟<br />

⎝ 1 ⎠ , 0<br />

⎜ 0<br />

⎟<br />

⎝ 0 ⎠<br />

0 1<br />

für V λ2<br />

die darstellende Matrix<br />

A ′ 2 =<br />

( ) 1 1<br />

,<br />

−1 −1<br />

und es gilt<br />

Hier finden wir<br />

(A ′ 2) 2 =<br />

( ) 2<br />

1 1<br />

= 0.<br />

−1 −1<br />

0 ⊂ ker ψ<br />

} {{ } 2 ⊂ ker ψ2 2 = V λ2<br />

⎛ ⎞<br />

0<br />

0<br />

R<br />

0<br />

⎜<br />

⎝ 1 ⎟<br />

⎠<br />

−1<br />

⎛ ⎞ ⎛ ⎞<br />

0 0<br />

0<br />

ψ ⎜0<br />

2<br />

0<br />

⎟ ← ⎜ 0<br />

⎟<br />

⎝0⎠<br />

⎝ 1 ⎠<br />

0 −1<br />

ψ 2<br />

←<br />

⎛ ⎞<br />

0<br />

0<br />

⎜0<br />

⎟<br />

⎝0⎠<br />

1<br />

Schließlich wählen wir als Basis für V λ1 und V λ2 die entsprechenden ψ 1 - bzw. ψ 2 -<br />

Ketten: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

⎧⎛<br />

⎞ ⎛ ⎞⎫<br />

1 1 1<br />

0 0<br />

⎧⎪ ⎨ −1<br />

⎜ 0<br />

⎟<br />

⎝<br />

⎪ 0 ⎠ , 0<br />

⎜ −1<br />

⎟<br />

⎝ 0 ⎠ , 0<br />

⎪⎬ ⎪⎨<br />

0<br />

⎜ 0<br />

⎟ ,<br />

⎜ 0<br />

⎟<br />

⎝ −1 ⎠ ⎝ 1 ⎠ , 0<br />

⎪⎬<br />

⎜ 0<br />

⎟<br />

⎝ 0 ⎠<br />

⎩ ⎪⎭ ⎪⎩<br />

⎪⎭<br />

0 0 0<br />

−1 1


200 7 Die Jordan-Normalform<br />

und als Basis für V die Vereinigung dieser beiden Basen. Bzgl. dieser Basis hat ϕ<br />

die Matrix:<br />

⎛ ⎞<br />

3 1 0 0 0<br />

0 3 1 0 0<br />

⎜ 0 0 3 0 0<br />

⎟<br />

⎝ 0 0 0 2 1 ⎠<br />

0 0 0 0 2<br />

⊓⊔<br />

In den beiden obigen Beispielen genügte jeweils eine ϕ-Kette, um die ganze Basis<br />

zu erhalten. Im folgenden Beispiel ist das anders.<br />

Beispiel 7.2.8. Sei<br />

Dann gilt<br />

⎛<br />

A =<br />

⎜<br />

⎝<br />

3 1<br />

3<br />

3 1<br />

3 1<br />

3<br />

3 1<br />

3 1<br />

3<br />

3 1<br />

3 1<br />

3 1<br />

3<br />

⎞<br />

.<br />

⎟<br />

⎠<br />

χ A (λ) = det(A − λ · 1 12 ) = (3 − λ) 12 ,<br />

d.h. es existiert nur ein Eigenwert λ 1 = 3 mit r 1 = 12 als Dimension des<br />

verallgemeinerten Eigenraums zu λ 1 . Wir setzen ϕ := ϕ A : R 12 → R 12 und<br />

ψ := ϕ − λ 1 id : R 12 → R 12 und bestimmen<br />

A − 3 · 1 12 =<br />

⎜<br />

⎝<br />

⎛<br />

(A−3·1 12 ) 2 =<br />

⎜<br />

⎝<br />

{0} ⊆ ker (ψ) ⊆ . . . ⊆ ker ( ψ 11) ⊆ ker ( ψ 12) .<br />

⎛<br />

0 1<br />

⎞<br />

0 0<br />

⎟<br />

0 0<br />

0 0<br />

0 0 1<br />

0 0 0<br />

0 0 0<br />

0 1 0<br />

0 0 1<br />

0 0 0<br />

0 0 1<br />

0 0 0<br />

0 0 0<br />

0 1 0<br />

0 0 1<br />

0 0 0<br />

0 0 1 0<br />

0 0 0 1<br />

0 0 0 0<br />

0 0 0 0<br />

0 1 0 0<br />

0 0 1 0<br />

0 0 0 1<br />

0 0 0 0<br />

⎞<br />

, ker (ψ) = span{e 1 , e 3 , e 6 , e 9 }<br />

⎟<br />

⎠<br />

, ker ( (ψ) 2) = span{e 1 , . . . , e 4 , e 6 , e 7 , e 9 , e 10 }<br />

⎟<br />


⎛<br />

(A − 3 · 1 12 ) 3 =<br />

⎜<br />

⎝<br />

⎛<br />

(A − 3 · 1 12 ) 4 =<br />

⎜<br />

⎝<br />

0 0<br />

0 0<br />

0 0<br />

0 0<br />

0 0 0<br />

0 0 0<br />

0 0 0<br />

0 0 0<br />

0 0 0<br />

0 0 0<br />

0 0 0<br />

0 0 0<br />

0 0 0<br />

0 0 0<br />

0 0 0<br />

0 0 0<br />

0 0 0 1<br />

0 0 0 0<br />

0 0 0 0<br />

0 0 0 0<br />

0 0 0 0<br />

0 0 0 0<br />

0 0 0 0<br />

0 0 0 0<br />

⎞<br />

7.2 Nilpotenz und ϕ-Ketten 201<br />

, ker ( (ψ) 3) = span{e 1 , . . . , e 11 }<br />

⎟<br />

⎠<br />

⎞<br />

, ker ( (ψ) 4) = span{e 1 , . . . , e 12 }.<br />

⎟<br />

⎠<br />

Um die gewünschte Basis zu erhalten müssen nun die folgenden Schritte durchgeführt<br />

werden:<br />

1. (i) Wähle eine Basis von ker ( (ψ) 3) und ergänze zu einer Basis von ker ( (ψ) 4)<br />

{e 1 , . . . , e 11 } Basis für ker ( (ψ) 3) , ergänzt: e 12<br />

(ii) Bilde die ψ–Kette des ergänzten Vektors.<br />

2. (i) Betrachte ker ( (ψ) 2) und die Elemente der ψ–Kette, die in ker ( (ψ) 3) liegen.<br />

Wenn B 2 eine Basis für ker ( (ψ) 2) ist, dann ist B 2 ∪ { Elemente der ψ–<br />

Ketten, die in ker ( (ψ) 3) \ ker ( (ψ) 2) liegen} linear unabhängig. Ergänze<br />

diese Menge zu einer Basis von ker ( (ψ) 3) .<br />

{e 1 , e 2 , e 3 , e 4 , e 6 , e 7 , e 9 , e 10 } ∪ {e 11 } Basis für ker ( (ψ) 2) , ergänzt: e 5 , e 8<br />

(ii) Bilde die ψ–Ketten der ergänzten Vektoren.<br />

3. (i) Betrachte ker (ψ) und die Elemente der ψ–Ketten, die in ker ( (ψ) 2) \ker (ψ)<br />

liegen. Sei B 1 eine Basis für ker (ψ), dann ist B 1 ∪{ Elemente der ψ–Ketten,<br />

die in ker ( (ψ) 2) \ ker (ψ) liegen } linear unabhängig. Ergänze diese Menge<br />

zu einer Basis von ker ( (ψ) 2) .<br />

{e 1 , e 3 , e 6 , e 9 , e 10 } ∪ {e 4 , e 7 , e 10 } Basis für ker ( (ψ) ) , ergänzt: e 2<br />

(ii) Bilde die ψ–Ketten der ergänzten Vektoren.<br />

Das zugehörige Diagramm der ψ–Ketten sieht wie folgt aus:<br />

{0} ⊆ ker (ψ) ⊆ ker ( (ψ) 2) ⊆ ker ( (ψ) 3) ⊆ ker ( (ψ) 4) = R 12<br />

0<br />

ψ<br />

←− e 9<br />

ψ<br />

←− e10<br />

ψ<br />

←− e11<br />

ψ<br />

←− e12 1.<br />

0<br />

ψ<br />

←− e 6<br />

ψ<br />

←− e7<br />

ψ<br />

←− e8 2.<br />

0<br />

ψ<br />

←− e 3<br />

ψ<br />

←− e4<br />

ψ<br />

←− e5<br />

0<br />

ψ<br />

←− e 1<br />

ψ<br />

←− e2 3.


202 7 Die Jordan-Normalform<br />

Die gesuchte Basis ist die Vereinigung der ψ–Ketten. Innerhalb dieser Ketten<br />

darf man die Reihenfolge nicht vertauschen.<br />

Basis: {e 9 , e 10 , e 11 , e 12 , e 6 , e 7 , e 8 , e 3 , e 4 , e 5 , e 1 , e 2 }<br />

bzgl. dieser Basis hat ψ die Matrix:<br />

⎛<br />

0 1<br />

0 1<br />

0 1<br />

0<br />

A =<br />

⎜<br />

⎝<br />

0 1<br />

0 1<br />

0<br />

0 1<br />

0 1<br />

0<br />

0 1<br />

0<br />

⎞<br />

⎟<br />

⎠<br />

⊓⊔<br />

Übung 7.2.1. Es seien ϕ : K n → K n eine lineare Abbildung, B ⊂ K n eine Basis von<br />

Kern(ϕ 3 ) und v, w ∈ Kern(ϕ 4 ) so gewählt, daß {v, w} ∪ B linear abhängig ist. Zeige durch<br />

direktes Vorgehen, dass die Menge<br />

linear unabhängig ist.<br />

{v, w, ϕ(v), ϕ(w), ϕ 2 (v), ϕ 2 (w), ϕ 3 (v), ϕ 3 (w)}<br />

Übung 7.2.2. Zeige, daß die Abbildung ϕ : R 4 → R 4 mit darstellender Matrix<br />

⎛<br />

⎞<br />

2 −1 2 −2<br />

A = ⎜ 0 2 0 2<br />

⎟<br />

⎝−2 1 −2 2 ⎠<br />

0 −2 0 −2<br />

bezüglich der Standardbasis nilpotent ist, und bestimme mit Hilfe von ϕ-Ketten eine Basis<br />

des R 4 , bezüglich der die Matrix von ϕ eine möglichst einfach Gestalt annimmt.<br />

Übung 7.2.3. Es seien ϕ : K n → K n eine lineare Abbildung, B ⊂ K n eine Basis von<br />

Kern(ϕ 3 ) und v, w ∈ Kern(ϕ 4 ) so gewählt, dass {v, w} ∪ B linear unabhängig ist. Zeige<br />

durch direktes Vorgehen, dass die Menge<br />

linear unabhängig ist.<br />

{v, w, ϕ(v), ϕ(w), ϕ 2 (v), ϕ 2 (w), ϕ 3 (v), ϕ 3 (w)}<br />

Übung 7.2.4. Zeige, dass die Abbildungen ϕ : R 3 → R 3 und ψ : R 4 → R 4 mit darstellenden<br />

Matrizen (bezüglich der Standardbasen)<br />

⎛<br />

⎞<br />

⎛ ⎞<br />

2 −1 2 −2<br />

0 2 2<br />

A = ⎝0 0 2⎠ , B = ⎜ 0 2 0 2<br />

⎟<br />

⎝−2 1 −2 2 ⎠<br />

0 0 0<br />

0 −2 0 −2<br />

nilpotent sind, und bestimme mit Hilfe von ϕ/ψ-Ketten Basen von R 3 bzw. R 4 , bezüglich<br />

der die darstellenden Matrizen möglichst einfache Gestalt annehmen.


7.3 Die Jordan–Normalform 203<br />

Übung 7.2.5. Es seien V ein K-Vektorraum mit dim V < ∞, ϕ ∈ End K(V ) ein Endomorphismus<br />

und λ ∈ K. Zeige für B l (λ) := im (ϕ − λ id V ) l :<br />

1. B l (λ) ⊇ B l+1 (λ) für alle l ∈ N,<br />

2. ϕ(B l (λ)) ⊆ B l (λ) für alle l ∈ N,<br />

3. die Folge der Bildräume B 1(λ) ⊇ B 2(λ) ⊇ · · · wird vom gleichen Index an konstant<br />

wie die Folge der Kernräume V 1(λ) ⊆ V 2(λ) ⊆ · · · mit V l (λ) := ker (ϕ − λ id V ) l wie<br />

in Bemerkung 7.1.2.<br />

Übung 7.2.6. Bestimme die Jordan–Normalform der folgenden nilpotenten Matrix und<br />

gib eine dazugehörige Übergangsmatrix an.<br />

⎛<br />

⎞<br />

1 −2 0 −1 2<br />

1 −3 −1 0 3<br />

A =<br />

⎜0 2 1 −1 −3<br />

⎟<br />

⎝1 0 0 −1 −2⎠<br />

0 −1 0 0 2<br />

Übung 7.2.7. Sei K ein Körper und n ∈ N mit n < |K|. Zeige, dass sich jede Matrix<br />

A ∈ Mat(n × n, K), dessen charakteristisches Polynom in Linearfaktoren zerfällt, zerlegen<br />

lässt in die Summe<br />

A = S + N<br />

einer diagonalisierbaren Matrix S und einer nilpotenten Matrix N, für die außerdem SN =<br />

NS gilt.<br />

Übung 7.2.8. Für Matrizen A, B ∈ Mat(n×n, K) sei [A, B] := AB−BA der Kommutator.<br />

Zeige:<br />

1. Für A, B mit [A, B] = 0 gilt<br />

(1) (A + B) k = ∑ k<br />

( k<br />

l=0 l)<br />

A l B k−l für alle k ∈ N,<br />

(2) sind A, B nilpotent, so ist A + B nilpotent,<br />

2. Sei n < |K| und A ∈ Mat(n × n, K) eine Matrix, dessen charakteristisches Polynom in<br />

Linearfaktoren zerfällt. Dann ist die Zerlegung A = S + N in eine diagonalisierbare<br />

Matrix S und eine nilpotente Matrix N mit [S, N] = 0 ist eindeutig.<br />

Hinweis: Interpretiere die Matrizen als lineare Abbildungen, betrachte die Zerlegung<br />

in verallgemeinerte Eigenräume und zeige, dass die Abbildung mit Darstellungsmatrix<br />

S − λ 1 n in der Einschränkung auf V λ nilpotent ist.<br />

7.3 Die Jordan–Normalform<br />

Zu jedem ϕ ∈ End K (V ), für den die charakteristische Polynomfunktion in Linearfaktoren<br />

zerfällt, möchte man eine Basis zu finden, bzgl. der die Matrix von<br />

ϕ eine Blockdiagonalmatrix ist, deren einzelne Blöcke Jordanblöcke sind. Anders<br />

ausgedrückt wollen wir zu einer Matrix A mit zerfallender charakteristischer Polynomfunktion<br />

eine Übergangsmatrix C finden, für die A ′ = C −1 AC eine Blockdiagonalmatrix<br />

ist, deren einzelne Blöcke Jordanblöcke sind. D.h. A ′ soll die Gestalt


204 7 Die Jordan-Normalform<br />

⎛<br />

⎞<br />

λ 1 1 0<br />

. .. . ..<br />

. .. 1<br />

0 λ 1 . .. λ 1 1 0<br />

.<br />

A ′ .. . ..<br />

=<br />

. .. 1<br />

0 λ 1 λ 2 1 0<br />

. .. . ..<br />

. .. 1<br />

⎜<br />

⎝<br />

0 λ 2<br />

⎟<br />

⎠<br />

. ..<br />

haben. Man sagt dann, die Matrix sei in Jordan–Normalform.<br />

Bemerkung 7.3.1. Die Jordan-Normalform hat Anwendungen in vielen Bereichen<br />

der Mathematik, zum Beispiel hat sie große Bedeutung für das Lösen von partiellen<br />

Differentialgleichungssystemen erster Ordung mit konstanten Koeffizienten. Hier<br />

reduziert die einfache Form der Jordan-Normalform das Problem auf sukzessive<br />

Integration eines kleinen Systems. Um die Lösungen des ursprünglichen Systems<br />

zurückzuerhalten, werden die Übergangsmatrizen wesentlich gebraucht.<br />

Sei K ein Körper mit mindestens n + 1 Elementen, V ein K-Vektorraum der Dimension<br />

n und ϕ ∈ End K (V ). Weiter zerfalle die charakteristische Polynomfunktion<br />

χ ϕ (λ) = (λ 1 − λ) r1 . . . (λ k − λ) r k<br />

, wobei λ i ≠ λ j für i ≠ j und r 1 + . . . , +r k = n.<br />

Dann zerlegt sich V nach Satz 7.1.6 als V = V λ1 ⊕ . . . ⊕ V λ k<br />

, wobei V λj der<br />

verallgemeinerte Eigenraum zum Eigenwert λ j ist. Es gilt dim(V λj ) = r j und die<br />

Einschränkung ϕ j = ϕ| V<br />

λ j von ϕ auf V λj erfüllt χ ϕj (λ) = (λ j − λ) rj . Also ist die<br />

Abbildung ψ j = ϕ j − λ j id V<br />

λ j : V λj → V λj nach Lemma 7.2.1 nilpotent. Mit Satz<br />

7.2.6 finden wir also eine Basis {v (j)<br />

1 , . . . , v(j) r j<br />

} für V λj , die aus ψ j -Ketten besteht<br />

und bzgl. der ψ j eine darstellende Matrix der Form<br />

⎛<br />

⎜<br />

⎝<br />

0 1<br />

. .. . ..<br />

. .. 1<br />

0<br />

0 1<br />

. .. 1<br />

0<br />

⎞<br />

⎟<br />

⎠<br />

. ..<br />

hat. Daher hat die darstellende Matrix von ϕ j bzgl. dieser Basis die Form


7.3 Die Jordan–Normalform 205<br />

⎛<br />

⎞<br />

λ j 1<br />

. .. . ..<br />

. .. 1 λ j λ j 1<br />

.<br />

. .. 1 ⎜<br />

⎝<br />

λ j<br />

⎟<br />

⎠<br />

. ..<br />

Wir setzen jetzt die Basen {v (j)<br />

1 , . . . , v(j) r j<br />

} für V λj zu einer Basis<br />

{v (1)<br />

1 , . . . , v(1) r 1<br />

, v (2)<br />

r 2<br />

1 , . . . , v(2)<br />

, . . . , v (k)<br />

1 , . . . , v(k) r k<br />

}<br />

für V zusammen, dann hat ϕ bzgl. dieser Basis die gewünschte Gestalt. Damit<br />

haben wir den folgenden Satz bewiesen:<br />

Satz 7.3.2 (Jordan–Normalform). Sei K ein Körper mit mindestens n + 1 Elementen<br />

und A ∈ Mat(n × n, K). Die charakteristische Polynomfunktion χ A von A<br />

sei von der Form χ A (λ) = (λ 1 − λ) r1 · · · (λ k − λ) r k<br />

(λ j paarweise verschieden und<br />

r 1 + . . . , +r k = n). Sei V = K n und ϕ ∈ End K (V ) die zu A gehörige lineare Abbildung<br />

(bzgl. der Standardbasis). Dann ist A ähnlich zu einer Blockdiagonalmatrix<br />

⎛<br />

⎞<br />

⎜<br />

⎝<br />

A (1)<br />

1<br />

. ..<br />

A (1)<br />

q 1<br />

A (2)<br />

1<br />

. ..<br />

A (k)<br />

1<br />

. ..<br />

A (k)<br />

q k<br />

,<br />

⎟<br />

⎠<br />

wobei jeder Block A (j)<br />

i<br />

A (j)<br />

i =<br />

ein Jordan–Block mit Diagonalelement λ j ist, d.h. es gilt<br />

⎛<br />

⎞<br />

λ j 1 0<br />

. .. . ..<br />

⎜<br />

⎝<br />

. ⎟ .. 1 ⎠ ∈ Mat(m(j) i × m (j)<br />

i , K).<br />

0 λ j<br />

Eine Matrix von der Form, wie sie in Satz 7.3.2 angegeben ist, heißt eine Matrix<br />

in Jordan–Normalform.<br />

⊓⊔<br />

Satz 7.3.3 (Cayley–Hamilton). Sei K ein Körper mit mindestens n + 1 Elementen<br />

und A ∈ Mat(n × n, K). Die charakteristische Polynomfunktion χ A von A<br />

sei von der Form χ A (λ) = (λ 1 − λ) r1 · · · (λ k − λ) r k<br />

mit λ j paarweise verschieden<br />

und r 1 + . . . , +r k = n. Dann gilt<br />

χ A (A) := (λ 1 1 − A) r1 · · · (λ k 1 − A) r k<br />

= 0.


206 7 Die Jordan-Normalform<br />

Beweis. Idee: Schreibe A in Jordan-Normalform.<br />

Wegen C −1 χ A (A)C = χ A (C −1 AC) = χ C −1 AC(C −1 AC) (vgl. Satz 6.3.11)<br />

können wir nach Satz 7.3.2 annehmen, dass A in Jordan–Normalform ist. Weil<br />

dann χ A (A) in Blockdiagonalform ist, genügt zu zeigen, dass für jeden Block einer<br />

der Faktoren die Nullmatrix ist. Wenn A (j)<br />

i ∈ Mat(r j × r j , K) die Summe der zu λ j<br />

gehörigen Jordanblöcke ist, genügt es also zu zeigen, dass<br />

(λ j 1 rj − A (j)<br />

i ) rj = 0.<br />

Aber diese Gleichheit folgt aber sofort aus dem Umstand, dass λ j 1 rj<br />

strikt obere Dreiecksmatrix mit r j Zeilen und Spalten ist.<br />

− A (j)<br />

i<br />

eine<br />

⊓⊔<br />

Als nächstes behandeln wir die Frage, wie man im Falle reeller Matrizen mit<br />

nichtzerfallendem charakteristischem Polynom vorgeht, wenn man nur reelle Matrizen<br />

bei den Ähnlichkeitsumformungen zulassen will.<br />

Proposition 7.3.4. Sei A ∈ Mat(n × n, R) ⊆ Mat(n × n, C) und λ o<br />

Eigenwert von A. Dann ist auch λ o ein Eigenwert von A.<br />

Beweis. Schreibe χ A (λ) = ∑ n<br />

j=0 a jλ j mit a j ∈ R. Dann gilt<br />

∈ C ein<br />

n∑<br />

n∑<br />

χ A (λ) = a j λ j = a j λ j = χ A (λ).<br />

j=0<br />

j=0<br />

Wenn also χ A (λ o ) = 0, dann gilt auch<br />

χ A (λ o ) = χ A (λ o ) = 0 = 0.<br />

⊓⊔<br />

Proposition 7.3.5. Sei A ∈ Mat(n × n, R) ⊆ Mat(n × n, C) und λ o ∈ C ein<br />

Eigenwert von A. Weiter sei V λo ⊆ C n der verallgemeinerte Eigenraum von<br />

ϕ A : C n → C n zum Eigenwert λ o . Dann ist die Abbildung<br />

V λo<br />

ein Isomorphismus von R-Vektorräumen.<br />

→ V λo<br />

v ↦→ v<br />

Beweis. Wir haben v ∈ V λo genau dann, wenn es ein m ∈ N mit (A − λ o 1) m v = 0<br />

gibt. Wendet man auf diese Gleichung die komplexe Konjugation an, so erhält man,<br />

dass dies äquivalent zu v ∈ V λo ist. Damit sieht man, dass die Abbildung<br />

V λo<br />

→ V λo<br />

v ↦→ v<br />

wohldefiniert und bijektiv ist. Die R-Linearität folgt sofort aus<br />

rv + sw = rv + sw = rv + sw<br />

für alle r, s ∈ R.<br />

⊓⊔


7.3 Die Jordan–Normalform 207<br />

Proposition 7.3.6. Sei A ∈ Mat(n × n, R) ⊆ Mat(n × n, C) und λ o ∈ C \ R ein<br />

Eigenwert von A. Weiter sei {v 1 , . . . , v k } eine Basis für den C-Vektorraum V λo .<br />

Dann ist<br />

{<br />

v1 + v 1<br />

B := , v 1 − v 1<br />

, . . . , v k + v k<br />

, v }<br />

k − v k<br />

2 2i 2 2i<br />

eine Basis für den R-Vektorraum R n ∩ (V λo + V λo ).<br />

Beweis. Idee: Mache aus den reellen Linearkombinationen der Elemente von B komplexe<br />

Linearkombinationen von {v 1, . . . , v k , v 1, . . . , v k }.<br />

und<br />

Wegen<br />

( )<br />

vj + v j<br />

2<br />

= v j + v j<br />

2<br />

( )<br />

vj − v j<br />

= v j − v j<br />

2i −2i<br />

= v j + v j<br />

2<br />

= v j − v j<br />

2i<br />

ist B in R n ∩ (V λo + V λo ) enthalten.<br />

Um die lineare Unabhängigkeit von B über R zu zeigen, wähle a j , b j ∈ R und<br />

setze an<br />

0 =<br />

k∑<br />

j=1<br />

(<br />

)<br />

v j + v j v j − v j<br />

a j + b j<br />

2 2i<br />

=<br />

k∑<br />

j=1<br />

(<br />

aj<br />

2 + b ) (<br />

j aj<br />

v j +<br />

2i 2 − b )<br />

j<br />

v j .<br />

2i<br />

Dann folgt 0 = ∑ k<br />

j=1 (a j − ib j ) v j ∈ V λo und 0 = ∑ k<br />

j=1 (a j + ib j ) v j ∈ V λo , weil<br />

wegen λ o ∈ C \ R gilt V λo ∩ V λo = {0}. Also hat man a j ± ib j = 0 für j = 1, . . . , k,<br />

da die v j C-linear unabhängig sind. Insbesondere sind dann auch die a j und die b j<br />

gleich Null.<br />

Um zu zeigen, dass B den R-Vektorraum R n ∩ (V λo + V λo ) aufspannt, wählt<br />

man v ∈ V λo und w ∈ V λo so, dass v + w ∈ R n . Dann gilt v + w = v + w und daher<br />

v − w = v − w ∈ V λo ∩ V λo = {0}.<br />

Dies zeigt w = v. Mit v = ∑ k<br />

j=1 (a j − ib j )v j , folgt dann w = ∑ k<br />

j=1 (a j + ib j )v j , also<br />

v + w =<br />

=<br />

k∑<br />

a j (v j + v j ) −<br />

j=1<br />

k∑<br />

j=1<br />

2a j<br />

(<br />

vj + v j<br />

2<br />

k∑<br />

ib j (v j − v j )<br />

j=1<br />

)<br />

+<br />

k∑<br />

j=1<br />

( )<br />

vj − v j<br />

2b j .<br />

2i<br />

⊓⊔<br />

Proposition 7.3.7. Sei A ∈ Mat(n × n, R) ⊆ Mat(n × n, C) und λ o ∈ C \ R ein<br />

Eigenwert von A. Weiter sei {v 1 , . . . , v k } eine Basis für den C-Vektorraum V λo .<br />

Wenn die darstellende Matrix von<br />

bzgl. dieser Basis gleich<br />

ϕ A | V λo : V λo<br />

→ V λo


208 7 Die Jordan-Normalform<br />

⎛<br />

⎞<br />

λ o 1<br />

. .. . ..<br />

. .. 1 A ′ =<br />

λ o λ o 1<br />

. .. 1 ⎜<br />

⎝<br />

λ o<br />

⎟<br />

⎠<br />

. ..<br />

ist, dann ist die darstellende Matrix von<br />

ϕ A | V λo ⊕V<br />

: V λo ⊕ V λo<br />

→ V λo ⊕ V λo<br />

λo<br />

bzgl.<br />

{v 1 , . . . , v k , v 1 , . . . , v k }<br />

gleich ( A<br />

′<br />

0<br />

0 A ′ )<br />

und die darstellende Matrix von<br />

ϕ A | R n ∩(V λo ⊕V λo ) : Rn ∩ (V λo ⊕ V λo ) → R n ∩ (V λo ⊕ V λo )<br />

bzgl. {<br />

v1 + v 1<br />

2<br />

gleich<br />

⎛<br />

A ′ =<br />

⎜<br />

⎝<br />

Re λ o Im λ o 1 0<br />

− Im λ o Re λ o 0 1<br />

, v 1 − v 1<br />

2i<br />

, . . . , v k + v k<br />

, v }<br />

k − v k<br />

2 2i<br />

1 0<br />

0 1<br />

Re λ o Im λ o<br />

− Im λ Re λ o o<br />

Re λ o Im λ o 1 0<br />

− Im λ o Re λ o 0 1<br />

1 0<br />

0 1<br />

Re λ o Im λ o<br />

− Im λ o Re λ o<br />

⎞<br />

⎟<br />

⎠<br />

. ..<br />

Beweis. Sei m 1 die Länge des ersten Jordanblocks in A ′ . Wir rechnen<br />

Av m1<br />

= λ o v m1 + v m1−1<br />

Av m1−1 = λ o v m1−1 + v m1−2<br />

.<br />

Av 1 = λ o v 1


7.3 Die Jordan–Normalform 209<br />

und analog<br />

Av m1<br />

= λ o v m1 + v m1−1<br />

Av m1−1 = λ o v m1−1 + v m1−2<br />

.<br />

Av 1 = λ o v 1 .<br />

Dann folgt die Behauptung, indem man diese beiden Sätze von Gleichungen geeignet<br />

kombiniert.<br />

⊓⊔<br />

Wenn wir die obigen Propositionen 7.3.4, 7.3.5, 7.3.6 und 7.3.7 auf jeden Eigenwert<br />

von A separat anwenden, erhalten wir den folgenden Satz:<br />

Satz 7.3.8 (Reelle Jordan–Normalform). Jedes A ∈ Mat(n × n, R) ist ähnlich<br />

zu einer Blockdiagonalmatrix<br />

⎛<br />

⎞<br />

A 1<br />

. ..<br />

A k<br />

⎜<br />

⎝<br />

⎟<br />

⎠<br />

mit Blöcken der Form<br />

oder<br />

⎛<br />

⎞<br />

λ j 1 0<br />

. .. . ..<br />

A j =<br />

⎜<br />

⎝<br />

. ⎟ .. 1 ⎠<br />

0 λ j<br />

⎛<br />

Re λ j Im λ j 1 0<br />

− Im λ j Re λ j 0 1<br />

⎜<br />

⎝<br />

⎞<br />

. .. 1 0<br />

.<br />

0 1<br />

⎟<br />

Re λ j Im λ j<br />

⎠<br />

− Im λ j Re λ j<br />

Dabei sind die λ j die Eigenwerte von A und der zweite Fall tritt auf, wenn Im λ j ≠<br />

0. ⊓⊔<br />

( ) 0 −2<br />

Beispiel 7.3.9. Betrachte die Matrix A = ∈ Mat(2×2, R) ⊆ Mat(2×2, C).<br />

1 2<br />

Das charakteristische Polynom ist dann<br />

( ) −λ −2<br />

χ A (λ) = det<br />

= λ 2 − 2λ + 2 = (λ − (1 + i))(λ − (1 − i)).<br />

1 2 − λ<br />

A hat zwei verschiedene Eigenwerte( in C, ist also ) diagonalisierbar über C. Damit ist<br />

1 + i 0<br />

A als komplexe Matrix ähnlich zu<br />

und man rechnet sofort nach, dass<br />

0 1 − i<br />

( ) ±i − 1<br />

die Eigenräume zu 1 ± i durch C · gegeben sind. Die Übergangsmatrix C<br />

1


210 7 Die Jordan-Normalform<br />

( ) i − 1<br />

von der Standardbasis für C 2 zu v 1 := , v<br />

1 2 :=<br />

( ) −i 1 − i<br />

und ihre Inverse ist C −1 = 1 2<br />

. Damit gilt dann<br />

i 1 + i<br />

Beachte, dass<br />

v 1 + v 1<br />

2<br />

C −1 AC =<br />

=<br />

( ) −1<br />

1<br />

( )<br />

1 + i 0<br />

.<br />

0 1 − i<br />

und v 1 − v 1<br />

2i<br />

=<br />

( ) −i − 1<br />

ist<br />

1<br />

( 1<br />

0)<br />

.<br />

( )<br />

i − 1 −i − 1<br />

1 1<br />

Die ( beiden ) Vektoren bilden eine Basis ( für ) R 2 und mit der Übergangsmatrix ˜C =<br />

−1 1<br />

, deren Inverse durch<br />

1 0<br />

˜C 0 1<br />

= gegeben ist, findet man<br />

1 1<br />

( )<br />

˜C −1 A ˜C 1 1<br />

= .<br />

−1 1<br />

Beispiel 7.3.10. Betrachte die Matrix<br />

⎛<br />

⎞<br />

0 1 0 0 0 1<br />

−1 0 0 0 0 0<br />

A =<br />

0 0 0 1 0 0<br />

⎜ 0 0 −1 0 0 0<br />

,<br />

⎟<br />

⎝ 0 0 0 0 0 1⎠<br />

0 0 0 0 −1 0<br />

deren charakteristisches Polynom durch χ A (λ) = (λ 2 + 1) 3 = (λ + i) 3 (λ − i) 3<br />

gegeben ist. Der verallgemeinerte Eigenraum V i von A zum Eigenwert i in V = C 6<br />

hat folgende aus (ϕ A | V i − i id)–Ketten bestehende Basis:<br />

⎛<br />

v 1 =<br />

⎜<br />

⎝<br />

und die zugehörige Matrix ist<br />

− 1 2<br />

i<br />

2<br />

0<br />

0<br />

0<br />

0<br />

⎞ ⎛ ⎞ ⎛ ⎞<br />

0<br />

0<br />

1<br />

2<br />

0<br />

, v 2 =<br />

0<br />

⎟ ⎜ 0<br />

, v 3 =<br />

i<br />

⎟ ⎜−1<br />

⎟<br />

⎠ ⎝ i ⎠ ⎝ 0 ⎠<br />

−1<br />

0<br />

⎛<br />

⎝ 0 1 0<br />

⎞<br />

0 0 0⎠ .<br />

0 0 0<br />

Also hat ϕ A bzgl. der Basis {v 1 , v 2 , v 3 , v 1 , v 2 , v 3 } für V die darstellende Matrix<br />

⎛<br />

⎞<br />

i 1 0 0 0 0<br />

0 i 0 0 0 0<br />

0 0 i 0 0 0<br />

⎜0 0 0 −i 1 0<br />

.<br />

⎟<br />

⎝0 0 0 0 −i 0 ⎠<br />

0 0 0 0 0 −i<br />

Die Übergangsmatrix ˜C von der Standardbasis zur Basis { v1+v1<br />

für R 6 ist gegeben durch<br />

2<br />

, v1−v1<br />

2i<br />

⊓⊔<br />

v 2+v 2<br />

2<br />

, v2−v2 v 3+v 3<br />

2i 2<br />

, v3−v3<br />

2i<br />

}


7.3 Die Jordan–Normalform 211<br />

⎛<br />

− 1 2 0 0 0 0 0 ⎞<br />

0 1 1<br />

2 2 0 0 0<br />

˜C =<br />

0 0 0 0 0 1<br />

⎜ 0 0 0 0 −1 0<br />

.<br />

⎟<br />

⎝ 0 0 0 1 0 0⎠<br />

0 0 −1 0 0 0<br />

Schließlich findet man<br />

⎛<br />

⎞<br />

0 1 1 0 0 0<br />

−1 0 0 1 0 0<br />

˜C −1 A ˜C =<br />

0 0 0 1 0 0<br />

⎜ 0 0 −1 0 0 0<br />

.<br />

⎟<br />

⎝ 0 0 0 0 0 1⎠<br />

0 0 0 0 −1 0<br />

⊓⊔<br />

Übung 7.3.1. Sei V ein R-Vektorraum und I : V → V eine komplexe Struktur auf V ,<br />

d.h. eine R-lineare Abbildung mit I 2 = id. Sei I C : V C → V C die komplex lineare Fortsetzung<br />

von I. Zeige:<br />

(i) I C hat nur die Eigenwerte i und −i.<br />

(ii) Sei V ± C der Eigenraum von I C zum Eigenwert ±i. Dann gilt V C = V + C ⊕ V − C .<br />

(iii) V ± C<br />

= {v ∓ iIv : v ∈ V }.<br />

(iv) Die Abbildungen<br />

V → V ± C , v ↦→ v ∓ i Iv<br />

sind R-Vektorraumisomorphismen.<br />

Übung 7.3.2. Berechne die reelle Jordan–Normalform von folgenden Matrizen<br />

⎛<br />

⎞<br />

1 0 0 0 0<br />

0 1 −1 0 0<br />

A =<br />

⎜ 0 0 1 0 0<br />

⎟<br />

⎝ 0 0 0 1 0 ⎠<br />

0 −1 0 0 1<br />

⎛<br />

⎞<br />

3 0 0 0 0<br />

0 3 0 1 1<br />

B =<br />

⎜ 0 0 3 −1 0<br />

⎟<br />

⎝ 0 0 1 3 0 ⎠<br />

0 −1 1 0 3<br />

⎛<br />

⎞<br />

3 0 0 0 0<br />

0 3 0 1 −3<br />

C =<br />

⎜ 0 0 3 3 0<br />

⎟<br />

⎝ 0 0 −3 3 0 ⎠<br />

0 −3 1 0 3<br />

( ) 0 2<br />

D =<br />

−2 2<br />

( ) 0 2<br />

E =<br />

−2 −2<br />

Übung 7.3.3. Berechne die reelle Jordan–Normalform von folgenden Matrizen


212 7 Die Jordan-Normalform<br />

⎛<br />

⎞<br />

1 0 0 0 0<br />

0 0 0 1 1<br />

A =<br />

⎜ 0 0 0 −1 0<br />

⎟<br />

⎝ 0 0 1 0 0 ⎠<br />

0 −1 1 0 0<br />

⎛ ⎞<br />

1 0 0 0 0<br />

0 0 0 1 1<br />

B =<br />

⎜ 0 0 0 1 0<br />

⎟<br />

⎝ 0 0 1 0 0 ⎠<br />

0 1 1 0 0<br />

( ) 0 1<br />

C =<br />

−1 −2<br />

( ) 0 1<br />

D =<br />

−1 2<br />

Übung 7.3.4. Betrachte die Matrix<br />

⎛<br />

⎞<br />

1 0 −2 0<br />

A = ⎜ −1 1 0 −2<br />

⎟<br />

⎝ 2 0 1 0 ⎠ .<br />

0 2 −1 1<br />

(i) Verifiziere χ A(λ) = (λ 2 − 2λ + 5) 2 .<br />

(ii) Berechne die reelle Jordan–Normalform von A.<br />

Übung 7.3.5. Berechne die Jordan–Normalform der Matrix A = (a ij) ∈ Mat(n × n, R)<br />

mit a 1j = β, a jj = 2 für j = 1, . . . , n und a ij = 0 sonst. Gib eine Übergangsmatrix C an,<br />

für die C −1 AC in Jordan–Normalform ist.<br />

Übung 7.3.6. Bringe die folgende Matrix auf Jordan–Normalform und gib eine dazugehörige<br />

Übergangsmatrix an:<br />

⎛ ⎞<br />

2 0 1 0 6<br />

0 2 0 1 1<br />

⎜ 0 0 2 0 1<br />

⎟<br />

⎝ 0 0 0 2 1 ⎠<br />

0 0 0 0 2<br />

Übung 7.3.7. Berechne die Jordan–Normalform der Matrix<br />

( ) 0 1<br />

A = ∈ Mat(2 × 2, C)<br />

a 2b<br />

für a, b ∈ R + und gib eine Übergangsmatrix C an, für die C −1 AC in Jordan–Normalform<br />

ist.<br />

Übung 7.3.8. Bringe die folgende Matrix auf Jordan–Normalform und gib die dazugehörige<br />

Übergangsmatrix an: ⎛<br />

⎞<br />

5 −4 0 0<br />

⎜ 2 −1 0 0<br />

⎟<br />

⎝ −2 2 2 1 ⎠<br />

−1 1 −1 4<br />

Übung 7.3.9. Berechne<br />

( ) 10<br />

−4 −3<br />

,<br />

10 7<br />

⎛ ⎞<br />

1 −2 3<br />

⎝ 0 −1 3 ⎠<br />

0 0 1<br />

35<br />

.


7.3 Die Jordan–Normalform 213<br />

Übung 7.3.10. Berechne die Jordan–Normalform und die Übergangsmatrix für die Matrix<br />

⎛<br />

⎞<br />

2 0 4 4 0<br />

0 1 0 0 1<br />

A =<br />

⎜ 0 0 1 0 0<br />

⎟<br />

⎝−1 0 −3 −2 0⎠ .<br />

0 0 1 0 1<br />

Übung 7.3.11. A ∈ Mat(3 × 3, R) ⊂ Mat(3 × 3, C) habe Eigenwerte λ 1 = 1, mit<br />

zügehorigem Eigenvektor v 1 = (0, 0, 2), und λ 2 = 1 + i, mit zugehorigem Eigenvektor<br />

v 2 = (1, 2 + i, 0). Bestimme A.<br />

Übung 7.3.12. Berechne die Jordan–Normalform und die Übergangsmatrizen für die Matrix<br />

⎛<br />

⎞<br />

0 1 −1 0 −1<br />

1 1 0 0 0<br />

A =<br />

⎜ 2 −1 2 0 1<br />

⎟<br />

⎝−1 1 −1 1 0 ⎠ .<br />

0 0 0 0 1<br />

Übung 7.3.13. Sei τ : R 2 → C gegeben durch τ ( ( ( )<br />

x ) x = x+iy für ∈ R<br />

y) 2 . Wenn C als<br />

y<br />

R-Vektorraum betrachtet wird, ist τ ein R-Isomorphismus. Für welche A ∈ Mat(2 × 2, R)<br />

ist die Abbildung<br />

ψ A := τ ◦ ϕ A ◦ τ −1 : C → C<br />

komplex-linear?<br />

Übung 7.3.14. Berechne die Jordan–Normalform und die Übergangsmatrizen für die Matrix<br />

⎛<br />

⎞<br />

5 −4 0 0<br />

A = ⎜ 2 −1 0 0<br />

⎟<br />

⎝−2 2 2 1⎠ .<br />

−1 1 −1 4<br />

Übung 7.3.15. Liste (bis auf Ähnlichkeit) alle mögliche Jordan-Normalformen einer Matrix<br />

A ∈ Mat(3×3, C) mit einem einzigen Eigenwert λ = a. Bei jedem Jordan-Normalform<br />

finde die Dimension des Eigenraums E a von ϕ A zum Eigenwert a. Und was passiert wenn<br />

A ∈ Mat(2 × 2, C)?<br />

Übung 7.3.16. Sei<br />

⎛ ⎞<br />

0 1 2 4<br />

A = ⎜−1 0 3 1<br />

⎟<br />

⎝ 0 0 0 1⎠ ∈ Mat(4 × 4, R) ⊂ Mat(4 × 4, C).<br />

0 0 −1 0<br />

(a) Berechne die Jordan-Normalform von A.<br />

(b) Berechne die reelle Jordan-Normalform von A.<br />

Übung 7.3.17. Berechne die Jordan-Normalform und die Übergangsmatrix für<br />

⎛ ⎞<br />

4 1 1 2 2<br />

−1 2 1 3 0<br />

A =<br />

⎜ 0 0 3 0 0<br />

⎟<br />

⎝ 0 0 0 2 1⎠ .<br />

0 0 0 1 2<br />

Folgende Informationen können ohne Beweis benutzt werden:<br />

(i) A hat Eigenwerte λ 1 = 3 (mit Vielfachheit 4) und λ 2 = 1 (mit Vielfachheit 1);<br />

(ii)


214 7 Die Jordan-Normalform<br />

⎛<br />

⎞<br />

⎛<br />

⎞<br />

0 0 2 5 2<br />

0 0 0 −3 3<br />

0 0 −2 −8 1<br />

(A − 3 · 1) 2 =<br />

⎜0 0 0 0 0<br />

⎟<br />

⎝0 0 0 2 −2⎠ , (A − 3 · 0 0 0 9 −9<br />

1)3 =<br />

⎜0 0 0 0 0<br />

⎟<br />

⎝0 0 0 −4 4 ⎠ ,<br />

0 0 0 −2 2<br />

0 0 0 4 −4<br />

⎛<br />

⎞<br />

0 0 0 6 −6<br />

0 0 0 −18 18<br />

(A − 3 · 1) 4 =<br />

⎜0 0 0 0 0<br />

⎟<br />

⎝0 0 0 8 −8⎠ .<br />

0 0 0 −8 8<br />

Übung 7.3.18. Liste (bis auf Ähnlichkeit) alle möglichen Jordan-Normalformen einer Matrix<br />

A ∈ Mat(3 × 3, C) mit einem einzigen Eigenwert λ = a auf. Bestimme zu jeder<br />

Jordan-Normalform die Dimension des Eigenraums E a von ϕ A zum Eigenwert a.<br />

Übung 7.3.19. Berechne die Jordan-Normalform und die Übergangsmatrix für<br />

⎛ ⎞<br />

4 1 1 2 2<br />

−1 2 1 3 0<br />

A =<br />

⎜ 0 0 3 0 0<br />

⎟<br />

⎝ 0 0 0 2 1⎠ ∈ R5×5 .<br />

0 0 0 1 2<br />

Folgende Informationen können ohne Beweis benutzt werden:<br />

(i) A hat Eigenwerte λ 1 = 3 (mit Vielfachheit 4) und λ 2 = 1 (mit Vielfachheit 1);<br />

(ii)<br />

⎛<br />

⎞<br />

⎛<br />

⎞<br />

0 0 2 5 2<br />

0 0 0 −3 3<br />

0 0 −2 −8 1<br />

0 0 0 9 −9<br />

(A − 3I) 2 = ⎜0 0 0 0 0 ⎟<br />

⎜0 0 0 0 0 ⎟<br />

⎜<br />

⎝<br />

0 0 0 2 −2<br />

0 0 0 −2 2<br />

⎟<br />

⎠ , (A − 3I)3 = ⎜<br />

⎝<br />

⎛<br />

⎞<br />

0 0 0 6 −6<br />

0 0 0 −18 18<br />

(A − 3I) 4 =<br />

⎜0 0 0 0 0<br />

⎟<br />

⎝0 0 0 8 −8⎠ .<br />

0 0 0 −8 8<br />

0 0 0 −4 4<br />

0 0 0 4 −4<br />

Übung 7.3.20. Berechne ohne Zuhilfenahme eines Computers A 10 für<br />

⎛ ⎞<br />

3 4 3<br />

A = ⎝−1 0 −1⎠ ∈ R 3×3 .<br />

1 2 3<br />

Die Punkte verteilen sich auf den Lösungsweg, nicht auf die Lösung.<br />

Übung 7.3.21. Sei V ein endlichdimensionaler R-Vektorraum und ϕ ein Endomorphismus<br />

von V mit ϕ 3 = ϕ. Zeige, dass ϕ diagonalisierbar ist.<br />

Übung 7.3.22. Sei n ∈ N, n > 1. Berechne die Jordan–Normalform der folgenden Matrix<br />

in Abhängigkeit von α ∈ R,<br />

⎛<br />

⎞<br />

2 α α · · · α<br />

0 2 0 · · · 0<br />

A =<br />

. 0 . .<br />

. . ..<br />

∈ Mat(n × n, R) .<br />

⎜<br />

⎝<br />

.<br />

.<br />

. ..<br />

. ⎟ .. ⎠<br />

0 0 0 · · · 2<br />

Gib eine Übergangsmatrix C an, für die C −1 AC in Jordan–Normalform ist.<br />

⎟<br />

⎠ ,


Teil III<br />

Geometrische Strukturen auf Vektorräumen


8<br />

Bi- und Sesquilinearformen<br />

Bilinearformen ergeben sich oft natürlich im Studium geometrischer Eigenschaften.<br />

Das erste Beispiel ist das euklidische Skalarprodukt in Raum oder Ebene,<br />

das für Längen- und Winkelmessung unerlässlich ist. Aber auch die Geometrie der<br />

Raum-Zeit in der Speziellen Relativitätstheorie basiert auf einer Bilinearform, der<br />

Minkowski–Form. Darüber hinaus tauchen Bilinearformen auch in der Analysis auf<br />

und sind Grundlage für eine Reihe von wichtigen Verallgemeinerungen und Begriffsbildungen.<br />

Sesquilinearformen stellen eine Verallgemeinerung von reellen Bilinearformen<br />

für andere Körper (zum Beispiel C) dar, die für eine Reihe von Situationen angemessener<br />

ist als einfach Bilinearformen für diese anderen Körper zu betrachten.<br />

Schlagendes Beispiel ist hier das euklidische Skalarprodukt auf C n , das schon für<br />

n = 1 eine wesentliche Errungenschaft der Geometrie der Ebene darstellt. Andere<br />

Beispiele kommen aus der Analysis und der mathematischen Formulierung der<br />

Quantenmechanik.<br />

Wir behandeln Bi- und Sesquilinearformen weitgehend parallel, indem wir mit<br />

einem involutiven Körper-Automorphismus : K → K arbeiten, der auch die Identität<br />

sein kann.<br />

8.1 Matrizendarstellung<br />

Definition 8.1.1. Sei V ein K-Vektorraum und : K → K ein involutiver<br />

Körper-Automorphismus, d.h. für alle a, b ∈ K gelte<br />

ab = ab, a + b = a + b, a = a.<br />

Eine Semilinearform auf V ist eine Abbildung f : V → K mit<br />

f(av + bw) = af(v) + bf(w)<br />

∀v, w ∈ V, a, b ∈ K<br />

(semi lat. = halb). Man nennt so eine Abbildung semilinear, aber auch antilinear<br />

sofern : K → K nicht die Identität ist. Wir bezeichnen die Menge aller Semilinearformen<br />

mit Ṽ ∗ . Wie für die Linearformen zeigt man, dass Ṽ ∗ mit den punktweisen<br />

Operationen ein K-Vektorraum ist. Beachte, dass für = id Semilinearformen<br />

nichts anderes als Linearformen sind.


218 8 Bi- und Sesquilinearformen<br />

Beispiel 8.1.2. Das wichtigste Beispiel für einen involutiven Körperautomorphismus<br />

ist die komplexe Konjugation auf C. Ansonsten ist natürlich der Spezialfall = id<br />

herauszuheben.<br />

⊓⊔<br />

Definition 8.1.3. Eine Sesquilinearform (sesqui lat. = eineinhalb) auf V ist eine<br />

Abbildung β : V × V → K mit<br />

(a) β(cv + c ′ v ′ , w) = cβ(v, w) + c ′ β(v ′ , w) ∀c, c ′ ∈ K, v, v ′ , w ∈ V<br />

(b) β(v, cw + c ′ w ′ ) = cβ(v, w) + c ′ β(v, w ′ ) ∀c, c ′ ∈ K, v, w ′ , w ∈ V.<br />

Wir schreiben Ses(V ) für die Menge der Sesquilinearformen auf V . Wenn<br />

ist, spricht man von Bilinearformen und schreibt Bil(V ) statt Ses(V ).<br />

= id<br />

Bemerkung 8.1.4. Sei β : V × V → K eine Sesquilinearform.<br />

(i) v ↦→ β(v, w) (w fest) ist eine Linearform auf V , d.h. ein Element von V ∗ .<br />

(ii) w ↦→ β(v, w) (v fest) ist eine Semilinearform auf V , d.h. ein Element von Ṽ ∗ .<br />

⊓⊔<br />

Beispiel 8.1.5. Sei K ein Körper und<br />

lauter Bilinearformen:<br />

(i) Sei K beliebig und V = K n (Spaltenvektoren)<br />

⎛ ⎞<br />

x n∑<br />

1<br />

β(v, w) = v ⊤ ⎜<br />

w = x i y i , v = ⎝ .<br />

i=1<br />

x n<br />

Für K = R ist dies das euklidische Skalarprodukt.<br />

(ii) (Minkowski–Form) K = R, V = R 4<br />

= id, d.h. die folgenden Beispiele sind<br />

⎟<br />

⎠ , w =<br />

⎛ ⎞<br />

y 1<br />

⎜ ⎟<br />

⎝ . ⎠<br />

y n<br />

β((t, x, y, z) ⊤ , (t ′ , x ′ , y ′ , z ′ ) ⊤ ) = −tt ′ + xx ′ + yy ′ + zz ′<br />

(iii) K beliebig, V = K n , B ∈ Mat(n × n, K), B =(b ij ) i<br />

j<br />

= 1 , ... , n<br />

= 1 , ... , n<br />

und v, w wie in (i).<br />

β(v, w) = v ⊤ Bw =<br />

n∑<br />

∑<br />

n<br />

x i<br />

i=1 j=1<br />

b ij y j =<br />

n∑ n∑<br />

x i b ij y j .<br />

i=1 j=1<br />

Das hier zugrundeliegende Schema ist:<br />

=<br />

Man rechnet


β(cv + c ′ v ′ , w) = (cv + c ′ v ′ ) ⊤ Bw<br />

= ((cv) ⊤ + (c ′ v ′ ) ⊤ )Bw<br />

= (cv) ⊤ Bw + (c ′ v ′ ) ⊤ Bw<br />

= c(v ⊤ Bw) + c ′ (v ′ ⊤ Bw)<br />

= cβ(v, w) + c ′ β(v ′ , w)<br />

8.1 Matrizendarstellung 219<br />

und analog für β(v, cw + c ′ w ′ ). Dieses Beispiel verallgemeinert die Beispiele (i)<br />

und (ii). So ist das richtige B im ersten Beispiel gerade die Matrix<br />

⎛ ⎞<br />

1 0<br />

⎜<br />

B = 1 n = ⎝<br />

. ..<br />

⎟<br />

⎠<br />

0 1<br />

und im zweiten Beispiel<br />

⎛ ⎞<br />

−1 0<br />

B = ⎜ 1<br />

⎟<br />

⎝ 1 ⎠<br />

0 1<br />

(iv) Sei V := {v : [a, b] → R | stetig} und k : [a, b]×[a, b] → R stetig. Dann definiert<br />

β(v, w) =<br />

eine Bilinearform auf V .<br />

(v) Für V = Mat(r × s, K) definiert<br />

eine Bilinearform auf V .<br />

∫ b ∫ b<br />

a<br />

a<br />

v(x)k(x, y)w(y)dydx<br />

β(A, B) = tr(A ⊤ B)<br />

⊓⊔<br />

Definition 8.1.6. Wir dehnen die Definition von<br />

A = (a ij ) i<br />

j<br />

A := (a ij ) i<br />

j<br />

= 1 , ... , n<br />

= 1 , ... , m<br />

= 1 , ... , n<br />

= 1 , ... , m<br />

∈ Mat(n × m, K)<br />

∈ Mat(n × m, K)<br />

auf Matrizen aus:<br />

Die Abbildung : Mat(n × m, K) → Mat(n × m, K), ist bijektiv, denn ist ihr<br />

eigenes Inverses. Wenn K = C ist und die übliche komplexe Konjugation, dann<br />

ist zwar R–linear, aber nicht C–linear! Genauer:<br />

cA + c ′ A = (ca ij + c ′ a ′ ij ) i=1,...,n<br />

j=1,...,m<br />

= c(a ij ) i=1,...,n + c ′ (a ′ ij ) i=1,...,n<br />

j=1,...,m<br />

j=1,...,m<br />

= .<br />

ist semilinear. Man schreibt auch<br />

= cA + c ′ A ′<br />

A ∗ = A ⊤ = (A) ⊤ ∈ Mat(m × n, K).<br />

Im Falle K = C mit der komplexen Konjugation nennt man A ∗ auch die adjungierte<br />

Matrix zu A.<br />

In den Spezialfällen einer Zeile oder Spalte ergibt sich jeweils eine involutive<br />

Bijektion : K n → K n .


220 8 Bi- und Sesquilinearformen<br />

Beispiel 8.1.7. Sei jetzt K = C und z die komplexe Konjugation.<br />

(i) Sei V = C n (Spaltenvektoren)<br />

⎛ ⎞<br />

x n∑<br />

1<br />

β(v, w) = v ⊤ ⎜<br />

w = x i y i , v = ⎝ .<br />

i=1<br />

x n<br />

⎟<br />

⎠ , w =<br />

(ii) Allgemeiner sei V = C n , A ∈ Mat(n×, n, K), A =(a ij ) i =<br />

j =<br />

in (i).<br />

n∑ ∑<br />

n n∑ n∑<br />

β(v, w) = v ⊤ Aw = a ij y j =<br />

x i<br />

i=1 j=1<br />

i=1 j=1<br />

⎛ ⎞<br />

y 1<br />

⎜ ⎟<br />

⎝ . ⎠<br />

y n<br />

1 , ... , n<br />

1 , ... , n<br />

x i a ij y j .<br />

und v, w wie<br />

β(v, cw + c ′ w ′ ) = v ⊤ Acw + c ′ w ′<br />

= v ⊤ Acw + v ⊤ Ac ′ w ′<br />

= c(v ⊤ Aw) + c ′ (v ⊤ Aw ′ )<br />

= cβ(v, w) + c ′ β(v, w ′ )<br />

Dieses Beispiel verallgemeinert das erste Beispiel. Das passende B in diesem<br />

Fall ist<br />

⎛ ⎞<br />

1 0<br />

⎜<br />

B = 1 n = ⎝<br />

. ..<br />

⎟<br />

⎠ .<br />

0 1<br />

(iii) Sei V = {v : [a, b] → C| stetig} und k : [a, b] × [a, b] → C stetig. Dann definiert<br />

β(v, w) =<br />

eine Sesquilinearform auf V .<br />

(iv) V = Mat(r × s, C)<br />

∫ b ∫ b<br />

a<br />

a<br />

v(x)k(x, y)w(y)dydx<br />

β(A, B) = tr(A ⊤ B),<br />

wobei B die Matrix b ij , wenn die b ij die Einträge von B sind.<br />

(v) V beliebig; f ∈ V ∗ , g ∈ Ṽ ∗<br />

β(v, w) = f(v)g(w)<br />

⊓⊔<br />

Man kann Sesquilinearformen punktweise addieren und mit einem Skalar multiplizieren:<br />

(β + β ′ )(v, w) := β(v, w) + β ′ (v, w) ∀v, w ∈ V<br />

(cβ)(v, w) := cβ(v, w)<br />

∀c ∈ K, ∀v, w ∈ V<br />

Proposition 8.1.8. Seien β, β ′ Sesquilinearformen auf V und k ∈ K, dann sind<br />

auch β + β ′ und kβ Sesquilinearformen auf V. Insbesondere ist Ses(V ) ist bzgl. der<br />

oben eingeführten Addition und Multiplikation mit Skalaren ein K-Vektorraum.<br />

Beweis. Idee: Es reicht wegen Beispiel 5.1.3 und Bemerkung 5.1.6 nachzurechnen, dass<br />

β + β ′ und kβ in Ses(V ) liegen.


8.1 Matrizendarstellung 221<br />

Da nach Beispiel 5.1.3 die Menge aller Abbildungen V × V → K mit der punktweisen<br />

Addition und der punktweisen skalaren Multiplikation ein K-Vektorraum ist,<br />

reicht es nach Bemerkung 5.1.6 nachzurechnen, dass β +β ′ und kβ in Ses(V ) liegen.<br />

(β + β ′ )(cv + c ′ v ′ , w) = β(cv + c ′ v ′ , w) + β ′ (cv + c ′ v ′ , w)<br />

= (cβ(v, w) + c ′ β(v ′ , w)) + (cβ ′ (v, w) + c ′ β ′ (v ′ , w))<br />

= c(β(v, w) + β ′ (v, w)) + c ′ (β(v ′ , w) + β ′ (v ′ , w))<br />

= c((β + β ′ )(v, w)) + c ′ ((β + β ′ )(v ′ , w)).<br />

Die zweite Komponente behandelt man analog. Ebenso geht man für das skalare<br />

Vielfache vor:<br />

(kβ)(cv + c ′ v ′ , w) = kβ(cv + c ′ v ′ , w)<br />

= k(cβ(v, w) + c ′ β(v ′ , w))<br />

= ck(β(v, w)) + c ′ k(β(v ′ , w))<br />

= c((kβ)(v, w)) + c ′ ((kβ)(v ′ , w))<br />

und die zweite Komponente geht analog.<br />

⊓⊔<br />

Definition 8.1.9. Sei V ein K-Vektorraum mit Basis {v 1 , . . . , v n } und β ∈ Ses(V ),<br />

dann heißt die Matrix<br />

B β = (b ij ) i<br />

j<br />

= 1 , ... , n<br />

= 1 , ... , n<br />

mit b ij = β(v i , v j )<br />

die darstellende Matrix von β bzgl. {v 1 , . . . , v n }.<br />

∑<br />

Proposition 8.1.10. Sei β ∈ Ses(V ). Dann gilt für v = n ∑<br />

x i v i und w = n y j v j :<br />

⎛ ⎞<br />

y 1<br />

⎜ ⎟<br />

β(v, w) = (x 1 , . . . , x n )B β ⎝ . ⎠<br />

y n<br />

i=1<br />

j=1<br />

Beweis.<br />

( ∑<br />

n n∑ )<br />

β(v, w) = β x i v i , y j v j<br />

=<br />

=<br />

=<br />

i=1<br />

i=1<br />

n∑ (<br />

x i β v i ,<br />

j=1<br />

n∑ )<br />

y j v j<br />

j=1<br />

n∑ ( ∑<br />

n )<br />

x i y j β(v i , v j )<br />

i=1<br />

j=1<br />

n∑<br />

x i b ij y j<br />

i,j=1<br />

⎛ ⎞<br />

y 1<br />

⎜ ⎟<br />

= (x 1 , . . . , x n )B β ⎝ . ⎠ .<br />

y n<br />

⊓⊔


222 8 Bi- und Sesquilinearformen<br />

Bemerkung 8.1.11. Sei V ein K-Vektorraum mit Basis {v 1 , . . . , v n } und (b ij ) i<br />

j<br />

B ∈ Mat(n × n, K). Definiere β B (v, w) ∈ Ses(V ) durch<br />

⎛<br />

wobei<br />

β B (v, w) :=<br />

v =<br />

i<br />

j<br />

⎞<br />

y n∑<br />

1<br />

⎜<br />

x i b ij y j = (x 1 , . . . , x n )B .<br />

⎝ .<br />

= 1<br />

= 1<br />

y n<br />

n∑<br />

x i v i , w =<br />

i=1<br />

n∑<br />

y j v j .<br />

j=1<br />

⎟<br />

⎠ ,<br />

Dann ist die darstellende Matrix von β B bzgl. {v 1 , . . . , v n } gerade B, weil<br />

β B (v i , v j ) = b ij .<br />

= 1 , ... , n<br />

= 1 , ... , n<br />

⊓⊔<br />

=<br />

Beispiel 8.1.12. Die darstellende Matrix von<br />

β B : K n × K n → K,<br />

(v, w) ↦→ v ⊤ Bw<br />

bzgl. der Standardbasis<br />

ist B:<br />

⎛ ⎞ ⎛ ⎞<br />

1<br />

0<br />

0<br />

e 1 = ⎜ ⎟<br />

⎝.<br />

⎠ , . . . , e n = ⎜.<br />

⎟<br />

⎝0⎠<br />

0<br />

1<br />

β(e i , e j ) = e ⊤ i Be j = b ij , B = (b ij ).<br />

⊓⊔<br />

Satz 8.1.13. Sei V ein K-Vektorraum mit Basis v := {v 1 , . . . , v n }. Die Abbildungen<br />

ϕ v := ϕ: Ses(V ) → Mat(n × n, K), β ↦→ B β<br />

und<br />

ψ v := ψ : Mat(n × n, K) → Ses(V ),<br />

sind zueinander inverse lineare Abbildungen.<br />

B ↦→ β B<br />

Beweis. Idee: Nachrechnen, dass ϕ ◦ ψ und ψ ◦ ϕ die jeweils passende identische Abbildung<br />

liefern, wobei man Vektoren jeweils über die Basen ausdrückt.<br />

Zeige zuerst die Linearität von ϕ, d.h.<br />

ϕ(kβ + lβ ′ ) = kϕ(β) + lϕ(β ′ ) k, l ∈ K, β, β ′ ∈ Ses V<br />

Sei dazu<br />

Weiter sei<br />

ϕ(β) = B β = (b ij ) i=1,...,n , d.h. β(v i , v j ) = b ij ,<br />

j=1,...,n<br />

ϕ(β ′ ) = B β ′<br />

= (b ′ ij) i=1,...,n , d.h. β ′ (v i , v j ) = b ′ ij.<br />

j=1,...,n


8.1 Matrizendarstellung 223<br />

d.h.<br />

ϕ(kβ + lβ ′ ) = (d ij ) i<br />

j<br />

= 1 , ... , n<br />

= 1 , ... , n<br />

Das bedeutet aber gerade<br />

d ij = (kβ + lβ ′ )(v i , v j ) = (kβ)(v i , v j ) + (lβ ′ )(v i , v j )<br />

= kβ(v i , v j ) + lβ ′ (v i , v j ) = kb ij + lb ′ ij.<br />

ϕ(kβ + lβ ′ ) = kϕ(β) + lϕ(β ′ ).<br />

Wie im Beweis von Satz 3.2.4 sieht man, dass es jetzt ausreicht<br />

ϕ ◦ ψ = id Mat(n×n,K) und ψ ◦ ϕ = id Ses(V )<br />

zu zeigen. Sei also (b ij ) = B ∈ Mat(n × n, K). Dann gilt für v = ∑ n<br />

i=1 x iv i und<br />

w = ∑ n<br />

j=1 y jv j<br />

n∑<br />

ψ(B)(v, w) = x i b ij y j .<br />

i,j=1<br />

Insbesondere haben wir ψ(B)(v l , v k ) = b lk , also ϕ(ψ(B)) = B.<br />

Umgekehrt rechnen wir für β ∈ Ses(V )<br />

ψ(ϕ(β))(v, w) =<br />

n∑<br />

x i β(v i , v j )y j =<br />

i,j=1<br />

woraus ψ(ϕ(β)) = β folgt.<br />

n∑ ( ∑<br />

n (<br />

β x i v i , v j<br />

)y j = β v,<br />

j=1<br />

i=1<br />

} {{ }<br />

v<br />

n∑ )<br />

y j v j = β(v, w),<br />

j=1<br />

⊓⊔<br />

Bemerkung 8.1.14. Sei {v 1 , . . . , v n } eine Basis für V , dann definiert man die duale<br />

Basis { ˜f 1 , . . . , ˜f n } für Ṽ ∗ durch<br />

( ∑<br />

˜f n )<br />

j x i v i = x j .<br />

i=1<br />

Der Beweis dafür, dass { ˜f 1 , . . . , ˜f n } tatsächlich eine Basis für Ṽ ∗ ist, geht analog<br />

zum Fall von V ∗ (vgl. Satz 5.4.3). Insbesondere sehen wir<br />

dim K (Ṽ ∗ ) = dim K (V ).<br />

⊓⊔<br />

Beispiel 8.1.15. Sei V ein K-Vektorraum mit Basis {v 1 , . . . , v n } und {f 1 , . . . , f n }<br />

bzw. { ˜f 1 , . . . , ˜f n } seien die dualen Basen für V ∗ und Ṽ ∗ . Weiter seien f =<br />

∑ n<br />

i=1 a if i ∈ V ∗ und ˜f = ∑ n<br />

i=1 b i ˜f i ∈ Ṽ ∗ fest gewählt. Für β(v, w) = f(v) ˜f(w)<br />

ist dann die darstellende Matrix C von β bzgl. der Basis {v 1 , . . . , v n } durch<br />

c ij = β(v i , v j ) = f(v i ) ˜f(v j ) = a i · b j<br />

und<br />

gegeben.<br />

⎛<br />

⎞<br />

a 1 b 1 · · · a 1 b n<br />

⎜<br />

C = ⎝ . .<br />

a n b 1 · · · a n b n<br />

⎟<br />

⎠ =<br />

⎛ ⎞<br />

a 1<br />

⎜<br />

⎝ .<br />

a n<br />

⎟<br />

⎠ (b 1 , . . . , b n )<br />

⊓⊔


224 8 Bi- und Sesquilinearformen<br />

Satz 8.1.16 (Basiswechsel für Sesquilinearformen). Sei V ein K-Vektorraum,<br />

β ∈ Ses(V ), und {v 1 , . . . , v n }, {v ′ 1, . . . , v ′ n} Basen für V . Weiter sei C ∈ GL(n, K)<br />

die Übergangsmatrix von {v 1 , . . . , v n } zu {v ′ 1, . . . , v ′ n}, d.h.<br />

v ′ j =<br />

n∑<br />

c ij v i ,<br />

i=1<br />

C = (c ij ) i<br />

j<br />

= 1 , ... , n<br />

= 1 , ... , n<br />

Wenn B die darstellende Matrix von β bzgl. {v 1 , . . . , v n } ist, dann ist<br />

B ′ = C ⊤ BC<br />

die darstellende Matrix von β bzgl. {v ′ 1, . . . , v ′ n}.<br />

Beweis. Idee: Entwickle die v ′ j bzgl. der Basis {v 1, . . . , v n}.<br />

Die darstellenden Matrizen B = (b ij ) und B ′ = (b ′ ij ) sind durch b ij = β(v i , v j )<br />

und b ′ ij = β(v′ i , v′ j ) gegeben. Dann rechnet man<br />

und erhält<br />

( ∑<br />

n n∑ )<br />

b ′ ij = β(v i, ′ v j) ′ = β c ri v r , c sj v s =<br />

=<br />

r=1<br />

s=1<br />

r=1<br />

s=1<br />

n∑ ( ∑ n )<br />

c ri c sj β(v r , v s ) =<br />

n∑<br />

r=1<br />

(<br />

c ri β v r ,<br />

n∑ ( ∑<br />

n )<br />

c ri b rs c sj<br />

r=1<br />

B ′ = C ⊤ BC.<br />

s=1<br />

n∑ )<br />

c sj v s<br />

s=1<br />

⊓⊔<br />

Bemerkung 8.1.17. Sei V ein K-Vektorraum, β ∈ Ses(V ), und {v 1 , . . . , v n },<br />

{v ′ 1, . . . , v ′ n} Basen für V . Weiter sei C ∈ GL(n, K) die Übergangsmatrix von<br />

{v 1 , . . . , v n } zu {v ′ 1, . . . , v ′ n}, d.h.<br />

n∑<br />

v j ′ = c ij v i ,<br />

i=1<br />

C = (c ij ) i<br />

j<br />

= 1 , ... , n<br />

= 1 , ... , n<br />

Wenn B die darstellende Matrix von β bzgl. {v 1 , . . . , v n } ist, und B ′ = C ⊤ BC die<br />

darstellende Matrix von β bzgl. {v ′ 1, . . . , v ′ n}. Dann gilt Rang(B) = Rang(B ′ ). Dies<br />

folgt ganz analog wie die Aussage, dass ähnliche Matrizen gleichen Rang haben:<br />

K n<br />

ϕ C<br />

−→ K n ϕ B<br />

−→ K n ϕ C<br />

−→ ⊤<br />

K n<br />

beschreibt eine lineare Abbildung, wobei C invertierbar ist. Damit sind auch C und<br />

C ⊤ invertierbar. Aber dann sind ϕ C und ϕ C ⊤ Vektorraum-Isomorphismen (vgl.<br />

Satz 5.4.7) und wir können rechnen<br />

Rang(B) = dim(im (ϕ B ))<br />

= dim (ϕ C ⊤(im (ϕ B )))<br />

= dim(im (ϕ C ⊤ ◦ ϕ B ))<br />

= dim(im (ϕ C ⊤ ◦ ϕ B ◦ ϕ C<br />

))<br />

= dim(im (ϕ C ⊤ BC ))<br />

= Rang(C ⊤ BC).


8.1 Matrizendarstellung 225<br />

Übung 8.1.1. Sei V = Mat(2 × 2, R) und<br />

( ) ( 1 0<br />

0 1<br />

E 11 = , E<br />

0 0 12 =<br />

0 0<br />

( ) ( 1 1<br />

0 0<br />

F 1 = , F<br />

0 0 2 =<br />

1 1<br />

)<br />

, E 21 =<br />

)<br />

, F 3 =<br />

( 0 0<br />

1 0<br />

( 1 1<br />

0 1<br />

)<br />

, E 22 =<br />

)<br />

, F 4 =<br />

( 0 0<br />

0 1<br />

( 1 0<br />

1 1<br />

(a) Gib die darstellende Matrix bzgl der Basis {E 11, E 12, E 21, E 22} für die Bilinearform<br />

β : (A, B) ↦→ tr(A ⊤ B) auf V an.<br />

(b) Zeige, dass {F 1, F 2, F 3, F 4} eine Basis für V ist.<br />

(c) Gib die darstellende Matrix für β bzgl der Basis {F 1, F 2, F 3, F 4} an.<br />

Übung 8.1.2. Sei V = R 3 mit der Bilinearform β, die bzgl. der Standardbasis durch die<br />

Matrix<br />

⎛<br />

1 0 0<br />

⎝ 0 1 0<br />

0 0 −1<br />

⎞<br />

⎠<br />

dargestellt wird. Zeige, dass es keine Basis von V geben kann, bzgl. der die darstellende<br />

Matrix von β die Form<br />

⎛ ⎞<br />

1 0 0<br />

⎝ 0 −1 0 ⎠<br />

0 0 −1<br />

hat.<br />

Übung 8.1.3. Seien V und W K-Vektorräume und ϕ: W → V eine lineare Abbildung.<br />

Weiter sei β ∈ Bil(V ). Setze<br />

β ′ (w, w ′ ) := β ( ϕ(w), ϕ(w ′ ) )<br />

für w, w ′ ∈ W und zeige, dass die Abbildung β ′ : W × W → K eine Bilinearform auf W<br />

ist.<br />

Übung 8.1.4. Sei V = {A ∈ Mat(2 × 2, R) | tr(A) = 0}. Zeige:<br />

(i) V ist ein R-Vektorraum.<br />

(ii)<br />

ist eine Basis für V .<br />

(iii)<br />

H :=<br />

H :=<br />

( ) 1 0<br />

, X :=<br />

0 −1<br />

( ) 1 0<br />

, T :=<br />

0 −1<br />

( ) 0 1<br />

, Y :=<br />

0 0<br />

( ) 0 1<br />

, U :=<br />

1 0<br />

( ) 0 0<br />

1 0<br />

( ) 0 1<br />

−1 0<br />

ist eine Basis für V .<br />

(iv) (A, B) ↦→ tr(AB) definiert eine Bilinearform β auf V . Berechne die darstellenden<br />

Matrizen von β bzgl. der beiden angegebenen Basen.<br />

Übung 8.1.5. Sei V ein K-Vektorraum und β ∈ Bil(V ). Definiere zu jedem v ∈ V eine<br />

Abbildung ϕ(v): V → K durch<br />

(<br />

ϕ(v)<br />

)<br />

(w) := β(w, v).<br />

Zeige:<br />

(i) ϕ(v) ist linear für jedes v, d.h. ϕ(v) ∈ V ∗ .<br />

(ii) Die Abbildung ϕ: V → V ∗ definiert durch v ↦→ ϕ(v) ist auch linear.<br />

Übung 8.1.6. Bestimme zu der bezüglich der Standardbasis durch die Matrix<br />

( ) 1 5<br />

A =<br />

5 2<br />

gegebenen Bilinearform β eine Basis des R 2 , bezüglich der die darstellende Matrix eine<br />

Diagonalmatrix mit Diagonalelementen aus {−1, 0, 1} ist.<br />

)<br />

,<br />

)<br />

.


226 8 Bi- und Sesquilinearformen<br />

Übung 8.1.7. Entscheide, welche der folgenden Abbildungen Sesquilinearformen auf C 2<br />

sind (bezüglich welcher Involution?). Bestimme gegebenenfalls die darstellende Matrix<br />

bezüglich der Standardbasis von C 2 .<br />

1. β(x, y) = x 1y 1 + x 2y 2,<br />

2. β(x, y) = x 1y 2 + x 2y 1,<br />

3. β(x, y) = x 1ȳ 1 + x 2ȳ 2,<br />

4. β(x, y) = y 1¯x 1 + y 2¯x 2,<br />

5. β(x, y) = x 1ȳ 2,<br />

6. β(x, y) = x 1¯x 2 + y 1ȳ 2,<br />

7. β(x, y) = x 1ȳ 1 + x 2y 2<br />

8. β(x, y) = x 2(ȳ 1 + ȳ 2).<br />

Übung 8.1.8. Zeige, dass<br />

β(x, y) = x 1ȳ 2 + 2 x 1ȳ 3 + i x 2ȳ 1 − x 2ȳ 2 + 3 x 2ȳ 3 − 2 x 3ȳ 1 + x 3ȳ 3<br />

eine Sesquilinearform auf C 3 ist und bestimme die zugehörige darstellende Matrix bezüglich<br />

der Standardbasis von C 3 . Wie sieht die darstellende Matrix bezüglich der folgenden Basis<br />

aus?<br />

⎛ ⎞<br />

1<br />

v 1 = ⎝i⎠ ,<br />

⎛ ⎞<br />

1<br />

v 2 = ⎝1⎠ ,<br />

⎛ ⎞<br />

0<br />

v 3 = ⎝−i⎠ .<br />

0<br />

1<br />

1<br />

Übung 8.1.9. Betrachte die folgenden Bilinearformen auf R n ,<br />

β 1(x, y) = x 1y 1 + x 2y 2 + · · · + x ny n , β 2(x, y) = −x 1y 1 + x 2y 2 + · · · + x ny n .<br />

Skizziere für n = 2, 3 die Mengen M i(s) = {x ∈ R n | β i(x, x) = s} für i = 1, 2 und<br />

s = −2, −1, 0, 1, 2.<br />

Übung 8.1.10. Sei β die Bilinearform auf R 2 , die bezüglich der Standardbasis durch die<br />

Matrix<br />

( ) 3 4<br />

B =<br />

4 −3<br />

gegebenen ist. Bestimme eine Basis, bezüglich der die darstellende Matrix eine Diagonalmatrix<br />

mit Diagonalelementen aus {−1, 0, 1} ist.<br />

Hinweis: Verwende, dass die Matrix B diagonalisierbar ist.<br />

8.2 Nichtausgeartete Sesquilinearformen<br />

Definition 8.2.1. Sei V ein K-Vektorraum und β ∈ Ses(V ). Für M ⊂ V heißt<br />

M ⊥ β := M ⊥ := {v ∈ V | β(v, w) = 0 ∀w ∈ M}<br />

(lies: M senkrecht oder M orthogonal) der Orthogonalraum zu M.<br />

Bemerkung 8.2.2. (i) Es gibt keinen wirklichen Grund dafür, die obige Definition<br />

von M ⊥ der nachfolgenden vorzuziehen:<br />

M ⊥op<br />

β<br />

:= M ⊥op := {v ∈ V | β(w, v) = 0 ∀w ∈ M}.<br />

Im allgemeinen liefern die beiden Definitionen auch unterschiedliche Ergebnisse.<br />

Sie sind aber äquivalent, wenn β(w, v) = ±β(v, w) ist. Dies sind allerdings auch<br />

die wichtigsten Spezialfälle. Beachte, dass M ⊥op<br />

β<br />

= Mβ ⊥ op, wobei βop (v, w) :=<br />

β(w, v) für alle v, w ∈ V . Es lassen sich die Eigenschaften von M ⊥op daher<br />

problemlos aus denen von M ⊥ ablesen.


8.2 Nichtausgeartete Sesquilinearformen 227<br />

(ii) M ⊥ ist immer ein K–Untervektorraum von V . Für v, v ′ ∈ M ⊥ und k, l ∈ K gilt<br />

nämlich<br />

β(w, kv + lv ′ ) = kβ(w, v) + lβ(w, v ′ ) = k0 + l0 = 0 ∀w ∈ M,<br />

also kv + lv ′ ∈ M ⊥ .<br />

⊓⊔<br />

Definition 8.2.3. β heißt nicht ausgeartet, wenn V ⊥ = {0} und ausgeartet,<br />

wenn V ⊥ ≠ {0} ist.<br />

Satz 8.2.4. Sei V ein endlich dimensionaler K-Vektorraum und β ∈ Ses(V ). Dann<br />

sind äquivalent:<br />

(1) β ist nicht ausgeartet.<br />

(2) Zu jedem v ∈ V \ {0} gibt es ein w ∈ V mit β(v, w) ≠ 0.<br />

(3) Die Abbildung ϕ : V → Ṽ ∗ definiert durch<br />

(ϕ(v))(w) = β(v, w)<br />

ist ein K-Vektorraum-Isomorphismus.<br />

(4) Zu jedem f ∈ Ṽ ∗ gibt es ein v ∈ V mit β(v, w) = f(w) für alle w ∈ V .<br />

Beweis. Idee: Das meiste ist Routine. Für ”<br />

(1)⇒(3)“ zeigt man ker ϕ = V ⊥ und benutzt<br />

die Dimensionsformel aus Satz 5.3.9.<br />

(1) ⇒ (2)“: Sei v ∈ V \ {0}, dann ist v nicht orthogonal zu V , also gibt es ein<br />

”<br />

w ∈ V mit β(v, w) ≠ 0.<br />

” (2) ⇒ (1)“: Wenn β ausgeartet ist, gibt es ein 0 ≠ v ∈ V ⊥ , für das dann gilt<br />

β(v, w) = 0 ∀w ∈ V.<br />

Also gilt (2) nicht.<br />

(1) ⇒ (3)“: Eine Routinerechnung zeigt, dass ϕ wohldefiniert und K-linear ist.<br />

”<br />

ker ϕ = {v ∈ V | ϕ(v) = 0 ∈ Ṽ ∗ }<br />

= {v ∈ V | (ϕ(v))(w) = 0 ∀w ∈ V }<br />

} {{ }<br />

β(v,w)<br />

= V ⊥ .<br />

Wegen (1) gilt dann aber ker ϕ = {0}, d.h. ϕ ist injektiv. Andererseits haben<br />

wir nach Bemerkung 8.1.17 dim V = dim V ∗ = dim Ṽ ∗ , so dass wegen der<br />

Dimensionsformel aus Satz 5.3.9 folgt<br />

dim(im ϕ) = dim V − dim(ker ϕ) . (∗)<br />

} {{ }<br />

=0<br />

Also gilt im ϕ = Ṽ ∗ , d.h. ϕ ist auch surjektiv.<br />

” (3) ⇒ (4)“: Die Surjektivität von ϕ zeigt sofort, dass zu jedem f ∈ Ṽ ∗ ein v ∈ V<br />

mit ϕ(v) = f existiert. Dann gilt<br />

für alle w ∈ V .<br />

β(v, w) = (ϕ(v))(w) = f(w)


228 8 Bi- und Sesquilinearformen<br />

” (4) ⇒ (1)“: Wenn (4) gilt, dann ist ϕ : V → Ṽ ∗ surjektiv. Wieder mit der Dimensionsformel<br />

(∗) folgt, dass ϕ injektiv ist, d.h. V ⊥ = ker (ϕ) = {0}. Also ist β<br />

nicht ausgeartet.<br />

⊓⊔<br />

Satz 8.2.5. Sei V ein K-Vektorraum mit Basis {v 1 , . . . , v n } und β ∈ Ses(V ). Dann<br />

sind äquivalent:<br />

(1) β ist nicht ausgeartet.<br />

(2) Die darstellende Matrix von β ist invertierbar.<br />

Beweis. Idee: Kombiniere Satz 8.2.4 mit Satz 3.2.5 und Satz 4.2.7.<br />

Nach Satz 8.2.4 ist β genau dann ausgeartet, wenn es ein 0 ≠ v = ∑ n<br />

i=1 x iv i<br />

gibt, für das<br />

⎛ ⎞<br />

y 1<br />

⎜ ⎟<br />

n∑<br />

0 = β(v, w) = (x 1 , . . . , x n )B β ⎝ . ⎠ ∀w = y j v j<br />

(∗)<br />

y<br />

j=1<br />

n<br />

gilt. Aber (∗) ist äquivalent zu (x 1 , . . . , x n )B β = 0, also zu<br />

⎛ ⎞<br />

x 1<br />

Bβ<br />

⊤ ⎜ ⎟<br />

⎝ . ⎠ = 0.<br />

x n<br />

Nach Satz 3.2.5 und Satz 4.2.7 ist das wiederum äquivalent zu<br />

det B β = det B ⊤ β = 0<br />

und der Nichtinvertierbarkeit von B β .<br />

⊓⊔<br />

Satz 8.2.6. Sei V ein endlich dimensionaler K-Vektorraum, β ∈ Ses(V ) und U ⊆ V<br />

ein Untervektorraum.<br />

(i) Die Abbildung β U : U ×U → K mit β U (u, u ′ ) = β(u, u ′ ) ist eine Sesquilinearform<br />

auf U (genannt die Einschränkung von β auf U).<br />

(ii) Wenn β U nicht ausgeartet ist, dann gilt<br />

V = U ⊕ U ⊥ (⊥ bzgl. β)<br />

Beweis. Idee: Definiere ˜f v : U → K durch ˜f v(u) = β(v, u) und wende Satz 8.2.4 auf β U<br />

an, um ein u v ∈ U mit ˜f v(u) = β U (u v, u) für alle u ∈ U zu finden. Dann zeige v−u v ∈ U ⊥ .<br />

(i) Dies ist eine Routinerechnung.<br />

(ii) Sei v ∈ V . Definiere eine lineare Abbildung ˜f v : U → K durch<br />

˜f v (u) = β(v, u).<br />

˜f v ist semilinear, weil β(v, ·) semilinear ist. D.h. ˜f v ∈ Ũ ∗ . Da β U nicht ausgeartet<br />

ist, können wir Satz 8.2.4 auf β U anwenden, so dass die Bedingung (4) uns<br />

folgendes liefert:<br />

Es existiert ein u v ∈ U mit


β(v, u) = ˜f v (u) = β U (u v , u) = β(u v , u)<br />

Mit der Sesquilinearität sehen wir, dass<br />

Also haben wir<br />

und<br />

so dass<br />

8.2 Nichtausgeartete Sesquilinearformen 229<br />

β(v − u v , u) = 0 ∀u ∈ U.<br />

v − u v ∈ U ⊥ (⊥ bzgl. β)<br />

v = u v<br />

}{{}<br />

∈U<br />

+ (v − u v ),<br />

} {{ }<br />

∈U ⊥<br />

V = U + U ⊥ .<br />

∀u ∈ U<br />

Nach Bemerkung 5.5.12 bleibt nur zu zeigen, dass die Zerlegung eindeutig ist,<br />

d.h. es gilt U ∩ U ⊥ = {0}. Sei also v ∈ U ∩ U ⊥ , dann gilt für alle u ∈ U<br />

0 = β(v, u) = β U (v, u).<br />

Da β U nicht ausgeartet ist, erhalten wir<br />

d.h. v = 0.<br />

v ∈ {u ′ ∈ U | β U (u ′ , u) = 0 ∀u ∈ U} = U ⊥ β U = {0},<br />

⊓⊔<br />

Beispiel 8.2.7. Betrachte auf V = R 3 die nicht ausgeartete Bilinearform β ∈<br />

Bil(V ), dargestellt durch ⎛ ⎞<br />

⎝ 1 0<br />

1 ⎠<br />

0 −1<br />

bzgl. der Standardbasis.<br />

β( ⎛ ⎞ ⎛ ⎞<br />

x 1 x ′ 1<br />

⎝x 2<br />

⎠ , ⎝x ′ ⎠ ) 2 = x 1 x ′<br />

x 3 x ′ 1 + x 2 x ′ 2 − x 3 x ′ 3<br />

3<br />

Die Nullstellenmenge<br />

ist ein Doppelkegel.<br />

{ ⎛ ⎝ x ⎞<br />

1<br />

x 2<br />

⎠ ∣ ( ⎛ ∣ β ⎝ x ⎞ ⎛<br />

1<br />

x 2<br />

⎠ , ⎝ x ⎞<br />

1<br />

x 2<br />

⎠ ) }<br />

= 0<br />

x 3 x 3 x 3<br />

} {{ }<br />

x 2 1 +x2 2 =x2 3<br />

x<br />

3<br />

x<br />

2<br />

x<br />

1


230 8 Bi- und Sesquilinearformen<br />

Wähle<br />

⎛ ⎞<br />

x 1<br />

U = R ⎝x 2<br />

⎠<br />

x 3<br />

und betrachte β U (die zugehörige Matrix ist 1 × 1, also eine Zahl), d.h. β U ist<br />

entweder nicht ausgeartet oder Null. D.h.<br />

β U ist ausgeartet ⇔ β( ⎛ ⎞ ⎛ ⎞<br />

x 1 x 1<br />

⎝x 2<br />

⎠ , ⎝x 2<br />

⎠ ) = 0<br />

x 3 x 3<br />

Sei jetzt β U ausgeartet, z.B.<br />

U = R<br />

⎛<br />

⎞<br />

⎝ 1 0⎠<br />

1<br />

{ ⎛ ⎞<br />

y 1<br />

U ⊥ = ⎝y 2<br />

⎠ ∣ }<br />

∣ 1 · y1 + 0 · y 2 − 1 · y 3 = 0<br />

y 3<br />

⎛ ⎞ ⎛ ⎞<br />

1 0<br />

= R ⎝0⎠ + R ⎝1⎠ ⊇ U.<br />

1 0<br />

=<br />

{ ⎛ ⎞<br />

1<br />

⎝y<br />

y 2<br />

⎠ ∣ }<br />

∣ y1 = y 3<br />

y 3<br />

x<br />

3<br />

U<br />

U<br />

x<br />

2<br />

x<br />

1<br />

⊓⊔<br />

Übung 8.2.1. Sei V = R 3 mit der Bilinearform β, die bzgl. der Standardbasis durch die<br />

Matrix<br />

⎛ ⎞<br />

−1 0 0<br />

⎝ 0 1 0 ⎠<br />

0 0 1<br />

dargestellt wird. Zeige, dass für jedes v ∈ V \ {0} mit β(v, v) = 0 gilt<br />

(i) (Rv) ⊥ ∩ {w ∈ V : β(w, w) = 0} = Rv.<br />

(ii) dim(Rv) ⊥ = 2.<br />

Übung 8.2.2. Sei V ein endlich dimensionaler K-Vektorraum und ϕ: V → V ∗ eine lineare<br />

Abbildung. Definiere eine Abbildung β : V × V → K durch<br />

Zeige:<br />

(a) β ∈ Bil(V ).<br />

β(v, w) = ( ϕ(v) ) (w).


8.2 Nichtausgeartete Sesquilinearformen 231<br />

(b) Die Zuordnung ϕ ↦→ β definiert einen Vektorraum-Isomorphismus<br />

Übung 8.2.3. Sei<br />

V := su(2) :=<br />

α : Hom K (V, V ∗ ) → Bil(V ).<br />

{( )<br />

}<br />

ir c<br />

∈ Mat(2 × 2, C) | r ∈ R, c ∈ C ,<br />

−c −ir<br />

wobei ¯ die übliche komplexe Konjugation in C bezeichnet.<br />

(a) Zeige, dass V ein R-Untervektorraum von Mat(2 × 2, C) ist, nicht aber ein C-<br />

Untervektorraum.<br />

(b) Seien A, B ∈ V . Zeige, dass tr(AB) ∈ R.<br />

(c) Beweise, dass die Abbildung β : V × V → R mit β(A, B) = tr(AB) eine Bilinearform<br />

auf V ist.<br />

(d) Zeige, dass die Matrizen<br />

A 1 :=<br />

( i 0<br />

0 −i<br />

)<br />

, A 2 :=<br />

( ) 0 −1<br />

, A<br />

1 0<br />

3 :=<br />

( ) 0 i<br />

i 0<br />

eine Basis für V bilden.<br />

(e) Bestimme die darstellende Matrix von β bzgl. dieser Basis.<br />

(f) Bestimme die darstellende Matrix von β bzgl. der Basis {A 1, A 1 + A 2, A 1 + A 2 + A 3}.<br />

(g) Ist β ausgeartet?<br />

Übung 8.2.4. Gegeben seien in R 4 die bilineare Form β(u, v) := u ⊤ v und die Vektoren<br />

⎛ ⎞ ⎛ ⎞<br />

4<br />

1<br />

v = ⎜ 3<br />

⎟<br />

⎝ 2 ⎠ , w = ⎜ 2<br />

⎟<br />

⎝ 3 ⎠ .<br />

1<br />

4<br />

Bestimme eine Basis von ( Span(v, w) )⊥ .<br />

Übung 8.2.5. Seien V ein K-Vektorraum mit Basis B = {v 1, . . . , v n} und β ∈ Ses(V) mit<br />

darstellender Matrix B β bezüglich B. Weiter seien ϕ : V → Ṽ ∗ die lineare Abbildung<br />

gegeben durch ( ϕ(v) ) (w) := β(v, w) und ˜B = { ˜f 1, . . . , ˜f n} die zu B duale Basis für Ṽ ∗ .<br />

Bestimme die darstellende Matrix von ϕ bezüglich der Basen B und ˜B.<br />

Übung 8.2.6. Sei A ∈ Mat(n × n, R). Zeige:<br />

(i) A ⊤ = A −1 genau dann, wenn die Spaltenvektoren von A alle die Länge 1 haben und<br />

paarweise aufeinander senkrecht stehen.<br />

(ii) Sei v ∈ R n . Zeige: Es gibt genau dann ein A ∈ Mat(n × n, R) mit A ⊤ = A −1 und<br />

Ae 1 = v, wenn ‖v‖ = 1.<br />

Übung 8.2.7. Sei U ⊆ R 3 ein linearer Unterraum und U ⊥ sein orthogonales Komplement<br />

bzgl. des euklidischen Skalarprodukts.<br />

(i) Zeige, dass sich jedes v ∈ R 3 in eindeutiger Weise als Summe v = u + w mit u ∈ U<br />

und w ∈ U ⊥ schreiben lässt. Schreibe π U (v) := u.<br />

(ii) Zeige, dass die Abbildung π U : R 3 → U linear ist und π U = π U ◦ π U erfüllt.<br />

(iii) Bestimme die zu π U gehörige Matrix für U = span(e 1 + e 2 + e 3) sowie für U =<br />

span(e 1 − e 2, e 2 − e 3).<br />

⊓⊔<br />

Übung 8.2.8. Gegeben seien<br />

⎛ ⎞<br />

1<br />

v = ⎜ 2<br />

⎟<br />

⎝ 3 ⎠ ,<br />

4<br />

⎛ ⎞<br />

2<br />

w = ⎜ 3<br />

⎟<br />

⎝ 4 ⎠ .<br />

5


232 8 Bi- und Sesquilinearformen<br />

(i) Finde eine lineare Abbildung β : R 4 → R 4 mit β(z) = 0 für z ∈ span{v, w} und<br />

β(z) = z für z ∈ span{v, w} ⊥ .<br />

(ii) Zeige, dass es nur ein solche β geben kann.<br />

(iii) Zeige: β ◦ β = β.<br />

(iv) Bestimme die Matrix A mit β A = β.<br />

(v) Zeige: det(A) = 0.<br />

Übung 8.2.9. Sei V = R 3 mit der Bilinearform β, die bzgl. der Standardbasis durch die<br />

Matrix<br />

⎛ ⎞<br />

1 0 0<br />

⎝ 0 2 0 ⎠<br />

0 0 3<br />

dargestellt wird. Weiter sei U ein linearer Unterraum von V . Zeige, dass die Einschränkung<br />

β U von β auf U nicht ausgeartet ist.<br />

Übung 8.2.10. Sei V ein K-Vektorraum, β ∈ Ses(V ) eine Sesquilinearform und U ⊂ V ein<br />

linearer Unterraum.<br />

1. Zeige: Ist B = {u 1, . . . , u n} eine Basis von U, so gilt U ⊥ = B ⊥ .<br />

2. Bestimme für V = R 4 und β(u, v) = u ⊤ v eine Basis von (span(v 1, v 2)) ⊥ für<br />

⎛ ⎞ ⎛ ⎞<br />

1<br />

4<br />

v 1 = ⎜2<br />

⎟<br />

⎝3⎠ , v2 = ⎜3<br />

⎟<br />

⎝2⎠ .<br />

4<br />

1<br />

8.3 Hermitesche Formen<br />

Definition 8.3.1. Eine Sesquilinearform β ∈ Ses(V ) heißt hermitesch , wenn<br />

β(v, w) = β(w, v)<br />

∀v, w ∈ V<br />

gilt und schiefhermitesch, wenn<br />

β(v, w) = −β(w, v) ∀v, w ∈ V.<br />

Wenn a = a für alle a ∈ K, dann sagt man symmetrisch<br />

schiefsymmetrisch statt schiefhermitesch.<br />

Wir setzen<br />

statt hermitesch und<br />

Herm(V ) := {β ∈ Ses(V ) | β hermitesch}<br />

SHerm(V ) := {β ∈ Ses(V ) | β schiefhermitesch}<br />

und schreiben Sym(V ) statt Herm(V ) sowie SSym(V ) statt SHerm(V ) im Fall, dass<br />

a = a für alle a ∈ K.<br />

Bemerkung 8.3.2. Sei {v 1 , . . . , v n } eine Basis von V und B die zugehörige darstellende<br />

Matrix von β ∈ Ses(V ). Dann gilt<br />

β<br />

β<br />

ist hermitesch ⇔ B ∗ = B ⊤ = B<br />

ist schiefhermitesch ⇔ B ∗ = −B<br />

Um das zu sehen, setze v = ∑ n<br />

i=1 x iv i und w = ∑ n<br />

j=1 y jv j . Dann gilt


8.3 Hermitesche Formen 233<br />

⎛ ⎞<br />

y 1<br />

⎜ ⎟<br />

β(v, w) = (x 1 , . . . , x n )B ⎝ . ⎠ ,<br />

y n<br />

(1)<br />

⎛ ⎞<br />

x 1<br />

⎜ ⎟<br />

β(w, v) = (y 1 , . . . , y n )B ⎝ . ⎠ (2)<br />

x n<br />

und<br />

⎛ ⎞<br />

⎛ ⎞<br />

⎛ ⎞<br />

x 1<br />

(<br />

y 1 )<br />

y 1<br />

⎜ ⎟<br />

(y 1 , . . . , y n )B ⎝ . ⎠ = (x 1 , . . . , x n )B ⊤ ⎜ ⎟ ⊤<br />

⎝ . ⎠ = (x1 , . . . , x n )B ∗ ⎜ ⎟<br />

⎝ . ⎠ .<br />

x n y n y n<br />

Die Ausdrücke (1) und (2) sind genau dann für alle x 1 , . . . , x n , y 1 , . . . , y n gleich,<br />

wenn B = B ∗ .<br />

⊓⊔<br />

Definition 8.3.3. Eine Matrix A ∈ Mat(n×n, K) heißt hermitesch, wenn A ∗ = A<br />

und schiefhermitesch, wenn A ∗ = −A. Analog heißt A ∈ Mat(n × n, K) symmetrisch,<br />

wenn A ⊤ = A und schiefsymmetrisch, wenn A ⊤ = −A. Bezeichnungsweisen:<br />

Herm(n, K) := {A ∈ Mat(n × n, K) | A ∗ = A}<br />

SHerm(n, K) := {A ∈ Mat(n × n, K) | A ∗ = −A}<br />

Sym(n, K) := {A ∈ Mat(n × n, K) | A ⊤ = A}<br />

SSym(n, K) := {A ∈ Mat(n × n, K) | A ⊤ = −A}<br />

Beispiel 8.3.4. (n = 2) Die Hermiteschen (2 × 2)-Matrizen sind reelle Linearkombinationen<br />

von: ( ) ( ) ( ) ( )<br />

1 0 0 1 0 −i 1 0<br />

, , ,<br />

0 1 1 0 i 0 0 −1<br />

} {{ }<br />

Paulische Spinmatrizen<br />

allgemein:<br />

( ) a b<br />

=<br />

c d<br />

( ) ∗<br />

a b<br />

=<br />

c d<br />

( ) a c<br />

b d<br />

d.h. es gilt a, d ∈ R; b = c. Wegen b = c = b hat man damit die Matrizen der Form<br />

( ) a b<br />

, a, d ∈ R; b ∈ C.<br />

b d<br />

⊓⊔<br />

Bemerkung 8.3.5. Man zerlegt ein komplexe Matrix A ∈ Mat(m × n, C) komponentenweise<br />

in Real- und Imaginärteil A = Re A + i Im A, wobei Re A, Im A ∈<br />

Mat(m × n, R). Dann gilt


234 8 Bi- und Sesquilinearformen<br />

Damit erhält man<br />

A ⊤ = (Re A) ⊤ + i(Im A) ⊤ ,<br />

A = Re A − i Im A,<br />

A ∗ = Re A) ⊤ − i(Im A) ⊤ .<br />

A ∗ = A ⇔ Re A ⊤ = Re A ∗ = Re A und Im A ⊤ = − Im A ∗ = − Im A,<br />

d.h. eine Matrix ist hermitesch genau dann, wenn Re A symmetrisch und Im A<br />

schiefsymmetrisch ist.<br />

⊓⊔<br />

Bemerkung 8.3.6. Da a ↦→ a nach Voraussetzung ein Körperautomorphismus ist,<br />

ist die Menge<br />

F := {a ∈ K | a = a} ⊆ K<br />

selbst ein Körper. Beachte, dass 1 = 1 gelten muss, weil auch 1 eine Eins in K<br />

ist (vgl. Bemerkung 1.1.4). Also ist 1 ∈ F und damit sind auch alle ganzzahligen<br />

Vielfachen von 1 ∈ K, d.h. iterierte Summen von 1 oder −1, in F. Schließlich sind<br />

auch alle Brüche der Form a b<br />

mit a, b ganzzahligen Vielfachen von 1 ∈ K in F.<br />

(i) Wenn β ∈ Herm(V ), dann gilt β(v, v) ∈ F für alle v ∈ V , weil das Vertauschen<br />

der beiden v nach definition β(v, v) in β(v, v) überführt.<br />

(ii) Man rechnet leicht nach, dass die Mengen Herm(V ) und SHerm(V ) F-Vektorräume<br />

sind: Für alle β ′ , β ∈ Herm(V ) und c, d ∈ F rechnet man<br />

(cβ + dβ ′ )(v, w) = cβ(v, w) + dβ ′ (v, w)<br />

= cβ(w, v) + dβ ′ (w, v)<br />

= (cβ + dβ ′ )(w, v).<br />

Die Rechnung für β ′ , β ∈ SHerm V ist analog. Eine entsprechende Bemerkung<br />

gilt für die hermiteschen und schiefhermiteschen Matrizen.<br />

⊓⊔<br />

Bemerkung 8.3.7. Herm(n, C) ist kein C-Vektorraum:<br />

( ) ( )<br />

i 0 1 0<br />

= i<br />

0 i 0 1<br />

ist nicht hermitesch, sondern schiefhermitesch:<br />

( ) ∗ ( )<br />

i 0 −i 0<br />

=<br />

0 i 0 −i<br />

⊓⊔<br />

Satz 8.3.8 (Symmetrie-Zerlegung). Sei K ein Körper mit 1 + 1 ≠ 0 (d.h. 1 2<br />

existiert) und V ein K-Vektorraum. Weiter sei β ∈ Ses(V ). Dann gibt es eindeutig<br />

bestimmte Sesquilinearformen Hβ, Λβ ∈ Ses(V ) mit<br />

(i) β = Hβ + Λβ.<br />

(ii) Hβ ist hermitesch.<br />

(iii) Λβ ist schiefhermitesch.<br />

Der F-Vektorraum Ses(V ) ist die direkte Summe von Herm(V ) und SHerm(V ).


8.3 Hermitesche Formen 235<br />

Beweis. Idee: Betrachte β ′ (v, w) := β(w, v) und kombiniere dies mit β.<br />

Schreibe<br />

β = 1 2 (β + β′ ) + 1 2 (β − β′ )<br />

für β ′ ∈ Ses(V ) mit β ′ (v, w) := β(w, v). Es gilt β + β ′ ∈ Herm(V ) und β − β ′ ∈<br />

SHerm(V ):<br />

(β + β ′ )(v, w) = β(v, w) + β ′ (v, w) = β(v, w) + β(w, v)<br />

= β(w, v) + β(v, w) = β(w, v) + β ′ (w, v)<br />

= (β + β ′ )(w, v)<br />

β − β ′ ∈ SHerm(V ) zeigt man analog. Damit haben wir<br />

Ses(V ) = Herm(V ) + SHerm(V )<br />

und es bleibt nach Bemerkung 5.5.12 nur noch<br />

Herm(V ) ∩ SHerm(V ) = {0}<br />

zu zeigen. Sei also β ∈ Herm(V ) ∩ SHerm(V ). Dann folgt für alle v, w ∈ V<br />

β(v, w) = β(w, v) = −β(v, w),<br />

daher β = 0.<br />

⊓⊔<br />

Proposition 8.3.9 (Polarisierung symmetrischer Formen). Sei β ∈ Sym(V )<br />

und 1 2<br />

∈ K. Dann gilt:<br />

β(v, w) = 1 2(<br />

β(v + w, v + w) − β(v, v) − β(w, w)<br />

)<br />

,<br />

d.h. β kann aus den Werten auf der Diagonalen {(v, v) ∈ V × V | v ∈ V }<br />

zurückgewonnen werden.<br />

Beweis. Idee: Quadrate von Summen berechnen.<br />

Die Behauptung folgt unmittelbar aus der folgenden Rechnung:<br />

β(v + w, v + w) = β(v, v + w) + β(w, v + w)<br />

= β(v, v) + β(v, w) + β(w, v) + β(w, w)<br />

= β(v, v) + 2β(v, w) + β(w, w).<br />

⊓⊔<br />

Im Spezialfall K = C erhalten wir eine Polarisierugnsformel (vgl. Proposition<br />

8.3.9 auch für hermitesche Formen:<br />

Proposition 8.3.10 (Polarisierung über C). Sei K = C und β ∈ Herm(V ).<br />

Für alle v, w ∈ V gilt:<br />

(i) Re β(v, w) = 1 2<br />

(β(v + w, v + w) − β(v, v) − β(w, w)).<br />

(ii) Im β(v, w) = − Re β(iv, w).


236 8 Bi- und Sesquilinearformen<br />

Beweis. Idee: Rechne wie bei der reellen Polarisierung und bestimme zusätzlich Re β(iv, w).<br />

Weil β hermitesch ist, gilt β(v, v) ∈ R für alle v ∈ V . Damit erhalten wir<br />

β(v + w, v + w) = β(v, v + w) + β(w, v + w)<br />

= β(v, v) + β(v, w) + β(w, v) + β(w, w)<br />

= β(v, v) + β(v, w) + β(v, w) +β(w, w)<br />

} {{ }<br />

2 Re β(v,w)<br />

Dies zeigt (i). Wegen 1 2i<br />

(a + ib − (a − ib)) = b können wir rechnen<br />

Re β(iv, w) = 1 (β(iv, w) + β(iv, w))<br />

2<br />

= − 1 2i (β(v, w) − β(v, w)) = − Im β(v, w). ⊓⊔<br />

Übung 8.3.1. Bestimme die Matrix bzgl. der Standardbasis der symmetrischen Bilinearform<br />

β : R 2 × R 2 → R, die gegeben ist durch die Vorschrift<br />

für x ∈ R 2 .<br />

β(x, x) := x 2 1 + 2(x 1 + x 2) 2<br />

Übung 8.3.2. Gegeben sei β ∈ Bil(R 2 ) durch<br />

β(x, x) = x 2 1 + x 2 2 + 2x 1x 2<br />

(a) Bestimme A ∈ Sym(2, R), so daß β(x, x) = x ⊤ Ax.<br />

(b) Sei f : R 2 → R gegeben durch f(x) := β(x, x). Man bestimme C ∈ GL(2, R), damit<br />

für y = (y 1, y 2) ⊤ ∈ R 2 gilt:<br />

f(Cy) = λ 1y 2 1 + λ 2y 2 2.<br />

Übung 8.3.3. Gegeben sind die symmetrischen Matrizen<br />

⎛ ⎞ ⎛ ⎞<br />

−1 0 0<br />

0 1 0<br />

A = ⎝ 0 1 0⎠ , B = ⎝1 0 0⎠ .<br />

0 0 1<br />

0 0 1<br />

Zeige, dass sie zueinander äquivalent sind, dass also C ⊤ AC = B gilt mit einer geeignet<br />

gewählten Matrix C ∈ GL(3, R).<br />

Übung 8.3.4. Betrachte C n als R-Vektorraum. Sei ω : C n × C n → R eine nicht ausgeartete<br />

schiefsymmetrische R-Bilinearform. Außerdem gelte ω(iv, iw) = ω(v, w). Zeige: Durch<br />

H(v, w) = ω(iv, w) + iω(v, w) wird eine nicht-ausgeartete hermitesche Form auf C n (als<br />

C-Vektorraum) definiert.<br />

Übung 8.3.5. Welche der folgenden Matrizen in Mat(n×n, C) sind hermitesch bzw. schiefhermitesch?<br />

⎛ ⎞ ⎛<br />

⎞<br />

( ) ( )<br />

2 −3 2<br />

2 i − 3 2i<br />

i −1<br />

2 i<br />

A = , B = , C = ⎝−3 2 3⎠ D = ⎝−(i + 3) 2 3i⎠<br />

1 i<br />

i i<br />

2 3 2<br />

−2i −3i 2<br />

⊓⊔


8.3 Hermitesche Formen 237<br />

Übung 8.3.6. Sei β ∈ Ses(C 4 ) die Sesquilinearform mit darstellender Matrix<br />

⎛ ⎞<br />

i 0 i + 1 0<br />

A = ⎜0 2 0 i<br />

⎟<br />

⎝i i i i⎠<br />

1 1 0 0<br />

bezüglich der Standardbasis B = {e 1, e 2, e 3, e 4} von C 4 . Dann zerlegt sich β eindeutig als<br />

direkte Summe β = Hβ + Λβ mit Hβ hermitesch und Λβ schiefhermitesch. Bestimme die<br />

darstellenden Matrizen von Hβ und Λβ bezüglich B.<br />

⊓⊔<br />

Übung 8.3.7. Sei V ein C-Vektorraum und β ∈ Herm(V ). Definiere zu jedem v ∈ V eine<br />

Abbildung ϕ(v): V → K durch ( ϕ(v) ) (w) := β(w, v) und zeige:<br />

(i) ϕ(v) ist C-linear für jedes v, d.h. ϕ(v) ∈ V ∗ .<br />

(ii) Die Abbildung ϕ: V → V ∗ definiert durch v ↦→ ϕ(v) ist R-linear, aber nicht C-linear.<br />

Übung 8.3.8. Sei V = {A ∈ Mat(3 × 3, R): A ⊤ = −A}.<br />

(i) Zeige, dass V ein R-Vektorraum ist.<br />

(ii) Zeige, dass die folgenden Matrizen eine Basis für V bilden:<br />

⎛ ⎞<br />

0 1 0<br />

⎛ ⎞<br />

0 0 1<br />

⎛<br />

0 0 0<br />

⎞<br />

X := ⎝ −1 0 0 ⎠ , Y := ⎝ 0 0 0 ⎠ , Z := ⎝ 0 0 −1 ⎠<br />

0 0 0<br />

−1 0 0<br />

0 1 0<br />

(iii) Sei β ∈ Bil(V ) definiert durch β(A, B) = tr(AB). Berechne die darstellende Matrix<br />

von β bzgl. der angegebenen Basis.<br />

Übung 8.3.9. Sei V = {A ∈ Mat(3 × 3, R): A ⊤ = −A} wie in Übung 8.3.8. Für A, B ∈ V<br />

definiert man eine 3 × 3-Matrix ad A(B) = AB − BA.<br />

(i) Zeige, dass ad A(B) ∈ V für alle A, B ∈ V .<br />

(ii) Zeige: Die Abbildung ad A : V → V, B ↦→ ad A(B) ist linear, d.h., ad A ∈ End R (V ).<br />

(iii) Zeige: Die Abbildung ad: V → End R (V ) mit A ↦→ ad A ist linear.<br />

(iv) Identifiziere End R (V ) mit Mat(3 × 3, R) unter Zuhilfenahme der Basis {X, Y, Z} für<br />

V und gib die Matrix ad A ∈ Mat(3 × 3, R) für jedes A ∈ V an.<br />

(v) Definiere eine Abbildung κ V : V × V → R durch<br />

κ V (A, B) = tr(ad A ◦ ad B)<br />

und zeige, dass κ V ∈ Bil(V ). (Der Vektorraum V wird üblicherweise mit so(3) bezeichnet<br />

und die Bilinearform κ V heißt die Cartan-Killing Form auf so(3).)<br />

(vi) Berechne die darstellende Matrix von κ V bzgl. der in Übung 8.3.8 angegebenen Basis.<br />

Übung 8.3.10. Sei<br />

V := su(2) :=<br />

{( )<br />

}<br />

ir c<br />

∈ Mat(2 × 2, C): r ∈ R, c ∈ C .<br />

−c −ir<br />

(i) Zeige, dass V ein R-Untervektorraum von Mat(2 × 2, C) ist, nicht aber ein C-<br />

Untervektorraum.<br />

(ii) Seien A, B ∈ V . Zeige, dass tr(AB) ∈ R.<br />

(iii) Zeige, dass die Abbildung β : V × V → R mit β(A, B) = tr(AB) eine Bilinearform auf<br />

V ist.<br />

(iv) Zeige, dass die Matrizen<br />

A 1 :=<br />

( i 0<br />

0 −i<br />

)<br />

, A 2 :=<br />

( ) 0 −1<br />

, A<br />

1 0<br />

3 :=<br />

eine Basis für V bilden.<br />

(v) Bestimme die darstellende Matrix von β bzgl. dieser Basis.<br />

( ) 0 i<br />

i 0


238 8 Bi- und Sesquilinearformen<br />

Übung 8.3.11. Sei<br />

V := su(2) :=<br />

{( )<br />

}<br />

ir c<br />

∈ Mat(2 × 2, C) | r ∈ R, c ∈ C ,<br />

−c −ir<br />

wobei ¯ die übliche komplexe Konjugation in C bezeichnet. Für A, B ∈ V definiert man<br />

eine 2 × 2-Matrix ad A(B) := AB − BA. Zeige:<br />

(a) ad A(B) ∈ V für alle A, B ∈ V .<br />

(b) Die Abbildung ad A : V → V gegeben durch B ↦→ ad A(B) ist linear, d.h. ad A ∈<br />

End R (V ).<br />

(c) Die Abbildung ad: V → End R (V ) mit A ↦→ ad A ist linear.<br />

Identifiziere die Räume End R (V ) und Mat(3×3, R) unter Zuhilfenahme der Basis {A 1, A 2, A 3}<br />

für V , wobei<br />

( ) ( ) ( )<br />

i 0<br />

0 −1<br />

0 i<br />

A 1 := , A<br />

0 −i<br />

2 := , A<br />

1 0<br />

3 := .<br />

i 0<br />

(d) Gib die Matrix von ad A ∈ Mat(3 × 3, R) für jedes A ∈ V an.<br />

(e) Definiere eine Abbildung κ: V × V → R durch<br />

κ V (A, B) = tr(ad A ◦ ad B)<br />

und zeige, dass κ V ∈ Bil(V ).<br />

(f) Berechne die darstellende Matrix von κ V bzgl. der Basis {A 1, A 2, A 3}.<br />

(g) Zeige, daß {B 1, B 2, B 3} eine Basis von V ist, wobei<br />

B 1 :=<br />

( i −1<br />

1 −i<br />

)<br />

, B 2 :=<br />

( i i<br />

i −i<br />

)<br />

, B 3 :=<br />

( ) 0 i − 2<br />

.<br />

i + 2 0<br />

(h) Berechne die darstellende Matrix von κ V bzgl. der Basis {B 1, B 2, B 3}.<br />

(i) Ist κ V ausgeartet?<br />

(l) Berechne den Orthogonalraum A ⊥ 1 bezüglich κ V .<br />

Übung 8.3.12. Definiere eine Abbildung L: su(2) → so(3) durch<br />

(vgl. Übung 8.3.8). Zeige:<br />

L(A 1) = 2X, L(A 2) = 2Y, L(A 3) = 2Z<br />

(i) L: su(2) → so(3) ist ein Vektorraum-Isomorphismus.<br />

(ii) L(A)L(B) − L(B)L(A) = L(AB − BA) für alle A, B ∈ su(2).<br />

(iii) ad L(A) ◦L = L ◦ ad A.<br />

(iv) ad L(A) ◦ ad L(B) = L ◦ (ad A ◦ ad B) ◦ L −1 .<br />

(v) κ so(3)<br />

(<br />

L(A), L(B)<br />

)<br />

= κsu(2) (A, B).<br />

(vi) Die darstellenden Matrizen von κ su(2) und κ so(3) bzgl. der Basen {A 1, A 2, A 3} bzw.<br />

{2X, 2Y, 2Z} stimmen überein.<br />

Übung 8.3.13. Sei V ein 2-dimensionaler K-Vektorraum und β ∈ Bil(V ) schiefsymmetrisch<br />

und nicht ausgeartet. Zeige, dass<br />

(<br />

es<br />

)<br />

eine Basis {v 1, v 2} für V gibt, bzgl. der die<br />

0 1<br />

darstellende Matrix von β die Form hat.<br />

−1 0<br />

Übung 8.3.14. Sei V = R 2 . Für v =<br />

(<br />

x1<br />

)<br />

und w =<br />

x 2<br />

(<br />

y1<br />

( )<br />

x1 y 1<br />

β(v, w) = det .<br />

x 2 y 2<br />

)<br />

setze<br />

y 2<br />

(i) Zeige, dass β eine schiefsymmetrische Bilinearform ist.<br />

( ) ( ) 0 1<br />

(ii) Gib die darstellende Matrix von β bzgl. der Basis { , } an.<br />

1 1


Übung 8.3.15. Sei V = Mat(2 × 2, C) und f ∈ V ∗ definiert durch<br />

( ) a b<br />

f = b.<br />

c d<br />

(i) Sei β : V × V → C definiert durch<br />

β(A, B) = f(AB − BA).<br />

8.3 Hermitesche Formen 239<br />

Zeige, dass β eine schiefsymmetrische Bilinearform auf V ist.<br />

(ii) Finde eine Basis für V und gib die darstellende Matrix von β bzgl. dieser Basis an.<br />

Übung 8.3.16. Sei β ∈ Ses(R 4 ) die Sesquilinearform mit darstellender Matrix<br />

⎛ ⎞<br />

2 2 1 0<br />

⎜3 2 1 1<br />

⎟<br />

⎝1 1 1 0⎠<br />

4 1 0 0<br />

bezüglich der Standardbasis B = {e 1, e 2, e 3, e 4} von R 4 . Dann zerlegt sich β eindeutig als<br />

direkte Summe β = Sβ + Λβ mit Sβ symmetrisch und Λβ schiefsymmetrisch. Bestimme<br />

die darstellenden Matrizen von Sβ und Λβ bezüglich B.<br />

Übung 8.3.17. Gegeben seien die Vektoren in K 2<br />

u =<br />

(<br />

u1<br />

u 2<br />

)<br />

, v =<br />

(<br />

v1<br />

v 2<br />

)<br />

mit<br />

( )<br />

u1 v 1<br />

det ≠ 0.<br />

u 2 v 2<br />

Zeige: Wenn A ∈ Mat(2 × 2, K) die Gleichung u ⊤ Av = v ⊤ Au erfüllt, dann gilt A ∈<br />

Sym(2, K).<br />

Übung 8.3.18. Eine hermitesche Sesquilinearform β : C 3 × C 3<br />

β(z, z) := β ′ (z) für z = x + iy mit x, y ∈ R 3 , wobei<br />

→ C sei gegeben durch<br />

β ′ (z) := x 2 1 + 2x 2 2 − x 2 3 + y 2 1 + 2y 2 2 − y 2 3 + 2x 1y 2 − 2x 2y 1 + 2x 2y 3 − 2x 3y 2 + 2x 2x 3 + 2y 2y 3.<br />

Bestimme die zu β gehörige hermitesche Matrix A ∈ Mat(3 × 3, C) (bzgl. der Standardbasis).<br />

{ ( )<br />

x y<br />

}<br />

Übung 8.3.19. Sei Sym(2, R) = | x, y, z ∈ R der Vektorraum der 2 × 2 reellen<br />

y z<br />

symmetrischen Matrizen mit den üblichen koeffizientenweisen Addition und Skalarmultiplikation.<br />

Mit den Matrizen<br />

( ) ( )<br />

( )<br />

1 0<br />

0 1<br />

0 0<br />

E 1 = , E<br />

0 0 2 = , E<br />

1 0<br />

3 = ,<br />

0 1<br />

( ) ( ) ( )<br />

4 5<br />

10 −1<br />

−5 5<br />

A = , B = , C =<br />

5 0<br />

−1 0<br />

5 9<br />

definiert man eine lineare Abbildung ϕ : Sym(2, R) → Sym(2, R) durch<br />

ϕ(E 1) = A, ϕ(E 2) = B, ϕ(E 3) = C.<br />

(a) Man zeige, daß ϕ ein Isomorphismus ist.<br />

(b) Man bestimme die Eigenwerte von ϕ und die zugehörigen Eigenvektoren in Sym(2, R).<br />

Übung 8.3.20. Seien V = {A ∈ Mat(3 × 3, R) : A ⊤ = −A} und β ∈ Bil(V ) definiert durch<br />

β(A, B) = −tr(AB).<br />

(a) Wähle eine Basis B von V und berechne die darstellende Matrix von β bzgl. B.


240 8 Bi- und Sesquilinearformen<br />

(b) Die lineare Abbildung β ′ : V → V (j = 1, 2) sei definiert durch β ′ (X) = B ⊤ XB mit<br />

⎛ ⎞<br />

0 1 2<br />

B = ⎝−1 0 1⎠ .<br />

−2 1 0<br />

Bestimme die adjungierte Abbildung β ′∗ , falls möglich. Erkläre die Antwort.<br />

Übung 8.3.21. Sei V = {( a 0 c b ) | a, b, c ∈ C}.<br />

1. Zeige, dass die Bilinearform β ∈ Bil(V ) mit β(A, B) = tr(AB) ausgeartet ist.<br />

2. Berechne V ⊥ .<br />

3. Für welche A ∈ V gilt β(A, A) = 0?<br />

4. Finde eine Basis für V und gib die darstellende Matrix von β bzgl. dieser Basis an.<br />

Übung 8.3.22. Seien V ein K-Vektorraum mit Basis B = {v 1, . . . , v n} und β ∈ Ses(V)<br />

mit darstellender Matrix B β bezüglich B. Weiter seien ϕ : V → Ṽ ∗ die lineare Abbildung<br />

gegeben durch ( ϕ(v) ) (w) := β(v, w) und ˜B = { ˜f 1, . . . , ˜f n} die zu B duale Basis für Ṽ ∗ .<br />

Bestimme die darstellende Matrix von ϕ bezüglich der Basen B und ˜B. Was gilt für ϕ,<br />

falls β nicht ausgeartet ist?<br />

Übung 8.3.23. Es sei Pol 3(R, R) der Vektorraum der Polynomfunktionen vom Grad 3.<br />

1. Zeige, dass<br />

β(p, q) :=<br />

∫ 1<br />

−1<br />

p(x)q(x)dx<br />

eine Bilinearform auf Pol 3(R, R) definiert.<br />

2. Bestimme die darstellende Matrix von β bezüglich der Basis (p 0, p 1, p 2, p 3) mit p i(x) =<br />

x i .<br />

3. Ist β ausgeartet?<br />

8.4 Diagonalisierbarkeit von hermiteschen Formen<br />

In diesem Abschnitt geht es darum zu vorgegebenen hermiteschen oder symmetrischen<br />

Formen Basen zu finden, bzgl. derer die darstellenden Matrizen diagonal sind.<br />

Die entsprechende Fragestellung für Matrizen lautet: Finde zu B ∈ Herm(n × n, K)<br />

ein C ∈ GL(n, K) mit C ⊤ BC = D, wobei D in Diagonalgestalt ist.<br />

Bemerkung 8.4.1. Sei B ∈ Sym(n × n, K). Gesucht ist dann ein C ∈ GL(n, K)<br />

mit C ⊤ BC = D, wobei D in Diagonalgestalt ist. Eine Möglichkeit so ein D zu<br />

finden ist, C aus elementaren Zeilen- und Spaltenumformungen zusammenzusetzen.<br />

Als Beispiel betrachten wir<br />

⎛ ⎞<br />

B = ⎝ 1 2 3<br />

2 3 2 ⎠<br />

3 2 1<br />

⎛ ⎞ ⎛ ⎞<br />

Zeilen<br />

−→ ⎝ 1 2 3<br />

0 −1 −4 ⎠ Spalten −→ ⎝ 1 0 0<br />

0 −1 −4 ⎠<br />

0 −4 −8<br />

0 −4 −8<br />

⎛ ⎞ ⎛ ⎞<br />

1 0 0<br />

Zeilen<br />

−→ ⎝ 0 −1 −4 ⎠ Spalten 1 0 0<br />

−→ ⎝ 0 −1 0 ⎠<br />

0 0 8<br />

0 0 8<br />

E III(−4,2;3) ◦ E III(−3,1;3) ◦ E III(−2,1;2) ◦B ◦ EIII(−2,1;2) ⊤ } {{ }<br />

◦ E⊤ III(−3,1;3) ◦ E⊤ III(−4,2;3) ,<br />

} {{ }<br />

C ⊤<br />

C


8.4 Diagonalisierbarkeit von hermiteschen Formen 241<br />

wobei die E’s die Elementarmatrizen aus Beispiel 3.1.9 sind. Damit hat man:<br />

C ⊤ BC = Diagonalmatrix<br />

Beachte, dass dieses Vorgehen so nur funktioniert, wenn in der Diagonale nie eine<br />

Null auftaucht. Falls dies der Fall ist, kann man sich behelfen, indem man eine<br />

andere Zeile (und der Spalte) zu der fraglichen Zeile (Spalte) addiert:<br />

( ) 0 1<br />

B =<br />

Zeilen<br />

−→<br />

Zeilen<br />

−→<br />

1 0<br />

( 1 1<br />

1 0<br />

( 2 1<br />

0 − 1 2<br />

) Spalten<br />

−→<br />

) Spalten<br />

−→<br />

( ) 2 1<br />

1 0<br />

( ) 2 0<br />

0 − 1 2<br />

⊓⊔<br />

Satz 8.4.2 (Diagonalisierbarkeit hermitescher Formen). Sei β ∈ Herm(V ),<br />

dim V = n, und K = R oder C. Dann existiert eine Basis {v 1 , . . . , v n } für V bzgl.<br />

der β die darstellende Matrix die Gestalt<br />

hat.<br />

B β =<br />

⎛<br />

β(v 1 , v 1 ) 0<br />

⎜<br />

⎝<br />

. ..<br />

0 β(v n , v n )<br />

Beweis. Idee: Mit Polarisierung findet man einen Vektor v mit β(v, v) ≠ 0. Dann spaltet<br />

man V in Rv und v ⊥ auf und wendet Induktion über die Dimension von V an.<br />

Wir führen eine Induktion über dim V = n durch:<br />

n = 1: Für n = 1 ist nichts zu zeigen.<br />

n > 1: Für n > 1 unterscheiden wir zwei Fälle:<br />

1. Fall: β(v, w) = 0 für alle v, w ∈ V , d.h. β = 0 und B β = 0.<br />

2. Fall: Es existiert ein v 1 ∈ V mit β(v 1 , v 1 ) ≠ 0. Dies ist wegen der Polarisierung<br />

(vgl. Satz 8.3.9 und Satz 8.3.10) immer möglich, wenn β ≠ 0. Setze<br />

nun V 1 = Kv 1 . Daraus folgt, dass β eingeschränkt auf V 1 nicht ausgeartet<br />

ist. Nach Satz 8.2.6 gilt dann<br />

V = V 1 ⊕ V ⊥<br />

1 .<br />

Wende nun Induktion auf die Einschränkung β V ⊥<br />

1<br />

von β auf V1 ⊥ an. Es<br />

existiert eine Basis {v 2 , . . . , v n } für V1 ⊥ , so dass die darstellende Matrix von<br />

β V ⊥<br />

1<br />

gerade die Diagonalmatrix<br />

⎛<br />

⎞<br />

⎜<br />

⎝<br />

⎞<br />

⎟<br />

⎠<br />

β(v 2 , v 2 )<br />

. ..<br />

⎟<br />

⎠<br />

β(v n , v n )<br />

ist. Beachte nun, dass {v 1 , . . . , v n } eine Basis für V ist. Die darstellende<br />

Matrix von β bzgl. dieser Basis ist


242 8 Bi- und Sesquilinearformen<br />

⎛<br />

⎞<br />

β(v 1 , v 1 ) 0<br />

β(v 2 , v 2 ) 0<br />

⎜<br />

⎝<br />

.<br />

0<br />

..<br />

⎟<br />

⎠<br />

0 β(v n , v n )<br />

weil β(v 1 , v j ) = 0 für j = 2, . . . , n.<br />

⊓⊔<br />

Die einzige Stelle in diesem Beweis, an der die Voraussetzung über den Körper<br />

K eingegangen ist, ist die Existenz der Polarisierung. Daher kann man im Falle symmetrischer<br />

Bilinearformen schon diagonalisieren, wenn man nur 1 2 ∈ K vorraussetzt.<br />

Ein alternativer Beweis von Satz 8.4.2, der auch eine praktische Berechnung der<br />

Basis liefert, lässt sich auch wie in Bemerkung 8.4.1 gewinnen.<br />

Hat man für eine hermitesche Form erst einmal eine darstellende Matrix in Diagonalgestalt,<br />

so kann man versuchen, auch die Diagonalmatrix noch zu vereinfachen,<br />

indem man Basiswechsel der Gestalt<br />

v ′ 1 = k 1 v 1 , . . . , v ′ n = k n v n<br />

mit k j ≠ 0 anschließt. In diesem Fall ist die durch<br />

gegebene Übergangsmatrix gleich<br />

C =<br />

v ′ j =<br />

n∑<br />

c ij v i<br />

i=1<br />

⎛ ⎞<br />

k 1 0<br />

⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠<br />

0 k n<br />

und die darstellende Matrix von β bzgl. {v 1, ′ . . . , v n} ′ ergibt sich zu<br />

⎛<br />

⎞<br />

k 1 k 1 β(v 1 , v 1 )<br />

B ′ = C ⊤ ⎜<br />

BC = CBC = ⎝<br />

. ..<br />

⎟<br />

⎠ .<br />

k n k n β(v n , v n )<br />

Bemerkung 8.4.3. (i) Betrachte den Fall symmetrischer Bilinearformen. Wenn in<br />

K jede Zahl ein Quadrat ist (dies gilt z.B. für C, nicht aber für R), dann kann<br />

man k j so wählen, dass<br />

k 2 j =<br />

1<br />

β(v j , v j )<br />

für β(v j , v j ) ≠ 0.<br />

In diesem Fall ist die neue Matrix eine Diagonalmatrix ausschließlich mit Nullen<br />

und Einsen auf der Diagonalen.<br />

(ii) Wenn K gleich R oder C ist und a die komplexe Konjugation, dann ist nur jede<br />

positive Zahl von der Form aa = |a| 2 . In diesem Fall wählt man die k j so, dass<br />

|k j | 2 =<br />

1<br />

|β(v j , v j )|<br />

für β(v j , v j ) ≠ 0.<br />

Dann ist die neue Matrix eine Diagonalmatrix mit Diagonalelementen in {−1, 0, 1}.<br />

⊓⊔


8.4 Diagonalisierbarkeit von hermiteschen Formen 243<br />

Durch Anwendung von Elementarumformungen vom Typ I (Zeilen/Spalten-<br />

Tausch) kann man schließlich noch die Diagonalelemente umsortieren:<br />

⎛<br />

⎞<br />

β(v 1 , v 1 )<br />

. .. β(v q , v q )<br />

E I(p,q) BEI(p,q) ⊤ = . .. β(v p , v p )<br />

⎜<br />

⎝<br />

. ⎟<br />

.. ⎠<br />

β(v n , v n )<br />

Satz 8.4.4 (Sylvesterscher Trägheitssatz). Sei K gleich R oder C mit der komplexen<br />

Konjugation. Weiter seien β ∈ Herm(V ) und {v 1 , . . . , v n },{v ′ 1, . . . , v ′ n} Basen<br />

für V bzgl. derer die darstellenden Matrizen diagonal sind mit β(v j , v j ), β(v ′ j , v′ j ) ∈<br />

{−1, 0, 1}. Dann gilt:<br />

#{j ∈ {1, . . . , n} | β(v j , v j ) = −1} = #{j ∈ {1, . . . , n} | β(v ′ j, v ′ j) = −1}<br />

#{j ∈ {1, . . . , n} | β(v j , v j ) = 0} = #{j ∈ {1, . . . , n} | β(v ′ j, v ′ j) = 0}<br />

#{j ∈ {1, . . . , n} | β(v j , v j ) = 1} = #{j ∈ {1, . . . , n} | β(v ′ j, v ′ j) = 1}<br />

Beweis. Idee: Stelle die Form bzgl. beider Basen durch Matrizen dar und sortiere die<br />

Diagonaleinträge nach der Größe. Wenn die Vorzeichen nicht zusammenpassen, ergibt sich<br />

Bemerkung 8.1.17 ein Widerspruch zur Dimensionsformel für Schnitte und Summen von<br />

Unterräumen (vgl. Satz 5.2.12).<br />

Wir setzen<br />

⎛<br />

B =<br />

⎜<br />

⎝<br />

β(v 1 , v 1 ) 0<br />

. ..<br />

0 β(v n , v n )<br />

⎞<br />

⎟<br />

⎠ , B ′ =<br />

⎛<br />

⎜<br />

⎝<br />

β(v ′ 1, v ′ j ) 0<br />

. ..<br />

0 β(v ′ n, v ′ n)<br />

⎞<br />

⎟<br />

⎠<br />

Mit Bemerkung 8.1.17 ergibt sich<br />

r ± := #{j ∈ {1, . . . , n} | β(v j , v j ) = ±1},<br />

r ′ ± := #{j ∈ {1, . . . , n} | β(v ′ j, v ′ j) = ±1}.<br />

r + + r − = Rang(B) = Rang(B ′ ) = r ′ + + r ′ −.<br />

Es reicht jetzt zu zeigen, dass r + = r ′ +. wegen der Symmetrie der Problemstellung<br />

in r + und r ′ +, genügt es dafür die Annahme<br />

r + > r ′ +<br />

zum Widerspruch zu führen. Wir können o.B.d.A. annehmen, dass die Diagonaleinträge<br />

nach der Größe sortiert sind. Betrachte die beiden Unterräume<br />

U 1 := span{v 1 , . . . , v r+ }, U 2 := span{v ′ r ′ + +1, . . . , v′ n}<br />

und beachte, dass β(v j , v j ) = 1 für 1 ≤ j ≤ r + und β(v ′ j , v′ j ) ≤ 0 für r′ + +1 ≤ j ≤ n.<br />

Wir haben<br />

dim U 1 = r + , dim U 2 = n − r ′ +


244 8 Bi- und Sesquilinearformen<br />

und erhalten mit der Dimensionsformel für Schnitte und Summen von Unterräumen<br />

aus Satz 5.2.12(v)<br />

n < n + (r + − r +<br />

′ ) = dim U 1 + dim U 2<br />

} {{ }<br />

>0<br />

= dim(U 1 + U 2 ) + dim(U 1 ∩ U 2 ) ≤ n + dim(U 1 ∩ U 2 ),<br />

also dim(U 1 ∩ U 2 ) > 0. D.h., es gibt ein x ∈ U 1 ∩ U 2 , x ≠ 0, das wir als Linearkombination<br />

der beiden Basen von U 1 und U 2 schreiben können:<br />

Dann finden wir<br />

β(x, x) =<br />

β(x, x) =<br />

r +<br />

∑<br />

j=1<br />

x =<br />

r +<br />

∑<br />

j=1<br />

|c j | 2 > 0<br />

n∑<br />

c j v j =<br />

j=r ′ + +1 β(d j v ′ j, d j v ′ j) =<br />

n∑<br />

j=r ′ + +1 d j v ′ j.<br />

n∑<br />

j=r ′ + +1 |d j | 2 β(v ′ j, v ′ j) ≤ 0,<br />

im Widerspruch zu unseren Voraussetzungen.<br />

⊓⊔<br />

Das Paar (r + , r − ) nennt man den Index von β. Die Zahl r + + r − ist der Rang<br />

von β.<br />

Beispiel 8.4.5. (vgl. Beispiel 8.1.5)<br />

(i) Euklidisches Skalarprodukt auf R n : Index = (n, 0)<br />

(ii) Minkowski–Form: Index = (3, 1)<br />

⊓⊔<br />

Satz 8.4.6. Sei K gleich R oder C mit der komplexen Konjugation und B, B ′ ∈<br />

Herm(n, K). Weiter seien β B , β B ′ die hermiteschen Formen auf K n , die durch B<br />

und B ′ bzgl. einer (beliebigen) Basis dargestellt werden. Dann sind folgende Aussagen<br />

äquivalent:<br />

(1) Es gibt ein C ∈ GL(n, K) mit C ⊤ BC = B ′ .<br />

(2) β B und β B ′ haben den gleichen Index.<br />

Beweis. Idee: Formuliere die Index-Bedingung zu einer Bedingung über die Existenz<br />

einer passenden Diadonalgestalt um und wende dann den Satz 8.4.4 von Sylvester an.<br />

Es gilt<br />

⎛<br />

⎞<br />

1 r+<br />

Index(β B ) = (r + , r − ) ⇔ ∃D ∈ GL(n, K) mit D ⊤ BD = ⎝ −1r− ⎠ .<br />

0<br />

(1)<br />

(1) ⇒ (2)“: Wenn B′ = C<br />

” ⊤ BC, dann findet man ein D ′ ∈ GL(n, K) mit<br />

⎛<br />

⎞<br />

1 r ′<br />

+<br />

⎝ −1r ′ ⎠<br />

−<br />

= (D ′ ) ⊤ B ′ D ′ = (D ′ ) ⊤ C ⊤ BCD ′ = (CD ′ ) ⊤ BCD ′ .<br />

0<br />

Mit D := CD ′ ∈ GL(n, K) folgen r ′ + = r + und r ′ − = r − aus Satz 8.4.4.


8.4 Diagonalisierbarkeit von hermiteschen Formen 245<br />

” (2) ⇒ (1)“: Mit Bemerkung 8.4.3 findet man D, D′ ∈ GL(n, K) mit<br />

⎛<br />

⎞<br />

1 r+<br />

D ⊤ BD = ⎝ −1r− ⎠ = (D ′ ) ⊤ B ′ D ′ .<br />

0<br />

Dann gilt<br />

B ′ = ((D ′ ) ⊤ ) −1 D ⊤ BD(D ′ ) −1 = (D(D ′ ) −1 ) ⊤ B(D(D ′ ) −1 )<br />

und mit C := D(D ′ ) −1 folgt (1).<br />

⊓⊔<br />

Übung 8.4.1. Gegeben sei β ∈ Bil(R 4 ) mit darstellender Matrix<br />

⎛ ⎞<br />

1 2 3 4<br />

A = ⎜ 2 3 4 3<br />

⎟<br />

⎝ 3 4 3 2 ⎠<br />

4 3 2 1<br />

bezüglich der Standardbasis.<br />

(a) Finde D ∈ Mat(4 × 4, R) in Diagonalgestalt und C ∈ GL(4, R), so dass C ⊤ AC = D.<br />

(b) Gib eine Basis für R 4 an, bezüglich der D die darstellende Matrix von β ist.<br />

Übung 8.4.2. Gegeben sei β : C 3 × C 3 → C mit darstellender Matrix<br />

⎛ ⎞<br />

4 −2i 2<br />

A = ⎝2i 1 i⎠<br />

2 −i 1<br />

bezüglich der Standardbasis {e 1, e 2, e 3} für C 3 .<br />

(a) Zeige, dass β ∈ Herm(C 3 ).<br />

(b) Finde D ∈ Mat(3 × 3, C) in Diagonalgestalt und C ∈ GL(3, C), so dass C ⊤ AC = D.<br />

(c) Gib eine Basis für C 3 an, bezüglich der D die darstellende Matrix von β ist.<br />

{ ⎛ ⎞ ⎛ ⎞ ⎛<br />

1 i<br />

(d) Bestimme die darstellende Matrix von β bezüglich der Basis ⎝2⎠ , ⎝0⎠ , ⎝<br />

0 1<br />

für C 3 .<br />

Übung 8.4.3. Sei<br />

⎛ ⎞<br />

5 1 2<br />

A = ⎝ 1 5 −2 ⎠ .<br />

2 −2 2<br />

Finde eine orthogonale Matrix K für die K ⊤ AK eine Diagonalmatrix ist.<br />

0<br />

0<br />

i + 1<br />

Übung 8.4.4. Für α ∈ R sei eine symmetrische Bilinearform β auf R 2 gegeben durch<br />

β(x, x) = αx 1 2 + 2 x 1x 2 + (α − 4) x 2 2 .<br />

Bestimme den Index von β in Abhängigkeit von α.<br />

Übung 8.4.5 (Spiegelungen). Sei V ein K-Vektorraum und β eine Sesquilinearform. Sei<br />

v ∈ V mit β(v, v) = 1 gegeben und betrachte<br />

1. Zeige, dass ϕ linear ist, und ϕ 2 = id V .<br />

ϕ : V → V, x ↦→ x − 2 β(x, v) v<br />

⎞<br />

⎠ }


246 8 Bi- und Sesquilinearformen<br />

2. Zeige, dass Kv und (Kv) ⊥ Eigenräume von ϕ sind, und dass V = Kv ⊕ (Kv) ⊥ gilt,<br />

d.h. insbesondere ist ϕ diagonalisierbar.<br />

Übung 8.4.6. Eine hermitesche Sesquilinearform β : C 3 × C 3<br />

β(z, z) := β ′ (z) für z = x + iy mit x, y ∈ R 3 , wobei<br />

→ C sei gegeben durch<br />

β ′ (z) := x 2 1 + 2x 2 2 − x 2 3 + y 2 1 + 2y 2 2 − y 2 3 + 2x 1y 2 − 2x 2y 1 + 2x 2y 3 − 2x 3y 2 + 2x 2x 3 + 2y 2y 3.<br />

1. Bestimme die zu β gehörige hermitesche Matrix A ∈ Mat(3 × 3, C) (bzgl. der Standardbasis).<br />

2. Bestimme den Index (r +, r −) von β gemäß dem Sylvesterschen Trägheitssatz.


9<br />

Innere Produkte<br />

In diesem Kapitel betrachten wir hermitesche Formen mit Positivitätsbedingungen,<br />

die die euklidischen Skalarprodukte verallgemeinern. Solche Formen erlauben es,<br />

auch in abstrakten Kontexten geometrische Argumente zu benutzen und stellen<br />

sich in vielen Situationen als äußerst nützlich heraus. Zentrale Resultate dieses Kapitels<br />

sind die Gram–Schmidt Orthogonalisierung und der Spektralsatz für normale<br />

Selbstabbildungen von Vektorräumen mit inneren Produkten. Sie finden nicht nur<br />

in der linearen Algebra Anwendungen, sondern spielen auch eine wichtige Rolle z.B.<br />

in der Fourier–Analysis und in der Funktionalanalysis.<br />

In diesem Kapitel sei immer K = R oder K = C mit der gewöhnlichen komplexen<br />

Konjugation.<br />

9.1 Definitheit<br />

Wir beginnen mit den grundlegenden Positivitätseigenschaften hermitescher<br />

Formen.<br />

Definition 9.1.1. Eine hermitesche Form β ∈ Herm(V ) heißt<br />

• positiv definit, falls β(v, v) > 0 ∀v ∈ V \ {0};<br />

• positiv semidefinit, falls β(v, v) ≥ 0 ∀v ∈ V ;<br />

• negativ definit, falls β(v, v) < 0 ∀v ∈ V \ {0};<br />

• negativ semidefinit, falls β(v, v) ≤ 0 ∀v ∈ V ;<br />

• indefinit, sonst.<br />

Diesen Definitionen entsprechend heißt eine hermitesche Matrix B ∈ Herm(n, K)<br />

positiv definit, etc. wenn die zugehörige Form β B auf K n positiv definit etc. ist.<br />

Bemerkung 9.1.2. Sei V ein K-Vektorraum der Dimension n und {v 1 , . . . , v n } eine<br />

Basis für V . Eine hermitesche Form β ∈ Herm(V ) ist genau dann positiv definit<br />

(negativ definit, etc.), wenn die darstellende Matrix B β von β bzgl. der gegebenen<br />

Basis positiv definit (negativ definit, etc.) ist. Wenn (r + , r − ) der Index von β ist<br />

(vgl. den Trägheitssatz 8.4.4 von Sylvester), gilt insbesondere<br />

(i) β positiv definit ⇔ r + = n.<br />

(ii) β positiv semidefinit ⇔ r − = 0.<br />

(iii) β negativ definit ⇔ r − = n.<br />

(iv) β negativ semidefinit ⇔ r + = 0.


248 9 Innere Produkte<br />

(v) β indefinit ⇔ r + ≠ 0 ≠ r − .<br />

Um das einzusehen, schreibe v ∈ V als v = ∑ n<br />

j=1 x jv j und setze x :=<br />

(x 1 , . . . , x n ) ⊤ . Dann gilt β(v, v) = x ⊤ B β x. Angenommen B β ist eine Diagonalmatrix<br />

der Form<br />

⎛<br />

⎝ 1 ⎞<br />

r +<br />

−1r− ⎠ .<br />

0<br />

Dann erhält man<br />

β(v, v) =<br />

r +<br />

∑<br />

j=1<br />

|x j | 2 −<br />

r ++r<br />

∑ −<br />

j=r ++1<br />

|x j | 2<br />

und die Behauptung folgt.<br />

Um den Index zu bestimmen, kann man die Methode von Bemerkung 8.4.1<br />

benützen. Wenn man dabei nur elementare Zeilenumformungen vom Typ III benutzt<br />

hat, kann man sogar auf die Spaltenumformungen verzichten, weil die Diagonalelemente<br />

schon nach den Zeilenumformungen ihre endgültige Gestalt haben.<br />

Den Index liest man dann ab, indem man die positiven und die negativen Diagonalelemente<br />

zählt.<br />

⊓⊔<br />

In der Differentialrechnung mehrerer reeller Variabler tauchen symmetrische<br />

Matrizen als Hesse-Matrizen an stationären Punkten auf. Die Definitheitseigenschaften<br />

positiv definit, negativ definit und indefinite lassen sich dann unmittelbar<br />

in die Extremaleigenschaften lokales Minimum, lokales Maximum und Sattelpunkt<br />

übersetzen.<br />

Beispiel 9.1.3. (vgl. Beispiel 8.4.5)<br />

(i) Die euklidischen inneren Produkte auf R n und C n sind positiv definit.<br />

(ii) Die Minkowski–Form auf R 4 ist indefinit.<br />

⊓⊔<br />

Satz 9.1.4 (Hauptminoren–Kriterium). Sei B ∈ Mat(n × n, K) hermitesch.<br />

Weiter sei B l für l ≤ n der linke obere l × l Block in B, d.h.<br />

⎛<br />

⎞<br />

b 11 · · · b 1l · · · b 1n<br />

⎛ ⎞<br />

. . .<br />

b 11 · · · b 1l<br />

B =<br />

b l1 · · · b ll · · · b ln<br />

⎜ ⎟<br />

und B l = ⎝ . . ⎠ .<br />

⎜<br />

⎟<br />

⎝ . . . ⎠<br />

b l1 · · · b ll<br />

b n1 · · · b nl · · · b nn<br />

Dann sind folgende Aussagen äquivalent:<br />

(1) B ist positiv definit (d.h. β B ist pos. def. für eine beliebige Basis)<br />

(2) det B l > 0 für l = 1, . . . , n.<br />

Die Determinanten det B l heißen die Hauptminoren von B.<br />

Beweis. Idee: Die Richtung “(1) ⇒ (2)” reduziert man auf die Aussage, dass positiv<br />

definite Matrizen positive Determinante haben, in dem man x ⊤ Bx für Vektoren x mit<br />

vielen Nullen testen. Die Umkehrung “(2) ⇒ (1)” beweist man mit Induktion, indem<br />

man die linke obere (n − 1) × (n − 1)-Ecke B n−1 mit B n−1 ↦→ Cn−1B ⊤ n−1C n−1 auf 1 n−1<br />

transformiert.


9.1 Definitheit 249<br />

” (1) ⇒ (2)“ Sei B positiv definit, d.h. x⊤ Bx > 0 für alle x ∈ K n \ {0}. Dann ist B l<br />

ist ebenfalls positiv definit, denn<br />

y ⊤ B l y = x ⊤ Bx > 0<br />

für<br />

( ) y<br />

x =<br />

0<br />

mit y ∈ K l \ {0}, 0 ∈ K n−l .<br />

Das bedeutet, es ist nur det B > 0 für jede positiv definite Matrix B zu zeigen.<br />

Wegen Index(β B ) = (n, 0) gibt es eine invertierbare Matrix C ∈ GL(n, K) mit<br />

C ⊤ BC = 1 n . Damit findet man<br />

1 = det(1 n ) = det(C ⊤ BC) = det(C ⊤ ) det(B) det(C) = | det(C)| 2 det(B),<br />

} {{ }<br />

>0<br />

also det(B) > 0.<br />

(2) ⇒ (1)“ Wir führen den Beweis mit Induktion über n.<br />

”<br />

n = 1: Dieser Fall ist klar, weil det(B) = B.<br />

n > 1: Die Induktion zeigt, dass B n−1 positiv definit ist, d.h. es existiert eine<br />

Matrix C n−1 ∈ GL(n − 1, K) mit Cn−1B t n−1 C n−1 = 1 n−1 . Setze<br />

C :=<br />

( )<br />

Cn−1 0<br />

∈ GL(n, K),<br />

0 1<br />

dann gilt<br />

( ) ( ) ( )<br />

C<br />

C ⊤ ⊤<br />

BC = n−1 0 Bn−1 ∗ Cn−1 0<br />

0 1 ∗ ∗ 0 1<br />

( ) ( )<br />

C<br />

⊤<br />

= n−1 B n−1 ∗ Cn−1 0<br />

∗ ∗ 0 1<br />

( )<br />

C<br />

⊤<br />

= n−1 B n−1 C n−1 ∗<br />

∗ ∗<br />

( )<br />

1n−1 v<br />

=<br />

v ⊤ , v ∈ K n−1 , r ∈ R.<br />

r<br />

Dabei gilt r ∈ R, weil C ⊤ BC hermitesch ist.<br />

( ) ( ) ( )<br />

1n−1 0 1n−1 v 1n−1 −v<br />

−v ⊤ 1 v ⊤ r 0 1<br />

} {{ } } {{ } } {{ }<br />

D ⊤ C ⊤ D<br />

BC<br />

( ) ( )<br />

1n−1 v 1n−1 −v<br />

=<br />

0 r − v ⊤ v 0 1<br />

( )<br />

1n−1 0<br />

=<br />

0 r − v ⊤ v<br />

Es bleibt also noch zu zeigen, dass r − v ⊤ v > 0 ist:<br />

r − v ⊤ v = det(D ⊤ C ⊤ BCD) = | det(CD)| 2 det(B) .<br />

} {{ } } {{ }<br />

>0 >0<br />

⊓⊔


250 9 Innere Produkte<br />

( ) a b<br />

Beispiel 9.1.5. Wenn n = 2 und B = , dann gilt<br />

b c<br />

( ) ( )<br />

( ) a b x<br />

β B (x, y), (x, y) = (x, y) = ax 2 + 2bxy + cy 2 .<br />

b c y<br />

Also ist B positiv definit genau dann, wenn die folgenden zwei Bedingungen gelten:<br />

B 1 = (a): a > 0<br />

B 2 = B: ac − b 2 = ( a+c<br />

2 )2 − ( a−c<br />

2 )2 − b 2 > 0.<br />

⊓⊔<br />

Definition 9.1.6. Ein inneres Produkt auf einem K-Vektorraum V ist eine positiv<br />

definite hermitesche Form. Wir schreiben 〈v | w〉 statt β(v, w). Außerdem schreiben<br />

wir<br />

‖v‖ := √ 〈v | v〉<br />

und beachten, dass die positive Definitheit des inneren Produkt die Äquivalenz von<br />

v = 0 und ‖v‖ = 0 zeigt. Wenn K = R ist, heißt der Vektorraum V zusammen mit<br />

dem inneren Produkt 〈v | w〉 auch ein euklidischer Vektorraum. Im Falle K = C<br />

spricht man von einem unitären Vektorraum.<br />

Beispiel 9.1.7. (vgl. Beispiel 8.1.5) Für V = {f : [a, b] → K | stetig} definiert<br />

ein inneres Produkt auf V .<br />

〈 f | g〉 =<br />

∫ b<br />

a<br />

f(x) g(x) dx<br />

⊓⊔<br />

Definition 9.1.8. Sei V ein K-Vektorraum und 〈 · | · 〉 ein inneres Produkt auf V<br />

(auch für unendliche Dimensionen). Eine Folge {v 1 , v 2 , . . .} von Vektoren in V heißt<br />

ein Orthogonalsystem, wenn<br />

〈 v i | v j 〉 = 0 ∀i ≠ j<br />

und ein Orthonormalsystem (ONS), wenn zusätzlich<br />

〈 v j | v j 〉 = 1 ∀j<br />

gilt. Wenn ein Orthonormalsystem eine Basis für V ist, nennt man es eine Orthonormalbasis<br />

(ONB).<br />

Beispiel 9.1.9. (i) Sei K = R und V = {f : [0, 2π] stetig<br />

−→ R} mit dem inneren<br />

Produkt<br />

∫2π<br />

〈 f | g〉 = f(t) g(t) dt.<br />

Für n ∈ N setze<br />

0<br />

f n (t) = √ 1<br />

π<br />

cos(nt)<br />

g n (t) = √ 1<br />

π<br />

sin(nt).<br />

Dann ist { 1 √<br />

2π<br />

, g 1 , f 1 , g 2 , f 2 , . . .} ein ONS.


(ii) Sei K = C und V = {f : [0, 1] stetig<br />

−→ C} mit dem inneren Produkt<br />

〈 f | g〉 =<br />

∫ 1<br />

0<br />

f(t) g(t) dt.<br />

9.1 Definitheit 251<br />

Für n ∈ Z setze<br />

f n (t) = e 2πint .<br />

Dann ist {f n | n ∈ Z} ein ONS.<br />

Dieses Beispiel gehört zum Bereich der Fourier–Analyse.<br />

⊓⊔<br />

Bemerkung 9.1.10. Der Satz 8.4.2 von der Diagonalisierbarkeit hermitescher Formen<br />

sagt für innere Produkte, dass es zu jedem inneren Produkt ein ONS für V<br />

gibt, das sogar eine Basis ist:<br />

Sei β : V × V → K ein inneres Produkt. Dann gibt es eine Basis {v 1 , . . . , v n },<br />

so dass die darstellende Matrix von β gerade 1 n ist, d.h. β(v i , v j ) = δ ij . Also ist<br />

{v 1 , . . . , v n } eine ONB für β. ⊓⊔<br />

Algorithmus 9.1.11 (Gram–Schmidt Orthonormalisierung). V sei ein K-<br />

Vektorraum mit innerem Produkt 〈 · | · 〉 und {v 1 , . . . , v n } eine Basis für V . Wir<br />

setzen<br />

u 1 := v 1<br />

‖v 1 ‖<br />

u ′ 2 := v 2 − 〈 v 2 | u 1 〉 u 1<br />

u 2 := u′ 2<br />

‖u ′ 2 ‖<br />

u ′ 3 := v 3 − 〈 v 3 | u 1 〉 u 1 − 〈 v 3 | u 2 〉 u 2<br />

u 3 := u′ 3<br />

‖u ′ 3 ‖<br />

.<br />

u ′ k := v k − 〈 v k | u 1 〉 u 1 − . . . − 〈 v k | u k−1 〉 u k−1<br />

u k :=<br />

.<br />

u′ k<br />

‖u ′ k ‖<br />

wobei zu beachten ist, dass u ′ k<br />

= v k − ∑ k−1<br />

j=1 〈 v k | u j 〉 u j nicht Null sein kann,<br />

weil sonst v k ∈ span{v 1 , . . . , v k−1 } wäre. Wegen u k ∈ span{v 1 , . . . , v k } und<br />

v k ∈ span{u 1 , . . . , u k } gilt span{u 1 , . . . , u n } = V. Also ist {u 1 , . . . , u n } eine Basis für<br />

V . Klar ist, dass ‖u k ‖ = 1, d.h. 〈 u k | u k 〉 = 1. Um nachzuweisen, dass {u 1 , . . . , u n }<br />

eine ONB ist, müssen wir 〈 u i | u j 〉 = 0 für alle i ≠ j zeigen. Wir machen das mit<br />

Induktion über n: Die Annahme ist also<br />

Dann gilt für alle i < k<br />

〈 u i | u j 〉 = 0 ∀i ≠ j < k.


252 9 Innere Produkte<br />

∣ k−1<br />

〈 u i | u ′ ∣∣ ∑ 〉<br />

k〉 = 〈 u i | v k 〉 −<br />

〈u i 〈 v k | u j 〉 u j<br />

j=1<br />

k−1<br />

∑<br />

= 〈 u i | v k 〉 − 〈 u j | v k 〉 〈 u i | u j 〉<br />

j=1<br />

= 〈 u i | v k 〉 − 〈 u i | v k 〉 〈 u i | u i 〉<br />

= 0,<br />

also auch 〈 u i | u k 〉 = 0.<br />

⊓⊔<br />

Satz 9.1.12. Sei V ein K-Vektorraum mit innerem Produkt 〈 · | · 〉.<br />

(i) Jedes ONS ist linear unabhängig.<br />

(ii) Sei {v 1 , v 2 , . . .} ein ONS und v ∈ span{v 1 , v 2 , . . .}. Dann gibt es eine Zahl n ∈ N<br />

(die von v abhängt), so dass<br />

Beweis. Idee:<br />

für (ii).<br />

(i) Wenn<br />

k ∑<br />

j=1<br />

v =<br />

n∑<br />

〈 v | v j 〉 v j .<br />

j=1<br />

Satz 5.2.3 für (i) und Entwicklung von v als Linearkombination der v j<br />

c j v j = 0, dann gilt<br />

0 =<br />

〈 k∑ ∣ 〉 ∣∣<br />

c j v j vi =<br />

j=1<br />

k∑<br />

j=1<br />

c j 〈 v j | v i 〉 = c i<br />

} {{ }<br />

δ ji<br />

∑<br />

(ii) Jedes v ∈ span{v 1 , v 2 , . . .} ist von der Form v = n c j v j , also gilt<br />

j=1<br />

〈 v | v i 〉 =<br />

〈 ∑<br />

n ∣ 〉 ∣∣<br />

c j v j vi =<br />

j=1<br />

n∑<br />

j=1<br />

c j 〈 v j | v i 〉<br />

} {{ }<br />

δ ji<br />

= c i ,<br />

d.h. v = ∑ n<br />

j=1 〈v | v j〉v j .<br />

⊓⊔<br />

Kombiniert man Satz 9.1.12 mit dem Gram–Schmidt–Algorithmus 9.1.11, so<br />

erhält man<br />

Korollar 9.1.13. Jeder endlich dimensionale K-Vektorraum mit innerem Produkt<br />

hat eine Orthonormalbasis.<br />

Übung 9.1.1. Sei A = (a ij) i=1,...,n ∈ Herm(n, K) mit K = R oder K = C. Zeige:<br />

j=1,...,n<br />

(a) Ist A positiv definit, so gilt a ii > 0 für alle i = 1, . . . , n.


9.1 Definitheit 253<br />

(b) Ist A positiv definit, so gilt<br />

a iia jj > |a ij| 2 für alle i, j = 1, . . . , n mit i ≠ j.<br />

[Hinweis: Betrachte Vektoren in K n von der Form v ij = (0, . . . , 0, x i, 0, . . . , 0, x j, 0, . . . , 0) ⊤<br />

mit x i = −a ji/a ii (an der i-ten Stelle) und x j = 1 (an der j-ten Stelle).]<br />

(c) Ist A positiv definit, so gilt für alle i, j = 1, . . . , n mit i ≠ j<br />

|a ij| < max l=1,...,n a ll .<br />

Übung 9.1.2. Teste, ob die folgenden Matrizen positiv definit sind:<br />

⎛ ⎞ ⎛<br />

⎞<br />

1 2 4 −8<br />

1 −1 1 −1 ⎛ ⎞<br />

A = ⎜ 2 5 0 4<br />

⎟<br />

⎝ 4 0 4 2 ⎠ , B = ⎜ −1 −1 1 −1<br />

2 1 1<br />

⎟<br />

⎝ 1 1 1 −1 ⎠ , C = ⎝ 1 2 1 ⎠<br />

1 1 2<br />

−8 4 2 1<br />

−1 −1 −1 −1<br />

Übung 9.1.3. Sei V ein C-Vektorraum und 〈 · | · 〉 ein inneres Produkt auf V . Definiere<br />

zwei Abbildungen h, ω : V × V → R durch h(v, w) = Re〈v | w〉 und ω(v, w) = Im〈v | w〉<br />

für v, w ∈ V . Zeige:<br />

(i) h und ω sind Bilinearformen auf V betrachtet als R-Vektorraum.<br />

(ii) h ist symmetrisch und ω ist schiefsymmetrisch.<br />

(iii) h und ω sind beide nicht ausgeartet.<br />

Übung 9.1.4. Bestimme eine Basis des orthogonalen Komplements von span(A) mit<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

4 6 2<br />

⎪⎨<br />

A = ⎜ 2<br />

⎟<br />

⎝ −6 ⎠<br />

⎪⎩<br />

, ⎜ 6<br />

⎟<br />

⎝ −8 ⎠ , ⎜ −5<br />

⎪⎬<br />

⎟<br />

⎝ −5 ⎠ .<br />

⎪⎭<br />

10 9 17<br />

Übung 9.1.5. Teste, ob die folgenden Matrizen positiv definit sind:<br />

⎛ ⎞ ⎛<br />

⎞ ⎛<br />

⎞<br />

1 2 4 8 1 −1 1 −1 15 20 25 30<br />

⎜ 2 4 8 4<br />

⎟<br />

⎝ 4 8 4 2 ⎠ ,<br />

⎜ −1 −1 1 −1<br />

⎟<br />

⎝ 1 1 1 −1 ⎠ ,<br />

⎜ 20 27 34 41<br />

⎟<br />

⎝ 25 34 43 52 ⎠ .<br />

8 4 2 1 −1 −1 −1 −1 30 41 52 63<br />

Übung 9.1.6. Teste, ob die folgenden Matrizen positiv definit sind:<br />

⎛ ⎞ ⎛<br />

⎞ ⎛<br />

⎞<br />

6 2 −2<br />

4 2i 2<br />

5 1 4 + 4i<br />

⎝ 2 6 −2⎠ , ⎝−2i 10 1 − i⎠ , ⎝ 1 5 1 ⎠<br />

−2 −2 10<br />

2 1 + i 9<br />

4 − 4i 1 5<br />

⎛<br />

⎞<br />

1 1 0 0<br />

1 2 1 0<br />

0 1 2 ·<br />

0 · ·<br />

· · 0<br />

.<br />

⎜ · 2 1 0<br />

⎟<br />

⎝ 0 1 2 1⎠<br />

0 0 1 1<br />

Übung 9.1.7. Für welche a ∈ R ist die Matrix<br />

⎛ ⎞<br />

a 1 1<br />

A = ⎝1 a 1⎠<br />

1 1 a<br />

positiv definit?<br />

⊓⊔


254 9 Innere Produkte<br />

Übung 9.1.8. 1. Welche der folgenden Matrizen in Mat(n × n, C) sind hermitesch bzw.<br />

schiefhermitesch?<br />

⎛ ⎞ ⎛<br />

⎞<br />

( ) ( )<br />

2 −1 1<br />

−1 i − 3 2i<br />

i −1<br />

2 i<br />

A = , B = , C = ⎝−1 2 0⎠ D = ⎝−(i + 3) −2 3i ⎠<br />

1 i<br />

i i<br />

1 0 2<br />

−2i −3i −3<br />

2. Sei β ∈ Ses(C 4 ) die Sesquilinearform mit darstellender Matrix<br />

⎛ ⎞<br />

i 0 i + 1 0<br />

A = ⎜0 2 0 i<br />

⎟<br />

⎝i i i i⎠<br />

1 1 0 0<br />

bezüglich der Standardbasis B = {e 1, e 2, e 3, e 4} von C 4 . Dann zerlegt sich β eindeutig<br />

als direkte Summe β = Hβ + Λβ mit Hβ hermitesch und Λβ schiefhermitesch.<br />

Bestimme die darstellenden Matrizen von Hβ und Λβ bezüglich B.<br />

3. Welche der hermiteschen Matrizen aus a) und b) sind positiv definit?<br />

Übung 9.1.9. Sei V ein R-Vektorraum mit Basis B = (v 1, . . . , v n) und β eine symmetrische<br />

Bilinearform mit darstellender Matrix A bezüglich B. Zeige:<br />

β positiv definit ⇐⇒ A = B ⊤ B für ein B ∈ GL(n, R).<br />

Übung 9.1.10. Sei V = R 4 mit innerem Produkt 〈x|y〉 = x ⊤ y. Bestimme Orthonormalbasen<br />

von U und U ⊥ für<br />

U = {x ∈ R 4 | x 1 + 2x 2 + 3x 3 + 4x 4 = 0} .<br />

Übung 9.1.11 (Negative Definitheit). Sei B ∈ Mat(n × n, K) hermitesch und B l<br />

l ≤ n wie in Satz 9.1.4 (Hauptminoren-Kriterium). Zeige:<br />

{<br />

det B l < 0 für alle ungeraden l und<br />

B ist negativ definit ⇐⇒<br />

det B l > 0 für alle geraden l.<br />

für<br />

Hierbei heißt B negativ definit, falls β B neg. def. ist für eine beliebige Basis.<br />

Hinweis: Führe die Aussage auf den positiv definiten Fall zurück.<br />

Übung 9.1.12. Sei V = Mat(n × n, C). Zeige, dass<br />

ein inneres Produkt ist.<br />

〈A|B〉 := tr(A ⊤ B)<br />

Übung 9.1.13. Es sei Pol 3(R, R) der Vektorraum der Polynomfunktionen vom Grad 3.<br />

1. Zeige, dass<br />

〈p|q〉 :=<br />

∫ 1<br />

−1<br />

p(x)q(x)dx<br />

ein inneres Produkt auf Pol 3(R, R) definiert (vgl. Aufgabe 36).<br />

Hinweis: Es darf (ohne Beweis) verwendet werden, dass für eine nicht-negative stetige<br />

Funktion f gilt: (i) ∫ f ≥ 0 und (ii) ∫ f = 0 impliziert f = 0.<br />

2. Bestimme aus der Basis (p 0, p 1, p 2, p 3) mit p i(x) = x i eine Orthonormalbasis mit Hilfe<br />

des Gram-Schmidt-Verfahrens.


9.2 Adjungierte Abbildungen 255<br />

9.2 Adjungierte Abbildungen<br />

Definition 9.2.1. Seien V und W K–Vektorräume mit inneren Produkten 〈 · | · 〉 V<br />

und 〈 · | · 〉 W<br />

. Betrachte zwei lineare Abbildungen ϕ ∈ Hom K (V, W ), ψ ∈ Hom K (W, V ).<br />

Dann heißt ψ zu ϕ adjungiert, wenn gilt:<br />

〈 ϕ(v) | w〉 W<br />

= 〈 v | ψ(w)〉 V<br />

∀v ∈ V, w ∈ W.<br />

Beispiel 9.2.2. (i) V = R n , W = R m , jeweils mit dem euklidischem Skalarprodukt.<br />

Weiter sei A ∈ Mat(m × n, R),<br />

dann ist ψ zu ϕ adjungiert:<br />

ϕ := ϕ A : R n → R m , d.h. ϕ(v) = Av,<br />

ψ := ϕ A ⊤ : R m → R n , d.h. ψ(w) = A ⊤ w.<br />

〈 ϕ(v) | w〉 W<br />

= 〈 Av | w〉 W<br />

= (Av) ⊤ w = v ⊤ A ⊤ w<br />

= v ⊤ (A ⊤ w) = 〈 v | A ⊤ w 〉 V = 〈 v | ψ(w)〉 V .<br />

(ii) Sei V = {f ∈ C ∞ (R) | supp(f) beschränkt }. Dabei bedeutet supp(f) beschränkt“,<br />

dass es zu f ein c > 0 gibt ”<br />

mit<br />

Als inneres Produkt nimmt man<br />

Die Abbildung<br />

f(x) = 0 für alle x mit |x| > c.<br />

〈 f | g〉 =<br />

∫ ∞<br />

−∞<br />

f(t) g(t) dt.<br />

ϕ: V → V, f ↦→ f ′ = df<br />

dt<br />

ist linear. Partielle Integration liefert (weil f(x) = g(x) = 0 für |x| groß)<br />

〈 ϕ(f) | g〉 =<br />

∫ ∞<br />

−∞<br />

f ′ g = −<br />

∫ ∞<br />

−∞<br />

d.h. −ϕ ist adjungiert zu ϕ.<br />

(iii) Sei V wie in (ii). Betrachte die durch<br />

fg ′ =<br />

∫ ∞<br />

−∞<br />

ϕ(f)(t) = tf(t)<br />

definierte lineare Abbildung ϕ: V → V . Dann gilt<br />

〈 ϕ(f) | g〉 =<br />

∫ ∞<br />

−∞<br />

f(−g ′ ) = 〈 f | − ϕ(g)〉 ,<br />

t f(t) g(t) dt = 〈 f | ϕ(g)〉 ,<br />

d.h. ϕ ist adjungiert zu ϕ. In diesem Fall sagt man, ϕ ist selbstadjungiert.<br />

⊓⊔


256 9 Innere Produkte<br />

Beispiel 9.2.3. Das komplexe Analogon zu Beispiel 9.2.2(i) ist V = C n , W = C m<br />

mit A ∈ Mat(m × n, C), ϕ := ϕ A und ψ := ψ A ∗:<br />

〈 ϕ(v) | w〉 W<br />

= 〈 Av | w〉 W<br />

= (Av) ⊤ w = v ⊤ A ⊤ w = v ⊤ A ∗ w = 〈 v | A ∗ w〉 V<br />

= 〈 v | ψ(w)〉 V<br />

.<br />

⊓⊔<br />

Proposition 9.2.4. Seien V und W zwei K-Vektorräume mit inneren Produkten<br />

〈 · | · 〉 V<br />

und 〈 · | · 〉 W<br />

, sowie ϕ: V → W linear.<br />

(i) Es existiert höchstens eine zu ϕ adjungierte Abbildung ψ : W → V .<br />

(ii) Wenn ψ zu ϕ adjungiert ist, dann ist auch ϕ zu ψ adjungiert.<br />

Beweis. Idee: Zeige, dass für zwei zu ϕ adjungierte Abbildungen ψ 1, ψ 2 der Vektor<br />

ψ 1(w) − ψ 2(w) für jedes w auf ganz V orthogonal sind.<br />

(i) Wenn ψ 1 , ψ 2 beide zu ϕ adjungiert sind, dann gilt<br />

〈 v | ψ 2 (w)〉 V<br />

= 〈 ϕ(v) | w〉 W<br />

= 〈 v | ψ 1 (w)〉 V<br />

∀v ∈ V, w ∈ W.<br />

Damit findet man<br />

und daher<br />

〈 v | ψ 1 (w) − ψ 2 (w)〉 V<br />

= 0 ∀v ∈ V, w ∈ W,<br />

ψ 1 (w) − ψ 2 (w) ∈ V ⊥ = {0}<br />

(letzteres, weil 〈v | v〉 > 0 für v ≠ 0). Aber dies zeigt ψ 1 = ψ 2 .<br />

(ii) Wenn 〈 ϕ(v) | w〉 W<br />

= 〈 v | ψ(w)〉 V<br />

, dann gilt<br />

〈 ψ(w) | v〉 V<br />

= 〈 v | ψ(w)〉 V<br />

= 〈 ϕ(v) | w〉 W<br />

= 〈 w | ϕ(v)〉 W<br />

.<br />

Wenn es zu ϕ eine adjungierte Abbildung gibt (die dann eindeutig bestimmt<br />

ist), bezeichnet man diese mit ϕ ∗ . Da in diesem Fall ϕ ∗ zu ϕ adjungiert ist, ist auch<br />

ϕ zu ϕ ∗ adjungiert, d.h. es gilt<br />

(ϕ ∗ ) ∗ = ϕ.<br />

⊓⊔<br />

Beachte dabei, dass die Notation ϕ ∗ mit der Notation für die duale Abbildung<br />

von ϕ (vgl. Satz 5.4.4) zusammenfällt. Es sollte aber immer aus dem Kontext klar<br />

sein, welche Abbildung gemeint ist.<br />

Satz 9.2.5. Seien V und W zwei K-Vektorräume mit inneren Produkten 〈 · | · 〉 V<br />

und 〈 · | · 〉 W<br />

, sowie ϕ: V → W linear. Wenn dim V, dim W < ∞, dann gibt es eine<br />

adjungierte Abbildung zu ϕ.<br />

Beweis. Idee: Betrachte die darstellende Matrix von ϕ bzgl. zweier ONB’s und wähle<br />

als ψ die Abbildung, die bzgl. dieser Basen durch die dazu transponierte Matrix dargestellt<br />

wird.<br />

Mit dem Gram-Schmidt-Algorithmus 9.1.11 findet man ONB’s {v 1 , . . . , v n } und<br />

{w 1 , . . . , w m } für V und W . Sei A = (a ij ) die darstellende Matrix von ϕ bzgl. dieser<br />

Basen, d.h.


ϕ(v j ) =<br />

m∑<br />

a ij w i , j = 1, . . . , n.<br />

i=1<br />

9.2 Adjungierte Abbildungen 257<br />

Weiter sei ψ : W → V diejenige lineare Abbildung, deren darstellende Matrix bzgl.<br />

der vorgegebenen Basen A ∗ ist. Dann gilt<br />

sowie<br />

ψ(w i ) =<br />

n∑<br />

a ij v j , i = 1, . . . , m,<br />

j=1<br />

〈ϕ(v j )|w i 〉 W = a ij = 〈v j |ψ(w i )〉 V<br />

für alle i = 1, . . . , m und j = 1, . . . , n. Indem man beliebige v ∈ V und w ∈ W als<br />

Linearkombinationen der v j bzw. der w i schreibt, findet man<br />

〈ϕ(v)|w〉 W = 〈v|ψ(w)〉 V<br />

für alle v ∈ V und w ∈ W . Dies zeigt die Behauptung.<br />

⊓⊔<br />

Bemerkung 9.2.6. Seien V und W zwei endlich dimensionale K-Vektorräume<br />

mit inneren Produkten 〈 · | · 〉 V<br />

und 〈 · | · 〉 W<br />

. Weiter seien {v 1 , . . . , v n } bzw.<br />

{w 1 , . . . , w m } orthonormale Basen für V und W . Wenn A die darstellende Matrix<br />

von ϕ ∈ Hom K (V, W ) ist, dann ist A ∗ nach dem Beweis von Satz 9.2.5 die<br />

darstellende Matrix zu ϕ ∗ .<br />

⊓⊔<br />

Definition 9.2.7. Sei V ein K-Vektorraum mit innerem Produkt 〈 · | · 〉 und ϕ ∈<br />

End K (V ).<br />

• ϕ heißt orthogonal, wenn K = R und ϕ ∗ = ϕ −1 .<br />

• ϕ heißt unitär, wenn K = C und ϕ ∗ = ϕ −1 .<br />

• ϕ heißt selbstadjungiert, wenn ϕ = ϕ ∗ .<br />

• ϕ heißt normal, wenn ϕ ∗ ◦ ϕ = ϕ ◦ ϕ ∗ .<br />

• ϕ heißt isometrisch, wenn 〈 ϕ(v) | ϕ(w)〉 = 〈 v | w〉 für alle v, w ∈ V .<br />

Proposition 9.2.8. Sei dim K V < ∞ und ϕ ∈ End K (V ). Dann gilt ϕ −1 = ϕ ∗ genau<br />

dann, wenn ϕ isometrisch ist. Insbesondere folgt die Surjektivität automatisch aus<br />

der Isometrie.<br />

Beweis. Sei ϕ isometrisch. Die Gleichung<br />

impliziert<br />

Also haben wir<br />

〈 ϕ(v) | ϕ(w)〉 = 〈 v | w〉<br />

〈 v | ϕ ∗ ◦ ϕ(w)〉 = 〈 v | w〉 .<br />

0 = 〈 v | ϕ ∗ ◦ ϕ(w) − w〉 ∀v, w ∈ V.<br />

Dies bedeutet ϕ ∗ ◦ ϕ(w) = w für alle w ∈ V und daher ϕ ∗ ◦ ϕ = id V . Damit ist ϕ<br />

injektiv und, wegen dim V < ∞, auch surjektiv (vgl. Satz 3.2.4). Nach Lemma 3.1.1<br />

gilt dann auch ϕ ◦ ϕ ∗ = id V und zusammen ϕ ∗ = ϕ −1 .<br />

Für die umgekehrte Implikation rechnet man<br />

〈 ϕ(v) | ϕ(w)〉 = 〈 v | ϕ ∗ ◦ ϕ(w)〉 = 〈 v | w〉 .<br />

⊓⊔


258 9 Innere Produkte<br />

Bemerkung 9.2.9. Sei V endlich dimensional mit innerem Produkt. Wähle eine<br />

ONB {v 1 , . . . , v n } für V und sei A die darstellende Matrix von ϕ bzgl. dieser Basis.<br />

Dann ist A ∗ nach Bemerkung 9.2.6 die darstellende Matrix von ϕ ∗ bzgl. dieser Basis.<br />

Es gilt:<br />

(i) ϕ orthogonal ⇔ A ⊤ A = 1 n = AA ⊤ (Beachte: für K = R gilt A ⊤ = A ⊤ = A ∗ ).<br />

(ii) ϕ unitär ⇔ A ∗ A = 1 n = AA ∗ .<br />

(iii) ϕ selbstadjungiert ⇔ A = A ∗ (d.h. A ist im Fall K = R symmetrisch, für K = C<br />

hermitesch).<br />

(iv) ϕ normal ⇔ A ∗ A = AA ∗ .<br />

Dementspechend heißt A ∈ Mat(n × n, K)<br />

• orthogonal, wenn K = R und A ⊤ = A −1 ;<br />

• unitär, wenn K = C und A ∗ = A −1 ;<br />

• selbstadjungiert, wenn A = A ∗ ;<br />

• normal, wenn A ∗ A = AA ∗ .<br />

⊓⊔<br />

Beispiel 9.2.10. (i) Für A =<br />

AA ∗ =<br />

( )<br />

0 1<br />

und A<br />

0 0<br />

∗ =<br />

( ) 1 0<br />

0 0<br />

und A ∗ A =<br />

( )<br />

0 0<br />

gilt<br />

1 0<br />

( ) 0 0<br />

,<br />

0 1<br />

d.h. A ist nicht normal. ( ) 0 1<br />

(ii) Die Matrix A = ist normal, aber nicht selbstadjungiert:<br />

−1 0<br />

AA ∗ =<br />

( 0 1<br />

−1 0<br />

) ( ) 0 −1<br />

= 1<br />

1 0 2 =<br />

( 0 −1<br />

1 0<br />

) ( ) 0 1<br />

= A ∗ A.<br />

−1 0<br />

⊓⊔<br />

Lemma 9.2.11. Sei V ein endlich dimensionaler K-Vektorraum mit innerem Produkt<br />

〈 · | · 〉 und ϕ ∈ End K (V ) normal.<br />

(i) ϕ(v) = λv ⇔ ϕ ∗ (v) = λv.<br />

(ii) Sei U ⊆ V ein Unterraum. Dann gilt die Implikation<br />

ϕ(U) ⊆ U ⇒ ϕ ∗ (U ⊥ ) ⊆ U ⊥ .<br />

(iii) Sei V = V 1 ⊕ V 2 eine orthogonale direkte Summe, d.h.<br />

∀v 1 ∈ V 1 , v 2 ∈ V 2 : 〈v 1 | v 2 〉 = 0.<br />

Wenn ϕ(V 1 ) ⊆ V 1 und ϕ(V 2 ) ⊆ V 2 gilt, dann gilt auch ϕ ∗ (V 1 ) ⊆ V 1 und<br />

ϕ ∗ (V 2 ) ⊆ V 2 . Weiter folgt, dass ϕ| Vi : V i → V i (i = 1, 2) normal ist und<br />

(ϕ| Vi ) ∗ = ϕ ∗ | Vi erfüllt.<br />

Beweis. Idee: Für (i) zeige ‖ϕ(v)‖ = ‖ϕ ∗ (v)‖ und schließe ker (ϕ−λ id) = ker (ϕ ∗ −λ id).<br />

Teil (ii) ist ein einfacher Orthogonalitätstest und für (iii) benutzt man Satz 8.2.6 sowie die<br />

Dimensionsformel aus Satz 2.4.4 um V ⊥<br />

1 = V 2 zu zeigen.


9.2 Adjungierte Abbildungen 259<br />

(i) Wegen ϕ ◦ ϕ ∗ = ϕ ∗ ◦ ϕ gilt<br />

‖ϕ(v)‖ = √ 〈 ϕ(v) | ϕ(v)〉 = √ 〈 v | ϕ ∗ ◦ ϕ(v)〉<br />

= √ 〈 v | ϕ ◦ ϕ ∗ (v)〉 = √ 〈 ϕ ∗ (v) | ϕ ∗ (v)〉 = ‖ϕ ∗ (v)‖.<br />

Also haben wir ker ϕ = ker ϕ ∗ für jedes normale ϕ. Wir wenden dies auf ϕ−λ id<br />

an. Das geht, weil<br />

〈 λ id(v) | w〉 = 〈 λv | w〉 = 〈 v | λw 〉 = 〈 v | λ id(w) 〉<br />

impliziert (λ id) ∗ = λ id und daher<br />

(ϕ − λ id) ◦ (ϕ − λ id) ∗ = (ϕ − λ id) ◦ (ϕ ∗ − λ id)<br />

= ϕ ◦ ϕ ∗ − λϕ ∗ − λϕ + λλ id<br />

= ϕ ∗ ◦ ϕ − λϕ ∗ − λϕ + λλ id<br />

. rückwärts<br />

= (ϕ − λ id) ∗ ◦ (ϕ − λ id)<br />

d.h., auch ϕ − λ id ist normal. Wir wissen also ker (ϕ − λ id) = ker (ϕ ∗ − λ id).<br />

Das bedeutet aber, dass v genau dann ein Eigenvektor von ϕ zum Eigenwert λ<br />

ist, wenn v ein Eigenvektor von ϕ ∗ zum Eigenwert λ ist. Damit ist (i) bewiesen.<br />

(ii) Für v ∈ U ⊥ , u ∈ U gilt<br />

〈 u | ϕ ∗ (v)〉 = 〈ϕ(u) |v〉 = 0,<br />

}{{}<br />

∈U<br />

also ist ϕ ∗ (v) ∈ U ⊥ .<br />

(iii) Wir zeigen zunächst, dass V1 ⊥ = V 2 : Die Inklusion V 1 ⊆ V2 ⊥ ist klar. Mit<br />

Proposition 5.5.9 hat man aber dim K (V ) = dim K (V 1 ) + dim K (V 2 ) und wegen<br />

Satz 8.2.6 auch dim K (V ) = dim K (V 2 )+dim K (V2 ⊥ ), weil die Einschränkung eines<br />

inneren Produkts auf einen Unterraum wieder ein inneres Produkt ist und damit<br />

immer nicht ausgeartet. Es folgt also dim K (V2 ⊥ ) = dim K (V 1 ) und somit auch<br />

V2 ⊥ = V 1 (vgl. Satz 2.4.4). Ganz analog sieht man auch V 2 = V1 ⊥ .<br />

Setze U := V 1 . Dann gilt U ⊥ = V 2 und Teil (ii), angewandt auf U = V 1 , liefert<br />

ϕ ∗ (V 2 ) ⊆ V 2 . Angewandt auf U = V 2 liefert dieses Argument ϕ ∗ (V 1 ) ⊆ V 1 . Die<br />

Rechnung<br />

〈 ϕ| Vi (v) | w〉 = 〈 ϕ(v) | w〉 = 〈 v | ϕ ∗ (w)〉 = 〈 v | ϕ ∗ | Vi (w)〉<br />

für v, w ∈ V i zeigt (ϕ| Vi ) ∗ = ϕ ∗ | Vi . Schließlich rechnen wir<br />

ϕ| Vi ◦ (ϕ| Vi ) ∗ = ϕ| Vi ◦ ϕ ∗ | Vi = ϕ ◦ ϕ ∗ | Vi = ϕ ∗ ◦ ϕ| Vi = . . . = (ϕ| Vi ) ∗ ◦ ϕ| Vi<br />

und erhalten, dass ϕ| Vi<br />

normal ist.<br />

⊓⊔<br />

Übung 9.2.1. Gegeben sei V = R 4 mit dem Euklidischen Skalarprodukt und der Unterraum<br />

(<br />

U = span (2, 2, 1, 0) ⊤ , (2, 3, −1, 2) ⊤ , (4, 1, 8, −6) ⊤ , (2, 1, 3, −2) ⊤) .


260 9 Innere Produkte<br />

(i) Bestimme eine Basis von U und eine Basis von U ⊥ .<br />

(ii) Sei ϕ ∈ End R (V ) die lineare Abbildung, die durch f(u 1) = u 3, f(u 2) = u 4, f(u 3) =<br />

u 1, f(u 4) = u 2 mit<br />

u 1 = 1 3 (2, 2, 1, 0)⊤ , u 2 = 1 3 (0, 1, −2, 2)⊤ , u 3 = 1 3 (2, −2, 0, 1), u4 = 1 (−1, 0, 2, 2)⊤<br />

3<br />

definiert ist. Gib die Matrix von ϕ bzgl. der Standardbasis von R 4 an.<br />

(iii) Zeige: ϕ ∗ ϕ = id, ϕ(U) = U ⊥ , ϕ(U ⊥ ) = U und ϕ ◦ ϕ = id.<br />

(iv) Bestimme die Fixpunktmenge F = {v ∈ V : ϕ(v) = v} von ϕ.<br />

( ) 1 1<br />

Übung 9.2.2. Gegeben sei die Matrix A = . Man zeige, daß 〈u, v〉 := u ⊤ Av ein<br />

1 2<br />

Skalarprodukt auf R 2 definiert.<br />

⊓⊔<br />

Übung 9.2.3. Es seien Pol 2[R] der Vektorraum der reellen Polynomfunktionen vom Grad<br />

≤ 2 und β : Pol 2[R] × Pol 2[R] → R die durch<br />

definierte Abbildung.<br />

β(f, g) :=<br />

∫ 1<br />

−1<br />

f(x)g(x) dx<br />

(a) Man zeige, daß β ein Skalarprodukt auf Pol 2[R] ist.<br />

(b) Man bestimme die darstellende Matrix von β bezüglich der Basis {1, x, x 2 } von Pol 2[R].<br />

⊓⊔<br />

{ ( )<br />

a b<br />

}<br />

Übung 9.2.4. Sei V = : a, b, c ∈ R . Zeige, dass die Bilinearform β ′ ∈ Bil(V )<br />

0 c<br />

mit β ′ (A, B) = tr(A ⊤ B) positiv definit ist.<br />

⊓⊔<br />

( ) a b<br />

Übung 9.2.5. Sei V = { : a, b, c ∈ R}.<br />

0 c<br />

(i) Zeige, dass die Bilinearform β ∈ Bil(V ) mit β(A, B) = tr(AB) ausgeartet ist.<br />

(ii) Berechne V ⊥ .<br />

(iii) Für welche A ∈ V gilt β(A, A) = 0?<br />

(iv) Finde eine Basis für V und gib die darstellende Matrix von β bzgl. dieser Basis an.<br />

( ) a b<br />

Übung 9.2.6. Sei V = { : a, b, c ∈ R}.<br />

0 c<br />

(i) Zeige, dass die Bilinearform β ′ ∈ Bil(V ) mit β ′ (A, B) = tr(A ⊤ B) positiv definit ist.<br />

[(ii) Für welche A ∈ V gilt β ′ (A, A) = 1?<br />

(iii) Gib die darstellende Matrix von β ′ bzgl. der in Übung 9.2.5 gefundenen Basis an.<br />

Übung 9.2.7. Seien V = Mat(3 × 3, R), W = Mat(2 × 2, R) und<br />

⎛ ⎞<br />

1 0<br />

A = ⎝ 0 1 ⎠ .<br />

0 1<br />

(i) Finde Basen von V und W .<br />

(ii) Betrachte auf V und W die inneren Produkte 〈C 1 | C 2〉 V = tr(C1 ⊤ C 2) für C 1, C 2 ∈ V<br />

bzw. 〈D 1 | D 2〉 V = tr(D1 ⊤ D 2) für D 1, D 2 ∈ W und gib die darstellenden Matrizen<br />

dieser inneren Produkte bzgl. er in (i) gefundenen Basen an.<br />

(iii) Betrachte die lineare Abbildung ϕ: V → W , die durch C ↦→ A ⊤ CA definiert ist.<br />

Bestimme die zu ϕ adjungierte Abbildung ψ : W → V .<br />

Übung 9.2.8. Sei V = Mat(n × n, R) mit dem inneren Produkt 〈X | Y 〉 = Spur(XY ⊤ ),<br />

X, Y ∈ V . Für A ∈ V betrachte man die Abbildung ϕ: V → V mit ϕ(X) = XA.<br />

⊓⊔


(i) Für welche Matrizen A ist die Abbildung ϕ orthogonal?<br />

(ii) Bestimme die adjungierte Abbildung ϕ ∗ von ϕ.<br />

9.2 Adjungierte Abbildungen 261<br />

Übung 9.2.9. Zeige, dass jede symmetrische reelle 2×2-Matrix als Differenz zweier positiv<br />

definiter Matrizen geschrieben werden kann.<br />

Übung 9.2.10. Seien β, β ′ ∈ Sym(V ). Zeige<br />

(i) Wenn β positiv definit ist, dann ist auch tβ positiv definit für jedes t > 0.<br />

(ii) Wenn β und β ′ positiv semidefinit sind, dann ist auch tβ + sβ ′ positiv semidefinit für<br />

t, s ≥ 0.<br />

(iii) Wenn β positiv definit und β ′ positiv semidefinit ist, dann ist tβ + sβ ′ positiv definit<br />

für t > 0 und s ≥ 0.<br />

Übung 9.2.11. (i) Zeige, dass die Bilinearform β ∈ Bil (Mat(n × n, R)) mit<br />

β(A, B) = tr(A ⊤ B)<br />

positiv definit ist.<br />

(ii) Zeige, dass die hermitesche Form β ∈ Herm (Mat(n × n, C)) mit<br />

positiv definit ist.<br />

β(A, B) = tr(A ∗ B)<br />

Übung 9.2.12. Sei V = {f : [0, 1] → R|f(x) = ∑ 3<br />

j=0 ajxj , a j ∈ R}.<br />

(i) Finde eine Basis für V .<br />

(ii) Gib die darstellende Matrix des inneren Produktes<br />

〈f | g〉 =<br />

bzgl. der in (i) gefundenen Basis an.<br />

(iii) Finde eine Orthonormalbasis für V .<br />

⎜<br />

⎝<br />

∫ 1<br />

0<br />

f(x)g(x)dx<br />

Übung 9.2.13. Sei β ∈ Sym(R 4 ) die Bilinearform, deren darstellende Matrix bzgl. der<br />

Standardbasis<br />

⎛<br />

1 2 −1 2<br />

⎞<br />

2 5 −2 4 ⎟<br />

−1 −2 2 −2<br />

2 4 −2 5<br />

ist. Zeige, dass ϕ ein inneres Produkt ist und gib eine ONB für R 4 bzgl. dieses inneren<br />

Produktes an.<br />

Übung 9.2.14. Zeige:<br />

(i) Eine hermitesche Matrix ist genau dann positiv definit, wenn alle ihre Eigenwerte<br />

positiv sind.<br />

(ii) Eine reelle symmetrische Matrix hat nur reelle Eigenwerte. Wenn sie auch noch orthogonal<br />

ist, haben die Eigenwerte den Betrag 1.<br />

(iii) Die Eigenwerte einer schief-hermiteschen Matrix sind rein imaginär, d.h. enthalten in<br />

iR.<br />

Übung 9.2.15. Sind die folgenden Matrizen orthogonal, unitär, hermitesch?<br />

⎛<br />

⎞<br />

⎛ ⎞<br />

A = 1 2 −2 1<br />

⎝ 1 2 2 ⎠ , B = 1 ( )<br />

1 i 1 + i 2<br />

1 + i 1 − i<br />

, C = ⎜ −i 0 −i 1 − i<br />

⎟<br />

3<br />

2 1 − i 1 + i ⎝ 1 − i i −1 i ⎠ .<br />

−2 −1 2<br />

2 1 + i −i 0<br />

Übung 9.2.16. Sei V = {A ∈ Mat(3 × 3): A = A ∗ }. Berechne dim R (V ).<br />

⎟<br />

⎠<br />

⊓⊔


262 9 Innere Produkte<br />

Übung 9.2.17. Sei U ∈ Mat(n × n, C) unitär. Zeige: Wenn alle Eigenwerte von U reell<br />

sind, dann gilt U 2 = 1 n.<br />

Übung 9.2.18. Sei E ein C-Vektorraum mit innerem Produkt 〈· | ·〉 und V ein linearer<br />

Unterraum von E. Zeige:<br />

(i) Durch die Zuordnung v+v ′ ↦→ v für alle v ∈ V , v ′ ∈ V ⊥ wird eine C-lineare Abbildung<br />

ϕ: E → V definiert.<br />

(ii) Sei W ein weiterer linearer Unterraum von E und ψ : E → W durch w + w ′ ↦→ w für<br />

alle w ∈ W , w ′ ∈ W ⊥ definiert. Dann ist die Abbildung ψ| V : V → W die adjungierte<br />

Abbildung zu ϕ| W : W → V .<br />

Übung 9.2.19. Sei V ein endlich dimensionaler C-Vektorraum mit innerem Produkt 〈 | 〉 V .<br />

(i) Sei {v 1, . . . , v n} eine ONB für V und ϕ, ψ ∈ End C (V ). Setze<br />

(ϕ | ψ) :=<br />

n∑<br />

〈ϕ(v j) | ψ(v j)〉 V<br />

und zeige, dass dies ein inneres Produkt auf End C (V ) definiert.<br />

(ii) Zeige, dass das innere Produkt aus (i) nicht von der Wahl der ONB abhängt.<br />

Übung 9.2.20. Sei V = C 2 versehen mit dem euklidischen Skalarprodukt<br />

(i) Sei<br />

ϕ 11<br />

(<br />

z1<br />

z 2<br />

)<br />

=<br />

( ) ( )<br />

z1 z1<br />

, ϕ<br />

0 12 =<br />

z 2<br />

j=1<br />

( ) ( ) ( ) ( ) ( )<br />

z2 z1 0 z1 0<br />

, ϕ<br />

0 21 = , ϕ<br />

z 2 z 22 = .<br />

1 z 2 z 2<br />

Zeige, dass {ϕ 11, ϕ 12, ϕ 21, ϕ 22} eine Basis für End C (V ) bilden.<br />

(ii) Berechne (ϕ ij | ϕ kl ) für das in Übung 9.2.19 definierte innere Produkt.<br />

(iii) Seien ϕ, ψ ∈ End C (V ) und A ϕ, A ψ die Matrizen von ϕ und ψ bzgl. der Standardbasis.<br />

Zeige, dass (ϕ | ψ) = tr(A ϕA ∗ ψ).<br />

Übung 9.2.21. Seien V = Mat(3 × 3, R), W = Mat(2 × 2, R) und<br />

⎛ ⎞<br />

1 0<br />

A = ⎝ 0 1 ⎠ .<br />

0 1<br />

(i) Zeige, dass die Vorschrift C ↦→ A ⊤ CA eine lineare Abbildung ϕ: V → W definiert.<br />

(ii) Finde Basen von V und W und gib die Matrix A ϕ an, die bzgl. dieser Basen zu ϕ<br />

gehört.<br />

(iii) Betrachte auf V und W die inneren Produkte 〈C 1 | C 2〉 V = Spur(C1 ⊤ C 2) für C 1, C 2 ∈<br />

V bzw. 〈D 1 | D 2〉 V = Spur(D1 ⊤ D 2) für D 1, D 2 ∈ W und gib die darstellenden Matrizen<br />

dieser inneren Produkte bzgl. der in (ii) gefundenen Basen an.<br />

(iv) Finde eine zu ϕ adjungierte Abbildung ψ : W → V .<br />

Übung 9.2.22. Sei V = Mat(2 × 2, C) und<br />

( ) ( 1 0<br />

0 1<br />

E 11 = , E<br />

0 0 12 =<br />

0 0<br />

)<br />

, E 21 =<br />

( ) 0 0<br />

, E<br />

1 0 22 =<br />

( ) 0 0<br />

.<br />

0 1<br />

(i) Zeige, dass {E 11, E 12, E 21, E 22} eine Basis für V ist.<br />

(ii) Zeige, dass die Zuordnung (A, B) ↦→ Spur(A ∗ B) ein inneres Produkt auf V definiert.<br />

(iii) Finde eine Basis für V bzgl. der die darstellende Matrix des inneren Produkts die<br />

Einheitsmatrix 1 4 ist.<br />

(iv) Definiere eine Abbildung ϕ: V → C 4 durch<br />

ϕ(A) = (Spur(A ∗ E 11), Spur(A ∗ E 12), Spur(A ∗ E 21), Spur(A ∗ E 22)) .<br />

Zeige, dass ϕ ein C-Vektorraum Isomorphismus ist.


9.3 Der Spektralsatz 263<br />

Übung 9.2.23. Sei V = Herm(2 × 2, C).<br />

(i) Zeige, dass die Zuordnung (A, B) ↦→ Spur(AB) ein inneres Produkt auf V definiert.<br />

(ii) Finde eine Basis für V bzgl. der die darstellende Matrix des Produkts die Einheitsmatrix<br />

1 3 ist.<br />

Übung ( ) 9.2.24. Sei 〈x|y〉 = x ⊤ y das euklidische Skalarprodukt auf R 2 und für C =<br />

2 1<br />

∈ R 2×2 sei<br />

1 1<br />

〈x|y〉 ′ := x ⊤ Cy .<br />

1. Zeige, dass 〈 | 〉 ′ ein inneres Produkt auf R 2 ist,<br />

2. Bestimme zu<br />

( )<br />

ϕ : R 2 → R 2 x1<br />

, ↦→<br />

x 2<br />

( )<br />

x1 + x 2<br />

x 1 − x 2<br />

die adjungierten Abbildungen bezüglich der inneren Produkte 〈 | 〉 und 〈 | 〉 ′ .<br />

Übung 9.2.25. Es seien V = R 3 mit innerem Produkt 〈x|y〉 = x ⊤ y und ϕ ∈ End R (V )<br />

gegeben durch<br />

⎛⎛<br />

⎞⎞<br />

⎛ ⎞<br />

x 1 x 2 + x 3<br />

ϕ ⎝⎝x 2<br />

⎠⎠ = ⎝ x 1<br />

⎠ .<br />

x 3 x 1 + x 2<br />

1. Bestimme die zu ϕ adjungierte Abbildung ϕ ∗ ∈ End R (V ).<br />

2. Zeige, dass U := {x ∈ R 3 | x 1 − x 3 = 0} ein ϕ-invarianter Unterraum von V ist.<br />

3. Bestimme die zu ϕ| U ∈ End R (U) adjungierte Abbildung (ϕ| U ) ∗ ∈ End R (U) (bezüglich<br />

des eingeschränkten inneren Produkts auf U).<br />

4. Gilt (ϕ| U ) ∗ = ϕ ∗ | U ?<br />

9.3 Der Spektralsatz<br />

Satz 9.3.1 (Spektralsatz). Sei V ein endlich dimensionaler C-Vektorraum mit<br />

innerem Produkt 〈 · | · 〉. Dann sind äquivalent:<br />

(1) ϕ ∈ End C (V ) ist normal.<br />

(2) Es gibt eine ONB von V bzgl. der die darstellende Matrix A ϕ von ϕ diagonal<br />

ist.<br />

Beweis. Idee: “(2) ⇒ (1)” ist eine unmittelbare Konsequenz von Bemerkung 9.2.9. Die<br />

Umkehrung “(1) ⇒ (2)” zeigt man mit Induktion, wobei man mit einem Eigenvektor v<br />

startet und V als direkte Summe von Cv und v ⊥ zerlegt.<br />

(1) ⇒ (2)“: Induktion über dim V = n.<br />

”<br />

n = 1: In diesem Fall ist nichts zu zeigen.<br />

n > 1: Sei λ ∈ C ein Eigenwert von ϕ und v ein dazugehöriger Eigenvektor<br />

(o.B.d.A. ‖v‖ = 1). Der Raum Cv ist ϕ–invariant, d.h. ϕ(Cv) ⊆ Cv. Nach<br />

Lemma 9.2.11(i) ist Cv auch ϕ ∗ –invariant, d.h. ϕ ∗ (Cv) ⊆ Cv. Aber dann<br />

zeigt Lemma 9.2.11(ii) angewandt auf ϕ ∗<br />

ϕ((Cv) ⊥ ) = (ϕ ∗ ) ∗ ((Cv) ⊥ ) ⊆ (Cv) ⊥ .<br />

Für U := (Cv) ⊥ liefert schließlich Lemma 9.2.11(iii), angewandt auf die<br />

orthogonale direkte Summe V = (Cv)⊕U, dass ϕ| U normal ist mit (ϕ| U ) ∗ =<br />

ϕ ∗ | U . Wegen dim U = n − 1 gibt es mit Induktion eine orthonormale Basis<br />

{v 2 , . . . , v n } von U bzgl. der die Matrix von ϕ| U diagonal ist:


264 9 Innere Produkte<br />

⎛ ⎞<br />

λ 2<br />

⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠<br />

λ n<br />

Setze v 1 = v, λ 1 = λ und betrachte {v 1 , v 2 , . . . , v n }. Es gilt dann 〈 v i | v j 〉 =<br />

δ ij für i, j = 1, . . . , n, d.h. {v 1 , . . . , v n } ist eine ONB für V . Beachte, dass<br />

wegen<br />

{<br />

λv j = 1<br />

ϕ(v j ) =<br />

λ j v j j ∈ {2, . . . , n}<br />

die Matrix von ϕ bzgl. {v 1 , . . . , v n } gleich<br />

⎛ ⎞<br />

λ 1<br />

. ..<br />

λ n<br />

⎜<br />

⎝<br />

⎟<br />

⎠<br />

ist.<br />

” (2) ⇒ (1)“: Sei {v 1, . . . , v n } eine ONB bzgl. der ϕ die darstellende Matrix<br />

⎛ ⎞<br />

λ 1<br />

⎜<br />

⎝<br />

. ..<br />

⎟<br />

⎠ = A<br />

λ n<br />

hat. Es gilt offensichtlich AA ∗ = A ∗ A, also ist ϕ nach Bemerkung 9.2.9 normal.<br />

⊓⊔<br />

Bemerkung 9.3.2. Man kann Satz 9.3.1 als einen Satz über Matrizen auffassen:<br />

Betrachte C n mit dem euklidischen inneren Produkt 〈 v | w〉 = v ⊤ w. Sei<br />

A ∈ Mat(n × n, C) normal, d.h. AA ∗ = A ∗ A, und ϕ A : C n → C n gegeben<br />

durch ϕ A (x) = Ax. Dann ist ϕ A normal. Nach Satz 9.3.1 existiert dann eine ONB<br />

{v 1 , . . . , v n } für C n , bzgl. der ϕ durch eine Diagonalmatrix Λ gegeben ist. Sei C<br />

∑<br />

die Übergangsmatrix von {e 1 , . . . , e n } nach {v 1 , . . . , v n }, d.h. v j = n c ij e i . Mit<br />

Satz 6.1.3 ergibt sich<br />

und wir können rechnen<br />

δ jl = 〈 v j | v l 〉 =<br />

〈 ∑<br />

n ∣ ∣∣<br />

c ij e i<br />

i=1<br />

n ∑<br />

k=1<br />

C −1 AC = Λ<br />

c kl e k<br />

〉<br />

=<br />

n∑<br />

n∑<br />

i=1 k=1<br />

i=1<br />

c ij c kl 〈 e i | e k 〉 =<br />

} {{ }<br />

δ ik<br />

n∑<br />

c ij c il .<br />

Damit gilt 1 n = C ⊤ C was gleichbedeutend mit 1 n = C ∗ C, also der Unitarität von<br />

C, ist. ⊓⊔<br />

Korollar 9.3.3. Sei A ∈ Mat(n × n, C). Dann sind äquivalent:<br />

(1) A ist normal.<br />

(2) Es gibt eine unitäre Matrix U ∈ Mat(n × n, C) und eine Diagonalmatrix Λ ∈<br />

Mat(n × n, C) mit U −1 AU = Λ.<br />

i=1<br />

⊓⊔


9.3 Der Spektralsatz 265<br />

Bemerkung 9.3.4. (i) Selbstadjungierte Abbildungen sind normal. Umgekehrt,<br />

wenn ϕ ∈ End K (V ) normal ist und bzgl. einer ONB durch eine Diagonalmatrix<br />

A ϕ dargestellt wird, so ist ϕ dann und nur dann selbstadjungiert, wenn A ϕ reell<br />

ist.<br />

(ii) Die Voraussetzung K = C wurde in Satz 9.3.1 und Korollar 9.3.3 nur für die<br />

Existenz von Eigenwerten in K benötigt. Dies erlaubt uns auch, eine reelle<br />

Version des Spektralsatzes zu beweisen.<br />

⊓⊔<br />

Lemma 9.3.5. Sei V ein endlich dimensionaler K-Vektorraum mit innerem Produkt<br />

〈 · | · 〉 und ϕ ∈ End K (V ). Weiter sei λ ∈ K ein Eigenwert von ϕ, dann gilt:<br />

(i) Wenn ϕ −1 = ϕ ∗ , dann gilt |λ| = 1.<br />

(ii) Wenn ϕ = ϕ ∗ , dann gilt λ ∈ R.<br />

(iii) Wenn die Sesquilinearform (v, w) ↦→ 〈ϕ(v) | w〉 positiv semidefinit ist, gilt λ ∈<br />

[0, ∞[.<br />

(iv) Wenn die Sesquilinearform (v, w) ↦→ 〈ϕ(v) | w〉 positiv definit ist, gilt λ ∈ ]0, ∞[.<br />

Beweis. Sei v ein Eigenvektor zum Eigenwert λ.<br />

(i) Wegen<br />

gilt |λ| = 1.<br />

(ii) Aus<br />

〈 v | v〉 = 〈 v | ϕ ∗ ◦ ϕ(v)〉 = 〈 ϕ(v) | ϕ(v)〉 = 〈 λv | λv〉 = |λ| 2 〈 v | v〉<br />

λ 〈 v | v〉 = 〈 λv | v〉 = 〈 ϕ(v) | v〉 = 〈 ϕ ∗ (v) | v〉 = 〈 λv | v 〉 = λ 〈 v | v〉<br />

folgt λ = λ, also λ ∈ R.<br />

(iii) 0 ≤ 〈ϕ(v) | v〉 = λ〈v | v〉 impliziert λ ≥ 0.<br />

(iv) 0 < 〈ϕ(v) | v〉 = λ〈v | v〉 impliziert λ > 0.<br />

⊓⊔<br />

Mit Lemma 9.3.5 ergibt sich folgende Bemerkung.<br />

Bemerkung 9.3.6. Sei A ∈ Mat(n × n, C) und λ ein Eigenwert von A.<br />

(i) Wenn A −1 = A ∗ , dann gilt |λ| = 1.<br />

(ii) Wenn A = A ∗ , dann gilt λ ∈ R.<br />

(iii) Wenn A positiv semidefinit ist, gilt λ ∈ [0, ∞[.<br />

(iv) Wenn A positiv definit ist, gilt λ ∈ ]0, ∞[.<br />

⊓⊔<br />

Satz 9.3.7. Sei V ein endlich dimensionaler R-Vektorraum mit innerem Produkt<br />

〈 · | · 〉 und ϕ ∈ End R (V ). Dann sind folgende Aussagen äquivalent:<br />

(1) ϕ ist selbstadjungiert.<br />

(2) ϕ ist normal und das charakteristische Polynom χ ϕ zerfällt über R, d.h. alle<br />

Eigenwerte von ϕ sind reell.<br />

(3) Es gibt eine ONB für V bzgl. der die darstellende Matrix A ϕ von ϕ eine Diagonalmatrix<br />

ist.


266 9 Innere Produkte<br />

Beweis. (1) ⇒ (2)“: Dies folgt sofort aus den Definitionen von selbstadjungiert<br />

”<br />

und normal sowie Lemma 9.3.5(ii).<br />

(2) ⇒ (3)“: Mit der Voraussetzung (2) kann man jetzt die Existenz eines reellen<br />

”<br />

Eigenwertes und eines dazugehörigen Eigenvektors von ϕ in V garantieren und<br />

daher den Beweis von Satz 9.3.1 übernehmen.<br />

” (3) ⇒ (1)“: Wenn es eine ONB für V gibt bzgl. der die darstellende Matrix A ϕ von<br />

ϕ eine Diagonalmatrix ist, dann ist diese Diagonalmatrix automatisch reell, also<br />

selbstadjungiert. Mit Bemerkung 9.2.9 sieht man also, dass ϕ selbstadjungiert<br />

ist.<br />

⊓⊔<br />

Korollar 9.3.8 (Hauptachsentransformation).<br />

folgende Aussagen äquivalent:<br />

Für A ∈ Mat(n × n, R) sind<br />

(1) A ist symmetrisch.<br />

(2) A ist normal und hat nur reelle Eigenwerte.<br />

(3) Es gibt eine orthogonale Matrix K und eine Diagonalmatrix Λ ∈ Mat(n × n, R)<br />

mit K −1 AK = Λ.<br />

⊓⊔<br />

Übung 9.3.1. Sei A ∈ Mat(n × n, C). Zeige, dass folgende Bedingungen äquivalent sind.<br />

(1) A ist normal.<br />

(2) Es gibt U, Λ ∈ Mat(n × n, C) mit U unitär und Λ diagonal sowie A = U −1 ΛU.<br />

(3) Es gibt H, S ∈ Mat(n × n, C) mit H hermitesch und S schief-hermitesch sowie A =<br />

H + S und HS = SH.<br />

Übung 9.3.2. Sei V ein endlich dimensionaler C-Vektorraum und ϕ ∈ End C (V ) normal.<br />

Weiter seien {λ 1, . . . , λ k } die Eigenwerte von ϕ und V 1 . . . , V k die zugehörigen Eigenräume.<br />

Zeige V = V 1 ⊕ . . . ⊕ V k und diese direkte Summe ist orthogonal.<br />

Übung 9.3.3. Sei<br />

⎛<br />

A = ⎜<br />

⎝<br />

1 + 3i 0 −1 + 3i 0<br />

0 −4 + 2i 0 4 − 2i<br />

−1 + 3i 0 1 + 3i 0<br />

0 4 − 2i 0 −4 + 2i<br />

(i) Zeige, dass A normal ist.<br />

(ii) Finde eine unitäre Matrix U und eine Diagonalmatrix Λ mit U −1 AU = Λ. (Hinweis:<br />

Bestimme die Eigenwerte und Eigenräume von A).<br />

Übung 9.3.4. Sei K = R oder C und V ein endlich dimensionaler K-Vektorraum mit<br />

innerem Produkt 〈· | ·〉. Weiter sei ϕ: V → V eine selbstadjungierte lineare Abbildung<br />

und {λ 1, . . . , λ k } die Menge der Eigenwerte von ϕ. Die dazugehörigen Eigenräume seien<br />

V 1, . . . , V k .<br />

(i) Zeige: Die V j sind paarweise orthogonal und es gilt V = V 1 ⊕ . . . ⊕ V k .<br />

(ii) Die Abbildungen p j : V → V j seien definiert durch p j(v 1+. . .+v k ) = v j für v i ∈ V i, i =<br />

1, . . . , k. Zeige, dass die p j selbstadjungiert sind und p i ◦ p j = δ ijp j für i, j = 1, . . . , k<br />

gilt.<br />

(iii) Zeige: ϕ = ∑ k<br />

j=1 λjpj (Spektralzerlegung von ϕ). ⊓⊔<br />

⎞<br />

⎟<br />

⎠ .


Übung 9.3.5. (i) Sei<br />

⎛ ⎞<br />

4 i −i<br />

A = ⎝ −i 4 1 ⎠ .<br />

i 1 4<br />

9.3 Der Spektralsatz 267<br />

Finde eine unitäre 3 × 3-Matrix U, für die U −1 AU eine Diagonalmatrix ist.<br />

(ii) Sei ϕ: R 3 → R 3 gegeben durch<br />

ϕ(x, y, z) = (7x − 2y, −2x + 6y − 2z, −2y + 5z).<br />

Finde eine Orthonormalbasis für R 3 bzgl. der ϕ durch eine Diagonalmatrix dargestellt<br />

wird.<br />

Übung 9.3.6. Gegeben sei<br />

⎛ ⎞<br />

1 i −i<br />

A = ⎝−i 2 0 ⎠<br />

i 0 2<br />

Bestimme eine unitäre Matrix U, so dass U −1 AU Diagonalgestalt hat.<br />

( ) 2 i<br />

Übung 9.3.7. Zeige, dass A = ∈ C 2×2 normal ist und gebe eine unitäre Matrix U<br />

i 2<br />

an, so dass U −1 AU Diagonalgestalt hat.<br />

Übung 9.3.8. Es sei V ein R-Vektorraum mit innerem Produkt 〈·|·〉 und dim V = n und<br />

ϕ ∈ End R (V ) ein selbstadjungierter Endomorphismus mit den Eigenwerten λ 1 ≤ λ 2 ≤<br />

· · · ≤ λ n. Die Abbildung f : V → R sei gegeben durch<br />

f(x) := 〈x|ϕ(x)〉 für alle x ∈ V .<br />

Zeige: Ist B := {x ∈ V | ‖x‖ = 1} der Rand der ”<br />

Einheitskugel“ in V , so gilt<br />

min f(x) = λ1 , maxx∈Bf(x) = λn .<br />

x∈B<br />

Übung 9.3.9. Sei V ein K-Vektorraum mit innerem Produkt 〈·|·〉 und U ⊂ V ein linearer<br />

Unterraum. Für v ∈ V sei v = v 1 + v 2 die Zerlegung bezüglich V = U ⊕ U ⊥ . Zeige, dass<br />

die lineare Abbildung<br />

ϕ : V → V, v ↦→ v 1<br />

eine selbstadjungierte Projektion ist, d.h. ϕ 2 = ϕ und ϕ ∗ = ϕ.


10<br />

Normen<br />

In diesem Kapitel führen wir den Begriff der Norm ein, der in der Analysis immer<br />

dann eine Rolle spielt, wenn es um Abstandsmessungen in Vektorräumen geht. Wir<br />

zeigen, wie man solche Normen aus inneren Produkten gewinnt und behandeln das<br />

wichtige Beispiel der Operatornorm auf dem Raum der linearen Selbstabbildungen<br />

eines (endlich dimensionalen) Vektorraums. Dieses Kapitel kann als Vorbereitung<br />

sowohl für die Topologie als auch für die Funktionalanalysis betrachtet werden. Die<br />

behandelten Konzepte sind aber auch wichtig für die numerische Behandlung der<br />

Linearen Algebra.<br />

10.1 Normen und innere Produkte<br />

Definition 10.1.1. Sei K = R oder K = C mit der gewöhnlichen komplexen Konjugation.<br />

und V ein K-Vektorraum. Eine Abbildung<br />

heißt eine Norm auf V, wenn<br />

V → R + 0 = {r ∈ R | r ≥ 0}<br />

v ↦→ ‖v‖<br />

(a) ‖v‖ = 0 ⇔ v = 0,<br />

(b) ‖cv‖ = |c|‖v‖ für alle c ∈ K, v ∈ V ,<br />

(c) ‖v + w‖ ≤ ‖v‖ + ‖w‖ für alle v, w ∈ V .<br />

Die Ungleichung in (c) heißt die Dreiecksungleichung.<br />

Beispiel 10.1.2. (i) Sei V = K n . Dann ist<br />

⎛ ⎞<br />

x 1<br />

⎜ ⎟<br />

x = ⎝ . ⎠ ↦→ max j=1,...,n |x j | =: ‖x‖ ∞<br />

x n<br />

eine Norm, die Maximumsnorm oder Supremumsnorm.<br />

(ii) Sei V = K n . Dann ist für 1 ≤ p < ∞<br />

⎛ ⎞<br />

x 1<br />

(<br />

⎜ ⎟ ∑ n<br />

x = ⎝ . ⎠ ↦→ |x j | p) 1 p<br />

=: ‖x‖ p<br />

x<br />

J=1<br />

n<br />

eine Norm, die Hölder p–Norm.


270 10 Normen<br />

(a), (b)“: Diese beide Eigenschaften sind für alle p leicht nachzuweisen.<br />

”<br />

(c)“: Die Dreiecksungleichung ist für p = 1 leicht nachzuweisen und wird in<br />

”<br />

Proposition 10.1.5 für p = 2 nachgeprüft. Der Beweis für allgemeines 1 <<br />

p < ∞ lässt sich mit folgender Strategie führen: Definiere q via<br />

zeige zuerst:<br />

dann<br />

1 = 1 p + 1 q<br />

ab ≤ ap<br />

p + bq<br />

q<br />

∀a, b > 0<br />

n∑<br />

|x j y j | ≤ ‖x‖ p ‖y‖ q ∀x, y ∈ K n Hölder–Ungleichung<br />

j=1<br />

und schließlich<br />

‖x + y‖ p ≤ ‖x‖ p + ‖y‖ p ∀x, y ∈ K n Minkowski–Ungleichung<br />

(∗)<br />

Beispiel 10.1.3. n = 2, K = R, V = R 2 . Wir skizzieren { v ∈ R 2 ∣ ∣ ‖v‖ p = 1 } :<br />

⊓⊔<br />

p = 1: v = (x, y),‖v‖ = |x| + |y|<br />

p = 2: ‖v‖ = √ |x| 2 + |y| 2<br />

p = ∞: ‖v‖ = max{ |x|, |y|}<br />

⊓⊔<br />

Bemerkung 10.1.4. Sei V = {f : [a, b] → C | f stetig}, wir setzen dann<br />

‖f‖ p =<br />

( ∫ b<br />

a<br />

) 1<br />

|f(x)| p p<br />

dx<br />

für 1 ≤ p < ∞<br />

und<br />

‖f‖ ∞ =<br />

sup |f(x)|<br />

x∈[a,b]


10.1 Normen und innere Produkte 271<br />

In Funktionenräumen hat man normalerweise keine vernünftigen Basen. Stattdessen<br />

benutzt man Linearformen und Grenzwerte. Dazu werden Abstandsmessungen<br />

benötigt: d(f, g) := ‖f − g‖. Dann sucht man sich behandelbare Unterräume<br />

(z.B. von abzählbaren Teilmengen erzeugte) und nähert allgemeine Elemente durch<br />

Elemente aus diesen Unterräumen an. Diese Techniken gehören zum Bereich der<br />

Funktionalanalysis.<br />

⊓⊔<br />

Proposition 10.1.5. Sei V ein K–Vektorraum und 〈 · | · 〉 ein inneres Produkt auf<br />

V . Dann ist<br />

v ↦→ ‖v‖ := √ 〈 v | v〉<br />

eine Norm.<br />

Beweis. Idee: Führe die Dreiecksungleichung auf die Cauchy–Schwarz–Ungleichung<br />

| 〈 v | w〉 | ≤ ‖v‖‖w‖ zurück. Letztere ist eine Konsequenz von 0 ≤ 〈 v + bw | v + bw〉 für<br />

geschickte Wahl von b.<br />

Es gilt<br />

‖v‖ 2 = 0 ⇔ 〈 v | v〉 = 0 ⇔ v = 0,<br />

weil 〈 · | · 〉 positiv definit ist. Weiter rechnen wir<br />

‖c · v‖ = √ 〈 c · v | c · v〉 = √ c 〈 v | c · v〉 = √ cc 〈 v | v〉<br />

= |c| √ 〈 v | v〉 = |c|‖v‖.<br />

Es bleibt also nur noch die Dreiecksungleichung zu zeigen. Wir beweisen zunächst<br />

die Cauchy–Schwarz–Ungleichung (C.S.U.)<br />

Beachte dazu, dass für alle b ∈ K gilt<br />

0 ≤ 〈 v + bw | v + bw〉<br />

| 〈 v | w〉 | ≤ ‖v‖‖w‖. (10.1)<br />

= ‖v‖ 2 + 〈 bw | v〉 + 〈 v | bw〉 + |b| 2 ‖w‖ 2 .<br />

Sei o.B.d.A ‖w‖ ≠ 0. Dann wählt man b = − 〈 v | w〉<br />

‖w‖ 2<br />

und rechnet weiter:<br />

0 ≤ ‖v‖ 2 −<br />

= ‖v‖ 2 −<br />

Dies beweist die C.S.U.:<br />

〈 w | v〉 〈 v | w〉 〈 w | v〉 〈 v | w〉 〈 v | w〉 〈 w | v〉 ‖w‖2<br />

‖w‖ 2 −<br />

‖w‖ 2 +<br />

‖w‖ 2 ‖w‖ 2<br />

| 〈 v | w〉 |2<br />

‖w‖ 2 .<br />

0 ≤ ‖v‖ 2 ‖w‖ 2 − | 〈 v | w〉 | 2 ⇒ | 〈 v | w〉 | 2 ≤ ‖v‖ 2 ‖w‖ 2 ⇒ | 〈 v | w〉 | ≤ ‖v‖‖w‖.<br />

Jetzt erhalten wir die Dreiecksungleichung<br />

‖v + w‖ 2 = 〈 v + w | v + w〉<br />

= 〈 v | v〉 + 〈 w | v〉 + 〈 v | w〉 + 〈 w | w〉<br />

= ‖v‖ 2 + 2 Re 〈 w | v〉 + ‖w‖ 2<br />

≤ ‖v‖ 2 + 2 | 〈 w | v〉 | + ‖w‖ 2<br />

(10.1)<br />

≤ ‖v‖ 2 + 2‖v‖‖w‖ + ‖w‖ 2<br />

= (‖v‖ + ‖w‖) 2 ,


272 10 Normen<br />

also<br />

‖v + w‖ ≤ ‖v‖ + ‖w‖.<br />

⊓⊔<br />

Satz 10.1.6 (Besselungleichung). Sei V ein K-Vektorraum mit innerem Produkt<br />

〈 · | · 〉 und {v 1 , . . . , v k } ein ONS in V . Dann gilt:<br />

‖v‖ 2 ≥<br />

k∑<br />

| 〈 v | v j 〉 | 2 ∀v ∈ V.<br />

j=1<br />

Gleichheit gilt dabei genau dann, wenn v ∈ span{v 1 , . . . , v k }.<br />

∑<br />

Beweis. Idee: Betrachte v − k 〈 v | v j〉 v j.<br />

j=1<br />

Sei U := span{v 1 , . . . , v k }. Dann gilt<br />

Wir setzen<br />

〈<br />

v −<br />

k∑<br />

〈 v | v j 〉 v j<br />

j=1<br />

} {{ }<br />

∈U<br />

∣ v i<br />

〉<br />

= 〈 v | v i 〉 −<br />

w := v −<br />

k∑<br />

〈 v | v j 〉 〈 v j | v i 〉 = 0.<br />

j=1<br />

k∑<br />

〈 v | v j 〉 v j .<br />

j=1<br />

} {{ }<br />

〈 v | v i〉<br />

Weil 〈 w | v i 〉 = 0 für alle i = 1, . . . , k gilt, finden wir 〈 w | u〉 = 0 für alle u ∈ U. Also<br />

ist w ∈ U ⊥ und wir können rechnen<br />

Es ergibt sich<br />

‖v − w‖ 2 =<br />

‖v‖ 2 = ‖ (v − w) +<br />

} {{ } }{{}<br />

w ‖ 2 = 〈 (v − w) + w | (v − w) + w〉<br />

∈U ∈U ⊥<br />

=<br />

=<br />

= 〈 v − w | v − w〉 + 〈 w | w〉 = ‖v − w‖ 2 + ‖w‖ 2 .<br />

〈 k∑ ∣ ∣∣<br />

k∑ 〉<br />

〈 v | v j 〉 v j 〈 v | v i 〉 v i =<br />

k∑<br />

j=1<br />

k∑<br />

j=1 i=1<br />

i=1<br />

〈 v | v j 〉 〈 v | v i 〉 〈 v j | v i 〉 =<br />

} {{ }<br />

δ ji<br />

k∑<br />

| 〈 v | v j 〉 | 2 .<br />

j=1<br />

k∑<br />

∣ ∣∣<br />

k∑ 〉<br />

〈 v | v j 〉<br />

〈v j 〈 v | v i 〉 v i<br />

j=1<br />

k∑<br />

〈 v | v j 〉 〈 v | v j 〉<br />

Dies impliziert die Bessel-Ungleichung, weil ‖w‖ 2 ≥ 0. Gleichheit gilt genau dann,<br />

wenn w = 0. Mit<br />

w = 0 ⇔ v =<br />

j=1<br />

k∑<br />

〈 v | v j 〉 v j ⇔ v ∈ U<br />

j=1<br />

i=1<br />

(vgl. Satz 9.1.12) folgt die Behauptung.<br />

⊓⊔


10.2 Die Operatornorm 273<br />

Beispiel 10.1.7. K = C, V = {f : [0, 1] stetig<br />

−→ C} mit dem in Beispiel 9.1.9 angegebenen<br />

ONS. Betrachte nur die 2k + 1 Elemente e −2πikt , . . . , e 2πikt . Dann liefert die<br />

Bessel-Ungleichung für jedes f ∈ V :<br />

k∑<br />

j=−k<br />

∣<br />

∫ 1<br />

f(t)e 2πijt dt∣ 2 ≤<br />

∫ 1<br />

0<br />

0<br />

|f(t)| 2 dt<br />

⊓⊔<br />

Übung 10.1.1. (i) Zeige, dass die Funktion n: R 2 → R + 0 , die durch<br />

n(x, y) = ( √ |x| + √ |y|) 2<br />

definiert ist, keine Norm ist.<br />

(ii) Skizziere die Menge {(x, y) ∈ R 2 : n(x, y) = 1}.<br />

Übung 10.1.2. Sei 〈v|w〉 = v ⊤ w das euklidische Skalarprodukt auf R n und ‖v‖ := √ 〈v|v〉<br />

die davon erzeugte Norm (Länge). Sei P das von v, w ∈ R n aufgespannte Parallelogramm.<br />

Zeige:<br />

a) Genau dann ist P ein Rhombus (d.h. v und w sind gleich lang), wenn die Diagonalen<br />

v + w und v − w orthogonal sind.<br />

b) Genau dann ist P ein Rechteck (d.h. v und w sind orthogonal), wenn die Diagonalen<br />

v + w und v − w gleich lang sind.<br />

Dabei heißen v und w orthogonal, wenn 〈v|w〉 = 0 gilt.<br />

10.2 Die Operatornorm<br />

In diesem Abschnitt bringen wir Konzepte der Linearen Algebra und der Analysis<br />

zusammen um auf Vektorräumen von linearen Abbildungen einen speziellen Typus<br />

von Normen zu konstruieren. Diese Operatornormen haben vielfältige Anwendungen<br />

in der Numerik, der Analysis auf Matrizengruppen und der Funktionalanalysis.<br />

Satz 10.2.1. Seien V und W zwei K-Vektorräume endlicher Dimension mit inneren<br />

Produkten 〈 · | · 〉 V<br />

und 〈 · | · 〉 W<br />

, sowie den zugehörigen Normen ‖ · ‖ V und<br />

‖ · ‖ W . Definiere eine Abbildung<br />

via<br />

‖ · ‖ op : Hom K (V, W ) → R + 0<br />

‖ϕ‖ op =<br />

sup {‖ϕ(v)‖ W }.<br />

‖v‖ V ≤1<br />

(i) ‖ · ‖ op ist eine Norm auf Hom K (V, W ).<br />

(ii) ‖ϕ(v)‖ W ≤ ‖ϕ‖ op ‖v‖ V ∀v ∈ V .<br />

(iii) Wenn U noch ein K-Vektorraum mit innerem Produkt 〈 · | · 〉 U<br />

ist, dann gilt:<br />

‖ψ ◦ ϕ‖ op ≤ ‖ψ‖ op ‖ϕ‖ op ∀ϕ ∈ Hom K (V, W ), ∀ψ ∈ Hom K (W, U)


274 10 Normen<br />

Beweis. Idee: Zeige zuerst, dass das Supremum überhaupt existiert und entwickle dazu<br />

jedes v bzgl. einer ONB. Um die Dreiecksungleichung für ‖ · ‖ op nachzuweisen, zeigt man<br />

(ii).<br />

Um zu zeigen, dass das Supremum existiert, genügt es nach dem Vollständigkeitsaxiom<br />

für die reellen Zahlen zu zeigen, dass<br />

{‖ϕ(v)‖ W | ‖v‖ V ≤ 1} ⊆ R + 0<br />

beschränkt ist: Sei {v 1 , . . . , v n } eine ONB für V und v ∈ V mit ‖v‖ V<br />

∑<br />

v = n c j v j . Dann gilt<br />

j=1<br />

≤ 1 und<br />

1 ≥ ‖v‖ 2 V = 〈 v | v〉 V<br />

=<br />

=<br />

n∑<br />

j=1<br />

〈 ∑<br />

n ∣ ∣∣<br />

c j v j<br />

j=1<br />

c j c j 〈 v j | v j 〉<br />

} {{ V<br />

=<br />

}<br />

=1<br />

Außerdem liefert die Dreiecksungleichung<br />

(<br />

∥ ∑<br />

n )∥ ∥∥W<br />

‖ϕ(v)‖ W = ∥ϕ c j v j =<br />

=<br />

j=1<br />

n∑<br />

|c j | ‖ϕ(v j )‖ W<br />

}{{}<br />

≤1<br />

j=1<br />

≤<br />

n ∑<br />

l=1<br />

c l v l<br />

〉<br />

n∑<br />

|c j | 2 .<br />

j=1<br />

∥<br />

V<br />

n∑<br />

∥<br />

c j ϕ(v j )<br />

j=1<br />

n∑<br />

‖ϕ(v j )‖ W<br />

j=1<br />

≤ n · max j=1,...,n ‖ϕ(v j )‖ W<br />

} {{ }<br />

Konstante c, die<br />

nicht von v abhängt<br />

=<br />

∥<br />

W<br />

n∑<br />

c j c l 〈 v j | v l 〉 V<br />

j=1<br />

l=1<br />

≤<br />

n∑<br />

‖c j ϕ(v j )‖ W<br />

Damit ist { ‖ϕ(v)‖ W<br />

∣ ‖v‖ V ≤ 1 } ⊆ [0, c] beschränkt und die Existenz des Supremums<br />

ist gesichert.<br />

Die Ungleichung ‖ϕ‖ op ≥ 0 ist jetzt klar nach der Definition. Wenn ‖ϕ‖ op = 0,<br />

dann gilt ‖ϕ(v)‖ W = 0 für alle v ∈ V mit ‖v‖ V ≤ 1, also<br />

ϕ(v) = 0 ∀v ∈ V mit ‖v‖ V ≤ 1<br />

und daher ϕ(v) = 0 für alle v ∈ V , d.h. ϕ = 0. Für c ∈ K rechnet man<br />

‖cϕ‖ op =<br />

j=1<br />

sup ‖cϕ(v)‖ W = sup |c|‖ϕ(v)‖ W<br />

‖v‖ V ≤1<br />

‖v‖ V ≤1<br />

= |c| sup ‖ϕ(v)‖ W = |c|‖ϕ‖ op .<br />

‖v‖ V ≤1<br />

Um (i) zu beweisen, muss man also nur noch die Dreiecksungleichung nachweisen.<br />

Dazu brauchen wir (ii), das wie folgt gezeigt wird: Sei v ≠ 0. Dann gilt<br />

und<br />

∥<br />

v ∥ ∥∥V<br />

= 1 ‖v‖ V = 1<br />

‖v‖ V ‖v‖ V<br />

∥ ( ∥∥ϕ v<br />

)∥ ∥∥W<br />

‖ϕ(v)‖ W = ‖v‖ V ≤ ‖v‖ V ‖ϕ‖ op ,<br />

‖v‖ V<br />

also (ii). Um jetzt die Dreiecksungleichung zu zeigen, wählen wir ϕ, ψ ∈ Hom K (V, W )<br />

und rechnen für ‖v‖ V ≤ 1


10.2 Die Operatornorm 275<br />

‖(ϕ + ψ)(v)‖ W = ‖ϕ(v) + ψ(v)‖ V<br />

≤ ‖ϕ(v)‖ W + ‖ψ(v)‖ W<br />

≤ ‖v‖ V ‖ϕ‖ op + ‖v‖ V ‖ψ‖ op<br />

= ‖v‖ V (‖ϕ‖ op + ‖ψ‖ op )<br />

≤ ‖ϕ‖ op + ‖ψ‖ op .<br />

Mit ‖ϕ + ψ‖ op = sup ‖v‖V ≤1 ‖(ϕ + ψ)(v)‖ W folgt dann die Dreiecksungleichung.<br />

Schließlich zeigen wir noch (iii). Seien ϕ ∈ Hom K (U, W ), ψ ∈ Hom K (V, U) so,<br />

dass<br />

‖ϕ ◦ ψ‖ op = sup<br />

‖v‖ V ≤1<br />

‖(ϕ ◦ ψ)(v)‖ W .<br />

Es gilt für ‖v‖ V ≤ 1:<br />

‖(ϕ ◦ ψ)(v)‖ W = ‖ϕ(ψ(v))‖ W ≤ ‖ψ(v)‖ U ‖ϕ‖ op<br />

}{{}<br />

∈U<br />

≤ ‖v‖ V ‖ψ‖ op ‖ϕ‖ op ≤ ‖ψ‖ op ‖ϕ‖ op<br />

und daher ‖ϕ ◦ ψ‖ op ≤ ‖ψ‖ op ‖ϕ‖ op .<br />

⊓⊔<br />

Die in Satz 10.2.1 beschriebene Norm auf Hom K (V, W ) heißt die Operatornorm.<br />

Bemerkung 10.2.2. Sei 0 < ‖v‖ V ≤ 1, dann gilt<br />

Also haben wir<br />

(<br />

∥ v<br />

)∥ ∥∥W<br />

∥ϕ<br />

= 1 ‖ϕ(v)‖ W ≥ ‖ϕ(v)‖ W .<br />

‖v‖ V ‖v‖ V<br />

sup ‖ϕ(v ′ )‖ W ≥<br />

‖v ′ ‖ V =1<br />

sup ‖ϕ(v)‖ W ≥<br />

‖v‖ V ≤1<br />

sup ‖ϕ(v)‖ W .<br />

‖v‖ V =1<br />

Dies zeigt ‖ϕ‖ op = sup ‖v‖V =1 ‖ϕ(v)‖ op .<br />

⊓⊔<br />

Satz 10.2.3. Seien V und W endlich dimensionale K-Vektorräume mit inneren<br />

Produkten 〈 · | · 〉 V<br />

und 〈 · | · 〉 W<br />

. Weiter sei ϕ ∈ Hom K (V, W ), und sei ϕ ∗ ∈<br />

Hom K (W, V ) die adjungierte Abbilidung. Dann gilt:<br />

(i) ‖ϕ‖ op = ‖ϕ ∗ ‖ op ,<br />

(ii) ‖ϕ ∗ ◦ ϕ‖ op = ‖ϕ ◦ ϕ ∗ ‖ op = ‖ϕ‖ 2 op.<br />

Beweis. Idee: Kombiniere (ϕ ∗ ) ∗ = ϕ mit den Eigenschaften der Operatornorm aus Satz<br />

10.2.1.<br />

(i) Wegen (ϕ ∗ ) ∗ = ϕ gilt<br />

‖ϕ ∗ (w)‖ 2 V = 〈 ϕ ∗ (w) | ϕ ∗ (w)〉 V<br />

= 〈 ϕ ◦ ϕ ∗ (w) | w〉 W<br />

≤ ‖ϕ ◦ ϕ ∗ (w)‖ W ‖w‖ W ≤ ‖ϕ ◦ ϕ ∗ ‖ op ‖w‖ 2 W<br />

≤ ‖ϕ‖ op ‖ϕ ∗ ‖ op ‖w‖ 2 W ,<br />

also<br />

‖ϕ ∗ (w)‖ V ≤<br />

√<br />

‖ϕ‖ op ‖ϕ ∗ ‖ op ‖w‖ W .<br />

Für ‖w‖ W ≤ 1 erhalten wir


276 10 Normen<br />

‖ϕ ∗ ‖ op =<br />

√<br />

sup ‖ϕ ∗ (w)‖ V ≤ ‖ϕ‖ op ‖ϕ ∗ ‖ op<br />

‖w‖ W ≤1<br />

und dies zeigt ‖ϕ ∗ ‖ op ≤ ‖ϕ‖ op . Auf ϕ ∗ angewendet, liefert dieses Argument<br />

also ‖ϕ‖ op = ‖ϕ ∗ ‖ op .<br />

(ii) Für ‖v‖ V ≤ 1 rechnen wir<br />

‖ϕ‖ op = ‖(ϕ ∗ ) ∗ ‖ op ≤ ‖ϕ ∗ ‖ op ,<br />

‖ϕ ∗ ◦ ϕ(v)‖ V ≤ ‖ϕ ∗ ◦ ϕ‖ op ‖v‖ V ≤ ‖ϕ ∗ ‖ op ‖ϕ‖ op ‖v‖ V<br />

= ‖ϕ‖ 2 op‖v‖ V ≤ ‖ϕ‖ 2 op.<br />

Dies zeigt ‖ϕ ∗ ◦ ϕ‖ op ≤ ‖ϕ‖ 2 op. Umgekehrt hat man<br />

‖ϕ(v)‖ 2 W = 〈 ϕ(v) | ϕ(v)〉 W<br />

= 〈 v | ϕ ∗ ◦ ϕ(v)〉 W<br />

≤ ‖v‖ V ‖ϕ ∗ ◦ ϕ(v)‖ op<br />

≤ ‖v‖ 2 V ‖ϕ ∗ ◦ ϕ‖ V ≤ ‖ϕ ∗ ◦ ϕ‖ op .<br />

Also folgt ‖ϕ‖ 2 op ≤ ‖ϕ ∗ ◦ ϕ‖ op .<br />

⊓⊔<br />

Satz 10.2.4 (Spektralradius). Seien V und W endlich dimensionale K-Vektorräume<br />

mit inneren Produkten 〈 · | · 〉 V<br />

und 〈 · | · 〉 W<br />

sowie ϕ ∈ Hom K (V, W ). Dann ist<br />

ϕ ∗ ◦ ϕ positiv semidefinit und es gilt:<br />

‖ϕ‖ 2 op = max { λ ∣ ∣ λ Eigenwert von ϕ ∗ ◦ ϕ } .<br />

Beweis. Idee: Mit ‖ϕ‖ 2 op = ‖ϕ ∗ ◦ ϕ‖ op führt man den Satz auf die Identität ‖ϕ‖ op =<br />

max { |λ| ∣ } λ Eigenwert von ϕ für selbstadjungierte ϕ ∈ HomK (V, V ) zurück.<br />

Wir haben ‖ϕ‖ 2 op = ‖ϕ ∗ ◦ ϕ‖ op . Wegen<br />

〈 ϕ ∗ ◦ ϕ(v 1 ) | v 2 〉 V<br />

= 〈 ϕ(v 1 ) | ϕ(v 2 )〉 W<br />

= 〈 v 1 | ϕ ∗ ◦ ϕ(v 2 )〉 V<br />

ist ϕ ∗ ◦ ϕ ist selbstadjungiert. Es genügt zu zeigen: Für ϕ ∈ Hom K (V, V ) selbstadjungiert<br />

gilt<br />

‖ϕ‖ op = max{ |λ| | λ Eigenwert von ϕ}.<br />

(∗)<br />

Wenn nämlich (∗) gilt, wendet man dies auf ϕ ∗ ◦ ϕ an und findet<br />

‖ϕ ∗ ◦ ϕ‖ op = max{λ | λ Eigenwert von ϕ ∗ ◦ ϕ},<br />

weil nach Lemma 9.3.5 die eigenwerte von ϕ ◦ ϕ nicht-negativ sind. Damit folgt<br />

dann der Satz.<br />

Beweis von (∗): Sei nun {v 1 , . . . , v n } eine ONB bzgl. der ϕ durch eine Diagonalmatrix<br />

dargestellt wird. D.h. die v 1 , . . . , v n sind alle Eigenvektoren. Seien λ 1 , . . . , λ n<br />

die zugehörigen Eigenwerte (alle reell, weil ϕ selbstadjungiert ist). Wir können annehmen,<br />

dass<br />

|λ 1 | ≥ |λ j | j = 1, . . . , n.<br />

∑<br />

Sei v = n c j v j mit c j ∈ K. Nach Satz 10.1.6 haben wir<br />

j=1<br />

‖v‖ 2 V =<br />

n∑<br />

|c j | 2<br />

j=1


10.2 Die Operatornorm 277<br />

und<br />

‖ϕ(v)‖ 2 V =<br />

≤<br />

∥<br />

n∑<br />

∥<br />

c j ϕ(v j )<br />

j=1<br />

∥ 2 V<br />

=<br />

∥<br />

n∑ ∥ ∥∥<br />

2<br />

c j λ j v j =<br />

j=1<br />

V<br />

n∑<br />

j=1<br />

|c j λ j | 2<br />

} {{ }<br />

|c j| 2 |λ j| 2<br />

n∑<br />

∑<br />

n<br />

|c j | 2 |λ 1 | 2 = |λ 1 | 2 |c j | 2 = |λ 1 | 2 ‖v‖ 2 V .<br />

j=1<br />

j=1<br />

Dies zeigt<br />

und<br />

Andererseits zeigt<br />

‖ϕ(v)‖ V ≤ |λ 1 |‖v‖ V<br />

‖ϕ‖ op ≤ |λ 1 |.<br />

dass ‖ϕ‖ op ≥ |λ 1 |. Also gilt<br />

‖ϕ(v 1 )‖ V = ‖λ 1 v 1 ‖ V = |λ 1 |‖v 1 ‖ V = |λ 1 |,<br />

‖ϕ‖ op = |λ 1 | = max { |λ| ∣ ∣ λ Eigenwert von ϕ<br />

}<br />

.<br />

⊓⊔<br />

Beispiel 10.2.5. Sei ϕ : R 2 → R 2 durch ϕ(v) = Av mit A =<br />

( ) ( ) ( )<br />

x 1 1 x<br />

ϕ =<br />

=<br />

y 0 1 y<br />

A ∗ A =<br />

( 1 0<br />

1 1<br />

Das charakteristische Polynom von A ∗ A ist<br />

d.h. wir haben die Eigenwerte<br />

) ( ) 1 1<br />

=<br />

0 1<br />

( )<br />

x + y<br />

,<br />

y<br />

( ) 1 1<br />

.<br />

1 2<br />

(1 − λ)(2 − λ) − 1 = 1 − 3λ + λ 2 ,<br />

( ) 1 1<br />

gegeben:<br />

0 1<br />

Jetzt zeigt Satz 10.2.4<br />

λ ± = 3 ± √ 5<br />

.<br />

2<br />

‖ϕ‖ op =<br />

√<br />

3 + √ 5<br />

.<br />

2<br />

⊓⊔<br />

Für Anwendungen der Operatornorm auf die Theorie der Differentialgleichungen<br />

beweisen wir noch folgendes Lemma, dass uns erlaubt die Operatornorm einer<br />

Matrix mit der Maximumsnorm (über die Koeffizienten) zu vergleichen. Sei<br />

A ∈ Mat(n × m, K) und ϕ ∈ Hom K (K m , K n ) durch ϕ(v) = Av definiert. Wir setzen<br />

‖A‖ op := ‖ϕ‖ op , wobei wir auf K n und K m jeweils das euklidische innere Produkt<br />

betrachten.


278 10 Normen<br />

Lemma 10.2.6. Es gibt eine positive Konstante c, die von n und m abhängt, so<br />

dass gilt<br />

‖A‖ op ≤ c max i,j {|a ij |} ≤ c ‖A‖ op<br />

für alle A ∈ Mat(n × m, K).<br />

Beweis. Idee: Schachtele Kugeln und Würfel ineinander.<br />

Wir stellen zunächst fest, dass es für jedes n ∈ N strikt positive Konstanten c n<br />

und C n gibt mit<br />

c n max i {|x i |} ≤ ‖x‖ K n ≤ C n max i {|x i |}<br />

für alle x = (x 1 , . . . , x n ) ∈ K n . Dies folgt aus dem Umstand, dass man in jede<br />

euklidische Kugel einen Würfel einbeschreiben kann, aber umgekehrt auch eine euklidische<br />

Kugel in jeden Würfel.<br />

Sei jetzt A = (a ij ) i,j sowie (e 1 , . . . , e n ) und (f 1 , . . . , f m ) die Standardbasen für<br />

K n und K m . Dann gilt a ij = 〈 e i | Af j 〉 K n und die Cauchy–Schwarz–Ungleichung<br />

liefert<br />

|a ij | ≤ ‖e i ‖ K n‖Af j ‖ K n ≤ ‖A‖ op .<br />

Daraus folgt max i,j {|a ij |} ≤ ‖A‖ op .<br />

Wir rechnen<br />

‖Ax‖ K n ≤ C n max i {|(Ax) i |}<br />

{∣ ∣∣ ∑<br />

m ∣}<br />

∣∣<br />

= C n max i a ij x j<br />

j=1<br />

≤ C n max j {|x j |} · m · max i,j {|a ij |}<br />

≤ C n c −1<br />

m ‖x‖ K mm · max i,j {|a ij |}<br />

und dies beweist die Behauptung mit c = mC n c −1<br />

m .<br />

⊓⊔<br />

Übung 10.2.1. Berechne die Operatornorm der Abbildung ϕ: R 3 → R 2 mit ϕ(x, y, z) =<br />

(x−2y+3z, 2x+3y+z), wobei R 3 und R 2 jeweils das euklidische Skalarprodukt als inneres<br />

Produkt haben.<br />

Übung 10.2.2. Sei V = R n (versehen mit dem euklidischen Skalarprodukt) und A ∈<br />

Mat(n × n, R) eine Diagonalmatrix. Zeige, dass<br />

ist.<br />

‖ϕ A‖ op = max { |λ ∣ ∣ : λ Eigenwert von A}<br />

Übung 10.2.3. Sei V = R 2 und W = R 3 , jeweils mit dem euklidischen Skalarprodukt<br />

versehen. Berechne ‖ϕ A‖ op für die folgenden Matrizen A:<br />

⎛ ⎞<br />

1 0<br />

⎝ 0 1 ⎠ ,<br />

1 1<br />

⎛ ⎞<br />

1 0<br />

⎝ 1 0 ⎠ ,<br />

1 0<br />

⎛ ⎞<br />

0 0<br />

⎝ 0 0 ⎠ .<br />

0 1<br />

Übung 10.2.4. Seien V und W C-Vektorräume mit inneren Produkten 〈· | ·〉 V und 〈· | ·〉 W .<br />

(i) Sei {v 1, . . . , v n} eine ONB für V und ϕ ∈ Hom C (V, W ). Setze<br />

‖ϕ‖ HS :=<br />

n∑<br />

‖ϕ(v j)‖ W<br />

j=1<br />

und zeige, dass dies eine Norm auf Hom C (V, W ) definiert (Hilbert–Schmidt Norm).


10.2 Die Operatornorm 279<br />

(ii) Zeige, dass ‖ϕ‖ HS nicht von der Wahl der ONB abhängt.<br />

(iii) Sei ϕ ∗ ∈ Hom C (W, V ) die zu ϕ adjungierte Abbildung. Zeige: ‖ϕ ∗ ‖ HS = ‖ϕ‖ HS.<br />

(iv) Zeige, dass ‖ϕ‖ op ≤ ‖ϕ‖ HS.<br />

Übung 10.2.5. Sei V<br />

⎛<br />

= C<br />

⎞<br />

3 , versehen<br />

⎛ ⎞<br />

mit dem euklidischen Skalarprodukt, und U ⊆ V der<br />

1 0<br />

C-lineare Spann von ⎝ i ⎠ und ⎝ 1 ⎠.<br />

0 i<br />

(i) Zeige, dass U ⊕ U ⊥ = V .<br />

(ii) Definiere eine Abbildung ϕ: V → V durch ϕ(v) = u, wenn v = u + w mit u ∈ U und<br />

w ∈ U ⊥ . Zeige, dass ϕ C-linear ist.<br />

(iii) Gib die Matrix<br />

⎛<br />

von<br />

⎞<br />

ϕ bzgl. der Standardbasis an.<br />

3<br />

(iv) Berechne ϕ ∗ ⎝ 7i ⎠.<br />

−2<br />

(v) Berechne ‖ϕ‖ op und ‖ϕ‖ HS.<br />

Übung 10.2.6. Sei ( V ) = C 2 (, versehen ) mit dem Euklidischen Skalarprodukt und ϕ: V → V<br />

z1 z2<br />

gegeben durch ϕ = .<br />

z 2 0<br />

(i) Berechne ‖ϕ‖ op und ‖ϕ‖ HS.<br />

(ii) Bestimme ϕ ∗ .


Literaturverzeichnis<br />

[Ar91] Artmann, B., Lineare Algebra. Birkhäuser, Basel, 1991<br />

[Be03] Beutelspacher, A., Lineare Algebra. Vieweg, 6. Aufl. 2003<br />

[Br83] Brieskorn, E., Lineare Algebra und analytische Geometrie 1+2, Vieweg, 1983<br />

[DH85] Davis, Ph.J., Hersh, R., Erfahrung Mathematik. Birkhäuser, Basel, 1985<br />

[Fi10] Fischer, G., Lineare Algebra. Vieweg+Teubner, 17. Aufl. 2010<br />

[Fi10b] Fischer, G., Lernbuch Lineare Algebra und Analytische Geometrie. Vieweg+Teubner,<br />

2010<br />

[GH70] Griffith, H.B., Hilton, P.J., Classical Mathematics. Springer, New York, 1970<br />

[Ha72] Halmos, P.R., Naive Mengenlehre. Vandenhoeck und Rupprecht, Göttingen, 1972<br />

[HW10] Huppert, B., Willems, W., Lineare Algebra. Vieweg+Teubner, 2. Aufl. 2010<br />

[If86] Ifrah, G., Universalgeschichte der Zahlen. Campus Verlag, Frankfurt, 1986<br />

[Jä96] Jänich, K., Lineare Algebra. Springer, Berlin, 1996<br />

[Kat98] Katz, V.J., A History of Mathematics. Addison-Wesley, 1998<br />

[Kl72]<br />

Kline, M., Mathematical Thought from Ancient to Modern Times. Oxford University<br />

Press, 1972<br />

[KK71] Klingenberg, W., Klein, P., Lineare Algebra und analytische Geometrie 1+2. B.I.<br />

Mannheim, 1971<br />

[Lo03] Lorenz, F., Lineare Algebra 1+2. Spektrum Akademischer Verlag, 4. Auflage, 2003<br />

[Si98] Singh, S., Fermats letzter Satz. Hanser, München, 1998


Sachverzeichnis<br />

Γ (ϕ), Graph von ϕ, 150<br />

ϕ A, lineare Abbildung, 63<br />

ϕ–Kette, 194<br />

σ P , Permutation, 86<br />

σ k,l , Transposition, 92<br />

β B, assoziierte Form, 222<br />

A adj , adjunkte Matrix, 109<br />

A ϕ, Matrix zu ϕ, 67<br />

Asym(n, K), schiefsymmetrische Matrizen,<br />

134<br />

Ax, Matrix mal Vektor, 65<br />

B β , darstellende Matrix, 221<br />

Bil(V ), Bilinearformen, 218<br />

C, komplexe Zahlen, 4<br />

det(A), Determinante, 98<br />

dim(V ), Dimension, 126<br />

dim K (U), Dimension, 58<br />

e 1, . . . , e n, Standardbasis, 45<br />

End K (V ), Endomorphismen, 121<br />

f σ, Anzahl der Fehlstände, 93<br />

GL(V ), allgemeine lineare Gruppe, 121<br />

GL(n, K), allgemeine lineare Gruppe, 81,<br />

88<br />

(HLGS), homogenes lineares Gleichungssystem,<br />

35<br />

Herm(V ), hermitesche Formen, 232<br />

Herm(n, K), hermitesche Matrizen, 233<br />

Hom K (V, W ), Homomorphismen, 121<br />

Hom K (K n , K m ), Raum der linearen<br />

Abbildungen, 65<br />

i, imaginäre Einheit, 25<br />

III(c, p; q), elementare Zeilenumformung,<br />

31<br />

II(p; c), elementare Zeilenumformung, 31<br />

im (ϕ), Bild, 122<br />

Im, Imaginärteil, 25<br />

ker (ϕ), Kern, 122<br />

I(p, q), elementare Zeilenumformung, 31<br />

K, Körper, 25<br />

K[X], Polynomring, 126<br />

ker(ϕ), Kern, 75<br />

K m×n , Menge der Matrizen, 63<br />

K n , n-dimensionaler Zahlenraum, 27, 40<br />

(LG), lineare Gleichung, 27<br />

(LGS), lineares Gleichungssystem, 27<br />

Mat(m × n, K), Menge der Matrizen, 63<br />

N, natürliche Zahlen, 4<br />

ord, Ordnung einer Permutation, 141<br />

PM n Permutationsmatrizen, 85<br />

Pol(K), Polynomfunktionen, 127, 166<br />

P σ, Permutationsmatrix, 88<br />

Q, rationale Zahlen, 4, 24<br />

R, reelle Zahlen, 4<br />

Rang(ϕ), Rang von ϕ, 145<br />

Re, Realteil, 25<br />

SHerm(V ), schiefhermitesche Formen, 232<br />

SHerm(n, K), schiefhermitesche Matrizen,<br />

233<br />

SSym(V ), schiefsymmetrische Formen, 232<br />

SSym(n, K), schiefsymmetrische Matrizen,<br />

233<br />

Ses(V ), Sesquilinearformen, 218<br />

sign, Signumfunktion, 93<br />

S n, symmetrische Gruppe, 87<br />

span, linearer Spann, 44<br />

span(a 1, . . . , a k ), linearer Spann, 45<br />

Sym(V ), symmetrische Formen, 232<br />

Sym(n, K), symmetrische Matrizen, 233<br />

Z, ganze Zahlen, 4, 24<br />

Z/nZ, Restklassen, 26<br />

A ∗ , adjungierte Matrix, 219<br />

ϕ ∗ , adjungierte Abbildung, 256<br />

A 0 , Annulator, 146<br />

:=, definierende Gleichheit, 14<br />

⊕<br />

j∈M<br />

Vj, direkte Summe, 149<br />

Ṽ ∗ , Dualraum, 217<br />

ϕ ∗ , duale Abbildung, 144<br />

∃, es existiert, 16<br />

∀, für alle, 16<br />

a ∈ M, a ist Element von M, 12<br />

A −1 , inverse Matrix, 78<br />

a −1 , multiplikatives Inverses, 26<br />

B, konjugierte Matrix, 220<br />

∅, leere Menge, 13<br />

{ }, leere Menge, 13<br />

M/R, Menge der Äquivalenzklassen, 136


284 Sachverzeichnis<br />

−a, additives Inverses, 25<br />

A ⊈ B, A ist nicht Teilmenge von B, 13<br />

a ∉ M, a ist nicht Element von M, 13<br />

◦, Verknüpfung, 64<br />

B \ A, B ohne A, 13<br />

∁A, ( Komplement ) von A, 13<br />

1 · · · n<br />

, Permutation, 87<br />

σ(1) · · · σ(n)<br />

P(M), Potenzmenge von M, 13<br />

A × B, kartesisches Produkt, 13<br />

A 1 × . . . × A k , kartesisches Produkt, 14<br />

BA,<br />

∏<br />

Matrizenprodukt, 67<br />

, Produktzeichen, 94<br />

⋂<br />

A ∩ B, Schnitt von Mengen, 13<br />

∑ j∈J<br />

Aj, Schnitt von Mengen, 13<br />

, Summenzeichen, 35<br />

A i,j, Streichmatrix, 107<br />

U 1 + U 2, Summe von Unterräumen, 45<br />

A ⊆ B, A ist Teilmenge von B, 13<br />

V/U, Quotientenraum, 137<br />

⋃<br />

A ∪ B, Vereinigung von Mengen, 13<br />

j∈J<br />

Aj, Vereinigung von Mengen, 13<br />

A ∪ . B, disjunkte Vereinigung von Mengen,<br />

⋃<br />

13<br />

.<br />

j∈J<br />

A j, disjunkte Vereinigung von<br />

Mengen , 13<br />

V λ , verallgemeinerter Eigenraum, 183<br />

V λ , Eigenraum, 163<br />

[x] R, Äquivalenzklasse von x, 136<br />

Abbildung, 10, 14, 23<br />

K-lineare, 65<br />

Abgeschlossenheit<br />

unter Addition, 43<br />

unter Inversenbildung, 91<br />

unter Multiplikation mit Skalaren, 44<br />

Ableitung<br />

partielle, 67<br />

abzählbar unendlich, 126<br />

Addition<br />

in einem Körper, 24<br />

von Vektoren, 40<br />

adjungiert, 255<br />

adjungierte<br />

Matrix, 219<br />

adjunkte Matrix, 109<br />

ähnlich, 159<br />

Äquivalenz, 9<br />

von symmetrischen Matrizen, 236<br />

Äquivalenzklasse, 9, 136<br />

algebraische Struktur, 9<br />

Gruppe, 87<br />

Körper, 24<br />

Ring, 24<br />

Vektorraum, 119<br />

allgemeine lineare Gruppe, 88<br />

eines Vektorraums, 121<br />

Annullator, 146<br />

antilineare Abbildung, 217<br />

Antisymmetrie einer Relation, 15<br />

antisymmetrisch, 134<br />

Assoziativität, 24, 119<br />

der Addition in K n , 40<br />

der Gruppenoperation, 87, 88<br />

des Matrizenprodukts, 68<br />

von Verknüpfungen, 64<br />

ausgeartet, 227<br />

nicht, 227<br />

Auswahlaxiom, 15, 16<br />

Basis, 51, 123<br />

duale, 143, 223<br />

eines linearen Unterraums, 51<br />

kanonische, 51<br />

Standard-, 51<br />

Basisauswahlsatz, 127<br />

für lineare Unterräume, 52<br />

Basisergänzungssatz, 127<br />

für lineare Unterräume, 52<br />

Basiswechsel<br />

lineare Abbildungen, 157<br />

Sesquilinearformen, 224<br />

Berechnung der inversen Matrix, 78<br />

Bessel<br />

Ungleichung, 272<br />

Bessel, Friedrich Wilhelm (1784–1846), 272<br />

bijektive Abbildung, 64<br />

Bild, 122<br />

einer Abbildung, 64<br />

Bilinearform, 218<br />

schiefsymmetrische, 232<br />

symmetrische, 232<br />

Blockdiagonalmatrix, 153<br />

Blockmatrizen, 82<br />

Cantor, Georg (1845–1918), 12<br />

Cauchy<br />

Folge, 138<br />

Cauchy, Augustin Louis (1789–1857), 138<br />

Cauchy–Schwarz–Ungleichung, 271<br />

Cayley, Arthur (1821–1895), 205<br />

charakteristisches Polynom, 172<br />

Cramer<br />

Regel, 109, 110<br />

für Gleichungssysteme, 110<br />

Cramer, Gabriel (1704–1752), 109<br />

darstellende Matrix<br />

einer linearen Abbildung, 129<br />

einer Sesquilinearform, 221<br />

definit<br />

in-, 247<br />

negativ, 247<br />

negativ semi-, 247<br />

positiv, 247<br />

positiv semi-, 247<br />

Determinante


Sachverzeichnis 285<br />

Berechnung über die Kästchen–Regel,<br />

105<br />

Berechnung durch Zeilenumformung, 107<br />

einer linearen Abbildung, 173<br />

einer quadratischen Matrix, 98<br />

Entwicklung nach Spalten oder Zeilen,<br />

107<br />

Diagonalisierbarkeit<br />

hermitescher Formen, 241<br />

hermitescher Matrizen, 240<br />

linearer Abbildungen, 177<br />

Diagonalmatrizen, 74<br />

Dimension, 126<br />

eines linearen Unterraums, 58<br />

endliche, 126<br />

unendliche, 126<br />

Dimensionsformel<br />

für lineare Abbildungen, 84, 141<br />

für lineare Unterräume, 58<br />

für Quotientenräume, 140<br />

für Untervektorräume, 127<br />

direkte Summe<br />

orthogonale, 258<br />

von Vektorräumen, 149, 151<br />

disjunkte Mengen, 13<br />

Distributivgesetz<br />

erstes, für Vektorräume, 119<br />

zweites, für Vektorräume, 119<br />

Distributivität, 24, 40<br />

der Matrizenmultiplikation, 74<br />

Dreiecksungleichung, 269<br />

duale<br />

Abbildung, 144<br />

Basis, 143, 223<br />

Dualraum, 143<br />

Eigenraum, 163<br />

verallgemeinerter, 183<br />

Eigenvektor, 163<br />

Eigenwert, 163<br />

Eindeutigkeit von adjungierten Abbildungen,<br />

256<br />

Eins, 24<br />

Einschränkung<br />

einer Abbildung, 86<br />

Einschränkung<br />

einer Sesquilinearform, 228<br />

Einselement<br />

einer Gruppe, 87<br />

Element einer Menge, 12, 23<br />

elementare<br />

Spaltenumformung, 69<br />

Spaltenumformungen, 31<br />

Zeilenumformung, 69<br />

Zeilenumformungen, 31<br />

Elementarmatrizen, 69<br />

Endomorphismen<br />

eines Vektorraums, 121<br />

Erzeugendensystem, 44, 132<br />

Euklid (ca. 325–265 v.Chr.), 218<br />

euklidischer Vektorraum, 250<br />

euklidisches inneres Produkt, 248<br />

Existenz von adjungierten Abbildungen,<br />

256<br />

Faktorisierung<br />

kanonische, 140<br />

fast überall<br />

Null, 149<br />

Fehlstand<br />

einer Permutation, 93<br />

Fermat, Pierre de (1601–1665), 4<br />

Fibonacci<br />

Zahlen, 181<br />

Fibonacci, Leonardo (1170–1250), 181<br />

Folgen, 126<br />

Fourier<br />

Analyse, 251<br />

Fraenkel, Adolf Abraham (1891–1965), 15<br />

Fundamentalsatz<br />

der Algebra, 4, 175<br />

Funktion, 14<br />

differenzierbare, 120, 122<br />

stetige, 120<br />

Funktionalanalysis, 126<br />

Galois, Evariste (1811–1832), 87<br />

ganze<br />

Zahlen, 24<br />

Gauß<br />

Algorithmus, 7, 28, 31<br />

Gauß, Carl Friedrich (1777–1855), 7, 28<br />

Gerade, 40<br />

affin, 40<br />

Gleichheit von Mengen, 13<br />

Grad<br />

eines Monoms, 170<br />

eines Polynoms, 170<br />

Gram, Jorgen Pedersen (1850–1916), 251<br />

Gram–Schmidt Orthonormalsierung, 251<br />

Graph, 150<br />

Gruppe, 10, 87<br />

allgemeine lineare, 121<br />

Homomorphismus, 91<br />

Isomorphismus, 92<br />

symmetrische, 87<br />

Hamilton, William Rowan (1805–1865),<br />

205<br />

Hauptachsentransformation, 266<br />

Hauptminoren, 248<br />

Kriterium, 248<br />

Hermite, Charles (1822–1901), 232<br />

hermitesche<br />

Matrix, 233<br />

Sesquilinearform, 232<br />

Hesse<br />

Matrix, 248


286 Sachverzeichnis<br />

Hesse, Ludwig Otto (1811–1874), 248<br />

Hilbert–Schmidt Norm, 278<br />

Hintereinanderausführung<br />

von Abbildungen, 64<br />

Hölder<br />

Norm, 269<br />

Ungleichung, 270<br />

Hölder, Ludwig Otto (1859–1937), 269<br />

Homomorphismus<br />

Vektorraum, 121<br />

Horner, William George (1786–1837), 168<br />

Hornerschema, 168<br />

Hülle<br />

lineare, 44, 123<br />

imaginäre Einheit, 25<br />

Imaginärteil, 25<br />

indefinite<br />

hermitesche Form, 247<br />

Index<br />

einer hermiteschen Form, 244<br />

induktiv geordnete Mengen, 16<br />

injektive Abbildung, 64<br />

innere direkte Summe<br />

von Untervektorräumen, 151<br />

inneres Produkt, 250<br />

Invarianz<br />

der Basislänge, 57<br />

einer Summenzerlegung, 152<br />

inverse Matrix, 78<br />

Berechnung, 78, 109<br />

inverses Element<br />

der Addition, 24<br />

der Multiplikation, 24<br />

in einer Gruppe, 87<br />

invertierbare<br />

Abbildung, 64<br />

Matrix, 77<br />

involutiver Körperautomorphismus, 217<br />

isometrisch, 257<br />

Isomorphie, 11<br />

von Gruppen, 92<br />

von Vektorräumen, 121<br />

Jacobi<br />

Matrix, 67<br />

Jacobi, Carl Gustav (1804–1851), 67<br />

Jordan<br />

Block, 179<br />

Normalform, 204, 205<br />

Normalform, reelle, 209<br />

Jordan, Camille (1838–1922), 179<br />

Kästchen–Regel, 105<br />

kanonische<br />

Faktorisierung, 285<br />

kartesisches Produkt, 13<br />

Kern, 122<br />

einer linearen Abbildung, 75<br />

Kette<br />

in einer geordneten Menge, 16<br />

Kirchhoff<br />

Gesetze, 5<br />

Kirchhoff, Gustav (1824–1887), 5<br />

Koeffizienten<br />

einer linearen Gleichung, 27<br />

Koeffizientenmatrix<br />

eines linearen Gleichungssystems, 31<br />

erweiterte, 31<br />

Körper, 24<br />

Homomorphismus, 139<br />

Körperautomorphismus<br />

involutiver, 217<br />

kommutatives Diagramm, 140<br />

Kommutativität, 24<br />

der Addition in K n , 40<br />

der Addition in Vektorräumen, 119<br />

Komplement<br />

einer Menge, 13<br />

komplexe Struktur<br />

auf einem Vektorraum, 211<br />

komplexe Zahlen, 25<br />

Koordinaten<br />

eines Vektors bzgl. einer Basis, 129<br />

Korollar, 15<br />

Kronecker<br />

Delta, 89<br />

Länge<br />

einer Basis, 51<br />

Laplace<br />

Entwicklung, 114<br />

Entwicklungssatz, 108<br />

Laplace, Pierre Simon (1749–1827), 108<br />

leere Menge, 13<br />

Leibniz<br />

Formel, 98<br />

Leibniz, Gottfried Wilhelm (1646–1716),<br />

98<br />

Lemma, 15<br />

von Zorn, 16<br />

Leonardo von Pisa, genannt Fibonacci<br />

(1170–1250), 181<br />

Leontief, Wassily (1906–1999), 6<br />

lineare<br />

Abbildung, 65, 121<br />

Abhängigkeit, 47, 123<br />

Gleichung, 27<br />

Hülle, 44<br />

Relation<br />

nicht-triviale, 48<br />

Unabhängigkeit, 47, 123<br />

Test, 49, 123<br />

linearer<br />

Spann, 44<br />

einer Matrix, 46<br />

Unterraum, 120<br />

lineares


Sachverzeichnis 287<br />

Funktional, 143<br />

Gleichungssystem, 27<br />

homogenes, 35<br />

Linearfaktoren, 175<br />

Linearformen, 143<br />

Linearkombination, 44, 123<br />

Lösungsmenge<br />

eines linearen Gleichungssystems, 27<br />

Matrix, 7, 30<br />

adjunkte, 109<br />

darstellende, 129<br />

darstellende, einer Sesquilinearform, 221<br />

hermitesche, 233<br />

positiv definite, 247<br />

schiefhermitesche, 233<br />

schiefsymmetrische, 233<br />

symmetrische, 233<br />

Matrizenprodukt, 68<br />

maximale Elemente einer Menge, 16<br />

Maximumsnorm, 269<br />

Menge, 9, 12, 23<br />

Minkowski<br />

Form, 218, 248<br />

Ungleichung, 270<br />

Minkowski, Hermann (1864–1909), 218<br />

Monom, 132, 166<br />

Multiplikation<br />

in einem Körper, 24<br />

mit Skalaren, 40<br />

von Matrizen, 68<br />

negativ definite<br />

hermitesche Form, 247<br />

negativ semidefinite<br />

hermitesche Form, 247<br />

Negatives<br />

eines Elements, 25<br />

eines Gruppenelements, 88<br />

eines Vektors, 119<br />

neutrales Element<br />

der Addition, 24<br />

der Multiplikation, 24<br />

einer Gruppe, 87<br />

Newton, Isaac (1642–1727), 3<br />

nicht ausgeartet, 227<br />

nicht-Nullspalte, 28<br />

nilpotent, 194<br />

Norm, 269<br />

Hölder-, 269<br />

Maximums-, 269<br />

p-, 269<br />

Supremums-, 269<br />

normal, 257, 258<br />

Null, 4, 24<br />

fast überall, 149<br />

in einem Vektorraum, 119<br />

Nullspalte, 28<br />

Nullstelle<br />

einer Polynomfunktion, 166<br />

eines Polynoms, 166<br />

o.B.d.A., 48<br />

Operatornorm, 275<br />

Ordnung<br />

einer Permutation, 141<br />

partielle, 15<br />

totale, 16<br />

orthogonal, 257, 258<br />

orthogonales Komplement, 226<br />

Orthogonalraum, 226<br />

Orthogonalsystem, 250<br />

Orthonormalbasis (ONB), 250<br />

Orthonormalsystem (ONS), 250<br />

partielle<br />

Ordnung, 15<br />

Pauli, Wolfgang (1900–1958), 233<br />

Paulische Spinmatrizen, 233<br />

Permutation, 87<br />

Permutationsmatrix, 85<br />

Polarisierung, 235<br />

Polynom, 127<br />

charakteristisches, 172<br />

Polynomdivision, 166<br />

Polynomfunktion, 127, 166<br />

charakteristische, 172<br />

Polynomgleichung, 4<br />

positiv definite<br />

hermitesche Form, 247<br />

Matrix, 247<br />

positiv semidefinite<br />

hermitesche Form, 247<br />

Potenzmenge, 13<br />

Projektion<br />

in End K (V ), 153<br />

kanonische, auf einen Quotientenraum,<br />

138<br />

Proposition, 15<br />

punktweise<br />

Verknüpfung, 120<br />

Quotientenraum, 138<br />

Rang<br />

einer hermiteschen Form, 244<br />

einer linearen Abbildung, 145<br />

einer Matrix, 81<br />

rationale<br />

Zahlen, 24<br />

Realteil, 25<br />

Reflexivität<br />

einer Relation, 15, 136<br />

Regel von Sarrus, 98<br />

Relation, 14, 136<br />

Äquivalenz-, 136<br />

Repräsentant<br />

einer Äquivalenzklasse, 136


288 Sachverzeichnis<br />

Restklasse, 26<br />

Richtungsableitung, 143<br />

Ring, 9<br />

kommutativ<br />

mit Eins, 24<br />

Sarrus<br />

Regel von, 98<br />

Sarrus, Pierre Frederic (1798–1861), 98<br />

Satz<br />

Basisauswahl, 52, 127<br />

Basisergänzung, 52, 127<br />

implizite Funktionen, 149<br />

Isomorphiesatz für Vektorräume, 139<br />

von Cayley–Hamilton, 205<br />

schiefhermitesche<br />

Sesquilinearform, 232<br />

schiefsymmetrisch, 134<br />

Matrix, 114<br />

schiefsymmetrische<br />

Bilinearform, 232<br />

Matrix, 233<br />

Schmidt, Erhard (1876–1959), 251<br />

Schnitt von Mengen, 13<br />

Schranke<br />

obere (für partielle Ordnungen), 16<br />

untere (für partielle Ordnungen), 16<br />

selbstadjungierte<br />

lineare Abbildung, 255, 257<br />

Matrix, 258<br />

Semilinearform, 217<br />

Sesquilinearform, 218<br />

hermitesche, 232<br />

schiefhermitesche, 232<br />

Signum<br />

einer Permutation, 93<br />

Skalar, 40<br />

skalare Multiplikation<br />

für Vektorräume, 119<br />

Skalarprodukt<br />

euklidisches, 218<br />

Spalten<br />

einer Matrix, 30<br />

Spaltenrang, 79<br />

Spaltenumformung, 31<br />

Spaltenvektoren, 46<br />

einer Matrix, 46, 79<br />

Spann<br />

linearer, 44, 123<br />

Spektralradius, 276<br />

Spektralsatz, 263, 265<br />

Spektralzerlegung, 266<br />

Spur<br />

einer linearen Abbildung, 173<br />

einer Matrix, 171<br />

Standardbasis, 51<br />

Streichmatrix, 107<br />

Stufen<br />

einer Matrix, 33<br />

Stufenlänge, 33<br />

Summe<br />

von Funktionen, 120<br />

von linearen Unterräumen, 45, 122<br />

von Vektorräumen, 151<br />

Supremumsnorm, 269<br />

surjektive Abbildung, 64<br />

Sylvester<br />

Trägheitssatz, 243<br />

Sylvester, James Joseph (1814–1897), 243<br />

Symmetrie, 10<br />

-Zerlegung, 234<br />

einer Relation, 136<br />

symmetrische<br />

Bilinearform, 232<br />

Gruppe, 87<br />

Matrix, 233<br />

Teilen mit Rest, 26<br />

Teilmengen, 13<br />

Test, 63<br />

total geordnete Teilmengen, 16<br />

totale Ordnung, 16<br />

Transitivität<br />

einer Relation, 136<br />

Transitivität einer Relation, 15<br />

transponierte<br />

Matrix, 79<br />

Transposition, 92<br />

Triagonalisierbarkeit, 184<br />

triviale Unterräume, 44<br />

k-Tupel, 14<br />

Übergangsmatrix<br />

eines Basiswechsels, 157<br />

Umkehrabbildung, 64<br />

umkehrbare Abbildung, 64<br />

unitär, 257, 258<br />

unitärer Vektorraum, 250<br />

Unterraum<br />

linearer, 43<br />

trivialer, 44<br />

Urbild<br />

einer Abbildung, 64<br />

Vandermonde<br />

Determinante, 106<br />

Matrix, 106<br />

Vandermonde, Alexandre Theóphile<br />

(1735–1796), 106<br />

Vektor, 40<br />

Vektorraum, 119<br />

Unter-, 120<br />

Vereinigung von Mengen, 13<br />

Verknüpfung<br />

von Abbildungen, 64<br />

von Elementen, 9<br />

Wohldefiniertheit, 137


Sachverzeichnis 289<br />

wohlgeordnet, 16<br />

Wohlordnungssatz, 16<br />

Zahlen<br />

ganze, 4, 24<br />

komplexe, 4, 25<br />

natürliche, 4<br />

rationale, 4, 24<br />

reelle, 4<br />

Zahlenraum<br />

n–dimensional, 40<br />

Zeilen<br />

einer Matrix, 30<br />

Zeilenrang, 79<br />

Zeilenstufenform, 33<br />

Zeilenumformung, 31<br />

Zeilenvektoren, 46<br />

einer Matrix, 79<br />

Zermelo, Ernst (1871–1953), 15<br />

Zorn, Max (1906–1993), 16

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!