Skript la.pdf - next-internet.com
Skript la.pdf - next-internet.com
Skript la.pdf - next-internet.com
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Einleitung<br />
Praktische Hinweise für den Umgang mit<br />
Linearer Algebra<br />
Sebastian Reichelt<br />
13. April 2005<br />
http://www.stud.uni-karlsruhe.de/~uxauu/<br />
Hallo! Ich bin Informatikstudent im 4. Semester und Tutor für Lineare Algebra. In diesem „<strong>Skript</strong>”<br />
werde ich (meist im Voraus) in Kurzform die Hinweise aufschreiben, die ich im Tutorium geben<br />
will. Das hat den Vorteil, dass Ihr nicht unbedingt alles mitschreiben müsst und es trotzdem noch<br />
einmal nachlesen könnt. Die Übungsaufgaben, die ich während des Tutoriums vorrechne, werde ich<br />
natürlich nicht abtippen. Wer will, kann sich am Abend vorher die neueste Version des <strong>Skript</strong>s unter<br />
der oben angegebenen URL herunter<strong>la</strong>den, um während des Tutoriums mitlesen zu können.<br />
Selbstverständlich dürft und sollt Ihr anderen Personen von diesem <strong>Skript</strong> erzählen. Der Inhalt der<br />
Linearen Algebra hängt schließlich nicht vom gewählten Tutorium ab, und im Großen und Ganzen<br />
auch nicht von dem Dozenten, der die Vorlesung hält. Was aber wiederum nicht heißt, dass dieses<br />
<strong>Skript</strong> ein Ersatz für die Vorlesung sein kann, wie Ihr schnell merken werdet.<br />
Zum Schluss sei noch gesagt, dass jegliche Haftung für den Inhalt dieses <strong>Skript</strong>s ausgeschlossen<br />
ist. Wenn Ihr Fehler findet, schreibt bitte eine Mail an SebastianR@gmx.de.
Inhaltsverzeichnis<br />
1 Grund<strong>la</strong>gen 1<br />
1.1 Schul- und Uni-Mathematik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />
1.2 Existenz- und Allquantoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />
1.3 Beweisführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3<br />
1.3.1 Voraussetzungen und Folgerungen . . . . . . . . . . . . . . . . . . . . . . . 4<br />
1.3.2 Einsetzen in Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />
1.3.3 Widerspruchsbeweise, Eingrenzen . . . . . . . . . . . . . . . . . . . . . . . 5<br />
1.3.4 Äquivalenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />
1.3.5 Teilmengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
1.3.6 Gleichheit von Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
1.3.7 Gleichheit von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
1.3.8 Alternativen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
1.3.9 Befreiung gebundener Variablen . . . . . . . . . . . . . . . . . . . . . . . . 7<br />
1.3.10 Vollständige Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />
1.3.11 Symmetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />
1.3.12 Gegenbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />
1.3.13 Benutzen aller Voraussetzungen . . . . . . . . . . . . . . . . . . . . . . . . 9<br />
1.3.14 Themenüberschneidungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />
1.3.15 Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />
1.3.16 Spezialfälle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />
1.3.17 Formale Schreibweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />
2 Mengenlehre 12<br />
2.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />
2.2 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />
2.3 Re<strong>la</strong>tionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />
2.4 K<strong>la</strong>ssenbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />
3 Algebra 16<br />
3.1 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />
3.1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />
3.1.2 Erzeugnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />
3.1.3 Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />
3.1.4 Der Homomorphiesatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />
i
3.2 Ringe und Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />
3.2.1 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />
3.2.2 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />
3.2.3 Unterringe und Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . 22<br />
3.2.4 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />
3.2.5 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />
3.3 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />
3.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />
3.3.2 Lösungsmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />
3.3.3 Weiterführende Theorien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30<br />
4 Vektorräume 31<br />
4.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />
4.1.1 Ursprung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />
4.1.2 Axiome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />
4.1.3 Erzeugnis, Linearkombinationen . . . . . . . . . . . . . . . . . . . . . . . . 33<br />
4.1.4 Lineare (Un-)Abhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />
4.1.5 Basen und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35<br />
4.2 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />
4.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />
4.2.2 Multiplikation mit Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . 38<br />
4.2.3 Definition über Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38<br />
4.2.4 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />
4.2.5 Dimensionsformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />
4.3 Summen und Faktorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />
4.3.1 Summen von Vektorräumen . . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />
4.3.2 Faktorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />
4.4 Dualräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42<br />
4.4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42<br />
4.4.2 Duale Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />
4.4.3 Duale Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />
4.4.4 Alternative Definition für Abbildungsmatrizen . . . . . . . . . . . . . . . . 45<br />
4.5 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />
4.5.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />
4.5.2 Formeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46<br />
ii
4.5.3 Aufteilung der Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />
4.5.4 Lap<strong>la</strong>ce-Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />
4.6 Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48<br />
4.6.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48<br />
4.6.2 Einfache Fälle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />
4.6.3 Allgemeine Formeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />
4.7 Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />
4.7.1 Beschreibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />
4.7.2 Berechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />
iii
1 Grund<strong>la</strong>gen<br />
1.1 Schul- und Uni-Mathematik<br />
Viele Erstsemester, mich eingeschlossen, stellen sich kurz nach Vorlesungsbeginn die Frage, warum<br />
sich die Mathematik an Schule und Uni so sehr unterscheiden. Denn wenn man an der Uni gleich<br />
zu Anfang mit völlig neuen Begriffen konfrontiert wird, mit deren Hilfe die Mathematik komplett<br />
und ohne Rückgriff auf bisher Gelerntes („axiomatisch”) aufgebaut werden soll, dann heißt das ja,<br />
dass nichts, was man in der Schule gelernt hat, für die Uni wichtig ist. Und umgekehrt hat man<br />
vielleicht das Gefühl, man kann viele Problemstellungen aus seinem Fachgebiet (wenn es nicht<br />
gerade Mathematik ist) mit den Mitteln der Schulmathematik lösen; wozu braucht man also neue<br />
Grund<strong>la</strong>gen?<br />
Zum Glück wird schnell deutlich, dass das Wissen, das in der Schule vermittelt wurde, doch extrem<br />
wichtig ist. Und natürlich braucht man die neuen Begriffe, die man erst an der Uni hört! Ich sehe<br />
das folgendermaßen: Die Aufgaben, die man in der Schule löst, würden an der Uni unter den Begriff<br />
„Rechnen” fallen. Grund<strong>la</strong>ge für das Rechnen an der Schule sind die natürlichen, rationalen<br />
und reellen Zahlen und gewisse Begriffe, die darauf aufbauen. Bei der Einführung von Begriffen<br />
wird darauf geachtet, dass so wenige davon verwendet werden wie möglich und dass man sie nicht<br />
definiert, sondern erklärt und benutzt. Z.B. werden irgendwann Funktionen eingeführt. Da der Begriff<br />
aber schon recht abstrakt und schwer zu fassen ist, wird versucht, das Wesen der Funktionen<br />
zu vermitteln, indem man Wertetabellen aufstellt und Graphen zeichnet. Das geht, weil man sich auf<br />
reelle Zahlen beschränkt hat. Dann kann man sogar Stetigkeit und Differenzierbarkeit recht einfach<br />
und ohne Grenzwertbegriff anhand des Graphen erklären, auf eine sehr konkrete (wenig abstrakte)<br />
Art und Weise.<br />
Dieses Konzept hat jedoch auch eine Schattenseite, nämlich dass man Voraussetzungen für Sätze<br />
und Definitionen gröber angeben muss als nötig. An der Uni wird deshalb untersucht, welche Voraussetzungen<br />
man wirklich braucht. So kommt man zu den erwähnten neuen Begriffen, wie dem der<br />
„Gruppe”, den Ihr wahrscheinlich mittlerweile kennt. Man wird sogar Funktionen selbst in Funktionen<br />
einsetzen, was sehr unintuitiv und verwirrend sein kann; besonders dann, wenn man mit der<br />
jeweiligen Schreibweise noch nicht so vertraut ist. (Wer mir das jetzt nicht g<strong>la</strong>ubt, soll bitte in ein<br />
paar Wochen noch einmal diese Zeilen lesen.)<br />
Ein persönliches Ziel meines Tutoriums ist, die Frustration abzubauen, die sich durch die vielen neuen<br />
Begriffe erfahrungsgemäß am Anfang einstellt. Denn sie darf kein Grund sein, das Handtuch zu<br />
werfen, selbst wenn man die Vorlesung nicht mehr versteht und/oder die Übungsaufgaben zu schwer<br />
sind. Wenn man dabei bleibt, wird der Stoff irgendwann einfacher, weil sich die Begriffe eingeprägt<br />
haben und es wieder stärker darum geht, Zahlenbeispiele auszurechnen, bzw. die Lösungswege zu<br />
erlernen.<br />
1.2 Existenz- und Allquantoren<br />
Vielen von Euch werden die Symbole „∃” und „∀” wahrscheinlich noch nicht vertraut sein, und an<br />
der Uni kommen sie plötzlich fast in jedem Satz vor. Man kann sie als „es gibt” und „für alle” lesen;<br />
das macht die Sache in diesem Fall wesentlich einfacher. Aber weshalb kommen sie in der Schule<br />
kaum vor?<br />
In der Schule könnte eine Aufgabe <strong>la</strong>uten: „Geben Sie die Lösungen der Gleichung x 4 = 1 an.” Jeder<br />
Schüler erkennt sofort, dass „x ∈ {1, −1}” die gesuchte Antwort ist. Etwas formaler ausgedrückt<br />
1
könnte man schreiben: „x4 = 1 ⇒ x ∈ {1, −1}”. Aber diese Aussage ist nicht besonders schön,<br />
denn ihr Wahrheitswert hängt davon ab, was „x” ist. („x” ist in diesem Fall eine so genannte „freie<br />
Variable”.) Für x = 1 ∈ R ist sie offensichtlich wahr, auch für x = 2 ∈ R. (Erinnert Euch an die<br />
Definition von „ ⇒ ”!) Sie ist eben für alle x ∈ R wahr. Aber für x = i ∈ C z.B. nicht! Also wäre die<br />
Aussage „∀x : (x4 = 1 ⇒ x ∈ {1, −1})” in der Tat eine falsche Aussage (außerdem sind die Potenz<br />
und die Symbole „1” und „−” gar nicht für beliebige x definiert), während „∀x ∈ R : (x4 = 1 ⇒<br />
x ∈ {1, −1})” wahr ist. Da das Ziel der Mathematik ist, wahre Aussagen aufzustellen, sollten in<br />
Sätzen eigentlich keine freien Variablen vorkommen. (Sie müssen allerdings nicht unbedingt durch<br />
Existenz- und Allquantoren gebunden sein. Auch „ 2<br />
i = 3” ist eine wahre Aussage.)<br />
Etwas eigenartig ist, dass die Quantoren nie wirklich definiert werden. Offenbar fühlen sich Einige<br />
(nicht gerade Mathematiker) dadurch ermutigt, jede Menge Unsinn darüber zu behaupten. Ich habe<br />
deshalb im Internet recherchiert und dort wenigstens für endliche Mengen eine Art induktive Definition<br />
gefunden. Dazu zunächst ein analoges Beispiel: Die induktive Definition der Summe („ ”)<br />
sollte bekannt sein, nämlich in etwa so:<br />
0<br />
f(i) := 0 und<br />
i=1<br />
i=1<br />
n n−1<br />
f(i) := f(i) + f(n) für n ∈ N>0<br />
i=1<br />
Zumindest für endliche Indexmengen I kann man analog auch <br />
f(i) definieren. Ebenso sollte das<br />
Produkt („ ”) bekannt sein als das Analogon der Multiplikation. Das führt zu folgender Tabelle, in<br />
der man auch die Existenz- und Allquantoren einordnen kann:<br />
i=1<br />
i∈I<br />
Symbol<br />
<br />
<br />
Verknüpfung<br />
+<br />
·<br />
Neutrales Element<br />
0<br />
1<br />
∀ ∧ (und) wahr<br />
∃ ∨ (oder) falsch<br />
Z.B. heißt „ ∀ (i < 3)” (was üblicherweise geschrieben wird als „∀i ∈ {1, 2} : i < 3”) das<br />
i∈{1,2}<br />
Gleiche wie „(1 < 3) ∧ (2 < 3)”. Folgende Regeln ergeben sich ganz automatisch:<br />
• ¬(∀x ∈ M : p(x)) ⇔ (∃x ∈ M : ¬p(x))<br />
• ¬(∃x ∈ M : p(x)) ⇔ (∀x ∈ M : ¬p(x))<br />
„¬” bedeutet „nicht”. Es ist k<strong>la</strong>r, dass diese Regeln auch für unendliche Mengen gelten sollen. Des<br />
Weiteren gilt für eine beliebige „größere” Menge N (M ⊂ N):<br />
• (∀x ∈ M : p(x)) ⇔ (∀x ∈ N : (x ∈ M ⇒ p(x)))<br />
• (∃x ∈ M : p(x)) ⇔ (∃x ∈ N : (x ∈ M ∧ p(x)))<br />
Man beachte den Unterschied bei „∀” und „∃”!<br />
2
Die gedankliche Übertragung auf unendliche und „allumfassende” Mengen liefert dann die wichtigen<br />
Regeln:<br />
1. ¬(∀x : p(x)) ⇔ (∃x : ¬p(x))<br />
2. ¬(∃x : p(x)) ⇔ (∀x : ¬p(x))<br />
3. (∀x ∈ M : p(x)) ⇔ (∀x : (x ∈ M ⇒ p(x)))<br />
4. (∃x ∈ M : p(x)) ⇔ (∃x : (x ∈ M ∧ p(x)))<br />
In Textform sollten sie jedem sofort einleuchten:<br />
1. Dass p(x) nicht für alle x gilt, heißt genau, dass es ein x gibt, für das p(x) nicht gilt.<br />
2. Dass es kein x gibt, für das p(x) gilt, heißt genau, dass p(x) für alle x falsch ist.<br />
3. Dass p(x) für alle x aus M gilt, heißt genau, dass p(x) gilt, falls x aus M stammt (und für alle<br />
anderen x wird keine Aussage gemacht).<br />
4. Dass es ein x aus M gibt, für dass p(x) gilt, heißt genau, dass es ein x gibt, das in M liegt und<br />
für das p(x) gilt.<br />
Wer also etwas Anderes behauptet (wie „(∀x ∈ M : p(x)) ⇔ (∀x : (x ∈ M ∧ p(x)))”), liegt damit<br />
auf jeden Fall falsch.<br />
Die meisten Sätze fangen in etwa so an: „Sei x ∈ R (beliebig). Dann gilt: . . . ”. Statt dessen könnte<br />
man auch sagen: „Für alle x ∈ R gilt: . . . ”, bzw. „∀x ∈ R : . . . ”. Auf diese Weise kann man die öde<br />
Sprache der Mathematik etwas auflockern, ohne dabei an Exaktheit einzubüßen. Wichtig ist, dass die<br />
Formulierung eine genau definierte formale Entsprechung hat, und dass einem geübten Leser sofort<br />
k<strong>la</strong>r ist, wie die formale Entsprechung <strong>la</strong>utet. (Allerdings gibt es scheinbar in der Logik einen Satz,<br />
der besagt: „Wenn eine Aussage für ein beliebiges x gilt, dann gilt sie für alle x.” Die Entsprechung<br />
gilt hier also wahrscheinlich nicht per Definition.)<br />
So weit zu meinen persönlichen Theorien. Hoffentlich messt Ihr den Existenz- und Allquantoren<br />
genug Bedeutung bei, um meine <strong>la</strong>ngen Ausführungen zu entschuldigen. Ich werde Euch bei Gelegenheit<br />
dafür danken.<br />
1.3 Beweisführung<br />
Kommen wir jetzt zum ersten wirklich praktischen Teil. Während der gesamten Studienzeit werdet<br />
Ihr wohl oder übel Beweise führen müssen. Erfahrungsgemäß sagt einem aber niemand, wie das<br />
geht, sondern die Dozenten rechnen Beweise vor in der Hoffnung, dass man ihre Technik irgendwann<br />
erlernt. Keine Panik, es gibt durchaus Verfahren, die in den meisten Fällen irgendwann zum Ziel<br />
führen. Die ersten erscheinen wahrscheinlich trivial.<br />
3
1.3.1 Voraussetzungen und Folgerungen<br />
Ein Beweis hat normalerweise die Form eines Weges. Man fängt an einem bestimmten Punkt an,<br />
versucht, ein Ziel anzusteuern, und hofft darauf, nicht zwischendurch wieder an einen bekannten<br />
P<strong>la</strong>tz zurückzukommen. Einen großen Unterschied gibt es schon: Auf dem gesamten Weg gewinnt<br />
man immer mehr Erkenntnisse, d.h. man kann sich dem Ziel eigentlich gar nicht weiter entfernen.<br />
Konkret sieht das so aus:<br />
Zunächst schreibe ich alle Voraussetzungen auf, die mir auf den Weg gegeben wurden; das ist mein<br />
Ausgangspunkt: „Sei G eine Gruppe, . . . ”. Nun gehe ich in einzelnen Schritten in eine Richtung,<br />
die mir sinnvoll erscheint; die Schritte trenne ich durch einen Folgepfeil („ ⇒ ”). In jedem Schritt<br />
darf ich die gesamten Voraussetzungen benutzen, das dürfte jedem einleuchten. Ich darf aber auch<br />
alle Aussagen benutzen, die ich auf dem Weg schon gemacht habe. Am besten nenne ich mal ein<br />
Beispiel:<br />
Sei G eine Gruppe, x ∈ G, y1 und y2 invers zu x. Dann gilt:<br />
y1 ·x = 1G ∧x·y2 = 1G ⇒ (y1 ·x)·y2 = 1G ·y2 ⇒ y1 ·(x·y2) = y2 ⇒ y1 ·1G = y2 ⇒ y1 = y2<br />
x·y2=1G<br />
So<strong>la</strong>nge man wie hier gegebenenfalls die benutzte Tatsache unter den Folgepfeil schreibt, sollte dies<br />
anerkannt werden, denn man hat vorher hergeleitet, dass sie unter den Voraussetzungen richtig ist.<br />
Es ist übrigens eine Konvention, „A ⇒ B ⇒ C” für „(A ⇒ B) ∧ (B ⇒ C)” zu schreiben,<br />
genau wie man gerne „a = b = c” für „(a = b) ∧ (b = c)” schreibt. Das macht in beiden Fällen<br />
wegen der Transitivität Sinn (d.h. es gilt auch A ⇒ C bzw. a = c). Etwas gefährlicher ist da schon<br />
„A ⇔ B ⇒ C”, was für „(A ⇔ B) ∧ (B ⇒ C)” steht. Denn wenn man es übertreibt, z.B.<br />
„A ⇐ B ⇔ C ⇒ D”, dann kommt Unsinn dabei heraus. In diesem Beispiel könnte man weder<br />
D aus A folgern noch umgekehrt.<br />
1.3.2 Einsetzen in Definitionen<br />
Der Schritt von „y1 invers zu x” nach „y1 · x = 1G” im obigen Beweis ist eigentlich trivial, denn<br />
es wird nur die Definition des „inversen Elements” benutzt. Trotzdem lohnt es sich mehr als man<br />
g<strong>la</strong>ubt, den Schritt explizit hinzuschreiben. Denn nur in der ausgeschriebenen Formel sieht man, wie<br />
man weiter verfahren muss; von einer Aufgabenstellung wie „Sei G eine Gruppe, x ∈ G, y1 und y2<br />
invers zu x. Zeigen Sie: y1 = y2.” wird man oft zunächst überrumpelt.<br />
Es bietet sich manchmal an, nicht direkt die Definition zu benutzen, sondern einen Satz, der sich<br />
daraus ableitet. Das drängt sich besonders auf, wenn der Satz zu einer alternativen Definition führt.<br />
Z.B. gibt es für eine Funktion f die Definition:<br />
Aber es gilt die Äquivalenz:<br />
f ist bijektiv :⇔ f ist injektiv ∧ f ist surjektiv<br />
f ist bijektiv ⇔ f −1 existiert<br />
Das wäre also eine alternative Definition. Ist als Voraussetzung gegeben, dass f bijektiv ist, dann<br />
braucht man viel öfter die Existenz von f −1 als die Injektivität oder Surjektivität, und fängt den<br />
Beweis lieber so an: „f ist bijektiv ⇒ f −1 existiert ⇒ . . . ”<br />
4
Besondere Aufmerksamkeit verdienen Mengen, die über Bedingungen definiert sind: M := {x :<br />
p(x)} mit einem Prädikat p. Für eine Variable m ist dann m ∈ M äquivalent zu p(m) und m /∈ M<br />
äquivalent zu ¬p(m).<br />
Ist z.B. zu zeigen, dass Kern f ⊂ M ist, dann macht man das normalerweise so: „Sei k ∈ Kern f<br />
beliebig. f(k) = 0 ⇒ . . . ⇒ k ∈ M”. Hier wurde die Definition von Kern f benutzt, nämlich<br />
Kern f := {x ∈ Def f : f(x) = 0}. Das Prädikat p ist in diesem Fall p(x) ≡ (x ∈ Def f ∧ f(x) =<br />
0).<br />
Manchmal soll man die Abgeschlossenheit einer Menge M bezüglich einer Verknüpfung „⋆” zeigen.<br />
Ist M definiert durch M := {x : p(x)} wie oben, dann geht das im Allgemeinen so: Seien m1, m2 ∈<br />
M. p(m1) ∧ p(m2) ⇒ . . . ⇒ p(m1 ⋆ m2) ⇒ m1 ⋆ m2 ∈ M<br />
1.3.3 Widerspruchsbeweise, Eingrenzen<br />
Wieder etwas, das in der Theorie völlig k<strong>la</strong>r ist: Wenn ich „A ⇒ B” beweisen will, kann ich<br />
statt dessen auch „¬B ⇒ ¬A” zeigen, denn das ist gerade äquivalent. Im weiteren Sinne wird<br />
auch diese Technik „Widerspruchsbeweis” genannt. Man sollte stets beide Varianten ausprobieren,<br />
d.h. man fängt bei A an und folgert in Richtung B, und fängt außerdem bei ¬B an und folgert in<br />
Richtung ¬A. Wenn eine der beiden Varianten einfacher scheint, dann führt sie vielleicht auch eher<br />
zum Ziel. Es lässt sich jedoch jeder Beweis komplett umkehren, indem man einfach jede Aussage<br />
negiert und die Folgepfeile umdreht.<br />
Mit etwas mehr Erfahrung kann man Probleme auf diese Weise auch eingrenzen, obwohl man noch<br />
keinen vollständigen Lösungsweg kennt. Führt man nämlich gleichzeitig beide Varianten durch, kann<br />
man sich quasi in der Mitte treffen. Man setzt dazu sowohl A als auch ¬B voraus und folgert daraus<br />
einen Widerspruch.<br />
Widerspruchsbeweise beginnen immer mit einer besonders ausgezeichneten Annahme. In diesem<br />
Fall würde man schreiben: „Annahme: ¬B. Daraus folgt: . . . ” Kann man direkt das Gegenteil der<br />
Voraussetzung A folgern, dann reicht das schon aus. Greift man auf die Eingrenz-Technik zurück,<br />
dann sollte man am Schluss noch unbedingt schreiben: „. . . im Widerspruch zur Annahme”. Ein<br />
Beispiel findet sich unter 1.3.17.<br />
1.3.4 Äquivalenz<br />
Das naheliegendste Verfahren, um die Äquivalenz von Aussagen zu zeigen, sind Äquivalenzumformungen,<br />
wie man sie aus der Schule kennt. Überraschenderweise ist es in der Linearen Algebra<br />
oft viel vorteilhafter, nur Folgerungen zu benutzen. Um „A ⇔ B” zu zeigen, zeigt man sowohl<br />
„A ⇒ B” als auch „B ⇒ A”, und zwar getrennt.<br />
Soll man die Äquivalenz mehrerer Aussagen zeigen, dann kann man dies mit Hilfe eines Zirkelschlusses<br />
tun. Am besten notiert man sich in der Aufgabenstellung mit Pfeilen, welche Schlüsse<br />
machbar sind. Das ist ein Graph, bei dem jeder Zyklus bedeutet, dass die jeweiligen Aussagen äquivalent<br />
sind. Erhält man einen Zyklus, der nicht alle Aussagen umfasst, kann man immer noch die<br />
Äquivalenz der übrigen Aussagen zu den Aussagen im Zyklus zeigen.<br />
Beispiel: Man soll „A ⇔ B ⇔ C ⇔ D” zeigen. Sind die Schlüsse „A ⇒ B”, „B ⇒ C”<br />
und „C ⇒ A” machbar, dann hat man einen Zyklus „A ⇒ B ⇒ C ⇒ A” erzeugt und damit<br />
„A ⇔ B ⇔ C” gezeigt. Jetzt reicht es, D aus irgendeiner der anderen Aussagen zu folgern, und<br />
irgendeine Aussage aus D, also z.B. „A ⇒ D” und „D ⇒ B”.<br />
5
1.3.5 Teilmengen<br />
Soll man „A ⊂ B” zeigen, dann ist es fast immer sinnvoll, sich ein bestimmtes Element aus A<br />
„herauszunehmen” und zu zeigen, dass es auch in B liegt: „Sei a ∈ A beliebig. Dann: . . . ⇒ a ∈ B”<br />
Das reicht als Beweis auch schon völlig aus; jedem Korrektor sollte k<strong>la</strong>r sein, dass damit „A ⊂ B”<br />
gezeigt wurde. Der Grund, warum dies einfacher ist als Mengenumformungen, ist, dass Mengen<br />
immer über ihre Elemente charakterisiert werden. In manchen Fällen ist dies offensichtlich; unter<br />
1.3.2 gab es ein solches Beispiel. Manchmal ist es aber auch nicht so leicht zu sehen:<br />
„Sei G eine Gruppe, H1 und H2 Untergruppen mit H1 ∪ H2 = G. Zeigen Sie: G ⊂ H1 ∨ G ⊂ H2.”<br />
Scheinbar werden hier nur Aussagen über die Mengen selbst gemacht. Aber Moment: Wie ist denn<br />
„H1 ∪ H2” definiert? Richtig: H1 ∪ H2 = {h : h ∈ H1 ∨ h ∈ H2}. Es hilft also doch, ein spezielles<br />
g aus G in der Hand zu haben, denn dann ist schon mal g ∈ H1 oder g ∈ H2. Das ist natürlich keine<br />
Überraschung.<br />
1.3.6 Gleichheit von Mengen<br />
Wie bei der Äquivalenz von Aussagen (1.3.4) bietet es sich fast immer an, die beiden Richtungen<br />
getrennt zu behandeln. Das Beispiel von 1.3.5, etwas abgeändert:<br />
„Sei G eine Gruppe, H1 und H2 Untergruppen mit H1 ∪ H2 = G. Zeigen Sie: G = H1 ∨ G = H2.”<br />
„Hi ⊂ G” (i ∈ {1, 2}) ist aber trivial; es bleibt also noch „G ⊂ Hi” für ein i, wie oben.<br />
1.3.7 Gleichheit von Funktionen<br />
Für zwei Funktionen fi : D → R (i = 1, 2) ist die Gleichheit definiert durch f1 = f2 :⇔ ∀x ∈ D :<br />
f1(x) = f2(x). Um sie zu zeigen, greift man sich also wieder ein beliebiges x ∈ D heraus und zeigt<br />
erst einmal f1(x) = f2(x). Da x beliebig war, ist dann f1 = f2.<br />
Oft soll man zeigen, dass eine bestimmte Funktion die Nullfunktion ist. Das ist eine kleine Falle,<br />
denn „Zeigen Sie: f = 0” sieht sehr unscheinbar aus. Man muss zeigen, dass f alle x aus dem<br />
Definitionsbereich auf 0 abbildet, also wieder so: „Sei x ∈ Def f beliebig. Dann: . . . ⇒ f(x) = 0”<br />
1.3.8 Alternativen<br />
Enthält die Aussage, die man zeigen soll, zwei durch „oder” getrennte Alternativen, dann muss man<br />
nur die Negation von einer der Alternativen annehmen und die andere zeigen. Denn ist diese Annahme<br />
falsch, also die entsprechende Alternative richtig, dann stimmt die gesamte Aussage sowieso<br />
schon.<br />
Um „G ⊂ H1 ∨ G ⊂ H2” im Beispiel von 1.3.5 zu zeigen, kann ich annehmen, dass G ⊂ H1 ist<br />
(d.h., dass es ein Element in G gibt, das nicht in H1 liegt), und unter dieser Annahme zeigen, dass<br />
G ⊂ H2 gilt. Denn wenn G ⊂ H1 ist, dann bin ich schon fertig.<br />
Natürlich gibt es auch hier die Möglichkeit des Widerspruchsbeweises, d.h. man nimmt an, dass<br />
beide Alternativen falsch sind, und folgert, dass dann die Voraussetzungen nicht erfüllt sind.<br />
6
1.3.9 Befreiung gebundener Variablen<br />
„∃x. . . ” und „∀x. . . ” binden jeweils die Variable x. Außerhalb des Ausdrucks hat x eigentlich keine<br />
Bedeutung, man könnte sie sogar theoretisch neu belegen. Folgendes Beispiel wäre formal korrekt:<br />
∃y ∈ Bild f : z = y ⇒ ∃y ∈ Def f : z = f(y)<br />
Hier ist y in der ersten Aussage das, was f(y) in der zweiten Aussage ist.<br />
So etwas ist aber überhaupt nicht schön und kann sogar Punktabzug geben! Aus Gründen der Übersichtlichkeit<br />
werden Variablen nämlich oft auch außerhalb ihres Geltungsbereichs benutzt. Hat man<br />
die Existenz eines Objekts bewiesen, das einer bestimmten Bedingung genügt, dann will man dieses<br />
oft benennen, um damit weiterrechnen zu können. Der Existenzquantor hat dem Objekt aber schon<br />
vorläufig einen Namen gegeben, den man nach Möglichkeit beibehalten sollte:<br />
∃y ∈ Bild f : z = y. Für dieses y gilt: ∃x ∈ Def f : y = f(x), und damit für dieses x: z = f(x)<br />
Das reißt den Beweis jedoch stark auseinander, und man verfällt leicht in immer mehr natürliche<br />
Sprache. Man könnte versuchen, es mit mathematischen Symbolen zu schreiben, also so:<br />
∃y ∈ Bild f : z = y ⇒ ∃x ∈ Def f : y = f(x) ⇒ z = f(x)<br />
Es ist jedoch nicht k<strong>la</strong>r, wie dies zu verstehen ist. Zunächst einmal gibt es jeweils zwei verschiedene<br />
Möglichkeiten, wie man K<strong>la</strong>mmern setzen könnte:<br />
1. ∃y ∈ Bild f : (z = y ⇒ ∃x ∈ Def f : y = f(x))<br />
2. (∃y ∈ Bild f : z = y) ⇒ (∃x ∈ Def f : y = f(x))<br />
Die erste Version drückt nicht das Richtige aus. Sie wäre z.B. auch dann wahr, wenn z = y für kein<br />
y ∈ Bild f gelten würde. Die zweite Version kann aber auch nicht richtig sein, denn y ist eigentlich<br />
außerhalb der ersten K<strong>la</strong>mmer gar nicht mehr definiert.<br />
Man braucht also eine neue Schreibweise. Mein persönlicher Vorsch<strong>la</strong>g ist, die Folgerung versetzt<br />
unter den Term im Existenzquantor zu schreiben:<br />
∃ y ∈ Bild f<br />
<br />
: z = y<br />
⇒ ∃x ∈ Def f : y = f(x)<br />
<br />
⇒ z = f(x)<br />
z=y<br />
Das sind die gleichen Symbole wie oben, nur anders p<strong>la</strong>tziert. Nun ist etwas k<strong>la</strong>rer, auf welche Weise<br />
gefolgert wird. Das Ergebnis soll übrigens sein: ∃x ∈ Def f : z = f(x)<br />
Das Ganze funktioniert übrigens so nur mit Existenzquantoren und nur eingeschränkt mit Allquantoren.<br />
(Warum wohl?) Glücklicherweise liefert die Technik des Widerspruchsbeweises eine Möglichkeit,<br />
Allquantoren anhand der bekannten Regeln in Existenzquantoren umzuwandeln:<br />
„Sei f : D → R eine injektive Funktion. Zeigen Sie: ∀M ⊂ D : f −1 (f(M)) = M.”<br />
Die Injektivität ist definiert als: ∀x1, x2 ∈ D, f(x1) = f(x2) : x1 = x2. Die Negation davon ist:<br />
∃x1, x2 ∈ D, x1 = x2 : f(x1) = f(x2). Und auch die Negation von ∀M ⊂ D : f −1 (f(M)) = M<br />
liefert einen Existenzquantor: ∃M ⊂ D : f −1 (f(M)) = M. Fangen wir also damit an. Wegen<br />
M ⊂ f −1 (f(M)) ist dann f −1 (f(M)) ⊂ M, also gibt es ein x ∈ f −1 (f(M)) mit x /∈ M. Nach der<br />
Definition von f −1 ist f(x) ∈ f(M). Für jedes Element z aus f(M) (insbesondere für z = f(x))<br />
7
gibt es aber auch ein y ∈ M, so dass z = f(y) ist, d.h. f(x) = f(y). Wegen x /∈ M und y ∈ M ist<br />
x = y. Damit ist f nicht injektiv.<br />
Es ist hoffentlich k<strong>la</strong>r, dass es in Wirklichkeit keine Rolle spielt, wie gebundene Variablen heißen.<br />
Die Aussage, die hier gezeigt wurde, war: „∃x, y ∈ D, x = y : f(x) = f(y)”. Das ist äquivalent zu<br />
„∃x1, x2 ∈ D, x1 = x2 : f(x1) = f(x2)”.<br />
1.3.10 Vollständige Induktion<br />
Das Prinzip der vollständigen Induktion möchte ich hier nur der Vollständigkeit halber erwähnen.<br />
Es eignet sich gut, um eine Aussage zu zeigen, die von einer natürlichen Zahl n abhängt. Man zeigt<br />
sie dann z.B. für n = 1 und sagt: „Wenn die Aussage für n = n0 gilt (n0 ∈ N), dann gilt sie auch für<br />
n = n0 + 1.” Man kann auch voraussetzen, dass die Aussage für alle n ≤ n0 gilt, aber das braucht<br />
man sehr selten. Generell muss man immer die Induktionsvoraussetzung benutzen; darauf sollte man<br />
als Erstes hinarbeiten.<br />
Vollständige Induktion übt man im Laufe der ersten Semester sehr oft. Wer sich an den Übungen<br />
beteiligt, bekommt in den K<strong>la</strong>usuren dadurch wichtige Punkte geschenkt.<br />
1.3.11 Symmetrie<br />
Ich denke, in der Zwischenzeit habt Ihr die Formulierung „o.B.d.A.” („ohne Beschränkung der Allgemeinheit”<br />
bzw. „ohne Bedenken des Autors”) kennen gelernt. Tatsächlich gibt es einige Situation,<br />
in denen es gerechtfertigt ist, Voraussetzungen zu treffen, die nicht in der Aufgabenstellung gegeben<br />
sind.<br />
Beispiel: In der Aufgabenstellung ist eine endliche Menge reeller Zahlen ({a1, a2, . . . , an}) gegeben,<br />
deren Reihenfolge für das Resultat keine Rolle spielt. Man hätte sie gerne in aufsteigender Reihenfolge<br />
sortiert. Warum nicht? Denn wenn sie es nicht sind, kann man sie sortieren, den Beweis bzw.<br />
die Rechnung auf den sortierten Zahlen durchführen, und das Ergebnis auch auf die unsortierten<br />
Zahlen anwenden, da die Reihenfolge ja keine Rolle spielte.<br />
Wichtig ist, dass es in der Aufgabenstellung eine Symmetrie im weitesten Sinne gibt. Was ich mit<br />
„Symmetrie” meine, wird vielleicht eher an folgendem Beispiel deutlich:<br />
„Sei entweder a > 0 und b < 0, oder a < 0 und b > 0. Zeigen Sie: a · b < 0.”<br />
Hier wäre es völlig legitim, am Anfang „o.B.d.A. a > 0, b < 0” zu schreiben. Am besten schreibt<br />
man am Ende noch etwas wie: „Der Fall a < 0, b > 0 folgt aus Symmetriegründen wegen der<br />
Kommutativität der Multiplikation.”<br />
1.3.12 Gegenbeispiele<br />
Ein Gegenbeispiel gibt man immer dann an, wenn man zeigen will, dass eine bestimmte Aussage, die<br />
in mathematischer Schreibweise ein Allquantor-Term wäre, falsch ist. Theoretisch gesehen wandelt<br />
man dabei den Allquantor in einen Existenzquantor um, nach der entsprechenden Regel.<br />
∀x ∈ R : x > 0 ist falsch, denn x = 0 ist ein Gegenbeispiel. (Wow!)<br />
8
1.3.13 Benutzen aller Voraussetzungen<br />
In Übungs- und K<strong>la</strong>usuraufgaben werden Voraussetzungen normalerweise nur dann angegeben,<br />
wenn sie auch wirklich wichtig sind, d.h. wenn man sie irgendwo braucht. Die Aufgabe wird nicht<br />
von einer „abelschen Gruppe” sprechen, wenn die Kommutativität für das Resultat keine Rolle spielt.<br />
Dementsprechend sollte man versuchen, „blind” die Voraussetzungen anzuwenden, wenn man sonst<br />
keine Idee hat.<br />
Wenn man sich nicht sicher ist, welchen Einfluss die einzelnen Voraussetzungen haben, könnte es<br />
helfen, sie wegzu<strong>la</strong>ssen und jeweils ein Gegenbeispiel zu finden. Um bei dem Beispiel zu bleiben:<br />
Man nehme z.B. die Gruppe S3, weil sie nicht abelsch ist, und schaue, warum die zu zeigende<br />
Aussage dann nicht mehr gilt.<br />
Es gibt eine Ausnahme von dieser Regel: Bei Vektorräumen wird oft vorausgesetzt, dass sie endlichdimensional<br />
sind. Das hilft beim Beweisen, weil man sich zunächst eine Basis basteln kann. Aber<br />
die Aussage könnte trotzdem für alle Vektorräume gelten; sie ist dann eben nur schwerer zu zeigen.<br />
Dementsprechend sollte man nie versuchen, ein unendlichdimensionales Gegenbeispiel zu finden;<br />
das wäre sowieso viel zu schwer.<br />
Besondere Aufmerksamkeit sollte man auf die Ergebnisse der vorherigen Aufgabenteile richten.<br />
Tei<strong>la</strong>ufgaben hängen meistens zusammen, wobei es nicht immer die direkt aufeinander folgenden<br />
Teile sein müssen.<br />
1.3.14 Themenüberschneidungen<br />
Manchmal überschneiden sich verschiedene Teilgebiete der Mathematik. Wo dies passiert, wird es<br />
auch an den Aufgaben deutlich. Es ist dann hilfreich, sich die wichtigsten Ergebnisse der Teilgebiete<br />
noch einmal ins Gedächtnis zu rufen.<br />
Z.B. überschneiden sich die Theorien über Ringe, Vektorräume und Polynome beim charakteristischen<br />
Polynom einer Matrix. Ist nun eine Aufgabe gegeben, in der Matrizen potenziert, mit Ska<strong>la</strong>ren<br />
multipliziert und addiert werden, sollte man schauen, ob man daraus nicht ein Polynom bilden kann;<br />
auch wenn sich der Stoff gerade komplett um Vektorräume dreht.<br />
1.3.15 Modelle<br />
Man kann für die verschiedenen Themen der Mathematik nur dann ein intuitives Verständnis bilden,<br />
wenn man sich Modelle überlegt, die ein abstraktes Objekt in ein anschauliches Gebilde übersetzen.<br />
Das geht in der Gruppentheorie nur sehr bedingt; man kann sich höchstens überlegen, was man<br />
als Gruppe betrachten kann und was nicht, welche Untergruppen es jeweils gibt, und wo es Analogien<br />
gibt. Die Ringtheorie bietet da schon mehr Spielraum, denn die zwei Verknüpfungen eines<br />
Rings ähneln auf irgendeine Art und Weise immer den aus der Schule bekannten. Spätestens bei den<br />
Vektorräumen bieten sich jede Menge Möglichkeiten, Dinge anschaulich zu machen.<br />
Bei jedem Modell muss man sich aber auch überlegen, wo die Grenzen des Modells liegen, d.h.<br />
welche Sachverhalte vom Modell nicht sinnvoll wiedergegeben werden.<br />
Einen endlichdimensionalen Vektorraum kann man sich oft in seine einzelnen Dimensionen aufgeteilt<br />
denken. Das macht Sinn, wenn man allgemeine lineare Abbildungen untersucht, denn sie bilden<br />
in gewisser Weise jede Dimension entweder wieder auf eine Dimension oder auf gar nichts ab. Auch<br />
für Faktorräume ist das Modell gut geeignet; damit kann man Dimensionen „entfernen”. Was das<br />
9
Modell jedoch nicht leistet, ist eine sinnvolle Aussage über Vektoren selbst. Denn die identische Abbildung<br />
(als Endomorphismus) könnte man in diesem Modell z.B. nicht von irgendeinem anderen<br />
Automorphismus unterscheiden.<br />
1.3.16 Spezialfälle<br />
Ist eine Aufgabenstellung von allgemeiner Natur, und die Allgemeinheit der Grund dafür, dass sie<br />
schwierig ist, dann hilft es meistens, sich bestimmte Spezialfälle zu überlegen, um so eine Grund<strong>la</strong>ge<br />
für die allgemeine Lösung zu erhalten. Das ist besonders hilfreich, wenn man die Lösung durch<br />
vollständige Induktion beweisen kann. Dann kann man anhand der ersten paar Spezialfälle meist<br />
die allgemeine Formel erraten. Normalerweise ist Raten in der Mathematik nicht erwünscht, aber<br />
wenn man anschließend mittels vollständiger Induktion die Richtigkeit beweist, hat man seine Pflicht<br />
getan.<br />
Bei allgemeinen Vektorräumen bietet sich oft an, sich die Dimensionen 1, 2 und 3 besonders anzuschauen.<br />
Wenn es um Unterräume geht, hat dies allerdings einen Nachteil: Bei Dimension n kommen<br />
Unterräume nur in n + 1 verschiedenen Dimensionen vor, wovon auch noch 2 völlig uninteressant<br />
sind. Im 3-dimensionalen Anschauungsraum bleiben uns nur Geraden und Ebenen als Unterräume,<br />
die wir untersuchen können.<br />
Ist ein bestimmter Mindestwert für eine Zahl gegeben (gilt z.B. eine Aussage nur für Vektorräume<br />
der Dimension 2 oder größer), dann lohnt es sich, diesen Mindestwert als Spezialfall genau zu<br />
untersuchen, und auch festzustellen, warum die Aussage für kleinere Werte noch nicht gilt (siehe<br />
1.3.13).<br />
1.3.17 Formale Schreibweise<br />
Ausnahmsweise möchte ich noch einen Hinweis geben, der nicht dem Finden eines Lösungswegs<br />
dient, sondern nur der Korrektheit und Nachvollziehbarkeit, insbesondere für den Korrektor, also<br />
z.B. mich. :-) Wenn Ihr die Lösung vor Augen habt, solltet Ihr Euch unbedingt die Mühe machen,<br />
den Beweis so formal wie möglich zu führen. Mal wieder ein Beispiel, und zwar der k<strong>la</strong>ssische<br />
Beweis für das Prinzip der vollständigen Induktion, zunächst in Textform:<br />
Sei p(n) eine Aussage, die für jedes n ∈ N entweder wahr oder falsch ist. p(1) sei wahr, und wenn<br />
p(n) für ein n ∈ N wahr ist, dann sei auch p(n + 1) wahr.<br />
1. Sei m die kleinste natürliche Zahl, für die p(m) falsch ist.<br />
2. Weil p(1) wahr ist, ist m ≥ 2.<br />
3. p(m − 1) ist wahr, weil m ja gerade die kleinste Zahl war, für die p(m) falsch ist.<br />
4. Dann ist nach Voraussetzung auch p(m) wahr.<br />
5. Dies ist ein Widerspruch, also kann es kein solches m geben.<br />
6. Also ist p(n) für alle n wahr.<br />
Auf den ersten Blick ist der Beweis einleuchtend, und wahrscheinlich würde er so akzeptiert. Aber<br />
eigentlich enthält er einige Lücken:<br />
10
1. Wer sagt denn bitte, dass es eine kleinste natürliche Zahl, für die p(m) falsch ist, überhaupt<br />
gibt?! Siehe „5.”<br />
2. Eigentlich folgt daraus erst einmal m = 1, daher m > 1 oder m < 1 (was wegen m ∈ N<br />
unmöglich ist), und aus m > 1 und m ∈ N folgt m ≥ 2. (Keine Sorge, so pingelig ist kein<br />
Korrektor. Das hier ist nur ein Beispiel.)<br />
3. Im formalen Beweis folgt dies direkt aus der Definition des Minimums. Hier ist zu viel natürliche<br />
Sprache in Gebrauch, was sogar das Verständnis erschwert.<br />
4. Das ist schon gravierender. Denn die Voraussetzung besagt: „Wenn p(n) für ein n ∈ N wahr<br />
ist, dann ist auch p(n + 1) wahr.” Offenbar wird hier n := m − 1 gesetzt, denn dann ist<br />
n + 1 = m. Das sollte man nicht aus<strong>la</strong>ssen. Und noch wichtiger ist es, n ∈ N auch wirklich<br />
zu zeigen!<br />
5. Bei „1.” hat man von „der” kleinsten Zahl gesprochen. Es ist extrem unsauber, dann zu zeigen,<br />
dass man vorher irgendwo eine falsche Voraussetzung benutzt hat. Hätte man gesagt, dass m<br />
eine Zahl sein soll, für die p(m) nicht gilt, und dass außerdem für jede andere Zahl x, für die<br />
p(x) ebenfalls falsch ist, x ≥ m gelten soll, dann hätte man diese Unsauberkeit vermieden.<br />
Oder man hätte wenigstens sagen sollen, dass man die Existenz des Minimums annimmt, um<br />
sie zu widerlegen.<br />
6. „Für alle n ∈ N”, bitte schön. Wenn man „für alle n” sagt, dann ist n durch den Satz gebunden;<br />
die Aussage „n ∈ N” von oben gilt nicht für dieses n.<br />
Es fällt nicht schwer, den Beweis in die formale mathematische Sprache zu übersetzen:<br />
1. Die „kleinste Zahl” heißt in der Mathematik „Minimum”. Ein Minimum bezieht sich jedoch<br />
immer auf eine Menge (oder Funktion, aber nicht in der Linearen Algebra). Also brauchen wir<br />
erst einmal die Menge M, von der wir das Minimum min M bilden. Dabei können wir auch<br />
gleich die Definition von „min” in Bezug auf natürliche Zahlen nachsch<strong>la</strong>gen, um festzustellen,<br />
wann es denn nun existiert: ∀M ⊂ N, M = ∅ : ∃!m ∈ M : ∀n ∈ M : n ≥ m; und<br />
min M := m.<br />
2. Hier fehlen bloß noch die Symbole.<br />
3. Es bietet sich an, die Voraussetzung m = min M hier noch einmal zu erwähnen.<br />
4. Mit einem kleinen Trick werden die beschriebenen Lücken geschlossen, aber die Zeile bleibt<br />
trotzdem kurz.<br />
5. Wir haben gezeigt, dass das Minimum von M nicht existiert. Ein ganz normaler Widerspruchsbeweis.<br />
Denn angewendet auf den Satz über das Minimum, den ich bei „1.” mehr oder weniger<br />
formal hingeschrieben habe, folgt daraus rein formal M = ∅.<br />
6. Auch hier fehlen wieder nur Symbole.<br />
Das Ergebnis sieht dann so aus:<br />
1. Sei M := {n ∈ N : p(n) ist falsch}. Annahme: M = ∅. Dann existiert m := min M.<br />
11
2. m ∈ M ⇒ p(m) ist falsch ⇒ m = 1 ⇒ m ≥ 2 ⇒ m − 1 ∈ N<br />
p(1) ist wahr<br />
3. m = min M ⇒ m − 1 /∈ M ⇒ p(m − 1) ist wahr<br />
4. ⇒<br />
m−1∈N p(m) ist wahr (nach Voraussetzung)<br />
5. Widerspruch zu m ∈ M, also Annahme M = ∅ falsch ⇒ M = ∅<br />
6. ⇒ ∀n ∈ N : p(n)<br />
Dieser Beweis ist zwar vielleicht schwerer zu lesen, aber er lässt keine Zweifel aufkommen. Wer<br />
will, kann wieder etwas mehr natürliche Sprache einbauen, z.B. Folgepfeile durch „daraus folgt”,<br />
„also”, „deshalb”, „daher”, „weil”, „wegen” usw. ersetzen. Wichtig ist, dass ein Leser jeden einzelnen<br />
Schritt ohne den Rest des Beweises nachvollziehen kann. Wenn Ihr Euch sicher seid, dass<br />
Eure Beweise dies auch ohne Formalismus leisten, könnt Ihr schließlich wieder fast die Textversion<br />
hinschreiben. Aber übt bitte am Anfang das formale Beweisen.<br />
2 Mengenlehre<br />
2.1 Mengen<br />
Mengen und ihre Verknüpfungen sollten aus der Schule bekannt sein. Neu ist vielleicht die Schreibweise<br />
„{x, p(x)}”, „{x | p(x)}” oder „{x : p(x)}” für die Menge aller x, für die p(x) gilt. Das sollte<br />
man nicht nur wissen, sondern auch damit umgehen können. Siehe z.B. 1.3.2.<br />
Außerdem wird an der Uni die Potenzmenge P(M) einer Menge M eingeführt; das ist die Menge<br />
aller Teilmengen von M. Aussagen über P(M) erscheinen oft kompliziert, aber werden sofort einfacher,<br />
wenn man daran denkt, dass A ∈ P(M) nichts Anderes heißt als A ⊂ M. Zum Beispiel bildet<br />
eine Funktion (s.u.) f : A → P(B) einfach jedes Element a ∈ A auf eine bestimmte Teilmenge<br />
f(a) ⊂ B ab.<br />
2.2 Abbildungen<br />
„Abbildung” ist nur ein anderes Wort für „Funktion”, das auch in der Schule behandelt wird. Informatikern<br />
fällt es nicht schwer, sich Funktionen so vorstellen, dass sie eine „Eingabe” entgegennehmen<br />
und zu diesem Wert eine „Ausgabe” „berechnen”. An den vielen Anführungszeichen merkt<br />
man schon, dass es nicht ganz so einfach ist; z.B. muss man den Funktionswert nicht unbedingt<br />
wirklich berechnen können, damit die Funktion existiert. Trotzdem möchte ich gerne eine Funktion<br />
f : A → B manchmal auf diese zwei Arten darstellen:<br />
a A<br />
f<br />
f(a)<br />
Bild f<br />
B<br />
Dass in der Linearen Algebra häufiger der Begriff „Abbildung” benutzt wird, könnte daran liegen,<br />
dass sich die Lineare Algebra in erster Linie mit Anschauungsobjekten beschäftigt. Z.B. ist die Vorschrift,<br />
die angibt, wie in einem 3D-Computerprogramm ein Objekt auf dem Bildschirm angezeigt<br />
werden soll, sicher eine Funktion bzw. Abbildung (wobei ich hier zugegebenermaßen wichtige Details<br />
außer Acht <strong>la</strong>sse):<br />
12<br />
A<br />
f<br />
B
Hier werden vielleicht auch die Begriffe „Bild” und „Urbild” deutlich: Sei O das Objekt; es kann<br />
z.B. eine Teilmenge des Definitionsbereichs der Abbildung, genannt f, sein. Dann ist das Bild von<br />
O unter f, also f(O) = Bild f|O, tatsächlich die entsprechende Menge im Wertebereich, d.h. auf<br />
dem Bildschirm. Umgekehrt ist O gerade das Urbild seiner Darstellung auf dem Bildschirm.<br />
Eine Abbildung heißt „injektiv”, wenn es zu jedem Bildelement nur ein Urbildelement gibt, bzw.<br />
zu jedem Element des Wertebereichs höchstens ein Urbildelement. (Die genaue Definition könnt Ihr<br />
Euch vielleicht noch einmal selbst überlegen; es ist nur eine mathematische Formulierung dieses<br />
Satzes.) Im Beispiel oben hätte der Benutzer vielleicht gerne eine injektive Abbildung, dann wüsste<br />
er genau, wie die Szenerie wirklich beschaffen ist. Aber wer weiß, ob hinter dem Klotz jemand<br />
hockt. . .<br />
Hier noch ein Vergleich von injektiven und nicht injektiven Abbildungen:<br />
A<br />
nicht injektiv<br />
f<br />
B<br />
A<br />
injektiv<br />
Man sieht, dass bei endlichen Mengen |B| ≥ |A| sein muss, und bei unendlichen Mengen wird diese<br />
Re<strong>la</strong>tion sogar über die Existenz einer injektiven Abbildung definiert.<br />
Eine Abbildung heißt „surjektiv”, wenn jedes Element des Wertebereichs tatsächlich erreicht werden<br />
kann, d.h. im Bild der Abbildung liegt bzw. mindestens ein Urbildelement hat. Anders ausgedrückt<br />
ist das Bild der Abbildung der gesamte Wertebereich. Die obige Abbildung ist surjektiv, denn jeder<br />
Punkt auf dem Bildschirm kann ein Objekt enthalten. Genauer gesagt gibt es zu jeder Bildschirmkoordinate<br />
als Element des Wertebereichs eine Position, an der ein Objekt stehen kann, um darauf<br />
abgebildet zu werden. (Aber natürlich mehr als eine einzige Position, s.o.) Man kann jede Abbildung<br />
durch Einschränken des Wertebereichs „surjektiv machen”.<br />
Hier muss nun |A| ≥ |B| sein.<br />
A<br />
nicht surjektiv<br />
f<br />
B<br />
A<br />
f<br />
surjektiv<br />
Eine injektive und surjektive Abbildung heißt „bijektiv” oder „invertierbar” („umkehrbar”). Genau<br />
dann existiert nämlich die Umkehrabbildung, denn Bijektivität bedeutet, dass es zu jedem Element<br />
des Wertebereichs genau ein Urbildelement:<br />
13<br />
f<br />
B<br />
B
A B<br />
f<br />
Wegen |B| ≥ |A| und |A| ≥ |B| ist dann sogar |A| = |B|.<br />
Eine bijektive Selbstabbildung (d.h. eine bijektive Abbildung f : A → A) nennt man „Permutation”.<br />
Wem dieser Begriff in einem anderen Zusammenhang bekannt ist, nämlich als das Ändern der<br />
Reihenfolge von geordneten Elementen, dem fällt vielleicht auf, dass es genau darum geht: f kann<br />
die Elemente aus A nur mischen, aber weder Elemente verschwinden <strong>la</strong>ssen noch mehrere Elemente<br />
auf die selbe Stelle abbilden:<br />
A<br />
Zwei Abbildungen f : A → B und g : B → C kann man zu einer Abbildung A → C verketten,<br />
die mit „g ◦ f” bezeichnet wird. Daran, dass die Schreibweise „rückwärts” ist, muss man sich leider<br />
gewöhnen. Aber die Reihenfolge stimmt praktisch in allen Fällen, die damit etwas zu tun haben,<br />
überein. Wäre sie andersherum, müsste z.B. auch die Matrizenmultiplikation, die ihr noch kennen<br />
lernt, umgekehrt ver<strong>la</strong>ufen. Daran kann man sich später vielleicht auch orientieren. Außerdem ist<br />
(g ◦ f)(x) = g(f(x)), d.h. eigentlich ist die Schreibweise „f(x)” schon „rückwärts”. Grafisch sieht<br />
das so aus:<br />
2.3 Re<strong>la</strong>tionen<br />
A B C<br />
f g<br />
g f<br />
°<br />
Eine Re<strong>la</strong>tion vergleicht zwei Elemente einer Menge. Man kann sie z.B. als Verknüpfung betrachten,<br />
die je zwei Werten entweder „wahr” oder „falsch” zuordnet, oder als Teilmenge des cartesischen<br />
Produkts der Menge mit sich selbst. Die meisten Symbole, die in Aussagen vorkommen („=”, „
Ist die Menge endlich, dann kann man für die Re<strong>la</strong>tion (wie für jede Verknüpfung) eine Verknüpfungstafel<br />
aufstellen. Zum Beispiel könnte man eine Re<strong>la</strong>tion „≺” auf der Menge {a, b} definieren<br />
durch a ≺ a, a ≺ b, b ⊀ a, b ≺ b. Die dazugehörige Verknüpfungstafel sieht so aus:<br />
≺ a b<br />
a w w<br />
b f w<br />
Per Definition gilt: Um festzustellen, ob x ≺ y gilt, sucht man x auf der linken Seite und y auf der<br />
oberen Seite; dann kann man das Ergebnis der Verknüpfung im entsprechenden Kästchen ablesen.<br />
Reflexivität und Symmetrie sieht man dann sofort, Transitivität leider nicht. In der Informatik werden<br />
Re<strong>la</strong>tionen auf endlichen Mengen statt dessen häufig als Graphen dargestellt, indem man die<br />
Elemente der Menge in der Zeichenebene verteilt und Pfeile zwischen den Elementen einzeichnet,<br />
die in Re<strong>la</strong>tion stehen. Bei symmetrischen Re<strong>la</strong>tionen ersetzt man die Pfeile durch einfache Linien.<br />
In Graphen sieht man die Transitivität besser:<br />
2.4 K<strong>la</strong>ssenbildung<br />
nicht transitiv transitiv<br />
Wenn man eine Menge in Teilmengen aufteilt, so dass jedes Element in genau einer dieser Teilmengen<br />
vorkommt, dann nennt man diese Teilmengen „K<strong>la</strong>ssen”. Z.B. könnte man die Menge<br />
{1, 2, 3, 4, 5} in die K<strong>la</strong>ssen {1, 4}, {2, 3} und {5} aufteilen, wenn man Lust dazu hat. Die Menge<br />
der K<strong>la</strong>ssen ist dann {{1, 4}, {2, 3}, {5}}. Die K<strong>la</strong>sse eines Elements x wird normalerweise mit<br />
[x] bezeichnet. In diesem Fall ist z.B. [1] = [4] = {1, 4}. Auch unendliche Mengen kann man in<br />
K<strong>la</strong>ssen aufteilen, z.B. die Menge der ganzen Zahlen in gerade und ungerade Zahlen (dann gibt es<br />
die zwei K<strong>la</strong>ssen [0] und [1]).<br />
Hat man eine Menge in K<strong>la</strong>ssen unterteilt, kann man über die Zugehörigkeit zur selben K<strong>la</strong>sse<br />
eine Re<strong>la</strong>tion „≈” festlegen: x ≈ y :⇔ [x] = [y]. D.h.: Zwei Elemente stehen genau dann in<br />
Re<strong>la</strong>tion, wenn sie in der selben K<strong>la</strong>sse liegen. Dies ist eine Äquivalenzre<strong>la</strong>tion. Umgekehrt (und<br />
das ist der wichtigere Fall) kann man mit einer beliebigen Äquivalenzre<strong>la</strong>tion „∼” eine Menge M<br />
in K<strong>la</strong>ssen aufteilen, deren Elemente jeweils miteinander in Re<strong>la</strong>tion stehen (siehe 2.3). Die Menge<br />
dieser K<strong>la</strong>ssen wird mit M/∼ bezeichnet, eine einzelne K<strong>la</strong>sse mit [x]∼ (wenn man die Re<strong>la</strong>tion<br />
hervorheben will).<br />
Beispiel: Um die ganzen Zahlen in gerade und ungerade Zahlen aufzuteilen, kann man auch erst eine<br />
Äquivalenzre<strong>la</strong>tion definieren:<br />
x ∼ y :⇔ ∃z ∈ Z : x − y = 2 · z<br />
Dann gilt z.B. 0 ∼ 2 ∼ 4 ∼ . . . , 1 ∼ 3 ∼ 5 ∼ . . . , 0 ∼ 1, 1 ∼ 2, usw. Das bedeutet [0]∼ = [2]∼ =<br />
[4]∼ = . . . , [1]∼ = [3]∼ = [5]∼ = . . . und [0]∼ = [1]∼. Damit hat man genau zwei K<strong>la</strong>ssen, d.h.<br />
Z/∼ = {[0]∼, [1]∼}, wie oben.<br />
15
Wenn man eine Menge in Äquivalenzk<strong>la</strong>ssen einteilt, dann tut man es normalerweise aus dem Grund,<br />
dass sich in bestimmten Situationen jedes Element aus der K<strong>la</strong>sse gleich verhält. Dann möchte man<br />
nicht mehr nur mit den einzelnen Elementen rechnen, sondern mit den K<strong>la</strong>ssen selbst. Konkret heißt<br />
das, man will Abbildungen und Verknüpfungen für die K<strong>la</strong>ssen definieren.<br />
Z.B. könnte man eine Abbildung<br />
f1 : Z/∼ → {0, 1}, k ↦→<br />
<br />
0, falls k = [0]∼<br />
1, falls k = [1]∼<br />
definieren (wobei „∼” die Re<strong>la</strong>tion aus dem vorherigen Beispiel ist). Weil es in Z/∼ eben nur die<br />
beiden Elemente [0]∼ und [1]∼ gibt, ist die Abbildung damit vollständig definiert.<br />
Aber wenn die Anzahl der K<strong>la</strong>ssen unendlich groß ist, dann funktioniert das nicht mehr so einfach.<br />
Deshalb darf man sich ausnahmsweise bei der Definition der Abbildung ein Element der K<strong>la</strong>sse<br />
(„Vertreter” genannt) herausnehmen, ungefähr so:<br />
f2 : Z/∼ → {0, 1}, [x]∼ ↦→ x<br />
Auf den ersten Blick ist dies tatsächlich eine Abbildung, nämlich die gleiche wie f1, denn f2([0]∼) =<br />
0 und f2([1]∼) = 1. Aber 0 und 1 sind ja nicht die einzigen Elemente aus [0]∼ bzw. [1]∼! Es ist<br />
[0]∼ = [2]∼, und deshalb muss f2([0]∼) = f2([2]∼) sein. (Wenn x = y ist, dann ist immer auch<br />
f(x) = f(y), sonst wäre f(x) ja gar nicht eindeutig bestimmt.) Auf der anderen Seite sagt die<br />
Definition von f2 aber f2([0]∼) = 0 und f2([2]∼) = 2.<br />
Also kann man die Abbildung gar nicht so definieren. Man sagt, die Abbildung ist nicht „wohldefiniert”.<br />
Das Problem der Wohldefiniertheit ergibt sich erst dann, wenn man sich die Ausnahme<br />
zunutze macht, dass man die Abbildung über einen Vertreter der K<strong>la</strong>sse und nicht über die K<strong>la</strong>sse<br />
selbst definieren darf. Dann muss man eben explizit dafür sorgen, dass das Resultat der Abbildung<br />
nicht davon abhängt, welchen Vertreter der K<strong>la</strong>sse man benutzt. Korrekt wäre:<br />
f3 : Z/∼ → {0, 1}, [x]∼ ↦→<br />
<br />
0, falls x gerade ist<br />
1, falls x ungerade ist<br />
Diese Abbildung ist wohldefiniert, denn nimmt man sich aus [x]∼ zusätzlich zu x einen weiteren<br />
Vertreter x ′ , dann ist x ′ gerade, falls x gerade ist, und ungerade, falls x ungerade ist. Um dies formal<br />
zu beweisen, müsste man ausnützen, dass x ∼ x ′ ist, und dies in die Definition von „∼” einsetzen.<br />
3 Algebra<br />
3.1 Gruppen<br />
3.1.1 Definition<br />
Eine Halbgruppe ist eine Menge mit assoziativer innerer Verknüpfung (d.h. sie verknüpft zwei Elemente<br />
der Menge zu einem neuen Element der gleichen Menge). Eine Gruppe ist eine Halbgruppe<br />
mit neutralem Element und inversen Elementen. Eine Untergruppe einer Gruppe ist eine Untermenge,<br />
die selbst wieder Gruppe ist.<br />
Diese Definition ist erst einmal ziemlich abstrakt; man kann sich unter einer Gruppe schwer etwas<br />
vorstellen. Also sollte man zunächst untersuchen, was eine Gruppe ist und was nicht. Dabei bekommt<br />
16
man ziemlich viele verschiedene Ergebnisse, die außer den (abstrakten) Gruppeneigenschaften nicht<br />
viel miteinander zu tun haben. Lohnenswerter ist es, die Eigenschaften von Gruppen zu untersuchen,<br />
um wenigstens zu wissen, wofür man Gruppen braucht. Leider (oder glücklicherweise?) werden sie<br />
erst in der Algebra wirklich wichtig. Ein Beispiel für ein gruppentheoretisches Ergebnis, das Ihr<br />
wahrscheinlich kennen lernen werdet, ist der Satz von Fermat-Euler.<br />
Normalerweise muss man beim Beweis, dass eine Menge M mit Verknüpfung „◦” Gruppe ist, sämtliche<br />
Gruppenaxiome testen:<br />
• Das Ergebnis der Verknüpfung ist tatsächlich immer ein Element der Menge: ∀m1, m2 ∈ M :<br />
m1 ◦ m2 ∈ M. Man spricht von der „Abgeschlossenheit” der Verknüpfung.<br />
• Die Verknüpfung ist assoziativ: ∀m1, m2, m3 ∈ M : (m1 ◦ m2) ◦ m3 = m1 ◦ (m2 ◦ m3).<br />
• Es gibt ein Element, das sowohl rechts- als auch linksneutral ist: ∃e ∈ M : ∀m ∈ M : m◦e =<br />
e ◦ m = m. Oft findet man ein Element, das auf einer Seite neutral ist. Falls die Verknüpfung<br />
nicht zufällig kommutativ ist, muss man nachweisen, dass es auch auf der anderen Seite neutral<br />
ist.<br />
• Zu jedem Element gibt es ein Element, das sowohl rechts- als auch linksinvers ist: ∀m ∈<br />
M : ∃m −1 ∈ M : m ◦ m −1 = m −1 ◦ m = e. Auch hier tritt oft der Fall auf, dass man zu<br />
einem beliebigen Element ein anderes findet, das auf einer Seite invers ist, und man muss noch<br />
zeigen, dass es auch auf der anderen Seite invers ist.<br />
Theoretisch reichen für neutrale und inverse Elemente auch etwas schwächere Bedingungen, aber<br />
da man im Allgemeinen diese Elemente direkt angeben kann, sollte man die Axiome so zeigen, wie<br />
sie hier stehen. Für Untergruppen U muss man die Assoziativität nicht mehr zeigen. Auch weiß man<br />
genau, welche Elemente neutral und jeweils invers sind. Das heißt aber nicht, dass man gar nichts<br />
mehr zeigen muss; vielmehr ergeben sich andere Probleme:<br />
• Die Verknüpfung ist nicht unbedingt abgeschlossen, wenn man sie auf die Untermenge einschränkt.<br />
D.h. man muss zeigen, dass für alle u1 und u2 aus U auch wirklich u1 ◦ u2 ∈ U ist.<br />
Im Allgemeinen ist das Produkt nur ein Element aus M.<br />
• Das neutrale Element muss auch in der Untergruppe liegen: e ∈ U.<br />
• Zu jedem Element x ∈ U muss man zeigen, dass x −1 ∈ U ist.<br />
Auch hier kann man es sich theoretisch wieder einfacher machen, indem man nur zeigt, dass U nicht<br />
∈ U ist.<br />
leer ist, und dass für alle u1, u2 ∈ U das Produkt u1 ◦ u −1<br />
2<br />
Dabei muss man sich häufig erst k<strong>la</strong>r machen, was überhaupt „∈ U” bedeutet. Für U = {x ∈ M :<br />
p(x)} weist man am besten p(e) nach und schreibt dann: „Seien u1, u2 ∈ U, d.h. p(u1) und p(u2).<br />
Zu zeigen: u1 ◦ u −1<br />
2 ∈ U, d.h. p(u1 ◦ u −1<br />
2 ). . . . ” (Siehe auch 1.3.2.) Ist p ein etwas komplizierteres<br />
Prädikat, wird das Ganze sonst ziemlich unübersichtlich.<br />
17
3.1.2 Erzeugnis<br />
Viele Gruppen, darunter alle endlichen, werden von endlich vielen Elementen „erzeugt”. Das muss<br />
man sich so vorstellen, dass man diese Elemente und die Gruppenverknüpfung vorgibt und dann<br />
die Elemente sozusagen „arbeiten lässt”, um eine Gruppe zu bilden. D.h. man fordert die Existenz<br />
von neutralem Element und Inversen, verknüpft jedes Element mit jedem anderen, und erhält damit<br />
eine Gruppe. Für das Erzeugnis einer Menge M schreibt man [M] oder 〈M〉. M selbst nennt man<br />
„Erzeugendensystem”.<br />
Z.B. ist (Z, +) = [{1}], denn jedes Element lässt sich als 1 + 1 + · · ·+ 1 darstellen, oder als Inverses<br />
einer solchen Zahl.<br />
Ich schreibe dies aus folgendem Grund: Kennt man ein Erzeugendensystem einer Gruppe, dann gibt<br />
dies Auskunft über die Struktur der Gruppe. Z.B. kann man Untergruppen finden, indem man aus<br />
dem Erzeugendensystem Elemente weglässt.<br />
Jede Permutation lässt sich als Produkt (Verkettung) von Transpositionen schreiben, d.h. von Permutationen,<br />
die nur zwei Elemente vertauschen. Für die Gruppe S3 aller bijektiven Selbstabbildungen<br />
von {1, 2, 3} gilt also z.B.:<br />
⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />
1 ↦→ 2 1 ↦→ 1 1 ↦→ 3<br />
S3 = [{ ⎝2<br />
↦→ 1⎠<br />
, ⎝2<br />
↦→ 3⎠<br />
, ⎝2<br />
↦→ 2⎠}]<br />
3 ↦→ 3 3 ↦→ 2 3 ↦→ 1<br />
⎛ ⎞<br />
1 ↦→ 2<br />
Nimmt man nur das Erzeugnis der ersten Transposition, also [{ ⎝2<br />
↦→ 1⎠}],<br />
hat man eine Unter-<br />
3 ↦→ 3<br />
gruppe, die S2 entspricht.<br />
3.1.3 Homomorphismen<br />
Abbildungen zwischen Gruppen sind immer dann interessant, wenn sie die Gruppenstrukturen erhalten;<br />
man nennt sie dann „Homomorphismen”. Aber was heißt das genau? Wichtige Eigenschaften<br />
sind z.B.:<br />
• Das neutrale Element der einen Gruppe wird auf das neutrale Element der anderen abgebildet.<br />
• Das Inverse eines Elements wird auf das Inverse des Bildelements abgebildet.<br />
• Untergruppen werden auf Untergruppen abgebildet. Insbesondere sind Bild und Kern eines<br />
Homomorphismus Untergruppen.<br />
• Man kann bei Rechnungen zuerst den Homomorphismus anwenden, im Bild rechnen, und das<br />
Ergebnis wieder in die ursprüngliche Gruppe zurück transformieren.<br />
• Die Verkettung von Homomorphismen ist wieder ein Homomorphismus. Ist ein Homomorphismus<br />
bijektiv, ist auch die Umkehrabbildung ein Homomorphismus.<br />
Alles lässt sich in der Eigenschaft f(x ◦ y) = f(x) ⋆ f(y) zusammenfassen, wobei f der Homomorphismus<br />
und „◦” und „⋆” die jeweiligen Gruppenverknüpfungen sind. Wichtiger sind aber eigentlich<br />
18
die anderen Eigenschaften. Soll man z.B. nachweisen, dass eine Teilmenge einer Gruppe eine Untergruppe<br />
ist, dann kann man sich überlegen, ob man nicht einen Homomorphismus kennt, dessen<br />
Kern oder Bild gerade diese Teilmenge ist.<br />
Einen bijektiven Homomorphismus nennt man „Isomorphismus”. Das Besondere an Isomorphismen<br />
ist, dass man Rechnungen vollständig in eine andere Gruppe übertragen kann, also gewissermaßen<br />
die beiden Gruppen als äquivalent betrachtet. Das spielt später bei Vektorräumen (statt Gruppen)<br />
eine sehr große Rolle, und zwar beim so genannten Basiswechsel. Es kann aber auch schon bei<br />
Gruppen hilfreich sein:<br />
Soll man z.B. in einer Gruppe einen Term x k ausrechnen, doch die k-fache Multiplikation von x ist<br />
schwierig, dann ist es vielleicht einfacher, ein y zu finden, so dass z := y −1 · x · y eine einfache<br />
Form hat. Dann kann man z k ausrechnen und das Ergebnis wieder zurückzutransformieren (also<br />
y · z k · y −1 ). Man kann zwar leicht nachrechnen, dass dies das Gleiche ist (die y · y −1 kürzen sich<br />
jeweils weg), aber man sieht es sogar ohne Rechnung und kommt vielleicht eher darauf, wenn man<br />
weiß, dass die Abbildung f : G → G, x ↦→ y −1 · x · y ein Isomorphismus ist.<br />
Man nennt zwei Gruppen „isomorph”, wenn es einen Isomorphismus zwischen ihnen gibt. D.h. um<br />
zu zeigen, dass zwei Gruppen isomorph sind, sollte man diesen Isomorphismus angeben. Aber wie<br />
findet man eigentlich Homomorphismen? Denn überlegt man sich erst eine Abbildung, dann ist sie<br />
wahrscheinlich noch kein Homomorphismus. Die einzige Eigenschaft, auf die man sofort achten<br />
kann, ist, dass das neutrale Element der einen Gruppe auf das neutrale Element der anderen Gruppe<br />
abgebildet werden muss.<br />
Praktischer ist es, ein Erzeugendensystem M der Gruppe G zu kennen (siehe 3.1.2), wenn man<br />
einen Homomorphismus f : G → H finden will. Denn dann muss man nur angeben, worauf die<br />
Elemente von M abgebildet werden sollen. Der Rest ergibt sich automatisch, weil sich jedes g ∈<br />
G als Produkt von Elementen aus M sowie deren Inversen schreiben lässt; und die Eigenschaft<br />
f(x ◦ y) = f(x) ⋆ f(y) definiert dann gerade jedes f(g).<br />
Muss man zeigen, dass zwei Gruppen nicht isomorph sind, d.h., dass es keinen Isomorphismus zwischen<br />
ihnen gibt, dann hört sich das erst einmal schwer an. (Es sei denn, sie sind endlich und haben<br />
unterschiedlich viele Elemente.) Aber mit dem Ergebnis aus dem vorherigen Abschnitt sieht man,<br />
dass es gar nicht so schlimm ist, wenn man ein Erzeugendensystem der einen Gruppe kennt. Sind<br />
die Gruppen klein, dann bildet man die einzelnen Elemente des Erzeugendensystems einfach nacheinander<br />
auf alles ab, das es gibt, rechnet damit evtl. noch ein paar mehr Bildelemente aus, und sucht<br />
jeweils eine Stelle, an der die Injektivität verletzt ist. Oft kann man es sich aber auch viel einfacher<br />
machen, wenn man weiß, worin sich die Struktur der Gruppen unterscheidet. Gibt es z.B. in der einen<br />
Gruppe ein Element g = e (Neutralelement), das sein eigenes Inverses ist, in der anderen Gruppe<br />
aber nicht, dann kann es keinen Isomorphismus geben. Denn es müsste ja f(g) = f(g −1 ) = (f(g)) −1<br />
sein, also f(g) = e. Dann wäre f nicht mehr bijektiv.<br />
3.1.4 Der Homomorphiesatz<br />
Obwohl dem Homomorphiesatz für Gruppen in der Linearen Algebra keine besonders große Bedeutung<br />
zukommt, kann es nicht schaden, ihn verstanden zu haben. Denn es gibt einen analogen<br />
Homomorphiesatz für Vektorräume, und der ist an einigen Stellen unersetzlich. Außerdem verrät er<br />
Einiges über das Wesen von Homomorphismen.<br />
Um zu erklären, worum es geht, fange ich erst einmal wieder bei ganz normalen Mengen und<br />
Abbildungen an, also nicht bei Gruppen. Ich hatte bereits geschrieben, dass man eine Abbildung<br />
„surjektiv machen” kann, indem man den Wertebereich auf das Bild einschränkt. Mathematisch<br />
19
korrekt formuliert kann man eine Abbildung f : A → B aufteilen in eine surjektive Abbildung<br />
ˆf : A → Bild f, a ↦→ f(a) und eine Inklusionsabbildung i : Bild f → B, b ↦→ b, so dass f = i ◦ ˆ f<br />
ist. Die Frage ist nun, ob man eine Abbildung auch „injektiv machen” kann, und damit insgesamt<br />
sogar bijektiv.<br />
Natürlich ist das kein Problem. Und zwar muss man nur die Menge A in K<strong>la</strong>ssen einteilen, so<br />
dass alle Elemente einer K<strong>la</strong>sse jeweils auf das gleiche Element aus B abgebildet werden. Mit der<br />
Äquivalenzre<strong>la</strong>tion „∼”, die durch a1 ∼ a2 :⇔ f(a1) = f(a2) definiert wird, ist A/∼ gerade die<br />
Menge dieser K<strong>la</strong>ssen. Die Abbildung ¯ f : A/∼ → B, [a]∼ ↦→ f(a) ist dann wohldefiniert und<br />
„entspricht” f. Genauer gesagt ist mit der kanonischen Abbildung k : A → A/∼, a → [a]∼, die<br />
einfach jedes Element in seine K<strong>la</strong>sse abbildet, f = ¯ f ◦ k.<br />
Insgesamt bekommt man also ohne Weiteres eine bijektive Abbildung ˜ f : A/∼ → Bild f, [a]∼ ↦→<br />
f(a), so dass f = i ◦ ˜ f ◦ k ist. Ein kleines Diagramm zeigt die einzelnen Schritte:<br />
A f → B<br />
k ↓ /// ↑ i<br />
A/∼ → ˜f<br />
Bild f<br />
Die drei Striche bedeuten, dass das Diagramm kommutiert, d.h. es ist egal, welchen Weg man geht.<br />
Noch einmal: Die Abbildung ˜ f ist bis auf die Formalitäten identisch mit f, aber bijektiv. Um das zu<br />
erreichen, braucht man die K<strong>la</strong>ssen sowie die sehr einfachen Abbildungen k und i. Bis hier hin ist<br />
übrigens noch nichts Besonderes passiert.<br />
Jetzt möchte ich das Ganze auf Gruppen und deren Homomorphismen übertragen. Natürlich könnte<br />
f auch ein Homomorphismus sein. Die Frage ist, ob auch ˜ f dadurch ein Homomorphismus wird;<br />
wenn nicht, dann macht dieses Verfahren für Gruppen keinen Sinn.<br />
Dafür muss man erst einmal klären, wie man den Mengen A/∼ und Bild f überhaupt eine Gruppenstruktur<br />
verleihen will. Bei Bild f ist es kein Problem, denn es ist eine Untergruppe von B. Wenn<br />
man sich „∼” genauer ansieht, dann fällt vielleicht auf, dass zwei Elemente genau dann in Re<strong>la</strong>tion<br />
stehen, wenn sie sich nur um ein Element aus dem Kern von f unterscheiden; man schreibt für „A/∼”<br />
dann auch „A/Kern f”. Auf A/∼ versucht man, eine vertreterweise Verknüpfung [x]∼•[y]∼ := [x◦y]∼<br />
einzuführen, wobei „◦” die Gruppenverknüpfung von A sein soll. Der Homomorphiesatz sagt nun:<br />
Die Verknüpfung „•” ist wohldefiniert, (A/∼, •) ist eine Gruppe, und k, ˜ f und i sind tatsächlich<br />
Gruppenhomomorphismen.<br />
Eigentlich gehört nur die letzte Behauptung zum Homomorphiesatz. Für die beiden anderen ist<br />
streng genommen die Normalteilereigenschaft des Kerns verantwortlich; auf Normalteiler möchte<br />
ich aber hier nicht eingehen. Auf jeden Fall sollte man sich merken, dass der Kern eines Homomorphismus<br />
genau das ist, was ihn an der Injektivität hindert. Es ist nicht nur so, dass ein Homomorphismus<br />
genau dann injektiv ist, wenn der Kern nur aus dem neutralen Element besteht, sondern man<br />
kann den Kern sogar „entfernen” und den Homomorphismus damit „injektiv machen”.<br />
Wobei man dazu sagen muss, dass durch dieses „Entfernen” die Gruppe mehr Elemente verliert<br />
als nur die, die im Kern liegen (und nicht neutral sind). Das Entfernen findet eben nicht auf der<br />
Elementebene statt, sondern auf der Ebene der Untergruppen; man faktorisiert A nach dem Kern. Es<br />
ist eher ein „Teilen” als ein „Subtrahieren”; deshalb schreibt man auch „A/∼” bzw. „A/Kern f”.<br />
Und zum Schluss möchte ich noch ein kleines Anwendungsbeispiel liefern. Übrigens sind praktisch<br />
alle Aufgaben zum Homomorphiesatz (für Gruppen oder Vektorräume) von ähnlicher Art. Und<br />
wenn man den Homomorphiesatz verstanden hat, dann kann man dabei ohne viel Aufwand wichtige<br />
Punkte sammeln.<br />
20
„Seien G, H1 und H2 Gruppen, f1 : G → H1 und f2 : G → H2 Gruppenhomomorphismen mit<br />
Kern f1 = Kern f2 =: K, und f1 surjektiv. Man finde einen Homomorphismus h : H1 → H2 mit<br />
h ◦ f1 = f2.”<br />
Die Aufgabe wäre ja sehr leicht, wenn doch nur f1 bijektiv wäre. Dann könnte man einfach schreiben:<br />
„h := f2 ◦ f −1<br />
1 ”. Da f1 nicht injektiv ist, muss man es „injektiv machen”, also G entsprechend<br />
faktorisieren. Nach dem Homomorphiesatz existieren Homomorphismen ¯ f1 : G/K → H1 (bijektiv)<br />
und ¯ f2 : G/K → H2, so dass mit der kanonischen Abbildung k : G → G/K gilt: f1 = ¯ f1 ◦ k und<br />
f2 = ¯ f2 ◦ k. Mit h := ¯ f2 ◦ ¯ −1<br />
f1 ist h ◦ f1 = ¯ f2 ◦ ¯ −1<br />
f1 ◦ f1<br />
¯ ◦ k = ¯ f2 ◦ k = f2.<br />
3.2 Ringe und Körper<br />
3.2.1 Ringe<br />
Ein Ring ist eine Menge M mit zwei Verknüpfungen „+” und „·”, so dass (M, +) eine abelsche<br />
Gruppe ist, (M, ·) eine Halbgruppe, und die üblichen Distributivgesetze erfüllt sind. Das neutrale<br />
Element von (M, +) wird mit „0” bezeichnet. Besitzt (M, ·) ein neutrales Element, wird es mit „1”<br />
bezeichnet. Man spricht dann von einem „Ring mit 1”. In der Linearen Algebra kommen fast nur<br />
Ringe mit 1 vor.<br />
Mit Ringen kann man in vielen Fällen so rechnen wie mit Zahlen; insbesondere ganzen Zahlen.<br />
Man muss allerdings aufpassen, denn die Multiplikation muss nicht unbedingt kommutativ sein.<br />
Es stellt sich heraus, dass die Addition meistens etwas mit der Addition von Zahlen zu tun hat,<br />
die Multiplikation aber nicht unbedingt. Z.B. wird sich später zeigen, dass spezielle Abbildungen<br />
(also keine Zahlen) einen Ring bilden, wenn man die Verkettung als Multiplikation benutzt. Weil<br />
die Addition in einem Ring schon ziemlich festgelegt ist, beziehen sich übrigens Eigenschaften von<br />
Ringen (wie Kommutativität, Inverse, Nullteilerfreiheit, Teilbarkeit mit Rest, usw.) fast immer auf<br />
die Multiplikation.<br />
Es ist wichtig zu wissen, was man in Ringen tun darf. Die Distributivgesetze geben einem die Möglichkeit,<br />
Faktoren auszuk<strong>la</strong>mmern. Bestimmte Formeln, die man normalerweise mit reellen Zahlen<br />
assoziiert, gelten daher auch in Ringen. Z.B. kann man leicht nachrechnen, dass die binomischen<br />
Formeln in allen kommutativen Ringen mit 1 gelten, wenn man 2 := 1 + 1 setzt.<br />
Z, Q und R sind natürlich Ringe. Interessanterweise sind auch die Zm := Z/mZ Ringe. (Insbesondere<br />
sind die Verknüpfungen auf den K<strong>la</strong>ssen wohldefiniert.) Es werden bald noch mehr Ringe<br />
folgen.<br />
In einem Ring M mit 1 wird die Menge der Elemente, die ein (multiplikatives) Inverses besitzen,<br />
mit „M × ” bezeichnet. (M × , ·) ist immer eine Gruppe (die so genannte „Einheitengruppe”); dies ist<br />
eine ziemlich wichtige Eigenschaft von Ringen. Z.B. ist Z × = {1, −1} und Z × 4 = {[1], [3]}.<br />
3.2.2 Körper<br />
Ein Körper ist ein kommutativer Ring mit 1, dessen Einheitengruppe die gesamte Menge M außer<br />
der 0 umfasst (M × = M \ {0}). D.h. auch (M \ {0}, ·) ist eine abelsche Gruppe.<br />
In einem Körper kann man nun endgültig so rechnen wie mit den Zahlen, die man aus der Schule<br />
kennt. Da in einem Körper jedes Element außer der 0 ein (multiplikatives) Inverses besitzt, darf<br />
man in einem Körper insbesondere teilen. Q und R sind Körper, und auch die komplexen Zahlen C<br />
als Erweiterung von R bilden einen Körper. (Wäre das nicht so, dann wäre C wahrscheinlich keine<br />
21
sinnvolle Erweiterung von R.) Die Zm bilden genau dann einen Körper, wenn m eine Primzahl ist,<br />
und werden dann häufig auch Fm genannt.<br />
Das Inverse eines Elements 0 = a + i · b ∈ C ist übrigens:<br />
1<br />
a + i · b =<br />
=<br />
1 a − i · b<br />
·<br />
a + i · b a − i · b<br />
a<br />
a2 −b<br />
+ i ·<br />
+ b2 a2 + b2 a − i · b<br />
=<br />
a2 a − i · b<br />
=<br />
− (i · b) 2 a2 − i2 · b<br />
2 =<br />
a − i · b<br />
a2 a − i · b<br />
=<br />
− (−1) · b2 a2 + b<br />
Die Inversen in einem der Primkörper Fm (oder überhaupt in einem Zm) zu finden, ist nicht so<br />
einfach. Natürlich ist [1] −1 = [1] und [m − 1] −1 = [−1] −1 = [−1] = [m − 1], d.h. [1] und [m − 1]<br />
sind immer selbstinvers. Die anderen Inversen bekommt man entweder durch Probieren oder mit<br />
dem euklidischen Algorithmus: Möchte man das Inverse der K<strong>la</strong>sse [z] bestimmen, berechnet man<br />
den ggT von z und m mit dem euklidischen Algorithmus. Das Inverse existiert genau dann, wenn<br />
dieser ggT 1 ist. Durch Rücksubstitution erhält man eine Darstellung von 1 als k · z + j · m. Dann<br />
ist [z] −1 = [k].<br />
Beispiel: Um das Inverse von [4] ∈ F11 zu bestimmen, führt man den euklidischen Algorithmus mit<br />
4 und 11 durch:<br />
11 = 2 · 4 + 3<br />
4 = 1 · 3 + 1<br />
Damit hat man 1 = 4 − 1 · 3 = 4 − 1 · (11 − 2 · 4) = 3 · 4 + j · 11 ⇒ [4] −1 = [3].<br />
3.2.3 Unterringe und Homomorphismen<br />
Um nachzuweisen, dass eine Teilmenge Unterring oder -körper ist, muss man nur die vorkommenden<br />
(Halb-)Gruppen betrachten. Denn die Distributivgesetze bleiben natürlich auch weiterhin erfüllt.<br />
Bei Ringen mit 1, die keine Körper sind, darf man nicht vergessen nachzuweisen, dass die 1 in der<br />
Teilmenge enthalten ist.<br />
Ein Homomorphismus zwischen Ringen oder Körpern ist einfach eine Abbildung f : R → S, die<br />
Homomorphismus bezüglich der entsprechenden (Halb-)Gruppen ist. Ein Homomorphismus von<br />
Halbgruppen ist dabei genauso definiert wie ein Homomorphismus von Gruppen. Bei Ringen mit 1,<br />
die keine Körper sind, muss man speziell noch nachweisen, dass f(1R) = 1S ist, denn bei Halbgruppenhomomorphismen<br />
ist dies nicht selbstverständlich.<br />
3.2.4 Matrizen<br />
Matrizen sind gewissermaßen zweidimensionale Tupel über einem Ring R mit 1, für die neben der<br />
komponentenweisen Addition noch eine spezielle Multiplikation eingeführt wird. Diese funktioniert<br />
folgendermaßen:<br />
Seien Matrizen A := ((aij)) ∈ R k×l , B := ((bij)) ∈ R l×m , C := ((cij)) := A · B ∈ R k×m gegeben.<br />
Dann berechnet sich ein beliebiges cij wie folgt:<br />
⎛<br />
.<br />
⎜<br />
⎝ai1<br />
.<br />
ai2 · · ·<br />
⎛<br />
⎞ · · ·<br />
. ⎜<br />
⎟ ⎜·<br />
· ·<br />
ail⎠<br />
· ⎜<br />
⎝<br />
b1j<br />
b2j<br />
.<br />
⎞<br />
· · ·<br />
· · · ⎟<br />
⎠<br />
. . . · · · blj · · ·<br />
=<br />
⎛<br />
⎜<br />
⎝·<br />
· ·<br />
.<br />
cij = ai1 · b1j + ai2 · b2j + . . . + ail · blj<br />
⎞<br />
⎟<br />
· · · ⎠<br />
.<br />
22<br />
2 =
Es gibt den schönen Trick, die rechte Matrix höher zu schreiben, so dass das Ergebnis darunter passt.<br />
Dann sieht man sofort, welche Zeile von A und Spalte von B man benutzen muss:<br />
⎛<br />
· · ·<br />
⎜<br />
⎜·<br />
· ·<br />
⎜<br />
⎝<br />
b1j<br />
b2j<br />
.<br />
⎞<br />
· · ·<br />
· · · ⎟<br />
⎠<br />
· · · blj · · ·<br />
⎛<br />
.<br />
⎜<br />
⎝<br />
.<br />
ai1 ai2 · · · ail<br />
.<br />
.<br />
.<br />
.<br />
⎞<br />
⎟<br />
⎠<br />
⎛<br />
⎞<br />
⎜<br />
⎝·<br />
· ·<br />
.<br />
cij<br />
⎟<br />
· · · ⎠<br />
Was viele nicht wissen: Eine Matrix kann man beliebig in Teilmatrizen unterteilen. In den Fällen, in<br />
denen die Matrizenmultiplikation dann noch definiert ist, ist das Ergebnis genau das Gleiche. Z.B.<br />
sieht man sofort, dass das Ergebnis für cij gleich bleibt, wenn man A in ihre Zeilen und/oder B in<br />
ihre Spalten unterteilt: Wird A in Zeilen unterteilt, dann erhält man im Prinzip eine k × 1-Matrix,<br />
deren Einträge wiederum Matrizen aus R1×l sind. Streng genommen sind diese Matrizen natürlich<br />
keine Ringelemente; die Hauptsache ist aber, dass die Multiplikation funktioniert. Das Produkt von<br />
X := ((xj)) ∈ R1×l mit Y := ((yi)) ∈ Rl×1 ist ja definiert, und zwar so:<br />
⎛ ⎞<br />
<br />
x1 x2 · · · xl ·<br />
y1<br />
⎜<br />
⎜y2<br />
⎟<br />
⎜ ⎟<br />
⎝ . ⎠ = <br />
x1 · y1 + x2 · y2 + . . . + xl · yl<br />
yl<br />
Das ist ein Spezialfall, den man sich leicht merken kann, und daraus lässt sich die allgemeine Matrizenmultiplikation<br />
komplett ableiten:<br />
⎛ ⎛ ⎞ ⎞<br />
⎛<br />
.<br />
⎞<br />
⎜<br />
⎝ ai1 ai2 · · ·<br />
⎟<br />
ail ⎠<br />
.<br />
⎜<br />
⎜·<br />
· ·<br />
⎝<br />
⎛<br />
⎜<br />
⎝·<br />
· ·<br />
.<br />
b1j<br />
⎜<br />
⎜b2j<br />
⎟<br />
⎜ ⎟<br />
⎝ . ⎠<br />
blj<br />
.<br />
cij<br />
.<br />
⎟<br />
· · · ⎟<br />
⎠<br />
⎞<br />
⎟<br />
· · · ⎠<br />
Für die Zukunft ist eher der Fall wichtig, dass nur die rechte Matrix aus einer einzelnen Spalte<br />
besteht. D.h. man sollte sich die allgemeine Matrizenmultiplikation vielleicht so einprägen, dass<br />
man nur die rechte Matrix B in ihre Spalten unterteilt, die linke aber so lässt. Das Produkt von<br />
A = ((aij)) ∈ R k×l mit Y = ((yi)) ∈ R l×1 ist auch noch re<strong>la</strong>tiv übersichtlich hinzuschreiben:<br />
⎛<br />
⎜<br />
⎝ .<br />
a11 a12 · · · a1l<br />
a21 a22 · · · a2l<br />
a31 a32 · · · a3l<br />
.<br />
. ..<br />
ak1 ak2 · · · akl<br />
.<br />
⎞<br />
⎛ ⎞<br />
⎟ y1<br />
⎟ ⎜<br />
⎟ ⎜y2<br />
⎟<br />
⎟ · ⎜ ⎟<br />
⎟ ⎝<br />
⎠<br />
. ⎠ =<br />
⎛<br />
⎞<br />
a11 · y1 + a12 · y2 + . . . + a1l · yl<br />
⎜<br />
⎜a21<br />
· y1 + a22 · y2 + . . . + a2l · yl<br />
⎟<br />
⎜<br />
⎜a31<br />
· y1 + a32 · y2 + . . . + a3l · yl<br />
⎟<br />
⎜<br />
⎟<br />
⎝<br />
.<br />
⎠<br />
yl<br />
23<br />
ak1 · y1 + ak2 · y2 + . . . + akl · yl
Vielleicht ist dem Einen oder Anderen schon aufgefallen, dass man damit ein lineares Gleichungssystem<br />
für die Variablen y1, . . . , yl sehr schön und einfach als A · Y = B mit B ∈ R k×1 schreiben<br />
kann, wobei A und B fest sind. Das ist aber keineswegs der einzige Anwendungsfall.<br />
Übrigens macht es in diesem einen Fall manchmal Sinn, die linke Matrix A in Spalten zu unterteilen<br />
(anstatt in Zeilen). Dann erhält man gewissermaßen eine 1 × l-Matrix, deren Einträge Elemente aus<br />
Rk×1 sind:<br />
⎛⎛<br />
⎞ ⎛ ⎞ ⎛ ⎞⎞<br />
⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />
⎛ ⎞<br />
a11<br />
ak1<br />
a12<br />
ak2<br />
a1l<br />
akl<br />
y1<br />
⎜⎜<br />
⎜⎜a21<br />
⎟ ⎜<br />
⎟ ⎜a22<br />
⎟ ⎜<br />
⎟ ⎜a2l<br />
⎟⎟<br />
⎟⎟<br />
⎜⎜<br />
⎟ ⎜ ⎟ · · · ⎜ ⎟⎟<br />
⎝⎝<br />
. ⎠ ⎝ . ⎠ ⎝ . ⎠⎠<br />
·<br />
⎜<br />
⎜y2<br />
⎟<br />
⎜ ⎟<br />
⎝ . ⎠ =<br />
⎜<br />
⎜a21<br />
⎟<br />
⎜ ⎟<br />
⎝ . ⎠ · y1<br />
⎜<br />
⎜a22<br />
⎟<br />
+ ⎜ ⎟<br />
⎝ . ⎠ · y2<br />
⎜<br />
⎜a2l<br />
⎟<br />
+ . . . + ⎜ ⎟<br />
⎝ . ⎠ · yl =<br />
yl<br />
=<br />
a11<br />
ak1<br />
a12<br />
ak2<br />
⎛<br />
⎞<br />
a11 · y1 + a12 · y2 + . . . + a1l · yl<br />
⎜<br />
⎜a21<br />
· y1 + a22 · y2 + . . . + a2l · yl<br />
⎟<br />
⎜<br />
⎟<br />
⎝<br />
.<br />
⎠<br />
ak1 · y1 + ak2 · y2 + . . . + akl · yl<br />
Ich hoffe, das zeigt, dass Matrizen mit dieser Multiplikation für viele verschiedene Zwecke geeignet<br />
sind. Aber der Hauptgrund, warum die Multiplikation gerade auf diese Weise definiert ist, dürfte<br />
sein, dass die quadratischen Matrizen Rn×n mit der komponentenweisen Addition und dieser Multiplikation<br />
selbst wieder einen Ring mit 1 bilden. Das Einselement (die sogenannte „Einheitsmatrix”)<br />
ist, wie man leicht nachrechnen kann, die Matrix:<br />
⎛<br />
⎞<br />
1 0 · · · 0<br />
⎜ .<br />
⎜0<br />
1 .. ⎟<br />
. ⎟<br />
En := ⎜<br />
⎝ .<br />
. .. . ⎟<br />
.. 0⎠<br />
0 · · · 0 1<br />
Übrigens gelten die Assoziativ- und Distributivgesetze sowie die Neutralität von En auch für nichtquadratische<br />
Matrizen in den Fällen, in denen die Multiplikation jeweils definiert ist.<br />
Die Einheitengruppe des Matrizenrings wird mit GL(n, R) oder GLn(R) bezeichnet. Normalerweise<br />
ist GL(n, R) ∪ {0}, wobei 0 die Nullmatrix bezeichnet, kein Körper. Allerdings kann man die<br />
komplexen Zahlen sehr schön als spezielle invertierbare reelle 2×2-Matrizen definieren, so dass das<br />
Produkt zweier komplexer Zahlen dem Matrizenprodukt entspricht. Dabei wird 1 ∈ R mit E2 <br />
iden- <br />
0 −1<br />
a −b<br />
tifiziert und i := gesetzt. Die komplexe Zahl a + i · b ist dann also die Matrix .<br />
1 0<br />
b a<br />
Als „transponierte” Matrix A T bezeichnet man die Matrix, die aus A durch Spiegelung an der Diagonalen<br />
hervorgeht. Matrizen mit A T = A heißen „symmetrisch”. Falls der Grundring R kommutativ<br />
ist, gilt (A·B) T = B T ·A T für alle multiplizierbaren Matrizen A und B über R. Außerdem überträgt<br />
sich die Inversenbildung: (A T ) −1 = (A −1 ) T , falls A invertierbar ist.<br />
3.2.5 Polynome<br />
Die Polynome, wie sie in der Linearen Algebra behandelt werden, sind eine Erweiterung der aus der<br />
Schule bekannten. Die erste Erweiterung ist, dass man Polynome über beliebigen Ringen definieren<br />
kann. Die zweite Erweiterung ist eine Abstraktion: Aus der Polynomfunktion p(x) = a0 · x 0 + a1 ·<br />
x 1 + a2 · x 2 + · · ·+ an · x n (n ∈ N0, ai ∈ R ∀i ∈ {0, . . . , n}, x ∈ R) wird dabei ein abstraktes Objekt<br />
24<br />
a1l<br />
akl
p = a0 · X 0 + a1 · X 1 + a2 · X 2 + · · ·+ an · X n , in dem auch die Größe X abstrakt ist. Diese p bilden<br />
einen kommutativen Ring R[X] mit 1. Ist an = 0, heißt n der „Grad” von p. Ist spezieller an = 1,<br />
heißt p „normiert”.<br />
Hintergrund dieser Abstraktion ist zum Einen, dass es im Allgemeinen keine Bijektion zwischen<br />
Polynomfunktionen und Polynomen gibt (in R schon), und zum Anderen, dass man dann in Polynome<br />
mit Koeffizienten in R nicht nur Elemente aus R, sondern z.B. auch Matrizen und bestimmte<br />
Abbildungen über R einsetzen kann. Es gibt bestimmte Bedingungen, die dafür erfüllt sein müssen;<br />
diese gelten aber z.B. für Matrizen über dem selben Ring automatisch.<br />
Das klingt vielleicht ein bisschen kompliziert, aber man muss sich eigentlich nur merken, dass man<br />
z.B. auch Matrizen in Polynome über dem Grundring einsetzen kann. Dabei muss man allerdings<br />
aufpassen: Die Größe X 0 wird oft wegge<strong>la</strong>ssen, d.h. mit 1 identifiziert. Für jede quadratische Matrix<br />
A ist A 0 die Einheitsmatrix, d.h. man muss den absoluten Term a0 noch mit der Einheitsmatrix<br />
multiplizieren (wie erwartet).<br />
Eine wichtige Eigenschaft des Polynomrings über einem Körper ist es, dass man eine Division mit<br />
Rest durchführen kann. Auf diese Weise kann man für jede Nullstelle einen Faktor aus dem Polynom<br />
abspalten. Die Polynomdivision wird häufig in der Schule behandelt und funktioniert im Prinzip<br />
genauso wie die Division ganzer Zahlen, deshalb bringe ich hier nur ein kleines Beispiel:<br />
Sei p := 2 · X 3 + X 2 + X + 1 ∈ R[X]. Dieses Polynom soll durch q := X 2 − X + 1 geteilt werden:<br />
(2 · X 3 + X 2 + X + 1) / (X 2 − X + 1) = 2 · X + 3 + r/q<br />
− (2 · X 3 − 2 · X 2 + 2 · X)<br />
3 · X 2 − X + 1 mit r := 2 · X − 2<br />
− (3 · X 2 − 3 · X + 3)<br />
2 · X − 2<br />
Es bleibt also ein Rest r. Wäre dieser gleich 0, dann könnte man den Faktor q komplett vom Polynom<br />
abspalten. Übrigens gilt die Beziehung p = (X 2 − X + 1) · (2 · X + 3) + 2 · X − 2 allgemein für das<br />
Polynom; d.h. auch dann, wenn für X eine Matrix mit Koeffizienten in R eingesetzt wird. Solche<br />
Ergebnisse sind gerade der Inhalt der Theorie über formale Polynome.<br />
Nach diesem Prinzip kann man auf Polynome über Körpern auch den euklidischen Algorithmus<br />
anwenden und den ggT bestimmen. Der ggT ist (analog zu N) das größte Polynom, welches gleichzeitig<br />
Teiler von zwei bestimmten Polynomen ist. Die Größe wird hierbei am Grad gemessen. Außerdem<br />
ist es wichtig zu wissen, dass der ggT von zwei Polynomen nicht eindeutig bestimmt ist.<br />
Man kann einen ggT immer mit einer Einheit, d.h. einem invertierbaren Element, multiplizieren.<br />
Einheiten im Polynomring sind gerade die konstanten Polynome außer dem Nullpolynom, denn die<br />
Multiplikation mit einem solchen Polynom lässt sich gerade rückgängig machen.<br />
Beispiel: Es soll der (bzw. ein) ggT von p := X 4 + X 3 + X 2 + 2 · X + 3 und q := X 3 − X 2 + 2 aus<br />
R[X] bestimmt werden. Offensichtlich ist p das größere Polynom, d.h. man muss zuerst p durch q<br />
teilen (mit Polynomdivision). Man erhält p/q = (X +2)+(X 2 −1)/q, d.h. p = (X +2)·q+(X 2 −1).<br />
Jetzt geht es weiter wie beim euklidischen Algorithmus für natürliche Zahlen:<br />
X 4 + X 3 + X 2 + 2 · X + 3 = (X + 2) · (X 3 − X 2 + 2) + (X 2 − 1)<br />
X 3 − X 2 + 2 = (X − 1) · (X 2 − 1) + (X + 1)<br />
X 2 − 1 = (X − 1) · (X + 1)<br />
Da im letztes Schritt die Division von X 2 − 1 durch X + 1 ohne Rest aufging, ist offenbar X + 1<br />
ein Teiler sowohl von p als auch von q, und zwar ein ggT.<br />
25
3.3 Lineare Gleichungssysteme<br />
3.3.1 Definition<br />
Ein lineares Gleichungssystem (LGS) ist eine Menge von Variablen (die Elemente eines Körpers<br />
K sind) und Gleichungen, die nur aus Summen dieser Variablen und Konstanten bestehen (wobei<br />
die Variablen noch mit Körperelementen, so genannten Koeffizienten, multipliziert werden dürfen).<br />
Diese Gleichungen sollen alle gleichzeitig erfüllt werden. Bringt man alle Konstanten auf die rechte<br />
Seite und alle Variablen auf die linke, und fügt man Nullen als Koeffizienten ein, so dass jede<br />
Variable in jeder Gleichung vorkommt, dann erhält man immer die folgende Form für ein LGS:<br />
a11 · x1 + a12 · x2 + · · · + a1l · xl = b1<br />
a21 · x1 + a22 · x2 + · · · + a2l · xl = b2<br />
ak1 · x1 + ak2 · x2 + · · · + akl · xl = bk<br />
Dabei sind xj die Variablen, aij die Koeffizienten, und bi die Konstanten.<br />
Schaut man sich noch einmal genau den Abschnitt über Matrizenmultiplikation an (3.2.4), dann fällt<br />
auf, dass ein solches LGS sehr viel mit Matrizen gemeinsam hat, besonders mit der Multiplikation<br />
einer Matrix mit einer Spaltenmatrix. In der Tat: Man kann leicht aus den k Gleichungen eine einzige<br />
Gleichung machen, indem man zwei Spaltenmatrizen gleichsetzt:<br />
⎛<br />
⎞<br />
a11 · x1 + a12 · x2 + · · · + a1l · xl<br />
⎜<br />
⎜a21<br />
· x1 + a22 · x2 + · · · + a2l · xl<br />
⎟<br />
⎜<br />
⎟<br />
⎝<br />
.<br />
⎠ =<br />
⎛ ⎞<br />
b1<br />
⎜<br />
⎜b2<br />
⎟<br />
⎜ ⎟<br />
⎝ . ⎠<br />
ak1 · x1 + ak2 · x2 + · · · + akl · xl<br />
Jetzt ist aber die linke Seite gerade das Matrizenprodukt von ((aij)) ∈ K k×l mit ((xj)) ∈ K l×1 , bzw.<br />
ausgeschrieben: ⎛<br />
⎜<br />
⎝ .<br />
a11 a12 · · · a1l<br />
a21 a22 · · · a2l<br />
.<br />
ak1 ak2 · · · akl<br />
.<br />
.<br />
bk<br />
⎞<br />
⎟<br />
⎠ ·<br />
⎛ ⎞<br />
⎛ ⎞ b1<br />
x1 ⎜<br />
⎜ ⎟ ⎜b2<br />
⎟<br />
⎝ . ⎠ = ⎜ ⎟<br />
⎝ . ⎠<br />
Man kann also jedes LGS als eine Matrizengleichung A · x = b schreiben, wobei A ∈ K k×l ,<br />
x ∈ K l×1 und b ∈ K k×1 ist.<br />
3.3.2 Lösungsmethoden<br />
Diese Schreibweise legt in einem Spezialfall eine Lösungsmethode nahe, die man nicht erwarten<br />
würde, wenn man nur die Gleichungen betrachtet. Und zwar gibt es ja invertierbare Matrizen, und<br />
falls A invertierbar ist dann ist die Gleichung A·x = b äquivalent zu x = A −1 ·b. Hat man A −1 einmal<br />
ausgerechnet, kann man damit schnell für verschiedene b eine Lösung für x bestimmen. Leider kann<br />
man A −1 im Normalfall nicht direkt aus A ablesen. Es gibt aber durchaus Fälle, in denen das geht.<br />
Ansonsten gibt es ja gewisse Umformungen, mit denen die Lösungsmenge eines LGS nicht verändert<br />
wird. Dazu zählen:<br />
1. Umsortieren der Gleichungen<br />
26<br />
xl<br />
bk
2. Umsortieren der Variablen<br />
3. Multiplikation einer Gleichung mit einer Konstanten = 0<br />
4. Addition einer Gleichung zu einer anderen<br />
Diese Umformungen <strong>la</strong>ssen sich natürlich direkt auf die Matrizen übertragen:<br />
1. Das Umsortieren von Gleichungen entspricht dem (gleichzeitigen) Umsortieren der Zeilen von<br />
A und b.<br />
2. Da das Umsortieren von Variablen er<strong>la</strong>ubt ist, kann man in A also auch die Spalten umsortieren,<br />
wenn man die Zeilen von x mit sortiert. Also ist z.B.<br />
⎛<br />
⎞<br />
a11 a12 · · ·<br />
⎜<br />
⎜a21<br />
a22 · · · ⎟<br />
⎜<br />
⎟<br />
⎝ . ⎠ ·<br />
⎛ ⎞<br />
⎛ ⎞ b1<br />
x1 ⎜<br />
⎜<br />
⎝x2<br />
⎟ ⎜b2<br />
⎟<br />
⎠ = ⎜ ⎟<br />
⎝ . ⎠<br />
.<br />
äquivalent zu ⎛<br />
.<br />
ak1 ak2 · · ·<br />
a12 a11 · · ·<br />
a22 a21 · · ·<br />
⎜<br />
⎝ .<br />
.<br />
ak2 ak1 · · ·<br />
(Vertauschung der ersten beiden Spalten).<br />
bk<br />
⎞<br />
⎟<br />
⎠ ·<br />
⎛ ⎞<br />
⎛ ⎞ b1<br />
x2 ⎜<br />
⎜<br />
⎝x1<br />
⎟ ⎜b2<br />
⎟<br />
⎠ = ⎜ ⎟<br />
⎝ . ⎠<br />
.<br />
3. Man darf Zeilen von A und b gleichzeitig mit einer Konstanten multiplizieren, die nicht 0 ist<br />
(was leider oft vergessen wird, wenn die Konstante von einem Parameter abhängt).<br />
4. Man darf eine Zeile von A und b zu einer anderen addieren. Dadurch, dass man sie vorher<br />
mit einer Konstanten multiplizieren darf, kann man sogar ein beliebiges Vielfaches der Zeile<br />
benutzen, d.h. man darf insbesondere auch subtrahieren statt addieren.<br />
Da fast alle dieser Umformungen den Term x in der Gleichung A · x = b fest <strong>la</strong>ssen, bietet es sich<br />
an, beim Durchführen der Umformungen das LGS nur als A|b zu schreiben. Dann muss man nicht<br />
aufpassen, dass man die Umformungen gleichzeitig bei A und b machen muss.<br />
Mit diesen Umformungen kann man nun das LGS in eine Form bringen, bei der man alle Lösungen<br />
für x (d.h. die Lösungsmenge) direkt ablesen kann:<br />
• Unterhalb der Diagonalen stehen nur Nullen:<br />
⎛<br />
∗ ∗ ∗ ∗<br />
⎞<br />
∗<br />
⎛<br />
∗ ∗ ∗ ∗<br />
⎞<br />
∗<br />
⎝∗<br />
∗ ∗ ∗ ∗⎠<br />
⎝0<br />
∗ ∗ ∗ ∗⎠<br />
∗ ∗ ∗ ∗ ∗ 0 0 ∗ ∗ ∗<br />
• Es gibt keine Stufe, die höher als eine Zeile ist:<br />
⎛<br />
∗ ∗ ∗ ∗<br />
⎞<br />
∗<br />
⎛<br />
∗ ∗ ∗ ∗<br />
⎞<br />
∗<br />
⎝0<br />
0 ∗ ∗ ∗⎠<br />
⎝0<br />
0 ∗ ∗ ∗⎠<br />
0 0 ∗ ∗ ∗ 0 0 0 ∗ ∗<br />
27<br />
bk
• Am Anfang jeder Stufe steht eine 1:<br />
⎛<br />
∗ ∗ ∗ ∗<br />
⎞<br />
∗<br />
⎛<br />
1 ∗ ∗ ∗<br />
⎞<br />
∗<br />
⎝0<br />
0 ∗ ∗ ∗⎠<br />
⎝0<br />
0 1 ∗ ∗⎠<br />
0 0 0 ∗ ∗ 0 0 0 1 ∗<br />
• Über jeder 1 stehen nur Nullen:<br />
⎛<br />
1 ∗ ∗ ∗<br />
⎞<br />
∗<br />
⎛<br />
1 ∗ 0 0<br />
⎞<br />
∗<br />
⎝0<br />
0 1 ∗ ∗⎠<br />
⎝0<br />
0 1 0 ∗⎠<br />
0 0 0 1 ∗ 0 0 0 1 ∗<br />
Dabei erhält man die Nullen durch geschickte Vertauschungen und indem man andere Zeilen geeignet<br />
multipliziert und addiert/subtrahiert. Die Einsen bekommt man natürlich durch Multiplikation/Division<br />
der entsprechenden Zeilen.<br />
Jetzt kann man die Lösungsmenge ablesen:<br />
• Gibt es eine Zeile, in der links nur Nullen stehen, aber rechts bi = 0, dann hat das LGS keine<br />
Lösung. Denn die entsprechende Gleichung ist 0 = bi.<br />
• Für jede Zeile, in der links nur eine 1 steht, kann man rechts den Wert der entsprechenden<br />
Variable xj direkt ablesen. Denn die Gleichung <strong>la</strong>utet 1 · xj = bi.<br />
• In den anderen Zeilen gibt es Wahlmöglichkeiten. Am besten setzt man die Variablen, die<br />
den „∗”-Spalten entsprechen, beliebig, und löst die Gleichung nach der Variable auf, die der 1<br />
vorne entspricht. Zum Beispiel könnte man im LGS<br />
<br />
0 1 0 a14 b1<br />
0 0 1 a24 b2<br />
die Variable x4 frei wählen, und bekommt dann aus 1 · x3 + a24 · x4 = b2 die Formel x3 =<br />
b2 − a24 · x4, sowie aus 1 · x2 + a14 · x4 = b1 die Formel x2 = b1 − a14 · x4.<br />
• Die Variablen, die überhaupt nicht aufgetaucht sind, sind beliebig.<br />
Wie gibt man also die Lösungsmenge L := {x ∈ K l×1 : A · x = b} an? Man schreibt x einfach<br />
wieder als<br />
⎛ ⎞<br />
x1<br />
⎜<br />
⎜x2<br />
⎟<br />
x = ⎜ ⎟<br />
⎝ . ⎠<br />
und setzt für jedes xj, das nicht beliebig ist, die nach xj aufgelöste Gleichung ein. Die xj, die beliebig<br />
sind, müssen auch so in der Menge gekennzeichnet werden. Dann kann man diese eine Spaltenmatrix<br />
noch als Summe von Spaltenmatrizen schreiben, die eventuell mit einem der xj multipliziert werden,<br />
so dass die Matrizen selbst konstant sind.<br />
An einem Beispiel wird das vielleicht deutlicher:<br />
Das folgende reelle LGS soll gelöst werden:<br />
xl<br />
2 · x1 + 1 · x2 = 3<br />
−2 · x1 − 4 · x2 + 2 · x3 = 2<br />
28
Dies bringt man zunächst auf die Form:<br />
<br />
2 1 0<br />
·<br />
−2 −4 2<br />
⎛<br />
⎝<br />
x1<br />
x2<br />
x3<br />
⎞<br />
⎠ =<br />
<br />
3<br />
2<br />
In der Matrix gibt es bereits eine 0, aber an der falschen Stelle. Am besten wäre es, wenn sie in der<br />
ersten Spalte stehen würde, und dahinter eine 1. Also vertauscht man die erste und dritte Spalte, d.h.<br />
x1 und x3:<br />
<br />
0 1 2<br />
·<br />
2 −4 −2<br />
⎛<br />
⎝<br />
x3<br />
x2<br />
x1<br />
⎞<br />
⎠ =<br />
<br />
3<br />
2<br />
Nun kann man in der abgekürzten Schreibweise weitermachen:<br />
<br />
0<br />
2<br />
1<br />
−4<br />
2<br />
−2<br />
<br />
3 2<br />
<br />
2 0<br />
−4<br />
1<br />
−2<br />
2<br />
<br />
2 1<br />
<br />
3 0<br />
−2<br />
1<br />
−1<br />
2<br />
<br />
1<br />
3<br />
<br />
<br />
1 0 3<br />
<br />
7<br />
0 1 2 3<br />
Im letzten Schritt wurde die zweite Zeile zwei mal zur ersten addiert, um die 0 über der 1 zu bekommen.<br />
Man kann x1 (jetzt die dritte Variable) beliebig wählen und bekommt dann x2 = 3 − 2 · x1 und<br />
x3 = 7 − 3 · x1. Die Lösungsmenge L kann man also schreiben als:<br />
⎛ ⎞<br />
⎛ ⎞ ⎛ ⎞<br />
x1<br />
0 1<br />
L = { ⎝3<br />
− 2 · x1⎠<br />
: x1 ∈ R} = { ⎝3⎠<br />
+ ⎝−2⎠<br />
· x1 : x1 ∈ R}<br />
7 − 3 · x1<br />
7 −3<br />
Um eine solche Darstellung der Lösungsmenge zu erhalten, kann man zum Schluss auch den so<br />
genannten „−1-Trick” benutzen: Man macht durch Streichen und Einfügen von Nullzeilen die linke<br />
Hälfte der Matrix zu einer quadratischen Matrix, bei der die erste 1 in jeder Zeile auf der Diagonalen<br />
steht (außer bei den Nullzeilen natürlich). Dann schreibt man in den Nullzeilen −1 in die Diagonale.<br />
Die Spalten, in denen dies geschieht, sind gerade die Matrizen, die in der Lösungsmenge mit einem<br />
beliebigen Körperelement multipliziert werden, und rechts steht der absolute Term.<br />
Einfügen der Nullzeile:<br />
⎛<br />
⎞<br />
1 0 3 7<br />
1 0 3 7<br />
⎝0<br />
1 2 3⎠<br />
0 1 2 3<br />
0 0 0 0<br />
Ersetzen von 0 durch −1 auf der Diagonalen:<br />
⎛<br />
1 0 3<br />
⎞<br />
7<br />
⎛<br />
1 0<br />
⎞<br />
3<br />
⎛ ⎞<br />
7<br />
⎝0<br />
1 2 3⎠<br />
⎝0<br />
1 2 ⎠ , ⎝3⎠<br />
0 0 0 0 0 0 −1 0<br />
Jetzt müssen wir uns noch daran erinnern, dass wir die Variablen x1 und x3 vertauscht hatten, und<br />
erhalten:<br />
⎛ ⎞<br />
0<br />
⎛ ⎞<br />
−1<br />
L = { ⎝3⎠<br />
+ ⎝ 2 ⎠ · r : r ∈ R}<br />
7 3<br />
29
3.3.3 Weiterführende Theorien<br />
Muss man das LGS A · x = b für ein A und verschiedene b lösen, dann hilft ein Satz, der besagt,<br />
dass man die allgemeine Lösung für A · x = b (d.h. die Lösungsmenge) erhält, indem man zuerst die<br />
allgemeine Lösung für A · x = 0 bestimmt und eine spezielle Lösung für A · x = b addiert. Selbst<br />
wenn nur ein b im Spiel ist, kann dies einfacher sein, wenn man schon eine spezielle Lösung kennt.<br />
In obigem Beispiel ist also<br />
⎛ ⎞<br />
−1<br />
{ ⎝ 2 ⎠ · r : r ∈ R}<br />
3<br />
die Lösungsmenge von A · x = 0, und ⎛ ⎞<br />
0<br />
⎝3⎠<br />
7<br />
eine spezielle Lösung von A · x = b. Addition ergibt das bekannte Ergebnis.<br />
Der vorgestellte Algorithmus (der Gaußalgorithmus) manipuliert offenbar die Matrizen A und b,<br />
ändert aber an der Lösungsmenge für A · x = b nichts. Es liegt also nahe, dass sich alle er<strong>la</strong>ubten<br />
Operationen durch die Multiplikation mit invertierbaren Matrizen Ci ausdrücken <strong>la</strong>ssen, denn Ci ·A·<br />
x = Ci · b ist eine dazu äquivalente Gleichung. In der Tat kann man diese Matrizen konkret angeben.<br />
Dies liefert ein Verfahren, um für eine quadratische Matrix A ∈ K n×n die Inverse zu bestimmen,<br />
falls es sie gibt:<br />
Ist nämlich A invertierbar, dann hat das LGS A·x = 0 nur die triviale Lösung x = 0, denn man kann<br />
die Gleichung von links mit A −1 multiplizieren. Das heißt für die Matrix C · A, die nach Anwenden<br />
des Gaußalgorithmus entsteht, dass<br />
⎛<br />
1<br />
⎜<br />
⎜0<br />
C · A = ⎜<br />
⎝ .<br />
0<br />
1<br />
. ..<br />
· · ·<br />
. ..<br />
. ..<br />
⎞<br />
0<br />
⎟<br />
. ⎟<br />
0⎠<br />
0 · · · 0 1<br />
= En<br />
ist, also C = A −1 (nach Multiplikation der Gleichung von rechts mit A −1 ). Man muss also nur C<br />
finden, um A −1 zu bestimmen. Dazu wendet man einfach die gleichen Operationen auf die Einheits-<br />
matrix En an, und erhält damit die Matrix C · En = C = A−1 .<br />
Konkret sieht das so aus, dass man <br />
A|En betrachtet und entsprechend der Regeln umformt, so dass<br />
man am Schluss auf der linken Seite die Einheitsmatrix bekommt. Dann ist die rechte Seite A−1 .<br />
Vielleicht ist es aufgefallen, dass man die Form der Lösungsmenge schon sehen kann, wenn man<br />
den Gaußalgorithmus fertig gerechnet hat. Und zwar ist die Anzahl der Variablen, die nicht beliebig<br />
sind, gerade die Anzahl der Zeilen, die am Schluss übrig bleiben. (Diese Zahl nennt man den „Rang”<br />
der Matrix.) Die Anzahl der Variablen, die beliebig sind, und damit die Form der Lösungsmenge,<br />
ergibt sich daraus sofort.<br />
Man kann sich leicht k<strong>la</strong>r machen, dass der Rang von A gleich dem Rang von A T ist. D.h. um den<br />
Rang zu bestimmen, darf man statt Zeilenumformungen auch Spaltenumformungen durchführen.<br />
Dies liefert bei einigen Matrizen eine einfachere Aussage darüber, wie die Lösungsmenge aussieht.<br />
30
Z.B. kann man dem reellen LGS<br />
⎛<br />
1<br />
⎜<br />
⎜2<br />
⎝3<br />
0<br />
1<br />
2<br />
⎞<br />
2<br />
4 ⎟<br />
6⎠<br />
4 3 8<br />
·<br />
⎛<br />
⎝<br />
direkt ansehen, dass die Lösungsmenge die Form<br />
⎛ ⎞<br />
{ ⎝<br />
v1<br />
v2<br />
v3<br />
x1<br />
x2<br />
x3<br />
⎞<br />
⎠ = 0<br />
⎠ · r : r ∈ R}<br />
hat. Denn zieht man die erste Spalte zweimal von der dritten ab, dann bekommt man dort eine<br />
Nullspalte. Die zweite Spalte hat mit der einen 0 oben bereits die Form, die nach Anwendung des<br />
Gaußalgorithmus (mit Spalten statt Zeilen) entsteht. Also ist der Rang 2, und 3 − 2 = 1 Variable ist<br />
beliebig.<br />
Hier hat das sogar direkt einen praktischen Nutzen. Denn man sieht, dass x1 = 2, x2 = 0, x3 = −1<br />
eine Lösung ist. (Wenn nicht, dann bitte einfach mal diese Werte einsetzen und die Matrizenmultiplikation<br />
durchführen.) Also gibt es nur eine Möglichkeit für die Lösungsmenge:<br />
⎛ ⎞<br />
2<br />
{ ⎝ 0 ⎠ · r : r ∈ R}<br />
−1<br />
4 Vektorräume<br />
4.1 Einführung<br />
4.1.1 Ursprung<br />
Der abstrakte Begriff des Vektorraums orientiert sich stark an den Vektoren, die man in ein reelles<br />
Koordinatensystem einzeichnen kann. Ein Vektor ist dabei ein Pfeil, den man beliebig verschieben<br />
kann. Die Addition von zwei Vektoren ist dadurch erklärt, dass man die Pfeile aneinander hängt;<br />
damit bekommt man einen neuen Vektor. Die Multiplikation mit einer reellen Zahl ändert die Länge<br />
des Pfeils.<br />
Bekanntermaßen lässt sich R 1 = R durch eine Zahlengerade darstellen. Die Addition und Multiplikation<br />
von Vektoren entspricht dann genau der von reellen Zahlen:<br />
x<br />
2x<br />
x+y<br />
Wichtig bei der Betrachtung einer solchen Darstellung ist, dass zwei Vektoren gleich sind, wenn die<br />
Pfeile gleiche Länge und Richtung haben. Es ist unerheblich, wo man den Pfeil einzeichnet. Möchte<br />
man die wirklichen reellen Zahlen als Vektoren betrachten, dann zeichnet man die Pfeile so ein, dass<br />
31<br />
y
sie im Nullpunkt beginnen. Die Pfeilspitze liegt dann auf der Zahlengeraden bei der Zahl, die man<br />
durch den Pfeil ausdrücken will.<br />
Die übliche Darstellung von R 2 ist ein zweidimensionales Koordinatensystem. Darin sieht Addition<br />
und Multiplikation entsprechend so aus:<br />
2x<br />
x<br />
Betrachtet man einen Vektor als ein Tupel (x1, x2), dann funktionieren Addition und Multiplikation<br />
komponentenweise. Es ist wahrscheinlich aus der Schule bekannt, dass man auch die Punkte im<br />
Koordinatensystem als solche Tupel darstellt. Sie sind gerade die Pfeilspitzen, wenn man die Pfeile<br />
im Ursprung ansetzt. Man nennt die Vektoren dann „Ortsvektoren”.<br />
Mathematiker möchten aber gerne von solchen konkreten Anschauungsobjekten in eine abstrakte<br />
Definition übergehen, die man auch für andere Zwecke gebrauchen kann. Dabei kann man erst einmal<br />
nüchtern feststellen, dass wir es offensichtlich mit einer Addition von zwei Vektoren und einer<br />
Multiplikation von einem Vektor mit einem so genannten „Ska<strong>la</strong>r” zu tun haben. Dann sucht man<br />
bestimmte Eigenschaften heraus, die für die Arbeit mit solchen Pfeil-Diagrammen wesentlich sind.<br />
Z.B. soll auf jeden Fall die Multiplikation mit 1 den Vektor nicht verändern. Die Multiplikation mit<br />
0 dagegen sollte ihn auf einen neutralen Vektor schrumpfen. Außerdem sollte die Multiplikation<br />
ungefähr so funktionieren, wie man sich eine Multiplikation vorstellt, d.h. z.B. 2 · x = x + x. Dies<br />
kann man allgemeiner in einem Distributivgesetz zusammenfassen. Insgesamt erhält man einige<br />
Gesetze, wobei sie sich teilweise auseinander ableiten <strong>la</strong>ssen:<br />
4.1.2 Axiome<br />
Ein Vektorraum ist eine Menge M mit zwei Verknüpfungen + : M ×M → M und · : K ×M → M,<br />
wobei K ein Körper ist, so dass für alle x, y ∈ M und a, b ∈ K die folgenden Gesetze gelten:<br />
• (M, +) ist eine abelsche Gruppe.<br />
• a · (x + y) = a · x + a · y (dies ist die Verknüpfung „+” des Vektorraums)<br />
y<br />
x+y<br />
• (a + b) · x = a · x + b · x (dies ist die Verknüpfung „+” des Körpers)<br />
32
• a · (b · x) = (a · b) · x (dies ist zweimal die Verknüpfung „·” des Vektorraums, einmal die des<br />
Körpers)<br />
• 1 · x = x<br />
• 0 · x = 0 (das neutrale Element von (M, +))<br />
• a · 0 = 0<br />
• (−1) · x = −x (hierbei ist −x das Inverse zu x in (M, +))<br />
Es stellt sich heraus, dass die ersten fünf Gesetze ausreichen und sich die anderen daraus ableiten<br />
<strong>la</strong>ssen. Es ist aber wichtig, sich die Bedeutung aller dieser Gesetze anhand des Spezialfalls der Pfeile<br />
im Koordinatensystem k<strong>la</strong>r zu machen.<br />
Anhand der benutzten Verknüpfungen sieht man, dass zumindest die Einführung von Ringen wesentlich<br />
für die Vektorraumtheorie war. Für grundlegende Untersuchungen über Vektorräume braucht<br />
man sehr bald Eigenschaften von Körpern; deshalb werden Vektorräume grundsätzlich nur über<br />
Körpern definiert. Dies ist immer noch eine sehr allgemeine Definition; es gibt viele verschiedene<br />
Beispiele für Vektorräume, die nichts mit Pfeildiagrammen zu tun haben (außer dass beide eben<br />
Vektorräume bilden).<br />
Trotzdem ist es sinnvoll, sich zu fragen, wie einschränkend diese Definition bereits ist. Dazu kann<br />
man z.B. betrachten, welche Unterräume es gibt (d.h. Teilmengen von M, die mit den darauf eingeschränkten<br />
Verknüpfungen selbst einen Vektorraum bilden). Das Ergebnis ist, dass man in vielen<br />
Fällen alle Unterräume kennt:<br />
4.1.3 Erzeugnis, Linearkombinationen<br />
Das Erzeugnis [M] einer Menge M von Vektoren ist analog zum Erzeugnis von Gruppenelementen<br />
definiert (siehe 3.1.2): Man lässt die Elemente „arbeiten”, um einen vollständigen Vektorraum zu<br />
bilden. Übrigens schreibt man für [{x1, x2, . . . , xn}] auch [x1, x2, . . . , xn].<br />
Betrachten wir zunächst die Multiplikation. Laut Definition muss für jedes x ∈ M und a ∈ K das<br />
Produkt a · x in dem Vektorraum liegen. Das Erzeugnis [M] muss also alle Vielfachen von Vektoren<br />
aus M enthalten. Geometrisch ist z.B. das Erzeugnis eines Ortsvektors x = 0 eine Gerade durch den<br />
Ursprung:<br />
x<br />
Für die Verknüpfung „+” gilt, dass [M] das Gruppenerzeugnis der so gewonnenen Vektoren enthalten<br />
muss. Man bildet also erst alle Geraden durch den Ursprung und addiert dann jeweils die<br />
Ortsvektoren von Punkten auf den Geraden. Z.B. ist das Erzeugnis von zwei verschiedenen Geraden<br />
33<br />
[ x]
eine Ebene, denn die Punkte, die durch Addition zweier Ortsvektoren von Geraden erreicht werden<br />
können, liegen gerade auf der einen Ebene, die beide Geraden enthält.<br />
Insgesamt ist also [x1, x2, . . . , xn] = { n<br />
ai · xi : a1, . . . , an ∈ K}. Eine solche Summe nennt man<br />
i=1<br />
eine „Linearkombination” der Vektoren x1 bis xn.<br />
Über das Erzeugnis von Mengen kann man alle Untervektorräume eines Vektorraums angeben, denn<br />
für einen Unterraum U eines Vektorraums V ist natürlich immer [U] = U. Das Interessante ist, dass<br />
sie viele Unterräume durch einige wenige Vektoren erzeugen <strong>la</strong>ssen.<br />
4.1.4 Lineare (Un-)Abhängigkeit<br />
Die Frage nach der linearen Abhängigkeit einer Menge M ist letztlich die Frage, ob es beim Bilden<br />
des Erzeugnis [M] Vektoren in M gibt, die dafür keine Rolle spielen. Einige einfache Fälle sind:<br />
• Einer der Vektoren aus M ist der Nullvektor. Da die Addition mit dem Nullvektor keine neuen<br />
Vektoren erzeugt, ist M immer linear abhängig, falls 0 ∈ M ist.<br />
• Zwei Vektoren sind Vielfache voneinander. Da die Vektoren beim Bilden des Erzeugnis mit<br />
beliebigen Ska<strong>la</strong>ren multipliziert werden können (und die zugrunde liegende Menge ein Körper<br />
ist, also immer Inverse besitzt), erhält man immer noch das gleiche Erzeugnis, wenn man<br />
einen der beiden Vektoren weglässt.<br />
• Einer der Vektoren ist die Summe oder Differenz von zwei anderen Vektoren. Dann liegt dieser<br />
Vektor bereits im Gruppenerzeugnis dieser beiden anderen. Wenn man ihn weglässt, ändert<br />
sich das Erzeugnis ebenfalls nicht.<br />
Allgemein ist M genau dann linear abhängig, wenn es einen Vektor x ∈ M gibt, der in [M \ {x}]<br />
liegt, sich also mit den anderen Vektoren aus M erzeugen lässt. D.h. er lässt sich als Linearkombination<br />
n<br />
ai · xi mit Vektoren xi ∈ M, xi = x schreiben.<br />
i=1<br />
Daraus lässt sich ein etwas einfacheres Kriterium ableiten, damit man nicht jeden einzelnen Vektor<br />
aus M überprüfen muss. Und zwar ist M genau dann linear abhängig, wenn man den Nullvektor<br />
auf eine nichttriviale Art als Linearkombination schreiben kann, d.h. als Summe n<br />
ai · xi mit xi ∈<br />
M, so dass die ai nicht alle 0 sind. Denn lässt sich o.B.d.A. der Vektor x1 als Linearkombination<br />
x1 = n<br />
ai · xi darstellen, dann ist mit a1 := −1 die Gleichung n<br />
ai · xi = 0 erfüllt. Ist umgekehrt<br />
i=2<br />
o.B.d.A. a1 = 0, dann ist die Gleichung n<br />
ai · xi = 0 äquivalent zu x1 = −<br />
i=1<br />
i=1<br />
i=1<br />
nP<br />
ai·xi<br />
i=2<br />
a1<br />
Um dieses Kriterium möglichst einfach überprüfen zu können, sollte man sich noch einmal die<br />
Abschnitte über Matrizen (3.2.4) und lineare Gleichungssysteme (3.3) anschauen. Dann sieht man<br />
eventuell, dass man die Summe n<br />
ai · xi als Produkt von zwei „Matrizen” schreiben kann:<br />
n<br />
i=1<br />
i=1<br />
ai · xi = <br />
x1 x2 · · · xn ·<br />
34<br />
⎛<br />
a1<br />
⎜<br />
⎜a2<br />
⎟<br />
⎜ ⎟<br />
⎝ . ⎠<br />
an<br />
⎞<br />
.
Dabei darf man nicht vergessen, dass die Vektoren xi oft Tupel sind, die Pfeile in einem Koordinatensystem<br />
darstellen; und es wird bald auch noch eine Möglichkeit eingeführt, praktisch jeden<br />
Vektor als Tupel darstellen zu können. Es erweist sich als sinnvoll, diese Tupel aus K m immer als<br />
Spaltenmatrizen aus K m×1 zu schreiben. Sei also xi = (x1i, x2i, . . . , xmi), dann wird die Gleichung<br />
n<br />
ai · xi = 0 zu einer Matrizengleichung:<br />
i=1<br />
⎛⎛<br />
⎜⎜<br />
⎜⎜<br />
⎜⎜<br />
⎝⎝<br />
x11<br />
x21<br />
.<br />
xm1<br />
⎞<br />
⎟<br />
⎠<br />
⎛<br />
⎜<br />
⎝<br />
x12<br />
x22<br />
.<br />
xm2<br />
⎞<br />
⎟<br />
⎠<br />
· · ·<br />
⎛<br />
⎜<br />
⎝<br />
x1n<br />
x2n<br />
.<br />
xmn<br />
⎞⎞<br />
⎛<br />
a1<br />
⎟⎟<br />
⎟⎟<br />
⎟⎟<br />
⎠⎠<br />
·<br />
⎜<br />
⎜a2<br />
⎟<br />
⎜ ⎟<br />
⎝ . ⎠ =<br />
⎜<br />
⎝<br />
an<br />
⎞<br />
⎛<br />
x11 x12 · · · x1n<br />
x21 x22 · · · x2n<br />
.<br />
.<br />
xm1 xm2 · · · xmn<br />
.<br />
⎞<br />
⎟<br />
⎠ ·<br />
⎛ ⎞<br />
a1<br />
⎜<br />
⎜a2<br />
⎟<br />
⎜ ⎟<br />
⎝ . ⎠ =<br />
⎛ ⎞<br />
0<br />
⎜<br />
⎜0.<br />
⎟<br />
⎜ ⎟<br />
⎝ ⎠<br />
0<br />
Diese Gleichung ist ein lineares Gleichungssystem für die Ska<strong>la</strong>re ai, welches mit den üblichen<br />
Mitteln gelöst werden kann. M ist genau dann linear abhängig, wenn dieses LGS eine nichttriviale<br />
Lösung besitzt. Ist n = m, dann ist dies genau dann der Fall, wenn die Matrix regulär (invertierbar)<br />
ist. Ist n > m, dann besitzt das LGS immer eine nichttriviale Lösung, d.h. die Vektoren sind dann<br />
immer linear abhängig.<br />
Z.B. sind 3 Vektoren im R 2 immer linear abhängig. Sie können ja nicht mehr als die Ebene R 2 selbst<br />
erzeugen, aber dazu braucht man nur 2 Vektoren.<br />
4.1.5 Basen und Dimension<br />
Eine Basis eines Vektorraums ist eine Teilmenge, die den ganzen Vektorraum erzeugt (ein „Erzeugendensystem”),<br />
und in der es keine überflüssigen Vektoren gibt. D.h. nach dem vorherigen Abschnitt<br />
genau, dass die Teilmenge linear unabhängig ist. Das ist äquivalent dazu, dass die Teilmenge<br />
maximal linear unabhängig ist, d.h. fügt man nur einen einzigen Vektor hinzu, dann wird die Menge<br />
linear abhängig.<br />
Mit Hilfe einer Basis lässt sich jeder Vektor auf eindeutige Art als Linearkombination der Basisvektoren<br />
schreiben. Damit kann man später z.B. Abbildungen so definieren, dass man die Bilder der<br />
Basisvektoren festlegt und das Bild eines beliebigen anderen Vektors über seine Linearkombination<br />
errechnet.<br />
Ein wichtiger Satz der Vektorraumtheorie ist, dass jede Basis eines Vektorraums gleich viele Elemente<br />
besitzt (vorausgesetzt, es gibt überhaupt eine Basis mit endlich vielen Elementen). Die Anzahl<br />
der Elemente nennt man die „Dimension” des Vektorraums.<br />
Z.B. ist {(1, 0, 0, . . . , 0), (0, 1, 0 . . . , 0), . . . , (0, . . . , 0, 1)} eine Basis von K n mit genau n Elementen.<br />
Also ist dim K n = n.<br />
Die Polynome über K vom Grad ≤ n bilden einen Vektorraum P , der {1, X, X 2 , . . . , X n } als Basis<br />
hat. Also ist dim P = n + 1.<br />
Um aus einer beliebigen endlichen Menge M von Vektoren eine Basis des Vektorraums zu machen,<br />
muss man dafür sorgen, dass sie die beiden Bedingungen erfüllt:<br />
1. M muss linear unabhängig werden. D.h. man muss für jeden Vektor prüfen, ob er sich als<br />
Linearkombination der anderen darstellen lässt, und ihn dann entfernen. Manchmal kann man<br />
dies für einzelne Vektoren schon sehen, oder man sieht statt dessen, dass M linear unabhängig<br />
ist. Im Allgemeinen gibt es zwei Verfahren, mit denen man auf einmal eine linear unabhängige<br />
Teilmenge von M bilden kann, die den gleichen Untervektorraum [M] erzeugt:<br />
35<br />
an
(a) Ersetzt man einen Vektor aus M durch ein Vielfaches davon oder addiert man einen<br />
Vektor zu einem anderen, dann ändert sich das Erzeugnis [M] nicht. Diese Operationen<br />
reichen aus, um mit den Vektoren den Gaußalgorithmus durchzuführen. Da Vektoren<br />
üblicherweise als Spalten geschrieben werden, muss man allerdings aufpassen, denn die<br />
Operationen sind keine Zeilen-, sondern Spaltenoperationen.<br />
(b) Schreibt man die Vektoren als Spalten in eine Matrix (wie man allgemeine Vektoren als<br />
Spalten schreibt, wird später noch erklärt), dann kann man auf dieser Matrix den Gaußalgorithmus<br />
mit Zeilenoperationen durchführen. In der Treppenform der Matrix schaut<br />
man sich die Spalten an, bei denen eine neue Treppenstufe beginnt. Die Vektoren, die<br />
vorher in diesen Spalten gestanden haben, sind linear unabhängig und erzeugen [M].<br />
Diese Methode ist zwar nicht sofort ersichtlich, aber sie ist vorteilhaft, wenn man ohnehin<br />
die Matrix in Treppenform braucht. Man muss aber aufpassen, dass man die Methoden<br />
nicht miteinander vermischt.<br />
2. Jetzt hat man eine Basis von [M]. Nach dem Basisergänzungssatz kann man sie zu einer Basis<br />
des ganzen Vektorraums ergänzen, indem man genügend linear unabhängige Vektoren hinzufügt.<br />
Aber wie findet man solche Vektoren? Das hängt davon ab, welches der beiden Verfahren<br />
man gewählt hat:<br />
(a) Hier ist es re<strong>la</strong>tiv einfach, denn die Vektoren, die man erhalten hat, bilden eine transponierte<br />
Treppenmatrix. Sie kann durch Vektoren, die nur an einer Stelle eine 1 haben, zu<br />
einer vollständigen Diagonalmatrix ergänzt werden.<br />
(b) Bei der zweiten Methode kann man nicht direkt Vektoren finden, die die Menge zu einer<br />
Basis ergänzen. Man muss statt dessen die Treppenmatrix zu einer Diagonalmatrix<br />
machen und rückwärts verfolgen, wie sich die jeweiligen Spaltenvektoren dadurch ändern.<br />
Allerdings muss man aufpassen, denn es kann sich auf den gesamten Spaltenvektor<br />
auswirken.<br />
Eigentlich ist es sogar gar nicht schwer, eine linear unabhängige Menge zu einer Basis zu ergänzen.<br />
Denn an Vektoren, die mit der Menge linear unabhängig sind, mangelt es nie. Man sieht es schon im<br />
R 2 : Hat man einen beliebigen Vektor, dann ist ein zweiter Vektor nur dann linear abhängig mit dem<br />
ersten, wenn er ein Vielfaches von ihm ist, d.h. in die gleiche oder entgegengesetzte Richtung zeigt.<br />
Für die meisten Vektoren ist dies natürlich nicht der Fall. Also kann man die Vektoren auch raten,<br />
muss dann allerdings die lineare Unabhängigkeit noch nachweisen (z.B. mit einem LGS).<br />
4.2 Lineare Abbildungen<br />
4.2.1 Definition<br />
Für Vektorräume führt man wie für Gruppen Abbildungen ein, die „strukturerhaltend” sind, und<br />
nennt sie „Homomorphismen” oder hier auch „lineare Abbildungen” (siehe 3.1.3). Wenn sie die<br />
Vektorraumstruktur erhalten sollen, dann müssen sie zumindest Gruppenhomomorphismen bezüglich<br />
der Verknüpfung „+” des Vektorraums sein. Aber um sich genau zu merken, wie die Definition<br />
eines Vektorraumhomomorphismus aussehen muss, sollte man sich überlegen, was Homomorphismen<br />
im Allgemeinen sind. Wenn man weiß, was ein Homomorphismus eigentlich ist, dann ist die<br />
genaue Definition Nebensache.<br />
Dazu ist es am sinnvollsten, sich zunächst über den Spezialfall der Isomorphismen (der bijektiven<br />
Homomorphismen) Gedanken zu machen. Es wurde bereits erwähnt, dass man zwei Gruppen (bzw.<br />
36
Vektorräume), zwischen denen ein Isomorphismus existiert, als „isomorph” bezeichnet. Offensichtlich<br />
ist dies also eine wichtige Eigenschaft. Sie bedeutet, dass jedes Element der einen Gruppe eine<br />
genaue Entsprechung in der anderen Gruppe besitzt. D.h. es handelt sich eigentlich um die gleichen<br />
Gruppen, mit dem kleinen Unterschied, dass die Elemente andere Namen haben.<br />
Z.B. sind die Gruppen G = ({a, b}, ◦) und H = ({c, d}, ⋆) mit den folgenden Verknüpfungstafeln<br />
isomorph:<br />
◦ a b<br />
a a b<br />
b b a<br />
⋆ c d<br />
c c d<br />
d d c<br />
H entsteht aus G durch Umbenennen der Elemente. Der (einzige) Isomorphismus von G nach H<br />
bildet a auf c und b auf d ab.<br />
Diese Eigenschaft, dass die beiden Gruppen/Ringe/Vektorräume gleich sind bis auf die Namen der<br />
Elemente, könnte man auch als Definition für die Isomorphie benutzen. Aber was bedeutet das genau?<br />
Es muss ja irgendeine Zuordnung zwischen den Elementen der beiden Gruppen geben, nennen<br />
wir sie f. f muss bijektiv sein, denn die Umbenennung muss in beiden Richtungen funktionieren.<br />
Und die Gruppen sind genau dann gleich, wenn alle Rechnungen das gleiche Ergebnis liefern,<br />
denn die Gruppen sind durch die Gruppenverknüpfung bereits vollständig charakterisiert. Es muss<br />
also z.B. egal sein, ob man zwei Elemente in der einen Gruppe verknüpft oder ob man sie erst<br />
umbenennt, in der anderen Gruppe verknüpft, und dann die Umbenennung rückwärts durchführt.<br />
Insgesamt bedeutet das, dass das folgende Diagramm kommutiert:<br />
G ◦ → G<br />
f ↕ /// ↕ f<br />
H → ⋆ H<br />
(Dass ein Diagramm kommutiert, bedeutet, dass man im Diagramm von einem Punkt zu einem<br />
anderen einen beliebigen Weg wählen kann und immer das gleiche Ergebnis erhält.)<br />
Jetzt kann man sich überlegen, wie man die Bedingung so abschwächen kann, dass f nicht mehr<br />
bijektiv sein muss. Wenn f nicht mehr bijektiv ist, darf der Pfeil nur noch nach unten zeigen:<br />
G ◦ → G<br />
f ↓ /// ↓ f<br />
H → ⋆ H<br />
In diesem Diagramm gibt es aber überhaupt nur zwei Wege, die gleichen Anfangs- und Endpunkt<br />
haben, nämlich die Hintereinanderausführung von ◦ und f sowie f und ⋆. Also ist die Bedingung<br />
folgendermaßen: Bildet man für zwei Elemente x, y ∈ G den Wert x ◦ y und setzt ihn in f ein, d.h.<br />
f(x ◦ y), dann muss das Ergebnis übereinstimmen, wenn man erst f(x) und f(y) bildet und dann<br />
f(x) ⋆ f(y). Also f(x ◦ y) = f(x) ⋆ f(y) wie gehabt.<br />
Bei Vektorräumen V und W haben wir jeweils zwei Verknüpfungen „+” und „·”, die neue Elemente<br />
aus V bzw. W liefern. Ein entsprechendes Diagramm sieht also so aus:<br />
V +,·<br />
→ V<br />
Φ ↓ /// ↓ Φ<br />
W → +,· W<br />
37
D.h. es gibt eigentlich zwei Bedingungen. Zum Einen muss Φ(x + y) = Φ(x) + Φ(y) für alle<br />
x, y ∈ V gelten. Zum Anderen muss aber auch für die Verknüpfungen „·” von V und W egal sein,<br />
ob man zuerst · und dann Φ ausführt oder zuerst Φ und dann ·. V und W müssen also erst einmal<br />
Vektorräume über dem selben Körper K sein, und dann muss Φ(a · x) = a · Φ(x) für alle a ∈ K<br />
gelten.<br />
Diese beiden Bedingungen kann man noch zu Φ(a · x + y) = a · Φ(x) + Φ(y) zusammenfassen, denn<br />
mit a = 1 bzw. y = 0 kann man die beiden einzelnen Bedingungen erzeugen.<br />
Die Begriffe „Kern” und „Bild” werden auf die jeweiligen Gruppen mit „+” bezogen. Es gilt auch<br />
hier, dass Kern und Bild Untervektorräume sind. D.h. sie haben z.B. eine bestimmte Dimension, die<br />
höchstens so groß wie die Dimension von V bzw. W sein kann.<br />
4.2.2 Multiplikation mit Matrizen<br />
Eine spezielle Art der linearen Abbildungen, die man zwischen den Standardräumen K n und K m<br />
definieren kann, ist die Multiplikation mit einer Matrix A ∈ K m×n , d.h. Φ : K n → K m , x ↦→ A · x.<br />
Schreibt man die Multiplikation aus, kann man leicht nachrechnen, dass dies eine lineare Abbildung<br />
definiert. Was sind Kern und Bild?<br />
Es gilt Kern Φ = {x ∈ K n : Φ(x) = A · x = 0}. Das ist die Lösungsmenge des homogenen<br />
LGS A · x = 0, also mit den bekannten Mitteln zu berechnen (siehe 3.3.2). Die Menge, die man<br />
dabei erhält, ist bereits in einer Form, in der jedes Element als Linearkombination bestimmter Vektoren<br />
geschrieben ist. Diese Vektoren sind immer linear unabhängig; das sieht man, indem man sich<br />
überlegt, wie sie gebildet werden. Also bilden sie eine Basis des Kerns.<br />
Das Bild ist sogar noch einfacher zu finden. Wenn x jeden Vektor aus K n durchläuft, bekommt man<br />
nach der letzten Darstellung im Abschnitt über Matrizenmultiplikation (3.2.4) alle Vielfachen der<br />
Spaltenvektoren von A sowie Summen davon. Also bilden die Spalten von A ein Erzeugendensystem<br />
von Bild Φ, und eine Basis lässt sich leicht daraus bilden, indem man linear abhängige Vektoren<br />
entfernt. Hat man den Kern bereits ausgerechnet, dann bilden nach dem Abschnitt über das Finden<br />
von Basen (4.1.5) die Vektoren eine Basis des Bildes, bei denen in der Treppenform eine neue Stufe<br />
anfängt.<br />
4.2.3 Definition über Basen<br />
Die wichtigste Eigenschaft einer Basis B = {b1, . . . , bn} eines Vektorraums V ist, dass man jeden<br />
Vektor x ∈ V eindeutig als Linearkombination x = n<br />
ai · bi = a1 · b1 + · · ·+ an · bn schreiben kann.<br />
Mit dieser Eigenschaft kann man im Zusammenhang mit linearen Abbildungen sehr viel anfangen.<br />
Ist Φ : V → W eine lineare Abbildung, und sind die Bilder Φ(bi) für alle i festgelegt, dann ergibt<br />
sich für ein beliebiges x ∈ V wie oben:<br />
Φ(x) = Φ(a1 · b1 + · · · + an · bn) = a1 · Φ(b1) + · · · + an · Φ(bn)<br />
Da alle Φ(bi) festgelegt wurden, ist Φ damit vollständig definiert. Sie ist auch wohldefiniert, denn<br />
die Darstellung jedes Vektors als Linearkombination ist eindeutig.<br />
Beispiel: Im R2 kann eine lineare Abbildung Φ : R2 <br />
1<br />
→ R definiert werden durch Φ( ) = 3<br />
<br />
<br />
<br />
0<br />
<br />
0<br />
2<br />
2<br />
und Φ( ) = 5. Um ein bestimmtes Bild auszurechnen, z.B. Φ( ), schreibt man als<br />
1<br />
−3<br />
−3<br />
38<br />
i=1
1 0<br />
2<br />
Linearkombination der Basisvektoren, d.h. als 2 · − 3 · und rechnet aus: Φ( ) =<br />
<br />
0 1<br />
−3<br />
1 0<br />
1<br />
0<br />
Φ(2 · − 3 · ) = 2 · Φ( ) − 3 · Φ( ) = 2 · 3 − 3 · 5 = −9.<br />
0 1<br />
0<br />
1<br />
<br />
x1<br />
Allgemeiner ist Φ( ) = x1 · 3 + x2 · 5 = 3 5 <br />
x1<br />
· . D.h. die Abbildung lässt sich aus-<br />
x2<br />
drücken durch Φ(x) = 3 5 · x, also durch die Multiplikation mit einer Matrix. Dies lässt sich<br />
verallgemeinern.<br />
Dazu muss allerdings erst einmal die Basis B eine Ordnung bekommen, aber Mengen sind nicht<br />
geordnet. Auch wenn Basen oft als Mengen aufgefasst werden, sch<strong>la</strong>ge ich vor, sich eine Basis eher<br />
als eine 1-Zeilen-Matrix B = <br />
b1 b2 · · · bn vorzustellen. Im dem Fall, dass die bi Spaltenvektoren<br />
sind, wird daraus dann sogar eine richtige Matrix, deren Matrixeigenschaften später noch<br />
wichtig werden. Jedenfalls kann man dann für ein x ∈ V , das als n<br />
ai · bi dargestellt wurde, den<br />
„Koordinatenvektor”<br />
DB(x) :=<br />
(bezüglich B) definieren. Dann gilt mit der üblichen Matrizenmultiplikation:<br />
⎛ ⎞<br />
B · DB(x) = ⎜<br />
b1 · · · bn · ⎝<br />
a1<br />
.<br />
an<br />
⎛<br />
⎜<br />
⎝<br />
a1<br />
.<br />
an<br />
⎞<br />
⎟<br />
⎠<br />
x2<br />
i=1<br />
⎟<br />
⎠ = b1 · a1 + · · · + bn · an = x<br />
Das Schöne ist, dass diese Koordinatenvektoren Elemente aus K n sind, für die man wie im Beispiel<br />
eine Matrix DSB(Φ) konstruieren kann, die Φ definiert. (Das „S” steht für die Standardbasis; es wird<br />
gleich verallgemeinert.) Und zwar gilt:<br />
Φ(x) = Φ(b1 · a1 + · · · + bn · an) = Φ(b1) · a1 + · · · + Φ(bn) · an =<br />
⎛ ⎞<br />
= Φ(b1) · · · Φ(bn) ·<br />
⎜<br />
⎝<br />
a1<br />
⎟<br />
. ⎠ = Φ(b1) · · · Φ(bn) <br />
<br />
·DB(x)<br />
<br />
=:DSB(Φ)<br />
an<br />
Um dies im K<strong>la</strong>rtext auszudrücken: Man nimmt die Bilder Φ(bi) der Basisvektoren und schreibt sie<br />
als Spalten in die Matrix DSB(Φ). Dies sollte man sich auf jeden Fall merken, weil das Aufstellen<br />
einer solchen Matrix zu den Standardaufgaben in der Linearen Algebra gehört.<br />
Oft möchte man aber das Ergebnis als Koordinatenvektor bezüglich einer geeigneten Basis C von<br />
W darstellen, das heißt man sucht DCB(Φ) so, dass DC(Φ(x)) = DCB(Φ) · DB(x) ist. Das ist<br />
analog genau dann der Fall, wenn DCB(Φ) = DC(Φ(b1)) · · · DC(Φ(bn)) ist. (Es muss ja auch<br />
C · DCB(Φ) = DSB(Φ) sein.) Die Spalten der Matrix DCB(Φ) sind also nicht mehr die Bilder Φ(bi)<br />
als Vektoren bezüglich der Standardbasis, sondern als Koordinatenvektoren bezüglich der Basis C.<br />
Überhaupt muss W ja kein Vektorraum K n sein, der eine Standardbasis besitzt. (Dann ist DSB(Φ)<br />
eigentlich gar keine richtige Matrix.) DCB(Φ) kann man jedoch immer bilden. Damit sind alle linearen<br />
Abbildungen, die es gibt, charakterisiert.<br />
39
4.2.4 Basiswechsel<br />
Für Φ : V → W mit der Abbildungsmatrix DC1B1(Φ) bezüglich zwei Basen B1 und C1 von V bzw.<br />
W muss man oft eine andere Abbildungsmatrix DC2B2(Φ) bezüglich zwei anderen Basen konstruieren.<br />
Ich möchte hier kurz darstellen, wie man diese Matrix am schnellsten findet, wenn alle Basen<br />
als Matrizen geschrieben werden können. Diese sind dann sogar invertierbar, weil Basen linear unabhängig<br />
sind.<br />
Ich gehe erst einmal davon aus, dass V und W Standardbasen S besitzen. Dann ist DSS(Φ) · B1 =<br />
DSB1(Φ) = C1 · DC1B1(Φ), also DSS(Φ) = C1 · DC1B1(Φ) · B −1<br />
1 . Analog ist aber auch DSS(Φ) =<br />
C2 · DC2B2(Φ) · B −1<br />
2 . Also ist insgesamt DC2B2(Φ) = C −1<br />
2 · C1 · DC1B1(Φ) · B −1<br />
1 · B2. Dies gilt sogar<br />
ohne die Existenz der Standardbasis.<br />
Diese Formel kann man sich wahrscheinlich schlecht merken, vor allem die Reihenfolge der einzelnen<br />
Faktoren. Allerdings kann man sich die einzelnen Schritte schnell herleiten, wenn man einmal<br />
verstanden hat, wie die Koordinatenvektoren funktionieren. Und zwar liefert DCB(Φ) immer einen<br />
Koordinatenvektor bezüglich C, wenn man einen Vektor einsetzt, denn so war DCB(Φ) ja gerade<br />
definiert. Um dies zu kompensieren, muss man mit C von links multiplizieren. Aber DCB(Φ) nimmt<br />
einen Koordinatenvektor bezüglich B, den man erhält, indem man einen Vektor bezüglich der Standardbasis<br />
mit B −1 multipliziert. Analysiert man die obige Gleichung danach, an welcher Stelle was<br />
für ein Typ von Vektor vorliegt, dann sollte die Reihenfolge k<strong>la</strong>r sein.<br />
Besonders wichtig ist noch der Spezialfall V = W, B1 = C1, B2 = C2. Dann wird die obige<br />
Formel nämlich zu DB2B2(Φ) = B −1<br />
2 · B1 · DB1B1(Φ) · B −1<br />
1 · B2, und man sieht, dass die beiden<br />
Matrizen invers zueinander sind. (Es gilt ja (B −1<br />
1 · B2) −1 = B −1<br />
2 · B1). Eine Aufgabe wie „Finden<br />
Sie eine invertierbare Matrix S, so dass DB2B2(Φ) = S −1 · DB1B1(Φ) · S ist”, ist also einfach durch<br />
S = B −1<br />
1 · B2 zu lösen. Auch hier muss man natürlich aufpassen, dass man die Reihenfolge einhält.<br />
Ich möchte hier noch auf einen kleinen Rechentrick aufmerksam machen, mit dem man eine Matrix<br />
gleichzeitig invertieren und von rechts mit einer anderen multiplizieren kann, hier z.B. B −1<br />
1 · B2:<br />
Normalerweise wendet man beim Invertieren den Gaußalgorithmus auf die Matrix B1|E an; dabei<br />
werden B1 und E von links mit einer invertierbaren Matrix C multipliziert, so dass C · B1 = E<br />
ist, also C = B −1<br />
1 (siehe 3.3.3). Rechts bekommt man C · E = B −1<br />
1 · E = B −1<br />
1 . Aber in dieser<br />
Formel kann man schon erkennen, dass man statt E auch direkt B2 benutzen kann (d.h. man fängt<br />
mit <br />
−1<br />
B1|B2 an), um statt B1 ·E eben B −1<br />
1 ·B2 zu bekommen. Übrigens muss B2 zu diesem Zweck<br />
nicht notwendigerweise quadratisch sein.<br />
Die Matrizen, die Zeilenumformungen durchführen, wenn man von links mit ihnen multipliziert,<br />
bewirken die gleichen Umformungen auf den Spalten, wenn man von rechts damit multipliziert.<br />
Auch damit kann man eine Matrix invertieren, denn es gilt (A −1 ) T = (A T ) −1 für alle invertierbaren<br />
Matrizen A. D.h. man kann zum Invertieren von B1 auch Spaltenoperationen auf<br />
<br />
B1<br />
E<br />
durchführen, und das Produkt B2 · B −1<br />
1 analog zu B −1<br />
1 · B2 berechnen, indem man E durch durch<br />
B2 ersetzt. Oder man nutzt direkt aus, dass B2 · B −1<br />
1 = ((B T 1 )−1 · B T 2 )T ist.<br />
4.2.5 Dimensionsformel<br />
Für eine lineare Abbildung Φ : V → W gilt die folgende Dimensionsformel, die man sich unbedingt<br />
merken sollte:<br />
dim Kern Φ + dim Bild Φ = dim V<br />
40
Dass Kern und Bild sich gegenseitig sozusagen ergänzen, kann man sich noch ganz gut vorstellen.<br />
Aber wie soll man sich merken, was auf der rechten Seite steht, dim V oder dim W ? Ganz einfach:<br />
Es kann nicht W sein, denn den Vektorraum W kann man problemlos vergrößern, ohne dass sich<br />
an Φ etwas ändern muss (d.h. sowohl Kern als auch Bild können gleich bleiben). Also muss V da<br />
stehen.<br />
Diese Dimensionsformel kann man an vielen Stellen anwenden, wo es um Dimensionen und lineare<br />
Abbildungen geht. Zusammen mit dem nun folgenden Dimensionsformeln für Summen und Faktorräume<br />
kann man damit viele Dimensionsaufgaben schnell lösen.<br />
4.3 Summen und Faktorräume<br />
4.3.1 Summen von Vektorräumen<br />
Die Summe von zwei Vektorräumen ist das, was entsteht, wenn man Vektoren aus beiden Vektorräumen<br />
addiert. Da die Addition kommutativ ist, ist dies das Erzeugnis der beiden Vektorräume,<br />
genauer gesagt das Erzeugnis der Vereinigung.<br />
Ähnlich wie beim Erzeugnis einzelner Vektoren kann man dabei betrachten, wie viel beim Bilden<br />
der Summe überflüssig ist. Das heißt, dass einer der beiden Vektorräume kleiner sein könnte, und<br />
es ergibt sich trotzdem das selbe Ergebnis. Es ist genau dann der Fall, wenn der Schnitt ein nichttrivialer<br />
Vektorraum ist (also nicht nur aus dem Nullvektor besteht). Besteht der Schnitt nur aus dem<br />
Nullvektor, könnte man sagen, dass die beiden Vektorräume nichts miteinander zu tun haben, genau<br />
wie linear unabhängige Vektoren in gewisser Weise nichts miteinander zu tun haben. Man nennt<br />
dann die Summe „direkt”.<br />
Für die Dimension der Summe gilt also genau das, was man erwarten würde: Ist die Summe direkt,<br />
dann haben wir zwei Vektorräume, die nichts miteinander zu tun haben, also addieren sich<br />
die Dimensionen. Z.B. ist die Summe von zwei verschiedenen Geraden (1-dimensional) die Ebene<br />
(2-dimensional), die diese Geraden enthält. Im allgemeinen Fall ist der Schnitt der beiden Vektorräume<br />
ein Indikator dafür, wie viel überflüssig ist, also muss man die Dimension des Schnitts noch<br />
subtrahieren.<br />
Wenn zu jedem der beiden Vektorräume ein Erzeugendensystem gegeben ist, dann ist die Vereinigung<br />
ein Erzeugendensystem der Summe. Sind beides disjunkte Basen, dann bildet die Vereinigung<br />
also genau dann eine Basis, wenn die Summe direkt ist. Um die Direktheit festzustellen, kann man<br />
also prüfen, ob die Basisvektoren der beiden Vektorräume insgesamt linear unabhängig sind.<br />
4.3.2 Faktorräume<br />
Um zu erklären, was bei der Faktorisierung von Vektorräumen passiert, möchte ich kurz einschieben,<br />
wie die Faktorisierung bei Gruppen und Ringen funktioniert hat. Ich habe das in diesem <strong>Skript</strong><br />
nicht beschrieben, weil nur das Rechnen in den Restk<strong>la</strong>ssenringen Zm in der Vorlesung wirklich<br />
von Bedeutung war. Deshalb werde ich anhand dieses Beispiels die allgemeine Faktorisierung von<br />
Gruppen erläutern.<br />
Zur Faktorisierung einer Menge gehören immer eine K<strong>la</strong>sseneinteilung (Partition) und eine Äquivalenzre<strong>la</strong>tion,<br />
die sich gegenseitig bedingen (siehe 2.4). Normalerweise wird die Äquivalenzre<strong>la</strong>tion<br />
angegeben, aber man kann auch erst die K<strong>la</strong>sseneinteilung vornehmen und sich dann eine möglichst<br />
einfache Re<strong>la</strong>tion dazu überlegen. Im Falle Zm hat man die K<strong>la</strong>ssen [x] mit x ∈ Z, wobei [0] =<br />
41
[m] = . . . , [1] = [m + 1] = . . . ist usw. Die K<strong>la</strong>ssen sind aber Mengen, und zwar die Mengen aller<br />
Elemente mit gleicher K<strong>la</strong>sse. Z.B. ist [0] = {. . . , −m, 0, m, 2 · m, . . . } = {m · z : z ∈ Z} =: m · Z.<br />
Oder [1] = {. . . , −m + 1, 1, m + 1, 2 · m + 1, . . . } = {1 + m · z : z ∈ Z} =: 1 + m · Z. Allgemein<br />
ist [x] = {x + m · z : z ∈ Z} = x + m · Z. Das heißt: In der K<strong>la</strong>sse von x liegen x selbst und alle<br />
Zahlen, die sich um ein Vielfaches von m davon unterscheiden. Zm, die Menge dieser K<strong>la</strong>ssen, ist<br />
also: Zm = {[x] : x ∈ Z} = {x + m · Z : x ∈ Z} =: Z/m·Z.<br />
Genau so bildet man auch Faktorräume. Bei der Faktorisierung eines Vektorraums V nach einem<br />
Untervektorraum U sind die entstehenden K<strong>la</strong>ssen [x] = x + U = {x + u : u ∈ U} für x ∈ V . Es<br />
ist also V/U = {x + U : x ∈ V }. Wie diese Mengen im R 3 aussehen, kann man sich anhand des<br />
„Spaghetti- und Lasagne-Modells” k<strong>la</strong>rmachen:<br />
Es gibt im R 3 genau zwei nichttriviale Arten von Unterräumen, nämlich Geraden und Ebenen. Was<br />
passiert also, wenn U eine Gerade ist (durch den Ursprung, sonst wäre es kein Vektorraum)? Dann<br />
sind auch alle Menge x + U Geraden, allerdings nicht durch den Ursprung. Es sind alle Geraden,<br />
die parallel zu U ver<strong>la</strong>ufen, wie Spaghetti. Und die Faktormenge ist die Menge aller dieser Geraden,<br />
also eine Menge von Spaghetti, in der jedes Element eine Spaghetti ist. Mit Ebenen verhält es sich<br />
gleich; hier hat man es mit Lasagne statt Spaghetti zu tun.<br />
Nur diese Mengen zu betrachten, wäre uninteressant. Faktorisierung enthält immer auch Verknüpfungen,<br />
die man auf der Faktormenge definiert. Und zwar überträgt man die Verknüpfungen von den<br />
Elementen auf die K<strong>la</strong>ssen, z.B. [x] + [y] := [x + y]. Bei Gruppen ist dies nur unter einer speziellen<br />
Voraussetzung möglich; bei Vektorräumen ist diese Voraussetzung immer erfüllt. Also bildet die<br />
Faktormenge wieder einen Vektorraum.<br />
Wieder ist das „Spaghetti-/Lasagne-Modell” gefragt: Jede Spaghetti bzw. jedes Lasagneb<strong>la</strong>tt bildet<br />
einen Vektor. Um Vektoren zu addieren und zu multiplizieren, könnte man z.B. ein Brett durch die<br />
Spaghetti legen, oder vielleicht sollten es dann besser Nägel sein. Jetzt hat man eine Fläche, die<br />
isomorph zu R 2 ist. Aber man kommt auch ohne das Brett aus, wenn man die Spaghetti aus einem<br />
Blickwinkel betrachtet, aus dem sie zu Punkten werden.<br />
Hier sieht man auch schon, wie sich die Dimensionen verhalten: Es ist dim V/U = dim V − dim U.<br />
4.4 Dualräume<br />
4.4.1 Definition<br />
Ist V ein K-Vektorraum, dann ist der Dualraum V ∗ kurz gesagt die Menge der linearen Abbildungen<br />
von V nach K, als Vektorraum über K. Diese nennt man auch „Linearformen”. Im Gegensatz zu<br />
den anderen Objekten der Linearen Algebra gibt es dazu weder eine anschauliche Erklärung noch<br />
einen Spezialfall, den man schon kennt. Also muss man sich beim Arbeiten damit immer wieder die<br />
Definition ins Gedächtnis rufen und alles darauf zurückführen.<br />
42
4.4.2 Duale Basis<br />
Ist V n-dimensional, dann ist V ∗ isomorph zu V . Ein entsprechender Isomorphismus ist zwar meistens<br />
künstlich und hat keine theoretische Bedeutung; wichtig ist aber die Folgerung, dass jede Basis<br />
von V ∗ n Elemente hat. Ist B = <br />
b1 b2 · · · bn <br />
eine (geordnete) Basis von V , dann kann man<br />
∗ von V suchen, die mit B ein besonderes Verhältnis hat.<br />
nach einer Basis B ∗ = b ∗ 1 b ∗ 2 · · · b ∗ n<br />
B ∗ nennt man die „duale Basis” zu B.<br />
Die Elemente b ∗ i von B∗ sind natürlich Linearformen, d.h. lineare Abbildungen von V nach K.<br />
Worauf könnten sie ein x ∈ V abbilden? D.h. wie steht x mit bi in Verbindung? Es gibt eigentlich<br />
nur eine Verbindung zwischen x und bi, nämlich die i-te Koordinate von x. Am besten schreibt man<br />
den Koordinatenvektor von x aus:<br />
⎛ ⎞<br />
a1<br />
⎜<br />
⎜a2<br />
⎟<br />
DB(x) = ⎜ ⎟<br />
⎝ . ⎠<br />
Dann ist ai die Koordinate zu bi. Die duale Basis B ∗ ist gerade so definiert, dass b ∗ i (x) = ai ist.<br />
Anstatt für ein beliebiges x ∈ V anzugeben, worauf b∗ i es abbilden soll, reicht es bekanntlich, die<br />
Bilder der Basisvektoren bj von V festzulegen (siehe 4.2.3). Was ist aber der Koordinatenvektor<br />
von bj? Er hat an der j-ten Stelle eine 1, und alle anderen Stellen sind 0. Also ist eine einfachere<br />
Definition der dualen Basis:<br />
<br />
1, falls i = j<br />
Oder als Abbildungsmatrix:<br />
b ∗ i (bj) =<br />
an<br />
0, sonst<br />
DEB(b ∗ i ) = 0 · · · 0 1 0 · · · 0 <br />
(wobei die 1 in der i-ten Spalte steht und E = 1 die Standardbasis von K ist)<br />
Soll man die duale Basis zu B bestimmen, dann ist es aber eher angebracht, konkret für jedes x ∈ V<br />
anzugeben, worauf es von b ∗ i abgebildet wird. Ist V = Kn mit der Standardbasis S, dann ist DES(b ∗ i )<br />
die i-te Zeile von B −1 . Das ergibt sich beim Basiswechsel (siehe 4.2.4), oder man überlegt sich, wie<br />
man DB(x) aus x berechnet: Da x = B · DB(x) ist, gilt DB(x) = B −1 · x, und damit ist die i-te<br />
Komponente von DB(x) gerade die i-te Zeile von B−1 mal x.<br />
Ist umgekehrt eine duale Basis B∗ = b∗ 1 b∗ 2 · · · b∗ <br />
n<br />
n gegeben und B zu berechnen (im K ), dann<br />
bestimmt man zunächst einmal Abbildungsmatrizen der b∗ i bezüglich der Standardbasis, schreibt<br />
diese als Zeilen in eine einzige n × n-Matrix und invertiert diese. Das Ergebnis ist dann B.<br />
Wenn V nicht der Standardraum K n ist, dann sucht man am besten zunächst eine möglichst einfache<br />
Basis C von V und untersucht DEC(b∗ i ) statt DES(b∗ i ). In diesem Fall sollte man wirklich den<br />
Basiswechsel durchführen, oder man stellt sich die Elemente aus V einfach als Koordinatenvektoren<br />
bezüglich C vor und rechnet wie in K n .<br />
4.4.3 Duale Abbildung<br />
Ist eine lineare Abbildung Φ zwischen zwei K-Vektorräumen V und W gegeben (Φ : V → W ),<br />
dann kann man sich überlegen, wie man eine analoge Abbildung zwischen den Dualräumen V ∗ und<br />
W ∗ definiert. Es ist nicht kompliziert, aus Φ eine Linearform zu machen, d.h. eine lineare Abbildung<br />
43
nach K. Dazu muss man Φ nur mit einer linearen Abbildung von W nach K verketten; dann erhält<br />
man eine lineare Abbildung von V nach K. Aber eine lineare Abbildung von W nach K ist ein<br />
Element aus W ∗ , und eine lineare Abbildung von V nach K ist eine Element aus V ∗ . Damit erhält<br />
man eine Abbildung:<br />
Φ ∗ : W ∗ → V ∗ , y ↦→ y ◦ Φ<br />
Diese Abbildung ist selbst linear, man nennt sie die „duale Abbildung” zu Φ. Man beachte, dass sie<br />
in der umgekehrten Richtung definiert ist. Aber: Auch wenn im endlichdimensionalen Fall V zu V ∗<br />
und W zu W ∗ isomorph ist, liefert das keine lineare Abbildung von W nach V , die allein durch Φ<br />
definiert ist. Denn die Isomorphismen sind immer abhängig von willkürlich gewählten Basen von V<br />
und W .<br />
Im diesem Fall kann man jedoch für V und W Basen B und C festlegen und Φ mit Hilfe von DCB(Φ)<br />
angeben. Wie sieht die Abbildungsmatrix von Φ ∗ bezüglich C ∗ und B ∗ aus? Es ist DB ∗ C ∗(Φ∗ ) =<br />
(DCB(Φ)) T , weswegen man Φ ∗ auch als „transponierte Abbildung” Φ T bezeichnet.<br />
Da Quelle und Ziel von Φ ∗ gegenüber Φ gerade vertauscht sind, ist es wahrscheinlich nicht verwunderlich,<br />
dass sich auch die Richtung der Verkettung umdreht, d.h. (Φ ◦ Ψ) ∗ = Ψ ∗ ◦ Φ ∗ . Außerdem<br />
sind Kern und Bild vertauscht in dem Sinne, dass man Kern Φ ∗ aus Bild Φ berechnen kann und<br />
umgekehrt:<br />
Kern Φ ∗ = {y ∈ W ∗ : Φ ∗ (y) = y ◦ Φ = 0} =<br />
= {y ∈ W ∗ : y(Φ(x)) = 0 ∀x ∈ V } =<br />
= {y ∈ W ∗ : y(z) = 0 ∀z ∈ Bild Φ} =<br />
= {y ∈ W ∗ : y(Bild Φ) = {0}}<br />
Bild Φ ∗ = {z ∈ V ∗ : ∃y ∈ W ∗ : z = Φ ∗ (y) = y ◦ Φ} =<br />
= {z ∈ V ∗ : ∃y ∈ W ∗ : z(x) = y(Φ(x)) ∀x ∈ V } =<br />
= {z ∈ V ∗ : z(Kern Φ) = {0}} (Homomorphiesatz, siehe Beispiel in 3.1.4)<br />
Kern Φ = {x ∈ V : Φ(x) = 0} =<br />
= {x ∈ V : y(Φ(x)) = (Φ ∗ (y))(x) = 0 ∀y ∈ W ∗ } =<br />
= {x ∈ V : z(x) = 0 ∀z ∈ Bild Φ ∗ }<br />
Bild Φ = {z ∈ W : ∃x ∈ V : z = Φ(x)} =<br />
= {z ∈ W : ∃x ∈ V : y(z) = y(Φ(x)) = (Φ ∗ (y))(x) ∀y ∈ W ∗ } =<br />
= {z ∈ W : y(z) = 0 ∀y ∈ Kern Φ ∗ }<br />
Insbesondere ist Φ ∗ genau dann injektiv, wenn Φ surjektiv ist, und umgekehrt.<br />
Außerdem gilt für eine weitere lineare Abbildung Ψ : W → X genau dann Kern Ψ = Bild Φ, wenn<br />
Kern Φ ∗ = Bild Ψ ∗ ist:<br />
Kern Ψ = Bild Φ ⇒ Kern Φ ∗ = {y ∈ W ∗ : y(Bild Φ) = y(Kern Ψ) = {0}} = Bild Ψ ∗<br />
Kern Φ ∗ = Bild Ψ ∗ ⇒ Kern Ψ = {z ∈ W : y(z) = 0 ∀y ∈ Bild Ψ ∗ = Kern Φ ∗ } = Bild Φ<br />
Ein kleiner Anwendungsfall ist die Darstellung eines gegebenen Untervektorraums U von V (endlichdimensional)<br />
als Lösungsmenge eines homogenen LGS, also als Kern einer linearen Abbildung<br />
Φ : V → W , wobei W ein endlichdimensionaler Vektorraum über dem selben Grundkörper ist.<br />
Sei B eine geordnete Basis von U, dann hat die Abbildung Ψ : K dim U → V, x ↦→ B · x als Bild<br />
gerade U. Kern Ψ ∗ = {y ∈ V ∗ : y(Bild Ψ) = y(U) = {0}} (s.o.). Man bestimme eine geordnete<br />
Basis C davon (die Abbildungsmatrix von Ψ ∗ bezüglich entsprechender Basen ist B T ) und erhält<br />
44
damit Φ∗ : W ∗ → V ∗ , z ↦→ C · DS∗(z) (mit entsprechend gewähltem W mit Standardbasis S), so<br />
dass Bild Φ∗ = Kern Ψ∗ ist und deshalb Kern Φ = Bild Ψ = U.<br />
Dieses Beispiel soll verdeutlichen, dass Fälle, in denen mit transponierten Matrizen gearbeitet wird,<br />
oft allgemeiner mit Hilfe von Dualräumen und dualen Abbildungen beschrieben werden können.<br />
4.4.4 Alternative Definition für Abbildungsmatrizen<br />
Da duale Basen eine Darstellung für die Koordinaten eines Vektors bezüglich der ursprünglichen<br />
Basis liefern, liegt es nahe, dass Abbildungsmatrizen mit Hilfe von dualen Basen einfacher definiert<br />
werden können. Sind V , W , B, C, Φ wie immer und DCB(Φ) = ((aij)), wie kann man dann ein<br />
aij genau berechnen? Bei der Definition (4.2.3) wurden Abbildungsmatrizen immer spaltenweise<br />
angegeben: ⎛ ⎞<br />
⎜<br />
⎝<br />
a1j<br />
a2j<br />
.<br />
amj<br />
⎟ = DC(Φ(bj))<br />
⎠<br />
Aber jetzt gibt es die Möglichkeit, eine einzelne Komponente von DC(Φ(bj)) und damit ein einzelnes<br />
aij zu ermitteln. Die duale Basis C ∗ war gerade so definiert, dass c ∗ i (x) die i-te Komponente von<br />
DC(x) für ein x ∈ W ist, also:<br />
aij = c ∗ i (Φ(bj))<br />
4.5 Determinanten<br />
4.5.1 Definition<br />
Die übliche Definition der Determinante ist schwer zu verstehen und anzuwenden. Also merkt man<br />
sich lieber nur, wie man sie berechnet. Das taugt natürlich auch als Definition; allerdings gibt es<br />
beim Berechnen sehr viele Wahlmöglichkeiten, und es leuchtet nicht sofort ein, dass das Ergebnis<br />
davon unabhängig ist. Benutzt man die mathematische Definition, ist dies wiederum k<strong>la</strong>r.<br />
Definiert ist die Determinante für eine quadratischen Matrix R n×n über einem kommutativen Ring<br />
R. Bei endlichdimensionalen Vektorräumen kann man auch von der Determinante einer linearen<br />
Abbildung Φ : V → V sprechen, denn die Determinante der Abbildungsmatrix DBB(Φ) ist unabhängig<br />
von der Basis B. Die Determinante drückt gewissermaßen die gesamte Matrix in einer Zahl<br />
aus. Dabei gehen natürlich Informationen verloren, aber es bleiben einige Eigenschaften erhalten,<br />
wie z.B. die Invertierbarkeit und das Verhalten bei der Multiplikation.<br />
Um die Determinante auszurechnen, merkt man sich am besten die folgenden Regeln (in dieser Reihenfolge).<br />
Ich habe jeweils typische Beispiele dazugeschrieben, bei denen man sich leicht überlegen<br />
kann, wie es weitergeht.<br />
1. Die Determinante einer Dreiecksmatrix ist das Produkt der Diagonalelemente:<br />
⎛<br />
a ∗<br />
⎞<br />
∗<br />
⎛<br />
a 0<br />
⎞<br />
0<br />
det ⎝0<br />
b ∗⎠<br />
= det ⎝∗<br />
b 0⎠<br />
= a · b · c<br />
0 0 c ∗ ∗ c<br />
Insbesondere ist die Determinante der Einheitsmatrix immer 1.<br />
45
2. Addiert man ein Vielfaches einer Zeile oder Spalte zu einer anderen, ändert sich die Determinante<br />
nicht:<br />
⎛<br />
a b<br />
⎞<br />
c<br />
⎛<br />
a b c<br />
⎞<br />
det ⎝a<br />
d e⎠<br />
= det ⎝0<br />
d − b e − c⎠<br />
a f g 0 f − b e − c<br />
3. Multipliziert man eine Zeile oder Spalte mit einem Faktor k, vervielfacht sich die Determinante<br />
um k. Multipliziert man die ganze Matrix mit k, vervielfacht sich die Determinante also<br />
um kn :<br />
⎛<br />
a ab<br />
⎞<br />
ac<br />
⎛<br />
1 b<br />
⎞<br />
c<br />
det ⎝1<br />
d e ⎠ = a · det ⎝1<br />
d e⎠<br />
1 f g<br />
1 f g<br />
(Vorsicht: Hier ist k = 1.<br />
Da der Wert der Determinante durch a geteilt wird, muss man mit a<br />
a<br />
multiplizieren, um den ursprünglichen Wert wiederzubekommen.)<br />
4. Vertauscht man zwei Zeilen oder Spalten, ändert sich das Vorzeichen der Determinante:<br />
⎛<br />
a ∗<br />
⎞<br />
∗<br />
⎛<br />
a ∗<br />
⎞<br />
∗<br />
det ⎝0<br />
0 c⎠<br />
= − det ⎝0<br />
b ∗⎠<br />
0 b ∗<br />
0 0 c<br />
Da in einem Körper die Schritte des Gaußalgorithmus offenbar den Wert der Determinante nur um<br />
einen Faktor k = 0 verändern und das Ergebnis des Gaußalgorithmus immer eine Dreiecksmatrix ist,<br />
ist die Determinante ein Kriterium dafür, ob die Matrix invertierbar ist. Ist dies nämlich der Fall, dann<br />
stehen hinterher auf der Diagonalen nur Einsen, und damit ist die Determinante von 0 verschieden.<br />
Ist es nicht der Fall, dann steht auf der Diagonalen mindestens eine Null, so dass die Determinante<br />
gleich 0 ist. Die Determinante ist also immer dann 0, wenn der Rang der Matrix kleiner als n ist;<br />
z.B. schon dann, wenn die Matrix eine Nullzeile oder -spalte enthält.<br />
Besteht eine Matrix nur aus Zahlen, kann man mit diesen Regeln immer recht schnell die Determinante<br />
berechnen. Problematischer wird es, wenn Variablen oder Polynome in der Matrix stehen;<br />
dann sollte man unbedingt auch die folgenden Verfahren anwenden können:<br />
4.5.2 Formeln<br />
Für n ≤ 3 existieren einfache Formeln, die man sich merken muss. Die Definition der Determinante<br />
ergibt sofort, dass die Determinante für n = 0 immer 1 ist, und dass für n = 1 gilt:<br />
Für n = 2 hat man:<br />
det<br />
det a = a<br />
<br />
a b<br />
= a · d − b · c<br />
c d<br />
D.h. die Diagonale von links oben nach rechts unten geht positiv in die Determinante ein, die andere<br />
negativ:<br />
46
Wie merkt man sich am besten, welche Diagonale positiv und welche negativ zählt? Man kann sich<br />
z.B. den Spezialfall der Einheitsmatrix anschauen; die Determinante davon muss 1 sein, damit muss<br />
a · d positiv eingehen.<br />
Für n = 3 wird die Formel schon recht <strong>la</strong>ng, deshalb sollte man sich direkt das Schaubild einprägen:<br />
Es sieht erst einmal sehr ähnlich aus, aber es gibt einen wesentlichen Unterschied: Hier zählen<br />
auch die Diagonalen, die über den Rand hinausgehen. Während man bei n = 2 nur 2 Diagonalen<br />
betrachten musste, sind es bei n = 3 schon 6. Für n = 4 lohnt es sich schon nicht mehr, die Formel<br />
explizit anzugeben; es kommen auch nicht mehr nur Diagonalen darin vor.<br />
4.5.3 Aufteilung der Matrix<br />
Für Determinanten von Matrizen gilt (wie an vielen anderen Stellen), dass man eine Matrix aufteilen<br />
kann in einzelne Teilmatrizen, um dann mit den Determinanten der einzelnen Matrizen die Determinante<br />
der großen Matrizen auszurechnen. Leider ist aber der Matrizenring nicht kommutativ, so dass<br />
man sich überlegen muss, welche der Formeln noch gelten, wenn die Elemente von Matrizen selbst<br />
wieder Matrizen sind. Ein Variante funktioniert immer:<br />
Teilt man die Matrix so in Blöcke auf, dass die Diagonale nur quadratische Blöcke enthält und alle<br />
Blöcke unter- oder oberhalb der Diagonalen 0 sind, dann ist die Determinante der Matrix das Produkt<br />
der Determinanten der Blöcke auf der Diagonalen:<br />
⎛<br />
A ∗<br />
⎞<br />
∗<br />
⎛<br />
A 0<br />
⎞<br />
0<br />
det ⎝0<br />
B ∗ ⎠ = det ⎝∗<br />
B 0 ⎠ = (det A · det B · det C)<br />
0 0 C ∗ ∗ C<br />
(wobei A, B und C quadratische Matrizen sind)<br />
Beispiel:<br />
⎛<br />
1<br />
⎜<br />
⎜2<br />
det ⎜<br />
⎜0<br />
⎝0<br />
2<br />
3<br />
0<br />
0<br />
3<br />
4<br />
2<br />
1<br />
4<br />
5<br />
3<br />
2<br />
⎞<br />
5<br />
6 ⎟<br />
4 ⎟ = det<br />
3⎠<br />
0 0 0 0 5<br />
4.5.4 Lap<strong>la</strong>ce-Entwicklung<br />
<br />
1 2<br />
· det<br />
2 3<br />
<br />
2 3<br />
· det<br />
1 2<br />
5 = (1 · 3 − 2 · 2) · (2 · 2 − 3 · 1) · 5 = −5<br />
Mit der Lap<strong>la</strong>ce-Entwicklung kann man eine Matrix schrittweise verkleinern, bis man die Determinante<br />
leicht ausrechnen kann. Man sucht sich eine Zeile oder Spalte mit vielen Nullen (im obigen<br />
Beispiel z.B. die letzte Zeile). Dann streicht man die Zeile bzw. Spalte, und außerdem nacheinander<br />
47
die Spalten bzw. Zeilen, in denen der weggestrichene Eintrag nicht 0 war (oben wäre das die 5, also<br />
nur die letzte Spalte).<br />
Die Determinanten der so gebildeten Matrizen muss man mit den jeweiligen Einträgen multiplizieren<br />
und entweder addieren oder subtrahieren, je nachdem, wo der Eintrag stand. Das geht nach<br />
folgendem schachbrettartigen Schema:<br />
⎛<br />
⎞<br />
+ − + − · · ·<br />
⎜<br />
⎜−<br />
+ − + · · · ⎟<br />
⎜<br />
⎜+<br />
− + − · · · ⎟<br />
⎜<br />
⎝−<br />
+ − + · · · ⎟<br />
⎠<br />
.. . . . . .<br />
Entwickelt man im Beispiel oben nach der letzten Zeile, erhält man:<br />
⎛<br />
1<br />
⎜<br />
⎜2<br />
det ⎜<br />
⎜0<br />
⎝0<br />
0<br />
2<br />
3<br />
0<br />
0<br />
0<br />
3<br />
4<br />
2<br />
1<br />
0<br />
4<br />
5<br />
3<br />
2<br />
0<br />
⎞<br />
5 ⎛<br />
6⎟<br />
1<br />
⎟ ⎜<br />
4 ⎟ = 5 · det ⎜2<br />
⎝<br />
3⎠<br />
0<br />
0<br />
5<br />
2<br />
3<br />
0<br />
0<br />
3<br />
4<br />
2<br />
1<br />
⎞<br />
4<br />
5 ⎟<br />
3⎠<br />
2<br />
Wenn man will, kann man aber auch z.B. nach der ersten Spalte entwickeln:<br />
⎛<br />
1<br />
⎜<br />
⎜2<br />
det ⎜<br />
⎜0<br />
⎝0<br />
0<br />
2<br />
3<br />
0<br />
0<br />
0<br />
3<br />
4<br />
2<br />
1<br />
0<br />
4<br />
5<br />
3<br />
2<br />
0<br />
⎞<br />
5 ⎛<br />
6⎟<br />
3<br />
⎟ ⎜<br />
4 ⎟ = 1 · det ⎜0<br />
⎝<br />
3⎠<br />
0<br />
0<br />
5<br />
4<br />
2<br />
1<br />
0<br />
5<br />
3<br />
2<br />
0<br />
⎞ ⎛<br />
6<br />
2<br />
4⎟<br />
⎜<br />
⎟<br />
3⎠<br />
− 2 · det ⎜0<br />
⎝0<br />
5<br />
0<br />
3<br />
2<br />
1<br />
0<br />
4<br />
3<br />
2<br />
0<br />
⎞<br />
5<br />
4 ⎟<br />
3⎠<br />
5<br />
Im ersten Summanden wurde die erste Zeile weggestrichen, im zweiten Summanden die zweite, entsprechend<br />
dem jeweiligen Eintrag. Außerdem war der zweite Eintrag an einer Stelle, wo im Schema<br />
ein Minus steht, daher das Minus vor der 2.<br />
4.6 Eigenwerte<br />
4.6.1 Definition<br />
Wenn Φ : V → V eine lineare Abbildung ist, ist es interessant zu wissen, ob ein bestimmter Vektor<br />
x ∈ V von Φ z.B. wieder auf sich selbst abgebildet wird, d.h. Φ(x) = x. Allgemeiner kann man<br />
auch fragen, ob der Vektor zwar nicht auf sich selbst abgebildet wird, aber auf ein Vielfaches davon,<br />
d.h. Φ(x) = c · x, x ∈ K. In dem Fall nennt man x einen „Eigenvektor” zum „Eigenwert” c. Der<br />
Spezialfall Φ(x) = x besagt damit, dass x Eigenvektor zum Eigenwert 1 ist.<br />
In dieser Illustration ist eine lineare Abbildung Φ : R 2 → R 2 dadurch dargestellt, was sie mit<br />
verschiedenen Vektoren x, y, z macht (x ′ = Φ(x), y ′ = Φ(y), z ′ = Φ(z)). x ist ein Eigenvektor<br />
zum Eigenwert 2, d.h. er wird durch Φ um den Faktor 2 gestreckt. Auch y und z werden durch<br />
den Eigenwert 2 beeinflusst: Schaut man sich die beiden Grafiken genau an, sieht man, dass Alles<br />
in Richtung von x gestreckt wurde. x und y sind aber selbst keine Eigenvektoren zu irgendeinem<br />
Eigenwert. Irgendwo ist noch der Eigenwert 1 versteckt; es dürfte eine gute Übungsaufgabe sein,<br />
einen Eigenvektor dazu zu finden.<br />
48
z<br />
x<br />
y<br />
Um den Sinn von Eigenwerten besser zu verstehen, kann man sich z.B. die Eigenwerte bei einer<br />
Spiegelung im R 2 anschauen. Die Vektoren, die direkt auf der Spiege<strong>la</strong>chse liegen, werden nicht<br />
verändert, d.h. sie sind Eigenvektoren zum Eigenwert 1. Die Vektoren, die genau senkrecht dazu<br />
stehen, werden negiert, sind also Eigenvektoren zum Eigenwert −1. Die übrigen Vektoren sind keine<br />
Eigenvektoren:<br />
z’<br />
Spiege<strong>la</strong>chse<br />
Ist x ein Eigenvektor zum Eigenwert c, dann ist k<strong>la</strong>r, dass auch k · x für k ∈ K ein Eigenvektor zum<br />
Eigenwert c ist. Das Gleiche gilt für beliebige Linearkombinationen von Vektoren zum gleichen<br />
Eigenwert. D.h. die Menge Eig c(Φ) der Eigenvektoren zum Eigenwert c ist ein Unterraum (wird<br />
auch mit Ec(Φ) bezeichnet, aber man darf es nicht mit der Bezeichnung für die Einheitsmatrix<br />
verwechseln). Speziell ist Eig 0(Φ) = Kern Φ. Man nennt c eigentlich nur dann „Eigenwert von Φ”,<br />
wenn dies nicht der Nullraum ist, d.h. wenn es einen Eigenvektor gibt, der nicht der Nullvektor ist.<br />
Man spricht aber trotzdem immer vom „Eigenraum zum Eigenwert c”.<br />
Der Schnitt von zwei Eigenräumen ist immer der Nullraum, denn ein Vektor kann nicht gleichzeitig<br />
Eigenvektor zu zwei verschiedenen Eigenwerten sein. Führt man diesen Gedanken fort, ge<strong>la</strong>ngt man<br />
zu dem Schluss, dass auch mehr Eigenräume immer eine direkte Summe bilden. Allerdings ist die<br />
Summe aller Eigenräume nicht immer der ganze Vektorraum. Z.B. hat im R 2 eine Drehung um den<br />
Ursprung gar keine Eigenwerte.<br />
Noch allgemeiner kann man sich auch beliebige Unterräume anschauen und prüfen, ob jeder Vektor<br />
aus dem Unterraum wieder darin <strong>la</strong>ndet, d.h. Φ(U) ⊂ U. Man nennt U dann „Φ-invariant”. Die<br />
Fragestellung hängt damit zusammen, weil man für eindimensionales U damit Φ(x) = c · x (c ∈ K)<br />
für alle x ∈ U erreicht. Auch andere Φ-invariante Unterräume <strong>la</strong>ssen sich über Eigenwerte charakterisieren<br />
(Stichwort „Haupträume”), aber das darf man nicht mit den Eigenräumen verwechseln.<br />
49<br />
x’<br />
y’
4.6.2 Einfache Fälle<br />
Ist V = Kn und Φ : V → V, x ↦→ A · x die Multiplikation mit einer Diagonalmatrix<br />
⎛<br />
c1<br />
⎜ 0<br />
A = ⎜<br />
⎝ .<br />
0<br />
c2<br />
. ..<br />
· · ·<br />
. ..<br />
. ..<br />
⎞<br />
0<br />
⎟<br />
. ⎟<br />
0 ⎠<br />
0 · · · 0 cn<br />
,<br />
dann ist es recht einfach, n Eigenvektoren anzugeben: Es ist<br />
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />
1 c1 0 0<br />
0.<br />
0.<br />
⎜<br />
⎜0.<br />
⎟ ⎜<br />
⎟ ⎜ 0.<br />
⎟ ⎜<br />
⎟ ⎜1⎟<br />
⎜<br />
⎟ ⎜c2<br />
⎟ ⎜ ⎟ ⎜ ⎟<br />
⎟ ⎜ ⎟ ⎜ ⎟<br />
Φ( ⎜ ⎟)<br />
= ⎜ ⎟ , Φ( ⎜<br />
⎝ ⎠ ⎝ ⎠ ⎝0.<br />
⎟)<br />
= ⎜<br />
⎠ ⎝ 0.<br />
⎟ , . . . , Φ( ⎜ ⎟)<br />
= ⎜ ⎟<br />
⎠ ⎝0⎠<br />
⎝ 0 ⎠<br />
0 0<br />
1<br />
,<br />
also sind diese Vektoren jeweils Eigenvektoren zu den Eigenwerten c1 bis cn. Damit ist ganz V<br />
die direkte Summe der Eigenräume, die von den Standardbasisvektoren aufgespannt werden. Die<br />
ci müssen natürlich nicht alle verschieden sein; bei gleichen ci bekommt man Eigenräume höherer<br />
Dimension.<br />
Man kann diesen Spezialfall etwas verallgemeinern, indem man nur voraussetzt, dass die Abbildungsmatrix<br />
bezüglich einer beliebigen Basis eine Diagonalmatrix ist. Die Basisvektoren sind dann<br />
die Eigenvektoren. Hat man umgekehrt eine Basis aus Eigenvektoren (indem man vorher die Eigenräume<br />
bestimmt hat und die Summe davon tatsächlich ganz V ist), dann ist die Abbildungsmatrix<br />
bezüglich dieser Basis immer eine Diagonalmatrix.<br />
Ebenfalls ein wichtiger Spezialfall sind Projektionen. Man nennt Φ eine „Projektion”, wenn Φ 2 = Φ<br />
gilt, was man z.B. anhand einer Abbildungsmatrix recht leicht überprüfen kann. Da alle Vektoren<br />
aus dem Bild wieder auf sich selbst abgebildet werden müssen, hat Φ bezüglich einer Basis, die<br />
nur aus Vektoren aus Kern und Bild bestehen, eine Diagonalmatrix als Abbildungsmatrix. Auf der<br />
Diagonalen stehen nur Nullen und Einsen, deshalb sind das die beiden einzigen Eigenwerte, die<br />
vorkommen. Sind umgekehrt 0 und 1 die einzigen Eigenwerte einer Abbildung, und ist die Summe<br />
der zugehörigen Eigenräume ganz V , dann ist die Abbildung eine Projektion.<br />
4.6.3 Allgemeine Formeln<br />
Ist V endlichdimensional und B eine Basis, dann ist x ∈ V genau dann Eigenvektor zum Eigenwert<br />
c von Φ, wenn DBB(Φ) · DB(x) = c · DB(x) ist. Man kann also statt V auch gleich K n betrachten<br />
und statt Φ die Multiplikation mit der Matrix DBB(Φ). Die Eigenwerte sind die gleichen, und die<br />
Eigenvektoren sind gerade die Koordinatenvektoren der Eigenvektoren von Φ. Daher kann man sich<br />
von jetzt an auch einschränken auf V = K n und Φ : V → V, x ↦→ A · x mit einer n × n-Matrix A.<br />
Man spricht dann auch von den „Eigenwerten von A”.<br />
In A · x = c · x kann man aber das Distributivgesetz anwenden; es ist äquivalent zu A · x − c · x =<br />
(A − c · En) · x = 0. Das liefert schon einmal eine Möglichkeit, den Eigenraum zum Eigenwert c<br />
auszurechnen; es ist der Kern von A − c · En. Jetzt muss man nur noch alle Eigenwerte ermitteln,<br />
damit man weiß, welche c man einsetzen muss.<br />
Um ein Gefühl dafür zu bekommen, welche Rolle hier Polynome und Determinanten spielen, kann<br />
man sich erst einmal überlegen, dass der Term A − c · En sehr danach aussieht, als wäre hier die<br />
50<br />
cn
Matrix A in das Polynom X − c eingesetzt worden. Zwar ist der Wert davon nicht selbst 0, aber<br />
zumindest werden alle x ∈ Eig c(Φ) auf 0 abgebildet. Das wird gleich noch wichtig.<br />
Zunächst wird aber der Term auf eine andere Art als Polynom betrachtet: Man sucht ja alle c, so dass<br />
(A − c · En) · x = 0 auch für ein x = 0 gilt, d.h. dass das Gleichungssystem nichttrivial lösbar ist.<br />
Das ist genau dann der Fall, wenn die Determinante von A − c · En gleich 0 ist. Ersetzt man c (nicht<br />
A) durch X, dann ist die Determinante ein Polynom. Die Eigenwerte von A sind die Nullstellen.<br />
Man nennt dieses Polynom das „charakteristische Polynom” von A oder Φ.<br />
Zur Bestimmung des charakteristischen Polynoms muss man also in A auf der Diagonalen überall<br />
X subtrahieren und dann die Determinante bilden. Damit das nicht zu kompliziert wird, sollte<br />
man geschickt die verschiedenen Methoden (wie Lap<strong>la</strong>ce-Entwicklung, siehe 4.5.4) ausnutzen. Das<br />
Resultat ist auf jeden Fall ein Polynom, aber es hat eine recht komplizierte Form; je nachdem, wie<br />
geschickt man sich anstellt.<br />
Um die Nullstellen zu bestimmen, rät man jeweils eine Nullstelle und benutzt dann Polynomdivision<br />
(siehe 3.2.5), oder man verwendet direkte Formeln. Auf jeden Fall sollte man beim Ausrechnen der<br />
Determinante schon darauf achten, gemeinsame Terme auszuk<strong>la</strong>mmern, wo es möglich ist. Teilt<br />
man die Matrix in Blöcke auf (siehe 4.5.3), dann ist dies automatisch gegeben. Bei der Lap<strong>la</strong>ce-<br />
Entwicklung sollte am besten nur ein einziger Term übrig bleiben, sonst muss man selbst nach<br />
Möglichkeiten zum Ausk<strong>la</strong>mmern suchen.<br />
Das charakteristische Polynom hat immer den Grad n, und der erste Koeffizient ist (−1) n . Wenn<br />
die Summe der Eigenräume nicht ganz V ist, dann kann sich das auf zwei verschiedene Arten im<br />
Polynom widerspiegeln: Entweder das Polynom lässt sich nicht vollständig als Produkt von Faktoren<br />
der Form (X − ci) schreiben (man sagt, es „zerfällt” nicht in „Linearfaktoren”), oder ein Faktor<br />
(X −ci) kommt mehrmals vor (d.h. als (X −ci) k ). Das heißt nämlich noch nicht, dass die Dimension<br />
des zugehörigen Eigenraums k ist; sie kann auch kleiner sein.<br />
Ist p das charakteristische Polynom von A bzw. Φ, dann gilt nach dem Satz von Cayley-Hamilton<br />
p(A) = 0 bzw. p(Φ) = 0. Für den Fall, dass p in Linearfaktoren zerfällt, kann man sich nach der<br />
Bemerkung oben (darüber, was passiert, wenn man A in das Polynom X − c einsetzt) vielleicht<br />
ungefähr vorstellen, warum das so ist. Es ist natürlich kein Beweis.<br />
Dies kann übrigens ganz nützlich sein, um zu überprüfen, ob man das charakteristische Polynom<br />
richtig ausgerechnet hat. Es ist aber recht mühsam. Zerfällt das Polynom in Linearfaktoren, dann<br />
rechnet man besser zu den gefundenen Eigenwerten die Eigenräume aus; oft ist es ohnehin Teil<br />
einer Aufgabe.<br />
4.7 Jordan-Normalform<br />
4.7.1 Beschreibung<br />
Jede lineare Selbstabbildung eines n-dimensionalen K-Vektorraums V , zu der eine Abbildungsmatrix<br />
A ∈ K n×n bezüglich einer Basis gegeben ist, lässt sich durch Basiswechsel (siehe 4.2.4) in<br />
die sogenannte „Jordan-Normalform” bringen. Diese ist bis auf die Reihenfolge bestimmter Teile<br />
(entspricht der Reihenfolge der Basisvektoren) eindeutig und hat eine sehr einfache Gestalt. Das hat<br />
viele Vorteile, z.B.:<br />
• Ist eine Abbildungsmatrix in Jordan-Normalform gegeben, kann man Vieles direkt ablesen,<br />
denn es ist eine Dreiecksmatrix: Rang, Determinante, Eigenwerte, charakteristisches Polynom,<br />
Verhalten beim Potenzieren, invariante Unterräume, usw. Diese Eigenschaften ändern sich<br />
beim Basiswechsel nicht.<br />
51
• Da jede Matrix eine Jordan-Normalform besitzt, kann man sich bei Beweisen oft auf Matrizen<br />
in Jordan-Normalform beschränken.<br />
• Sie liefert ein Entscheidungskriterium, ob zwei Matrizen durch Basiswechsel ineinander überführt<br />
werden können (d.h. ob sie „ähnlich” sind). Denn dann haben sie die gleiche Jordan-<br />
Normalform, weil diese eindeutig bestimmt ist.<br />
• Manchmal ist es hilfreich, eine Matrix erst in Jordan-Normalform zu überführen und dann<br />
damit zu rechnen.<br />
Gesucht ist also die Jordan-Normalform J von A und eine Basiswechselmatrix B, so dass B −1 · A ·<br />
B = J ist (siehe 4.2.4). Ist V = K n und A eine Abbildungsmatrix bezüglich der Standardbasis,<br />
dann ist J die Abbildungsmatrix bezüglich der Basis B; deshalb spricht man oft von der „Jordan-<br />
Basis” und nicht von der „Jordan-Basiswechselmatrix”. Der Einfachheit halber sei deshalb von jetzt<br />
an Φ : K n → K n , x ↦→ A · x definiert.<br />
Ist A diagonalisierbar, dann ist J die entsprechende Diagonalmatrix und B die Basis aus Eigenvektoren<br />
(siehe 4.6.2). Das ist z.B. der Fall, wenn das charakteristische Polynom p n verschiedene<br />
Nullstellen hat.<br />
Falls p zwar in Linearfaktoren zerfällt, aber einige Faktoren gleich sind (also Terme der Form (X −<br />
c) k vorkommen), beruht die Existenz der Jordan-Normalform darauf, dass V die direkte Summe der<br />
„Haupträume” Kern(A−c·En) k ist. Das Produkt der Terme der Form (A−c·En) k ist p(A), also nach<br />
dem Satz von Cayley-Hamilton 0 (siehe 4.6.3). Jeder Vektor wird also 0, wenn er nacheinander mit<br />
diesen Faktoren multipliziert wird. Es dürfte daher einleuchten, dass die direkte Summe der Kerne<br />
ganz V ist (auch wenn dies wieder kein Beweis ist). Außerdem ist die Dimension des Hauptraums k,<br />
also der Exponent im charakteristischen Polynom. Auch das ist nicht schwer einzusehen, denn die<br />
Summe der Dimensionen ist ja n.<br />
Diese Haupträume sind Φ-invariant, d.h. für x ∈ Kern(A − c · En) k gilt auch Φ(x) ∈ Kern(A − c ·<br />
En) k . Im Fall k = 1 ist es k<strong>la</strong>r, denn dies ist dann der Eigenraum zum Eigenwert c. Aber auch sonst<br />
kann man es leicht nachrechnen: Sei x ∈ Kern(A − c · En) k , d.h. (A − c · En) k · x = 0. Zu zeigen<br />
ist, dass (A − c · En) k · Φ(x) = (A − c · En) k · A · x = 0 ist. Aber (A − c · En) k · A ist die Matrix<br />
A eingesetzt in das Polynom (X − c) k · X = X · (X − c) k , also gleich A · (A − c · En) k . Also gilt<br />
(A − c · En) k · A · x = A · (A − c · En) k · x = A · 0 = 0. Man sieht hier sehr deutlich, dass es sich<br />
lohnt, den Zusammenhang von Matrizen und Polynomen genauer zu beleuchten. Theoretisch kann<br />
man es sich natürlich auch anders erklären: Multipliziert man nämlich (A − c · En) k · A aus, dann<br />
erhält man eine Linearkombination von Potenzen von A, bei denen man auf der linken Seite wieder<br />
A ausk<strong>la</strong>mmern kann.<br />
Ist B nun eine Basis aus Vektoren der Haupträume, dann hat die Abbildungsmatrix von Φ bezüglich<br />
B eine Blockgestalt, in der zu jedem Hauptraum ein quadratischer Block („Jordan-Block”) auf der<br />
Diagonalen gehört. Denn ein Vektor, der in einem Hauptraum liegt, wird wieder in den Hauptraum<br />
abgebildet; Entsprechendes gilt für den Koordinatenvektor bezüglich B.<br />
4.7.2 Berechnung<br />
Zunächst zerfalle das charakteristische Polynom in Linearfaktoren, p = (c1−X)·(c2−X)·. . .·(cn−<br />
X), die aber nicht unbedingt verschieden sein müssen. Man kann sich auf diesen Fall beschränken,<br />
weil z.B. in C jedes Polynom in Linearfaktoren zerfällt. Es gibt aber auch noch eine verallgemeinerte<br />
Normalform, die ohne diese Beschränkung auskommt.<br />
Dann kann man J und B wie folgt berechnen:<br />
52
1. Auf der Diagonalen von J stehen die Eigenwerte c1 bis cn aus dem charakteristischen Polynom.<br />
Dabei müssen gleiche Werte nebeneinander stehen, um die im vorherigen Abschnitt<br />
angesprochene Blockgestalt zu erreichen.<br />
2. Die Blöcke sollte man markieren. Die Matrix sieht dann ungefähr so aus:<br />
⎛<br />
⎞<br />
⎜<br />
⎝<br />
c1<br />
c2<br />
0<br />
c3<br />
(Dabei ist z.B. c1 = c2.) Die folgenden Schritte beziehen sich auf jeden einzelnen Block, und<br />
zwar zum Eigenwert c:<br />
3. Unterhalb der Diagonalen steht jeweils entweder 0 oder 1, der Rest ist 0. Die Stellen, an denen<br />
eine Null steht, teilen den Jordan-Block in „Jordan-Kästchen” auf:<br />
⎛<br />
c<br />
⎜<br />
⎜1<br />
⎜<br />
⎜0<br />
⎜<br />
⎝<br />
c<br />
1<br />
0<br />
0<br />
c<br />
0 c<br />
1<br />
0<br />
0<br />
. . .<br />
⎞<br />
⎟<br />
⎠<br />
0 1 c<br />
4. Ganz rechts und überall dort, wo eine 0 steht, gibt es nur den Eigenwert auf der Diagonalen.<br />
Ein Koordinatenvektor, der nur an der entsprechenden Stelle den Wert 1 und sonst 0 hat, wird<br />
von J auf c mal sich selbst abgebildet. Also muss der entsprechende Basisvektor in B ein<br />
Eigenvektor zum Eigenwert c sein. Fazit: Die Anzahl der Kästchen ist die Dimension des<br />
Eigenraums zum Eigenwert c, also die Dimension des Kerns von A − c · En:<br />
⎛<br />
c ↓ ↓<br />
⎜<br />
⎜1<br />
c<br />
⎜ 1 c<br />
⎜ 0 c<br />
⎜<br />
⎝ 1 . ⎞<br />
⎟<br />
.<br />
⎟<br />
. ⎠<br />
1 c<br />
(Die Pfeile markieren die Spalten, zu denen in B ein Eigenvektor gehört.)<br />
5. Nun sollte man sich überlegen, ob dies schon ausreicht, damit der Jordanblock eindeutig bestimmt<br />
ist. Hat der Eigenraum die Dimension 1, gibt es z.B. nur ein Kästchen. Ist die Dimension<br />
die Größe des Jordanblocks, gibt es nur Nullen außerhalb der Diagonalen. Oder wenn die<br />
Größe des Blocks z.B. 3 ist und die Dimension des Eigenraums 2, dann gibt es zwei Kästchen,<br />
also eines der Größe 2 und eines der Größe 1. Die Reihenfolge der Kästchen ist aber nicht eindeutig;<br />
sie kann höchstens per Konvention festgelegt werden (oft der Größe nach absteigend<br />
sortiert). Also ist man auch in diesem Fall fertig, wenn man B nicht bestimmen muss.<br />
53<br />
c4<br />
0<br />
. ..<br />
cn<br />
⎟<br />
⎠
6. Ansonsten muss man wissen, dass in jedem Kästchen der Basisvektor ganz rechts ein Vektor<br />
aus Kern(A − c · En) ist (der Eigenvektor eben), der links daneben aus Kern(A − c · En) 2 , der<br />
nächste aus Kern(A − c · En) 3 , usw. (Das ergibt sich daraus, wie man im nächsten Schritt die<br />
Basisvektoren sucht.) D.h. man rechnet nacheinander diese Kerne aus und schaut, wie viele<br />
Vektoren man darin findet, die mit den vorherigen linear unabhängig sind. Die Anzahl ist die<br />
Differenz der Dimensionen der beiden Kerne. Die Vektoren verteilt man gedanklich auf die<br />
einzelnen Kästchen (am besten beginnend mit dem ersten, so dass die Kästchen der Größe<br />
nach absteigend sortiert sind), und damit weiß man (oft schon beim zweiten Exponenten), wie<br />
groß die Kästchen jeweils sein müssen.<br />
Vorsicht: Dies verrät nur die Anzahl der Vektoren und damit die Größe der Kästchen. Möchte<br />
man B bestimmen, dann muss man noch Folgendes beachten:<br />
7. Unterhalb der Diagonalen steht im Kästchen überall eine 1, d.h. für zwei benachbarte Basisvektoren<br />
b1 und b2 gilt A · b1 = c · b1 + 1 · b2, also b2 = A · b1 − c · b1. Deswegen fängt man<br />
beim größten Jordankästchen an; es habe die Größe g. Man sucht einen beliebigen Vektor b1<br />
aus Kern(A − c · En) g , der nicht schon in Kern(A − c · En) g−1 liegt (am besten durch Raten<br />
und Überprüfen). Dies ist der Basisvektor, der zur linken Spalte des Jordankästchens gehört.<br />
Der nächste Basisvektor b2 berechnet sich als b2 = A · b1 − c · b1 = (A − c · En) · b1 ∈<br />
Kern(A − c · En) g−1 , dann b3 = A · b2 − c · b2 ∈ Kern(A − c · En) g−2 , usw. bis bg.<br />
Das war das größte Jordankästchen; jetzt schaut man sich das nächstkleinere an. Hat es die<br />
Größe h, dann braucht man wieder einen Vektor, der in Kern(A − c · En) h , aber nicht in<br />
Kern(A − c · En) h−1 liegt. Allerdings darf er auch nicht linear abhängig mit den bereits bestimmten<br />
Vektoren sein, denn es soll ja eine Basis werden. (Am besten wieder raten und überprüfen.<br />
Alle Vektoren muss man nicht unbedingt überprüfen, sondern nur die, die selbst auch<br />
in Kern(A − c · En) h liegen. Jedoch reicht es nicht, die Vektoren einzeln zu prüfen, sondern<br />
man muss wie immer ein LGS mit allen relevanten Vektoren aufstellen.)<br />
Die Vektoren für die weiteren Kästchen findet man analog.<br />
Anhand dieser Schritte kann man sowohl J als auch B bestimmen. Jedoch kommt man mit weniger<br />
Rechnung aus, wenn noch mehr Informationen gegeben sind:<br />
Ist g die Größe des größten Jordan-Kästchens zum Eigenwert c, dann liegen alle Basisvektoren zum<br />
Jordan-Block in Kern(A−c·En) g . D.h. Kern(A−c·En) g ist bereits der Hauptraum zum Eigenwert<br />
c. Man nennt g den „Index” des Hauptraums. Wenn es mehrere Kästchen gibt (d.h. die Dimension<br />
des Eigenraums ist größer als 1), dann ist g offensichtlich kleiner als die Größe des Jordan-Blocks,<br />
also als der Exponent im charakteristischen Polynom.<br />
Ersetzt man im charakteristischen Polynom p den Faktor (X − c) k durch (X − c) g , dann ist immer<br />
noch p(A) = 0, denn (A − c · En) g schickt genau die gleichen Vektoren auf 0 wie (A − c · En) k . Tut<br />
man dies bei allen Faktoren, dann erhält man das kleinste Polynom p = 0, so dass p(A) = 0 ist; dies<br />
nennt man das „Minimalpolynom” von A. Das Minimalpolynom hat also die gleichen Faktoren wie<br />
das charakteristische Polynom, aber die Exponenten können kleiner sein (jedoch nie 0).<br />
Ist das Minimalpolynom von A bereits bekannt, dann ist der Exponent dort also die Größe des<br />
größten Jordankästchens. Damit kann man oft die Jordan-Normalform ohne Rechnung schon genau<br />
angeben (wenn auch das charakteristische Polynom und eventuell die Dimensionen der Eigenräume<br />
gegeben sind).<br />
54