Lineare Algebra II - Institut für Algebraische Geometrie - Leibniz ...
Lineare Algebra II - Institut für Algebraische Geometrie - Leibniz ... Lineare Algebra II - Institut für Algebraische Geometrie - Leibniz ...
Lineare Algebra II Sommersemester 2009 Wolfgang Ebeling 1
- Seite 2 und 3: c○Wolfgang Ebeling Institut für
- Seite 4 und 5: 1 Summen von Vektorräumen 4 Es ist
- Seite 6 und 7: 1 Summen von Vektorräumen 6 Defini
- Seite 8 und 9: 1 Summen von Vektorräumen 8 Beweis
- Seite 10 und 11: 2 Normierte Vektorräume 10 2 Normi
- Seite 12 und 13: 3 Normalform orthogonaler und unit
- Seite 14 und 15: 3 Normalform orthogonaler und unit
- Seite 16 und 17: 3 Normalform orthogonaler und unit
- Seite 18 und 19: 5 Symmetrische Bilinearformen 18 5
- Seite 20 und 21: 5 Symmetrische Bilinearformen 20 Da
- Seite 22 und 23: 5 Symmetrische Bilinearformen 22 Um
- Seite 24 und 25: 6 Das Minimalpolynom 24 Satz 6.2 (G
- Seite 26 und 27: 6 Das Minimalpolynom 26 Definition
- Seite 28 und 29: 6 Das Minimalpolynom 28 Definition
- Seite 30 und 31: 6 Das Minimalpolynom 30 Wir setzen
- Seite 32 und 33: 6 Das Minimalpolynom 32 Dann sind E
- Seite 34 und 35: 7 Diagonalisierbarkeit 34 Diese Mat
- Seite 36 und 37: 7 Diagonalisierbarkeit 36 (ii) ⇒
- Seite 38 und 39: 8 Nilpotente Endomorphismen 38 Defi
- Seite 40 und 41: 8 Nilpotente Endomorphismen 40 Bewe
- Seite 42 und 43: 8 Nilpotente Endomorphismen 42 (2)
- Seite 44 und 45: 9 Die Jordansche Normalform 44 Wir
- Seite 46 und 47: 9 Die Jordansche Normalform 46 Koro
- Seite 48 und 49: 9 Die Jordansche Normalform 48 Nach
- Seite 50 und 51: 9 Die Jordansche Normalform 50 Dann
<strong>Lineare</strong> <strong>Algebra</strong> <strong>II</strong><br />
Sommersemester 2009<br />
Wolfgang Ebeling<br />
1
c○Wolfgang Ebeling<br />
<strong>Institut</strong> für <strong>Algebra</strong>ische <strong>Geometrie</strong><br />
<strong>Leibniz</strong> Universität Hannover<br />
Postfach 6009<br />
30060 Hannover<br />
E-mail: ebeling@math.uni-hannover.de
1 Summen von Vektorräumen 3<br />
1 Summen von Vektorräumen<br />
Im Folgenden sei K zunächst ein beliebiger Körper. Wir betrachten verschiedene<br />
Summen von Vektorräumen.<br />
Definition Es sei V ein K-Vektorraum und U 1 , U 2 Unterräume von V .<br />
Dann heißt<br />
U 1 + U 2 := {u 1 + u 2 | u 1 ∈ U 1 , u 2 ∈ U 2 }<br />
die Summe von U 1 und U 2 .<br />
Lemma 1.1 Für die oben definierte Summe U 1 +U 2 der Unterräume U 1 und<br />
U 2 gilt:<br />
(i) U 1 + U 2 = Span(U 1 ∪ U 2 ).<br />
(ii) U 1 + U 2 ⊆ V ist ein Unterraum.<br />
(iii) dim(U 1 + U 2 ) ≤ dim U 1 + dim U 2 .<br />
Beweis. (i) U 1 + U 2 ⊆ Span(U 1 ∪ U 2 ) ist klar. Zum Beweis der umgekehrten<br />
Inklusion sei v ∈ Span(U 1 ∪ U 2 ). Dann gibt es u 1 , . . . , u k ∈ U 1 , w 1 , . . . , w m ∈<br />
U 2 und λ 1 , . . . , λ k , µ 1 , . . . , µ m ∈ K mit<br />
v = λ 1 u 1 + · · · + λ k u k + µ 1 w 1 + · · · + µ m w m .<br />
Setze v 1 := λ 1 u 1 + · · · + λ k u k und v 2 := µ 1 w 1 + · · · + µ m w m . Dann ist v 1 ∈ U 1<br />
und v 2 ∈ U 2 , also v = v 1 + v 2 ∈ U 1 + U 2 .<br />
(ii) folgt aus (i).<br />
(iii) Ist u 1 , . . . , u k eine Basis von U 1 und w 1 , . . . , w m eine Basis von U 2 , so<br />
ist u 1 , . . . , u k , w 1 , . . . , w m ein Erzeugendensystem von Span(U 1 ∪ U 2 ). Damit<br />
folgt die Behauptung aus (i).<br />
✷<br />
Satz 1.1 (Dimensionsformel für Summen) Für endlich dimensionale Unterräume<br />
U 1 , U 2 ⊆ V gilt<br />
dim(U 1 + U 2 ) = dim U 1 + dim U 2 − dim(U 1 ∩ U 2 ).<br />
Beweis. Es sei {v 1 , . . . , v m } eine Basis von U 1 ∩ U 2 . Wir ergänzen diese Basis<br />
zu Basen<br />
{v 1 , . . . , v m , u 1 , . . . , u k } von U 1 und {v 1 , . . . , v m , u ′ 1, . . . , u ′ l} von U 2 .<br />
Wir müssen zeigen:<br />
B := {v 1 , . . . , v m , u 1 , . . . , u k , u ′ 1, . . . , u ′ l} ist eine Basis von U 1 + U 2 .
1 Summen von Vektorräumen 4<br />
Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪ U 2 ) und nach<br />
Lemma 1.1(i) damit von U 1 + U 2 ist. Wir müssen also noch zeigen, dass B<br />
linear unabhängig ist. Dazu sei<br />
Wir setzen<br />
λ 1 v 1 + · · · + λ m v m + µ 1 u 1 + · · · + µ k u k + µ ′ 1u ′ 1 + · · · + µ ′ lu ′ l = 0.<br />
v := λ 1 v 1 + · · · + λ m v m + µ 1 u 1 + · · · + µ k u k .<br />
Dann ist v ∈ U 1 und −v = µ ′ 1u ′ 1 + · · · + µ ′ l u′ l ∈ U 2. Daraus folgt v ∈ U 1 ∩ U 2 .<br />
Also ist<br />
v = λ ′ 1v 1 + · · · + λ ′ mv m<br />
für gewisse Skalare λ ′ 1, . . . , λ ′ m. Da {v 1 , . . . , v m , u 1 , . . . , u k } eine Basis von U 1<br />
bildet, folgt aus der Eindeutigkeit der Darstellung von v als Linearkombination<br />
der Vektoren dieser Basis insbesondere µ 1 = · · · = µ k = 0. Setzen wir<br />
dies in die obige Gleichung ein, so folgt<br />
λ 1 = · · · = λ m = µ ′ 1 = · · · = µ ′ l = 0.<br />
Lemma 1.2 Ist V = U 1 + U 2 , so sind die folgenden Aussagen äquivalent:<br />
(i) U 1 ∩ U 2 = {0}.<br />
(ii) Jedes v ∈ V lässt sich eindeutig darstellen als v = u 1 + u 2 mit u 1 ∈ U 1<br />
und u 2 ∈ U 2 .<br />
(iii) Je zwei vom Nullvektor verschiedene Vektoren u 1 ∈ U 1 und u 2 ∈ U 2<br />
sind linear unabhängig.<br />
Beweis. (i) ⇒ (ii): Es sei<br />
v = u 1 + u 2 = u ′ 1 + u ′ 2 (u 1 , u ′ 1 ∈ U 1 , u 2 , u ′ 2 ∈ U 2 ).<br />
Dann folgt u 1 − u ′ 1 = u ′ 2 − u 2 ∈ U 1 ∩ U 2 , nach (i) also u 1 − u ′ 1 = u ′ 2 − u 2 = 0.<br />
(ii) ⇒ (iii): Nach (ii) besitzt der Nullvektor eine eindeutige Darstellung<br />
0 = 0u 1 + 0u 2 .<br />
(iii) ⇒ (i): Es sei 0 ≠ v ∈ U 1 ∩ U 2 . Dann sind nach (iii) v und −v linear<br />
unabhängig im Widerspruch zu 1v + (−1)v = 0.<br />
✷<br />
Ist eine der drei äquivalenten Bedingungen von Lemma 1.2 erfüllt, so<br />
heißt V die direkte Summe von U 1 und U 2 . Also gilt z. B.:<br />
✷
1 Summen von Vektorräumen 5<br />
Definition Ein Vektorraum V heißt direkte Summe von zwei Unterräumen<br />
U 1 und U 2 , in Zeichen V = U 1 ⊕ U 2 , wenn<br />
V = U 1 + U 2 und U 1 ∩ U 2 = {0}.<br />
Beispiel 1.1 Es sei V = R 3 . Ist U 1 = Span{e 1 , e 2 } und U 2 = Span{e 3 }, so<br />
ist V = U 1 ⊕ U 2 . Ist dagegen U 3 = Span{e 2 , e 3 }, so ist zwar V = U 1 + U 3 , die<br />
Summe ist aber nicht direkt, da U 1 ∩ U 3 = Span{e 2 }.<br />
Satz 1.2 Es sei V ein endlich dimensionaler K-Vektorraum und U 1 , U 2 Untervektorräume<br />
von V . Dann sind die folgenden Bedingungen äquivalent:<br />
(i) V = U 1 ⊕ U 2 .<br />
(ii) Es gibt Basen {u 1 , . . . , u k } von U 1 und {u ′ 1, . . . , u ′ l } von U 2, so dass<br />
{u 1 , . . . , u k , u ′ 1, . . . , u ′ l } eine Basis von V ist.<br />
(iii) Es gilt V = U 1 + U 2 und dim V = dim U 1 + dim U 2 .<br />
Beweis. (i) ⇒ (ii) folgt aus dem Beweis der Dimensionsformel (Satz 1.1) und<br />
der Tatsache, dass U 1 ∩ U 2 = {0}.<br />
(ii) ⇒ (iii) ist klar.<br />
(iii) ⇒ (i): Aus der Dimensionsformel folgt dim(U 1 ∩ U 2 ) = 0. Daraus<br />
folgt U 1 ∩ U 2 = {0}.<br />
✷<br />
Definition Es sei U ⊆ V ein Unterraum. Ein Unterraum W ⊆ V heißt<br />
Komplement von U in V , falls<br />
U ⊕ W = V.<br />
Bemerkung 1.1 Zu einem Unterraum U ist ein Komplement W im Allgemeinen<br />
nicht eindeutig bestimmt: Ist zum Beispiel V = R 3 und U =<br />
Span{e 1 , e 2 }, so sind W 1 = Span{e 3 } und W 2 = Span{e 1 + e 3 } Komplemente<br />
von U.<br />
Satz 1.3 Ist V endlich dimensional und U ⊆ V ein Unterraum, so besitzt<br />
U ein Komplement in V .<br />
Beweis. Man nehme eine Basis {v 1 , . . . , v r } von U und ergänze sie nach I,<br />
Satz 11.4, zu einer Basis {v 1 , . . . , v r , v r+1 , . . . , v n } von V . Man setze<br />
W := Span{v r+1 , . . . , v n }.<br />
Nun sei K = R oder K = C und (V, 〈 , 〉) ein euklidischer (K = R) oder<br />
unitärer (K = C) Vektorraum .<br />
✷
1 Summen von Vektorräumen 6<br />
Definition<br />
Es sei V ein euklidischer (unitärer) Vektorraum.<br />
(a) Zwei Vektoren v, w ∈ V heißen orthogonal, in Zeichen v ⊥ w, falls<br />
〈v.w〉 = 0.<br />
(b) Zwei Unterräume U, W ⊆ V heißen orthogonal, in Zeichen U ⊥ W ,<br />
falls u ⊥ w für alle u ∈ U, w ∈ W .<br />
(c) Ist U ein Unterraum, so heißt<br />
U ⊥ := {v ∈ V | 〈u, v〉 = 0 für alle u ∈ U}<br />
das orthogonale Komplement von U.<br />
Bemerkung 1.2 Das orthogonale Komplement U ⊥ eines Unterraums U ist<br />
ein Unterraum. Aus dem unten stehenden Satz 1.4 folgt, dass es ein Komplement<br />
von U ist.<br />
Definition Es sei V ein euklidischer (unitärer) Vektorraum und U 1 , U 2<br />
Unterräume von V . Man sagt, V ist die orthogonale direkte Summe der Unterräume<br />
U 1 und U 2 , in Zeichen V = U 1 ⊥ U 2 , falls<br />
(i) V = U 1 ⊕ U 2 und<br />
(ii) U 1 ⊥ U 2 .<br />
Lemma 1.3 Es sei V ein euklidischer (unitärer) Vektorraum und U 1 , U 2<br />
Unterräume von V . Gilt<br />
(i) V = U 1 + U 2 und<br />
(ii) U 1 ⊥ U 2 ,<br />
so ist V die orthogonale direkte Summe der Unterräume U 1 und U 2 .<br />
Beweis. Wir haben zu zeigen: U 1 ∩ U 2 = {0}. Es sei v ∈ U 1 ∩ U 2 , v ≠ 0.<br />
Wegen (i) ist v = u 1 + u 2 mit u 1 ∈ U 1 und u 2 ∈ U 2 . Dann gilt<br />
0 ≠ 〈v, v〉 = 〈v, u 1 〉 + 〈v, u 2 〉 = 0 wegen (ii),<br />
ein Widerspruch.<br />
✷<br />
Satz 1.4 Es sei V ein endlich dimensionaler euklidischer (unitärer) Vektorraum<br />
und W ⊆ V ein Unterraum. Dann gilt<br />
V = W ⊥ W ⊥ .<br />
Insbesondere ist<br />
dim V = dim W + dim W ⊥ .
1 Summen von Vektorräumen 7<br />
Beweis. Es sei {w 1 , . . . , w m } eine ON-Basis von W . Diese ergänze man nach<br />
I, Satz 20.2, zu einer ON-Basis {w 1 , . . . , w m , w m+1 , . . . , w n } von V . Dann ist<br />
w m+1 , . . . , w n ∈ W ⊥ . Es sei nun v ∈ V . Dann können wir v schreiben als<br />
mit<br />
v = λ 1 w 1 + · · · + λ m w m + λ m+1 w m+1 + · · · + λ n w n<br />
λ 1 w 1 + · · · + λ m w m ∈ W, λ m+1 w m+1 + · · · + λ n w n ∈ W ⊥ .<br />
Daraus folgt die Behauptung.<br />
Wir wollen nun auch Summen von mehr als zwei Unterräumen betrachten.<br />
Definition Es sei V ein K-Vektorraum und U 1 , . . . , U s Unterräume von V .<br />
Dann heißt<br />
U 1 + · · · + U s := {u 1 + · · · + u s | u i ∈ U i , i = 1, . . . , s}<br />
die Summe von U 1 , . . . , U s .<br />
Wie oben beweist man:<br />
Lemma 1.4 Für die Summe U 1 + · · · + U s der Unterräume U 1 , . . . , U s gilt:<br />
(i) U 1 + · · · + U s = Span(U 1 ∪ · · · ∪ U s ).<br />
(ii) U 1 + · · · + U s ⊆ V ist ein Unterraum.<br />
(iii) dim(U 1 + · · · + U s ) ≤ dim U 1 + · · · + dim U s .<br />
Satz 1.5 Ist V = U 1 + · · · + U s , so sind die folgenden Aussagen äquivalent:<br />
(i) Für jedes i = 1, . . . , s gilt: Ist W i := U 1 + · · · + Ûi + · · · + U s , so ist<br />
U i ∩W i = {0}. (Hierbei bedeutet Ûi: In der Summe wird U i weggelassen,<br />
”nimmt seinen Hut und geht”.)<br />
(ii) Jedes Element v ∈ V lässt sich eindeutig darstellen als v = u 1 +· · ·+u s<br />
mit u i ∈ U i .<br />
(iii) Für jede Teilmenge I ⊆ {1, . . . , s} gilt: Ist für i ∈ I u i ∈ U i , u i ≠ 0, so<br />
ist die Teilmenge S I := {u i | i ∈ I} linear unabhängig.<br />
Definition Ist eine der äquivalenten Bedingungen von Satz 1.5 erfüllt, so<br />
heißt V die direkte Summe von U 1 , . . . , U s , in Zeichen V = U 1 ⊕ · · · ⊕ U s .<br />
✷
1 Summen von Vektorräumen 8<br />
Beweis. (i) ⇒ (ii): Es sei<br />
Dann folgt<br />
v = u 1 + · · · + u s = u ′ 1 + · · · + u ′ s (u i , u ′ i ∈ U i ).<br />
u i −u ′ i = (u ′ 1−u 1 )+· · ·+(u ′ i−1−u i−1 )+(u ′ i+1−u i+1 )+· · ·+(u ′ s−u s ) ∈ W i ∩U i .<br />
Nach (i) folgt u i − u ′ i = 0.<br />
(ii) ⇒ (iii): Es sei I = {i 1 , . . . , i r } ⊆ {1, . . . , s} und<br />
λ 1 u i1 + · · · + λ r u ir = 0.<br />
Da nach (ii) auch der Nullvektor 0 ∈ V eine eindeutige Darstellung<br />
0 = 0u i1 + · · · + 0u ir<br />
besitzt, folgt λ 1 = . . . = λ r = 0.<br />
(iii) ⇒ (i): Es sei W i ∩ U i ≠ {0}. Dann gibt es ein u i ∈ U i mit u i ≠ 0 und<br />
u i = u 1 + · · · + u i−1 + u i+1 + · · · + u s mit u j ∈ U j .<br />
Es sei I die Menge aller Indizes j ∈ {1, . . . , s} mit u j<br />
Teilmenge S I linear abhängig im Widerspruch zu (iii).<br />
≠ 0. Dann ist die<br />
✷<br />
Satz 1.6 Es sei V ein endlich dimensionaler K-Vektorraum und U 1 , . . . , U s<br />
Unterräume von V . Dann sind die folgenden Bedingungen äquivalent:<br />
(i) V = U 1 ⊕ · · · ⊕ U s .<br />
(ii) Ist für jedes i ∈ {1, . . . , s} eine Basis {u (i)<br />
1 , . . . , u (i)<br />
k i<br />
} von U i gegeben, so<br />
ist<br />
{u (1)<br />
1 , . . . , u (1)<br />
k 1<br />
, . . . , u (s)<br />
1 , . . . , u (s)<br />
k s<br />
}<br />
eine Basis von V .<br />
(iii) Es gilt V = U 1 + · · · + U s und dim V = dim U 1 + · · · + dim U s .<br />
Beweis. (i) ⇒ (ii): Es sei<br />
B := {u (1)<br />
1 , . . . , u (1)<br />
k 1<br />
, . . . , u (s)<br />
1 , . . . , u (s)<br />
k s<br />
}.<br />
Offensichtlich ist B ein Erzeugendensystem von V . Es reicht daher zu zeigen,<br />
dass B linear unabhängig ist. Dazu sei<br />
λ (1)<br />
1 u (1) + · · · + λ (1)<br />
k 1<br />
u (1)<br />
k 1<br />
+ · · · + λ (s)<br />
1 u (s)<br />
1 + · · · + λ (s)<br />
k s<br />
u (s)<br />
k s<br />
= 0.
1 Summen von Vektorräumen 9<br />
Setzen wir w i := λ (i)<br />
1 u (i) + · · · + λ (i)<br />
k i<br />
u (i)<br />
k i<br />
, so folgt<br />
w 1 + · · · + w s = 0.<br />
Aus Satz 1.5 (iii) folgt w 1 = . . . = w s = 0. Also ist<br />
λ (i)<br />
1 u (i) + · · · + λ (i)<br />
k i<br />
u (i)<br />
k i<br />
= 0 für i = 1, . . . , s.<br />
Daraus folgt λ (i)<br />
1 = · · · = λ (i)<br />
k i<br />
= 0.<br />
(ii) ⇔ (iii) ist klar.<br />
(ii) ⇒ (i) folgt aus Satz 1.5 (ii).<br />
Es sei nun wieder K = R, C und V ein euklidischer (unitärer) Vektorraum.<br />
Definition Es sei V ein euklidischer (unitärer) Vektorraum und U 1 , . . . , U s<br />
Unterräume von V . Man sagt, V ist die orthogonale direkte Summe der Unterräume<br />
U 1 . . . , U s , in Zeichen V = U 1 ⊥ . . . ⊥ U s , falls<br />
(i) V = U 1 ⊕ · · · ⊕ U s und<br />
(ii) U i ⊥ U j für i ≠ j.<br />
✷<br />
Lemma 1.5 Es sei V ein euklidischer (unitärer) Vektorraum und U 1 , . . . , U s<br />
Unterräume von V . Gilt<br />
(i) V = U 1 + · · · + U s und<br />
(ii) U i ⊥ U j für i ≠ j,<br />
so ist V die orthogonale direkte Summe der Unterräume U 1 , . . . , U s .<br />
Beweis. Wir haben zu zeigen: U i ∩ W i = {0}. Es sei v ∈ U i ∩ W i , v ≠ 0. Dann<br />
gilt<br />
v = u 1 + · · · + u i−1 + u i+1 + · · · + u s mit u j ∈ U j .<br />
Da U i ⊥ U j für i ≠ j gilt, folgt dann<br />
0 ≠ 〈v, v〉 = 〈v, u 1 〉 + · · · + 〈v, u i−1 〉 + 〈v, u i+1 〉 + · · · + 〈v, u s 〉 = 0,<br />
ein Widerspruch.<br />
✷
2 Normierte Vektorräume 10<br />
2 Normierte Vektorräume<br />
Es sei K = R, C und V ein K-Vektorraum. Ist 〈 , 〉 : V × V → K eine symmetrische<br />
Bilinearform (hermitesche Sesquilinearform), so erhält man daraus<br />
eine Abbildung<br />
q : V −→ K<br />
v ↦−→ q(v) := 〈v, v〉 .<br />
Sie heißt die zu 〈 , 〉 gehörige quadratische Form.<br />
Man kann 〈 , 〉 aus q zurückgewinnen. Dies nennt man Polarisierung:<br />
K = R : 〈v, w〉 = 1 (q(v + w) − q(v − w)) ,<br />
4<br />
K = C : 〈v, w〉 = 1 (q(v + w) − q(v − w) + iq(v + iw) − iq(v − iw)) .<br />
4<br />
(Beweis durch Nachrechnen.)<br />
Definition Es sei V ein K-Vektorraum. Unter einer Norm auf V versteht<br />
man eine Funktion<br />
|| || : V −→ R<br />
v ↦−→ ||v||<br />
mit folgenden Eigenschaften:<br />
(i) ||v|| ≥ 0, ||v|| = 0 ⇔ v = 0,<br />
(ii) ||λv|| = |λ| · ||v|| für alle λ ∈ K, v ∈ V .<br />
(iii) ||v + w|| ≤ ||v|| + ||w|| für alle v, w ∈ V (Dreiecksungleichung).<br />
Ein normierter Vektorraum ist ein Paar (V, || ||), das aus einem Vektorraum<br />
V und einer Norm || || auf V besteht.<br />
Definition Es sei X eine Menge. Unter einer Metrik auf X versteht man<br />
eine Abbildung<br />
d : X × X −→ R<br />
(x, y) ↦−→ d(x, y)<br />
mit folgenden Eigenschaften:<br />
(i) d(x, y) = 0 ⇔ x = y<br />
(ii) d(x, y) = d(y, x) für alle x, y ∈ X (Symmetrie)<br />
(iii) d(x, z) ≤ d(x, y) + d(y, z) für alle x, y, z ∈ X (Dreiecksungleichung).
2 Normierte Vektorräume 11<br />
Ein metrischer Raum ist ein Paar (X, d), X Menge, d Metrik. Man nennt<br />
d(x, y) den Abstand oder die Distanz der Punkte x und y bzgl. d.<br />
Bemerkung 2.1 Aus den Axiomen folgt, dass d(x, y) ≥ 0 für alle x, y ∈ X.<br />
Beweis. Wende Dreiecksungleichung auf x, y, x an:<br />
0 (i)<br />
= d(x, x) ≤ d(x, y) + d(y, x) (ii)<br />
= 2d(x, y).<br />
Satz 2.1 Es sei (V, || ||) ein normierter Vektorraum. Dann wird durch<br />
eine Metrik d auf V definiert.<br />
Beweis.<br />
d(x, y) := ||x − y|| für x, y ∈ V<br />
(i) d(x, y) = 0 ⇔ ||x − y|| = 0 ⇔ x − y = 0 ⇔ x = y.<br />
(ii) d(x, y) = ||x − y|| = | − 1| ||x − y|| = ||y − x|| = d(y, x).<br />
(iii) d(x, z) = ||x−z|| = ||x−y+y−z|| ≤ ||x−y||+||y−z|| = d(x, y)+d(y, z).<br />
Satz 2.2 Ist (V, 〈 , 〉) ein euklidischer (unitärer) Vektorraum, so wird durch<br />
eine Norm auf V definiert.<br />
‖v‖ := √ 〈v, v〉<br />
Für den Beweis dieses Satzes brauchen wir das folgende Resultat:<br />
Satz 2.3 (Cauchy-Schwarzsche Ungleichung) Für v, w ∈ V gilt<br />
|〈v, w〉| ≤ ‖v‖‖w‖<br />
und Gleichheit gilt genau dann, wenn v und w linear abhängig sind.<br />
Beweis. Für w = 0 sind beide Seiten der Ungleichung gleich 0, die Ungleichung<br />
ist daher erfüllt. Es genügt daher, den Fall w ≠ 0 zu behandeln.<br />
Für λ, µ ∈ K gilt<br />
0 ≤ 〈λv + µw, λv + µw〉<br />
= λλ〈v, v〉 + λµ〈v, w〉 + λµ〈w, v〉 + µµ〈w, w〉.<br />
✷<br />
✷
3 Normalform orthogonaler und unitärer Endomorphismen 12<br />
Setzen wir nun λ := 〈w, w〉 und µ := −〈v, w〉, so folgt<br />
0 ≤ λ(〈v, v〉〈w, w〉 − 〈v, w〉〈v, w〉) = λ(‖v‖ 2 ‖w‖ 2 − |〈v, w〉| 2 ).<br />
Wegen λ ≥ 0 folgt daraus<br />
0 ≤ ‖v‖ 2 ‖w‖ 2 − |〈v, w〉| 2 .<br />
Nun ziehen wir auf beiden Seiten die Quadratwurzel. Dann bleibt das Ungleichheitszeichen<br />
erhalten und wir erhalten die behauptete Ungleichung.<br />
Für den Beweis des Zusatzes bemerken wir (für λ := 〈w, w〉 und µ :=<br />
−〈v, w〉) :<br />
|〈v, w〉| = ‖v‖‖w‖<br />
⇔ 〈λv + µw, λv + µw〉 = 0<br />
⇔ λv + µw = 0<br />
⇔ v = − µ λ w.<br />
Man beachte, dass dies der gleiche Beweis wie für I, Satz 3.4 ist, nur dass wir<br />
statt einer symmetrischen Bilinearform auch eine hermitesche Sesquilinearform<br />
zugelassen haben.<br />
✷<br />
Beweis von Satz 2.2. (i) und (ii) sind einfach (siehe Vorlesung).<br />
(iii): Um die Dreiecksungleichung<br />
√<br />
〈v + w, v + w〉 ≤<br />
√<br />
〈v, v〉 +<br />
√<br />
〈w, w〉<br />
zu beweisen, geht man durch Quadrieren zu der äquivalenten Ungleichung<br />
〈v + w, v + w〉 ≤ 〈v, v〉 + 2 √ 〈v, v〉〈w, w〉 + 〈w, w〉<br />
über, die gleichbedeutend ist mit<br />
〈v, v〉 + 2|〈v, w〉| + 〈w, w〉 ≤ 〈v, v〉 + 2 √ 〈v, v〉〈w, w〉 + 〈w, w〉.<br />
Diese Ungleichung ist äquivalent zu der Cauchy-Schwarzschen Ungleichung.<br />
✷<br />
3 Normalform orthogonaler und unitärer Endomorphismen<br />
Nun sei im Folgenden wieder K = R, C und (V, 〈 , 〉) ein euklidischer<br />
(unitärer) Vektorraum. Wir erinnern an die folgende Definition.
3 Normalform orthogonaler und unitärer Endomorphismen 13<br />
Definition Es sei V ein euklidischer (unitärer) Vektorraum. Ein Endomorphismus<br />
f : V → V heißt orthogonal (unitär), falls gilt:<br />
〈f(v), f(w)〉 = 〈v, w〉 für alle v, w ∈ V.<br />
Theorem 3.1 Es sei V ein unitärer Vektorraum der Dimension n und f :<br />
V → V ein unitärer Endomorphismus. Dann besitzt V eine ON-Basis, die<br />
aus Eigenvektoren von f besteht. Insbesondere ist f diagonalisierbar.<br />
Beweis. Der zugrundeliegende Körper ist C und die Eigenwerte von f sind<br />
die Nullstellen des charakteristischen Polynoms P f (x), das ein komplexes<br />
Polynom ist. Nach dem Fundamentalsatz der <strong>Algebra</strong> hat P f (x) genau n<br />
Nullstellen λ 1 , . . . λ n ∈ C. Also gilt<br />
P f (x) = (x − λ 1 ) · · · (x − λ n ).<br />
Wir führen nun Induktion nach n = dim V durch.<br />
Der Induktionsanfang n = 1 ist klar.<br />
Wir nehmen nun an, dass die Behauptung bereits für n − 1 bewiesen<br />
ist. Es sei v 1 ein Eigenvektor von f zum Eigenwert λ 1 . Ohne Einschränkung<br />
können wir annehmen, dass ‖v 1 ‖ = 1. Es sei<br />
Dann gilt nach Satz 1.4<br />
Behauptung f(W ) = W .<br />
W := Span{v 1 } ⊥ = {w ∈ V | 〈v 1 , w〉 = 0}.<br />
V = Span{v 1 } ⊥ W.<br />
Beweis. Da f ein Isomorphismus ist, reicht es zu zeigen: f(W ) ⊆ W . Nach<br />
I, Satz 21.1 (v), gilt |λ 1 | = 1. Damit gilt für w ∈ W :<br />
λ 1 〈v 1 , f(w)〉 = 〈λ 1 v 1 , f(w)〉 = 〈f(v 1 ), f(w)〉 = 〈v 1 , w〉 = 0.<br />
Da λ 1 ≠ 0 folgt 〈v 1 , f(w)〉 = 0, also f(w) ∈ W .<br />
Nun betrachten wir den Endomorphismus f| W : W → W . Da f| W die Einschränkung<br />
eines unitären Endomorphismus ist, ist f| W auch wieder unitär.<br />
Da dim W = n − 1 können wir auf f| W : W → W die Induktionsvoraussetzung<br />
anwenden. Danach besitzt W eine ON-Basis {v 2 , . . . , v n } aus Eigenvektoren.<br />
Dann ist<br />
B := {v 1 , v 2 , . . . , v n }<br />
eine ON-Basis von V aus Eigenvektoren.<br />
✷<br />
✷
3 Normalform orthogonaler und unitärer Endomorphismen 14<br />
Korollar 3.1 Eine unitäre Matrix A ist diagonalisierbar. Genauer gilt: Es<br />
gibt eine unitäre Matrix S mit<br />
⎛<br />
⎞<br />
λ 1 0 · · · 0<br />
S T 0 λ 2 · · · 0<br />
AS = ⎜<br />
⎝<br />
.<br />
. . ..<br />
⎟ . ⎠ .<br />
0 0 · · · λ n<br />
Hierbei gilt |λ i | = 1 für i = 1, . . . , n.<br />
Beweis. Siehe Vorlesung.<br />
In LA I hatten wir bereits orthogonale Abbildungen f : R n → R n betrachtet<br />
und für n = 1, 2, 3 klassifiziert. Allgemeiner wollen wir nun beweisen:<br />
Theorem 3.2 Es sei V ein euklidischer Vektorraum der Dimension n und<br />
f : V → V ein orthogonaler Endomorphismus. Dann besitzt V eine ON-Basis<br />
B, bezüglich der f die Darstellungsmatrix<br />
⎛<br />
⎞<br />
+1<br />
. .. +1 0<br />
−1<br />
MB B (f) =<br />
.. . ,<br />
−1<br />
0 A 1 ⎜<br />
.<br />
⎝<br />
.. ⎟<br />
⎠<br />
A k<br />
✷<br />
besitzt, wobei für j = 1, . . . , k<br />
( )<br />
cos αj − sin α<br />
A j =<br />
j<br />
sin α j cos α j<br />
mit α j ∈ [0, 2π), aber α j ≠ 0, π.<br />
Für den Beweis dieses Theorems brauchen wir ein Lemma.<br />
Lemma 3.1 Jedes Polynom P (x) mit reellen Koeffizienten besitzt eine Zerlegung<br />
P (x) = (x − λ 1 ) · · · (x − λ r )Q 1 (x) · · · Q k (x),<br />
wobei λ 1 , . . . , λ r ∈ R und Q 1 (x), . . . , Q k (x) Polynome vom Grad 2 sind, die<br />
keine reelle Nullstelle haben.
3 Normalform orthogonaler und unitärer Endomorphismen 15<br />
Beweis. Das Polynom P (x) hat n komplexe Nullstellen. Ist λ ∈ C eine Nullstelle<br />
von P (x), so auch λ:<br />
P (λ) = a 0 + a 1 λ + · · · + a n λ n = a 0 + a 1 λ + · · · + a n λ n = P (λ) = 0 = 0.<br />
Also hat man eine Zerlegung<br />
P (x) = (x − λ 1 ) · · · (x − λ r )(x − µ 1 )(x − µ 1 ) · · · (x − µ k )(x − µ k ),<br />
wobei λ 1 , . . . , λ r ∈ R und µ 1 , . . . , µ k ∉ R. Es sei j = 1, . . . , k und µ j = ξ j +iη j<br />
mit ξ j , η j ∈ R. Setze<br />
Q j (x) = (x − µ j )(x − µ j ) = x 2 − 2ξ j x + (ξ 2 j + η 2 j ).<br />
Beweis von Theorem 3.2. Wir führen Theorem 3.2 auf Theorem 3.1 zurück.<br />
Dazu komplexifizieren wir f. Es sei B ′ irgendeine ON-Basis von V und A :=<br />
MB B′ (f) die Darstellungsmatrix von f bezüglich ′ B′ . Dann ist A orthogonal<br />
und als reelle Matrix auch unitär. Also ist der Endomorphismus<br />
✷<br />
A : C n → C n ,<br />
z ↦→ Az,<br />
unitär. Es sei<br />
P A (x) = P (x) = (x − λ 1 ) · · · (x − λ r )(x − µ 1 )(x − µ 1 ) · · · (x − µ k )(x − µ k )<br />
die Zerlegung des charakteristischen Polynoms von A, die nach Lemma 3.1<br />
existiert. Nach I, Satz 21.1 (v) gilt λ i = ±1, i = 1, . . . , r, µ j = cos α j +i sin α j ,<br />
α j ∈ [0, 2π), α j ≠ 0, π, j = 1, . . . , k. Nach Theorem 3.1 erhalten wir für A eine<br />
ON-Basis ˜B von C n von Eigenvektoren von A. Es sei nun z ein Eigenvektor zu<br />
einem nicht reellen Eigenwert µ. Dann ist z ein Eigenvektor zum Eigenwert<br />
µ, denn<br />
Az = Az = µz = µ z.<br />
Deswegen können wir die Basis ˜B so anordnen:<br />
v 1 , . . . , v p die Eigenvektoren zum Eigenwert + 1,<br />
w 1 , . . . , w q die Eigenvektoren zum Eigenwert − 1,<br />
z 1 , . . . , z k die Eigenvektoren zu den Eigenwerten µ 1 , . . . , µ k ,<br />
z 1 , . . . , z k die Eigenvektoren zu den Eigenwerten µ 1 , . . . , µ k .<br />
Da A reell ist, liegen die Eigenvektoren v 1 , . . . , v p , w 1 , . . . , w q in R n .
3 Normalform orthogonaler und unitärer Endomorphismen 16<br />
Zu einem Paar z, z von Eigenvektoren zu µ, µ konstruieren wir nun einen<br />
unter A invarianten Unterraum W ⊆ R n . Dazu sei<br />
z = x + iy,<br />
x, y ∈ R n<br />
und<br />
Behauptung<br />
A(W ) = W<br />
W := Span{x, y} ⊆ R n .<br />
Beweis. Es gilt<br />
0 = 〈z, z〉 = 〈x + iy, x − iy〉 = 〈x, x〉 − 〈y, y〉 + 2i〈x, y〉<br />
1 = 〈z, z〉 = 〈x + iy, x + iy〉 = 〈x, x〉 + 〈y, y〉.<br />
Daraus folgt 〈x, x〉 = 〈y, y〉 = 1 2<br />
x = 1(z + z), y = 1 (z − z) folgt<br />
2 2i<br />
und 〈x, y〉 = 0. Aus µ = cos α + i sin α,<br />
Ax = 1 2 (Az + Az) = 1 (µz + µ z) = cos αx − sin αy,<br />
2<br />
Ay = 1 2i (Az − Az) = 1 2i (µz − µ z) = sin αx + cos αy. ✷<br />
Nun setzen wir<br />
x ′ := √ 2x, y ′ := − √ 2y.<br />
Bezüglich der ON-Basis {x ′ , y ′ } von W wird die Einschränkung von A auf<br />
W beschrieben durch die Matrix<br />
( )<br />
cos α − sin α<br />
.<br />
sin α cos α<br />
Damit haben wir eine Orthonormalbasis<br />
B ′′ := {v 1 , . . . , v p , w 1 , . . . , w q , x ′ 1, y ′ 1, . . . , x ′ k, y ′ k}<br />
von R n gefunden, bezüglich der die Abbildung A : R n → R n die in Theorem<br />
3.2 angegebene Gestalt hat. Die Transformationsmatrix, die die Standardbasis<br />
des R n in die Basis B ′′ des R n transformiert, transformiert dann<br />
die Basis B ′ von V in eine ON-Basis B von V mit den gewünschten Eigenschaften.<br />
✷
4 Normalform selbstadjungierter Endomorphismen 17<br />
4 Normalform selbstadjungierter Endomorphismen<br />
Es sei V ein euklidischer (unitärer) Vektorraum. In LA I hatten wir bereits<br />
selbstadjungierte Endomorphismen betrachtet. Wir erinnern an die Definition.<br />
Definition<br />
Ein Endomorphismus f : V → V heißt selbstadjungiert, falls<br />
In LA I hatten wir bewiesen:<br />
〈f(v), w〉 = 〈v, f(w)〉 für alle v, w ∈ V.<br />
Theorem 4.1 Es sei V ein euklidischer (unitärer) Vektorraum und f : V →<br />
V ein selbstadjungierter Endomorphismus. Dann besitzt V eine ON-Basis,<br />
die aus Eigenvektoren von f besteht.<br />
Korollar 4.1 Ist A ∈ Mat(n, n; K) eine symmetrische bzw. hermitesche<br />
Matrix, so gibt es eine orthogonale bzw. unitäre Matrix S, so dass<br />
⎛<br />
⎞<br />
λ 1 0<br />
S T ⎜<br />
AS = ⎝<br />
..<br />
⎟ . ⎠<br />
0 λ n<br />
mit λ 1 , . . . , λ n ∈ R.<br />
Wir halten noch das folgende Korollar fest.<br />
Korollar 4.2 Es sei V ein euklidischer (unitärer) Vektorraum, f : V → V<br />
ein selbstadjungierter Endomorphismus und λ 1 , . . . , λ k die paarweise verschiedenen<br />
Eigenwerte. Dann ist<br />
V = Eig(f, λ 1 ) ⊥ . . . ⊥ Eig(f, λ k ).<br />
Beweis. Aus dem Theorem folgt, dass V die direkte Summe der Eigenräume<br />
ist. Es bleibt zu zeigen: Eig(f, λ i ) ⊥ Eig(f, λ j ) für alle i ≠ j, i, j = 1, . . . , k.<br />
Dazu sei v ∈ Eig(f, λ i ), w ∈ Eig(f, λ j ), i ≠ j. Dann gilt<br />
λ i 〈v, w〉 = 〈λ i v, w〉 = 〈f(v), w〉 = 〈v, f(w)〉 = 〈v, λ j w〉 = λ j 〈v, w〉.<br />
Daraus folgt<br />
also 〈v, w〉 = 0.<br />
(λ i − λ j )〈v, w〉 = 0,<br />
✷
5 Symmetrische Bilinearformen 18<br />
5 Symmetrische Bilinearformen<br />
Es sei nun V ein endlich dimensionaler reeller Vektorraum mit einer symmetrischen<br />
Bilinearform<br />
〈 , 〉 : V × V → R.<br />
(Diese Bilinearform braucht nicht positiv definit zu sein.) Wie wir bereits<br />
gesehen haben, entspricht dieser Bilinearform eine quadratische Form<br />
q : V → R,<br />
q(v) = 〈v, v〉.<br />
Bezüglich einer Basis B = {v 1 , . . . , v n } von V wird 〈 , 〉 dargestellt durch die<br />
Matrix<br />
A = (a ij ), a ij = 〈v i , v j 〉.<br />
Nach der Transformationsformel ändert sich bei einem Basiswechsel mit Transformationsmatrix<br />
S ∈ GL(n; R) die Darstellungsmatrix wie folgt:<br />
A ↦→ S T AS.<br />
Nach dem Satz über die Hauptachsentransformation gibt es eine orthogonale<br />
Matrix S mit<br />
⎛<br />
⎞<br />
λ 1 0 · · · 0<br />
S T AS = S −1 0 λ 2 · · · 0<br />
AS = ⎜<br />
⎝ . .<br />
..<br />
⎟ . . ⎠ , (λ 1, . . . , λ n ∈ R).<br />
0 0 · · · λ n<br />
Wir fragen nun nach einer Normalform, wenn wir allgemeiner S ∈ GL(n; R)<br />
zulassen.<br />
Satz 5.1 Es sei 〈 , 〉 : V × V → R eine symmetrische Bilinearform. Dann<br />
gibt es eine Basis B von V , bezüglich der 〈 , 〉 dargestellt wird durch<br />
⎛<br />
E k<br />
⎞<br />
0<br />
⎝ −E l<br />
⎠ .<br />
0 0<br />
Beweis. Nach dem Satz über die Hauptachsentransformation gibt es eine<br />
Basis B ′ = {w 1 , . . . , w n }, bezüglich der die darstellende Matrix wie folgt
5 Symmetrische Bilinearformen 19<br />
aussieht:<br />
⎛<br />
λ 1 . . . 0<br />
λ k λ k+1<br />
... λ k+l<br />
⎜<br />
0<br />
⎝ 0<br />
..<br />
.<br />
0<br />
⎞<br />
{ > 0 für i ≤ k,<br />
, λ i<br />
< 0 für k < i ≤ k + l.<br />
⎟<br />
⎠<br />
Wir setzen<br />
Dann gilt:<br />
v i :=<br />
{ 1 √|λi<br />
| w i für 1 ≤ i ≤ k + l,<br />
w i<br />
sonst.<br />
⎧<br />
⎨ +1 für 1 ≤ i ≤ k,<br />
〈v i , v i 〉 = −1 für k < i ≤ k + l,<br />
⎩<br />
0 sonst.<br />
Also hat 〈 , 〉 bezüglich der Basis B = {v 1 , . . . , v n } die gewünschte Gestalt.<br />
✷<br />
Definition<br />
Menge<br />
Es sei 〈 , 〉 : V × V → R eine symmetrische Bilinearform. Die<br />
V 0 := {v ∈ V | 〈v, w〉 = 0 für alle w ∈ V }<br />
heißt das Radikal (oder der Nullraum) von 〈 , 〉. Es ist ein Unterraum von<br />
V .<br />
Korollar 5.1 Es sei 〈 , 〉 : V × V → R eine symmetrische Bilinearform.<br />
Dann gibt es eine Zerlegung<br />
in Unterräume, so dass gilt:<br />
V = V + ⊕ V − ⊕ V 0 ,<br />
(i) Die Zerlegung ist orthogonal bezüglich 〈 , 〉.<br />
(ii) 〈v, v〉 > 0 für 0 ≠ v ∈ V + , 〈v, v〉 < 0 für 0 ≠ v ∈ V − .<br />
Beweis. Es sei B = {v 1 , . . . , v n } eine Basis wie in Satz 5.1. Setze<br />
V + := Span{v 1 , . . . , v k }, V − := Span{v k+1 , . . . , v k+l }.
5 Symmetrische Bilinearformen 20<br />
Dann bleibt zu zeigen, dass V 0 = Span{v k+l+1 , . . . , v n }. Die Inklusion<br />
Span{v k+l+1 , . . . , v n } ⊆ V 0<br />
ist klar. Es sei umgekehrt v ∈ V 0 . Dann gilt<br />
v = µ 1 v 1 + · · · + µ k+l v k+l + µ k+l+1 v k+l+1 + · · · + µ n v n .<br />
Für i ∈ {1, . . . , k + l} gilt aber 〈v, v i 〉 = ±µ i = 0. Daraus folgt µ i = 0.<br />
✷<br />
Wie der Beweis zeigt, hängt die Zerlegung von einer Basis B von V ab.<br />
Ist A die Darstellungsmatrix von 〈 , 〉 bezüglich dieser Basis, so gilt<br />
dim V + = Anzahl der positiven Eigenwerte von A,<br />
dim V − = Anzahl der negativen Eigenwerte von A.<br />
Der Trägheitssatz von Sylvester besagt, dass diese Zahlen tatsächlich unabhängig<br />
von der Wahl von B sind.<br />
Satz 5.2 (Trägheitssatz von Sylvester) Es sei 〈 , 〉 : V × V → R eine<br />
symmetrische Bilinearform, B eine Basis von V und A die Darstellungsmatrix<br />
von 〈 , 〉 bezüglich B. Dann sind die Zahlen<br />
k := Anzahl der positiven Eigenwerte von A,<br />
l := Anzahl der negativen Eigenwerte von A<br />
unabhängig von der Auswahl von B.<br />
Beweis. Es sei B ′ eine andere Basis, k ′ , l ′ die entsprechenden Anzahlen und<br />
V = V + ⊕ V − ⊕ V 0 = V ′ + ⊕ V ′ − ⊕ V 0<br />
die entsprechenden zugehörigen Zerlegungen nach Korollar 5.1. Da die Anzahl<br />
der von Null verschiedenen Eigenwerte gleich dim V − dim V 0 ist und<br />
damit nicht von der Auswahl der Basis abhängt, gilt k + l = k ′ + l ′ . Daher<br />
reicht es, l = l ′ zu zeigen.<br />
Angenommen, es gibt<br />
0 ≠ v ∈ V + ∩ (V ′ − ⊕ V 0 ).<br />
Dann gilt 〈v, v〉 > 0 und v = v ′ − + v 0 mit v ′ − ≠ 0. Dann folgt aber<br />
〈v, v〉 = 〈v ′ −, v ′ −〉 + 〈v 0 , v 0 〉 = 〈v ′ −, v ′ −〉 < 0,<br />
ein Widerspruch. Also gilt V + ∩ (V ′ − ⊕ V 0 ) = {0} und aus Satz 1.2 folgt<br />
k + l ′ + dim V 0 ≤ dim V, also k + l ′ ≤ k + l, d.h. l ′ ≤ l.<br />
Durch Vertauschen der Rollen von l und l ′ folgt l ≤ l ′ , also l = l ′ und k = k ′ .<br />
✷
5 Symmetrische Bilinearformen 21<br />
Definition Die Zahl k nennt man auch den Index, die Zahl k−l die Signatur<br />
der symmetrischen Bilinearform 〈 , 〉.<br />
Korollar 5.2 Eine symmetrische Bilinearform ist genau dann positiv definit,<br />
wenn alle Eigenwerte einer Darstellungsmatrix positiv sind.<br />
Definition Eine symmetrische Matrix A ∈ Mat(n, n; R) heißt positiv definit,<br />
in Zeichen A > 0, falls die zugehörige Form 〈 , 〉 A positiv definit ist,<br />
d.h.<br />
x T Ax > 0 für alle x ∈ R n , x ≠ 0.<br />
Korollar 5.3 Eine symmetrische Matrix A ∈ Mat(n, n; R) ist genau dann<br />
positiv definit, wenn alle Eigenwerte positiv sind.<br />
Wir wollen zum Abschluss noch ein anderes Kriterium dafür angeben,<br />
dass eine symmetrische Matrix A = (a ij ) positiv definit ist. Dazu bezeichnen<br />
wir mit<br />
⎛<br />
⎞<br />
a 11 · · · a 1k<br />
⎜<br />
A k := ⎝<br />
.<br />
. ..<br />
⎟ . ⎠<br />
a k1 · · · a kk<br />
die linke obere k × k-Teilmatrix von A. Die Determinante det A k bezeichnet<br />
man auch als Hauptminor von A.<br />
Satz 5.3 (Hurwitz-Kriterium) Es sei A ∈ Mat(n, n; R) eine symmetrische<br />
Matrix. Dann gilt:<br />
A positiv definit ⇔ det A k > 0 für 1 ≤ k ≤ n.<br />
Beweis. ” ⇒”: Wir zeigen zunächst<br />
det A = det A n > 0.<br />
Da A positiv definit ist, gibt es ein S ∈ GL(n; R) mit<br />
⎛ ⎞<br />
1 0<br />
S T ⎜<br />
AS = ⎝<br />
. ..<br />
⎟<br />
⎠ .<br />
0 1<br />
Also folgt<br />
1 = det(S T AS) = det A(det S) 2 , also det A > 0.
5 Symmetrische Bilinearformen 22<br />
Um nun det A k > 0 für 1 ≤ k < n zu zeigen, betrachten wir<br />
U k := {x ∈ R n | x k+1 = . . . = x n = 0} ⊆ R n .<br />
Die Form 〈 , 〉 A definiert durch Einschränkung eine Form 〈 , 〉 k : U k ×U k → R<br />
mit Darstellungsmatrix A k . Da auch 〈 , 〉 k positiv definit ist, folgt det A k > 0.<br />
”⇐”: Wir führen Induktion über n durch. Der Induktionsanfang n = 1<br />
ist klar. Nach Induktionsvoraussetzung ist A n−1 positiv definit. Also gibt es<br />
ein S ′ ∈ GL(n − 1; R) mit<br />
Es sei<br />
Es gilt<br />
und<br />
(S ′ ) T A n−1 S ′ =<br />
⎛<br />
S := ⎜<br />
⎝<br />
S T AS = ⎜<br />
⎝<br />
⎛<br />
⎜<br />
⎝<br />
1 0<br />
. ..<br />
0 1<br />
S ′ 0.<br />
0<br />
0 · · · 0 1<br />
⎛<br />
⎞<br />
⎞<br />
⎟<br />
⎠ = E n−1 .<br />
⎟ ∈ GL(n; R).<br />
⎠<br />
⎞<br />
1 b 1<br />
. .. .<br />
⎟<br />
1 b n−1 ⎠ =: B<br />
b 1 · · · b n−1 b n<br />
det B = (det S) 2 det A > 0.<br />
Es genügt zu zeigen, dass B positiv definit ist. Dazu setze<br />
⎛<br />
⎞<br />
1 −b 1<br />
. . .<br />
T := ⎜<br />
.<br />
⎟ ∈ GL(n; R).<br />
⎝ 1 −b n−1 ⎠<br />
0 · · · 0 1<br />
Dann ist<br />
Nun ist<br />
⎛<br />
T T BT = ⎜<br />
⎝<br />
⎞<br />
1 0<br />
. .. .<br />
⎟<br />
1 0 ⎠<br />
0 · · · 0 c n<br />
=: C.<br />
det C = (det T ) 2 det B = det B > 0<br />
und damit c n > 0. Also ist C positiv definit und damit auch B und A.<br />
✷
6 Das Minimalpolynom 23<br />
6 Das Minimalpolynom<br />
Wir kommen nun auf das schon in LA I betrachtete Problem zurück, für die<br />
Darstellungsmatrix eines Endomorphismus f : V → V eines K-Vektorraums<br />
eine Normalform zu finden. Dabei spielt neben dem charakteristischen Polynom<br />
ein anderes Polynom eine Rolle, das wir nun einführen wollen. Dazu<br />
machen wir zunächst einen Exkurs über den Polynomring.<br />
Es sei K ein beliebiger Körper. Dann betrachten wir den Polynomring in<br />
einer Variablen über K:<br />
K[x] := {a 0 + a 1 x + · · · + a n x n | a i ∈ K}.<br />
Auf K[x] ist eine Addition und eine Multiplikation erklärt. Es sei P (x), Q(x) ∈<br />
K[x],<br />
P (x) = a 0 + a 1 x + · · · + a n x n , Q(x) = b 0 + b 1 x + · · · + b m x m .<br />
O. B. d. A. sei n ≤ m. Zur Definition der Addition setzen wir a n+1 = . . . a m =<br />
0. Dann definieren wir<br />
P (x) + Q(x) := (a 0 + b 0 ) + (a 1 + b 1 )x + · · · + (a m + b m )x m .<br />
Die Multiplikation ist dadurch erklärt, dass man formal ausmultipliziert:<br />
mit<br />
P (x) · Q(x) = (a 0 + a 1 x + · · · + a n x n ) · (b 0 + b 1 x + · · · + b m x m )<br />
:= a 0 b 0 + (a 0 b 1 + a 1 b 0 )x + · · · + a n b m x n+m<br />
= c 0 + c 1 x + · · · + c n+m x n+m<br />
c k :=<br />
k∑<br />
a i b k−i .<br />
Statt P (x) und Q(x) schreiben wir von nun an auch P und Q.<br />
i=0<br />
Satz 6.1 Mit dieser Addition und Multiplikation wird K[x] zu einem kommutativen<br />
Ring mit Einselement.<br />
Beweis. Die Axiome sind leicht nachzuprüfen. Was ist das Einselement?<br />
Das Nullpolynom (alle Koeffizienten a i = 0) bezeichnen wir mit 0.<br />
✷<br />
Definition<br />
Der Grad eines Polynoms<br />
P (x) = a 0 + a 1 x + · · · + a n x n mit a n ≠ 0<br />
ist die Zahl n (n = deg P ). Den Grad des Nullpolynoms definieren wir als<br />
deg(0) := −∞. Das Polynom P heißt normiert, falls a n = 1 ist.
6 Das Minimalpolynom 24<br />
Satz 6.2 (Gradformel) Für P, Q ∈ K[x] gilt:<br />
deg(P · Q) = deg P + deg Q.<br />
Dabei soll formal n − ∞ = m − ∞ = −∞ − ∞ = −∞ gelten.<br />
Beweis. Dies folgt aus c n+m = a n b m ≠ 0 falls a n ≠ 0 und b m ≠ 0.<br />
✷<br />
Satz 6.3 (Division mit Rest) Es seien P, Q ∈ K[x] mit P, Q ≠ 0. Dann<br />
gibt es eindeutig bestimmte Polynome q, r mit<br />
(i) P = Qq + r,<br />
(ii) deg r < deg Q.<br />
Beweis. Wir zeigen zunächst die Eindeutigkeit. Es seien q, q ′ , r, r ′ ∈ K[x] mit<br />
P = Qq + r = Qq ′ + r ′ , deg r, deg r ′ < deg Q.<br />
Dann folgt<br />
1.Fall: q = q ′ ⇒ r = r ′ .<br />
2.Fall: q ≠ q ′ . Dann ist<br />
Q(q − q ′ ) = r ′ − r.<br />
deg(r ′ − r) = deg Q + deg(q − q ′ ) ≥ deg Q<br />
im Widerspruch zu deg(r ′ − r) ≤ max{deg r, deg r ′ } < deg Q.<br />
Nun beweisen wir die Existenz von q und r. Wenn es ein q ∈ K[x] gibt<br />
mit<br />
P = Qq,<br />
so können wir r = 0 setzen und die Behauptung ist bewiesen. Andernfalls<br />
betrachten wir die Menge<br />
M := {deg(P − Qp) | p ∈ K[x]} ⊆ N = {0, 1, 2, . . .}.<br />
Diese Menge besitzt ein Minimum in N. Es sei q ∈ K[x] mit<br />
deg(P − Qq) ≤ deg(P − Qp) für alle p ∈ K[x].<br />
Es sei ferner<br />
d.h.<br />
r := P − Qq,<br />
P = Qq + r.
6 Das Minimalpolynom 25<br />
Es bleibt zu zeigen: deg r < deg Q. Angenommen, deg r ≥ deg Q. Es sei<br />
Q = b 0 + b 1 x + · · · + b m x m (b m ≠ 0),<br />
r = c 0 + c 1 x + · · · + c k x k (c k ≠ 0).<br />
Dann ist nach Annahme k ≥ m. Es sei<br />
Dann ist<br />
Es ist also<br />
p := q + c k<br />
b m<br />
x k−m ∈ K[x].<br />
P − Qp = P − Qq − Q c k<br />
b m<br />
x k−m = r − Q c k<br />
b m<br />
x k−m .<br />
Daher folgt<br />
P − Qp = c k x k − b m<br />
c k<br />
b m<br />
x k + Terme der Ordnung < k.<br />
im Widerspruch zur Wahl von q.<br />
deg(P − Qp) < k = deg r = deg(P − Qq).<br />
Dies führt zu dem schon aus der Schule bekannten Verfahren zur Polynomdivision<br />
(siehe Vorlesung und Übungen).<br />
In Polynome können wir nun Körperelemente einsetzen. Ist<br />
und λ ∈ K, so setzen wir<br />
P (x) = a 0 + a 1 x + · · · + a n x n ∈ K[x]<br />
P (λ) := a 0 + a 1 λ + · · · + a n λ n ∈ K.<br />
Auf diese Weise definiert P (x) eine Funktion<br />
Damit erhalten wir eine Abbildung<br />
˜P : K −→ K<br />
λ ↦−→ P (λ) .<br />
✷<br />
˜ : K[x] −→ Abb(K, K)<br />
P ↦−→ ˜P<br />
.<br />
Warnung Wir müssen zwischen Polynomen P und Polynomfunktionen ˜P<br />
unterscheiden, denn bei endlichen Körpern können Unterschiede auftreten:<br />
Ist z.B. K = F 2 und P (x) = x 2 + x, so ist ˜P die Nullfunktion, da P (0) =<br />
P (1) = 1 + 1 = 0. Also ist in diesem Fall die Abbildung ˜ nicht injektiv.
6 Das Minimalpolynom 26<br />
Definition Ist 0 ≠ P ∈ K[x] und λ ∈ K, so dass P (λ) = 0 gilt, so heißt λ<br />
eine Nullstelle von P .<br />
Korollar 6.1 Es sei 0 ≠ P ∈ K[x] und λ eine Nullstelle von P . Dann gibt<br />
es genau ein Polynom Q ∈ K[x] mit<br />
Es ist deg Q = deg P − 1.<br />
P = Q(x − λ).<br />
Beweis. Wir dividieren P durch (x − λ) mit Rest: Nach Satz 6.3 gibt es<br />
eindeutig bestimmte Q, r ∈ K[x] mit<br />
P = (x − λ)Q + r, deg r < 1 = deg(x λ ).<br />
Also ist r(x) = a 0 ∈ K. Setzen wir λ in diese Gleichung ein, so folgt<br />
0 = P (λ) = (λ − λ)Q(λ) + a 0 = a 0 ,<br />
also r = 0.<br />
✷<br />
Korollar 6.2 Es sei 0 ≠ P ∈ K[x]. Dann ist die Anzahl der Nullstellen von<br />
P höchstens gleich dem Grad von P .<br />
Beweis. Wir führen Induktion über den Grad n := deg P . Für n = 0 ist P<br />
eine konstantes Polynom P (x) = a 0 ≠ 0 und das hat gar keine Nullstelle.<br />
Damit ist die Behauptung für n = 0 bewiesen.<br />
Nun sei deg P = n ≥ 1 und die Behauptung sei schon für alle Polynome<br />
Q ∈ K[x] mit deg Q ≤ n − 1 bewiesen. Hat P keine Nullstelle, so ist<br />
die Behauptung richtig. Andernfalls sei λ ∈ K eine Nullstelle von P . Nach<br />
Korollar 6.1 gibt es dann ein Q ∈ K[x] mit<br />
P = (x − λ)Q und deg Q = n − 1.<br />
Alle von λ verschiedenen Nullstellen von P müssen auch Nullstellen von Q<br />
sein. Nach Induktionsannahme hat Q höchstens n − 1 verschiedene Nullstellen,<br />
also P höchstens n verschiedene Nullstellen.<br />
✷<br />
Korollar 6.3 Hat K unendlich viele Elemente, so ist die Abbildung<br />
injektiv.<br />
˜ : K[x] → Abb(K, K), P ↦→ ˜P ,
6 Das Minimalpolynom 27<br />
Beweis. Es seien P 1 , P 2 ∈ K[x] mit ˜P 1 = ˜P 2 . Betrachte Q := P 1 − P 2 . Dann<br />
ist ˜Q = 0, also hat Q unendlich viele Nullstellen. Aus Korollar 6.2 folgt damit<br />
Q = 0, also P 1 = P 2 .<br />
✷<br />
Satz 6.4 Es sei K ein unendlicher Körper. Jedes Polynom 0 ≠ P ∈ K[x]<br />
besitzt eine Darstellung<br />
P = (x − λ 1 ) ν1 · · · (x − λ r ) νr · Q,<br />
wobei λ 1 , . . . , λ r paarweise verschieden sind und Q ein Polynom ohne Nullstellen<br />
ist. Diese Darstellung ist bis auf die Reihenfolge der Faktoren eindeutig.<br />
Definition Man nennt ν i die Ordnung oder Vielfachheit der Nullstelle λ i .<br />
Für den Beweis des Satzes brauchen wir ein Lemma.<br />
Lemma 6.1 Es sei K ein unendlicher Körper und P, Q ∈ K[x] Polynome<br />
mit P (λ) ≠ 0, Q(λ) ≠ 0. Gilt<br />
für alle x ∈ K, so ist ν = µ.<br />
(x − λ) ν P (x) = (x − λ) µ Q(x)<br />
Beweis. O. B. d. A. sei ν ≥ µ. Dann gilt<br />
(x − λ) ν−µ P (x) − Q(x) = 0 (für x ≠ λ).<br />
Da K unendlich viele Elemente enthält, gilt für die Polynome<br />
(x − λ) ν−µ P − Q = 0.<br />
Falls ν > µ, wäre Q(λ) = 0, ein Widerspruch.<br />
✷<br />
Beweis von Satz 6.4. Die Existenz der Darstellung folgt aus Korollar 6.1.<br />
Zum Beweis der Eindeutigkeit: Die λ i sind genau die Nullstellen von P ,<br />
liegen also eindeutig fest. Die Eindeutigkeit der ν i folgt aus Lemma 6.1. Es<br />
bleibt die Eindeutigkeit von Q zu zeigen. Dazu sei<br />
(x − λ 1 ) ν1 · · · (x − λ r ) νr Q = (x − λ 1 ) ν1 · · · (x − λ r ) νr Q ′ .<br />
Dann gilt für alle x ≠ λ 1 , . . . , λ r<br />
Q(x) = Q ′ (x).<br />
Also hat Q − Q ′ unendlich viele Nullstellen und es folgt Q = Q ′ .<br />
✷
6 Das Minimalpolynom 28<br />
Definition Man sagt, das Polynom 0 ≠ P ∈ K[x] zerfällt über K, falls es<br />
eine Darstellung<br />
gibt.<br />
P (x) = a(x − λ 1 ) ν1 · · · (x − λ r ) νr (a ∈ K)<br />
Beispiel 6.1 Das Polynom P (x) = 1 + x 2 zerfällt nicht über R, aber über<br />
C:<br />
P (x) = (x − i)(x + i).<br />
Satz 6.5 (Fundamentalsatz der <strong>Algebra</strong>) Jedes nicht konstante Polynom<br />
P ∈ C[x] besitzt eine Nullstelle.<br />
Diesen Satz hat erstmals C. F. Gauß 1799 bewiesen. Heutzutage wird er<br />
meist in der Vorlesung Funktionentheorie bewiesen, da man mit Methoden<br />
dieser Vorlesung einen sehr knappen und eleganten Beweis geben kann.<br />
Korollar 6.4 Jedes Polynom P ∈ C[x] zerfällt.<br />
Definition<br />
Eine Teilmenge I eines Ringes R heißt ein Ideal, falls gilt:<br />
(I1) I ⊆ R ist eine Untergruppe bezüglich der Addition.<br />
(I2) Ist r ∈ R und s ∈ I, so ist auch r · s ∈ I.<br />
Beispiel 6.2 I := 〈P 1 , . . . , P n 〉 := {Q 1 P 1 + · · · + Q n P n | Q i ∈ R}.<br />
Definition<br />
I = 〈P 1 , . . . , P n 〉 heißt das von P 1 , . . . , P n erzeugte Ideal.<br />
Definition Ein Ideal I heißt Hauptideal, falls es von einem Element erzeugt,<br />
wird, d.h. I = 〈P 〉 = {QP | Q ∈ R} für ein P ∈ R.<br />
Lemma 6.2 Es seien R, R ′ Ringe und f : R → R ′ ein Ringhomomorphismus.<br />
Dann ist der Kern von f ein Ideal in R.<br />
Beweis. Nach I, Satz 8.4, ist Ker f eine Untergruppe von R. Es sei r ∈ R<br />
und s ∈ Ker f. Dann gilt<br />
f(r · s) = f(r) · f(s) = f(r) · 0 = 0,<br />
also r · s ∈ Ker f.<br />
✷<br />
Satz 6.6 (i) K[x] ist ein Hauptidealring, d.h. jedes Ideal von K[x] ist ein<br />
Hauptideal.
6 Das Minimalpolynom 29<br />
(ii) Zu jedem Ideal I ≠ {0} in K[x] gibt es genau ein normiertes Polynom<br />
P mit I = 〈P 〉.<br />
Beweis. (i): Im Fall I = {0} ist I = 〈0〉. Es sei also I ≠ {0}. Dann hat die<br />
Menge<br />
M := {deg P | 0 ≠ P ∈ I} ⊆ N<br />
ein Minimum m := min M. Es sei P ∈ I mit deg P = m.<br />
Behauptung I = 〈P 〉 = K[x] · P .<br />
Beweis. Es gilt 〈P 〉 ⊆ I nach Definition eines Ideals.<br />
Es bleibt zu zeigen: I ⊆ 〈P 〉. Dazu sei Q ∈ I beliebig. Nach Satz 6.3 gibt<br />
es eine Darstellung<br />
Q = qP + r, deg r < deg P.<br />
Ist r = 0, so ist Q ∈ 〈P 〉. Andernfalls folgt mit (I1) und (I2)<br />
r = Q − qP ∈ I.<br />
Wegen 0 ≤ deg r < deg P = m ist dies ein Widerspruch zur Wahl von P . ✷<br />
(ii): Mit P liegt auch aP in I für a ∈ K. Also kann man P als normiert<br />
annehmen. Es sei<br />
Dann gilt<br />
Es folgt<br />
I = 〈P 〉 = 〈P ′ 〉 mit P, P ′ normiert.<br />
P ′ = Q ′ P, P = QP ′ für geeignete Q, Q ′ ∈ K[x].<br />
Nach der Gradformel folgt daraus<br />
P = QQ ′ P ⇔ P (1 − QQ ′ ) = 0.<br />
deg QQ ′ = 0, also QQ ′ = 1,<br />
und damit sind Q und Q ′ ebenfalls nach der Gradformel konstant. Da P, P ′<br />
normiert sind, folgt Q = Q ′ = 1, also P = P ′ .<br />
✷<br />
Nun wollen wir die Theorie auf Matrizen anwenden. Die Menge Mat(n, n; K)<br />
ist ein Vektorraum der Dimension n 2 und obendrein ein Ring mit der Matrizenaddition<br />
und Matrizenmultiplikation. Wie üblich setzen wir für A ∈<br />
Mat(n, n; K):<br />
A n = A · · · A (n-mal), A 0 = E.
6 Das Minimalpolynom 30<br />
Wir setzen nun Matrizen in Polynome ein, d.h. wir betrachten die Einsetzungsabbildung<br />
ϕ A : K[x] −→ Mat(n, n; K)<br />
P (x) = ∑ n<br />
i=0 a ix i ↦−→ P (A) := ∑ n<br />
i=0 a iA i .<br />
Die Abbildung ϕ A ist linear, also ein Homomorphismus von K-Vektorräumen<br />
und sogar ein Ringhomomorphismus:<br />
(P + Q)(A) = P (A) + Q(A),<br />
(λP )(A) = λP (A),<br />
(P · Q)(A) = P (A)Q(A).<br />
Das Bild von ϕ A ist der Untervektorraum<br />
K[A] := Span{E, A, A 2 , . . .}<br />
von Mat(n, n; K). Wir betrachten nun die Menge<br />
I A := {P ∈ K[x] | P (A) = 0} = Ker ϕ A .<br />
Aus Lemma 6.2 folgt, dass I A ein Ideal in K[x] ist. Da K[x] ein Hauptidealring<br />
ist, gibt es (falls I A ≠ {0}) genau ein normiertes Polynom µ A ∈ K[x]<br />
mit<br />
I A = 〈µ A 〉.<br />
Satz 6.7 Es gibt genau ein normiertes Polynom 0 ≠ µ A ∈ K[x] mit folgenden<br />
Eigenschaften:<br />
(i) µ A (A) = 0.<br />
(ii) Ist P ∈ K[x] ein Polynom mit P (A) = 0, so ist P = Q · µ A .<br />
(iii) Unter allen normierten Polynomen P ∈ K[x] mit P (A) = 0 hat µ A<br />
minimalen Grad.<br />
Definition Das Polynom µ A ∈ K[x] heißt das Minimalpolynom von A.<br />
Beweis. Wir zeigen zunächst I A ≠ {0}. Es ist K[A] ⊆ Mat(n, n; K), also gilt<br />
dim K[A] ≤ n 2 =: N.<br />
Daher sind die Matrizen<br />
E, A, A 2 , . . . , A N
6 Das Minimalpolynom 31<br />
linear abhängig, d.h. es gibt a 0 , a 1 , . . . , a N ∈ K, nicht alle gleich 0, mit<br />
a 0 E + a 1 A + · · · + a N A N = 0.<br />
Also ist<br />
0 ≠ P (x) := a 0 + a 1 x + · · · + a N x N ∈ I A .<br />
Nach Satz 6.6 ist dann<br />
I A = 〈µ A 〉<br />
für ein eindeutig bestimmtes normiertes Polynom µ A ≠ 0.<br />
✷<br />
Beispiel 6.3 Es sei<br />
⎛<br />
A = ⎜<br />
⎝<br />
Man rechnet leicht aus:<br />
⎛<br />
A 2 =<br />
⎜<br />
⎝<br />
0 1 0<br />
. .. . ..<br />
0 1<br />
0 0<br />
⎞<br />
0 0 1 0<br />
. .. . .. . ..<br />
0 0 1<br />
0 0<br />
0 0<br />
⎟ ∈ Mat(n, n; K).<br />
⎠<br />
⎞<br />
, . . . , A n = 0.<br />
⎟<br />
⎠<br />
Daraus folgt<br />
Satz 6.8 Es gilt<br />
µ A (x) = x n .<br />
deg µ A = dim K[A].<br />
Beweis. Es sei m := dim K[A]. Dann sind<br />
E, A, A 2 , . . . , A m<br />
linear abhängig. Wie im Beweis von Satz 6.7 zeigt man, dass es ein (normiertes)<br />
Polynom P ∈ K[x] gibt mit deg P ≤ m und P (A) = 0. Also ist<br />
deg µ A ≤ m = dim K[A].<br />
Es sei umgekehrt m ′ = deg µ A . Zum Beweis von dim K[A] ≤ m ′ betrachten<br />
wir<br />
U := Span{E, A, . . . , A m′ −1 }.
6 Das Minimalpolynom 32<br />
Dann sind E, A, . . . , A m′ −1 linear unabhängig, denn andernfalls wäre m ′ =<br />
deg µ A nicht minimal. Also ist dim U = m ′ . Es genügt zu zeigen:<br />
Dazu ist zu zeigen, dass<br />
Es sei<br />
Da µ A (A) = 0 folgt<br />
K[A] ⊆ U.<br />
A s ∈ V für s ≥ m ′ .<br />
µ A (x) = a 0 + a 1 x + · · · + a m ′ −1x m′ −1 + x m′ .<br />
A m′ = −a 0 E − · · · − a m ′ −1A m′ −1 ∈ U.<br />
Durch Multiplikation mit A auf beiden Seiten folgt dann aber auch<br />
A m′ +1 = −a 0 A − · · · − a m ′ −1A m′ ∈ U.<br />
Die Behauptung folgt dann durch Induktion.<br />
✷<br />
Korollar 6.5 Ist m = deg µ A , so ist {E, A, . . . , A m−1 } eine Basis von K[A].<br />
Korollar 6.6 Eine Matrix A ∈ Mat(n, n; K) ist genau dann invertierbar,<br />
wenn µ A (0) ≠ 0 gilt. In diesem Fall liegt A −1 ∈ K[A].<br />
Beweis. Es sei<br />
µ A (x) = a 0 + a 1 x + · · · + a m−1 x m−1 + x m<br />
das Minimalpolynom von A. Dann gilt<br />
Setzen wir<br />
so folgt<br />
a 1 A + · · · + a m−1 A m−1 + A m = −a 0 E.<br />
B := a 1 E + · · · + a m−1 A m−2 + A m−1 ,<br />
AB = −a 0 E.<br />
Nach Korollar 6.5 ist B ≠ 0. Ist A nicht invertierbar, so gilt det A = 0, also<br />
µ A (0) = a 0 = 0. Ist A invertierbar, so ist B = −a 0 A −1 und µ A (0) = a 0 ≠ 0.<br />
✷<br />
Lemma 6.3 (Invarianz) Sind die Matrizen A, B ∈ Mat(n, n; K) ähnlich,<br />
dann stimmen die Minimalpolynome µ A und µ B überein.
6 Das Minimalpolynom 33<br />
Beweis. Es sei P ∈ K[x] und B = S −1 AS. Dann gilt<br />
P (S −1 AS) = a 0 E + a 1 S −1 AS + · · · + a m (S −1 AS) m<br />
= a 0 S −1 ES + a 1 S −1 AS + · · · + a m S −1 A m S<br />
= S −1 P (A)S.<br />
Daraus folgt<br />
Damit können wir definieren:<br />
P (A) = 0 ⇔ P (B) = P (S −1 AS) = 0.<br />
✷<br />
Definition Es sei V ein endlich dimensionaler K-Vektorraum und f : V →<br />
V ein Endomorphismus. Dann ist das Minimalpolynom µ f von f das Minimalpolynom<br />
einer Darstellungsmatrix von f.<br />
Nun zeigen wir, dass auch das charakteristische Polynom einer Matrix A<br />
in I A liegt.<br />
Satz 6.9 (Satz von Cayley-Hamilton) Es sei P A<br />
Polynom einer Matrix A ∈ Mat(n, n; K). Dann gilt<br />
das charakteristische<br />
P A (A) = 0.<br />
Daraus folgt unmittelbar:<br />
Korollar 6.7 Das Minimalpolynom µ A teilt das charakteristische Polynom<br />
P A einer Matrix A ∈ Mat(n, n; K).<br />
Beweis von Satz 6.9. Wir wenden einen Trick an. Wir setzen<br />
Dann gilt<br />
B(x) := (A − xE) T ∈ Mat(n, n; K[x]).<br />
det B(x) = P A (x) ∈ K[x].<br />
Nun ersetzen wir die Unbestimmte x durch die Matrix A und jeden Eintrag<br />
a ij durch die Matrix a ij E. Das ergibt<br />
⎛<br />
⎞<br />
a 11 E − A a 21 E · · · a n1 E<br />
a 12 E a 22 E − A · · · a n2 E<br />
B(A) = ⎜<br />
⎝<br />
.<br />
. . .<br />
⎟ ∈ Mat(n, n; K[A]).<br />
. . ⎠<br />
a 1n E a 2n E · · · a nn E − A
7 Diagonalisierbarkeit 34<br />
Diese Matrix kann mit einem Spaltenvektor des K n2 multipliziert werden,<br />
d.h. einem Spaltenvektor, dessen Einträge wiederum Spaltenvektoren des K n<br />
sind. Insbesondere gilt<br />
⎛ ⎞ ⎛<br />
⎞ ⎛ ⎞<br />
e 1 a 11 e 1 − Ae 1 + a 21 e 2 + · · · + a n1 e n<br />
⎜ ⎟ ⎜<br />
⎟ ⎜ ⎟<br />
B(A) ⎝ . ⎠ = ⎝<br />
.<br />
⎠ = ⎝<br />
0. ⎠ .<br />
e n a 1n e 1 + a 2n e 2 + · · · + a nn e n − Ae n 0<br />
Nun sei B ∗ (x) ∈ Mat(n, n; K[x]) die zu B(x) adjungierte Matrix, die wir in<br />
LA I definiert haben. Ihre Einträge sind entsprechend der Definition Polynome<br />
vom Grad ≤ n − 1, und es gilt<br />
B ∗ (x)B(x) = (det B(x))E = P A (x)E.<br />
Setzen wir nun A für x ein, so folgt<br />
⎛ ⎞<br />
⎛<br />
⎜ ⎟<br />
⎝<br />
0. ⎠ = B ∗ ⎜<br />
(A)B(A) ⎝<br />
0<br />
⎞ ⎛ ⎞<br />
e 1 P A (A)e 1<br />
⎟ ⎜ ⎟<br />
. ⎠ = ⎝ . ⎠ .<br />
e n P A (A)e n<br />
Also ist P A (A) = 0.<br />
✷<br />
7 Diagonalisierbarkeit<br />
Nun kommen wir zurück auf das Problem, für die Darstellungsmatrix eines<br />
Endomorphismus eines endlich dimensionalen K-Vektorraums eine Normalform<br />
zu finden. Zunächst betrachten wir noch einmal die Diagonalisierbarkeit.<br />
Es sei V ein K-Vektorraum der Dimension n und f : V → V ein Endomorphismus.<br />
Definition Es sei λ ein Eigenwert von f.<br />
(i) Die algebraische Vielfachheit von λ, in Zeichen ν alg (f, λ), ist die Vielfachheit<br />
von λ als Nullstelle des charakteristischen Polynoms.<br />
(ii) Die geometrische Vielfachheit von λ, in Zeichen ν geom (f, λ), ist die Dimension<br />
des Eigenraums Eig(f, λ).<br />
Lemma 7.1 Ist λ Eigenwert von f, so gilt<br />
1 ≤ ν geom (f, λ) ≤ ν alg (f, λ).
7 Diagonalisierbarkeit 35<br />
Beweis. Es sei (v 1 , . . . , v s ) eine Basis von Eig(f, λ). Da λ Eigenwert von f<br />
ist, gilt s ≥ 1. Wir ergänzen diese Basis zu einer Basis<br />
B = (v 1 , . . . , v s , v s+1 , . . . , v n )<br />
von V . Dann ist<br />
⎛<br />
A := MB B (f) =<br />
⎜<br />
⎝<br />
⎞<br />
λ 0<br />
. ..<br />
∗<br />
0 λ<br />
.<br />
⎟<br />
0 A ′ ⎠<br />
Daraus folgt<br />
und damit<br />
P f (x) = (x − λ) s P A ′(x)<br />
ν geom (f, λ) = dim Eig(f, λ) = s ≤ ν alg (f, λ).<br />
✷<br />
Theorem 7.1 Es sei V ein n-dimensionaler K-Vektorraum und f : V → V<br />
ein Endomorphismus von V . Dann sind die folgenden Bedingungen äquivalent:<br />
(i) f ist diagonalisierbar.<br />
(ii) Das charakteristische Polynom zerfällt in Linearfaktoren und es gilt<br />
ν geom (f, λ) = ν alg (f, λ) für alle Eigenwerte λ von f.<br />
(iii) Sind λ 1 , . . . , λ k die paarweise verschiedenen Eigenwerte von f, so ist<br />
V = Eig(f, λ 1 ) ⊕ · · · ⊕ Eig(f, λ k ).<br />
Beweis. (i) ⇒ (ii): Es sei f diagonalisierbar und λ 1 , . . . , λ k die paarweise<br />
verschiedenen Eigenwerte von f. Zu λ i (i = 1, . . . , k) betrachten wir eine<br />
Basis<br />
(v (i)<br />
1 , . . . , v s (i)<br />
i<br />
) von Eig(f, λ i ).<br />
Setzen wir r i := ν alg (f, λ i ), so gilt<br />
s 1 + · · · + s k = n, r 1 + · · · + r n = n und s i ≤ r i .<br />
Daraus folgt aber s i = r i für alle i = 1, . . . , k.
7 Diagonalisierbarkeit 36<br />
(ii) ⇒ (iii): Es sei<br />
W := Eig(f, λ 1 ) + · · · + Eig(f, λ k ).<br />
Nach I, Satz 19.3, und der Bedingung (iii) in Satz 1.5 folgt<br />
W = Eig(f, λ 1 ) ⊕ · · · ⊕ Eig(f, λ k ).<br />
Aus (ii) und Satz 1.6 (iii) folgt dann W = V .<br />
(iii) ⇒ (i): Für jedes i = 1, . . . , k sei<br />
Nach Satz 1.6 (ii) ist dann<br />
(v (i)<br />
1 , . . . , v (i)<br />
s i<br />
) eine Basis von Eig(f, λ i ).<br />
B := (v (1)<br />
1 , . . . , v (1)<br />
s 1<br />
, . . . , v (k)<br />
1 , . . . , v (k)<br />
s k<br />
)<br />
eine Basis von V . Da sie nach Definition aus Eigenvektoren von f besteht,<br />
ist f diagonalisierbar.<br />
✷<br />
Als Anwendung von Theorem 7.1 betrachten wir das Problem, zwei Endomorphismen<br />
mit einer gemeinsamen Basis zu diagonalisieren (simultane<br />
Diagonalisierung).<br />
Bemerkung 7.1 Angenommen, die Matrizen A, B ∈ Mat(n, n; K) lassen<br />
sich simultan diagonalisieren. Das bedeutet, dass es eine Matrix S ∈ GL(n; K)<br />
gibt mit<br />
SAS −1 = D und SBS −1 = ˜D,<br />
wobei D und ˜D Diagonalmatrizen sind. Dann gilt<br />
BA = S −1 ˜DSS −1 DS = S −1 ˜DDS = S −1 D ˜DS = S −1 DSS −1 ˜DS = AB.<br />
Das bedeutet, dass A und B kommutieren müssen.<br />
Satz 7.1 Sind f, g diagonalisierbare Endomorphismen von V und gilt f ◦g =<br />
g ◦ f, so sind f und g simultan diagonalisierbar.<br />
Beweis. Nach Theorem 7.1 gilt<br />
V = Eig(f, λ 1 ) ⊕ · · · ⊕ Eig(f, λ k )<br />
= Eig(g, µ 1 ) ⊕ · · · ⊕ Eig(g, µ l ),<br />
wobei λ 1 , . . . , λ k bzw. µ 1 , . . . , µ l die verschiedenen Eigenwerte von f bzw. g<br />
sind. Es sei λ einer der Eigenwerte von f und<br />
W := Eig(f, λ).
8 Nilpotente Endomorphismen 37<br />
Es sei w ∈ W . Dann gilt<br />
f(g(w)) = g(f(w)) = g(λw) = λg(w).<br />
Also ist auch g(w) ein Eigenvektor von f zum Eigenwert λ, also liegt auch<br />
g(w) in W . Damit gilt g(W ) ⊆ W . Setze<br />
W j := W ∩ Eig(g, µ j ) für j = 1, . . . , l.<br />
Behauptung W = W 1 ⊕ · · · ⊕ W l .<br />
Beweis. Wegen I, Satz 19.3, und der Bedingung (iii) in Satz 1.5 reicht es zu<br />
zeigen:<br />
W = W 1 + · · · + W l .<br />
Es sei w ∈ W . Dann gibt es w j ∈ Eig(g, µ j ) , so dass w = w 1 + · · · + w l .<br />
Dann gilt<br />
f(w) = f(w 1 ) + · · · + f(w l ) = λw 1 + · · · + λw l = λw.<br />
Da f(w j ) ∈ Eig(g, µ j ) und λw j ∈ Eig(g, µ j ) und die Darstellung von w in<br />
eindeutig ist, folgt<br />
also w j ∈ W und somit w j ∈ W j .<br />
Eig(g, µ 1 ) ⊕ · · · ⊕ Eig(g, µ l )<br />
f(w j ) = λw j ,<br />
Da die Behauptung für alle Eigenwerte λ von f gilt, folgt die Aussage des<br />
Satzes.<br />
✷<br />
8 Nilpotente Endomorphismen<br />
Wie wir in Theorem 7.1 gesehen haben, gibt es zwei Bedingungen für die<br />
Diagonalisierbarkeit:<br />
(a) Das charakteristische Polynom muss in Linearfaktoren zerfallen, und<br />
(b) die geometrische Vielfachheit muss gleich der algebraischen Vielfachheit<br />
der Eigenwerte sein.<br />
Wir untersuchen nun, welche Aussage man noch treffen kann, wenn nur die<br />
Bedingung (a) erfüllt ist.<br />
✷
8 Nilpotente Endomorphismen 38<br />
Definition Eine Matrix A = (a ij ) ∈ Mat(n, n; K) heißt obere Dreiecksmatrix,<br />
wenn a ij = 0 für i > j gilt.<br />
Satz 8.1 Für einen Endomorphismus f eines n-dimensionalen Vektorraums<br />
sind die folgenden Bedingungen äquivalent:<br />
(i) Es gibt eine Basis B, so dass MB B (f) eine obere Dreiecksmatrix ist.<br />
(ii) Das charakteristische Polynom P f zerfällt in Linearfaktoren, d.h.<br />
P f (x) = ±(x − λ 1 ) · · · (x − λ n ) mit λ 1 , . . . , λ n ∈ K.<br />
Beweis. (i) ⇒ (ii): Dies folgt aus I, Satz 18.1.<br />
(ii) ⇒ (i): Wir führen den Beweis durch Induktion über n. Für n = 0, 1 ist<br />
die Behauptung klar. Es sei n ≥ 2 und v 1 ein Eigenvektor zu dem Eigenwert<br />
λ 1 . Wir ergänzen ihn zu einer Basis<br />
von V . Dann gilt<br />
und<br />
B = (v 1 , w 2 , . . . , w n )<br />
V = U 1 ⊕ W mit U 1 := Span{v 1 } und W := Span{w 2 , . . . , w n }<br />
⎛<br />
MB B (f) = ⎜<br />
⎝<br />
⎞<br />
λ 1 a 12 · · · a 1n<br />
a 22 · · · a 2n<br />
0. .<br />
..<br />
⎟ . . ⎠ .<br />
0 a n2 · · · a nn<br />
Wir definieren nun lineare Abbildungen h : W → U 1 und g : W → W durch<br />
für j = 2, . . . , n. Dann gilt<br />
h(w j ) = a 1j v 1 und g(w j ) = a 2j w 2 + · · · + a nj w n<br />
f(w) = h(w) + g(w) für alle w ∈ W.<br />
Für die charakteristischen Polynome gilt<br />
P f (x) = (x − λ 1 )P g (x), also P g (x) = ±(x − λ 2 ) · · · (x − λ n ).<br />
Deswegen können wir die Induktionsvoraussetzung auf g : W → W anwenden.<br />
Demnach gibt es eine Basis (v 2 , . . . , v n ) von W , bezüglich der g durch<br />
eine obere Dreiecksmatrix dargestellt wird. Für f gilt dann<br />
f(v j ) = h(v j ) + g(v j ) ∈ Span{v 1 , . . . , v j } für j = 2, . . . , n.<br />
Also ist auch die Darstellungsmatrix von f bezüglich der Basis B = (v 1 , . . . , v n )<br />
eine obere Dreiecksmatrix.<br />
✷<br />
Wir betrachten nun eine Anwendung dieses Satzes.
8 Nilpotente Endomorphismen 39<br />
Definition (i) Ein Endomorphismus f : V → V heißt nilpotent, wenn<br />
f k = 0 für ein k ≥ 1 ist.<br />
(ii) Eine Matrix A ∈ Mat(n, n; K) heißt nilpotent, wenn A k = 0 für ein<br />
k ≥ 1 ist.<br />
Lemma 8.1 Es sei A nilpotent.<br />
(i) Ist B ähnlich zu A, dann ist auch B nilpotent.<br />
(ii) 0 ist der einzige Eigenwert von A.<br />
Beweis.<br />
(i): Es sei B = S −1 AS und A k = 0. Dann gilt<br />
B k = (S −1 AS)(S −1 AS) · · · (S −1 AS) = S −1 A k S = 0.<br />
(ii): Es sei A k = 0. Aus det A k = 0 folgt det A = 0. Deshalb ist 0 ein<br />
Eigenwert von A. Dies ist auch der einzige Eigenwert: Ist λ ∈ K ein Eigenwert<br />
von A mit Eigenvektor x ≠ 0, dann gilt<br />
A k x = λ k x = 0<br />
und daraus folgt λ = 0.<br />
✷<br />
Satz 8.2 Für einen Endomorphismus f eines n-dimensionalen Vektorraums<br />
V sind die folgenden Bedingungen äquivalent:<br />
(i) f ist nilpotent.<br />
(ii) Es sei B eine Basis von V . Dann ist die Darstellungsmatrix M B B (f)<br />
von f bezüglich der Basis B nilpotent.<br />
(iii) Es gilt P f (x) = ±x n .<br />
(iv) Es gilt f d = 0 für ein d mit 1 ≤ d ≤ n.<br />
(v) Es gibt eine Basis B von V , so dass<br />
⎛<br />
M B B (f) =<br />
⎜<br />
⎝<br />
0 ∗<br />
. ..<br />
0 0<br />
⎞<br />
⎟<br />
⎠ .
8 Nilpotente Endomorphismen 40<br />
Beweis. (i) ⇔ (ii) ist klar.<br />
(ii) ⇒ (iii): Es sei A := MB B (f). Nach Lemma 8.1 (ii) ist 0 der einzige<br />
Eigenwert von A. Deswegen hat das charakteristische Polynom die Gestalt<br />
P f (x) = ±x n .<br />
(iii) ⇒ (iv): Aus dem Satz von Cayley-Hamilton folgt µ f (x) = x d für ein<br />
d mit 1 ≤ d ≤ n. Das bedeutet f d = 0.<br />
(iv) ⇒ (i) ist klar.<br />
(iii) ⇒ (v) folgt aus Satz 8.1.<br />
(v) ⇒ (ii): Es sei A = MB B(f) = (a ij) mit a ij = 0 für i ≥ j.<br />
Behauptung<br />
A r = (a (r)<br />
ij ) mit a(r) ij = 0 für i ≥ j + 1 − r.<br />
Beweis. Wir führen Induktion nach r durch.<br />
Induktionsanfang r = 1: Dies gilt nach Voraussetzung.<br />
Induktionsschritt r − 1 → r: Es gilt<br />
a (r)<br />
ij =<br />
n∑<br />
l=1<br />
a il a (r−1)<br />
lj<br />
.<br />
Es sei nun i ≥ j + 1 − r und 1 ≤ l ≤ n. Wir unterscheiden zwei Fälle:<br />
Fall 1: j + 1 − r ≥ l. Dann ist i ≥ l, also a il = 0 nach Voraussetzung.<br />
Fall 2: l > j +1−r. Dann ist l ≥ j +1−(r −1). Dann gilt aber a (r−1)<br />
lj<br />
= 0<br />
nach Induktionsvorausetzung.<br />
Also gilt<br />
a (r)<br />
ij = 0.<br />
Aus der Behauptung folgt A n = 0. Ist A ′ die Darstellungsmatrix von f<br />
bezüglich einer anderen Basis, so ist A ′ ähnlich zu A. Die Behauptung folgt<br />
damit aus Lemma 8.1 (i).<br />
✷<br />
Wir wollen nun zeigen, dass wir die Matrix in Satz 8.2 (v) noch auf eine<br />
einfachere Gestalt bringen können.<br />
✷<br />
Definition<br />
Die Matrix<br />
⎛<br />
J k = ⎜<br />
⎝<br />
0 1 0<br />
. . .<br />
. . .<br />
0 1<br />
0 0<br />
⎞<br />
⎟ ∈ Mat(k, k; K)<br />
⎠<br />
heißt Jordanmatrix von der Ordnung k.
8 Nilpotente Endomorphismen 41<br />
Nach Beispiel 6.3 ist J k nilpotent, genauer gilt Jk k<br />
Potenz mit dieser Eigenschaft. Wie sieht J 1 aus?<br />
= 0 und k ist die minimale<br />
Theorem 8.1 (Jordannormalform nilpotenter Endomorphismen) Es<br />
sei f ein nilpotenter Endomorphismus eines K-Vektorraums V und d :=<br />
min{l | f l = 0} (d heißt auch der Nilpotenzindex von f). Dann gibt es eindeutig<br />
bestimmte Zahlen s 1 , . . . , s d ∈ N mit<br />
d · s d + (d − 1)s d−1 + · · · + s 1 = n = dim V<br />
und eine Basis B von V , so dass<br />
⎛<br />
⎞<br />
J d .. . J d J d−1 0<br />
.<br />
MB B .. (f) =<br />
J d−1<br />
. 0<br />
.. J 1 ⎜<br />
.<br />
⎝<br />
.. ⎟<br />
⎠<br />
J 1<br />
Beweis. Wir definieren U l := Ker f l und betrachten die Kette von Unterräumen<br />
{0} = U 0 ⊆ U 1 ⊆ . . . ⊆ U d−1 ⊆ U d = V.<br />
Dabei gilt U d = V nach Definition von d, und da d die minimale Potenz mit<br />
f d = 0 ist, sind alle Inklusionen echt.<br />
Behauptung<br />
(1) Für 1 ≤ l ≤ d ist f −1 (U l−1 ) = U l , insbesondere f(U l ) = U l−1 .<br />
(2) Ist W ein Unterraum von V mit W ∩ U l = {0} für ein 1 ≤ l ≤ d, so<br />
ist f| W injektiv.<br />
Beweis.<br />
(1): Es gilt<br />
v ∈ f −1 (U l−1 ) ⇔ f(v) ∈ U l−1 ⇔ 0 = f l−1 (f(v)) = f l (v) ⇔ v ∈ U l .
8 Nilpotente Endomorphismen 42<br />
(2) Es gilt Ker f = U 1 ⊆ U l für jedes 1 ≤ l ≤ d, also W ∩ Ker f = {0}. ✷<br />
Nun konstruieren wir schrittweise eine direkte Summenzerlegung von V .<br />
Zunächst wählen wir ein Komplement W d ⊆ V von U d−1 in V = U d :<br />
Aus Behauptung (1) folgt dann<br />
(a) f(W d ) ⊆ U d−1 und<br />
(b) f(W d ) ∩ U d−2 = {0}.<br />
V = U d = U d−1 ⊕ W d .<br />
Denn aus W d ⊆ U d und f(U d ) = U d−1 folgt (a). Aus f −1 (U d−2 ) = U d−1 und<br />
W d ∩ U d−1 = {0} folgt (b). Also gibt es eine Zerlegung<br />
U d−1 = U d−2 ⊕ W d−1 mit f(W d ) ⊆ W d−1 .<br />
Fahren wir so fort, so erhalten wir folgendes Schema:<br />
U d<br />
↓<br />
U d−1 ⊕ W d<br />
↓ ↓<br />
U d−2 ⊕ W d−1 ⊕ W d<br />
↓ ↓ ↓<br />
. . .<br />
↓ ↓ ↓<br />
U 1 ⊕ W 2 ⊕ W 3 ⊕ · · · ⊕ W d<br />
↓ ↓ ↓ ↓<br />
U 0 ⊕ W 1 ⊕ W 2 ⊕ · · · ⊕ W d−1 ⊕ W d<br />
Dabei zeigen die Pfeile an, wie f die entsprechenden Unterräume abbildet.<br />
Jede Zeile ist eine Zerlegung von V , wegen U 0 = {0} ist insbesondere<br />
Da die Abbildungen<br />
V = W 1 ⊕ W 2 ⊕ · · · ⊕ W d .<br />
f| Wd f| Wd−1 f| W2<br />
W d −→ Wd−1 −→ . . . −→ W1<br />
nach Behauptung (2) alle injektiv sind, können wir mit einer Basis von W d<br />
anfangen, das Bild dieser Basis unter f| Wd zu einer Basis von W d−1 ergänzen,
9 Die Jordansche Normalform 43<br />
usw., bis wir zu einer Basis von V gelangen:<br />
w (d)<br />
1 , f(w (d)<br />
1 ), . . . , f d−1 (w (d)<br />
1 ),<br />
.<br />
w s (d)<br />
d<br />
,<br />
.<br />
.<br />
f(w s (d)<br />
d<br />
), . . . , f d−1 (w s (d)<br />
d<br />
),<br />
w (d−1)<br />
1 , . . . , f d−2 (w (d−1)<br />
1 ),<br />
.<br />
.<br />
w s (d−1)<br />
d−1<br />
, . . . , f d−2 (w s (d−1)<br />
d−1<br />
),<br />
.<br />
w (1)<br />
1 ,<br />
.<br />
w (1)<br />
s 1 .<br />
Dabei ist die erste Spalte eine Basis von W d , die zweite Spalte eine Basis<br />
von W d−1 , und schließlich die letzte Spalte eine Basis von W 1 = U 1 = Ker f.<br />
Ordnen wir die Basis nun so an, dass wir die Zeilen von oben nach unten<br />
lesen, aber in jeder Zeile umgekehrt, also von rechts nach links, laufen, so<br />
erhalten wir eine Basis von V , bezüglich der die Darstellungsmatrix von f<br />
die angebene Gestalt hat.<br />
Wir müssen nun noch zeigen, dass die Zahlen s 1 , . . . , s d eindeutig bestimmt<br />
sind. Dazu sei ˜W l ein Komplement von f(W l+1 ) in W l , l = 1, . . . , d<br />
(hier setzen wir W d+1 = {0}). Dann gilt wegen<br />
U l = U l−1 ⊕ f(W l+1 ) ⊕ ˜W l<br />
und da f| Wl+1<br />
injektiv ist<br />
s l = dim ˜W l = dim U l − dim U l−1 − dim W l+1 .<br />
Damit sind diese Zahlen rekursiv aus den Dimensionen der Kerne von f l<br />
berechenbar.<br />
✷<br />
9 Die Jordansche Normalform<br />
Es sei K ein beliebiger Körper, V ein endlich dimensionaler K-Vektorraum<br />
mit dim V ≥ 1 und f : V → V ein Endomorphismus mit zerfallendem<br />
charakteristischen Polynom<br />
P f (x) = ±(x − λ 1 ) r1 · · · (x − λ k ) r k<br />
,<br />
λ 1 , . . . , λ k ∈ K paarweise verschieden.
9 Die Jordansche Normalform 44<br />
Wir haben bereits gesehen, dass dann f durch eine obere Dreiecksmatrix<br />
dargestellt werden kann. Dieses Ergebnis soll nun noch präzisiert werden.<br />
Im Allgemeinen gilt<br />
dim Eig(f, λ i ) = ν geom (f, λ i ) ≤ r i .<br />
Gilt hier nicht die Gleichheit, so betrachtet man anstelle des Eigenraums<br />
einen größeren Unterraum.<br />
Definition<br />
Für einen Eigenwert λ der Vielfachheit r ≥ 1 nennt man<br />
Hau(f, λ) := Ker(f − λid) r<br />
den Hauptraum (oder verallgemeinerten Eigenraum) von f zum Eigenwert λ.<br />
Satz 9.1 (Hauptraumzerlegung) Es sei f ein Endomorphismus von V<br />
und<br />
P f (x) = ±(x − λ 1 ) r1 · · · (x − λ k ) r k<br />
mit paarweise verschiedenen λ 1 , . . . , λ k ∈ K. Es sei<br />
V i := Hau(f, λ i ) ⊆ V<br />
der Hauptraum zum Eigenwert λ i . Dann gilt:<br />
(1) dim V i = r i und f(V i ) ⊆ V i für i = 1, . . . , k.<br />
(2) V = V 1 ⊕ · · · ⊕ V k .<br />
(3) f hat eine Zerlegung f = f D + f N mit<br />
(a) f D ist diagonalisierbar.<br />
(b) f N ist nilpotent.<br />
(c) f D ◦ f N = f N ◦ f D .<br />
Durch Kombination dieses Satzes mit der Klassifikation nilpotenter Endomorphismen<br />
(Theorem 8.1) erhält man das Hauptresultat dieses Abschnitts.<br />
Theorem 9.1 (Jordansche Normalform) Es sei f ein Endomorphismus<br />
von V und<br />
P f (x) = ±(x − λ 1 ) r1 · · · (x − λ k ) r k
9 Die Jordansche Normalform 45<br />
mit paarweise verschiedenen λ 1 , . . . , λ k ∈ K. Dann gibt es eine Basis B von<br />
V , so dass<br />
⎛<br />
⎞<br />
λ 1 E r1 + N 1 0<br />
MB B (f) =<br />
. ..<br />
,<br />
⎜<br />
⎟<br />
⎝ 0 λ k E rk + N k ⎠<br />
wobei N i für i = 1, . . . , k in der Normalform von Theorem 8.1 ist. Ausgeschrieben<br />
bedeutet das:<br />
⎛<br />
λ i 1<br />
. .. . ..<br />
.<br />
0<br />
. . 1<br />
λ i .. . λ i E ri +N i =<br />
λ i 1<br />
.<br />
.. .<br />
.. .<br />
. .. 1 λ i λ i ⎜<br />
⎝<br />
. ⎟ .. ⎠<br />
0 λ i<br />
⎞<br />
Die Eigenwerte λ 1 , . . . , λ k , die Zahlen r 1 , . . . , r k sowie die Zahlen s (i)<br />
j<br />
d i s (i)<br />
d i<br />
+ (d i − 1)s (i)<br />
d i −1 + · · · + s(i) 1 = r i , i = 1, . . . k<br />
nach Theorem 8.1 sind durch f eindeutig bestimmt. Man nennt sie Invarianten<br />
von f.<br />
Beweis von Theorem 9.1. Setze für i = 1, . . . , k<br />
V i := Hau(f, λ i ) und g i := (f − λ i id)| Vi .<br />
Anwendung von Theorem 8.1 auf g i ergibt eine Basis B i von V i . Nach Satz 9.1<br />
setzen sich die Basen B 1 , . . . , B k zu einer Basis B mit der gewünschten Eigenschaft<br />
zusammen.<br />
✷<br />
mit
9 Die Jordansche Normalform 46<br />
Korollar 9.1 Für einen Endomorphismus f von V sind die folgenden Bedingungen<br />
äquivalent:<br />
(i) f ist diagonalisierbar.<br />
(ii) µ f (x) = (x − λ 1 ) · · · (x − λ k ), wobei λ 1 , . . . , λ k die verschiedenen Eigenwerte<br />
von f sind.<br />
Beweis. Es sei wie oben<br />
d i := min{l i | g l i<br />
i = 0}.<br />
Dann gilt für das Minimalpolynom von g i<br />
µ gi (x) = x d i<br />
.<br />
Die Abbildung g i ist aber genau dann diagonalisierbar, wenn d i = 1.<br />
✷<br />
Nun wollen wir den Satz über die Hauptraumzerlegung beweisen. Dazu<br />
betrachten wir für einen Eigenwert λ von f die Abbildung<br />
g := f − λid.<br />
Die folgenden Überlegungen gelten für einen beliebigen Endomorphismus g<br />
und seine Potenzen. Man hat zwei Ketten von Unterräumen:<br />
{0} ⊆ Ker g ⊆ Ker g 2 ⊆ . . . ⊆ Ker g l ⊆ . . .<br />
V ⊇ Im g ⊇ Im g 2 ⊇ . . . ⊇ Im g l ⊇ . . .<br />
Da V endlich dimensional ist, müssen die beiden Ketten stationär werden,<br />
d.h. irgendwann sind die Inklusionen nicht mehr echt. Genauer bedeutet das,<br />
dass es d und d ′ geben muss mit<br />
{0} ⊆ Ker g ⊆ Ker g 2 ⊆ . . . ⊆ Ker g d = Ker g d+1 = . . .<br />
V ⊇ Im g ⊇ Im g 2 ⊇ . . . ⊇ Im g d′ = Im g d′ +1<br />
= . . .<br />
Genauer gilt Folgendes:<br />
Lemma 9.1 (Fitting) Zu einem Endomorphismus g von V betrachten wir<br />
die Zahlen<br />
Dann gilt:<br />
d := min{l | Ker g l = Ker g l+1 },<br />
d ′ := min{l | Im g l = Im g l+1 },<br />
r := ν alg (g, 0).
9 Die Jordansche Normalform 47<br />
(i) d = d ′ .<br />
(ii) Ker g d+i = Ker g d , Im g d+i = Im g d für alle i ∈ N.<br />
(iii) Die Räume U := Ker g d und W := Im g d sind unter g invariant.<br />
(iv) (g| U ) d = 0 und g| W ist ein Isomorphismus.<br />
(v) Für das Minimalpolynom von g| U gilt µ g|U (x) = x d .<br />
(vi) V = U ⊕ W , dim U = r ≥ d, dim W = n − r.<br />
Beweis. Wir betrachten das Diagramm<br />
Nach der Dimensionsformel gilt<br />
Daraus folgt<br />
Ker g l ⊆ V −→ Im g l<br />
|∩ ‖ ∪|<br />
Ker g l+1 ⊆ V −→ gl+1<br />
Im g l+1<br />
dim V = dim Ker g l + dim Im g l = dim Ker g l+1 + dim Im g l+1 .<br />
Im g l+1 = Im g l ⇔ dim Im g l+1 = dim Im g l<br />
⇔<br />
g l<br />
dim Ker g l+1 = dim Ker g l<br />
⇔ Ker g l+1 = Ker g l .<br />
Daraus folgt zunächst einmal die Aussage (i).<br />
Weiterhin ist die Aussage Im g l+1 = Im g l gleichbedeutend damit, dass<br />
g| Im g l : Im g l → Im g l+1 ein Isomorphismus ist. Daraus folgt (ii), (iii) und<br />
(iv).<br />
(v): Es genügt zu zeigen, dass (g| U ) d−1 ≠ 0. Angenommen, (g| U ) d−1 = 0.<br />
Dann folgt<br />
Ker g d = U ⊆ Ker g d−1 .<br />
Da aber Ker g d−1 ⊆ Ker g d , erhalten wir Ker g d−1 = Ker g d im Widerspruch<br />
zur Definition von d.<br />
(vi): Wir zeigen zunächst V = U ⊕ W . Es sei v ∈ U ∩ W . Dann ist<br />
g d (v) = 0 und v = g d (w) für ein w ∈ V . Daraus folgt g 2d (w) = 0, also<br />
w ∈ Ker g 2d . Nach (ii) gilt Ker g 2d = Ker g d . Damit folgt w ∈ Ker g d und<br />
somit<br />
v = g d (w) = 0.
9 Die Jordansche Normalform 48<br />
Nach Definition von U ist dim U ≥ d, Denn es gilt<br />
{0} ⊂ Ker g ⊂ . . . ⊂ Ker g d−1 ⊂ Ker g d ,<br />
und in jedem Schritt erhöht sich die Dimension mindestens um 1. Nun gilt<br />
P g (x) = x r · Q(x) = P g|U (x) · P g|W (x) mit Q(0) ≠ 0.<br />
Auf der anderen Seite gilt<br />
P g|U (x) = ±x m mit m = dim U,<br />
P g|W (0) ≠ 0 (da g| W ein Isomorphismus nach (iv)).<br />
Daraus folgt m = r, was zu zeigen war.<br />
✷<br />
Beweis von Satz 9.1. Wir führen Induktion über die Zahl k der verschiedenen<br />
Eigenwerte durch. Für k = 1 ist der Satz trivial. Es sei nun k ≥ 2. Zu λ 1<br />
definieren wir<br />
g := f − λ 1 · id.<br />
Dann gilt<br />
Nach Lemma 9.1 gilt<br />
P g (x − λ 1 ) = P f (x), also ν alg (g, 0) = ν alg (f, λ 1 ) = r 1 .<br />
V = Hau(f, λ 1 ) ⊕ W, W = Im g d ,<br />
und die beiden Summanden werden von g und damit auch von f = g + λ 1 id<br />
invariant gelassen. Außerdem gilt<br />
P f|W (x) = ±(x − λ 2 ) r2 · · · (x − λ k ) r k<br />
.<br />
Damit können wir auf f| W die Induktionsannahme anwenden und erhalten<br />
(1) und (2).<br />
Zum Beweis von (3) bemerken wir zunächst, dass es nach Satz 8.1 eine<br />
Basis B von V gibt, so dass die Darstellungsmatrix MB B (f) eine obere<br />
Dreiecksmatrix ist. Diese Matrix schreiben wir als<br />
⎛<br />
⎞<br />
λ 1 E r1 + N 1 0<br />
MB B (f) =<br />
. ..<br />
.<br />
⎜<br />
⎟<br />
⎝ 0 λ k E rk + N k ⎠
9 Die Jordansche Normalform 49<br />
Dann ist jedes N i eine obere Dreiecksmatrix mit Nullen auf der Diagonalen,<br />
nach Satz 8.2 also nilpotent. Setze<br />
⎛<br />
⎞ ⎛<br />
⎞<br />
λ 1 E r1 0<br />
N D := ⎜ . 1 0<br />
.. ⎟<br />
⎝<br />
⎠ und N := ⎜<br />
⎝<br />
. .<br />
⎟<br />
. ⎠ .<br />
0 λ k E rk 0 N k<br />
Dann rechnet man aus:<br />
DN =<br />
⎛<br />
⎜<br />
⎝<br />
⎞<br />
λ 1 N 1 0<br />
..<br />
⎟<br />
. ⎠ = ND.<br />
0 λ k N k<br />
✷<br />
Bemerkung 9.1 Man kann zeigen, dass die Zerlegung f = f D + f N<br />
Satz 9.1 sogar eindeutig ist, wenn man (a), (b) und (c) verlangt.<br />
in<br />
Bemerkung 9.2 Es sei f ein Endomorphismus mit charakteristischem Polynom<br />
P f (x) = ±(x − λ 1 ) r1 · · · (x − λ k ) r k<br />
und Minimalpolynom<br />
µ f (x) = ±(x − λ 1 ) d1 · · · (x − λ k ) d k<br />
mit paarweise verschiedenen λ 1 , . . . , λ k ∈ K. Die Matrix<br />
⎛<br />
⎞<br />
λ i 1 0<br />
.. .<br />
.. .<br />
⎜<br />
⎝ . ⎟ ∈ Mat(m, m; K)<br />
.. 1 ⎠<br />
0 λ i<br />
nennt man auch einen Jordanblock der Länge m zum Eigenwert λ i . Dann<br />
folgt aus Theorem 9.1, dass r i die Summe der Längen aller Jordanblocks<br />
zum Eigenwert λ i und d i die Länge des größten Jordanblocks zum Eigenwert<br />
λ i ist.<br />
Beispiel 9.1 Gegeben sei die Matrix<br />
⎛<br />
−5 15 11<br />
⎞<br />
A := ⎝ −5 11 5 ⎠ .<br />
3 −6 −2
9 Die Jordansche Normalform 50<br />
Dann gilt<br />
P A (x) = −x 3 + 4x 2 − 5x + 2 = −(x − 1) 2 (x − 2).<br />
Damit ist k = 2, λ 1 = 1, r 1 = 2, λ 2 = 2, r 2 = 1. Wir setzen<br />
⎛<br />
−6 15 11<br />
⎞<br />
⎛<br />
−7 15 11<br />
B 1 := A − E = ⎝ −5 10 5 ⎠ , B 2 := A − 2E = ⎝ −5 9 5<br />
3 −6 −3<br />
3 −6 −4<br />
⎞<br />
⎠ .<br />
Dann gilt<br />
Daraus folgt<br />
⎛<br />
B1 2 = ⎝<br />
−6 −6 −24<br />
−5 −5 −20<br />
3 3 12<br />
⎞<br />
⎠ .<br />
1 = dim Eig(A, 1) = dim Ker B 1 < dim Ker B 2 1 = dim Hau(A, 1) = 2.<br />
Damit ist A nicht diagonalisierbar. Durch Lösen der Gleichungssysteme B 2 1x =<br />
0 und B 2 x = 0 erhält man Basen<br />
{(4, 0, −1) T , (0, 4, −1) T } von Hau(A, 1),<br />
{(6, 5, −3) T } von Hau(A, 2) = Eig(A, 2).<br />
Daraus bilden wir die Matrix<br />
⎛<br />
⎞<br />
⎛<br />
4 0 6<br />
T := ⎝ 0 4 5 ⎠ mit T −1 = 1 ⎝<br />
4<br />
−1 −1 −3<br />
Dann gilt<br />
⎛<br />
B := T −1 AT = ⎝<br />
−31<br />
4<br />
−25<br />
4<br />
49<br />
0<br />
4<br />
39<br />
0<br />
4<br />
0 0 2<br />
7 6 24<br />
5 6 20<br />
−4 −4 −16<br />
Nun transformieren wir die Basis von Hau(A, 1) so, dass ein Basisvektor v<br />
ein Eigenvektor von A zum Eigenwert 1 ist. Er hat die Form<br />
⎞<br />
⎠ .<br />
v = α(4, 0, −1) T + β(0, 4, −1) T .<br />
⎞<br />
⎠ .<br />
Dann müssen α und β der Bedingung<br />
( −35<br />
) (<br />
49<br />
4 4 α<br />
β<br />
−25<br />
4<br />
35<br />
4<br />
) ( ) 0<br />
=<br />
0
10 Affine Quadriken 51<br />
genügen. Daraus folgt, dass man α = 7 und β = 5 wählen kann. Mit der<br />
4 4<br />
neuen Transformationsmatrix<br />
⎛<br />
⎞<br />
⎛<br />
⎞<br />
7 0 6<br />
˜T := ⎝ 5 4 5 ⎠ mit ˜T −1 := 1 7 6 24<br />
⎝ 0 3 5 ⎠<br />
7<br />
−3 −1 −3<br />
−7 −7 −28<br />
ergibt sich<br />
⎛<br />
˜T −1 A ˜T = ⎝<br />
1 7 0<br />
0 1 0<br />
0 0 2<br />
Um nun zur Jordannormalform zu kommen, suchen wir einen Vektor<br />
⎞<br />
⎠ .<br />
w = γ(4, 0, −1) T + δ(0, 4, −1) T<br />
mit der Eigenschaft (B − E)w = v. Also müssen γ und δ der Bedingung<br />
( −35<br />
) ( ) ( )<br />
49<br />
4 4 γ α<br />
=<br />
δ β<br />
−25<br />
4<br />
35<br />
4<br />
genügen. Daraus folgt γ = δ = 1 . Mit der neuen Transformationsmatrix<br />
2<br />
⎛<br />
⎞<br />
⎛<br />
⎞<br />
7 2 6<br />
1 0 2<br />
S := ⎝ 5 2 5 ⎠ mit S −1 := ⎝ 0 3 5 ⎠<br />
−3 −1 −3<br />
−1 −1 −4<br />
ergibt sich schließlich<br />
⎛<br />
S −1 AS = ⎝<br />
10 Affine Quadriken<br />
1 1 0<br />
0 1 0<br />
0 0 2<br />
Wir betrachten nun Quadriken. Die Literatur für diesen Abschnitt ist<br />
⎞<br />
⎠ .<br />
• G. Fischer: Analytische <strong>Geometrie</strong>. Vieweg 1978.<br />
Es sei K im Folgenden immer ein Körper, für den 1 + 1 ≠ 0 ist.<br />
Definition Unter einem quadratischen Polynom über K in den Unbestimmten<br />
x 1 , . . . , x n versteht man einen Ausdruck der Gestalt<br />
n∑<br />
P (x 1 , . . . , x n ) = a ii x 2 i +<br />
∑<br />
n∑<br />
2a ij x i x j + 2a 0i x i + a 00 ,<br />
i=1<br />
wobei a ij ∈ K für 0 ≤ i ≤ j ≤ n.<br />
1≤i
10 Affine Quadriken 52<br />
β<br />
α<br />
Abbildung 1: Ellipse x2 1<br />
α 2 + x2 2<br />
β 2 = 1<br />
β<br />
α<br />
Abbildung 2: Hyperbel x2 1<br />
α 2 − x2 2<br />
β 2 = 1<br />
Definition Eine Teilmenge Q ⊆ K n heißt (affine) Quadrik (oder (affine)<br />
Hyperfläche zweiter Ordnung), wenn es ein quadratisches Polynom P gibt,<br />
so dass<br />
Q = {(x 1 , . . . , x n ) ∈ K n | P (x 1 , . . . , x n ) = 0}.<br />
Beispiel 10.1 (a) x2 1<br />
+ x2 α 2 2<br />
= 1, α, β > 0. Diese Gleichung beschreibt eine<br />
β 2<br />
Ellipse (vgl. Abbildung 1).<br />
(b) x2 1<br />
− x2 α 2 2<br />
= 1, α, β > 0. Diese Gleichung beschreibt eine Hyperbel (vgl.<br />
β 2<br />
Abbildung 2).<br />
(c) x 2 1 − x 2 = 0. Diese Gleichung beschreibt eine Parabel (vgl. Abbildung<br />
3).<br />
Es ist vorteilhaft, die Gleichung für eine Quadrik durch Matrizen auszudrücken.<br />
Dazu setzen wir a ji := a ij für 0 ≤ i < j ≤ n und<br />
⎛<br />
⎞<br />
a 11 · · · a 1n<br />
⎜<br />
A = ⎝<br />
.<br />
. .<br />
⎟<br />
. . ⎠ ,<br />
a n1 · · · a nn
10 Affine Quadriken 53<br />
Abbildung 3: Parabel x 2 1 − x 2 = 0<br />
⎛<br />
x = ⎜<br />
⎝<br />
⎞<br />
1<br />
x 1<br />
⎟<br />
. ⎠ ,<br />
x n<br />
⎛<br />
A = ⎜<br />
⎝<br />
a 00 a 01 · · · a 0n<br />
a 10<br />
. A<br />
a n0<br />
Dann sind A und A symmetrisch und es gilt<br />
⎞<br />
⎟<br />
⎠ .<br />
und<br />
P (x 1 , . . . , x n ) = x T Ax<br />
Q = {(x 1 , . . . , x n ) ∈ K n | x T Ax = 0}.<br />
Man nennt A die erweiterte Matrix zu A und x den erweiterten Spaltenvektor<br />
zu x.<br />
Definition Es seien V und W K-Vektorräume. Eine Abbildung f : V → W<br />
heißt affin, wenn es eine lineare Abbildung F : V → W und einen Vektor<br />
w 0 ∈ W gibt mit<br />
f(v) = F (v) + w 0 für alle v ∈ V.<br />
Ist W = V und F : V → V ein Automorphismus, so nennt man die Abbildung<br />
f : V → V eine Affinität.<br />
Eine affine Abbildung ensteht also durch die Hintereinanderschaltung einer<br />
linearen Abbildung F : V → W und einer Translation t : W → W ,<br />
w ↦→ w + w 0 .<br />
Beispiel 10.2 Für V = K n lässt sich eine Affinität wie folgt beschreiben:<br />
mit A ∈ GL(n; K) und b ∈ K n .<br />
f : K n −→ K n<br />
x ↦−→ Ax + b<br />
Satz 10.1 (i) Sind f, g Affinitäten, so auch f ◦ g.
10 Affine Quadriken 54<br />
(ii) Ist f eine Affinität, so ist f bijektiv und die Umkehrabbildung f −1 ist<br />
wieder eine Affinität. Es gilt<br />
Beweis.<br />
(i) Es sei<br />
Dann gilt<br />
f −1 (v) = F −1 (v) − F −1 (w 0 ).<br />
f(v) = F (v) + w 0 ,<br />
g(v) = G(v) + u 0 .<br />
(f ◦ g)(v) = f(g(v)) = f(G(v) + u 0 ) = F (G(v) + u 0 ) + w 0<br />
= F (G(v)) + F (u 0 ) + w 0 = (F ◦ G)(v) + (F (u 0 ) + w 0 ).<br />
(ii)<br />
(f −1 ◦ f)(v) = F −1 (f(v)) − F −1 (w 0 )<br />
= F −1 (F (v) + w 0 ) − F −1 (w 0 )<br />
= v + F −1 (w 0 ) − F −1 (w 0 ) = v,<br />
(f ◦ f −1 )(v) = F (f −1 (v)) + w 0<br />
= F (F −1 (v) + F −1 (w 0 )) + w 0<br />
= v − w 0 + w 0 = v.<br />
Wir wollen nun untersuchen, wie sich die Gleichung einer Quadrik bei<br />
einer Affinität von K n ändert. Dafür erweitern wir die obige Schreibweise<br />
auf Affinitäten. Es sei f : K n → K n , x ↦→ y mit<br />
y = Sx + b (S ∈ GL(n; K), b ∈ K n ).<br />
✷<br />
Dann definieren wir<br />
⎛<br />
S = ⎜<br />
⎝<br />
1 0 · · · 0<br />
b 1<br />
. S<br />
b n<br />
⎞<br />
⎟<br />
⎠ ,<br />
⎛<br />
y = ⎜<br />
⎝<br />
⎞<br />
1<br />
y 1<br />
⎟<br />
. ⎠ .<br />
y n<br />
In dieser Schreibweise wird f gegeben durch<br />
y = Sx.
10 Affine Quadriken 55<br />
Satz 10.2 Ist Q ⊆ K n eine Quadrik und f : K n → K n eine Affinität, so ist<br />
auch f(Q) ⊆ K n eine Quadrik.<br />
Beweis. Es sei Q gegeben durch<br />
x T Ax = 0<br />
und f durch<br />
y = Sx.<br />
Nach Satz 10.1 wird die Abbildung f −1 : K n → K n beschrieben durch<br />
f −1 (y) = S −1 y − S −1 b.<br />
Ist T := S −1 und<br />
T :=<br />
⎛<br />
⎜<br />
⎝<br />
⎞<br />
1 0 · · · 0<br />
⎟<br />
−S −1 (b) S −1 ⎠ ,<br />
so ist x = Ty. Damit gilt<br />
y = f(x) ∈ f(Q) ⇔ x ∈ Q ⇔ 0 = x T Ax = y T (T T AT)y,<br />
also<br />
f(Q) = {y ∈ K n | y T By = 0} mit B = T T AT.<br />
Wir wollen nun versuchen, die Affinität so zu wählen, dass die neue Gleichung<br />
so einfach wie möglich wird.<br />
Beispiel 10.3 Es sei Q ⊆ R 2 gegeben durch<br />
x 2 1 + 4x 2 2 − 4x 1 x 2 − 6x 1 + 14x 2 + 13 = 0.<br />
Im ersten Schritt eliminieren wir den gemischten Term x 1 x 2 . Es ist<br />
x 2 1 + 4x 2 2 − 4x 1 x 2 = (x 1 − 2x 2 ) 2 .<br />
Also wird Q nach der Koordinatentransformation<br />
z 1 = x 1 − 2x 2 ,<br />
z 2 = x 2<br />
✷
10 Affine Quadriken 56<br />
gegeben durch<br />
z 2 1 − 6z 1 + 2z 2 + 13 = 0.<br />
Nun reduzieren wir die linearen Terme durch quadratische Ergänzung. Die<br />
Gleichung ist äquivalent zu<br />
(z 2 1 − 6z 1 ) + 2z 2 + 13 = 0.<br />
Durch quadratische Ergänzung der Klammer ergibt sich<br />
oder<br />
Nach der Transformation<br />
erhält man die Gleichung<br />
(z 2 1 − 6z 1 + 9) + 2z 2 + 13 − 9 = 0<br />
(z 1 − 3) 2 + 2(z 2 + 2) = 0.<br />
y 1 = z 1 − 3,<br />
y 2 = z 2 + 2<br />
y 2 1 + 2y 2 = 0.<br />
Wir verallgemeinern nun die Methode aus diesem Beispiel. Wir betrachten<br />
den Spezialfall K = R.<br />
Es sei also die Quadrik Q ⊆ R n beschrieben durch<br />
⎛<br />
A = ⎜<br />
⎝<br />
a 00 a 01 · · · a 0n<br />
a 10<br />
. A<br />
a n0<br />
⎞<br />
⎟<br />
⎠ .<br />
Im ersten Schritt bringen wir die symmetrische Teilmatrix A auf Normalform.<br />
Nach Satz 5.1 gibt es eine Matrix T 1 ∈ GL(n; R) mit<br />
⎛<br />
E k 0<br />
⎞<br />
0<br />
T1 T AT 1 = ⎝ 0 −E m−k 0 ⎠ ,<br />
0 0 0<br />
wobei m der Rang von A und k der Index von A ist. Ist<br />
⎛<br />
⎞<br />
1 0 · · · 0<br />
T 1 = ⎜<br />
⎟<br />
⎝<br />
0. T 1 ⎠<br />
0
10 Affine Quadriken 57<br />
so wird<br />
⎛<br />
B 1 = T T 1 AT 1 = ⎜<br />
⎝<br />
c 00 c 01 · · · c 0n<br />
c 10 E k 0 0<br />
. 0 −E m−k 0<br />
c n0 0 0 0<br />
In den neuen Koordinaten lautet die Gleichung<br />
⎞<br />
⎟<br />
⎠ .<br />
z 2 1 + · · · + z 2 k − z 2 k+1 − · · · − z 2 m + 2(c 01 z 1 + · · · + c 0n z n ) + c 00 = 0,<br />
hat also keine gemischten Terme mehr.<br />
Im zweiten Schritt reduzieren wir durch eine Translation die linearen<br />
Terme. Wir setzen<br />
⎛<br />
⎞<br />
1 0 · · · 0 0 · · · 0 0 · · · 0<br />
−c 10 1<br />
. . . .<br />
−c k0 1 0<br />
c<br />
T 2 =<br />
k+1,0 1<br />
⎜<br />
. ..<br />
⎟ .<br />
Damit ergibt sich<br />
⎜<br />
⎝<br />
.<br />
c m0 1<br />
0 0 1<br />
.<br />
.. .<br />
0 1<br />
B 2 := T T 2 B 1 T 2 = T T 2 T T 1 AT 1 T 2<br />
⎛<br />
⎞<br />
d 00 0 · · · 0 0 · · · 0 c 0,m+1 · · · c 0n<br />
0 +1 0<br />
. . ..<br />
0 +1 0<br />
0 −1<br />
=<br />
. .<br />
..<br />
.<br />
0 0 1<br />
c m+1,0 0<br />
⎜<br />
⎝<br />
. ⎟<br />
. 0<br />
. . ⎠<br />
c n0 0<br />
Das bedeutet, dass Q in den neuen Koordinaten beschrieben werden kann<br />
durch die Gleichung<br />
u 2 1 + · · · + u 2 k − u 2 k+1 − · · · − u 2 m + 2(c m+1,0 u m+1 + · · · + c n0 u n ) + d 00 = 0.<br />
⎟<br />
⎠
10 Affine Quadriken 58<br />
Nun unterscheiden wir drei Fälle:<br />
(1) d 00 = c m+1,0 = . . . = c n0 = 0.<br />
(2) d 00 ≠ 0, c m+1,0 = . . . = c n0 = 0.<br />
(3) c r0 ≠ 0 für mindestens ein r ∈ {m + 1, . . . , n}.<br />
Fall (1): Dann reduziert sich die obige Gleichung auf<br />
u 2 1 + · · · + u 2 k − u 2 k+1 − · · · − u 2 m<br />
und wir sind fertig.<br />
Fall (2): O.B.d.A. d 00 < 0 (sonst multipliziere man die Gleichung mit −1<br />
und ordne durch eine weitere Transformation u 1 , . . . , u m um). Setze<br />
d.h. betrachte<br />
(u 1 , . . . , u n ) = ρ(y 1 , . . . , y n ) mit ρ = √ −d 00 ,<br />
( 1 0<br />
T 3 :=<br />
0 1E ρ n<br />
Dividiert man die entstehende Gleichung durch ρ 2 , so erhält man<br />
)<br />
.<br />
y 2 1 + · · · + y 2 k − y 2 k+1 − · · · − y 2 m = 1.<br />
Fall (3): O.B.d.A. r = m + 1 (sonst ordne man in einer weiteren Transformation<br />
u m+1 , . . . , u n um). Setzt man<br />
y i = u i für i ≠ m + 1,<br />
2y m+1 = 2(c m+1,0 u m+1 + · · · + c n0 u n ) + d 00 ,<br />
so erhält man als neue Gleichung für Q<br />
y 2 1 + · · · + y 2 k − y 2 k+1 − · · · − y 2 m + 2y m+1 = 0.<br />
Die Transformation kann man so beschreiben: Durch simultane Zeilen- und<br />
Spaltenumformungen der Matrix B 2 beseitigt man mit Hilfe von c m+1,0 =<br />
c 0,m+1 nacheinander die Einträge<br />
d 00 , c m+2,0 = c 0,m+2 , . . . , c n0 = c 0n .<br />
Insgesamt ergibt dies eine affine Transformation T 3 .<br />
Damit haben wir folgendes Ergebnis bewiesen:
10 Affine Quadriken 59<br />
Theorem 10.1 (Affine Klassifikation von Quadriken) Gegeben sei eine<br />
Quadrik<br />
Q = {x ∈ R n | x T Ax = 0},<br />
wobei A eine symmetrische (n + 1) × (n + 1)-Matrix ist. Es sei<br />
m := Rang A, m := Rang A.<br />
Dann gibt es eine Affinität f : R n → R n , so dass f(Q) beschrieben wird<br />
durch eine der folgenden Gleichungen<br />
(1) y 2 1 + · · · + y 2 k − y2 k+1 − · · · − y2 m = 0, falls m = m,<br />
(2) y 2 1 + · · · + y 2 k − y2 k+1 − · · · − y2 m = 1, falls m + 1 = m,<br />
(3) y 2 1 + · · · + y 2 k − y2 k+1 − · · · − y2 m + 2y m+1 = 0, falls m + 2 = m.<br />
Speziell für n = 2, 3 erhalten wir die Tabellen 1 und 2.<br />
Typ m m k Gleichung Beschreibung<br />
(1) 0 0 0 0 = 0 Ebene R 2<br />
1 1 1 y1 2 = 0 (Doppel-)Gerade<br />
2 2 1 y1 2 − y2 2 = 0 Geradenpaar (mit Schnittpunkt)<br />
2 2 2 y1 2 + y2 2 = 0 Punkt<br />
(2) 1 2 1 y1 2 = 1 Zwei parallele Geraden<br />
2 3 1 y1 2 − y2 2 = 1 Hyperbel<br />
2 3 2 y1 2 + y2 2 = 1 Kreis<br />
(3) 1 3 1 y1 2 + 2y 2 = 0 Parabel<br />
Tabelle 1: Normalformen von nicht leeren Quadriken im R 2<br />
Nun wollen wir statt allgemeinen Affinitäten nur solche Affinitäten zulassen,<br />
bei denen die lineare Abbildung orthogonal ist.<br />
Definition Es sei V ein euklidischer Vektorraum. Eine Affinität f : V → V<br />
heißt Kongruenz (oder Bewegung), falls es eine orthogonale Abbildung F :<br />
V → V und ein w 0 ∈ V gibt, so dass<br />
f(v) = F (v) + w 0 für alle v ∈ V.<br />
Eine Kongruenz ist also die Hintereinanderschaltung einer orthogonalen<br />
Abbildung und einer Translation. Ist insbesondere V = R n und<br />
f(x) = Ax + b für alle x ∈ R n
10 Affine Quadriken 60<br />
Typ m m k Gleichung Beschreibung<br />
(1) 0 0 0 0 = 0 Raum R 3<br />
1 1 1 y1 2 = 0 (Doppel-)Ebene<br />
2 2 1 y1 2 − y2 2 = 0 Ebenenpaar (mit Schnittgerade)<br />
2 2 2 y1 2 + y2 2 = 0 Gerade<br />
3 3 2 y1 2 + y2 2 − y3 2 = 0 Kreiskegel<br />
3 3 3 y1 2 + y2 2 + y3 2 = 0 Punkt<br />
(2) 1 2 1 y1 2 = 1 Zwei parallele Ebenen<br />
2 3 1 y1 2 − y2 2 = 1 hyperbolischer Zylinder<br />
2 3 2 y1 2 + y2 2 = 1 Kreiszylinder<br />
3 4 1 y1 2 − y2 2 − y3 2 = 1 zweischaliges Hyperboloid<br />
3 4 2 y1 2 + y2 2 − y3 2 = 1 einschaliges Hyperboloid<br />
3 4 3 y1 2 + y2 2 + y3 2 = 1 Kugel<br />
(3) 1 3 1 y1 2 + 2y 2 = 0 parabolischer Zylinder<br />
2 4 1 y1 2 − y2 2 + 2y 3 = 0 hyperbolisches Paraboloid<br />
2 4 2 y1 2 + y2 2 + 2y 3 = 0 elliptisches Paraboloid<br />
Tabelle 2: Normalformen von nicht leeren Quadriken im R 3<br />
mit A ∈ GL(n; R), so ist f genau dann eine Kongruenz, wenn A orthogonal<br />
ist.<br />
Nun modifizieren wir unsere Überlegungen, die zum Beweis von Theorem<br />
10.1 führten, so, dass wir statt beliebiger Affinitäten nur Kongruenzen<br />
zulassen.<br />
Gegeben sei wieder die Quadrik<br />
Q = {x ∈ R n | x T Ax = 0}.<br />
Nach dem Satz über die Hauptachsentransformation gibt es eine orthogonale<br />
Matrix T 1 mit<br />
⎛<br />
⎞<br />
λ 1 0 · · · 0<br />
T1 T 0 λ 2 · · · 0<br />
AT 1 = ⎜<br />
⎝<br />
.<br />
. . ..<br />
⎟ . ⎠ , (λ 1, . . . , λ n ∈ R).<br />
0 0 · · · λ n<br />
Wir können λ 1 , . . . , λ m ≠ 0 und λ m+1 = . . . = λ n = 0 annehmen. Damit sind<br />
die gemischten Terme beseitigt. Mit der erweiterten Matrix T 1 wie oben gilt
10 Affine Quadriken 61<br />
dann<br />
⎛<br />
B 1 := T T 1 AT 1 =<br />
⎜<br />
⎝<br />
d 00 c 01 · · · c 0m c 0,m+1 · · · c 0n<br />
c 10 λ 1 0<br />
.<br />
. .. 0<br />
c m0 0 λ m<br />
c m+1,0 0<br />
. 0<br />
.. .<br />
c n0 0<br />
⎞<br />
.<br />
⎟<br />
⎠<br />
Wie oben führt eine Translation zu<br />
⎛<br />
d 00 0 · · · 0 c 0,m+1 · · · c 0n<br />
0 λ 1 0<br />
.<br />
.. . 0<br />
B 2 := T T 2 B 1 T 2 =<br />
0 0 λ m<br />
c<br />
⎜ m+1,0 0<br />
⎝<br />
.<br />
. 0<br />
..<br />
c n0 0<br />
⎞<br />
.<br />
⎟<br />
⎠<br />
Nun unterscheiden wir wieder drei Fälle:<br />
Fall (1): d 00 = c m+1,0 = . . . = c n0 = 0.<br />
Hier sind wir bereits fertig: O.B.d.A. λ 1 , . . . , λ k > 0, λ k+1 , . . . , λ m < 0. Wir<br />
setzen für i = 1, . . . , m<br />
α i := √ 1<br />
|λi | .<br />
Damit erhalten wir die Gleichung<br />
y1<br />
2<br />
α1<br />
2<br />
+ · · · + y2 k<br />
α 2 k<br />
− y2 k+1<br />
− · · · − y2 m<br />
αk+1<br />
2 αm<br />
2<br />
= 0.<br />
Fall (2): d 00 ≠ 0, c m+1,0 = . . . = c n0 = 0.<br />
O.B.d.A. d 00 < 0, λ 1 , . . . , λ k > 0, λ k+1 , . . . , λ m < 0. Wir dividieren die<br />
Gleichung durch |d 00 | und setzen<br />
α i :=<br />
√<br />
|d00 |<br />
√<br />
|λi | .<br />
Dann erhalten wir die Gleichung<br />
y1<br />
2<br />
α1<br />
2<br />
+ · · · + y2 k<br />
α 2 k<br />
− y2 k+1<br />
− · · · − y2 m<br />
αk+1<br />
2 αm<br />
2<br />
= 1.
10 Affine Quadriken 62<br />
Fall (3): c r0 ≠ 0 für mindestens ein r ∈ {m + 1, . . . , n}.<br />
Hier ist die Transformation, mit der wir d 00 , c m+2,0 , . . . , c n0 beseitigt haben,<br />
keine Kongruenz. Deswegen brauchen wir hier zusätzliche Überlegungen. Wir<br />
setzen<br />
v := (c m+1,0 , . . . , c n0 ) T ∈ R n−m , v 1 = 1<br />
‖v‖ v,<br />
und konstruieren nach dem E. Schmidtschen Orthonormalisierungsverfahren<br />
eine Orthonormalbasis v 1 , . . . , v n−m von R n−m . Dann beschreibt die Matrix<br />
⎛<br />
⎞<br />
1 0 · · · 0 0 · · · 0<br />
0 1 0<br />
.<br />
.. . 0<br />
T 3 :=<br />
0 0 1<br />
, mit µ := −d 00<br />
2‖v‖ ,<br />
⎜<br />
⎟<br />
⎝ µv 1 0 v 1 · · · v n−m<br />
⎠<br />
eine Kongruenz und man rechnet leicht aus:<br />
⎛<br />
0 0 · · · 0 ‖v‖ 0 · · · 0<br />
0 λ 1 0 0<br />
. . .. . 0<br />
B 3 := T T 0 0 λ<br />
3 B 2 T 3 =<br />
m 0<br />
‖v‖ 0 · · · 0 0<br />
⎜<br />
⎝<br />
0. 0 0<br />
0<br />
⎞<br />
.<br />
⎟<br />
⎠<br />
Wieder nehmen wir λ 1 , . . . , λ k > 0 und λ k+1 , . . . , λ m < 0 an und setzen<br />
√<br />
‖v‖<br />
α i := √<br />
|λi | .<br />
Damit ergibt sich die Gleichung<br />
y1<br />
2<br />
α1<br />
2<br />
+ · · · + y2 k<br />
α 2 k<br />
− y2 k+1<br />
− · · · − y2 m<br />
+ 2y<br />
αk+1<br />
2 αm<br />
2 m+1 = 0.<br />
Damit haben wir bewiesen:<br />
Theorem 10.2 (Metrische Klassifikation von Quadriken) Gegeben sei<br />
eine Quadrik<br />
Q = {x ∈ R n | x T Ax = 0},
10 Affine Quadriken 63<br />
wobei A eine symmetrische (n + 1) × (n + 1)-Matrix ist. Es sei<br />
m := Rang A, m := Rang A.<br />
Dann gibt es eine Kongruenz f : R n → R n und α 1 , . . . , α m ∈ R, so dass f(Q)<br />
beschrieben wird durch eine der folgenden Gleichungen:<br />
(1)<br />
(2)<br />
(3)<br />
y1<br />
2<br />
α1<br />
2<br />
y1<br />
2<br />
α1<br />
2<br />
y1<br />
2<br />
α1<br />
2<br />
+ · · · + y2 k<br />
α 2 k<br />
+ · · · + y2 k<br />
α 2 k<br />
+ · · · + y2 k<br />
α 2 k<br />
− y2 k+1<br />
− · · · − y2 m<br />
αk+1<br />
2 αm<br />
2<br />
− y2 k+1<br />
− · · · − y2 m<br />
αk+1<br />
2 αm<br />
2<br />
= 0, falls m = m,<br />
= 1, falls m + 1 = m,<br />
− y2 k+1<br />
− · · · − y2 m<br />
+ 2y<br />
αk+1<br />
2 αm<br />
2 m+1 = 0, falls m + 2 = m.<br />
Speziell für n = 2 erhalten wir folgende Tabelle:<br />
Typ m m k Gleichung Beschreibung<br />
(1) 0 0 0 0 = 0 Ebene R 2<br />
1 1 1 x 2 = 0 (Doppel-)Gerade<br />
2 2 1 x 2 − αy 2 = 0, α > 0 Geradenpaar<br />
2 2 2 x 2 + αy 2 = 0, α > 0 Punkt<br />
x<br />
(2) 1 2 1 2<br />
= 1, α > 0<br />
α 2 Zwei parallele Geraden<br />
2 3 1<br />
x 2<br />
− y2<br />
= 1, α, β > 0<br />
α 2 β 2 Hyperbel<br />
2 3 2<br />
x 2<br />
+ y2<br />
= 1, α, β > 0<br />
α 2 β 2 Ellipse, Kreis<br />
(3) 1 3 1 x 2 + αy = 0, α ≠ 0 Parabel<br />
Tabelle 3: Metrische Klassifikation von nicht leeren Quadriken im R 2<br />
Im Fall n = 3 illustrieren wir im Folgenden den Klassifikationssatz durch<br />
Bilder.<br />
Fall (1): Der interessanteste Fall ist m = 3, k = 2. Die Gleichung<br />
x 2<br />
α 2 + y2<br />
β 2 − z2<br />
γ 2 = 0<br />
beschreibt einen elliptischen Kegel (Bild 4).<br />
Fall (2): In diesem Fall beschränken wir uns auf m = 3. Für k = 3 ergibt<br />
sich die Gleichung<br />
x 2<br />
α + y2<br />
2 β + z2<br />
2 γ = 1, 2<br />
die ein Ellipsoid beschreibt (Bild 5).
10 Affine Quadriken 64<br />
Abbildung 4: Elliptischer Kegel x2<br />
α 2 + y2<br />
β 2 − z2<br />
γ 2 = 0<br />
Abbildung 5: Ellipsoid x2<br />
α 2 + y2<br />
β 2 + z2<br />
γ 2 = 1<br />
Für k = 2 beschreibt<br />
ein einschaliges Hyperboloid (Bild 6).<br />
x 2<br />
α 2 + y2<br />
β 2 − z2<br />
γ 2 = 1<br />
Abbildung 6: Einschaliges Hyperboloid x2<br />
α 2 + y2<br />
β 2 − z2<br />
γ 2 = 1<br />
Für k = 1 ergibt sich die Gleichung<br />
x 2<br />
α 2 + y2<br />
β 2 − z2<br />
γ 2 = −1<br />
für ein zweischaliges Hyperboloid (Bild 7).
10 Affine Quadriken 65<br />
Abbildung 7: Zweischaliges Hyperboloid x2<br />
α 2 + y2<br />
β 2 − z2<br />
γ 2<br />
= −1<br />
Fall (3): Hier beschränken wir uns auf den Fall m = 2. Für k = 0 erhalten<br />
wir die Gleichung<br />
x 2<br />
α + y2<br />
− 2z = 0,<br />
2 β2 die ein elliptisches Paraboloid beschreibt (Bild 8).<br />
Abbildung 8: Elliptisches Paraboloid x2<br />
α 2 + y2<br />
β 2 − 2z = 0<br />
Für k = 1 beschreibt<br />
ein hyperbolisches Paraboloid (Bild 9).<br />
y 2<br />
β 2 − x2<br />
α 2 − 2z = 0<br />
Abbildung 9: Hyperbolisches Paraboloid y2<br />
β 2 − x2<br />
α 2 − 2z = 0
11 Der Dualraum 66<br />
11 Der Dualraum<br />
Ein grundlegender Begriff in der <strong>Lineare</strong>n <strong>Algebra</strong> ist der Begriff des Dualraums,<br />
den wir nun einführen wollen. Im Folgenden sei K wieder ein beliebiger<br />
Körper.<br />
Definition Es seien V, W K-Vektorräume. Die Menge aller linearen Abbildungen<br />
von V nach W bezeichnen wir mit<br />
Hom K (V, W ) := {f : V → W | f linear}.<br />
Auf der Menge Hom K (V, W ) erklären wir eine Addition und skalare Multiplikation<br />
wie folgt (f, g ∈ Hom K (V, W ), λ ∈ K):<br />
(f + g)(x) = f(x) + g(x),<br />
(λf)(x) = λf(x) für alle x ∈ V.<br />
Mit dieser Addition und skalaren Multiplikation wird Hom K (V, W ) zu einem<br />
K-Vektorraum. Nun betrachten wir den Spezialfall W = K.<br />
Definition<br />
Der Vektorraum<br />
V ∗ := Hom K (V, K) = {ϕ : V → K | ϕ linear}<br />
heißt der Dualraum von V . Die Elemente von V ∗ heißen Linearformen auf<br />
V .<br />
Beispiel 11.1 Wir betrachten eine lineare Gleichung<br />
a 1 x 1 + · · · + a n x n = 0.<br />
Setzt man a = (a 1 , . . . , a n ) (Zeilenvektor!), so gilt<br />
⎛ ⎞<br />
a · x = ( x<br />
) 1<br />
⎜ ⎟<br />
a 1 · · · a n ⎝ . ⎠ = a 1 x 1 + · · · + a n x n .<br />
x n<br />
Deswegen können wir a als eine lineare Abbildung<br />
a : K n −→ K<br />
x ↦−→ a · x<br />
auffassen, d.h. als ein Element von (K n ) ∗ .
11 Der Dualraum 67<br />
Beispiel 11.2 Es sei I = [a, b] ⊆ R ein Intervall und V = C[a, b] der Vektorraum<br />
der auf I stetigen Funktionen. Dann ist<br />
∫ b<br />
a<br />
: V → R, f ↦→<br />
∫ b<br />
a<br />
f(x) dx,<br />
eine Linearform auf V . Linearformen auf unendlich dimensionalen Vektorräumen<br />
nennt man auch lineare Funktionale. Mit ihnen beschäftigt sich die Funktionalanalysis.<br />
Wir setzen von nun an voraus, dass V ein endlich dimensionaler K-<br />
Vektorraum ist und n = dim V > 0. Es sei B = {v 1 , . . . , v n } eine Basis<br />
von V . Dann gibt es zu jedem i = 1, . . . , n genau eine lineare Abbildung<br />
mit<br />
v ∗ i (v j ) := δ ij :=<br />
(δ ij heißt das Kroneckersymbol).<br />
v ∗ i : V → K<br />
{ 1 falls j = i,<br />
0 falls j ≠ i<br />
Satz 11.1 Die Menge B ∗ := {v ∗ 1, . . . , v ∗ n} ist eine Basis von V ∗ . Insbesondere<br />
gilt dim V ∗ = dim V = n.<br />
Definition<br />
Man nennt B ∗ die zu der Basis B duale Basis.<br />
Beweis.<br />
(a) B ∗ ist linear unabhängig:<br />
n∑<br />
n∑<br />
α i vi ∗ = 0 ⇒ α i vi ∗ (v j ) = 0 ⇒ α j = 0<br />
i=1<br />
i=1<br />
(j = 1, . . . , n).<br />
(b) B ∗ ist ein Erzeugendensystem: Es sei v ∗ ∈ V ∗ . Wir setzen<br />
Behauptung<br />
v ∗ = ∑ n<br />
i=1 α iv ∗ i .<br />
α i := v ∗ (v i ), i = 1, . . . , n.<br />
Beweis. Da eine lineare Abbildung durch die Bilder einer Basis eindeutig<br />
festgelegt ist, reicht es zu zeigen, dass die Bilder der Basisvektoren v j , j =<br />
1, . . . , n, unter den beiden linearen Abbildungen übereinstimmen:<br />
( n∑<br />
)<br />
n∑<br />
α i vi<br />
∗ (v j ) = α i vi ∗ (v j ) = α j = v ∗ (v j ).<br />
i=1<br />
i=1<br />
✷<br />
✷
11 Der Dualraum 68<br />
Korollar 11.1 Zu jedem v ∈ V mit v ≠ 0 gibt es ein ϕ ∈ V ∗ mit ϕ(v) ≠ 0.<br />
Beweis. Dies folgt daraus, dass man jeden Vektor v ≠ 0 zu einer Basis von<br />
V ergänzen kann.<br />
✷<br />
Korollar 11.2 Zu jeder Basis B = {v 1 , . . . , v n } von V gibt es einen Isomorphismus<br />
Ψ B : V → V ∗ mit Ψ B (v i ) = v ∗ i .<br />
Warnung<br />
Dieser Isomorphismus hängt von der Wahl der Basis ab!<br />
Beweis. Dies folgt aus der Tatsache, dass eine lineare Abbildung durch die<br />
Bilder der Vektoren einer Basis bestimmt ist.<br />
✷<br />
Beispiel 11.3 V = K n , B = {e 1 , . . . , e n } kanonische Basis. Duale Basis:<br />
B ∗ = {e ∗ 1, . . . , e ∗ n} (kanonische Basis von V ∗ ).<br />
Wir machen die Konvention, Vektoren als Spalten und Linearformen als Zeilen<br />
zu schreiben. Dann gilt<br />
e ∗ i = (0, . . . , 0, 1, 0, . . . , 0),<br />
1 an der i-ten Stelle.<br />
Definition<br />
Ist V ein K-Vektorraum und U ⊆ V ein Unterraum, so heißt<br />
U 0 := {ϕ ∈ V ∗ | ϕ(u) = 0 für alle u ∈ U} ⊆ V ∗<br />
der zu U orthogonale Raum (oder der Annullator von U).<br />
Der zu U orthogonale Raum U 0 ist ein Unterraum von V ∗ .<br />
Warnung Der zu einem Unterraum U ⊆ V orthogonale Raum U 0 liegt in<br />
V ∗ und ist nicht zu verwechseln mit dem orthogonalen Komplement U ⊥ von<br />
U, das nur in Räumen mit Skalarprodukt definiert ist und dann in V liegt!<br />
Satz 11.2 Für jeden Unterraum U ⊆ V gilt<br />
dim U 0 = dim V − dim U.<br />
Genauer gilt: Ist {u 1 , . . . , u k } eine Basis von U und B = {u 1 , . . . , u k , w 1 , . . . , w l }<br />
eine Basis von V , so bilden die Linearformen {w ∗ 1, . . . , w ∗ l } aus B∗ eine Basis<br />
von U 0 .
11 Der Dualraum 69<br />
Beweis.<br />
(a) <strong>Lineare</strong> Unabhängigkeit: Da w1, ∗ . . . , wl ∗<br />
sind, sind sie linear unabhängig.<br />
(b) Zu zeigen: U 0 = Span{w1, ∗ . . . , wl ∗}.<br />
”⊇”: klar, da wj ∗ (u i ) = 0.<br />
”⊆”: Es sei ϕ ∈ U 0 ,<br />
Elemente der dualen Basis B∗<br />
ϕ = µ 1 u ∗ 1 + · · · + µ k u ∗ k + λ 1 w ∗ 1 + · · · + λ l w ∗ l .<br />
Wendet man diese Abbildung auf u i (i = 1, . . . , k) an, so folgt<br />
0 = ϕ(u i ) = µ i .<br />
Nun wollen wir auch lineare Abbildungen dualisieren. Es sei f : V → W<br />
eine lineare Abbildung und ψ ∈ W ∗ . Dann betrachten wir dazu das Diagramm<br />
f<br />
V W<br />
<br />
ψ<br />
ψ◦f<br />
K<br />
Dann gilt ψ ◦ f ∈ V ∗ . Damit können wir definieren:<br />
✷<br />
Definition<br />
Die Abbildung<br />
heißt die zu f duale Abbildung.<br />
f ∗ : W ∗ → V ∗ , ψ ↦→ f ∗ (ψ) := ψ ◦ f,<br />
Bemerkung 11.1 Die Abbildung f ∗ ist linear:<br />
f ∗ (ψ 1 + ψ 2 ) = (ψ 1 + ψ 2 ) ◦ f = ψ 1 ◦ f + ψ 2 ◦ f = f ∗ (ψ 1 ) + f ∗ (ψ 2 ),<br />
f ∗ (λψ) = (λψ) ◦ f = λψ ◦ f = λf ∗ (ψ).<br />
Satz 11.3 Es seien V und W K-Vektorräume mit Basen B und C und<br />
f : V → W eine lineare Abbildung. Dann gilt<br />
M B∗<br />
C ∗ (f ∗ ) = ( M C B (f) ) T<br />
,<br />
d.h. die duale Abbildung wird bezüglich der dualen Basen durch die transponierte<br />
Matrix beschrieben.
11 Der Dualraum 70<br />
Beweis. Es sei B = {v 1 , . . . , v n }, C = {w 1 , . . . , w m }, M C B (f) = (a ij), M B∗<br />
C ∗ (f ∗ ) =<br />
(b ij ). Dann gilt<br />
f(v j ) =<br />
f ∗ (w ∗ i ) =<br />
m∑<br />
a ij w i , also a ij = wi ∗ (f(v j )) = f ∗ (wi ∗ )(v j ),<br />
i=1<br />
n∑<br />
b ji vj ∗ , also b ji = f ∗ (wi ∗ )(v j ).<br />
j=1<br />
Also gilt a ij = b ji .<br />
✷<br />
Definition<br />
Es sei<br />
f i−1 f i<br />
· · · −→ V i−1 −→ Vi −→ Vi+1 −→ · · ·<br />
eine (endliche oder unendliche) Sequenz von K-Vektorräumen und linearen<br />
Abbildungen. Die Sequenz heißt exakt, wenn für jedes i gilt:<br />
Ker f i = Im f i−1 .<br />
Unter einer kurzen exakten Sequenz versteht man eine exakte Sequenz der<br />
Gestalt<br />
0 −→ U −→ f<br />
V −→ g<br />
W −→ 0.<br />
Es sei<br />
0 −→ U f<br />
−→ V<br />
eine kurze exakte Sequenz. Dann gilt<br />
g<br />
−→ W −→ 0<br />
Exaktheit an der Stelle U ⇔ f injektiv,<br />
Exaktheit an der Stelle V ⇔ Im f = Ker g,<br />
Exaktheit an der Stelle W ⇔ g surjektiv.<br />
Ist f : V → W eine lineare Abbildung zwischen K-Vektorräumen V und W ,<br />
so hat man immer eine kurze exakte Sequenz<br />
0 −→ Ker f ↩→ V f<br />
−→ Im f −→ 0,<br />
wobei Ker f ↩→ V die Inklusionsabbildung ist. Dazu gehört eine duale kurze<br />
exakte Sequenz<br />
0 ←− im f ∗ f ∗<br />
←− W ∗ ←↪ Ker f ∗ ←− 0.<br />
Der Zusammenhang zwischen diesen beiden kurzen exakten Sequenzen ist<br />
der Folgende:
11 Der Dualraum 71<br />
Satz 11.4 Für eine lineare Abbildung f : V → W zwischen endlich dimensionalen<br />
Vektorräumen gilt<br />
Im f ∗ = (Ker f) 0 und Ker f ∗ = (Im f) 0 .<br />
Korollar 11.3 Unter den obigen Voraussetzungen gilt<br />
Beweis.<br />
Rang f ∗ = dim Im f ∗<br />
Rang f ∗ = Rang f.<br />
= dim(Ker f) 0 (nach Satz 11.4)<br />
= dim V − dim Ker f (nach Satz 11.2)<br />
= dim Im f = Rang f.<br />
Mit Hilfe von Satz 11.3 erhalten wir damit einen neuen Beweis des folgenden<br />
Resultats.<br />
Korollar 11.4 Für jede Matrix A ∈ Mat(m × n; K) gilt<br />
Zeilenrang A = Spaltenrang A.<br />
Beweis von Satz 11.4. Wir zeigen Im f ∗ = (Ker f) 0 . Der Beweis der zweiten<br />
Gleichung geht analog.<br />
”⊆”: Es sei ϕ ∈ Im f ∗ . Dann ist ϕ = f ∗ (ψ) = ψ ◦ f für ein ψ ∈ V ∗ . Für<br />
x ∈ Ker f gilt dann<br />
ϕ(x) = ψ(f(x)) = ψ(0) = 0,<br />
also ϕ ∈ (Ker f) 0 .<br />
”⊇”: Es sei umgekehrt ϕ ∈ V ∗ mit ϕ| Ker f = 0 gegeben. Wir müssen ein<br />
ψ ∈ W ∗ mit ϕ = ψ ◦ f konstruieren. Dazu sei<br />
B = {u 1 , . . . , u r , v 1 , . . . , v k } Basis von V,<br />
B = {w 1 , . . . , w r , w r+1 , . . . , w m } Basis von W<br />
mit Ker f = Span{v 1 , . . . , v k }, Im f = Span{w 1 , . . . , w r } und f(u i ) = w i für<br />
i = 1, . . . , r. Dann gibt es genau eine lineare Abbildung ψ mit<br />
{ ϕ(ui ) für i = 1, . . . , r,<br />
ψ(w i ) :=<br />
0 sonst.<br />
✷
11 Der Dualraum 72<br />
Nach Konstruktion von ψ ist ϕ = ψ ◦ f.<br />
Es sei nun<br />
〈 , 〉 : V × V −→ K<br />
(v, w) ↦−→ 〈v, w〉<br />
eine Bilinearform. Dann können wir die beiden folgenden Abbildungen betrachten:<br />
〈v, ·〉 : V → K,<br />
Damit erhalten wir Abbildungen<br />
w ↦→ 〈v, w〉,<br />
〈·, w〉 : V → K, v ↦→ 〈v, w〉.<br />
b 1 : V → V ∗ , v ↦→ 〈v, ·〉,<br />
b 2 : V → V ∗ ,<br />
w ↦→ 〈·, w〉.<br />
Definition Eine Bilinearform 〈 , 〉 : V → K heißt nicht ausgeartet, wenn<br />
die beiden Abbildungen b 1 und b 2 injektiv sind.<br />
Beispiel 11.4 Ein Skalarprodukt 〈 , 〉 auf einem R-Vektorraum ist nicht<br />
ausgeartet. Denn<br />
b 1 (v) = 0 ⇔ 〈v, w〉 = 0 für alle w ∈ V ⇔ v = 0,<br />
da 〈 , 〉 positiv definit ist. Da 〈 , 〉 symmetrisch ist, folgt, dass auch b 2 injektiv<br />
ist.<br />
Daraus folgt unmittelbar:<br />
Satz 11.5 In einem endlich dimensionalen euklidischen Vektorraum V ist<br />
die Abbildung<br />
Ψ : V → V ∗ , v ↦→ 〈v, ·〉,<br />
ein Isomorphismus.<br />
Bemerkung 11.2 Im Gegensatz zu den Isomorphismen Ψ B : V → V ∗ in<br />
Korollar 11.2, die von der Wahl der Basis abhängen, ist dieser Isomorphismus<br />
kanonisch, d.h. er hängt nicht von der Wahl einer Basis ab. Er existiert aber<br />
nur, wenn ein Skalarprodukt gegeben ist.<br />
Satz 11.6 Es sei V ein euklidischer Vektorraum und Ψ : V → V ∗ der kanonische<br />
Isomorphismus. Dann gilt:<br />
(i) Für jeden Unterraum U ⊆ V ist Ψ(U ⊥ ) = U 0 .<br />
✷
12 Multilineare Abbildungen 73<br />
(ii) Ist B = {v 1 , . . . , v n } eine Orthonormalbasis von V und B ∗ = {v ∗ 1, . . . , v ∗ n}<br />
die duale Basis, so ist Ψ(v i ) = v ∗ i .<br />
Beweis.<br />
(i): Nach den Dimensionsformeln gilt<br />
dim U ⊥ = dim V − dim U = dim U 0 .<br />
Daher reicht es zu zeigen: Ψ(U ⊥ ) ⊆ U 0 . Dies folgt aus<br />
(ii): Dies folgt aus<br />
Ψ(v)(u) = 〈v, u〉 = 0 für v ∈ U ⊥ und u ∈ U.<br />
Ψ(v i )(v j ) = 〈v i , v j 〉 = δ ij = v ∗ i (v j ).<br />
✷<br />
12 Multilineare Abbildungen<br />
Literatur für diesen Abschnitt:<br />
• M. Spivak: Calculus on Manifolds. W. A. Benjamin 1965.<br />
• W. Greub: Multilinear <strong>Algebra</strong>, 2nd Edition. Springer-Verlag 1978.<br />
Definition Es seien V 1 , . . . , V p , W K-Vektorräume. Eine Abbildung ϕ : V 1 ×<br />
· · · × V p → W heißt multilinear oder genauer p-linear, wenn für jedes i =<br />
1, . . . , p gilt<br />
ϕ(v 1 , . . . , v i + v ′ i, . . . , v p ) = ϕ(v 1 , . . . , v i , . . . , v p ) + ϕ(v 1 , . . . , v ′ i, . . . , v p ),<br />
ϕ(v 1 , . . . , λv i , . . . , v p ) = λϕ(v 1 , . . . , v i , . . . , v p ),<br />
für v i , v i<br />
′ ∈ V i , λ ∈ K. Gilt W = K, so heißt ϕ eine multilineare (oder<br />
p-lineare) Funktion.<br />
Beispiel 12.1 (a) Der Fall p = 1 und W = K ist der Spezialfall der Linearformen.<br />
(b) Im Fall p = 2, W = K, V 1 = V 2 = V , erhalten wir gerade die am<br />
Anfang der Vorlesung betrachteten Bilinearformen.<br />
(c) Es sei ϕ : V × V ∗ → K die durch (v, f) ↦→ f(v) definierte Abbildung.<br />
Dies ist eine bilineare Funktion.
12 Multilineare Abbildungen 74<br />
Es sei Hom(V 1 , . . . , V p ; W ) die Menge aller p-linearen Abbildungen ϕ :<br />
V 1 × · · · × V p → W . Wir erklären eine Addition durch<br />
(ϕ + ψ)(v 1 , . . . , v p ) = ϕ(v 1 , . . . , v p ) + ψ(v 1 , . . . , v p )<br />
und eine skalare Multiplikation mit λ ∈ K durch<br />
(λϕ)(v 1 , . . . , v p ) = λϕ(v 1 , . . . , v p ).<br />
Damit wird Hom(V 1 , . . . , V p ; W ) zu einem K-Vektorraum.<br />
Definition Ist V 1 = . . . = V p = V und W = K, so nennt man eine multilineare<br />
Funktion ϕ : V × · · · × V → K auch eine Multilinearform oder einen<br />
p-Tensor auf V . Die Menge aller p-Tensoren auf V bezeichnen wir mit T p (V ).<br />
Nach den Bemerkungen vor der Definition ist T p (V ) ein K-Vektorraum.<br />
Beispiel 12.2 Es sei V = K n und det die Funktion<br />
det :<br />
K<br />
} n × ·<br />
{{<br />
· · × K n<br />
}<br />
−→ K<br />
n<br />
(a 1 , . . . , a n ) ↦−→ det(a 1 · · · a n )<br />
,<br />
wobei (a 1 · · · a n ) die n × n-Matrix mit den Spalten a 1 , . . . , a n ist. Aus den<br />
Eigenschaften der Determinante folgt, dass det eine Multilinearform ist, also<br />
det ∈ T n (K n ).<br />
Definition Ist ϕ ∈ T p (V ) und ψ ∈ T q (V ), so definieren wir das Tensorprodukt<br />
ϕ ⊗ ψ ∈ T p+q (V ) durch<br />
(ϕ ⊗ ψ)(v 1 , . . . , v p , v p+1 , . . . , v p+q ) = ϕ(v 1 , . . . , v p ) · ψ(v p+1 , . . . , v p+q ).<br />
Warnung Man beachte, dass hier die Reihenfolge wichtig ist, da ϕ⊗ψ und<br />
ψ ⊗ ϕ ganz unterschiedlich sind.<br />
Satz 12.1 Das Tensorprodukt hat die folgenden Eigenschaften:<br />
(i) (ϕ ⊗ ψ) ⊗ θ = ϕ ⊗ (ψ ⊗ θ).<br />
(ii) (ϕ 1 + ϕ 2 ) ⊗ ψ = ϕ 1 ⊗ θ + ϕ 2 ⊗ ψ.<br />
(iii) ϕ ⊗ (ψ 1 + ψ 2 ) = ϕ ⊗ ψ 1 + ϕ ⊗ ψ 2 .<br />
(vi) (λϕ) ⊗ ψ = ϕ ⊗ (λψ) = λ(ϕ ⊗ ψ).
12 Multilineare Abbildungen 75<br />
Beweis. Der Nachweis dieser Eigenschaften ist einfach. Siehe Vorlesung.<br />
Der Vektorraum T 1 (V ) ist gerade der Dualraum V ∗ . Mit dem Tensorprodukt<br />
können wir nun die anderen Vektorräume T p (V ) durch T 1 (V ) ausdrücken:<br />
Satz 12.2 Es sei (v 1 , . . . , v n ) eine Basis von V und (v ∗ 1, . . . , v ∗ n) die duale<br />
Basis. Dann ist die Menge aller p-fachen Tensorprodukte<br />
v ∗ i 1<br />
⊗ · · · ⊗ v ∗ i p<br />
, 1 ≤ i 1 , . . . , i p ≤ n,<br />
eine Basis von T p (V ). Insbesondere hat T p (V ) die Dimension n p .<br />
Beweis.<br />
(a) Man beachte zunächst, dass<br />
✷<br />
Gilt<br />
so ist<br />
vi ∗ 1<br />
⊗ · · · ⊗ vi ∗ p<br />
(v j1 , . . . , v jp ) = δ i1 ,j 1<br />
· · · δ ip,jp<br />
{ 1 falls j1 = i<br />
=<br />
1 , . . . , j p = i p ,<br />
0 sonst.<br />
ϕ(w 1 , . . . , w p ) =<br />
Also gilt<br />
(w 1 , . . . , w p ) =<br />
=<br />
ϕ =<br />
n∑<br />
j 1 ,...,j p=1<br />
n∑<br />
i 1 ,...,i p=1<br />
n∑<br />
i 1 ,...,i p=1<br />
( n∑<br />
j=1<br />
a 1j v j , . . . ,<br />
)<br />
n∑<br />
a pj v j ,<br />
j=1<br />
a 1,j1 · · · a p,jp ϕ(v j1 , . . . , v jp )<br />
ϕ(v i1 , . . . , v ip ) · v ∗ i 1<br />
⊗ · · · ⊗ v ∗ i p<br />
(w 1 , . . . , w p ).<br />
ϕ(v i1 , . . . , v ip ) · v ∗ i 1<br />
⊗ · · · ⊗ v ∗ i p<br />
.<br />
Also bilden die v ∗ i 1<br />
⊗ · · · ⊗ v ∗ i p<br />
ein Erzeugendensystem von T p (V ).<br />
(b) Zum Beweis der linearen Unabhängigkeit nehmen wir an<br />
n∑<br />
i 1 ,...,i p=1<br />
a i1 ,...,i p<br />
v ∗ i 1<br />
⊗ · · · ⊗ v ∗ i p<br />
= 0.
13 Alternierende Multilinearformen 76<br />
Indem wir beide Seiten dieser Gleichung auf (v j1 , . . . , v jp ) anwenden, erhalten<br />
wir<br />
a j1 ,...,j p<br />
= 0.<br />
Also sind die v ∗ i 1<br />
⊗ · · · ⊗ v ∗ i p<br />
linear unabhängig. ✷<br />
Wie im Fall des Dualraums können wir einer linearen Abbildung f : V →<br />
W eine lineare Abbildung f ∗ : T p (W ) → T p (V ) zuordnen: Diese Abbildung<br />
ist definiert durch<br />
f ∗ ϕ(v 1 , . . . , v p ) = ϕ(f(v 1 ), . . . , f(v p )) für ϕ ∈ T p (W ), v 1 , . . . , v p ∈ V.<br />
Man kann leicht zeigen:<br />
Satz 12.3 Für eine lineare Abbildung f : V → W und ϕ ∈ T p (W ), ψ ∈<br />
T q (W ) gilt<br />
f ∗ (ϕ ⊗ ψ) = f ∗ ϕ ⊗ f ∗ ψ.<br />
13 Alternierende Multilinearformen<br />
Für den Grundkörper K setzen wir in diesem Abschnitt voraus:<br />
n K := 1<br />
}<br />
+ ·<br />
{{<br />
· · + 1<br />
}<br />
≠ 0 für alle n ≥ 1.<br />
n<br />
Wir identifizieren dann n K mit n.<br />
Die Multilinearform det ∈ T n (K n ) hat die folgende wichtige Eigenschaft:<br />
det(a 1 , . . . , a i , . . . , a j , . . . , a n ) = − det(a 1 , . . . , a j , . . . , a i , . . . , a n ).<br />
Solche Multilinearformen nennt man alternierend.<br />
Definition Eine Multilinearform ω ∈ T p (V ) heißt alternierend, wenn für<br />
jede Permutation σ ∈ S p gilt<br />
ω(v 1 , . . . , v p ) = sign σ · ω(v σ(1) , . . . , v σ(p) ) für alle v 1 , . . . , v p ∈ V.<br />
Die Menge aller alternierenden p-Tensoren bezeichnen wir mit ∧p (V ).<br />
Offensichtlich ist ∧p (V ) ein Unterraum von T p (V ).<br />
Lemma 13.1 Es sei ω ∈ T p (V ) eine Multilinearform. Dann sind die folgenden<br />
Bedingungen äquivalent:<br />
(i) ω ist alternierend.
13 Alternierende Multilinearformen 77<br />
(ii) ω(v 1 , . . . , v p ) = −ω(v τ(1) , . . . , v τ(p) ) für jede Transposition τ ∈ S p .<br />
(iii) Ist v i = v j für ein i ≠ j, so ist ω(v 1 , . . . , v p ) = 0.<br />
Beweis.<br />
(i) ⇒ (ii): Klar.<br />
(ii) ⇒ (i): Es sei σ ∈ S p . Dann gibt es nach I, Lemma 17.1, eine Darstellung<br />
σ = τ 1 ◦ · · · ◦ τ m ,<br />
wobei die τ i Transpositionen sind. Es gilt<br />
{ gerade falls sign σ = 1,<br />
m =<br />
ungerade falls sign σ = −1.<br />
Daraus folgt die Behauptung.<br />
(ii) ⇒ (iii): Es sei v i = v j mit i ≠ j und τ sei die Transposition, die i und<br />
j vertauscht. Dann gilt<br />
Also folgt mit 1 + 1 ≠ 0<br />
ω(v 1 , . . . , v p ) = ω(v τ(1) , . . . , v τ(p) ) = −ω(v 1 , . . . , v p ).<br />
ω(v 1 , . . . , v p ) = 0.<br />
(iii) ⇒ (ii): Es sei τ die Transposition, die i und j vertauscht (i ≠ j).<br />
Dann gilt<br />
i<br />
0 = ω(v 1 , . . . , v i + v j , . . . , v i + v j , . . . , v p )<br />
Daraus folgt<br />
Definition<br />
j<br />
= ω(v 1 , . . . , v i , . . . , v i , . . . , v p ) + ω(v 1 , . . . , v i , . . . , v j , . . . , v p )<br />
+ ω(v 1 , . . . , v j , . . . , v i , . . . , v p ) + ω(v 1 , . . . , v j , . . . , v j , . . . , v p ).<br />
ω(v 1 , . . . , v i , . . . , v j , . . . , v p ) = −ω(v 1 , . . . , v j , . . . , v i , . . . , v p ).<br />
Es sei ϕ ∈ T p (V ). Dann definieren wir<br />
Alt(ϕ)(v 1 , . . . , v p ) := 1 ∑<br />
sign σ · ϕ(v σ(1) , . . . , v σ(p) ).<br />
p!<br />
σ∈S p<br />
Satz 13.1 (i) Für ϕ ∈ T p (V ) ist Alt(ϕ) ∈ ∧p (V ).<br />
✷
13 Alternierende Multilinearformen 78<br />
(ii) Für ω ∈ ∧p (V ) gilt Alt(ω) = ω.<br />
(iii) Für ϕ ∈ T p (V ) gilt Alt(Alt(ϕ)) = Alt(ϕ).<br />
Beweis.<br />
(i) Es sei τ ∈ S p beliebig. Dann gilt<br />
(ii) Es gilt<br />
Alt(ϕ)(v τ(1) , . . . , v τ(p) )<br />
= 1 ∑<br />
sign σ · ϕ(v σ(τ(1)) , . . . , v σ(τ(p)) )<br />
p!<br />
σ∈S p<br />
= sign τ · 1 ∑<br />
sign(σ ◦ τ) · ϕ(v (σ◦τ)(1) , . . . , v (σ◦τ)(p) )<br />
p!<br />
σ◦τ∈S p<br />
= sign τ · Alt(ϕ)(v 1 , . . . , v p ).<br />
Alt(ω)(v 1 , . . . , v p ) = 1 ∑<br />
sign σ · ω(v σ(1) , . . . , v σ(p) )<br />
p!<br />
σ∈S p<br />
= 1 ∑<br />
(sign σ) 2 ω(v 1 , . . . , v p )<br />
p!<br />
σ∈S p<br />
= ω(v 1 , . . . , v p ).<br />
(iii) folgt aus (i) und (ii).<br />
Wir möchten eine Basis von ∧p (v) bestimmen. Dazu bemerken wir, dass<br />
mit ω ∈ ∧p (V ) und η ∈ ∧q (V ) das Tensorprodukt ω ⊗ η im Allgemeinen<br />
nicht in ∧ p+q (V ) liegt. Daher definieren wir ein neues Produkt:<br />
Definition Ist ω ∈ ∧p (V ) und η ∈ ∧q (V ), so definieren wir das Dachprodukt<br />
ω ∧ η ∈ ∧p+q (V ) durch<br />
ω ∧ η :=<br />
(p + q)!<br />
Alt(ω ⊗ η).<br />
p!q!<br />
Satz 13.2 Das Dachprodukt hat folgende Eigenschaften:<br />
(i) (ω 1 + ω 2 ) ∧ η = ω 1 ∧ η + ω 2 ∧ η.<br />
(ii) ω ∧ (η 1 + η 2 ) = ω ∧ η 1 + ω ∧ η 2 .<br />
(iii) (λω) ∧ η = ω ∧ (λη) = λ(ω ∧ η).<br />
(iv) ω ∧ η = (−1) pq η ∧ ω.<br />
✷
13 Alternierende Multilinearformen 79<br />
(v) f ∗ (ω ∧ η) = f ∗ (ω) ∧ f ∗ (η).<br />
Beweis. Diese Eigenschaften sind leicht nachzuweisen.<br />
Mehr Arbeit erfordert der Nachweis der Gleichung (ω∧η)∧θ = ω∧(η∧θ).<br />
Dazu brauchen wir zwei Hilfssätze:<br />
Lemma 13.2 Für ϕ ∈ T p (V ) mit Alt(ϕ) = 0 und ψ ∈ T q (V ) gilt<br />
Beweis. Es gilt<br />
Alt(ϕ ⊗ ψ) = Alt(ψ ⊗ ϕ) = 0.<br />
(p + q)!Alt(ϕ ⊗ ψ)(v 1 , . . . , v p+q )<br />
= ∑<br />
σ∈S p+q<br />
sign σ · ϕ(v σ(1) , . . . , v σ(p) ) · ψ(v σ(p+1) , . . . , v σ(p+q) ).<br />
Nun betrachten wir die Untergruppe G ⊆ S p+q , die aus allen Permutationen<br />
σ besteht, die p + 1, . . . , p + q fest lassen. Dann gilt<br />
∑<br />
sign σ · ϕ(v σ(1) , . . . , v σ(p) ) · ψ(v σ(p+1) , . . . , v σ(p+q) )<br />
σ∈G<br />
=<br />
⎛<br />
⎞<br />
⎝ ∑<br />
sign σ ′ · ϕ(v σ ′ (1), . . . , v σ ′ (p)) ⎠ · ψ(v p+1 , . . . , v p+q )<br />
σ ′ ∈S p<br />
= p!Alt(ϕ) · ψ(v p+1 , . . . , v p+q ) = 0<br />
Nun sei σ 0 ∉ G. Es sei<br />
Wir setzen außerdem<br />
Dann gilt<br />
∑<br />
Gσ 0 := {σ ◦ σ 0 | σ ∈ G}.<br />
(v σ0 (1), . . . , v σ0 (p+q)) = (w 1 , . . . , w p+q ).<br />
sign σ · ϕ(v σ(1) , . . . , v σ(p) ) · ψ(v σ(p+1) , . . . , v σ(p+q) )<br />
σ∈Gσ 0<br />
(<br />
= sign σ 0 · ∑<br />
)<br />
sign σ ′ · ϕ(w σ ′ (1), . . . , w σ ′ (p)) · ψ(w p+1 , . . . , w p+q )<br />
= 0.<br />
σ ′ ∈G<br />
✷
13 Alternierende Multilinearformen 80<br />
Man beachte, dass G ∩ Gσ 0 = ∅ gilt. Denn angenommen σ ∈ G ∩ Gσ 0 . Dann<br />
gilt σ = σ ′ ◦σ 0 für ein σ ′ ∈ G, also σ 0 = (σ ′ ) −1 ◦σ ∈ G, ein Widerspruch. Wenn<br />
wir auf diese Weise fortfahren, können wir S p+q so in disjunkte Teilmengen<br />
zerlegen, dass die Summe über jede dieser Teilmengen jeweils 0 ergibt. Also<br />
ergibt die Summe über ganz S p+q Null.<br />
Die andere Gleichung Alt(ψ ⊗ ϕ) = 0 wird analog bewiesen. ✷<br />
Lemma 13.3 Für ω ∈ ∧p (V ), η ∈ ∧q (V ) und θ ∈ ∧r (V ) gilt<br />
Beweis. Es gilt<br />
Alt(Alt(ω ⊗ η) ⊗ θ) = Alt(ω ⊗ η ⊗ θ) = Alt(ω ⊗ Alt(η ⊗ θ)).<br />
Alt(Alt(η ⊗ θ) − η ⊗ θ) = Alt(η ⊗ θ) − Alt(η ⊗ θ) = 0.<br />
Aus Lemma 13.2 folgt damit<br />
0 = Alt(ω ⊗ [Alt(η ⊗ θ) − η ⊗ θ])<br />
= Alt(ω ⊗ Alt(η ⊗ θ)) − Alt(ω ⊗ η ⊗ θ).<br />
Die andere Gleichung wird analog bewiesen.<br />
Satz 13.3 Für ω ∈ ∧p (V ), η ∈ ∧q (V ) und θ ∈ ∧r (V ) gilt<br />
Beweis.<br />
(ω ∧ η) ∧ θ = ω ∧ (η ∧ θ) =<br />
(ω ∧ η) ∧ θ =<br />
=<br />
=<br />
(p + q + r)!<br />
Alt(ω ⊗ η ⊗ θ).<br />
p!q!r!<br />
((p + q) + r)!<br />
Alt((ω ∧ η) ⊗ θ)<br />
(p + q)!r!<br />
( )<br />
(p + q + r)! (p + q)!<br />
Alt Alt(ω ⊗ η) ⊗ θ<br />
(p + q)!r! p!q!<br />
(p + q + r)!<br />
Alt(ω ⊗ η ⊗ θ) (nach Lemma 13.3).<br />
p!q!r!<br />
✷<br />
✷<br />
Satz 13.4 Es sei (v 1 , . . . , v n ) eine Basis von V und (v ∗ 1, . . . , v ∗ n) die duale<br />
Basis. Dann ist die Menge aller p-fachen Dachprodukte<br />
v ∗ i 1<br />
∧ · · · ∧ v ∗ i p<br />
, 1 ≤ i 1 < . . . < i p ≤ n,<br />
eine Basis von ∧p (V ). Insbesondere hat ∧p (V ) die Dimension<br />
( n n!<br />
=<br />
p)<br />
p!(n − p)! .
13 Alternierende Multilinearformen 81<br />
Beweis.<br />
(a) Es sei ω ∈ ∧p (V ) ⊆ T p (V ). Nach Satz 12.2 können wir schreiben:<br />
Es folgt<br />
ω =<br />
ω = Alt(ω) =<br />
Nach Satz 13.3 gilt aber<br />
n∑<br />
i 1 ,...,i p=1<br />
n∑<br />
i 1 ,...,i p=1<br />
a i1 ,...,i p<br />
v ∗ i 1<br />
⊗ · · · ⊗ v ∗ i p<br />
.<br />
a i1 ,...,i p<br />
Alt(v ∗ i 1<br />
⊗ · · · ⊗ v ∗ i p<br />
).<br />
Alt(v ∗ i 1<br />
⊗ · · · ⊗ v ∗ i p<br />
) = Konstante · v ∗ i 1<br />
∧ · · · ∧ v ∗ i p<br />
.<br />
Also spannen die Elemente vi ∗ 1<br />
∧ · · · ∧ vi ∗ p<br />
den Raum ∧p (V ) auf.<br />
(b) Die lineare Unabhängigkeit wird wie im Beweis von Satz 12.2 bewiesen.<br />
✷<br />
Hat V die Dimension n, so folgt aus Satz 13.4, dass ∧n (V ) die Dimension<br />
1 hat. Das bedeutet, dass alle alternierenden n-Tensoren auf V Vielfache eines<br />
von Null verschiedenen n-Tensors sind. Für V = K n ist det ∈ ∧n (K n ) ein<br />
solcher Tensor. Er ist dadurch ausgezeichnet, dass det(e 1 , . . . , e n ) = 1 gilt.<br />
Deswegen erhalten wir die folgende Charakterisierung der Determinante:<br />
Korollar 13.1 Die Determinante det ist der eindeutig bestimmte alternierende<br />
n-Tensor mit<br />
det(e 1 , . . . , e n ) = 1.<br />
Satz 13.5 Es sei V ein K-Vektorraum, (v 1 , . . . , v n ) eine Basis von V und<br />
ω ∈ ∧n (V ). Ist w j = ∑ n<br />
i=1 a ijv i , j = 1, . . . , n, so gilt<br />
ω(w 1 , . . . , w n ) = det(a ij ) · ω(v 1 , . . . , v n ).<br />
Beweis. Wir definieren η ∈ T n (K n ) durch<br />
η((a 11 , . . . , a n1 ) T , . . . , (a 1n , . . . , a nn ) T ) = ω( ∑ a i1 v i , . . . , ∑ a in v i ).<br />
Dann ist η ∈ ∧n (K n ), also η = λ · det für ein λ ∈ K. Es gilt<br />
λ = λ det(e 1 , . . . , e n ) = η(e 1 , . . . , e n ) = ω(v 1 , . . . , v n ).<br />
✷
14 Symmetrische Multilinearformen 82<br />
Es sei nun K = R. Satz 13.5 zeigt, dass ein von Null verschiedener alternierender<br />
n-Tensor ω ∈ ∧n (V ) die (geordneten) Basen von V in zwei disjunkte<br />
Klassen einteilt: eine mit ω(v 1 , . . . , v n ) > 0 und eine mit ω(v 1 , . . . , v n ) <<br />
0. Wenn (v 1 , . . . , v n ) und (w 1 , . . . , w n ) zwei Basen von V sind und A =<br />
(a ij ) die durch w j = ∑ a ij v i definierte Matrix des Basiswechsels, dann sind<br />
(v 1 , . . . , v n ) und (w 1 , . . . , w n ) genau dann in der gleichen Klasse, wenn det A ><br />
0 gilt. Also ist die Klasseneinteilung unabhängig von ω. Damit können wir<br />
definieren:<br />
Definition Eine Orientierung eines reellen Vektorraums V ist eine Klasse<br />
von Basen, für die gilt: Für einen von Null verschiedenen alternierenden n-<br />
Tensor ω ∈ ∧n (V ) ist ω(v 1 , . . . , v n ) > 0 für alle Basen aus dieser Klasse oder<br />
ω(v 1 , . . . , v n ) < 0 für alle Basen aus dieser Klasse.<br />
Beispiel 13.1 Die Standardorientierung des R n ist die Orientierung, zu der<br />
die Standardbasis (e 1 , . . . , e n ) gehört. Hier kommt es auf die Reihenfolge an:<br />
Vertauschen wir zwei dieser Basiselemente, so gehört die neue Basis zu der<br />
anderen Orientierung.<br />
Ist nun V ein euklidischer Vektorraum, so gilt für die Transformationsmatrix<br />
A, die eine Orthonormalbasis in eine andere transformiert, det A = ±1.<br />
Damit können wir definieren:<br />
Definition Es sei V ein euklidischer Vektorraum und eine Orientierung von<br />
V gewählt. Das Volumenelement von V ist das eindeutig bestimmte Element<br />
ω ∈ ∧n (V ) mit ω(v 1 , . . . , v n ) = 1 für jede Orthonormalbasis (v 1 , . . . , v n ) aus<br />
der Orientierung von V .<br />
Beispiel 13.2 Für V = R n mit dem gewöhnlichen euklidischen Skalarprodukt<br />
und der Standardorientierung ist det das Volumenelement und<br />
| det(v 1 , . . . , v n )|<br />
ist das Volumen des von den Vektoren v 1 , . . . , v n aufgespannten Parallelotops.<br />
14 Symmetrische Multilinearformen<br />
Analog zu alternierenden Multilinearformen kann man auch symmetrische<br />
Multilinearformen betrachten. Für den Grundkörper K setzen wir weiterhin<br />
n K ≠ 0 für alle n ≥ 1 voraus.
14 Symmetrische Multilinearformen 83<br />
Definition Eine Multilinearform ϕ ∈ T p (V ) heißt symmetrisch, wenn für<br />
jede Permutation σ ∈ S p gilt<br />
ϕ(v 1 , . . . , v p ) = ϕ(v σ(1) , . . . , v σ(p) ) für alle v 1 , . . . , v p ∈ V.<br />
Die Menge aller symmetrischen p-Tensoren bezeichnen wir mit S p (V ).<br />
Definition<br />
Es sei ϕ ∈ T p (V ). Dann definieren wir<br />
Sym(ϕ)(v 1 , . . . , v p ) := 1 ∑<br />
ϕ(v σ(1) , . . . , v σ(p) ).<br />
p!<br />
σ∈S p<br />
Satz 14.1 (i) Für ϕ ∈ T p (V ) ist Sym(ϕ) ∈ S p (V ).<br />
(ii) Für ϕ ∈ S p (V ) gilt Sym(ϕ) = ϕ.<br />
(iii) Für ϕ ∈ T p (V ) gilt Sym(Sym(ϕ)) = Sym(ϕ).<br />
Beweis. Der Beweis ist analog zum Beweis von Satz 13.1.<br />
✷<br />
Definition Ist ϕ ∈ S p (V ) und ψ ∈ S q (V ), so definieren wir das symmetrische<br />
Produkt ϕ ∨ ψ ∈ S p+q (V ) durch<br />
ϕ ∨ ψ :=<br />
(p + q)!<br />
Sym(ϕ ⊗ ψ).<br />
p!q!<br />
Wie im Fall der alternierenden Multilinearformen beweist man:<br />
Satz 14.2 Das symmetrische Produkt hat folgende Eigenschaften:<br />
(i) (ϕ 1 + ϕ 2 ) ∨ ψ = ϕ 1 ∨ ψ + ϕ 2 ∨ ψ.<br />
(ii) ϕ ∨ (ψ 1 + ψ 2 ) = ϕ ∨ ψ 1 + ϕ ∨ ψ 2 .<br />
(iii) (λϕ) ∨ ψ = ϕ ∨ (λψ) = λ(ϕ ∨ ψ).<br />
(iv) ϕ ∨ ψ = ψ ∨ ϕ.<br />
(v) (ϕ ∨ ψ) ∨ θ = ϕ ∨ (ψ ∨ θ).<br />
(vi) f ∗ (ϕ ∨ ψ) = f ∗ (ϕ) ∨ f ∗ (ψ).
15 Der Quotientenraum 84<br />
Satz 14.3 Es sei (v 1 , . . . , v n ) eine Basis von V und (v ∗ 1, . . . , v ∗ n) die duale<br />
Basis. Dann ist die Menge aller p-fachen symmetrischen Produkte<br />
v ∗ i 1<br />
∨ · · · ∨ v ∗ i p<br />
, 1 ≤ i 1 ≤ . . . ≤ i p ≤ n,<br />
eine Basis von S p (V ). Insbesondere hat S p (V ) die Dimension<br />
( ) n + p − 1<br />
.<br />
p<br />
Definition<br />
Ein Polynom<br />
P (x 1 , . . . , x n ) = ∑<br />
endlich<br />
a ν1 ,...,ν n<br />
x ν 1<br />
1 · · · x νn<br />
n<br />
heißt homogen vom Grad p, wenn die Summe über alle n-Tupel (ν 1 , . . . , ν n )<br />
mit ∑ n<br />
i=1 ν i = p läuft. Es sei K p [x 1 , . . . , x n ] der Vektorraum der homogenen<br />
Polynome in den Variablen x 1 , . . . , x n vom Grad p.<br />
Satz 14.4 Es sei V ein K-Vektorraum der Dimension n. Dann gibt es einen<br />
Isomorphismus<br />
Ψ : S p (V ) → K p [x 1 , . . . , x n ].<br />
Beweis. Es sei (v 1 , . . . , v n ) eine Basis von V und (v ∗ 1, . . . , v ∗ n) die duale Basis.<br />
Dann definieren wir<br />
durch<br />
Ψ : S p (V ) → K p [x 1 , . . . , x n ]<br />
v ∗ i 1<br />
∨ · · · ∨ v ∗ i p<br />
↦→ x i1 · · · x ip , 1 ≤ i 1 ≤ . . . ≤ i p ≤ n.<br />
Da die vi ∗ 1<br />
∨ · · · ∨ vi ∗ p<br />
nach Satz 14.3 eine Basis von S p (V ) und die Monome<br />
x i1 · · · x ip eine Basis von K p [x 1 , . . . , x n ] bilden, folgt, dass sich Ψ zu einem<br />
Isomorphismus zwischen S p (V ) und K p [x 1 , . . . , x n ] erweitern lässt. ✷<br />
15 Der Quotientenraum<br />
Wir wollen nun den Begriff des Quotientenraums einführen. Dazu betrachten<br />
wir Äquivalenzrelationen.<br />
Es sei X eine Menge.<br />
Definition Eine Äquivalenzrelation auf X ist eine Teilmenge R ⊆ X × X<br />
mit folgenden Eigenschaften:
15 Der Quotientenraum 85<br />
(R) (x, x) ∈ R für alle x ∈ X (reflexiv).<br />
(S) (x, y) ∈ R ⇒ (y, x) ∈ R für alle x, y ∈ X (symmetrisch).<br />
(T) (x, y) ∈ R, (y, z) ∈ R ⇒ (x, z) ∈ R für alle x, y, z ∈ X (transitiv).<br />
Notation x ∼ y :⇔ (x, y) ∈ R.<br />
Beispiel 15.1 Es sei X = Mat(n, n; K) und<br />
R := {(A; B) ∈ X × X | ∃T ∈ GL(n; K) mit A = T −1 BT } ⊆ X × X.<br />
Dann gilt<br />
A ∼ B ⇔ A ist ähnlich zu B.<br />
Definition<br />
definieren<br />
Mit anderen Worten<br />
Es sei V ein K-Vektorraum und U ⊆ V ein Unterraum. Wir<br />
R := {(u, v) ∈ V × V | u − v ∈ U}.<br />
u ∼ v :⇔ u − v ∈ U.<br />
Lemma 15.1 Die obige Relation R ist eine Äquivalenzrelation.<br />
Beweis.<br />
(R) (u, u) ∈ R, da u − u = 0 ∈ U.<br />
(S) (u, v) ∈ R ⇒ u − v ∈ U ⇒ v − u ∈ U ⇒ (v, u) ∈ R.<br />
(T) (u, v) ∈ R, (v, w) ∈ R ⇒ u−v ∈ U, v −w ∈ U ⇒ u−w ∈ U ⇒ (u, w) ∈<br />
R.<br />
Definition<br />
definiert als<br />
Es sei x ∈ X. Die Äquivalenzklasse von x, in Zeichen [x], ist<br />
[x] := {y ∈ X | x ∼ y} ⊆ X.<br />
Jedes Element y ∈ [x] heißt Repräsentant der Äquivalenzklasse [x].<br />
✷<br />
Lemma 15.2<br />
(i) x ∈ [x|.<br />
(ii) [x] ∩ [y] ≠ ∅ ⇔ x ∼ y.<br />
(iii) x ∼ y ⇔ [x] = [y].
15 Der Quotientenraum 86<br />
Beweis.<br />
(i) folgt aus der Reflexivität.<br />
(ii): Es sei [x] ∩ [y] ≠ ∅. Dann existiert ein z ∈ [x] ∩ [y]. Dann gilt z ∼ x<br />
und z ∼ y. Aus der Transitivität folgt x ∼ y.<br />
Ist umgekehrt x ∼ y, so folgt x ∈ [x] ∩ [y], also [x] ∩ [y] ≠ ∅.<br />
(iii): Es sei x ∼ y. Ist z ∈ [x], so gilt z ∼ x. Aus der Transitivität folgt<br />
z ∼ y, also z ∈ [y]. Also gilt [x] ⊆ [y]. Analog zeigt man [y] ⊆ [x].<br />
Die umgekehrte Richtung ist klar.<br />
✷<br />
Korollar 15.1 Die Menge X ist die disjunkte Vereinigung der Äquivalenzklassen.<br />
Definition Die Menge der Äquivalenzklassen heißt die Quotientenmenge<br />
und wird mit X/ ∼ bezeichnet. Man hat eine kanonische Projektion<br />
π : X −→ X/ ∼<br />
x ↦−→ [x]<br />
.<br />
Wir kehren nun zu dem Beispiel eines Unterraums U ⊆ V in einem K-<br />
Vektorraum V zurück.<br />
Definition<br />
a ∈ V in V .<br />
Die Menge a + U := {a + u | u ∈ U} heißt die Nebenklasse von<br />
Lemma 15.3 Es gilt [a] = a + U bezüglich der Äquivalenzrelation u ∼ v ⇔<br />
u − v ∈ U.<br />
Beweis. x ∈ [a] ⇔ x ∼ a ⇔ x − a ∈ U ⇔ x ∈ a + U.<br />
✷<br />
Definition<br />
Der Quotientenraum V/U ist die Menge<br />
V/U := {a + U | a ∈ V }.<br />
Definition<br />
Wir definieren eine Addition auf V/U durch<br />
(a + U) + (b + U) := (a + b) + U (a, b ∈ V )<br />
und eine skalare Multiplikation durch<br />
λ(a + U) := (λa) + U (λ ∈ K, a ∈ V ).<br />
Lemma 15.4 Diese Verknüpfungen sind wohldefiniert (d.h. unabhängig von<br />
der Wahl der Repräsentanten a und b) und machen V/U zu einem K-Vektorraum.
15 Der Quotientenraum 87<br />
Beweis. Wir zeigen zunächst die Unabhängigkeit von der Wahl der Repräsentanten.<br />
(a) Es sei a ∼ a ′ , b ∼ b ′ . Es ist zu zeigen: (a + b) + U = (a ′ + b ′ ) + U, d.h.<br />
Es gilt<br />
a + b ∼ a ′ + b ′ .<br />
a ∼ a ′ , b ∼ b ′ ⇒ a − a ′ ∈ U, b − b ′ ∈ U ⇒ (a − a ′ ) + (b − b ′ ) ∈ U<br />
⇒ (a + b) − (a ′ + b ′ ) ∈ U ⇒ a + b ∼ a ′ + b ′ .<br />
(b) Die entsprechende Aussage für die skalare Multiplikation zeigt man<br />
analog.<br />
Das Nachrechnen der Vektorraumaxiome für V/U ist einfach, siehe Vorlesung.<br />
Was ist das neutrale Element von V/U? Was ist das additive Inverse<br />
von a + U?<br />
✷<br />
Der Quotientenraum V/U lässt sich folgendermaßen geometrisch deuten:<br />
Es sei W ein Komplement von U in V , d.h.<br />
V = U ⊕ W.<br />
Es sei a + U eine Nebenklasse. Dann gibt es eine eindeutig bestimmte Darstellung<br />
a = a W + a U , a W ∈ W, a U ∈ U.<br />
Es gilt<br />
[a] = a + U = a W + U.<br />
Das Element a W hängt nur von der Äquivalenzklasse ab und ist durch diese<br />
eindeutig bestimmt. Wir können also die Elemente von V/U mit den Elementen<br />
von W identifizieren. Allerdings ist es günstiger mit V/U zu arbeiten, da<br />
das Komplement W nicht eindeutig bestimmt ist.<br />
Satz 15.1 Die Abbildung<br />
π : V −→ V/U<br />
a ↦−→ a + U<br />
ist ein Epimorphismus mit Ker π = U.<br />
Beweis.<br />
(a) Es gilt<br />
π(a + b) = (a + b) + U = (a + U) + (b + U) = π(a) + π(b).
15 Der Quotientenraum 88<br />
Analog zeigt man π(λa) = λπ(a).<br />
(b) Nach Konstruktion ist π surjektiv.<br />
(c) Es gilt<br />
π(a) = 0 ⇔ a + U = 0 + U ⇔ a ∼ 0 ⇔ a − 0 = a ∈ U,<br />
d.h. Ker π = U.<br />
✷<br />
Korollar 15.2 Zu jedem Unterraum U ⊆ V eines K-Vektorraums V gibt es<br />
eine kanonische kurze exakte Sequenz<br />
0 −→ U ↩→ V π<br />
−→ V/U −→ 0.<br />
Korollar 15.3 Es sei U ein Unterraum eines endlich dimensionalen K-<br />
Vektorraums V . Dann gilt<br />
dim U + dim V/U = dim V.<br />
Beweis.<br />
dim V = dim Ker π + dim Im π = dim U + dim V/U.<br />
Wir betrachten nun eine lineare Abbildung f : V → W zwischen K-<br />
Vektorräumen V und W .<br />
Satz 15.2 (Kern-Bild-Satz) Es gibt genau einen Isomorphismus<br />
f : V/ Ker f → Im f,<br />
✷<br />
so dass gilt:<br />
f(a + Ker f) = f(a) für alle a ∈ V.<br />
Beweis. Falls f existiert, muss gelten<br />
f(a + Ker f) = f(a) für alle a ∈ V.<br />
Wir benutzen daher diese Gleichung zur Definition von f.<br />
(a) Die Abbildung f ist wohldefiniert:<br />
a ∼ b ⇒ a − b ∈ Ker f ⇒ f(a − b) = 0 ⇒ f(a) = f(b).<br />
(b) Die Abbildung f ist linear:<br />
f((a + Ker f) + (b + Ker f)) = f((a + b) + Ker f) = f(a + b)<br />
= f(a) + f(b) = f(a + Ker f) + f(b + Ker f).
16 Projektive Räume 89<br />
Der Beweis für die skalare Multiplikation geht analog.<br />
(c) Die Abbildung f ist nach Konstruktion surjektiv.<br />
(d) Die Abbildung f ist injektiv:<br />
f(a + Ker f) = 0 ⇔ f(a) = 0 ⇔ a ∈ Ker f ⇔ a + Ker f = 0 + Ker f.<br />
Beispiel 15.2 Es sei V = U ⊕ W und f : V → W die Projektion auf W ,<br />
d.h. f(u + w) = w für alle v = u + w ∈ V mit u ∈ U und w ∈ W . Dann ist<br />
U = Ker f und W = Im f. Dann ist die Abbildung<br />
f : V/U → W, f(u + w + U) = w,<br />
ein Isomorphismus. Dies ist die obige Deutung des Quotientenraums.<br />
16 Projektive Räume<br />
Es sei V ein endlich dimensionaler K-Vektorraum. Wir setzen<br />
V ′ := V \ {0}.<br />
✷<br />
Definition<br />
Für u, v ∈ V ′ definieren wir<br />
u ∼ v :⇔ Es gibt λ ∈ K ∗ = K \ {0} mit u = λv.<br />
Bemerkung 16.1 (i) ∼ ist eine Äquivalenzrelation.<br />
(ii) Es gilt<br />
u ∼ v ⇔ Ku = Kv ⇔ u, v spannen dieselbe Gerade auf.<br />
Definition<br />
Der zu V gehörige projektive Raum ist<br />
P(V ) := V ′ / ∼ .<br />
Als Menge ist P(V ) gerade die Menge der Ursprungsgeraden in V :<br />
P(V ) = {Kv | v ∈ V ′ } = {Geraden in V durch 0}.<br />
Definition<br />
Die Dimension des projektiven Raums P(V ) ist<br />
dim P(V ) := dim V − 1.<br />
Notation Der Raum P n (K) := P(K n+1 ) heißt der n-dimensionale projektive<br />
Raum über K.
16 Projektive Räume 90<br />
✻<br />
❆<br />
❆<br />
❅❅ ❆<br />
❍<br />
✬ ✩<br />
❍<br />
❅ ❆<br />
❍❅❆<br />
❍<br />
❅✟✁ ✁✁✁✁✁<br />
❆ ✟✟✟✟✟ <br />
❍<br />
✟❍ ✲<br />
✟<br />
✟✁<br />
❆❅ ❍❍❍❍❍<br />
✟<br />
✟ ✁<br />
❆❆❆❆❆ ❅❅❅❅<br />
✁<br />
✁<br />
✁<br />
✁<br />
Abbildung 10: Die reelle projektive Gerade P 1 (R)<br />
Bemerkung 16.2 Insbesondere ist P({0}) = ∅ und dim ∅ = −1.<br />
Beispiel 16.1 Für die reelle projektive Gerade P 1 (R) gilt:<br />
P 1 (R) = P(R 2 ) = S 1 = R ∪ {∞} = R ∪ P 0 (R).<br />
Die Identifikation S 1 = R ∪ {∞} geschieht über die stereographische Projektion<br />
(Skizze siehe Vorlesung).<br />
Beispiel 16.2 Wir betrachten die reelle projektive Ebene P 2 (R) = P(R 3 ).<br />
Man hat eine Zerlegung<br />
(Näheres siehe Vorlesung).<br />
Definition<br />
Es sei<br />
P 2 (R) = R 2 ∪ P 1 (R)<br />
π : V ′ −→ P(V )<br />
v ↦−→ [v] = Kv<br />
die kanonische Projektion. Ist U ⊆ P(V ) eine Teilmenge, so definieren wir<br />
Ũ := π −1 (U) ∪ {0}.<br />
Eine Teilmenge U ⊆ P(V ) heißt ein projektiver Unterraum von P(V ), falls<br />
Ũ ⊆ V ein Untervektorraum von V ist.<br />
Lemma 16.1 Für einen projektiven Unterraum U gilt U = P(Ũ). Insbesondere<br />
ist U selbst wieder ein projektiver Raum und hat die Dimension<br />
dim U = dim Ũ − 1.
16 Projektive Räume 91<br />
Sprechweise<br />
(i) dim U = −1: ∅<br />
(ii) dim U = 0: Punkt<br />
(iii) dim U = 1: projektive Gerade<br />
(iv) dim U = 2: projektive Ebene<br />
(v) dim U = dim P(V ) − 1: (projektive) Hyperebene.<br />
Es sei nun<br />
V = K n+1 = {(x 0 , x 1 , . . . , x n ) | x i ∈ K, i = 0, 1, . . . , n}.<br />
Definition<br />
Es sei<br />
v = (x 0 , x 1 , . . . , x n ) ≠ 0<br />
(d.h. x i ≠ 0 für ein i).<br />
Den Punkt Kv ∈ P n (K) bezeichnen wir mit (x 0 : x 1 : . . . : x n ). Wir nennen<br />
(x 0 : x 1 : . . . : x n ) die homogenen Koordinaten des Punktes Kv.<br />
Bemerkung 16.3 Es gilt (x 0 : x 1 : . . . : x n ) = (x ′ 0 : x ′ 1 : . . . : x ′ n) genau<br />
dann, wenn es ein λ ∈ K, λ ≠ 0, gibt mit x i = λx ′ i für alle i = 0, 1, . . . , n.<br />
Es sei nun Ũ ⊆ Kn+1 ein Unterraum. Dann ist<br />
homogenen Gleichungssystems<br />
Ũ Lösungsmenge eines<br />
a 10 x 0 +<br />
.<br />
· · · +a 1n x n<br />
.<br />
=<br />
.<br />
0<br />
.<br />
a m0 x 0 + · · · +a mn x n = 0<br />
Mit (x 0 , . . . , x n ) ist auch (λx 0 , . . . , λx n ) für λ ∈ K ∗ eine Lösung dieses Gleichungssystems.<br />
Deswegen kann man schreiben:<br />
}<br />
{(x P(Ũ) = 0 : . . . : x n ) ∈ P n n∑<br />
(K)<br />
a ij x j = 0, i = 1, . . . , m .<br />
∣<br />
j=0<br />
Wir betrachten nun speziell die Gleichung x 0 = 0.<br />
Definition<br />
Die projektive Hyperebene<br />
H ∞ := {(x 0 : . . . : x n ) ∈ P n (K) | x 0 = 0}<br />
heißt die Hyperebene im Unendlichen.
16 Projektive Räume 92<br />
Definition<br />
Die Abbildung<br />
ι : K n −→ P n (K)<br />
(x 1 , . . . , x n ) ↦−→ (1 : x 1 : . . . : x n )<br />
heißt die kanonische Einbettung von K n in den projektiven Raum P n (K).<br />
Diese Abbildung ist injektiv und hat als Bild gerade die Menge<br />
A := P n (K) \ H ∞ .<br />
Denn sei y = (y 0 : . . . : y n ) ∈ A. Dann ist y 0 ≠ 0 und damit<br />
Also ist<br />
(y 0 : y 1 : . . . : y n ) = (1 : y 1<br />
y 0<br />
ι : K n → A<br />
: . . . : yn<br />
y 0<br />
) = ι( y 1<br />
y 0<br />
: . . . : yn<br />
y 0<br />
).<br />
eine Bijektion. Wenn wir K n mit A mittels ι identifizieren, erhalten wir<br />
P n (K) = A ∪ H ∞ = K n ∪ P n−1 (K).<br />
Definition Man nennt A = P n (K) \ H ∞ den affinen Teil von P n (K). Man<br />
sagt, dass sich der projektive Raum P n (K) = A ∪ H ∞ aus dem affinen Teil<br />
A und der Hyperebene im Unendlichen zusammensetzt.<br />
Bemerkung 16.4 Statt der Hyperebene H ∞ = {x 0 = 0} hätte man auch<br />
jede andere Hyperebene als Hyperebene im Unendlichen auswählen können.<br />
Definition Eine Teilmenge W ⊆ K n heißt ein affiner Unterraum des Vektorraums<br />
K n , falls es einen Unterraum W 0 von K n und ein Element a ∈ K n<br />
gibt mit<br />
W = a + W 0 .<br />
Zur Vermeidung von Fallunterscheidungen soll auch die leere Menge ein affiner<br />
Unterraum sein. Die Dimension eines affinen Unterraums W wird als<br />
dim W 0 definiert. Wir definieren dim ∅ := −1.<br />
Beispiel 16.3 Die Lösungsmenge eines linearen Gleichungssystems<br />
a 11 x 1 + · · · +a 1n x n = b 1<br />
.<br />
. . .<br />
a m1 x 1 + · · · +a mn x n = b m<br />
ist ein affiner Unterraum. Umgekehrt ist jeder affine Unterraum W ⊆ K n<br />
Lösungsmenge eines solchen linearen Gleichungssystems.
16 Projektive Räume 93<br />
Lemma 16.2<br />
(i) Es sei W ⊆ P n (K) ein projektiver Unterraum. Dann ist W := W ∩A ⊆<br />
A = K n ein affiner Unterraum.<br />
(ii) Ist ∅ ≠ W ⊆ A = K n ein affiner Unterraum, so gibt es genau einen<br />
projektiven Unterraum W ⊆ P n (K) mit W ∩ A = W .<br />
Beweis. (i) Die Menge ˜W := π −1 (W ) ∪ {0} ist ein linearer Unterraum von<br />
K n+1 , also Lösungsmenge eines homogenen Gleichungssystems<br />
Für einen Punkt<br />
gilt<br />
a 10 y 0 + · · · +a 1n y n = 0<br />
.<br />
. . .<br />
a m0 y 0 + · · · +a mn y n = 0.<br />
y = (y 0 : . . . : y n ) ∉ H ∞ (d.h. y 0 ≠ 0)<br />
a i0 y 0 + · · · + a in y n = 0 ⇔ a i0 + a i1<br />
y 1<br />
y 0<br />
+ · · · + a in<br />
y n<br />
y 0<br />
= 0.<br />
Also ist W ∩ A die Lösungsmenge des Gleichungssystems<br />
a 11 x 1 + · · · +a 1n x n = −a 10<br />
.<br />
. . .<br />
a m1 x 1 + · · · +a mn x n = −a m0 .<br />
Daher ist W ∩ A ein affiner Unterraum.<br />
(ii) Es sei umgekehrt W ⊆ A ein affiner Unterraum. Dann ist W die<br />
Lösungsmenge eines Gleichungssystems<br />
a 11 x 1 + · · · +a 1n x n = b 1<br />
.<br />
. . .<br />
a m1 x 1 + · · · +a mn x n = b m .<br />
Sind (y 0 : . . . : y n ) wieder die homogenen Koordinaten des P n (K), so betrachten<br />
wir das homogene lineare Gleichungssystem<br />
−b 1 y 0 + a 11 y 1 + · · · +a 1n y n = 0<br />
.<br />
. . .<br />
−b m y 0 + a m1 y 1 + · · · +a mn y n = 0.
16 Projektive Räume 94<br />
Dann ist die Lösungsmenge W dieses Gleichungssystems ein projektiver Unterraum<br />
des P n (K) und nach Konstruktion gilt W ∩ A = W .<br />
Wir müssen noch die Eindeutigkeit zeigen. Es sei U ein weiterer projektiver<br />
Unterraum mit U ∩ A = W . Wir setzen<br />
Dann gilt<br />
W ∞ := W ∩ H ∞ , U ∞ := U ∩ H ∞ .<br />
π −1 (W ) = π −1 (W − W ∞ ) = π −1 (U − U ∞ ) ≠ ∅.<br />
Da das mengentheoretische Komplement eines echten Unterraums den ganzen<br />
Vektorraum erzeugt, gilt<br />
˜<br />
W = Span(π −1 (W − W ∞ )) = Span(π −1 (U − U ∞ )) = Ũ.<br />
Daraus folgt W = U.<br />
Lemma 16.3 Der Durchschnitt von zwei projektiven Unterräumen U 1 und<br />
U 2 ist wieder ein projektiver Unterraum.<br />
✷<br />
Beweis. Es sei<br />
Dann gilt<br />
U 1 = P(Ũ1),<br />
U 2 = P(Ũ2).<br />
U 1 ∩ U 2 = P(Ũ1 ∩ Ũ2).<br />
✷<br />
Definition Es seien U 1 , . . . , U r ⊆ P(V ) projektive Unterräume. Dann ist<br />
der Spann von U 1 , . . . , U r , in Zeichen U 1 ∨ . . . ∨ U r , der kleinste projektive<br />
Unterraum von P(V ), der U 1 , . . . , U r enthält.<br />
Bemerkung 16.5 Es gilt<br />
U 1 ∨ . . . ∨ U r = P(Ũ1 + · · · + Ũr).<br />
Lemma 16.4 (Dimensionsformel) Es seien U 1 , U 2 ⊆ P(V ) projektive Unterräume.<br />
Dann gilt<br />
dim U 1 + dim U 2 = dim(U 1 ∨ U 2 ) + dim(U 1 ∩ U 2 ).<br />
Beweis. Es sei U i = P(Ũi), i = 1, 2. Dann gilt<br />
dim U 1 + dim U 2 = dim Ũ1 − 1 + dim Ũ2 − 1<br />
= dim(Ũ1 + Ũ2) − 1 + dim(Ũ1 ∩ Ũ2) − 1<br />
= dim(U 1 ∨ U 2 ) + dim(U 1 ∩ U 2 ).<br />
✷
16 Projektive Räume 95<br />
Beispiel 16.4 Wir betrachten die projektive Ebene P 2 (K). Es seien L 1 , L 2 ⊆<br />
P 2 (K) zwei projektive Geraden. Dann gilt<br />
dim(L 1 ∩ L 2 ) = dim L 1 + dim L 2 − dim(L 1 ∨ L 2 ) ≥ 2 − 2 = 0.<br />
Daraus folgt L 1 ∩ L 2 ≠ ∅, d.h. in einer projektiven Ebene schneiden sich je<br />
zwei Geraden stets. Sind L 1 und L 2 verschieden, so ist der Durchschnitt genau<br />
ein Punkt. Liegt dieser Punkt in H ∞ , so sind L 1 = L 1 ∩ A und L 2 := L 2 ∩ A<br />
zwei parallele affine Geraden.<br />
Nun wollen wir auch Abbildungen von projektiven Räumen betrachten.<br />
Es seien V, W endlich dimensionale K-Vektorräume und P(V ), P(W ) die zugehörigen<br />
projektiven Räume. Es sei F : V → W eine injektive lineare<br />
Abbildung. Dann gilt für v ∈ V , v ≠ 0,<br />
F (Kv) = KF (v) ≠ {0}.<br />
Daher induziert F eine injektive Abbildung<br />
F : P(V ) −→ P(W )<br />
Kv ↦−→ KF v .<br />
Definition<br />
Eine Abbildung<br />
f : P(V ) → P(W )<br />
heißt projektiv, falls es eine injektive lineare Abbildung F : V → W gibt mit<br />
F = f. Eine bijektive projektive Abbildung heißt Projektivität.<br />
Beispiel 16.5 Für m ≥ n haben wir eine kanonische Einbettung<br />
J : P n (K) −→ P m (K)<br />
(x 0 : . . . : x n ) ↦−→ (x 0 : . . . : x n : 0 : . . . : 0) .<br />
Sie entsteht aus der linearen Abbildung<br />
J : K n+1 −→ K m+1<br />
(x 0 , . . . , x n ) ↦−→ (x 0 , . . . , x n , 0, . . . , 0) .<br />
Lemma 16.5 Für zwei injektive lineare Abbildungen F, F ′<br />
F = F ′ genau dann, wenn es ein λ ∈ K ∗ gibt mit F ′ = λF .<br />
: V → W gilt<br />
Beweis. Ist F ′ = λF , so gilt offensichtlich F ′ = F . Es bleibt die Umkehrung<br />
zu zeigen: Ist F = F ′ , so gibt es zu jedem v ∈ V ein λ v ∈ K ∗ mit F ′ (v) =<br />
λ v F (v). Es ist zu zeigen, dass man zu jedem v das gleiche λ v wählen kann.
16 Projektive Räume 96<br />
Für dim V ≤ 1 ist das klar. Andernfalls gibt es linear unabhängige v, w ∈ V .<br />
Dann gibt es λ v , λ w , λ v+w ∈ K ∗ mit<br />
F ′ (v) = λ v F (v), F ′ (w) = λ w F (w), F ′ (v + w) = λ v+w F (v + w).<br />
Aus der Linearität von F und F ′ folgt<br />
(λ v − λ v+w )F (v) + (λ w − λ v+w )F (w) = 0.<br />
Da F injektiv ist, sind auch F (v), F (w) linear unabhängig. Also folgt<br />
λ v = λ v+w = λ w .<br />
Um projektive Abbildungen durch Matrizen zu beschreiben, führen wir<br />
Koordinatensysteme ein. Es sei dim V = n + 1, also dim P(V ) = n.<br />
✷<br />
Definition<br />
Die Punkte P 0 , . . . , P k ∈ P(V ) heißen projektiv unabhängig, falls<br />
dim(P 0 ∨ . . . ∨ P k ) = k<br />
gilt.<br />
Bemerkung 16.6 Es sei P i = Kv i , i = 0, . . . , k. Dann gilt<br />
P 0 , . . . , P k projektiv unabhängig ⇔ v 0 , . . . , v k linear unabhängig.<br />
Definition Ein (n + 2)-Tupel (P 0 , . . . , P n+1 ) von Punkten aus P(V ) heißt<br />
projektive Basis, falls je n + 1 Punkte davon projektiv unabhängig sind.<br />
Lemma 16.6 Es sei (P 0 , . . . , P n+1 ) eine projektive Basis. Dann gibt es eine<br />
Basis (v 0 , . . . , v n ) von V mit<br />
(i) P i = Kv i (i = 0, . . . , n).<br />
(ii) P n+1 = K(v 0 + · · · + v n ).<br />
Die Basis (v 0 , . . . , v n ) ist bis auf einen Skalar eindeutig bestimmt.<br />
Beweis. Da P 0 , . . . , P n projektiv unabhängig sind, gibt es eine Basis (w 0 , . . . , w n )<br />
von V mit<br />
P 0 = Kw 0 , . . . , P n = Kw n .<br />
Weiter gibt es λ 0 , . . . , λ n ∈ K mit<br />
P n+1 = K(λ 0 w 0 + · · · + λ n w n ).
16 Projektive Räume 97<br />
Wäre λ 0 = 0, so wären P 1 , . . . , P n+1 nicht projektiv unabhängig. Also ist<br />
λ 0 ≠ 0 und analog λ 1 ≠ 0, . . . , λ n ≠ 0. Daher ist durch<br />
die gesuchte Basis gegeben.<br />
v 0 := λ 0 w 0 , . . . , v n := λ n w n<br />
Es sei nun (P 0 , . . . , P n+1 ) eine projektive Basis und B = (v 0 , . . . , v n ) eine<br />
zugehörige Basis, die bis auf einen Skalar eindeutig bestimmt ist. Es sei P =<br />
Kv ∈ P(V ). Dann ist v auch bis auf einen Skalar eindeutig festgelegt. Wir<br />
ordnen dem Punkt P den Koordinatenvektor (x 0 , . . . , x n ) von v bezüglich<br />
der Basis B zu. Er ist damit bis auf einen Skalar festgelegt.<br />
Definition Das Element (x 0 : . . . : x n ) ∈ P n (K) heißt der homogene Koordinatenvektor<br />
des Punktes P bezüglich der projektiven Basis (P 0 , . . . , P n ).<br />
✷<br />
Notation<br />
Wir schreiben P = (x 0 : . . . : x n ). Damit gilt:<br />
P 0 = (1 : 0 : . . . : 0 : 0)<br />
.<br />
.<br />
.<br />
P n = (0 : 0 : . . . : 0 : 1)<br />
P n+1 = (1 : 1 : . . . : 1 : 1).<br />
Durch die Einführung von Koordinaten reduziert sich das Studium der<br />
Projektivitäten beliebiger projektiver Räume auf das Studium von Projektivitäten<br />
des P n (K). Es sei<br />
f : P n (K) → P n (K)<br />
eine Projektivität. Dann gibt es einen Isomorphismus<br />
F : K n+1 → K n+1 mit F = f.<br />
Die lineare Abbildung F wird durch eine Matrix A ∈ GL(n + 1; K) gegeben,<br />
wobei F und somit auch A bis auf einen Skalar λ ≠ 0 festgelegt sind.<br />
Wir untersuchen nun den Zusammenhang zwischen Affinitäten und Projektivitäten.<br />
Es sei<br />
f a : K n → K n , x ↦→ Ax + b (A ∈ GL(n; K)),<br />
eine Affinität. Dann betrachten wir die kanonische Einbettung<br />
ι : K n −→ P n (K)<br />
(x 1 , . . . , x n ) ↦−→ (1 : x 1 : . . . : x n )
16 Projektive Räume 98<br />
von K n in den P n (K). Setzen wir<br />
⎛<br />
1 0 · · · 0<br />
b 1<br />
A = ⎜<br />
⎝ . A<br />
b n<br />
so ist durch<br />
⎛<br />
⎜<br />
⎝<br />
⎞ ⎛<br />
x 0<br />
⎟ ⎜<br />
. ⎠ ↦→ A ⎝<br />
x n<br />
⎞<br />
x 0<br />
⎟<br />
. ⎠<br />
x n<br />
eine bijektive lineare Abbildung F a : K n+1 → K n+1 bestimmt, die eine Projektivität<br />
F a : P n (K) → P n (K) induziert. Es gilt F a (H ∞ ) = H ∞ . Damit<br />
haben wir eine Motivation für die Konstruktion in § 10 nachgeliefert.<br />
Es sei nun umgekehrt f : P n (K) → P n (K) eine Projektivität mit f(H ∞ ) =<br />
H ∞ . Eine zugehörige lineare Abbildung F : K n+1 → K n+1 sei gegeben durch<br />
die Matrix A ∈ GL(n + 1; K) mit<br />
⎛<br />
⎞<br />
a 00 a 01 · · · a 0n<br />
a 10 a 11 · · · a 1n<br />
A = ⎜<br />
⎝<br />
.<br />
. . ..<br />
⎟ . ⎠ .<br />
a n0 a n1 · · · a nn<br />
⎞<br />
⎟<br />
⎠ ,<br />
Wegen f(H ∞ ) = H ∞ muss gelten<br />
⎛<br />
⎞<br />
a 00 0 · · · 0<br />
a 10 a 11 · · · a 1n<br />
A = ⎜<br />
⎝<br />
.<br />
. . ..<br />
⎟ . ⎠ .<br />
a n0 a n1 · · · a nn<br />
Wegen A ∈ GL(n+1; K) ist a 00 ≠ 0. Da A nur bis auf einen Skalar eindeutig<br />
festgelegt ist, kann man annehmen dass<br />
⎛<br />
⎞<br />
1 0 · · · 0<br />
a 10<br />
A = ⎜<br />
⎟<br />
⎝ . A ⎠<br />
a n0<br />
für eine Matrix A ∈ GL(n; K). Es gilt daher<br />
⎛<br />
⎞ ⎛ ⎞ ⎛<br />
1 0 · · · 0 1<br />
a 10<br />
x 1<br />
⎜<br />
⎟ ⎜ ⎟<br />
⎝ . A ⎠ ⎝ . ⎠ = ⎜<br />
⎝<br />
x n<br />
a n0<br />
1<br />
x ′ 1<br />
.<br />
x ′ n<br />
⎞<br />
⎟<br />
⎠ .
17 Projektive Quadriken 99<br />
Das bedeutet, dass f a := f| K n : K n → K n eine Affinität ist, die durch<br />
⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />
x 1 x 1 a 10<br />
⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />
f a ⎝ . ⎠ = A ⎝ . ⎠ + ⎝ . ⎠<br />
x n x n a n0<br />
gegeben wird.<br />
Wir haben damit bewiesen:<br />
Satz 16.1 Ist f a : K n → K n eine Affinität, so gibt es eine Projektivität<br />
f : P n (K) → P n (K) mit f| K n = f a und f(H ∞ ) = H ∞ .<br />
Ist umgekehrt f : P n (K) → P n (K) eine Projektivität mit f(H ∞ ) = H ∞ ,<br />
dann ist f a := f| K n : K n → K n eine Affinität.<br />
17 Projektive Quadriken<br />
Wir wollen nun Quadriken in projektiven Räumen betrachten.<br />
Es sei K ein Körper mit n K ≠ 0 für n = 2.<br />
Definition Unter einem homogenen Polynom zweiten Grades in den Unbestimmten<br />
x 0 , x 1 , . . . , x n versteht man einen Ausdruck der Form<br />
q(x 0 , . . . , x n ) =<br />
∑<br />
α ij x i x j ,<br />
wobei α ij ∈ K für 0 ≤ i ≤ j ≤ n.<br />
0≤i≤j≤n<br />
Definition Eine Teilmenge C ⊆ K n+1 heißt Kegel, wenn für jedes<br />
(x 0 , . . . , x n ) ∈ C und λ ∈ K auch (λx 0 , . . . , λx n ) ∈ C ist.<br />
Dies bedeutet, dass C die Vereinigung von Geraden durch den Ursprung<br />
ist. Eine Gerade durch den Ursprung von K n+1 ist ein Punkt von P n (K).<br />
Für jedes homogene Polynom zweiten Grades q ist die Menge<br />
ein Kegel. Dies folgt aus<br />
C = {(x 0 , . . . , x n ) ∈ K n+1 | q(x 0 , . . . , x n ) = 0}<br />
q(λx 0 , . . . , λx n ) = λ 2 q(x 0 , . . . , x n ) für λ ∈ K.<br />
Definition Eine Teilmenge Q ⊆ P n (K) heißt (projektive) Quadrik (oder<br />
(projektive) Hyperfläche zweiter Ordnung), wenn es ein homogenes Polynom<br />
zweiten Grades q gibt, so dass<br />
Q = {(x 0 : . . . : x n ) ∈ P n (K) | q(x 0 , . . . , x n ) = 0}.
17 Projektive Quadriken 100<br />
Bemerkung 17.1 Man beachte, dass im Gegensatz zum affinen Fall das<br />
Polynom q keine Funktion auf dem P n (K) definiert, denn für λ ∈ K ∗ gilt<br />
(x 0 : . . . : x n ) = (λx 0 : . . . : λx n ), aber<br />
q(λx 0 , . . . , λx n ) = λ 2 q(x 0 , . . . , x n ).<br />
Aber die Nullstellenmenge von q in P n (K) ist wohldefiniert, denn es gilt für<br />
λ ∈ K ∗ :<br />
q(x 0 , . . . , x n ) = 0 ⇔ q(λx 0 , . . . , λx n ) = 0.<br />
Beispiel 17.1 Es sei K = R und n = 2.<br />
(1) Es sei q(x 0 , x 1 , x 2 ) = x 2 0 + x 2 1 − x 2 2. Dann ist<br />
ein Kegel und<br />
C = {(x 0 , x 1 , x 2 ) ∈ R 3 | x 2 0 + x 2 1 − x 2 2 = 0}<br />
Q = {(x 0 : x 1 : x 2 ) ∈ P 2 (R) | x 2 0 + x 2 1 − x 2 2 = 0}<br />
die Menge der in C liegenden Geraden durch den Ursprung. Um uns ein Bild<br />
von Q zu beschaffen, betrachten wir den affinen Teil, wobei wir eine geeignete<br />
Hyperebene H ∞ im Unendlichen entfernen.<br />
(a) Es sei H ∞ := {(x 0 : x 1 : x 2 ) ∈ P 2 (R) | x 0 = 0}. Auf R 2 = P 2 (R) \ H ∞<br />
erhalten wir die Gleichung<br />
1 + x 2 1 − x 2 2 = 0.<br />
Diese Gleichung definiert eine Hyperbel. Sie entsteht als Schnitt des Kegels<br />
C mit der Ebene x 0 = 1.<br />
Abbildung 11: Schnitt von C mit der Ebene x 0 = 1
17 Projektive Quadriken 101<br />
(b) Es sei H ∞ := {(x 0 : x 1 : x 2 ) ∈ P 2 (R) | x 2 = 0}. Dann erhalten wir auf<br />
R 2 = P 2 (R) \ H ∞ die Gleichung<br />
x 2 0 + x 2 1 − 1 = 0.<br />
Diese Gleichung definiert einen Kreis. Er entsteht als Schnitt des Kegels C<br />
mit der Ebene x 2 = 1. Wählt man als Hyperebene im Unendlichen H ∞ :=<br />
{(x 0 : x 1 : x 2 ) ∈ P 2 (R) | 1 2 x 0 + x 2 = 0}, so kann man leicht zeigen, dass man<br />
im affinen Teil eine Ellipse erhält.<br />
Abbildung 12: Schnitt von C mit der Ebene 1 2 x 0 + x 2 = 1<br />
(c) Es sei H ∞ := {(x 0 : x 1 : x 2 ) ∈ P 2 (R) | x 0 + x 2 = 0}. Dann erhalten wir<br />
auf R 2 = P 2 (R) \ H ∞ die Gleichung<br />
(1 − x 2 ) 2 + x 2 1 − x 2 2 = 0 ⇔ x 2 1 − 2x 2 = −1.<br />
Das ist eine Parabel. Sie entsteht als Schnitt des Kegels C mit der Ebene<br />
x 0 + x 2 = 1.<br />
(2) Es sei q(x 0 , x 1 , x 2 ) = x 2 0 − x 2 1. Dann gilt<br />
q(x 0 , x 1 , x 2 ) = x 2 0 − x 2 1 = (x 0 − x 1 )(x 0 + x 1 ).<br />
Damit besteht Q aus zwei Geraden.<br />
Wir wollen die Gleichung für eine Quadrik wieder durch Matrizen ausdrücken.<br />
Gegeben sei ein quadratisches Polynom<br />
q(x 0 , . . . , x n ) =<br />
∑<br />
α ij x i x j .<br />
Dann setzen wir<br />
0≤i≤j≤n<br />
⎧<br />
⎨ α ij für i = j,<br />
1<br />
a ij :=<br />
⎩<br />
α 2 ij für i < j,<br />
1<br />
α 2 ji für i > j,
17 Projektive Quadriken 102<br />
Abbildung 13: Schnitt von C mit der Ebene x 0 + x 2 = 1<br />
wobei jeweils 0 ≤ i, j ≤ n, und A := (a ij ) ∈ Mat(n + 1, n + 1; K). Dann ist<br />
A eine symmetrische Matrix und es gilt für x ∈ K n+1<br />
q(x) = x T Ax.<br />
Wir haben gesehen, dass affine Quadriken unter Affinitäten invariant bleiben.<br />
Das Gleiche gilt auch für projektive Quadriken unter Projektivitäten.<br />
Satz 17.1 Ist Q ⊆ P n (K) eine Quadrik und f : P n (K) → P n (K) eine<br />
Projektivität, so ist auch f(Q) ⊆ P n (K) eine Quadrik.<br />
Beweis. Es sei Q gegeben durch<br />
x T Ax = 0,<br />
A ∈ Mat(n + 1, n + 1; K),<br />
und die zu f : P n (K) → P n (K) gehörige lineare Abbildung F : K n+1 → K n+1<br />
sei gegeben durch<br />
y = Sx, S ∈ GL(n + 1; K).<br />
Es sei C der Kegel<br />
C := {x ∈ K n+1 | x T Ax = 0}.<br />
Dann gilt für y = (y 0 , . . . , y n ) T ∈ K n+1 und T := S −1<br />
y = Sx ∈ F (C) ⇔ x = T y ∈ C<br />
⇔ 0 = x T Ax = (T y) T A(T y) = y T (T T AT )y.<br />
Die Matrix B := T T AT ist wieder symmetrisch und es gilt<br />
f(Q) = {(y 0 : . . . : y n ) ∈ P n (K) | y t By = 0}.<br />
✷
17 Projektive Quadriken 103<br />
Definition Zwei Quadriken Q, Q ′ ⊆ P n (K) heißen (projektiv) äquivalent,<br />
falls es eine Projektivität f : P n (K) → P n (K) gibt mit f(Q) = Q ′ .<br />
Beispiel 17.2 Die beiden Quadriken<br />
Q = {(x 0 , x 1 , x 2 ) ∈ P 2 (R) | x 2 0 + x 2 1 − x 2 2 = 0} und<br />
Q ′ = {(x 0 , x 1 , x 2 ) ∈ P 2 (R) | x 2 0 − x 2 1 = 0}<br />
sind nicht äquivalent, da Q ′ aus zwei Geraden besteht, aber Q keine Gerade<br />
enthält.<br />
Wir kommen nun zur Klassifikation der projektiven Quadriken über dem<br />
Körper K = R. Dazu erinnern wir an die Definition der Signatur einer symmetrischen<br />
Matrix A mit Einträgen in R:<br />
Sign A = ♯{positive Eigenwerte} − ♯{negative Eigenwerte}.<br />
Theorem 17.1 (Projektive Klassifikation von Quadriken) Jede Quadrik<br />
Q ⊆ P n (R) ist äquivalent zu genau einer der folgenden Quadriken:<br />
Q k,m = {(x 0 : . . . : x n ) ∈ P n (R) | x 2 0 + . . . + x 2 k − x 2 k+1 − . . . − x 2 m = 0}<br />
mit −1 ≤ k ≤ m ≤ n und k+1 ≥ m−k. Insbesondere gilt für zwei Quadriken<br />
Q = {x T Ax = 0} und Q ′ = {x T A ′ x = 0}:<br />
Q und Q ′ sind äquivalent ⇔ Rang A = Rang A ′ , |Sign A| = |Sign A ′ |.<br />
Um diesen Satz zu beweisen, brauchen wir noch einen Hilfssatz.<br />
Lemma 17.1 Es seien q(x) = x T Ax und q ′ (x) = x T A ′ x quadratische Formen<br />
auf V = R n+1 . Es gelte<br />
Gibt es ein v 0 ∈ C, so dass<br />
C := {x ∈ V | q(x) = 0} = {x ∈ V | q ′ (x) = 0}.<br />
so gilt A ′ = ρ · A für ein ρ ∈ R ∗ .<br />
v T 0 Aw ≠ 0 für mindestens ein w ∈ V, (1)<br />
Beweis. Es seien b(x, y) := x T Ay bzw. b ′ (x, y) = x T A ′ y die zu q bzw. q ′<br />
gehörigen symmetrischen Bilinearformen. Wir wählen ein festes v 0 ∈ C mit<br />
der Eigenschaft (1) und betrachten für jedes w ∈ V die Gerade<br />
g w := {w + λv 0 | λ ∈ R}.
17 Projektive Quadriken 104<br />
Ihre Schnittpunkte mit C sind bestimmt durch die Gleichungen<br />
oder (wegen q(v 0 ) = q ′ (v 0 ) = 0)<br />
q(w + λv 0 ) = 0 bzw. q ′ (w + λv 0 ) = 0,<br />
2λb(v 0 , w) + q(w) = 0 bzw. 2λb ′ (v 0 , w) + q ′ (w) = 0. (2)<br />
Dass diese Gerade den Kegel C nicht in genau einem Punkt schneidet, ist<br />
gleichwertig mit<br />
b(v 0 , w) = 0 bzw. b ′ (v 0 , w) = 0.<br />
Also gilt für alle w ∈ V<br />
b(v 0 , w) = 0 ⇔ b ′ (v 0 , w) = 0.<br />
Wegen der Bedingung (1) ist die Menge<br />
H := {w ∈ V | b(v 0 , w) = 0}<br />
eine Hyperebene in V . Da sie gleich der Menge<br />
ist, muss es ein ρ ∈ R ∗ geben mit<br />
Aus Gleichung (2) folgt<br />
Daraus ergibt sich<br />
Die Funktion<br />
H ′ = {w ∈ V | b ′ (v 0 , w) = 0}<br />
b ′ (v 0 , w) = ρ · b(v 0 , w) für alle w ∈ V.<br />
b(v 0 , w) · q ′ (w) = b ′ (v 0 , w) · q(w) für alle w ∈ V.<br />
q ′ (w) = ρ · q(w) für alle w ∈ V \ H.<br />
f : V −→ R<br />
w ↦−→ q ′ (w) − ρ · q(w)<br />
verschwindet auf V \ H. Da sie außerdem stetig ist, verschwindet sie auch<br />
auf H. Damit gilt<br />
Daraus folgt durch Polarisierung<br />
q ′ (w) = ρ · q(w) für alle w ∈ V.<br />
b ′ (v, w) = ρ · b(v, w)<br />
für alle v, w ∈ V
17 Projektive Quadriken 105<br />
und damit<br />
Beweis von Theorem 17.1. Es sei<br />
A ′ = ρA.<br />
✷<br />
Q = {(x 0 : . . . : x n ) ∈ P n (R) | x T Ax = 0}, A ∈ Mat(n + 1, n + 1; R), A = A T .<br />
Nach Satz 5.1 gibt es ein S ∈ GL(n + 1; R) mit<br />
⎛<br />
E k+1<br />
⎞<br />
0<br />
S T AS = ⎝ −E l<br />
⎠ =: A k,m , k + l = m.<br />
0 0<br />
Da<br />
x T Ax = 0 ⇔ x T (−A)x = 0,<br />
können wir annehmen, dass k + 1 ≥ m − k ist. Also ist Q äquivalent zu<br />
Q k,m = {(x 0 : . . . : x n ) ∈ P n (R) | x T A k,m x = 0}.<br />
Aus dem Trägheitssatz von Sylvester folgt auch die Implikation ”⇐” der<br />
zweiten Aussage des Theorems.<br />
Nun beweisen wir die Richtung ”⇒” der zweiten Aussage. Dazu seien<br />
Q = {x T Ax = 0} und Q ′ = {x T A ′ x = 0} äquivalent. O. B. d. A. können<br />
wir annehmen, dass Q = Q k,m und A = A k,m gilt. Nach Voraussetzung gibt<br />
es eine Projektivität f : P n (R) → P n (R) mit f(Q) = Q ′ , d.h. es gibt eine<br />
Matrix T ∈ GL(n + 1; R), so dass Q auch durch die Bilinearform mit der<br />
Matrix<br />
B := T T A ′ T<br />
beschrieben wird. Nun wollen wir Lemma 17.1 anwenden. Dazu müssen wir<br />
nachprüfen, wann die Bedingung (1) für A k,m erfüllt ist. Diese Bedingung ist<br />
aber erfüllt, wenn k < m ist. Denn dann gilt: Bezeichnen wir mit (e 0 , . . . , e n )<br />
die Standardbasis von R n+1 , so sind v 0 := e 0 + e m und w := e 0 Vektoren mit<br />
v T 0 A k,m v 0 = 0, aber v T 0 A k,m w = 1 ≠ 0.<br />
Aus Lemma 17.1 folgt damit B := ρ · A k,m für ein ρ ∈ R ∗ . Aus dem<br />
Trägheitssatz von Sylvester (Satz 5.2) folgt dann die Behauptung.<br />
Es bleibt noch der Fall k = m zu behandeln. Dann ist Q ein linearer<br />
projektiver Unterraum der Dimension n−(m+1), also auch Q ′ . Daraus folgt<br />
aber<br />
Rang A ′ = Rang A m,m = |Sign A ′ | = |Sign A m,m | = m + 1.
17 Projektive Quadriken 106<br />
Rang |Sign| Gleichung Beschreibung<br />
0 0 0 = 0 P 2 (R)<br />
1 1 x 2 0 = 0 (Doppel-)Gerade<br />
2 2 x 2 0 + x 2 1 = 0 Punkt<br />
2 0 x 2 0 − x 2 1 = 0 Geradenpaar<br />
3 3 x 2 0 + x 2 1 + x 2 2 = 0 leere Quadrik<br />
3 1 x 2 0 + x 2 1 − x 2 2 = 0 nicht ausgeartete Quadrik<br />
Tabelle 4: Normalformen von Quadriken im P 2 (R)<br />
Rang |Sign| Gleichung Beschreibung<br />
0 0 0 = 0 P 3 (R)<br />
1 1 x 2 0 = 0 (Doppel-)Ebene<br />
2 2 x 2 0 + x 2 1 = 0 Gerade<br />
2 0 x 2 0 − x 2 1 = 0 Ebenenpaar<br />
3 3 x 2 0 + x 2 1 + x 2 2 = 0 Punkt<br />
3 1 x 2 0 + x 2 1 − x 2 2 = 0 Kegel<br />
4 4 x 2 0 + x 2 1 + x 2 2 + x 2 3 = 0 leere Quadrik<br />
4 2 x 2 0 + x 2 1 + x 2 2 − x 2 3 = 0 Ovalfläche<br />
4 0 x 2 0 + x 2 1 − x 2 2 − x 2 3 = 0 Regelfläche<br />
Tabelle 5: Normalformen von Quadriken im P 3 (R)<br />
Aus diesem Beweis folgt auch, dass zwei Quadriken Q k,m für unterschiedliche<br />
k und m mit k + 1 ≥ m − k nicht äquivalent sind.<br />
✷<br />
Speziell für n = 2, 3 erhalten wir die Tabellen 4 und 5.<br />
Beispiel 17.3 Es sei K = R und n = 3.<br />
(1) Wir betrachten die nicht ausgeartete Quadrik<br />
Q := {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 2 0 + x 2 1 + x 2 2 − x 2 3 = 0}.<br />
(a) Es sei H ∞ := {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 3 = 0}. Dann ist<br />
Q ∩ A = {(x 0 , x 1 , x 2 ) ∈ R 3 | x 2 0 + x 2 1 + x 2 2 = 1}<br />
eine Kugel und es gilt Q ∩ H ∞ = ∅.<br />
(b) Es sei H ∞ := {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 0 = 0}. Dann ist<br />
Q ∩ A = {(x 1 , x 2 , x 3 ) ∈ R 3 | x 2 3 − x 2 1 − x 2 2 = 1}
17 Projektive Quadriken 107<br />
ein zweischaliges Hyperboloid (Bild 7) und es gilt<br />
Q ∩ H ∞ = {(x 1 : x 2 : x 3 ) ∈ P 2 (R) | x 2 1 + x 2 2 − x 2 3 = 0},<br />
eine nicht ausgeartete Quadrik in der projektiven Ebene.<br />
(c) Es sei H ∞ := {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 2 + x 3 = 0}. Dann ist<br />
Q ∩ A = {(x 0 , x 1 , x 2 ) ∈ R 3 | x 2 0 + x 2 1 + x 2 2 − (1 − x 2 ) 2 = 0}<br />
= {(x 0 , x 1 , x 2 ) ∈ R 3 | x 2 0 + x 2 1 + 2x 2 = 1}<br />
ein elliptisches Paraboloid (Bild 8) und es gilt<br />
Q ∩ H ∞ = {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 3 = −x 2 , x 2 0 + x 2 1 = 0}<br />
= {(0 : 0 : 1 : −1)}.<br />
(2) Nun betrachten wir die nicht ausgeartete Quadrik<br />
Q := {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 2 0 + x 2 1 − x 2 2 − x 2 3 = 0}.<br />
(a) Es sei H ∞ := {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 3 = 0}. Dann ist<br />
Q ∩ A = {(x 0 , x 1 , x 2 ) ∈ R 3 | x 2 0 + x 2 1 − x 2 2 = 1}.<br />
Dies ist ein einschaliges Hyperboloid (Bild 6). Es enthält Geraden und daher<br />
nennt man eine solche Quadrik eine Regelfläche. Tatsächlich ist Q die<br />
Vereinigung von Geraden (Fadenmodell des einschaligen Hyperboloids, siehe<br />
Vorlesung). Der Schnitt mit der Hyperebene H ∞ ist eine nicht ausgeartete<br />
ebene Quadrik (”Kreis”)<br />
Q ∩ H ∞ = {(x 0 : x 1 : x 2 ) ∈ P 2 (R) | x 2 0 + x 2 1 − x 2 2 = 0}.<br />
(b) Es sei H ∞ := {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 1 + x 2 = 0}. Dann ist<br />
Q ∩ A = {(x 0 , x 1 , x 3 ) ∈ R 3 | x 2 0 − x 2 3 + 2x 1 = 1}.<br />
Dies ist ein hyperbolisches Paraboloid (Bild 9). Es enthält ebenfalls Geraden.<br />
Sein Durchschnitt mit H ∞ ist ein Paar von Geraden<br />
Q ∩ H ∞ = {(x 0 : x 1 : x 2 : x 3 ) ∈ P 3 (R) | x 2 = −x 1 , x 2 0 − x 2 3 = 0}.<br />
Damit haben wir alle interessanten Quadriken im R 3 aus §10 als geeignete<br />
affine Teile von projektiven Quadriken im P 3 (R) zurückerhalten.
INHALTSVERZEICHNIS 108<br />
Inhaltsverzeichnis<br />
1 Summen von Vektorräumen 3<br />
2 Normierte Vektorräume 10<br />
3 Normalform orthogonaler und unitärer Endomorphismen 12<br />
4 Normalform selbstadjungierter Endomorphismen 17<br />
5 Symmetrische Bilinearformen 18<br />
6 Das Minimalpolynom 23<br />
7 Diagonalisierbarkeit 34<br />
8 Nilpotente Endomorphismen 37<br />
9 Die Jordansche Normalform 43<br />
10 Affine Quadriken 51<br />
11 Der Dualraum 66<br />
12 Multilineare Abbildungen 73<br />
13 Alternierende Multilinearformen 76<br />
14 Symmetrische Multilinearformen 82<br />
15 Der Quotientenraum 84<br />
16 Projektive Räume 89<br />
17 Projektive Quadriken 99