Mathematik für Studierende der Lehrämter Primarstufe und ...

Mathematik für Studierende der Lehrämter Primarstufe und ... Mathematik für Studierende der Lehrämter Primarstufe und ...

math.uni.hamburg.de
von math.uni.hamburg.de Mehr von diesem Publisher
28.04.2014 Aufrufe

Mathematik für Studierende der Lehrämter Primarstufe und Sekundarstufe I sowie Sonderschulen Grundbildung Lineare Algebra und Analytische Geometrie SoSe 13 Hubert Kiechle hubert.kiechle[at]uni-hamburg.de Danksagung Dieser Text basiert wesentlich auf einem Skript von Herrn Prof. Dr. Hans-Joachim Samaga, der mir sogar seine LaTeX-Quellen zur Verfügung gestellt hat. Ich habe seine Ausarbeitung in großen Teilen nur umgearbeitet und ergänzt. Vielen herzliche Dank, lieber Hans-Joachim, für deine stets großzügige Unterstützung. Teile das Skripts basieren auf Ausarbeitungen von Frau Dr. Susanne Koch, der ich ebenfalls herzlich danken möchte. 1

<strong>Mathematik</strong> <strong>für</strong> <strong>Studierende</strong> <strong>der</strong><br />

<strong>Lehrämter</strong><br />

<strong>Primarstufe</strong> <strong>und</strong> Sek<strong>und</strong>arstufe I<br />

sowie Son<strong>der</strong>schulen<br />

Gr<strong>und</strong>bildung Lineare Algebra <strong>und</strong><br />

Analytische Geometrie<br />

SoSe 13<br />

Hubert Kiechle<br />

hubert.kiechle[at]uni-hamburg.de<br />

Danksagung<br />

Dieser Text basiert wesentlich auf einem Skript von Herrn Prof. Dr. Hans-Joachim Samaga,<br />

<strong>der</strong> mir sogar seine LaTeX-Quellen zur Verfügung gestellt hat. Ich habe seine<br />

Ausarbeitung in großen Teilen nur umgearbeitet <strong>und</strong> ergänzt.<br />

Vielen herzliche Dank, lieber Hans-Joachim, <strong>für</strong> deine stets großzügige Unterstützung.<br />

Teile das Skripts basieren auf Ausarbeitungen von Frau Dr. Susanne Koch, <strong>der</strong> ich<br />

ebenfalls herzlich danken möchte.<br />

1


Inhaltsverzeichnis<br />

9 Komplexe Zahlen 3<br />

10 Lineare Gleichungssysteme 17<br />

11 Vektorräume 32<br />

12 Basen <strong>und</strong> Dimension 45<br />

13 Lineare Abbildungen 54<br />

14 Skalarprodukt — Abstände <strong>und</strong> Winkel 64<br />

2


9 Komplexe Zahlen<br />

Die komplexen Zahlen bilden eine Erweiterung <strong>der</strong> reellen Zahlen, die sowohl <strong>für</strong> die<br />

mathematische Theorie als auch in vielen Anwendungen eine zentrale Rolle spielt. Man<br />

kann sagen, dass mo<strong>der</strong>ne <strong>Mathematik</strong> ohne komplexe Zahlen nicht möglich ist. Vieles<br />

findet man in [SS09, 6.5].<br />

Wie schon im letzten Semester muss die Erweiterung eines bekannten Zahlenbereich gut<br />

motiviert sein. Dabei sollte es mit dem Bekannten verträglich sein. Wir werden sehen,<br />

dass die komplexen Zahlen es erlauben Gleichungen zu lösen, die in R keine Lösung<br />

haben. Darüberhinaus bilden sie einen Körper. Es gelten also die von den rationalen<br />

<strong>und</strong> den reellen Zahlen her bekannten Rechenregeln.<br />

Der historische Zugang, seine Kritik <strong>und</strong> wie man’s richtig macht<br />

Bereits auf den natürlichen Zahlen bestehen die zwei binäre Verküpfungen „ +“ <strong>und</strong> „ ·“<br />

<strong>und</strong> es gelten die gr<strong>und</strong>legenden Rechengesetze: Assoziativgesetze, Kommutativgesetze,<br />

<strong>und</strong> das Distributivgesetz.<br />

Im letzten Semester haben wir sukzessive den Zahlbereich erweitert, stets motiviert<br />

durch die Lösbarkeit weiterer Gleichungen.<br />

Daraus ergibt sich die Hierarchie <strong>der</strong> Zahlen, die nochmals zusammengefasst sei<br />

N ⊆ Z ⊆ Q ⊆ R.<br />

Neben den Verknüpfungen besitzen diese Mengen alle die verträgliche Ordnungsrelation<br />

„ ≤“. Das drückt sich auch in <strong>der</strong> geometrischen Interpretation von R als Zahlengerade<br />

aus.<br />

Bekanntlich gibt es keine reelle Zahl mit x 2 = −1. Schon im 16. Jahrhun<strong>der</strong>t wurde<br />

dieser Mangel dadurch behoben, dass man eine imaginäre (eingebildete, nicht wirklich<br />

existente) Zahl i postulierte, die diese Gleichung löst. Es soll also i 2 = −1 gelten. Die<br />

Einführung von i als neuer Zahl <strong>und</strong> die Verwendung des Buchstabens wird Leonhard<br />

Euler (1707–1783) zugeschrieben.<br />

Als Lösung <strong>der</strong> quadratischen Gleichung x 2 + px + q ergibt sich bekanntlich<br />

x 1/2 = − p 2 ± √<br />

p<br />

2<br />

Ist p2<br />

4 − q < 0, so setzt man x 1/2 = − p 2 ± i √<br />

man zieht also gewissermaßen i 2 aus <strong>der</strong> Wurzel.<br />

4 − q<br />

q − p2<br />

4 ,


Die komplexen Zahlen werden definiert zu<br />

C := {a + bi ; a, b ∈ R} .<br />

So ist dann jede quadratische Gleichung über R lösbar in C.<br />

Wie addiert <strong>und</strong> multipliziert man komplexe Zahlen? Für a + bi, c + di ∈ C setze<br />

(a + bi) + (c + di) := a + c + (b + d)i<br />

(a + bi) · (c + di) := ac − bd + (ad + bc)i.<br />

Wenn man will, dass die gr<strong>und</strong>legenden Rechengesetze weiter gelten, <strong>und</strong> außerdem,<br />

dass i 2 = −1 gilt, so sind beide Definitionen zwingend!!<br />

Beispiel. (5 + 2i) + (3 − 7i) = 8 − 5i <strong>und</strong> (5 + 2i) · (3 − 7i) =<br />

Man rechnet mit viel Schreibarbeit nach, dass die Körperaxiome erfüllt sind. Wir geben<br />

nur das multiplikative Inverse von a + bi ∈ C \ {0} an:<br />

(a + bi) −1 =<br />

a − bi<br />

(a + bi)(a − bi) = a<br />

a 2 + b + −b<br />

2 a 2 + b i 2<br />

Das ist wohldefiniert, denn a 2 + b 2 = 0 ⇐⇒ a = b = 0.<br />

Bemerkung. Merke Sie sich nicht die Formel <strong>für</strong> das Inverse, son<strong>der</strong>n die Art wie sie<br />

hergeleitet wird.<br />

Beispiel. (3 − √ 2i) −1 =<br />

Wo ist das Problem?<br />

1<br />

3 − √ 2i =<br />

Die „Zahl“ i fällt vom Himmel. Es ist nicht klar, wo sie herkommt <strong>und</strong> ob sich evtl.<br />

Wi<strong>der</strong>sprüche ergeben. Dass man nicht beliebig definieren kann zeigt folgen<strong>der</strong> Versuch.<br />

Wir wollen die Gleichung 0 · j = 1 lösen. Geht das? Wenn das Distributivgesetz gelten<br />

soll, dann hat man<br />

Das ist ein Wi<strong>der</strong>spruch!<br />

1 = 0 · j = (0 + 0) · j = 0 · j + 0 · j = 1 + 1 = 2.<br />

Auch mit Kommutativ- <strong>und</strong> Assoziativgesetz ergibt sich ein Wi<strong>der</strong>spruch:<br />

1 = 0j = (0a)j = 0(aj) = 0(ja) = (0j)a = 1a = a <strong>für</strong> alle a ∈ R.<br />

Aus diesem Gr<strong>und</strong> muss man vorsichtiger vorgehen:<br />

4


(9.1) Definition. Man setzt C := R × R <strong>und</strong> definiert<br />

(a, b) + (c, d) := (a + c, b + d)<br />

(a, b) · (c, d) := (ac − bd, ad + bc).<br />

(C, +, · ) heißt Körper <strong>der</strong> komplexen Zahlen.<br />

Bemerkung. Hier ist klar, dass „ +“ <strong>und</strong> „ ·“ Verknüpfungen auf C sind, also Abbildungen<br />

C × C → C.<br />

Man erkennt, dass (0, 0) das neutrale Element <strong>der</strong> Addition <strong>und</strong> (1, 0) das neutrale<br />

Element <strong>der</strong> Multiplikation ist. Außerdem gilt (0, 1) 2 = (0, 1) · (0, 1) = (−1, 0).<br />

Die Elemente (u, 0) verhalten sich genau wie reelle Zahlen. Präziser:<br />

(u, 0) + (v, 0) = (u + v, 0) <strong>und</strong> (interessanter) (u, 0) · (v, 0) = (uv, 0)<br />

Bemerkung. Noch genauer: Die Abbildung R → C; u ↦→ (u, 0) ist ein injektiver Ring-<br />

Homomorphismus. Was bedeutet das?<br />

Daher wird das Element <strong>der</strong> Form (u, 0) mit <strong>der</strong> reellen Zahl u identifiziert. Etwas<br />

plakativ ausgedrückt: Wir schreiben statt (u, 0) kurz u. Setzt man weiter i := (0, 1)<br />

(wir haben i jetzt definiert!!), so erhält man<br />

(a, b) = (a, 0) + (0, b) = a + (b, 0) · (0, 1) = a + bi.<br />

Damit haben wir die historische Darstellung wie<strong>der</strong>gef<strong>und</strong>en <strong>und</strong> gleichzeitig das anfanges<br />

beschriebene Vorgehen gerechtfertigt.<br />

Wir fassen zusammen<br />

(9.2) (C, +, · ) bildet einen Körper, <strong>der</strong> den Körper <strong>der</strong> reellen Zahlen enthält.<br />

Beweis. Die neutralen Elemente wurden oben angegeben, ebenso das Inverse bezüglich<br />

<strong>der</strong> Multiplikation. Wie sieht das Inverse bezüglich <strong>der</strong> Addition aus?<br />

Die Kommutativgesetze <strong>für</strong> Addition <strong>und</strong> Multiplikation sind offensichtlich.<br />

Assoziativgesetz <strong>der</strong> Addition (in <strong>der</strong> Paar-Schreibweise):<br />

(<br />

)<br />

(a 1 , a 2 ) + (b 1 , b 2 ) + (c 1 , c 2 )<br />

) (<br />

)<br />

=<br />

((a 1 + b 1 ) + c 1 , (a 2 + b 2 ) + c 2 = a 1 + (b 1 + c 1 ), a 2 + (b 2 + c 2 )<br />

(<br />

)<br />

= (a 1 , a 2 ) + (b 1 , b 2 ) + (c 1 , c 2 ) .<br />

Dabei wird nur das Assoziativgesetz <strong>der</strong> Addition in R benutzt.<br />

5


Assoziativgesetz <strong>der</strong> Multiplikation:<br />

(<br />

)<br />

(a 1 + a 2 i)(b 1 + b 2 i) (c 1 + c 2 i)<br />

= a 1 b 1 c 1 − a 2 b 2 c 1 − a 2 b 1 c 2 − a 1 b 2 c 2 + (a 1 b 1 c 2 + a 1 b 2 c 1 + a 2 b 1 c 1 − a 2 b 2 c 2 )i<br />

(<br />

)<br />

= (a 1 + a 2 i) (b 1 + b 2 i)(c 1 + c 2 i) .<br />

Das Distributivgesetz kann analog nachgerechnet werden. Wir werden später einen eleganteren<br />

Beweis sehen.<br />

<br />

Bemerkung. Die Definition <strong>der</strong> Menge C als R 2 führt direkt auf eine geometrische<br />

Deutung <strong>der</strong> komplexen Zahlen. Man kann komplexe Zahlen als Punkte <strong>der</strong> Anschauungsebene<br />

interpretieren. Insbeson<strong>der</strong>e ist die Addition komplexer Zahlen genau die<br />

Addition <strong>der</strong> „Vektoren“.<br />

Wichtige Gr<strong>und</strong>begriffe<br />

(9.3) Definition. Gegeben sei die komplexe Zahl z = a + bi.<br />

◦ a heißt Realteil, b heißt Imaginärteil von z . Man schreibt a = Re z <strong>und</strong> b = Im z .<br />

◦ z := a − bi heißt die komplex Konjugierte von z .<br />

◦ Die Abbildung<br />

: C → C ; z ↦→ z wird komplex Konjugieren genannt.<br />

◦ |z| := √ a 2 + b 2 heißt <strong>der</strong> (Absolut-)Betrag von z .<br />

VORSICHT. Der Imaginärteil ist eine reelle Zahl! Im(a + bi) = b nicht etwa bi.<br />

(9.4) Bemerkung. 1.) In <strong>der</strong> „richtigen“ Definition sind Real- <strong>und</strong> Imaginärteil einfach<br />

die x- bzw. y-Koordinate. Eine komplexe Zahl z ist genau dann reell, wenn <strong>der</strong><br />

Imaginärteil Im z = 0 ist.<br />

2.) Geometrisch ist das komplex Konjugieren eine Spiegelung an <strong>der</strong> x-Achse.<br />

Insbeson<strong>der</strong>e ist eine komplexe Zahl z genau dann reell, wenn z = z .<br />

3.) Es gilt offenbar z · ¯z = |z| 2 (Nachrechnen!).<br />

4.) Der Betrag |z| gibt den Abstand von z ∈ C vom Nullpunkt an (Satz des Pythagoras).<br />

5.) Allgemeiner ist |z 2 − z 1 | <strong>der</strong> Abstand zwischen den komplexen Zahlen z 1 <strong>und</strong> z 2 .<br />

6.) Ist z ∈ C eine reelle Zahl, so stimmt die Definition des Betrags aus § 8 mit <strong>der</strong> hier<br />

gegeben überein. Es ist ja z = a + 0i, also |z| = √ a 2 = |a|.<br />

7.) Sei x 2 + px + q eine Polynom mit nicht-reeller Nullstelle α, dann ist ᾱ die an<strong>der</strong>e<br />

Nullstelle. Komplexe Nullstellen treten also in Paaren komplex Konjugierter auf.<br />

Das komplex Konjugierte hat eine wichtige Eigenschaft, die wir schon in § 5 kennengelernt<br />

haben.<br />

6


(9.5) Für alle z, w ∈ C gilt<br />

z = z, z + w = z + w <strong>und</strong> z · w = z · w.<br />

Beweis. Wir rechnen nur die dritte Formel nach. Dabei scheiben wir z = x + yi <strong>und</strong><br />

w = a + bi<br />

z · w = (xa − yb) + (xb + ya)i = (xa − yb) − (xb + ya)i<br />

= (x − yi)(a − bi) = z · w. <br />

(9.6) Bemerkung. Der Satz besagt, dass komplexes Konjugieren ein Homomorphismus<br />

bezüglich <strong>der</strong> Addition <strong>und</strong> <strong>der</strong> Multiplikation ist. Außerdem ist es eine bijektive<br />

Abbildung. Welches ist die inverse Abbildung?<br />

Man spricht von einem Automorphismus des Körpers. Diese Abbildung erhält nämlich<br />

die Struktur von C.<br />

Homomorphismen (also „Strukturerhaltende“ Abbildungen) sind uns im letzten Semester<br />

schon öfter begegnet, <strong>und</strong> sie werden uns auch in Zukunft immer wie<strong>der</strong> begegnen, z. B.<br />

auch im folgenden Satz — an welcher Stelle?<br />

Wir notieren wichtige Eigenschaften des absoluten Betrags <strong>für</strong> komplexe Zahlen. Es sind<br />

dieselben Eigenschaften, die wir <strong>für</strong> reelle Zahlen in (8.4) kennengelernt haben.<br />

(9.7) Für alle z 1 , z 2 ∈ C gilt:<br />

(1) |z 1 | ≥ 0; |z 1 | = 0 gilt genau dann, wenn z 1 = 0.<br />

(2) |z 1 z 2 | = |z 1 | |z 2 |<br />

∣ (3)<br />

z 1 ∣∣∣<br />

∣ = |z 1|<br />

(z 2 ≠ 0)<br />

z 2 |z 2 |<br />

(4) |z 1 + z 2 | ≤ |z 1 | + |z 2 | (Dreiecksungleichung)<br />

(5) |z 1 − z 2 | ≥ |z 1 | − |z 2 |.<br />

Beweis. (1) ist klar.<br />

(2) Mit (9.4.3) rechnet man<br />

|z 1 z 2 | = √ z 1 z 2 z 1 z 2 =<br />

√<br />

z 1 z }{{} 1 · z 2 z }{{} 2<br />

∈R ≥0<br />

∈R ≥0 !<br />

(3) <strong>und</strong> (5) wie im Beweis zu (5.24) <strong>und</strong> (8.4).<br />

= √ z 1 z 1<br />

√<br />

z2 z 2 = |z 1 | |z 2 | .<br />

(4) soll hier nicht ausgeführt werden. <br />

7


(9.8) Bemerkung. 1.) Der Name Dreiecksungleichung hat einen geometrischen Hintergr<strong>und</strong>.<br />

In einem Dreieck ist die Summe <strong>der</strong> Längen zweier Seiten immer mindestens<br />

so groß wie die Länge <strong>der</strong> dritten Seite. Daher findet man die Dreiecksungleichung<br />

auch in <strong>der</strong> Gestalt<br />

|z 1 − z 3 | ≤ |z 1 − z 2 | + |z 2 − z 3 | <strong>für</strong> alle z 1 , z 2 , z 3 ∈ C.<br />

2.) Die Aussagen (1) – (3) kann man auch so ausdrücken:<br />

Die Abbildung C → R ≥0 ; z ↦→ |z| ist ein Homomorphismus.<br />

Wie wir wissen, sind Q <strong>und</strong> R angeordnete Körper. Dies gilt <strong>für</strong> C nicht:<br />

(9.9) Es gibt keine Ordnungsrelation auf C, die die Monotoniegesetze erfüllt.<br />

Beweis. Angenommen, ≤ ist eine Ordnungsrelation auf C, die die Montoniegesetze<br />

erfüllt. Aus (8.3.3) folgt 0 < i 2 = −1. Da aber nach (6.3.4) auch 0 < 1 gilt, folgt<br />

0 + 0 < (−1) + 1 = 0 — ein Wi<strong>der</strong>spruch. <br />

Polarkoordinaten<br />

Wir haben gesehen, dass wir die komplexen Zahlen als Punkte <strong>der</strong> Anschauungsebene<br />

auffassen können. Carl Friedrich Gauß (1777–1855) war <strong>der</strong> erste, <strong>der</strong> diese Interpretation<br />

benutzt hat, daher spricht man von <strong>der</strong> Gaußschen Zahlenebene.<br />

Weil i die Einheitsstrecke auf <strong>der</strong> imaginären Achse (d. i. die y-Achse) definiert, wird<br />

i auch imaginäre Einheit genannt. Die x-Achse heißt dann auch reelle Achse.<br />

Das nächste Ziel ist eine geometrische Deutung <strong>der</strong> Multiplikation komplexer Zahlen.<br />

Beispiel. Wir betrachten die Abbildung δ : C → C; z ↦→ iz . Es stellt sich heraus, dass<br />

δ eine Drehung um 90 ◦ um den Ursprung ist.<br />

Es sei z = a + ib ≠ 0 eine komplexe Zahl, r = |z| sei <strong>der</strong> Betrag von z , d. h. <strong>der</strong><br />

Abstand von z zum Koordinatenursprung. Mit ϕ bezeichnen wir den Winkel zwischen<br />

<strong>der</strong> positiven x-Achse <strong>und</strong> dem „Vektor“ z , gemessen im mathematisch positiven Sinn,<br />

d. h. entgegen des Uhrzeigersinns. Wir können ϕ in Grad o<strong>der</strong> im Bogenmaß angeben.<br />

Falls Sie es nicht aus Ihrer Schulzeit wissen: Das Bogenmaß eines Winkels α ∈ [0 ◦ , 360 ◦ [<br />

ist die Länge des zugehörigen Einheitskreisbogens.<br />

Beispiel. Zum Winkel 90 ◦ gehört das Bogenmaß π . Welche Gradzahl gehört zu 2π?<br />

2<br />

Ab jetzt werden wir Winkel weitgehend im Bogenmaß angeben.<br />

Zwischen ϕ, r, a <strong>und</strong> b besteht <strong>der</strong> Zusammenhang 1<br />

cos ϕ = a r<br />

<strong>und</strong> sin ϕ = b r<br />

=⇒ z = a + ib = r cos ϕ + i r sin ϕ = r(cos ϕ + i sin ϕ)<br />

1 Wir verzichten auf eine exakte Einführung <strong>der</strong> Winkelfunktionen <strong>und</strong> benutzen die in <strong>der</strong> Schule<br />

übliche Definition.<br />

8


Diese Beziehung gilt <strong>für</strong> alle a, b ∈ R (nicht beide Null).<br />

(9.10) Beispiele. 1.) z = 4 − 3i: Es ist r = 5, cos ϕ = 4, sin ϕ = − 3 5 5<br />

bzw. ϕ ≈ 5.637.<br />

2.) ϕ = 3π, r = 2√ 2: Dann ist<br />

4<br />

a = r cos ϕ = 2 √ ( √ )<br />

2<br />

2 · − = −2 <strong>und</strong><br />

2<br />

b = r sin ϕ = 2 √ √<br />

2<br />

2 ·<br />

2 = 2<br />

Damit ist z = −2 + 2i.<br />

=⇒ ϕ ≈ 323◦<br />

Definition. Man nennt das Paar (r, ϕ) die Polarkoordinaten des Punktes bzw. <strong>der</strong><br />

komplexen Zahl z , wenn z = r(cos ϕ + i sin ϕ).<br />

Der Winkel ϕ wird auch das Argument von z genannt.<br />

Man beachte, dass ϕ im Fall z = 0 beliebig ist!<br />

Bemerkung. Koordinatenangaben durch Winkelgrößen sind beispielsweise in <strong>der</strong> Geografie<br />

üblich, die Lage eines Ortes wird durch zwei Winkel festgelegt.<br />

Hamburg hat z. B. die Koordinaten 9 ◦ 59 ′ östlicher Länge <strong>und</strong> 53 ◦ 33 ′ nördlicher Breite;<br />

Berlin hat 13.4 ◦ östliche Länge <strong>und</strong> 52.5 ◦ nördliche Breite.<br />

Da <strong>der</strong> Einheitskreis in beiden Richtungen auch mehrfach durchlaufen werden kann<br />

(Winkel werden „modulo 2π“ gemessen), sind die Winkelfunktionen Sinus <strong>und</strong> Cosinus<br />

<strong>für</strong> jede reelle Zahl definiert, als Bil<strong>der</strong> kommen nur Werte aus dem Intervall [−1, 1] in<br />

Frage, also<br />

sin : R → [−1, 1] <strong>und</strong> cos : R → [−1, 1].<br />

y<br />

1<br />

-1 1 2 3 4 5 6 7 8 9<br />

-1<br />

x<br />

9


Fragen: Welche <strong>der</strong> beiden Kurven stellt die Sinusfunktion dar? Ist sie injektiv o<strong>der</strong><br />

surjektiv?<br />

Wir fassen einige (bekannte) Eigenschaften <strong>der</strong> Funktionen sin <strong>und</strong> cos zusammen, die<br />

wir brauchen werden. Bewiesen werden sie im nächsten Semester.<br />

(9.11) Für alle x, y ∈ R gilt<br />

(1) sin(−x) = − sin x <strong>und</strong> cos(−x) = cos x.<br />

(2) sin(x + y) = sin x cos y + cos x sin y <strong>und</strong> cos(x + y) = cos x cos y − sin x sin y.<br />

Die Formeln in (2) werden Additionstheoreme <strong>für</strong> Sinus <strong>und</strong> Cosinus genannt.<br />

Zurück zur Multiplikation komplexer Zahlen!<br />

(9.12) Es sei z 1 = r 1 (cos ϕ 1 + i sin ϕ 1 ) <strong>und</strong> z 2 = r 2 (cos ϕ 2 + i sin ϕ 2 ). Für das Produkt<br />

z 1 · z 2 gilt dann:<br />

)<br />

z 1 z 2 = r 1 r 2<br />

(cos(ϕ 1 + ϕ 2 ) + i sin(ϕ 1 + ϕ 2 ) .<br />

Beweis. Das folgt direkt aus den Additionstheoremen:<br />

z 1 z 2 = r 1 (cos ϕ 1 + i sin ϕ 1 ) · r 2 (cos ϕ 2 + i sin ϕ 2 )<br />

)<br />

= r 1 r 2<br />

(cos ϕ 1 cos ϕ 2 − sin ϕ 1 sin ϕ 2 + i(cos ϕ 1 sin ϕ 2 + sin ϕ 1 cos ϕ 2 )<br />

)<br />

= r 1 r 2<br />

(cos(ϕ 1 + ϕ 2 ) + i sin(ϕ 1 + ϕ 2 )<br />

Formuliert man das Ergebnis in Worten, so erhält man die<br />

. <br />

Geometrische Interpretation <strong>der</strong> Multiplikation komplexer Zahlen: Bei <strong>der</strong> Multiplikation<br />

komplexer Zahlen werden die Beträge multipliziert <strong>und</strong> die Winkel addiert.<br />

Nochmal das<br />

Beispiel. δ : C → C ; z ↦→ iz : Ist z = r(cos ϕ + i sin ϕ), so folgt<br />

( (<br />

iz = r cos ϕ + π ) (<br />

+ i sin ϕ + π ) ) .<br />

2<br />

2<br />

Das ist tatsächlich eine Drehung um π 2<br />

Frage: Wie kann man eine Drehung um π 3<br />

um 0.<br />

realisieren?<br />

Wir schreiben jetzt zur Abkürzung (<strong>und</strong> als Vorgriff auf Erkenntnisse des kommenden<br />

Semesters)<br />

e iϕ = cos ϕ + i sin ϕ <strong>für</strong> ϕ ∈ R.<br />

Mit z ↦→ e z ist wirklich die Exponentialfunktion gemeint, die Sie aus <strong>der</strong> Schule <strong>für</strong><br />

reelle Argumente kennen (sollten!). Bei richtiger Definition aller beteiligter Funktionen<br />

lässt sich diese Eulersche Formel beweisen.<br />

Mit dieser Bezeichnung folgt direkt aus (9.12)<br />

10


(9.13) e i(ϕ+ψ) = e iϕ · e iψ . <br />

Diese Formel kennen Sie <strong>für</strong> die reelle Exponentialfunktion in <strong>der</strong> Form e iϕ+iψ = e iϕ ·e iψ .<br />

Beachten Sie, dass diese Schreibweise noch keinen Sinn macht!<br />

Wir untersuchen jetzt wie komplex Konjugieren, Invertieren <strong>und</strong> Bilden von Potenzen<br />

in Polarkoordinaten aussehen.<br />

(9.14) Sei z = re iϕ ∈ C <strong>und</strong> k ∈ Z. Dann gilt<br />

¯z = re i(−ϕ) , z −1 = r −1 e i(−ϕ) , <strong>und</strong> z k = r k e ikϕ .<br />

Beweis. ¯z = ¯r · (cos ϕ − i sin ϕ) ! = r · (cos(−ϕ) + i sin(−ϕ)) = re i(−ϕ) mit (9.11.1).<br />

z −1 = 1 z = 1<br />

z¯z ¯z = 1 r 2 rei(−ϕ) = r −1 e i(−ϕ) .<br />

Für k = 0 <strong>und</strong> k = 1 ist die Behauptung klar; k ≥ 2 folgt sie mit Induktion aus (9.12).<br />

Es sei nun k < 0. Dann gilt mit dem bereits gezeigten<br />

z k =<br />

(z −1 ) −k<br />

=<br />

(<br />

r −1 e i(−ϕ) ) −k<br />

= r (−1)(−k) e i(−k(−ϕ)) = r k e ikϕ .<br />

Mit Hilfe des letzten Satzes können wir alle komplexen Lösungen <strong>der</strong> Gleichung z n = 1<br />

konstruieren: Man zeichne in den Einheitskreis ein regelmäßiges n–Eck mit einer Ecke<br />

in (1, 0). Genau jede <strong>der</strong> n Ecken liefert uns eine Lösung.<br />

Beispiel. n = 4 =⇒ z 1 = 1, z 2 = i, z 3 = −1, z 4 = −i.<br />

Algebraisch ausgedrückt, sieht die Menge E n <strong>der</strong> Lösungen <strong>der</strong> Gleichung z n = 1 wie<br />

folgt aus<br />

{<br />

}<br />

E n = e i k n 2π ; k ∈ {0, . . . , n − 1} .<br />

Vgl. das mit dem Beispiel.<br />

(9.15) Bemerkung. (E n , · ) bildet eine Gruppe, die Gruppe <strong>der</strong> n-ten Einheitswurzeln.<br />

Vgl. dazu die Übungen.<br />

In analoger Weise können auch Gleichungen <strong>der</strong> Art z n = a + ib gelöst werden.<br />

Aufgabe : Sei n ∈ N <strong>und</strong> z = a + ib ∈ C gegeben, gesucht sind alle z k mit z n k = a + ib.<br />

Lösung : Wir suchen z k = r k e iϕ k mit z<br />

n<br />

k = r n k einϕ k = a + ib = re iϕ .<br />

1. Alle Lösungen haben die gleiche Länge r k = n√ r.<br />

2. Eine Lösung ist einfach anzugeben: z 0 = n√ re i 1 n ϕ .<br />

<br />

11


3. Sämtliche Lösungen sind Ecken eines regelmäßigen n–Ecks, eingezeichnet in den Kreis<br />

um den Ursprung mit Radius n√ r <strong>und</strong> einer Ecke in z 0 .<br />

4. Die Lösungen sind z k = z 0 e i k n 2π = n√ re i( ϕ n +k 2π n ) <strong>für</strong> k = 0, . . . , n − 1.<br />

(<br />

)<br />

Beispiel. z 3 = 2i = 2 cos π + i sin π . Gemäß 2. ist<br />

2 2<br />

z 0 = 3√ (<br />

2 cos π 6 + i sin π )<br />

= 3√ ( ) 1 √ 1<br />

2 3 +<br />

6 2 2 i .<br />

Als weitere Lösungen erhält man<br />

z 1 = 3√ 2<br />

(cos( π 6 + 2π 3 ) + i sin(π 6 + 2π )<br />

3 ) = 3√ (<br />

2 − 1 )<br />

√ 1 3 +<br />

2 2 i<br />

z 2 = 3√ 2<br />

(cos( π 6 + 2 · 2π 3 ) + i sin(π 6 + 2 · 2π )<br />

3 ) = − 3√ 2 · i<br />

(9.16) Bemerkung. Man nennt die Gleichung (cos ϕ+i sin ϕ) m = cos(mϕ)+i sin(mϕ),<br />

m ∈ Z auch Moivresche Formel. In unserer abkürzenden Schreibweise lautet sie<br />

(<br />

e<br />

iϕ ) m<br />

= e i(mϕ) .<br />

Polynome<br />

Wir befassen uns im Folgenden mit Polynomen über einem beliebigen Körper K . Sie<br />

sollten dabei vor allem an Q, R <strong>und</strong> C denken. Die Aussagen gelten aber (im Wesentlichen)<br />

auch z.B. <strong>für</strong> Z p mit einer Primzahl p.<br />

Ein Polynom über dem Körper K (es darf auch ein Ring sein!) ist ein Ausdruck <strong>der</strong><br />

Form<br />

n∑<br />

f = a n x n + a n−1 x n−1 + · · · + a 1 x + a 0 = a k x k mit a k ∈ K .<br />

Dabei wird x als Variable aufgefasst, <strong>für</strong> die man beliebige Elemente aus K (o<strong>der</strong><br />

auch Elemente eines K umfassenden Körpers) einsetzen kann. Die a k werden Koeffizienten<br />

des Polynoms genannt. Sind alle Koeffizienten = 0, so spricht man vom<br />

Nullpolynom <strong>und</strong> schreibt f = 0.<br />

Im Fall a n ≠ 0 nennt man n den Grad von f . Wir schreiben kurz Grad(f) = n.<br />

Der Koeffizient a n heißt dann auch Leitkoeffizient. Der Grad des Nullpolynoms wird<br />

−∞ gesetzt. Einen Leitkoeffizienten besitzt das Nullpolynom nicht. Ein Polynom heißt<br />

konstant, wenn <strong>der</strong> Grad 0 o<strong>der</strong> −∞ ist. Es ist dann f = a 0 <strong>und</strong> Einsetzen liefert in<br />

jedem Fall a 0 , eben eine Konstante.<br />

Die Menge aller Polynome über K wird mit K[x] bezeichnet.<br />

Bemerkung. Gelegentlich benutzen wir auch an<strong>der</strong>e Namen <strong>für</strong> die Variable, z.B. z<br />

o<strong>der</strong> t. Dann schreiben wir auch K[z] o<strong>der</strong> K[t].<br />

k=0<br />

12


(9.17) Beispiele. 1.) f := 2x 3 + 4x 2 + x − 7 ∈ R[x] ist ein Polynom über R mit<br />

Grad(f) = 3 <strong>und</strong> Leitkoeffizient 2. Es kann aber sogar als Polynom über Z aufgefasst<br />

werden. Wir setzen einige Werte ein:<br />

f(1) = . . . , f( √ 2) = . . . , f(i) = . . .<br />

2.) g := z 2 +2(1+i)z+i ist ein Polynom über C. Es gilt Grad(f) = 2. Der Leitkoeffizient<br />

ist 1.<br />

3.) Sei K = Z 5 , dann ist x 3 + [3]x 2 + [2]x + [4] ein Polynom über K .<br />

Zu einem Polynom f ∈ K[x] mit K ∈ {Z, Q, R, C} heißt jedes Element α ∈ C Nullstelle,<br />

wenn f(α) = 0. An dieser Stelle sei betont, dass α nicht aus K stammen muss.<br />

Beispiel (Fortsetzung von (9.17)). 1.) Man erkennt, dass 1 Nullstelle des Polynoms<br />

f ist. Eine einfache Rechnung zeigt, dass auch − 3 √<br />

5<br />

2 ± i Nullstellen sind. Gibt es<br />

2<br />

weitere?<br />

2.) Wir bestimmen die Nullstellen von g mit quadratischer Ergänzung:<br />

z 2 + 2(1 + i)z + i = z 2 + 2(1 + i)z + (1 + i) 2 + i − (1 + i) 2<br />

⇐⇒ (z + (1 + i)) 2 = i.<br />

= (z + (1 + i)) 2 − i ! = 0<br />

Gesucht sind also komplexe Zahlen mit w 2 = i. Dazu nutzen wir die Polarzerlegung<br />

von i. Es gilt nämlich<br />

i = e i π 2 =⇒ w 1 = e i π π<br />

4 = cos<br />

4 + i sin π √ √<br />

2 2<br />

4 = 2 + 2 i<br />

√ √<br />

w 2 = e i( π 2 2<br />

4 +π) = −w 1 = −<br />

2 − 2 i<br />

Insgesamt ergeben sich die beiden Nullstellen zu<br />

√ √ √ √<br />

2 2 2 − 2 2 − 2<br />

z 1 = −(1 + i) +<br />

2 + 2 i = + i<br />

√ √ √<br />

2<br />

√<br />

2<br />

2 2 2 + 2 2 + 2<br />

z 2 = −(1 + i) −<br />

2 − 2 i = − − i<br />

2 2<br />

3.) [1] ∈ Z 5 ist Nullstelle des Polynoms x 3 + [3]x 2 + [2]x + [4] ∈ Z 5 [x].<br />

Bemerkung. Ähnlich wie in 2.) kann man die Nullstellen jeden quadratischen Polynoms<br />

über C finden.<br />

Man kann Polynome addieren <strong>und</strong> multiplizieren. Da diese Verknüpfungen mit dem<br />

Einsetzen verträglich sein sollen, ergeben sich folgende Regeln. Es seien f = ∑ n<br />

k=0 a kx k<br />

13


<strong>und</strong> g = ∑ m<br />

k=0 b kx k , dann sei<br />

f + g :=<br />

f · g :=<br />

∑<br />

max(n,m)<br />

k=0<br />

n+m<br />

∑<br />

k=0<br />

⎛<br />

⎝<br />

(a k + b k )x k <strong>und</strong><br />

k∑<br />

l=0<br />

a l b k−l<br />

⎞<br />

⎠ x k<br />

Diese Formeln ergeben sich durch distibutives Ausmultiplizieren <strong>und</strong> Sammeln aller Terme<br />

mit dem gleichen Grad.<br />

Beispiel. (a 3 x 3 + a 2 x 2 + a 1 x + a 0 ) · (b 2 x 2 + b 1 x + b 0 ) = . . .<br />

Es gilt<br />

(9.18) Satz. (K[x], +, · ) ist ein Ring.<br />

Der Beweis ist etwas länglich aber nicht schwer. Er kann hier <strong>der</strong> geneigten Leserin<br />

überlassen werden. Aus <strong>der</strong> Definition ergibt sich direkt <strong>der</strong><br />

(9.19) Gradsatz. Für Polynom f, g ∈ K[x] gilt<br />

Grad(f + g) ≤ max ( Grad(f), Grad(g) ) <strong>und</strong> Grad(f · g) = Grad(f) + Grad(g).<br />

Der Leitkoeffizient von f · g ist das Produkt <strong>der</strong> Leitkoeffizienten von f <strong>und</strong> g.<br />

Von f<strong>und</strong>amentaler Bedeutung ist (wie <strong>für</strong> Z) die<br />

(9.20) Division mit Rest. Es seien f, g ∈ K[x] mit g ≠ 0, dann existieren eindeutig<br />

bestimmte Polynome q, r ∈ K[x] mit f = q · g + r <strong>und</strong> Grad(r) < Grad(g).<br />

Beweis. Existenz: Wir betrachten die Menge M := { f − h · g ; h ∈ K[x] } <strong>und</strong> wählen<br />

daraus ein Element r ∈ M mit möglichst kleinem Grad. Es gilt dann r = f − q · g<br />

mit q ∈ K[x]. Angenommen, k = Grad r ≥ m = Grad g ≥ 0. Es seien u k <strong>und</strong> b m die<br />

Leitkoeffizienten von r bzw. g. Wir betrachen das Polynom<br />

(<br />

)<br />

s := r − b −1<br />

m u k x k−m · g = f − q · g − b −1<br />

m u k x k−m · g = f − q + b −1<br />

m u k x k−m · g ∈ M.<br />

Nun gilt aber nach Konstruktion Grad s < k<br />

von r.<br />

<strong>und</strong> das ist ein Wi<strong>der</strong>spruch zur Wahl<br />

Eindeutigkeit: Es sei f = q ′ · g + r ′ mit Polynomen q ′ , r ′ aus <strong>und</strong> Grad r ′ < Grad g.<br />

Dann gilt<br />

q · g + r = q ′ · g + r ′ ⇐⇒ (q − q ′ ) · g = r ′ − r.<br />

Wäre q ≠ q ′ , also q − q ′ ≠ 0, so folgte mit (9.19) Grad(r ′ − r) < Grad(g) aber<br />

Grad((q − q ′ ) · g) = Grad(q − q ′ ) + Grad(g) ≥ Grad(g);<br />

ein Wi<strong>der</strong>spruch. Gilt aber q = q ′ , so folgt direkt r = r ′ .<br />

<br />

<br />

14


Bemerkung. Der Beweis läuft sehr ähnlich zum Beweis von (6.3) <strong>für</strong> Z. Es gibt viele<br />

Analogien zwischen den Ringen Z <strong>und</strong> K[x].<br />

Ein <strong>der</strong> wichtigsten Anwendungen ist das Abspalten von Linearfaktoren. So wird das<br />

Polynom x − α aus dem folgenden Satz genannt.<br />

(9.21) Satz. Es sei f ∈ K[x] ein Polynom mit <strong>der</strong> Nullstelle α. Dann existiert ein<br />

Polynom g mit f = g · (x − α). Es gilt Grad(g) = Grad(f) − 1.<br />

Beweis. Im Fall f = 0 ist die Aussage trivial: g = 0.<br />

An<strong>der</strong>nfalls führen wir eine Division mit Rest durch. Es existieren also Polynome g, r<br />

mit f = g · (x − α) + r <strong>und</strong> Grad(r) < 1. Dann gilt also r = r 0 ∈ K . Weiter gilt<br />

0 = f(α) = g(α) · (α − α) + r 0 = g(α) · 0 + r 0 = r 0 .<br />

Das zeigt die Behauptung.<br />

<br />

(9.22) Bemerkung. Der Beweis zeigt auch eine Methode, wir man sukzessiv Nullstellen<br />

eines Polynoms f bestimmt.<br />

1. Nullstelle finden<br />

2. durch Polynomdivision Linearfaktor abspalten f = g · (x − ...)<br />

3. weiter mit g<br />

Das Verfahren bricht ab, weil Grad(g) < Grad(f).<br />

Die eigentliche Schwierigkeit ist <strong>der</strong> erste Schritt! Hier helfen über R o<strong>der</strong> C in den<br />

meisten Fällen nur Näherungsverfahren.<br />

(9.23) Folgerung. Jedes Polynom f ≠ 0 hat höchsten Grad(f) Nullstellen.<br />

Beweis. Induktion nach Grad(f) unter Verwendung von (9.21).<br />

<br />

Beispiel. Wir bestimmen die Nullstellen des Polynoms x 3 − x 2 − x + 1.<br />

(9.24) Bemerkung. 1.) Es sei f ein Polynom mit <strong>der</strong> Nullstelle α. Man sagt α sei<br />

eine k-fache Nullstelle, k ∈ N, wenn es ein Polynom g gibt mit f = g · (x − α) k<br />

<strong>und</strong> g(α) ≠ 0.<br />

2.) Die Zahl k heißt die Vielfachheit <strong>der</strong> Nullstelle α. Man sagt auch, man könne den<br />

Linearfaktor (x − α) k-mal abspalten.<br />

Den vielleicht bedeutendsten Satz über die komplexen Zahlen werden wir lei<strong>der</strong> nicht beweisen<br />

können. Wir haben gesehen, dass alle quadratischen Polynome <strong>und</strong> alle Polynome<br />

<strong>der</strong> Form z n − w in C Nullstellen besitzen. Es gilt <strong>der</strong> sehr viel weiter reichende<br />

(9.25) F<strong>und</strong>amentalsatz <strong>der</strong> Algebra. Jedes nicht konstante Polynom mit Koeffizienten<br />

aus C hat mindestens eine Nullstelle in C.<br />

15


Beweis. Siehe [Hen03, 4.4].<br />

<br />

Wendet man nun (9.22) mehrfach an, so erhält man<br />

(9.26) Folgerung. Jedes nicht konstante Polynom f ∈ C[x] besitzt eine eindeutig bestimmte<br />

Darstellung <strong>der</strong> Form f = a n (x−α 1 )·· · ··(x−α n ), wobei a n <strong>der</strong> Leitkoeffizient<br />

von f ist, <strong>und</strong> α k ∈ C die (evtl. mehrfach gezählte) Nullstellen von f .<br />

<br />

Bemerkung. 1.) Man sagt auch: Jedes Polynom über C lässt sich in Linearfaktoren<br />

zerlegen.<br />

2.) Diese Zerlegung ist analog zur Primfaktorzerlegung <strong>für</strong> ganze Zahlen.<br />

Der schönste Satz<br />

Im Jahre 1990 wurde in <strong>der</strong> Zeitschrift The Mathematical Intelligencer eine Rangliste<br />

<strong>der</strong> schönsten Sätze <strong>der</strong> <strong>Mathematik</strong> veröffentlicht. Sie ging aus einer Art Umfrage unter<br />

<strong>Mathematik</strong>ern hervor. Mit knappem Vorsprung landete auf dem ersten Platz:<br />

e iπ = −1, häufig auch in <strong>der</strong> Form e iπ + 1 = 0<br />

zu sehen, in <strong>der</strong> die wichtigsten Konstanten <strong>der</strong> <strong>Mathematik</strong> 0, 1, e, π, i zusammenwirken.<br />

16


10 Lineare Gleichungssysteme<br />

Das Lösen linearer Gleichungssysteme gehört zu den wichtigsten Gr<strong>und</strong>aufgaben <strong>der</strong><br />

<strong>Mathematik</strong>. Wir werden uns mit einigen einfachen Lösungsverfahren befassen <strong>und</strong> daran<br />

auch etwas Theorie entwickeln.<br />

Zwei Beispiele<br />

Beispiel 1<br />

Auf die Frage nach ihrem Alter antwortet das ältere zweier Kin<strong>der</strong><br />

• Vor drei Jahren war ich doppelt so alt wie mein Bru<strong>der</strong>;<br />

• In einem Jahr sind wir zusammen zwanzig Jahre alt.<br />

Wie alt sind die Kin<strong>der</strong>?<br />

Wir diskutieren dieses Problem in <strong>der</strong> Vorlesung.<br />

Das Problem hat auch geometrische Interpretationen, die ebenfalls in <strong>der</strong> Vorlesung<br />

beschrieben werden.<br />

Die Rechnung beim Eliminationsverfahren kann man kürzer aufschreiben, indem man<br />

die Variablen weglässt <strong>und</strong> die Koeffizienten in eine Matrix schreibt:<br />

2 −1 3<br />

1 1 18<br />

2 −1 1<br />

3 33<br />

2 −1 1<br />

1 11<br />

So kann man die Lösungen ablesen. Wie?<br />

Beispiel 2<br />

Gesucht sind alle x = (x 1 , x 2 , x 3 ) ∈ R 3 mit<br />

2x 1 + x 2 + x 3 = 5<br />

4x 1 − 6x 2 = −2<br />

−2x 1 + 7x 2 + 2x 3 = 9<br />

In <strong>der</strong> Vorlesung diskutieren wir kurz die verschiedenen Verfahren. Hier benutzen wir<br />

gleich die Matrizenschreibweise um Elimination durchzuführen.<br />

2 1 1 5<br />

4 −6 0 −2<br />

−2 7 2 9<br />

<br />

2 1 1 5<br />

−8 −2 −12<br />

8 3 14<br />

<br />

2 1 1 5<br />

4 1 6<br />

1 2<br />

Hieraus liest man ab:<br />

x 3 = 2, 4x 2 + 2 = 6 =⇒ x 2 = 1 <strong>und</strong> 2x 1 + 1 + 2 = 5 =⇒ x 1 = 1,<br />

sodass x = (1, 1, 2) die Lösung des Systems ist.<br />

17


Der senkrechte Strich in <strong>der</strong> Matrix trennt die Koeffizienten des Gleichungssystems von<br />

<strong>der</strong> rechten Seite. Man spricht daher auch von <strong>der</strong> erweiterten Koeffizientenmatrix<br />

(erweitert um die rechte Seite). Die Koeffizienten sind die Faktoren vor den Unbekannten.<br />

Es ergeben sich folgende<br />

Fragen:<br />

• Wie löst man ein lineares Gleichungssystem?<br />

• ... <strong>und</strong> was ist das eigentlich?<br />

• Wie sehen mögliche Lösungsmengen aus?<br />

• Kann man das alles auch geometrisch deuten?<br />

Das Eliminationsverfahren<br />

Bei <strong>der</strong> Lösung haben wir elementare Zeilenumformungen benutzt.<br />

Definition. Die Operationen<br />

(EZ 1) Multiplikation einer Zeile mit einem Skalar ≠ 0;<br />

(EZ 2) Addition des Vielfachen einer Zeile zu einer An<strong>der</strong>en;<br />

(EZ 3) Vertauschen zweier Zeilen;<br />

auf einem linearen Gleichungssystem heißen elementare Zeilenumformungen.<br />

Es ist ziemlich klar, dass elementare Zeilenumformungen die Lösungsmenge eines linearen<br />

Gleichungssystems nicht än<strong>der</strong>n. Dabei ist beson<strong>der</strong>s wichtig, dass jede dieser<br />

Operationen durch eine Operation desselben Typs rückgängig gemacht werden kann.<br />

Aus dieser Beobachtung ergibt sich ein (vorläufiges) Verfahren, um lineare Gleichungssysteme<br />

zu lösen:<br />

Algorithmus. 1. Wähle eine Zeile in <strong>der</strong> keine Null in <strong>der</strong> ersten Spalte steht <strong>und</strong><br />

vertausche diese Zeile mit <strong>der</strong> ersten.<br />

2. Nutze (EZ 2) mit dieser Zeile, um in allen an<strong>der</strong>en Zeilen in <strong>der</strong> ersten Spalte eine<br />

Null zu erzeugen.<br />

3. Wie<strong>der</strong>hole mit <strong>der</strong> Matrix in <strong>der</strong> die erste Zeile <strong>und</strong> die erste Spalte ignoriert<br />

werden, bis eine Dreiecksform hergestellt ist.<br />

4. Lese — von unten beginnend — die Lösungen ab <strong>und</strong> setze die Werte in die<br />

darüberliegenden Zeilen ein.<br />

Dieses Verfahren heißt Gaußsches Eliminationsverfahren (obwohl es lange vor Gauß<br />

bekannt war!). Der letzte Schritt wird auch Rücksubstitution genannt.<br />

18


Das Eliminationsverfahren funktioniert nicht immer so einfach. Daher müssen wir geeignete<br />

Modifikationen einführen. Das erfolgt auf Seite 21.<br />

Zunächst demonstrieren wir die Schwierigkeiten, die bei unserem Verfahren auftreten<br />

können (<strong>und</strong> wie sie zu lösen sind). Wir benutzen gleich die Form <strong>der</strong> erweiterten Koeffizientenmatrix.<br />

Wer sich unsicher ist, schreibe bitte das lineare Gleichungssystem ausführlich<br />

(mit Variablen) auf. Dabei dürfen rechts konkrete Werte eingesetzt werden.<br />

(10.1) Beispiel. Wir untersuchen das folgende System <strong>für</strong> verschiedene rechte Seiten.<br />

1 1 1<br />

2 2 5<br />

4 4 8<br />

<br />

1 1 1<br />

0 3<br />

0 4<br />

<br />

1 1 1<br />

3<br />

0<br />

Man erkennt, dass die Lösbarkeit von <strong>der</strong> rechten Seite abhängt. In <strong>der</strong> Vorlesung werden<br />

wir einige Fälle durchspielen (Sie können das auch selbst tun!)<br />

Es gibt zwei Fälle: In <strong>der</strong> letzten Zeile steht rechts eine Null. Dann ist die Variable x 3<br />

durch die zweite Gleichung festgelegt. x 2 ist frei, kann also beliebige Werte annehmen<br />

(Parameter!). x 1 ist dann wie<strong>der</strong> festgelegt (abhängig vom Parameter).<br />

Im an<strong>der</strong>en Fall ergibt sich ein Wi<strong>der</strong>spruch — das System hat keine Lösung.<br />

Bemerkung. Schon bei obigem Beispiel mussten wir Schritt 1 des Algorithmus modifizieren:<br />

Mit <strong>der</strong> zweiten Spalte konnte keine Elimination durchgeführt werden; wir<br />

benutzten statt dessen die dritte.<br />

Nun ist es Zeit <strong>für</strong> eine formale<br />

(10.2) Definition. Ein lineares Gleichungssystem ist ein System von Gleichungen<br />

<strong>der</strong> Form<br />

a 11 x 1 + a 12 x 2 + . . . + a 1n x n = b 1<br />

a 21 x 1 + a 22 x 2 + . . . + a 2n x n = b 2<br />

mit a ij , b i ∈ R, n, m ∈ N.<br />

. . . . . . . . .<br />

a m1 x 1 + a m2 x 2 + . . . + a mn x n = b m<br />

Im Fall ∀i ∈ {1, . . . , n} : b i = 0 heißt das System homogen, sonst inhomogen. Die a ij<br />

heißen Koeffizienten.<br />

Eine Lösung ist ein Vektor v = (v 1 , . . . , v n ) ∈ R n , <strong>der</strong> alle Gleichungen erfüllt, wenn<br />

man die Komponenten v i <strong>für</strong> die Variablen x i einsetzt.<br />

(10.3) Bemerkung. 1.) Wenn es mehr als eine Lösung gibt, suchen wir meist nach <strong>der</strong><br />

ganzen Lösungsmenge.<br />

2.) Die Anzahl <strong>der</strong> Gleichungen (hier m) <strong>und</strong> die Anzahl <strong>der</strong> Unbekannten (hier n)<br />

muss nicht übereinstimmen.<br />

19


3.) Das System wird linear genannt, weil alle Variablen x i nur zur ersten Potenz vorkommen.<br />

Die Gleichung x + y = 3 ist linear, die Gleichung x 3 − y 2 = 0 nicht.<br />

4.) Statt R kann man einen beliebigen Körper setzen. Wir werden das in Beispielen tun.<br />

Um alle möglichen Abweichungen von unserem Ausgangs-Algorithmus dar zu legen,<br />

behandeln wir noch ein<br />

(10.4) Beispiel. Gesucht sind alle Lösungen des linearen Gleichungssystems<br />

1 2 −1 −1 2<br />

3 6 1 −1 5<br />

2 4 0 −1 ?<br />

wobei wir <strong>für</strong> das Fragezeichen später konkrete Zahlen einsetzen werden.<br />

Durch elementare Zeilenumformungen erhalten wir<br />

1 2 −1 −1 2<br />

0 0 4 2 −1<br />

0 0 2 1 ??<br />

Der nächste Schritt (Schritt 1 bei <strong>der</strong> Elimination auf S. 18) ist durch erlaubte elementare<br />

Zeilenumformungen nicht möglich, denn in <strong>der</strong> zweiten Spalte stehen nur Nullen.<br />

Wir überspringen daher die zweite Spalte <strong>und</strong> machen mit <strong>der</strong> dritten weiter. So gelangen<br />

mit weiteren elementaren Zeilenumformungen zur sogenannten Zeilenstufenform.<br />

Genauer: Wir führen Schritt 1 mit <strong>der</strong> dritten Spalte aus. Das Ergebnis ist<br />

1 2 −1 −1 2<br />

0 0 4 2 −1<br />

0 0 0 0 ???<br />

An den Stellen x 1 <strong>und</strong> x 3 liegen Stufen vor, x 2 <strong>und</strong> x 4 sind freie Variable. Die Gleichungen<br />

liefern keine Bedingungen <strong>für</strong> diese Variablen. Wie bereits in früheren Beispielen<br />

geschehen, führen wir <strong>für</strong> jede freie Variable einen Parameter ein, <strong>der</strong> beliebige Werte in<br />

R annehmen kann. Der Parameter ist frei <strong>und</strong> nicht geb<strong>und</strong>en, wir z.B. x 1 .<br />

Wie<strong>der</strong> können zwei Fälle eintreten:<br />

1. Fall: ??? ≠ 0: Das gegebene lineare Gleichungssystem ist nicht lösbar.<br />

2. Fall: ??? = 0: Das lineare Gleichungssystem ist lösbar.<br />

Speziell: Wenn wir im Beispiel ? = 7 2<br />

setzen, erhalten wir ??? = 0. Es ist<br />

x 4 : keine Stufe ⇒ frei wählbar, x 4 = λ 1<br />

x 3 : Stufe ⇒ 4x 3 = −1 − 2x 4 ⇒ x 3 = − 1 − 1λ 4 2 1<br />

x 2 : keine Stufe ⇒ frei wählbar, x 2 = λ 2<br />

x 1 : Stufe ⇒ x 1 = 2 − 2x 2 − (−1)x 3 − (−1)x 4 ⇒ x 1 = 7 − 2λ 4 2 + 1λ 2 1<br />

20


Die Lösungsmenge ist also<br />

{ (7<br />

4 − 2λ 2 + 1 2 λ 1 , λ 2 , − 1 4 − 1 )<br />

}<br />

2 λ 1 , λ 1 ; λ 1 , λ 2 ∈ R<br />

=<br />

=<br />

{ (7 )<br />

4 , 0 , −1 4 , 0 +<br />

(−2λ 2 + 1 2 λ 1 , λ 2 , − 1 )<br />

}<br />

2 λ 1 , λ 1 ; λ 1 , λ 2 ∈ R<br />

( )<br />

7<br />

4 , 0 , −1 4 , 0 + R(1 , 0 , −1 , 2) + R(−2 , 1 , 0 , 0)<br />

In unserem Beispiel sind alle nötigen Variationen des früher beschriebenen Gaußschen<br />

Eliminationsverfahrens enthalten.<br />

(10.5) Bemerkung. Es ist Schritt 1 des Algorithmus auf Seite 18, <strong>der</strong> die Probleme<br />

macht. Wie im Beispiel gesehen, kann es passieren, dass alle Einträge <strong>der</strong> Spalte Null<br />

sind. Es müssen dann in Schritt 3 mehrere Spalten ignoriert werden, sodass statt <strong>der</strong><br />

Dreiecksform die Zeilenstufenform entsteht.<br />

Eine weitere Abweichung ergibt sich in Schritt 4 durch die Einführung freier Variablen<br />

an je<strong>der</strong> Stelle ohne Stufe.<br />

Wir formulieren eine modifizierte — <strong>und</strong> endgültige — Fassung des Eliminationsverfahrens.<br />

Algorithmus. 1. Wähle von links beginnend die erste Spalte, die einen Eintrag ≠ 0<br />

enthält. Ignoriere alle davon links stehenden Spalten.<br />

2. Wähle eine Zeile in <strong>der</strong> keine Null in <strong>der</strong> ersten Spalte steht <strong>und</strong> vertausche diese<br />

Zeile mit <strong>der</strong> ersten; das ist (EZ 3).<br />

3. Nutze (EZ 2) mit dieser Zeile, um in allen an<strong>der</strong>en Zeilen in <strong>der</strong> ersten Spalte eine<br />

Null zu erzeugen.<br />

4. Wie<strong>der</strong>hole mit <strong>der</strong> Matrix in <strong>der</strong> die erste Zeile <strong>und</strong> die erste Spalte ignoriert<br />

werden, bis eine Zeilenstufenform hergestellt ist.<br />

5. Belege alle freien Variablen mit Parametern.<br />

6. Lese — von unten beginnend — die Lösungen ab <strong>und</strong> setze die Werte in die<br />

darüberliegenden Zeilen ein.<br />

7. Falls eine wi<strong>der</strong>sprüchliche Zeile entsteht, so gibt es keine Lösung.<br />

An<strong>der</strong>nfalls liefert jede Belegung <strong>der</strong> Parameter mit reellen Zahlen eine Lösung.<br />

Matrizen<br />

Wir wollen auch die oben schon verwendeten Matrizen formal definieren.<br />

21


Definition. Seien a ij reelle Zahlen (o<strong>der</strong> Elemente eines an<strong>der</strong>en Körpers). Das Schema<br />

⎛<br />

⎞<br />

a 11 a 12 · · · a 1n<br />

a 21 a 22 · · · a 2n<br />

⎜<br />

⎝<br />

.<br />

. . ..<br />

⎟ heißt (m × n)–Matrix.<br />

. ⎠<br />

a m1 a m2 · · · a mn<br />

Die Menge aller (m × n)–Matrizen schreiben wir R m×n .<br />

⎛<br />

(<br />

)<br />

1 2 3 4<br />

⎜<br />

Beispiel.<br />

ist eine (2 × 4)–Matrix, ⎝<br />

0 1 −1 5<br />

1<br />

0<br />

1<br />

⎞<br />

⎟<br />

⎠ eine (3 × 1)–Matrix.<br />

Eine (m × n) – Matrix hat m Zeilen <strong>und</strong> n Spalten, geschrieben A = (a ij ) ∈ R m×n ,<br />

<strong>und</strong> besteht aus m · n vielen Zahlen.<br />

Die oben erwähnte erweiterte Koeffizientenmatrix eines linearen Gleichungssystems ist<br />

dann eine (m × (n + 1))–Matrix. Der senkrechte Strich dient nur <strong>der</strong> Orientierung.<br />

Unter geeigneten Voraussetzungen kann man Matrizen addieren <strong>und</strong> miteinan<strong>der</strong> multiplizieren.<br />

Die Addition von Matrizen ist einfach.<br />

(10.6) Definition. Es seien A = (a ij ), B = (b ij ) ∈ R m×n zwei m × n–Matrizen. Die<br />

Summe ist komponentenweise erklärt<br />

⎛<br />

⎞<br />

a 11 + b 11 a 12 + b 12 · · · a 1n + b 1n<br />

a 21 + b 21 a 22 + b 22 · · · a 2n + b 2n<br />

A + B = (a ij + b ij ) = ⎜<br />

⎝<br />

.<br />

. . ..<br />

⎟ . ⎠ .<br />

a m1 + b m1 a m2 + b m2 · · · a mn + b mn<br />

Beispiel.<br />

(<br />

1 2 3 4<br />

0 1 −1 5<br />

)<br />

+<br />

(<br />

3 1 −1 −4<br />

2 0 −3 7<br />

)<br />

= . . .<br />

Die Matrizen (<br />

1 2 3 4<br />

0 1 −1 5<br />

kann man nicht addieren. Warum?<br />

)<br />

<strong>und</strong><br />

(<br />

3 1 −1<br />

2 0 −3<br />

)<br />

(<br />

(10.7) R m×n , + ) ist eine kommutative Gruppe.<br />

⎛ ⎞<br />

0 . . . 0<br />

⎜ ⎟<br />

Das neutrale Element ist die Nullmatrix ⎝. . . . . ⎠ <strong>für</strong> die wir oft kurz 0 schreiben.<br />

0 . . . 0<br />

22


Beweis. Genau wie Aufgabe 21.<br />

Bemerkung. Es gibt viele Nullmatrizen! Je eine des Formats m × n. Trotzdem liest<br />

man oft die Nullmatrix.<br />

Ob man einen Vektor als Spalten- o<strong>der</strong> Zeilenvektor auffasst spielt <strong>für</strong> die Addition<br />

keine Rolle. Das ist <strong>der</strong> Kern <strong>der</strong> folgenden Aussage.<br />

(10.8) Es sei n ∈ N. Die Abbildungen<br />

⎛ ⎞<br />

x 1<br />

R n → R n×1 ⎜ ⎟<br />

; (x 1 , . . . , x n ) ↦→ ⎝ . ⎠ <strong>und</strong><br />

x n<br />

(<br />

)<br />

R n → R 1×n ; (x 1 , . . . , x n ) ↦→ x 1 . . . x n<br />

sind Isomorphismen bezüglich „ +“.<br />

<br />

Beweis. Einfache Übung.<br />

<br />

Für die Multiplikation betrachten wir zunächst nur einen (wichtigen) Spezialfall, <strong>der</strong><br />

eine direkte Anwendung auf die Darstellung linearer Gleichungssysteme hat.<br />

⎛ ⎞<br />

x 1<br />

(10.9) Definition. Sei A ∈ R m×n ⎜ ⎟<br />

, x = ⎝ . ⎠ ∈ R n×1 ( ∼ = R n ). Dann ist<br />

x n<br />

⎛<br />

⎞ ⎛ ⎞ ⎛<br />

⎞<br />

a 11 · · · a 1n x 1 a 11 x 1 + . . . + a 1n x n<br />

⎜<br />

⎟ ⎜ ⎟ ⎜<br />

⎟<br />

A · x = ⎝ . · · · . ⎠ · ⎝ . ⎠ := ⎝ . ⎠ ∈ R m×1 ( ∼ = R m ).<br />

a m1 · · · a mn x n a m1 x 1 + . . . + a mn x n<br />

Matrizen <strong>und</strong> Vektoren kann man genau dann miteinan<strong>der</strong> multiplizieren, wenn die<br />

Matrix so viele Spalten wie <strong>der</strong> Vektor Zeilen hat. Die Rechenvorschrift kann man sich<br />

gut durch die Regel „Zeile mal Spalte“ merken.<br />

Beispiel.<br />

⎛<br />

⎜<br />

⎝<br />

(<br />

1 0<br />

0 −1<br />

1 1<br />

1 2 3<br />

4 5 6<br />

⎞<br />

(<br />

⎟<br />

⎠<br />

) ⎛ ⎜ ⎝<br />

x<br />

y<br />

z<br />

1<br />

−1<br />

)<br />

⎞<br />

⎟<br />

⎠ = ,<br />

= ,<br />

(<br />

⎛ ⎞ ⎛<br />

1 0 0 0<br />

0 1 0 0<br />

⎜ ⎟ ⎜<br />

⎝0 0 1 0⎠<br />

⎝<br />

0 0 0 1<br />

⎛<br />

⎜<br />

⎝<br />

1<br />

−1<br />

1<br />

1 2 3<br />

a<br />

b<br />

c<br />

d<br />

⎞<br />

⎟<br />

⎠ =<br />

⎞<br />

(<br />

⎟<br />

⎠<br />

⎛<br />

)<br />

⎜<br />

⎝<br />

2<br />

3<br />

2<br />

1<br />

)<br />

=<br />

⎞<br />

⎟<br />

⎠ =<br />

23


Unser lineares Gleichungssystem aus Definition (10.2) kann jetzt in <strong>der</strong> Form Ax = b<br />

mit A ∈ R m×n , b ∈ R m×1 ∼ = R m <strong>und</strong> unbekanntem x ∈ R n×1 ∼ = R n geschrieben werden.<br />

Im homogenen Fall hat man Ax = 0.<br />

Zunächst interpretieren wir unsere Multiplikation geometrisch.<br />

(10.10) Bemerkung. Die Multiplikation Matrix mal Vektor kann man in <strong>der</strong> Spaltensicht<br />

deuten:<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

a 11<br />

a 12<br />

a 1n<br />

a 21<br />

A · x = x 1 ⎜ ⎟<br />

⎝ . ⎠ + x a 22<br />

2 ⎜ ⎟<br />

⎝ . ⎠ + · · · + x a 2n<br />

n ⎜ ⎟<br />

⎝ . ⎠<br />

a m1 a m2 a mn<br />

Wir berechnen also eine Linearkombination <strong>der</strong> Spalten <strong>der</strong> Matrix. Die Koeffizienten<br />

stehen im (Spalten-)Vektor x.<br />

Definition (10.9) entspricht <strong>der</strong> Zeilensicht.<br />

Wir halten wichtige Eigenschaften <strong>der</strong> Multiplikation Matrix mal Vektor fest.<br />

(10.11) Es seien A ∈ R m×n , v, w ∈ R n×1 <strong>und</strong> λ ∈ R, dann gilt<br />

A(v + w) = Av + Aw <strong>und</strong> A(λv) = λ(Av).<br />

Beweis. Wir berechnen A(v + w) =<br />

⎛<br />

⎞ ⎛ ⎞ ⎛<br />

⎞<br />

a 11 · · · a 1n v 1 + w 1 a 11 (v 1 + w 1 ) + . . . + a 1n (v n + w n )<br />

⎜<br />

⎟ ⎜ ⎟ ⎜<br />

⎟<br />

= ⎝ . · · · . ⎠ · ⎝ . ⎠ = ⎝<br />

.<br />

⎠<br />

a m1 · · · a mn v n + w n a m1 (v 1 + w 1 ) + . . . + a mn (v n + w n )<br />

⎛<br />

⎞<br />

a 11 v 1 + a 11 w 1 + . . . + a 1n v n + a 1n w n<br />

⎜<br />

⎟<br />

= ⎝<br />

.<br />

⎠<br />

a m1 v 1 + a m1 w 1 + . . . + a mn v n + a mn w n<br />

⎛<br />

⎞ ⎛<br />

⎞<br />

a 11 v 1 + . . . + a 1n v n a 11 w 1 + . . . + a 1n w n<br />

⎜<br />

⎟ ⎜<br />

⎟<br />

= ⎝ . ⎠ + ⎝ . ⎠ = Av + Aw.<br />

a m1 v 1 + . . . + a mn v n a m1 w 1 + . . . + a mn w n<br />

Entsprechend weist man die zweite Regel nach.<br />

<br />

Man sagt auch, die Multiplikation Matrix mal Vektor sei linear.<br />

Wir betrachten jetzt noch zwei Beispiele, um zu sehen wie die Struktur <strong>der</strong> Lösungsmenge<br />

eines linearen Gleichungssystems beschaffen ist.<br />

24


( ) ( )<br />

2 3 1<br />

1<br />

(10.12) Beispiele. 1.) A =<br />

<strong>und</strong> b = führt auf<br />

1 −2 2<br />

0<br />

<strong>und</strong> die Lösungmenge ist<br />

⎧⎛<br />

⎞ ⎛ ⎞ ⎫ ⎛ ⎞ ⎛ ⎞<br />

⎪⎨<br />

−8 ⎪⎬<br />

−8<br />

⎜ ⎟ ⎜ ⎟<br />

⎜ ⎟ ⎜ ⎟<br />

⎝ ⎠ + λ ⎝ 3 ⎠ ; λ ∈ R = ⎝ ⎠ + R ⎝ 3 ⎠<br />

⎪⎩<br />

7<br />

⎪⎭<br />

7<br />

2<br />

7<br />

1<br />

7<br />

0<br />

2<br />

7<br />

1<br />

7<br />

0<br />

2 3 1 1<br />

7 −3 1<br />

Dabei gilt<br />

⎛ ⎞<br />

A ·<br />

⎜<br />

⎝<br />

2<br />

7<br />

1<br />

7<br />

0<br />

⎜<br />

Es ist also R ⎝<br />

⎟<br />

⎠ = b <strong>und</strong> A ·<br />

⎛<br />

−8<br />

3<br />

7<br />

⎞<br />

⎛<br />

⎜<br />

⎝<br />

λ(−8)<br />

λ3<br />

λ7<br />

⎞ ⎛ ⎛<br />

⎟<br />

⎠ = A · ⎜<br />

⎝ λ ⎜<br />

⎝<br />

−8<br />

3<br />

7<br />

⎞⎞<br />

⎛ ⎛<br />

⎟<br />

⎠⎟<br />

⎠ = λ ⎜<br />

⎝ A · ⎜<br />

⎝<br />

⎟<br />

⎠ Lösungsmenge des homogenen Systems Ax = 0.<br />

−8<br />

3<br />

7<br />

⎞⎞<br />

⎟<br />

⎠⎟<br />

⎠ = 0.<br />

2.) Wir greifen das Beispiel (10.4) nochmal auf.<br />

⎛<br />

⎞ ⎛ ⎞<br />

1 2 −1 −1<br />

2<br />

⎜<br />

⎟ ⎜ ⎟<br />

Mit A = ⎝ 3 6 1 −1 ⎠ <strong>und</strong> b = ⎝ 5 ⎠ lautet dieses lineare Gleichungssystem<br />

7<br />

2 4 0 −1<br />

2<br />

Ax = b. Dabei ist das Fragezeichen bereits so ersetzt, dass eine Lösung existiert.<br />

Die Lösungsmenge ergab sich in <strong>der</strong> Form<br />

⎛ ⎞ ⎛<br />

7<br />

4<br />

0<br />

v 0 + Rw 1 + Rw 2 = ⎜<br />

⎝ − 1 ⎟<br />

4 ⎠ + R ⎜<br />

⎝<br />

0<br />

1<br />

0<br />

−1<br />

2<br />

⎞ ⎛<br />

⎟<br />

⎠ + R ⎜<br />

⎝<br />

Wir haben v 0 <strong>und</strong> w j auch hier als Spaltenvektoren geschrieben, weil das <strong>für</strong> die anschließenden<br />

Rechnungen nötig ist.<br />

Wie im ersten Beispiel hat man<br />

Av 0 = b <strong>und</strong> Aw j = 0.<br />

Es gilt aber mehr A(λ 1 w 1 + λ 2 w 2 ) = λ 1 Aw 1 + λ 2 Aw 2 = 0 + 0 = 0. D.h. die Menge<br />

Rw 1 + Rw 2 ist die Lösungsmenge des homogenen Systems.<br />

Diese Beobachtung kann man verallgemeinern.<br />

Zu einer Matrix A ∈ R m×n wird Kern A := { x ∈ R n×1 ; Ax = 0 } <strong>der</strong> Kern von A<br />

genannt. Der Kern einer Matrix enthält immer den Nullvektor <strong>und</strong> ist deshalb niemals<br />

leer.<br />

Es gilt<br />

−2<br />

1<br />

0<br />

0<br />

⎞<br />

⎟<br />

⎠ .<br />

25


(10.13) Zu A ∈ R m×n <strong>und</strong> b ∈ R n×1 betrachte das lineare Gleichungssystem Ax = b.<br />

Weiter sei v 0 eine spezielle Lösung des Systems, d.h. Av 0 = b.<br />

Dann ist v 0 +Kern A := {v 0 + w ; w ∈ Kern A} die genaue Lösungsmenge des Systems.<br />

Die Menge v 0 +Kern A wird manchmal auch allgemeine Lösung des Systems genannt.<br />

Beweis. Die gesuchte Lösungsmenge sei L.<br />

Für w ∈ Kern A gilt A(v 0 + w) = Av 0 + Aw = b + 0 = b, also v 0 + w ∈ L, bzw.<br />

v 0 + Kern A ⊆ L.<br />

Sei nun v ∈ L. Wir rechnen<br />

A(v − v 0 ) = Av − Av 0 = b − b = 0 =⇒ v − v 0 ∈ Kern A =⇒ v ∈ v 0 + Kern A.<br />

Das zeigt L ⊆ v 0 + Kern A; <strong>und</strong> die Aussage ist bewiesen.<br />

<br />

(10.14) Bemerkung. 1.) Auch <strong>der</strong> Kern einer Matrix hat eine Struktur, mit <strong>der</strong> wir<br />

uns im nächsten Kapitel befassen werden.<br />

2.) Wieviele Lösungen erwarten wir von einem linearen Gleichungssystem Ax = b, wenn<br />

A ∈ R m×n .<br />

1. Fall n = m: In den meisten Fällen gibt es genau eine Lösung. Dann gilt auch<br />

Kern A = {0}.<br />

Wenn bei <strong>der</strong> Elimination eine Nullzeile (links des Strichs!) entsteht, dann gibt keine<br />

o<strong>der</strong> unendlich viele Lösungen. Es gibt dann nämlich freie Variable. An<strong>der</strong>s ausgedrückt<br />

Kern A ≠ {0}.<br />

2. Fall m < n (mehr Unbekannte als Gleichungen): Es gibt immer freie Variable<br />

(<strong>und</strong> damit Kern A ≠ {0}). Falls bei <strong>der</strong> Elimination kein Wi<strong>der</strong>spruch entsteht,<br />

dann ist die Lösungsmenge unendlich. Sonst existiert keine Lösung.<br />

3. Fall n < m (mehr Gleichungen als Unbekannte): Es gibt nur Lösungen, <strong>für</strong> spezielle<br />

Werte von b. Für die „meisten“ b gibt es keine Lösung.<br />

Genauere Kriterien <strong>für</strong> alle drei Fälle sind Gegenstand <strong>der</strong> folgenden Kapitel.<br />

3.) In <strong>der</strong> Praxis werden lineare Gleichungssysteme fast nie exakt gelöst, schon weil<br />

beim Rechnen R<strong>und</strong>ungsfehler auftreten. Meist sind natürlich schon die Eingangsdaten<br />

(mess-)fehlerbehaftet. Die Numerik beschäftigt sich u. a. mit dem Problem<br />

Näherungslösungen zu finden, <strong>und</strong> dabei den Fehler zu kontrollieren. Das letzte Beispiel<br />

dieses Kapitels soll illustrieren, dass das Problem keineswegs trivial ist.<br />

4.) Selbstverständlich muss man auch den Rechenaufwand optimieren. Viele (aber keineswegs<br />

alle) Verfahren basieren auf dem Gauß-Algorithmus.<br />

26


Beispiel. Welche Lösungen besitzen die LGS<br />

( ) ( ) ( ) (<br />

1 1 x 2<br />

1 1<br />

=<br />

,<br />

1 1.001 y 2<br />

1 1.001<br />

(<br />

1 1<br />

1 1.001<br />

) (<br />

x<br />

y<br />

)<br />

=<br />

(<br />

2<br />

2.01<br />

)<br />

?<br />

) (<br />

x<br />

y<br />

)<br />

=<br />

(<br />

2<br />

2.001<br />

)<br />

Matrizenmultiplikation<br />

Wir verallgemeinern die Multiplikation von Matrizen wie sie in (10.9) beschrieben ist.<br />

Dort hatten wir die Multiplikation „Matrix mal Spalte“ definiert.<br />

(10.15) Definition. Sei A ∈ R m×n , B ∈ R n×l . Dann setzen wir<br />

AB = (a ij )(b ij ) = (c ij ) ∈ R m×l durch c ij :=<br />

n∑<br />

a iν b νj = a i1 b 1j + · · · + a in b nj<br />

ν=1<br />

<strong>für</strong> i = 1, . . . , m <strong>und</strong> j = 1, . . . , l. Wir sprechen von Matrizenmultiplikation.<br />

Auch hier gilt die Merkregel Zeile mal Spalte.<br />

Wir betrachten zunächst ein<br />

⎛ ⎞<br />

( )<br />

1 2 3<br />

⎜<br />

−3 7 ⎟<br />

Beispiel. Für A =<br />

<strong>und</strong> B = ⎝−2 8⎠ sei C := AB . Es ist C ∈ R<br />

4 5 6<br />

2×2 .<br />

−1 9<br />

( )<br />

c<br />

Mit C = 11 c 12<br />

gilt<br />

c 21 c 22<br />

c 11 = 1(−3) + 2(−2) + 3(−1) = −13 c 12 = 1 · 7 + 2 · 8 + 3 · 9 = 50<br />

c 21 = 4(−3) + 5(−2) + 6(−1) = −28 c 22 = 4 · 7 + 5 · 8 + 6 · 9 = 122<br />

Die Rechnung hätte man auch spaltenweise ausführen können<br />

⎛ ⎛ ⎞ ⎛ ⎞⎞<br />

−3 7<br />

C = AB = ⎜<br />

⎝ A ⎜ ⎟ ⎜ ⎟<br />

⎝ −2 ⎠ A ⎝ 8 ⎠⎟<br />

⎠<br />

−1 9<br />

wobei unsere Definition „Matrix mal Spalte“ aus (10.9) auf jede Spalte <strong>der</strong> Matrix B<br />

angewendet wird. Die Ergebnisse bilden die Spalten <strong>der</strong> Matrix C .<br />

(10.16) Bemerkung. 1.) Die Bildung <strong>der</strong> Produkts AB ist nur möglich, falls die Spaltenzahl<br />

von A mit <strong>der</strong> Zeilenzahl von B übereinstimmt.<br />

27


2.) Im Fall l = 1 ergibt sich genau die Formel aus (10.9).<br />

3.) Wie im Beispiel kann man die Matrizenmultiplikation stets in <strong>der</strong> Spaltensicht<br />

deuten: Die Spalten von C = AB entstehen indem man die Spalten von B jeweils<br />

mit A multipliziert.<br />

(10.17) Beispiele. 1.) A =<br />

AB =<br />

(<br />

(<br />

1 2<br />

3 4<br />

4 7<br />

8 15<br />

Was ist (AB)x <strong>und</strong> A(Bx), wenn x =<br />

2.) A =<br />

(<br />

1 2 3<br />

0 1 2<br />

(<br />

3.) A = 1 1 2<br />

)<br />

, B =<br />

⎛<br />

⎜<br />

⎝<br />

⎛<br />

)<br />

⎜<br />

, B = ⎝<br />

1 0<br />

0 −1<br />

1 1<br />

0 1<br />

0 0<br />

1 0<br />

⎞<br />

)<br />

)<br />

⎞<br />

, B =<br />

(<br />

0 1<br />

2 3<br />

<strong>und</strong> BA =<br />

(<br />

−1<br />

1<br />

)<br />

?<br />

⎟<br />

⎠ =⇒ AB =<br />

⎟<br />

⎠ =⇒ AB =<br />

)<br />

(<br />

ergibt<br />

3 4<br />

11 16<br />

( )<br />

4.) Sei B ∈ R 4×l <strong>und</strong> C ∈ R l×4 . Was ergibt<br />

⎛ ⎞<br />

⎛ ⎞<br />

1 0 0 0<br />

1 0 0 0<br />

0 1 0 0<br />

⎜ ⎟<br />

⎝0 0 1 0⎠ B <strong>und</strong> C 0 1 0 0<br />

⎜ ⎟<br />

⎝0 0 1 0⎠ ?<br />

0 0 0 1<br />

0 0 0 1<br />

)<br />

.<br />

, BA =<br />

⎛<br />

⎜<br />

⎝<br />

1 2 3<br />

⎞<br />

⎟<br />

⎠.<br />

( )<br />

, BA ist nicht definiert.<br />

Wie wir an den Beispielen sehen, ist die Multiplikation von Matrizen nicht kommutativ.<br />

Wir formulieren einige wichtige Eigenschaften <strong>der</strong> Matrizenmultiplikation.<br />

(10.18) Assoziativgesetz. Es seien die Matrizen A ∈ R m×r , B ∈ R r×s , C ∈ R s×n<br />

gegeben. Dann ist A(BC) = (AB)C .<br />

Beweis. Wir rechnen einfach drauflos:<br />

⎛<br />

A(BC) = (a ij ) ( (b ij )(c ij ) ) = (a ij ) ⎝<br />

=<br />

⎛<br />

⎝<br />

r∑<br />

s∑<br />

µ=1 ν=1<br />

a iµ b µν c νj<br />

⎞<br />

⎠ =<br />

⎛<br />

⎜<br />

⎝<br />

s∑<br />

ν=1<br />

⎛<br />

s∑<br />

⎝<br />

ν=1<br />

b iν c νj<br />

⎞<br />

⎠ =<br />

r∑<br />

µ=1<br />

⎛<br />

⎜<br />

⎝<br />

r∑<br />

µ=1<br />

a iµ<br />

⎛<br />

⎝<br />

⎞ ⎞<br />

a iµ b µν<br />

⎠ ⎟<br />

c νj ⎠ =<br />

⎞⎞<br />

s∑<br />

b µν c νj<br />

⎠⎟<br />

⎠<br />

ν=1<br />

⎛<br />

⎝<br />

r∑<br />

µ=1<br />

a iµ b µj<br />

⎞<br />

⎠ ( c ij<br />

)<br />

= ( (a ij )(b ij ) ) (c ij ) = (AB)C. <br />

28


(10.19) Distributivegesetze. Es seien A, B ∈ R m×l <strong>und</strong> C, D ∈ R l×n , dann gilt<br />

A(C + D) = AC + AD <strong>und</strong> (A + B)C = AC + BC<br />

Beweis. Die erste Gleichung folgt direkt aus <strong>der</strong> Spaltensicht <strong>der</strong> Matrizenmultiplikation<br />

<strong>und</strong> (10.11). Beide Gleichungen kann man mit Hilfe <strong>der</strong> Definition in einer höchst<br />

langweiligen Rechnung nachprüfen.<br />

<br />

(10.20) Bemerkung. 1.) Man kann Matrizen als an<strong>der</strong>s (eigenartig?) aufgeschriebene<br />

Vektoren auffassen. Ihr Einsatz bei linearen Gleichungssystemen <strong>und</strong> die Matrizenmultiplikation<br />

rechtfertigt das. Die Addition funktioniert wie bei Vektoren, nämlich<br />

komponentenweise.<br />

2.) Somit ist (R m×n , +) ein Vektorraum.<br />

Der Spezialfall R n×n (also m = n) ist von beson<strong>der</strong>er Bedeutung. Man spricht von<br />

quadratischen Matrizen. Die kann man addieren <strong>und</strong> multiplizieren. In <strong>der</strong> Tat folgt<br />

aus (10.7), (10.18) <strong>und</strong> (10.19)<br />

(10.21) (R n×n , +, · ) ist ein Ring, aber die Multiplikation ist nicht kommutativ. <br />

( ) ( )<br />

0 1 1 1<br />

(10.22) Beispiel. Was ist<br />

= ??<br />

0 −1 0 0<br />

Man erkennt, dass bei <strong>der</strong> Matrizenmultiplikation Nullteiler gibt (vgl. I, Übungsblatt<br />

8).<br />

Die bekannte <strong>und</strong> in jedem Körper gültige Regel „ xy = 0 =⇒ x = 0 o<strong>der</strong> y = 0“ gilt<br />

also nicht <strong>für</strong> die Matrizenmultiplikation. Wir haben das schon bei an<strong>der</strong>en Ringen, wie<br />

z. B. Z 15 <strong>und</strong> Z 6 beobachtet.<br />

Wie üblich wird Invertierbarkeit definiert.<br />

Definition. Eine Matrix A ∈ R n×n heißt invertierbar, wenn es eine Matrix B ∈ R n×n<br />

gibt mit AB = BA = I . Schreibweise: B = A −1 . Dabei ist<br />

⎛<br />

⎞<br />

1 0 . . . 0<br />

0 1 . . . 0<br />

I = ⎜<br />

⎝<br />

.<br />

. ..<br />

⎟ . ⎠ ∈ Rn×n<br />

0 0 . . . 1<br />

die Einheitsmatrix.<br />

I ist offenbar das neutrale Element <strong>der</strong> Matrizenmultiplikation.<br />

(10.23) Die Menge GL(n, R) := { A ∈ R n×n ; A ist invertierbar } bildet mit <strong>der</strong> Matrizenmultiplikation<br />

<strong>für</strong> jedes n ∈ N eine Gruppe.<br />

Beweis. Übung!<br />

<br />

29


Die Zeilensicht<br />

Wir wenden uns jetzt <strong>der</strong> Zeilensicht <strong>der</strong> Matrizenmultiplikation zu <strong>und</strong> werden sehen,<br />

dass es einen Zusammenhang zum Gaußschen Eliminationsverfahren gibt.<br />

Wir betrachten zunächst nur 2 × 2-Matrizen.<br />

( ) ( ) (<br />

a 11 a 12 b 11 b 12 a<br />

= 11 b 11 + a 12 b 21<br />

a 21 a 22 b 21 b 22 a 21 b 11 + a 22 b 21<br />

)<br />

a 11 b 12 + a 12 b 22<br />

a 21 b 12 + a 22 b 22<br />

(<br />

)<br />

=<br />

a 11 (b 11 b 12 ) + a 12 (b 21 b 22 )<br />

a 21 (b 11 b 12 ) + a 22 (b 21 b 22 )<br />

.<br />

Man erkennt, dass die Zeilen <strong>der</strong> Matrix AB aus Linearkombinationen <strong>der</strong> Zeilen <strong>der</strong><br />

Matrix B bestehen, mit Koeffizienten aus <strong>der</strong> Matrix A. Das gilt ganz allgemein, also<br />

<strong>für</strong> Matrizen beliebiger Formate sofern man sie multiplizieren kann.<br />

Beispiel.<br />

(<br />

1 0<br />

α 1<br />

) (<br />

)<br />

b 11 b 12<br />

=<br />

b 21 b 22<br />

(<br />

)<br />

b 11 b 12<br />

.<br />

αb 11 + b 21 αb 12 + b 22<br />

Schließlich betrachten wir ein lineares Gleichungssystem Ax = b mit A ∈ R m×n . In den<br />

Übungen <strong>und</strong> im obigen Beispiel haben wir schon gesehen, dass elementare Zeilenumformungen<br />

mit Hilfe von Matrizen zu realisieren sind. Sei L ∈ R m×m so eine Matrix, dann<br />

gilt mit (10.18)<br />

Ax = b =⇒ L(Ax) = Lb ⇐⇒ (LA)x = Lb.<br />

Um zu zeigen, dass <strong>der</strong> „ =⇒“-Pfeil umgekehrt werden kann, müssen wir zeigen, dass die<br />

benutzten Matrizen invertierbar sind. Das wird in den Übungen erledigt.<br />

Unsere Überlegungen ergeben die schon oben angekündigte Rechtfertigung <strong>für</strong> das Gaußsche<br />

Eliminationsverfahren.<br />

(10.24) Elementare Zeilenumformungen än<strong>der</strong>n die Lösungsmenge eines linearen Gleichungssystems<br />

nicht, weil sie durch Linksmultiplikation mit invertierbaren Matrizen realisiert<br />

werden können.<br />

<br />

Wir illustrieren das nochmals an einem einfachen<br />

⎛ ⎞ ⎛ ⎞<br />

1 1 −1<br />

2<br />

⎜ ⎟ ⎜ ⎟<br />

Beispiel. Es seien A = ⎝1 2 1 ⎠ <strong>und</strong> b = ⎝ 0 ⎠. Wir lösen das lineare Gleichungssystem<br />

Ax = b <strong>und</strong> notieren die benötigten<br />

2 1 1<br />

1<br />

Matrizen.<br />

30


⎛ ⎞<br />

1 0 0<br />

⎜ ⎟<br />

L 1 = ⎝−1 1 0⎠ L 1 (A|b) =<br />

0 0 1<br />

⎛ ⎞<br />

1 0 0<br />

⎜ ⎟<br />

L 2 = ⎝ 0 1 0⎠ L 2 L 1 (A|b) =<br />

−2 0 1<br />

⎛ ⎞<br />

1 0 0<br />

⎜ ⎟<br />

L 3 = ⎝0 1 0⎠ L 3 L 2 L 1 (A|b) =<br />

0 1 1<br />

1 1 −1 2<br />

0 1 2 −2<br />

2 1 1 1<br />

1 1 −1 2<br />

0 1 2 −2<br />

0 −1 3 −3<br />

1 1 −1 2<br />

0 1 2 −2<br />

0 0 5 −5<br />

Zusammengefasst bedeutet das: Multiplikation des Systeme Ax = b mit <strong>der</strong> Matrix<br />

⎛ ⎞<br />

1 0 0<br />

⎜ ⎟<br />

L = L 3 L 2 L 1 = ⎝−1 1 0⎠<br />

−3 1 1<br />

von Links überführt das System in Dreiecksform. Genauer:<br />

⎛ ⎞<br />

⎛<br />

⎜<br />

1 1 −1 ⎟<br />

⎜<br />

LA = ⎝0 1 2 ⎠ <strong>und</strong> Lb = ⎝<br />

0 0 5<br />

2<br />

−2<br />

−5<br />

⎞<br />

⎟<br />

⎠ .<br />

An welchen Stellen haben wir hier implizit das Assoziativgesetz benutzt?<br />

⎛ ⎞<br />

1<br />

⎜ ⎟<br />

Als Lösung des Gleichungssystems ergibt sich x = ⎝ 0 ⎠.<br />

−1<br />

Ohne Rechnung: Warum sind L 1 <strong>und</strong> L 2 vertauschbar, nicht aber L 1 <strong>und</strong> L 3 ?<br />

Bemerkung. Die Inverse von L 1 findet man ohne Rechnung: L 1 addiert das (−1)-<br />

fache <strong>der</strong> ersten zur zweiten Zeile. Das wird ⎛ durch⎞Addition <strong>der</strong> ersten zur zweiten Zeile<br />

wie<strong>der</strong> rückgängig gemacht, also L1 −1 ⎜<br />

1 0 0 ⎟<br />

= ⎝1 1 0⎠. Eine einfache Rechnung bestätigt<br />

0 0 1<br />

diese Vermutung.<br />

31


11 Vektorräume<br />

Schon aus <strong>der</strong> Schule kennen Sie den R 2 <strong>und</strong> seine geometrische Deutung als Menge<br />

aller Punkte in <strong>der</strong> Ebene. Das wurde bereits im vorigen Abschnitt aufgegriffen.<br />

Analog besitzt die Menge aller Tripel reeller Zahlen, <strong>der</strong> R 3 , eine geometrische Deutung<br />

als Menge aller Punkte im Anschauungsraum. Dazu wird im Raum ein Punkt, <strong>der</strong><br />

Ursprung, ausgezeichnet. Durch diesen Punkt werden drei auf einan<strong>der</strong> senkrecht stehende<br />

Geraden A 1 , A 2 , A 3 ausgezeichnet, die Koordinatenachsen. Die Punkte je<strong>der</strong><br />

Koordinatenachse werden mit reellen Zahlen identifiziert, wobei <strong>der</strong> Ursprung jeweils die<br />

0 zugeordnet bekommt. Das Triple (A 1 , A 2 , A 3 ) heißt kartesisches Koordinatensystem.<br />

Ein Punkt X im Raum wird jetzt orthogonal auf die drei Achsen projiziert. Die den<br />

Projektionspunkten zugeordneten reellen Zahlen bilden die Koordinaten (x 1 , x 2 , x 3 ) des<br />

Punktes X .<br />

Bemerkung. Die oben beschriebene Einführung von Koordinaten im Anschauungsraum<br />

geht auf den französischen Philosophen <strong>und</strong> <strong>Mathematik</strong>er René Descartes (1596–<br />

1650) zurück. Sie bedeutet einen gewaltigen Fortschritt in <strong>der</strong> Entwicklung <strong>der</strong> <strong>Mathematik</strong>,<br />

weil sie eine enge Verbindung zwischen Geometrie <strong>und</strong> Algebra herstellt.<br />

Wie in <strong>der</strong> Ebene können auch die Punkte im Raum mit einer geometrischen Konstruktion<br />

addiert werden, <strong>und</strong> zwar genauso wie in <strong>der</strong> Ebene, denn die beiden Punkte, die<br />

addiert werden sollen, liegen ja zusammen mit dem Ursprung in einer Ebene. Diese<br />

einfache Tatsache wird uns später noch beschäftigen.<br />

Wir abstrahieren diese Ideen auf den R n , n ∈ N, obwohl es dort keine so offensichtliche<br />

geometrische Deutung gibt. Tatsächlich kann man auch im R n Geometrie betreiben <strong>und</strong><br />

vieles aus zwei <strong>und</strong> drei Dimensionen übertragen. Nur die Anschaulichkeit leidet.<br />

Inspiriert durch die geometrischen Überlegungen in R 2 <strong>und</strong> R 3 definieren wir<br />

+ : R n × R n → R n ; (x, y) ↦→ x + y := (x 1 + y 1 , . . . , x n + y n ).<br />

Es gilt dann nach Aufgabe 21.<br />

(11.1) Sei n ∈ N, dann ist (R n , +) eine kommutative Gruppe. <br />

Es sei bemerkt, dass das Studium des R n <strong>und</strong> seiner Abstraktion, des Vektorraums,<br />

keinerwegs nur durch geometrische Anwendungen motiviert ist. Es gibt kaum einen Bereich<br />

in <strong>der</strong> <strong>Mathematik</strong> (einschließlich Anwendungen), in dem Vektorräume keine Rolle<br />

spielen. Hier seien nur einige Beispiele erwähnt.<br />

• In <strong>der</strong> Physik kann man die Zeit als vierte Koordinate auffassen; in <strong>der</strong> Relativitätstheorie<br />

muss man das sogar machen.<br />

32


• Um Daten etwa im Internet zu übertragen, benutzt man n-Tupel aus Z n 2 mit<br />

großen n. Hier wird beson<strong>der</strong>s eine Verallgemeinerung <strong>der</strong> oben definierten Addition<br />

gebraucht.<br />

Ein Datenpacket im Internet kann bis zu 64 KiB haben; dann wäre n = 542 288.<br />

• Zieht man in <strong>der</strong> Statistik eine Stichprobe vom Umfang n, so bildet das Ergebnis<br />

ein n-Tupel.<br />

• Auch die Mengenangaben in einem Kochrezept bilden eine Tupel mit so vielen<br />

Komponenten, wie es Zutaten gibt.<br />

Wir betrachten jetzt die „Potenzen“ von Elementen aus R n (vgl. dazu auch Aufgabe 16).<br />

Sei zunächst k ∈ N <strong>und</strong> x ∈ R n . Die k-te Potenz wurde in §§ 4,5 erklärt als<br />

Es ist also<br />

k · x = x + x + · · · + x<br />

(k-mal).<br />

k · (x 1 , . . . , x n ) = (x 1 , . . . , x n ) + · · · + (x 1 , . . . , x n ) (k-mal)<br />

= (x 1 + · · · + x 1 , . . . , x n + · · · + x n ) (jeweils k-mal)<br />

= (kx 1 , . . . , kx n ).<br />

Man schreibt also die „Potenzen“ als Vielfache. Da (−x 1 , . . . , −x n ) das Inverse von<br />

(x 1 , . . . , x n ) ist benutzt man dieselbe Bezeichnung <strong>für</strong> alle k ∈ Z.<br />

Bemerkung. Soweit gelten unsere Überlegungen <strong>für</strong> alle additiven Gruppen!<br />

Z. B. auch <strong>für</strong> (Z m , ⊕ m ).<br />

In gleicher Weise kann man Vielfache mit beliebigen reellen Zahlen bilden. 2 Wir definieren<br />

eine Skalarmultiplikation<br />

R × R n → R n ; (α, x) ↦→ α · x := (αx 1 , . . . , αx n ).<br />

Es stellt sich heraus, dass diese Skalarmultiplikation Eigenschaften hat, wie wir sie im<br />

Zusammenhang mit den Potenzrechengesetzen (5.18), (5.19) kennengelernt haben.<br />

(11.2) Für alle α, β ∈ R <strong>und</strong> x, y ∈ R n gilt<br />

α · (x + y) = α · x + α · y (1)<br />

(α + β) · x = α · x + β · x (2)<br />

(αβ) · x = α · (β · x) (3)<br />

1 · x = x (4)<br />

Beweis. Exemplarisch: (2) Neben den Definitionen <strong>für</strong> Addition <strong>und</strong> Skalarmultilpikation<br />

benutzen wir das Distributivgesetz in R<br />

(α + β) · x = ((α + β) · x 1 , . . . , (α + β) · x n ) = (αx 1 + βx 1 , . . . , αx 1 + βx n )<br />

= (αx 1 , . . . , αx 1 ) + (βx 1 , . . . , βx n ) = α · x + β · x. <br />

2 Das kann man mit Z m natürlich nicht!<br />

33


Frage: Welches Körperaxiom braucht man <strong>für</strong> (3)?<br />

Man beachte, dass · <strong>und</strong> + in unterschiedlichen Bedeutungen vorkommen! (Welchen?)<br />

Definition. Sei V eine Menge mit einer binären Verknüpfung + (genannt Addition)<br />

<strong>und</strong> einer Abbildung · : R × V → V (genannt Skalarmultiplikation).<br />

V heißt reeller Vektorraum : ⇐⇒<br />

(V1)<br />

(V, +) ist kommutative Gruppe<br />

(V2) Für die Skalarmultiplikation gelten sinngemäß die Regeln (1) bis (4) aus (11.2).<br />

Die Aussagen (11.1) <strong>und</strong> (11.2) bedeuten also gerade, dass R n <strong>für</strong> jede natürliche Zahl<br />

n ein reeller Vektorraum ist. Das beinhaltet die anschaulichen Fälle n = 2 o<strong>der</strong> n = 3<br />

beschränken. Sie sollten aber nie vergessen, dass die Vektorraumdefinition viel allgemeinere<br />

Strukturen zulässt. Deshalb wollen wir an dieser Stelle einmal einen ganz an<strong>der</strong>en<br />

Vektorraum vorstellen.<br />

(11.3) Beispiele. 1.) Nach Aufgabe 17 ist R[x] ein reeller Vektorraum.<br />

2.) Wir betrachten V = R [0,1] := {f : [0, 1] → R} die Menge aller Abbildungen [0, 1] →<br />

R. Wir definieren<br />

f + g : x ↦→ f(x) + g(x) <strong>und</strong> α · f : x ↦→ α · f(x).<br />

Dann ist R [0,1] ein reeller Vektorraum, dessen Elemente Funktionen sind. 3<br />

(V1):<br />

(V2):<br />

(V, +) ist kommutative Gruppe:<br />

• + ist eine binäre Verknüpfung (warum?).<br />

• (V, +) ist assoziativ, da die Addition in R assoziativ ist: f + (g + h) = (f + g) + h;<br />

denn <strong>für</strong> alle x ∈ [0, 1] ist<br />

(f + (g + h))(x) = f(x) + (g + h)(x) = f(x) + (g(x) + h(x))<br />

= (f(x) + g(x)) + h(x) = (f + g)(x) + h(x) = ((f + g) + h)(x).<br />

• neutrales Element ist die Nullabbildung 0 ∈ V mit ∀x ∈ [0, 1] : 0(x) := 0.<br />

• Zu f ist −f : x ↦→ −f(x) invers.<br />

• (V, +) ist kommutativ:<br />

(f + g)(x) = f(x) + g(x) = g(x) + f(x) = (g + f)(x) =⇒ f + g = g + f.<br />

Es gelten die Regeln <strong>der</strong> Skalarmultiplikation:<br />

• Für alle α ∈ R <strong>und</strong> <strong>für</strong> alle f, g ∈ V ist α · (f + g) = α · f + α · g; denn <strong>für</strong> alle<br />

x ∈ [0, 1] ist<br />

(α · (f + g))(x) = α · ((f + g)(x)) = α · (f(x) + g(x)) = α · f(x) + α · g(x)<br />

= (α · f)(x) + (α · g)(x) = (α · f + α · g)(x).<br />

3 Es sei noch einmal darauf hingewiesen, dass + <strong>und</strong> · jeweils zwei verschiedene Bedeutungen haben!<br />

34


• Für alle α, β ∈ R <strong>und</strong> <strong>für</strong> alle f ∈ V ist (α + β) · f = α · f + β · f<br />

• Für alle α, β ∈ R <strong>und</strong> <strong>für</strong> alle f ∈ V ist (αβ) · f = α · (β · f)<br />

• Für alle f ∈ V ist 1 · f = f .<br />

(11.4) Bemerkung. 1.) Die oben beschriebene Addition <strong>und</strong> Skalarmultiplikation von<br />

Funktionen kennen Sie aus <strong>der</strong> Schule, etwa<br />

• Die Polynomfunktion x ↦→ x 3 + √ 6x ist Summe aus den Funktionen x ↦→ x 3<br />

<strong>und</strong> x ↦→ √ 6x. Die letztere entsteht aus <strong>der</strong> Funktion x ↦→ x durch Skalarmultiplikation<br />

mit √ 6.<br />

• Alle Polynomfunktionen kann man so als „Linearkombination“ von Potenzfunktionen<br />

darstellen.<br />

• x ↦→ 1 2 cos x + 1 2√<br />

3 sin x.<br />

2.) Die Wahl des Definitionsbereichs [0, 1] ist willkürlich. Alles oben Gesagte gilt <strong>für</strong><br />

beliebige Definitionsbereiche D. Aber Vorsicht, die Mengen R D sind alle verschieden.<br />

So ist etwa x ↦→ 1 x in R]0,1] , nicht aber in R [0,1] .<br />

3.) Übrigens, auch den R n kann man wie in 2.) deuten, nämlich R {1,...,n} .<br />

4.) Reelle Vektorräume sind spezielle Vektorräume. Ersetzt man in <strong>der</strong> Definition R<br />

durch einen an<strong>der</strong>en Körper K , spricht man von einem Vektorraum über dem Körper<br />

K ; häufig als Vektorraum (V, K) angesprochen.<br />

5.) Wir schreiben 0 <strong>für</strong> die neutralen Elemente von (V, +) <strong>und</strong> von (K, +). Das wird<br />

in fast allen Büchern so gemacht <strong>und</strong> darf als Standard gelten. Mit etwas Vorsicht<br />

sind Verwechslungen ausgeschlossen.<br />

Wie bei an<strong>der</strong>en Strukturen, leitet man auch hier einige wichtige Eigenschaften direkt<br />

aus den Axiomen ab.<br />

(11.5) Sei (V, K) ein Vektorraum. Dann gelten <strong>für</strong> alle x ∈ V <strong>und</strong> α ∈ K<br />

(1) 0 · x = 0<br />

(2) α · 0 = 0<br />

(3) α · x = 0 =⇒ α = 0 o<strong>der</strong> x = 0.<br />

(4) (−1) · x = −x.<br />

Beweis. Wir benutzen die Kürzregel (5.13) aus <strong>der</strong> Gruppentheorie:<br />

(1) 0 · x + 0 = 0 · x = (0 + 0) · x = 0 · x + 0 · x =⇒ 0 = 0 · x.<br />

(2) α · 0 + 0 = α · 0 = α · (0 + 0) = α · 0 + α · 0 =⇒ 0 = α · 0.<br />

(3) Im Fall α ≠ 0 schließt man α · x = 0 =⇒ α −1 · (α · x) = α −1 · 0 = 0. An<strong>der</strong>erseits<br />

gilt α −1 · (α · x) = x, also x = 0.<br />

(4) Übung. <br />

35


Bezeichnet man sinnvollerweise die Elemente eines Vektorraumes als Vektoren, folgt<br />

<strong>für</strong> den R 2 , dass jedes Zahlenpaar ein Vektor ist. Eventuell ist man es von <strong>der</strong> Schule<br />

gewohnt, „Pfeile“ im R 2 als Vektoren aufzufassen. Für uns sind diese Pfeile freie Vektoren,<br />

festgelegt durch Anfangs- <strong>und</strong> Endpunkt. Je<strong>der</strong> freie Vektor lässt sich als Differenz<br />

zweier Vektoren (Endpunkt minus Anfangspunkt o<strong>der</strong> Spitze minus Schaft) schreiben.<br />

Je<strong>der</strong> Vektor ist ein freier Vektor mit Anfangspunkt (0, 0), manchmal spricht man dann<br />

auch von einem Ortsvektor.<br />

Mathematisch gesehen besteht kein Unterschied zwischen Punkten, Orts- <strong>und</strong> freien<br />

Vektoren. Vielmehr verbergen sich hinter diesen Bezeichnungen bestimmte Deutungen,<br />

die etwa in <strong>der</strong> Physik sehr wohl relevant sein können.<br />

Die Deutung eines Vektors als Verschiebevektor hängt mit dem Begriff <strong>der</strong> Translation<br />

zusammen.<br />

Definition. Sei v ∈ R n . Die Abbildung τ v : R n → R n ; x ↦→ x + v heißt Translation<br />

o<strong>der</strong> Verschiebung um v.<br />

Translationen werden uns in <strong>der</strong> Geometrie noch oft begegnen. Hier halten wir nur eine<br />

wichtige Eigenschaft <strong>der</strong> Menge aller Translationen fest.<br />

(11.6) Die Menge T (R n ) <strong>der</strong> Translationen bildet eine kommutative Gruppe, die zu<br />

(R n , +) isomorph ist. Genauer: Die Abbildung<br />

ist ein Isomorphismus.<br />

τ : R n → T (R n ) ; v ↦→ τ v<br />

Beweis. Wir betrachten v, w ∈ R n <strong>und</strong> rechnen <strong>für</strong> x ∈ R n<br />

τ v ◦ τ w (x) = τ v (x + w) = (x + w) + v = x + (v + w) = τ v+w (x),<br />

dabei haben wir das Assoziativ- <strong>und</strong> das Kommutativgesetz in (R n , +) benutzt. Deshalb<br />

ist τ ein Homomorphismus.<br />

Der Rest ist einfaches Nachrechnen.<br />

<br />

Untervektorräume<br />

Als Lösungsmengen homogener linearer Gleichungssysteme treten spezielle Teilmengen<br />

des R n auf. Das sind genau die Kerne von Matrizen. Wir untersuchen die Struktur dieser<br />

Mengen genauer. Es wird sich herausstellen, dass es sich um Vektorräume handelt.<br />

Beispiel. Wir untersuchen im reellen Vektorraum R 2 die folgende Mengen<br />

T 1 := { (x, y) ∈ R 2 ; x, y ∈ Z } T 2 := { (x, y) ∈ R 2 ; y = x }<br />

T 3 := { (x, y) ∈ R 2 ; y = 1 } T 4 := { (x, y) ∈ R 2 ; x, y ≥ 0 }<br />

T 5 := { (x, y) ∈ R 2 ; x 2 + y 2 = 1 } T 6 := R(1, −2)<br />

Frage : Für welche i = 1, 2, 3, 4, 5, 6 ist T i selbst ein reeller Vektorraum?<br />

36


Diese Frage werden wir in <strong>der</strong> Vorlesung beantworten <strong>und</strong> erkennen, dass nur wenige<br />

Teilmengen eines Vektorraumes selbst Vektorräume sind. Ist dies <strong>der</strong> Fall, spricht man<br />

von einem Untervektorraum.<br />

Definition. Eine Teilmenge U eines Vektorraumes heißt Untervektorraum, wenn U<br />

selbst ein Vektorraum ist.<br />

(11.7) Beispiele. 1.) T 2 <strong>und</strong> T 6 sind Untervektorräume von R 2 , anschaulich handelt<br />

es sich um Geraden durch (0, 0).<br />

2.) { (x 1 , x 2 , x 3 , 0) ; x i ∈ R } ist Untervektorraum von R 4 .<br />

3.) {0}, wobei mit 0 <strong>der</strong> Nullvektor gemeint ist, <strong>und</strong> V sind stets Untervektorräume<br />

von V . Man nennt sie auch die trivialen Untervektorräume.<br />

4.) { (x 1 , . . . , x 8 ) ∈ Z 8 2 ; x 1 + · · · + x 8 ≡ 0 mod 2 } ist eine Untervektorraum von Z 8 2 , ein<br />

sogenannter Paritätskontroll-Code.<br />

Will man überprüfen, ob eine Teilmenge U eines Vektorraums V ein Untervektorraum<br />

ist, muss man nicht alle Vektorraumaxiome nachweisen. Da<strong>für</strong> sorgt<br />

(11.8) Sei V ein Vektorraum. U ⊆ V ist (Unter)vektorraum von V genau dann, wenn<br />

<strong>für</strong> alle x, y ∈ U <strong>und</strong> alle α ∈ K gilt<br />

(U1)<br />

(U2)<br />

U ≠ ∅<br />

x + y ∈ U<br />

(U3) α · x ∈ U .<br />

Vor dem Beweis wollen wir kurz etwas zur Bedeutung dieses Satzes sagen. Nicht beide<br />

Richtungen des „genau dann, wenn“ sind mathematisch gleich wichtig. Während die<br />

Aussage „ =⇒“ ziemlich uninteressant ist, bedeutet die Kenntnis von „ ⇐=“ große Arbeitserleichterung:<br />

Um eine nicht leere Teilmenge eines Vektorraumes als Untervektorraum<br />

zu erkennen, genügt <strong>der</strong> Nachweis <strong>der</strong> Abgeschlossenheit bezüglich <strong>der</strong> Addition<br />

<strong>und</strong> <strong>der</strong> Skalarmultiplikation in dieser Teilmenge.<br />

Beweis. „ =⇒“: Aus den Voraussetzungen U Vektorraum <strong>und</strong> U ⊆ V sind die Eigenschaften<br />

(U1) – (U3) nachzuweisen. Dies ist einfach, denn (U1) <strong>und</strong> (U2) sind direkte<br />

Konsequenzen aus <strong>der</strong> Vorgabe (U, +) abelsche Gruppe, während (U3) gilt, weil „ ·“ eine<br />

Skalarmultiplikation auf U ist.<br />

„ ⇐=“: Hier ist aus den Voraussetzungen „ V Vektorraum, U ⊆ V <strong>und</strong> (U1) – (U3)“ <strong>der</strong><br />

Nachweis zu führen, dass U Vektorraum ist.<br />

Zur Skalarmultiplikation: Wegen (U3) ist die auf V gegebene Skalarmultiplikation auch<br />

auf U abgeschlossen. Die Bedingungen (1) – (4) sind <strong>für</strong> · : K × U → U erfüllt, da sie<br />

sogar <strong>für</strong> jeden Vektor aus V gelten.<br />

Zur abelschen Gruppe (U, +): Die Bedingung (U2) stellt sicher, dass U abgeschlossen<br />

ist. Assoziativität gilt schon in V . Wegen (U1) gibt es x ∈ U , also ist auch 0 = 0·x ∈ U ;<br />

37


<strong>und</strong> U enthält das neutrale Element. Wegen (U3) ist mit u auch (−1) · u ∈ U . Aus<br />

(11.5) wissen wir (−1) · u = −u. <br />

(11.9) Bemerkung. Eben haben wir gesehen, dass <strong>der</strong> Nullvektor in jedem Untervektorraum<br />

enthalten sein muss. Gehört umgekehrt <strong>der</strong> Nullvektor nicht zu einer Teilmenge<br />

eines Vektorraumes, so liegt garantiert kein Untervektorraum vor!<br />

Zwei beson<strong>der</strong>s wichtige Beispiele.<br />

(11.10) Es sei n ∈ N.<br />

(1) Für alle u ∈ R n ist Ru ein Untervektorraum von R n .<br />

(2) Es sei A ∈ R m×n , m ∈ N, dann ist Kern A ein Untervektorraum von R n .<br />

Beweis. Wir prüfen die Bedingungen (U1) – (U3) aus (11.8).<br />

(1) (U1): Ru ≠ ∅, beispielsweise ist u = 1 · u ∈ Ru;<br />

(U2): x ∈ Ru <strong>und</strong> y ∈ Ru =⇒ x = αu, y = βu =⇒ x+y = αu+βu = (α+β)u ∈ Ru;<br />

(U3): α ∈ R <strong>und</strong> x ∈ Ru =⇒ α · x = α · (β · u) = (αβ)u ∈ Ru.<br />

(2) folgt aus (10.11). <br />

Bemerkung. Im Fall u = 0 ist <strong>der</strong> Untervektorraum Ru = {0} trivial. An<strong>der</strong>nfalls ist<br />

er nicht trivial.<br />

Anschaulich ist folgende Aussage klar. Sie spielt bei <strong>der</strong> Beschreibung von Geraden eine<br />

Rolle.<br />

(11.11) Seien v, w ∈ R n \ {0}, dann gilt Rv = Rw ⇐⇒ v ∈ Rw.<br />

Beweis. „ =⇒“ ist klar, denn v ∈ Rv.<br />

„ ⇐=“: v ∈ Rw bedeutet v = λw <strong>für</strong> ein λ ∈ R \ {0} (da v ≠ 0). Für α ∈ R gilt<br />

αv = αλw ∈ Rw, d. h. Rv ⊆ Rw. Schließlich ist w = λ −1 v ∈ Rv; <strong>und</strong> es folgt analog<br />

Rw ⊆ Rv.<br />

<br />

Aus (10.13) <strong>und</strong> (11.10.2) ergibt sich, dass die Lösungsmengen von linearen Gleichungssystemen<br />

die Form w + U haben, mit einem Untervektorraum U . Auch Geraden im<br />

R n haben eine solche Struktur. Man kann sie verstehen als „verschobene Untervektorräume“.<br />

In <strong>der</strong> Tat gilt v + U = τ v (U), d.h. die Translation τ v wird auf die Menge U<br />

angewendet.<br />

Wann sind solche Mengen gleich?<br />

(11.12) Für v, w ∈ R n <strong>und</strong> jeden Untervektroraum U sind äquivalent<br />

(I) v + U = w + U<br />

(II) v + U ∩ w + U ≠ ∅<br />

38


(III) v ∈ w + U<br />

(IV) v − w ∈ U<br />

Beweis. Es gilt v = v + 0 ∈ v + U . „(I) =⇒ (III)“ <strong>und</strong> „(III) =⇒ (II)“ sind damit klar.<br />

(II) =⇒ (IV): Es sei v + u 1 = w + u 2 ∈ v + U ∩ w + U . Dann gilt v − w = u 2 − u 1 ∈ U .<br />

(IV) =⇒ (I): Es seien v − w = u 1 ∈ U <strong>und</strong> v + u 2 ∈ v + U . Es gilt dann<br />

v + u 2 = −u 1 + v + u 2 + u 1 = w − v + v + u 1 + u 2 = w + (u 1 + u 2 ) ∈ w + U.<br />

Das zeigt v + U ⊆ w + U . Aus (IV) folgt weiter w − v = (−1)(v − w) ∈ U ; <strong>und</strong> daher<br />

analog w + U ⊆ v + U .<br />

<br />

Die Mengen v+U mit einem Untervektorraumes U nennt man auch eine Nebenklasse<br />

des Untervektorraumes U . Sie entsteht, wenn man die Translation τ v auf die Menge U<br />

anwendet.<br />

Ausdrücke <strong>der</strong> Form αu + βv, auch mit mehr als zwei Summanden, sind uns schon<br />

begegnet <strong>und</strong> werden uns noch häufig begegnen. Wir machen eine formale<br />

Definition. Seien (V, K) ein Vektorraum, v 1 , . . . , v n ∈ V <strong>und</strong> α 1 , . . . , α n ∈ K , dann<br />

heißt <strong>der</strong> Vektor<br />

n∑<br />

v = α 1 v 1 + α 2 v 2 + · · · + α n v n = α i v i<br />

Linearkombination <strong>der</strong> Vektoren v i mit Koeffizienten α i .<br />

Direkt aus (11.8) folgt<br />

(11.13) Es sei U ein Untervektorraum des Vektorraums (V, K). Dann sind mit v 1 , . . . , v n ∈<br />

U auch alle Linearkombinationen dieser Vektoren in U .<br />

<br />

i=1<br />

Geraden im R n<br />

Wie schon mehrfach angedeutet, fassen wir die Elemente des R n als Punkte auf <strong>und</strong><br />

bezeichnen sie mit großen Buchstaben, beispielsweise A = (a 1 , . . . , a n ), B, P, X ∈ R n .<br />

Mit A + B ist die übliche Addition im Vektorraum gemeint.<br />

Aus (11.10) wissen wir, dass die Mengen Rv mit v ∈ R n \ {0} Untervektorräume sind.<br />

Diese lassen sich als Geraden durch O := (0, . . . , 0) interpretieren.<br />

Jetzt wollen wir Geraden „offiziell“ einführen.<br />

(11.14) Definition. Zu zwei Vektoren v, w ∈ R n mit w ≠ 0 = (0, . . . , 0) heißt die<br />

Menge<br />

g = v + Rw = {v + λw ; λ ∈ R}<br />

Gerade mit Stützvektor (o<strong>der</strong> Aufpunkt) v <strong>und</strong> Richtungsvektor w.<br />

39


Wegen <strong>der</strong> Abhängigkeit von λ spricht man von einer Parameterdarstellung o<strong>der</strong><br />

Parameterform <strong>der</strong> Geraden.<br />

Seien A, B ∈ R n verschiedene Punkte. Dann heißt die Gerade<br />

AB := { A + λ(B − A) ∈ R n ; λ ∈ R } = A + R(B − A)<br />

auch Verbindungsgerade <strong>der</strong> Punkte A <strong>und</strong> B .<br />

Der Begriff Verbindungsgerade wird gerechtfertigt durch<br />

(11.15) Seien A, B, C, D Punkte in R n mit A ≠ B <strong>und</strong> C ≠ D.<br />

(1) A, B ∈ AB .<br />

(2) Folgende Aussagen sind äquivalent<br />

(I) AB = CD<br />

(II) C, D ∈ AB<br />

(III) R(B − A) = R(D − C) <strong>und</strong> C − A ∈ R(B − A).<br />

Insbeson<strong>der</strong>e gilt AB = BA.<br />

(3) Es gibt genau eine Gerade, die A <strong>und</strong> B enthält, nämlich die Verbindungsgerade.<br />

Beweis. (1) Für λ = 0 erhält man A = A + 0 · (B − A) ∈ AB ; <strong>für</strong> λ = 1 ist B =<br />

A + 1 · (B − A) ∈ AB .<br />

(2) (I) =⇒ (II) kommt direkt aus (1).<br />

(II) =⇒ (III): Es gilt C = A + α(B − A) <strong>und</strong> D = A + β(B − A). Dabei ist α ≠ β ,<br />

sonst wären C <strong>und</strong> D gleich. Durch subtrahieren <strong>der</strong> Gleichungen erhält man<br />

D − C = (β − α)(B − A) ∈ R(B − A)<br />

Mit (11.11) folgt R(B − A) = R(D − C). Wegen C = A + α(B − A) gilt weiter<br />

C − A = α(B − A) ∈ R(B − A).<br />

(III) =⇒ (I): Es gibt α, β ∈ R mit C − A = α(B − A) <strong>und</strong> D − C = β(B − A). Daraus<br />

folgt C = A + α(B − A) ∈ AB <strong>und</strong><br />

D = C + β(B − A) = A + α(B − A) + β(B − A) = A + (α + β)(B − A) ∈ AB.<br />

Mit (3) ergibt sich AB = CD.<br />

(3) Es gelte A, B ∈ g = v+Rw, dann folgt A = v+αw <strong>und</strong> B = v+βw. Subtrahieren<br />

führt auf B − A = (β − α)w. Mit (11.11) folgt R(B − A) = Rw <strong>und</strong> dann g = AB . <br />

(11.16) Bemerkung. 1.) Zu gegebenem AB :<br />

Wo liegen die Punkte mit λ = 0, 1, 2, 1 2 , −1, − 3 2 ?<br />

2.) Warum heißt es ein <strong>und</strong> nicht <strong>der</strong> Aufpunkt bzw. Richtungsvektor?<br />

40


3.) Wegen unserer Definition <strong>und</strong> (11.10.1) sind Geraden verschobene Untervektorräume.<br />

Sie entstehen, wenn man eine Translation auf den Untervektorraum Rv anwendet.<br />

Geraden sind also Nebenklassen von Untervektorräumen <strong>der</strong> Form Rv.<br />

4.) Es sei g = v + Rw eine Gerade <strong>und</strong> u ∈ R n , dann ist auch<br />

τ u (g) = (v + Rw) + u = (u + v) + Rw eine Gerade.<br />

Translationen bilden also Geraden auf Geraden ab.<br />

Geometrie <strong>der</strong> Anschauungsebene<br />

Wir spezialisieren weiter <strong>und</strong> untersuchen nun R 2 .<br />

Zunächst verfeinern wir (11.11)<br />

(11.17) Es seien u = (u 1 , u 2 ) <strong>und</strong> v = (v 1 , v 2 ) aus R 2 \ {0}, dann gilt<br />

Ru = Rv ⇐⇒ u 1 v 2 = u 2 v 1 .<br />

Beweis. „ =⇒“: u ∈ Rv impliziert u = αv mit α ≠ 0. Daher gilt<br />

u 1 = αv 1 <strong>und</strong> u 2 = αv 2 =⇒ u 1 v 2 = αv 1 v 2 <strong>und</strong> u 2 v 1 = αv 2 v 1 ,<br />

also folgt die Behauptung.<br />

„ ⇐=“: Übung! <br />

Nun bestimmen wir die nicht-trivialen<br />

Untervektorräume des R 2 . Sei (0, 0) ≠ u ∈ U ⊆ R 2 . Damit U Untervektorraum<br />

sein kann, muss U alle Vielfachen von u enthalten (vgl. auch (11.13)):<br />

Für u ∈ U gilt dann αu ∈ U <strong>für</strong> alle α ∈ R, d.h. Ru = {αu ; α ∈ R} ⊆ U .<br />

Wie gesehen ist Ru eine Gerade durch (0, 0). Jede solche Gerade ist nach (11.10) ein<br />

Untervektorraum.<br />

Damit haben wir bereits alle Untervektorräume gef<strong>und</strong>en!<br />

(11.18) Sei U ⊆ R 2 Untervektorraum. Dann ist U = {(0, 0)} o<strong>der</strong> U = Ru (Gerade<br />

durch den Ursprung) o<strong>der</strong> U = R 2 .<br />

Beweis. Wir müssen zeigen: Besteht U nicht nur aus einer Geraden <strong>der</strong> Gestalt Ru, so<br />

ist U bereits <strong>der</strong> gesamte Vektorraum R 2 .<br />

Sei also v = (v 1 , v 2 ) ∈ U, u = (u 1 , u 2 ) ∈ U , beide von Null verschieden, <strong>und</strong> v ∉ Ru.<br />

Nach (11.17) gilt u 1 v 2 − u 2 v 1 ≠ 0<br />

Da U ein Untervektorraum ist, <strong>der</strong> u <strong>und</strong> v enthält, gilt αu + βv ∈ U <strong>für</strong> alle α, β ∈ R<br />

(vgl. (11.13)). Dies <strong>und</strong> u 1 v 2 − u 2 v 1 ≠ 0 nutzen wir aus, um U = R 2 zu zeigen:<br />

41


Sei (c 1 , c 2 ) ∈ R 2 beliebig. Gesucht sind α, β ∈ R mit αu + βv = (c 1 , c 2 ). Für die<br />

Komponenten bedeutet das αu 1 + βv 1 = c 1 <strong>und</strong> αu 2 + βv 2 = c 2 . Multipliziert man die<br />

erste <strong>der</strong> Gleichungen mit v 2 , die zweite mit v 1 <strong>und</strong> subtrahiert, so ergibt sich<br />

αu 1 v 2 − αu 2 v 1 = c 1 v 2 − c 2 v 1 also α = c 1v 2 − c 2 v 1<br />

u 1 v 2 − u 2 v 1<br />

.<br />

Analog erhält man β = c 2u 1 − c 1 u 2<br />

u 1 v 2 − u 2 v 1<br />

.<br />

Durch einfaches Nachrechnen verifiziert man<br />

(c 1 , c 2 ) = c 1v 2 − c 2 v 1<br />

u 1 v 2 − u 2 v 1<br />

· (u 1 , u 2 ) + c 2u 1 − c 1 u 2<br />

u 1 v 2 − u 2 v 1<br />

· (v 1 , v 2 ) ∈ U.<br />

Daher liegt jedes Element von R 2 in U , somit U = R 2 .<br />

<br />

Außer den trivialen Untervektorräumen {(0, 0)} <strong>und</strong> R 2 sind (geometrisch gesprochen)<br />

nur noch Geraden durch den Nullpunkt (0, 0) Untervektorräume von R 2 .<br />

Frage: Wie sehen alle Untervektorräume von R 3 aus?<br />

Parallelität in <strong>der</strong> Anschauungsebene. Wir wenden uns nun einem Begriff zu, <strong>der</strong><br />

in dieser Form nur in <strong>der</strong> Anschauungsebene definiert werden kann.<br />

Definition. Die Geraden g <strong>und</strong> h <strong>der</strong> Anschauungsebene heißen parallel, wenn<br />

Wir schreiben dann g ‖ h.<br />

g = h o<strong>der</strong> g ∩ h = ∅.<br />

Wir stellen einige einfache Tatsachen zusammen.<br />

(11.19) Seien g = P + Rv <strong>und</strong> h = Q + Rw Geraden in R 2<br />

(1) g ‖ h ⇐⇒ Rv = Rw<br />

(2) g ̸ ‖ h ⇐⇒ |g ∩ h| = 1.<br />

Beweis. (1) „ ⇐=“ folgt direkt aus (11.12).<br />

„ =⇒“: Im Fall g = h zeigt (11.15.2)(III) die Behauptung. Wir können uns deshalb auf<br />

den Fall g ∩ h = ∅ beschränken <strong>und</strong> müssen Rv = Rw zeigen.<br />

Dazu gehen wir vom Gegenteil aus <strong>und</strong> zeigen, dass es dann immer einen Schnittpunkt<br />

gibt. Es gelte also Rv ≠ Rw. Wie im Beweis von (11.18) zeigt man, dass es zu jedem<br />

Punkt S ∈ R 2 reelle Zahlen α, β gibt mit S = αv + βw. Daher hat die Gleichung<br />

P + λv = Q + µw immer eine Lösung; <strong>und</strong> damit g <strong>und</strong> h immer einen Schnittpunkt.<br />

Dieser Wi<strong>der</strong>spruch zeigt die Behauptung.<br />

(2) „ ⇐=“ ist trivial.<br />

„ =⇒“: Zwei nicht parallele Geraden haben nach Definition immer mindestens einen<br />

Schnittpunkt. Wenn es mindestens zwei Schnittpunkte gibt, so folgt aus (11.15.2), dass<br />

die Geraden gleich, also auch parallel sind.<br />

<br />

42


(11.20) Bemerkung. Den geometrischen Gehalt des vorigen Satzes kann man so zusammenfassen:<br />

Zwei verschiedene Punkte A, B besitzen eine eindeutig bestimmte Verbindungsgerade,<br />

nämlich AB .<br />

Mit etwas Mühe schließt man daraus (Übung):<br />

Zu jedem Punkt P <strong>und</strong> je<strong>der</strong> Geraden g gibt es eine eindeutig bestimmte Gerade h mit<br />

P ∈ h <strong>und</strong> g‖h.<br />

Dieses sind die wesentlichen Axiome <strong>für</strong> affine Ebenen, die wir im 4. Semester genauer<br />

untersuchen werden.<br />

Koordinatendarstellung von Geraden.<br />

Schule mit unseren Geraden zu tun?<br />

Was haben die Geraden y = mx + t aus <strong>der</strong><br />

Wir betrachten die Menge <strong>der</strong> Punkte h := { (x, mx + t) ; x ∈ R } , o<strong>der</strong> besser einen<br />

beliebigen Punkt (x, mx+t) = (0, t)+x(1, m) von h <strong>und</strong> erkennen h = (0, t)+R(1, m).<br />

Durch die Darstellung h : y = mx + t werden nicht alle Geraden erfasst. Welche fehlen?<br />

Daher machen wir eine allgemeinere Betrachtung. Für a, b, c ∈ R definieren wir die<br />

Menge<br />

{<br />

}<br />

g := (x, y) ∈ R 2 ; ax + by = c .<br />

Ist das immer eine Gerade? Nein, nicht im Fall (a, b) = (0, 0) — aber in allen an<strong>der</strong>en<br />

Fällen. Wir betrachten einige<br />

(11.21) Beispiele. 1.) g : 2x − y = 5: Wähle x = λ, dann haben die Punkte auf g die<br />

Gestalt (λ, 2λ − 5) = (0, −5) + λ(1, 2). Es gilt also g = (0, −5) + R(1, 2).<br />

2.) h : x = 2: Hier bekommt man alle Punkte <strong>der</strong> Form (2, λ), also h = (2, 0) + R(0, 1)<br />

3.) Die Gerade l = (1, −1)(2, 2) = (1, −1)+R(1, 3) hat eine Darstellung l : 3x−y = 4.<br />

Die Schreibweise g : ax+by = c ist eine Abkürzung <strong>für</strong> g = { (x, y) ∈ R 2 ; ax + by = c } .<br />

Definition. Eine Beschreibung einer Geraden im R 2 in <strong>der</strong> Form g : ax + by = c mit<br />

(a, b) ≠ (0, 0) heißt Koordinatendarstellung o<strong>der</strong> Koordinatenform <strong>der</strong> Geraden g.<br />

Bemerkung. 1.) Die Koordinatendarstellung einer Geraden ist durch das Tripel (a, b, c)<br />

eindeutig bestimmt, bis auf Vielfache.<br />

In Formeln: Für die Geraden g : ax + by = c <strong>und</strong> h : ux + vy = w gilt<br />

Beachten Sie, dass „ ⇐=“ trivial ist.<br />

g = h ⇐⇒ ∃λ ∈ R \ {0} : (a, b, c) = λ(u, v, w).<br />

2.) Wann liegt O auf <strong>der</strong> Geraden g : ax + by = c ? Antwort: genau dann, wenn c = 0.<br />

43


3.) Wie kann man aus <strong>der</strong> Koordinatendarstellung den Richtungsvektor (die Steigung)<br />

erkennen?<br />

4.) Die Koordinatendarstellung liefert nur im R 2 Geraden, im R 3 sind es Ebenen.<br />

5.) An<strong>der</strong>erseits ist A + Rv mit A, v ∈ R n , v ≠ 0, auch in R n stets eine Gerade.<br />

44


12 Basen <strong>und</strong> Dimension<br />

In diesem Kapitel werden mit „linear (un)abhängig“ <strong>und</strong> „Basis“ gr<strong>und</strong>legende Begriffe<br />

<strong>der</strong> linearen Algebra eingeführt. Der Begriff <strong>der</strong> „Dimension“ leitet sich daraus ab. Dieser<br />

Begriff gibt ein Maß <strong>für</strong> die „Größe“ von Vektorräumen. V sei stets ein beliebiger<br />

Vektorraum über einem Körper K .<br />

Die lineare Hülle<br />

Die Menge aller Linearkombinationen einer Menge von Vektoren bilden einen Untervektorraum.<br />

(12.1) Seien (V, K) ein Vektorraum <strong>und</strong> v 1 , . . . , v n ∈ V . Die Menge<br />

L(v 1 , . . . , v n ) := {α 1 v 1 + α 2 v 2 + · · · + α n v n ; α 1 , . . . , α n ∈ K}<br />

ist ein Untervektorraum von V .<br />

Beweis. Übung!<br />

<br />

Definition. Der Untervektorraum L(v 1 , . . . , v n ) aller Linearkombinationen wird auch<br />

lineare Hülle <strong>der</strong> Vektoren v 1 , . . . , v n genannt.<br />

(12.2) Beispiele. 1) L(0) = {α0 ; α ∈ R} = {0}.<br />

2) L(v) = Rv.<br />

3) V = R 2 : L((1, 0), (0, 1)) = { α 1 (1, 0) + α 2 (0, 1) ; α i ∈ R } = { (α 1 , α 2 ) ; . . . } = R 2 .<br />

4) V = R 2 : L((1, 0), (2, 0)) = { α 1 (1, 0) + α 2 (2, 0) ; α i ∈ R } = R(1, 0).<br />

5) V = R 2 : L((1, 1), (1, −1)) = { α 1 (1, 1) + α 2 (1, −1) ; α i ∈ R } = ?<br />

6) V = R 3 : Gesucht sind U 1 = L((1, 0, 0), (0, 1, 0)); U 2 = L((1, 0, 0), (1, 2, 0)) <strong>und</strong><br />

U 3 = L((1, 2, 0), (2, 4, 0)).<br />

Liegen (2, 1, 0) <strong>und</strong>/o<strong>der</strong> (1, 1, −1) in U k ?<br />

7) Nur <strong>der</strong> Vollständigkeit halber sei erwähnt: L(∅) := {0}.<br />

8) V = R 4 : L((1, 0, 0, 0), (0, 1, 0, 0)) ist die x 1 -x 2 -Ebene.<br />

9) V = C 2 : L((1, i), (i, −1)) = C(1, i)<br />

Bemerkung. Verschiedene Vektoren können durchaus die gleiche lineare Hülle haben,<br />

wie U 1 <strong>und</strong> U 2 in Beispiel 6) zeigen.<br />

Beispiel 6) zeigt auch, dass die Suche nach einer Darstellung eines Vektors als Linearkombination<br />

auf ein lineares Gleichungssystem führt. Wir betrachten das etwas genauer.<br />

45


Gegeben seien v 1 , . . . , v r ∈ R n . Wie prüfen wir ob w ∈ L(v 1 , . . . , v r ) ? Wir müssen w<br />

als Linearkombination darstellen, d.h. wir suchen α 1 , . . . , α r ∈ R mit<br />

w = α 1 v 1 + · · · + α r v r .<br />

Stellt man alle Vektoren als Spalten dar, ergibt sich<br />

⎛ ⎞ ⎛ ⎞ ⎛<br />

⎞ ⎛<br />

v 11<br />

v 1r v 11 . . . v 1r<br />

⎜ ⎟ ⎜ ⎟ ⎜<br />

⎟ ⎜<br />

w = α 1 ⎝ . ⎠ + · · · + α r ⎝ . ⎠ = ⎝ . . ⎠ ⎝<br />

v n1 v nr v n1 . . . v nr<br />

⎞<br />

α 1<br />

⎟<br />

. ⎠ .<br />

α r<br />

Es ist also ein lineares Gleichungssystem zu lösen. Die Spalten <strong>der</strong> Koeffizientenmatrix V<br />

sind genau die Vektoren v 1 , . . . , v r , die „rechte Seite“ ist <strong>der</strong> Vektor w. Man vergleiche<br />

das mit <strong>der</strong> Spaltensicht (10.10) <strong>der</strong> Matrizenmultiplikation.<br />

Ist dieses Gleichungssystem nicht lösbar, dann bedeutet das w ∉ L(v 1 , . . . , v r ).<br />

Als nächstes stellt sich die Frage ob — im Fall <strong>der</strong> Existenz — diese Darstellung eindeutig<br />

ist. Es wird sich herausstellen, dass man nur den Nullvektor untersuchen muss. Die<br />

Gleichung α 1 v 1 + · · · + α r v r = 0 hat immer die (triviale) Lösung α i = 0 <strong>für</strong> alle<br />

i = 1, . . . , r. Und wir wissen ja auch, dass 0 in je<strong>der</strong> linearen Hülle liegt.<br />

Gibt es in L(v 1 , . . . , v r ) weitere Linearkombinationen α 1 v 1 + . . . + α r v r = 0?<br />

⎛(<br />

) ( ) ( ) ⎞<br />

(12.3) Beispiele. 1.) V = R 2 , L ⎝<br />

1 1 0<br />

, , ⎠. Hier gilt beispielsweise<br />

0 1 1<br />

⎛(<br />

2.) V = R 2 , L ⎝<br />

1<br />

0<br />

(<br />

)<br />

0<br />

0<br />

,<br />

)<br />

(<br />

= 1 ·<br />

0<br />

1<br />

(<br />

1<br />

0<br />

)<br />

+ (−1) ·<br />

(<br />

1<br />

1<br />

)<br />

+ 1 ·<br />

(<br />

) ⎞ ⎠. Die Suche nach α, β ∈ R mit<br />

0<br />

1<br />

)<br />

.<br />

(<br />

0<br />

0<br />

)<br />

= α ·<br />

(<br />

1<br />

0<br />

)<br />

+ β ·<br />

(<br />

0<br />

1<br />

)<br />

=<br />

(<br />

α<br />

β<br />

)<br />

ergibt zwingend α = β = 0.<br />

Die Beispiele zeigen, dass mit r-Tupeln von Vektoren (v 1 , . . . , v r ) manchmal die Darstellung<br />

des Nullvektors als Linearkombination — wie im letzten Beispiel — ausschließlich<br />

auf triviale Weise möglich ist. Manchmal sind wie in (12.3.1) auch an<strong>der</strong>e Linearkombinationen<br />

möglich.<br />

Diese Beobachtung gibt Anlass zu einer<br />

(12.4) Definition. Sei (V, K) ein beliebiger Vektorraum, v 1 , . . . , v r ∈ V .<br />

46


(1) (v 1 , . . . , v r ) heißt linear unabhängig : ⇐⇒ Für alle α 1 , α 2 , . . . , α r ∈ K gilt<br />

α 1 v 1 + . . . + α r v r = 0 =⇒ α 1 = α 2 = . . . = α r = 0.<br />

Man sagt auch: Der Nullvektor lässt sich nur trivial aus v 1 , . . . , v r kombinieren.<br />

(2) (v 1 , . . . , v r ) heißt linear abhängig : ⇐⇒ (v 1 , . . . , v r ) ist nicht linear unabhängig.<br />

Auch folgende Ausdrucksweisen <strong>für</strong> lineare (Un)abhängigkeit sind üblich: Die Vektoren<br />

v 1 , . . . , v r sind linear (un)abhängig, {v 1 , . . . , v r } ist linear (un)abhängig, usw.<br />

(12.5) Beispiele. 1.) Im Vektorraum R 2 ist ((1, 0), (0, 1)) linear unabhängig, während<br />

((1, 0), (1, 1), (0, 1)) linear abhängig ist.<br />

2.) Untersuche die lineare Abhängigkeit von<br />

((1, 0), (2, 0)), ((1, 1, 1), (0, 1, 2)), ((0, 0), (1, 2)), <strong>und</strong> ((i, 2), (1, −2i)).<br />

3.) v, w ∈ R n \ {0} sind linear abhängig ⇐⇒ v ∈ Rw ⇐⇒ Rv = Rw.<br />

Siehe dazu (11.11).<br />

Direkt aus <strong>der</strong> Definition <strong>und</strong> den Vorüberlegungen ergibt sich<br />

(12.6) Es sei A ∈ R m×n eine Matrix. Dann ist Kern A = {0} genau dann, wenn die<br />

Spalten von A linear unabhängig sind.<br />

<br />

Die wichtigste Eigenschaft linear unabhängiger Systeme ist<br />

(12.7) Seien v 1 , . . . , v r ∈ V , dann gilt (v 1 , . . . , v r ) ist linear unabhängig genau dann,<br />

wenn je<strong>der</strong> Vektor in L(v 1 , . . . , v r ) eindeutig als Linearkombination <strong>der</strong> v 1 , . . . , v r dargestellt<br />

werden kann.<br />

Beweis. „ ⇐=“ ist trivial, denn insbeson<strong>der</strong>e kann ja die Null nur auf eine Weise dargestellt<br />

werden.<br />

„ =⇒“: Sei v ∈ L(v 1 , . . . , v r ) auf zwei Weisen dargestellt:<br />

Subtrahieren <strong>der</strong> Gleichungen liefert<br />

v = α 1 v 1 + · · · + α r v r<br />

v = β 1 v 1 + · · · + β r v r<br />

0 = (α 1 − β 1 )v 1 + · · · + (α r − β r )v r .<br />

Weil (v 1 , . . . , v r ) linear unabhängig ist, folgt α i − β i = 0. Daher gibt es nur eine Darstellung.<br />

<br />

47


Will man Vektoren auf lineare (Un)abhängigkeit untersuchen, muss man stets<br />

beteiligten Vektoren im Auge behalten.<br />

Beispiel. ((1, 0), (1, 1), (0, 1)) ist linear abhängig, obwohl je zwei Vektoren linear unabhängig<br />

sind.<br />

(12.8) Bemerkung. 1.) Sind Vektoren v 1 , . . . , v r linear abhängig, kann man mindestens<br />

einen von ihnen als Linearkombination <strong>der</strong> übrigen aufschreiben; denn<br />

∑<br />

αi v i = 0 <strong>und</strong> oE α r ≠ 0 ergibt<br />

v r = −αr<br />

−1 α 1 · v 1 − . . . − αr −1 α r−1 · v r−1 .<br />

Dies bedeutet L(v 1 , . . . , v r−1 ) = L(v 1 , . . . , v r ). Um unnötigen Schreib- <strong>und</strong> Rechenaufwand<br />

zu vermeiden, ist man an linear unabhängigen Vektoren interessiert.<br />

2.) Wir haben gesehen, dass <strong>der</strong> Kern einer Matrix <strong>und</strong> damit die Lösungsmenge U<br />

eines homogenen linearen Gleichungssystems ein Untervektorraum ist. Das Gaußsche<br />

Eliminationsverfahren liefert aber mehr: Es liefert Vektoren v 1 , . . . , v r mit U =<br />

L(v 1 , . . . , v r ). Dabei ist r die Anzahl <strong>der</strong> freien Variablen. Und diese Vektoren sind<br />

linear unabhängig!<br />

Vgl. dazu die Beispiele unter (10.12) <strong>und</strong> aus den Übungen.<br />

alle<br />

Basen<br />

Definition. Sei V ein beliebiger Vektorraum, v i ∈ V .<br />

(v 1 , . . . , v r ) heißt Basis von V , wenn gilt<br />

(B1)<br />

(v 1 , . . . , v r ) ist linear unabhängig;<br />

(B2) L(v 1 , . . . , v r ) = V .<br />

(12.9) Bemerkung. 1.) Basen sind minimale Erzeugendensysteme eines Vektorraumes.<br />

Je<strong>der</strong> Vektor aus V liegt in <strong>der</strong> linearen Hülle einer Basis (Erzeugendensystem).<br />

Entfernt man einen Vektor aus einer Basis, umfasst die lineare Hülle <strong>der</strong> restlichen<br />

Vektoren nicht mehr alle Vektoren aus V (minimal). Vgl. dazu auch (12.8.1).<br />

2.) Ist eine Basis (b 1 , . . . , b n ) gegeben, kann je<strong>der</strong> Vektor v wegen (B2) als Linearkombination<br />

dieser Basisvektoren geschrieben werden. Weil die Basisvektoren wegen<br />

(B1) linear unabhängig sind, ist diese Darstellung nach (12.7) eindeutig, es gibt also<br />

eindeutig bestimmte (α 1 , . . . , α n ) ∈ R n mit<br />

v = α 1 b 1 + . . . + α n b n .<br />

Die Eindeutigkeit ermöglicht den Koeffizientenvergleich.<br />

3.) In <strong>der</strong> Physik (<strong>und</strong> auch in <strong>der</strong> <strong>Mathematik</strong>) wird die Lösung von Problemen oft<br />

durch die Wahl eines geeigneten Koordinatensystems vereinfacht. Der Wechsel von<br />

einem Koordinatensystem zu einem an<strong>der</strong>en mit demselben Ursprung, bedeutet den<br />

Übergang zu einer an<strong>der</strong>en Basis!<br />

48


4.) Falls auch <strong>der</strong> Ursprung verlegen werden soll, dann benutzt man noch eine Translation.<br />

Die Aussage von (12.8.2) zusammen mit (10.13) über ein gegebenes lineares Gleichungssystem<br />

kann man so zusammenfassen:<br />

(12.10) Das Gaußsche Eliminationsverfahren liefert eine Basis <strong>der</strong> Lösungsmenge des<br />

homogenen Systems <strong>und</strong> zugleich eine spezielle Lösung des Systems.<br />

Die Anzahl <strong>der</strong> Basisvektoren ist die Anzahl <strong>der</strong> freien Variablen.<br />

Besser kann man die Lösungsmenge nicht beschreiben! Insbeson<strong>der</strong>e kann man bei <strong>der</strong><br />

Beschreibung nichts weglassen.<br />

Anstelle von einer Basis (v 1 , . . . , v r ) spricht man auch von einer Basis {v 1 , . . . , v r } o<strong>der</strong><br />

man sagt, die Vektoren v 1 , . . . , v r bilden eine Basis.<br />

<br />

Anmerkung: In dieser Vorlesung werden wir nicht auf Unterschiede eingehen, die sich<br />

aus <strong>der</strong> Schreibweise einer Basis als geordnetes Tupel o<strong>der</strong> ungeordnete Menge ergeben<br />

<strong>und</strong> je nach Gutdünken eine <strong>der</strong> beiden Darstellungen wählen.<br />

(12.11) Beispiele. 1.) V = R 2 : ((1, 0), (0, 1)) <strong>und</strong> ((1, 1), (1, 2)) sind Basen, <strong>für</strong> (2, 5) ∈<br />

R 2 gilt (2, 5) = 2 · (1, 0) + 5 · (0, 1) bzw. (2, 5) = (−1) · (1, 1) + 3 · (1, 2).<br />

2.) ((1, 2), (1, 3), (1, 4)) ist keine Basis, denn (B1) ist verletzt.<br />

3.) V = R 3 : ((1, 0, 0), (0, 1, 0), (0, 0, 1)) ist eine Basis. ((1, 0, 0), (0, 0, 1)) ist keine Basis,<br />

denn (B2) ist verletzt.<br />

4.) V = R n mit n ∈ N: Sei e i := (0, . . . , 0, 1, 0, . . . , 0) mit <strong>der</strong> 1 an i–ter Stelle. Diese<br />

beson<strong>der</strong>s einfache Basis (e 1 , . . . , e n ) wird kanonische Basis genannt.<br />

5.) In <strong>der</strong> Schule haben Sie bereits mehr o<strong>der</strong> weniger bewusst die kanonische Basis<br />

benutzt, um Punkte <strong>der</strong> Anschauungsebene R 2 eindeutig anzugeben: P = (x, y)<br />

bedeutet nichts an<strong>der</strong>es als P = (x, y) = x · (1, 0) + y · (0, 1) = x · e 1 + y · e 2 .<br />

6.) Jede Basis von R 2 muss zwei Elemente haben. Für ein einzelnes v ist L(v) ≠<br />

R 2 . Drei können nicht linear unabhängig sein, denn nach dem Beweis von (11.18),<br />

kann man jedes Element in R 2 schon mit je zwei linear unabhängigen Vektoren<br />

ausdrücken. Gehen Sie den Beweis nochmals durch um sich das klar zu machen.<br />

7.) Wir betrachten die Menge R[x] aller Polynome. Diese bilden einen Untervektorraum<br />

von R R aller Abbildungen R → R. Man erkennt, dass (1, x, x 2 , . . . , x n ) <strong>für</strong> alle<br />

n ∈ N linear unabhängig ist. Das unendliche System (1, x, x 2 , . . . , x n , . . . ) hat die<br />

Eigenschaften einer Basis. Insbeson<strong>der</strong>e kann jedes Polynom eindeutig als (endliche)<br />

Linearkombination dieser Element dargestellt werden.<br />

Der folgende Satz beschäftigt sich mit <strong>der</strong> Existenz von Basen. Er gilt viel allgemeiner<br />

als hier formuliert. Der Beweis geht aber weit über den Stoff dieser Vorlesung hinaus.<br />

49


(12.12) Basisergänzungssatz. Sei V ein Vektorraum, {v 1 , . . . , v r }, {w 1 , . . . , w s } seien<br />

Teilmengen von V <strong>und</strong> es gelte L(v 1 , . . . , v r , w 1 , . . . , w s ) = V . Wenn (v 1 , . . . , v r ) linear<br />

unabhängig ist, kann (v 1 , . . . , v r ) durch Hinzufügen von Vektoren aus {w 1 , . . . , w s }<br />

zu einer Basis von V ergänzt werden.<br />

Beweis (Skizze). 1. Wenn L(v 1 , . . . , v r ) = V gilt, sind keine Vektoren hinzuzufügen —<br />

auch dieser Fall ist eingeschlossen.<br />

2. Sei L(v 1 , . . . , v r ) ≠ V = L(v 1 , . . . , v r , w 1 , . . . , w s ). Mit (12.8) erkennt man, dass<br />

w i ∈ {w 1 , . . . , w s } \ L(v 1 , . . . , v r ) existiert, <strong>und</strong> es folgt, dass (v 1 , . . . , v r , w i ) linear<br />

unabhängig ist (um das zu zeigen ist etwas Detailarbeit erfor<strong>der</strong>lich).<br />

3. Man überprüft, ob L(v 1 , . . . , v r , w i ) = V gilt. Wenn ja, ist man fertig, sonst führt<br />

man 2. analog <strong>für</strong> L(v 1 , . . . , v r , w i ) ≠ V durch: ∃w j ∈ {w 1 , . . . , w s } \ {w i } so, dass<br />

(v 1 , . . . , v r , w i , w j ) linear unabhängig ist, usw.<br />

4. Nach spätestens s vielen Schritten ist man fertig. <br />

(12.13) Beispiel. Im R 3 ist (v 1 , v 2 ) = ((1, 0, 0), (0, 1, 0)) linear unabhängig, <strong>und</strong> <strong>für</strong><br />

(w 1 , w 2 , w 3 ) = ((1, 1, 0), (0, 1, 1), (1, 1, 1)) gilt L(v 1 , v 2 , w 1 , w 2 , w 3 ) = R 3 (ohne Beweis).<br />

Wegen L(v 1 , v 2 ) = { (α 1 , α 2 , 0) ; α i ∈ R } ≠ R 3 gibt es w i ∈ {w 1 , w 2 , w 3 } mit w i ∉<br />

L(v 1 , v 2 ).<br />

Wegen w 1 = v 1 + v 2 ∈ L(v 1 , v 2 ) kommt w 1 nicht in Frage, aber es ist w 2 ∉ L(v 1 , v 2 ).<br />

Daher ist (v 1 , v 2 , w 2 ) linear unabhängig. Man kann zeigen, dass dies eine Basis von R 3<br />

ist. Frage : Was ist mit (v 1 , v 2 , w 3 )?<br />

Dimension<br />

Wir haben gesehen, dass ein Vektorraum viele verschiedene Basen haben kann. Es wird<br />

uns allerdings nicht gelingen, eine Basis des R 2 mit nur einem o<strong>der</strong> eine mit mehr als<br />

zwei Vektoren zu finden (siehe (12.11.6)). Allgemeiner besteht jede Basis des R n aus<br />

genau n Vektoren. Der Beweis dieser simplen Aussage ist allerdings so schwierig, dass<br />

er in dieser Vorlesung lei<strong>der</strong> nicht durchgeführt werden kann. Siehe z.B. [Beu98] o<strong>der</strong><br />

[Fis11].<br />

(12.14) Satz über die Gleichmächtigkeit von Basen. In einem Vektorraum seien<br />

(v 1 , . . . , v n ) <strong>und</strong> (w 1 , . . . , w m ) Basen. Dann gilt n = m.<br />

Dieser Satz erlaubt es uns, eine mathematische Definition des Dimensionsbegriffs zu<br />

geben. Machen Sie sich klar, dass das unserer intuitiven Vorstellung von Dimension<br />

(zumindest im Anschauungsraum) entspricht.<br />

Definition. (1) Sei (v 1 , . . . , v n ) eine Basis eines Vektorraumes (V, K). Dann heißt n<br />

die Dimension von V , geschrieben dim V = n o<strong>der</strong> dim K V = n.<br />

50


(2) Sei V ein Vektorraum, <strong>der</strong> <strong>für</strong> kein n ∈ N eine Basis (v 1 , . . . , v n ) besitzt. Dann<br />

heißt V unendlich dimensional, geschrieben dim V = ∞.<br />

(12.15) Beispiele. 1.) Für die uns vertrauten reellen Vektorräume R n gilt dim R n = n<br />

(auch <strong>für</strong> n = 1). Das folgt aus (12.11.4).<br />

2.) dim R[x] = ∞ nach (12.11.7). Genauso gilt dim R [0,1] = ∞.<br />

3.) C ist ein R-Vektorraum (<strong>der</strong> Nachweis ist einfach!). Was ist dim R C? Da jede komplexe<br />

Zahl in <strong>der</strong> Form z = a + ib mit a, b ∈ R geschrieben werden kann, ist (1, i)<br />

eine Basis von C, also dim R C = 2.<br />

4.) Was sind dim R R, dim Q R?<br />

(12.16) Bemerkung. 1.) Der Nachweis <strong>der</strong> linearen (Un)abhängigkeit konkreter Vektoren<br />

ist oft nicht einfach. In einem Fall können Sie sich allerdings jede Rechenarbeit<br />

ersparen, nämlich wenn Sie in einem Vektorraum <strong>der</strong> Dimension n mehr als n Vektoren<br />

auf lineare Unabhängigkeit untersuchen sollen.<br />

2.) Im Allgemeinen ist dazu ein lineares Gleichungssystem zu lösen. Das wurde schon<br />

an Beispielen (auch in den Übungen) durchgeführt.<br />

3.) Wir können nun (12.10) nochmals ergänzen: Die Dimension des Kernes einer Matrix<br />

ist die Anzahl <strong>der</strong> freien Variablen des zugehörigen linearen Gleichungssystems.<br />

4.) Im R n ist jede linear unabhängige Menge mit n Elementen eine Basis von R n . Das<br />

gilt auch <strong>für</strong> jedes Erzeugendensystem mit n Elementen.<br />

5.) Interessierten <strong>Studierende</strong>n sei <strong>der</strong> Beweis des Satzes (12.14) ans Herz gelegt. Sie finden<br />

ihn in jedem Buch über lineare Algebra. Aber Vorsicht: Die unendliche Variante<br />

ist noch schwieriger!<br />

6.) Welche Dimension hat {0}? In Beispiel (12.2.7) wurde festgehalten L(∅) = {0} <strong>und</strong><br />

∅ ist linear unabhängig (warum??). Also gilt dim{0} = 0, so wie wir es von einem<br />

Punkt erwarten.<br />

Um den folgenden Satz einfacher formulieren zu können machen wir eine<br />

(12.17) Definition. Zu je<strong>der</strong> Matrix A ∈ R m×n sei L(A) die lineare Hülle <strong>der</strong> Spalten<br />

von A. Es ist L(A) ein Untervektorraum von R m , genannt <strong>der</strong> Spaltenraum von A.<br />

Für lineare Gleichungssysteme haben unsere Betrachtungen folgende Konsequenzen.<br />

(12.18) Satz. Es sei A ∈ R m×n <strong>und</strong><br />

(1) Für b ∈ R m existiert eine Lösung des Systems Ax = b genau dann, wenn b ∈ L(A).<br />

(2) Äquivalent sind<br />

(I) Das System Ax = b besitzt <strong>für</strong> alle b ∈ R m höchstens eine Lösung.<br />

(II) Die Spalten von A sind linear unabhängig.<br />

51


(III) Kern A = {0}.<br />

(3) Äquivalent sind<br />

(I) Das System Ax = b besitzt <strong>für</strong> alle b ∈ R m genau eine Lösung.<br />

(II) m = n <strong>und</strong> die Spalten von A sind linear unabhängig.<br />

(III) Die Spalten von A bilden eine Basis von R m .<br />

(IV) m = n <strong>und</strong> L(A) = R m .<br />

(V) A ist invertierbar.<br />

Beweis. (1) ist eine Umformulierung <strong>der</strong> Spaltensicht <strong>der</strong> Matrizenmultiplikation (10.10).<br />

(2) „(I) ⇐⇒ (II)“ folgt aus (12.6) <strong>und</strong> (10.13); „(II) ⇐⇒ (III)“ steht in (12.6).<br />

(3) „(V) =⇒ (I)“ ist klar; „(I) ⇐⇒ (III)“ steht in (12.7) zusammen mit (1).<br />

(III) =⇒ (II): Es gilt L(A) = R m <strong>und</strong> es gibt n Spalten. Daher folgt m = n. Nach<br />

Definition einer Basis sind die Spalten von A linear unabhängig.<br />

(II) =⇒ (IV): A hat m = n Spalten, die linear unabhängig sind, also ist die lineare<br />

Hülle gleich R m . Das folgt aus (12.12) <strong>und</strong> (12.14).<br />

Ähnlich folgt „(IV) =⇒ (III)“ durch zusammenwirken <strong>der</strong> beiden Sätze (12.12) <strong>und</strong><br />

(12.14). — Wie?<br />

„(III) =⇒ (V)“ wird später behandelt.<br />

(12.19) Bemerkung. 1.) Für eine Matrix A ∈ R m×n wird dim L(A) auch Rang <strong>der</strong><br />

Matrix genannt. Es ist ein bedeuten<strong>der</strong>e Satz <strong>der</strong> linearen Algebra, dass <strong>der</strong> Rang<br />

einer Matrix zugleich die Dimension <strong>der</strong> linearen Hülle <strong>der</strong> Zeilen von A ist.<br />

Kurz:<br />

Zeilenrang = Spaltenrang.<br />

2.) Mit diesen Begriffen (<strong>und</strong> solchen aus dem folgenden Kapitel) kann man die Liste<br />

<strong>der</strong> äquivalenten Aussagen unter (3) noch erweitern.<br />

<br />

Affine Unterräume<br />

treten als Lösungsmengen linearer Gleichungsysteme auf. Vgl. zu diesem Abschnitt<br />

auch (11.12). Dort fiel <strong>der</strong> Begriff <strong>der</strong> Nebenklasse.<br />

Definition. Es sei U ein Untervektorraum eines Vektorraums V , dann heißt P + U =<br />

τ P (U) <strong>für</strong> jedes P ∈ V ein affiner Unterraum von V .<br />

Wir setzen dim(P + U) := dim U <strong>und</strong> sprechen von <strong>der</strong> Dimension des affinen Unterraums.<br />

Etwas plakativ gesprochen sind affine Unterräume „verschobene“ Untervektorräume.<br />

Ist (b 1 , . . . , b n ) eine Basis von U , so gilt<br />

P + U = P + L(b 1 , . . . , b n ) = P + Rb 1 + · · · + Rb n .<br />

52


Man spricht daher von einer Parameterdarstellung des affinen Unterraums.<br />

Dimension 0 1 2<br />

Trivialname Punkt Gerade Ebene<br />

Parameterdarstellung P = P + {0} g = P + Rb 1 E = P + Rb 1 + Rb 2<br />

b 1 ≠ 0<br />

Koordinatendarstellung nur in R 2 nur in R 3<br />

b 1 , b 2 lin. unabhängig<br />

g : ax 1 + bx 2 = c E : ax 1 + bx 2 + cx 3 = d<br />

(a, b) ≠ (0, 0) (a, b, c) ≠ (0, 0, 0)<br />

Koordinatendarstellung zu Parameterdarstellung: Man fasst die Gleichung als lineares<br />

Gleichungssystem mit nur einer Gleichung auf, führt freie Variable ein <strong>und</strong> bestimmt<br />

die Lösungsmenge.<br />

Beispiel. E : 2x − y + 3z = 5<br />

Parameterdarstellung zu Koordinatendarstellung:<br />

aus g bzw. E <strong>und</strong> macht <strong>für</strong> diese Punkte den Ansatz<br />

Man berechnet einige Punkte<br />

ap 1 + bp 2 + cp 3 − d = 0<br />

aq 1 + bq 2 + cq 3 − d = 0<br />

ar 1 + br 2 + cr 3 − d = 0<br />

<strong>und</strong> bestimmt eine Lösung (a, b, c, d) ≠ (0, 0, 0, 0) dieses linearen Gleichungsystems.<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

1 1 −1<br />

⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />

Beispiel. E = ⎝ 1 ⎠ + R ⎝ 1 ⎠ + R ⎝ 0 ⎠<br />

2 0<br />

1<br />

Bemerkung. Man könnte die Liste <strong>für</strong> höhere Dimensionen weiterführen. Eine Koordinatendarstellung<br />

<strong>für</strong> einen affinen Unterraum gibt es nur, wenn die Dimension um 1<br />

kleiner als die Dimension des umgebenden Raumes ist.<br />

53


13 Lineare Abbildungen<br />

Grob gesprochen sind lineare Abbildungen bei Vektorräumen dasselbe wie Homomorphismen<br />

bei Gruppen, nämlich strukturerhaltende Abbildungen. Auch in diesem Kapitel<br />

seien V, W endlich-dimensionale Vektorräume. Wenn nicht ausdrücklich etwas An<strong>der</strong>es<br />

erwähnt wird, geht es in den Beispielen um Vektorräume R n mit <strong>der</strong> kanonischen Basis<br />

(e 1 , . . . , e n ).<br />

Definition. f : V → W heißt lineare Abbildung o<strong>der</strong> Homomorphismus : ⇐⇒<br />

(L1) f(x + y) = f(x) + f(y) ∀x, y ∈ V<br />

(L2) f(αx) = αf(x) ∀α ∈ R, ∀x ∈ V<br />

Die Menge aller linearen Abbildungen von V nach W schreibt man<br />

Hom(V, W ) := {f : V → W ; f linear} .<br />

Man beachte, dass in (L1) <strong>und</strong> (L2) jeweils <strong>für</strong> verschiedene Verknüpfungen das gleiche<br />

Symbol benutzt wurde. Um die Nullvektoren <strong>der</strong> verschiedenen Vektorräume V <strong>und</strong> W<br />

unterscheiden zu können, bezeichnen wir sie bei Bedarf mit 0 V <strong>und</strong> 0 W .<br />

(13.1) Beispiele. 1.) V = W = R : f : x ↦→ x + 1 ist nicht linear, g : x ↦→ 5x ist<br />

linear.<br />

2.) V = R 2 , W = R : f : (x 1 , x 2 ) ↦→ x 1 − x 2 ist linear, g : (x 1 , x 2 ) ↦→ x 1 x 2 ist nicht<br />

linear.<br />

3.) V = R 3 , W = R 2 : f : (x 1 , x 2 , x 3 ) ↦→ (x 1 + x 2 , x 3 ) ist linear.<br />

Die Aussage des Satzes (10.11) kann nun an<strong>der</strong>s formuliert werden.<br />

(13.2) Für jede Matrix A ∈ R m×n ist die Abbildung f A : R n → R m ; x ↦→ Ax linear. <br />

Bemerkung. Der Beweis von (10.11) ist viel eleganter, wenn man die Summenschreibweise<br />

benutzt:<br />

n∑<br />

Ax = y mit y i = a ij x j .<br />

Versuchen Sie es — auch mit (L2)!<br />

Man wird bei beliebigen linearen Abbildungen f : V → W nicht erwarten können, dass<br />

je<strong>der</strong> Vektor aus W ein Urbild besitzt. Wir hatten einige Beispiele im Abschnitt über<br />

lineare Gleichungssysteme. Stets gilt aber f(0 V ) = 0 W :<br />

j=1<br />

f(0 V ) = f(0 · 0 V ) = 0 · f(0 V ) = 0 W .<br />

54


Kern <strong>und</strong> Bild<br />

Definition. Sei f ∈ Hom(V, W ). Dann heißt<br />

Kern f := f −1 ( {0 W } ) = { v ∈ V ; f(v) = 0 W<br />

}<br />

Bild f := f(V ) = { f(v) ; v ∈ V } das Bild von f .<br />

<strong>der</strong> Kern von f<br />

Der Kern einer linearen Abbildung besteht aus allen Vektoren, die auf den Nullvektor<br />

abgebildet werden.<br />

{<br />

R<br />

(13.3) Beispiele. 1.) Was sind Bild f <strong>und</strong> Kern f von f :<br />

2 → R 2<br />

?<br />

(x, y) ↦→ (x, x)<br />

2.) Seien A ∈ R m×n <strong>und</strong> b ∈ R m×1 . Die Lösungsmenge des homogenen linearen Gleichungssystems<br />

Ax = 0 ist genau <strong>der</strong> Kern <strong>der</strong> linearen Abbildung f A aus (13.2).<br />

Kurz: Kern A = Kern f A .<br />

Das lineare Gleichungssystems Ax = b hat genau dann eine Lösung, wenn b ∈<br />

Bild f A = L(A); vgl. dazu (12.18.1).<br />

Für jede lineare Abbildung f : V → W ist Kern f ⊆ V <strong>und</strong> Bild f ⊆ W . Es gilt sogar<br />

(13.4) Sei f ∈ Hom(V, W ). Dann gelten<br />

(1) Kern f ist eine Untervektorraum von V .<br />

(2) Bild f ist eine Untervektorraum von W .<br />

(3) f injektiv ⇐⇒ Kern f = {0 V }.<br />

Beweis. Um (1) <strong>und</strong> (2) zu beweisen, müssen wir jeweils (U1) – (U3) überprüfen.<br />

(1) (U1): Wir wissen bereits 0 V ∈ Kern f , also Kern f ≠ ∅.<br />

(U2): v, w ∈ Kern f =⇒ f(v+w) = f(v)+f(w) = o W +o W = o W =⇒ v+w ∈ Kern f .<br />

(U3): α ∈ R, v ∈ Kern f =⇒ f(αv) = αf(v) = α0 W = 0 W =⇒ αv ∈ Kern f .<br />

(2) (U1): Wegen f(0 V ) = 0 W ∈ Bild f gilt Bild f ≠ ∅.<br />

(U2), (U3): α ∈ R, x, y ∈ Bild f =⇒ ∃v, w ∈ V mit f(v) = x, f(w) = y =⇒<br />

f(v + w) = f(v) + f(w) = x + y =⇒ x + y ∈ Bild f ;<br />

f(αv) = αf(v) = αx =⇒ αx ∈ Bild f .<br />

(3) „ =⇒“: Ist klar, da wir den wesentlichen Schritt bereits bewiesen haben (wo?).<br />

„ ⇐=“: Seien v, w ∈ V mit f(v) = f(w)<br />

⇐⇒<br />

0 W = f(v) − f(w) = f(v − w) =⇒ v − w ∈ Kern f<br />

=⇒ v − w = 0 V =⇒ v = w =⇒ f injektiv. <br />

55


Bemerkung. Die Aussagen des letzen Satzes sind alle <strong>für</strong> Matrizen bereits bekannt;<br />

<strong>und</strong> die Beweise verlaufen analog!<br />

Wir stellen einen Zusammenhang zwischen den Dimensionen <strong>der</strong> Untervektorräume<br />

Kern f <strong>und</strong> Bild f her. Aus Kern f ⊆ V folgt 0 ≤ dim Kern f ≤ dim V <strong>und</strong> aus<br />

Bild f ⊆ W folgt 0 ≤ dim Bild f ≤ dim W .<br />

(13.5) Beispiele. 1.) 0 :<br />

{<br />

V → W<br />

v ↦→ 0 W<br />

=⇒ dim Kern 0 = dim V, dim Bild 0 = 0.<br />

2.) id : V → V ; v ↦→ v =⇒ dim Kern(id) = 0, dim Bild(id) = dim V .<br />

3.) Es sei f : R 3 → R 2 ; (x, y, z) ↦→ (x+y, z). Wegen f((1, 0, 0)) = (1, 0) <strong>und</strong> f((0, 0, 1)) =<br />

(0, 1) enthält das Bild zwei linear unabhängige Vektoren, damit ist dim Bild f = 2.<br />

(x, y, z) ∈ Kern f ⇐⇒ f(x, y, z) = (x + y, z) = (0, 0) =⇒ x = −y, z = 0. Damit<br />

ist<br />

Kern f = { (x, −x, 0) ; x ∈ R } = R(1, −1, 0) = L((1, −1, 0)) =⇒ dim Kern f = 1.<br />

In allen Beispielen gilt die<br />

(13.6) Dimensionsformel <strong>für</strong> lineare Abbildungen. Seien V, W Vektorräume.<br />

Für jede lineare Abbildung f : V → W gilt<br />

dim V = dim Kern f + dim Bild f.<br />

Beweis (Skizze). Jede Basis (v 1 , . . . , v r ) des Kerns können wir dank (12.12) zu einer<br />

Basis von V ergänzen, sei (v 1 , . . . , v r , v r+1 , . . . , v n ) die ergänzte Basis. Für ein beliebiges<br />

v = ∑ n<br />

i=1 α iv i ∈ V gilt dann<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

n∑<br />

r∑<br />

n∑<br />

n∑<br />

n∑<br />

f(v) = f ⎝ α i v i<br />

⎠ = f ⎝ α i v i<br />

⎠+f ⎝ α i v i<br />

⎠ = 0 W + α i f(v i ) = α i w i<br />

i=1<br />

i=1<br />

i=r+1<br />

i=r+1<br />

i=r+1<br />

Dabei gilt f(v i ) = w i . Somit ist Bild f = L(w r+1 , . . . , w n ). Aus <strong>der</strong> linearen Unabhängigkeit<br />

von (w r+1 , . . . , w n ) (Beweis <strong>für</strong> Interessierte anschließend) folgt dim Bild f =<br />

n − r = dim V − dim Kern f .<br />

Beh : (w r+1 , . . . , w n ) linear unabhängig<br />

Bew : Sei β r+1 w r+1 + . . . + β n w n = 0 W . Wegen w i = f(v i ) folgt<br />

⎛ ⎞<br />

n∑<br />

n∑<br />

0 W = β i f(v i ) = f ⎝ β i v i<br />

⎠ .<br />

Damit gehört<br />

n∑<br />

i=r+1<br />

i=r+1<br />

i=r+1<br />

β i v i zu Kern f = L(v 1 , . . . , v r ). Es folgt<br />

n∑<br />

i=r+1<br />

⇐⇒ γ 1 v 1 + . . . + γ r v r − β r+1 v r+1 − . . . − β n v n = 0 V<br />

∑<br />

β i v i = r γ i v i<br />

=⇒ γ 1 = . . . = γ r = β r+1 = . . . = β n = 0. <br />

i=1<br />

56


(13.7) Bemerkung. 1.) In <strong>der</strong> Dimensionsformel taucht dim W aus leicht erklärlichen<br />

Gründen nicht explizit auf: Bei je<strong>der</strong> linearen Abbildung f : V → W kann W durch<br />

einen „größeren“ Vektorraum W ′ ersetzt werden, ohne dass Kern f <strong>und</strong> Bild f <strong>und</strong><br />

damit <strong>der</strong>en Dimensionen sich än<strong>der</strong>n.<br />

2.) Im Fall dim W < dim V kann f nicht injektiv sein, denn dim Kern f = dim V −<br />

dim Bild f ≥ dim V − dim W > 0.<br />

3.) Weil die Dimension des Bildes auch Rang von f genannt wird, ist<br />

dim V = dim Kern f + Rang f<br />

eine an<strong>der</strong>e Fassung dieser Formel, vgl. dazu (12.19).<br />

4.) Für eine Matrix A gilt Kern A = Kern f A , L(A) = Bild f A <strong>und</strong> Rang A = Rang f A .<br />

5.) Nach (10.13) hat die Lösungsmenge eines jeden linearen Gleichungssystems die Form<br />

v + Kern A. Die Dimensionsformel erlaubt eine genauere Begründung <strong>für</strong> die in<br />

Bemerkung (10.14.2) gemachten Aussagen.<br />

Darstellung linearer Abbildungen<br />

Beispiel. Wieviele lineare Abbildungen f : R 2 → R 3 gibt es mit<br />

f(e 1 ) = (2, 4, 0) <strong>und</strong> f(e 2 ) = (1, 0, 2)?<br />

Antwort : Sei (x, y) ∈ R 2 beliebig. Wegen (x, y) = xe 1 +ye 2 folgt aus den Eigenschaften<br />

einer linearen Abbildung<br />

f(x, y) = f(xe 1 + ye 2 ) = xf(e 1 ) + yf(e 2 ) = x(2, 4, 0) + y(1, 0, 2) = (2x + y, 4x, 2y).<br />

Damit hat genau eine lineare Abbildung die verlangten Eigenschaften.<br />

⎛ ⎞<br />

2 1<br />

( )<br />

⎜ ⎟ x<br />

Übrigens gilt f(x, y) = ⎝4 0⎠<br />

.<br />

y<br />

0 2<br />

Beides ist kein Zufall: Ist (b 1 , . . . , b n ) eine Basis von V <strong>und</strong> sind w 1 , . . . , w n beliebige,<br />

nicht notwendig verschiedene Vektoren aus W , so gibt es immer genau eine lineare<br />

Abbildung f : V → W mit f(b i ) = w i <strong>für</strong> i = 1, . . . , n.<br />

Wir formulieren diesen Sachverhalt präzise ohne einen formalen Beweis zu geben.<br />

(13.8) Satz. Es seien (b 1 , . . . , b n ) eine Basis von V <strong>und</strong> (w 1 , . . . , w n ) ein beliebiges<br />

n-Tupel von Vektoren aus W . Dann existiert genau ein<br />

nämlich<br />

⎛ ⎞<br />

n∑<br />

f(v) = f ⎝ α i b i<br />

⎠ =<br />

f ∈ Hom(V, W ) mit f(b i ) = w i <strong>für</strong> i = 1, . . . , n,<br />

i=1<br />

n∑<br />

α i f(b i ) =<br />

i=1<br />

n∑<br />

α i w i ,<br />

i=1<br />

wenn v = ∑ n<br />

i=1 α ib i ∈ V .<br />

57


Entscheidend <strong>für</strong> einen Beweis ist die Tatsache, dass die Darstellung von v nach (12.7)<br />

eindeutig ist. Deshalb ist die letzte Zeile eine Definition von f .<br />

Feststellung. Die gesamte Information über eine lineare Abbildung ist bereits in den<br />

Bil<strong>der</strong>n <strong>der</strong> Basisvektoren enthalten!<br />

Diese Information lässt sich zu einer Matrix zusammenfassen, wie man am Beispiel<br />

erkennen kann. Im Spezialfall <strong>der</strong> kanonischen Basen von R n <strong>und</strong> R m ergibt sich<br />

(13.9) Sei f : R n → R m eine lineare Abbildung, dann gilt f(x) = Ax. Dabei sind die<br />

Spalten <strong>der</strong> Matrix A = (f(e 1 ) . . . f(e n )) ∈ R m×n durch f(e i ), i ∈ {1, . . . , n}, gegeben.<br />

⎛ ⎞<br />

n∑<br />

n∑<br />

Beweis. f(x) = f ⎝ x i e i<br />

⎠ = x i f(e i ) = Ax.<br />

i=1<br />

i=1<br />

(13.10) Bemerkung. 1.) Die Spalten <strong>der</strong> Matrix A bestehen also aus den Bild-Vektoren<br />

<strong>der</strong> kanonischen Basisvektoren<br />

⎛ ⎞ ⎛ ⎞<br />

⎛ ⎞<br />

1<br />

0<br />

0<br />

e 1 = ⎜ ⎟<br />

⎝<br />

0. ⎠ , e 2 = ⎜ ⎟<br />

⎝<br />

1. ⎠ , . . . , e n = ⎜ ⎟<br />

⎝<br />

0. ⎠ .<br />

0<br />

0<br />

1<br />

2.) Gemessen an <strong>der</strong> Gesamtzahl aller Abbildungen zwischen zwei Vektorräumen gibt<br />

es relativ wenige lineare Abbildungen. Wir wollen diese Behauptung am Beispiel <strong>der</strong><br />

endlichen Vektorräume Z 3 2 <strong>und</strong> Z 2 2 über dem Körper Z 2 belegen:<br />

Es gibt (Kombinatorik!) insgesamt 4 8 > 65 000 Abbildungen von Z 3 2 nach Z 2 2 . Da<br />

man 4 · 4 · 4 = 64 Tripel (w 1 , w 2 , w 3 ) mit w i ∈ Z 2 2 bilden kann, sind nur 64 dieser<br />

Abbildungen linear.<br />

3.) Übrigens gilt ∣ ∣ Z<br />

2×3 ∣ ∣ = 2 6 = 64.<br />

(13.11) Beispiel. Wir wollen die Spiegelung s an <strong>der</strong> Geraden g = R( √ 3, 1) untersuchen.<br />

g schließt mit <strong>der</strong> x-Achse einen Winkel von π (= 6<br />

30◦ ) ein. Wir setzen s als eine<br />

lineare Abbildung an, die e 1 <strong>und</strong> e 2 auf s(e 1 ) bzw. s(e 2 ) überführt. Eine elementare<br />

geometrische Überlegung, die in <strong>der</strong> Vorlesung durchgeführt wird, liefert die Matrix<br />

( )<br />

1 1<br />

√2<br />

2√<br />

3<br />

3 −<br />

1 .<br />

Versuchen Sie den einfachen Nachweis <strong>der</strong> folgenden Aussage!<br />

1<br />

2<br />

(13.12) Die Verkettung linearer Abbildungen ergibt stets wie<strong>der</strong> eine lineare Abbildung.<br />

Formal:<br />

2<br />

f ∈ Hom(V, W ), g ∈ Hom(W, X) =⇒ g ◦ f ∈ Hom(V, X).<br />

<br />

<br />

58


Sind lineare Abbildungen durch Matrizen dargestellt, dann hat man<br />

(13.13) Es seien A ∈ R m×l <strong>und</strong> B ∈ R l×n , dann sind f A : R l → R m , f B : R n → R l<br />

<strong>und</strong> f A ◦ f B : R n → R m lineare Abbildungen. Weiter gilt<br />

f A ◦ f B = f AB .<br />

Beweis. Die erste Aussage folgt aus (13.12). Für v ∈ R n gilt<br />

f A ◦ f B (x) = f A (Bx) = A(Bx) ! = (AB)x = f AB (x),<br />

wegen des Assoziativgesetzes <strong>für</strong> die Matrizenmultiplikation (10.18).<br />

<br />

Erkennen Sie, dass da ein Homomorphismus im Spiel ist?<br />

Als weitere Anwendung vervollständigen wir den Beweis von (12.18.3). In <strong>der</strong> Tat ergibt<br />

sich die zurückgestellte Aussage „(III) =⇒ (V)“ aus dem folgenden Satz.<br />

(13.14) Satz. Es sei A ∈ R m×n so, dass die Spalten von A eine Basis von R m bilden.<br />

Dann gilt m = n <strong>und</strong> A ist invertierbar.<br />

Beweis. Die erste Aussage ist klar. Für die lineare Abbildung<br />

f A sind b 1 := f A (e 1 ), . . . , b m := f A (e m )<br />

genau die Spalten von A <strong>und</strong> diese bilden eine Basis von R m . Nach (13.8) existiert genau<br />

ein g ∈ Hom(R m , R m ) mit g(b i ) = e i <strong>für</strong> alle i = 1, . . . , m.<br />

Für jedes i = 1, . . . , m gilt<br />

g ◦ f A (e i ) = g(b i ) = e i =⇒ g ◦ f A = id<br />

f A ◦ g(b i ) = f A (e i ) = b i =⇒ f A ◦ g = id .<br />

Die „ =⇒“-Pfeile ergeben sich aus <strong>der</strong> Eindeutigkeitsaussage von (13.8), denn id hat die<br />

jeweilige Eigenschaft. Das zeigt g = f −1<br />

A<br />

, <strong>und</strong> f A ist invertierbar.<br />

Nach (13.9) gibt es eine Matrix B = (g(e 1 ) . . . g(e m )) ∈ R m×m mit g = f B . Nun zeigt<br />

(13.13)<br />

f I = id = f A ◦ f B = f AB <strong>und</strong> f I = id = f B ◦ f A = f BA<br />

<strong>und</strong> abermals aus (13.9) folgt AB = BA = I .<br />

<br />

Lineare Abbildungen in <strong>der</strong> Geometrie<br />

Lineare Abbildungen führen Geraden auf Geraden über <strong>und</strong> sind daher interessant <strong>für</strong><br />

die Geometrie. Auch Translationen haben diese Eigenschaft, sind aber nicht linear. Wir<br />

beschränken uns auf lineare Abbildungen. Das hat insbeson<strong>der</strong>e zur Folge, dass <strong>der</strong><br />

Nullpunkt festgelassen wird. Geometrisch gibt es keinen Gr<strong>und</strong> das zu tun.<br />

Bei den folgenden Beispielen unterstellen wir stets, dass die gesuchten Abbildungen linear<br />

sind.<br />

59


(13.15) Beispiele. 1.) Die Drehung δ um π wird beschrieben durch δ(e 2 1) = e 2 <strong>und</strong><br />

δ(e 2 ) = −e 1 , es gilt also δ(x, y) = (−y, x). Die Matrixdarstellung lautet<br />

( )<br />

D π = 0 −1<br />

2 1 0<br />

2.) Sei γ die Drehung um 45 ◦ . Gesucht ist γ<br />

benötigen die Bil<strong>der</strong> <strong>der</strong> Basisvektoren.<br />

γ(e 1 ) = αe 1 + βe 2 mit α = β <strong>und</strong> α 2 + β 2 = 1.<br />

( )<br />

α<br />

Es folgt γ(e 1 ) = mit α = √ 2<br />

α<br />

. 2<br />

(<br />

x<br />

y<br />

)<br />

<strong>und</strong> die darstellende Matrix. Wir<br />

γ(e 2 ) <strong>und</strong> damit γ werden in den Übungen bestimmt.<br />

3.) Für die Spiegelung σ an <strong>der</strong> Geraden g : y = −x gilt<br />

( ) (<br />

0 −1<br />

σ(x, y) = xσ(e 1 ) + yσ(e 2 ) = x(−e 2 ) + y(−e 1 ) = (−y, −x) =<br />

−1 0<br />

x<br />

y<br />

)<br />

4.) Gesucht ist δ ◦ σ mit δ aus 1.) <strong>und</strong> σ aus 3). Die lineare Abbildung δ ◦ σ ist<br />

beschrieben durch ( ) ( )<br />

0 −1 0 −1<br />

= . . .<br />

1 0 −1 0<br />

Es handelt sich um eine Spiegelung an <strong>der</strong> x–Achse.<br />

5.) Wie lautet h(x, y), wenn h eine zentrische Streckung um (0, 0) mit Streckungsfaktor<br />

2 ist? Wie sieht die Matrix-Darstellung aus?<br />

6.) Was passiert mit einem Fußballspieler, <strong>der</strong> im Koordinatenursprung steht, unter <strong>der</strong><br />

linearen Abbildung e 1 ↦→ e 1 , e 2 ↦→ e 1 + e 2 ?<br />

Solch eine Abbildung heißt Scherung mit Achse Re 1 .<br />

Wir zeigen jetzt die in <strong>der</strong> Einführung zu diesem Abschnitt gemachte Behauptung.<br />

(13.16) Es sei σ : R n → R n eine bijektive lineare Abbildung, dann bildet σ Geraden<br />

auf Geraden ab. Genauer: Für jede Gerade g = P + Rv gilt σ(g) = σ(P ) + Rσ(v).<br />

Beweis. Jedes Element Q von g hat die Form Q = P + λv mit λ ∈ R. Es folgt<br />

σ(Q) = σ(P + λv) = σ(P ) + σ(λv) = σ(P ) + λσ(v) ∈ σ(P ) + Rσ(v).<br />

Weil λ durch ganz R läuft, gilt σ(g) = σ(P ) + Rσ(v).<br />

<br />

60


Frage:<br />

Was geht schief im Beweis, wenn σ nicht bijektiv ist?<br />

Wir untersuchen einige spezielle Abbildungen. Unsere Definitionen werden in <strong>der</strong> Vorlesung<br />

alle geometrisch motiviert.<br />

Zunächst betrachten wir die Drehung δ ϕ um den Winkel ϕ. Wir untersuchen die Bil<strong>der</strong><br />

<strong>der</strong> kanonischen Basisvektoren:<br />

( )<br />

( )<br />

a<br />

c<br />

δ ϕ (e 1 ) = <strong>und</strong> δ<br />

b<br />

ϕ (e 2 ) = .<br />

d<br />

Eine Skizze zeigt<br />

(<br />

a<br />

b<br />

)<br />

=<br />

(<br />

cos ϕ<br />

sin ϕ<br />

)<br />

<strong>und</strong><br />

(<br />

c<br />

d<br />

)<br />

=<br />

(<br />

− sin ϕ<br />

cos ϕ<br />

)<br />

,<br />

(<br />

cos ϕ<br />

sodass gilt δ ϕ (v) =<br />

sin ϕ<br />

)<br />

− sin ϕ<br />

v.<br />

cos ϕ<br />

Wir nutzen diese Überlegungen als Motivation <strong>für</strong> eine<br />

(13.17) Definition. Für ϕ ∈ R <strong>und</strong><br />

(<br />

)<br />

cos ϕ − sin ϕ<br />

D ϕ =<br />

sin ϕ cos ϕ<br />

heißt<br />

δ ϕ : R 2 → R 2 ; v ↦→ D ϕ v<br />

Drehung um den Winkel ϕ <strong>und</strong> D ϕ die zugehörige Drehmatrix.<br />

Führt man zwei Drehungen hintereinan<strong>der</strong> aus, so ergibt sich wie<strong>der</strong> eine Drehung. Dabei<br />

ist <strong>der</strong> Drehwinkel die Summe <strong>der</strong> beiden gegebenen Drehwinkel ( mod 2π). Die Inverse<br />

einer Drehung ist auch eine Drehung, sie hat den Drehwinkel 2π−ϕ. Diese anschaulichen<br />

Überlegungen ergeben<br />

(13.18) Die Menge aller Drehungen um den Nullpunkt bildet eine kommutative Gruppe.<br />

Genauer gilt: δ ψ ◦ δ ϕ = δ ψ+ϕ <strong>und</strong> δϕ −1 = δ 2π−ϕ . Das neutrale Element ist id = δ 0<br />

(Drehung um 0 ◦ ).<br />

<br />

Beweis. Wir betrachten die Drehungen um die Winkel α <strong>und</strong> β . Es gilt<br />

(<br />

)<br />

cos(α + β) − sin(α + β)<br />

D α+β =<br />

sin(α + β) cos(α + β)<br />

(<br />

cos α cos β − sin α sin β −(sin α cos β + cos α sin β)<br />

=<br />

sin α cos β + cos α sin β cos α cos β − sin α sin β<br />

)<br />

61


wegen <strong>der</strong> Additionstheoreme (9.11.2). An<strong>der</strong>erseits können wir rechnen<br />

(<br />

) (<br />

)<br />

cos α − sin α cos β − sin β<br />

D α D β =<br />

sin α cos α sin β cos β<br />

=<br />

(<br />

cos α cos β − sin α sin β −(sin α cos β + cos α sin β)<br />

sin α cos β + cos α sin β cos α cos β − sin α sin β<br />

)<br />

.<br />

Aus <strong>der</strong> Gleichheit dieser Matrizen <strong>und</strong> (13.13) folgt die erste Behauptung. Die an<strong>der</strong>en<br />

ergeben sich nun ganz leicht.<br />

<br />

Bemerkung. Wenn man den Begriff <strong>der</strong> Drehung geometrisch definiert <strong>und</strong> daraus<br />

ableitet, dass die Drehungen eine Gruppe bilden, dann erhält man einen geometrischen<br />

Beweis <strong>für</strong> die Additionstheoreme (9.11.2). Dazu mus man den obigen Beweis nur ein<br />

wenig umbauen.<br />

Ausgewählte lineare Abbildungen des R 2<br />

Matrix<br />

(<br />

)<br />

cos ϕ − sin ϕ<br />

Drehung um den Ursprung um den Winkel ϕ D ϕ =<br />

sin ϕ cos ϕ<br />

(<br />

)<br />

cos 2ϕ sin 2ϕ<br />

Spiegelung an Ursprungsgeraden mit Neigungswinkel ϕ<br />

sin 2ϕ − cos 2ϕ<br />

( )<br />

k 0<br />

Streckung um den Faktor k mit Streckungszentrum (0, 0)<br />

0 k<br />

( )<br />

1 a<br />

Scherung mit <strong>der</strong> x-Achse als Achse (a ∈ R)<br />

0 1<br />

( )<br />

1 0<br />

Scherung mit <strong>der</strong> y-Achse als Achse (b ∈ R)<br />

b 1<br />

Wir untersuchen nun noch lineare Abbildungen des Anschauungsraumes R 3 . Insbeson<strong>der</strong>e<br />

behandeln wir spezielle Beispiele von Drehungen <strong>und</strong> Spiegelungen. Die Drehungen<br />

haben als Drehachse eine Gerade durch den Koordinaten-Ursprung. Der Drehwinkel wird<br />

in einer Ebene senkrecht zur Drehachse gemessen, wobei auf die eindeutige Angabe des<br />

Drehwinkels (Drehrichtung) geachtet werden muss. Gespiegelt wird an einer Ebene, die<br />

ebenfalls durch (0, 0, 0) verläuft.<br />

(13.19) Beispiele. 1.) Drehung um die z -Achse mit Drehwinkel von 90 ◦ . (Wir blicken<br />

aus <strong>der</strong> positiven z –Richtung auf die x-y-Ebene <strong>und</strong> drehen gegen den Uhrzeigersinn.<br />

Das entspricht <strong>der</strong> Verwendung eines Rechtssystems.)<br />

e 1 ↦→ e 2 , e 2 ↦→ −e 1 , e 3 ↦→ e 3<br />

62


Für ein beliebiges (x, y, z) ⎛∈ R 3 erhalten ⎞ wir f(x, y, z) = xe 2 −ye 1 +ze 3 = (−y, x, z).<br />

0 −1 0<br />

⎜ ⎟<br />

Die zugehörige Matrix ist ⎝1 0 0⎠ (vgl. dazu auch (13.15.1)).<br />

0 0 1<br />

2.) Wie sieht die Drehmatrix <strong>für</strong> an<strong>der</strong>e Drehwinkel (bei gleicher Drehachse) aus?<br />

3.) Ein Fußballspieler verän<strong>der</strong>t seine Lage im Raum durch ein Foul. Durch geeignete<br />

(sehr stark vereinfachende) „Modellierung“ kann man das durch eine Drehung um<br />

den Nullpunkt beschreiben. Ausführung in <strong>der</strong> Vorlesung.<br />

4.) Spiegelung an <strong>der</strong> y-z -Ebene:<br />

e 1 ↦→ −e 1 , e 2 ↦→ e 2 , e 3 ↦→ e 3 , g(x, y, z) = (−x, y, z). Matrix?<br />

5.) Wir untersuchen g ◦ f :<br />

(g ◦ f)(x, y, z) = g(f(x, y, z)) = g((−y, x, z)) = (y, x, z).<br />

Es handelt sich um eine Spiegelung, die zugehörige „Achse“, an <strong>der</strong> gespiegelt wird,<br />

ist die Ebene { (x, x, z) ; x, z ∈ R } = R(1, 1, 0) + R(0, 0, 1).<br />

6.) Welche Abbildung ist f ◦ g?<br />

7.) Für die Abbildung h mit<br />

e 1 ↦→ e 2 , e 2 ↦→ e 3 , e 3 ↦→ e 1 gilt h(x, y, z) = (z, x, y).<br />

Wir untersuchen, welche Punkte unter h festbleiben:<br />

(x, y, z) = h(x, y, z) = (z, x, y) ⇐⇒ x = y = z.<br />

Genau die Punkte auf <strong>der</strong> Geraden R(1, 1, 1) = L(e 1 + e 2 + e 3 ) sind Fixpunkte, h<br />

ist eine Drehung. Wie groß ist <strong>der</strong> Drehwinkel?<br />

8.) Gesucht ist die Matrix, die zur zentrischen Streckung um den Faktor √ 2 gehört.<br />

9.) Gesucht ist die Matrix, die zur orthogonalen Projektion auf die x 1 -x 2 -Ebenen gehört.<br />

Bemerkung. Alle Drehungen mit einer Drehachse durch (0, 0, 0), alle Spiegelungen an<br />

einer Ebene durch (0,0,0) <strong>und</strong> alle zentrischen Streckungen mit Zentrum (0, 0, 0) sind<br />

lineare Abbildungen.<br />

Die Begriffe Rechtssystem <strong>und</strong> Rechte-Hand-Regel (= Drei-Finger-Regel) sind bei Wkipedia<br />

gut erklärt.<br />

63


14 Skalarprodukt — Abstände <strong>und</strong> Winkel<br />

Um Abstände <strong>und</strong> Winkel zu definieren benötigen wir einen neuen Begriff. Zunächst<br />

untersuchen wir die Länge eines Vektors v. Wir schreiben da<strong>für</strong> ‖v‖ <strong>und</strong> sprechen auch<br />

von <strong>der</strong> Norm von v.<br />

(14.1) Beispiele. 1.) v ∈ R 2 : Mit dem Satz des Pythagoras gilt ‖v‖ = √ v 2 1 + v 2 2 .<br />

2.) v ∈ R 3 : Wir setzen w = (v 1 , v 2 , 0). Wie in 1.) bekommt man ‖w‖ = √ v1 2 + v2 2 . Das<br />

Dreieck mit den Ecken 0, w√<br />

<strong>und</strong> v hat einen rechten Winkel in w. Mit dem Satz<br />

des Pythagoras folgt ‖v‖ = ‖w‖ 2 + v3 2 = √ v1 2 + v2 2 + v3 2 .<br />

Diese Beobachtung kann man verallgemeinern <strong>und</strong> bekommt die<br />

Definition. Für v ∈ R n heißt die reelle Zahl<br />

∑<br />

‖v‖ := √ n vi √v 2 = 1 2 + · · · + vn<br />

2<br />

die Norm o<strong>der</strong> die Länge von v.<br />

i=1<br />

Man kann ‖v‖ (genauer: ‖v‖ 2 ) auch durch ein Produkt von Matrizen ausdrücken:<br />

⎛ ⎞<br />

) v 1<br />

‖v‖ 2 = v1 2 + · · · + vn 2 ⎜ ⎟<br />

=<br />

(v 1 . . . v n ⎝ . ⎠ = v T v.<br />

v n<br />

Ab sofort werden Vektoren stets als Spaltenvektoren vorgestellt. Sie werden also als<br />

Elemente von R n×1 aufgefasst. Der zugehörige Zeilenvektor wird v T ∈ R 1×n geschrieben.<br />

Man spricht auch vom transponierten Vektor. Der Ausdruck v T v ist streng genommen<br />

eine 1 × 1-Matrix, wird aber schlicht als Zahl behandelt.<br />

Später werden wir auch Matrizen transponieren.<br />

( )<br />

1<br />

( )<br />

Beispiel. v = =⇒ v<br />

2<br />

T = 1 2 . Es gilt ‖v‖ 2 = v T v = 1 2 + 2 2 = 5, also<br />

‖v‖ = √ 5.<br />

Was ist die Transponierte eines Zeilenvektors?<br />

Um den Abstand zweier Vektoren v, w zu bestimmen, ermittelt man ‖v − w‖. Machen<br />

Sie sich anhand einer Skizze klar, dass das sinnvoll ist! Unsere Beobachtungen kombiniert<br />

mit dem Distributivgesetz <strong>für</strong> die Matrizenmultiplikation erlauben folgende Rechnung.<br />

‖v − w‖ 2 = (v − w) T (v − w) = (v T − w T )v − (v T − w T )w<br />

= v T v − w T v − v T w + w T w<br />

= ‖v‖ 2 + ‖w‖ 2 − (w T v + v T w).<br />

64


Für den letzten Ausdruck findet man<br />

v T w = v 1 w 1 + · · · + v n w n = w 1 v 1 + · · · + w n v n = w T v.<br />

Wir extrahieren daraus den entscheidenden Begriff <strong>für</strong> diesen Abschnitt.<br />

(14.2) Definition. Die Abbildung<br />

· : R n × R n → R; (v, w) ↦→ v · w := v T w =<br />

n∑<br />

v i w i = v 1 w 1 + · · · + v n w n<br />

i=1<br />

heißt Skalarprodukt (o<strong>der</strong> inneres Produkt) auf R n .<br />

Mit dem neuen Begriff liest sich das Ergebnis von oben so:<br />

‖v − w‖ 2 = ‖v‖ 2 + ‖w‖ 2 − 2(v · w).<br />

Der Satz des Pythagoras <strong>und</strong> seine Umkehrung implizieren die Aussage „ v steht senkrecht<br />

auf w genau dann, wenn v · w = 0“. Erneut ist das Anlass zu einer<br />

(14.3) Definition. Man sagt v, w ∈ R n stehen senkrecht o<strong>der</strong> orthogonal, wenn<br />

v · w = 0.<br />

Allgemeiner definieren wir den (ungerichteten!) Winkel α = ∢(v, w) zwischen v <strong>und</strong><br />

w durch<br />

cos α =<br />

v · w mit α ∈ [0, π].<br />

‖v‖ ‖w‖<br />

Auch diese Definition kann man durch eine elementare, geometrische Überlegung rechtfertigen.<br />

Wichtiger noch ist die Tatsache, dass diese Definition sinnvoll ist. Dies ergibt<br />

sich aus folgendem sehr bedeutendem Satz.<br />

(14.4) Ungleichung von Cauchy-Schwarz. Für alle v, w ∈ R n gilt<br />

|v · w| ≤ ‖v‖ ‖w‖ .<br />

Dabei gilt Gleichheit genau dann, wenn v, w linear abhängig sind.<br />

Eine Konsequenz dieses Satzes ist die Ungleichung −1 ≤<br />

v·w ≤ 1. Da das Intervall<br />

‖v‖‖w‖<br />

[−1, 1] <strong>der</strong> Wertebereich <strong>der</strong> Cosinus-Funktion ist, existiert <strong>der</strong> Winkel α in obiger<br />

Definition.<br />

Wir halten die wichtigsten Eigenschaften des Skalarprodukts fest.<br />

(14.5) Das Skalarprodukt ist<br />

bilinear, d. h. linear in beiden Argumenten;<br />

symmetrisch, d. h. ∀v, w ∈ R n : v · w = w · v;<br />

65


positiv definit, d. h. ∀v ∈ R n : v · v ≥ 0 <strong>und</strong> v · v = 0 ⇐⇒ v = 0.<br />

Beweis. (1) folgt direkt aus <strong>der</strong> Matrizendarstellung des Skalarprodukts v · w = v T w.<br />

(2) haben wir oben schon gezeigt. (3) ist klar. <br />

(14.6) Bemerkung. 1.) In <strong>der</strong> Gleichung λ(v ·w) = (λv)·w kommen drei verschiedene<br />

Produkte vor! Welche?<br />

2.) Für die Norm gilt ‖v‖ = √ v · v.<br />

Nun können wir den Beweis <strong>für</strong> die Cauchy-Schwarz’schen Ungleichung führen.<br />

Beweis (<strong>der</strong> Ungleichung von Cauchy-Schwarz). Der Fall w = 0 führt auf die trivialerweise<br />

wahre Aussage v · w = 0 = ‖v‖ 0.<br />

Wir können also w ≠ 0 annehmen. Der Trick besteht darin, den folgenden Ausdruck <strong>für</strong><br />

λ ∈ R zu betrachten <strong>und</strong> dann λ geschickt zu wählen. Dabei wird (14.5) mehrfach ohne<br />

Hinweis genutzt.<br />

0 ≤ (v − λw) · (v − λw) = v · v − λ(v · w) − λ(w · v) + λ 2 (w · w)<br />

= ‖v‖ 2 + λ 2 ‖w‖ 2 − 2λ(v · w) mit λ = v · w<br />

‖w‖ 2 folgt<br />

( ) 2<br />

0 ≤ ‖v‖ 2 v · w<br />

+<br />

‖w‖ 2 ‖w‖ 2 − 2 v · w<br />

‖w‖ 2 (v · w) = (v · w)2 (v · w)2<br />

‖v‖2 +<br />

‖w‖ 2 − 2<br />

‖w‖ 2<br />

= ‖v‖ 2 −<br />

⇐⇒ 0 ≤ ‖v‖ 2 ‖w‖ 2 − (v · w) 2<br />

(v · w)2<br />

‖w‖ 2 mal ‖w‖ 2 > 0<br />

Wurzelziehen auf beiden Seiten ergibt die erste Behauptung.<br />

Gilt Gleichheit, so ist v = λw mit dem oben gewählten λ, also sind v, w linear abhängig<br />

(auch im Fall w = 0).<br />

Sind v, w linear abhängig so gilt v = λw. Einsetzen zeigt, dass Gleichheit vorliegt.<br />

Wir formulieren die wichtigsten Eigenschaften <strong>der</strong> Norm. Manche davon sind uns schon<br />

im Zusammenhang mit dem absoluten Betrag reeller sowie komplexer Zahlen begegnet.<br />

(14.7) Für alle v, w ∈ R n , λ ∈ R gilt<br />

(1) ‖v‖ ≥ 0; ‖v‖ = 0 ⇐⇒ v = 0<br />

(2) ‖λv‖ = |λ| ‖v‖<br />

(3) ‖v + w‖ ≤ ‖v‖ + ‖w‖ (Dreiecksungleichung)<br />

(4) ‖v − w‖ ≥ ‖v‖ − ‖w‖.<br />

<br />

66


Beweis. (1) ist genau die Eigenschaft „positiv definit“ aus (14.5).<br />

(2) ‖λv‖ = √ (λv) · (λv) = √ λ 2 (v · v) = √ λ 2√ v · v = |λ| ‖v‖.<br />

(3) Wir betrachten die Quadrate <strong>der</strong> linken wie <strong>der</strong> rechten Seite <strong>der</strong> Ungleichung:<br />

‖v + w‖ 2 = (v + w) · (v + w) = ‖v‖ 2 + ‖w‖ 2 + 2v · w<br />

(‖v‖ + ‖w‖) 2 = ‖v‖ 2 + ‖w‖ 2 + 2 ‖v‖ ‖w‖ .<br />

Mit <strong>der</strong> Cauchy-Schwarz’schen Ungleichung (14.4) folgt v · w ≤ ‖v‖ ‖w‖, also<br />

‖v + w‖ 2 ≤ (‖v‖ + ‖w‖) 2<br />

Da beide Seiten positiv sind, kann man Wurzeln ziehen ohne die Ungleichung zu verän<strong>der</strong>n<br />

(die Funktion x ↦→ x 2 ist monoton auf R ≥0 ). Das ist die Behauptung.<br />

(4) folgt aus (3) wie in (5.24.4). <br />

(14.8) Bemerkung. 1.) Aus <strong>der</strong> Dreiecksungleichung <strong>für</strong> die Norm kann man nun die<br />

Dreiecksungleichung <strong>für</strong> den Abstand herleiten.<br />

2.) Mit (14.7.3) ist auch <strong>der</strong> Beweis von (9.7.4) erbracht.<br />

3.) Man kann den Satz des Pythagoras mit dem Skalarprodukt beweisen. Das ist aber<br />

im Gr<strong>und</strong>e eine Mogelpackung, denn das Skalarprodukt ist so gemacht, dass er gilt!<br />

Wir betrachten einige<br />

Anwendungen<br />

Physik: In <strong>der</strong> Schule haben Sie gelernt, Energie sei „Kraft × Weg“, also E = F s.<br />

Dabei wird nur die Komponente <strong>der</strong> Kraft in Richtung des Weges berücksichtigt. Eine<br />

Skizze zeigt: Die „richtige Formel“ lautet E = ⃗ F · ⃗s. Die Energie ist das Skalarprodukt<br />

<strong>der</strong> beiden Vektoren!<br />

In <strong>der</strong><br />

Statistik wird oft die Frage gestellt, ob Messgrößen korreliert 4 sind. Der Korrelationskoefizient<br />

κ dient dazu, das zu messen. Wir betrachten ein Beispiel: Sind Schuhgröße<br />

<strong>und</strong> Gewicht von Menschen korreliert? Dazu betrachten wir eine Menge von n<br />

Menschen <strong>und</strong> messen Schuhgröße s i <strong>und</strong> Gewicht g i <strong>der</strong> i-ten Person. Die Ergebnisse<br />

fassen wir zu zwei Vektoren s ′ <strong>und</strong> g ′ in R n zusammen. Nun wird von je<strong>der</strong> Komponente<br />

von s ′ bzw. g ′ jeweils <strong>der</strong> Mittelwert subtrahiert, sodass wir die Vektoren s <strong>und</strong><br />

g erhalten. Diese haben beide Mittelwert 0. Nun gilt<br />

κ :=<br />

s · g<br />

‖s‖ ‖g‖<br />

(= cos(Zwischenwinkel))<br />

4 Vorsicht, korreliert bedeutet nicht, dass die Größen wirklich voneinan<strong>der</strong> abhängen.<br />

67


Dividieren durch die Norm stellt sicher, dass die Größe nicht vom verwendeten Maßstab<br />

abhängt. Ist κ ≈ 1, so sind die Größen korreliert (die Vektoren s, g fast linear abhängig),<br />

gilt κ ≈ −1 so sind sie indirekt korreliert (<strong>und</strong> auch fast linear abhängig; zeigen aber in<br />

entgegengesetzte Richtungen). Im Fall κ ≈ 0 sind sie nicht korreliert (die Vektoren s, g<br />

fast orthogonal).<br />

Dazu können Sie ein Experiment machen: Zwei Personen würfeln n = 100 mal <strong>und</strong><br />

notieren die Ergebnisse. Dann subtrahieren Sie jeweils den Mittelwert (sollte ungefähr<br />

3.5 sein!) <strong>und</strong> berechnen κ (hier brauche Sie einen Rechner). Wenn das Ergebnis nicht<br />

nahe Null liegt, dann sind die beiden Personen „würfelkorreliert“!<br />

Ausgleichsgerade:<br />

Gesucht ist die Steigung m einer Gerade durch Null mit<br />

m · 2 = y 1<br />

m · 3 = y 2<br />

m · 4 = y 3<br />

Dieses lineare Gleichungssystem hat nur in Spezialfällen eine Lösung. Wenn die y i etwa<br />

Messgrößen sind, wird das nicht so sein. Trotzdem brauchen wir eine Lösung! Dazu<br />

versuchen wir den quadratischen Fehler zu minimieren:<br />

E 2 := (2m − y 1 ) 2 + (3m − y 2 ) 2 + (4m − y 3 ) 2 !<br />

= min<br />

(<br />

)<br />

Ableiten liefert die Bedingung 2 (2m − y 1 )2 + (3m − y 2 )3 + (4m − y 3 )4 = 0. Auflösen<br />

nach m führt auf eine Näherungslösung <strong>für</strong> unser Gleichungssystem.<br />

⎛ ⎞<br />

¯m = 2y 1 + 3y 2 + 4y 3<br />

= 1<br />

2<br />

⎜ ⎟<br />

2 2 + 3 2 + 4 2 a T a aT y mit a = ⎝ 3 ⎠ .<br />

4<br />

Im Fall y = (1, 1, 2) T ergibt sich z. B. ¯m ≈ 0.45. Skizzieren Sie das Ergebnis!<br />

Im Spaltenbild bedeutet die Aufgabe ein m zu finden mit m · a ≈ y. Es soll also m · a<br />

möglichst nahe bei y sein. Bei obiger Wahl von ¯m ist ¯m · a die Projektion von y auf<br />

die Gerade Ra.<br />

Das oben beschriebene Verfahren kann weitreichend verallgemeinert werden, <strong>und</strong> heißt<br />

dann Methode <strong>der</strong> kleinsten Quadrate.<br />

Beispiel. Eine Schülerin hat in ihren Mathe-Arbeiten den Notenvektor v = (1, 2, 2, 3, 1)<br />

erzielt. Sie möchte die Durchschnittsnote N berechnen <strong>und</strong> verfällt auf die Methode<br />

<strong>der</strong> kleinsten Quadrate. Sie überlegt: Ich möchte meine Daten durch eine einzige Zahl<br />

darstellen, die möglichst nahe an allen Noten liegt. Ich suche also N mit N(1, 1, 1, 1, 1) =<br />

v. Sie verwendet die obige Formel <strong>und</strong> erhält:<br />

¯N =<br />

1<br />

(1, 1, 1, 1, 1) · (1, 1, 1, 1, 1) (1, 1, 1, 1, 1) · v = 1 5<br />

Kommt <strong>der</strong> Lehrer auf dasselbe Ergebnis?<br />

5∑<br />

v i = . . . .<br />

i=1<br />

68


Orthogonale Projektion: Wir greifen das Thema Projektion auf Ra aus dem obigen<br />

Abschnitt nochmal auf. Zu gegebenem x ∈ R n suchen wir α ∈ R mit (x − αa) · a = 0.<br />

Dann heißt <strong>der</strong> Vektor αa die (orthogonale) Projektion von x auf die Gerade Ra. Wir<br />

rechnen<br />

0 = (x − αa) · a = x · a − α(a · a) =⇒ α = a · x<br />

a · a .<br />

Beachten Sie, dass das genau dieselbe Formel ist wie <strong>für</strong> ¯m weiter oben. In Matrizenschreibweise<br />

sieht die Projektion so aus<br />

x ↦→ 1<br />

‖a‖ 2 a(aT x) ! = 1<br />

‖a‖ 2 (aaT )x<br />

Das ist nur deshalb möglich, weil die Matrizen zusammenpassen. Falsch wäre z. B.<br />

(a T x)a = a T (xa), denn das Produkt xa ist nicht definiert! Hieraus erhält man die<br />

Projektionsmatrix<br />

P = 1<br />

‖a‖ 2 (aaT ) ∈ R n×n ,<br />

die die Abbildung darstellt.<br />

Beispiel. Wir untersuchen den Fall n = 2 <strong>und</strong> a = (1, 1). Die Matrix ergibt sich zu<br />

( ) ( ) ( )<br />

P = 1<br />

‖a‖ 2 (aaT ) = 1 1 ( )<br />

1 1 = 1 1 1<br />

1 1<br />

=<br />

2 2<br />

.<br />

2 1<br />

2 1 1<br />

1<br />

2<br />

1<br />

2<br />

be-<br />

Eine Skizze bestätigt, dass P die orthogonale Projektion auf die Gerade R(1, 1) T<br />

schreibt.<br />

Die Hessesche Normalform<br />

Der Koordinatenform einer Ebene im R 3 liegt auch das Skalarprodukt zugr<strong>und</strong>e. Wir<br />

betrachten ein<br />

Beispiel. Die Gleichung x − 2y + z = 0, die eine Ebene E definiert, kann man auch so<br />

schreiben<br />

⎛ ⎞<br />

( ) x<br />

⎜ ⎟<br />

1 −2 1 ⎝y⎠ = 0.<br />

z<br />

Das bedeutet, dass die Elemente von E genau diejenigen Vektoren sind, die auf w :=<br />

(1, −2, 1) T senkrecht stehen. Um eine Parameterdarstellung <strong>für</strong> E zu finden, muss<br />

man zwei zu w orthogonale, linear unabhängige Vektoren finden, etwa (2, 1, 0) T <strong>und</strong><br />

(0, 1, 2) T . Es gilt dann<br />

⎛ ⎞ ⎛ ⎞<br />

2 0<br />

( )<br />

⎜ ⎟ ⎜ ⎟<br />

E = R ⎝ 1 ⎠ + R ⎝ 1 ⎠ = Kern 1 −2 1 .<br />

0 2<br />

69


Nun betrachten wir F : x − 2y + z = 2. Auch F ist eine Ebene, die aber nicht durch 0<br />

verläuft. Eine einfache Rechnung zeigt<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

2 2 0 2 ( )<br />

⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />

F = ⎝ 0 ⎠ + R ⎝ 1 ⎠ + R ⎝ 1 ⎠ = ⎝ 0 ⎠ + Kern 1 −2 1 .<br />

0 0 2 0<br />

Man erkennt, dass auch F senkrecht zur Geraden Rw steht. Das zeigt, dass die Ebenen<br />

E <strong>und</strong> F parallel liegen.<br />

Hieraus ergibt sich eine Methode um aus einer Parameterdarstellung eine Koordinatendarstellung<br />

zu finden. Gegeben ist eine Ebene F = t + Rr + Rs in R 3 . Gesucht sind ein<br />

Vektor v ∈ R 3 <strong>und</strong> eine Zahl c ∈ R mit F : v · x = c.<br />

Um v zu bestimmen muss das lineare Gleichungssystem r T v = 0 <strong>und</strong> s T v = 0 gelöst<br />

werden. Etwas ausführlicher<br />

( ) ⎛ ⎞<br />

v<br />

( )<br />

r 1 r 2 r 1<br />

2 ⎜ ⎟ 0<br />

⎝ v<br />

s 1 s 2 s 2 ⎠ = .<br />

2 0<br />

v 3<br />

Tatsächlich genügt ein Lösungsvektor v ≠ 0. Es gilt dann c = v · t.<br />

(14.9) Bemerkung. 1.) Diese Überlegungen gelten auch im R 2 <strong>und</strong> können auf den<br />

R n übertragen werden.<br />

2.) Wer das Vektorprodukt o<strong>der</strong> Kreuzprodukt kennt, kann im R 3 (n = 3, sonst geht<br />

das nicht!) auch v = r × s rechnen.<br />

3.) Ist t ein Punkt auf F , so gilt auch F : v · (x − t) = 0.<br />

(14.10) Beispiele. 1.) Bestimme eine Koordinatendarstellung <strong>der</strong> Geraden<br />

( ) ( )<br />

1 2<br />

g = + R in R 2 .<br />

−1 3<br />

Finde v ⊥<br />

(<br />

2<br />

3<br />

)<br />

, etwa v =<br />

Es gilt g : 3x − 2y = 5.<br />

(<br />

3<br />

−2<br />

)<br />

. Setze c =<br />

2.) Bestimme eine Koordinatendarstellung <strong>der</strong> Ebene<br />

⎛ ⎞ ⎛ ⎞ ⎛<br />

1<br />

2<br />

⎜ ⎟ ⎜ ⎟ ⎜<br />

E = ⎝ 1 ⎠ + R ⎝ 1 ⎠ + R ⎝<br />

−2 −1<br />

(<br />

3<br />

−2<br />

0<br />

1<br />

1<br />

⎞<br />

)<br />

·<br />

(<br />

1<br />

−1<br />

⎟<br />

⎠ in R 3 .<br />

)<br />

= 5.<br />

70


Finde eine Lösung des linearen Gleichungssystems<br />

⎛<br />

( )<br />

2 1 −1<br />

⎜<br />

v = 0 etwa v = ⎝<br />

0 1 1<br />

1<br />

−1<br />

1<br />

⎞<br />

⎟<br />

⎠ .<br />

Setze c = (1, −1, 1) T · (1, 1, −2) T = −2. Es folgt E : x 1 − x 2 + x 3 = −2.<br />

Wir fragen nach dem Abstand d(y, E) des Punktes y ∈ R 3 von <strong>der</strong> Ebene E .<br />

Definition. Sei A ⊆ R n eine nichtleere Teilmenge <strong>und</strong> y ∈ R n .<br />

d(y, A) := inf { ‖y − a‖ ; a ∈ A }<br />

heißt Abstand des Punktes y ∈ R 3 von <strong>der</strong> Menge A.<br />

Bemerkung. Die Menge { ‖y − a‖ ; a ∈ A } ist nichtleer <strong>und</strong> nach unten beschränkt<br />

(Schranke?). Wegen <strong>der</strong> Vollständigkeit <strong>der</strong> reellen Zahlen existiert das Infimum in obiger<br />

Definition, also auch <strong>der</strong> Abstand.<br />

Wir betrachten die Ebene F : v · (x − t) = 0 in Koordinatendarstellung <strong>und</strong> den Punkt<br />

y ∈ R 3 . Anschaulich erwarten wir, dass die orthogonale Projektion ȳ ∈ F <strong>der</strong>jenige<br />

Punkt in F ist, <strong>der</strong> von y den kleinsten Abstand besitzt.<br />

Wir bestimmen zunächst ȳ: Dazu subtrahieren wir ein noch unbekanntes α-faches von<br />

v von y so, dass ȳ = y − αv ∈ F . Es gilt dann<br />

Daraus erhält man<br />

0 = v · (ȳ − t) = v · (y − αv − t) = v · (y − t) − α(v · v)<br />

∣ ∣<br />

α = 1<br />

1 ∣ ∣ ∣∣∣∣<br />

2<br />

v · (y − t) =⇒ ‖y − ȳ‖ = ‖αv‖ = ∣v · (y − t) v ∣∣∣∣<br />

‖v‖ =<br />

‖v‖ ‖v‖ 2 ‖v‖ · (y − t) .<br />

Der folgende Satz zeigt, dass unsere anschauliche Betrachtung richtig war.<br />

∣ v ∣∣∣∣<br />

(14.11) d(y, F ) = ‖y − ȳ‖ =<br />

∣‖v‖ · (y − t) .<br />

Beweis. Sei x ∈ F \ {ȳ} beliebig. Wir müssen zeigen, dass ‖y − ȳ‖ < ‖y − x‖, dann ist<br />

‖y − ȳ‖ sogar Minimum <strong>der</strong> Menge { ‖y − a‖ ; a ∈ F } , <strong>und</strong> unsere Behauptung gezeigt.<br />

Anschaulich ist klar, dass v senkrecht auf ȳ − x steht. Wir rechnen das nach:<br />

v · (x − ȳ) = v · (x − t − (ȳ − t)) = v · (x − t) − v · (ȳ − t) = 0 + 0 = 0.<br />

71


Damit gilt<br />

‖y − x‖ 2 = ∥ ∥y − ȳ − (x − ȳ) ∥ ∥ 2 =<br />

(<br />

) (<br />

)<br />

(y − ȳ) − (x − ȳ) · (y − ȳ) − (x − ȳ)<br />

= (y − ȳ) · (y − ȳ) + (x − ȳ) · (x − ȳ) − 2(y − ȳ) · (x − ȳ)<br />

= ‖y − ȳ‖ 2 + ‖x − ȳ‖ 2 − 2αv · (x − ȳ)<br />

= ‖y − ȳ‖ 2 + ‖x − ȳ‖ 2 .<br />

Wegen x ≠ ȳ gilt ‖x − ȳ‖ 2 > 0 <strong>und</strong> somit ‖y − ȳ‖ < ‖y − x‖.<br />

(14.12) Definition. Gegeben sei ein Vektor v ∈ R n \ {0} <strong>und</strong> d ∈ R. Die Menge<br />

H = {x ∈ R n ; v · x = d} heißt Hyperebene in R n .<br />

Die Darstellung H : v ·x = d heißt Hessesche Normalform von H , wenn gilt ‖v‖ = 1<br />

<strong>und</strong> d ≥ 0.<br />

(14.13) Bemerkung. 1.) Im R 2 sind Hyperebenen genau die Geraden, im R 3 sind es<br />

die Ebenen.<br />

2.) Die Hessesche Normalform ist einfach eine spezielle Koordinatendarstellung von H .<br />

3.) Nach unserer Definition von Hyperebenen existiert immer eine Hessesche Normalform.<br />

Nämlich ( )<br />

±1<br />

H :<br />

‖v‖ v · x = ±d so dass ± d ≥ 0.<br />

‖v‖<br />

4.) Man sagt auch 1 v ist <strong>der</strong> Einheitsvektor in Richtung v. Er hat die Norm 1.<br />

‖v‖<br />

5.) Unsere Vorüberlegungen einschließlich (14.11) gelten <strong>für</strong> alle Hyperebenen.<br />

Mit Hilfe <strong>der</strong> Hesseschen Normelform kann man den Abstand eines Punkte von einer<br />

Hyperebenen einfach berechnen.<br />

(14.14) Satz. Sei H : v · x = d eine Hyperebene in Hessescher Normalform.<br />

(1) Im Fall d = 0 ist H ein Untervektorraum <strong>der</strong> Dimension n − 1.<br />

(2) Bis auf den Fall d = 0 <strong>und</strong> H : (−v) · x = 0 ist die Hessesche Normalform von H<br />

eindeutig bestimmt.<br />

(3) Für y ∈ R n gilt d(y, H) = |v · y − d|.<br />

⎧<br />

⎪⎨ 1 falls v · y − d > 0<br />

(4) Sei ε das Vorzeichen von v · y − d, d. h. ε = −1 falls v · y − d < 0 .<br />

⎪⎩ 0 falls v · y − d = 0<br />

Im Fall d = 0 bedeutet ε = 1, dass y <strong>und</strong> v auf <strong>der</strong>selben Seite von H liegen;<br />

ε = −1, dass sie auf verschiedenen Seiten liegen.<br />

Im Fall d ≠ 0 bedeutet ε = −1, dass y <strong>und</strong> 0 auf <strong>der</strong>selben Seite von H liegen;<br />

ε = 1, dass sie auf verschiedenen Seiten liegen.<br />

Natürlich bedeutet ε = 0 in beiden Fällen y ∈ H .<br />

<br />

72


Beweis. (1) H = Kern(v T ) ist ein Untervektorraum von R n . Es hat Bild(v T ) = R 1×1<br />

die Dimension 1. Die Dimensionsformel (13.6) zeigt die Behauptung.<br />

(2) ohne Beweis.<br />

(3) folgt aus den Vorbetrachtungen mit (14.11). Man beachte, dass wir ‖v‖ = 1 vorausgesetzt<br />

haben.<br />

(4) Wir greifen auf die Darstellung <strong>der</strong> orthogonalen Projektion ȳ vor (14.11) zurück:<br />

y = ȳ + αv mit α = v · (y − t) = v · y − d mit einem beliebiges t ∈ F .<br />

Im Fall d = 0 sind y <strong>und</strong> v auf <strong>der</strong>selben Seite von H genau dann, wenn α > 0.<br />

Im Fall d ≠ 0 gilt α = −d < 0 falls y = 0. Den Rest macht man sich an Hand einer<br />

Skizze klar.<br />

<br />

(14.15) Beispiele. 1.) Für g : 3x − 2y = 5 gilt ∥ ∥ √ (3, 2) = 13, also ist die Hesse<br />

3<br />

Normalform g : √ x − √ 2 y = √ 5 . Es gilt z. B.<br />

13 13 13<br />

( )<br />

d (0, 0), g = √ 5 ( )<br />

<strong>und</strong> d (2, 1), g =<br />

13<br />

Es liegen 0 <strong>und</strong> (2, 1) auf <strong>der</strong> selben Seite.<br />

∣ ∣ 3<br />

√ 2 − √ 2 − √ 5 ∣∣∣∣ =<br />

∣ 13 13 13 ∣ − √ 1 ∣∣∣∣<br />

= √ 1 .<br />

13 13<br />

2.) E : x 1 − x 2 + x 3 = −2. Man findet v = 1 √<br />

3<br />

(−1, 1, −1) <strong>und</strong> d = 2, also<br />

E : −1 √<br />

3<br />

x 1 + 1 √<br />

3<br />

x 2 + −1 √<br />

3<br />

x 3 = 2 √<br />

3<br />

73


Literatur<br />

[Beu98] Beutelspacher, Albrecht: Lineare Algebra. 3. Aufl. Vieweg-Verlag,<br />

Braunschweig-Wiesbaden, 1998<br />

[Fis11]<br />

Fischer, Gerd: Lernbuch Lineare Algebra <strong>und</strong> analytische Geometrie. Vieweg+Teubner,<br />

Wiesbaden, 2011<br />

[Hen03] Henn, Hans-Wolfgang: Elementare Geometrie <strong>und</strong> Algebra. Vieweg-Verlag,<br />

Braunschweig-Wiesbaden, 2003<br />

[SS09]<br />

Schichl, Hermann ; Steinbauer, Roland: Einführung in das mathematische<br />

Arbeiten. Springer-Verlag, Berlin-Heidelberg-New York, 2009<br />

74


Index<br />

Abbildung<br />

lineare, 54<br />

Abgeschlossenheit, 37<br />

abhängig<br />

linear, 47<br />

Absolutbetrag, 6<br />

Abstand, 64, 71<br />

Achse, 60<br />

imaginäre, 8<br />

reelle, 8<br />

Addition, 22<br />

Additionstheoreme, 10<br />

affiner Unterraum, 52<br />

Argument, 9<br />

Assoziativgesetz<br />

<strong>der</strong> Matrizenmultiplikation, 28<br />

Aufpunkt, 39<br />

Automorphismus, 7<br />

Basis, 48<br />

kanonische, 49<br />

Basisergänzungssatz, 50<br />

Betrag, 6<br />

Bild, 55<br />

Bogenmaß, 8<br />

Dimension, 50, 52<br />

Dimensionsformel<br />

<strong>für</strong> lineare Abbildungen, 56<br />

Distributivegesetz<br />

<strong>der</strong> Matrizenmultiplikation, 29<br />

Drehmatrix, 61<br />

Drehung, 61<br />

Dreiecksform, 18<br />

Dreiecksungleichung, 8<br />

Ebene<br />

affine, 43<br />

Einheit<br />

imaginäre, 8<br />

Einheitsmatrix, 29<br />

Einheitsvektor, 72<br />

Einheitswurzel, 11<br />

einsetzen, 12<br />

Erzeugendensystem<br />

minimales, 48<br />

Eulersche Formel, 10<br />

Exponentialfunktion, 10<br />

Formel<br />

Eulersche, 10<br />

Moivresche, 12<br />

Gaußsche<br />

Zahlenebene, 8<br />

Gaußsches<br />

Eliminationsverfahren, 18<br />

Gerade, 39<br />

Gleichmächtigkeit von Basen, 50<br />

Grad, 12<br />

Hülle<br />

lineare, 45<br />

Hessesche Normalform, 72<br />

Hom(V, W ), 54<br />

homogen, 19<br />

Homomorphismus, 54<br />

Hyperebene, 72<br />

imaginäre Einheit, 8<br />

Imaginärteil, 6<br />

inhomogen, 19<br />

inneres Produkt, 65<br />

invertierbar, 29<br />

kanonische Basis, 49<br />

kartesisches Koordinatensystem, 32<br />

Kern, 25, 55<br />

Koeffizient, 12, 18, 39<br />

Koeffizienten, 19<br />

Koeffizientenvergleich, 48<br />

komplex Konjugieren, 6<br />

komplexe Zahlen, 5<br />

Konjugieren<br />

75


komplex, 6<br />

Konjugierte<br />

komplex, 6<br />

konstant, 12<br />

Koordinatenachsen, 32<br />

Koordinatendarstellung, 43<br />

Koordinatenform, 43<br />

Koordinatensystem<br />

kartesisches, 32<br />

Korrelationskoefizient, 67<br />

Länge, 64<br />

Lösung, 19<br />

allgemeine, 26<br />

spezielle, 26<br />

Leitkoeffizient, 12<br />

linear, 24<br />

linear abhängig, 47<br />

linear unabhängig, 47<br />

lineare Abbildung, 54<br />

lineare Hülle, 45<br />

lineares<br />

Gleichungssystem, 19<br />

Linearfaktor, 15<br />

Linearkombination, 24, 39<br />

Matrix, 17, 22<br />

erweiterte Koeffizienten-, 18<br />

quadratische, 29<br />

Matrizenmultiplikation, 27<br />

Methode <strong>der</strong> kleinsten Quadrate, 68<br />

Moivresche Formel, 12<br />

Multiplikation, 23<br />

Nebenklasse, 39<br />

Norm, 64<br />

Normalform<br />

Hessesche, 72<br />

Nullabbildung, 34<br />

Nullmatrix, 22<br />

Nullpolynom, 12<br />

Nullstelle, 13<br />

mehrfache, 15<br />

Nullteiler, 29<br />

orthogonal, 65<br />

Ortsvektor, 36<br />

parallel, 42<br />

Parameterdarstellung, 40, 53<br />

Parameterform, 40<br />

Paritätskontroll-Code, 37<br />

Polarkoordinaten, 9<br />

Polynom, 12<br />

Produkt<br />

inneres, 65<br />

Projektion, 69<br />

Rang, 52, 57<br />

Realteil, 6<br />

Richtungsvektor, 39<br />

Rücksubstitution, 18<br />

Scherung, 60<br />

senkrecht, 65<br />

Skalarmultiplikation, 33<br />

Skalarprodukt, 65<br />

Spaltenraum, 51<br />

Spaltensicht, 24, 28<br />

Spaltenvektor, 23<br />

Stützvektor, 39<br />

Summe, 22<br />

Translation, 36<br />

transponiert, 64<br />

unabhängig<br />

linear, 47<br />

unendlich dimensional, 51<br />

Unterraum<br />

affiner, 52<br />

Untervektorraum, 37<br />

trivialer, 37<br />

Ursprung, 32<br />

Variable, 12<br />

freie, 20<br />

Vektor, 19<br />

freier, 36<br />

Vektorraum<br />

über einem Körper, 35<br />

76


eeller, 34<br />

Verbindungsgerade, 40<br />

Verschiebevektor, 36<br />

Verschiebung, 36<br />

Vielfachheit, 15<br />

Winkel, 65<br />

Zahlen<br />

komplexe, 4, 5<br />

Zeile mal Spalte, 23, 27<br />

Zeilensicht, 24, 30<br />

Zeilenstufenform, 20, 21<br />

Zeilenumformung<br />

elementare, 18<br />

Zeilenvektor, 23<br />

77

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!