1 Vektorrechnung 1.1 Skalare und Vektoren
1 Vektorrechnung 1.1 Skalare und Vektoren
1 Vektorrechnung 1.1 Skalare und Vektoren
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
In[1]:=<br />
Out[1]=<br />
$PrePrint = MatrixForm<br />
MatrixForm<br />
Dieser Befehl bewirkt dass alle Matrizen in MatrixForm ausgegeben werden.<br />
Das vorliegende Skriptum entstand aus einer Fachbereichsarbeit <strong>und</strong> orientiert sich am<br />
Buch von E. Kreyszig, Advanced Engineering Mathematics, 8th Ed. John Wiley 1999.<br />
1 <strong>Vektorrechnung</strong><br />
<strong>1.1</strong> <strong>Skalare</strong> <strong>und</strong> <strong>Vektoren</strong><br />
Man kann die Begriffe Skalar <strong>und</strong> Vektor am besten anhand von physikalischen<br />
Beispielen veranschaulichen. Eine skalare Größe ist eine Größe, die durch eine einzige<br />
reelle Zahl bestimmt wird. Beispiele dafür sind: die Masse eines Körpers, das Volumen<br />
eines Körpers, die Temperatur, der Widerstand usw.<br />
Aber meistens reicht eine einzige Zahl für die Beschreibung eine Größe nicht aus. In<br />
der Mechanik zur Charakterisierung einer Kraft etwa verwendet man einen Vektor.<br />
Ein Vektor entspricht einer gerichteten Strecke, die nicht nur die Stärke angeben kann,<br />
sondern auch die Richtung in der die Kraft wirkt.<br />
1.2 Komponenten eines Vektors<br />
Es sei Ø a ein Vektor in einem kartesischen Koordinatensystem, der durch eine gerichtete<br />
Strecke PQ, wobei P der Anfangspunkt <strong>und</strong> Q der Endpunkt ist, gegeben ist. Die<br />
Koordinaten vom Punkt P sind (x 1 ,y 1 ), die vom Punkt Q sind (x 2 ,y 2 ). Die Komponenten<br />
des Vektors Ø a erhält man indem man von der Spitze (dem Endpunkt P), den<br />
Schaft (den Anfangspunkt Q), abziehen.<br />
a 1 = x 2 - x 1 , a 2 = y 2 - y 1 .<br />
Die Länge des Vektors |a Ø | ist der Abstand der Punkte P <strong>und</strong> Q voneinander <strong>und</strong> ist<br />
daher (Pythagoras)<br />
|a Ø | = è!!!!!!!!!!!!!!!!!! a 12 + a 22 .<br />
Beispiel 1:<br />
Der Vektor a Ø hat den Anfangspunkt P = (1,2) <strong>und</strong> Endpunkt Q = (3,4). Die Komponenten<br />
sind daher<br />
a 1 = 3 - 1 = 2, a 2 = 4 - 2 = 2
2 LineareAlgebra.nb<br />
<strong>und</strong> die Länge von a Ø ist<br />
|a Ø | = è!!!!!!!!!!!!!! 2 2 + 2 2 = è!!! 8.<br />
Beispiel 1: Länge von <strong>Vektoren</strong> mit Mathematica<br />
In[2]:=<br />
vektornorm@v__D := HSum@v@@iDD 2 , 8i, 1, Length@vD
LineareAlgebra.nb 3<br />
1.3 Addition von <strong>Vektoren</strong> <strong>und</strong> Multiplikation<br />
mit <strong>Skalare</strong>n<br />
Addition von <strong>Vektoren</strong><br />
Die Vektoraddition ist eine Basisrechenoperation in der <strong>Vektorrechnung</strong>. Wenn man<br />
zwei <strong>Vektoren</strong> Ø a Ø <strong>und</strong> b addieren will, muß man die einzelnen Komponenten miteinander<br />
addieren. Der Anfangspunkt des daraus folgenden Vektors Ø c ist der Anfangspunkt<br />
von a Ø <strong>und</strong> der Endpunkt von c Ø ist der Endpunkt von b Ø .<br />
Ø Ø Ø a 1<br />
a + b = c, J N + J b 1<br />
N = J a 1 + b 1<br />
N = J c 1<br />
N.<br />
a 2 b 2 a 2 + b 2 c 2<br />
Für die Vektoraddition gilt das Kommutativgesetz. Das heißt, daß<br />
ist.<br />
Ø Ø Ø Ø<br />
a + b = b + a<br />
Aus der Skizze unten ist dies ersichtlich.<br />
Die Vektoraddition unterliegt auch dem Assiozativgesetz welches aussagt, daß<br />
(a Ø + b Ø ) + c Ø = a Ø + (b Ø + c Ø ).<br />
Zu jedem Vektor a Ø gibt es einen inversen Vektor -a Ø , sodaß gilt<br />
Ø Ø Ø<br />
a + (-a) = 0.
4 LineareAlgebra.nb<br />
Es gilt auch<br />
Ø Ø Ø<br />
a + 0 = a.<br />
Zusammengefaßt kann man sagen, daß die <strong>Vektoren</strong> bezüglich der Vektoraddition eine<br />
kommutative Gruppe bilden.<br />
Beispiel 3: Addition von <strong>Vektoren</strong> mit Mathematica<br />
In[10]:= J a 1<br />
a 2<br />
N + J b 1<br />
b 2<br />
N<br />
Out[10]= J a 1 + b 1<br />
a 2 + b 2<br />
N<br />
Multiplikation mit <strong>Skalare</strong>n<br />
Man kann einen Vektor Ø a mit einem Skalar l, also einer reellen Zahl, multiplizieren.<br />
Die Komponenten des Vektors la Ø lauten (la 1 , l a 2 ). Bei der Multiplikation mit<br />
<strong>Skalare</strong>n l, m gelten jetzt folgende Gesetze<br />
(i) l(ma Ø ) = (lm)a Ø gemischtes Assoziativgesetz<br />
(ii) 1a Ø = Ø<br />
a<br />
(iii) l(a Ø + Ø b)= la Ø + lb Ø gemischtes Distributivgesetz<br />
(iv) (l + m)a Ø = la Ø + mb Ø<br />
Wenn der Skalar eine negative Zahl ist, wird die Orientierung des Vektors umgekehrt.<br />
Beispiel 4: Multiplikation mit <strong>Skalare</strong>n mit Mathematica
LineareAlgebra.nb 5<br />
In[11]:= l*J a 1<br />
a 2<br />
N<br />
Out[11]= J l a 1<br />
l a 2<br />
N<br />
1.4 Vektorräume<br />
Ein Vektorraum oder auch linearer Raum besteht aus der Menge aller Elemente die er<br />
beinhaltet. Die Definition eines reellen Vektorraumes lautet: Gegeben sei eine Menge<br />
deren Elemente sämtliche Rechenregeln der Vektoraddition <strong>und</strong> der Multiplikation mit<br />
einem Skalar wie im Kapitel 1.3 befolgen. Diese Elemente bilden dann einen Vektorraum<br />
<strong>und</strong> heißen <strong>Vektoren</strong>. Statt der reellen Zahlen können auch in analoger Weise<br />
Vektorräume über den komplexen Zahlen definiert werden.<br />
Lineare Abhänigkeit <strong>und</strong> Unabhänigkeit:<br />
Ø Ø<br />
Die <strong>Vektoren</strong> v 1,<br />
..., vm<br />
nennt man linear unabhängig, wenn gilt<br />
Ø Ø Ø<br />
l 1 v 1 + l2 v 2 + ... + lm v m = 0 fl l1 = l 2 = ... = l m = 0.<br />
In einer linear abhängigen Menge von <strong>Vektoren</strong> eines Vektorraumes kann man mindestens<br />
einen der <strong>Vektoren</strong> durch eine lineare Kombination der anderen darstellen. Bei<br />
einer linear unahängigen Menge funktioniert das nicht.<br />
Die maximale Anzahl n von linear unabhängigen <strong>Vektoren</strong> eines Vektorraumes nennt<br />
man seine Dimension n <strong>und</strong> eine Menge von n linear unabhängigen <strong>Vektoren</strong> eine<br />
Basis des Vektorraumes. Jeder Vektor kann dann durch eine lineare Kombination der<br />
Basisvektoren gebildet werden.<br />
Beispiel 5: Lineare Abhänigkeit <strong>und</strong> Unabhänigkeit mit Mathematica:<br />
In[12]:= a = 81, 2, 3<<br />
b = 84, 5, 6
6 LineareAlgebra.nb<br />
In[18]:= Solve@l 1 a +l 2 b +l 3 c2 ã d, 8 l 2 , l 3 , l 1
LineareAlgebra.nb 7<br />
Ø<br />
a<br />
b<br />
Ø<br />
= |a<br />
Ø<br />
| |b<br />
Ø<br />
'|,<br />
Ø Ø Ø Ø<br />
a b = |a| |b| cos j.<br />
Für das skalare Produkt von a Ø <strong>und</strong> b Ø sind auch noch folgende Schreibweisen üblich<br />
Ø Ø Ø Ø Ø Ø<br />
a b = Äa, bê = (a, b).<br />
Bei der skalaren Multiplikation werden die <strong>Vektoren</strong> wie folgt multipliziert:<br />
J a 1<br />
a 2<br />
NJ b 1<br />
b 2<br />
N = a 1 b 1 + a 2 b 2<br />
Ø Ø Ø<br />
a = a1 e x + a2 e y ,<br />
Ø Ø<br />
b = b1 e x<br />
Ø<br />
+ b2 e y,<br />
Ø Ø Ø Ø<br />
da e x ex = 1 <strong>und</strong> ex ey = 0 ist.<br />
Ø Ø Ø Ø Ø Ø<br />
a b = (a 1 e x + a2 e y)<br />
( b1 e x + b2 e y)<br />
= a 1 b 1 + a 2 b 2 ,<br />
Beispiel 6: <strong>Skalare</strong>s Produkt mit Mathematica<br />
In[20]:=<br />
Out[20]= 5.48<br />
Dot@81.2, <strong>1.1</strong>, 1
8 LineareAlgebra.nb<br />
1.6 Innere Produkträume<br />
Ein reeller Vektorraum wird dann ein reeller (innerer Produktraum) oder Vektorraum<br />
mit Skalarprodukt genannt, wenn folgende Bedingungen erfüllt werden: Zu jedem Paar<br />
von <strong>Vektoren</strong> a Ø <strong>und</strong> b Ø gibt es eine zugehörige reelle Zahl genannt inneres Produkt<br />
(skalares Produkt).<br />
1.7 Vektorprodukte<br />
Das Vektorprodukt auch Kreuzprodukt oder Dachprodukt genannt gibt es nur im — 3 .<br />
Das Produkt a Ø ä b Ø (bzw. a Ø fl b Ø ) zweier <strong>Vektoren</strong> a Ø <strong>und</strong> b Ø ergibt einen Vektor v Ø , der<br />
auf die Ebene, die a Ø <strong>und</strong> b Ø bilden, normal steht. Der Betrag des Vektors v Ø ist die<br />
Fläche des von a Ø <strong>und</strong> b Ø aufgepannten Parallelogramms. a Ø , b Ø <strong>und</strong> v Ø bilden ein Rechtssystem.<br />
Es gilt<br />
|a Ø ä b Ø | = |v Ø | = |a Ø | |b Ø | sin j.<br />
Vektorprodukte erfüllen nicht das Kommutativgesetz <strong>und</strong> Assoziativgesetz. Durch<br />
die Rechtsschraubenregel kann man b Ø ä a Ø aus a Ø ä b Ø bestimmen.<br />
(a Ø ä Ø b) ä Ø c ≠ Ø a ä (b Ø ä Ø c),<br />
Ø Ø Ø Ø<br />
a ä b = - b ä a .<br />
Daraus folgt: sind die <strong>Vektoren</strong> a Ø <strong>und</strong> b Ø parallel, so gilt<br />
Für eine orthonormale Basis gilt<br />
Ø Ø Ø<br />
a ä b = 0.<br />
Ø Ø Ø<br />
e x ä ey = ez.
LineareAlgebra.nb 9<br />
1.8 Vektorprodukte durch ihre Komponenten<br />
ausgedrückt<br />
Um mit Vektorprodukten rechnen zu können muß man wissen, daß<br />
i v 1 y i a 1 y i b 1 y i a 2 b 3 - a 3 b 2 y i Ø<br />
e<br />
Æ x e Æ y ez<br />
y<br />
Ø<br />
v = v 2<br />
j z = a 2<br />
j z ä b 2<br />
j z = -a 1 b 3 + a 3 b 1<br />
j<br />
k v 3 { k a 3 { k b 3 { k a 1 b 2 - a 2 b 1 {<br />
z = det a 1 a 2 a 3<br />
j z .<br />
k b 1 b 2 b 3 {<br />
Dies folgt unmittelbar aus der Darstellung<br />
Ø Ø Ø Ø<br />
a = a1 e x + a2 e y + a3 e z,<br />
Ø Ø<br />
b = b1 e x<br />
Ø Ø<br />
+ b2 e y + b3 e z,<br />
Ø Ø Ø Ø Ø Ø Ø Ø<br />
a äb = (a 1 e x + a2 e y + a3 e z)<br />
ä ( b1 e x + b2 e y + b3 e z)<br />
Ø<br />
= (a 2 b 3 - a 3 b 2 ) e x<br />
Ø<br />
+ (a3 b 1 - a 1 b 3 ) e y<br />
Ø<br />
+ (a1 b 2 - a 2 b 1 ) e z.<br />
Zwecks Vollständigkeit wurde hier bereits die Formel mit der Determinante angegeben,<br />
obwohl deren Definition erst im nächsten Kapitel erfolgt.<br />
Beispiel: Abstand zweier windschiefer Geraden.<br />
Ø<br />
Der Vektor a äb Ø<br />
ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />
Ø<br />
a äb Ø steht normal auf die Geraden GØ, GØ mit den Richtungsvektoren<br />
a b<br />
ƒ ƒ<br />
Ø Ø<br />
a <strong>und</strong> b <strong>und</strong> hat die Länge eins. Der Abstand d ist dann gegeben durch das<br />
Skalarprodukt<br />
d = Ä aØ äb Ø<br />
ÅÅÅÅÅÅÅÅÅÅÅÅÅ , Ø cê<br />
a<br />
ƒ<br />
Ø<br />
äb Ø ƒ<br />
wobei der Vektor c Ø ein beliebiger Vektor ist, dessen Anfangspunkt auf der Geraden<br />
GØ <strong>und</strong> dessen Endpunkt auf der Geraden GØ liegt.<br />
a b<br />
Beispiel 7: Vektorprodukt mit Mathematica<br />
In[26]:=<br />
Out[26]=<br />
Cross@81.2, <strong>1.1</strong>, 0
10 LineareAlgebra.nb<br />
In[27]:= 81.2, <strong>1.1</strong>, 0< ä 85.4, -2, 1.2<<br />
Out[27]=<br />
i 1.32 y<br />
-1.44<br />
j z<br />
k -8.34 {<br />
1.9 Das gemischte Produkt dreier <strong>Vektoren</strong><br />
Ø Ø<br />
i<br />
Ø<br />
a (b ä c) = det<br />
j<br />
k<br />
a 1 a 2 a 3 y<br />
b 1 b 2 b 3<br />
c 1 c 2 c 3<br />
Geometrisch kann das gemischte Produkt dreier <strong>Vektoren</strong> als das Volumen des von<br />
den drei <strong>Vektoren</strong> aufgespannten Körpers (Parallelepiped) interpretiert werden.<br />
z<br />
{<br />
2 Matrizen <strong>und</strong> Determinanten<br />
2.1 Gr<strong>und</strong>sätzliche Konzepte<br />
Matrizen sind rechteckige "Felder", die aus Reihen <strong>und</strong> Spalten bestehen. Die<br />
Reihen <strong>und</strong> Spalten beinhalten die Koeffizienten der Matrix. Matrizen werden dazu<br />
verwendet um lineare Gleichungssysteme oder Transformationen darzustellen.<br />
a 11 x 1 + a 12 x 2 = b 1<br />
a 21 x 1 + a 22 x 2 = b 2 .<br />
Die Koeffizienten der ersten Gleichung werden in die erste Reihe der Matrix<br />
geschrieben, dann die der zweiten in die zweite Reihe.<br />
A = J a 11 a 12<br />
a 21 a 22<br />
N.<br />
Damit kann das obige Gleichungssystem wie folgt dargestellt werden, wenn die<br />
Multiplikation entsprechend definiert wird. (Dies führt in weiterer Folge zur Definition<br />
der Matrizenmultiplikation.)<br />
J a 11 a 12<br />
a 21 a 22<br />
N.J x 1<br />
x 2<br />
N = J b 1<br />
b 2<br />
N<br />
Spezielle Matrizen
LineareAlgebra.nb 11<br />
Spezielle Matrizen sind zum Beispiel die Reihenmatrix, die nur aus einer Reihe<br />
besteht, oder die Spaltenmatrix, die nur aus einer Spalte besteht.<br />
H a 1 ... a n L,<br />
i<br />
j<br />
k<br />
b 1 y<br />
:<br />
b n<br />
z .<br />
{<br />
Beispiel 8: Spaltenmatrix <strong>und</strong> Reihenmatrix mit Mathematica<br />
In[28]:= 88x 1 ,x 2 , x 3
12 LineareAlgebra.nb<br />
Bei der Multiplikationeiner matrix mit einer Zahl wird jede einzelne Komponente<br />
mit der Zahl multipliziert, zum Beispiel<br />
lA = J l a 11 l a 12<br />
l a 21 l a 22<br />
N.<br />
Beispiel 9: Addition von Matrizen mit Mathematica<br />
In[30]:= J a b<br />
c d N + 3 J 1 1<br />
0 1 N<br />
Out[30]= J 3 + a 3 + b<br />
c 3 + d N<br />
2.3 Transponierte Matrizen<br />
Die Transponierung A T einer Matrix A funktioniert folgendermaßen: Die Elemente<br />
der Reihen werden mit denen der Spalten vertauscht, zum Beispiel<br />
A = J a 11 a 12<br />
a 21 a 22<br />
N,<br />
A T = J a 11 a 21<br />
N.<br />
a 12 a 22<br />
Hierbei können folgende Sonderfälle auftreten:<br />
(a) Die Symmetrische quadratische Matrix. Wenn man sie transponiert<br />
erhält man wieder dieselbe Matrix, zum Beispiel<br />
i 1 6 3 y<br />
A = 6 0 -2<br />
j z , AT = A.<br />
k 3 -2 5 {<br />
(b) Schiefsymmetrische quadratische Matrix. Wenn man A transponiert<br />
erhält man -A, zum Beispiel<br />
i 1 6 3 y<br />
A = -6 0 -2<br />
j z , AT = -A.<br />
k -3 2 5 {<br />
(c) Quadratische Dreiecksmatrix. Bei ihr besteht eine der zwei Seiten der<br />
Hauptdiagonale nur aus Nullen, zum Beispiel<br />
i 1 0 0y<br />
i 1 3 -6 y<br />
A = 8 2 0<br />
j z oder B = 0 2 5<br />
j z .<br />
k -3 2 5{<br />
k 0 0 5 {<br />
Eine untere Dreiecksmatrix wird bei Transponierung zu einer oberen <strong>und</strong> umgekehrt.
LineareAlgebra.nb 13<br />
Beispiel 10: Transponierte Matrix mit Mathematica<br />
In[31]:=<br />
Out[31]=<br />
i 1 0 0y<br />
TransposeA 8 2 0<br />
j z E<br />
k -3 2 5{<br />
i 1 8 -3 y<br />
0 2 2<br />
j z<br />
k 0 0 5 {<br />
2.4 Matrizenmultiplikation<br />
Zwei Matritzen kann man nur dann miteinander multiplizieren, wenn die Spaltenanzahl<br />
der ersten mit der Zeilenanzahl der zweiten übereinstimmt. Die darausfolgende<br />
Matrix hat dann dieselbe Anzahl an Spalten <strong>und</strong> Reihen wie die erste Matrix. Nimmt<br />
man zwei 2 µ 2 Matrizen A <strong>und</strong> B dann ist das Produkt wie folgt definiert<br />
J a 11 a 12<br />
a 21 a 22<br />
N . J b 11 b 12<br />
b 11 b 22<br />
N =<br />
J a 11 b 11 + a 12 b 21 a 11 b 12 + a 12 b 22<br />
a 21 b 11 + a 22 b 21 a 21 b 12 + a 22 b 22<br />
N.<br />
Um zu diesen Ergebnis zu gelangen, führt man folgende Merkregel ein. Dazu faßt<br />
man die zwei Komponenten der Reihen von A zu jeweils einer zusammen.<br />
A = J a 1<br />
a 2<br />
N<br />
a 1 = H a 11<br />
a 2 = H a 21<br />
wobei<br />
a 12 L<br />
a 22 L<br />
Dann faßt man die zwei Komponenten der Spalten von B zu jeweils einer<br />
zusammen.<br />
B = H b 1<br />
b 2 L wobei<br />
b 1 = J b 11<br />
b 12<br />
N, b 2 = J b 21<br />
b 22<br />
N.<br />
Die Komponenten von C, kann man dann mit den skalaren Produkten errechnen.<br />
Es gilt<br />
C = J a 1.b 1 a 1 .b 2<br />
N<br />
a 2 .b 1 a 2 .b 2<br />
c jk = a j .b k = a j,1 b k,1 + a j,2 b k,2 .
14 LineareAlgebra.nb<br />
Beispiel 11: Matrizenmultiplikation mit Mathematica<br />
Achtung: Mathematica unterscheidet natürlich normale Multiplikation "*" <strong>und</strong><br />
Matrizenmultiplikation "."<br />
In[32]:= J a b<br />
c d N.J 1 1<br />
0 1 N<br />
Out[32]= J a a + b<br />
c c + d N<br />
In[33]:= MatrixPowerAJ a b<br />
c d N,3E<br />
Out[33]=<br />
i<br />
k<br />
j a Ha2 + bcL + b Ha c+ cdL<br />
c Ha 2 + bcL + d Ha c+ cdL<br />
a Ha b+ bdL + b Hb c+ d 2 L y<br />
z<br />
c Ha b+ bdL + d Hb c+ d 2 L {<br />
2.5 Rang einer Matrix<br />
Der Rang einer Matrix ist gegeben durch die Anzahl der linear unahängigen Reihenvektoren.<br />
Die Nullmatrix hat zum Beispiel den Rang 0. Die folgende Matrix<br />
i 3 0 2 2 y<br />
A = -1 7 4 9<br />
j<br />
z<br />
k 7 -7 0 -5 {<br />
hat den Rang Ran(A) = 2. Begründet dadurch, daß die dritte Zeile eine lineare<br />
Kombination der beiden ersten ist.<br />
Bei Spalten gibt es auch einen Rang einer Matrix. Man kann ihn mit der Anzahl der<br />
linear unahängigen Spaltenvektoren ermitteln.<br />
Es gilt: Spaltenrang ist gleich Zeilenrang!<br />
Der Rang ist daher gleich der Dimension des Bildraumes der Matrix<br />
Beispiel 12: Rang einer Matrix mit Mathematica<br />
In[34]:=<br />
rang@x_D := Last@Dimensions@xDD - Length@NullSpace@xDD<br />
i 1 0 3y<br />
In[35]:= ma = 4 2 4<br />
j z ;<br />
k 7 8 9{<br />
i 1 2 3y<br />
In[36]:= mb = 4 5 6<br />
j z ;<br />
k 7 8 9{
LineareAlgebra.nb 15<br />
In[37]:=<br />
Out[37]=<br />
RowReduce@maD<br />
i 1 0 0y<br />
0 1 0<br />
j z<br />
k 0 0 1{<br />
In[38]:=<br />
Out[38]= 3<br />
rang@maD<br />
In[39]:=<br />
Out[39]=<br />
RowReduce@mbD<br />
i 1 0 -1 y<br />
0 1 2<br />
j z<br />
k 0 0 0 {<br />
In[40]:=<br />
Out[40]= 2<br />
rang@mbD<br />
In[41]:=<br />
Clear@ma, mbD<br />
Der Kern einer linearen Abbildung besteht aus allen <strong>Vektoren</strong>, die in den Nullvektor abgebildet werden<br />
<strong>und</strong> wird daher auch noch Nullraum genannt.<br />
Beispiel 13: Kern einer Abbildung (Matrix) mit Mathematica<br />
In[42]:=<br />
Out[42]=<br />
i 1 2 3y<br />
TransposeANullSpaceA 4 5 6<br />
j z EE<br />
k 7 8 9{<br />
i 1 y<br />
-2<br />
j z<br />
k 1 {<br />
2.6 Lineare Gleichungssysteme<br />
Gauß'sches Eliminationsverfahren<br />
Lineare Gleichungssysteme<br />
a 11 x 1 + a 12 x 2 = b 1<br />
a 21 x 1 + a 22 x 2 = b 2<br />
Alle a jk <strong>und</strong> b j sind vorgegebene Zahlen. Wenn alle b j gleich Null sind, nennt man<br />
das Gleichungssystem ein homogenes Gleichungssystem, ansonsten ein inhomogenes<br />
Gleichungssystem. Man kann ein System auch durch eine Koeffizientenmatrix<br />
A <strong>und</strong> durch die Erweiterte Matrix B ausdrücken.<br />
A = J a 11 a 12<br />
a 21 a 22<br />
N , B = J a 11 a 12 b 1<br />
a 21 a 22 b 2<br />
N.
16 LineareAlgebra.nb<br />
Gauß'sches Eliminationsverfahren<br />
Nicht alle linearen Gleichungssysteme haben eine Lösung <strong>und</strong> manche haben sogar<br />
mehrere Lösungen. Mit Hilfe des Gauß'schen Eliminationsverfahren kann man nun<br />
versuchen das Gleichungsystem zu lösen. Ein Beispiel:<br />
-x 1 + x 2 + 2x 3 = 2<br />
3x 1 - x 2 + x 3 = 6<br />
-x 1 + 3x 2 + 4x 3 = 4<br />
i -1 1 2 2y<br />
3 -1 1 6<br />
j<br />
z<br />
k -1 3 4 4{<br />
Zuerst muß man x 1 aus der 2. <strong>und</strong> 3. Gleichung eliminieren indem man eine jeweils<br />
entsprechende Linearkombination der 1. Gleichung addiert. Drei mal die Erste<br />
addiert zur Zweiten <strong>und</strong> minus ein mal die Erste addiert zur Dritten ergibt<br />
-x 1 + x 2 + 2x 3 = 2<br />
2x 2 + 7x 3 = 12<br />
2x 2 + 2x 3 = 2,<br />
i -1 1 2 2<br />
0 2 7 12<br />
j<br />
k 0 2 2 2<br />
y<br />
z<br />
{<br />
Als Zweites muß man x 2 aus der 3. Gleichung eliminieren indem man eine passende<br />
Linearkombination der 2. Gleichung addiert.<br />
-x 1 + x 2 + 2x 3 = 2<br />
2x 2 + 7x 3 = 12<br />
-5x 3 = -10,<br />
i<br />
j<br />
k<br />
-1 1 2 2<br />
0 2 7 12<br />
y<br />
z<br />
0 0 -5 -10 {<br />
Es ergibt sich<br />
x 3 = 2; x 2 = -1; x 2 = 1.
LineareAlgebra.nb 17<br />
Mit der 3. Gleichung beginnend kann man jetzt dieses Gleichungssystem lösen.<br />
Beim Lösen von anderen Gleichungssystemen kann mann nach demselben Schema<br />
vorgehen.<br />
Existenz <strong>und</strong> Eigenschaften von Lösungen<br />
(1) Homogene lineare Systeme:<br />
(a) Es existiert immer eine Lösung, nämlich die triviale, das heißt, daß<br />
alle Variablen 0 sind.<br />
(b) Ist der Rang r der Koeffizientenmatrix A, kleiner als die Anzahl der<br />
Variablen n (rank(A) = r < n), so existieren nichttriviale Lösungen.<br />
(2) Inhomogene lineare Systeme:<br />
(a) Eine Lösung eines linearen inhomogenen Gleichungssystems<br />
existiert nur, wenn die Koeffizientenmatrix A den gleichen Rang r hat<br />
wie die erweiterte Matrix B.<br />
(b) Wenn der Rang r der Matrix A mit der Anzahl der Unbekannten n<br />
übereinstimmt, hat das Gleichungssystems genau eine Lösung.<br />
(c) Wenn der Rang r kleiner als die Anzahl der Unbekannten n ist, gibt<br />
es unendlich viele Lösungen.<br />
Wenn eine Lösung existiert, kann man sie mit Hilfe des Gauß'sches Eliminationsverfahrens<br />
bekommen.<br />
In einem inhomogenen Gleichungsystem kann die Lösungsgesamtheit als Summe<br />
einer Lösung x 0 der inhomogenen Gleichung plus aller Lösungen des dazugehörigen<br />
homogenen Gleichungsystem dargestellt werden<br />
x = x 0 + x h .<br />
Beispiel 14: Lineare Gleichungssysteme mit Mathematica<br />
Die Lösung von Gleichungssytemen ist auf mehrere Arten möglich.<br />
Solve liefert alle Lösungen, LinearSolve nur eine spzielle Lösung, die allgemeine Lösung setzt<br />
sich zusammen aus einer speziellen Lösung <strong>und</strong> beliebigen <strong>Vektoren</strong> aus dem Kern der<br />
Matrix<br />
In[43]:=<br />
Clear@x, bD
18 LineareAlgebra.nb<br />
In[44]:= Solve@ 84x 1 + bx 2 + 6x 3 - 6 == 0,<br />
6x 1 + 7x 2 + 8x 3 - 9 == 0,<br />
9x 1 + 10 x 2 + 12 x 3 - 12 == 0
LineareAlgebra.nb 19<br />
In[53]:=<br />
Out[53]=<br />
ker@@1DD<br />
i<br />
j<br />
k<br />
0<br />
0<br />
-3<br />
0<br />
1<br />
y<br />
z<br />
{<br />
In[54]:=<br />
Out[54]=<br />
In[55]:=<br />
Out[55]=<br />
allgemeineLösung = x0 +l 1 ker@@1DD +l 2 ker@@2DD +l 3 ker@@3DD<br />
i<br />
j<br />
k<br />
1 -l 2 - 2 l 3<br />
l 3<br />
2 - 3 l 1 - 3 l 2<br />
l 2<br />
l 1<br />
y<br />
z<br />
{<br />
Simplify@a . allgemeineLösung - bD<br />
i 0 y<br />
0<br />
0<br />
j z<br />
k 0 {<br />
In[56]:= Solve@ a.vxã b, 8x 1 , x 2 , x 3 ,x 4 ,x 5
20 LineareAlgebra.nb<br />
i -1 1 2y<br />
A = 3 -1 1<br />
j z<br />
k -1 3 4{<br />
i -1 1 2y<br />
i 1 0 0y<br />
3 -1 1<br />
j z xØ = 0 1 0<br />
j<br />
k -1 3 4{<br />
k 0 0 1{<br />
Man führt an der Matrix A das Gauß'sche Eliminationsverfahren durch <strong>und</strong> an der<br />
Einheitsmatrix die gleichen Rechenoperationen.<br />
i -1 1 2y<br />
i 1 0 0y<br />
0 2 7<br />
j z xØ = 3 1 0<br />
j z bØ<br />
k 0 2 2{<br />
k 0 0 1{<br />
z bØ<br />
i -1 1 2 y i 1 0 0y<br />
0 2 7<br />
j z xØ = 3 1 0<br />
j z bØ<br />
k 0 0 -5 { k -4 -1 1{<br />
Als nächstes eliminiert man die Koeffizienten oberhalb der Hauptdiagonale, sodaß<br />
links die Einheitsmatrix steht.<br />
i 1 -1 0y<br />
i 3 ê 5 2ê 5 -2 ê 5 y<br />
0 1 0<br />
j z xØ = -13 ê 10 -2 ê 10 7 ê 10<br />
j<br />
z bØ<br />
k 0 0 1{<br />
k 4 ê 5 1ê 5 -1 ê 5 {<br />
i 1 0 0y<br />
i -7 ê 10 2 ê 10 3 ê 10 y<br />
0 1 0<br />
j z xØ = -13 ê 10 -2 ê 10 7 ê 10<br />
j<br />
z bØ<br />
k 0 0 1{<br />
k 4 ê 5 1ê 5 -1 ê 5 {<br />
Die Matrix die jetzt rechts steht ist die Inverse der Matrix A.<br />
Zusammenfassend kann man sagen, daß man<br />
zu umgeformt<br />
haben. Daher ist<br />
A x Ø = b Ø (fl A -1 A x Ø = A -1 b Ø )<br />
Ø Ø<br />
x = B b<br />
B = A -1 .
LineareAlgebra.nb 21<br />
Beispiel 15: Inverse einer Matrix mit Mathematica<br />
In[57]:=<br />
Clear@a, b, c, dD<br />
In[58]:= ma = J a b<br />
c d N<br />
Out[58]= J a b<br />
c d N<br />
In[59]:=<br />
Out[59]=<br />
Inverse@maD<br />
i<br />
j<br />
k<br />
d<br />
b<br />
ÅÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />
-b c+a d<br />
- ÅÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />
-b c+a d<br />
c<br />
a<br />
- ÅÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />
-b c+a d<br />
ÅÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />
-b c+a d<br />
y<br />
z<br />
{<br />
Beispiel 16: Komplementäre Matrix mit Mathematica<br />
In[60]:=<br />
kompl@x_D := Inverse@xD Det@xD<br />
In[61]:=<br />
kompl@maD<br />
Out[61]= J d -b<br />
-c a N<br />
Übung: Man berechne die komplementere Matrix durch direkte Anwendung der<br />
Formel aus dem Skriptum<br />
In[62]:=<br />
In[63]:=<br />
minor@j_, k_, mat_D := Det@Transpose@Delete@Transpose@Delete@mat, jDD, kDDD<br />
kofactor@j_, k_, mat_D := H-1L ^Hj + kL * minor@j, k, matD<br />
In[64]:= komplementareMatrix@mat_D :=<br />
Transpose@Table@kofactor@i, j, matD, 8i, Length@matD
22 LineareAlgebra.nb<br />
D 1 bekommt man, wenn man die erste Spalte der Koeffizientenmatrix durch den<br />
Lösungsvektor ersetzt b Æ ersetzt. D 2 bekommt man, wenn man die zweite Spalte der<br />
Koeffizientenmatrix durch den Lösungsvektor b Æ ersetzt<br />
Beweis von (1):<br />
D = À a 11 a 12<br />
a 21 a 22<br />
À , D 1 = À b 1 a 12<br />
b 2 a 22<br />
À , D 2 = À a 11 b 1<br />
a 21 b 2<br />
À .<br />
J a 11 a 12<br />
a 21 a 22<br />
N J x 1<br />
x 2<br />
N = J b 1<br />
b 2<br />
N<br />
a 11 x 1 + a 12 x 2 = b 1 | - a 21<br />
a 21 x 1 + a 22 x 2 = b 2 | + a 21<br />
( - a 21 a 21 + a 11 a 22 ) x 2 = -b 1 a 21 + b 2 a 11 ,<br />
x 2 =<br />
b 2 a 11 - b 1 a 21<br />
ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />
a 11 a 22 - a 12 a 21<br />
=<br />
D 2<br />
ÅÅÅÅÅÅÅÅ<br />
D .<br />
( a 11 a 22 - a 21 a 12 ) x 1 = b 1 a 21 - b 2 a 12 ,<br />
x 1 =<br />
b 1 a 11 - b 2 a<br />
ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ 21<br />
a 11 a 22 - a 12 a 21<br />
= D 1<br />
ÅÅÅÅÅÅÅÅ<br />
D ,<br />
qed.<br />
Zur Berechnung von Determinanten dritter Ordnung kann man die Regel von Sarrus<br />
benutzen. Zuerst fügt man die beiden ersten Spalten rechts noch einmal an. Dann<br />
bildet man die Summe der Produkte parallel der Hauptdiagonale <strong>und</strong> subtrahiert die<br />
Summe der Produkte parallel der Nebendiagonale.<br />
ƒ<br />
a 11 a 12 a 13 a 11 a 12<br />
a 21 a 22 a 23 a 21 a 22<br />
a 31 a 32 a 33 ƒ a 31 a 32<br />
= (a 11 a 22 a 33 + a 12 a 23 a 31 + a 13 a 21 a 32 )<br />
- (a 13 a 22 a 31 + a 11 a 23 a 32 + a 12 a 21 a 33 )<br />
Um ein lineares Gleichungsystem dritter Ordnung zu lösen, kann man wieder die<br />
Cramersche Regel benutzen. Der Beweis ist analog zum Fall n = 2.<br />
x 1 = D 1<br />
ÅÅÅÅÅÅÅÅ<br />
D , x 2 = D 2<br />
ÅÅÅÅÅÅÅÅ<br />
D , x 3 = D 3<br />
ÅÅÅÅÅÅÅÅ<br />
D ,<br />
D≠0.
LineareAlgebra.nb 23<br />
D 2 bekommt man, wenn man die erste Spalte der Koeffizientenmatrix durch den<br />
Æ<br />
Lösungsvektor ersetzt b ersetzt. D 2 bekommt man, wenn man die zweite Spalte der<br />
Æ<br />
Koeffizientenmatrix durch den Lösungsvektor b ersetzt. D 3 bekommt man wenn<br />
Æ<br />
man die dritte Spalte der Koeffizientenmatrix durch den Lösungsvektor b ersetzt.<br />
Wichtige Eigenschaften von Determinanten<br />
(a) Der Wert einer Determinante ändert sich nicht, wenn man ihre Reihen als<br />
Spalten in derselben Reihenfolge oder umgekehrt schreibt.<br />
Beweis für 2µ2 Matrizen (gilt analog für Matrizen höherer Ordnung).<br />
A = J a 11 a 12<br />
a 21 a 22<br />
N,<br />
det A = À a 11 a 12<br />
a 21 a 22<br />
À = a 11 a 22 - a 21 a 12 ,<br />
det A T = À a 11 a 21<br />
a 12 a 22<br />
À = a 11 a 22 - a 12 a 21 = det A, qed.<br />
(b) Wenn man zwei Spalten oder Reihen miteinander vertauscht, wird der Wert<br />
der Determinante mit -1 multipliziert. Beweis:<br />
À a 21 a 22<br />
a 11 a 12<br />
À = a 21 a 22 - a 12 a 21 = - det A,<br />
À a 21 a 11<br />
a 22 a 12<br />
À = a 21 a 22 - a 12 a 21 = - det A, qed.<br />
Die Determinante zweiter Ordnung, die man erhält, wenn man eine Spalte <strong>und</strong> eine<br />
Reihe einer 3µ3 Matrix löscht wird der Minor des Koeffizienten genannt der zu der<br />
gelöschten Reihe <strong>und</strong> der Spalte gehört.<br />
Der Kofaktor eines Koeffizienten der i-ten Reihe <strong>und</strong> der k-ten Spalte wird mit<br />
H-1L i+k mal der Minor definiert.<br />
Damit kann man eine Determinante dritter Ordnung ausdrücken durch:<br />
D = a 11 C 11 + a 21 C 21 + a 31 C 31<br />
= a 11 ( a 22 a 33 - a 32 a 23 ) - a 21 ( a 12 a 33 - a 32 a 13 )<br />
+ a 31 (a 12 a 23 - a 22 a 13 ).
24 LineareAlgebra.nb<br />
wobei C der jeweilige Kofaktor ist. Diesen Vorgang nennt man "entwickeln'' einer<br />
Determinante.<br />
(c) Eine Determinante kann man aus irgend einer ihrer Reihen oder Spalten errechnen,<br />
indem man jeden Koeffizienten mit seinem Kofaktor multipliziert <strong>und</strong><br />
aufsummiert.<br />
D = -a 21 À a 12 a 13<br />
a 32 a 33<br />
À + a 22 À a 11 a 13<br />
a 31 a 33<br />
À - a 23 À a 11 a 12<br />
a 31 a 32<br />
À.<br />
(d) Einen gemeinsamen Faktor der Koeffizienten einer Reihe oder Spalte kann man<br />
vor die Determinante herausheben. Dies sieht man unmittelbar, wenn man nur die<br />
Reihe oder Spalte entwickelt die den Faktor enthält.<br />
ƒ<br />
a 11 a 12 a 13<br />
a 21 a 22 a 23 = l<br />
a 31 a 32 a 33 ƒ<br />
ƒ<br />
a 11 a 12 ê l a 13<br />
a 21 a 22 ê l a 23 .<br />
a 31 a 32 ê l a 33 ƒ<br />
Dies sieht man sofort, wenn man nach der Reihe oder Spalte entwickelt die den<br />
Faktor enthält.<br />
Aus (b) <strong>und</strong> (d) folgt unmittelbar:<br />
(e) Wenn zwei Reihen oder Spalten proportional zueinander sind, ist der Wert der<br />
Determinante 0.<br />
(f) Der Wert einer Determinante bleibt gleich, wenn man eine ihrer Reihen oder<br />
Spalten mit einem Skalar multipliziert <strong>und</strong> zu einer anderen addiert.<br />
Beispiel 17: Determinanten mit Mathematica<br />
In[66]:= DetAJ a 11 a 12<br />
NE<br />
a 21 a 22<br />
Out[66]= -a 12 a 21 + a 11 a 22<br />
In[67]:=<br />
i a 11 a 12 a 13 y<br />
DetA a<br />
j 21 a 22 a 23<br />
z E<br />
k a 31 a 32 a 33 {<br />
Out[67]= -a 13 a 22 a 31 + a 12 a 23 a 31 + a 13 a 21 a 32 - a 11 a 23 a 32 - a 12 a 21 a 33 + a 11 a 22 a 33<br />
2.9 Determinanten höherer Ordnung<br />
Determinanten höherer Ordnug werden berechnet indem man sie "entwickelt", d.h.<br />
sie werden durch Determinaten von niederigerer Ordnung ausgedrückt. Gegeben sei<br />
eine Determinante n-ter Ordnung d.h., eine Matrix mit n Reihen <strong>und</strong> n Spalten.<br />
i<br />
j<br />
k<br />
a 11 ... a 1 n y<br />
: ... :<br />
a n1 ... a nn<br />
z<br />
{
LineareAlgebra.nb 25<br />
Die Determinante, die man erhält, wenn man die k-te Reihe <strong>und</strong> eine i-te Spalte<br />
löscht wird der Minor des Koeffizienten genannt der zu der gelöschten Reihen <strong>und</strong><br />
der Spalte gehört. Er wird als M ik angegeben.<br />
Der Kofaktor eines Koeffizienten der i-ten Reihe <strong>und</strong> der k-ten Spalte wird mit<br />
H-1L i+k mal der Minor definiert. Er wird als C ik angegeben.<br />
C ik = H-1L i+k M ik<br />
Beispiel 18: Minor <strong>und</strong> Kofaktor mit Mathematica<br />
In[68]:=<br />
In[69]:=<br />
In[70]:=<br />
Clear@a, maD<br />
minor@j_, k_, mat_D := Det@Transpose@Delete@Transpose@Delete@mat, jDD, kDDD<br />
kofactor@j_, k_, mat_D := H-1L ^Hj + kL * minor@j, k, matD<br />
i a 11 a 12 a 13 y<br />
In[71]:= ma = a 21 a 22 a 23<br />
j<br />
z<br />
k a 31 a 32 a 33 {<br />
Out[71]=<br />
i<br />
j<br />
k<br />
a 11 a 12 a 13 y<br />
a 21 a 22 a 23<br />
a 31 a 32 a 33<br />
z<br />
{<br />
In[72]:=<br />
minor@2, 3, maD<br />
Out[72]= -a 12 a 31 + a 11 a 32<br />
In[73]:=<br />
kofactor@2, 3, maD<br />
Out[73]= a 12 a 31 - a 11 a 32<br />
Den Wert der Determinante einer n ä n Matrix erhält man, wenn man irgend eine<br />
ihrer Reihen oder Spalten nimmt <strong>und</strong> jeden Koeffizienten mit seinem Kofaktor<br />
multipliziert <strong>und</strong> aufsummiert. Zum Beispiel<br />
D = a i1 C i1 + a i2 C i2 + ... + a in C in .<br />
Damit hat man die Determinante n-ter Ordnung durch eine Summe von Determinaten<br />
der Ordnung n-1 ausgedrückt. Dieser Vorgang wird nun solange wiederholt,<br />
bis man zu Determinaten erster bzw. zweiter Ordnung kommt.<br />
Es gilt:<br />
(a) Der Wert der Determinante ändert sich nicht, wenn man ihre Reihen als Spalten<br />
in derselben Reihenfolge oder umgekehrt schreibt (transponierte Matrix).<br />
(b) Wenn man eine Reihe oder Spalte mir einem Faktor multipliziert, ist der Wert<br />
der folgenden Determinante gleich der Ausgangsdeterminante mal dem Faktor.<br />
(c) Wenn alle Koeffizienten einer Reihe oder Spalte Null sind, ist der Wert der<br />
Determinante auch Null.<br />
(d) Wenn man zwei Spalten oder Reihen miteinander vertauscht, wird der Wert der<br />
Determinante mit -1 multipliziert.<br />
(e) Wenn zwei Reihen oder Spalten proportional zueinander sind, ist der Wert der<br />
Determinante 0.
26 LineareAlgebra.nb<br />
(f) Der Wert der Determinante ändert sich nicht, wenn man ein konstantes vielfaches<br />
einer ihrer Reihen oder Spalten zu einer anderen addiert.<br />
(g) Die Determinante des Produktes zweier Matrizen ist gleich dem Produkt der<br />
Determinanten der zwei Matrizen.<br />
det(AB) = det A det B.<br />
Hinweis: Die Beweise dieser Aussagen sind trivial <strong>und</strong> analog zum Fall n = 2.<br />
2.10 Ränge <strong>und</strong> Determinanten,<br />
Cramersche Regel<br />
Man kann mit Hilfe von Determinanten den Rang einer Matrix bestimmen.<br />
Eine Matrix A hat einen Rang r ≥ 1 genau dann, wenn A eine r ä r -Untermatrix<br />
mit einer Determinante ungleich Null hat <strong>und</strong> es keine größere Untermatrix mit einer<br />
Determinante ungleich Null gibt.<br />
Cramersche Regel<br />
Wenn die Determinante D = det A eines linearen inhomogenen Systems von n<br />
Gleichungen mit n Unbekannten nicht Null ist, so hat dieses System genau eine<br />
Lösung. Sie ist gegeben durch:<br />
x 1 = D 1<br />
ÅÅÅÅÅÅÅÅ<br />
D , x 2 = D 2<br />
ÅÅÅÅÅÅÅÅ<br />
D , ..., x n = D n<br />
ÅÅÅÅÅÅÅÅ<br />
D .<br />
Als Folge der Cramersche Regel kann man nun die Inverse einer Matrix ausrechen.<br />
Die Inverse einer regulären (nµn)-Matrix A = (a jk ) wird wie folgt berechnet:<br />
A -1 =<br />
1<br />
ÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />
det A<br />
i<br />
j<br />
k<br />
A 11 ... A 1 n y<br />
: ... :<br />
A n1 ... A nn<br />
wobei A jk der Kofaktor von a jk ist. Wichtig ist außerdem noch, daß der Kofaktor<br />
A jk den Platz von a kj einnimmt.<br />
Hinweis: Die Beweise dieser Aussagen sind trivial <strong>und</strong> analog zum Fall n = 2.<br />
z<br />
{<br />
2.11 Bilineare, quadratische <strong>und</strong><br />
Hermitesche Formen<br />
Ein Ausdruck der Form<br />
n<br />
B = ⁄ j=1<br />
n<br />
⁄ k=1 a jk x j y k<br />
heißt bilineare Form in den 2n Variablen x 1 , ..., x n <strong>und</strong> y 1 , ..., y n .<br />
Ausgeschrieben erhält man
LineareAlgebra.nb 27<br />
B =<br />
a 11 x 1 y 1 + ... + a 1 n x 1 y n<br />
......................................<br />
+ a n1 x n y 1 + ... + a nn x n y n .<br />
Führt man die <strong>Vektoren</strong> x Ø = Hx 1 , ..., x n L T <strong>und</strong> y Ø = Hy 1 , ..., y n L T <strong>und</strong> die Koeffizientenmatrix<br />
A = (a jk ) ein, so kann B in der Form<br />
geschrieben werden.<br />
B = x Æ T<br />
Ay<br />
Æ<br />
Beispiel: Das Skalarprodukt kann als Bilinearform interpretiert werden, wobei A =<br />
1 ist.<br />
Eine spezielle Fall der bilinearen Form ist die quadratische Form. Sie tritt auf<br />
wenn Ø y = Ø x ist.<br />
n<br />
Q = ⁄ j = 1<br />
n<br />
⁄ k=1<br />
a jk x j x k ,<br />
Q = x Æ T<br />
A x<br />
Æ<br />
Gegeben sie eine Matrix A = (a jk ), dann bezeichnet A èè die Matrix die man erhält,<br />
wenn man den Koeffizienten a jk in A durch seinen komplex konjugiertes Wert a êê jk<br />
ersetzt. Wenn jetzt A T = A èè ist, dann wird A eine hermitesche (symmetrische)<br />
Matrix genannt <strong>und</strong> die dazu gehörige Form heißt hermitesche Form.<br />
n<br />
Q = ⁄ j=1<br />
H = Hx êê L T A x Æ ,<br />
n<br />
⁄ k=1<br />
a jk x êê j x k .<br />
Für jede Wahl des Vektors Æ x, ist der Wert der hermiteschen Form eine reelle Zahl.<br />
êê êêêêêêêêêêêêêêêêêêêêêêêêêê<br />
Q =<br />
n n ⁄j=1 ⁄ k=1 a jk x j x k<br />
n n<br />
= ⁄ j=1 ⁄<br />
êê<br />
k=1 a jk x êê j xk<br />
n<br />
= ⁄ j=1<br />
n<br />
⁄ k=1<br />
a kj x êê k x j = Q.<br />
Wenn für eine Matrix A T = -A èè gilt, dann wird sie schiefhermitesche<br />
(schiefsymmetrische) Matrix genannt.<br />
S = Hx êê L T A x Æ ,<br />
Für jede Wahl des Vektors Æ x, ist der Wert der schiefermitischen Form eine imaginäre<br />
Zahl oder Null.<br />
êê<br />
S<br />
êêêêêêêêêêêêêêêêêêêêêêêêêê<br />
=⁄<br />
n n<br />
j=1 ⁄ k=1 a jk x j x k<br />
Æ
28 LineareAlgebra.nb<br />
n<br />
= ⁄ j=1<br />
n<br />
⁄ k=1<br />
- a jk<br />
-a kj x êê k x j = - S.<br />
2.12 Eigenwerte <strong>und</strong> Eigenvektoren<br />
Man betrachtet nun eine Matrix A <strong>und</strong> die folgende Vektorgleichung an.<br />
A x Ø = l x Ø .<br />
Es ist klar, daß eine Lösung hier x Ø = 0 währe. Der Wert, den man für l erhält,<br />
wenn x Ø ≠ 0 ist, heißt Eigenwert von A . Das dazugehörige x Ø wird Eigenvektor von<br />
A genannt. Die Menge aller Eigenwerte, die A haben kann, wird das Spektrum<br />
genannt. Der größte absolute Wert der Eigenwerte wird Spektralradius von A<br />
genannt.<br />
Wenn x Ø irgend ein Vektor ist, so ist x Ø <strong>und</strong> A x Ø im allgemeinen linear unabhängig.<br />
Wenn x Ø aber ein Eigenvektor ist, dann ist x Ø <strong>und</strong> A x Ø linear abhängig <strong>und</strong> der<br />
Faktor der Proportionalität ist der Eigenwert l.<br />
Beispiel 19: Eigenwerte mit Mathematica<br />
In[74]:= EigenvaluesAJ a b<br />
c d NE<br />
i<br />
1 è!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!<br />
ÅÅÅ<br />
2<br />
Ia + d -<br />
Out[74]=<br />
j<br />
k<br />
1<br />
ÅÅÅ<br />
2<br />
a 2 + 4bc- 2ad+ !!!!!!!!!!! d 2 M y<br />
è!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!<br />
Ia + d + a 2 + 4bc- 2ad+ !!!!!!!!!!! d 2 M<br />
z<br />
{<br />
Beispiel 20: Eigenvektoren mit Mathematica ( c ≠ 0 )<br />
In[75]:= TransposeAEigenvectorsAJ a b<br />
c d NEE<br />
Out[75]=<br />
!!!!!!!!!!!!!!!! !!!!!!!!<br />
!!!!!!!!<br />
i<br />
j - -a+d+è!!!!!!!!!!!!!!!! a 2 +4bc-2 ad+d<br />
ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />
2<br />
2c<br />
ÅÅÅÅÅÅÅÅÅÅÅ - -a+d-è!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!<br />
a 2 +4bc-2 ad+d<br />
ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ ÅÅÅÅÅÅÅÅÅÅÅ<br />
2<br />
y<br />
2c<br />
z<br />
k<br />
1 1<br />
{<br />
Geometrische Interpretation von Eigenvektoren:<br />
Dazu betracht man<br />
A x Ø = y Ø<br />
wobei A eine 2µ2 Matrix ist. Interpretiert man den Vektor x = Hx 1 , x 2 L T als Punkt<br />
der Ebene, so erhält man durch die Anwendung von A auf Ø x wieder einen Punkt der<br />
Ebene y = Hy 1 , y 2 L T , der gegeben ist durch y = A Ø x.
LineareAlgebra.nb 29<br />
Das heißt, nµn Matrizen sind lineare Abbildung des — n .<br />
Betrachtet man die <strong>Vektoren</strong> Ø x <strong>und</strong> Ø<br />
y so haben diese im allgemeinen verschiedene<br />
Richtungen <strong>und</strong> Beträge.<br />
Für Eigenvektoren gilt jedoch, daß Ø x <strong>und</strong> Ø y dieselbe Richtung haben.<br />
2.13 Diagonalisierung von Matrizen<br />
Einen Matrix A heißt diagonalisierbar, wenn eine reguläre Matrix T existiert, sodaß<br />
eine Diagonalmatrix ist.<br />
T A T -1 = D<br />
Es gilt: nicht jede Matrix ist diagonalisierbar, aber<br />
(a) Symmetrische Matrizen sind diagonalisierbar.<br />
(b) Sind alle Eigenwerte von A verschieden, dann ist A ebenfalls<br />
diagonalisierbar.<br />
Beispiel: Diagonalisiert man eine symmetrische Matrix erhält man<br />
T S T -1 = J l 1 0<br />
N,<br />
0 l 2<br />
det(S) = det(T S T -1 ) = l 1 l 2 .<br />
Beispiel 21: Diagonalisierung einer Matrix mit Mathematica<br />
i 2 1 1 y<br />
In[76]:= s = 1 2 -1<br />
j<br />
z<br />
k 1 -1 2 {<br />
Out[76]=<br />
i 2 1 1 y<br />
1 2 -1<br />
j<br />
z<br />
k 1 -1 2 {<br />
In[77]:=<br />
In[78]:=<br />
Out[78]=<br />
In[79]:=<br />
Out[79]=<br />
In[80]:=<br />
Out[80]=<br />
8t, d< = JordanDecomposition@sD;<br />
d<br />
i 0 0 0y<br />
0 3 0<br />
j z<br />
k 0 0 3{<br />
t<br />
i -1 1 1y<br />
1 0 1<br />
j z<br />
k 1 1 0{<br />
Transpose@Eigenvectors@sDD<br />
i -1 1 1y<br />
1 0 1<br />
j z<br />
k 1 1 0{
30 LineareAlgebra.nb<br />
In[81]:=<br />
Out[81]=<br />
t.d.Inverse@tD<br />
i 2 1 1 y<br />
1 2 -1<br />
j<br />
z<br />
k 1 -1 2 {<br />
In[82]:= Inverse@tD. s .t<br />
Out[82]=<br />
i 0 0 0y<br />
0 3 0<br />
j z<br />
k 0 0 3{<br />
Achtung: Die JordanscheZerlegung liefert keine orthonormale Matrix T zur Diagonalisierung<br />
In[83]:= tn =<br />
i<br />
j<br />
k<br />
ÅÅÅÅÅÅÅÅ<br />
- è!!!!<br />
1<br />
3<br />
1<br />
ÅÅÅÅÅÅÅ è!!!<br />
3<br />
1<br />
ÅÅÅÅÅÅÅ è!!!<br />
3<br />
1<br />
è!!!<br />
2<br />
ÅÅÅÅÅÅÅ<br />
1<br />
è!!!<br />
2<br />
ÅÅÅÅÅÅÅ<br />
- è!!!<br />
1<br />
6<br />
ÅÅÅÅÅÅÅ<br />
1<br />
è!!!!<br />
6<br />
ÅÅÅÅÅÅÅÅ<br />
0 - ÅÅÅÅÅÅÅ<br />
2<br />
è!!!<br />
6<br />
y<br />
z<br />
{<br />
;<br />
In[84]:=<br />
Out[84]=<br />
In[85]:=<br />
Out[85]=<br />
Simplify@Inverse@tnD. s .tnD<br />
i 0 0 0y<br />
0 3 0<br />
j z<br />
k 0 0 3{<br />
tn . Transpose@tnD<br />
i 1 0 0y<br />
0 1 0<br />
j z<br />
k 0 0 1{<br />
Ergänzung: Schmidtsches Orthogonalisierungsvervahren mit Beispiel im Vektorraum der Polynome<br />
In[86]:=<br />
In[87]:=<br />
Out[87]=<br />
LineareAlgebra.nb 31<br />
Wenn diese unitäre Matrix aus reellen Koeffizienten besteht, ist es eine orthogonale<br />
Matrix für die gilt:<br />
A T = A -1 .<br />
Ein unitäres System ist ein System von <strong>Vektoren</strong> x Ø 1 , ..., xØ n<br />
für die gilt<br />
d jk kann Null oder Eins sein.<br />
êê<br />
x<br />
T Ø j xk = d jk .<br />
Wenn j <strong>und</strong> k ungleich sind, ist d jk =0 <strong>und</strong> wenn j gleich k ist, ist d jk =1 .<br />
Die Reihen- <strong>und</strong> Spaltenvektoren einer unitären Matrix formen ein unitäres System.<br />
Für die Eigenwerte gilt:<br />
(a) Die Eigenwerte hermitischer Formen sind reell.<br />
(b) Die Eigenwerte schief hermitischer Formen sind entweder imaginär oder Null.<br />
(c) Die Eigenwerte unitärer Matrizen haben den Betrag Eins.<br />
(d) Die Eigenwerte symmetrischer Matrizen sind reell.<br />
(e) Die Eigenwerte schief symmetrischer Formen sind entweder imaginär oder Null.<br />
(f) Die Eigenwerte orthogonaler Matrizen haben den Wert Eins <strong>und</strong> sind reell oder<br />
paarweise komplex konjugiert.<br />
Anwendungen:<br />
Quadratische Form zweiter Ordnung n = 2<br />
Q = H x yL J a 11 a 12<br />
a 21 a 22<br />
N J x y N.<br />
wobei man auf A ist diagonal spezialisiert, d.h.<br />
A = J l 1 0<br />
N,<br />
0 l 2<br />
Q(x,y) = l 1 x 2 + l 2 y 2 .<br />
Geometerisch kann Q(x,y) = F mit F=const. als Kurve 2. Ordnung interpretiert<br />
werden.<br />
Folgende Fälle sind möglich:<br />
(a) l 1 , l 2 > 0, F > 0<br />
(b) sgn l 1 ≠ sgn l 2 , F > 0<br />
(c) F = 0 oder l 1 = 0 oder l 2 = 0<br />
Ellipse<br />
Hyperbel<br />
degeneriert<br />
Beispiel 22: Kurve 2. Ordnung mit Mathematica<br />
In[88]:=<br />
32 LineareAlgebra.nb<br />
In[89]:= ImplicitPlot@x^2 + 2y^2 == 3, 8x, -2, 2
LineareAlgebra.nb 33<br />
In[91]:= ImplicitPlot@x^2 - 2y^2 == 3, 8x, -2, 2
34 LineareAlgebra.nb<br />
In[94]:= ContourPlot3D[x^2 + 2 y^2 - 4 z^2- 4,<br />
{x,-3,3}, {y,-2,2}, {z,-2,2},<br />
Contours -> {1.5, 3.}]<br />
Out[94]=<br />
Ü Graphics3D Ü<br />
Weitere Tipps:<br />
Aus dem Help-Menu:<br />
Lists and matrices:<br />
List Operations<br />
Vector Operations<br />
Matrix Operations<br />
Adds On -> Standard Packages -> Linear Algebra<br />
zumB eispiel:<br />
In[95]:=<br />
In[96]:=<br />
Clear@a, b, cD<br />
LineareAlgebra.nb 35<br />
i 1 2 3y<br />
4 5 6<br />
In[97]:= a =<br />
7 8 9<br />
j z<br />
k 5 7 9{<br />
Out[97]=<br />
i 1 2 3y<br />
4 5 6<br />
7 8 9<br />
j<br />
k 5 7<br />
z<br />
9{<br />
i 1 y<br />
2<br />
In[98]:= b =<br />
3<br />
j z<br />
k 3 {<br />
Out[98]=<br />
i 1 y<br />
2<br />
3<br />
j z<br />
k 3 {<br />
In[99]:=<br />
Out[99]=<br />
c = AppendRows@a, bD<br />
i 1 2 3 1y<br />
4 5 6 2<br />
7 8 9 3<br />
j<br />
k 5 7 9<br />
z<br />
3{