25.12.2013 Aufrufe

1 Vektorrechnung 1.1 Skalare und Vektoren

1 Vektorrechnung 1.1 Skalare und Vektoren

1 Vektorrechnung 1.1 Skalare und Vektoren

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

In[1]:=<br />

Out[1]=<br />

$PrePrint = MatrixForm<br />

MatrixForm<br />

Dieser Befehl bewirkt dass alle Matrizen in MatrixForm ausgegeben werden.<br />

Das vorliegende Skriptum entstand aus einer Fachbereichsarbeit <strong>und</strong> orientiert sich am<br />

Buch von E. Kreyszig, Advanced Engineering Mathematics, 8th Ed. John Wiley 1999.<br />

1 <strong>Vektorrechnung</strong><br />

<strong>1.1</strong> <strong>Skalare</strong> <strong>und</strong> <strong>Vektoren</strong><br />

Man kann die Begriffe Skalar <strong>und</strong> Vektor am besten anhand von physikalischen<br />

Beispielen veranschaulichen. Eine skalare Größe ist eine Größe, die durch eine einzige<br />

reelle Zahl bestimmt wird. Beispiele dafür sind: die Masse eines Körpers, das Volumen<br />

eines Körpers, die Temperatur, der Widerstand usw.<br />

Aber meistens reicht eine einzige Zahl für die Beschreibung eine Größe nicht aus. In<br />

der Mechanik zur Charakterisierung einer Kraft etwa verwendet man einen Vektor.<br />

Ein Vektor entspricht einer gerichteten Strecke, die nicht nur die Stärke angeben kann,<br />

sondern auch die Richtung in der die Kraft wirkt.<br />

1.2 Komponenten eines Vektors<br />

Es sei Ø a ein Vektor in einem kartesischen Koordinatensystem, der durch eine gerichtete<br />

Strecke PQ, wobei P der Anfangspunkt <strong>und</strong> Q der Endpunkt ist, gegeben ist. Die<br />

Koordinaten vom Punkt P sind (x 1 ,y 1 ), die vom Punkt Q sind (x 2 ,y 2 ). Die Komponenten<br />

des Vektors Ø a erhält man indem man von der Spitze (dem Endpunkt P), den<br />

Schaft (den Anfangspunkt Q), abziehen.<br />

a 1 = x 2 - x 1 , a 2 = y 2 - y 1 .<br />

Die Länge des Vektors |a Ø | ist der Abstand der Punkte P <strong>und</strong> Q voneinander <strong>und</strong> ist<br />

daher (Pythagoras)<br />

|a Ø | = è!!!!!!!!!!!!!!!!!! a 12 + a 22 .<br />

Beispiel 1:<br />

Der Vektor a Ø hat den Anfangspunkt P = (1,2) <strong>und</strong> Endpunkt Q = (3,4). Die Komponenten<br />

sind daher<br />

a 1 = 3 - 1 = 2, a 2 = 4 - 2 = 2


2 LineareAlgebra.nb<br />

<strong>und</strong> die Länge von a Ø ist<br />

|a Ø | = è!!!!!!!!!!!!!! 2 2 + 2 2 = è!!! 8.<br />

Beispiel 1: Länge von <strong>Vektoren</strong> mit Mathematica<br />

In[2]:=<br />

vektornorm@v__D := HSum@v@@iDD 2 , 8i, 1, Length@vD


LineareAlgebra.nb 3<br />

1.3 Addition von <strong>Vektoren</strong> <strong>und</strong> Multiplikation<br />

mit <strong>Skalare</strong>n<br />

Addition von <strong>Vektoren</strong><br />

Die Vektoraddition ist eine Basisrechenoperation in der <strong>Vektorrechnung</strong>. Wenn man<br />

zwei <strong>Vektoren</strong> Ø a Ø <strong>und</strong> b addieren will, muß man die einzelnen Komponenten miteinander<br />

addieren. Der Anfangspunkt des daraus folgenden Vektors Ø c ist der Anfangspunkt<br />

von a Ø <strong>und</strong> der Endpunkt von c Ø ist der Endpunkt von b Ø .<br />

Ø Ø Ø a 1<br />

a + b = c, J N + J b 1<br />

N = J a 1 + b 1<br />

N = J c 1<br />

N.<br />

a 2 b 2 a 2 + b 2 c 2<br />

Für die Vektoraddition gilt das Kommutativgesetz. Das heißt, daß<br />

ist.<br />

Ø Ø Ø Ø<br />

a + b = b + a<br />

Aus der Skizze unten ist dies ersichtlich.<br />

Die Vektoraddition unterliegt auch dem Assiozativgesetz welches aussagt, daß<br />

(a Ø + b Ø ) + c Ø = a Ø + (b Ø + c Ø ).<br />

Zu jedem Vektor a Ø gibt es einen inversen Vektor -a Ø , sodaß gilt<br />

Ø Ø Ø<br />

a + (-a) = 0.


4 LineareAlgebra.nb<br />

Es gilt auch<br />

Ø Ø Ø<br />

a + 0 = a.<br />

Zusammengefaßt kann man sagen, daß die <strong>Vektoren</strong> bezüglich der Vektoraddition eine<br />

kommutative Gruppe bilden.<br />

Beispiel 3: Addition von <strong>Vektoren</strong> mit Mathematica<br />

In[10]:= J a 1<br />

a 2<br />

N + J b 1<br />

b 2<br />

N<br />

Out[10]= J a 1 + b 1<br />

a 2 + b 2<br />

N<br />

Multiplikation mit <strong>Skalare</strong>n<br />

Man kann einen Vektor Ø a mit einem Skalar l, also einer reellen Zahl, multiplizieren.<br />

Die Komponenten des Vektors la Ø lauten (la 1 , l a 2 ). Bei der Multiplikation mit<br />

<strong>Skalare</strong>n l, m gelten jetzt folgende Gesetze<br />

(i) l(ma Ø ) = (lm)a Ø gemischtes Assoziativgesetz<br />

(ii) 1a Ø = Ø<br />

a<br />

(iii) l(a Ø + Ø b)= la Ø + lb Ø gemischtes Distributivgesetz<br />

(iv) (l + m)a Ø = la Ø + mb Ø<br />

Wenn der Skalar eine negative Zahl ist, wird die Orientierung des Vektors umgekehrt.<br />

Beispiel 4: Multiplikation mit <strong>Skalare</strong>n mit Mathematica


LineareAlgebra.nb 5<br />

In[11]:= l*J a 1<br />

a 2<br />

N<br />

Out[11]= J l a 1<br />

l a 2<br />

N<br />

1.4 Vektorräume<br />

Ein Vektorraum oder auch linearer Raum besteht aus der Menge aller Elemente die er<br />

beinhaltet. Die Definition eines reellen Vektorraumes lautet: Gegeben sei eine Menge<br />

deren Elemente sämtliche Rechenregeln der Vektoraddition <strong>und</strong> der Multiplikation mit<br />

einem Skalar wie im Kapitel 1.3 befolgen. Diese Elemente bilden dann einen Vektorraum<br />

<strong>und</strong> heißen <strong>Vektoren</strong>. Statt der reellen Zahlen können auch in analoger Weise<br />

Vektorräume über den komplexen Zahlen definiert werden.<br />

Lineare Abhänigkeit <strong>und</strong> Unabhänigkeit:<br />

Ø Ø<br />

Die <strong>Vektoren</strong> v 1,<br />

..., vm<br />

nennt man linear unabhängig, wenn gilt<br />

Ø Ø Ø<br />

l 1 v 1 + l2 v 2 + ... + lm v m = 0 fl l1 = l 2 = ... = l m = 0.<br />

In einer linear abhängigen Menge von <strong>Vektoren</strong> eines Vektorraumes kann man mindestens<br />

einen der <strong>Vektoren</strong> durch eine lineare Kombination der anderen darstellen. Bei<br />

einer linear unahängigen Menge funktioniert das nicht.<br />

Die maximale Anzahl n von linear unabhängigen <strong>Vektoren</strong> eines Vektorraumes nennt<br />

man seine Dimension n <strong>und</strong> eine Menge von n linear unabhängigen <strong>Vektoren</strong> eine<br />

Basis des Vektorraumes. Jeder Vektor kann dann durch eine lineare Kombination der<br />

Basisvektoren gebildet werden.<br />

Beispiel 5: Lineare Abhänigkeit <strong>und</strong> Unabhänigkeit mit Mathematica:<br />

In[12]:= a = 81, 2, 3<<br />

b = 84, 5, 6


6 LineareAlgebra.nb<br />

In[18]:= Solve@l 1 a +l 2 b +l 3 c2 ã d, 8 l 2 , l 3 , l 1


LineareAlgebra.nb 7<br />

Ø<br />

a<br />

b<br />

Ø<br />

= |a<br />

Ø<br />

| |b<br />

Ø<br />

'|,<br />

Ø Ø Ø Ø<br />

a b = |a| |b| cos j.<br />

Für das skalare Produkt von a Ø <strong>und</strong> b Ø sind auch noch folgende Schreibweisen üblich<br />

Ø Ø Ø Ø Ø Ø<br />

a b = Äa, bê = (a, b).<br />

Bei der skalaren Multiplikation werden die <strong>Vektoren</strong> wie folgt multipliziert:<br />

J a 1<br />

a 2<br />

NJ b 1<br />

b 2<br />

N = a 1 b 1 + a 2 b 2<br />

Ø Ø Ø<br />

a = a1 e x + a2 e y ,<br />

Ø Ø<br />

b = b1 e x<br />

Ø<br />

+ b2 e y,<br />

Ø Ø Ø Ø<br />

da e x ex = 1 <strong>und</strong> ex ey = 0 ist.<br />

Ø Ø Ø Ø Ø Ø<br />

a b = (a 1 e x + a2 e y)<br />

( b1 e x + b2 e y)<br />

= a 1 b 1 + a 2 b 2 ,<br />

Beispiel 6: <strong>Skalare</strong>s Produkt mit Mathematica<br />

In[20]:=<br />

Out[20]= 5.48<br />

Dot@81.2, <strong>1.1</strong>, 1


8 LineareAlgebra.nb<br />

1.6 Innere Produkträume<br />

Ein reeller Vektorraum wird dann ein reeller (innerer Produktraum) oder Vektorraum<br />

mit Skalarprodukt genannt, wenn folgende Bedingungen erfüllt werden: Zu jedem Paar<br />

von <strong>Vektoren</strong> a Ø <strong>und</strong> b Ø gibt es eine zugehörige reelle Zahl genannt inneres Produkt<br />

(skalares Produkt).<br />

1.7 Vektorprodukte<br />

Das Vektorprodukt auch Kreuzprodukt oder Dachprodukt genannt gibt es nur im — 3 .<br />

Das Produkt a Ø ä b Ø (bzw. a Ø fl b Ø ) zweier <strong>Vektoren</strong> a Ø <strong>und</strong> b Ø ergibt einen Vektor v Ø , der<br />

auf die Ebene, die a Ø <strong>und</strong> b Ø bilden, normal steht. Der Betrag des Vektors v Ø ist die<br />

Fläche des von a Ø <strong>und</strong> b Ø aufgepannten Parallelogramms. a Ø , b Ø <strong>und</strong> v Ø bilden ein Rechtssystem.<br />

Es gilt<br />

|a Ø ä b Ø | = |v Ø | = |a Ø | |b Ø | sin j.<br />

Vektorprodukte erfüllen nicht das Kommutativgesetz <strong>und</strong> Assoziativgesetz. Durch<br />

die Rechtsschraubenregel kann man b Ø ä a Ø aus a Ø ä b Ø bestimmen.<br />

(a Ø ä Ø b) ä Ø c ≠ Ø a ä (b Ø ä Ø c),<br />

Ø Ø Ø Ø<br />

a ä b = - b ä a .<br />

Daraus folgt: sind die <strong>Vektoren</strong> a Ø <strong>und</strong> b Ø parallel, so gilt<br />

Für eine orthonormale Basis gilt<br />

Ø Ø Ø<br />

a ä b = 0.<br />

Ø Ø Ø<br />

e x ä ey = ez.


LineareAlgebra.nb 9<br />

1.8 Vektorprodukte durch ihre Komponenten<br />

ausgedrückt<br />

Um mit Vektorprodukten rechnen zu können muß man wissen, daß<br />

i v 1 y i a 1 y i b 1 y i a 2 b 3 - a 3 b 2 y i Ø<br />

e<br />

Æ x e Æ y ez<br />

y<br />

Ø<br />

v = v 2<br />

j z = a 2<br />

j z ä b 2<br />

j z = -a 1 b 3 + a 3 b 1<br />

j<br />

k v 3 { k a 3 { k b 3 { k a 1 b 2 - a 2 b 1 {<br />

z = det a 1 a 2 a 3<br />

j z .<br />

k b 1 b 2 b 3 {<br />

Dies folgt unmittelbar aus der Darstellung<br />

Ø Ø Ø Ø<br />

a = a1 e x + a2 e y + a3 e z,<br />

Ø Ø<br />

b = b1 e x<br />

Ø Ø<br />

+ b2 e y + b3 e z,<br />

Ø Ø Ø Ø Ø Ø Ø Ø<br />

a äb = (a 1 e x + a2 e y + a3 e z)<br />

ä ( b1 e x + b2 e y + b3 e z)<br />

Ø<br />

= (a 2 b 3 - a 3 b 2 ) e x<br />

Ø<br />

+ (a3 b 1 - a 1 b 3 ) e y<br />

Ø<br />

+ (a1 b 2 - a 2 b 1 ) e z.<br />

Zwecks Vollständigkeit wurde hier bereits die Formel mit der Determinante angegeben,<br />

obwohl deren Definition erst im nächsten Kapitel erfolgt.<br />

Beispiel: Abstand zweier windschiefer Geraden.<br />

Ø<br />

Der Vektor a äb Ø<br />

ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />

Ø<br />

a äb Ø steht normal auf die Geraden GØ, GØ mit den Richtungsvektoren<br />

a b<br />

ƒ ƒ<br />

Ø Ø<br />

a <strong>und</strong> b <strong>und</strong> hat die Länge eins. Der Abstand d ist dann gegeben durch das<br />

Skalarprodukt<br />

d = Ä aØ äb Ø<br />

ÅÅÅÅÅÅÅÅÅÅÅÅÅ , Ø cê<br />

a<br />

ƒ<br />

Ø<br />

äb Ø ƒ<br />

wobei der Vektor c Ø ein beliebiger Vektor ist, dessen Anfangspunkt auf der Geraden<br />

GØ <strong>und</strong> dessen Endpunkt auf der Geraden GØ liegt.<br />

a b<br />

Beispiel 7: Vektorprodukt mit Mathematica<br />

In[26]:=<br />

Out[26]=<br />

Cross@81.2, <strong>1.1</strong>, 0


10 LineareAlgebra.nb<br />

In[27]:= 81.2, <strong>1.1</strong>, 0< ä 85.4, -2, 1.2<<br />

Out[27]=<br />

i 1.32 y<br />

-1.44<br />

j z<br />

k -8.34 {<br />

1.9 Das gemischte Produkt dreier <strong>Vektoren</strong><br />

Ø Ø<br />

i<br />

Ø<br />

a (b ä c) = det<br />

j<br />

k<br />

a 1 a 2 a 3 y<br />

b 1 b 2 b 3<br />

c 1 c 2 c 3<br />

Geometrisch kann das gemischte Produkt dreier <strong>Vektoren</strong> als das Volumen des von<br />

den drei <strong>Vektoren</strong> aufgespannten Körpers (Parallelepiped) interpretiert werden.<br />

z<br />

{<br />

2 Matrizen <strong>und</strong> Determinanten<br />

2.1 Gr<strong>und</strong>sätzliche Konzepte<br />

Matrizen sind rechteckige "Felder", die aus Reihen <strong>und</strong> Spalten bestehen. Die<br />

Reihen <strong>und</strong> Spalten beinhalten die Koeffizienten der Matrix. Matrizen werden dazu<br />

verwendet um lineare Gleichungssysteme oder Transformationen darzustellen.<br />

a 11 x 1 + a 12 x 2 = b 1<br />

a 21 x 1 + a 22 x 2 = b 2 .<br />

Die Koeffizienten der ersten Gleichung werden in die erste Reihe der Matrix<br />

geschrieben, dann die der zweiten in die zweite Reihe.<br />

A = J a 11 a 12<br />

a 21 a 22<br />

N.<br />

Damit kann das obige Gleichungssystem wie folgt dargestellt werden, wenn die<br />

Multiplikation entsprechend definiert wird. (Dies führt in weiterer Folge zur Definition<br />

der Matrizenmultiplikation.)<br />

J a 11 a 12<br />

a 21 a 22<br />

N.J x 1<br />

x 2<br />

N = J b 1<br />

b 2<br />

N<br />

Spezielle Matrizen


LineareAlgebra.nb 11<br />

Spezielle Matrizen sind zum Beispiel die Reihenmatrix, die nur aus einer Reihe<br />

besteht, oder die Spaltenmatrix, die nur aus einer Spalte besteht.<br />

H a 1 ... a n L,<br />

i<br />

j<br />

k<br />

b 1 y<br />

:<br />

b n<br />

z .<br />

{<br />

Beispiel 8: Spaltenmatrix <strong>und</strong> Reihenmatrix mit Mathematica<br />

In[28]:= 88x 1 ,x 2 , x 3


12 LineareAlgebra.nb<br />

Bei der Multiplikationeiner matrix mit einer Zahl wird jede einzelne Komponente<br />

mit der Zahl multipliziert, zum Beispiel<br />

lA = J l a 11 l a 12<br />

l a 21 l a 22<br />

N.<br />

Beispiel 9: Addition von Matrizen mit Mathematica<br />

In[30]:= J a b<br />

c d N + 3 J 1 1<br />

0 1 N<br />

Out[30]= J 3 + a 3 + b<br />

c 3 + d N<br />

2.3 Transponierte Matrizen<br />

Die Transponierung A T einer Matrix A funktioniert folgendermaßen: Die Elemente<br />

der Reihen werden mit denen der Spalten vertauscht, zum Beispiel<br />

A = J a 11 a 12<br />

a 21 a 22<br />

N,<br />

A T = J a 11 a 21<br />

N.<br />

a 12 a 22<br />

Hierbei können folgende Sonderfälle auftreten:<br />

(a) Die Symmetrische quadratische Matrix. Wenn man sie transponiert<br />

erhält man wieder dieselbe Matrix, zum Beispiel<br />

i 1 6 3 y<br />

A = 6 0 -2<br />

j z , AT = A.<br />

k 3 -2 5 {<br />

(b) Schiefsymmetrische quadratische Matrix. Wenn man A transponiert<br />

erhält man -A, zum Beispiel<br />

i 1 6 3 y<br />

A = -6 0 -2<br />

j z , AT = -A.<br />

k -3 2 5 {<br />

(c) Quadratische Dreiecksmatrix. Bei ihr besteht eine der zwei Seiten der<br />

Hauptdiagonale nur aus Nullen, zum Beispiel<br />

i 1 0 0y<br />

i 1 3 -6 y<br />

A = 8 2 0<br />

j z oder B = 0 2 5<br />

j z .<br />

k -3 2 5{<br />

k 0 0 5 {<br />

Eine untere Dreiecksmatrix wird bei Transponierung zu einer oberen <strong>und</strong> umgekehrt.


LineareAlgebra.nb 13<br />

Beispiel 10: Transponierte Matrix mit Mathematica<br />

In[31]:=<br />

Out[31]=<br />

i 1 0 0y<br />

TransposeA 8 2 0<br />

j z E<br />

k -3 2 5{<br />

i 1 8 -3 y<br />

0 2 2<br />

j z<br />

k 0 0 5 {<br />

2.4 Matrizenmultiplikation<br />

Zwei Matritzen kann man nur dann miteinander multiplizieren, wenn die Spaltenanzahl<br />

der ersten mit der Zeilenanzahl der zweiten übereinstimmt. Die darausfolgende<br />

Matrix hat dann dieselbe Anzahl an Spalten <strong>und</strong> Reihen wie die erste Matrix. Nimmt<br />

man zwei 2 µ 2 Matrizen A <strong>und</strong> B dann ist das Produkt wie folgt definiert<br />

J a 11 a 12<br />

a 21 a 22<br />

N . J b 11 b 12<br />

b 11 b 22<br />

N =<br />

J a 11 b 11 + a 12 b 21 a 11 b 12 + a 12 b 22<br />

a 21 b 11 + a 22 b 21 a 21 b 12 + a 22 b 22<br />

N.<br />

Um zu diesen Ergebnis zu gelangen, führt man folgende Merkregel ein. Dazu faßt<br />

man die zwei Komponenten der Reihen von A zu jeweils einer zusammen.<br />

A = J a 1<br />

a 2<br />

N<br />

a 1 = H a 11<br />

a 2 = H a 21<br />

wobei<br />

a 12 L<br />

a 22 L<br />

Dann faßt man die zwei Komponenten der Spalten von B zu jeweils einer<br />

zusammen.<br />

B = H b 1<br />

b 2 L wobei<br />

b 1 = J b 11<br />

b 12<br />

N, b 2 = J b 21<br />

b 22<br />

N.<br />

Die Komponenten von C, kann man dann mit den skalaren Produkten errechnen.<br />

Es gilt<br />

C = J a 1.b 1 a 1 .b 2<br />

N<br />

a 2 .b 1 a 2 .b 2<br />

c jk = a j .b k = a j,1 b k,1 + a j,2 b k,2 .


14 LineareAlgebra.nb<br />

Beispiel 11: Matrizenmultiplikation mit Mathematica<br />

Achtung: Mathematica unterscheidet natürlich normale Multiplikation "*" <strong>und</strong><br />

Matrizenmultiplikation "."<br />

In[32]:= J a b<br />

c d N.J 1 1<br />

0 1 N<br />

Out[32]= J a a + b<br />

c c + d N<br />

In[33]:= MatrixPowerAJ a b<br />

c d N,3E<br />

Out[33]=<br />

i<br />

k<br />

j a Ha2 + bcL + b Ha c+ cdL<br />

c Ha 2 + bcL + d Ha c+ cdL<br />

a Ha b+ bdL + b Hb c+ d 2 L y<br />

z<br />

c Ha b+ bdL + d Hb c+ d 2 L {<br />

2.5 Rang einer Matrix<br />

Der Rang einer Matrix ist gegeben durch die Anzahl der linear unahängigen Reihenvektoren.<br />

Die Nullmatrix hat zum Beispiel den Rang 0. Die folgende Matrix<br />

i 3 0 2 2 y<br />

A = -1 7 4 9<br />

j<br />

z<br />

k 7 -7 0 -5 {<br />

hat den Rang Ran(A) = 2. Begründet dadurch, daß die dritte Zeile eine lineare<br />

Kombination der beiden ersten ist.<br />

Bei Spalten gibt es auch einen Rang einer Matrix. Man kann ihn mit der Anzahl der<br />

linear unahängigen Spaltenvektoren ermitteln.<br />

Es gilt: Spaltenrang ist gleich Zeilenrang!<br />

Der Rang ist daher gleich der Dimension des Bildraumes der Matrix<br />

Beispiel 12: Rang einer Matrix mit Mathematica<br />

In[34]:=<br />

rang@x_D := Last@Dimensions@xDD - Length@NullSpace@xDD<br />

i 1 0 3y<br />

In[35]:= ma = 4 2 4<br />

j z ;<br />

k 7 8 9{<br />

i 1 2 3y<br />

In[36]:= mb = 4 5 6<br />

j z ;<br />

k 7 8 9{


LineareAlgebra.nb 15<br />

In[37]:=<br />

Out[37]=<br />

RowReduce@maD<br />

i 1 0 0y<br />

0 1 0<br />

j z<br />

k 0 0 1{<br />

In[38]:=<br />

Out[38]= 3<br />

rang@maD<br />

In[39]:=<br />

Out[39]=<br />

RowReduce@mbD<br />

i 1 0 -1 y<br />

0 1 2<br />

j z<br />

k 0 0 0 {<br />

In[40]:=<br />

Out[40]= 2<br />

rang@mbD<br />

In[41]:=<br />

Clear@ma, mbD<br />

Der Kern einer linearen Abbildung besteht aus allen <strong>Vektoren</strong>, die in den Nullvektor abgebildet werden<br />

<strong>und</strong> wird daher auch noch Nullraum genannt.<br />

Beispiel 13: Kern einer Abbildung (Matrix) mit Mathematica<br />

In[42]:=<br />

Out[42]=<br />

i 1 2 3y<br />

TransposeANullSpaceA 4 5 6<br />

j z EE<br />

k 7 8 9{<br />

i 1 y<br />

-2<br />

j z<br />

k 1 {<br />

2.6 Lineare Gleichungssysteme<br />

Gauß'sches Eliminationsverfahren<br />

Lineare Gleichungssysteme<br />

a 11 x 1 + a 12 x 2 = b 1<br />

a 21 x 1 + a 22 x 2 = b 2<br />

Alle a jk <strong>und</strong> b j sind vorgegebene Zahlen. Wenn alle b j gleich Null sind, nennt man<br />

das Gleichungssystem ein homogenes Gleichungssystem, ansonsten ein inhomogenes<br />

Gleichungssystem. Man kann ein System auch durch eine Koeffizientenmatrix<br />

A <strong>und</strong> durch die Erweiterte Matrix B ausdrücken.<br />

A = J a 11 a 12<br />

a 21 a 22<br />

N , B = J a 11 a 12 b 1<br />

a 21 a 22 b 2<br />

N.


16 LineareAlgebra.nb<br />

Gauß'sches Eliminationsverfahren<br />

Nicht alle linearen Gleichungssysteme haben eine Lösung <strong>und</strong> manche haben sogar<br />

mehrere Lösungen. Mit Hilfe des Gauß'schen Eliminationsverfahren kann man nun<br />

versuchen das Gleichungsystem zu lösen. Ein Beispiel:<br />

-x 1 + x 2 + 2x 3 = 2<br />

3x 1 - x 2 + x 3 = 6<br />

-x 1 + 3x 2 + 4x 3 = 4<br />

i -1 1 2 2y<br />

3 -1 1 6<br />

j<br />

z<br />

k -1 3 4 4{<br />

Zuerst muß man x 1 aus der 2. <strong>und</strong> 3. Gleichung eliminieren indem man eine jeweils<br />

entsprechende Linearkombination der 1. Gleichung addiert. Drei mal die Erste<br />

addiert zur Zweiten <strong>und</strong> minus ein mal die Erste addiert zur Dritten ergibt<br />

-x 1 + x 2 + 2x 3 = 2<br />

2x 2 + 7x 3 = 12<br />

2x 2 + 2x 3 = 2,<br />

i -1 1 2 2<br />

0 2 7 12<br />

j<br />

k 0 2 2 2<br />

y<br />

z<br />

{<br />

Als Zweites muß man x 2 aus der 3. Gleichung eliminieren indem man eine passende<br />

Linearkombination der 2. Gleichung addiert.<br />

-x 1 + x 2 + 2x 3 = 2<br />

2x 2 + 7x 3 = 12<br />

-5x 3 = -10,<br />

i<br />

j<br />

k<br />

-1 1 2 2<br />

0 2 7 12<br />

y<br />

z<br />

0 0 -5 -10 {<br />

Es ergibt sich<br />

x 3 = 2; x 2 = -1; x 2 = 1.


LineareAlgebra.nb 17<br />

Mit der 3. Gleichung beginnend kann man jetzt dieses Gleichungssystem lösen.<br />

Beim Lösen von anderen Gleichungssystemen kann mann nach demselben Schema<br />

vorgehen.<br />

Existenz <strong>und</strong> Eigenschaften von Lösungen<br />

(1) Homogene lineare Systeme:<br />

(a) Es existiert immer eine Lösung, nämlich die triviale, das heißt, daß<br />

alle Variablen 0 sind.<br />

(b) Ist der Rang r der Koeffizientenmatrix A, kleiner als die Anzahl der<br />

Variablen n (rank(A) = r < n), so existieren nichttriviale Lösungen.<br />

(2) Inhomogene lineare Systeme:<br />

(a) Eine Lösung eines linearen inhomogenen Gleichungssystems<br />

existiert nur, wenn die Koeffizientenmatrix A den gleichen Rang r hat<br />

wie die erweiterte Matrix B.<br />

(b) Wenn der Rang r der Matrix A mit der Anzahl der Unbekannten n<br />

übereinstimmt, hat das Gleichungssystems genau eine Lösung.<br />

(c) Wenn der Rang r kleiner als die Anzahl der Unbekannten n ist, gibt<br />

es unendlich viele Lösungen.<br />

Wenn eine Lösung existiert, kann man sie mit Hilfe des Gauß'sches Eliminationsverfahrens<br />

bekommen.<br />

In einem inhomogenen Gleichungsystem kann die Lösungsgesamtheit als Summe<br />

einer Lösung x 0 der inhomogenen Gleichung plus aller Lösungen des dazugehörigen<br />

homogenen Gleichungsystem dargestellt werden<br />

x = x 0 + x h .<br />

Beispiel 14: Lineare Gleichungssysteme mit Mathematica<br />

Die Lösung von Gleichungssytemen ist auf mehrere Arten möglich.<br />

Solve liefert alle Lösungen, LinearSolve nur eine spzielle Lösung, die allgemeine Lösung setzt<br />

sich zusammen aus einer speziellen Lösung <strong>und</strong> beliebigen <strong>Vektoren</strong> aus dem Kern der<br />

Matrix<br />

In[43]:=<br />

Clear@x, bD


18 LineareAlgebra.nb<br />

In[44]:= Solve@ 84x 1 + bx 2 + 6x 3 - 6 == 0,<br />

6x 1 + 7x 2 + 8x 3 - 9 == 0,<br />

9x 1 + 10 x 2 + 12 x 3 - 12 == 0


LineareAlgebra.nb 19<br />

In[53]:=<br />

Out[53]=<br />

ker@@1DD<br />

i<br />

j<br />

k<br />

0<br />

0<br />

-3<br />

0<br />

1<br />

y<br />

z<br />

{<br />

In[54]:=<br />

Out[54]=<br />

In[55]:=<br />

Out[55]=<br />

allgemeineLösung = x0 +l 1 ker@@1DD +l 2 ker@@2DD +l 3 ker@@3DD<br />

i<br />

j<br />

k<br />

1 -l 2 - 2 l 3<br />

l 3<br />

2 - 3 l 1 - 3 l 2<br />

l 2<br />

l 1<br />

y<br />

z<br />

{<br />

Simplify@a . allgemeineLösung - bD<br />

i 0 y<br />

0<br />

0<br />

j z<br />

k 0 {<br />

In[56]:= Solve@ a.vxã b, 8x 1 , x 2 , x 3 ,x 4 ,x 5


20 LineareAlgebra.nb<br />

i -1 1 2y<br />

A = 3 -1 1<br />

j z<br />

k -1 3 4{<br />

i -1 1 2y<br />

i 1 0 0y<br />

3 -1 1<br />

j z xØ = 0 1 0<br />

j<br />

k -1 3 4{<br />

k 0 0 1{<br />

Man führt an der Matrix A das Gauß'sche Eliminationsverfahren durch <strong>und</strong> an der<br />

Einheitsmatrix die gleichen Rechenoperationen.<br />

i -1 1 2y<br />

i 1 0 0y<br />

0 2 7<br />

j z xØ = 3 1 0<br />

j z bØ<br />

k 0 2 2{<br />

k 0 0 1{<br />

z bØ<br />

i -1 1 2 y i 1 0 0y<br />

0 2 7<br />

j z xØ = 3 1 0<br />

j z bØ<br />

k 0 0 -5 { k -4 -1 1{<br />

Als nächstes eliminiert man die Koeffizienten oberhalb der Hauptdiagonale, sodaß<br />

links die Einheitsmatrix steht.<br />

i 1 -1 0y<br />

i 3 ê 5 2ê 5 -2 ê 5 y<br />

0 1 0<br />

j z xØ = -13 ê 10 -2 ê 10 7 ê 10<br />

j<br />

z bØ<br />

k 0 0 1{<br />

k 4 ê 5 1ê 5 -1 ê 5 {<br />

i 1 0 0y<br />

i -7 ê 10 2 ê 10 3 ê 10 y<br />

0 1 0<br />

j z xØ = -13 ê 10 -2 ê 10 7 ê 10<br />

j<br />

z bØ<br />

k 0 0 1{<br />

k 4 ê 5 1ê 5 -1 ê 5 {<br />

Die Matrix die jetzt rechts steht ist die Inverse der Matrix A.<br />

Zusammenfassend kann man sagen, daß man<br />

zu umgeformt<br />

haben. Daher ist<br />

A x Ø = b Ø (fl A -1 A x Ø = A -1 b Ø )<br />

Ø Ø<br />

x = B b<br />

B = A -1 .


LineareAlgebra.nb 21<br />

Beispiel 15: Inverse einer Matrix mit Mathematica<br />

In[57]:=<br />

Clear@a, b, c, dD<br />

In[58]:= ma = J a b<br />

c d N<br />

Out[58]= J a b<br />

c d N<br />

In[59]:=<br />

Out[59]=<br />

Inverse@maD<br />

i<br />

j<br />

k<br />

d<br />

b<br />

ÅÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />

-b c+a d<br />

- ÅÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />

-b c+a d<br />

c<br />

a<br />

- ÅÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />

-b c+a d<br />

ÅÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />

-b c+a d<br />

y<br />

z<br />

{<br />

Beispiel 16: Komplementäre Matrix mit Mathematica<br />

In[60]:=<br />

kompl@x_D := Inverse@xD Det@xD<br />

In[61]:=<br />

kompl@maD<br />

Out[61]= J d -b<br />

-c a N<br />

Übung: Man berechne die komplementere Matrix durch direkte Anwendung der<br />

Formel aus dem Skriptum<br />

In[62]:=<br />

In[63]:=<br />

minor@j_, k_, mat_D := Det@Transpose@Delete@Transpose@Delete@mat, jDD, kDDD<br />

kofactor@j_, k_, mat_D := H-1L ^Hj + kL * minor@j, k, matD<br />

In[64]:= komplementareMatrix@mat_D :=<br />

Transpose@Table@kofactor@i, j, matD, 8i, Length@matD


22 LineareAlgebra.nb<br />

D 1 bekommt man, wenn man die erste Spalte der Koeffizientenmatrix durch den<br />

Lösungsvektor ersetzt b Æ ersetzt. D 2 bekommt man, wenn man die zweite Spalte der<br />

Koeffizientenmatrix durch den Lösungsvektor b Æ ersetzt<br />

Beweis von (1):<br />

D = À a 11 a 12<br />

a 21 a 22<br />

À , D 1 = À b 1 a 12<br />

b 2 a 22<br />

À , D 2 = À a 11 b 1<br />

a 21 b 2<br />

À .<br />

J a 11 a 12<br />

a 21 a 22<br />

N J x 1<br />

x 2<br />

N = J b 1<br />

b 2<br />

N<br />

a 11 x 1 + a 12 x 2 = b 1 | - a 21<br />

a 21 x 1 + a 22 x 2 = b 2 | + a 21<br />

( - a 21 a 21 + a 11 a 22 ) x 2 = -b 1 a 21 + b 2 a 11 ,<br />

x 2 =<br />

b 2 a 11 - b 1 a 21<br />

ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />

a 11 a 22 - a 12 a 21<br />

=<br />

D 2<br />

ÅÅÅÅÅÅÅÅ<br />

D .<br />

( a 11 a 22 - a 21 a 12 ) x 1 = b 1 a 21 - b 2 a 12 ,<br />

x 1 =<br />

b 1 a 11 - b 2 a<br />

ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ 21<br />

a 11 a 22 - a 12 a 21<br />

= D 1<br />

ÅÅÅÅÅÅÅÅ<br />

D ,<br />

qed.<br />

Zur Berechnung von Determinanten dritter Ordnung kann man die Regel von Sarrus<br />

benutzen. Zuerst fügt man die beiden ersten Spalten rechts noch einmal an. Dann<br />

bildet man die Summe der Produkte parallel der Hauptdiagonale <strong>und</strong> subtrahiert die<br />

Summe der Produkte parallel der Nebendiagonale.<br />

ƒ<br />

a 11 a 12 a 13 a 11 a 12<br />

a 21 a 22 a 23 a 21 a 22<br />

a 31 a 32 a 33 ƒ a 31 a 32<br />

= (a 11 a 22 a 33 + a 12 a 23 a 31 + a 13 a 21 a 32 )<br />

- (a 13 a 22 a 31 + a 11 a 23 a 32 + a 12 a 21 a 33 )<br />

Um ein lineares Gleichungsystem dritter Ordnung zu lösen, kann man wieder die<br />

Cramersche Regel benutzen. Der Beweis ist analog zum Fall n = 2.<br />

x 1 = D 1<br />

ÅÅÅÅÅÅÅÅ<br />

D , x 2 = D 2<br />

ÅÅÅÅÅÅÅÅ<br />

D , x 3 = D 3<br />

ÅÅÅÅÅÅÅÅ<br />

D ,<br />

D≠0.


LineareAlgebra.nb 23<br />

D 2 bekommt man, wenn man die erste Spalte der Koeffizientenmatrix durch den<br />

Æ<br />

Lösungsvektor ersetzt b ersetzt. D 2 bekommt man, wenn man die zweite Spalte der<br />

Æ<br />

Koeffizientenmatrix durch den Lösungsvektor b ersetzt. D 3 bekommt man wenn<br />

Æ<br />

man die dritte Spalte der Koeffizientenmatrix durch den Lösungsvektor b ersetzt.<br />

Wichtige Eigenschaften von Determinanten<br />

(a) Der Wert einer Determinante ändert sich nicht, wenn man ihre Reihen als<br />

Spalten in derselben Reihenfolge oder umgekehrt schreibt.<br />

Beweis für 2µ2 Matrizen (gilt analog für Matrizen höherer Ordnung).<br />

A = J a 11 a 12<br />

a 21 a 22<br />

N,<br />

det A = À a 11 a 12<br />

a 21 a 22<br />

À = a 11 a 22 - a 21 a 12 ,<br />

det A T = À a 11 a 21<br />

a 12 a 22<br />

À = a 11 a 22 - a 12 a 21 = det A, qed.<br />

(b) Wenn man zwei Spalten oder Reihen miteinander vertauscht, wird der Wert<br />

der Determinante mit -1 multipliziert. Beweis:<br />

À a 21 a 22<br />

a 11 a 12<br />

À = a 21 a 22 - a 12 a 21 = - det A,<br />

À a 21 a 11<br />

a 22 a 12<br />

À = a 21 a 22 - a 12 a 21 = - det A, qed.<br />

Die Determinante zweiter Ordnung, die man erhält, wenn man eine Spalte <strong>und</strong> eine<br />

Reihe einer 3µ3 Matrix löscht wird der Minor des Koeffizienten genannt der zu der<br />

gelöschten Reihe <strong>und</strong> der Spalte gehört.<br />

Der Kofaktor eines Koeffizienten der i-ten Reihe <strong>und</strong> der k-ten Spalte wird mit<br />

H-1L i+k mal der Minor definiert.<br />

Damit kann man eine Determinante dritter Ordnung ausdrücken durch:<br />

D = a 11 C 11 + a 21 C 21 + a 31 C 31<br />

= a 11 ( a 22 a 33 - a 32 a 23 ) - a 21 ( a 12 a 33 - a 32 a 13 )<br />

+ a 31 (a 12 a 23 - a 22 a 13 ).


24 LineareAlgebra.nb<br />

wobei C der jeweilige Kofaktor ist. Diesen Vorgang nennt man "entwickeln'' einer<br />

Determinante.<br />

(c) Eine Determinante kann man aus irgend einer ihrer Reihen oder Spalten errechnen,<br />

indem man jeden Koeffizienten mit seinem Kofaktor multipliziert <strong>und</strong><br />

aufsummiert.<br />

D = -a 21 À a 12 a 13<br />

a 32 a 33<br />

À + a 22 À a 11 a 13<br />

a 31 a 33<br />

À - a 23 À a 11 a 12<br />

a 31 a 32<br />

À.<br />

(d) Einen gemeinsamen Faktor der Koeffizienten einer Reihe oder Spalte kann man<br />

vor die Determinante herausheben. Dies sieht man unmittelbar, wenn man nur die<br />

Reihe oder Spalte entwickelt die den Faktor enthält.<br />

ƒ<br />

a 11 a 12 a 13<br />

a 21 a 22 a 23 = l<br />

a 31 a 32 a 33 ƒ<br />

ƒ<br />

a 11 a 12 ê l a 13<br />

a 21 a 22 ê l a 23 .<br />

a 31 a 32 ê l a 33 ƒ<br />

Dies sieht man sofort, wenn man nach der Reihe oder Spalte entwickelt die den<br />

Faktor enthält.<br />

Aus (b) <strong>und</strong> (d) folgt unmittelbar:<br />

(e) Wenn zwei Reihen oder Spalten proportional zueinander sind, ist der Wert der<br />

Determinante 0.<br />

(f) Der Wert einer Determinante bleibt gleich, wenn man eine ihrer Reihen oder<br />

Spalten mit einem Skalar multipliziert <strong>und</strong> zu einer anderen addiert.<br />

Beispiel 17: Determinanten mit Mathematica<br />

In[66]:= DetAJ a 11 a 12<br />

NE<br />

a 21 a 22<br />

Out[66]= -a 12 a 21 + a 11 a 22<br />

In[67]:=<br />

i a 11 a 12 a 13 y<br />

DetA a<br />

j 21 a 22 a 23<br />

z E<br />

k a 31 a 32 a 33 {<br />

Out[67]= -a 13 a 22 a 31 + a 12 a 23 a 31 + a 13 a 21 a 32 - a 11 a 23 a 32 - a 12 a 21 a 33 + a 11 a 22 a 33<br />

2.9 Determinanten höherer Ordnung<br />

Determinanten höherer Ordnug werden berechnet indem man sie "entwickelt", d.h.<br />

sie werden durch Determinaten von niederigerer Ordnung ausgedrückt. Gegeben sei<br />

eine Determinante n-ter Ordnung d.h., eine Matrix mit n Reihen <strong>und</strong> n Spalten.<br />

i<br />

j<br />

k<br />

a 11 ... a 1 n y<br />

: ... :<br />

a n1 ... a nn<br />

z<br />

{


LineareAlgebra.nb 25<br />

Die Determinante, die man erhält, wenn man die k-te Reihe <strong>und</strong> eine i-te Spalte<br />

löscht wird der Minor des Koeffizienten genannt der zu der gelöschten Reihen <strong>und</strong><br />

der Spalte gehört. Er wird als M ik angegeben.<br />

Der Kofaktor eines Koeffizienten der i-ten Reihe <strong>und</strong> der k-ten Spalte wird mit<br />

H-1L i+k mal der Minor definiert. Er wird als C ik angegeben.<br />

C ik = H-1L i+k M ik<br />

Beispiel 18: Minor <strong>und</strong> Kofaktor mit Mathematica<br />

In[68]:=<br />

In[69]:=<br />

In[70]:=<br />

Clear@a, maD<br />

minor@j_, k_, mat_D := Det@Transpose@Delete@Transpose@Delete@mat, jDD, kDDD<br />

kofactor@j_, k_, mat_D := H-1L ^Hj + kL * minor@j, k, matD<br />

i a 11 a 12 a 13 y<br />

In[71]:= ma = a 21 a 22 a 23<br />

j<br />

z<br />

k a 31 a 32 a 33 {<br />

Out[71]=<br />

i<br />

j<br />

k<br />

a 11 a 12 a 13 y<br />

a 21 a 22 a 23<br />

a 31 a 32 a 33<br />

z<br />

{<br />

In[72]:=<br />

minor@2, 3, maD<br />

Out[72]= -a 12 a 31 + a 11 a 32<br />

In[73]:=<br />

kofactor@2, 3, maD<br />

Out[73]= a 12 a 31 - a 11 a 32<br />

Den Wert der Determinante einer n ä n Matrix erhält man, wenn man irgend eine<br />

ihrer Reihen oder Spalten nimmt <strong>und</strong> jeden Koeffizienten mit seinem Kofaktor<br />

multipliziert <strong>und</strong> aufsummiert. Zum Beispiel<br />

D = a i1 C i1 + a i2 C i2 + ... + a in C in .<br />

Damit hat man die Determinante n-ter Ordnung durch eine Summe von Determinaten<br />

der Ordnung n-1 ausgedrückt. Dieser Vorgang wird nun solange wiederholt,<br />

bis man zu Determinaten erster bzw. zweiter Ordnung kommt.<br />

Es gilt:<br />

(a) Der Wert der Determinante ändert sich nicht, wenn man ihre Reihen als Spalten<br />

in derselben Reihenfolge oder umgekehrt schreibt (transponierte Matrix).<br />

(b) Wenn man eine Reihe oder Spalte mir einem Faktor multipliziert, ist der Wert<br />

der folgenden Determinante gleich der Ausgangsdeterminante mal dem Faktor.<br />

(c) Wenn alle Koeffizienten einer Reihe oder Spalte Null sind, ist der Wert der<br />

Determinante auch Null.<br />

(d) Wenn man zwei Spalten oder Reihen miteinander vertauscht, wird der Wert der<br />

Determinante mit -1 multipliziert.<br />

(e) Wenn zwei Reihen oder Spalten proportional zueinander sind, ist der Wert der<br />

Determinante 0.


26 LineareAlgebra.nb<br />

(f) Der Wert der Determinante ändert sich nicht, wenn man ein konstantes vielfaches<br />

einer ihrer Reihen oder Spalten zu einer anderen addiert.<br />

(g) Die Determinante des Produktes zweier Matrizen ist gleich dem Produkt der<br />

Determinanten der zwei Matrizen.<br />

det(AB) = det A det B.<br />

Hinweis: Die Beweise dieser Aussagen sind trivial <strong>und</strong> analog zum Fall n = 2.<br />

2.10 Ränge <strong>und</strong> Determinanten,<br />

Cramersche Regel<br />

Man kann mit Hilfe von Determinanten den Rang einer Matrix bestimmen.<br />

Eine Matrix A hat einen Rang r ≥ 1 genau dann, wenn A eine r ä r -Untermatrix<br />

mit einer Determinante ungleich Null hat <strong>und</strong> es keine größere Untermatrix mit einer<br />

Determinante ungleich Null gibt.<br />

Cramersche Regel<br />

Wenn die Determinante D = det A eines linearen inhomogenen Systems von n<br />

Gleichungen mit n Unbekannten nicht Null ist, so hat dieses System genau eine<br />

Lösung. Sie ist gegeben durch:<br />

x 1 = D 1<br />

ÅÅÅÅÅÅÅÅ<br />

D , x 2 = D 2<br />

ÅÅÅÅÅÅÅÅ<br />

D , ..., x n = D n<br />

ÅÅÅÅÅÅÅÅ<br />

D .<br />

Als Folge der Cramersche Regel kann man nun die Inverse einer Matrix ausrechen.<br />

Die Inverse einer regulären (nµn)-Matrix A = (a jk ) wird wie folgt berechnet:<br />

A -1 =<br />

1<br />

ÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />

det A<br />

i<br />

j<br />

k<br />

A 11 ... A 1 n y<br />

: ... :<br />

A n1 ... A nn<br />

wobei A jk der Kofaktor von a jk ist. Wichtig ist außerdem noch, daß der Kofaktor<br />

A jk den Platz von a kj einnimmt.<br />

Hinweis: Die Beweise dieser Aussagen sind trivial <strong>und</strong> analog zum Fall n = 2.<br />

z<br />

{<br />

2.11 Bilineare, quadratische <strong>und</strong><br />

Hermitesche Formen<br />

Ein Ausdruck der Form<br />

n<br />

B = ⁄ j=1<br />

n<br />

⁄ k=1 a jk x j y k<br />

heißt bilineare Form in den 2n Variablen x 1 , ..., x n <strong>und</strong> y 1 , ..., y n .<br />

Ausgeschrieben erhält man


LineareAlgebra.nb 27<br />

B =<br />

a 11 x 1 y 1 + ... + a 1 n x 1 y n<br />

......................................<br />

+ a n1 x n y 1 + ... + a nn x n y n .<br />

Führt man die <strong>Vektoren</strong> x Ø = Hx 1 , ..., x n L T <strong>und</strong> y Ø = Hy 1 , ..., y n L T <strong>und</strong> die Koeffizientenmatrix<br />

A = (a jk ) ein, so kann B in der Form<br />

geschrieben werden.<br />

B = x Æ T<br />

Ay<br />

Æ<br />

Beispiel: Das Skalarprodukt kann als Bilinearform interpretiert werden, wobei A =<br />

1 ist.<br />

Eine spezielle Fall der bilinearen Form ist die quadratische Form. Sie tritt auf<br />

wenn Ø y = Ø x ist.<br />

n<br />

Q = ⁄ j = 1<br />

n<br />

⁄ k=1<br />

a jk x j x k ,<br />

Q = x Æ T<br />

A x<br />

Æ<br />

Gegeben sie eine Matrix A = (a jk ), dann bezeichnet A èè die Matrix die man erhält,<br />

wenn man den Koeffizienten a jk in A durch seinen komplex konjugiertes Wert a êê jk<br />

ersetzt. Wenn jetzt A T = A èè ist, dann wird A eine hermitesche (symmetrische)<br />

Matrix genannt <strong>und</strong> die dazu gehörige Form heißt hermitesche Form.<br />

n<br />

Q = ⁄ j=1<br />

H = Hx êê L T A x Æ ,<br />

n<br />

⁄ k=1<br />

a jk x êê j x k .<br />

Für jede Wahl des Vektors Æ x, ist der Wert der hermiteschen Form eine reelle Zahl.<br />

êê êêêêêêêêêêêêêêêêêêêêêêêêêê<br />

Q =<br />

n n ⁄j=1 ⁄ k=1 a jk x j x k<br />

n n<br />

= ⁄ j=1 ⁄<br />

êê<br />

k=1 a jk x êê j xk<br />

n<br />

= ⁄ j=1<br />

n<br />

⁄ k=1<br />

a kj x êê k x j = Q.<br />

Wenn für eine Matrix A T = -A èè gilt, dann wird sie schiefhermitesche<br />

(schiefsymmetrische) Matrix genannt.<br />

S = Hx êê L T A x Æ ,<br />

Für jede Wahl des Vektors Æ x, ist der Wert der schiefermitischen Form eine imaginäre<br />

Zahl oder Null.<br />

êê<br />

S<br />

êêêêêêêêêêêêêêêêêêêêêêêêêê<br />

=⁄<br />

n n<br />

j=1 ⁄ k=1 a jk x j x k<br />

Æ


28 LineareAlgebra.nb<br />

n<br />

= ⁄ j=1<br />

n<br />

⁄ k=1<br />

- a jk<br />

-a kj x êê k x j = - S.<br />

2.12 Eigenwerte <strong>und</strong> Eigenvektoren<br />

Man betrachtet nun eine Matrix A <strong>und</strong> die folgende Vektorgleichung an.<br />

A x Ø = l x Ø .<br />

Es ist klar, daß eine Lösung hier x Ø = 0 währe. Der Wert, den man für l erhält,<br />

wenn x Ø ≠ 0 ist, heißt Eigenwert von A . Das dazugehörige x Ø wird Eigenvektor von<br />

A genannt. Die Menge aller Eigenwerte, die A haben kann, wird das Spektrum<br />

genannt. Der größte absolute Wert der Eigenwerte wird Spektralradius von A<br />

genannt.<br />

Wenn x Ø irgend ein Vektor ist, so ist x Ø <strong>und</strong> A x Ø im allgemeinen linear unabhängig.<br />

Wenn x Ø aber ein Eigenvektor ist, dann ist x Ø <strong>und</strong> A x Ø linear abhängig <strong>und</strong> der<br />

Faktor der Proportionalität ist der Eigenwert l.<br />

Beispiel 19: Eigenwerte mit Mathematica<br />

In[74]:= EigenvaluesAJ a b<br />

c d NE<br />

i<br />

1 è!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!<br />

ÅÅÅ<br />

2<br />

Ia + d -<br />

Out[74]=<br />

j<br />

k<br />

1<br />

ÅÅÅ<br />

2<br />

a 2 + 4bc- 2ad+ !!!!!!!!!!! d 2 M y<br />

è!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!<br />

Ia + d + a 2 + 4bc- 2ad+ !!!!!!!!!!! d 2 M<br />

z<br />

{<br />

Beispiel 20: Eigenvektoren mit Mathematica ( c ≠ 0 )<br />

In[75]:= TransposeAEigenvectorsAJ a b<br />

c d NEE<br />

Out[75]=<br />

!!!!!!!!!!!!!!!! !!!!!!!!<br />

!!!!!!!!<br />

i<br />

j - -a+d+è!!!!!!!!!!!!!!!! a 2 +4bc-2 ad+d<br />

ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ<br />

2<br />

2c<br />

ÅÅÅÅÅÅÅÅÅÅÅ - -a+d-è!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!<br />

a 2 +4bc-2 ad+d<br />

ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ ÅÅÅÅÅÅÅÅÅÅÅ<br />

2<br />

y<br />

2c<br />

z<br />

k<br />

1 1<br />

{<br />

Geometrische Interpretation von Eigenvektoren:<br />

Dazu betracht man<br />

A x Ø = y Ø<br />

wobei A eine 2µ2 Matrix ist. Interpretiert man den Vektor x = Hx 1 , x 2 L T als Punkt<br />

der Ebene, so erhält man durch die Anwendung von A auf Ø x wieder einen Punkt der<br />

Ebene y = Hy 1 , y 2 L T , der gegeben ist durch y = A Ø x.


LineareAlgebra.nb 29<br />

Das heißt, nµn Matrizen sind lineare Abbildung des — n .<br />

Betrachtet man die <strong>Vektoren</strong> Ø x <strong>und</strong> Ø<br />

y so haben diese im allgemeinen verschiedene<br />

Richtungen <strong>und</strong> Beträge.<br />

Für Eigenvektoren gilt jedoch, daß Ø x <strong>und</strong> Ø y dieselbe Richtung haben.<br />

2.13 Diagonalisierung von Matrizen<br />

Einen Matrix A heißt diagonalisierbar, wenn eine reguläre Matrix T existiert, sodaß<br />

eine Diagonalmatrix ist.<br />

T A T -1 = D<br />

Es gilt: nicht jede Matrix ist diagonalisierbar, aber<br />

(a) Symmetrische Matrizen sind diagonalisierbar.<br />

(b) Sind alle Eigenwerte von A verschieden, dann ist A ebenfalls<br />

diagonalisierbar.<br />

Beispiel: Diagonalisiert man eine symmetrische Matrix erhält man<br />

T S T -1 = J l 1 0<br />

N,<br />

0 l 2<br />

det(S) = det(T S T -1 ) = l 1 l 2 .<br />

Beispiel 21: Diagonalisierung einer Matrix mit Mathematica<br />

i 2 1 1 y<br />

In[76]:= s = 1 2 -1<br />

j<br />

z<br />

k 1 -1 2 {<br />

Out[76]=<br />

i 2 1 1 y<br />

1 2 -1<br />

j<br />

z<br />

k 1 -1 2 {<br />

In[77]:=<br />

In[78]:=<br />

Out[78]=<br />

In[79]:=<br />

Out[79]=<br />

In[80]:=<br />

Out[80]=<br />

8t, d< = JordanDecomposition@sD;<br />

d<br />

i 0 0 0y<br />

0 3 0<br />

j z<br />

k 0 0 3{<br />

t<br />

i -1 1 1y<br />

1 0 1<br />

j z<br />

k 1 1 0{<br />

Transpose@Eigenvectors@sDD<br />

i -1 1 1y<br />

1 0 1<br />

j z<br />

k 1 1 0{


30 LineareAlgebra.nb<br />

In[81]:=<br />

Out[81]=<br />

t.d.Inverse@tD<br />

i 2 1 1 y<br />

1 2 -1<br />

j<br />

z<br />

k 1 -1 2 {<br />

In[82]:= Inverse@tD. s .t<br />

Out[82]=<br />

i 0 0 0y<br />

0 3 0<br />

j z<br />

k 0 0 3{<br />

Achtung: Die JordanscheZerlegung liefert keine orthonormale Matrix T zur Diagonalisierung<br />

In[83]:= tn =<br />

i<br />

j<br />

k<br />

ÅÅÅÅÅÅÅÅ<br />

- è!!!!<br />

1<br />

3<br />

1<br />

ÅÅÅÅÅÅÅ è!!!<br />

3<br />

1<br />

ÅÅÅÅÅÅÅ è!!!<br />

3<br />

1<br />

è!!!<br />

2<br />

ÅÅÅÅÅÅÅ<br />

1<br />

è!!!<br />

2<br />

ÅÅÅÅÅÅÅ<br />

- è!!!<br />

1<br />

6<br />

ÅÅÅÅÅÅÅ<br />

1<br />

è!!!!<br />

6<br />

ÅÅÅÅÅÅÅÅ<br />

0 - ÅÅÅÅÅÅÅ<br />

2<br />

è!!!<br />

6<br />

y<br />

z<br />

{<br />

;<br />

In[84]:=<br />

Out[84]=<br />

In[85]:=<br />

Out[85]=<br />

Simplify@Inverse@tnD. s .tnD<br />

i 0 0 0y<br />

0 3 0<br />

j z<br />

k 0 0 3{<br />

tn . Transpose@tnD<br />

i 1 0 0y<br />

0 1 0<br />

j z<br />

k 0 0 1{<br />

Ergänzung: Schmidtsches Orthogonalisierungsvervahren mit Beispiel im Vektorraum der Polynome<br />

In[86]:=<br />

In[87]:=<br />

Out[87]=<br />


LineareAlgebra.nb 31<br />

Wenn diese unitäre Matrix aus reellen Koeffizienten besteht, ist es eine orthogonale<br />

Matrix für die gilt:<br />

A T = A -1 .<br />

Ein unitäres System ist ein System von <strong>Vektoren</strong> x Ø 1 , ..., xØ n<br />

für die gilt<br />

d jk kann Null oder Eins sein.<br />

êê<br />

x<br />

T Ø j xk = d jk .<br />

Wenn j <strong>und</strong> k ungleich sind, ist d jk =0 <strong>und</strong> wenn j gleich k ist, ist d jk =1 .<br />

Die Reihen- <strong>und</strong> Spaltenvektoren einer unitären Matrix formen ein unitäres System.<br />

Für die Eigenwerte gilt:<br />

(a) Die Eigenwerte hermitischer Formen sind reell.<br />

(b) Die Eigenwerte schief hermitischer Formen sind entweder imaginär oder Null.<br />

(c) Die Eigenwerte unitärer Matrizen haben den Betrag Eins.<br />

(d) Die Eigenwerte symmetrischer Matrizen sind reell.<br />

(e) Die Eigenwerte schief symmetrischer Formen sind entweder imaginär oder Null.<br />

(f) Die Eigenwerte orthogonaler Matrizen haben den Wert Eins <strong>und</strong> sind reell oder<br />

paarweise komplex konjugiert.<br />

Anwendungen:<br />

Quadratische Form zweiter Ordnung n = 2<br />

Q = H x yL J a 11 a 12<br />

a 21 a 22<br />

N J x y N.<br />

wobei man auf A ist diagonal spezialisiert, d.h.<br />

A = J l 1 0<br />

N,<br />

0 l 2<br />

Q(x,y) = l 1 x 2 + l 2 y 2 .<br />

Geometerisch kann Q(x,y) = F mit F=const. als Kurve 2. Ordnung interpretiert<br />

werden.<br />

Folgende Fälle sind möglich:<br />

(a) l 1 , l 2 > 0, F > 0<br />

(b) sgn l 1 ≠ sgn l 2 , F > 0<br />

(c) F = 0 oder l 1 = 0 oder l 2 = 0<br />

Ellipse<br />

Hyperbel<br />

degeneriert<br />

Beispiel 22: Kurve 2. Ordnung mit Mathematica<br />

In[88]:=<br />


32 LineareAlgebra.nb<br />

In[89]:= ImplicitPlot@x^2 + 2y^2 == 3, 8x, -2, 2


LineareAlgebra.nb 33<br />

In[91]:= ImplicitPlot@x^2 - 2y^2 == 3, 8x, -2, 2


34 LineareAlgebra.nb<br />

In[94]:= ContourPlot3D[x^2 + 2 y^2 - 4 z^2- 4,<br />

{x,-3,3}, {y,-2,2}, {z,-2,2},<br />

Contours -> {1.5, 3.}]<br />

Out[94]=<br />

Ü Graphics3D Ü<br />

Weitere Tipps:<br />

Aus dem Help-Menu:<br />

Lists and matrices:<br />

List Operations<br />

Vector Operations<br />

Matrix Operations<br />

Adds On -> Standard Packages -> Linear Algebra<br />

zumB eispiel:<br />

In[95]:=<br />

In[96]:=<br />

Clear@a, b, cD<br />


LineareAlgebra.nb 35<br />

i 1 2 3y<br />

4 5 6<br />

In[97]:= a =<br />

7 8 9<br />

j z<br />

k 5 7 9{<br />

Out[97]=<br />

i 1 2 3y<br />

4 5 6<br />

7 8 9<br />

j<br />

k 5 7<br />

z<br />

9{<br />

i 1 y<br />

2<br />

In[98]:= b =<br />

3<br />

j z<br />

k 3 {<br />

Out[98]=<br />

i 1 y<br />

2<br />

3<br />

j z<br />

k 3 {<br />

In[99]:=<br />

Out[99]=<br />

c = AppendRows@a, bD<br />

i 1 2 3 1y<br />

4 5 6 2<br />

7 8 9 3<br />

j<br />

k 5 7 9<br />

z<br />

3{

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!