Noter til Lineær Algebra - logx.dk
Noter til Lineær Algebra - logx.dk
Noter til Lineær Algebra - logx.dk
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
<strong>Noter</strong> <strong>til</strong> <strong>Lineær</strong> <strong>Algebra</strong><br />
Martin Sparre, www.<strong>logx</strong>.<strong>dk</strong>,<br />
August 2007,<br />
Version π8<br />
9450 .<br />
– Eksamensnoter <strong>til</strong> LinAlg
INDHOLD 2<br />
Indhold<br />
0.1 Om disse noter . . . . . . . . . . . . . . . . . . . . . . . . . . 3<br />
1 Abstrakte vektorrum 4<br />
1.1 Definition af et vektorrum . . . . . . . . . . . . . . . . . . . . 4<br />
1.2 Underrum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />
1.3 En matrices nulrum . . . . . . . . . . . . . . . . . . . . . . . 5<br />
1.4 <strong>Lineær</strong> uafhængighed . . . . . . . . . . . . . . . . . . . . . . . 6<br />
1.5 Basis og dimension . . . . . . . . . . . . . . . . . . . . . . . . 7<br />
1.6 Skift af basis . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />
1.7 Rækkerum og søjlerum . . . . . . . . . . . . . . . . . . . . . . 9<br />
2 <strong>Lineær</strong>e afbildninger 11<br />
2.1 Definition af en lineær afbildning . . . . . . . . . . . . . . . . 11<br />
2.2 Matrixrepræsentation af lineære afbildninger . . . . . . . . . 12<br />
2.3 Similære matricer . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />
3 Egenværdier 15<br />
3.1 Egenværdier og egenvektorer . . . . . . . . . . . . . . . . . . 15<br />
3.2 Diagonalisering . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />
4 Ortogonalisering 17<br />
4.1 Skalarproduktet i R n . . . . . . . . . . . . . . . . . . . . . . . 17<br />
4.2 Indre produkt rum . . . . . . . . . . . . . . . . . . . . . . . . 17<br />
4.3 Ortonormale systemer . . . . . . . . . . . . . . . . . . . . . . 19<br />
4.4 Ortogonale matricer . . . . . . . . . . . . . . . . . . . . . . . 20<br />
4.5 Gram-Schmidt ortogonalisering . . . . . . . . . . . . . . . . . 21<br />
5 Fourieranalyse 23<br />
5.1 Ortonormal basis . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />
5.2 Fourierrækker . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />
5.3 Fouriertransformation . . . . . . . . . . . . . . . . . . . . . . 25
INDHOLD 3<br />
0.1 Om disse noter<br />
Disse noter indeholder en stor del af eksamensensum <strong>til</strong> LinAlg-kurset p˚a<br />
Københavns Universitet (2006). Dog er emnerne lineære ligningssystemer,<br />
Gauss-Elimination/Gauss-Jordan Elimination, matrixalgebra og determi-<br />
nanter ikke medtaget.<br />
Versionsnummeret er givet ved<br />
u<strong>dk</strong>ommer en ny version.<br />
∞<br />
k=1<br />
1<br />
k2p, hvor p stiger med 1, n˚ar der<br />
Martin Sparre<br />
www.<strong>logx</strong>.<strong>dk</strong>
1 ABSTRAKTE VEKTORRUM 4<br />
1 Abstrakte vektorrum<br />
1.1 Definition af et vektorrum<br />
Lad mængden V være et vektorrum og lad x,y ∈ V . Da gælder<br />
αx ∈ V, α ∈ R og x + y ∈ V.<br />
For x,y,z ∈ V og α,β ∈ R ops<strong>til</strong>les følgende aksiomer:<br />
(x + y) + z = x + (y + z)<br />
y + 0 = y (0 kaldes 0-elementet)<br />
x + (−x) = 0<br />
x + y = y + x<br />
α(x + y) = αx + αy<br />
(α + β)x = αx + βx<br />
(αβ)x = α(βx)<br />
1x = x.<br />
Elementerne i et vektorrum kaldes for vektorer.<br />
Her følger nogle eksempler p˚a vektorrum og elementer i disse:<br />
Eksempel 1 (Vektorrummet R n ) Talrummene R n er vektorrum. Her er<br />
et eksempel p˚a vektorer i henholdsvis R3 og R5 :<br />
⎛ ⎞<br />
4<br />
⎜ ⎟<br />
x = ⎜<br />
⎝ 7 ⎟<br />
⎠ ,<br />
42<br />
⎛ ⎞<br />
−12<br />
⎜ ⎟<br />
⎜ 5 ⎟<br />
⎜ ⎟<br />
y = ⎜ 1 ⎟.<br />
⎜ ⎟<br />
⎜<br />
⎝ 9<br />
⎟<br />
⎠<br />
1<br />
⊳<br />
Eksempel 2 (Vektorrummet R m×n ) Mængden af alle m × n matricer<br />
er et vektorrum og betegnes Rm×n . Her er et eksempel p˚a en vektor i R3×2 :<br />
⎛ ⎞<br />
⎜<br />
A = ⎜<br />
⎝<br />
42<br />
2<br />
13<br />
⎟<br />
4 ⎟<br />
⎠ . ⊳<br />
−1 9801
1 ABSTRAKTE VEKTORRUM 5<br />
Eksempel 3 (Vektorrummet Pn) Med Pn betegnes mængden af poly-<br />
nomier af grad strengt mindre end n. Der gælder, at Pn er et vektorrum.<br />
Her ses eksempler p˚a en vektor i P3:<br />
p(x) = 2x 2 − 4x − 12. ⊳<br />
Eksempel 4 (Vektorrummet C[a, b]) Det kan vises, at mængden, som<br />
best˚ar af alle kontinuerte funktioner defineret p˚a et interval [a;b], udgør et<br />
vektorrum. Dette vektorrum betegnes C[a,b]. Et eksempel p˚a en vektor i<br />
C[−1,1]:<br />
f(x) = tan(x). ⊳<br />
Eksempel 5 (Vektorrummet C n [a, b] ) Mængden af alle n gange konti-<br />
nuert differentiable funktioner p˚a et interval [a;b] udgør et vektorrum, kaldet<br />
C n [a,b]. ⊳<br />
1.2 Underrum<br />
Lad V være et vektorrum og lad S ⊆ V . Hvis S er en ikke-tom delmængde<br />
af V , s˚a kaldes S et underrum af V , hvis følgende gælder:<br />
αx ∈ S, for alle x ∈ S og alle α ∈ R, (i)<br />
x + y ∈ S for alle x,y ∈ S. (ii)<br />
Betingelses (i) siger, at S er lukket under skalarmultiplikation og (ii) siger,<br />
at S er lukket under addition af elementer i S.<br />
I ethvert vektorrum V gælder der, at V og {0} er underrum. Disse to<br />
vektorrum kaldes trivielle underrum.<br />
Der gælder generelt, at alle underrum i sig selv er vektorrum.<br />
1.3 En matrices nulrum<br />
Lad A være en m × n matrix. S˚a betegner N(A) mængden af alle løsninger<br />
<strong>til</strong> ligningen Ax = 0. Der gælder, at<br />
N(A) = {x ∈ R n |Ax = 0} .
1 ABSTRAKTE VEKTORRUM 6<br />
Til at finde nulrummet for en matrix udføres Gauss elimination eller Gauss-<br />
Jordan elimination og herudfra bestemmes løsningsrummet N(A) <strong>til</strong> lignig-<br />
nen Ax = 0.<br />
Eksempel 6 (Bestemmelse af nulrum) Lad<br />
<br />
1 1 1 0<br />
A =<br />
.<br />
2 1 0 1<br />
Efter Gauss-Jordan elimination f˚as:<br />
1 0 −1 1<br />
0 1 2 −1<br />
Ligningssystemet <strong>til</strong>svarende denne matrix er:<br />
x1 = x3 − x4<br />
x2 = −2x3 + x4.<br />
Ved at sætte x3 = α og x4 = β f˚as, at<br />
⎧⎛<br />
⎞ ⎛ ⎞⎫<br />
1 −1<br />
⎪⎨<br />
⎜ ⎟ ⎜ ⎟<br />
⎜ −2<br />
⎟ ⎜<br />
⎟ ⎜ 1<br />
⎟⎪⎬<br />
⎟<br />
N(A) = span ⎜ ⎟ , ⎜ ⎟ ,<br />
⎜<br />
⎝<br />
1 ⎟ ⎜<br />
⎠ ⎝<br />
0 ⎟<br />
⎠<br />
⎪⎩<br />
⎪⎭<br />
0 1<br />
hvor span angiver mængden, som udspændes af de to vektorer. ⊳<br />
1.4 <strong>Lineær</strong> uafhængighed<br />
Definition 1 (<strong>Lineær</strong> uafhængighed) Vektorerne v1,v2,... ,vn ∈ V er<br />
lineært uafhængige hvis udsagnet,<br />
<br />
α1v1 + α2v2 + ... + αnvn = 0,<br />
kun er sandt, n˚ar α1,α2,... ,αn er 0. ⊳<br />
Definition 2 (<strong>Lineær</strong> afhængighed) Vektorerne v1,v2,... ,vn ∈ V er<br />
lineært afhængige, hvis udsagnet er sandt,<br />
α1v1 + α2v2 + ... + αnvn = 0,<br />
selvom ikke alle α1,α2,... ,αn er 0. ⊳<br />
.
1 ABSTRAKTE VEKTORRUM 7<br />
For at afgøre om n vektorer, x1,x2,...,xn i R n er lineært afhængige kan<br />
man opskrive matricen,<br />
X = (x1,x2,...,xn).<br />
Vektorerne er lineært afhængige hvis og kun hvis det (X) = 0.<br />
En anden m˚ade at teste, hvorvidt en samling af vektorer er lineært af-<br />
hængige, er, at opskrive en matrix med de givne vektorer som søjlevektorer.<br />
Efter Gauss-elimination af matricen er der en nulrække, hvis og kun hvis de<br />
givne vektorer er lineært afhængige.<br />
Hvis man har m vektorer i R n og m > n er de m vektorer altid lineært<br />
afhængige.<br />
1.5 Basis og dimension<br />
Definition 3 (En basis for et vektorrum) Vektorerne v1,v2,... ,vn er<br />
en basis for vektorrummet V , hvis og kun hvis<br />
(i) v1,v2,... ,vn er lineært uafhængige,<br />
(ii) v1,v2,... ,vn udspænder V. ⊳<br />
Definition 4 (Dimensionen af et vektorrum) Lad V være et vektor-<br />
rum. Hvis V har en basis, der best˚ar af n vektorer, s˚a har V dimension n.<br />
Specielt defineres at underrummet {0} af V har dimension 0. ⊳<br />
1.6 Skift af basis<br />
Den naturlige basis for R 2 er de to standardenhedsvektorer e1,e2. I stedet<br />
for disse kunne man vælge at beskrive vektorer i R 2 ud fra en anden basis;<br />
eksempelvis vektorerne,<br />
u1 =<br />
3<br />
2<br />
<br />
, u2 =<br />
1<br />
som her er angivet i forhold <strong>til</strong> den naturlige basis.<br />
Ved at bruge u1 og u2 som basisvektorer vil man ofte f˚a brug for at løse<br />
følgende problemer:<br />
1<br />
<br />
,
1 ABSTRAKTE VEKTORRUM 8<br />
1. Givet en vektor x = (x1,x2) T mht. e1 og e2, find dennes koordinater<br />
mht. u1 og u2.<br />
2. Givet en vektor c1u1 + c2u2 find dennes koordinater mht. e1 og e2.<br />
Først løses problem 2. Det ses, at<br />
Dvs.,<br />
u1 = 3e1 + 2e2,<br />
u2 = e1 + e2.<br />
c1u1 + c2u2 = 3c1e1 + 2c1e2 + c2e1 + c2e2<br />
= (3c1 + c2)e1 + (2c1 + c2)e2.<br />
Ved at sætte U = (u1,u2) og c = (c1,c2) T f˚as:<br />
Nu er problem 2 s˚aledes løst.<br />
x = U c. (1.1)<br />
U er sammensat af lineært uafhængige basisvektorer, hvorfor U er inver-<br />
tibel. Det følger af (1.1), at løsningen <strong>til</strong> problem 1 er<br />
c = U −1 x.<br />
Nu betragtes et mere generelt basisskift fra [v1,v2] <strong>til</strong> [u1,u2]. For at g˚a<br />
fra [v1,v2] <strong>til</strong> [e1,e2] skal den oprindelige koordinatvektor multipliceres med<br />
V . For at g˚a fra [e1,e2] <strong>til</strong> [u1,u2] skal der multpliceres med U −1 s˚aledes,<br />
at koordinattransformationsmatricen bliver U −1 V . Koordinattransformatio-<br />
nen illustreres her:<br />
V<br />
[v1,v2] <br />
U −1 [e1,e2]<br />
<br />
<br />
V U<br />
<br />
−1<br />
.<br />
<br />
[u1,u2]<br />
I det netop gennemregnede eksempel optr˚adte, der vektorer i R 2 . Proceduren<br />
mht. basisskift kan dog let oversættes <strong>til</strong> ethvert andet endelig dimensionalt<br />
vektorrum;
1 ABSTRAKTE VEKTORRUM 9<br />
Definition 5 Lad V være et vektorrum med den <strong>til</strong>hørende ordnede basis<br />
E = [v1,v2,... ,vn]. Hvis v er et element i V , s˚a kan v skrives som<br />
v = c1v1 + c2v2 + ... + cnvn,<br />
hvor c1,c2,... ,cn er skalarer. Vektoren v ∈ V kan præsenteres af vektoren<br />
c = (c1,c2,... ,cn) T i R n . Vektoren c kaldes koordinatvektoren af v mht. den<br />
ordnede base E og betegnes [v]E. ci’erne er koordinaterne af v med hensyn<br />
<strong>til</strong> E. ⊳<br />
1.7 Rækkerum og søjlerum<br />
I dette delafsnit præsenteres en række af de vigtigste sætninger og defini-<br />
tioner ang˚aende rækkerum og søjlerum. Først præsenteres definitionen af<br />
rækkerum og søjlerum;<br />
Definition 6 Lad A være en m × n matrix. Underrummet af R 1×n som<br />
udspændes af matricens rækkevektorer kaldes rækkerummet for A. Under-<br />
rummet af R m , som udspændes af søjlevektorerne i A, kaldes søjlerummet<br />
for A. ⊳<br />
Sætning 1 To rækkeækvivalente matricer har samme rækkerum. ⊳<br />
Definition 7 (Rang) Rangen af en matrix A er dimensionen af rækkerum-<br />
met for matricen A. ⊳<br />
Eksempel 7 Lad<br />
A =<br />
⎛<br />
⎜<br />
⎝<br />
1 −2 3<br />
2 −5 1<br />
1 −4 −7<br />
⎞<br />
⎟<br />
⎠ .<br />
Ved at udføre Gauss-elimination f˚as<br />
⎛ ⎞<br />
1 −2 3<br />
⎜ ⎟<br />
U = ⎜<br />
⎝ 0 1 5 ⎟<br />
⎠<br />
0 0 0<br />
.<br />
Rækkerummet for matricerne A og U er s˚aledes udspændt af de to vektorer<br />
(1, −2,3) T og (0,1,5) T . Rangen af begge matricer er 2. ⊳
1 ABSTRAKTE VEKTORRUM 10<br />
Sætning 2 (Konsistens af lineære systemer) Et lineært system Ax =<br />
b er konsistent, hvis og kun hvis b er indeholdt i søjlerummet for A. ⊳<br />
I øvrigt gælder der, at summen af rangen og dimensionen af nulrummet<br />
altid er lig antallet af søjler i en matrix.<br />
Sætning 3 Hvis A er m ×n, s˚a er dimensionen af rækkerummet lig dimen-<br />
sionen af søjlerummet. ⊳
2 LINEÆRE AFBILDNINGER 11<br />
2 <strong>Lineær</strong>e afbildninger<br />
2.1 Definition af en lineær afbildning<br />
Definition 8 En afbildning L : V −→ W er en lineær afbildning, hvis<br />
L(αv1 + βv2) = αL(v1) + βL(v2),<br />
for alle v1,v2 ∈ V og for alle skalarer α og β. ⊳<br />
Heraf følger, at en afbildning er lineær, hvis og kun hvis den opfylder<br />
følgende:<br />
1. L(v1 + v2) = L(v1) + L(v2).<br />
2. L(αv) = αL(v).<br />
Eksempel 8 Betragt operatoren L : R 2 −→ R 2 defineret ved<br />
L(x) = (−x2,x1) T .<br />
Det kan let eftervises, at L er en lineær afbildning:<br />
<br />
−αx2 − βy2<br />
L(αx + βy) =<br />
αx1 + βy1<br />
<br />
−αx2 −βy2<br />
= +<br />
αx1 βy1<br />
= αL(x) + βL(y)<br />
Det er hermed vist, at afbildningen er lineær. ⊳<br />
Definition 9 (Kernen af en lineær afbildning) Lad L : V −→ W væ-<br />
re en lineær afbildning. Kernen af L er givet ved<br />
ker(L) = {v ∈ V |L(v) = 0W } . ⊳
2 LINEÆRE AFBILDNINGER 12<br />
2.2 Matrixrepræsentation af lineære afbildninger<br />
Der gælder, at enhver lineær afbildning af typen L : R n −→ R m kan repræ-<br />
senteres af en m × n matrix. Dette følger af denne sætning:<br />
Sætning 4 Hvis L er en lineær afbildning fra R n ind i nymodens R m , s˚a<br />
eksisterer der netop en m × n matrix A s˚a<br />
for alle x ∈ R n .<br />
Den j’e søjle i A er givet ved<br />
L(x) = Ax,<br />
Eksempel 9 Lad L : R 3 −→ R 2 være defineret ved<br />
aj = L(ej). ⊳<br />
L(x) = (x1 + x2,x2 + x3) T .<br />
Nu skal matricen <strong>til</strong>svarende denne lineære afbildning findes. N˚ar L virker<br />
p˚a de tre naturlige basisvektorer i R 3 f˚as følgende for de tre søjlevektorer i<br />
A:<br />
Det følger nu af sætning 4, at<br />
L(e1) =<br />
L(e2) =<br />
L(e3) =<br />
A =<br />
1<br />
0<br />
1<br />
1<br />
0<br />
1<br />
1 1 0<br />
0 1 1<br />
<br />
<br />
<br />
<br />
. ⊳<br />
I den følgende sætning betragtes mere generelle lineære afbildninger fra et<br />
vektorrum V med basen E = [v1,v2,... ,vn] <strong>til</strong> et andet vektorrum W med<br />
basen F = [w1,w2,...,wm]:
2 LINEÆRE AFBILDNINGER 13<br />
Sætning 5 Lad E = [v1,v2,... ,vn] og F = [w1,w2,... ,wm] være ordnede<br />
baser for henholdsvis V og W. Til enhver lineær afbildning L : V −→ W er<br />
der en m × n matrix A s˚aledes, at<br />
for alle v ∈ V .<br />
[L(v)]F = A[v]E<br />
A er her matricen, som repræsenterer L mht. de ordnede baser E og F.<br />
Der gælder, at<br />
aj = [L(vj)]F . ⊳<br />
Eksempel 10 Lad L : R 3 −→ R 2 være defineret ved<br />
hvor<br />
b1 =<br />
L(x) = x1b1 + (x2 + x3)b2,<br />
1<br />
1<br />
<br />
og b2 =<br />
−1<br />
Nu skal matricen A, der repræsenterer den lineære afbildning mht. de ord-<br />
nede baser [e1,e2,e3] og [b1,b2], findes.<br />
Der gælder, at<br />
Af sætning 5 følger det nu, at<br />
L(e1) = 1b1 + 0b2 =⇒ [L(e1)]F = (1,0) T<br />
L(e2) = 0b1 + 1b2 =⇒ [L(e2)]F = (0,1) T<br />
L(e3) = 0b1 + 1b2 =⇒ [L(e3)]F = (0,1) T .<br />
A = ([L(e1)]F ,[L(e2)]F,[L(e3)]F) =<br />
1<br />
<br />
1 0 0<br />
0 1 1<br />
<br />
. ⊳<br />
Sætning 6 Lad E = [u1,u2,...,un] og F = [b1,b2,... ,bm] være baser<br />
for henholdsvis R n og R m . Hvis L : R n −→ R m er en lineær afbildning, s˚a<br />
er den j’e søjle i matricen A, som repræsenterer L mht. E og F, givet ved<br />
aj = B −1 L(uj),<br />
hvor B = [b1,b2,... ,bm]. ⊳
2 LINEÆRE AFBILDNINGER 14<br />
Sætning 7 Hvis A repræsenterer den lineære afbildning L : R n −→ R m<br />
mht. <strong>til</strong> baserne<br />
E = [u1,u2,...,un] og F = [b1,b2,...,bm],<br />
s˚a er den reducerede rækkeechelonform af (b1,... ,bm|L(u1),... ,L(un)) gi-<br />
vet ved (I |A) ⊳<br />
Se eksempel 6 side 190 i Leon.<br />
2.3 Similære matricer<br />
Sætning 8 Lad E = [v1,...,vn] og F = [w1,...,wn] være ordnede baser<br />
for et vektorrum V og lad L være en lineær operator p˚a V . Transformations-<br />
matricen, der repræsenterer skiftet fra F <strong>til</strong> E, kaldes S. Hvis A repræsente-<br />
rer den lineære afbildning mht. basen E, s˚a er matricen, der repræsenterer<br />
L mht. F givet ved<br />
B = S −1 AS. ⊳<br />
Definition 10 Lad A og B være m × n matricer. B er similær <strong>til</strong> A, hvis<br />
der findes en invertibel matrix S s˚aledes, at<br />
B = S −1 AS. ⊳<br />
Det skal bemærkes, at hvis B er similær <strong>til</strong> A, s˚a følger det, at A er similær<br />
<strong>til</strong> B.
3 EGENVÆRDIER 15<br />
3 Egenværdier<br />
3.1 Egenværdier og egenvektorer<br />
Definition 11 Lad A være en n × n matrix. En skalar λ er en egenværdi<br />
<strong>til</strong> A, hvis der findes en egentlig vektor x = 0, s˚a<br />
Ax = λx. (3.1)<br />
x er da en egenvektor, som hører <strong>til</strong> λ. ⊳<br />
(3.1) kan omskrives <strong>til</strong><br />
(A − λI)x = 0.<br />
Denne ligning har en ikke triviel løsning, hvis og kun hvis A−λI er singulær.<br />
Dvs., hvis<br />
det(A − λI) = 0.<br />
Det karakterristiske polynomium defineres ved<br />
p(λ) = det(A − λI).<br />
Rødderne <strong>til</strong> dette polynomium er egenværdierne <strong>til</strong> n × n matricen A. Det<br />
karakterristiske polynomium vil altid have n komplekse rødder (talt med<br />
multiplicitet).<br />
For en n × n matrix A er følgende udsagn ækvivalente:<br />
1. λ er en egenværdi for A.<br />
2. (A − λI)x = 0 har en ikke-triviel løsning.<br />
3. N(A − λI) = {0}.<br />
4. A − λI er singulær.<br />
5. det(A − λI) = 0.<br />
Eksempel 11 Lad<br />
A =<br />
3 2<br />
3 −2<br />
<br />
.
3 EGENVÆRDIER 16<br />
For at finde egenværdierne <strong>til</strong> A opskrives det karakterristiske polynomium:<br />
<br />
<br />
<br />
3 − λ 2<br />
<br />
<br />
p(λ) = <br />
<br />
3 −2 − λ = λ2 − λ − 12.<br />
Dette giver egenværdierne λ1 = 4 og λ2 = −3.<br />
Enhver vektor, der er element i nulrummet N(A + 3I) er en egenvektor<br />
<strong>til</strong>svarende egenværdien −3. Enhver vektor, der er et element i nulrummet<br />
N(A − 4I) er en egenvektor <strong>til</strong>svarende egenværdien 4. ⊳<br />
3.2 Diagonalisering<br />
Definition 12 En n × n matrix A er diagonaliserbar, hvis der findes en<br />
invertibel matrix X og en diagonalmatrix D s˚a<br />
X −1 AX = D.<br />
Man siger, at X diagonaliserer A. ⊳<br />
Sætning 9 En n × n matrix A er diagonaliserbar, hvis og kun hvis A har<br />
n lineært uafhængige egenvektorer. ⊳<br />
Vigtige bemærkninger:<br />
1. Hvis A er diagonaliserbar, s˚a er søjlevektorerne i diagonaliseringsma-<br />
tricen X egenvektorer for A. Diagonalelementerne af D er de <strong>til</strong> egen-<br />
vektorerne <strong>til</strong>svarende egenværdier.<br />
2. Diagonaliseringsmatricen X er ikke unik. Ved at ombytte søjler for<br />
diagonaliseringsmatricen eller ved at multiplicere med en skalar, der<br />
er forskellig fra 0, kan man konstruere en ny diagonaliseringsmatrix.<br />
3. Hvis A er n×n og A har n forskellige egenværdier, s˚a kan A diagonali-<br />
seres. Hvis der er flere ækvivalente egenværdier s˚a er A diagonaliserbar<br />
afhængigt af om, der er n lineært uafhængige egenvektorer (Se sætning<br />
9).<br />
4. Hvis A er diagonaliserbar, s˚a kan A skrives som produktet X D X −1 .<br />
5. A k = X D k X −1 .
4 ORTOGONALISERING 17<br />
4 Ortogonalisering<br />
4.1 Skalarproduktet i R n<br />
Skalarproduktet mellem to vektorer a,b ∈ R n defineres ved a T b. Dvs.,<br />
a · b ≡<br />
Normen af en vektor defineres ved<br />
n<br />
aibi.<br />
i=1<br />
||a|| ≡ √ a · a.<br />
Projektionen af en vektor a p˚a en vektor b er givet ved<br />
og størrelsen af projektionen er<br />
ab =<br />
||ab|| =<br />
a · b<br />
||b||<br />
2 b<br />
a · b<br />
||b|| .<br />
To vektorer a og b er defineret <strong>til</strong> at være ortogonale, hvis a·b = 0. Vinklen<br />
mellem a og b er<br />
4.2 Indre produkt rum<br />
cos θ =<br />
a · b<br />
||a|| ||b|| .<br />
Definition 13 (Indre produkt) Et indre produkt p˚a en vektor i et ab-<br />
strakt vektorrum V er en operator p˚a V , der <strong>til</strong> ethvert par af vektorer<br />
x,y ∈ V <strong>til</strong>deler en skalar 〈x,y〉, som opfylder<br />
I 〈x,x〉 ≥ 0, med lighed hvis og kun hvis x = 0.<br />
II 〈x,y〉 = 〈y,x〉.<br />
III 〈αx + βy,z〉 = α〈x,z〉 + β〈y,z〉 for alle x,y,z ∈ V og alle skalarer<br />
α,β. ⊳<br />
Et vektorrum V med et indre produkt kaldes et indre produkt rum. Her<br />
følger en række eksempler p˚a indre produkter:
4 ORTOGONALISERING 18<br />
Eksempel 12 (R n ) Skalarproduktet i R n er et indre produkt;<br />
〈x,y〉 = x T y.<br />
Et andet eksempel p˚a et indre produkt i Rn er<br />
n<br />
〈x,y〉 = wixiyi,<br />
i=1<br />
hvor w1,w2,... ,wn er skalarer. ⊳<br />
Eksempel 13 (R m×n ) For A,B ∈ R m×n kan man definere et indre pro-<br />
dukt ved<br />
〈A,B〉 =<br />
m<br />
n<br />
i=1 j=1<br />
aijbij. ⊳<br />
Eksempel 14 (C[a, b]) Et eksempel p˚a et indre produkt for f,g ∈ C[a,b]<br />
er<br />
〈f,g〉 =<br />
b<br />
a<br />
f(x)g(x)dx.<br />
Hvis en funktion w(x) er kontinuert p˚a [a,b] kan et indre produkt ogs˚a<br />
defineres som<br />
〈f,g〉 =<br />
b<br />
a<br />
f(x)g(x)w(x)dx. ⊳<br />
Eksempel 15 (Pn) Lad x1,x2,...,xn være forskellige skalarer. For ethvert<br />
par af polynomier af mindre grad end n kan man definere:<br />
n<br />
〈p,q〉 = p(xi)q(xi). ⊳<br />
ved:<br />
i=0<br />
Der gælder, at normen af en vektor i et indre produkt rum kan defineres<br />
||x|| = 〈x,x〉.<br />
Definition 14 (Projektion) Lad u og v være vektorer i et indre produkt<br />
rum. Projektionen af u p˚a v er<br />
uv = 〈u,v〉<br />
2 v. ⊳<br />
||v||
4 ORTOGONALISERING 19<br />
4.3 Ortonormale systemer<br />
Definition 15 (Ortogonalt system) Lad v1,v2,...,vn være vektorer for-<br />
skellig fra nulvektoren i et indre produkt rum V . Hvis 〈vi,vj〉 = 0, n˚ar i = j,<br />
s˚a er basen {v1,v2,... ,vn} et ortogonalt system. ⊳<br />
Definition 16 (Ortonormalt system) Et ortonormalt system af vekto-<br />
rer er et ortogonalt sæt af enhedsvektorer. ⊳<br />
Et system u1,u2,... ,un er s˚aledes ortonormalt, hvis og kun hvis<br />
<br />
1 hvis i = j<br />
〈ui,uj〉 =<br />
0 hvis i = j .<br />
Hvis man har et ortogonalt system {v1,v2,...,vn} kan man definere<br />
ui = vi<br />
||vi|| .<br />
Da udgør {u1,u2,...,un} er ortonormalt system.<br />
Her følger tre sætninger ang˚aende ortonormale baser:<br />
Sætning 10 Lad u1,u2,... ,un være en ortonormal basis for et indre pro-<br />
dukt rum V . Hvis<br />
s˚a er<br />
v =<br />
n<br />
ciui,<br />
i=1<br />
ci = 〈v,ui〉. ⊳<br />
Af denne sætning følger det, at hvis man ønsker at skrive en vektor, som<br />
x = c1u1 + c2u2 + ... + cnun,<br />
hvor u1,u2,... ,un er en ortonormal basis, s˚a er ci givet ved<br />
ci = 〈x,ui〉.<br />
Sætning 11 Lad u1,u2,... ,un være en ortonormal basis for et indre pro-<br />
dukt rum V . Hvis u = n<br />
i=1 aiui og v = n<br />
i=1 biui, s˚a er<br />
〈u,v〉 =<br />
n<br />
aibi. ⊳<br />
i=1
4 ORTOGONALISERING 20<br />
Sætning 12 (Parseval’s formel) Hvis u1,u2,...,un er en ortonormal ba-<br />
sis for et indre produkt rum V og v = n<br />
i=1 ciui, s˚a er<br />
||v|| 2 =<br />
n<br />
c 2 i. ⊳<br />
Eksempel 16 Lad {u1,u2,u3} være en ortonormal basis for et indre pro-<br />
dukt rum V . Betragt de to vektorer,<br />
Ifølge sætning 11 er<br />
Og ifølge Parseval’s formel er<br />
i=1<br />
u = u1 + 2u2 + 2u3,<br />
v = u1 + 7u3.<br />
〈a,b〉 = 1 · 1 + 2 · 0 + 2 · 7 = 15.<br />
||u|| = 12 + 22 + 22 = 3,<br />
<br />
||v|| = 12 + 72 = 5 √ 2.<br />
Om vinklen mellem de to vektorer gælder:<br />
cos θ = 〈a,b〉 15<br />
=<br />
||a|| ||b|| 3 · 5 √ 1<br />
= √ .<br />
2 2<br />
Hermed er θ = π<br />
4 . ⊳<br />
4.4 Ortogonale matricer<br />
Definition 17 (Ortogonal matrix) En reel matrix Q er en ortogonal ma-<br />
trix, hvis søjlevektorerne i Q udgør et ortonormalt sæt i R n . ⊳<br />
Sætning 13 En n × n matrix Q er ortogonal, hvis og kun hvis<br />
Af denne sætning følger umiddelbart, at Q T = Q −1 .<br />
Q T Q = I. ⊳<br />
I øvrigt gælder altid, at 〈Qx,Qy〉 = 〈x,y〉. Hvis 〈x,y〉 = x T y gælder<br />
desuden, at ||Qx|| = ||x||.
4 ORTOGONALISERING 21<br />
Sætning 14 Hvis A er en reel symmetrisk matrix, s˚a findes der en ortogonal<br />
matrix U, som diagonaliserer A. Dvs.,<br />
D = U T AU,<br />
hvor D er en diagonalmatrix. ⊳<br />
En symmetrisk matrix er opfylder, at A T = A.<br />
Hvis A er en reel n × n matrix, s˚a er følgende betingelser ækvivalente:<br />
1. Der findes en orthonormal basis for R n best˚aende af egenvektorer for<br />
A.<br />
2. Der findes en matrix U, s˚a U T AU er diagonal med egenværdier for A<br />
i diagonalen (U kan bestemmes ved at køre Gram-Schmidt p˚a egen-<br />
vektorerne i A. Søjlevektorerne i U er da vektorerne i den ortonormale<br />
basis).<br />
3. A er symmetrisk; dvs., A T = A.<br />
4.5 Gram-Schmidt ortogonalisering<br />
I dette kapitel beskrives Gram-Schmidt ortogonaliseringsmetoden. Ved hjælp<br />
af denne metode kan man ud fra enhver basis,<br />
danne en ortonormal basis,<br />
som opfylder, at<br />
[x1,x2,...,xn],<br />
[u1,u2,... ,un] ,<br />
span{[u1,u2,...,un]} = span{[x1,x2,... ,xn]}.<br />
Den første vektor i den ortonormale basis f˚as ved at normere x1:<br />
u1 = x1<br />
||x1|| .
4 ORTOGONALISERING 22<br />
For at konstruere den anden vektor i den ortonormale basis opskrives pro-<br />
jektionen af x2 p˚a nymodens u1 (Denne vektor kaldes p1):<br />
p1 = 〈x2,u1〉u1<br />
Der m˚a af geometriske ˚arsager gælde, at (x2 − p1) ⊥ u1. Ved at normere<br />
x2 −p1 denne kan man s˚aledes danne en ny vektor i den ortonormale basis:<br />
u2 = x2 − p1<br />
||x2 − p1|| .<br />
Den tredje vektor i den ortonormale basis kan konstrueres ved at definere<br />
vektoren,<br />
og s˚a er<br />
p2 = 〈x3,u1〉u1 + 〈x3,u2〉u2,<br />
u3 = x3 − p2<br />
||x3 − p2|| .<br />
Følgende sætning beskriver Gram-Schmidt Ortogonaliseringsmetoden:<br />
Sætning 15 (Gram-Schmidt) Lad [x1,x2,... ,xn] være en ortogonal ba-<br />
sis for et indre produkt rum V . Lad<br />
og definer u2,u3 ...,un rekursivt ved<br />
hvor<br />
u1 = x1<br />
||x1||<br />
uk+1 = xk+1 − pk<br />
||xk+1 − pk|| ,<br />
pk = 〈xk+1,u1〉u1 + 〈xk+1,u2〉u2 + ... + 〈xk+1,uk〉uk<br />
er projektionen af xk+1 p˚a spannet af [u1,u2,... ,uk].<br />
Der gælder, at [u1,u2,... ,un] er en ortonormal basis for V . ⊳<br />
Bemærk at i udledning af Gram-Schmidt-metoden anvendte vi vores<br />
geometriske intuition om vektorer i R n . Metoden er dog ikke begrænset <strong>til</strong><br />
vektorer i R n , men kan anvendes i alle abstrakte vektorrum.
5 FOURIERANALYSE 23<br />
5 Fourieranalyse<br />
5.1 Ortonormal basis<br />
I dette delafsnit forklares den teoretiske baggrund for fourierrækker.<br />
Betragte et indre produkt rum, hvor det indre produkt mellem to funk-<br />
tion f og g er defineret ved<br />
〈f,g〉 ≡ 2<br />
L<br />
L<br />
0<br />
f(x)g(x)dx.<br />
Betragt funktionerne<br />
<br />
2πr<br />
cos<br />
L x<br />
<br />
2πs<br />
, cos<br />
L x<br />
<br />
2πr<br />
, sin<br />
L x<br />
<br />
2πs<br />
, sin<br />
L x<br />
<br />
,<br />
hvor r og s er ikke-negative heltal og L er en skalar. Ved at udregne indre<br />
produkter f˚as:<br />
<br />
2πr<br />
cos<br />
L x<br />
<br />
<br />
2πs<br />
,sin<br />
L x<br />
<br />
= 2<br />
L<br />
L<br />
0<br />
<br />
2πr<br />
cos<br />
L x<br />
<br />
2πs<br />
sin<br />
L x<br />
<br />
dx<br />
= 0,<br />
<br />
2πr<br />
cos<br />
L x<br />
<br />
2πs<br />
,cos<br />
L x<br />
<br />
= 2<br />
L <br />
2πr<br />
cos<br />
L 0 L x<br />
<br />
2πs<br />
cos<br />
L x<br />
<br />
dx<br />
⎧<br />
⎪⎨ 2 for r = s = 0<br />
= 1 for r = s > 0<br />
⎪⎩<br />
0 for r = s<br />
<br />
2πr<br />
sin<br />
L x<br />
<br />
2πs<br />
,sin<br />
L x<br />
<br />
= 2<br />
L <br />
2πr<br />
sin<br />
L 0 L x<br />
<br />
2πs<br />
sin<br />
L x<br />
<br />
dx<br />
⎧<br />
⎪⎨ 0 for r = s = 0<br />
= 1 for r = s > 0<br />
⎪⎩<br />
0 for r = s<br />
Ud fra de netop udregnede indre produkter ses det, at enhver funktion (der<br />
er uendeligt mange gange differentiabel) kan opskrives i en ortonormal basis<br />
s˚aledes<br />
f(x) = a0<br />
2 +<br />
∞<br />
<br />
2πr<br />
ar cos<br />
L x<br />
<br />
2πr<br />
+ br sin<br />
L x<br />
<br />
,<br />
r=1
5 FOURIERANALYSE 24<br />
hvor de r’e koefficienter er givet ved projektionen af f p˚a de r’e basisvektorer<br />
s˚aledes:<br />
ar =<br />
br =<br />
<br />
2πr<br />
f,cos<br />
L x<br />
<br />
= 2<br />
L<br />
<br />
2πr<br />
f,sin<br />
L x<br />
<br />
= 2<br />
L<br />
x0+L<br />
x0<br />
x0+L<br />
x0<br />
<br />
2πr<br />
f(x)cos<br />
L x<br />
<br />
dx<br />
<br />
2πr<br />
f(x)sin<br />
L x<br />
<br />
dx.<br />
I det næste delafsnit opskrives dette resultat p˚a mere stringent vis.<br />
5.2 Fourierrækker<br />
En funktion f kan udvikles vha. fourierrækker, hvis den opfylder Dirichlets<br />
betingeler:<br />
i) f er periodisk,<br />
ii) f skal være kontinuert. Dog er det <strong>til</strong>ladt med et endeligt antal disko-<br />
ninuitetspunkter,<br />
iii) f skal have et endeligt antal maksimum- og minimumpunkter inden for<br />
en enkelt periode,<br />
iv) Integralet over en periode af |f(x)| skal konvergere.<br />
Hvis Dirichlets betingelser er opfyldt er fourierrækken for f givet ved<br />
f(x) = a0<br />
2 +<br />
∞<br />
<br />
2πr<br />
ar cos<br />
L x<br />
<br />
2πr<br />
+ br sin<br />
L x<br />
<br />
,<br />
r=1<br />
hvor Fourier koefficienterne er givet ved<br />
ar = 2<br />
x0+L <br />
2πr<br />
f(x)cos<br />
L x0<br />
L x<br />
<br />
dx<br />
br = 2<br />
x0+L <br />
2πr<br />
f(x)sin<br />
L<br />
L x<br />
<br />
dx.<br />
Lige og ulige funktioner<br />
For en funktion f gælder:<br />
x0<br />
hvis f er lige er f(−x) = f(x)<br />
hvis f er ulige er f(−x) = −f(x)
5 FOURIERANALYSE 25<br />
Eksempelvis er f(x) = x 2 en lige funktion og f(x) = x 3 er en ulige funktion.<br />
For enhver funktion gælder:<br />
f(x) = 1<br />
1<br />
[f(x) + f(−x)] + [f(x) − f(−x)]<br />
2 2<br />
= flige(x) + fulige(x)<br />
For en fourierrække repræsenterer ar de lige led (I ar indg˚ar cosinus og<br />
cosinus er en lige funktion) og br repræsentere de ulige led (I br indg˚ar sinus<br />
og sinus er en ulige funktion).<br />
For en ulige funktion er alle a-leddene s˚aledes 0 og <strong>til</strong>svarende er alle<br />
b-leddene 0 for en lige funktion. For en maclaurin-række gælder i øvrigt det<br />
samme.<br />
5.3 Fouriertransformation<br />
Den fouriertransformerede af en funktion f(t) er givet ved<br />
Den inverse er:<br />
˜f(ω) = 1<br />
√ 2π<br />
∞<br />
−∞<br />
f(t) = 1<br />
∞<br />
√<br />
2π −∞<br />
f(t)e −iωt dt.<br />
˜f(ω)e iωt dω.