27.07.2013 Views

Noter til Lineær Algebra - logx.dk

Noter til Lineær Algebra - logx.dk

Noter til Lineær Algebra - logx.dk

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>Noter</strong> <strong>til</strong> <strong>Lineær</strong> <strong>Algebra</strong><br />

Martin Sparre, www.<strong>logx</strong>.<strong>dk</strong>,<br />

August 2007,<br />

Version π8<br />

9450 .<br />

– Eksamensnoter <strong>til</strong> LinAlg


INDHOLD 2<br />

Indhold<br />

0.1 Om disse noter . . . . . . . . . . . . . . . . . . . . . . . . . . 3<br />

1 Abstrakte vektorrum 4<br />

1.1 Definition af et vektorrum . . . . . . . . . . . . . . . . . . . . 4<br />

1.2 Underrum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />

1.3 En matrices nulrum . . . . . . . . . . . . . . . . . . . . . . . 5<br />

1.4 <strong>Lineær</strong> uafhængighed . . . . . . . . . . . . . . . . . . . . . . . 6<br />

1.5 Basis og dimension . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

1.6 Skift af basis . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

1.7 Rækkerum og søjlerum . . . . . . . . . . . . . . . . . . . . . . 9<br />

2 <strong>Lineær</strong>e afbildninger 11<br />

2.1 Definition af en lineær afbildning . . . . . . . . . . . . . . . . 11<br />

2.2 Matrixrepræsentation af lineære afbildninger . . . . . . . . . 12<br />

2.3 Similære matricer . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

3 Egenværdier 15<br />

3.1 Egenværdier og egenvektorer . . . . . . . . . . . . . . . . . . 15<br />

3.2 Diagonalisering . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

4 Ortogonalisering 17<br />

4.1 Skalarproduktet i R n . . . . . . . . . . . . . . . . . . . . . . . 17<br />

4.2 Indre produkt rum . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

4.3 Ortonormale systemer . . . . . . . . . . . . . . . . . . . . . . 19<br />

4.4 Ortogonale matricer . . . . . . . . . . . . . . . . . . . . . . . 20<br />

4.5 Gram-Schmidt ortogonalisering . . . . . . . . . . . . . . . . . 21<br />

5 Fourieranalyse 23<br />

5.1 Ortonormal basis . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

5.2 Fourierrækker . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

5.3 Fouriertransformation . . . . . . . . . . . . . . . . . . . . . . 25


INDHOLD 3<br />

0.1 Om disse noter<br />

Disse noter indeholder en stor del af eksamensensum <strong>til</strong> LinAlg-kurset p˚a<br />

Københavns Universitet (2006). Dog er emnerne lineære ligningssystemer,<br />

Gauss-Elimination/Gauss-Jordan Elimination, matrixalgebra og determi-<br />

nanter ikke medtaget.<br />

Versionsnummeret er givet ved<br />

u<strong>dk</strong>ommer en ny version.<br />

∞<br />

k=1<br />

1<br />

k2p, hvor p stiger med 1, n˚ar der<br />

Martin Sparre<br />

www.<strong>logx</strong>.<strong>dk</strong>


1 ABSTRAKTE VEKTORRUM 4<br />

1 Abstrakte vektorrum<br />

1.1 Definition af et vektorrum<br />

Lad mængden V være et vektorrum og lad x,y ∈ V . Da gælder<br />

αx ∈ V, α ∈ R og x + y ∈ V.<br />

For x,y,z ∈ V og α,β ∈ R ops<strong>til</strong>les følgende aksiomer:<br />

(x + y) + z = x + (y + z)<br />

y + 0 = y (0 kaldes 0-elementet)<br />

x + (−x) = 0<br />

x + y = y + x<br />

α(x + y) = αx + αy<br />

(α + β)x = αx + βx<br />

(αβ)x = α(βx)<br />

1x = x.<br />

Elementerne i et vektorrum kaldes for vektorer.<br />

Her følger nogle eksempler p˚a vektorrum og elementer i disse:<br />

Eksempel 1 (Vektorrummet R n ) Talrummene R n er vektorrum. Her er<br />

et eksempel p˚a vektorer i henholdsvis R3 og R5 :<br />

⎛ ⎞<br />

4<br />

⎜ ⎟<br />

x = ⎜<br />

⎝ 7 ⎟<br />

⎠ ,<br />

42<br />

⎛ ⎞<br />

−12<br />

⎜ ⎟<br />

⎜ 5 ⎟<br />

⎜ ⎟<br />

y = ⎜ 1 ⎟.<br />

⎜ ⎟<br />

⎜<br />

⎝ 9<br />

⎟<br />

⎠<br />

1<br />

⊳<br />

Eksempel 2 (Vektorrummet R m×n ) Mængden af alle m × n matricer<br />

er et vektorrum og betegnes Rm×n . Her er et eksempel p˚a en vektor i R3×2 :<br />

⎛ ⎞<br />

⎜<br />

A = ⎜<br />

⎝<br />

42<br />

2<br />

13<br />

⎟<br />

4 ⎟<br />

⎠ . ⊳<br />

−1 9801


1 ABSTRAKTE VEKTORRUM 5<br />

Eksempel 3 (Vektorrummet Pn) Med Pn betegnes mængden af poly-<br />

nomier af grad strengt mindre end n. Der gælder, at Pn er et vektorrum.<br />

Her ses eksempler p˚a en vektor i P3:<br />

p(x) = 2x 2 − 4x − 12. ⊳<br />

Eksempel 4 (Vektorrummet C[a, b]) Det kan vises, at mængden, som<br />

best˚ar af alle kontinuerte funktioner defineret p˚a et interval [a;b], udgør et<br />

vektorrum. Dette vektorrum betegnes C[a,b]. Et eksempel p˚a en vektor i<br />

C[−1,1]:<br />

f(x) = tan(x). ⊳<br />

Eksempel 5 (Vektorrummet C n [a, b] ) Mængden af alle n gange konti-<br />

nuert differentiable funktioner p˚a et interval [a;b] udgør et vektorrum, kaldet<br />

C n [a,b]. ⊳<br />

1.2 Underrum<br />

Lad V være et vektorrum og lad S ⊆ V . Hvis S er en ikke-tom delmængde<br />

af V , s˚a kaldes S et underrum af V , hvis følgende gælder:<br />

αx ∈ S, for alle x ∈ S og alle α ∈ R, (i)<br />

x + y ∈ S for alle x,y ∈ S. (ii)<br />

Betingelses (i) siger, at S er lukket under skalarmultiplikation og (ii) siger,<br />

at S er lukket under addition af elementer i S.<br />

I ethvert vektorrum V gælder der, at V og {0} er underrum. Disse to<br />

vektorrum kaldes trivielle underrum.<br />

Der gælder generelt, at alle underrum i sig selv er vektorrum.<br />

1.3 En matrices nulrum<br />

Lad A være en m × n matrix. S˚a betegner N(A) mængden af alle løsninger<br />

<strong>til</strong> ligningen Ax = 0. Der gælder, at<br />

N(A) = {x ∈ R n |Ax = 0} .


1 ABSTRAKTE VEKTORRUM 6<br />

Til at finde nulrummet for en matrix udføres Gauss elimination eller Gauss-<br />

Jordan elimination og herudfra bestemmes løsningsrummet N(A) <strong>til</strong> lignig-<br />

nen Ax = 0.<br />

Eksempel 6 (Bestemmelse af nulrum) Lad<br />

<br />

1 1 1 0<br />

A =<br />

.<br />

2 1 0 1<br />

Efter Gauss-Jordan elimination f˚as:<br />

1 0 −1 1<br />

0 1 2 −1<br />

Ligningssystemet <strong>til</strong>svarende denne matrix er:<br />

x1 = x3 − x4<br />

x2 = −2x3 + x4.<br />

Ved at sætte x3 = α og x4 = β f˚as, at<br />

⎧⎛<br />

⎞ ⎛ ⎞⎫<br />

1 −1<br />

⎪⎨<br />

⎜ ⎟ ⎜ ⎟<br />

⎜ −2<br />

⎟ ⎜<br />

⎟ ⎜ 1<br />

⎟⎪⎬<br />

⎟<br />

N(A) = span ⎜ ⎟ , ⎜ ⎟ ,<br />

⎜<br />

⎝<br />

1 ⎟ ⎜<br />

⎠ ⎝<br />

0 ⎟<br />

⎠<br />

⎪⎩<br />

⎪⎭<br />

0 1<br />

hvor span angiver mængden, som udspændes af de to vektorer. ⊳<br />

1.4 <strong>Lineær</strong> uafhængighed<br />

Definition 1 (<strong>Lineær</strong> uafhængighed) Vektorerne v1,v2,... ,vn ∈ V er<br />

lineært uafhængige hvis udsagnet,<br />

<br />

α1v1 + α2v2 + ... + αnvn = 0,<br />

kun er sandt, n˚ar α1,α2,... ,αn er 0. ⊳<br />

Definition 2 (<strong>Lineær</strong> afhængighed) Vektorerne v1,v2,... ,vn ∈ V er<br />

lineært afhængige, hvis udsagnet er sandt,<br />

α1v1 + α2v2 + ... + αnvn = 0,<br />

selvom ikke alle α1,α2,... ,αn er 0. ⊳<br />

.


1 ABSTRAKTE VEKTORRUM 7<br />

For at afgøre om n vektorer, x1,x2,...,xn i R n er lineært afhængige kan<br />

man opskrive matricen,<br />

X = (x1,x2,...,xn).<br />

Vektorerne er lineært afhængige hvis og kun hvis det (X) = 0.<br />

En anden m˚ade at teste, hvorvidt en samling af vektorer er lineært af-<br />

hængige, er, at opskrive en matrix med de givne vektorer som søjlevektorer.<br />

Efter Gauss-elimination af matricen er der en nulrække, hvis og kun hvis de<br />

givne vektorer er lineært afhængige.<br />

Hvis man har m vektorer i R n og m > n er de m vektorer altid lineært<br />

afhængige.<br />

1.5 Basis og dimension<br />

Definition 3 (En basis for et vektorrum) Vektorerne v1,v2,... ,vn er<br />

en basis for vektorrummet V , hvis og kun hvis<br />

(i) v1,v2,... ,vn er lineært uafhængige,<br />

(ii) v1,v2,... ,vn udspænder V. ⊳<br />

Definition 4 (Dimensionen af et vektorrum) Lad V være et vektor-<br />

rum. Hvis V har en basis, der best˚ar af n vektorer, s˚a har V dimension n.<br />

Specielt defineres at underrummet {0} af V har dimension 0. ⊳<br />

1.6 Skift af basis<br />

Den naturlige basis for R 2 er de to standardenhedsvektorer e1,e2. I stedet<br />

for disse kunne man vælge at beskrive vektorer i R 2 ud fra en anden basis;<br />

eksempelvis vektorerne,<br />

u1 =<br />

3<br />

2<br />

<br />

, u2 =<br />

1<br />

som her er angivet i forhold <strong>til</strong> den naturlige basis.<br />

Ved at bruge u1 og u2 som basisvektorer vil man ofte f˚a brug for at løse<br />

følgende problemer:<br />

1<br />

<br />

,


1 ABSTRAKTE VEKTORRUM 8<br />

1. Givet en vektor x = (x1,x2) T mht. e1 og e2, find dennes koordinater<br />

mht. u1 og u2.<br />

2. Givet en vektor c1u1 + c2u2 find dennes koordinater mht. e1 og e2.<br />

Først løses problem 2. Det ses, at<br />

Dvs.,<br />

u1 = 3e1 + 2e2,<br />

u2 = e1 + e2.<br />

c1u1 + c2u2 = 3c1e1 + 2c1e2 + c2e1 + c2e2<br />

= (3c1 + c2)e1 + (2c1 + c2)e2.<br />

Ved at sætte U = (u1,u2) og c = (c1,c2) T f˚as:<br />

Nu er problem 2 s˚aledes løst.<br />

x = U c. (1.1)<br />

U er sammensat af lineært uafhængige basisvektorer, hvorfor U er inver-<br />

tibel. Det følger af (1.1), at løsningen <strong>til</strong> problem 1 er<br />

c = U −1 x.<br />

Nu betragtes et mere generelt basisskift fra [v1,v2] <strong>til</strong> [u1,u2]. For at g˚a<br />

fra [v1,v2] <strong>til</strong> [e1,e2] skal den oprindelige koordinatvektor multipliceres med<br />

V . For at g˚a fra [e1,e2] <strong>til</strong> [u1,u2] skal der multpliceres med U −1 s˚aledes,<br />

at koordinattransformationsmatricen bliver U −1 V . Koordinattransformatio-<br />

nen illustreres her:<br />

V<br />

[v1,v2] <br />

U −1 [e1,e2]<br />

<br />

<br />

V U<br />

<br />

−1<br />

.<br />

<br />

[u1,u2]<br />

I det netop gennemregnede eksempel optr˚adte, der vektorer i R 2 . Proceduren<br />

mht. basisskift kan dog let oversættes <strong>til</strong> ethvert andet endelig dimensionalt<br />

vektorrum;


1 ABSTRAKTE VEKTORRUM 9<br />

Definition 5 Lad V være et vektorrum med den <strong>til</strong>hørende ordnede basis<br />

E = [v1,v2,... ,vn]. Hvis v er et element i V , s˚a kan v skrives som<br />

v = c1v1 + c2v2 + ... + cnvn,<br />

hvor c1,c2,... ,cn er skalarer. Vektoren v ∈ V kan præsenteres af vektoren<br />

c = (c1,c2,... ,cn) T i R n . Vektoren c kaldes koordinatvektoren af v mht. den<br />

ordnede base E og betegnes [v]E. ci’erne er koordinaterne af v med hensyn<br />

<strong>til</strong> E. ⊳<br />

1.7 Rækkerum og søjlerum<br />

I dette delafsnit præsenteres en række af de vigtigste sætninger og defini-<br />

tioner ang˚aende rækkerum og søjlerum. Først præsenteres definitionen af<br />

rækkerum og søjlerum;<br />

Definition 6 Lad A være en m × n matrix. Underrummet af R 1×n som<br />

udspændes af matricens rækkevektorer kaldes rækkerummet for A. Under-<br />

rummet af R m , som udspændes af søjlevektorerne i A, kaldes søjlerummet<br />

for A. ⊳<br />

Sætning 1 To rækkeækvivalente matricer har samme rækkerum. ⊳<br />

Definition 7 (Rang) Rangen af en matrix A er dimensionen af rækkerum-<br />

met for matricen A. ⊳<br />

Eksempel 7 Lad<br />

A =<br />

⎛<br />

⎜<br />

⎝<br />

1 −2 3<br />

2 −5 1<br />

1 −4 −7<br />

⎞<br />

⎟<br />

⎠ .<br />

Ved at udføre Gauss-elimination f˚as<br />

⎛ ⎞<br />

1 −2 3<br />

⎜ ⎟<br />

U = ⎜<br />

⎝ 0 1 5 ⎟<br />

⎠<br />

0 0 0<br />

.<br />

Rækkerummet for matricerne A og U er s˚aledes udspændt af de to vektorer<br />

(1, −2,3) T og (0,1,5) T . Rangen af begge matricer er 2. ⊳


1 ABSTRAKTE VEKTORRUM 10<br />

Sætning 2 (Konsistens af lineære systemer) Et lineært system Ax =<br />

b er konsistent, hvis og kun hvis b er indeholdt i søjlerummet for A. ⊳<br />

I øvrigt gælder der, at summen af rangen og dimensionen af nulrummet<br />

altid er lig antallet af søjler i en matrix.<br />

Sætning 3 Hvis A er m ×n, s˚a er dimensionen af rækkerummet lig dimen-<br />

sionen af søjlerummet. ⊳


2 LINEÆRE AFBILDNINGER 11<br />

2 <strong>Lineær</strong>e afbildninger<br />

2.1 Definition af en lineær afbildning<br />

Definition 8 En afbildning L : V −→ W er en lineær afbildning, hvis<br />

L(αv1 + βv2) = αL(v1) + βL(v2),<br />

for alle v1,v2 ∈ V og for alle skalarer α og β. ⊳<br />

Heraf følger, at en afbildning er lineær, hvis og kun hvis den opfylder<br />

følgende:<br />

1. L(v1 + v2) = L(v1) + L(v2).<br />

2. L(αv) = αL(v).<br />

Eksempel 8 Betragt operatoren L : R 2 −→ R 2 defineret ved<br />

L(x) = (−x2,x1) T .<br />

Det kan let eftervises, at L er en lineær afbildning:<br />

<br />

−αx2 − βy2<br />

L(αx + βy) =<br />

αx1 + βy1<br />

<br />

−αx2 −βy2<br />

= +<br />

αx1 βy1<br />

= αL(x) + βL(y)<br />

Det er hermed vist, at afbildningen er lineær. ⊳<br />

Definition 9 (Kernen af en lineær afbildning) Lad L : V −→ W væ-<br />

re en lineær afbildning. Kernen af L er givet ved<br />

ker(L) = {v ∈ V |L(v) = 0W } . ⊳


2 LINEÆRE AFBILDNINGER 12<br />

2.2 Matrixrepræsentation af lineære afbildninger<br />

Der gælder, at enhver lineær afbildning af typen L : R n −→ R m kan repræ-<br />

senteres af en m × n matrix. Dette følger af denne sætning:<br />

Sætning 4 Hvis L er en lineær afbildning fra R n ind i nymodens R m , s˚a<br />

eksisterer der netop en m × n matrix A s˚a<br />

for alle x ∈ R n .<br />

Den j’e søjle i A er givet ved<br />

L(x) = Ax,<br />

Eksempel 9 Lad L : R 3 −→ R 2 være defineret ved<br />

aj = L(ej). ⊳<br />

L(x) = (x1 + x2,x2 + x3) T .<br />

Nu skal matricen <strong>til</strong>svarende denne lineære afbildning findes. N˚ar L virker<br />

p˚a de tre naturlige basisvektorer i R 3 f˚as følgende for de tre søjlevektorer i<br />

A:<br />

Det følger nu af sætning 4, at<br />

L(e1) =<br />

L(e2) =<br />

L(e3) =<br />

A =<br />

1<br />

0<br />

1<br />

1<br />

0<br />

1<br />

1 1 0<br />

0 1 1<br />

<br />

<br />

<br />

<br />

. ⊳<br />

I den følgende sætning betragtes mere generelle lineære afbildninger fra et<br />

vektorrum V med basen E = [v1,v2,... ,vn] <strong>til</strong> et andet vektorrum W med<br />

basen F = [w1,w2,...,wm]:


2 LINEÆRE AFBILDNINGER 13<br />

Sætning 5 Lad E = [v1,v2,... ,vn] og F = [w1,w2,... ,wm] være ordnede<br />

baser for henholdsvis V og W. Til enhver lineær afbildning L : V −→ W er<br />

der en m × n matrix A s˚aledes, at<br />

for alle v ∈ V .<br />

[L(v)]F = A[v]E<br />

A er her matricen, som repræsenterer L mht. de ordnede baser E og F.<br />

Der gælder, at<br />

aj = [L(vj)]F . ⊳<br />

Eksempel 10 Lad L : R 3 −→ R 2 være defineret ved<br />

hvor<br />

b1 =<br />

L(x) = x1b1 + (x2 + x3)b2,<br />

1<br />

1<br />

<br />

og b2 =<br />

−1<br />

Nu skal matricen A, der repræsenterer den lineære afbildning mht. de ord-<br />

nede baser [e1,e2,e3] og [b1,b2], findes.<br />

Der gælder, at<br />

Af sætning 5 følger det nu, at<br />

L(e1) = 1b1 + 0b2 =⇒ [L(e1)]F = (1,0) T<br />

L(e2) = 0b1 + 1b2 =⇒ [L(e2)]F = (0,1) T<br />

L(e3) = 0b1 + 1b2 =⇒ [L(e3)]F = (0,1) T .<br />

A = ([L(e1)]F ,[L(e2)]F,[L(e3)]F) =<br />

1<br />

<br />

1 0 0<br />

0 1 1<br />

<br />

. ⊳<br />

Sætning 6 Lad E = [u1,u2,...,un] og F = [b1,b2,... ,bm] være baser<br />

for henholdsvis R n og R m . Hvis L : R n −→ R m er en lineær afbildning, s˚a<br />

er den j’e søjle i matricen A, som repræsenterer L mht. E og F, givet ved<br />

aj = B −1 L(uj),<br />

hvor B = [b1,b2,... ,bm]. ⊳


2 LINEÆRE AFBILDNINGER 14<br />

Sætning 7 Hvis A repræsenterer den lineære afbildning L : R n −→ R m<br />

mht. <strong>til</strong> baserne<br />

E = [u1,u2,...,un] og F = [b1,b2,...,bm],<br />

s˚a er den reducerede rækkeechelonform af (b1,... ,bm|L(u1),... ,L(un)) gi-<br />

vet ved (I |A) ⊳<br />

Se eksempel 6 side 190 i Leon.<br />

2.3 Similære matricer<br />

Sætning 8 Lad E = [v1,...,vn] og F = [w1,...,wn] være ordnede baser<br />

for et vektorrum V og lad L være en lineær operator p˚a V . Transformations-<br />

matricen, der repræsenterer skiftet fra F <strong>til</strong> E, kaldes S. Hvis A repræsente-<br />

rer den lineære afbildning mht. basen E, s˚a er matricen, der repræsenterer<br />

L mht. F givet ved<br />

B = S −1 AS. ⊳<br />

Definition 10 Lad A og B være m × n matricer. B er similær <strong>til</strong> A, hvis<br />

der findes en invertibel matrix S s˚aledes, at<br />

B = S −1 AS. ⊳<br />

Det skal bemærkes, at hvis B er similær <strong>til</strong> A, s˚a følger det, at A er similær<br />

<strong>til</strong> B.


3 EGENVÆRDIER 15<br />

3 Egenværdier<br />

3.1 Egenværdier og egenvektorer<br />

Definition 11 Lad A være en n × n matrix. En skalar λ er en egenværdi<br />

<strong>til</strong> A, hvis der findes en egentlig vektor x = 0, s˚a<br />

Ax = λx. (3.1)<br />

x er da en egenvektor, som hører <strong>til</strong> λ. ⊳<br />

(3.1) kan omskrives <strong>til</strong><br />

(A − λI)x = 0.<br />

Denne ligning har en ikke triviel løsning, hvis og kun hvis A−λI er singulær.<br />

Dvs., hvis<br />

det(A − λI) = 0.<br />

Det karakterristiske polynomium defineres ved<br />

p(λ) = det(A − λI).<br />

Rødderne <strong>til</strong> dette polynomium er egenværdierne <strong>til</strong> n × n matricen A. Det<br />

karakterristiske polynomium vil altid have n komplekse rødder (talt med<br />

multiplicitet).<br />

For en n × n matrix A er følgende udsagn ækvivalente:<br />

1. λ er en egenværdi for A.<br />

2. (A − λI)x = 0 har en ikke-triviel løsning.<br />

3. N(A − λI) = {0}.<br />

4. A − λI er singulær.<br />

5. det(A − λI) = 0.<br />

Eksempel 11 Lad<br />

A =<br />

3 2<br />

3 −2<br />

<br />

.


3 EGENVÆRDIER 16<br />

For at finde egenværdierne <strong>til</strong> A opskrives det karakterristiske polynomium:<br />

<br />

<br />

<br />

3 − λ 2<br />

<br />

<br />

p(λ) = <br />

<br />

3 −2 − λ = λ2 − λ − 12.<br />

Dette giver egenværdierne λ1 = 4 og λ2 = −3.<br />

Enhver vektor, der er element i nulrummet N(A + 3I) er en egenvektor<br />

<strong>til</strong>svarende egenværdien −3. Enhver vektor, der er et element i nulrummet<br />

N(A − 4I) er en egenvektor <strong>til</strong>svarende egenværdien 4. ⊳<br />

3.2 Diagonalisering<br />

Definition 12 En n × n matrix A er diagonaliserbar, hvis der findes en<br />

invertibel matrix X og en diagonalmatrix D s˚a<br />

X −1 AX = D.<br />

Man siger, at X diagonaliserer A. ⊳<br />

Sætning 9 En n × n matrix A er diagonaliserbar, hvis og kun hvis A har<br />

n lineært uafhængige egenvektorer. ⊳<br />

Vigtige bemærkninger:<br />

1. Hvis A er diagonaliserbar, s˚a er søjlevektorerne i diagonaliseringsma-<br />

tricen X egenvektorer for A. Diagonalelementerne af D er de <strong>til</strong> egen-<br />

vektorerne <strong>til</strong>svarende egenværdier.<br />

2. Diagonaliseringsmatricen X er ikke unik. Ved at ombytte søjler for<br />

diagonaliseringsmatricen eller ved at multiplicere med en skalar, der<br />

er forskellig fra 0, kan man konstruere en ny diagonaliseringsmatrix.<br />

3. Hvis A er n×n og A har n forskellige egenværdier, s˚a kan A diagonali-<br />

seres. Hvis der er flere ækvivalente egenværdier s˚a er A diagonaliserbar<br />

afhængigt af om, der er n lineært uafhængige egenvektorer (Se sætning<br />

9).<br />

4. Hvis A er diagonaliserbar, s˚a kan A skrives som produktet X D X −1 .<br />

5. A k = X D k X −1 .


4 ORTOGONALISERING 17<br />

4 Ortogonalisering<br />

4.1 Skalarproduktet i R n<br />

Skalarproduktet mellem to vektorer a,b ∈ R n defineres ved a T b. Dvs.,<br />

a · b ≡<br />

Normen af en vektor defineres ved<br />

n<br />

aibi.<br />

i=1<br />

||a|| ≡ √ a · a.<br />

Projektionen af en vektor a p˚a en vektor b er givet ved<br />

og størrelsen af projektionen er<br />

ab =<br />

||ab|| =<br />

a · b<br />

||b||<br />

2 b<br />

a · b<br />

||b|| .<br />

To vektorer a og b er defineret <strong>til</strong> at være ortogonale, hvis a·b = 0. Vinklen<br />

mellem a og b er<br />

4.2 Indre produkt rum<br />

cos θ =<br />

a · b<br />

||a|| ||b|| .<br />

Definition 13 (Indre produkt) Et indre produkt p˚a en vektor i et ab-<br />

strakt vektorrum V er en operator p˚a V , der <strong>til</strong> ethvert par af vektorer<br />

x,y ∈ V <strong>til</strong>deler en skalar 〈x,y〉, som opfylder<br />

I 〈x,x〉 ≥ 0, med lighed hvis og kun hvis x = 0.<br />

II 〈x,y〉 = 〈y,x〉.<br />

III 〈αx + βy,z〉 = α〈x,z〉 + β〈y,z〉 for alle x,y,z ∈ V og alle skalarer<br />

α,β. ⊳<br />

Et vektorrum V med et indre produkt kaldes et indre produkt rum. Her<br />

følger en række eksempler p˚a indre produkter:


4 ORTOGONALISERING 18<br />

Eksempel 12 (R n ) Skalarproduktet i R n er et indre produkt;<br />

〈x,y〉 = x T y.<br />

Et andet eksempel p˚a et indre produkt i Rn er<br />

n<br />

〈x,y〉 = wixiyi,<br />

i=1<br />

hvor w1,w2,... ,wn er skalarer. ⊳<br />

Eksempel 13 (R m×n ) For A,B ∈ R m×n kan man definere et indre pro-<br />

dukt ved<br />

〈A,B〉 =<br />

m<br />

n<br />

i=1 j=1<br />

aijbij. ⊳<br />

Eksempel 14 (C[a, b]) Et eksempel p˚a et indre produkt for f,g ∈ C[a,b]<br />

er<br />

〈f,g〉 =<br />

b<br />

a<br />

f(x)g(x)dx.<br />

Hvis en funktion w(x) er kontinuert p˚a [a,b] kan et indre produkt ogs˚a<br />

defineres som<br />

〈f,g〉 =<br />

b<br />

a<br />

f(x)g(x)w(x)dx. ⊳<br />

Eksempel 15 (Pn) Lad x1,x2,...,xn være forskellige skalarer. For ethvert<br />

par af polynomier af mindre grad end n kan man definere:<br />

n<br />

〈p,q〉 = p(xi)q(xi). ⊳<br />

ved:<br />

i=0<br />

Der gælder, at normen af en vektor i et indre produkt rum kan defineres<br />

||x|| = 〈x,x〉.<br />

Definition 14 (Projektion) Lad u og v være vektorer i et indre produkt<br />

rum. Projektionen af u p˚a v er<br />

uv = 〈u,v〉<br />

2 v. ⊳<br />

||v||


4 ORTOGONALISERING 19<br />

4.3 Ortonormale systemer<br />

Definition 15 (Ortogonalt system) Lad v1,v2,...,vn være vektorer for-<br />

skellig fra nulvektoren i et indre produkt rum V . Hvis 〈vi,vj〉 = 0, n˚ar i = j,<br />

s˚a er basen {v1,v2,... ,vn} et ortogonalt system. ⊳<br />

Definition 16 (Ortonormalt system) Et ortonormalt system af vekto-<br />

rer er et ortogonalt sæt af enhedsvektorer. ⊳<br />

Et system u1,u2,... ,un er s˚aledes ortonormalt, hvis og kun hvis<br />

<br />

1 hvis i = j<br />

〈ui,uj〉 =<br />

0 hvis i = j .<br />

Hvis man har et ortogonalt system {v1,v2,...,vn} kan man definere<br />

ui = vi<br />

||vi|| .<br />

Da udgør {u1,u2,...,un} er ortonormalt system.<br />

Her følger tre sætninger ang˚aende ortonormale baser:<br />

Sætning 10 Lad u1,u2,... ,un være en ortonormal basis for et indre pro-<br />

dukt rum V . Hvis<br />

s˚a er<br />

v =<br />

n<br />

ciui,<br />

i=1<br />

ci = 〈v,ui〉. ⊳<br />

Af denne sætning følger det, at hvis man ønsker at skrive en vektor, som<br />

x = c1u1 + c2u2 + ... + cnun,<br />

hvor u1,u2,... ,un er en ortonormal basis, s˚a er ci givet ved<br />

ci = 〈x,ui〉.<br />

Sætning 11 Lad u1,u2,... ,un være en ortonormal basis for et indre pro-<br />

dukt rum V . Hvis u = n<br />

i=1 aiui og v = n<br />

i=1 biui, s˚a er<br />

〈u,v〉 =<br />

n<br />

aibi. ⊳<br />

i=1


4 ORTOGONALISERING 20<br />

Sætning 12 (Parseval’s formel) Hvis u1,u2,...,un er en ortonormal ba-<br />

sis for et indre produkt rum V og v = n<br />

i=1 ciui, s˚a er<br />

||v|| 2 =<br />

n<br />

c 2 i. ⊳<br />

Eksempel 16 Lad {u1,u2,u3} være en ortonormal basis for et indre pro-<br />

dukt rum V . Betragt de to vektorer,<br />

Ifølge sætning 11 er<br />

Og ifølge Parseval’s formel er<br />

i=1<br />

u = u1 + 2u2 + 2u3,<br />

v = u1 + 7u3.<br />

〈a,b〉 = 1 · 1 + 2 · 0 + 2 · 7 = 15.<br />

||u|| = 12 + 22 + 22 = 3,<br />

<br />

||v|| = 12 + 72 = 5 √ 2.<br />

Om vinklen mellem de to vektorer gælder:<br />

cos θ = 〈a,b〉 15<br />

=<br />

||a|| ||b|| 3 · 5 √ 1<br />

= √ .<br />

2 2<br />

Hermed er θ = π<br />

4 . ⊳<br />

4.4 Ortogonale matricer<br />

Definition 17 (Ortogonal matrix) En reel matrix Q er en ortogonal ma-<br />

trix, hvis søjlevektorerne i Q udgør et ortonormalt sæt i R n . ⊳<br />

Sætning 13 En n × n matrix Q er ortogonal, hvis og kun hvis<br />

Af denne sætning følger umiddelbart, at Q T = Q −1 .<br />

Q T Q = I. ⊳<br />

I øvrigt gælder altid, at 〈Qx,Qy〉 = 〈x,y〉. Hvis 〈x,y〉 = x T y gælder<br />

desuden, at ||Qx|| = ||x||.


4 ORTOGONALISERING 21<br />

Sætning 14 Hvis A er en reel symmetrisk matrix, s˚a findes der en ortogonal<br />

matrix U, som diagonaliserer A. Dvs.,<br />

D = U T AU,<br />

hvor D er en diagonalmatrix. ⊳<br />

En symmetrisk matrix er opfylder, at A T = A.<br />

Hvis A er en reel n × n matrix, s˚a er følgende betingelser ækvivalente:<br />

1. Der findes en orthonormal basis for R n best˚aende af egenvektorer for<br />

A.<br />

2. Der findes en matrix U, s˚a U T AU er diagonal med egenværdier for A<br />

i diagonalen (U kan bestemmes ved at køre Gram-Schmidt p˚a egen-<br />

vektorerne i A. Søjlevektorerne i U er da vektorerne i den ortonormale<br />

basis).<br />

3. A er symmetrisk; dvs., A T = A.<br />

4.5 Gram-Schmidt ortogonalisering<br />

I dette kapitel beskrives Gram-Schmidt ortogonaliseringsmetoden. Ved hjælp<br />

af denne metode kan man ud fra enhver basis,<br />

danne en ortonormal basis,<br />

som opfylder, at<br />

[x1,x2,...,xn],<br />

[u1,u2,... ,un] ,<br />

span{[u1,u2,...,un]} = span{[x1,x2,... ,xn]}.<br />

Den første vektor i den ortonormale basis f˚as ved at normere x1:<br />

u1 = x1<br />

||x1|| .


4 ORTOGONALISERING 22<br />

For at konstruere den anden vektor i den ortonormale basis opskrives pro-<br />

jektionen af x2 p˚a nymodens u1 (Denne vektor kaldes p1):<br />

p1 = 〈x2,u1〉u1<br />

Der m˚a af geometriske ˚arsager gælde, at (x2 − p1) ⊥ u1. Ved at normere<br />

x2 −p1 denne kan man s˚aledes danne en ny vektor i den ortonormale basis:<br />

u2 = x2 − p1<br />

||x2 − p1|| .<br />

Den tredje vektor i den ortonormale basis kan konstrueres ved at definere<br />

vektoren,<br />

og s˚a er<br />

p2 = 〈x3,u1〉u1 + 〈x3,u2〉u2,<br />

u3 = x3 − p2<br />

||x3 − p2|| .<br />

Følgende sætning beskriver Gram-Schmidt Ortogonaliseringsmetoden:<br />

Sætning 15 (Gram-Schmidt) Lad [x1,x2,... ,xn] være en ortogonal ba-<br />

sis for et indre produkt rum V . Lad<br />

og definer u2,u3 ...,un rekursivt ved<br />

hvor<br />

u1 = x1<br />

||x1||<br />

uk+1 = xk+1 − pk<br />

||xk+1 − pk|| ,<br />

pk = 〈xk+1,u1〉u1 + 〈xk+1,u2〉u2 + ... + 〈xk+1,uk〉uk<br />

er projektionen af xk+1 p˚a spannet af [u1,u2,... ,uk].<br />

Der gælder, at [u1,u2,... ,un] er en ortonormal basis for V . ⊳<br />

Bemærk at i udledning af Gram-Schmidt-metoden anvendte vi vores<br />

geometriske intuition om vektorer i R n . Metoden er dog ikke begrænset <strong>til</strong><br />

vektorer i R n , men kan anvendes i alle abstrakte vektorrum.


5 FOURIERANALYSE 23<br />

5 Fourieranalyse<br />

5.1 Ortonormal basis<br />

I dette delafsnit forklares den teoretiske baggrund for fourierrækker.<br />

Betragte et indre produkt rum, hvor det indre produkt mellem to funk-<br />

tion f og g er defineret ved<br />

〈f,g〉 ≡ 2<br />

L<br />

L<br />

0<br />

f(x)g(x)dx.<br />

Betragt funktionerne<br />

<br />

2πr<br />

cos<br />

L x<br />

<br />

2πs<br />

, cos<br />

L x<br />

<br />

2πr<br />

, sin<br />

L x<br />

<br />

2πs<br />

, sin<br />

L x<br />

<br />

,<br />

hvor r og s er ikke-negative heltal og L er en skalar. Ved at udregne indre<br />

produkter f˚as:<br />

<br />

2πr<br />

cos<br />

L x<br />

<br />

<br />

2πs<br />

,sin<br />

L x<br />

<br />

= 2<br />

L<br />

L<br />

0<br />

<br />

2πr<br />

cos<br />

L x<br />

<br />

2πs<br />

sin<br />

L x<br />

<br />

dx<br />

= 0,<br />

<br />

2πr<br />

cos<br />

L x<br />

<br />

2πs<br />

,cos<br />

L x<br />

<br />

= 2<br />

L <br />

2πr<br />

cos<br />

L 0 L x<br />

<br />

2πs<br />

cos<br />

L x<br />

<br />

dx<br />

⎧<br />

⎪⎨ 2 for r = s = 0<br />

= 1 for r = s > 0<br />

⎪⎩<br />

0 for r = s<br />

<br />

2πr<br />

sin<br />

L x<br />

<br />

2πs<br />

,sin<br />

L x<br />

<br />

= 2<br />

L <br />

2πr<br />

sin<br />

L 0 L x<br />

<br />

2πs<br />

sin<br />

L x<br />

<br />

dx<br />

⎧<br />

⎪⎨ 0 for r = s = 0<br />

= 1 for r = s > 0<br />

⎪⎩<br />

0 for r = s<br />

Ud fra de netop udregnede indre produkter ses det, at enhver funktion (der<br />

er uendeligt mange gange differentiabel) kan opskrives i en ortonormal basis<br />

s˚aledes<br />

f(x) = a0<br />

2 +<br />

∞<br />

<br />

2πr<br />

ar cos<br />

L x<br />

<br />

2πr<br />

+ br sin<br />

L x<br />

<br />

,<br />

r=1


5 FOURIERANALYSE 24<br />

hvor de r’e koefficienter er givet ved projektionen af f p˚a de r’e basisvektorer<br />

s˚aledes:<br />

ar =<br />

br =<br />

<br />

2πr<br />

f,cos<br />

L x<br />

<br />

= 2<br />

L<br />

<br />

2πr<br />

f,sin<br />

L x<br />

<br />

= 2<br />

L<br />

x0+L<br />

x0<br />

x0+L<br />

x0<br />

<br />

2πr<br />

f(x)cos<br />

L x<br />

<br />

dx<br />

<br />

2πr<br />

f(x)sin<br />

L x<br />

<br />

dx.<br />

I det næste delafsnit opskrives dette resultat p˚a mere stringent vis.<br />

5.2 Fourierrækker<br />

En funktion f kan udvikles vha. fourierrækker, hvis den opfylder Dirichlets<br />

betingeler:<br />

i) f er periodisk,<br />

ii) f skal være kontinuert. Dog er det <strong>til</strong>ladt med et endeligt antal disko-<br />

ninuitetspunkter,<br />

iii) f skal have et endeligt antal maksimum- og minimumpunkter inden for<br />

en enkelt periode,<br />

iv) Integralet over en periode af |f(x)| skal konvergere.<br />

Hvis Dirichlets betingelser er opfyldt er fourierrækken for f givet ved<br />

f(x) = a0<br />

2 +<br />

∞<br />

<br />

2πr<br />

ar cos<br />

L x<br />

<br />

2πr<br />

+ br sin<br />

L x<br />

<br />

,<br />

r=1<br />

hvor Fourier koefficienterne er givet ved<br />

ar = 2<br />

x0+L <br />

2πr<br />

f(x)cos<br />

L x0<br />

L x<br />

<br />

dx<br />

br = 2<br />

x0+L <br />

2πr<br />

f(x)sin<br />

L<br />

L x<br />

<br />

dx.<br />

Lige og ulige funktioner<br />

For en funktion f gælder:<br />

x0<br />

hvis f er lige er f(−x) = f(x)<br />

hvis f er ulige er f(−x) = −f(x)


5 FOURIERANALYSE 25<br />

Eksempelvis er f(x) = x 2 en lige funktion og f(x) = x 3 er en ulige funktion.<br />

For enhver funktion gælder:<br />

f(x) = 1<br />

1<br />

[f(x) + f(−x)] + [f(x) − f(−x)]<br />

2 2<br />

= flige(x) + fulige(x)<br />

For en fourierrække repræsenterer ar de lige led (I ar indg˚ar cosinus og<br />

cosinus er en lige funktion) og br repræsentere de ulige led (I br indg˚ar sinus<br />

og sinus er en ulige funktion).<br />

For en ulige funktion er alle a-leddene s˚aledes 0 og <strong>til</strong>svarende er alle<br />

b-leddene 0 for en lige funktion. For en maclaurin-række gælder i øvrigt det<br />

samme.<br />

5.3 Fouriertransformation<br />

Den fouriertransformerede af en funktion f(t) er givet ved<br />

Den inverse er:<br />

˜f(ω) = 1<br />

√ 2π<br />

∞<br />

−∞<br />

f(t) = 1<br />

∞<br />

√<br />

2π −∞<br />

f(t)e −iωt dt.<br />

˜f(ω)e iωt dω.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!