18.07.2013 Views

1.7 Lineær uavhengighet og ikkesingulære matriser - IfI

1.7 Lineær uavhengighet og ikkesingulære matriser - IfI

1.7 Lineær uavhengighet og ikkesingulære matriser - IfI

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>1.7</strong> <strong>Lineær</strong> <strong>uavhengighet</strong> <strong>og</strong> <strong>ikkesingulære</strong><br />

<strong>matriser</strong><br />

N˚a er det grunnleggende om lineære likninger <strong>og</strong><br />

behandling av <strong>matriser</strong> unnagjort.<br />

Vi skal studere et av de mest sentrale begrepene i lineær<br />

algebra, nemlig lineær <strong>uavhengighet</strong>. Mye av det som<br />

kommer senere avhenger av at man har forst˚aelse for<br />

dette begrepet.<br />

De idéene vi ser p˚a idag er grunnlaget for hele kapittel 2.<br />

Vi skal starte med noen eksempler før vi gir<br />

definisjonen.<br />

Lin.alg. Seksjon <strong>1.7</strong>: #1 of 10


<strong>Lineær</strong> <strong>uavhengighet</strong>.<br />

Betrakt matrisen<br />

⎡ ⎤<br />

5 −1 3<br />

A = ⎣ ⎦ .<br />

1 4 9<br />

Den har kolonnevektorer<br />

⎡<br />

A1 = ⎣ 5<br />

⎤ ⎡<br />

⎦ , A2 = ⎣<br />

1<br />

−1<br />

⎤<br />

⎦ , A3 =<br />

4<br />

⎡<br />

⎣ 3<br />

9<br />

Fra disse tre vektorene kan vi lage nye vektorer ved ˚a<br />

gange hver vektor med en skalar <strong>og</strong> deretter beregne<br />

vektorsummen. (Husk: disse operasjonene har vi jo<br />

definert for <strong>matriser</strong> <strong>og</strong> dermed for vektorer i IR n ;deer<br />

jo n × 1 <strong>matriser</strong>). F.eks.<br />

1A1+0A2+2A3 =<br />

⎡<br />

⎣ 11<br />

19<br />

⎤<br />

⎤<br />

⎦<br />

⎦ , (−1)A1+3A2−5A3 =<br />

⎡<br />

⎣ −23<br />

−34<br />

Det er n˚a to spørsm˚al som det er noks˚a naturlig ˚a sep˚a:<br />

1. hvilke vektorer er det mulig ˚a “lage slik”?<br />

2. kan nullvektoren “lages slik”?<br />

Det første spørsm˚alet vil vi se p˚a senere, s˚avi<br />

konsentrer oss her om det siste spørsm˚alet. Først: de<br />

vektorene vi kan “lage slik” er mer presist alle vektorer<br />

p˚aformen<br />

x1A1+x2A2+x3A3<br />

der x1,x2 <strong>og</strong> x3 er reelle tall. Enhver vektor p˚a denne<br />

formen kalles en lineærkombinasjon av vektorene<br />

A1, A2 <strong>og</strong> A3.<br />

Lin.alg. Seksjon <strong>1.7</strong>: #2 of 10<br />

⎤<br />


Det er jo klart at vi f˚ar nullvektoren ved ˚a velge<br />

x1 = x2 = x3 = 0 for da blir jo 0A1 + 0A2 + 0A3 = 0.<br />

Dette vil jo alltid være tilfelle uansett hvilke vektorer vi<br />

starter med!<br />

Men vi spør n˚a: kan nullvektoren skrives som en<br />

ikketriviell lineærkombinasjon av vektorene A1, A2 <strong>og</strong><br />

A3?<br />

“Ikketriviell” betyr at minst ett av tallene x1,x2,x3 er<br />

ulik 0. Kan jo (foreløpig) se nøyere p˚a vektorene <strong>og</strong><br />

prøve oss fram. F.eks. har vi at<br />

⎡<br />

1A1 + 2A2 − A3 = ⎣ 5<br />

⎤ ⎡<br />

⎦ + 2 ⎣<br />

1<br />

−1<br />

4<br />

⎤<br />

⎦ −<br />

⎡<br />

⎣ 3<br />

9<br />

⎤<br />

⎦ =<br />

⎡<br />

⎣ 0<br />

0<br />

Svaret er alts˚a JA!. Vi sier da at vektorene A1, A2 <strong>og</strong> A3 er<br />

lineært avhengige. Forklaring p˚a denne betegnelsen er<br />

at vi har fra forrige likning f˚ar f.eks. at<br />

A3 = A1 + 2A2<br />

som er en slags avhengighet mellom vektorene.<br />

Vi kan n˚a gi en generell definisjon av disse begrepene.<br />

⎤<br />

⎦ .<br />

Lin.alg. Seksjon <strong>1.7</strong>: #3 of 10


Definisjon 9. En mengde med vektorer<br />

v1, v2,...,vp ∈IR n kalles lineært uavhengige hvis den<br />

eneste løsningen til likningen<br />

x1v1 + x2v2 + ...+xpvp =0<br />

er x1 = x2 = ...=xp =0. Vektorene (eller mengden av<br />

vektorer) kalles lineært avhengige hvis de ikke er lineært<br />

uavhengige, dvs. hvis nullvektoren kan skrives som en<br />

ikketriviell lineærkombinasjon av v1, v2,...,vp.<br />

1. Hvorfor er disse begrepene viktige?<br />

2. Hvordan avgjøre om gitte vektorer er lin. uavhengige?<br />

For ˚a gi svar la oss se p˚a en omformulering. La alts˚a<br />

v1, v2,...,vp ∈IR n være gitt <strong>og</strong> innfør n × p matrisen<br />

V som har vj som kolonne j. La videre x ∈ IR p .Alts˚a:<br />

⎡ ⎤<br />

<br />

V =<br />

v1 v2 ... vp<br />

Vi vet fra matrisealgebraen at<br />

⎢<br />

⎢<br />

, x= ⎢<br />

⎣<br />

x1<br />

x2<br />

.<br />

xn<br />

Vx = x1v1 + x2v2 + ...+xpvp.<br />

⎥<br />

⎥.<br />

⎥<br />

⎦<br />

Men dette betyr jo at v1, v2,...,vp ∈IR n er lineært<br />

uavhengige hvis <strong>og</strong> bare hvis eneste løsning av det<br />

lineære likningsystemet<br />

er x = 0 (nullvektoren).<br />

Vx = 0<br />

Lin.alg. Seksjon <strong>1.7</strong>: #4 of 10


Konklusjon: Vi kan avgøre om vektorene er lineært<br />

uavhengige ved ˚a løse det lineære systemet Vx = 0.<br />

Finner vi en x = 0,s˚aerv1,v2,...,vp lineært avhengige.<br />

Hvis x = 0 er eneste løsning, er vektorene lineært<br />

uavhengige.<br />

I eksemplet v˚art hadde vi<br />

⎡ ⎤<br />

5 −1 3<br />

A = ⎣ ⎦ .<br />

1 4 9<br />

Løser Ax = 0 <strong>og</strong> finner<br />

⎡ ⎤<br />

1 0 1<br />

ref(A) = ⎣ ⎦<br />

0 1 2<br />

s˚a løsningen er x1 =−x3,x2=−2x3mens x3 er<br />

vilk˚arlig. Vi velger (f.eks.) x3 =−1<strong>og</strong> f˚ar da x1 = 1,<br />

x2 = 2. Alts˚a:<br />

som før.<br />

3<br />

j=1<br />

xjAj = 1A1 + 2A2 − A3 = 0<br />

Merk: Ved ˚a løse systemet Vx = 0 finner ikke bar ut om<br />

v1, v2,...,vp lineært avhengige, vi finner <strong>og</strong>s˚a alle<br />

lineærkombinasjoner av vektorene som gir<br />

nullvektoren. Mengden av slike vektorer x kalles<br />

nullrommet til matrisen V; vi skal vende tilbake til dette.<br />

(Kommentar: nok ˚asep˚a redusert trappeform for V.)<br />

Lin.alg. Seksjon <strong>1.7</strong>: #5 of 10


Eksempel: Avgjør om vektorene<br />

⎡ ⎤ ⎡ ⎤ ⎡ ⎤<br />

1 3 1<br />

⎢ ⎥ ⎢ ⎥ ⎢ ⎥<br />

⎢ 0 ⎥ ⎢<br />

⎥ ⎢ 2 ⎥ ⎢<br />

⎥ ⎢ 5 ⎥<br />

⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥<br />

⎢<br />

⎣ 0 ⎥ ⎢<br />

⎦ ⎣ 0 ⎥ ⎢<br />

⎦ ⎣ 6 ⎥<br />

⎦<br />

0 0 0<br />

er lineært uavhengige. Her er<br />

⎡ ⎤<br />

1 0 0<br />

⎢ ⎥<br />

⎢ 0 1 0 ⎥<br />

ref(V) = ⎢ ⎥<br />

⎢<br />

⎣ 0 0 1 ⎥<br />

⎦<br />

0 0 0<br />

s˚a eneste løsning av Vx = 0 er x = 0. Alts˚a er vektorene<br />

lineært uavhengige.<br />

Forbindelsen melllom lineær <strong>uavhengighet</strong> <strong>og</strong> redusert<br />

trappeform er tema i følgende teorem. Først minner vi<br />

om at vi har definert rangen tilenmatriseVsom antall<br />

ledende enere i ref(V). Dette tallet betegnes med<br />

rank(V).<br />

Teorem ∗. La V være en n × p matrise med<br />

kolonnevektorer v1,...,vp ∈IR n .Daerv1,...,vp lineært<br />

uavhengige hvis <strong>og</strong> bare hvis rank(V) = p.<br />

Alts˚a: kolonnene er lineært uavhengige hvis <strong>og</strong> bare<br />

hvis matrisen har rang lik antall kolonner; vi sier da at<br />

matrisen har full kolonnerang.<br />

Lin.alg. Seksjon <strong>1.7</strong>: #6 of 10


Bevis. Anta at rank(V) = p. Da inneholder hver<br />

kolonne i ref(V) en ledende ener <strong>og</strong> siden nullradene<br />

kommer til slutt m˚a da<br />

⎡<br />

⎤<br />

1 0 0 ... 0<br />

⎢<br />

⎥<br />

⎢ 0 1 0 ... 0<br />

⎥<br />

⎢<br />

⎥<br />

⎢ 0 0 1 ... 0 ⎥<br />

⎢<br />

⎥<br />

⎢<br />

ref(V) = ⎢<br />

.<br />

. ⎥<br />

⎢<br />

⎥.<br />

⎢ 0 0 0 ... 1 ⎥<br />

⎢<br />

⎥<br />

⎢ 0 0 0 ... 0 ⎥<br />

⎢<br />

⎥<br />

⎢<br />

⎣ .<br />

. ⎥<br />

⎦<br />

0 0 0 ... 0<br />

S˚a eneste løsning av Vx = 0 er x = 0. Omvendt: dersom<br />

rank(V) n,s˚a er disse vektorene lineært avhengige.<br />

Bevis. la V være n × p matrisen med de gitte vektorene<br />

som kolonner. Vi har alltid at rank(V) ≤ min{n, p},s˚a<br />

her blir rank(V) ≤ n


Ikkesingulære <strong>matriser</strong>.<br />

Definisjon 9. En kvadratisk matrise A kalles<br />

ikkesingulær dersom eneste løsning av Ax = 0 er<br />

x = 0. Matrisen kalles singulær hvis den ikke er<br />

ikkesingulær (ikke sant!)<br />

Merk: dette begrepet gjelder bare for kvadratiske<br />

<strong>matriser</strong>. Følgende blir n˚a opplagt.<br />

Teorem 12. A er ikkesingulær hvis <strong>og</strong> bare hvis<br />

kolonnene i A er lineært uavhengige.<br />

Eksempel: Identitetsmatrisen<br />

⎡<br />

⎤<br />

1 0 0 ... 0<br />

⎢<br />

⎥<br />

⎢ 0 1 0 ... 0<br />

⎥<br />

⎢<br />

⎥<br />

In = ⎢ 0 0 1 ... 0 ⎥<br />

⎢<br />

⎥<br />

⎢<br />

⎣<br />

.<br />

. ⎥<br />

⎦<br />

0 0 0 ... 1<br />

er ikkesingulær. Begrunnelse: In er p˚a redusert<br />

trappeform allerede <strong>og</strong> rank(In) = n,s˚aTeorem∗gir<br />

resultatet.<br />

Vi har alts˚a sett at ˚a avklare lineær <strong>uavhengighet</strong> av gitte<br />

vektorer, eller ˚a avklare om en gitt kvadratisk matrise er<br />

ikkesingulær koker ned til ˚a bestemme rangen til en<br />

matrise. Matematisk er dette enkelt ˚a greit, vi løser<br />

problemet ved elementære operasjoner p˚aetlineært<br />

system.<br />

Lin.alg. Seksjon <strong>1.7</strong>: #8 of 10


Numerisk, derimot, kan vi f˚a problemer ved at sm˚atall<br />

rundes av til null. Numerisk beregning av rang gjøres<br />

derfor med algoritmer som er mest mulig numerisk<br />

stabile; man beregner gjerne den s˚akalt singulærverdi<br />

dekomposisjonen til matrisen <strong>og</strong> leser rangen ut fra<br />

denne. Mer om dette i et senere kurs (SAM 200).<br />

Vi vender n˚a tilbake til spørsm˚alet: Hvorfor er lineær<br />

<strong>uavhengighet</strong> av interesse.<br />

Teorem 13. La A være en n × n matrise. Da har den<br />

lineære likningen Ax = b en unik løsning for enhver<br />

b ∈ IR n hvis <strong>og</strong> bare hvis A er ikkesingulær.<br />

S˚a: hvis A er ikkesingulær <strong>og</strong> b ∈ IR n vet vi at det fins en<br />

løsning av Ax = b, <strong>og</strong> dessuten er det én eneste slik<br />

løsning. Hvis A derimot er singulær, er det enten ingen<br />

løsning eller uendelig mange løsninger.<br />

Lin.alg. Seksjon <strong>1.7</strong>: #9 of 10


Bevis. (Teorem 13) Anta Ax = b har en unik løsning for<br />

enhver b ∈ IR n .Velgb=0<strong>og</strong> unik løsning viser<br />

ikkesingularitet. Omvendt, anta A ikkesingulær <strong>og</strong> la<br />

C = ref([A|b]). SidenAerikkesingulær er rank(A) = n<br />

(ved Teorem ∗) s˚avim˚ahaat<br />

<br />

C= In h<br />

der den siste kolonnen h er resultatet av ˚a anvende<br />

visse elementære radoperasjoner p˚a b. Men dette<br />

systemet har unik løsning (x = h) <strong>og</strong> da har <strong>og</strong>s˚a<br />

Ax = b unik løsning (de er radekvivalente).<br />

Neste gang: 1.8 Eksempler <strong>og</strong> anvendelser.<br />

Lin.alg. Seksjon <strong>1.7</strong>: #10 of 10

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!