1.7 Lineær uavhengighet og ikkesingulære matriser - IfI
1.7 Lineær uavhengighet og ikkesingulære matriser - IfI
1.7 Lineær uavhengighet og ikkesingulære matriser - IfI
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
<strong>1.7</strong> <strong>Lineær</strong> <strong>uavhengighet</strong> <strong>og</strong> <strong>ikkesingulære</strong><br />
<strong>matriser</strong><br />
N˚a er det grunnleggende om lineære likninger <strong>og</strong><br />
behandling av <strong>matriser</strong> unnagjort.<br />
Vi skal studere et av de mest sentrale begrepene i lineær<br />
algebra, nemlig lineær <strong>uavhengighet</strong>. Mye av det som<br />
kommer senere avhenger av at man har forst˚aelse for<br />
dette begrepet.<br />
De idéene vi ser p˚a idag er grunnlaget for hele kapittel 2.<br />
Vi skal starte med noen eksempler før vi gir<br />
definisjonen.<br />
Lin.alg. Seksjon <strong>1.7</strong>: #1 of 10
<strong>Lineær</strong> <strong>uavhengighet</strong>.<br />
Betrakt matrisen<br />
⎡ ⎤<br />
5 −1 3<br />
A = ⎣ ⎦ .<br />
1 4 9<br />
Den har kolonnevektorer<br />
⎡<br />
A1 = ⎣ 5<br />
⎤ ⎡<br />
⎦ , A2 = ⎣<br />
1<br />
−1<br />
⎤<br />
⎦ , A3 =<br />
4<br />
⎡<br />
⎣ 3<br />
9<br />
Fra disse tre vektorene kan vi lage nye vektorer ved ˚a<br />
gange hver vektor med en skalar <strong>og</strong> deretter beregne<br />
vektorsummen. (Husk: disse operasjonene har vi jo<br />
definert for <strong>matriser</strong> <strong>og</strong> dermed for vektorer i IR n ;deer<br />
jo n × 1 <strong>matriser</strong>). F.eks.<br />
1A1+0A2+2A3 =<br />
⎡<br />
⎣ 11<br />
19<br />
⎤<br />
⎤<br />
⎦<br />
⎦ , (−1)A1+3A2−5A3 =<br />
⎡<br />
⎣ −23<br />
−34<br />
Det er n˚a to spørsm˚al som det er noks˚a naturlig ˚a sep˚a:<br />
1. hvilke vektorer er det mulig ˚a “lage slik”?<br />
2. kan nullvektoren “lages slik”?<br />
Det første spørsm˚alet vil vi se p˚a senere, s˚avi<br />
konsentrer oss her om det siste spørsm˚alet. Først: de<br />
vektorene vi kan “lage slik” er mer presist alle vektorer<br />
p˚aformen<br />
x1A1+x2A2+x3A3<br />
der x1,x2 <strong>og</strong> x3 er reelle tall. Enhver vektor p˚a denne<br />
formen kalles en lineærkombinasjon av vektorene<br />
A1, A2 <strong>og</strong> A3.<br />
Lin.alg. Seksjon <strong>1.7</strong>: #2 of 10<br />
⎤<br />
⎦
Det er jo klart at vi f˚ar nullvektoren ved ˚a velge<br />
x1 = x2 = x3 = 0 for da blir jo 0A1 + 0A2 + 0A3 = 0.<br />
Dette vil jo alltid være tilfelle uansett hvilke vektorer vi<br />
starter med!<br />
Men vi spør n˚a: kan nullvektoren skrives som en<br />
ikketriviell lineærkombinasjon av vektorene A1, A2 <strong>og</strong><br />
A3?<br />
“Ikketriviell” betyr at minst ett av tallene x1,x2,x3 er<br />
ulik 0. Kan jo (foreløpig) se nøyere p˚a vektorene <strong>og</strong><br />
prøve oss fram. F.eks. har vi at<br />
⎡<br />
1A1 + 2A2 − A3 = ⎣ 5<br />
⎤ ⎡<br />
⎦ + 2 ⎣<br />
1<br />
−1<br />
4<br />
⎤<br />
⎦ −<br />
⎡<br />
⎣ 3<br />
9<br />
⎤<br />
⎦ =<br />
⎡<br />
⎣ 0<br />
0<br />
Svaret er alts˚a JA!. Vi sier da at vektorene A1, A2 <strong>og</strong> A3 er<br />
lineært avhengige. Forklaring p˚a denne betegnelsen er<br />
at vi har fra forrige likning f˚ar f.eks. at<br />
A3 = A1 + 2A2<br />
som er en slags avhengighet mellom vektorene.<br />
Vi kan n˚a gi en generell definisjon av disse begrepene.<br />
⎤<br />
⎦ .<br />
Lin.alg. Seksjon <strong>1.7</strong>: #3 of 10
Definisjon 9. En mengde med vektorer<br />
v1, v2,...,vp ∈IR n kalles lineært uavhengige hvis den<br />
eneste løsningen til likningen<br />
x1v1 + x2v2 + ...+xpvp =0<br />
er x1 = x2 = ...=xp =0. Vektorene (eller mengden av<br />
vektorer) kalles lineært avhengige hvis de ikke er lineært<br />
uavhengige, dvs. hvis nullvektoren kan skrives som en<br />
ikketriviell lineærkombinasjon av v1, v2,...,vp.<br />
1. Hvorfor er disse begrepene viktige?<br />
2. Hvordan avgjøre om gitte vektorer er lin. uavhengige?<br />
For ˚a gi svar la oss se p˚a en omformulering. La alts˚a<br />
v1, v2,...,vp ∈IR n være gitt <strong>og</strong> innfør n × p matrisen<br />
V som har vj som kolonne j. La videre x ∈ IR p .Alts˚a:<br />
⎡ ⎤<br />
<br />
V =<br />
v1 v2 ... vp<br />
Vi vet fra matrisealgebraen at<br />
⎢<br />
⎢<br />
, x= ⎢<br />
⎣<br />
x1<br />
x2<br />
.<br />
xn<br />
Vx = x1v1 + x2v2 + ...+xpvp.<br />
⎥<br />
⎥.<br />
⎥<br />
⎦<br />
Men dette betyr jo at v1, v2,...,vp ∈IR n er lineært<br />
uavhengige hvis <strong>og</strong> bare hvis eneste løsning av det<br />
lineære likningsystemet<br />
er x = 0 (nullvektoren).<br />
Vx = 0<br />
Lin.alg. Seksjon <strong>1.7</strong>: #4 of 10
Konklusjon: Vi kan avgøre om vektorene er lineært<br />
uavhengige ved ˚a løse det lineære systemet Vx = 0.<br />
Finner vi en x = 0,s˚aerv1,v2,...,vp lineært avhengige.<br />
Hvis x = 0 er eneste løsning, er vektorene lineært<br />
uavhengige.<br />
I eksemplet v˚art hadde vi<br />
⎡ ⎤<br />
5 −1 3<br />
A = ⎣ ⎦ .<br />
1 4 9<br />
Løser Ax = 0 <strong>og</strong> finner<br />
⎡ ⎤<br />
1 0 1<br />
ref(A) = ⎣ ⎦<br />
0 1 2<br />
s˚a løsningen er x1 =−x3,x2=−2x3mens x3 er<br />
vilk˚arlig. Vi velger (f.eks.) x3 =−1<strong>og</strong> f˚ar da x1 = 1,<br />
x2 = 2. Alts˚a:<br />
som før.<br />
3<br />
j=1<br />
xjAj = 1A1 + 2A2 − A3 = 0<br />
Merk: Ved ˚a løse systemet Vx = 0 finner ikke bar ut om<br />
v1, v2,...,vp lineært avhengige, vi finner <strong>og</strong>s˚a alle<br />
lineærkombinasjoner av vektorene som gir<br />
nullvektoren. Mengden av slike vektorer x kalles<br />
nullrommet til matrisen V; vi skal vende tilbake til dette.<br />
(Kommentar: nok ˚asep˚a redusert trappeform for V.)<br />
Lin.alg. Seksjon <strong>1.7</strong>: #5 of 10
Eksempel: Avgjør om vektorene<br />
⎡ ⎤ ⎡ ⎤ ⎡ ⎤<br />
1 3 1<br />
⎢ ⎥ ⎢ ⎥ ⎢ ⎥<br />
⎢ 0 ⎥ ⎢<br />
⎥ ⎢ 2 ⎥ ⎢<br />
⎥ ⎢ 5 ⎥<br />
⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥<br />
⎢<br />
⎣ 0 ⎥ ⎢<br />
⎦ ⎣ 0 ⎥ ⎢<br />
⎦ ⎣ 6 ⎥<br />
⎦<br />
0 0 0<br />
er lineært uavhengige. Her er<br />
⎡ ⎤<br />
1 0 0<br />
⎢ ⎥<br />
⎢ 0 1 0 ⎥<br />
ref(V) = ⎢ ⎥<br />
⎢<br />
⎣ 0 0 1 ⎥<br />
⎦<br />
0 0 0<br />
s˚a eneste løsning av Vx = 0 er x = 0. Alts˚a er vektorene<br />
lineært uavhengige.<br />
Forbindelsen melllom lineær <strong>uavhengighet</strong> <strong>og</strong> redusert<br />
trappeform er tema i følgende teorem. Først minner vi<br />
om at vi har definert rangen tilenmatriseVsom antall<br />
ledende enere i ref(V). Dette tallet betegnes med<br />
rank(V).<br />
Teorem ∗. La V være en n × p matrise med<br />
kolonnevektorer v1,...,vp ∈IR n .Daerv1,...,vp lineært<br />
uavhengige hvis <strong>og</strong> bare hvis rank(V) = p.<br />
Alts˚a: kolonnene er lineært uavhengige hvis <strong>og</strong> bare<br />
hvis matrisen har rang lik antall kolonner; vi sier da at<br />
matrisen har full kolonnerang.<br />
Lin.alg. Seksjon <strong>1.7</strong>: #6 of 10
Bevis. Anta at rank(V) = p. Da inneholder hver<br />
kolonne i ref(V) en ledende ener <strong>og</strong> siden nullradene<br />
kommer til slutt m˚a da<br />
⎡<br />
⎤<br />
1 0 0 ... 0<br />
⎢<br />
⎥<br />
⎢ 0 1 0 ... 0<br />
⎥<br />
⎢<br />
⎥<br />
⎢ 0 0 1 ... 0 ⎥<br />
⎢<br />
⎥<br />
⎢<br />
ref(V) = ⎢<br />
.<br />
. ⎥<br />
⎢<br />
⎥.<br />
⎢ 0 0 0 ... 1 ⎥<br />
⎢<br />
⎥<br />
⎢ 0 0 0 ... 0 ⎥<br />
⎢<br />
⎥<br />
⎢<br />
⎣ .<br />
. ⎥<br />
⎦<br />
0 0 0 ... 0<br />
S˚a eneste løsning av Vx = 0 er x = 0. Omvendt: dersom<br />
rank(V) n,s˚a er disse vektorene lineært avhengige.<br />
Bevis. la V være n × p matrisen med de gitte vektorene<br />
som kolonner. Vi har alltid at rank(V) ≤ min{n, p},s˚a<br />
her blir rank(V) ≤ n
Ikkesingulære <strong>matriser</strong>.<br />
Definisjon 9. En kvadratisk matrise A kalles<br />
ikkesingulær dersom eneste løsning av Ax = 0 er<br />
x = 0. Matrisen kalles singulær hvis den ikke er<br />
ikkesingulær (ikke sant!)<br />
Merk: dette begrepet gjelder bare for kvadratiske<br />
<strong>matriser</strong>. Følgende blir n˚a opplagt.<br />
Teorem 12. A er ikkesingulær hvis <strong>og</strong> bare hvis<br />
kolonnene i A er lineært uavhengige.<br />
Eksempel: Identitetsmatrisen<br />
⎡<br />
⎤<br />
1 0 0 ... 0<br />
⎢<br />
⎥<br />
⎢ 0 1 0 ... 0<br />
⎥<br />
⎢<br />
⎥<br />
In = ⎢ 0 0 1 ... 0 ⎥<br />
⎢<br />
⎥<br />
⎢<br />
⎣<br />
.<br />
. ⎥<br />
⎦<br />
0 0 0 ... 1<br />
er ikkesingulær. Begrunnelse: In er p˚a redusert<br />
trappeform allerede <strong>og</strong> rank(In) = n,s˚aTeorem∗gir<br />
resultatet.<br />
Vi har alts˚a sett at ˚a avklare lineær <strong>uavhengighet</strong> av gitte<br />
vektorer, eller ˚a avklare om en gitt kvadratisk matrise er<br />
ikkesingulær koker ned til ˚a bestemme rangen til en<br />
matrise. Matematisk er dette enkelt ˚a greit, vi løser<br />
problemet ved elementære operasjoner p˚aetlineært<br />
system.<br />
Lin.alg. Seksjon <strong>1.7</strong>: #8 of 10
Numerisk, derimot, kan vi f˚a problemer ved at sm˚atall<br />
rundes av til null. Numerisk beregning av rang gjøres<br />
derfor med algoritmer som er mest mulig numerisk<br />
stabile; man beregner gjerne den s˚akalt singulærverdi<br />
dekomposisjonen til matrisen <strong>og</strong> leser rangen ut fra<br />
denne. Mer om dette i et senere kurs (SAM 200).<br />
Vi vender n˚a tilbake til spørsm˚alet: Hvorfor er lineær<br />
<strong>uavhengighet</strong> av interesse.<br />
Teorem 13. La A være en n × n matrise. Da har den<br />
lineære likningen Ax = b en unik løsning for enhver<br />
b ∈ IR n hvis <strong>og</strong> bare hvis A er ikkesingulær.<br />
S˚a: hvis A er ikkesingulær <strong>og</strong> b ∈ IR n vet vi at det fins en<br />
løsning av Ax = b, <strong>og</strong> dessuten er det én eneste slik<br />
løsning. Hvis A derimot er singulær, er det enten ingen<br />
løsning eller uendelig mange løsninger.<br />
Lin.alg. Seksjon <strong>1.7</strong>: #9 of 10
Bevis. (Teorem 13) Anta Ax = b har en unik løsning for<br />
enhver b ∈ IR n .Velgb=0<strong>og</strong> unik løsning viser<br />
ikkesingularitet. Omvendt, anta A ikkesingulær <strong>og</strong> la<br />
C = ref([A|b]). SidenAerikkesingulær er rank(A) = n<br />
(ved Teorem ∗) s˚avim˚ahaat<br />
<br />
C= In h<br />
der den siste kolonnen h er resultatet av ˚a anvende<br />
visse elementære radoperasjoner p˚a b. Men dette<br />
systemet har unik løsning (x = h) <strong>og</strong> da har <strong>og</strong>s˚a<br />
Ax = b unik løsning (de er radekvivalente).<br />
Neste gang: 1.8 Eksempler <strong>og</strong> anvendelser.<br />
Lin.alg. Seksjon <strong>1.7</strong>: #10 of 10