Autovalores do Laplaciano - Departamento de Matemática - UFMG
Autovalores do Laplaciano - Departamento de Matemática - UFMG Autovalores do Laplaciano - Departamento de Matemática - UFMG
Rodney Josué Biezuner 143 Em outras palavras, escolha vetores u1, v1 tais que o máximo é realizado nestes vetores, e defina max u∈E max v∈F u=1 v=1 〈u, v〉 cos θ1 = 〈u1, v1〉 . Por exemplo, se dim E = 2 e dim F = 1, então θ1 é o maior ângulo que a reta F faz com retas de E; se dim E = dim F = 2, então θ1 é o maior ângulo entre uma reta de E e uma reta de F . Em seguida, escolha vetores u2, v2 tais que o máximo é realizado nestes vetores, e defina max u∈E u=1 〈u,u1〉=0 max v∈F v=1 〈v,v1〉=0 〈u, v〉 cos θ2 = 〈u2, v2〉 . Por exemplo, se dim E = dim F = 2, então θ2 = 0 porque u2 = v2. E assim por diante definimos os ângulos principais restantes θ3, . . . , θp. Ângulos principais e vetores principais aparecem em aplicações de estatística e permitem a definição de uma noção de distância entre subespaços vetoriais de mesma dimensão. Definição. Dados dois subespaços vetoriais de mesma dimensão S1, S2 ⊂ V a distância dist (S1, S2) entre S1 e S2 é o seno do maior ângulo principal entre eles. Dada uma seqüência de subespaços {Sk} ⊂ V e um subespaço T ⊂ V , todos de mesma dimensão, dizemos que Sk converge para T , denotado por se Sk → T dist (Sk, T ) → 0. 8.1 Teorema. Seja A ∈ Mn (F) uma matriz diagonalizável com autovalores λ1, . . . , λn ∈ F satisfazendo |λ1| |λ2| . . . |λn| Seja B = {v1, . . . , vn} ⊂ F n uma base de autovetores correspondente. Suponha que |λm| > |λm+1| para algum m. Sejam Tm = 〈v1, . . . , vm〉 , Um = 〈vm+1, . . . , vn〉 . Seja S um subespaço m-dimensional qualquer de Fn tal que S ∩Um = {0}. Então existe uma constante C > 0 tal que dist A k k λm+1 S, Tm C para todo k. Em particular, A k S → Tm. Prova. Embora não demonstraremos o Teorema 8.1 rigorosamente, daremos uma idéia da demonstração. Seja q ∈ S um vetor arbitrário. Então q se escreve de maneira única na forma q = m aivi + i=1 n i=m+1 λm aivi =: q1 + q2
Rodney Josué Biezuner 144 com q1 ∈ Tm e q2 ∈ Um. Como q /∈ Um, necessariamente q1 = 0, isto é, ai = 0 para algum índice i = 1, . . . , m. Em primeiro lugar, note que os subespaços A k S são todos m-dimensionais. De fato, |λm| > |λm+1| implica que nenhum dos autovalores λ1, . . . , λm é o autovalor nulo, logo ker A ⊂ Um. Como S ∩ Um = {0}, segue que A é injetiva sobre S logo dim S = dim (AS). Mais geralmente, como A k Tm = Tm, temos ker A k ⊂ Um para todo k. Além disso, A k S ∩ Um = {0}, pois se q = q1 + q2 ∈ S é um vetor arbitrário com q1 ∈ Tm e q2 ∈ Um, segue que a componente A k q1 de A k q em Tm é não-nula para todo k, pois A k q1 = m i=1 aiλ k vi e ai = 0 para algum índice i = 1, . . . , m. Portanto, dim (AS) = dim (AS) = . . . = dim A k S . Temos A k q λ k m = m−1 k n λi λi ai vi + amvm + ai λm λm i=1 i=m+1 k vi. Os coeficientes da componente em Tm crescem, ou pelo menos não decrescem, enquanto que os coeficientes da componente em Um tendem a zero com taxa igual a ou melhor que λm+1/λm. Portanto, toda seqüência k A q converge para um vetor em Tm com a taxa de convergência dada no enunciado. O limite AkS não pode ser um subespaço próprio de Tm porque ele tem dimensão m. Tm é chamado o subespaço invariante dominante de A de dimensão m. Para fazer uma iteração de subespaços na prática, é necessário escolher uma base para o subespaço a ser iterado, iterando todos os vetores desta base simultaneamente. Assim, se B0 = q0 1, . . . , q0 m é uma base para S, Bk = Akq0 1, . . . , Akq0 k m é uma base para A S. Por outro lado, já vimos que trabalhar com os vetores Akq0 j pode ser problemático, pois pode ocorrer Akq0 j → ∞ ou Akq0 j → 0; seria necessário fazer um reescalamento a cada iteração. Pior que isso, as seqüências de vetores Akq0 k 0 1 , . . . , A qm convergem cada uma para o autovetor dominante v1, como vimos na seção anterior, logo os vetores A k q 0 1, . . . , A k q 0 m apontam aproximadamente para a mesma direção v1 para m grande, logo Bk = Akq0 1, . . . , Akq0 m não é uma boa base para AkS (dizemos que Bk é uma base mal-condicionada): pequenas perturbações em um dos vetores-base podem fazer uma grande diferença no espaço. Deve-se portanto substituir a base obtida em cada iteração por uma base bem-condicionada. A maneira mais confiável de fazer isso é ortonormalizar a base. Assim, começa-se com uma base ortonormal B0 = 0 q1, . . . , q0 m para S e obtém-se a base B1 = Aq0 1, . . . , Aq0 m para AS. Através de um processo de ortonormalização, como o algoritmo de Gram-Schmidt, a partir de B1 obtém-se uma base ortonormal B1 = q1 1, . . . , q1 m para AS. Em geral, dada uma base ortonormal Bk = qk 1 , . . . , qk k m para A S, obtemos uma base ortonormal Bk+1 = q k+1 1 , . . . , qk+1 k+1 m para A S a partir da base Bk+1 = Aqk 1 , . . . , Aqk m . Este procedimento é chamado iteração simultânea com ortonormalização ou simplesmente iteração simultânea. 8.3 Método QR O algoritmo mais usado para calcular o conjunto completo de autovalores de uma matriz é o algoritmo QR, desenvolvido simultanea e independentemente por Francis e Kublanovskaya em 1961. Ele pode ser compreendido a partir do processo de iteração simultânea. Consideremos o que acontece quando o processo de iteração simultânea é aplicado a uma base B0 = 0 q1, . . . , q0 n n de vetores ortonormais para F . Como antes, assumimos que A é diagonalizável com autovalores λ1, . . . , λn e B = {v1, . . . , vn} é uma base correspondente de autovetores. Assuma para m = 1, . . . , n − 1, e defina |λm| > |λm+1| Sm = q 0 1, . . . , q 0 m , Tm = 〈v1, . . . , vm〉 , Um = 〈vm+1, . . . , vn〉 .
- Page 93 and 94: Rodney Josué Biezuner 92 4.2.1 Con
- Page 95 and 96: Rodney Josué Biezuner 94 para t su
- Page 97 and 98: Rodney Josué Biezuner 96 4.7 Corol
- Page 99 and 100: Rodney Josué Biezuner 98 Por outro
- Page 101 and 102: Rodney Josué Biezuner 100 Suponha
- Page 103 and 104: Rodney Josué Biezuner 102 ou Se λ
- Page 105 and 106: Rodney Josué Biezuner 104 Para o c
- Page 107 and 108: Rodney Josué Biezuner 106 Reciproc
- Page 109 and 110: Rodney Josué Biezuner 108 Temos ω
- Page 111 and 112: Rodney Josué Biezuner 110 se ∆x
- Page 113 and 114: Rodney Josué Biezuner 112 A escolh
- Page 115 and 116: Rodney Josué Biezuner 114 a conver
- Page 117 and 118: Rodney Josué Biezuner 116 ou e k+1
- Page 119 and 120: Rodney Josué Biezuner 118 4.31 Cor
- Page 121 and 122: Capítulo 5 Métodos Multigrid 5.1
- Page 123 and 124: Rodney Josué Biezuner 122 6.1 Prop
- Page 125 and 126: Rodney Josué Biezuner 124 é chama
- Page 127 and 128: Rodney Josué Biezuner 126 como vé
- Page 129 and 130: Rodney Josué Biezuner 128 No caso
- Page 131 and 132: Rodney Josué Biezuner 130 Prova. C
- Page 133 and 134: Rodney Josué Biezuner 132 onde é
- Page 135 and 136: Rodney Josué Biezuner 134 7.3 Coro
- Page 137 and 138: Rodney Josué Biezuner 136 Como seg
- Page 139 and 140: Rodney Josué Biezuner 138 Prova. O
- Page 141 and 142: Capítulo 8 Métodos Numéricos par
- Page 143: Rodney Josué Biezuner 142 o maior
- Page 147 and 148: Rodney Josué Biezuner 146 e depois
- Page 149 and 150: Rodney Josué Biezuner 148 8.3.2 Im
- Page 151 and 152: Rodney Josué Biezuner 150 Pode-se
- Page 153 and 154: Rodney Josué Biezuner 152 Observe
- Page 155 and 156: Referências Bibliográficas [Asmar
- Page 157: Rodney Josué Biezuner 156 [Thomas2
Rodney Josué Biezuner 143<br />
Em outras palavras, escolha vetores u1, v1 tais que o máximo<br />
é realiza<strong>do</strong> nestes vetores, e <strong>de</strong>fina<br />
max<br />
u∈E<br />
max<br />
v∈F<br />
u=1 v=1<br />
〈u, v〉<br />
cos θ1 = 〈u1, v1〉 .<br />
Por exemplo, se dim E = 2 e dim F = 1, então θ1 é o maior ângulo que a reta F faz com retas <strong>de</strong> E; se<br />
dim E = dim F = 2, então θ1 é o maior ângulo entre uma reta <strong>de</strong> E e uma reta <strong>de</strong> F . Em seguida, escolha<br />
vetores u2, v2 tais que o máximo<br />
é realiza<strong>do</strong> nestes vetores, e <strong>de</strong>fina<br />
max<br />
u∈E<br />
u=1<br />
〈u,u1〉=0<br />
max<br />
v∈F<br />
v=1<br />
〈v,v1〉=0<br />
〈u, v〉<br />
cos θ2 = 〈u2, v2〉 .<br />
Por exemplo, se dim E = dim F = 2, então θ2 = 0 porque u2 = v2. E assim por diante <strong>de</strong>finimos os ângulos<br />
principais restantes θ3, . . . , θp. Ângulos principais e vetores principais aparecem em aplicações <strong>de</strong> estatística<br />
e permitem a <strong>de</strong>finição <strong>de</strong> uma noção <strong>de</strong> distância entre subespaços vetoriais <strong>de</strong> mesma dimensão.<br />
Definição. Da<strong>do</strong>s <strong>do</strong>is subespaços vetoriais <strong>de</strong> mesma dimensão S1, S2 ⊂ V a distância dist (S1, S2) entre<br />
S1 e S2 é o seno <strong>do</strong> maior ângulo principal entre eles.<br />
Dada uma seqüência <strong>de</strong> subespaços {Sk} ⊂ V e um subespaço T ⊂ V , to<strong>do</strong>s <strong>de</strong> mesma dimensão,<br />
dizemos que Sk converge para T , <strong>de</strong>nota<strong>do</strong> por<br />
se<br />
Sk → T<br />
dist (Sk, T ) → 0.<br />
8.1 Teorema. Seja A ∈ Mn (F) uma matriz diagonalizável com autovalores λ1, . . . , λn ∈ F satisfazen<strong>do</strong><br />
|λ1| |λ2| . . . |λn|<br />
Seja B = {v1, . . . , vn} ⊂ F n uma base <strong>de</strong> autovetores correspon<strong>de</strong>nte. Suponha que |λm| > |λm+1| para<br />
algum m. Sejam<br />
Tm = 〈v1, . . . , vm〉 ,<br />
Um = 〈vm+1, . . . , vn〉 .<br />
Seja S um subespaço m-dimensional qualquer <strong>de</strong> Fn tal que S ∩Um = {0}. Então existe uma constante<br />
C > 0 tal que<br />
dist A k k<br />
λm+1<br />
<br />
S, Tm C <br />
para to<strong>do</strong> k.<br />
Em particular, A k S → Tm.<br />
Prova. Embora não <strong>de</strong>monstraremos o Teorema 8.1 rigorosamente, daremos uma idéia da <strong>de</strong>monstração.<br />
Seja q ∈ S um vetor arbitrário. Então q se escreve <strong>de</strong> maneira única na forma<br />
q =<br />
m<br />
aivi +<br />
i=1<br />
n<br />
i=m+1<br />
λm<br />
aivi =: q1 + q2