Autovalores do Laplaciano - Departamento de Matemática - UFMG
Autovalores do Laplaciano - Departamento de Matemática - UFMG Autovalores do Laplaciano - Departamento de Matemática - UFMG
Rodney Josué Biezuner 145 Assuma também que Sm ∩ Um = {0} para m = 1, . . . , n − 1. Pelo Teorema 8.1, A k Sm = q k 1 , . . . , q k m → Tm com velocidade de convergência igual a |λm+1| / |λm|. Seja Qk a matriz unitária cujas colunas são os vetores ortonormais q k 1 , . . . , q k n e denote Ak = Q ∗ kA Qk. (8.2) Como Ak é similar a A, Ak possui os mesmos autovalores de A. Para k grande, as primeiras m colunas de Qk são próximas ao subespaço invariante Tm. Se estas colunas gerassem exatamente o subespaço Tm, então Ak teria a forma em blocos Ak = k A11 k×k 0 (n−k)×k k A12 k A22 k×(n−k) (n−k)×(n−k) e os autovalores λ1, . . . , λk seriam os autovalores do bloco A k 11. Como estas colunas apenas aproximam Tm, ao invés de um bloco nulo devemos obter um bloco A k 21 cujas entradas são próximas de zero. Pode-se provar que de fato A k 21 → 0. Isso acontece para todo k, de modo que Ak converge para uma matriz triangular, cujos elementos na diagonal principal são os autovalores λ1, . . . , λn de A. Se A for uma matriz hermitiana, então Ak também será hermitiana e Ak convergirá para uma matriz diagonal. O algoritmo QR é uma variante da iteração de subespaços que produz a seqüência (Ak) diretamente. 8.3.1 O Algoritmo QR Para obter o algoritmo QR, vamos colocar a iteração simultânea em forma matricial. Assumiremos que A é invertível. Depois de k iterações, temos os vetores ortonormais qk 1 , . . . , qk n, que são as colunas da matriz unitária Qk, isto é, Qk = qk 1 . . . qk n . (8.4) Denote Bk+1 = A Qk = Aq k 1 . . . Aq k n (8.3) . (8.5) Em seguida, o processo de Gram-Schmidt clássico é aplicado aos vetores linearmente independentes b k+1 1 Aq k 1 , . . . , b k+1 n = Aq k n (daí a hipótese de que A é invertível) para obter vetores ortonormais q k+1 1 = , . . . , q k+1 n que serão as colunas da matriz unitária Qk+1. Para expressar o algoritmo de Gram-Schmidt em forma matricial, lembre-se que para obter vetores ortonormais q1, . . . , qn a partir de vetores linearmente independentes b1, . . . , bn neste processo primeiro ortogonalizamos, obtendo os vetores ortogonais q1 = b1, q2 = b2 − 〈b2, q1〉 〈q1, q1〉 q1, . . m−1 qm = bm − . . qn = bn − j=1 〈bm, qj〉 〈qj, qj〉 qj, n 〈bn, qj〉 〈qj, qj〉 qk+1 j . j=1
Rodney Josué Biezuner 146 e depois normalizamos obtendo os vetores ortonormais q1 = q1 q1 , . . qn = qn qn . Podemos escrever o processo de ortogonalização na forma ou onde m−1 qm = bm − 〈bm, qj〉 qj, qm = qm qm , j=1 m−1 qm = bm − rjmqj, (8.6) qm = 1 rmm j=1 qm, (8.7) rjm = 〈bm, qj〉 , se j = 1, . . . , m − 1, (8.8) rmm = qm . (8.9) Os vetores b1, . . . , bn podem então ser escritos diretamente em função dos vetores q1, . . . , qn: ou seja, bm = m−1 j=1 b1 = r11q1, b2 = r12q1 + r22q2, b3 = r13q1 + r23q2 + r33q3 . . rjmqj + rmmqm, (8.10) bn = r1nq1 + r2nq2 + . . . + rnnqn Em forma matricial, se definirmos rjm = 0 sempre que j > m e considerarmos a matriz triangular superior R = (rij), temos b1 b2 b3 . . . bn = q1 q2 q3 . . . qn ⎡ r11 ⎢ ⎢ 0 ⎢ 0 ⎢ . ⎣ . r12 r22 0 . . r13 r23 r33 . .. . . . . . . . . . . .. r1n r2n r3n . . ⎤ ⎥ ⎦ 0 0 0 . . . rnn
- Page 95 and 96: Rodney Josué Biezuner 94 para t su
- Page 97 and 98: Rodney Josué Biezuner 96 4.7 Corol
- Page 99 and 100: Rodney Josué Biezuner 98 Por outro
- Page 101 and 102: Rodney Josué Biezuner 100 Suponha
- Page 103 and 104: Rodney Josué Biezuner 102 ou Se λ
- Page 105 and 106: Rodney Josué Biezuner 104 Para o c
- Page 107 and 108: Rodney Josué Biezuner 106 Reciproc
- Page 109 and 110: Rodney Josué Biezuner 108 Temos ω
- Page 111 and 112: Rodney Josué Biezuner 110 se ∆x
- Page 113 and 114: Rodney Josué Biezuner 112 A escolh
- Page 115 and 116: Rodney Josué Biezuner 114 a conver
- Page 117 and 118: Rodney Josué Biezuner 116 ou e k+1
- Page 119 and 120: Rodney Josué Biezuner 118 4.31 Cor
- Page 121 and 122: Capítulo 5 Métodos Multigrid 5.1
- Page 123 and 124: Rodney Josué Biezuner 122 6.1 Prop
- Page 125 and 126: Rodney Josué Biezuner 124 é chama
- Page 127 and 128: Rodney Josué Biezuner 126 como vé
- Page 129 and 130: Rodney Josué Biezuner 128 No caso
- Page 131 and 132: Rodney Josué Biezuner 130 Prova. C
- Page 133 and 134: Rodney Josué Biezuner 132 onde é
- Page 135 and 136: Rodney Josué Biezuner 134 7.3 Coro
- Page 137 and 138: Rodney Josué Biezuner 136 Como seg
- Page 139 and 140: Rodney Josué Biezuner 138 Prova. O
- Page 141 and 142: Capítulo 8 Métodos Numéricos par
- Page 143 and 144: Rodney Josué Biezuner 142 o maior
- Page 145: Rodney Josué Biezuner 144 com q1
- Page 149 and 150: Rodney Josué Biezuner 148 8.3.2 Im
- Page 151 and 152: Rodney Josué Biezuner 150 Pode-se
- Page 153 and 154: Rodney Josué Biezuner 152 Observe
- Page 155 and 156: Referências Bibliográficas [Asmar
- Page 157: Rodney Josué Biezuner 156 [Thomas2
Rodney Josué Biezuner 145<br />
Assuma também que Sm ∩ Um = {0} para m = 1, . . . , n − 1. Pelo Teorema 8.1,<br />
A k Sm = q k 1 , . . . , q k <br />
m → Tm<br />
com velocida<strong>de</strong> <strong>de</strong> convergência igual a |λm+1| / |λm|.<br />
Seja Qk a matriz unitária cujas colunas são os vetores ortonormais q k 1 , . . . , q k n e <strong>de</strong>note<br />
Ak = Q ∗ kA Qk. (8.2)<br />
Como Ak é similar a A, Ak possui os mesmos autovalores <strong>de</strong> A. Para k gran<strong>de</strong>, as primeiras m colunas <strong>de</strong><br />
Qk são próximas ao subespaço invariante Tm. Se estas colunas gerassem exatamente o subespaço Tm, então<br />
Ak teria a forma em blocos<br />
Ak =<br />
<br />
k A11 k×k<br />
0 (n−k)×k<br />
<br />
k A12 <br />
k A22 k×(n−k)<br />
(n−k)×(n−k)<br />
e os autovalores λ1, . . . , λk seriam os autovalores <strong>do</strong> bloco A k 11. Como estas colunas apenas aproximam Tm,<br />
ao invés <strong>de</strong> um bloco nulo <strong>de</strong>vemos obter um bloco A k 21 cujas entradas são próximas <strong>de</strong> zero. Po<strong>de</strong>-se provar<br />
que <strong>de</strong> fato A k 21 → 0. Isso acontece para to<strong>do</strong> k, <strong>de</strong> mo<strong>do</strong> que Ak converge para uma matriz triangular, cujos<br />
elementos na diagonal principal são os autovalores λ1, . . . , λn <strong>de</strong> A. Se A for uma matriz hermitiana, então<br />
Ak também será hermitiana e Ak convergirá para uma matriz diagonal.<br />
O algoritmo QR é uma variante da iteração <strong>de</strong> subespaços que produz a seqüência (Ak) diretamente.<br />
8.3.1 O Algoritmo QR<br />
Para obter o algoritmo QR, vamos colocar a iteração simultânea em forma matricial. Assumiremos que A<br />
é invertível. Depois <strong>de</strong> k iterações, temos os vetores ortonormais qk 1 , . . . , qk n, que são as colunas da matriz<br />
unitária Qk, isto é,<br />
Qk = qk 1 . . . qk <br />
n . (8.4)<br />
Denote<br />
Bk+1 = A Qk = Aq k 1 . . . Aq k n<br />
<br />
(8.3)<br />
. (8.5)<br />
Em seguida, o processo <strong>de</strong> Gram-Schmidt clássico é aplica<strong>do</strong> aos vetores linearmente in<strong>de</strong>pen<strong>de</strong>ntes b k+1<br />
1<br />
Aq k 1 , . . . , b k+1<br />
n<br />
= Aq k n (daí a hipótese <strong>de</strong> que A é invertível) para obter vetores ortonormais q k+1<br />
1<br />
=<br />
, . . . , q k+1<br />
n<br />
que serão as colunas da matriz unitária Qk+1.<br />
Para expressar o algoritmo <strong>de</strong> Gram-Schmidt em forma matricial, lembre-se que para obter vetores<br />
ortonormais q1, . . . , qn a partir <strong>de</strong> vetores linearmente in<strong>de</strong>pen<strong>de</strong>ntes b1, . . . , bn neste processo primeiro ortogonalizamos,<br />
obten<strong>do</strong> os vetores ortogonais<br />
q1 = b1,<br />
q2 = b2 − 〈b2, q1〉<br />
〈q1, q1〉 q1,<br />
.<br />
.<br />
m−1 <br />
qm = bm −<br />
.<br />
.<br />
qn = bn −<br />
j=1<br />
〈bm, qj〉<br />
〈qj, qj〉 qj,<br />
n 〈bn, qj〉<br />
〈qj, qj〉 qk+1 j .<br />
j=1