Autovalores do Laplaciano - Departamento de Matemática - UFMG
Autovalores do Laplaciano - Departamento de Matemática - UFMG
Autovalores do Laplaciano - Departamento de Matemática - UFMG
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Notas <strong>de</strong> Aula<br />
<strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong><br />
Rodney Josué Biezuner 1<br />
<strong>Departamento</strong> <strong>de</strong> <strong>Matemática</strong><br />
Instituto <strong>de</strong> Ciências Exatas (ICEx)<br />
Universida<strong>de</strong> Fe<strong>de</strong>ral <strong>de</strong> Minas Gerais (<strong>UFMG</strong>)<br />
Notas <strong>de</strong> aula <strong>do</strong> curso Tópicos em Análise: <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong> <strong>do</strong> Programa<br />
<strong>de</strong> Pós-Graduação em <strong>Matemática</strong>, ministra<strong>do</strong> durante o segun<strong>do</strong> semestre <strong>do</strong> ano <strong>de</strong> 2006.<br />
16 <strong>de</strong> novembro <strong>de</strong> 2006<br />
1 E-mail: rodney@mat.ufmg.br; homepage: http://www.mat.ufmg.br/∼rodney.
Sumário<br />
1 Os <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong> 4<br />
1.1 Motivação para o Estu<strong>do</strong> <strong>do</strong>s <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong> . . . . . . . . . . . . . . . . . . . . . 4<br />
1.1.1 Méto<strong>do</strong> <strong>de</strong> Expansão em Autofunções . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />
1.1.2 Problema Isospectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
1.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />
1.3 Princípio <strong>do</strong> Máximo Fraco: O <strong>Laplaciano</strong> não possui <strong>Autovalores</strong> Negativos . . . . . . . . . 10<br />
1.4 Méto<strong>do</strong>s Variacionais para <strong>Autovalores</strong> <strong>de</strong> Opera<strong>do</strong>res Lineares . . . . . . . . . . . . . . . . . 12<br />
1.5 Os Espaços <strong>de</strong> Sobolev W 1,2 e W 1,2<br />
0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />
1.5.1 A Derivada Fraca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />
1.5.2 Espaços <strong>de</strong> Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />
1.5.3 Proprieda<strong>de</strong>s <strong>do</strong>s Espaços <strong>de</strong> Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />
1.6 Existência e Unicida<strong>de</strong> <strong>de</strong> Soluções para o <strong>Laplaciano</strong> através <strong>do</strong> Méto<strong>do</strong> Variacional . . . . . 18<br />
1.6.1 Soluções Fracas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />
1.6.2 Existência, Unicida<strong>de</strong> e Regularida<strong>de</strong> <strong>de</strong> Soluções Fracas . . . . . . . . . . . . . . . . . 18<br />
1.7 O Espectro <strong>do</strong> <strong>Laplaciano</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />
1.7.1 Existência e Caracterização Variacional <strong>do</strong>s <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong> . . . . . . . . . 21<br />
1.7.2 Comparação <strong>de</strong> <strong>Autovalores</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />
1.8 Conjunto Nodal e Domínios Nodais <strong>de</strong> uma Autofunção . . . . . . . . . . . . . . . . . . . . . 30<br />
1.8.1 Princípio <strong>do</strong> Máximo Forte: o Primeiro Autovalor <strong>do</strong> <strong>Laplaciano</strong> é Simples . . . . . . 30<br />
1.8.2 Conjunto Nodal e Domínios Nodais <strong>de</strong> Autofunções <strong>do</strong> <strong>Laplaciano</strong> . . . . . . . . . . . 32<br />
1.9 Multiplicida<strong>de</strong> <strong>do</strong>s <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />
2 Méto<strong>do</strong> <strong>de</strong> Diferenças Finitas 39<br />
2.1 O Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39<br />
2.1.1 Séries <strong>de</strong> Taylor e Diferenças Finitas em Uma Dimensão . . . . . . . . . . . . . . . . . 39<br />
2.1.2 Discretização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />
2.1.3 Resolução Numérica <strong>do</strong> Problema <strong>de</strong> Autovalor Unidimensional . . . . . . . . . . . . . 42<br />
2.2 O Caso Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />
2.2.1 A Fórmula <strong>do</strong>s Cinco Pontos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />
2.2.2 Existência e Unicida<strong>de</strong> da Solução Discreta – <strong>Autovalores</strong> <strong>do</strong> Problema Bidimensional 47<br />
2.2.3 Princípio <strong>do</strong> Máximo Discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />
2.2.4 Convergência da Solução Discreta para a Solução Clássica . . . . . . . . . . . . . . . . 51<br />
2.3 Discretizações <strong>de</strong> Or<strong>de</strong>m Superior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />
2.3.1 Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />
2.3.2 Caso Bidimensional: A Fórmula <strong>do</strong>s Nove Pontos Compacta . . . . . . . . . . . . . . 56<br />
2.4 Diferenças Finitas em Coor<strong>de</strong>nadas Polares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />
2.5 Domínios Arbitrários . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65<br />
2.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67<br />
1
Rodney Josué Biezuner 2<br />
3 Existência e Unicida<strong>de</strong> <strong>de</strong> Soluções Discretas 69<br />
3.1 Normas Matriciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69<br />
3.2 Matrizes Diagonalmente Dominantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72<br />
3.3 Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73<br />
3.4 Proprieda<strong>de</strong> FC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76<br />
3.5 Matrizes Irredutíveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81<br />
3.6 Invertibilida<strong>de</strong> <strong>de</strong> Matrizes <strong>de</strong> Discretização . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83<br />
3.6.1 Esquemas <strong>de</strong> Diferenças Finitas para o Intervalo e para o Retângulo . . . . . . . . . . 84<br />
3.6.2 Esquema <strong>de</strong> Coor<strong>de</strong>nadas Polares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84<br />
3.6.3 Esquema <strong>de</strong> Shortley-Weller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85<br />
4 Méto<strong>do</strong>s Iterativos para a Resolução <strong>de</strong> Sistemas Lineares 86<br />
4.1 Méto<strong>do</strong>s Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86<br />
4.1.1 Méto<strong>do</strong> <strong>de</strong> Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />
4.1.2 Méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88<br />
4.1.3 Méto<strong>do</strong> SOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88<br />
4.1.4 Comparação da Velocida<strong>de</strong> <strong>de</strong> Convergência <strong>do</strong>s Três Méto<strong>do</strong>s . . . . . . . . . . . . . 89<br />
4.1.5 Méto<strong>do</strong> <strong>de</strong> Jacobi Amorteci<strong>do</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90<br />
4.2 Análise <strong>de</strong> Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . 91<br />
4.2.1 Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . . . 92<br />
4.2.2 Velocida<strong>de</strong> <strong>de</strong> Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares . . . . . . . . . . . . . . 94<br />
4.2.3 Convergência para Matrizes Simétricas Positivas Definidas . . . . . . . . . . . . . . . . 96<br />
4.3 Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares para as Matrizes <strong>de</strong> Discretização . . . . . . . 97<br />
4.3.1 Convergência <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97<br />
4.3.2 Convergência <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l . . . . . . . . . . . . . . . . . . . . . . . . . 99<br />
4.3.3 Convergência <strong>do</strong> Méto<strong>do</strong> SOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />
4.3.4 Convergência <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Jacobi Amorteci<strong>do</strong> . . . . . . . . . . . . . . . . . . . . . . 109<br />
4.3.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110<br />
4.4 Méto<strong>do</strong> <strong>do</strong> Gradiente Conjuga<strong>do</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110<br />
4.4.1 Méto<strong>do</strong>s <strong>de</strong> Descida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111<br />
4.4.2 Méto<strong>do</strong> da Descida Mais Acentuada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113<br />
4.4.3 Méto<strong>do</strong> <strong>do</strong> Gradiente Conjuga<strong>do</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114<br />
5 Méto<strong>do</strong>s Multigrid 120<br />
5.1 Suavização <strong>de</strong> Erros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />
5.2 Opera<strong>do</strong>r Restrição e Opera<strong>do</strong>r Extensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />
5.3 Ciclos V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />
5.4 Multigrid Completo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />
5.5 Convergência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />
5.6 Multigrid Adaptativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />
5.7 Multigrid Algébrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />
6 Méto<strong>do</strong> <strong>de</strong> Elementos Finitos 121<br />
6.1 O Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121<br />
6.1.1 Formulação Variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121<br />
6.1.2 Elementos Finitos Lineares por Partes . . . . . . . . . . . . . . . . . . . . . . . . . . . 123<br />
6.2 O Caso Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124<br />
6.2.1 Formulação Variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125<br />
6.2.2 Triangulações e Elementos Finitos Lineares por Partes . . . . . . . . . . . . . . . . . . 125<br />
6.2.3 Interpretação Geométrica <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Elementos Finitos . . . . . . . . . . . . . . . 127<br />
6.3 Formulação Abstrata <strong>do</strong> Méto<strong>do</strong> <strong>do</strong>s Elementos Finitos . . . . . . . . . . . . . . . . . . . . . 127
Rodney Josué Biezuner 3<br />
7 Aproximação <strong>de</strong> <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong> 131<br />
7.1 Elementos Finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131<br />
7.1.1 Resulta<strong>do</strong>s Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132<br />
7.1.2 Convergência <strong>do</strong>s <strong>Autovalores</strong> Discretos para os <strong>Autovalores</strong> Contínuos . . . . . . . . 137<br />
7.1.3 Convergência das Autofunções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138<br />
8 Méto<strong>do</strong>s Numéricos para a Obtenção <strong>de</strong> <strong>Autovalores</strong> <strong>de</strong> Matrizes 140<br />
8.1 Méto<strong>do</strong> das Potências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140<br />
8.1.1 Iteração Inversa e Iteração com Deslocamento . . . . . . . . . . . . . . . . . . . . . . . 141<br />
8.2 Iteração <strong>de</strong> Subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142<br />
8.3 Méto<strong>do</strong> QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144<br />
8.3.1 O Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145<br />
8.3.2 Implementação Eficiente <strong>do</strong> Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . 148<br />
8.4 Méto<strong>do</strong>s para Matrizes Esparsas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149<br />
8.4.1 Processo <strong>de</strong> Arnoldi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149<br />
8.4.2 Representação Matricial <strong>do</strong> Processo <strong>de</strong> Arnoldi . . . . . . . . . . . . . . . . . . . . . 151<br />
8.4.3 Méto<strong>do</strong> <strong>de</strong> Lanczos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
Capítulo 1<br />
Os <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong><br />
Seja Ω ⊂ R n um aberto limita<strong>do</strong>. O problema <strong>de</strong> autovalor para o laplaciano consiste em encontrar os valores<br />
λ tais que<br />
−∆u = λu em Ω (1.1)<br />
admite soluções não triviais, com alguma condição <strong>de</strong> fronteira imposta sobre u. A equação <strong>de</strong> autovalor <strong>do</strong><br />
laplaciano também é conhecida como equação <strong>de</strong> Helmholtz. Nestas notas, consi<strong>de</strong>raremos o problema <strong>de</strong><br />
autovalor com condição <strong>de</strong> Dirichlet<br />
<br />
−∆u = λu em Ω,<br />
(1.2)<br />
u = 0 sobre ∂Ω,<br />
e o problema <strong>de</strong> autovalor com condição <strong>de</strong> Neumann<br />
⎧<br />
⎨<br />
⎩<br />
−∆u = λu em Ω,<br />
∂u<br />
∂η<br />
= 0 sobre ∂Ω.<br />
O problema é tradicionalmente escrito nesta forma, com o sinal negativo multiplican<strong>do</strong> o laplaciano, porque<br />
assim to<strong>do</strong>s os autovalores são não-negativos. No caso <strong>do</strong> problema <strong>de</strong> Dirichlet, este fato segue imediatamente<br />
<strong>do</strong> princípio <strong>do</strong> máximo. De fato, este implica que to<strong>do</strong>s os autovalores, se existirem, <strong>de</strong>vem ser<br />
positivos, como veremos neste capítulo. Por outro la<strong>do</strong>, zero é um autovalor no problema <strong>de</strong> Neumann, pois<br />
as funções constantes são autofunções associadas a este.<br />
1.1 Motivação para o Estu<strong>do</strong> <strong>do</strong>s <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong><br />
1.1.1 Méto<strong>do</strong> <strong>de</strong> Expansão em Autofunções<br />
Vários problemas <strong>de</strong> equações diferenciais parciais po<strong>de</strong>m ser resolvi<strong>do</strong>s através <strong>do</strong> chama<strong>do</strong> méto<strong>do</strong> <strong>de</strong><br />
expansão em autofunções <strong>do</strong> laplaciano.<br />
Consi<strong>de</strong>re o seguinte problema <strong>de</strong> Dirichlet para a equação da onda em um aberto limita<strong>do</strong> Ω ⊂ R n :<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
utt = c 2 ∆u se x ∈ Ω e t > 0,<br />
u (x, 0) = f (x) se x ∈ Ω,<br />
ut (x, 0) = g (x) se x ∈ Ω,<br />
u (x, t) = 0 se x ∈ ∂Ω e t 0,<br />
on<strong>de</strong> c ∈ R, f ∈ C 2 Ω e g ∈ C 1 Ω . Se Ω ⊂ R 2 , então este problema mo<strong>de</strong>la as vibrações transversais<br />
<strong>de</strong> baixa amplitu<strong>de</strong> <strong>de</strong> uma membrana fina fixada em um aro com o formato <strong>de</strong> ∂Ω: se ∂Ω é um retângulo,<br />
4<br />
(1.3)
Rodney Josué Biezuner 5<br />
estamos estudan<strong>do</strong> as vibrações <strong>de</strong> uma membrana retangular; se ∂Ω é um círculo, o estu<strong>do</strong> é o <strong>de</strong> uma<br />
membrana circular (um tambor usual), e assim por diante. Este problema po<strong>de</strong> ser resolvi<strong>do</strong> pelo méto<strong>do</strong><br />
<strong>de</strong> separação <strong>de</strong> variáveis: supomos que a solução <strong>do</strong> problema po<strong>de</strong> ser escrita na forma<br />
u (x, t) = F (x) G (t) , x ∈ Ω e t 0.<br />
Substituin<strong>do</strong> esta expressão na equação da onda, obtemos<br />
Separan<strong>do</strong> as variáveis, segue que<br />
F (x) G ′′ (t) = c 2 ∆F (x) G (t) .<br />
∆F (x)<br />
F (x)<br />
1<br />
=<br />
c2 G ′′ (t)<br />
= −λ<br />
G (t)<br />
on<strong>de</strong> λ ∈ R é alguma constante a ser <strong>de</strong>terminada. Como em geral G (t) não é a função i<strong>de</strong>nticamente nula,<br />
a condição <strong>de</strong> fronteira implica que F (x) = 0 para x ∈ ∂Ω. Portanto, a função F satisfaz o problema <strong>de</strong><br />
Dirichlet para a equação <strong>de</strong> Laplace<br />
−∆F (x) = λF (x) se x ∈ Ω,<br />
F (x) = 0 se x ∈ ∂Ω,<br />
ou seja, λ é um autovalor <strong>do</strong> laplaciano em Ω. Como veremos, os autovalores <strong>do</strong> laplaciano em Ω formam<br />
um conjunto enumerável {λn} n∈N e existe um conjunto associa<strong>do</strong> <strong>de</strong> autofunções {Fn} n∈N que constitui uma<br />
base <strong>de</strong> Schau<strong>de</strong>r (em outras palavras, um conjunto ortonormal completo) para L 2 (Ω). A solução geral para<br />
a equação diferencial ordinária<br />
G ′′ (t) = −λnc 2 G (t)<br />
é<br />
Logo, a solução <strong>do</strong> problema da onda é<br />
u (x, t) =<br />
Gn(t) = an cos λnt + bn sen λnt.<br />
∞ <br />
an cos λnt + bn sen <br />
λnt Fn (x) ,<br />
n=1<br />
on<strong>de</strong> os coeficientes an, bn são <strong>de</strong>termina<strong>do</strong>s pelas condições iniciais (posição inicial e velocida<strong>de</strong> inicial da<br />
membrana):<br />
f (x) =<br />
g (x) =<br />
∞<br />
anFn (x) ,<br />
n=1<br />
∞<br />
n=1<br />
bn<br />
λnFn (x) ,<br />
ou seja, usan<strong>do</strong> as relações <strong>de</strong> ortonormalida<strong>de</strong> das funções Fn,<br />
<br />
an = f(x)Fn (x) dx,<br />
Ω<br />
bn = 1<br />
<br />
√ f(x)Fn (x) dx.<br />
λn Ω<br />
Assim, no caso bidimensional, os autovalores <strong>do</strong> laplaciano correspon<strong>de</strong>m às freqüências naturais <strong>de</strong> vibração<br />
<strong>de</strong> uma membrana, enquanto que as autofunções associadas correspon<strong>de</strong>m aos mo<strong>do</strong>s naturais <strong>de</strong> vibração<br />
da membrana. Estas idéias se generalizam para fenômenos vibratórios em três ou mais dimensões.
Rodney Josué Biezuner 6<br />
O méto<strong>do</strong> <strong>de</strong> expansão em autofunções também po<strong>de</strong> ser usa<strong>do</strong> para resolver o problema <strong>de</strong> Neumann<br />
da equação da onda ou outros problemas mais gerais. Nestes casos, <strong>de</strong>vem ser busca<strong>do</strong>s os autovalores <strong>do</strong><br />
laplaciano <strong>de</strong> acor<strong>do</strong> com a condição <strong>de</strong> fronteira consi<strong>de</strong>rada.<br />
O méto<strong>do</strong> <strong>de</strong> expansão em autofunções também po<strong>de</strong> ser usa<strong>do</strong> para resolver o problema <strong>do</strong> calor com<br />
as condições <strong>de</strong> fronteira apropriadas. Por exemplo, para o problema <strong>de</strong> Dirichlet<br />
a solução é dada por<br />
⎧<br />
⎨<br />
⎩<br />
ut = K∆u se x ∈ Ω e t > 0,<br />
u (x, 0) = f (x) se x ∈ Ω,<br />
u (x, t) = 0 se x ∈ ∂Ω e t 0,<br />
u (x, t) =<br />
∞<br />
n=1<br />
ane −√ λnKt Fn (x) ,<br />
on<strong>de</strong> os coeficientes an são <strong>de</strong>termina<strong>do</strong>s pelas condição inicial (distribuição <strong>de</strong> temperaturas inicial na placa<br />
bidimensional ou no objeto tridimensional):<br />
isto é,<br />
1.1.2 Problema Isospectral<br />
f (x) =<br />
∞<br />
anFn (x) ,<br />
n=1<br />
<br />
an = f(x)Fn (x) dx.<br />
Ω<br />
Dada uma varieda<strong>de</strong> Riemanniana compacta com fronteira (M, g), po<strong>de</strong>-se <strong>de</strong>finir um opera<strong>do</strong>r laplaciano<br />
∆gu = div (∇u). Em coor<strong>de</strong>nadas locais, ele é um opera<strong>do</strong>r elíptico. Como no caso <strong>de</strong> abertos <strong>de</strong> R n , o<br />
laplaciano em varieda<strong>de</strong>s possui uma seqüência <strong>de</strong> autovalores (o seu espectro). Dizemos que duas varieda<strong>de</strong>s<br />
Riemannianas são isospectrais se seus espectros coincidirem, contan<strong>do</strong> multiplicida<strong>de</strong>s. Uma questão natural<br />
é a seguinte: duas varieda<strong>de</strong>s Riemannianas isospectrais são isométricas? Se consi<strong>de</strong>rarmos varieda<strong>de</strong>s ndimensionais<br />
contida em R n sob a métrica euclidiana, duas varieda<strong>de</strong>s serem isométricas é equivalente a<br />
elas serem congruentes <strong>do</strong> ponto <strong>de</strong> vista da geometria euclidiana clássica. Esta questão para <strong>do</strong>mínios<br />
planos foi colocada <strong>de</strong> maneira mais colorida por Bers e Kac em 1966 ([Kac]; o último atribui o problema<br />
a Bochner em mea<strong>do</strong>s <strong>do</strong>s anos 1950s) como “é possível escutar o formato <strong>de</strong> um tambor?”, já que no caso<br />
<strong>de</strong> <strong>do</strong>mínios no plano os autovalores <strong>do</strong> laplaciano correspon<strong>de</strong>m ao quadra<strong>do</strong> das freqüências naturais <strong>de</strong><br />
vibração produzidas por uma membrana, como vimos na seção anterior. Po<strong>de</strong>-se traçar as origens <strong>de</strong>sta<br />
especulação ao resulta<strong>do</strong> obti<strong>do</strong> por Weyl em 1911 [Weyl] <strong>de</strong> que a área <strong>de</strong> um <strong>do</strong>mínio plano é <strong>de</strong>terminada<br />
pelo espectro <strong>do</strong> laplaciano; em particular, <strong>do</strong>mínios com diferentes áreas nunca po<strong>de</strong>m ter o mesmo espectro.<br />
Sabe-se também que o espectro <strong>de</strong>termina o perímetro e o número <strong>de</strong> componentes conexas <strong>de</strong> um <strong>do</strong>mínio<br />
plano (veja [Kac] para referências). Kac, usan<strong>do</strong> a <strong>de</strong>sigualda<strong>de</strong> perimétrica (perímetro(Ω) 4π área(Ω)) e<br />
o fato que a área e o perímetro são <strong>de</strong>terminadas pelo espectro <strong>do</strong> laplaciano, conseguiu provar que se um<br />
<strong>do</strong>mínio plano possui o mesmo espectro <strong>de</strong> um disco <strong>de</strong> raio r, então ele é congruente ao disco, mostran<strong>do</strong><br />
que existem <strong>do</strong>mínios que são <strong>de</strong>termina<strong>do</strong>s pelo espectro <strong>do</strong> laplaciano.<br />
No entanto, a resposta a este problema no caso geral é negativa: o formato <strong>de</strong> um tambor não é audível.<br />
No caso <strong>de</strong> varieda<strong>de</strong>s Riemannianas, Milnor já havia construí<strong>do</strong> em 1964 [Milnor] um par <strong>de</strong> varieda<strong>de</strong>s<br />
isospectrais não-isométricas <strong>de</strong> dimensão 16; vários outros exemplos se seguiram, incluin<strong>do</strong> superfícies <strong>de</strong><br />
Riemann (veja [GWW1] e [Protter], para referências) até que em 1980 Vignéras [Vigneras] obteve exemplos<br />
<strong>de</strong> varieda<strong>de</strong>s compactas isospectrais não-isométricas <strong>de</strong> qualquer dimensão n 2. Entretanto, a questão <strong>de</strong><br />
Kac para <strong>do</strong>mínios no plano permaneceu em aberta até 1992, quan<strong>do</strong> Gor<strong>do</strong>n, Webb e Wolpert ([GWW1];<br />
veja [GWW2] para os <strong>de</strong>talhes completos), usan<strong>do</strong> resulta<strong>do</strong>s <strong>de</strong> teoria <strong>de</strong> espaços <strong>de</strong> recobrimento e teoria<br />
<strong>do</strong>s grupos, obtiveram um par <strong>de</strong> <strong>do</strong>mínios planos simplesmente conexos não-isométricos com os mesmos
Rodney Josué Biezuner 7<br />
espectros <strong>de</strong> Dirichlet e <strong>de</strong> Neumann. Os contra-exemplos que eles obtiveram têm o formato <strong>de</strong> uma região<br />
poligonal, não-convexa, e o méto<strong>do</strong> permite a obtenção <strong>de</strong> uma larga coleção <strong>de</strong> contra-exemplos. Os<br />
primeiros 54 autovalores <strong>do</strong> primeiro contra-exemplo <strong>de</strong> Gor<strong>do</strong>n, Webb e Wolpert, que ficou conheci<strong>do</strong> como<br />
os tambores GWW, foram encontra<strong>do</strong>s experimentalmente por Sridhar e Kudrolli [Sridhar-Kudrolli]; eles<br />
construíram cavida<strong>de</strong>s <strong>de</strong> microondas com o formato da região poligonal e mediram ressonâncias em ondas<br />
magnéticas transversais, que obe<strong>de</strong>cem a equação <strong>de</strong> Helmoltz. Posteriormente, vários autores calcularam<br />
autovalores e autofunções <strong>do</strong>s tambores GWW através <strong>de</strong> méto<strong>do</strong>s numéricos; veja [Driscoll], [Heuveline] e<br />
as referências nestes artigos.<br />
Uma <strong>de</strong>monstração mais simples e versátil <strong>do</strong> resulta<strong>do</strong> <strong>de</strong> Gor<strong>do</strong>n, Webb e Wolpert, foi dada por Berard<br />
[Berard2], usan<strong>do</strong> a chamada técnica <strong>de</strong> transplantação <strong>de</strong> autofunções, introduzida pelo próprio [Berard1].<br />
Os <strong>do</strong>mínios são construí<strong>do</strong>s a partir <strong>de</strong> translações, rotações e reflexões <strong>de</strong> uma única forma, tal como um<br />
triângulo, sem sobreposições. Dada uma autofunção em um <strong>do</strong>mínio, po<strong>de</strong>-se prescrever uma função sobre<br />
o outro <strong>do</strong>mínio cujos valores sobre cada parte são combinações lineares <strong>do</strong>s valores da autofunção sobre<br />
várias das partes <strong>do</strong> primeiro <strong>do</strong>mínio. As combinações são escolhidas <strong>de</strong> mo<strong>do</strong> a satisfazer as condições<br />
<strong>de</strong> fronteira e igualar valores da função e suas <strong>de</strong>rivadas nas interfaces entre as partes. O resulta<strong>do</strong> é uma<br />
autofunção na segunda região ten<strong>do</strong> o mesmo autovalor. Para completar a prova <strong>de</strong> isospectralida<strong>de</strong>, basta<br />
mostrar que o procedimento é invertível. Usan<strong>do</strong> esta técnica, Chapman [Chapman] obteve alguns exemplos<br />
que po<strong>de</strong>m ser explica<strong>do</strong>s em nível elementar através <strong>de</strong> <strong>do</strong>braduras <strong>de</strong> papel e até mesmo um exemplo on<strong>de</strong><br />
os autovalores <strong>do</strong> laplaciano po<strong>de</strong>m ser calcula<strong>do</strong>s explicitamente (este exemplo consiste <strong>de</strong> <strong>do</strong>is <strong>do</strong>mínios<br />
cada um com duas componentes conexas, um retângulo e um triângulo isósceles reto; veja Exemplo 4 na<br />
próxima seção).<br />
To<strong>do</strong>s os contra-exemplos da<strong>do</strong>s nas referências acima são <strong>de</strong> <strong>do</strong>mínios não-convexos ou com quinas.<br />
Watanabe ([Wat1], [Wat2]) <strong>de</strong>terminou a existência <strong>de</strong> uma classe não-enumerável <strong>de</strong> <strong>do</strong>mínios suaves que<br />
não é um disco (incluin<strong>do</strong> exemplos convexos e não-convexos) que são <strong>de</strong>termina<strong>do</strong>s pelos espectros <strong>de</strong> Dirichlet<br />
ou <strong>de</strong> Neumann <strong>do</strong> laplaciano. Outros exemplos <strong>de</strong> <strong>do</strong>mínios <strong>de</strong>termina<strong>do</strong>s pelo espectro <strong>do</strong> laplaciano,<br />
com a proprieda<strong>de</strong> adicional <strong>de</strong> serem analíticos reais e simétricos com respeito a reflexões em relação a um<br />
eixo horizontal e a um eixo vertical, foram da<strong>do</strong>s por Zelditch [Zelditch]. A i<strong>de</strong>ntificação <strong>de</strong> todas as classes<br />
<strong>de</strong> <strong>do</strong>mínios que são <strong>de</strong>termina<strong>do</strong>s pelo espectro <strong>do</strong> laplaciano é um problema em aberto.<br />
1.2 Exemplos<br />
Exemplo 1. Os autovalores <strong>do</strong> laplaciano para o problema <strong>de</strong> Dirichlet no caso unidimensional<br />
−u ′′ = λu em [0, L] ,<br />
são<br />
As autofunções correspon<strong>de</strong>ntes são<br />
<br />
u (0) = u (L) = 0,<br />
λn = n2π2 , n ∈ N.<br />
L2 un (x) = sen nπx<br />
L .<br />
Exemplo 2. Os autovalores <strong>do</strong> laplaciano para o problema <strong>de</strong> Dirichlet no retângulo R = [0, a] × [0, b] ⊂ R 2<br />
são<br />
− (uxx + uyy) = λu em R,<br />
u = 0 sobre ∂R,<br />
λnm = π 2<br />
2 n m2<br />
+<br />
a2 b2 <br />
, n, m ∈ N.
Rodney Josué Biezuner 8<br />
As autofunções correspon<strong>de</strong>ntes são<br />
<br />
unm (x, y) = sen nπx<br />
a<br />
mπy<br />
sen .<br />
b<br />
Exemplo 3. Os autovalores <strong>do</strong> laplaciano para o problema <strong>de</strong> Dirichlet em um triângulo isósceles reto<br />
T ⊂ R 2 com la<strong>do</strong> menor <strong>de</strong> comprimento c<br />
− (uxx + uyy) = λu em T,<br />
u = 0 sobre ∂T,<br />
são<br />
As autofunções correspon<strong>de</strong>ntes são<br />
<br />
λnm = π 2<br />
2 n m2<br />
+<br />
c2 c2 <br />
, n, m ∈ N.<br />
unm (x, y) = sen nπx<br />
c<br />
sen mπy<br />
c<br />
− sen mπx<br />
c<br />
sen nπy<br />
c .<br />
Exemplo 4. [Chapman] A partir <strong>do</strong>s Exemplos 2 e 3 po<strong>de</strong>mos construir <strong>do</strong>is <strong>do</strong>mínios planos isospectrais<br />
Ω1 e Ω2 que não são isométricos. De fato, cada Ωi é a união disjunta <strong>de</strong> um retângulo e um triângulo<br />
isósceles reto:<br />
Ω1 = R1 ∪ T1,<br />
Ω2 = R2 ∪ T2,<br />
on<strong>de</strong> R1 é um quadra<strong>do</strong> unitário, R2 é um retângulo <strong>de</strong> comprimento 2 e altura 1 e T1 e T2 são triângulos<br />
isósceles √ retos, os la<strong>do</strong>s menores <strong>do</strong> primeiro ten<strong>do</strong> comprimento 2 e os <strong>do</strong> segun<strong>do</strong> com comprimento<br />
2. Os autovalores <strong>de</strong> um <strong>do</strong>mínio que é a união disjunta <strong>de</strong> várias componentes conexas (incluin<strong>do</strong><br />
as fronteiras <strong>de</strong> cada componente) é a união <strong>do</strong>s autovalores <strong>de</strong> cada componente, as autofunções <strong>do</strong><br />
<strong>do</strong>mínio sen<strong>do</strong> as funções que são iguais às autofunções em cada componente e zero nas <strong>de</strong>mais. De<br />
acor<strong>do</strong> com os Exemplos 2 e 3, segue que os espectros <strong>do</strong>s <strong>do</strong>mínios Ω1 e Ω2 são da<strong>do</strong>s por<br />
ΛΩ1 = π 2 n 2 + m 2<br />
n,m∈N ∪<br />
ΛΩ2 =<br />
<br />
π 2<br />
<br />
2 N 2<br />
+ M<br />
4<br />
N,M∈N<br />
<br />
π 2<br />
ΛΩ2 ⊂ ΛΩ1: Seja λ ∈ ΛΩ2 um autovalor da forma π2 2 N 2 + M<br />
2<br />
n = N<br />
2<br />
e m = M, obten<strong>do</strong> N 2<br />
2 N<br />
min (N, 2M), produzin<strong>do</strong><br />
<br />
2 n m2<br />
+ ,<br />
4 4 n,m∈N<br />
<br />
∪ π 2<br />
<br />
2 2 N M<br />
+ .<br />
2 2 N,M∈N<br />
<br />
, N, M ∈ N. Se N é par, tomamos<br />
4 + M 2 = n 2 + m 2 ; se N é ímpar, escolhemos n = max (N, 2M), m =<br />
4 +M 2 = n2<br />
4<br />
+ m2<br />
4 . Se λ ∈ ΛΩ2 é um autovalor da forma π 2<br />
N, M ∈ N, escolhemos n = N + M e m = |N − M|, <strong>de</strong> mo<strong>do</strong> que<br />
N 2<br />
2<br />
+ M 2<br />
2<br />
= n2<br />
4<br />
N 2<br />
+ m2<br />
4 .<br />
2<br />
+ M 2<br />
2<br />
ΛΩ1 ⊂ ΛΩ2: Se λ ∈ ΛΩ1 é um autovalor da forma π2 n2 + m2 , n, m ∈ N, escolhemos N = 2n<br />
e M = m, obten<strong>do</strong> n2 + m2 2 N<br />
=<br />
4 + M 2 . Seja λ ∈ ΛΩ2 um autovalor da forma π2 <br />
2 n m2<br />
+ ,<br />
4 4<br />
<br />
,
Rodney Josué Biezuner 9<br />
n, m ∈ N. Se n é par, tomamos N = m e M = n<br />
n2<br />
, <strong>de</strong> mo<strong>do</strong> que<br />
2 4<br />
tomamos N = n e M = m<br />
para produzir o mesmo resulta<strong>do</strong>.<br />
2<br />
Portanto,<br />
ΛΩ1 = ΛΩ2<br />
+ m2<br />
4<br />
= N 2<br />
4 + M 2 ; se m é par,<br />
embora Ω1 e Ω2 não sejam congruentes. Observe que, como requer o resulta<strong>do</strong> obti<strong>do</strong> por Weil<br />
(discuti<strong>do</strong> na seção anterior), Ω1 e Ω2 possuem a mesma área igual a 2, o mesmo perímetro igual a<br />
8 + 2 √ 2 e obviamente o mesmo número <strong>de</strong> componentes conexas. <br />
Exemplo 5. Os autovalores <strong>do</strong> laplaciano para o problema <strong>de</strong> Dirichlet no paralelepípe<strong>do</strong> P = [0, a]×[0, b]×<br />
[0, c] ⊂ R 3<br />
− (uxx + uyy + uzz) = λu em P,<br />
u = 0 sobre ∂P,<br />
são<br />
As autofunções correspon<strong>de</strong>ntes são<br />
<br />
λnmk = π 2<br />
2 n<br />
a<br />
b<br />
c 2<br />
m2 k2<br />
+ + 2 2<br />
unmk (x, y) = sen nπx<br />
a<br />
<br />
, n, m, k ∈ N.<br />
sen mπy<br />
b<br />
sen kπz<br />
c .<br />
Exemplo 6. Os autovalores <strong>do</strong> laplaciano para o problema <strong>de</strong> Dirichlet no disco D = x ∈ R 2 : x R <br />
são<br />
⎧<br />
⎨<br />
⎩<br />
<br />
− urr + 1<br />
r ur + + 1<br />
<br />
uθθ = λu<br />
r2 se 0 < r < 1 e 0 < θ < 2π,<br />
u = 0 se r = R e 0 < θ < 2π,<br />
λnm =<br />
<br />
αn,m<br />
2<br />
, n = 0, 1, 2, . . . , m = 1, 2, . . .<br />
R<br />
on<strong>de</strong> αn,m é o m-ésimo zero positivo da função <strong>de</strong> Bessel <strong>do</strong> primeiro tipo Jn<br />
As autofunções correspon<strong>de</strong>ntes são<br />
Jn(r) =<br />
u0m (r, θ) = J0 (λ0mr) ,<br />
∞<br />
k=0<br />
(−1) k<br />
k!(k + n)!<br />
<br />
r<br />
2k+n .<br />
2<br />
u 1 nm (r, θ) = cos nθJn (λnmr) e u 2 nm (r, θ) = sen nθJn (λnmr) .<br />
Note que para m = 1, 2, . . . temos duas autofunções distintas para um da<strong>do</strong> autovalor, isto é, tais<br />
autovalores têm multiplicida<strong>de</strong> pelo menos igual a 2. <br />
Exemplo 7. Os autovalores <strong>do</strong> laplaciano para o problema <strong>de</strong> Dirichlet na bola B = x ∈ R3 : x R <br />
⎧<br />
⎨<br />
⎩<br />
são<br />
<br />
− urr + 2<br />
r ur + 1<br />
r2 <br />
uθθ + cot θ uθ + csc2 <br />
θuφφ<br />
<br />
= λu se 0 < r < 1, 0 < θ < 2π e 0 < φ < π<br />
u = 0 se r = R, 0 < θ < 2π e 0 < φ < π<br />
λnm =<br />
<br />
αn+ 1<br />
2 ,m<br />
2 , n = 0, 1, 2, . . . , m = 1, 2, . . .<br />
R
Rodney Josué Biezuner 10<br />
on<strong>de</strong> α 1 n+ 2 ,m é o m-ésimo zero positivo da função <strong>de</strong> Bessel <strong>do</strong> primeiro tipo J 1 n+ 2<br />
J 1 n+ (r) =<br />
2<br />
∞<br />
k=0<br />
(−1) k<br />
k!Γ k + n + 1<br />
2 + 1<br />
À cada autovalor λnm correspon<strong>de</strong>m 2n + 1 autofunções<br />
<br />
r<br />
1 2k+n+ 2<br />
.<br />
2<br />
u k nm (r, θ, φ) = jn (λnmr) Yn,k (θ, φ) , k = −n, −n + 1, . . . , −1, 0, 1, . . . , n − 1, n,<br />
on<strong>de</strong> jn é a função <strong>de</strong> Bessel esférica <strong>do</strong> primeiro tipo<br />
e Yn,k são as harmônicas esféricas<br />
Yn,k (θ, φ) =<br />
com P k n sen<strong>do</strong> a função <strong>de</strong> Legendre<br />
<br />
jn (r) =<br />
<br />
P 0 n (r) = 1<br />
2n d<br />
n!<br />
n<br />
drn 2 n<br />
r − 1 ,<br />
P k n (r) = (−1) k 1 − r 2k/2 dk π<br />
2r J n+ 1<br />
2 (r),<br />
2n + 1 (n − k)!<br />
4π (n + k)! P k n (cos θ) e ikφ ,<br />
dr k P 0 n (r) , se 0 k n,<br />
P k n (r) = (−1) k (n + k)! −k<br />
Pn (r) , se − n k < 0.<br />
(n − k)!<br />
1.3 Princípio <strong>do</strong> Máximo Fraco: O <strong>Laplaciano</strong> não possui <strong>Autovalores</strong><br />
Negativos<br />
1.1 Lema. (Princípio <strong>do</strong> Máximo Fraco) Seja Ω ⊂ R n um aberto limita<strong>do</strong>. Seja u ∈ C 2 (Ω) ∩ C 0 (Ω).<br />
Se ∆u 0 em Ω, então<br />
Se ∆u 0 em Ω, então<br />
max u = max<br />
Ω ∂Ω u;<br />
min u = min<br />
Ω ∂Ω u.<br />
Em particular, se u satisfaz ∆u = 0 em Ω, então u atinge o seu máximo e o seu mínimo na fronteira<br />
<strong>de</strong> Ω.<br />
Prova: Sejam<br />
M = max u e m = max<br />
Ω<br />
∂Ω u<br />
e suponha por absur<strong>do</strong> que m < M. Então existe um ponto x0 ∈ Ω\∂Ω tal que u (x0) = M. Defina a função<br />
v (x) = u (x) +<br />
M − m<br />
4d 2<br />
|x − x0| 2 ,
Rodney Josué Biezuner 11<br />
d = diam Ω. Se x ∈ ∂Ω, temos<br />
M − m<br />
v (x) m +<br />
4d2 d2 = 3<br />
4<br />
m + M<br />
4<br />
e como u (x0) = v (x0) = M, segue que o máximo <strong>de</strong> v também é assumi<strong>do</strong> em um ponto <strong>de</strong> Ω\∂Ω, digamos<br />
em x. Mas, como x é um ponto <strong>de</strong> máximo para v, <strong>de</strong>vemos ter<br />
∆v (x) 0,<br />
< M,<br />
enquanto que, pela <strong>de</strong>finição <strong>de</strong> v e pelo fato <strong>de</strong> u satisfazer a equação <strong>de</strong> Laplace, para to<strong>do</strong> x temos<br />
∆v (x) = ∆u (x) +<br />
M − m<br />
2d 2<br />
M − m<br />
<br />
2d2 > 0,<br />
uma contradição. Isso mostra que u atinge o seu máximo em ∂Ω.<br />
Para provar a segunda afirmação, basta consi<strong>de</strong>rar −u e observar que min u = − max(−u). <br />
Defina a parte positiva e a parte negativa <strong>de</strong> uma função u respectivamente por<br />
u + = max(u, 0),<br />
u − = min(u, 0).<br />
1.2 Corolário. Seja Ω ⊂ R n um aberto limita<strong>do</strong>. Seja λ ∈ R, λ 0. Seja u ∈ C 2 (Ω) ∩ C 0 (Ω).<br />
Se −∆u − λu 0 em Ω, então<br />
Se −∆u − λu 0 em Ω, então<br />
max u max<br />
Ω ∂Ω u+ .<br />
min u min<br />
Ω ∂Ω u− .<br />
Em particular, se u satisfaz −∆u = λu em Ω, então<br />
max |u| = max<br />
Ω<br />
∂Ω |u|<br />
<strong>de</strong> mo<strong>do</strong> que se o problema <strong>de</strong> Dirichlet<br />
−∆u = λu em Ω,<br />
u = 0 sobre ∂Ω,<br />
possuir solução u ∈ C 2 (Ω) ∩ C 0 (Ω), então a solução é trivial. Conseqüentemente, o problema <strong>de</strong><br />
Dirichlet para o laplaciano não possui autovalores negativos ou nulos.<br />
Prova. Assuma primeiro −∆u − λu 0 em Ω. Se u 0 em Ω, então o corolário vale trivialmente. Logo,<br />
po<strong>de</strong>mos assumir que Ω + = {x ∈ Ω : u(x) > 0} = ∅. Como −λu 0 em Ω + , temos que ∆u 0 em Ω + .<br />
Segue <strong>do</strong> Princípio <strong>do</strong> Máximo Fraco que<br />
max<br />
Ω +<br />
u = max u.<br />
∂Ω +<br />
Mas u = 0 em ∂Ω + ∩ Ω, logo o máximo <strong>de</strong>ve ser atingi<strong>do</strong> em ∂Ω. O caso −∆u − λu 0 segue <strong>do</strong> primeiro<br />
consi<strong>de</strong>ran<strong>do</strong> −u.
Rodney Josué Biezuner 12<br />
1.4 Méto<strong>do</strong>s Variacionais para <strong>Autovalores</strong> <strong>de</strong> Opera<strong>do</strong>res Lineares<br />
Nesta seção vamos rever os méto<strong>do</strong>s variacionais para a obtenção <strong>de</strong> autovalores para opera<strong>do</strong>res lineares<br />
<strong>de</strong>fini<strong>do</strong>s em espaços <strong>de</strong> dimensão finita provi<strong>do</strong>s <strong>de</strong> produto interno. A teoria será então generalizada mais<br />
tar<strong>de</strong> para obter a existência e algumas proprieda<strong>de</strong>s básicas <strong>do</strong>s autovalores <strong>do</strong> laplaciano. Em primeiro<br />
lugar, discutiremos o Princípio <strong>de</strong> Rayleigh, que afirma que o menor autovalor <strong>de</strong> um opera<strong>do</strong>r linear po<strong>de</strong><br />
ser encontra<strong>do</strong> como o mínimo <strong>de</strong> um certo funcional, enquanto que o seu maior autovalor é o máximo <strong>de</strong>ste<br />
mesmo funcional:<br />
1.3 Teorema. (Princípio <strong>de</strong> Rayleigh) Seja V um espaço vetorial com produto interno <strong>de</strong> dimensão n e<br />
T : V −→ V um opera<strong>do</strong>r linear auto-adjunto. Sejam λ1 . . . λn os autovalores <strong>de</strong> T , <strong>de</strong> mo<strong>do</strong> que<br />
λ1 é o menor autovalor <strong>de</strong> T e λn é o maior autovalor <strong>de</strong> T . Então<br />
e<br />
λ1 = min<br />
x∈V<br />
x=0<br />
λn = max<br />
x∈V<br />
x=0<br />
〈T x, x〉<br />
2 = min 〈T x, x〉 (1.4)<br />
x<br />
x∈V<br />
x=1<br />
〈T x, x〉<br />
2 = max 〈T x, x〉 (1.5)<br />
x<br />
x∈V<br />
x=1<br />
Prova: Seja B = {v1, . . . , vn} uma base ortonormal <strong>de</strong> autovetores <strong>de</strong> T correspon<strong>de</strong>ntes aos autovalores<br />
λ1 . . . λn <strong>de</strong> T . Então, para to<strong>do</strong> x = n<br />
xivi ∈ V temos<br />
〈T x, x〉 =<br />
=<br />
=<br />
<br />
T<br />
n<br />
i=1<br />
xivi<br />
<br />
,<br />
n<br />
j=1<br />
n<br />
〈λixivi, xjvj〉 =<br />
i,j=1<br />
n<br />
i=1<br />
λix 2 i .<br />
Portanto, para to<strong>do</strong> x ∈ V , x = 0, vale<br />
λ1 x 2 =<br />
i=1<br />
xjvj<br />
<br />
n<br />
n<br />
= xiT vi,<br />
i=1<br />
n<br />
λixixj 〈vi, vj〉<br />
i,j=1<br />
n<br />
λ1x 2 i 〈T x, x〉 <br />
i=1<br />
j=1<br />
xjvj<br />
<br />
n<br />
n<br />
= λixivi,<br />
i=1<br />
n<br />
λnx 2 i = λn x 2<br />
O mínimo é atingi<strong>do</strong> em x = v1, ou em qualquer outro autovetor <strong>de</strong> T associa<strong>do</strong> a λ1, e o máximo é atingi<strong>do</strong><br />
em x = vn, ou em qualquer outro autovetor <strong>de</strong> T associa<strong>do</strong> a λn. <br />
O quociente<br />
〈T x, x〉<br />
x 2<br />
é chama<strong>do</strong> o quociente <strong>de</strong> Rayleigh.<br />
Os <strong>de</strong>mais autovalores <strong>de</strong> T , λ2, . . . , λn−1, são pontos <strong>de</strong> sela e po<strong>de</strong>m ser encontra<strong>do</strong> através <strong>de</strong> um<br />
princípio <strong>de</strong> minimax:<br />
1.4 Teorema. (Princípio <strong>de</strong> Minimax para <strong>Autovalores</strong>) Seja V um espaço vetorial com produto interno <strong>de</strong><br />
dimensão n e T : V −→ V um opera<strong>do</strong>r linear auto-adjunto. Sejam λ1 . . . λn os autovalores <strong>de</strong><br />
i=1<br />
j=1<br />
xjvj
Rodney Josué Biezuner 13<br />
T . Então, se Wj <strong>de</strong>nota o conjunto <strong>do</strong>s subespaços <strong>de</strong> V <strong>de</strong> dimensão j, temos<br />
⎛<br />
⎞ ⎛<br />
λj = min ⎝ max 〈T x, x〉 ⎠ = min ⎝max<br />
〈T x, x〉<br />
W ∈Wj x∈W<br />
W ∈Wj x∈W x<br />
x=1<br />
x=0<br />
2<br />
⎞<br />
⎠ . (1.6)<br />
ou, dualmente,<br />
λj = max<br />
W ∈Wj−1<br />
⎛<br />
⎞<br />
⎝ min 〈T x, x〉 ⎠ = max<br />
x⊥W<br />
x=1<br />
W ∈Wj−1<br />
⎛<br />
⎝ min<br />
x⊥W<br />
x=0<br />
〈T x, x〉<br />
x 2<br />
⎞<br />
⎠ . (1.7)<br />
Prova: Provemos primeiro (1.6). Seja W ⊂ V um subespaço <strong>de</strong> dimensão j. Primeiro mostraremos que<br />
max 〈T x, x〉 λj.<br />
x∈W<br />
x=1<br />
Seja B = {v1, . . . , vn} uma base ortonormal <strong>de</strong> autovetores <strong>de</strong> T correspon<strong>de</strong>ntes aos autovalores λ1, . . . , λn.<br />
Seja Z = 〈v1, . . . , vj−1〉. Como Z ⊥ = 〈vj, . . . , vn〉, temos<br />
<strong>de</strong> mo<strong>do</strong> que<br />
n dim W + Z ⊥ = dim W + dim Z ⊥ − dim W ∩ Z ⊥ = j + n − (j − 1) − dim W ∩ Z ⊥ ,<br />
dim W ∩ Z ⊥ 1<br />
e existe um vetor x ∈ W ∩ Z⊥ tal que x = 1. Escreven<strong>do</strong> x = n<br />
xkvk, temos x = n<br />
<br />
n<br />
n<br />
〈T x, x〉 = xkT vk,<br />
=<br />
k=j<br />
n<br />
k=j<br />
λkx 2 k λj<br />
l=j<br />
n<br />
k=j<br />
xlvl<br />
k=j<br />
k=j<br />
<br />
n<br />
n<br />
= xkλkvk,<br />
x 2 k = λj.<br />
l=j<br />
xlvl<br />
<br />
=<br />
x<br />
k=j<br />
2 k<br />
n<br />
λkxkxl 〈vk, vl〉<br />
k,l=j<br />
= 1, <strong>do</strong>n<strong>de</strong><br />
Para completar a <strong>de</strong>monstração, <strong>de</strong>vemos encontrar um subespaço W ⊂ V <strong>de</strong> dimensão j tal que 〈T x, x〉 <br />
λj para to<strong>do</strong> x ∈ W com x = 1. Tomemos W = 〈v1, . . . , vj〉. Temos<br />
<br />
j<br />
〈T x, x〉 = xkT vk,<br />
=<br />
k=1<br />
j<br />
k=1<br />
λkx 2 k λj<br />
j<br />
l=1<br />
xlvl<br />
j<br />
k=1<br />
<br />
j<br />
= xkλkvk,<br />
x 2 k = λj.<br />
k=1<br />
j<br />
l=1<br />
xlvl<br />
<br />
=<br />
j<br />
λkxkxl 〈vk, vl〉<br />
O minimax é atingi<strong>do</strong> em vj.<br />
Vamos agora provar o princípio dual (1.7). Seja W ⊂ V um subespaço <strong>de</strong> dimensão j − 1. Primeiro<br />
mostraremos que<br />
min 〈T x, x〉 λj.<br />
x⊥W<br />
x=1<br />
Como antes, B = {v1, . . . , vn} é uma base ortonormal <strong>de</strong> autovetores <strong>de</strong> T correspon<strong>de</strong>ntes aos autovalores<br />
λ1, . . . , λn. Seja Z = 〈v1, . . . , vj〉. Como W ⊥ tem dimensão n − (j − 1), temos<br />
n dim W ⊥ + Z = dim W ⊥ + dim Z − dim W ⊥ ∩ Z = n − (j − 1) + j − dim W ⊥ ∩ Z ,<br />
k,l=1
Rodney Josué Biezuner 14<br />
<strong>de</strong> mo<strong>do</strong> que<br />
dim W ⊥ ∩ Z 1<br />
e existe um vetor x ∈ Z tal que x ⊥ W e x = 1. Escreven<strong>do</strong> x = j<br />
xkvk, temos x = j<br />
<br />
j<br />
〈T x, x〉 = xkT vk,<br />
=<br />
k=1<br />
j<br />
k=1<br />
λkx 2 k λj<br />
j<br />
l=1<br />
xlvl<br />
j<br />
k=1<br />
<br />
j<br />
= xkλkvk,<br />
x 2 k = λj.<br />
k=1<br />
j<br />
l=1<br />
k=1<br />
xlvl<br />
<br />
=<br />
x<br />
k=1<br />
2 k<br />
j<br />
λkxkxl 〈vk, vl〉<br />
k,l=1<br />
= 1, <strong>do</strong>n<strong>de</strong><br />
Para completar a <strong>de</strong>monstração, <strong>de</strong>vemos encontrar um subespaço W ⊂ V <strong>de</strong> dimensão j − 1 tal que<br />
〈T x, x〉 λj para to<strong>do</strong> x ⊥ W com x = 1. Tomemos W = 〈v1, . . . , vj−1〉. Então W ⊥ = 〈vj, . . . , vn〉 e<br />
para to<strong>do</strong> x ∈ W ⊥ com x = 1 temos<br />
<br />
n<br />
n<br />
<br />
n<br />
n<br />
<br />
n<br />
〈T x, x〉 = xkT vk, = xkλkvk, = λkxkxl 〈vk, vl〉<br />
=<br />
k=j<br />
n<br />
k=j<br />
O maximin é atingi<strong>do</strong> em vj. <br />
λkx 2 k λj<br />
l=j<br />
n<br />
k=j<br />
xlvl<br />
x 2 k = λj.<br />
1.5 Os Espaços <strong>de</strong> Sobolev W 1,2 e W 1,2<br />
0<br />
k=j<br />
Para generalizar os méto<strong>do</strong>s variacionais discuti<strong>do</strong>s na seção anterior para encontrar os autovalores <strong>do</strong> <strong>Laplaciano</strong>,<br />
é necessário <strong>de</strong>finir um espaço <strong>de</strong> funções <strong>do</strong>ta<strong>do</strong> <strong>de</strong> um produto interno a<strong>de</strong>qua<strong>do</strong>. Para <strong>do</strong>mínios<br />
limita<strong>do</strong>s, o espaço a<strong>de</strong>qua<strong>do</strong> para se trabalhar é o espaço <strong>de</strong> Sobolev.<br />
1.5.1 A Derivada Fraca<br />
Seja Ω um aberto <strong>de</strong> Rn . Suponha que u ∈ C1 (Ω) é uma função real continuamente diferenciável. Se<br />
ϕ ∈ C∞ 0 (Ω) é uma função suave com suporte compacto em Ω, segue da fórmula <strong>de</strong> integração por partes que<br />
<br />
u ∂ϕ<br />
<br />
dx = −<br />
∂xi<br />
∂u<br />
ϕ dx<br />
∂xi<br />
(1.8)<br />
Ω<br />
para i = 1, . . . , n. Não há termos <strong>de</strong> fronteira exatamente porque ϕ tem suporte compacto em Ω.<br />
Definição. Seja Ω ⊂ Rn um subconjunto aberto e u ∈ L1 loc (Ω). Dizemos que uma função vi ∈ L1 loc (Ω) é<br />
uma <strong>de</strong>rivada fraca <strong>de</strong> u, se <br />
u<br />
Ω<br />
∂ϕ<br />
<br />
dx = − viϕ dx, (1.9)<br />
∂xi<br />
para toda ϕ ∈ C ∞ 0 (Ω). Se este for o caso, <strong>de</strong>notamos<br />
Ω<br />
Ω<br />
l=j<br />
xlvl<br />
k,l=j<br />
vi = ∂u<br />
. (1.10)<br />
∂xi<br />
Dizemos que u é fracamente diferenciável se todas as <strong>de</strong>rivadas fracas <strong>de</strong> primeira or<strong>de</strong>m <strong>de</strong> u<br />
existirem. O espaço vetorial das funções fracamente diferenciáveis é <strong>de</strong>nota<strong>do</strong> por W 1 (Ω).
Rodney Josué Biezuner 15<br />
Quan<strong>do</strong> existe, vi é únicamente <strong>de</strong>terminada a menos <strong>de</strong> conjuntos <strong>de</strong> medida nula. Claramente C 1 (Ω) ⊂<br />
W 1 (Ω): o conceito <strong>de</strong> <strong>de</strong>rivada fraca é uma extensão <strong>do</strong> conceito clássico <strong>de</strong> <strong>de</strong>rivada que mantém a valida<strong>de</strong><br />
da fórmula <strong>de</strong> integração por partes.<br />
Exemplo 1. Sejam n = 1, Ω = (0, 2) e<br />
Então, se<br />
u(x) =<br />
v(x) =<br />
x se 0 < x 1,<br />
1 se 1 x < 2.<br />
1 se 0 < x 1,<br />
0 se 1 x < 2,<br />
temos u ′ (x) = v(x). De fato, dada ϕ ∈ C ∞ 0 ((0, 2)), temos<br />
<br />
2<br />
Exemplo 2. Sejam n = 1, Ω = (0, 2) e<br />
0<br />
uϕ ′ dx =<br />
u(x) =<br />
1<br />
0<br />
xϕ ′ dx +<br />
= ϕ(1) − 0 −<br />
= −<br />
2<br />
0<br />
vϕ dx.<br />
2<br />
1<br />
1<br />
0<br />
ϕ ′ dx<br />
ϕ dx + 0 − ϕ(1)<br />
x se 0 < x 1,<br />
2 se 1 x < 2.<br />
Então u não possui uma <strong>de</strong>rivada fraca. Com efeito, suponha por absur<strong>do</strong> que exista uma função<br />
v ∈ L1 loc ((0, 2)) satisfazen<strong>do</strong><br />
para toda ϕ ∈ C ∞ 0 ((0, 2)). Então<br />
ou seja,<br />
−<br />
2<br />
0<br />
vϕ dx =<br />
1<br />
0<br />
= −ϕ(1) −<br />
2<br />
0<br />
xϕ ′ dx + 2<br />
1<br />
0<br />
ϕ(1) =<br />
uϕ ′ dx = −<br />
2<br />
1<br />
ϕ dx,<br />
1<br />
0<br />
2<br />
0<br />
vϕ dx,<br />
ϕ ′ dx = ϕ(1) − 0 −<br />
ϕ dx +<br />
2<br />
0<br />
vϕ dx.<br />
1<br />
0<br />
ϕ dx + 0 − 2ϕ(1)<br />
para toda ϕ ∈ C ∞ 0 ((0, 2)). Escolhen<strong>do</strong> uma seqüência <strong>de</strong> funções-teste (ϕm) ⊂ C ∞ 0 ((0, 2)) satisfazen<strong>do</strong><br />
ϕm(1) = 1, 0 ϕm 1 e ϕm(x) → 0 para to<strong>do</strong> x = 1, obtemos através <strong>do</strong> teorema da convergência<br />
<strong>do</strong>minada <strong>de</strong> Lebesgue que<br />
uma contradição. <br />
1 = lim<br />
m→∞ ϕm(1)<br />
1<br />
= lim<br />
m→∞<br />
0<br />
ϕm dx +<br />
2<br />
0<br />
<br />
vϕm dx = 0,
Rodney Josué Biezuner 16<br />
Estes exemplos não são aci<strong>de</strong>ntais. É possível provar que uma função real em uma variável real possui uma<br />
<strong>de</strong>rivada fraca se e somente se ela for absolutamente contínua (a menos <strong>de</strong> modificações em conjuntos <strong>de</strong><br />
medida nula); em particular, isso implica que ela é diferenciável no senti<strong>do</strong> clássico em quase to<strong>do</strong> ponto. No<br />
caso <strong>de</strong> funções <strong>de</strong> várias variáveis, po<strong>de</strong>-se provar que uma função u ∈ L1 loc (Ω) é fracamente diferenciável<br />
se e somente se ela é igual, a menos <strong>de</strong> um conjunto <strong>de</strong> medida nula, a uma função que (1) é absolutamente<br />
contínua em quase to<strong>do</strong>s os segmentos em Ω paralelos aos eixos coor<strong>de</strong>na<strong>do</strong>s e (2) as <strong>de</strong>rivadas parciais <strong>de</strong><br />
u são localmente integráveis. Para maiores <strong>de</strong>talhes, veja [Biezuner].<br />
1.5.2 Espaços <strong>de</strong> Sobolev<br />
Seja Ω um aberto <strong>de</strong> Rn . Definimos<br />
W 1,2 <br />
(Ω) = u ∈ W 1 (Ω) : u ∈ L 2 (Ω) e ∂u<br />
∂xi<br />
W 1,2 (Ω) é claramente um espaço vetorial. Ele é muni<strong>do</strong> da norma<br />
Definimos também<br />
uW 1,2 (Ω) = |u|<br />
Ω<br />
2 n<br />
<br />
+<br />
i=1<br />
∈ L 2 <br />
(Ω) para to<strong>do</strong> i = 1, . . . , n . (1.11)<br />
Ω<br />
<br />
<br />
<br />
∂u <br />
<br />
∂xi<br />
<br />
2 1/2<br />
W 1,2<br />
0 (Ω) = fecho <strong>de</strong> C ∞ 0 (Ω) em W 1,2 (Ω).<br />
. (1.12)<br />
Em ambos os espaços vetoriais norma<strong>do</strong>s W 1,2 (Ω) e W 1,2<br />
0 (Ω) <strong>de</strong>finimos o produto interno<br />
<br />
〈u, v〉 =<br />
Ω<br />
uv +<br />
n<br />
<br />
i=1<br />
Ω<br />
∂u ∂v<br />
= 〈u, v〉 L2 (Ω) +<br />
∂xi ∂xi<br />
n<br />
<br />
∂u<br />
,<br />
∂xi<br />
∂v<br />
<br />
∂xi L2 . (1.13)<br />
(Ω)<br />
Desta forma, a norma <strong>de</strong>finida acima é <strong>de</strong>rivada <strong>de</strong>ste produto interno. Ela também é equivalente à norma<br />
<br />
uW 1,2 (Ω) =<br />
|u|<br />
Ω<br />
2<br />
1/2 = u L 2 (Ω) +<br />
+<br />
n<br />
i=1<br />
n<br />
<br />
<br />
<br />
∂u <br />
<br />
∂xi<br />
1.5.3 Proprieda<strong>de</strong>s <strong>do</strong>s Espaços <strong>de</strong> Sobolev<br />
i=1<br />
Ω<br />
i=1<br />
L 2 (Ω)<br />
<br />
<br />
<br />
∂u <br />
<br />
∂xi<br />
<br />
.<br />
2 1/2<br />
Assumiremos os resulta<strong>do</strong>s a seguir sem <strong>de</strong>monstração (veja [Biezuner] para a <strong>de</strong>monstração <strong>de</strong>stes resulta<strong>do</strong>s).<br />
1.3 Teorema. W 1,2 (Ω) é um espaço <strong>de</strong> Hilbert. Em particular, W 1,2<br />
0 (Ω) também é um espaço <strong>de</strong> Hilbert.<br />
1.4 Teorema. C ∞ (Ω) ∩ W 1,2 (Ω) é <strong>de</strong>nso em W 1,2 (Ω). Se Ω um aberto com fronteira <strong>de</strong> classe C 1 , então<br />
C ∞ (Ω) ∩ W 1,2 (Ω) é <strong>de</strong>nso em W 1,2 (Ω).<br />
Os seguintes resulta<strong>do</strong>s caracterizam o espaço W 1,2<br />
0 (Ω):<br />
1.5 Teorema. Se u ∈ W 1,2 (Ω) satisfaz supp u ⊂⊂ Ω, então u ∈ W 1,2<br />
0 (Ω).<br />
Se Ω ⊂ Rn é um aberto com fronteira <strong>de</strong> classe C1 e se u ∈ W 1,2 (Ω) ∩ C(Ω), então u ∈ W 1,2<br />
0 (Ω) se e<br />
somente se u = 0 em ∂Ω.
Rodney Josué Biezuner 17<br />
As proprieda<strong>de</strong>s <strong>de</strong> imersão compacta <strong>do</strong>s espaços <strong>de</strong> Sobolev são as que lhe conferem a sua gran<strong>de</strong><br />
utilida<strong>de</strong>. Recordamos os conceitos <strong>de</strong> imersão contínua e imersão compacta:<br />
Definição. Seja E um subespaço vetorial norma<strong>do</strong> <strong>de</strong> um espaço norma<strong>do</strong> F (ou seja, a norma em E não<br />
precisa necessariamente ser a norma induzida <strong>de</strong> F ). Dizemos que a inclusão E ⊂ F é uma imersão<br />
(contínua) se a aplicação inclusão I : E → F <strong>de</strong>finida por Ix = x for contínua. Denotamos este fato<br />
por<br />
E ↩→ F.<br />
Se, além disso, a aplicação inclusão for compacta, dizemos que a imersão E ↩→ F é compacta.<br />
Denotaremos a imersão compacta <strong>de</strong> um espaço vetorial norma<strong>do</strong> E em um espaço vetorial norma<strong>do</strong><br />
F por<br />
E ↩ → F.<br />
Como a aplicação inclusão é linear, o fato <strong>de</strong> existir uma imersão E ↩→ F é equivalente à existência <strong>de</strong> uma<br />
constante C tal que<br />
xF C xE para to<strong>do</strong> x ∈ E.<br />
Em particular, se (xn) é uma seqüência <strong>de</strong> Cauchy em E, então (xn) também é uma seqüência <strong>de</strong> Cauchy<br />
em F ; logo, se xn → x em E, então xn → x em F também. É claro que se E tem a norma induzida <strong>de</strong> F ,<br />
então a inclusão E ⊂ F é uma imersão, com C = 1. Quan<strong>do</strong> existe uma imersão E ↩→ F , dizer que ela é<br />
compacta é equivalente a dizer que seqüências limitadas <strong>de</strong> (E, ·E ) possuem subseqüências convergentes<br />
em (F, ·F ).<br />
1.6 Teorema. (Teorema da Imersão <strong>de</strong> Sobolev) Seja Ω ⊂ R n um aberto. Então<br />
W 1,2 (Ω) ↩→ L 2 (Ω),<br />
W 1,2<br />
0 (Ω) ↩→ L 2 (Ω).<br />
Prova: Usan<strong>do</strong> a norma equivalente introduzida acima, se E = W 1,2 (Ω) ou se E = W 1,2<br />
0 (Ω) temos<br />
<br />
u E = u L 2 (Ω) +<br />
n<br />
<br />
<br />
<br />
∂u <br />
<br />
∂xi<br />
i=1<br />
L 2 (Ω)<br />
u L 2 (Ω) .<br />
1.7 Teorema. (Teorema <strong>de</strong> Rellich–Kondrakhov) Seja Ω ⊂ R n um aberto limita<strong>do</strong> com fronteira <strong>de</strong> classe<br />
C 1 . Então<br />
W 1,2 (Ω) ↩ → L 2 (Ω) ,<br />
Se trocarmos W 1,2 por W 1,2<br />
0 , o resulta<strong>do</strong> é váli<strong>do</strong> para abertos arbitrários.<br />
1.8 Teorema. (Desigualda<strong>de</strong> <strong>de</strong> Poincaré) Seja Ω ⊂ R n um aberto limita<strong>do</strong>. Então<br />
u L 2 (Ω) <br />
|Ω|<br />
ωn<br />
1/n<br />
∇u L 2 (Ω) .<br />
para to<strong>do</strong> u ∈ W 1,2<br />
0 (Ω) (aqui ωn é o volume da bola unitária em R n ).<br />
Observe que o Teorema 1.8 não é váli<strong>do</strong> se trocamos W 1,2<br />
0<br />
por W 1,2 porque as funções constantes pertencem<br />
a W 1,2 e não satisfazem a <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Poincaré (pois têm <strong>de</strong>rivada nula).
Rodney Josué Biezuner 18<br />
1.6 Existência e Unicida<strong>de</strong> <strong>de</strong> Soluções para o <strong>Laplaciano</strong> através<br />
<strong>do</strong> Méto<strong>do</strong> Variacional<br />
De agora em diante, Ω ⊂ R n será sempre um aberto limita<strong>do</strong>.<br />
1.6.1 Soluções Fracas<br />
Definição. Seja f ∈ L2 (Ω). Dizemos que u ∈ W 1,2<br />
0 (Ω) é uma solução fraca para o problema <strong>de</strong> Dirichlet<br />
<br />
∆u = f<br />
u = 0<br />
em Ω,<br />
sobre ∂Ω,<br />
(1.14)<br />
se <br />
<br />
∇u · ∇v = −<br />
Ω<br />
Ω<br />
fv para to<strong>do</strong> v ∈ W 1,2<br />
0 (Ω) .<br />
Se os da<strong>do</strong>s <strong>do</strong> problema <strong>de</strong> Dirichlet (1.14) são suficientemente regulares e a solução fraca também é<br />
suficientemente regular, então ela é uma solução clássica:<br />
1.9 Proposição. (Soluções Fracas Regulares são Soluções Clássicas) Sejam f ∈ C 0 (Ω). Se existir uma<br />
solução fraca u ∈ C 2 (Ω) ∩ C 0 Ω para o problema<br />
então u é uma solução clássica.<br />
∆u = f em Ω,<br />
u = 0 sobre ∂Ω,<br />
Prova: Pela Primeira I<strong>de</strong>ntida<strong>de</strong> <strong>de</strong> Green, para to<strong>do</strong> v ∈ C∞ 0 (Ω) temos<br />
<br />
<br />
∇u · ∇v =<br />
<br />
∂u<br />
v −<br />
∂ν<br />
<br />
(∆u) v = − (∆u) v.<br />
Ω<br />
∂Ω<br />
Daí e da <strong>de</strong>finição <strong>de</strong> solução fraca segue que<br />
<br />
para to<strong>do</strong> v ∈ C ∞ 0 (Ω), ou seja,<br />
Ω<br />
Ω<br />
<br />
(∆u) v =<br />
Ω<br />
fv<br />
∆u = f em Ω.<br />
Além disso, como u ∈ W 1,2<br />
0 (Ω) ∩ C 0 Ω , segue da caracterização <strong>do</strong>s espaços W 1,2<br />
0 (Ω) que u = 0 em ∂Ω. <br />
1.6.2 Existência, Unicida<strong>de</strong> e Regularida<strong>de</strong> <strong>de</strong> Soluções Fracas<br />
Quan<strong>do</strong> uma solução fraca existe ela é única:<br />
1.10 Proposição. (Unicida<strong>de</strong> da Solução Fraca) Seja f ∈ L 2 (Ω). Se existir uma solução fraca para o<br />
problema ∆u = f em Ω,<br />
então ela é única.<br />
u = 0 sobre ∂Ω,<br />
Ω
Rodney Josué Biezuner 19<br />
Prova: O resulta<strong>do</strong> segue imediatamente da estabilida<strong>de</strong> fraca da equação <strong>de</strong> Poisson, isto é, se u1, u2 ∈<br />
W 1,2 (Ω) satisfazem<br />
∆u1 = f1, ∆u2 = f2 em Ω<br />
para f1, f2 ∈ L 2 (Ω), e<br />
então existe uma constante C = C (n, Ω) tal que<br />
u1 − u2 ∈ W 1,2<br />
0 (Ω) ,<br />
u1 − u2 W 1,2 (Ω) C f1 − f2 L 2 (Ω) . (1.15)<br />
De fato, temos <br />
<br />
∇ (u1 − u2) · ∇v = − (f1 − f2) v,<br />
Ω<br />
Ω<br />
para to<strong>do</strong> v ∈ W 1,2<br />
0 (Ω), em particular para v = u1 − u2. Portanto segue da <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Poincaré que<br />
∇u1 − ∇u2 2<br />
L2 (Ω) =<br />
<br />
|∇ (u1 − u2)|<br />
Ω<br />
2<br />
<br />
= (f1 − f2) (u1 − u2)<br />
Ω<br />
<strong>do</strong>n<strong>de</strong><br />
f1 − f2 L 2 (Ω) u1 − u2 L 2 (Ω)<br />
C f1 − f2 L 2 (Ω) ∇u1 − ∇u2 L 2 (Ω) ,<br />
∇u1 − ∇u2 L 2 (Ω) C f1 − f2 L 2 (Ω) .<br />
Novamente usan<strong>do</strong> a <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Poincaré, isso é suficiente para estabelecer (1.15). <br />
No caso <strong>do</strong> problema <strong>de</strong> Dirichlet para a equação <strong>de</strong> Poisson, a existência <strong>de</strong> uma solução fraca é imediatamente<br />
estabelecida pelo equivalente ao princípio <strong>de</strong> Dirichlet visto no início <strong>do</strong> capítulo anterior:<br />
1.11 Teorema. (Existência da Solução Fraca) Sejam f ∈ L 2 (Ω). Então existe uma única solução fraca<br />
u ∈ W 1,2<br />
0 (Ω) para o problema<br />
∆u = f em Ω,<br />
u = 0 sobre ∂Ω.<br />
Prova: Consi<strong>de</strong>re o funcional <strong>de</strong> Dirichlet I : W 1,2<br />
0 (Ω) → R <strong>de</strong>fini<strong>do</strong> por<br />
I (v) = 1<br />
2<br />
<br />
Ω<br />
|∇v| 2 <br />
dx +<br />
Ω<br />
fv.<br />
(1.16)<br />
Afirmamos que um ponto crítico u <strong>de</strong>ste funcional é uma solução fraca <strong>de</strong> (1.16). De fato, se u é um ponto<br />
crítico <strong>de</strong> I, então a <strong>de</strong>rivada direcional <strong>de</strong> I na direção <strong>de</strong> qualquer v ∈ W 1,2<br />
0 (Ω) é igual a 0, logo<br />
0 = d<br />
dt [I (u + tv)| <br />
d 1<br />
t=0 = |∇ (u + tv)|<br />
dt 2 Ω<br />
2 <br />
<br />
<br />
+ f (u + tv) <br />
<br />
Ω<br />
t=0<br />
<br />
<br />
= ∇u · ∇v + fv<br />
Ω<br />
Ω<br />
para to<strong>do</strong> v.<br />
Para provar o teorema, basta então encontrar uma função u ∈ W 1,2<br />
0 (Ω) que minimiza I, isto é, u tal que<br />
I (u) = min<br />
v∈W 1,2<br />
<br />
1<br />
|∇v|<br />
0 (Ω) 2 Ω<br />
2 dx +<br />
<br />
Ω<br />
<br />
fv ,
Rodney Josué Biezuner 20<br />
pois um ponto <strong>de</strong> mínimo é um ponto crítico <strong>de</strong> um funcional diferenciável. Pela <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Poincaré,<br />
o funcional I é limita<strong>do</strong> por baixo, pois<br />
I (v) = 1<br />
2 ∇v2 L2 (Ω) +<br />
<br />
<br />
f (v − g) + fg<br />
Ω<br />
Ω<br />
1<br />
2 ∇v2 L2 (Ω) −<br />
<br />
<br />
<br />
<br />
<br />
f (v − g) <br />
<br />
Ω<br />
+<br />
<br />
fg<br />
Ω<br />
1<br />
2 ∇v2 L2 (Ω) − fL2 (Ω) (v − g)L2 (Ω) +<br />
<br />
fg<br />
Ω<br />
1<br />
2 ∇v2 L2 (Ω) − C fL2 (Ω) ∇ (v − g)L2 (Ω) +<br />
<br />
fg<br />
Ω <br />
1<br />
2 ∇v2<br />
L 2 (Ω) − C f L 2 (Ω) ∇v L 2 (Ω) +<br />
fg − C fL2 (Ω) ∇gL2 (Ω) ,<br />
Ω<br />
e a função real h (t) = t2<br />
−at+b é limitada por baixo para t ∈ R, quaisquer que sejam os valores <strong>de</strong> a, b ∈ R.<br />
2<br />
Po<strong>de</strong>mos então <strong>de</strong>finir<br />
I0 = inf<br />
v∈W 1,2<br />
I (u) .<br />
0 (Ω)<br />
Seja (um) m∈N uma seqüência minimizante para I, isto é,<br />
I (um) = 1<br />
<br />
|∇um|<br />
2 Ω<br />
2 <br />
dx + fum → I0.<br />
Ω<br />
É fácil ver, que o funcional I é convexo. De fato, isto é uma conseqüência imediata da convexida<strong>de</strong> da função<br />
x ↦→ |x| 2<br />
<br />
I (tu + (1 − t) v) = |t∇u + (1 − t) ∇v|<br />
Ω<br />
2 <br />
dx + f (tu + (1 − t) v)<br />
Ω<br />
<br />
t |∇u| 2 + (1 − t) |∇v| 2<br />
<br />
dx + t<br />
<br />
fu + (1 − t) fv<br />
Ω<br />
= tI (u) + (1 − t) I (v) .<br />
A convexida<strong>de</strong> da função x ↦→ |x| 2 por sua vez po<strong>de</strong> ser provada <strong>do</strong> seguinte mo<strong>do</strong>:<br />
|tx + (1 − t) y| 2 − t |x| 2 − (1 − t) |y| 2 = t 2 − t |x| 2 <br />
+ 2t (1 − t) x · y + (1 − t) 2 <br />
− (1 − t)<br />
Logo,<br />
<br />
uk + ul<br />
I0 I<br />
2<br />
Ω<br />
= −t (1 − t) |x − y| 2 0.<br />
quan<strong>do</strong> k, l → ∞. Por outro la<strong>do</strong>, temos<br />
<br />
1<br />
|∇ (uk − ul)|<br />
2 Ω<br />
2 <br />
dx = |∇uk|<br />
Ω<br />
2 <br />
dx +<br />
Ω<br />
<br />
= |∇uk| 2 <br />
dx + 2<br />
Ω<br />
1<br />
2 I (uk) + 1<br />
2 I (ul) → I0<br />
|∇ul| 2 <br />
<br />
dx − 2 <br />
<br />
Ω<br />
∇<br />
<br />
uk + ul<br />
2<br />
<br />
fuk + |∇ul|<br />
Ω<br />
Ω<br />
2 <br />
dx + 2<br />
2 <br />
dx − 4<br />
<br />
uk + ul<br />
f<br />
<br />
<br />
− 2 <br />
<br />
Ω<br />
∇<br />
<br />
uk + ul <br />
2<br />
Ω<br />
<br />
uk + ul<br />
= 2I (uk) + 2I (ul) − 4I<br />
,<br />
2<br />
2<br />
Ω<br />
ful<br />
Ω<br />
2 <br />
dx<br />
|y| 2
Rodney Josué Biezuner 21<br />
<strong>do</strong>n<strong>de</strong> concluímos que (∇um) é uma seqüência <strong>de</strong> Cauchy em L 2 (Ω). Pela <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Poincaré temos<br />
que<br />
uk − ul L 2 (Ω) C ∇uk − ∇ul L 2 (Ω) ,<br />
logo (um) também é uma seqüência <strong>de</strong> Cauchy em L2 (Ω) e portanto (um) é uma seqüência <strong>de</strong> Cauchy em<br />
W 1,2<br />
0 (Ω), ou seja, existe u ∈ W 1,2<br />
0 (Ω) tal que um → u em W 1,2<br />
0 (Ω). Em particular, segue que I (u) = I0.<br />
Como um → u em L2 (Ω) e ∇um → ∇u em L2 (Ω), temos que<br />
<br />
1<br />
|∇um|<br />
2 Ω<br />
2 <br />
dx + fum →<br />
Ω<br />
1<br />
<br />
|∇u|<br />
2 Ω<br />
2 <br />
dx + fu,<br />
Ω<br />
e concluímos que u é o minimiza<strong>do</strong>r <strong>do</strong> funcional <strong>de</strong> Dirichlet I. <br />
Se a fronteira e os da<strong>do</strong>s <strong>do</strong> problema são suficientemente regulares, po<strong>de</strong>-se provar que uma solução<br />
fraca é uma solução clássica (veja [Gilbarg-Trudinger] ou [Biezuner] para os <strong>de</strong>talhes):<br />
1.12 Teorema. Seja Ω ⊂ R n um aberto limita<strong>do</strong> com fronteira <strong>de</strong> classe C ∞ . Seja f ∈ C ∞ (Ω).. Se<br />
u ∈ W 1,2<br />
0 (Ω) é uma solução fraca <strong>de</strong><br />
∆u = f em Ω,<br />
então u ∈ C ∞ Ω .<br />
1.7 O Espectro <strong>do</strong> <strong>Laplaciano</strong><br />
u = 0 sobre ∂Ω,<br />
1.7.1 Existência e Caracterização Variacional <strong>do</strong>s <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong><br />
Para o problema <strong>de</strong> Dirichlet, o espaço natural para aplicar o méto<strong>do</strong> variacional é W 1,2<br />
0 (Ω), enquanto que<br />
para o problema <strong>de</strong> Neumann trabalharemos em W 1,2 (Ω). Examinaremos primeiro o problema <strong>de</strong> autovalor<br />
<strong>do</strong> laplaciano para condição <strong>de</strong> fronteira <strong>de</strong> Dirichlet.<br />
Definição. Dizemos que u ∈ W 1,2<br />
0 (Ω) é uma solução fraca para o problema <strong>de</strong> autovalor <strong>do</strong> laplaciano<br />
para condição <strong>de</strong> fronteira <strong>de</strong> Dirichlet<br />
−∆u = λu em Ω,<br />
se <br />
<br />
∇u · ∇v = λ<br />
Ω<br />
u = 0 sobre ∂Ω,<br />
Aceitaremos o seguinte resulta<strong>do</strong> <strong>de</strong> regularida<strong>de</strong> sem <strong>de</strong>monstração.<br />
Ω<br />
uv para to<strong>do</strong> v ∈ W 1,2<br />
0 (Ω) . (1.17)<br />
1.13 Teorema. Seja Ω ⊂ R n um aberto limita<strong>do</strong> com fronteira <strong>de</strong> classe C ∞ . Seja λ ∈ R. Se u ∈ W 1,2<br />
0 (Ω)<br />
é uma solução fraca <strong>de</strong> −∆u = λu em Ω,<br />
então u ∈ C ∞ Ω .<br />
u = 0 sobre ∂Ω,<br />
1.14 Teorema. Seja Ω ⊂ R n um aberto limita<strong>do</strong>. Então o problema <strong>de</strong> autovalor<br />
−∆u = λu em Ω, u ∈ W 1,2<br />
0 (Ω)<br />
possui um número infinito enumerável <strong>de</strong> autovalores<br />
0 < λ1 λ2 . . . λj . . .
Rodney Josué Biezuner 22<br />
tais que<br />
λj → ∞,<br />
e autofunções {uj} que constituem um sistema ortonormal completo para L 2 (Ω), isto é,<br />
para to<strong>do</strong> v ∈ L 2 (Ω). Em particular,<br />
Além disso, para to<strong>do</strong> v ∈ W 1,2<br />
0 (Ω) vale<br />
v =<br />
v 2<br />
L 2 (Ω) =<br />
∇v 2<br />
L 2 (Ω) =<br />
∞<br />
i=1<br />
∞<br />
i=1<br />
∞<br />
i=1<br />
αiui<br />
〈v, ui〉 2<br />
L 2 (Ω) .<br />
λi 〈v, ui〉 2<br />
L 2 (Ω) .<br />
Prova: Generalizan<strong>do</strong> o princípio <strong>de</strong> Rayleigh, gostaríamos <strong>de</strong> obter o primeiro autovalor <strong>do</strong> laplaciano<br />
como o mínimo <strong>do</strong> funcional <strong>de</strong> Rayleigh:<br />
λ1 = inf<br />
u∈W 1,2<br />
0 (Ω)\{0}<br />
〈−∆u, u〉 L2 (Ω)<br />
u 2<br />
L2 .<br />
(Ω)<br />
No entanto, nossas funções estão em W 1,2<br />
0 (Ω) e em geral não possuem <strong>de</strong>rivadas parcias <strong>de</strong> segunda or<strong>de</strong>m<br />
e portanto seus laplacianos não estão <strong>de</strong>fini<strong>do</strong>s. Porém, lembran<strong>do</strong> que C∞ 0 (Ω) é <strong>de</strong>nso em W 1,2<br />
0 (Ω) e a<br />
primeira i<strong>de</strong>ntida<strong>de</strong> <strong>de</strong> Green para funções em C∞ 0 (Ω) toma a forma<br />
<br />
〈−∆u, u〉 L2 (Ω) =<br />
Ω<br />
<br />
(−∆u) u =<br />
Ω<br />
<br />
〈∇u, ∇u〉 −<br />
consi<strong>de</strong>ramos o funcional I : W 1,2<br />
0 (Ω) \ {0} → R <strong>de</strong>fini<strong>do</strong> por<br />
Afirmamos que se<br />
I (u) =<br />
então existe u ∈ W 1,2<br />
0 (Ω), u = 0, tal que<br />
<br />
Ω |∇u|2<br />
<br />
Ω u2 = 〈∇u, ∇u〉 L2 (Ω)<br />
〈u, u〉 L2 (Ω)<br />
∂Ω<br />
u ∂u<br />
∂η = 〈∇u, ∇u〉 L 2 (Ω)<br />
L2 (Ω)<br />
u 2<br />
L2 (Ω)<br />
= ∇u2<br />
λ1 = inf<br />
u∈W 1,2<br />
I (u) , (1.18)<br />
0 (Ω)\{0}<br />
−∆u = λ1u,<br />
ou seja, λ1 é um autovalor <strong>do</strong> laplaciano. Para provar isso, observe em primeiro lugar que o funcional I<br />
é invariante por escala, no senti<strong>do</strong> <strong>de</strong> que I (αu) = I (u) para to<strong>do</strong> α = 0, logo po<strong>de</strong>mos consi<strong>de</strong>rar uma<br />
seqüência minimizante (uk) ⊂ W 1,2<br />
0 (Ω) que satisfaz uk L 2 (Ω) = 1 para to<strong>do</strong> k. Em particular,<br />
∇uk 2<br />
L2 (Ω) → λ1,<br />
logo (uk) é uma seqüência limitada em W 1,2<br />
0 (Ω). Segue <strong>do</strong> Teorema <strong>de</strong> Rellich-Kondrakhov que, a menos<br />
<strong>de</strong> uma subseqüência, uk → u em L 2 (Ω) e, portanto, u L 2 (Ω) = 1, o que implica em particular que u = 0.<br />
Afirmamos que uk → u em W 1,2<br />
0 (Ω). De fato, valem as i<strong>de</strong>ntida<strong>de</strong>s<br />
∇ (uk − ul) 2<br />
L2 (Ω) + ∇ (uk + ul) 2<br />
L2 2<br />
(Ω) = 2 ∇ukL2 2<br />
(Ω) + 2 ∇ulL2 (Ω) ,<br />
uk − ul 2<br />
L2 (Ω) + uk + ul 2<br />
L2 2<br />
(Ω) = 2 ukL2 2<br />
(Ω) + 2 ulL2 (Ω) = 4.<br />
.
Rodney Josué Biezuner 23<br />
A segunda i<strong>de</strong>ntida<strong>de</strong> implica que uk + ul 2<br />
juntamente com a <strong>de</strong>sigualda<strong>de</strong><br />
que segue da <strong>de</strong>finição <strong>de</strong> λ1, obtemos<br />
L 2 (Ω)<br />
→ 4 quan<strong>do</strong> k, l → ∞. Usan<strong>do</strong> a primeira i<strong>de</strong>ntida<strong>de</strong><br />
∇ (uk + ul) 2<br />
L 2 (Ω) λ1 uk + ul 2<br />
L 2 (Ω) ,<br />
∇ (uk − ul) 2<br />
L2 2<br />
(Ω) 2 ∇ukL2 2<br />
(Ω) + 2 ∇ulL2 (Ω) − λ1 uk + ul 2<br />
L2 (Ω) → 0<br />
quan<strong>do</strong> k, l → ∞, isto é, (∇uk) é uma seqüência <strong>de</strong> Cauchy em L 2 (Ω), o que prova a afirmação. Segue que<br />
λ1 = ∇u 2<br />
L 2 (Ω)<br />
e o Teorema <strong>de</strong> Poincaré implica que λ1 = 0. Vamos <strong>de</strong>notar u = u1. Para mostrar que u1 é uma solução<br />
fraca <strong>de</strong> −∆u1 = λ1u1, observe que para to<strong>do</strong> v ∈ W 1,2<br />
0 (Ω) fixa<strong>do</strong> temos<br />
I (u1 + tv) = 〈∇ (u1 + tv) , ∇ (u1 + tv)〉 L 2 (Ω)<br />
〈(u1 + tv) , (u1 + tv)〉 L 2 (Ω)<br />
= ∇u1 2<br />
L2 (Ω) + 2t 〈∇u1, ∇v〉 L2 (Ω) + t2 ∇u1 2<br />
L2 (Ω)<br />
u1 2<br />
L2 (Ω) + 2t 〈u1, v〉 L2 (Ω) + t2 u1 2<br />
L2 (Ω)<br />
on<strong>de</strong> |t| é suficientemente pequeno para que o <strong>de</strong>nomina<strong>do</strong>r nunca se anule. Como u1 é um mínimo para<br />
este funcional, segue que<br />
0 = dI<br />
<br />
<br />
(u + tv) <br />
dt <br />
t=0<br />
<br />
2 〈∇u1, ∇v〉 L2 (Ω) + 2t ∇u1<br />
=<br />
2<br />
L2 <br />
(Ω) u1 + tv 2<br />
L2 (Ω) −<br />
<br />
2 〈u1, v〉 L2 (Ω) + 2t u1 2<br />
L2 <br />
(Ω) ∇ (u1 + tv) 2<br />
L2 (Ω)<br />
u1 + tv 4<br />
L2 <br />
<br />
<br />
<br />
<br />
(Ω)<br />
= 2 〈∇u1, ∇v〉 L 2 (Ω) u1 2<br />
L 2 (Ω) − 2 〈u1, v〉 L 2 (Ω) ∇u1 2<br />
L 2 (Ω)<br />
u1 + tv 4<br />
L 2 (Ω)<br />
= 2 〈∇u1, ∇v〉 L2 (Ω) − 2λ1 〈u1, v〉 L2 (Ω)<br />
u1 + tv 4<br />
L2 ,<br />
(Ω)<br />
ou seja, <br />
∇u1 · ∇v = λ1<br />
Ω<br />
para to<strong>do</strong> v ∈ W 1,2<br />
0 (Ω).<br />
Suponha como hipótese <strong>de</strong> indução que obtivemos (λ1, u1) , . . . , (λj−1, uj−1) satisfazen<strong>do</strong><br />
e<br />
<br />
Ω<br />
ui ∈ W 1,2<br />
0 (Ω) ,<br />
λ1 . . . λj−1,<br />
−∆u = λiu em Ω,<br />
〈ui, uk〉 L 2 (Ω) = δik<br />
para to<strong>do</strong>s 1 i, k j. Definimos<br />
<br />
Hj = v ∈ W 1,2<br />
<br />
0 (Ω) : 〈v, ui〉 L2 (Ω) = 0 para i = 1, . . . , j − 1 .<br />
u1v<br />
t=0
Rodney Josué Biezuner 24<br />
Em outras palavras, Hj é o subespaço <strong>de</strong> Hilbert ortogonal ao subespaço <strong>de</strong> dimensão finita gera<strong>do</strong> pelas<br />
autofunções u1, . . . , uj−1. Defina<br />
λj = inf I (u) .<br />
u∈Hj<br />
Como o ínfimo está toma<strong>do</strong> sobre um espaço menor, segue que<br />
λj λj−1.<br />
O fato <strong>de</strong> que Hj é um subespaço fecha<strong>do</strong> <strong>de</strong> W 1,2<br />
0 (Ω) permite repetir o mesmo argumento acima para obter<br />
uj ∈ Hj tal que ujL2 (Ω) = 1, λj = ∇uj 2<br />
L2 (Ω) . Também analogamente obtemos<br />
<br />
∇uj · ∇v = λj<br />
Ω<br />
para to<strong>do</strong> v ∈ Hj e a relação é trivialmente verda<strong>de</strong>ira para to<strong>do</strong> v ∈ W 1,2<br />
0 (Ω), já que uj é ortogonal ao<br />
subespaço gera<strong>do</strong> por u1, . . . , uj−1. Portanto uj é uma solução fraca <strong>de</strong> −∆u = λju em Ω.<br />
Para ver que λj → ∞, suponha por absur<strong>do</strong> que λj → λ0. Então obtemos uma seqüência (uj) ⊂ W 1,2<br />
0 (Ω)<br />
<strong>de</strong> autofunções associadas aos autovalores λk tais que ujL2 (Ω) = 1 e<br />
<br />
Ω<br />
ujv<br />
∇uj 2<br />
L 2 (Ω) = λj → λ0.<br />
Em particular, po<strong>de</strong>mos usar novamente o Teorema <strong>de</strong> Rellich-Kondrakhov para concluir que uj → u em<br />
L 2 (Ω). Mas isso é um absur<strong>do</strong>, pois a seqüência (uj) é ortonormal em L 2 (Ω) e portanto satisfaz<br />
e<br />
uk − ul 2<br />
L2 2<br />
(Ω) = ukL2 2<br />
(Ω) + ulL2 (Ω) = 2.<br />
Falta apenas provar os resulta<strong>do</strong>s <strong>de</strong> expansão. Para v ∈ W 1,2<br />
0 (Ω), escreva<br />
Para to<strong>do</strong> i k temos<br />
〈wk, ui〉 =<br />
<br />
v −<br />
αi = 〈v, ui〉 L 2 (Ω)<br />
vk =<br />
k<br />
αiui,<br />
i=1<br />
wk = v − vk.<br />
k<br />
i=1<br />
αiui, ui<br />
Daí, como ui é solução fraca, para to<strong>do</strong> i k temos também<br />
<strong>do</strong>n<strong>de</strong><br />
Desta última i<strong>de</strong>ntida<strong>de</strong> segue que<br />
<br />
= 〈v, ui〉 − αi = 0.<br />
〈∇wk, ∇ui〉 L 2 (Ω) = λi 〈wk, ui〉 L 2 (Ω) = 0,<br />
〈wk, wk〉 L 2 (Ω) = 〈v, v〉 L 2 (Ω) − 〈vk, vk〉 L 2 (Ω) ,<br />
〈∇wk, ∇wk〉 L 2 (Ω) = 〈∇v, ∇v〉 L 2 (Ω) − 〈∇vk, ∇vk〉 L 2 (Ω) .<br />
〈∇wk, ∇wk〉 L 2 (Ω) 〈∇v, ∇v〉 L 2 (Ω) .
Rodney Josué Biezuner 25<br />
Por <strong>de</strong>finição <strong>de</strong> λk,<br />
logo<br />
Em particular, concluímos que<br />
Para provar a segunda expansão, escreva<br />
<strong>do</strong>n<strong>de</strong><br />
Como<br />
segue que<br />
〈∇wk, ∇wk〉 L 2 (Ω) λk+1 〈wk, wk〉 L 2 (Ω) ,<br />
wk 2<br />
L 2 (Ω) = 〈wk, wk〉 L 2 (Ω) 1<br />
∇vk 2<br />
L 2 (Ω) =<br />
v = lim vk + lim wk =<br />
∇vk =<br />
λk+1<br />
〈∇v, ∇v〉 L 2 (Ω) → 0.<br />
∞<br />
αiui em L 2 (Ω) . (1.19)<br />
i=1<br />
k<br />
αi∇ui,<br />
i=1<br />
k<br />
α 2 i 〈∇ui, ∇ui〉 =<br />
i=1<br />
k<br />
α 2 i λi 〈ui, ui〉 =<br />
i=1<br />
k<br />
i=1<br />
〈∇wk, ∇wk〉 L 2 (Ω) + 〈∇vk, ∇vk〉 L 2 (Ω) = 〈∇v, ∇v〉 L 2 (Ω) ,<br />
∇vk 2<br />
L2 (Ω) ∇v2 L2 (Ω) .<br />
Soman<strong>do</strong>-se a isso o fato que os λi são não-negativos, concluímos que a série ∞<br />
∇ (wk − wl) 2<br />
L 2 (Ω) = ∇ (vl − vk) 2<br />
L 2 (Ω) =<br />
l<br />
i=k+1<br />
λiα 2 i .<br />
λiα<br />
i=1<br />
2 i<br />
λiα 2 i<br />
converge, <strong>de</strong> mo<strong>do</strong> que<br />
e portanto (∇wk) também é uma seqüência <strong>de</strong> Cauchy em L 2 (Ω), ou seja, (wk) converge em W 1,2<br />
0 (Ω).<br />
Conseqüentemente, em vista <strong>do</strong> resulta<strong>do</strong> anterior, wk → 0 em W 1,2<br />
0 (Ω), logo<br />
∇v 2<br />
L2 2<br />
(Ω) = lim ∇vkL2 (Ω) + 2 lim 〈∇vk, ∇wk〉 + lim ∇wk 2<br />
L2 (Ω) =<br />
Segue que (uj) é uma seqüência ortonormal e o fecho <strong>do</strong> subespaço gera<strong>do</strong> por (uj) é um espaço <strong>de</strong> Hilbert<br />
conten<strong>do</strong> W 1,2<br />
0 (Ω) conti<strong>do</strong> em L2 (Ω). Como W 1,2<br />
0 (Ω) = L2 (Ω), concluímos que {uj} é um sistema ortonormal<br />
completo para L2 (Ω). <br />
Observação 1. Segue <strong>de</strong>ste teorema, em particular, que aquelas funções v em L2 (Ω) que não estão em<br />
W 1,2<br />
0 (Ω) po<strong>de</strong>m ser caracterizadas pelo fato que ∞ i=1 λi 〈v, ui〉 L2 (Ω) diverge.<br />
Observação 2. Pelo Teorema 1.13, se ∂Ω for <strong>de</strong> classe C∞ , então as autofunções <strong>do</strong> problema <strong>de</strong> Dirichlet<br />
estão em C∞ Ω e são soluções clássicas.<br />
A <strong>de</strong>monstração <strong>do</strong> resulta<strong>do</strong> equivalente para o problema <strong>de</strong> autovalor com condição <strong>de</strong> Neumann é<br />
análoga (veja [Jost]):<br />
1.15 Teorema. Seja Ω ⊂ R n um aberto limita<strong>do</strong>. Então o problema <strong>de</strong> autovalor<br />
−∆u = λu em Ω, u ∈ W 1,2 (Ω)<br />
∞<br />
i=1<br />
λiα 2 i .
Rodney Josué Biezuner 26<br />
possui um número infinito enumerável <strong>de</strong> autovalores<br />
tais que<br />
e autofunções {uj} que satisfazem<br />
0 = λ0 λ1 λ2 . . . λj . . .<br />
∂u<br />
∂η<br />
λj → ∞,<br />
= 0 sobre ∂Ω<br />
e constituem um sistema ortonormal completo para L 2 (Ω), isto é,<br />
para to<strong>do</strong> v ∈ L 2 (Ω). Em particular,<br />
Além disso, para to<strong>do</strong> v ∈ W 1,2 (Ω) vale<br />
v =<br />
v 2<br />
L 2 (Ω) =<br />
∇v 2<br />
L 2 (Ω) =<br />
∞<br />
i=1<br />
∞<br />
i=1<br />
∞<br />
i=1<br />
αiui<br />
〈v, ui〉 2<br />
L 2 (Ω) .<br />
λi 〈v, ui〉 2<br />
L 2 (Ω) .<br />
Na <strong>de</strong>monstração <strong>do</strong> Teorema 1.14 usamos o princípio <strong>de</strong> Rayleigh para obter o primeiro autovalor<br />
<strong>do</strong> laplaciano como o mínimo <strong>do</strong> funcional <strong>de</strong> Rayleigh. Como os autovalores <strong>do</strong> laplaciano formam uma<br />
seqüência infinita que cresce arbitrariamente em módulo, o funcional <strong>de</strong> Rayleigh para o laplaciano não<br />
possui um máximo. Entretanto, da mesma forma que no caso <strong>de</strong> opera<strong>do</strong>res lineares em dimensão finita,<br />
po<strong>de</strong>mos também <strong>de</strong>rivar um princípio <strong>de</strong> minimax para obter os <strong>de</strong>mais autovalores <strong>do</strong> laplaciano:<br />
1.16 Teorema. Seja Ω ⊂ R n um aberto limita<strong>do</strong>. Sejam<br />
0 < λ1 λ2 . . . λj . . .<br />
os autovalores <strong>do</strong> laplaciano com condição <strong>de</strong> Dirichlet:<br />
−∆u = λu em Ω, u ∈ W 1,2<br />
0 (Ω) .<br />
Então, se Lj <strong>de</strong>nota o conjunto <strong>do</strong>s subespaços vetoriais <strong>de</strong> W 1,2<br />
0 (Ω) <strong>de</strong> dimensão j, temos<br />
ou, dualmente,<br />
λj = min<br />
L∈Lj<br />
λj = max<br />
L∈Lj−1<br />
⎛<br />
⎝ max<br />
u∈L<br />
u=1<br />
⎛<br />
⎝ min<br />
u⊥L<br />
u=1<br />
〈∇u, ∇u〉 L 2 (Ω)<br />
〈∇u, ∇u〉 L 2 (Ω)<br />
⎞<br />
⎠ = min<br />
L∈Lj<br />
⎞<br />
⎛<br />
⎠ = max<br />
L∈Lj−1<br />
⎝max<br />
u∈L<br />
u=0<br />
⎛<br />
⎝min<br />
u⊥L<br />
u=0<br />
〈∇u, ∇u〉 L 2 (Ω)<br />
u 2<br />
L 2 (Ω)<br />
〈∇u, ∇u〉 L 2 (Ω)<br />
u 2<br />
L 2 (Ω)<br />
⎞<br />
⎠ (1.20)<br />
⎞<br />
⎠ . (1.21)<br />
O resulta<strong>do</strong> análogo vale para os autovalores <strong>do</strong> laplaciano com condição <strong>de</strong> Neumann trocan<strong>do</strong>-se<br />
W 1,2<br />
0 (Ω) por W 1,2 (Ω) e λj por λj−1.
Rodney Josué Biezuner 27<br />
Prova: Vimos na <strong>de</strong>monstração <strong>do</strong> Teorema 1.13 que se L = 〈u1, . . . , uj−1〉 é o subespaço gera<strong>do</strong> pelas<br />
primeiras j − 1 autofunções u1, . . . , uj−1 <strong>do</strong> laplaciano, então<br />
λj = min<br />
u⊥L<br />
u=0<br />
〈∇u, ∇u〉 L2 (Ω)<br />
u 2<br />
L2 ;<br />
(Ω)<br />
<strong>de</strong> fato, o mínimo é realiza<strong>do</strong> em u = uj. Por outro la<strong>do</strong>, se L ′ = 〈u1, . . . , uj〉 é o subespaço gera<strong>do</strong> pelas<br />
primeiras j autofunções u1, . . . , uj <strong>do</strong> laplaciano, também temos<br />
De fato, para to<strong>do</strong> ui com i < j vale<br />
enquanto que<br />
Portanto, se u = n<br />
aiui ∈ L ′ , temos<br />
i=1<br />
〈∇u, ∇u〉 L 2 (Ω)<br />
u 2<br />
L 2 (Ω)<br />
= 〈∇u, ∇u〉 L 2 (Ω)<br />
〈u, u〉 L 2 (Ω)<br />
=<br />
λj = max<br />
u∈L ′<br />
u=0<br />
n<br />
λia2 i 〈ui, ui〉 L2 (Ω)<br />
i=1<br />
n<br />
a2 i 〈ui, ui〉 L2 (Ω)<br />
i=1<br />
〈∇ui, ∇ui〉 L 2 (Ω)<br />
ui 2<br />
L 2 (Ω)<br />
〈∇uj, ∇uj〉 L 2 (Ω)<br />
uj 2<br />
L 2 (Ω)<br />
〈∇u, ∇u〉 L2 (Ω)<br />
u 2<br />
L2 .<br />
(Ω)<br />
= λi λj,<br />
= λj.<br />
<br />
n<br />
ai∇ui,<br />
=<br />
i=1<br />
n<br />
<br />
ai∇ui<br />
<br />
n<br />
i=1<br />
<br />
aiui,<br />
i=1<br />
n<br />
aiui<br />
i=1<br />
i=1<br />
λj<br />
L 2 (Ω)<br />
L 2 (Ω)<br />
=<br />
n<br />
a2 i 〈ui, ui〉 L2 (Ω)<br />
n<br />
a2 i 〈ui, ui〉 L2 (Ω)<br />
= λj,<br />
i=1<br />
n<br />
a2 i 〈∇ui, ∇ui〉 L2 (Ω)<br />
i=1<br />
n<br />
a2 i 〈ui, ui〉 L2 (Ω)<br />
e o máximo é realiza<strong>do</strong> em u = uj.<br />
Agora, para provar (1.20), seja L ′ ⊂ Lj outro subespaço <strong>de</strong> W 1,2<br />
0 (Ω) <strong>de</strong> dimensão j, digamos L ′ =<br />
〈v1, . . . , vj〉. Afirmamos que existe um vetor não nulo v = j<br />
aivi ∈ L ′ tal que v ⊥ ui para i = 1, . . . , j − 1.<br />
De fato, basta tomar uma das soluções não triviais <strong>do</strong> sistema homogêneo<br />
⎧<br />
〈v, u1〉 =<br />
⎪⎨<br />
⎪⎩<br />
j<br />
ai 〈vi, u1〉 = 0<br />
i=1<br />
.<br />
〈v, uj−1〉 = j<br />
ai 〈vi, uj−1〉 = 0<br />
que possui j − 1 equações e j incógnitas. Logo, disso e <strong>do</strong> Teorema 1.15 segue que<br />
〈∇v, ∇v〉 L 2 (Ω)<br />
v 2<br />
L 2 (Ω)<br />
= ∇v2 L2 (Ω)<br />
v 2<br />
L2 =<br />
(Ω)<br />
∞<br />
i=1<br />
∞<br />
i=1<br />
i=1<br />
λi 〈v, ui〉 2<br />
L 2 (Ω)<br />
〈v, ui〉 2<br />
L 2 (Ω)<br />
=<br />
i=1<br />
∞<br />
i=j<br />
∞<br />
i=j<br />
λi 〈v, ui〉 2<br />
L 2 (Ω)<br />
〈v, ui〉 2<br />
L 2 (Ω)<br />
<br />
i=1<br />
∞<br />
λj<br />
i=j<br />
∞<br />
i=j<br />
〈v, ui〉 2<br />
L 2 (Ω)<br />
〈v, ui〉 2<br />
L 2 (Ω)<br />
= λj,
Rodney Josué Biezuner 28<br />
e portanto<br />
max<br />
u∈L ′<br />
u=0<br />
〈∇u, ∇u〉 L 2 (Ω)<br />
u 2<br />
L 2 (Ω)<br />
Isso prova (1.20).<br />
Para provar a afirmativa dual (1.21), seja L ⊂ Lj um subespaço <strong>de</strong> W 1,2<br />
0 (Ω) <strong>de</strong> dimensão j − 1, digamos<br />
L = 〈v1, . . . , vj−1〉. Afirmamos que existe um vetor não nulo v = j<br />
aiui ⊥ L, combinação linear <strong>do</strong>s vetores<br />
λj.<br />
u1, . . . , uj. De fato, basta tomar uma das soluções não triviais <strong>do</strong> sistema homogêneo<br />
⎧<br />
〈v, v1〉 =<br />
⎪⎨<br />
⎪⎩<br />
n<br />
ai 〈ui, v1〉 = 0<br />
i=1<br />
.<br />
.<br />
〈v, vj−1〉 = n<br />
ai 〈ui, vj−1〉 = 0<br />
i=1<br />
que possui j − 1 equações e j incógnitas. Então algum <strong>do</strong>s vetores u1, . . . , uj é perpendicular a L, digamos<br />
ui. Logo, disso e <strong>do</strong> Teorema 1.13 segue que<br />
〈∇v, ∇v〉 L 2 (Ω)<br />
v 2<br />
L 2 (Ω)<br />
e portanto<br />
= ∇v2 L2 (Ω)<br />
v 2<br />
L2 =<br />
(Ω)<br />
<br />
o que prova (1.21). <br />
λj<br />
i=1<br />
∞<br />
i=1<br />
j<br />
∞<br />
i=1<br />
∞<br />
i=1<br />
a 2 i 〈ui, ui〉 2<br />
L 2 (Ω)<br />
a 2 i 〈ui, ui〉 2<br />
L 2 (Ω)<br />
λi 〈v, ui〉 2<br />
L 2 (Ω)<br />
〈v, ui〉 2<br />
L 2 (Ω)<br />
= λj,<br />
min<br />
u⊥L<br />
u=0<br />
1.7.2 Comparação <strong>de</strong> <strong>Autovalores</strong><br />
=<br />
∞<br />
λi<br />
i=1<br />
j<br />
∞<br />
<br />
j<br />
i=1<br />
〈∇u, ∇u〉 L 2 (Ω)<br />
u 2<br />
L 2 (Ω)<br />
i=1<br />
2<br />
akuk, ui<br />
k=1<br />
L2 (Ω)<br />
2<br />
akuk, ui<br />
k=1<br />
λj,<br />
L 2 (Ω)<br />
=<br />
j<br />
i=1<br />
∞<br />
i=1<br />
a 2 i λi 〈ui, ui〉 2<br />
L 2 (Ω)<br />
a 2 i 〈ui, ui〉 2<br />
L 2 (Ω)<br />
Como uma conseqüência simples da caracterização minimax obtemos uma comparação entre os autovalores<br />
<strong>do</strong> laplaciano <strong>de</strong> Dirichlet e os autovalores <strong>do</strong> laplaciano <strong>de</strong> Neumann <strong>de</strong> um mesmo <strong>do</strong>mínio:<br />
1.17 Corolário. Seja Ω ⊂ R n um aberto limita<strong>do</strong>. Sejam<br />
0 < λ D 1 λ D 2 . . . λ D k . . .<br />
os autovalores <strong>do</strong> laplaciano com condição <strong>de</strong> Dirichlet e<br />
0 = λ N 0 λ N 1 λ N 2 . . . λ N k . . .<br />
os autovalores <strong>do</strong> laplaciano com condição <strong>de</strong> Neumann. Então<br />
para to<strong>do</strong> j.<br />
λ N j−1 λ D j
Rodney Josué Biezuner 29<br />
Prova: Denotan<strong>do</strong><br />
<br />
Lj W 1,2<br />
<br />
0 (Ω) = L ⊂ W 1,2<br />
<br />
0 (Ω) : L é um subespaço vetorial <strong>de</strong> dimensão j ,<br />
1,2 1,2<br />
W (Ω) = L ⊂ W (Ω) : L é um subespaço vetorial <strong>de</strong> dimensão j ,<br />
Lj<br />
como W 1,2<br />
0 (Ω) ⊂ W 1,2 (Ω), segue que<br />
Em particular, o mínimo sobre Lj<br />
que<br />
⎛<br />
λ N j−1 = min<br />
L∈Lj(W 1,2 (Ω))<br />
⎝ max<br />
u∈L<br />
u=1<br />
Lj<br />
<br />
W 1,2<br />
1,2<br />
0 (Ω) ⊂ Lj W (Ω) .<br />
<br />
W 1,2<br />
<br />
<br />
1,2<br />
0 (Ω) não po<strong>de</strong> ser maior que o mínimo sobre Lj W (Ω) . Segue<br />
〈∇u, ∇u〉 L 2 (Ω)<br />
⎞<br />
⎠ min<br />
L∈Lj(W 1,2<br />
0 (Ω))<br />
⎛<br />
⎝ max<br />
u∈L<br />
u=1<br />
〈∇u, ∇u〉 L 2 (Ω)<br />
⎞<br />
⎠ = λ D j .<br />
<br />
O que acontece com os autovalores <strong>do</strong> laplaciano <strong>de</strong> um <strong>do</strong>mínio Ω quan<strong>do</strong> este aumenta? Se nos<br />
restringirmos a simples aumentos <strong>de</strong> escala, a resposta é simples. Denote Ωa = {ax : x ∈ Ω}. Se u satisfaz<br />
<br />
−∆u = λu em Ω,<br />
então v (x) = u<br />
<br />
x<br />
<br />
satisfaz<br />
a<br />
<br />
u = 0 sobre ∂Ω,<br />
−∆v = λ<br />
v em Ωa,<br />
a2 v = 0 sobre ∂Ωa.<br />
Em particular, se a > 1 (dilatação), então os autovalores <strong>do</strong> laplaciano em Ωa são menores que os autovalores<br />
<strong>do</strong> laplaciano em Ω. No caso geral, ainda é verda<strong>de</strong> que os autovalores <strong>de</strong>crescem quan<strong>do</strong> o <strong>do</strong>mínio aumenta,<br />
e no caso <strong>do</strong>s autovalores <strong>de</strong> Dirichlet isto é novamente uma conseqüência simples da caracterização minimax:<br />
1.18 Corolário. Sejam Ω1 ⊂ Ω2 ⊂ R n abertos limita<strong>do</strong>s. Sejam λj (Ω1) e λj (Ω2) os autovalores <strong>de</strong><br />
Dirichlet <strong>do</strong> laplaciano em Ω1 e Ω2, respectivamente. Então<br />
para to<strong>do</strong> j.<br />
λj (Ω2) λj (Ω1)<br />
Prova: Po<strong>de</strong>mos consi<strong>de</strong>rar W 1,2<br />
0 (Ω1) ⊂ W 1,2<br />
0 (Ω2), porque qualquer função u ∈ W 1,2<br />
0 (Ω1) po<strong>de</strong> ser estendida<br />
a uma função u ∈ W 1,2<br />
0 (Ω2) <strong>de</strong>finin<strong>do</strong>-se<br />
<br />
u (x) se x ∈ Ω1,<br />
u (x) =<br />
0 se x ∈ Ω2\Ω1.<br />
Em particular, usan<strong>do</strong> a notação <strong>do</strong> corolário anterior, temos que<br />
<br />
Lj W 1,2<br />
<br />
0 (Ω1) ⊂ Lj W 1,2<br />
<br />
0 (Ω2) .<br />
e o mínimo sobre Lj<br />
λj (Ω2) = min<br />
L∈Lj(W 1,2<br />
0 (Ω2))<br />
<br />
W 1,2<br />
<br />
<br />
1,2<br />
0 (Ω1) não po<strong>de</strong> ser maior que o mínimo sobre Lj W (Ω2) . Logo<br />
⎛<br />
⎞<br />
⎛<br />
⎞<br />
⎝ max<br />
u∈L<br />
u=1<br />
〈∇u, ∇u〉 L 2 (Ω)<br />
⎠ min<br />
L∈Lj(W 1,2<br />
0 (Ω1))<br />
⎝ max<br />
u∈L<br />
u=1<br />
〈∇u, ∇u〉 L 2 (Ω)<br />
⎠ = λj (Ω1) .
Rodney Josué Biezuner 30<br />
<br />
No caso <strong>do</strong>s autovalores <strong>de</strong> Neumann, o resulta<strong>do</strong> continua váli<strong>do</strong> mas a <strong>de</strong>monstração é mais complicada<br />
porque o opera<strong>do</strong>r extensão E : W 1,2 (Ω1) −→ W 1,2 (Ω2) não preserva a norma: em geral Eu W 1,2 (Ω2) ><br />
u W 1,2 (Ω1) (embora exista uma constante C > 0 tal que Eu W 1,2 (Ω2) C u W 1,2 (Ω1) , esta constante é<br />
geralmente maior que 1) e por este motivo W 1,2 (Ω1) não po<strong>de</strong> ser consi<strong>de</strong>ra<strong>do</strong> um subespaço <strong>de</strong> Hilbert <strong>de</strong><br />
W 1,2 (Ω2).<br />
1.8 Conjunto Nodal e Domínios Nodais <strong>de</strong> uma Autofunção<br />
1.8.1 Princípio <strong>do</strong> Máximo Forte: o Primeiro Autovalor <strong>do</strong> <strong>Laplaciano</strong> é Simples<br />
O primeiro autovalor <strong>do</strong> laplaciano é simples, isto é, o seu autoespaço associa<strong>do</strong> tem dimensão 1, e possui<br />
uma autofunção associada positiva. Para provar este resulta<strong>do</strong>, precisamos <strong>do</strong> Princípio <strong>do</strong> Máximo Forte<br />
para opera<strong>do</strong>res elípticos, adapta<strong>do</strong> para o opera<strong>do</strong>r <strong>de</strong> Helmholtz (veja [Gilbarg-Trudinger] ou [Biezuner]<br />
para uma <strong>de</strong>monstração):<br />
1.19 Lema. (Princípio <strong>do</strong> Máximo Forte) Seja Ω ⊂ R n um aberto conexo. Seja u ∈ C 2 (Ω).<br />
Se ∆u 0 em Ω e u atinge o seu máximo no interior <strong>de</strong> Ω, então u é constante.<br />
Se ∆u 0 em Ω e u atinge o seu mínimo no interior <strong>de</strong> Ω, então u é constante.<br />
Prova: Provaremos a segunda afirmação, que será usada na seqüência; a <strong>de</strong>monstração da primeira é<br />
análoga. Afirmamos que se ∆u 0 em Ω, vale a seguinte <strong>de</strong>sigualda<strong>de</strong> <strong>do</strong> valor médio: para qualquer bola<br />
BR (x) ⊂⊂ Ω temos<br />
u (x) 1<br />
<br />
u =<br />
|BR| BR<br />
1<br />
ωnRn <br />
u, (1.22)<br />
BR<br />
on<strong>de</strong> ωn é o volume da bola unitária em Rn . Para provar esta <strong>de</strong>sigualda<strong>de</strong>, <strong>de</strong>fina para r ∈ (0, R] a função<br />
φ(r) = 1<br />
<br />
u.<br />
|∂Br|<br />
Para obter a <strong>de</strong>rivada da função φ, fazemos a mudança <strong>de</strong> variáveis<br />
<strong>de</strong> mo<strong>do</strong> que<br />
e daí<br />
φ(r) =<br />
ω =<br />
y − x<br />
,<br />
r<br />
1<br />
nωnrn−1 <br />
u(y) ds =<br />
∂Br<br />
1<br />
<br />
<br />
1<br />
u(x + rω) dω =<br />
u(x + rω) dω,<br />
nωn ∂B1(0)<br />
|∂B1(0)| ∂B1(0)<br />
φ ′ <br />
1<br />
(r) =<br />
|∂B1(0)|<br />
= 1<br />
<br />
|∂Br|<br />
∂Br<br />
∂B1(0)<br />
∂Br<br />
∇u(x + rω) · ω dω = 1<br />
<br />
y − x<br />
∇u(y) · ds<br />
|∂Br| ∂Br r<br />
∂u<br />
∂ν ds,<br />
pois o vetor normal unitário à ∂Br(x) apontan<strong>do</strong> para fora é exatamente o vetor<br />
da Divergência e por hipótese, temos <br />
∂Br<br />
∂u<br />
∂ν =<br />
<br />
∆u 0,<br />
Ω<br />
y − x<br />
. Mas, pelo Teorema<br />
r
Rodney Josué Biezuner 31<br />
logo<br />
e φ(r) é uma função <strong>de</strong>crescente. Portanto,<br />
1<br />
|∂Br|<br />
<br />
∂Br<br />
φ ′ (r) 0<br />
u 1<br />
<br />
u<br />
|∂BR| ∂BR<br />
para to<strong>do</strong> 0 < r R. Usan<strong>do</strong> o Teorema <strong>do</strong> Valor Médio para Integrais<br />
<br />
1<br />
lim<br />
u = u(x),<br />
r→0 |∂Br|<br />
∂Br<br />
obtemos<br />
u(x) 1<br />
<br />
u.<br />
|∂BR| ∂BR<br />
(1.23)<br />
Em particular, como R é arbitrário, vale a <strong>de</strong>sigualda<strong>de</strong><br />
nωnr n−1 <br />
u(x) u<br />
para to<strong>do</strong> r, e a <strong>de</strong>sigualda<strong>de</strong> <strong>do</strong> valor médio (1.22) é obtida integran<strong>do</strong>-se esta equação <strong>de</strong> r = 0 até r = R.<br />
Vamos agora provar o lema. Seja m = minΩ u e consi<strong>de</strong>re o conjunto A = {x ∈ Ω : u(x) = m}. Por<br />
hipótese, A é não-vazio e fecha<strong>do</strong> em Ω, pois u é contínua em Ω. Como Ω é conexo, para provar que A = Ω e<br />
portanto que u é constante, basta provar que A é aberto. De fato, da<strong>do</strong> x ∈ A e uma bola BR = BR(x) ⊂⊂ Ω,<br />
temos pela <strong>de</strong>sigualda<strong>de</strong> <strong>do</strong> valor médio para funções harmônicas que<br />
m = u(x) 1<br />
|BR|<br />
<br />
BR<br />
∂Br<br />
u 1<br />
|BR|<br />
<br />
BR<br />
m = m.<br />
Se houvesse pelo menos um ponto em BR(x) cujo valor é estritamente maior que m, então a <strong>de</strong>sigualda<strong>de</strong><br />
acima seria estrita, o que constituiria uma contradição. Concluímos que u ≡ m em BR(x), logo A é aberto.<br />
<br />
1.20 Lema. Seja Ω ⊂ R n um aberto. Seja u ∈ C 2 (Ω) uma solução <strong>de</strong> −∆u = λu em Ω, λ 0. Se u<br />
atinge um mínimo igual a 0 no interior <strong>de</strong> Ω, então u é constante.<br />
Prova: Se minΩ u = 0, em particular u 0 em Ω. Logo, ∆u = −λu 0 em Ω. Pelo Princípio <strong>do</strong> Máximo<br />
Forte, concluímos que u é constante. <br />
1.21 Teorema. Seja Ω ⊂ R n um aberto limita<strong>do</strong> conexo. Então o problema <strong>de</strong> autovalor<br />
−∆u = λu em Ω,<br />
u = 0 sobre ∂Ω,<br />
possui uma solução positiva u1 > 0 em Ω. Além disso, qualquer outra autofunção associada a λ1 é<br />
múltipla <strong>de</strong> u1.<br />
Prova: Para simplificar a <strong>de</strong>monstração, assumiremos que Ω tem regularida<strong>de</strong> suficiente para que u ∈<br />
C2 (Ω)∩C 0 Ω <strong>de</strong> mo<strong>do</strong> que po<strong>de</strong>mos usar o Princípio <strong>do</strong> Máximo Forte clássico da<strong>do</strong> no lema anterior (um<br />
princípio <strong>do</strong> máximo forte para funções em W 1,2<br />
0 (Ω) po<strong>de</strong> ser visto em [Gilbarg-Trudinger]). Pela formulação<br />
variacional, se u é uma autofunção associada a λ1, então |u| também é, pois I (u) = I (|u|). A teoria <strong>de</strong><br />
regularida<strong>de</strong> (Teorema 1.13) garante então que |u| ∈ C2 (Ω) ∩ C0 Ω também. Pelo lema anterior, u não<br />
po<strong>de</strong> se anular no interior <strong>de</strong> Ω, pois isso implicaria que |u| atinge o seu mínimo no interior, logo u > 0.<br />
Este argumento também implica que as autofunções associadas a λ1 são negativas ou positivas em Ω, logo<br />
não po<strong>de</strong>m ser ortogonais, e portanto o subespaço associa<strong>do</strong> a λ1 só po<strong>de</strong> ser unidimensional. <br />
Mais geralmente, vale o resulta<strong>do</strong> <strong>do</strong> Teorema 1.24 a seguir para to<strong>do</strong>s os autovalores <strong>do</strong> laplaciano.
Rodney Josué Biezuner 32<br />
1.8.2 Conjunto Nodal e Domínios Nodais <strong>de</strong> Autofunções <strong>do</strong> <strong>Laplaciano</strong><br />
Definição. Se λj é um autovalor <strong>do</strong> laplaciano em Ω e uj é uma autofunção associada, <strong>de</strong>finimos o conjunto<br />
nodal <strong>de</strong> uj por<br />
Γj = {x ∈ Ω : uj (x) = 0} .<br />
As componentes conexas <strong>de</strong> Ω\Γj são chamadas os <strong>do</strong>mínios nodais <strong>de</strong> uj.<br />
O conjunto nodal <strong>de</strong> uj é simplesmente o conjunto <strong>do</strong>s pontos on<strong>de</strong> uj se anula; a terminologia nodal é oriunda<br />
<strong>do</strong> estu<strong>do</strong> das vibrações <strong>de</strong> cordas e membranas em Mecânica. O Teorema 1.21 afirma que o conjunto nodal<br />
<strong>de</strong> u1 é vazio; em particular, se Ω é conexo, então Ω\Γ1 possui uma componente conexa, isto é, apenas<br />
um <strong>do</strong>mínio nodal. Para as <strong>de</strong>mais autofunções, o Teorema <strong>do</strong> Conjunto Nodal <strong>de</strong> Courant (Teorema 1.24<br />
abaixo) afirma que o número <strong>de</strong> <strong>do</strong>mínios nodais da autofunção uj não po<strong>de</strong> exce<strong>de</strong>r j.<br />
1.22 Lema. Seja Ω ⊂ R n um aberto limita<strong>do</strong> conexo e<br />
0 < λ1 < λ2 . . . λj . . .<br />
os autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano e u1, u2, . . . , uj, . . . as respectivas autofunções associadas. Se<br />
λj tem multiplicida<strong>de</strong> r, <strong>de</strong> mo<strong>do</strong> que<br />
λj−1 < λj = λj+1 = . . . = λj+r−1 < λj+r,<br />
Então uj possui no máximo j + r − 1 <strong>do</strong>mínios nodais.<br />
Prova: A <strong>de</strong>monstração <strong>do</strong> lema é baseada na caracterização variacional <strong>do</strong>s autovalores <strong>do</strong> laplaciano.<br />
Suponha que uj tenha m <strong>do</strong>mínios nodais Ω1, · · · , Ωm. Defina<br />
<br />
βiuj (x) se x ∈ Ωi,<br />
wi (x) =<br />
0 caso contrário,<br />
on<strong>de</strong> o fator <strong>de</strong> escala βi é escolhi<strong>do</strong> <strong>de</strong> tal forma que wi L 2 (Ω) = 1. Observe que, como os <strong>do</strong>mínios nodais<br />
Ωi são disjuntos, as funções wi são ortogonais em L 2 (Ω) e em W 1,2<br />
0 (Ω). Como<br />
para to<strong>do</strong> v ∈ W 1,2<br />
0 (Ω), em particular temos<br />
<br />
<br />
Ωi<br />
∇uj · ∇v = λj<br />
Ω<br />
∇wi · ∇wi = λj<br />
(embora wi seja uma autofunção <strong>do</strong> laplaciano em Ωi associada a λj, wi não é uma autofunção <strong>do</strong> laplaciano<br />
em Ω associada a λj; pelo Princípio da Continuação Única (veja o lema a seguir), uma autofunção que se<br />
anula em um aberto, <strong>de</strong>ve-se anular no <strong>do</strong>mínio to<strong>do</strong>). Consi<strong>de</strong>re combinações lineares v <strong>do</strong>s wi tais que<br />
vL2 (Ω) = 1, isto é,<br />
m<br />
v =<br />
i=1<br />
e a1, . . . , am ∈ R são quaisquer escalares que satisfazem<br />
m<br />
i=1<br />
aiwi<br />
a 2 i = 1.<br />
<br />
Ω<br />
<br />
ujv<br />
Ωi<br />
w 2 i
Rodney Josué Biezuner 33<br />
Em particular,<br />
ou seja,<br />
m<br />
〈∇v, ∇v〉 L2 (Ω) = a 2 i 〈∇wi, ∇wi〉 L2 (Ωi) =<br />
m<br />
i=1<br />
〈∇v, ∇v〉 L 2 (Ω)<br />
v L 2 (Ω)<br />
i=1<br />
= λj.<br />
Por outro la<strong>do</strong>, po<strong>de</strong>mos escolher a1, . . . , am <strong>de</strong> tal forma que<br />
para i = 1, . . . , m − 1, pois o sistema<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
〈v, ui〉 L 2 (Ω) = 0<br />
〈v, u1〉 = n<br />
ai 〈wi, u1〉 = 0<br />
i=1<br />
.<br />
.<br />
〈v, um−1〉 = n<br />
ai 〈wi, um−1〉 = 0<br />
i=1<br />
a 2 i λj 〈wi, wi〉 L 2 (Ωi)<br />
= λj,<br />
possui m − 1 equações e m incógnitas. Para esta escolha <strong>de</strong> v, segue <strong>do</strong> Teorema 1.13 que<br />
〈∇v, ∇v〉 L 2 (Ω)<br />
v 2<br />
L 2 (Ω)<br />
Portanto,<br />
= ∇v2 L2 (Ω)<br />
v 2<br />
L2 =<br />
(Ω)<br />
∞<br />
i=1<br />
∞<br />
i=1<br />
λi 〈v, ui〉 2<br />
L 2 (Ω)<br />
〈v, ui〉 2<br />
L 2 (Ω)<br />
=<br />
λm λj.<br />
∞<br />
i=m<br />
∞<br />
i=m<br />
λi 〈v, ui〉 2<br />
L 2 (Ω)<br />
〈v, ui〉 2<br />
L 2 (Ω)<br />
<br />
∞<br />
λm<br />
i=m<br />
∞<br />
i=m<br />
〈v, ui〉 2<br />
L 2 (Ω)<br />
〈v, ui〉 2<br />
L 2 (Ω)<br />
= λm.<br />
Como λj < λj+r, segue que λm < λj+r, <strong>do</strong>n<strong>de</strong> m < n + r. <br />
Em particular, se λj é um autovalor simples, o número máximo <strong>de</strong> <strong>do</strong>mínios nodais <strong>de</strong> uj é j. Para<br />
mostrar que esta mesma estimativa vale para as <strong>de</strong>mais autofunções, Courant e Hilbert produziram um<br />
refinamento complica<strong>do</strong> <strong>do</strong> seu argumento no lema acima. A <strong>de</strong>monstração simplificada apresentada a<br />
seguir é <strong>de</strong>vida a Herrman [Herrman] e Pleijel [Pleijel] (reproduzida em [Gladwell-Zhu]) e é baseada no<br />
Princípio da Continuação Única (uma <strong>de</strong>monstração <strong>de</strong>ste po<strong>de</strong> ser encontrada em [Aronszajn]):<br />
1.23 Lema. (Princípio da Continuação Única) Seja Ω ⊂ Rn um aberto limita<strong>do</strong> conexo. Se u é uma solução<br />
<strong>de</strong><br />
−∆u = λu em Ω<br />
que se anula em um aberto não vazio <strong>de</strong> Ω, então u ≡ 0.<br />
1.24 Teorema. (Teorema <strong>do</strong> Conjunto Nodal <strong>de</strong> Courant) Seja Ω ⊂ R n um aberto limita<strong>do</strong> conexo e<br />
0 < λ1 < λ2 . . . λj . . .<br />
os autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano e u1, u2, . . . , uj, . . . as respectivas autofunções associadas.<br />
Então uj possui no máximo j <strong>do</strong>mínios nodais.<br />
Prova: Suponha por absur<strong>do</strong> que uj tenha m > j <strong>do</strong>mínios nodais. Defina wi e v como na <strong>de</strong>monstração<br />
<strong>do</strong> Lema 1.22, escolhen<strong>do</strong><br />
aj+1 = . . . = am = 0,
Rodney Josué Biezuner 34<br />
<strong>de</strong> mo<strong>do</strong> que v ≡ 0 em Ωj+1 ∪ . . . ∪ Ωm. Como antes, temos<br />
e po<strong>de</strong>mos escolher a1, . . . , aj <strong>de</strong> tal forma que<br />
〈∇v, ∇v〉 L 2 (Ω)<br />
v L 2 (Ω)<br />
= λj<br />
〈v, ui〉 L 2 (Ω) = 0<br />
para i = 1, . . . , j − 1. Isso implica que v é uma autofunção associada a λj (como vimos na <strong>de</strong>monstração<br />
<strong>do</strong> Teorema 1.13, nestas condições o mínimo λj <strong>do</strong> quociente <strong>de</strong> Rayleigh é realiza<strong>do</strong> em uma autofunção<br />
<strong>de</strong> λj), isto é, é uma solução fraca <strong>de</strong> −∆u = λju em Ω. Como v se anula em Ωj+1 ∪ . . . ∪ Ωm, segue <strong>do</strong><br />
Princípio da Continuação Única que v ≡ 0 em Ω, contradizen<strong>do</strong> vL2 (Ω) = 1. <br />
Observe que o Teorema 1.24 implica que se λj tem multiplicida<strong>de</strong> r, <strong>de</strong> mo<strong>do</strong> que<br />
λj−1 < λj = λj+1 = . . . = λj+r−1 < λj+r,<br />
então qualquer autofunção associada a λj possui no máximo j <strong>do</strong>mínios nodais, mesmo as autofunções<br />
uj+1, . . . , uj+r−1.<br />
1.25 Corolário. O Teorema <strong>do</strong> Conjunto Nodal <strong>de</strong> Courant vale mesmo se Ω não é conexo.<br />
Prova: Sejam Ω = Ω1 ∪ . . . ∪ Ωp a <strong>de</strong>composição <strong>de</strong> Ω em componentes conexas. Denote por λk <br />
j j∈N<br />
a seqüência crescente <strong>de</strong> autovalores <strong>de</strong> Ωk com uk <br />
j j∈N as correspon<strong>de</strong>ntes autofunções. Seja {λj} j∈N =<br />
<br />
1 λj j∈N ∪ . . . ∪ λ p<br />
j a seqüência crescente <strong>de</strong> autovalores <strong>de</strong> Ω; as autofunções correspon<strong>de</strong>ntes são da<br />
j∈N<br />
forma<br />
<br />
k u<br />
uj (x) = i (x) se x ∈ Ωk,<br />
0 caso contrário,<br />
para alguns índices i, k, com j i. Pelo Teorema <strong>do</strong> Conjunto Nodal <strong>de</strong> Courant aplica<strong>do</strong> a Ωk, uk i não tem<br />
mais que i <strong>do</strong>mínios nodais em Ωk, logo uj não tem mais que j <strong>do</strong>mínios nodais em Ωk e é nula fora <strong>de</strong> Ωk.<br />
<br />
1.26 Corolário. Uma autofunção u2 associada ao segun<strong>do</strong> autovalor λ2 possui exatamente 2 <strong>do</strong>mínios<br />
nodais. Autofunções associadas a outros autovalores λj, j = 1, 2, possuem pelo menos <strong>do</strong>is <strong>do</strong>mínios<br />
nodais.<br />
Prova: Pelo Teorema <strong>do</strong> Conjunto Nodal <strong>de</strong> Courant, o número <strong>de</strong> <strong>do</strong>mínios nodais <strong>de</strong> u2 não po<strong>de</strong> exce<strong>de</strong>r<br />
2. Por outro la<strong>do</strong>, o fato <strong>de</strong> que uma autofunção u1 associada ao primeiro autovalor λ1 = λ2 ter o mesmo<br />
sinal em Ω, juntamente com o fato que u1 ⊥ u2, implicam que u2 muda <strong>de</strong> sinal em Ω, logo não po<strong>de</strong> ter<br />
apenas um <strong>do</strong>mínio nodal. Este mesmo argumento <strong>de</strong> ortogonalida<strong>de</strong>, u1 ⊥ uj se j = 1, implica que qualquer<br />
autofunção associada a um autovalor diferente <strong>de</strong> λ1 necessariamente muda <strong>de</strong> sinal em Ω. <br />
O Corolário 1.26 sugere que a estimativa dada no Teorema 1.24 é a melhor possível. Isso não é verda<strong>de</strong>, no<br />
entanto. Usan<strong>do</strong> a <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Faber-Krahn e a Lei <strong>de</strong> Weyl sobre a expansão assintótica <strong>do</strong>s autovalores,<br />
Pleijel [Pleijel] provou que para valores suficientemente gran<strong>de</strong>s <strong>de</strong> j, o número máximo <strong>de</strong> <strong>do</strong>mínios nodais<br />
j nunca é atingi<strong>do</strong> (Corolário 1.30, a seguir). A <strong>de</strong>monstração da <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Faber-Krahn dada a seguir<br />
é baseada na simetrização <strong>de</strong> Schwartz, que <strong>de</strong>finiremos a seguir.<br />
Definição. Seja Ω ⊂ R n um aberto limita<strong>do</strong>. O <strong>do</strong>mínio simetriza<strong>do</strong> Ω ∗ é a bola B = {x ∈ R n : |x| < R}<br />
que possui o mesmo volume <strong>de</strong> Ω.<br />
Dada uma função u : Ω −→ R, a função simetrizada u ∗ : Ω ∗ −→ R é <strong>de</strong>finida da seguinte forma.<br />
Denotan<strong>do</strong><br />
Ωµ = {x ∈ Ω : u (x) µ}<br />
<strong>de</strong>finimos<br />
u ∗ (x) = sup µ : x ∈ Ω ∗ <br />
µ .
Rodney Josué Biezuner 35<br />
Observe que u ∗ é uma função radialmente simétrica, não-crescente. Assumiremos os seguintes resulta<strong>do</strong>s<br />
sem <strong>de</strong>monstração (para uma prova, veja [Bandle], Lema 2.4 e Corolário 2.1):<br />
1.27 Lema. Seja Ω ⊂ Rn um aberto limita<strong>do</strong>. Então<br />
<br />
f <br />
e <br />
|∇u|<br />
Ω<br />
2 <br />
<br />
Ω<br />
Ω ∗<br />
Ω ∗<br />
f ∗<br />
|∇u ∗ | 2 .<br />
1.28 Teorema. (Desigualda<strong>de</strong> <strong>de</strong> Faber-Krahn) Seja Ω ⊂ R 2 um aberto limita<strong>do</strong>. Se λ1 é o primeiro<br />
autovalor <strong>de</strong> Dirichlet <strong>do</strong> laplaciano em Ω, então vale<br />
λ1 πα2 0,1<br />
A ,<br />
on<strong>de</strong> α0,1 é o primeiro zero positivo da função <strong>de</strong> Bessel J0 e A é a área <strong>de</strong> Ω.<br />
Prova: Seja (un) ⊂ W 1,2<br />
0 (Ω) uma seqüência minimizante para o quociente <strong>de</strong> Rayleigh I <strong>do</strong> primeiro<br />
autovalor <strong>de</strong> Dirichlet λ1 (Ω) <strong>do</strong> laplaciano em Ω. Como I (|u|) = I (u), po<strong>de</strong>mos assumir un 0 para to<strong>do</strong><br />
n. Então u ∗ n ∈ W 1,2<br />
0 (D), on<strong>de</strong> D = Ω ∗ é o disco <strong>de</strong> raio R que possui área A. Segue que<br />
<br />
Ω<br />
λ1 (Ω) = lim inf <br />
|∇un| 2<br />
Ω u2 n<br />
= α2 0,1 π<br />
=<br />
R2 πR2 α2 0,1 = πα2 0,1<br />
A .<br />
<br />
D lim inf<br />
|∇u∗n| 2<br />
<br />
D (u∗ 2 min<br />
n) u∈W 1,2<br />
0 (Ω)\{0}<br />
<br />
Ω |∇u|2<br />
<br />
Ω u2 = λ1 (D)<br />
<br />
A <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Faber-Krahn entre outras coisas comprova a conjectura <strong>de</strong> Rayleigh <strong>de</strong> que entre todas<br />
as regiões <strong>de</strong> mesma área, o disco tem o menor primeiro autovalor.<br />
1.29 Teorema. (Lei <strong>de</strong> Weyl) Seja Ω ⊂ R 2 um aberto limita<strong>do</strong> conexo e<br />
0 < λ1 < λ2 . . . λj . . .<br />
os autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano em Ω. Então<br />
λj ∼ 4πj<br />
A ,<br />
on<strong>de</strong> A é a área <strong>de</strong> Ω. Mais geralmente, se Ω ⊂ R n é um aberto limita<strong>do</strong>, então<br />
λj ∼ 4π 2<br />
2/n j<br />
,<br />
ωnV<br />
Prova: Veja [Weyl] ou [Courant-Hilbert], pág. .429–443 <br />
1.30 Corolário. Seja Ω ⊂ R 2 um aberto limita<strong>do</strong> conexo. Existe apenas um número finito <strong>de</strong> autovalores<br />
λj para os quais o número máximo j <strong>de</strong> <strong>do</strong>mínios nodais é atingi<strong>do</strong>.
Rodney Josué Biezuner 36<br />
Prova: A <strong>de</strong>monstração <strong>de</strong>ste corolário <strong>de</strong>pen<strong>de</strong> da observação <strong>de</strong> que se u é uma autofunção associada a<br />
um certo autovalor <strong>de</strong> Dirichlet λ e Ωi é qualquer <strong>do</strong>mínio nodal <strong>de</strong> u, então λ é o primeiro autovalor <strong>do</strong><br />
laplaciano em Ωi, isto é,<br />
λ1 (Ωi) = λ.<br />
De fato, ui = u|Ωi é uma autofunção associada a λ em Ωi, pois ui ∈ C2 (Ωi) ∩ C0 <br />
Ωi satisfaz −∆ui = λui<br />
em Ωi e ui = 0 em ∂Ωi (pois ∂Ωi está contida na união <strong>do</strong> conjunto nodal <strong>de</strong> u e ∂Ω, on<strong>de</strong> u = 0). Além<br />
disso, ui não muda <strong>de</strong> sinal em Ωi por <strong>de</strong>finição <strong>de</strong> <strong>do</strong>mínio nodal <strong>de</strong> u, logo possui apenas um <strong>do</strong>mínio nodal<br />
e portanto segue <strong>do</strong> Corolário 1.26 que ui é uma autofunção associada ao primeiro autovalor <strong>de</strong> Dirichlet em<br />
Ωi.<br />
Sejam Ω1, · · · , Ωm, m j, os <strong>do</strong>mínios nodais <strong>de</strong> uma autofunção u associada a λj. Como λj = λ1 (Ωi)<br />
para to<strong>do</strong> i, segue da Desigualda<strong>de</strong> <strong>de</strong> Faber-Krahn que<br />
λj πα2 0,1<br />
A (Ωi) ,<br />
on<strong>de</strong> A (Ωi) é a área <strong>de</strong> Ωi, para to<strong>do</strong> i. Escreven<strong>do</strong> estas <strong>de</strong>sigualda<strong>de</strong>s na forma<br />
e soman<strong>do</strong>-as para i = 1, . . . , m, segue que<br />
Logo, se o caso máximo m = j ocorre, temos<br />
A (Ωi)<br />
πα 2 0,1<br />
A (Ω)<br />
πα 2 0,1<br />
A (Ω)<br />
πα 2 0,1<br />
1<br />
,<br />
λj<br />
m<br />
.<br />
λj<br />
j<br />
.<br />
λj<br />
Se o número máximo m = j <strong>de</strong> <strong>do</strong>mínios nodais fosse atingi<strong>do</strong> para um número infinito <strong>de</strong> índices j, toman<strong>do</strong><br />
o limite nesta <strong>de</strong>sigualda<strong>de</strong> quan<strong>do</strong> j → ∞ para esta subseqüência <strong>de</strong> índices, teríamos pela Lei <strong>de</strong> Weyl que<br />
<strong>do</strong>n<strong>de</strong><br />
A (Ω)<br />
πα 2 0,1<br />
<br />
α0,1 2.<br />
A (Ω)<br />
4π ,<br />
Mas α0,1 = 2.404825558..., contradição. <br />
Com relação aos conjuntos nodais das autofunções <strong>do</strong> laplaciano, po<strong>de</strong>-se dizer que eles são altamente<br />
regulares: o conjunto nodal <strong>de</strong> uma autofunção u <strong>do</strong> laplaciano em Ω ⊂ R n é localmente composto <strong>de</strong><br />
hiperfícies <strong>de</strong> dimensão n − 1, que po<strong>de</strong>m se intersectar em superfícies <strong>de</strong> dimensão menor que n − 1 (veja<br />
[Cheng] para o enuncia<strong>do</strong> preciso e sua <strong>de</strong>monstração). Estas hiperfícies não po<strong>de</strong>m terminar no interior <strong>de</strong><br />
Ω, o que significa que ou elas são fechadas, ou elas começam e terminam na fronteira <strong>de</strong> Ω. Além disso, no<br />
caso bidimensional, quan<strong>do</strong> as curvas nodais se intersectam, ou quan<strong>do</strong> elas interceptam a fronteira, elas o<br />
fazem em ângulos iguais; assim, por exemplo, se uma curva nodal intercepta a fronteira, ela o faz em um<br />
ângulo reto, enquanto que se duas curvas nodais interceptam a fronteira no mesmo ponto, elas o fazem em<br />
ângulos <strong>de</strong> π/3 e guardam também um ângulo <strong>de</strong> π/3 entre si (veja [Courant-Hilbert]).<br />
Exemplo 8. Como vimos no Exemplo 2, os autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano no quadra<strong>do</strong> Q = [0, π] 2 ⊂<br />
R 2 são da<strong>do</strong>s por<br />
λnm = n 2 + m 2 , n, m ∈ N,
Rodney Josué Biezuner 37<br />
com correspon<strong>de</strong>ntes autofunções<br />
unm (x, y) = sen nx sen my.<br />
O autovalor λ2 = λ3 = 5 tem multiplicida<strong>de</strong> 2 e o seu autoespaço é constituí<strong>do</strong> pelas funções da forma<br />
u (x, y) = A sen x sen 2y + B sen 2x sen y, A, B ∈ R.<br />
Para A = 0, u tem uma reta nodal vertical (x = π/2); para B = 0, u tem uma reta nodal horizontal<br />
(y = π/2); se A = ±B, u tem uma reta nodal diagonal (a reta y = x se A = −B e a reta y = −x + 1<br />
se A = B); nos <strong>de</strong>mais casos, a curva nodal é especificada pela equação transcen<strong>de</strong>ntal<br />
A cos y + B cos x = 0,<br />
que é uma curva que intercepta a fronteira em <strong>do</strong>is pontos em ângulos retos. Em to<strong>do</strong>s os casos, a<br />
curva nodal <strong>de</strong> uma autofunção associada ao autovalor 5 divi<strong>de</strong> o quadra<strong>do</strong> em <strong>do</strong>is <strong>do</strong>mínios nodais.<br />
O autovalor λ4 = 8 é simples, com o seu autoespaço gera<strong>do</strong> pela autofunção<br />
u (x, y) = sen 2x sen 2y,<br />
cujo conjunto nodal é a união das retas vertical x = π/2 e horizontal y = π/2; ela possui portanto<br />
quatro <strong>do</strong>mínios nodais.<br />
O autovalor λ5 = λ6 = 10 também tem multiplicida<strong>de</strong> 2 e o seu autoespaço é constituí<strong>do</strong> pelas funções<br />
da forma<br />
u (x, y) = A sen x sen 3y + B sen 3x sen y, A, B ∈ R.<br />
Para A = 0, u tem duas retas nodais verticais (x = π/3 e x = 2π/3); para B = 0, u tem duas retas<br />
nodais horizontais (y = π/3 e y = 2π/3); em ambos os casos, temos três <strong>do</strong>mínios nodais. Se A = −B,<br />
u tem as duas diagonais <strong>do</strong> quadra<strong>do</strong> como retas nodais, originan<strong>do</strong> quatro <strong>do</strong>mínios nodais, enquanto<br />
que se A = B, u tem uma curva nodal fechada<br />
sen 2 x + sen 2 y = 3/2<br />
que divi<strong>de</strong> o quadra<strong>do</strong> em apenas <strong>do</strong>is <strong>do</strong>mínios nodais, a região interior à curva e a região exterior.<br />
Pleijel verifica em [Pleijel] que os únicos autovalores <strong>do</strong> laplaciano no quadra<strong>do</strong> que possuem autofunções<br />
que assumem o número maximal <strong>de</strong> <strong>do</strong>mínios nodais são λ1 = 2 (um <strong>do</strong>mínio nodal),<br />
λ2 = λ3 = 5 (<strong>do</strong>is <strong>do</strong>mínios nodais) e λ4 = 8 (quatro <strong>do</strong>mínios nodais). <br />
1.9 Multiplicida<strong>de</strong> <strong>do</strong>s <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong><br />
Em regiões com algum tipo <strong>de</strong> simetria, o laplaciano freqüentemente possui autovalores com multiplicida<strong>de</strong>s<br />
maiores que 1.<br />
Exemplo 9. Como os autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano no quadra<strong>do</strong> Q = [0, π] 2 ⊂ R 2 , da<strong>do</strong>s por<br />
com correspon<strong>de</strong>ntes autofunções<br />
λnm = n 2 + m 2 , n, m ∈ N,<br />
unm (x, y) = sen nx sen my,<br />
vemos imediatamente que sempre que n = m o autovalor λnm terá multiplicida<strong>de</strong> pelo menos igual a<br />
2, já que as autofunções<br />
unm (x, y) = sen nx sen my e umn (x, y) = sen mx sen ny
Rodney Josué Biezuner 38<br />
são linearmente in<strong>de</strong>pen<strong>de</strong>ntes. Na verda<strong>de</strong>, o conjunto <strong>de</strong> todas as autofunções unm associadas ao<br />
autovalor λnm é linearmente in<strong>de</strong>pen<strong>de</strong>nte, logo a questão da multiplicida<strong>de</strong> <strong>do</strong> autovalor λnm é reduzida<br />
à questão <strong>de</strong> quantos maneiras diferentes um número inteiro p po<strong>de</strong> ser escrito como a soma<br />
<strong>de</strong> quadra<strong>do</strong>s inteiros n 2 + m 2 . A Teoria <strong>do</strong>s Números permite respon<strong>de</strong>r precisamente a esta questão<br />
(veja [Kuttler-Sigillito] para referências). Obtemos a <strong>de</strong>composição em primos <strong>do</strong> autovalor<br />
λnm = 2 α p r1<br />
1<br />
. . . prk<br />
k qs1 1 . . . qsl<br />
l ,<br />
on<strong>de</strong> os primos pi são da forma 4t + 1, enquanto que os primos qj são da forma 4t + 3, e to<strong>do</strong>s os si<br />
são pares. Segue que a multiplicida<strong>de</strong> <strong>do</strong> autovalor λnm é<br />
mult (λnm) =<br />
k<br />
(ri + 1) .<br />
Em particular, o laplaciano possui autovalores no quadra<strong>do</strong> <strong>de</strong> multiplicida<strong>de</strong> arbitrariamente gran<strong>de</strong>.<br />
<br />
O comportamento exibi<strong>do</strong> pelo laplaciano no quadra<strong>do</strong> nos Exemplos 8 e 9 não é típico, no entanto.<br />
Em [Uhlenbeck1] e [Uhlenbeck2], Uhlenbeck mostrou que na maioria das regiões (no senti<strong>do</strong> genérico), os<br />
autovalores <strong>do</strong> laplaciano são to<strong>do</strong>s simples, os conjuntos nodais das autofunções são <strong>de</strong> fato hiperfícies<br />
que não se autointerceptam e os pontos críticos das autofunções são máximos ou mínimos não-<strong>de</strong>genera<strong>do</strong>s<br />
(as autofunções são funções <strong>de</strong> Morse). Assim, dada qualquer região, existem perturbações suficientemente<br />
pequenas que a transformarão em uma região com estas proprieda<strong>de</strong>s, ou seja, autovalores múltiplos se<br />
tornarão distintos e cruzamentos das linhas nodais <strong>de</strong>saparecerão.<br />
i=1
Capítulo 2<br />
Méto<strong>do</strong> <strong>de</strong> Diferenças Finitas<br />
2.1 O Caso Unidimensional<br />
Nesta seção, <strong>de</strong>senvolveremos um méto<strong>do</strong> numérico <strong>de</strong> diferenças finitas para resolver o problema <strong>de</strong> Dirichlet<br />
para a equação <strong>de</strong> Poisson em uma dimensão<br />
−u ′′ = f (x) em [0, a] ,<br />
u (0) = u (a) = 0,<br />
e para o problema <strong>de</strong> autovalor <strong>de</strong> Dirichlet para o laplaciano<br />
−u ′′ = λu em [0, a] ,<br />
u (0) = u (a) = 0.<br />
2.1.1 Séries <strong>de</strong> Taylor e Diferenças Finitas em Uma Dimensão<br />
Seja ∆x > 0. Consi<strong>de</strong>re as seguintes expansões <strong>de</strong> Taylor <strong>de</strong> uma função u em torno <strong>de</strong> um ponto x0,<br />
respectivamente à direita e à esquerda <strong>de</strong> x0:<br />
Daí,<br />
u(x0 + ∆x) = u(x0) + u ′ (x0)∆x + 1<br />
2! u′′ (x0)∆x 2 + 1<br />
3! u′′′ (x0)∆x 3 + . . . , (2.1)<br />
u(x0 − ∆x) = u(x0) − u ′ (x0)∆x + 1<br />
2! u′′ (x0)∆x 2 − 1<br />
3! u′′′ (x0)∆x 3 + . . . (2.2)<br />
u ′ (x0) = u(x0 + ∆x) − u(x0)<br />
∆x<br />
u ′ (x0) = u(x0) − u(x0 − ∆x)<br />
∆x<br />
− 1<br />
2! u′′ (x0)∆x − 1<br />
3! u′′′ (x0)∆x 2 − . . . ,<br />
+ 1<br />
2! u′′ (x0)∆x − 1<br />
3! u′′′ (x0)∆x 2 + . . .<br />
Isso fornece duas aproximações possíveis para a primeira <strong>de</strong>rivada u ′ (x0) <strong>de</strong> u em x0:<br />
u ′ (x0) ≈ u(x0 + ∆x) − u(x0)<br />
,<br />
∆x<br />
(2.3)<br />
u ′ (x0) ≈ u(x0) − u(x0 − ∆x)<br />
.<br />
∆x<br />
(2.4)<br />
A primeira é chamada uma diferença progressiva e a segunda é uma diferença regressiva. Pela Fórmula<br />
<strong>de</strong> Taylor com Resto, o erro <strong>de</strong>stas aproximações é da<strong>do</strong> por<br />
ɛ = ± 1<br />
2 u′′ (ξ)∆x = O(∆x),<br />
39
Rodney Josué Biezuner 40<br />
on<strong>de</strong> x0 ξ x0 + ∆x no primeiro caso, e x0 − ∆x ξ x0 no segun<strong>do</strong> caso.<br />
Por outro la<strong>do</strong>, se subtrairmos (2.2) <strong>de</strong> (2.1), obtemos<br />
u ′ (x0) = u(x0 + ∆x) − u(x0 − ∆x)<br />
2∆x<br />
− 1<br />
3! u′′′ (x0)∆x 2 − 1<br />
5! u(5) (x0)∆x 4 − . . .<br />
o que dá uma outra aproximação possível para a primeira <strong>de</strong>rivada u ′ (x0) <strong>de</strong> u em x0:<br />
u ′ (x0) ≈ u(x0 + ∆x) − u(x0 − ∆x)<br />
2∆x<br />
com erro<br />
ɛ = − 1<br />
6 u′′′ (ξ)∆x 2 = O(∆x 2 ),<br />
para algum x0 − ∆x ξ x0 + ∆x. Esta aproximação por diferença finita é chamada diferença centrada.<br />
Ela é uma melhor aproximação que as aproximações laterais (progressiva e regressiva).<br />
Se, ao invés, adicionarmos (2.1) e (2.2), obtemos<br />
u ′′ (x0) = u(x0 + ∆x) + u(x0 − ∆x) − 2u(x0)<br />
∆x 2<br />
o que fornece uma aproximação para a <strong>de</strong>rivada segunda u ′′ (x0) <strong>de</strong> u em x0:<br />
u ′′ (x0) ≈ u(x0 + ∆x) + u(x0 − ∆x) − 2u(x0)<br />
∆x 2<br />
− 2<br />
4! u(4) (x0)∆x 2 − 2<br />
5! u(6) (x0)∆x 4 − . . .<br />
com erro<br />
ɛ = − 1<br />
12 u(4) (ξ)∆x 2 = O(∆x 2 ),<br />
on<strong>de</strong> x0 − ∆x ξ x0 + ∆x. Esta aproximação é também chamada uma diferença centrada para a<br />
<strong>de</strong>rivada segunda.<br />
2.1.2 Discretização<br />
Dividimos o intervalo [0, a] em n subintervalos <strong>de</strong> comprimento ∆x = a/n através <strong>de</strong> n − 1 pontos interiores<br />
uniformemente espaça<strong>do</strong>s:<br />
x0 = 0, x1 = ∆x, x2 = 2∆x, . . . , xn−1 = (n − 1) ∆x, xn = n∆x = a,<br />
<strong>de</strong> mo<strong>do</strong> que [0, a] = [x0, x1] ∪ [x1, x2] ∪ . . . ∪ [xn−1, xn]. Introduzimos a notação:<br />
ui = u(xi),<br />
fi = f (xi) .<br />
Esta é uma discretização uniforme <strong>do</strong> intervalo [0, a]. Uma vez discretiza<strong>do</strong> o <strong>do</strong>mínio da equação diferencial<br />
parcial, proce<strong>de</strong>mos à discretização <strong>de</strong>sta. Usan<strong>do</strong> diferenças centradas para cada ponto interior xi, 1 i <br />
n − 1, temos<br />
−ui−1 + 2ui − ui+1<br />
∆x 2 = fi. (2.7)<br />
Para os pontos <strong>de</strong> fronteira, a condição <strong>de</strong> Dirichlet implica simplesmente que<br />
(2.5)<br />
(2.6)<br />
u0 = un = 0. (2.8)
Rodney Josué Biezuner 41<br />
Portanto, para encontrar a solução discretizada temos que resolver o sistema linear com n − 1 equações a<br />
n − 1 incógnitas: ⎧⎪ ⎨<br />
ou seja,<br />
⎪⎩<br />
1<br />
∆x2 ⎡<br />
2 −1<br />
⎢<br />
−1<br />
⎢<br />
⎣<br />
2<br />
−1<br />
−1<br />
. ..<br />
. ..<br />
∆x −2 (2u1 + u2) = f1<br />
∆x −2 (−u1 + 2u2 − u3) = f2<br />
.<br />
.<br />
∆x −2 (−un−3 + 2un−2 − un−1) = f2<br />
∆x −2 (−un−2 + 2un−1) = fn−1<br />
. ..<br />
. .. −1<br />
−1 2 −1<br />
−1 2<br />
⎤ ⎡<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎦ ⎣<br />
u1<br />
u2<br />
.<br />
.<br />
un−2<br />
un−1<br />
⎤<br />
,<br />
⎡<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ = ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎦ ⎣<br />
Esta é uma matriz tridiagonal simétrica, esparsa. Além disso, como veremos na próxima subseção, ela é<br />
positiva <strong>de</strong>finida (isto é, seus autovalores são positivos) e portanto possui uma inversa, o que garante a<br />
existência e unicida<strong>de</strong> da solução. Dada sua simplicida<strong>de</strong>, ela po<strong>de</strong> ser resolvida por eliminação gaussiana<br />
ou sua inversa po<strong>de</strong> ser efetivamente calculada. Por exemplo, para n = 4, 5, 6 temos<br />
⎡<br />
⎢<br />
⎣<br />
⎡<br />
⎣<br />
2 −1 0<br />
−1 2 −1<br />
0 −1 2<br />
2 −1 0 0<br />
−1 2 −1 0<br />
0 −1 2 −1<br />
0 0 −1 2<br />
⎡<br />
⎢<br />
⎣<br />
⎤<br />
⎥<br />
⎦<br />
−1<br />
0 0 3<br />
4<br />
1<br />
3<br />
2<br />
3<br />
f1<br />
f2<br />
.<br />
.<br />
fn−2<br />
fn−1<br />
⎤−1<br />
⎡<br />
⎦ = ⎣ 1 ⎤ ⎡ ⎤ ⎡ ⎤<br />
1 1 1<br />
2 3 2 0 0 1 0 0<br />
2 0 1 ⎦ ⎣ 2<br />
3 0 3 0 ⎦ ⎣ 1<br />
2 1 0 ⎦ =<br />
0 0 1<br />
1<br />
1<br />
⎡<br />
⎣<br />
4<br />
=<br />
2 −1 0 0 0<br />
−1 2 −1 0 0<br />
0 −1 2 −1 0<br />
0 0 −1 2 −1<br />
0 0 0 −1 2<br />
⎡<br />
⎢<br />
⎣<br />
⎤<br />
⎥<br />
⎦<br />
1<br />
4<br />
2<br />
0<br />
0<br />
0<br />
0<br />
3<br />
1<br />
0<br />
4<br />
3<br />
4<br />
1<br />
1 1 1 2 3<br />
2 0 1<br />
−1<br />
⎤ ⎡<br />
1<br />
2 0 0 0<br />
4<br />
4<br />
0 0 0 5<br />
⎤ ⎡<br />
⎥ ⎢ 2<br />
⎥ ⎢ 0 3 0 0 ⎥ ⎢<br />
⎥ ⎢<br />
⎦ ⎣<br />
3 0 0 0 ⎦ ⎣<br />
A forma da inversa no caso geral po<strong>de</strong> ser facilmente adivinhada.<br />
1 0 0 0<br />
1<br />
2 1 0 0<br />
1<br />
3<br />
1<br />
4<br />
2<br />
3 1 0<br />
1<br />
2<br />
4<br />
3<br />
4<br />
⎤<br />
⎥ .<br />
⎥<br />
⎦<br />
⎤<br />
3 2 1<br />
2 4 2<br />
1 2 3<br />
⎥<br />
1<br />
⎦ =<br />
5<br />
⎡<br />
⎢<br />
⎣<br />
⎤<br />
⎦ ,<br />
4 3 2 1<br />
3 6 4 2<br />
2 4 6 3<br />
1 2 3 4<br />
⎡<br />
1 1 1<br />
1 2 3 4<br />
⎢<br />
2 2<br />
⎢ 0 1 3 4<br />
= ⎢<br />
3<br />
⎢ 0 0 1 4<br />
⎣ 0 0 0 1<br />
0 0 0 0<br />
=<br />
⎤ ⎡<br />
1<br />
5<br />
2 ⎥ ⎢<br />
5 ⎥ ⎢<br />
3 ⎥ ⎢<br />
5 ⎥ ⎢<br />
4 ⎦ ⎣<br />
5<br />
1<br />
1<br />
2<br />
0<br />
0<br />
0<br />
0<br />
0<br />
2<br />
3<br />
0<br />
0<br />
0<br />
0<br />
0<br />
3<br />
4<br />
0<br />
0<br />
0<br />
0<br />
0<br />
4<br />
5<br />
0<br />
0<br />
0<br />
0<br />
0<br />
5<br />
6<br />
⎤ ⎡<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎦ ⎣<br />
1<br />
1<br />
2<br />
1<br />
3<br />
1<br />
4<br />
1<br />
5<br />
0<br />
1<br />
2<br />
3<br />
1<br />
2<br />
5<br />
0<br />
0<br />
1<br />
3<br />
4<br />
3<br />
5<br />
0<br />
0<br />
0<br />
1<br />
4<br />
5<br />
⎤<br />
0<br />
0 ⎥<br />
0 ⎥<br />
0 ⎦<br />
1<br />
1<br />
⎡<br />
5 4 3 2<br />
⎢ 4 8 6 4<br />
⎢<br />
6 ⎢ 3 6 9 6<br />
⎣ 2 4 6 8<br />
⎤<br />
1<br />
2 ⎥<br />
3 ⎥<br />
4 ⎦<br />
1 2 3 4 5<br />
.<br />
⎤<br />
⎥<br />
⎦
Rodney Josué Biezuner 42<br />
2.1.3 Resolução Numérica <strong>do</strong> Problema <strong>de</strong> Autovalor Unidimensional<br />
Os autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano em [0, a] <strong>de</strong>vem ser aproxima<strong>do</strong>s pelos autovalores da matriz<br />
(n − 1) × (n − 1)<br />
A = 1<br />
∆x2 ⎡<br />
2 −1<br />
⎤<br />
⎢<br />
−1<br />
⎢<br />
⎣<br />
2<br />
−1<br />
−1<br />
. ..<br />
. ..<br />
. ..<br />
. ..<br />
−1<br />
−1<br />
2 −1<br />
⎥<br />
⎦<br />
−1 2<br />
quan<strong>do</strong> n → ∞ e correspon<strong>de</strong>ntemente ∆x → 0.<br />
Lembran<strong>do</strong> que as autofunções <strong>de</strong> Dirichlet <strong>do</strong> laplaciano no intervalo [0, a] são as funções<br />
Uj (x) = sen jπx<br />
a ,<br />
este fato sugere que os autovetores uj da matriz A são os vetores <strong>de</strong> coor<strong>de</strong>nadas<br />
Uj (x1) , Uj (x2) , . . . , Uj (xn−2) , Uj (xn−1) = Uj (∆x) , Uj (2∆x) , . . . , Uj ((n − 2) ∆x) , Uj ((n − 1) ∆x) ,<br />
ou seja, como ∆x = a/n, os vetores<br />
1 θ<br />
sin = cos θ<br />
2 2<br />
<br />
uj = sen jπ<br />
<br />
2jπ (n − 2) jπ (n − 1) jπ<br />
, sen , . . . , sen , sen .<br />
n n n<br />
n<br />
Usan<strong>do</strong> i<strong>de</strong>ntida<strong>de</strong>s trigonométricas, vamos verificar que isso <strong>de</strong> fato acontece:<br />
2.1 Lema. Os n − 1 autovalores da matriz A são<br />
λj = 2<br />
∆x2 <br />
1 − cos jπ<br />
<br />
=<br />
n<br />
4 jπ<br />
sen2 ,<br />
∆x2 2n<br />
j = 1, . . . , n − 1, (2.9)<br />
e os autovetores correspon<strong>de</strong>ntes são<br />
<br />
uj = sen jπ 2jπ<br />
, sen<br />
n n<br />
(n − 2) jπ<br />
, . . . , sen , sen<br />
n<br />
<br />
(n − 1) jπ<br />
, j = 1, . . . , n − 1. (2.10)<br />
n
Rodney Josué Biezuner 43<br />
Prova. Temos<br />
⎡<br />
2 −1<br />
⎢<br />
−1<br />
⎢<br />
⎣<br />
2<br />
−1<br />
−1<br />
. ..<br />
. ..<br />
pois<br />
e<br />
. ..<br />
. .. −1<br />
−1 2 −1<br />
−1 2<br />
2 sen jπ<br />
n<br />
− sen 2jπ<br />
n<br />
⎡<br />
⎤<br />
⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎦ ⎢<br />
⎣<br />
sen<br />
sen jπ<br />
n<br />
sen 2jπ<br />
n<br />
.<br />
(n − 2) jπ<br />
sen<br />
n<br />
(n − 1) jπ<br />
n<br />
= 2 sen jπ<br />
n<br />
⎤ ⎡<br />
⎥ ⎢<br />
2 sen<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ = ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎦ ⎣<br />
jπ 2jπ<br />
− sen<br />
n n<br />
− sen jπ<br />
⎤<br />
⎥<br />
2jπ 3jπ<br />
⎥<br />
+ 2 sen − sen ⎥<br />
n n n<br />
⎥<br />
.<br />
⎥<br />
(n − 3) jπ (n − 2) jπ (n − 1) jπ ⎥<br />
− sen + 2 sen − sen ⎥<br />
n<br />
n<br />
n ⎥<br />
(n − 2) jπ (n − 1) jπ ⎦<br />
− sen + 2 sen<br />
n<br />
n<br />
<br />
= 2 1 − cos jπ<br />
⎡<br />
⎢<br />
sen<br />
⎢<br />
⎢<br />
n ⎢<br />
⎣<br />
jπ<br />
n<br />
sen 2jπ<br />
⎤<br />
⎥<br />
n<br />
⎥<br />
. ⎥ ,<br />
⎥<br />
(n − 2) jπ ⎥<br />
sen ⎥<br />
n ⎥<br />
(n − 1) jπ ⎦<br />
sen<br />
n<br />
− 2 sen jπ<br />
n<br />
cos jπ<br />
n<br />
<br />
= 2 1 − cos jπ<br />
<br />
sen<br />
n<br />
jπ<br />
n ,<br />
(n − k − 1) jπ (n − k) jπ (n − k + 1) jπ<br />
− sen + 2 sen − sen<br />
<br />
n<br />
n<br />
n<br />
(n − k) jπ<br />
= − sen<br />
−<br />
n<br />
jπ<br />
<br />
<br />
(n − k) jπ (n − k) jπ<br />
+ 2 sen − sen<br />
+<br />
n<br />
n<br />
n<br />
jπ<br />
<br />
n<br />
(n − k) jπ<br />
= − sen cos<br />
n<br />
jπ (n − k) jπ<br />
+ cos sen<br />
n n<br />
jπ (n − k) jπ<br />
+ 2 sen<br />
n n<br />
(n − k) jπ<br />
− sen cos<br />
n<br />
jπ (n − k) jπ<br />
− cos sen<br />
n n<br />
jπ<br />
<br />
n<br />
= 2 1 − cos jπ<br />
<br />
(n − k) jπ<br />
sen ,<br />
n n<br />
(n − 2) jπ (n − 1) jπ<br />
− sen + 2 sen<br />
<br />
n<br />
n<br />
(n − 1) jπ<br />
= − sen<br />
−<br />
n<br />
jπ<br />
<br />
(n − 1) jπ<br />
+ 2 sen<br />
n<br />
n<br />
(n − 1) jπ<br />
= − sen cos<br />
n<br />
jπ (n − 1) jπ<br />
+ cos sen<br />
n n<br />
jπ<br />
n<br />
(n − 1) jπ<br />
= − sen cos<br />
n<br />
jπ (n − 1) jπ<br />
− sen cos<br />
n n<br />
jπ<br />
<br />
n<br />
= 2 1 − cos jπ<br />
<br />
(n − 1) jπ<br />
sen ,<br />
n n<br />
on<strong>de</strong> na penúltima i<strong>de</strong>ntida<strong>de</strong> usamos o fato que<br />
cos<br />
(n − 1) jπ<br />
n<br />
sen jπ<br />
n<br />
= − sen (n − 1) jπ<br />
n<br />
+ 2 sen (n − 1) jπ<br />
n<br />
+ 2 sen (n − 1) jπ<br />
n<br />
cos jπ<br />
n
Rodney Josué Biezuner 44<br />
porque<br />
<br />
(n − 1) jπ<br />
0 = sen jπ = sen<br />
+<br />
n<br />
jπ<br />
<br />
(n − 1) jπ<br />
= sen cos<br />
n<br />
n<br />
jπ (n − 1) jπ<br />
+ cos sen<br />
n n<br />
jπ<br />
n .<br />
<br />
Os autovalores <strong>de</strong> A são positivos, portanto A é uma matriz positiva <strong>de</strong>finida. Observe que, fixa<strong>do</strong> j, se n é<br />
arbitrariamente gran<strong>de</strong> então<br />
cos jπ<br />
n ≈ 1 − j2π 2<br />
,<br />
2n2 pois o <strong>de</strong>senvolvimento em série <strong>de</strong> Taylor da função cosseno em torno da origem é<br />
cos x = 1 − 1<br />
2 x2 + O x 3 ;<br />
toman<strong>do</strong> x = jπ/n para n suficientemente gran<strong>de</strong> e <strong>de</strong>sprezan<strong>do</strong> os termos <strong>de</strong> terceira or<strong>de</strong>m, obtemos a<br />
aproximação acima. Daí,<br />
2<br />
∆x 2<br />
<br />
1 − cos jπ<br />
n<br />
<br />
= 2n2<br />
a 2<br />
<br />
1 − cos jπ<br />
<br />
≈<br />
n<br />
2n2<br />
a2 <br />
1 − 1 − j2π 2<br />
2n2 <br />
= j2π 2<br />
,<br />
a2 <strong>de</strong> forma que os menores autovalores da matriz A são uma boa aproximação para os menores autovalores <strong>de</strong><br />
Dirichlet <strong>do</strong> laplaciano no intervalo [0, a]. Já o maior autovalor da matriz A é<br />
λn−1 = 2<br />
∆x2 <br />
<br />
(n − 1) π<br />
1 − cos =<br />
n<br />
2n2<br />
a2 <br />
<br />
(n − 1) π<br />
1 − cos ≈<br />
n<br />
4n2<br />
,<br />
a2 que não é uma boa aproximação para um autovalor <strong>do</strong> laplaciano. Vemos que se aumentarmos o número <strong>de</strong><br />
pontos <strong>de</strong> discretização (malha mais refinada) obteremos melhores aproximações e uma quantida<strong>de</strong> maior <strong>de</strong><br />
autovalores próximos aos autovalores <strong>do</strong> laplaciano. Para comparar, veja a tabela a seguir para os autovalores<br />
<strong>do</strong> laplaciano no intervalo [0, π]; na primeira coluna temos os autovalores exatos <strong>do</strong> laplaciano, enquanto que<br />
na <strong>de</strong>mais colunas os autovalores da matriz A, λj = 2n2<br />
π2 número n <strong>de</strong> subintervalos na malha<br />
<br />
1 − cos jπ<br />
<br />
, com a linha superior indican<strong>do</strong> o<br />
n<br />
n = 11 n = 21 n = 31 n = 51 n = 101 n = 1001<br />
1 0.993 221 21 0.998 136 38 0.999 144 44 0.999 683 82 0.999 919 37 0.999 999 18<br />
4 3.892 419 95 3.970 248 82 3.986 325 21 3.994 943 16 3.998 710 15 3.999 986 87<br />
9 8.462 720 39 8.849 945 24 8.930 889 79 8.974 415 97 8.993 471 18 8.999 933 51<br />
16 14.333 863 96 15.528 221 28 15.782 100 25 15.919 213 41 15.979 370 36 15.999 789 87<br />
25 21.030 205 54 23.855 895 28 24.469 653 89 24.802 991 47 24.949 649 29 24.999 486 99<br />
36 28.009 247 34 33.646 940 78 34.904 404 68 35.592 050 94 35.895 629 79 35.998 936 22<br />
49 34.705 588 92 44.682 641 99 46.979 277 93 48.245 465 23 48.806 722 35 48.998 029 23<br />
64 40.576 732 50 56.716 479 58 60.570 369 11 62.715 235 6 63.670 436 30 63.996 637 97<br />
81 45.147 032 93 69.479 637 52 75.538 215 24 78.946 473 26 80.472 391 97 80.994 614 71<br />
100 48.046 231 68 82.687 007 94 91.729 225 95 96.877 607 56 99.196 334 56 99.991 792 02<br />
2.2 O Caso Bidimensional<br />
Nesta seção, <strong>de</strong>senvolveremos um méto<strong>do</strong> numérico <strong>de</strong> diferenças finitas para resolver o problema <strong>de</strong> Dirichlet<br />
para a equação <strong>de</strong> Poisson no retângulo (0, a) × (0, b)<br />
−∆u = f (x, y) em (0, a) × (0, b) ,<br />
u = 0 sobre ∂ ((0, a) × (0, b)) ,<br />
e para o problema <strong>de</strong> autovalor <strong>de</strong> Dirichlet para o laplaciano no retângulo<br />
−∆u = λu em (0, a) × (0, b) ,<br />
u = 0 sobre ∂ ((0, a) × (0, b)) .
Rodney Josué Biezuner 45<br />
2.2.1 A Fórmula <strong>do</strong>s Cinco Pontos<br />
Vamos estabelecer alguma notação. Denote<br />
Ao discretizar Ω através <strong>do</strong>s pontos<br />
Ω = (0, a) × (0, b) = (x, y) ∈ R 2 : 0 < x < a, 0 < y < b .<br />
(xi, yj) = (i∆x, j∆y) , 0 i n, 0 j m<br />
on<strong>de</strong><br />
∆x = a<br />
,<br />
n<br />
b<br />
∆y =<br />
m ,<br />
substituímos o <strong>do</strong>mínio Ω pela malha (ou gri<strong>de</strong>) uniforme<br />
Ωd = {(x, y) ∈ Ω : x = i∆x, y = j∆y, 1 i n − 1, 1 j m − 1} .<br />
Sua fronteira discretizada é o conjunto<br />
<strong>de</strong> forma que<br />
A equação <strong>de</strong> Poisson<br />
po<strong>de</strong> ser agora discretizada. Denotamos<br />
∂Ωd = {(x, y) ∈ ∂Ω : x = i∆x, y = j∆y, 0 i n, 0 j m} ,<br />
Ωd = (x, y) ∈ Ω : x = i∆x, y = j∆y, 0 i n, 0 j m .<br />
−uxx − uyy = f (x, y)<br />
ui,j = u (xi, yj) ,<br />
fi,j = f (xi, yj) .<br />
Aproximamos cada <strong>de</strong>rivada parcial <strong>de</strong> segunda or<strong>de</strong>m pela sua diferença centrada, obten<strong>do</strong><br />
−uxx ≈ −ui−1,j + 2ui,j − ui+1,j<br />
∆x2 ,<br />
−uyy ≈ −ui,j−1 + 2ui,j − ui,j+1<br />
∆y2 .<br />
Portanto, a equação <strong>de</strong> Poisson discretizada toma a forma<br />
−ui−1,j + 2ui,j − ui+1,j<br />
∆x 2<br />
+ −ui,j−1 + 2ui,j − ui,j+1<br />
∆y 2 = fi,j. (2.11)<br />
Como a função u é calculada em cinco pontos, esta equação é chamada a fórmula <strong>do</strong>s cinco pontos.<br />
Para cada ponto interior da malha obtemos uma equação, logo temos um sistema linear <strong>de</strong> (n − 1) (m − 1)<br />
equações com o mesmo número <strong>de</strong> incógnitas. Diferente <strong>do</strong> caso unidimensional, no entanto, não existe uma<br />
maneira natural <strong>de</strong> or<strong>de</strong>nar os pontos da malha, logo não po<strong>de</strong>mos obter imediatamente uma representação<br />
matricial para o problema discretiza<strong>do</strong>. Precisamos antes escolher uma or<strong>de</strong>nação para os pontos da malha,<br />
e como existem várias or<strong>de</strong>nações possíveis, existem várias matrizes associadas.<br />
Talvez a mais simples or<strong>de</strong>nação é a or<strong>de</strong>m lexicográfica induzida <strong>de</strong> Z 2 . Nesta or<strong>de</strong>m, os pontos da<br />
malha são percorri<strong>do</strong>s linha por linha, da esquerda para a direita, <strong>de</strong> baixo para cima:<br />
u1,1, u2,1, . . . , un−1,1, u1,2, u2,2, . . . , un−1,2, . . . . . . , u1,m−1, u2,m−1, . . . , un−1,m−1.
Rodney Josué Biezuner 46<br />
Neste caso, a matriz associada ao sistema linear é uma matriz (n − 1) (m − 1) × (n − 1) (m − 1) que po<strong>de</strong><br />
ser escrita como uma matriz <strong>de</strong> (m − 1) × (m − 1) blocos <strong>de</strong> dimensão (n − 1) × (n − 1) na forma<br />
⎡<br />
⎢<br />
A = ⎢<br />
⎣<br />
B − 1<br />
−<br />
I<br />
∆y2 1<br />
I<br />
∆y2 B<br />
1<br />
− I<br />
∆y2 − 1<br />
I<br />
∆y2 . ..<br />
. ..<br />
. ..<br />
. .. 1<br />
− I<br />
∆y2 − 1<br />
1<br />
I B − I<br />
∆y2 ∆y2 − 1<br />
I B<br />
∆y2 ⎤<br />
⎥<br />
⎦<br />
(m−1)×(m−1)<br />
on<strong>de</strong> I é a matriz i<strong>de</strong>ntida<strong>de</strong> (n − 1) × (n − 1) e B é a matriz (n − 1) × (n − 1) dada por<br />
⎡ <br />
1 1<br />
⎢<br />
2 +<br />
⎢ ∆x2 ∆y<br />
⎢<br />
⎣<br />
2<br />
<br />
− 1<br />
∆x2 − 1<br />
∆x2 <br />
1 1<br />
2 +<br />
∆x2 ∆y2 <br />
− 1<br />
∆x2 − 1<br />
∆x2 . ..<br />
. ..<br />
. ..<br />
. ..<br />
− 1<br />
∆x2 − 1<br />
∆x2 <br />
1 1<br />
2 +<br />
∆x2 ∆y2 <br />
− 1<br />
∆x2 − 1<br />
∆x2 <br />
1 1<br />
2 +<br />
∆x2 ∆y2 <br />
Observe que<br />
para to<strong>do</strong> 1 i (n − 1) (m − 1), enquanto que<br />
<br />
1 1<br />
aii = 2 +<br />
∆x2 ∆y2 <br />
aij = − 1<br />
∆y 2<br />
se o ponto j é vizinho à esquerda ou à direita <strong>do</strong> ponto i e<br />
aij = − 1<br />
∆x 2<br />
⎤<br />
⎥<br />
⎦<br />
(n−1)×(n−1)<br />
se o ponto j é vizinho acima ou abaixo <strong>do</strong> ponto i. Por exemplo, no caso especial ∆x = ∆y, se n = 4 e m = 6
Rodney Josué Biezuner 47<br />
(ou seja 3 × 5 = 15 pontos internos na malha e uma matriz 15 × 15), temos<br />
A = 1<br />
∆x2 ⎡<br />
4<br />
⎢ −1<br />
⎢ 0<br />
⎢ −1<br />
⎢ 0<br />
⎢ 0<br />
⎢ 0<br />
⎢ 0<br />
⎢ 0<br />
⎢ 0<br />
⎢ 0<br />
⎢ 0<br />
⎢ 0<br />
⎣ 0<br />
−1<br />
4<br />
−1<br />
0<br />
−1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−1<br />
4<br />
0<br />
0<br />
−1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−1<br />
0<br />
0<br />
4<br />
−1<br />
0<br />
−1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−1<br />
0<br />
−1<br />
4<br />
−1<br />
0<br />
−1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−1<br />
0<br />
−1<br />
4<br />
0<br />
0<br />
−1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−1<br />
0<br />
0<br />
4<br />
−1<br />
0<br />
−1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−1<br />
0<br />
−1<br />
4<br />
−1<br />
0<br />
−1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−1<br />
0<br />
−1<br />
4<br />
0<br />
0<br />
−1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−1<br />
0<br />
0<br />
4<br />
−1<br />
0<br />
−1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−1<br />
0<br />
−1<br />
4<br />
−1<br />
0<br />
−1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−1<br />
0<br />
−1<br />
4<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−1<br />
0<br />
0<br />
4<br />
−1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−1<br />
0<br />
−1<br />
4<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−1<br />
0<br />
−1<br />
0 0 0 0 0 0 0 0 0 0 0 −1 0 −1 4<br />
Observe que a matriz A é uma matriz simétrica, pentadiagonal e esparsa.<br />
2.2.2 Existência e Unicida<strong>de</strong> da Solução Discreta – <strong>Autovalores</strong> <strong>do</strong> Problema<br />
Bidimensional<br />
Denotaremos por ud a função u| Ωd , isto é, ud é a discretização da função u no <strong>do</strong>mínio discretiza<strong>do</strong> Ωd.<br />
Vamos <strong>de</strong>finir o opera<strong>do</strong>r laplaciano discreto obti<strong>do</strong> a partir da fórmula <strong>do</strong>s cinco pontos por<br />
<br />
ui−1,j − 2ui,j + ui+1,j<br />
−∆dud = −<br />
∆x2 + ui,j−1 − 2ui,j + ui,j+1<br />
∆y2 <br />
. (2.12)<br />
<strong>de</strong> mo<strong>do</strong> que a discretização <strong>do</strong> problema<br />
−∆u = f em Ω,<br />
u = 0 sobre ∂Ω,<br />
é o problema −∆dud = fd em Ωd,<br />
ud = 0 sobre ∂Ωd.<br />
⎤<br />
⎥<br />
⎦<br />
(2.13)<br />
Para estabelecer a existência e unicida<strong>de</strong> da solução discreta, provaremos que a matriz <strong>de</strong> discretização A,<br />
que é uma matriz simétrica, é também uma matriz positiva <strong>de</strong>finida, pois isso implica em particular que A<br />
é invertível.<br />
Lembran<strong>do</strong> que as autofunções <strong>de</strong> Dirichlet <strong>do</strong> laplaciano no retângulo [0, a] × [0, b] são as funções<br />
Ukl (x, y) = sen kπx<br />
a<br />
sen lπy<br />
b ,<br />
este fato sugere que os autovetores ukl da matriz A na or<strong>de</strong>m lexicográfica são os vetores <strong>de</strong> coor<strong>de</strong>nadas<br />
Ukl (x1, y1) , Ukl (x2, y1) , . . . , Ukl (xn−1, y1) ,<br />
Ukl (x1, y2) , Ukl (x2, y2) , . . . , Ukl (xn−1, y2) ,<br />
.<br />
Ukl (x1, ym−1) , Ukl (x2, ym−1) , . . . , Ukl (xn−1, ym−1)
Rodney Josué Biezuner 48<br />
= Ukl (∆x, ∆y) , Ukl (2∆x, ∆y) , . . . , Ukl ((n − 1) ∆x, ∆y) ,<br />
Ukl (∆x, 2∆y) , Ukl (2∆x, 2∆y) , . . . , Ukl ((n − 1) ∆x, 2∆y) ,<br />
.<br />
.<br />
Ukl (∆x, (m − 1) ∆y) , Ukl (2∆x, (m − 1) ∆y) , . . . , Ukl ((n − 1) ∆x, (m − 1) ∆y) ,<br />
ou seja, como ∆x = a/n e ∆y = b/m, os vetores<br />
ukl =<br />
<br />
sen kπ<br />
n<br />
sen kπ<br />
n<br />
. . . ,<br />
sen kπ<br />
n<br />
lπ 2kπ<br />
sen , sen<br />
m n<br />
2lπ 2kπ<br />
sen , sen<br />
m n<br />
(m − 1) lπ<br />
sen , sen<br />
m<br />
2kπ<br />
n<br />
lπ (n − 1) kπ<br />
sen , . . . , sen sen<br />
m n<br />
lπ<br />
m ,<br />
2lπ (n − 1) kπ<br />
sen , . . . , sen sen<br />
m n<br />
2lπ<br />
m ,<br />
(m − 1) lπ (n − 1) kπ<br />
sen , . . . , sen sen<br />
m<br />
n<br />
<br />
(m − 1) lπ<br />
.<br />
m<br />
2.2 Lema. Os (n − 1) × (m − 1) autovalores da matriz A são<br />
<br />
1<br />
λkl = 2<br />
∆x2 <br />
1 − cos kπ<br />
<br />
+<br />
n<br />
1<br />
∆y2 <br />
1 − cos lπ<br />
<br />
1 kπ 1 lπ<br />
= 4 sen2 + sen2 , (2.14)<br />
m ∆x2 2n ∆y2 2m<br />
k = 1, . . . , n − 1, l = 1, . . . , m − 1, e os autovetores correspon<strong>de</strong>ntes são<br />
ukl =<br />
<br />
sen kπ<br />
n<br />
sen kπ<br />
n<br />
. . . ,<br />
sen kπ<br />
n<br />
lπ 2kπ<br />
sen , sen<br />
m n<br />
2lπ 2kπ<br />
sen , sen<br />
m n<br />
(m − 1) lπ<br />
sen , sen<br />
m<br />
2kπ<br />
n<br />
k = 1, . . . , n − 1, l = 1, . . . , m − 1.<br />
lπ (n − 1) kπ<br />
sen , . . . , sen sen<br />
m n<br />
lπ<br />
m ,<br />
2lπ (n − 1) kπ<br />
sen , . . . , sen<br />
m n<br />
(m − 1) lπ (n − 1) kπ<br />
sen , . . . , sen sen<br />
m<br />
n<br />
sen 2lπ<br />
, (2.15)<br />
m<br />
<br />
(m − 1) lπ<br />
,<br />
m<br />
Prova. Embora a <strong>de</strong>monstração <strong>de</strong>ste lema possa ser feita <strong>de</strong> maneira análoga à <strong>do</strong> Lema 2.1, usan<strong>do</strong><br />
i<strong>de</strong>ntida<strong>de</strong>s trigonométricas, daremos uma <strong>de</strong>monstração diferente. Lembran<strong>do</strong> que as autofunções e os<br />
autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano no retângulo são facilmente obti<strong>do</strong>s através <strong>do</strong> méto<strong>do</strong> <strong>de</strong> separação<br />
<strong>de</strong> variáveis, encontraremos os autovalores da matriz A usan<strong>do</strong> um méto<strong>do</strong> <strong>de</strong> separação <strong>de</strong> variáveis discreto<br />
para achar os autovalores <strong>do</strong> laplaciano discreto<br />
<br />
ui−1,j − 2ui,j + ui+1,j<br />
−<br />
∆x2 + ui,j−1 − 2ui,j + ui,j+1<br />
∆y2 <br />
= λui,j. (2.16)<br />
Em particular, este méto<strong>do</strong> não <strong>de</strong>pen<strong>de</strong> da maneira como os pontos da malha são or<strong>de</strong>na<strong>do</strong>s (não <strong>de</strong>pen<strong>de</strong><br />
da matriz A usada para representar o laplaciano discreto). Como no méto<strong>do</strong> <strong>de</strong> separação <strong>de</strong> variáveis<br />
contínuo, assumimos que as soluções da equação discreta acima são produtos da forma<br />
ui,j = F (i) G (j) , (2.17)<br />
on<strong>de</strong> F e G são funções <strong>de</strong> uma variável inteira. Substituin<strong>do</strong> esta expressão na equação <strong>de</strong> Helmholtz<br />
discreta, obtemos<br />
F (i − 1) G (j) − 2F (i) G (j) + F (i + 1) G (j)<br />
∆x2 + F (i) G (j − 1) − 2F (i) G (j) + F (i) G (j + 1)<br />
∆y2 = −λF (i) G (j) .
Rodney Josué Biezuner 49<br />
Dividin<strong>do</strong> esta equação por F (i) G (j), segue que<br />
F (i − 1) − 2F (i) + F (i + 1)<br />
∆x 2 F (i)<br />
+ G (j − 1) − 2G (j) + G (j + 1)<br />
∆y 2 G (j)<br />
= −λ.<br />
Separan<strong>do</strong> as variáveis, concluímos que cada um <strong>do</strong>s quocientes acima é in<strong>de</strong>pen<strong>de</strong>nte <strong>de</strong> i ou <strong>de</strong> j, isto é,<br />
eles são constantes:<br />
on<strong>de</strong> as constantes α, β estão relacionadas pela i<strong>de</strong>ntida<strong>de</strong><br />
F (i − 1) − 2F (i) + F (i + 1)<br />
= A,<br />
F (i)<br />
(2.18)<br />
G (j − 1) − 2G (j) + G (j + 1)<br />
= B,<br />
G (j)<br />
(2.19)<br />
A B<br />
+ = −λ. (2.20)<br />
∆x2 ∆y2 Estas equações po<strong>de</strong>m ser escritas como fórmulas <strong>de</strong> recorrência (análogas às equações diferenciais ordinárias<br />
obtidas no méto<strong>do</strong> <strong>de</strong> separação <strong>de</strong> variáveis contínuo)<br />
F (i + 1) − (A + 2) F (i) + F (i − 1) = 0,<br />
G (j − 1) − (B + 2) G (j) + G (j + 1) = 0.<br />
Para resolvê-las, é mais conveniente trabalhar com as constantes<br />
Desta forma, as equações para F e G tornam-se<br />
Observe que<br />
2α = A + 2, 2β = B + 2.<br />
F (i − 1) − 2αF (i) + F (i + 1) = 0, (2.21)<br />
G (j − 1) − 2βG (j) + G (j + 1) = 0. (2.22)<br />
<br />
1 − α 1 − β<br />
λ = 2 +<br />
∆x2 ∆y2 <br />
. (2.23)<br />
Vamos resolver a equação para F , já que a equação para G é completamente análoga. Substituin<strong>do</strong> em<br />
(2.21) uma solução da forma<br />
F (i) = z i<br />
(2.24)<br />
obtemos<br />
z i−1 − 2αz i + z i+1 = 0,<br />
<strong>do</strong>n<strong>de</strong>, dividin<strong>do</strong> por z i−1 extraímos a equação quadrática (análoga à equação indicial)<br />
As duas raízes são<br />
z 2 − 2αz + 1 = 0. (2.25)<br />
z± = α ± α 2 − 1,<br />
com z+ + z− = 2α e z+z− = 1. Portanto, a solução geral para a equação (2.21) é<br />
F (i) = c1z i + + c2z i −<br />
para algumas constantes c1, c2. Para <strong>de</strong>terminarmos estas constantes e também α, aplicamos as condições<br />
<strong>de</strong> fronteira, que implicam<br />
F (0) = F (n) = 0.
Rodney Josué Biezuner 50<br />
A primeira <strong>de</strong>stas por sua vez implica que c1 = −c2, logo<br />
F (i) = c z i + − z i <br />
− . (2.26)<br />
Como a equação para F é homogênea, a constante c é arbitrária. Aplican<strong>do</strong> a segunda, segue que<br />
ou, como z+z− = 1,<br />
z n + = z n −,<br />
z 2n<br />
+ = 1<br />
Conseqüentemente, z+ é uma 2n-ésima raiz complexa <strong>de</strong> 1:<br />
z+ = e ijπ/n<br />
(2.27)<br />
para algum inteiro 1 k 2n − 1, on<strong>de</strong> i = √ −1. Como z− = 1/z+, po<strong>de</strong>mos restringir 0 k n − 1 e<br />
(2.26) produz todas as soluções não-triviais F <strong>de</strong> (2.21).<br />
Portanto,<br />
e, escolhen<strong>do</strong> c = 1/2,<br />
Analogamente,<br />
e<br />
Segue que os autovalores são<br />
α = z+ + z−<br />
2<br />
λkl = 2<br />
= eiπk/n + e −iπk/n<br />
2<br />
= cos kπ<br />
, 0 k n − 1,<br />
n<br />
Fk (i) = e iπki/n − e −iπki/n = sen ikπ<br />
n .<br />
β = cos lπ<br />
, 0 l m − 1,<br />
m<br />
Gl (j) = sen jlπ<br />
m .<br />
<br />
1<br />
∆x2 <br />
1 − cos kπ<br />
<br />
+<br />
n<br />
1<br />
∆y2 <br />
1 − cos lπ<br />
<br />
m<br />
e as coor<strong>de</strong>nadas das autofunções associadas são dadas por<br />
<br />
(ukl) i,j = Fk (i) Gl (j) = sen ikπ<br />
n<br />
sen jlπ<br />
m .<br />
2.3 Teorema. (Existência e Unicida<strong>de</strong> da Solução Discreta) Seja Ω = (0, a) × (0, b). Então o problema<br />
discretiza<strong>do</strong> −∆dud = fd em Ωd,<br />
possui uma única solução.<br />
ud = 0 sobre ∂Ωd,<br />
Prova. Pelo lema anterior, os autovalores da matriz simétrica A são positivos, logo ela é uma matriz<br />
invertível.
Rodney Josué Biezuner 51<br />
2.2.3 Princípio <strong>do</strong> Máximo Discreto<br />
Para obter uma estimativa a priori para a equação <strong>de</strong> Poisson discretizada, e com isso provar a convergência<br />
da solução discreta para a solução clássica, usaremos um princípio <strong>do</strong> máximo discreto que enunciaremos e<br />
provaremos nesta subseção.<br />
2.3 Lema. (Proprieda<strong>de</strong> <strong>do</strong> Valor Médio) Se ∆dud = 0, então para pontos interiores vale<br />
ui,j = ∆x2 (ui,j−1 + ui,j+1) + ∆y2 (ui−1,j + ui+1,j)<br />
2 (∆x2 + ∆y2 .<br />
)<br />
Em particular, se ∆x = ∆y, então para pontos interiores vale<br />
ui,j = ui,j−1 + ui,j+1 + ui−1,j + ui+1,j<br />
.<br />
4<br />
2.4 Teorema. (Princípio <strong>do</strong> Máximo Discreto) Se ∆dud 0, o máximo <strong>de</strong> ud em Ωd é atingi<strong>do</strong> na fronteira<br />
∂Ωd; se o máximo <strong>de</strong> ud é atingi<strong>do</strong> no interior, então ud é constante.<br />
Se ∆dud 0, o mínimo <strong>de</strong> ud em Ωd é atingi<strong>do</strong> na fronteira ∂Ωd; se o mínimo <strong>de</strong> ud é atingi<strong>do</strong> no<br />
interior, então ud é constante.<br />
Prova. Primeiro provaremos para ∆x = ∆y, para ilustrar a analogia com o caso contínuo. ∆dud 0 implica<br />
Logo, um ponto interior é um máximo local, isto é,<br />
ui,j ui,j−1 + ui,j+1 + ui−1,j + ui+1,j<br />
.<br />
4<br />
ui,j ui,j−1, ui,j+1, ui−1,j, ui+1,j<br />
(ou seja, é um máximo em relação aos seus quatro vizinhos), somente se cada um <strong>do</strong>s seus quatro vizinhos<br />
assume este mesmo valor máximo, e a <strong>de</strong>sigualda<strong>de</strong> torna-se uma i<strong>de</strong>ntida<strong>de</strong>. Aplican<strong>do</strong> este argumento a<br />
to<strong>do</strong>s os pontos da malha, concluímos que ou não existe um máximo interior, e portanto o máximo é atingi<strong>do</strong><br />
na fronteira, ou existe um máximo interior e to<strong>do</strong>s os pontos da malha assumem o mesmo valor, isto é, ud é<br />
constante.<br />
No caso geral ∆x = ∆y, se ∆dud 0 temos<br />
<br />
1 1<br />
+<br />
∆x2 ∆y2 <br />
ui,j 1<br />
<br />
ui,j−1 + ui,j+1<br />
2 ∆y2 Se ui,j é um máximo local, segue que<br />
<br />
1 1<br />
+<br />
∆x2 ∆y2 <br />
ui,j 1<br />
<br />
ui,j + ui,j<br />
2 ∆y2 + ui−1,j + ui+1,j<br />
∆x2 <br />
.<br />
+ ui,j + ui,j<br />
∆x2 <br />
= 1<br />
<br />
1 1<br />
+<br />
2 ∆x2 ∆y2 <br />
ui,j,<br />
logo nenhum <strong>do</strong>s seus quatro vizinhos po<strong>de</strong> assumir um valor menor que ui,j, isto é, cada um <strong>do</strong>s quatro<br />
vizinhos assume o mesmo valor máximo e o argumento prossegue como no caso anterior. O caso ∆dud 0<br />
é prova<strong>do</strong> consi<strong>de</strong>ran<strong>do</strong>-se −ud. <br />
2.2.4 Convergência da Solução Discreta para a Solução Clássica<br />
Por simplicida<strong>de</strong>, trabalharemos no quadra<strong>do</strong> unitário, isto é, Ω = (0, 1) × (0, 1). Consi<strong>de</strong>raremos a norma<br />
<strong>do</strong> máximo discreta para funções vd <strong>de</strong>finidas no <strong>do</strong>mínio discretiza<strong>do</strong> Ωd:<br />
vd∞ = max |vi,j| .<br />
0in<br />
0jm<br />
Em primeiro lugar, obtemos uma estimativa a priori discreta (que também po<strong>de</strong> ser visto como um resulta<strong>do</strong><br />
<strong>de</strong> regularida<strong>de</strong> discreto) para soluções da equação <strong>de</strong> Poisson discreta com condição <strong>de</strong> Dirichlet homogênea:
Rodney Josué Biezuner 52<br />
2.5 Lema. (Estimativa a Priori) Seja Ω = (0, 1) 2 . Seja ud uma solução <strong>de</strong><br />
<br />
−∆dud = fd em Ωd,<br />
ud = 0 sobre ∂Ωd.<br />
Então<br />
Prova. Consi<strong>de</strong>re a função<br />
e sua versão discretizada wd <strong>de</strong>finida por<br />
Então<br />
e também<br />
pois<br />
ud ∞ 1<br />
8 ∆dud ∞ . (2.28)<br />
w (x, y) = 1<br />
x −<br />
4<br />
1<br />
2 <br />
+ y −<br />
2<br />
1<br />
<br />
2<br />
2<br />
wi,j = 1<br />
4<br />
<br />
xi − 1<br />
2<br />
2<br />
w 0 e ∆w = 1,<br />
∆dwd = wi−1,j − 2wi,j + wi+1,j<br />
+ wi,j−1 − 2wi,j + wi,j+1<br />
∆x 2<br />
xi−1 − 1<br />
2<br />
2 + yj − 1<br />
2<br />
<br />
+ yj − 1<br />
<br />
2<br />
. (2.29)<br />
2<br />
wd 0 e ∆dwd = 1, (2.30)<br />
∆y 2<br />
2 − 2 xi − 1<br />
2<br />
2 − 2 yj − 1<br />
2<br />
2 + xi+1 − 1<br />
2<br />
2 <br />
+ yj − 1<br />
2 2<br />
= 1<br />
4<br />
∆x2 <br />
xi −<br />
+<br />
1<br />
2 <br />
2 + yj−1 − 1<br />
2 <br />
2 − 2 xi − 1<br />
2 <br />
2 − 2 yj − 1<br />
2 <br />
2 + xi − 1<br />
2 <br />
2 + yj+1 − 1<br />
2 2<br />
∆y2 <br />
= 1<br />
<br />
xi−1 −<br />
4<br />
1<br />
2 <br />
2 − 2 xi − 1<br />
2 <br />
2 + xi+1 − 1<br />
2 2<br />
∆x2 <br />
yj−1 −<br />
+<br />
1<br />
2 <br />
2 − 2 yj − 1<br />
2 <br />
2 + yj+1 − 1<br />
2 2<br />
∆y2 <br />
= 1<br />
<br />
xi − ∆x −<br />
4<br />
1<br />
2 <br />
2 − 2 xi − 1<br />
2 <br />
2 + xi + ∆x − 1<br />
2 2<br />
∆x2 <br />
yj − ∆y −<br />
+<br />
1<br />
2 <br />
2 − 2 yj − 1<br />
2 <br />
2 + yj + ∆y − 1<br />
2 2<br />
∆y2 <br />
= 1<br />
<br />
2 xi + ∆x<br />
4<br />
2 + 1<br />
4 − 2xi∆x − xi + ∆x − 2 x2 i − xi + 1<br />
<br />
2<br />
4 + xi + ∆x2 + 1<br />
4 + 2xi∆x − xi − ∆x <br />
∆x2 <br />
2 yj + ∆y<br />
+<br />
2 + 1<br />
4 − 2yj∆y − yj + ∆y − 2 y2 j − yj + 1<br />
<br />
2<br />
4 + yj + ∆y2 + 1<br />
4 + 2yj∆y − yj − ∆y <br />
∆y2 <br />
= 1<br />
2 2∆x 2∆y2<br />
+<br />
4 ∆x2 ∆y2 <br />
= 1.<br />
Consi<strong>de</strong>re agora a função<br />
Temos então<br />
ud − ∆dud ∞ wd. (2.31)<br />
∆d (ud − ∆dud ∞ wd) = ∆dud − ∆dud ∞ ∆dwd<br />
= ∆dud − ∆dud ∞<br />
0.
Rodney Josué Biezuner 53<br />
Segue <strong>do</strong> Princípio <strong>do</strong> Máximo Discreto que a função ud − ∆dud ∞ wd assume o seu mínimo na fronteira.<br />
Este último é igual a − ∆dud ∞ max∂Ωd wd. Por sua vez, o máximo <strong>de</strong> wd na fronteira é menor ou igual ao<br />
máximo <strong>de</strong> w em ∂Ω, da<strong>do</strong> por<br />
Portanto, concluímos que<br />
para to<strong>do</strong>s i, j. Analogamente,<br />
<br />
1<br />
max x −<br />
0x1 4<br />
1<br />
2 <br />
1<br />
= max y −<br />
2 0x1 4<br />
1<br />
2 =<br />
2<br />
1<br />
8 .<br />
ui,j ui,j − ∆dud ∞ wi,j − 1<br />
8 ∆dud ∞<br />
∆d (ud + ∆dud ∞ wd) 0<br />
(2.32)<br />
e a função ud + ∆dud∞ wd assume o seu máximo na fronteira, igual a ∆dud max∂Ωd ∞ wd 1<br />
8a, <strong>do</strong>n<strong>de</strong><br />
ui,j ui,j − ∆dud ∞ wi,j 1<br />
8 ∆dud ∞<br />
para to<strong>do</strong>s i, j. Reunin<strong>do</strong> as duas <strong>de</strong>sigualda<strong>de</strong>s, segue que<br />
para to<strong>do</strong>s i, j, o que conclui a <strong>de</strong>monstração. <br />
|ui,j| 1<br />
8 ∆dud ∞<br />
2.6 Teorema. Seja Ω = (0, 1) 2 . Sejam u ∈ C 4 Ω uma solução clássica para o problema <strong>de</strong> Dirichlet<br />
−∆u = f em Ω,<br />
u = 0 sobre ∂Ω,<br />
e vd uma solução <strong>do</strong> correspon<strong>de</strong>nte problema discretiza<strong>do</strong><br />
<br />
−∆dvd = fd em Ωd,<br />
vd = 0 sobre ∂Ωd.<br />
(2.33)<br />
Então existe uma constante C > 0 in<strong>de</strong>pen<strong>de</strong>nte <strong>de</strong> u tal que<br />
ud − vd∞ C D 4 u <br />
2 2<br />
L∞ ∆x + ∆y<br />
(Ω)<br />
. (2.34)<br />
Prova. A hipótese f ∈ C2,α Ω garante que u ∈ C4 Ω . Lembre-se que<br />
<br />
D 4 u <br />
L∞ =<br />
(Ω)<br />
sup<br />
<br />
<br />
<br />
∂<br />
<br />
4u ∂xp <br />
<br />
(x, y) <br />
∂yq .<br />
Pela Fórmula <strong>de</strong> Taylor,<br />
(x,y)∈Ω<br />
p+q=4<br />
∂2u ∂x2 (xi, yj) = u(xi − ∆x, yj) − 2u(xi, yj) + u(xi + ∆x, yj)<br />
∆x2 − 2 ∂<br />
4!<br />
4u ∂x4 (xi, yj)∆x 2 − 2 ∂<br />
5!<br />
6u ∂x6 (xi, yj)∆x 4 − . . .<br />
= ui−1,j − 2ui,j + ui+1,j<br />
∆x2 − 2 ∂<br />
4!<br />
4u ∂x4 (xi, yj)∆x 2 − 2 ∂<br />
5!<br />
6u ∂x6 (xi, yj)∆x 4 − . . . ,<br />
∂2u ∂y2 (xi, yj) = u(xi, yj − ∆y) − 2u(xi, yj) + u(xi, yj + ∆y)<br />
∆y2 − 2 ∂<br />
4!<br />
4u ∂y4 (xi, yj)∆y 2 − 2 ∂<br />
5!<br />
6u ∂y6 (xi, yj)∆y 4 − . . .<br />
= ui,j−1 − 2ui,j + ui,j+1<br />
∆y2 − 2 ∂<br />
4!<br />
4u ∂y4 (xi, yj)∆y 2 − 2 ∂<br />
5!<br />
6u ∂y6 (xi, yj)∆y 4 − . . . ,
Rodney Josué Biezuner 54<br />
<strong>do</strong>n<strong>de</strong><br />
Como<br />
temos que<br />
∆u (xi, yj) = (∆dud) ij − 1<br />
4 ∂ u<br />
3! ∂x4 (xi, yj)∆x 2 + ∂4u ∂y4 (xi, yj)∆y 2<br />
<br />
+ O ∆x 4 , ∆y 4 . (2.35)<br />
−∆u (xi, yj) = f (xi, yj) ,<br />
− (∆dud) i,j = (fd) i,j − 1<br />
4 ∂ u<br />
3! ∂x4 (xi, yj)∆x 2 + ∂4u ∂y4 (xi, yj)∆y 2<br />
<br />
+ O ∆x 4 , ∆y 4 . (2.36)<br />
Subtrain<strong>do</strong> <strong>de</strong>sta equação a equação<br />
obtemos<br />
o que implica<br />
− (∆dvd) i,j = (fd) i,j ,<br />
− (∆dud − ∆dvd) i,j = − 1<br />
4 ∂ u<br />
3! ∂x4 (xi, yj)∆x 2 + ∂4u ∂y4 (xi, yj)∆y 2<br />
<br />
+ O ∆x 4 , ∆y 4 ,<br />
∆d (ud − vd)∞ 1 <br />
D<br />
3!<br />
4 u <br />
2 2<br />
L∞ ∆x + ∆y<br />
(Ω)<br />
+ O ∆x 4 , ∆y 4<br />
C <br />
4<br />
D uL 2 2<br />
∞ ∆x + ∆y (Ω)<br />
.<br />
Usan<strong>do</strong> a estimativa a priori <strong>do</strong> lema anterior, obtemos finalmente o resulta<strong>do</strong> <strong>de</strong>seja<strong>do</strong>. <br />
Definição. Dizemos que as soluções <strong>do</strong> problema discretiza<strong>do</strong><br />
<br />
−∆dvd = fd em Ωd,<br />
vd = 0 sobre ∂Ωd,<br />
convergem para a solução exata u <strong>do</strong> problema <strong>de</strong> Poisson<br />
−∆u = f em Ω,<br />
u = 0 sobre ∂Ω,<br />
com relação à norma · se<br />
ud − vd → 0<br />
quan<strong>do</strong> ∆x, ∆y → 0. Dizemos que a convergência é <strong>de</strong> or<strong>de</strong>m k (ou que o esquema <strong>de</strong> diferenças<br />
finitas é convergente <strong>de</strong> or<strong>de</strong>m k) se<br />
ud − vd = O ∆x k , ∆y k .<br />
O Teorema 2.6 diz que o esquema <strong>de</strong> diferenças finitas da fórmula <strong>de</strong> cinco pontos é um esquema convergente<br />
na norma <strong>do</strong> sup <strong>de</strong> or<strong>de</strong>m 2, se u ∈ C 4 Ω . Maior regularida<strong>de</strong> da solução u não causa melhor convergência<br />
no méto<strong>do</strong>. Na verda<strong>de</strong>, a or<strong>de</strong>m <strong>de</strong> convergência da fórmula <strong>de</strong> cinco pontos ainda é 2 mesmo sob hipóteses<br />
mais fracas sobre a regularida<strong>de</strong> <strong>de</strong> u: basta assumir u ∈ C 3,1 Ω , ao invés <strong>de</strong> u ∈ C 4 Ω . No entanto,<br />
regularida<strong>de</strong> menor que esta em u afeta negativamente a or<strong>de</strong>m <strong>de</strong> convergência da fórmula <strong>de</strong> cinco pontos.<br />
Em geral, po<strong>de</strong>-se provar que se u ∈ C k,α Ω , 2 k 4, então existe uma constante C = C (k, α) tal que<br />
ud − vd ∞ C ∆x k+α−2 + ∆y k+α−2 u C k,α (Ω) . (2.37)<br />
Para uma <strong>de</strong>monstração <strong>de</strong>stes resulta<strong>do</strong>s, veja [Hackbusch], págs. 60-61. Se quisermos uma melhor or<strong>de</strong>m<br />
<strong>de</strong> convergência para as soluções discretizadas, é necessário consi<strong>de</strong>rar outras forma <strong>de</strong> discretizar o laplaciano<br />
através <strong>de</strong> diferenças finitas. Isto será feito na próxima seção.
Rodney Josué Biezuner 55<br />
2.3 Discretizações <strong>de</strong> Or<strong>de</strong>m Superior<br />
Para obter esquemas <strong>de</strong> diferenças finitas com melhor or<strong>de</strong>m <strong>de</strong> convergência, em geral é necessário acrescentar<br />
mais pontos na fórmula. O méto<strong>do</strong> <strong>do</strong>s coeficientes in<strong>de</strong>termina<strong>do</strong>s é um méto<strong>do</strong> simples para<br />
construir estes esquemas.<br />
2.3.1 Caso Unidimensional<br />
Vamos obter um esquema <strong>de</strong> diferenças finitas convergente <strong>de</strong> or<strong>de</strong>m 4 para o caso unidimensional. O<br />
esquema envolven<strong>do</strong> três pontos, que obtivemos no início <strong>do</strong> capítulo através da aproximação da <strong>de</strong>rivada<br />
segunda em um ponto por uma diferença finita centrada (que envolve o ponto e seus <strong>do</strong>is vizinhos, à esquerda<br />
e à direita), é convergente <strong>de</strong> or<strong>de</strong>m 2 (isso que po<strong>de</strong> ser prova<strong>do</strong> <strong>de</strong> maneira semelhante a como fizemos para<br />
a fórmula <strong>de</strong> cinco pontos). Para obter um esquema com uma maior or<strong>de</strong>m <strong>de</strong> convergência, acrescentamos<br />
mais <strong>do</strong>is pontos à fórmula <strong>de</strong> diferenças finitas <strong>do</strong> esquema, que <strong>de</strong>notaremos por δui:<br />
Cada termo tem sua expansão em série <strong>de</strong> Taylor:<br />
δui = c1ui−2 + c2ui−1 + c3ui + c4ui+1 + c5ui+2. (2.38)<br />
u(xi − 2∆x) = u(xi) − 2u ′ (xi)∆x + 4<br />
2! u′′ (xi)∆x 2 − 8<br />
3! u′′′ (xi)∆x 3 + 16<br />
4! u(4) (xi)∆x 4 − 32<br />
5! u(5) (xi)∆x 5 + O ∆x 6 ,<br />
u(xi − ∆x) = u(xi) − u ′ (xi)∆x + 1<br />
2! u′′ (xi)∆x 2 − 1<br />
3! u′′′ (xi)∆x 3 + 1<br />
4! u(4) (xi)∆x 4 − 1<br />
5! u(5) (xi)∆x 5 + O ∆x 6 ,<br />
u(xi + ∆x) = u(xi) + u ′ (xi)∆x + 1<br />
2! u′′ (xi)∆x 2 + 1<br />
3! u′′′ (xi)∆x 3 + 1<br />
4! u(4) (xi)∆x 4 + 1<br />
5! u(5) (xi)∆x 5 + O ∆x 6 ,<br />
u(xi + 2∆x) = u(xi) + 2u ′ (xi)∆x + 4<br />
2! u′′ (xi)∆x 2 + 8<br />
3! u′′′ (xi)∆x 3 + 16<br />
4! u(4) (xi)∆x 4 + 32<br />
5! u(5) (xi)∆x 5 + O ∆x 6 .<br />
Substituin<strong>do</strong> estas expressões na fórmula acima, obtemos:<br />
δui = (c1 + c2 + c3 + c4 + c5) u (xi)<br />
+ ∆x (−2c1 − c2 + c4 + 2c5) u ′ (xi)<br />
+ ∆x 2<br />
<br />
2c1 + 1<br />
2 c2 + 1<br />
2 c4<br />
<br />
+ 2c5 u ′′ (xi)<br />
+ ∆x 3<br />
<br />
− 4<br />
3 c1 − 1<br />
6 c2 + 1<br />
6 c4 + 4<br />
3 c5<br />
<br />
u ′′′ (xi)<br />
+ ∆x 4<br />
<br />
2<br />
3 c1 + 1<br />
24 c2 + 1<br />
24 c4 + 2<br />
3 c5<br />
<br />
u (4) (xi)<br />
+ ∆x 5<br />
<br />
− 4<br />
15 c1 − 1<br />
120 c2 + 1<br />
120 c4 + 4<br />
15 c5<br />
<br />
u (5) (xi)<br />
+ O ∆x 6 .<br />
Como procuramos um esquema <strong>de</strong> diferenças finitas com or<strong>de</strong>m <strong>de</strong> convergência maior que 2, queremos obter<br />
uma solução não-nula para o sistema<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
c1 + c2 + c3 + c4 + c5 = 0<br />
−2c1 − c2 + c4 + 2c5 = 0<br />
2c1 + 1<br />
2 c2 + 1<br />
2 c4 + 2c5<br />
=<br />
1<br />
∆x 2<br />
− 4<br />
3 c1 − 1<br />
6 c2 + 1<br />
6 c4 + 4<br />
3 c5 = 0<br />
2<br />
3 c1 + 1<br />
24 c2 + 1<br />
24 c4 + 2<br />
3 c5 = 0<br />
;
Rodney Josué Biezuner 56<br />
isso implicaria em princípio em um esquema com or<strong>de</strong>m <strong>de</strong> convergência pelo menos igual a 3:<br />
δui = u ′′ (xi) + O ∆x 3 .<br />
Como a matriz ⎡<br />
1 1 1 1 1<br />
⎢ −2<br />
⎢ 2<br />
⎢<br />
−<br />
⎣<br />
−1<br />
1<br />
2<br />
0<br />
0<br />
1<br />
1<br />
2<br />
2<br />
2<br />
4<br />
3 −1<br />
⎤<br />
2<br />
3<br />
6<br />
1<br />
24<br />
0<br />
0<br />
1<br />
6<br />
1<br />
24<br />
⎥<br />
4 ⎥<br />
3 ⎥<br />
⎦<br />
2<br />
3<br />
tem <strong>de</strong>terminante igual a 1, ela é invertível e o sistema possui a solução única<br />
Inci<strong>de</strong>ntalmente, esta solução também implica<br />
c1 = − 1 1<br />
,<br />
12 ∆x2 c2 = 4 1<br />
,<br />
3 ∆x2 c3 = − 5 1<br />
2 ∆x2 c4 = 4 1<br />
,<br />
3 ∆x2 c5 = − 1 1<br />
.<br />
12 ∆x2 − 4<br />
15 c1 − 1<br />
120 c2 + 1<br />
120 c4 + 4<br />
15 c5 = 0<br />
o que permite obter um esquema com or<strong>de</strong>m <strong>de</strong> convergência igual a 4:<br />
δui = u ′′ (xi) + O ∆x 4 ,<br />
aproximan<strong>do</strong> a <strong>de</strong>rivada segunda u ′′ pela diferença finita<br />
ou<br />
u ′′ =<br />
− 1<br />
12 ui−2 + 4<br />
3 ui−1 − 5<br />
2 ui + 4<br />
3 ui+1 − 1<br />
12 ui+2<br />
∆x 2<br />
−u ′′ = ui−2 − 16ui−1 + 30ui − 16ui+1 + ui+2<br />
12∆x 2 . (2.39)<br />
2.3.2 Caso Bidimensional: A Fórmula <strong>do</strong>s Nove Pontos Compacta<br />
Um esquema <strong>de</strong> or<strong>de</strong>m 4 para a equação <strong>de</strong> Poisson em duas dimensões é a fórmula <strong>de</strong> nove pontos compacta.<br />
Se buscássemos uma fórmula <strong>de</strong> nove pontos simplesmente a partir da fórmula <strong>de</strong> cinco pontos unidimensional<br />
obtida na subseção prece<strong>de</strong>nte (como obtivemos a fórmula <strong>de</strong> cinco pontos bidimensional a partir<br />
da fórmula <strong>de</strong> três pontos unidimensional), escreveríamos<br />
−∆dud = ui−2,j − 16ui−1,j + 30ui,j − 16ui+1,j + ui+2,j<br />
12∆x 2<br />
+ ui,j−2 − 16ui,j−1 + 30ui,j − 16ui,j+1 + ui,j+2<br />
12∆y2 ,<br />
(2.40)
Rodney Josué Biezuner 57<br />
que po<strong>de</strong> ser resumida na forma<br />
⎡<br />
⎢<br />
−∆dud = ⎢<br />
⎣<br />
− 1 16<br />
−<br />
12∆x2 12∆x2 − 1<br />
12∆y2 − 16<br />
12∆y2 <br />
1 1<br />
30 +<br />
12∆x2 12∆y2 <br />
− 16<br />
12∆y2 − 1<br />
12∆y2 − 16 1<br />
−<br />
12∆x2 12∆x2 Embora este esquema seja <strong>de</strong> fato <strong>de</strong> or<strong>de</strong>m 4, ele apresenta dificulda<strong>de</strong>s para pontos interiores adjacentes à<br />
fronteira <strong>do</strong> retângulo (por exemplo, se consi<strong>de</strong>rarmos o ponto (x1, y1), os pontos (x−1, y1) e (x1, y−1) estão<br />
fora <strong>do</strong> retângulo). Uma possibilida<strong>de</strong> para resolver este problema seria aplicar a fórmula <strong>do</strong>s cinco pontos<br />
nos pontos interiores adjacentes à fronteira e aplicar a fórmula <strong>do</strong>s nove pontos apenas nos pontos interiores<br />
mais distantes da fronteira. No entanto, como a fórmula <strong>de</strong> cinco pontos é <strong>de</strong> segunda or<strong>de</strong>m, a convergência<br />
<strong>de</strong>ste méto<strong>do</strong> misto não <strong>de</strong>ve ser <strong>de</strong> or<strong>de</strong>m 4.<br />
Vamos tentar encontrar uma fórmula <strong>de</strong> nove pontos compacta, em que os nove pontos estão dispostos<br />
em três linhas e três colunas, <strong>de</strong> mo<strong>do</strong> que não há problemas em usá-la nos pontos interiores adjacentes à<br />
fronteira. Aplican<strong>do</strong> o méto<strong>do</strong> <strong>do</strong>s coeficientes in<strong>de</strong>termina<strong>do</strong>s, buscamos nove coeficientes para a diferença<br />
finita<br />
−∆dud = c1ui−1,j−1 + c2ui,j−1 + c3ui+1,j−1<br />
+ c4ui−1,j + c5ui,j + c6ui+1,j<br />
+ c7ui−1,j+1 + c8ui,j+1 + c9ui+1,j+1.<br />
⎤<br />
⎥ .<br />
⎥<br />
⎦<br />
(2.41)<br />
Observe a distribuição <strong>do</strong>s nove pontos. Além <strong>do</strong>s cinco usuais, foram acrescenta<strong>do</strong>s os quatro pontos que<br />
ocupam as posições diagonais. Para os quatro pontos vizinhos horizontais ou verticais <strong>do</strong> ponto central, a<br />
fórmula <strong>de</strong> Taylor produz<br />
u(xi − ∆x, yj) = u(xi, yj) − ∂u<br />
∂x (xi, yj)∆x + 1<br />
2!<br />
− 1 ∂<br />
5!<br />
5u ∂x5 (xi, yj)∆x 5 + O ∆x 6<br />
u(xi + ∆x, yj) = u(xi, yj) + ∂u<br />
∂x (xi, yj)∆x + 1<br />
2!<br />
+ 1 ∂<br />
5!<br />
5u ∂x5 (xi, yj)∆x 5 + O ∆x 6<br />
u(xi, yj − ∆y) = u(xi, yj) − ∂u<br />
∂y (xi, yj)∆y + 1<br />
2!<br />
− 1 ∂<br />
5!<br />
5u ∂x5 (xi, yj)∆x 5 + O ∆x 6<br />
u(xi, yj + ∆y) = u(xi, yj) + ∂u<br />
∂y (xi, yj)∆y + 1<br />
2!<br />
+ 1 ∂<br />
5!<br />
5u ∂x5 (xi, yj)∆x 5 + O ∆x 6 , ∆y 6<br />
∂2u ∂x2 (xi, yj)∆x 2 − 1 ∂<br />
3!<br />
3u ∂x3 (xi, yj)∆x 3 + 1 ∂<br />
4!<br />
4u ∂x4 (xi, yj)∆x 4<br />
∂2u ∂x2 (xi, yj)∆x 2 + 1 ∂<br />
3!<br />
3u ∂x3 (xi, yj)∆x 3 + 1 ∂<br />
4!<br />
4u ∂x4 (xi, yj)∆x 4<br />
∂2u ∂y2 (xi, yj)∆y 2 − 1 ∂<br />
3!<br />
3u ∂y3 (xi, yj)∆y 3 + 1 ∂<br />
4!<br />
4u ∂y4 (xi, yj)∆y 4<br />
∂2u ∂y2 (xi, yj)∆y 2 + 1 ∂<br />
3!<br />
3u ∂y3 (xi, yj)∆y 3 + 1 ∂<br />
4!<br />
4u ∂y4 (xi, yj)∆y 4
Rodney Josué Biezuner 58<br />
enquanto que para os quatro pontos diagonais temos<br />
u(xi + ∆x, yj + ∆y)<br />
= u(xi, yj) +<br />
+ 1<br />
3 ∂ u<br />
3!<br />
+ 1<br />
4!<br />
+ 1<br />
5!<br />
∂u<br />
∂x (xi, yj)∆x + ∂u<br />
∂y (xi, yj)∆y<br />
<br />
+ 1<br />
2 ∂ u<br />
2! ∂x2 (xi, yj)∆x 2 + 2 ∂2u ∂x∂y (xi, yj)∆x∆y + ∂2 u<br />
∂x3 (xi, yj)∆x 3 + 3 ∂3u ∂x2∂y (xi, yj)∆x 2 ∆y + 3 ∂3u ∂x∂y2 (xi, yj)∆x∆y 2 + ∂3u ∂y3 (xi, yj)∆y 3<br />
∂ 4 u<br />
<br />
∂y2 (xi, yj)∆y 2<br />
<br />
∂x4 (xi, yj)∆x 4 + 4 ∂4u ∂x3∂y (xi, yj)∆x 3 ∆y + 6 ∂4u ∂x∂y3 (xi, yj)∆x 2 ∆y 2 + 4 ∂3u ∂x∂y3 (xi, yj)∆x∆y 3 + ∂4u ∂ 5 u<br />
∂x 5 (xi, yj)∆x 5 + 5 ∂5 u<br />
∂x 4 ∂y (xi, yj)∆x 4 ∆y + 10 ∂5 u<br />
+5 ∂5 u<br />
∂x∂y 4 (xi, yj)∆x∆y 4 + ∂5 u<br />
∂y 5 (xi, yj)∆y 5<br />
u(xi − ∆x, yj − ∆y)<br />
= u(xi, yj) −<br />
− 1<br />
3 ∂ u<br />
3!<br />
+ 1<br />
4!<br />
− 1<br />
5!<br />
∂u<br />
∂x (xi, yj)∆x + ∂u<br />
∂y (xi, yj)∆y<br />
∂x3∂y 2 (xi, yj)∆x 3 ∆y 2 + 10 ∂5u ∂x∂y4 (xi, yj)∆x 2 ∆y 3<br />
<br />
+ O ∆x 6 , ∆y 6 ,<br />
<br />
+ 1<br />
2 ∂ u<br />
2! ∂x2 (xi, yj)∆x 2 + 2 ∂2u ∂x∂y (xi, yj)∆x∆y + ∂2 u<br />
∂x3 (xi, yj)∆x 3 + 3 ∂3u ∂x2∂y (xi, yj)∆x 2 ∆y + 3 ∂3u ∂x∂y2 (xi, yj)∆x∆y 2 + ∂3u ∂y3 (xi, yj)∆y 3<br />
∂ 4 u<br />
<br />
∂y4 (xi, yj)∆y 4<br />
<br />
∂y2 (xi, yj)∆y 2<br />
<br />
∂x4 (xi, yj)∆x 4 + 4 ∂4u ∂x3∂y (xi, yj)∆x 3 ∆y + 6 ∂4u ∂x∂y3 (xi, yj)∆x 2 ∆y 2 + 4 ∂3u ∂x∂y3 (xi, yj)∆x∆y 3 + ∂4u ∂ 5 u<br />
∂x 5 (xi, yj)∆x 5 + 5 ∂5 u<br />
∂x 4 ∂y (xi, yj)∆x 4 ∆y + 10 ∂5 u<br />
+5 ∂5 u<br />
∂x∂y 4 (xi, yj)∆x∆y 4 + ∂5 u<br />
∂y 5 (xi, yj)∆y 5<br />
u(xi + ∆x, yj − ∆y)<br />
= u(xi, yj) +<br />
<br />
∂u<br />
∂x (xi, yj)∆x − ∂u<br />
∂y (xi,<br />
<br />
yj)∆y<br />
<br />
+ O ∆x 6<br />
∂x3∂y 2 (xi, yj)∆x 3 ∆y 2 + 10 ∂5u ∂x∂y4 (xi, yj)∆x 2 ∆y 3<br />
+ 1<br />
2 ∂ u<br />
2! ∂x2 (xi, yj)∆x 2 − 2 ∂2u ∂x∂y (xi, yj)∆x∆y + ∂2u ∂y2 (xi, yj)∆y 2<br />
<br />
+ 1<br />
3 ∂ u<br />
3! ∂x3 (xi, yj)∆x 3 − 3 ∂3u ∂x2∂y (xi, yj)∆x 2 ∆y + 3 ∂3u ∂x∂y2 (xi, yj)∆x∆y 2 − ∂3u ∂y3 (xi, yj)∆y 3<br />
<br />
+ 1<br />
4 ∂ u<br />
4! ∂x4 (xi, yj)∆x 4 − 4 ∂4u ∂x3∂y (xi, yj)∆x 3 ∆y + 6 ∂4u ∂x∂y3 (xi, yj)∆x 2 ∆y 2 − 4 ∂3u + 1<br />
5 ∂ u<br />
5! ∂x5 (xi, yj)∆x 5 − 5 ∂5u ∂x4∂y (xi, yj)∆x 4 ∆y + 10 ∂5u ∂x3∂y 2 (xi, yj)∆x 3 ∆y 2 − 10 ∂5u <br />
+ O ∆x 6 , ∆y 6 ,<br />
+5 ∂5 u<br />
∂x∂y 4 (xi, yj)∆x∆y 4 − ∂5 u<br />
∂y 5 (xi, yj)∆y 5<br />
∂x∂y 3 (xi, yj)∆x∆y 3 + ∂4 u<br />
∂x∂y 4 (xi, yj)∆x 2 ∆y 3<br />
∂y4 (xi, yj)∆y 4<br />
<br />
∂y4 (xi, yj)∆y 4
Rodney Josué Biezuner 59<br />
u(xi − ∆x, yj + ∆y)<br />
= u(xi, yj) +<br />
+ 1<br />
2 ∂ u<br />
2!<br />
+ 1<br />
3!<br />
+ 1<br />
4!<br />
+ 1<br />
5!<br />
<br />
− ∂u<br />
∂x (xi, yj)∆x + ∂u<br />
∂y (xi,<br />
<br />
yj)∆y<br />
∂x 2 (xi, yj)∆x 2 − 2 ∂2 u<br />
∂x∂y (xi, yj)∆x∆y + ∂2 u<br />
∂y 2 (xi, yj)∆y 2<br />
<br />
− ∂3 u<br />
∂ 4 u<br />
∂x 3 (xi, yj)∆x 3 + 3 ∂3 u<br />
∂x 2 ∂y (xi, yj)∆x 2 ∆y − 3 ∂3 u<br />
<br />
∂x∂y 2 (xi, yj)∆x∆y 2 + ∂3 u<br />
∂y3 (xi, yj)∆y 3<br />
<br />
∂x 4 (xi, yj)∆x 4 − 4 ∂4 u<br />
∂x 3 ∂y (xi, yj)∆x 3 ∆y + 6 ∂4 u<br />
∂x∂y 3 (xi, yj)∆x 2 ∆y 2 − 4 ∂3 u<br />
∂x∂y 3 (xi, yj)∆x∆y 3 + ∂4 u<br />
∂y 4 (xi, yj)∆y 4<br />
<br />
− ∂5 u<br />
∂x 5 (xi, yj)∆x 5 + 5 ∂5 u<br />
∂x 4 ∂y (xi, yj)∆x 4 ∆y − 10 ∂5 u<br />
−5 ∂5 u<br />
∂x∂y 4 (xi, yj)∆x∆y 4 + ∂5 u<br />
∂y 5 (xi, yj)∆y 5<br />
<br />
+ O ∆x 6 , ∆y 6 .<br />
Substituin<strong>do</strong> estas expressões na fórmula acima, obtemos:<br />
−∆dud = (c1 + c2 + c3 + c4 + c5 + c6 + c7 + c8 + c9) u (xi, yj)<br />
+ ∆x (−c1 + c3 − c4 + c6 − c7 + c9) ∂u<br />
∂x (xi, yj)<br />
∂x3∂y 2 (xi, yj)∆x 3 ∆y 2 + 10 ∂5u ∂x∂y4 (xi, yj)∆x 2 ∆y 3<br />
+ ∆y (−c1 − c2 − c3 + c7 + c8 + c9) ∂u<br />
∂y (xi, yj)<br />
+ ∆x 2<br />
<br />
1<br />
2 c1 + 1<br />
2 c3 + 1<br />
2 c4 + 1<br />
2 c6 + 1<br />
2 c7 + 1<br />
2 c9<br />
2 ∂ u<br />
∂x2 (xi, yj)<br />
+ ∆x∆y (c1 − c3 − c7 + c9) ∂2u ∂x∂y (xi, yj)<br />
+ ∆y 2<br />
<br />
1<br />
2 c1 + 1<br />
2 c2 + 1<br />
2 c3 + 1<br />
2 c7 + 1<br />
2 c8 + 1<br />
2 c9<br />
2 ∂ u<br />
∂y2 (xi, yj)<br />
+ ∆x 3<br />
<br />
− 1<br />
6 c1 + 1<br />
6 c3 − 1<br />
6 c4 + 1<br />
6 c6 − 1<br />
6 c7 + 1<br />
6 c9<br />
3 ∂ u<br />
∂x3 (xi, yj)<br />
+ ∆x 2 <br />
∆y − 1<br />
2 c1 − 1<br />
2 c3 + 1<br />
2 c7 + 1<br />
2 c9<br />
3 ∂ u<br />
∂x2∂y (xi, yj)<br />
+ ∆x∆y 2<br />
<br />
− 1<br />
2 c1 + 1<br />
2 c3 − 1<br />
2 c7 + 1<br />
2 c9<br />
3 ∂ u<br />
∂x∂y2 (xi, yj)<br />
+ ∆y 3<br />
<br />
− 1<br />
6 c1 − 1<br />
6 c2 − 1<br />
6 c3 + 1<br />
6 c7 + 1<br />
6 c8 + 1<br />
6 c9<br />
3 ∂ u<br />
∂y3 (xi, yj)<br />
+ ∆x 4<br />
<br />
1<br />
24 c1 + 1<br />
24 c3 + 1<br />
24 c4 + 1<br />
24 c6 + 1<br />
24 c7 + 1<br />
24 c9<br />
4 ∂ u<br />
∂x4 (xi, yj)<br />
+ ∆x 3 <br />
1<br />
∆y<br />
6 c1 − 1<br />
6 c3 − 1<br />
6 c7 + 1<br />
6 c9<br />
4 ∂ u<br />
∂x3∂y (xi, yj)<br />
+ ∆x 2 ∆y 2<br />
<br />
1<br />
4 c1 + 1<br />
4 c3 + 1<br />
4 c7 + 1<br />
4 c9<br />
4 ∂ u<br />
∂x2∂y 2 (xi, yj)<br />
+ ∆x∆y 3<br />
<br />
1<br />
6 c1 − 1<br />
6 c3 − 1<br />
6 c7 + 1<br />
6 c9<br />
4 ∂ u<br />
∂x∂y3 (xi, yj)<br />
+ ∆y 4<br />
<br />
1<br />
24 c1 + 1<br />
24 c2 + 1<br />
24 c3 + 1<br />
24 c7 + 1<br />
24 c8 + 1<br />
24 c9<br />
4 ∂ u<br />
∂y4 (xi, yj)
Rodney Josué Biezuner 60<br />
+ ∆x 5<br />
<br />
− 1<br />
120 c1 + 1<br />
120 c3 − 1<br />
120 c4 + 1<br />
120 c6 − 1<br />
120 c7 + 1<br />
+ ∆x 4 <br />
∆y − 1<br />
24 c1 − 1<br />
24 c3 + 1<br />
24 c7 + 1<br />
24 c9<br />
5 ∂ u<br />
∂x4∂y (xi, yj)<br />
+ ∆x 3 ∆y 2<br />
<br />
− 1<br />
12 c1 + 1<br />
12 c3 + 1<br />
12 c7 + 1<br />
12 c9<br />
5 ∂ u<br />
+ ∆x 2 ∆y 3<br />
<br />
− 1<br />
5 ∂ u<br />
120 c9<br />
∂x 3 ∂y 2 (xi, yj)<br />
∂ 5 u<br />
∂x 5 (xi, yj)<br />
12 c1 − 1<br />
12 c3 − 1<br />
12 c7 + 1<br />
12 c9<br />
∂x2∂y 3 (xi, yj)<br />
+ ∆x∆y 4<br />
<br />
− 1<br />
24 c1 + 1<br />
24 c3 − 1<br />
24 c7 + 1<br />
24 c9<br />
5 ∂ u<br />
∂x∂y4 (xi, yj)<br />
+ ∆y 5<br />
<br />
− 1<br />
120 c1 − 1<br />
120 c2 − 1<br />
120 c3 + 1<br />
120 c7 + 1<br />
120 c8 + 1<br />
120 c9<br />
5 ∂ u<br />
∂y5 (xi, yj)<br />
Para obter um esquema com or<strong>de</strong>m <strong>de</strong> convergência pelo menos igual a 3, precisaríamos obter uma solução<br />
não-nula para o sistema<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
c1 + c2 + c3 + c4 + c5 + c6 + c7 + c8 + c9 = 0<br />
−c1 + c3 − c4 + c6 − c7 + c9 = 0<br />
−c1 − c2 − c3 + c7 + c8 + c9 = 0<br />
c1 + c3 + c4 + c6 + c7 + c9<br />
=<br />
1<br />
∆x 2<br />
c1 − c3 − c7 + c9 = 0<br />
c1 + c2 + c3 + c7 + c8 + c9<br />
=<br />
1<br />
∆y2 −c1 + c3 − c4 + c6 − c7 + c9 = 0<br />
−c1 − c3 + c7 + c9 = 0<br />
−c1 + c3 − c7 + c9 = 0<br />
−c1 − c2 − c3 + c7 + c8 + c9 = 0<br />
c1 + c3 + c4 + c6 + c7 + c9 = 0<br />
c1 − c3 − c7 + c9 = 0<br />
c1 + c3 + c7 + c9 = 0<br />
c1 − c3 − c7 + c9 = 0<br />
c1 + c2 + c3 + c7 + c8 + c9 = 0<br />
Infelizmente este sistema não tem solução pois ele é inconsistente: a sexta e a última equação são incompatíveis,<br />
assim como a quarta e a décima primeira. Portanto, não existe uma fórmula <strong>de</strong> nove pontos<br />
compacta tal que<br />
−∆dud = −∆u + O ∆x 3 , ∆y 3 .<br />
No entanto, em 1975 o matemático e lógico Rosser introduziu a seguinte fórmula <strong>de</strong> nove pontos compacta<br />
no caso especial ∆x = ∆y (em [Rosser1]; veja também [Rosser2])<br />
∆dud = ui−1,j−1 + 4ui,,j−1 + ui+1,j−1 + 4ui−1,j − 20ui,j + 4ui+1,j + ui−1,j+1 + 4ui,j+1 + ui+1,j+1<br />
6∆x2 , (2.42)<br />
que po<strong>de</strong> ser resumida na forma<br />
−∆dud = 1<br />
6∆x2 ⎡<br />
⎣<br />
−1 −4 −1<br />
−4 20 −4<br />
−1 −4 −1<br />
⎤<br />
⎦ , (2.43)<br />
a qual produz um esquema convergente <strong>de</strong> quarta or<strong>de</strong>m se a solução u ∈ C 6 Ω (ou mesmo se u ∈ C 5,1 Ω <br />
apenas) <strong>de</strong>pen<strong>de</strong>n<strong>do</strong> <strong>de</strong> como a função f é discretizada. Para enten<strong>de</strong>r como isso ocorre, observe que se
Rodney Josué Biezuner 61<br />
u ∈ C 8 Ω a fórmula <strong>de</strong> Taylor produz<br />
−∆dud = −∆u − ∆x2<br />
12 ∆2u − ∆x4<br />
4 ∂ ∂<br />
+ 4<br />
360 ∂x4 4<br />
∂x2∂y = −∆u − ∆x2<br />
4 ∆x4 ∂ ∂<br />
∆f − + 4<br />
12 360 ∂x4 4<br />
∂x2∂y ∂y4 <br />
∆u + O ∆x 6<br />
(2.44)<br />
∂y4 <br />
f + O ∆x 6 . (2.45)<br />
2 + ∂4<br />
2 + ∂4<br />
O ponto crucial aqui é que o erro é expresso em termos <strong>de</strong> −∆u e, conseqüentemente, por f. Ainda é<br />
necessário escolher uma discretização especial para f:<br />
ou<br />
fd = fi,,j−1 + fi−1,j + 8fi,j + fi+1,j + fi,j+1<br />
12<br />
fd = 1<br />
⎡<br />
⎣<br />
12<br />
1<br />
1 8 1<br />
1<br />
⎤<br />
(2.46)<br />
⎦ . (2.47)<br />
Usan<strong>do</strong> a fórmula <strong>de</strong> Taylor para f, obtemos que esta discretização especial para f satisfaz<br />
fd = f + ∆x2<br />
12 ∆f + O ∆x 4 . (2.48)<br />
Soman<strong>do</strong> esta estimativa com (2.45), e usan<strong>do</strong> −∆dud = fd, −∆u = f, obtemos<br />
−∆dud = −∆u + O ∆x 4<br />
Para este esquema, po<strong>de</strong>-se provar (veja [Hackbusch], pág. 64) que existe uma constante C > 0 tal que<br />
ud − vd ∞ C∆x 4 u C 6 (Ω)<br />
ou ud − vd ∞ C∆x 4 u C 5,1 (Ω)<br />
(2.49)<br />
O esquema <strong>de</strong> Rosser também satisfaz o princípio <strong>do</strong> máximo. Concluin<strong>do</strong>, vemos que uma maior regularida<strong>de</strong><br />
da solução permite obter méto<strong>do</strong>s <strong>de</strong> diferenças finitas com maior or<strong>de</strong>m <strong>de</strong> convergência, embora esta não<br />
seja uma tarefa simples.<br />
2.4 Diferenças Finitas em Coor<strong>de</strong>nadas Polares<br />
Consi<strong>de</strong>raremos nesta seção diferenças finitas em coor<strong>de</strong>nadas polares para <strong>do</strong>mínios com simetria radial.<br />
Consi<strong>de</strong>raremos em <strong>de</strong>talhes os casos <strong>do</strong> disco e <strong>do</strong> anel. O primeiro caso inclui a origem no <strong>do</strong>mínio da<br />
<strong>de</strong>finição, on<strong>de</strong> o laplaciano apresenta uma singularida<strong>de</strong> quan<strong>do</strong> escrito em coor<strong>de</strong>nadas polares, singularida<strong>de</strong><br />
esta que não existe no problema original, e esta particularida<strong>de</strong> <strong>de</strong>ve ser tratada com cuida<strong>do</strong> para não<br />
atrapalhar a or<strong>de</strong>m <strong>de</strong> convergência <strong>do</strong> esquema obti<strong>do</strong>.<br />
Consi<strong>de</strong>re a equação <strong>de</strong> Poisson em coor<strong>de</strong>nadas polares no disco Ω = [0, R) × [0, 2π) :<br />
<br />
urr + 1<br />
r ur + 1<br />
r2 uθθ = f (r, θ) se 0 r < R e 0 < θ < 2π,<br />
u (R, θ) = 0 se 0 θ 2π.<br />
A solução exata <strong>de</strong>ste problema <strong>de</strong>ve satisfazer a condição <strong>de</strong> continuida<strong>de</strong><br />
u (r, 0) = u (r, 2π) para to<strong>do</strong> 0 r R.<br />
Embora esta condição não seja uma condição <strong>de</strong> fronteira e aparece apenas por causa <strong>do</strong> sistema <strong>de</strong> coor<strong>de</strong>nadas<br />
utiliza<strong>do</strong>, ela acaba funcionan<strong>do</strong> como uma condição <strong>de</strong> fronteira em muitos méto<strong>do</strong>s numéricos (e
Rodney Josué Biezuner 62<br />
mesmo analíticos), pois não <strong>de</strong>ixa <strong>de</strong> ser uma condição na fronteira <strong>do</strong> retângulo (0, R) × (0, 2π).<br />
on<strong>de</strong><br />
Discretizamos o disco através <strong>de</strong> uma malha polar<br />
Sua fronteira discretizada é o conjunto<br />
∆r<br />
∆θ<br />
Ωd = {(ri, θj) ∈ Ω : ri = i∆r, θj = j∆θ, 0 i n − 1, 0 j m}<br />
∆r = R 2π<br />
, ∆θ =<br />
n m .<br />
∂Ωd = {(rn, θj) ∈ ∂Ω : rn = n∆r = R, θj = j∆θ, 0 j m} .<br />
Discretizamos a equação <strong>de</strong> Poisson da seguinte forma. Denotamos os valores das discretizações ud e fd<br />
em pontos da malha por<br />
enten<strong>de</strong>n<strong>do</strong> que ui,j e fi,j <strong>de</strong>vem satisfazer<br />
ui,j = u (ri, θj) ,<br />
fi,j = f (ri, θj) ,<br />
u0,0 = u0,j e f0,0 = f0,j (2.50)<br />
para to<strong>do</strong> 0 j m, já que existe apenas um ponto associa<strong>do</strong> com i = 0 (a origem, correspon<strong>de</strong>nte a r = 0).<br />
Além disso, pela condição <strong>de</strong> continuida<strong>de</strong>, <strong>de</strong>vemos ter também<br />
ui,0 = ui,2π e fi,0 = fi,2π (2.51)<br />
para to<strong>do</strong> 0 i n. Usan<strong>do</strong> uma diferença centrada usual para <strong>de</strong>rivadas segundas, o terceiro termo <strong>do</strong><br />
laplaciano em coor<strong>de</strong>nadas polares po<strong>de</strong> ser aproxima<strong>do</strong> para pontos interiores <strong>do</strong> disco por<br />
<br />
1<br />
uθθ (ri, θj) ≈<br />
r2 1<br />
r2 ui,j−1 − 2ui,j − ui,j+1<br />
i ∆θ2 . (2.52)<br />
Para aproximar os primeiros <strong>do</strong>is termos, escrevemos<br />
urr + 1<br />
r ur = 1<br />
r (rur) r .<br />
Se (ri, θj) é um ponto interior <strong>do</strong> disco diferente da origem (isto é, i = 0), po<strong>de</strong>mos usar diferenças centradas<br />
para a <strong>de</strong>rivada primeira, tanto na primeira quanto na segunda aproximações a seguir, obten<strong>do</strong><br />
1<br />
r (rur) r (ri, θj) ≈ 1 (rur) (ri + ∆r/2, θj) − (rur) (ri − ∆r/2, θj)<br />
ri<br />
2∆r/2<br />
≈ 1<br />
u (ri + ∆r, θj) − u (ri, θj) u (ri, θj) − u (ri − ∆r, θj)<br />
ri+1/2 − ri−1/2 ∆r<br />
∆r<br />
ri<br />
∆r<br />
= 1 ri+1/2 (ui+1,j − ui,j) − ri−1/2 (ui,j − ui−1,j)<br />
ri<br />
∆r2 . (2.53)
Rodney Josué Biezuner 63<br />
Portanto, a discretização da equação <strong>de</strong> Poisson no disco para pontos interiores <strong>do</strong> disco diferentes da origem<br />
é <br />
1 ri+1/2 (ui+1,j − ui,j) − ri−1/2 (ui,j − ui−1,j)<br />
−<br />
∆r2 ui,j−1 − 2ui,j − ui,j+1<br />
∆θ2 <br />
= fi,j (2.54)<br />
ri<br />
para 1 i n − 1 e 1 j m − 1. Se j = 0, usan<strong>do</strong> a condição <strong>de</strong> continuida<strong>de</strong> que i<strong>de</strong>ntifica o ponto<br />
(i, 0) com o ponto (i, n), substituímos ui,j−1 por ui,n−1e escrevemos<br />
<br />
1 ri+1/2 (ui+1,0 − ui,0) − ri−1/2 (ui,0 − ui−1,0)<br />
−<br />
∆r2 ui,n−1 − 2ui,0 − ui,1<br />
∆θ2 <br />
= fi,0 (2.55)<br />
ri<br />
para 1 i n − 1. Como este esquema <strong>de</strong> diferenças finitas foi obti<strong>do</strong> através <strong>de</strong> diferenças centradas,<br />
ele <strong>de</strong>ve ser <strong>de</strong> segunda or<strong>de</strong>m. No entanto, <strong>de</strong>vemos ter cuida<strong>do</strong> ao discretizar a equação <strong>de</strong> Poisson na<br />
origem para preservar esta or<strong>de</strong>m <strong>de</strong> convergência. Para isso, multiplicamos a equação <strong>de</strong> Poisson por r e<br />
integramos o resulta<strong>do</strong> sobre um pequeno disco Dε centra<strong>do</strong> na origem <strong>de</strong> raio ε:<br />
2π ε 2π ε <br />
1<br />
fr drdθ = r<br />
r (rur) r + 1<br />
<br />
uθθ drdθ<br />
r2 on<strong>de</strong> assumimos u ∈ C 2 (Ω) <strong>de</strong> mo<strong>do</strong> que<br />
0<br />
0<br />
=<br />
=<br />
0 0<br />
2π ε<br />
+ 1<br />
r 2 i<br />
+ 1<br />
r 2 i<br />
(rur) r drdθ +<br />
ε<br />
1<br />
r<br />
2π<br />
0 0<br />
0 0<br />
2π<br />
[rur]<br />
0<br />
ε<br />
ε<br />
1 2π<br />
0 dθ + [uθ] 0<br />
0 r drdθ<br />
2π<br />
= ε<br />
0<br />
ur (ε, θ) dθ,<br />
uθ (r, 0) = uθ (r, 2π)<br />
para to<strong>do</strong> 0 r < R. Escolhen<strong>do</strong> ε = ∆r/2, discretizamos a equação integral<br />
∆r<br />
2<br />
2π<br />
0<br />
ur (∆r/2, θ) dθ =<br />
2π ∆r/2<br />
0<br />
0<br />
fr drdθ<br />
uθθ drdθ<br />
aproximan<strong>do</strong> a <strong>de</strong>rivada primeira ur (∆r/2, θ) = (ur) i+1/2,j por diferenças centradas e f por f (0) (pois ∆r<br />
é suposto pequeno), <strong>de</strong> mo<strong>do</strong> que<br />
e assim<br />
2π ∆r/2<br />
0<br />
ur (∆r/2, θj) ≈ u1,j − u0,j<br />
,<br />
∆r<br />
0<br />
fr drdθ ≈ f (0)<br />
∆r<br />
2<br />
m−1 <br />
j=0<br />
2π ∆r/2<br />
0<br />
0<br />
r drdθ = 2πf (0) r2<br />
2<br />
u1,j − u0,j<br />
∆θ =<br />
∆r<br />
π<br />
4 f (0) ∆r2 ,<br />
<br />
<br />
<br />
<br />
∆r/2<br />
0<br />
= π<br />
4 f (0) ∆r2 ,<br />
<strong>do</strong>n<strong>de</strong>, como u0 := u0,j in<strong>de</strong>pen<strong>de</strong> <strong>de</strong> j, segue que o valor <strong>de</strong> u na origem será da<strong>do</strong> por<br />
m ∆θ<br />
2 u0 = ∆θ<br />
m−1 <br />
u1,j −<br />
2<br />
π<br />
4 f (0) ∆r2 ,<br />
ou, usan<strong>do</strong> m∆θ = 2π,<br />
j=0<br />
4u0 2∆θ<br />
−<br />
∆r2 π∆r2 m−1 <br />
u1,j = f0. (2.56)<br />
j=0
Rodney Josué Biezuner 64<br />
Para escrever essas diferenças finitas em forma matricial<br />
Au = f,<br />
escolhemos or<strong>de</strong>nar os pontos da malha discretizada no retângulo polar {(ri, θj) : 1 i n − 1, 0 j m}<br />
pela or<strong>de</strong>m lexicográfica em (θ, r) e colocan<strong>do</strong> a origem antes <strong>de</strong> to<strong>do</strong>s estes pontos:.<br />
u = (u0, u1,0, u1,1, . . . , u1,m−1, u2,0, u2,1, . . . , u2,m−1, . . . . . . , un−1,0, un−1,1, . . . , un−1,m−1) . (2.57)<br />
Observe que existem (n − 1) × m + 1 incógnitas. Nesta or<strong>de</strong>nação, segue que A tem a forma em blocos<br />
on<strong>de</strong><br />
on<strong>de</strong><br />
⎡<br />
α0 b<br />
⎢<br />
a B1 −β1I<br />
⎢<br />
.<br />
⎢ −α2I B2 −β2I ..<br />
A = ⎢<br />
−α3I B3 −β3I<br />
⎢<br />
. .. . ..<br />
⎢<br />
⎣<br />
⎡<br />
⎢<br />
Bi = ⎢<br />
⎣<br />
αi = 1<br />
∆r 2<br />
βi = 1<br />
∆r 2<br />
α0 = 4<br />
,<br />
∆r2 ⎡ ⎤<br />
−α1<br />
⎢<br />
a = ⎣ .<br />
⎥<br />
. ⎦<br />
−α1<br />
. ..<br />
−αn−2I Bn−2 −βn−2I<br />
−αn−1I Bn−1<br />
m×1<br />
ri−1/2 , i = 1, . . . , n − 1,<br />
ri<br />
ri+1/2 , i = 1, . . . , n − 2,<br />
ri<br />
b = −β0 . . . −β0<br />
β0 = 2 ∆θ<br />
,<br />
π ∆r2 I = Im,<br />
,<br />
<br />
1×m ,<br />
γi −δi 0 −δi<br />
−δi γi −δi<br />
−δi γi −δi<br />
. .. . ..<br />
. ..<br />
−δi γi −δi<br />
−δi −δi γi<br />
γi = 1<br />
ri<br />
δi = 1<br />
r 2 i<br />
r i+1/2 + r i−1/2<br />
1<br />
.<br />
∆θ2 ∆r 2<br />
+ 2<br />
r 2 i<br />
1<br />
,<br />
∆θ2 ⎤<br />
⎥<br />
⎦<br />
m×m<br />
,<br />
⎤<br />
⎥ , (2.58)<br />
⎥<br />
⎦
Rodney Josué Biezuner 65<br />
A matriz A em geral não é simétrica. Por exemplo, no caso n = 4 e m = 5 ((n − 1) × m + 1 = 16) temos<br />
⎡<br />
α<br />
⎢ −α1 ⎢ −α1 ⎢ −α1 ⎢ −α1 ⎢ −α1 ⎢ 0<br />
⎢ 0<br />
⎢ 0<br />
⎢ 0<br />
⎢ 0<br />
⎢ 0<br />
⎢ 0<br />
⎢ 0<br />
⎣ 0<br />
−β0<br />
γ1<br />
−δ1<br />
0<br />
0<br />
−δ1<br />
−α2<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−β0<br />
−δ1<br />
γ1<br />
−δ1<br />
0<br />
0<br />
0<br />
−α2<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−β0<br />
0<br />
−δ1<br />
γ1<br />
−δ1<br />
0<br />
0<br />
0<br />
−α2<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−β0<br />
0<br />
0<br />
−δ1<br />
γ1<br />
−δ1<br />
0<br />
0<br />
0<br />
−α2<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−β0<br />
−δ1<br />
0<br />
0<br />
−δ1<br />
γ1<br />
0<br />
0<br />
0<br />
0<br />
−α2<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−β1<br />
0<br />
0<br />
0<br />
0<br />
γ2<br />
−δ2<br />
0<br />
0<br />
−δ2<br />
−α3<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−β1<br />
0<br />
0<br />
0<br />
−δ2<br />
γ2<br />
−δ2<br />
0<br />
0<br />
0<br />
−α3<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−β1<br />
0<br />
0<br />
0<br />
−δ2<br />
γ2<br />
−δ2<br />
0<br />
0<br />
0<br />
−α3<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−β1<br />
0<br />
0<br />
0<br />
−δ2<br />
γ2<br />
−δ2<br />
0<br />
0<br />
0<br />
−α3<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−β1<br />
−δ2<br />
0<br />
0<br />
−δ2<br />
γ2<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−β2<br />
0<br />
0<br />
0<br />
0<br />
γ3<br />
−δ3<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−β2<br />
0<br />
0<br />
0<br />
−δ3<br />
γ3<br />
−δ3<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−β2<br />
0<br />
0<br />
0<br />
−δ3<br />
γ3<br />
−δ3<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−β2<br />
0<br />
0<br />
0<br />
−δ3<br />
γ3<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
−β2<br />
−δ3<br />
0<br />
0<br />
−δ3<br />
⎤<br />
⎥<br />
⎦<br />
0 0 0 0 0 0 0 0 0 0 −α3 −δ3 0 0 −δ3 γ3<br />
A primeira linha e a primeira coluna são diferentes porque os pontos (0, j), j = 0, . . . , m, são realmente um<br />
único ponto e este ponto é vizinho a to<strong>do</strong>s os pontos (1, j), j = 0, . . . , m.<br />
A matriz <strong>de</strong> discretização A no caso <strong>do</strong> anel será um pouco mais simples, já que ela será igual à matriz<br />
<strong>de</strong> discretização no caso <strong>do</strong> disco menos a primeira linha e a primeira coluna.<br />
2.5 Domínios Arbitrários<br />
Queremos agora discutir a resolução numérica da equação <strong>de</strong> Poisson através <strong>de</strong> diferenças finitas em um<br />
<strong>do</strong>mínio arbitrário.<br />
Seja Ω ⊂ R 2 um <strong>do</strong>mínio arbitrário. Se sobrepusermos uma malha uniforme<br />
M = {(i∆x, j∆y) ∈ Ω : i ∈ Z e j ∈ Z}<br />
sobre Ω, obtemos um <strong>do</strong>mínio discretiza<strong>do</strong> <strong>de</strong>fini<strong>do</strong> por<br />
Ωd = {(x, y) ∈ Ω : x/∆x ∈ Z e y/∆y ∈ Z} . (2.59)<br />
Esta é exatamente a maneira como discretizamos o retângulo. No entanto, o conjunto discretiza<strong>do</strong> <strong>do</strong>s<br />
pontos <strong>de</strong> fronteira ∂Ωd <strong>de</strong> um <strong>do</strong>mínio arbitrário <strong>de</strong>ve ser trata<strong>do</strong> <strong>de</strong> maneira diferente <strong>do</strong> retângulo, já que<br />
a malha uniforme M em geral não vai se sobrepor à fronteira <strong>de</strong> Ω, po<strong>de</strong>n<strong>do</strong> não possuir nenhum ponto em<br />
comum com a fronteira ou um número muito pequeno <strong>de</strong> pontos em poucas regiões da fronteira.<br />
Uma maneira <strong>de</strong> tratar este problema é a seguinte. Para <strong>de</strong>terminar se o ponto (xi, yj) ∈ Ωd é adjacente<br />
à “fronteira esquerda” <strong>de</strong> Ω, por exemplo, e ao mesmo tempo encontrar o seu vizinho à esquerda na fronteira<br />
se for o caso, basta verificar se o segmento<br />
[xi − ∆x, yj] = {(xi − t∆x, yj) : t ∈ [0, 1]}<br />
está inteiramente conti<strong>do</strong> em Ω ou não. Se não estiver, então (xi, yj) é um ponto interior adjacente à fronteira<br />
e existe um número tW ∈ (0, 1) tal que<br />
(xi − tW ∆x, yj) ∈ ∂Ω e (xi − t∆x, yj) ∈ Ω para to<strong>do</strong> t ∈ [0, tW ). (2.60)<br />
Este será o vizinho à esquerda <strong>de</strong> (xi, yj) na fronteira discretizada ∂Ωd <strong>do</strong> <strong>do</strong>mínio. Analogamente, os<br />
pontos vizinhos na fronteira discretizada à direita, abaixo e acima <strong>de</strong> pontos adjacentes à fronteira po<strong>de</strong>m<br />
ser encontra<strong>do</strong>s; eles satisfazem, respectivamente,<br />
(xi + tE∆x, yj) ∈ ∂Ω e (xi + t∆x, yj) ∈ Ω para to<strong>do</strong> t ∈ [0, tE). (2.61)
Rodney Josué Biezuner 66<br />
(xi, yj − tS∆y) ∈ ∂Ω e (xi, yj − t∆y) ∈ Ω para to<strong>do</strong> t ∈ [0, tS). (2.62)<br />
(xi, yj + tN∆y) ∈ ∂Ω e (xi, yj + t∆y) ∈ Ω para to<strong>do</strong> t ∈ [0, tN ). (2.63)<br />
(os subíndices W, E, S, N correspon<strong>de</strong>m aos quatro pontos car<strong>de</strong>ais oeste, leste, sul, norte em inglês). Definimos<br />
∂Ωd = {(x, y) ∈ ∂Ω : (x, y) satisfaz (2.60), (2.61), (2.62) ou (2.63)} (2.64)<br />
Depen<strong>de</strong>n<strong>do</strong> da geometria <strong>de</strong> Ω é concebível que um ponto seja simultaneamente adjacente às “quatro<br />
fronteiras” <strong>de</strong> Ω, isto é, que ele tenha os seus quatro vizinhos em ∂Ωd. Além disso, embora os pontos<br />
interiores da malha estejam distribuí<strong>do</strong>s uniformemente, esta discretização da fronteira <strong>do</strong> <strong>do</strong>mínio permite<br />
que às vezes <strong>do</strong>is pontos da malha da fronteira estejam bem próximos um <strong>do</strong> outro em alguma região da<br />
fronteira e relativamente distantes em outras (isso ocorre mesmo em <strong>do</strong>mínio regulares como um disco).<br />
Para discretizar a equação <strong>de</strong> Poisson nesta malha, observe que pela fórmula <strong>de</strong> Taylor temos, para pontos<br />
x− < x < x+,<br />
on<strong>de</strong><br />
De fato,<br />
u ′′ (x) =<br />
2<br />
x+ − x−<br />
<br />
u (x+) − u (x)<br />
−<br />
x+ − x<br />
<br />
u (x) − u (x−)<br />
+ r, (2.65)<br />
x − x−<br />
|r| 1 (x+ − x)<br />
3<br />
2 + (x − x−) 2<br />
1<br />
uC3 ([x−,x+]) <br />
x+ − x−<br />
3 max (x+ − x, x − x−) uC3 ([x−,x+]) . (2.66)<br />
u(x−) = u(x) − u ′ (x) (x − x−) + 1<br />
2 u′′ (x) (x − x−) 2 − 1<br />
3! u′′′ (ξ−) (x − x−) 3 ,<br />
u(x+) = u(x) + u ′ (x) (x+ − x) + 1<br />
2 u′′ (x) (x+ − x) 2 + 1<br />
3! u′′′ (ξ+) (x+ − x) 3 ,<br />
para alguns ξ− ∈ [x−, x] , ξ+ ∈ [x, x+], <strong>de</strong> mo<strong>do</strong> que<br />
u (x) − u (x−)<br />
−<br />
x − x−<br />
u (x+) − u (x)<br />
x+ − x<br />
<strong>do</strong>n<strong>de</strong>, soman<strong>do</strong> as duas expressões,<br />
u (x+) − u (x)<br />
x+ − x<br />
−<br />
Assim, po<strong>de</strong>mos aproximar<br />
u (x) − u (x−)<br />
x − x−<br />
u ′′ (x) ≈<br />
= −u ′ (x) + 1<br />
2 u′′ (x) (x − x−) − 1<br />
6 u′′′ (ξ−) (x − x−) 2 ,<br />
= u ′ (x) + 1<br />
2 u′′ (x) (x+ − x) + 1<br />
6 u′′′ (ξ+) (x+ − x) 2 ,<br />
= 1<br />
2 u′′ (x) (x+ − x−) + 1<br />
<br />
u<br />
6<br />
′′′ (ξ+) (x+ − x) 2 − u ′′′ (ξ−) (x − x−) 2<br />
.<br />
2<br />
x+ − x−<br />
<br />
u (x+) − u (x)<br />
−<br />
x+ − x<br />
<br />
u (x) − u (x−)<br />
x − x−<br />
Se x− = x − ∆x e x+ = x + ∆x, obtemos a fórmula <strong>de</strong> diferenças centradas usual para a <strong>de</strong>rivada segunda.<br />
Para aproximar o laplaciano através <strong>de</strong> uma fórmula <strong>de</strong> cinco pontos, usamos os quatro pontos vizinhos<br />
(xi − tW ∆x, yj) , (xi + tE∆x, yj) , (xi, yj − tS∆y) , (xi, yj + tN ∆y) , com t∗ ∈ (0, 1]
Rodney Josué Biezuner 67<br />
<strong>de</strong>finin<strong>do</strong> o esquema <strong>de</strong> diferenças finitas <strong>de</strong> Shortley-Weller:<br />
<br />
2<br />
u (xi + tE∆x, yj) − u (xi, yj)<br />
∆dud =<br />
−<br />
(xi + tE∆x) − (xi − tW ∆x) (xi + tE∆x) − xi<br />
u (xi,<br />
<br />
yj) − u (xi − tW ∆x, yj)<br />
xi − (xi − tW ∆x)<br />
<br />
2<br />
u (xi, yj + tN ∆y) − u (xi, yj)<br />
+<br />
−<br />
(yj + tN ∆y) − (yj − tS∆y) (yj + tN∆y) − yj<br />
u (xi,<br />
<br />
yj) − u (xi, yj − tS∆y)<br />
yj − (yj − tS∆y)<br />
<br />
2 ui+tE∆x,j − ui,j<br />
=<br />
−<br />
(tE + tW ) ∆x tE∆x<br />
ui,j<br />
<br />
− ui−tW ∆x,j<br />
tW ∆x<br />
<br />
2 ui,j+tN ∆y − ui,j<br />
+<br />
−<br />
(tN + tS) ∆y tN∆y<br />
ui,j<br />
<br />
− ui,j−tS∆y<br />
tS∆y<br />
ou<br />
−∆dud = 2<br />
∆x2 <br />
1<br />
−<br />
+ 2<br />
∆y2 <br />
1<br />
−<br />
tS (tN + tS) ui,j−tS∆y + 1<br />
tE (tE + tW ) ui+tE∆x,j + 1<br />
1<br />
ui,j −<br />
tEtW tW (tE + tW ) ui−tW ∆x,j<br />
ui,j −<br />
tNtS<br />
1<br />
tN (tN + tS) ui,j+tN ∆y<br />
<br />
.<br />
<br />
(2.67)<br />
Se (xi, yj) é um ponto interior distante da fronteira (isto é, não adjacente à fronteira), então t∗ = 1 e para<br />
este ponto vale a fórmula <strong>do</strong>s cinco pontos usual.<br />
Embora a or<strong>de</strong>m <strong>de</strong> aproximação <strong>do</strong> laplaciano para pontos próximos à fronteira é apenas 1, o esquema <strong>de</strong><br />
Shortley-Weller é convergente <strong>de</strong> segunda or<strong>de</strong>m, conforme veremos no próximo capítulo, on<strong>de</strong> provaremos<br />
também que o correspon<strong>de</strong>nte problema discretiza<strong>do</strong> possui solução única.<br />
2.6 Exercícios<br />
1. Implemente os méto<strong>do</strong>s discuti<strong>do</strong>s neste capítulo computacionalmente, verifique a precisão comparan<strong>do</strong><br />
com a solução exata e também a velocida<strong>de</strong> <strong>de</strong> convergência.<br />
2. Discretize o problema <strong>de</strong> Poisson com valor <strong>de</strong> fronteira <strong>de</strong> Dirichlet a seguir, usan<strong>do</strong> a fórmula <strong>de</strong><br />
cinco pontos. −∆u = f (x, y) em (0, a) × (0, b) ,<br />
u = g (x, y) sobre ∂ ((0, a) × (0, b)) ,<br />
Implemente alguns exemplos <strong>de</strong>ste problema computacionalmente e compare os resulta<strong>do</strong>s obti<strong>do</strong>s com<br />
as soluções exatas.<br />
3. Prove que a fórmula <strong>do</strong>s nove pontos compacta satisfaz o princípio <strong>do</strong> máximo discreto.<br />
4. Prove resulta<strong>do</strong>s equivalentes ao Lema 2.5 e ao Teorema 2.6 para a fórmula <strong>do</strong>s nove pontos compacta.<br />
5. Investigue a or<strong>de</strong>m <strong>de</strong> convergência <strong>do</strong> esquema <strong>de</strong> diferenças finitas misto: fórmula <strong>do</strong>s nove pontos nos<br />
pontos interiores distantes da fronteira e fórmula <strong>do</strong>s cinco pontos para pontos adjacentes à fronteira.<br />
6. Encontre um esquema <strong>de</strong> diferenças finitas <strong>de</strong> segunda or<strong>de</strong>m para a equação <strong>de</strong> laplace tridimensional<br />
em um paralelepípe<strong>do</strong> reto. Escolha uma or<strong>de</strong>nação apropriada <strong>do</strong>s pontos da malha e <strong>de</strong>screva a<br />
matriz <strong>de</strong> discretização obtida. Implemente o méto<strong>do</strong> no computa<strong>do</strong>r.<br />
7. Mostre que o esquema <strong>de</strong> diferenças finitas em coor<strong>de</strong>nadas polares introduzi<strong>do</strong> neste capítulo satisfaz<br />
o princípio <strong>do</strong> máximo discreto <strong>de</strong>s<strong>de</strong> que o valor <strong>de</strong> u0 seja da<strong>do</strong> pela fórmula (2.56).
Rodney Josué Biezuner 68<br />
8. Mostre que se ∆d <strong>de</strong>nota o esquema <strong>de</strong> diferenças finitas em coor<strong>de</strong>nadas polares introduzi<strong>do</strong> neste<br />
capítulo e Ω é o disco unitário, então vale a estimativa a priori: se ud é uma solução <strong>de</strong><br />
<br />
−∆dud = fd em Ωd,<br />
ud = 0 sobre ∂Ωd,<br />
então<br />
ud ∞ 1<br />
4 ∆dud ∞<br />
(2.68)<br />
<strong>de</strong>s<strong>de</strong> que o valor <strong>de</strong> u0 seja da<strong>do</strong> pela fórmula (2.56). Conclua que este esquema tem or<strong>de</strong>m <strong>de</strong><br />
convergência 2.<br />
9. Encontre os autovalores da matriz <strong>de</strong> discretização <strong>do</strong> esquema <strong>de</strong> diferenças finitas em coor<strong>de</strong>nadas<br />
polares e compare com os autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano no disco.<br />
10. Discretize o problema <strong>de</strong> Poisson com valor <strong>de</strong> fronteira <strong>de</strong> Dirichlet para o anel:<br />
⎧<br />
⎨<br />
⎩<br />
−∆u = f (r, θ) se R1 < r < R2 e 0 < θ < 2π,<br />
u (R1, θ) = g1 (θ)<br />
u (R2, θ) = g2 (θ) se 0 θ 2π.<br />
Implemente alguns exemplos <strong>de</strong>ste problema computacionalmente e compare os resulta<strong>do</strong>s obti<strong>do</strong>s com<br />
as soluções exatas.<br />
11. Mostre que toman<strong>do</strong> o “quadra<strong>do</strong>” da fórmula <strong>de</strong> três pontos para o laplaciano unidimensional (esquema<br />
<strong>de</strong> diferenças centradas para a <strong>de</strong>rivada segunda) obtemos a seguinte fórmula <strong>de</strong> cinco pontos<br />
para o opera<strong>do</strong>r biharmônico unidimensional (esquema <strong>de</strong> diferenças centradas para a <strong>de</strong>rivada quarta):<br />
δ 4 ui = ui−2 − 4ui−1 + 6ui − 4ui+1 + ui+2<br />
∆x 4<br />
Usan<strong>do</strong> a fórmula <strong>de</strong> Taylor, obtenha o expoente p tal que<br />
δ 4 ui = u (4) (xi) + O (∆x p ) .<br />
(2.69)<br />
12. O esquema <strong>de</strong> diferenças finitas mais simples para o opera<strong>do</strong>r biharmônico ∆2 em duas dimensões é a<br />
seguinte fórmula <strong>de</strong> 13 pontos (para o caso ∆x = ∆y):<br />
∆ 2 u = 1<br />
∆x4 ⎡<br />
⎢ 1<br />
⎣<br />
2<br />
−8<br />
2<br />
1<br />
−8<br />
20<br />
−8<br />
1<br />
2<br />
−8<br />
2<br />
1<br />
⎤<br />
⎥ .<br />
⎦<br />
(2.70)<br />
Mostre que esta fórmula po<strong>de</strong> ser obtida a partir <strong>do</strong> “quadra<strong>do</strong>” da fórmula <strong>de</strong> cinco pontos para<br />
o laplaciano. Como a equação biharmônica não satisfaz o princípio <strong>do</strong> máximo, a <strong>de</strong>monstração da<br />
or<strong>de</strong>m <strong>de</strong> convergência <strong>de</strong>ste esquema necessita <strong>de</strong> argumentos diferentes <strong>do</strong>s usa<strong>do</strong>s neste capítulo<br />
para o laplaciano. Na realida<strong>de</strong>, <strong>de</strong>pen<strong>de</strong>n<strong>do</strong> <strong>de</strong> como as duas condições <strong>de</strong> fronteira são discretizadas,<br />
a or<strong>de</strong>m <strong>de</strong> convergência <strong>de</strong>ste méto<strong>do</strong> po<strong>de</strong> ser O ∆x 3/2 ou O ∆x 2 . Veja [Hackbusch], pág. 103 e<br />
págs. 105-109, para <strong>de</strong>talhes e referências.
Capítulo 3<br />
Existência e Unicida<strong>de</strong> <strong>de</strong> Soluções<br />
Discretas<br />
Determinar a existência e unicida<strong>de</strong> <strong>de</strong> soluções discretas para as matrizes <strong>de</strong> discretização obtidas via<br />
esquemas <strong>de</strong> diferenças finitas através <strong>do</strong> cálculo <strong>de</strong> seus autovalores como fizemos no capítulo anterior para<br />
diferenças centradas em uma dimensão e para a fórmula <strong>de</strong> cinco pontos é inviável em geral (tente calcular<br />
os autovalores da matriz <strong>de</strong> discretização para a fórmula <strong>do</strong>s nove pontos, para o esquema em coor<strong>de</strong>nadas<br />
polares e para o esquema <strong>de</strong> Shortley-Weller). Neste capítulo, <strong>de</strong>senvolveremos méto<strong>do</strong>s mais gerais e mais<br />
fáceis <strong>de</strong> aplicar.<br />
3.1 Normas Matriciais<br />
Uma norma matricial no espaço vetorial Mn (C) das matrizes complexas n × n é uma norma vetorial que<br />
satisfaz a proprieda<strong>de</strong> submultiplicativa<br />
AB A B (3.1)<br />
para todas as matrizes A, B ∈ Mn (C). Algumas das normas mais importantes em Mn (C) são as seguintes:<br />
1. Norma l1<br />
De fato,<br />
AB 1 =<br />
2. Norma l2<br />
Com efeito,<br />
AB 2<br />
2 =<br />
n<br />
<br />
n <br />
<br />
<br />
i,j=1<br />
n<br />
<br />
n <br />
<br />
<br />
i,j=1<br />
k=1<br />
k=1<br />
aikbkj<br />
aikbkj<br />
<br />
<br />
<br />
<br />
<br />
2<br />
<br />
<br />
<br />
<br />
<br />
<br />
n<br />
i,j,k=1<br />
n<br />
<br />
n<br />
i,j=1<br />
A 1 =<br />
|aikbkj| <br />
⎛<br />
A2 = ⎝<br />
k=1<br />
|aik| 2<br />
n<br />
|aij| . (3.2)<br />
i,j=1<br />
n<br />
i,j,k,l=1<br />
n<br />
i,j=1<br />
n<br />
69<br />
l=1<br />
|aij| 2<br />
|blj| 2<br />
|aikblj| =<br />
⎞<br />
⎠<br />
<br />
1/2<br />
= ⎝<br />
n<br />
i,j=1<br />
|aik|<br />
n<br />
|blj| = A1 B1 .<br />
k,l=1<br />
. (3.3)<br />
⎛<br />
n<br />
i,k=1<br />
|aik| 2<br />
⎞ ⎛<br />
⎠ ⎝<br />
n<br />
j,l=1<br />
|blj| 2<br />
⎞<br />
⎠ = A 2<br />
2 B2<br />
2 .
Rodney Josué Biezuner 70<br />
A norma l2 também é chamada norma euclidiana e, mais raramente e somente para matrizes, norma<br />
<strong>de</strong> Schur, norma <strong>de</strong> Frobenius ou norma <strong>de</strong> Hilbert-Schmidt.<br />
3. Norma l∞ modificada<br />
A norma l∞<br />
A ∞ = max<br />
1i,jn |aij| .<br />
é uma norma vetorial no espaço das matrizes complexas, mas não é uma norma matricial, pois se<br />
então<br />
A =<br />
A 2 =<br />
1 1<br />
1 1<br />
2 2<br />
2 2<br />
e portanto A 2 ∞ = 2 > 1 = A ∞ A ∞ .<br />
Mas um múltiplo escalar <strong>de</strong>sta norma vetorial é uma norma matricial:<br />
Com efeito,<br />
4. Norma induzida<br />
AB n∞ = n max<br />
<br />
n<br />
<br />
<br />
<br />
aikbkj<br />
1i,jn 1i,jn<br />
k=1<br />
k=1<br />
= n A∞ n B∞ = ABn∞ .<br />
<br />
,<br />
<br />
A n∞ = n max<br />
1i,jn |aij| . (3.4)<br />
<br />
<br />
<br />
n max<br />
n<br />
|aikbkj| n max<br />
n<br />
A<br />
1i,jn<br />
∞ B∞ k=1<br />
Dada uma norma vetorial |·| em C n , ela induz uma norma matricial através da <strong>de</strong>finição<br />
De fato,<br />
AB = max<br />
x=0<br />
|ABx|<br />
|x|<br />
= max<br />
x=0<br />
|ABx|<br />
|Bx|<br />
A = max |Ax| = max<br />
|x|=1 x=0<br />
|Ax|<br />
. (3.5)<br />
|x|<br />
<br />
|Bx| |ABx|<br />
max<br />
|x| x=0 |Bx| max<br />
|Bx| |Ay|<br />
max<br />
x=0 |x| y=0 |y| max<br />
|Bx|<br />
= A B .<br />
x=0 |x|<br />
Esta norma também é chamada norma <strong>do</strong> opera<strong>do</strong>r. Ela satisfaz a proprieda<strong>de</strong> muitas vezes útil<br />
para to<strong>do</strong> vetor x ∈ C n .<br />
5. Norma <strong>do</strong> máximo das somas das linhas<br />
|Ax| A |x| (3.6)<br />
A L = max<br />
1in<br />
j=1<br />
n<br />
|aij| . (3.7)<br />
Esta norma é induzida pela norma vetorial l∞. De fato, se x = (x1, . . . , xn), temos<br />
<br />
<br />
n<br />
<br />
<br />
n<br />
n<br />
|Ax| ∞ = max aijxj <br />
1in max |aijxj| max<br />
1in<br />
1in<br />
j=1<br />
j=1<br />
j=1<br />
|aij| |x| ∞ = A L |x| ∞ ,
Rodney Josué Biezuner 71<br />
<strong>de</strong> mo<strong>do</strong> que<br />
max<br />
|x|=1 |Ax| ∞ AL .<br />
Supon<strong>do</strong> que a k-ésima linha <strong>de</strong> A é não-nula, <strong>de</strong>finimos o vetor y = (y1, . . . , yn) ∈ Cn por<br />
⎧<br />
⎨<br />
yi =<br />
⎩<br />
akj<br />
|akj|<br />
1<br />
se aij = 0,<br />
se aij = 0.<br />
,<br />
o que implica |y| ∞ = 1, akjyj = |akj| e<br />
max<br />
|x| ∞ =1 |Ax| ∞ |Ay| <br />
<br />
n<br />
∞ = max <br />
1in <br />
<br />
Isso vale para to<strong>do</strong> k, logo<br />
j=1<br />
max<br />
|x| ∞ =1 |Ax| ∞ max<br />
1kn<br />
6. Norma <strong>do</strong> máximo das somas das colunas<br />
A C = max<br />
aijyj<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
n<br />
<br />
<br />
<br />
j=1<br />
akjyj<br />
n<br />
|aij| = AL .<br />
j=1<br />
1jn<br />
i=1<br />
<br />
<br />
<br />
<br />
<br />
=<br />
n<br />
|akj| .<br />
j=1<br />
n<br />
|aij| . (3.8)<br />
Esta norma é induzida pela norma vetorial l1. De fato, escreven<strong>do</strong> A em termos <strong>de</strong> suas colunas<br />
segue que<br />
Se x = (x1, . . . , xn), segue que<br />
<strong>do</strong>n<strong>de</strong><br />
|Ax| 1 = |x1A1 + . . . + xnAn| 1 <br />
= A C<br />
A = [A1 . . . An]<br />
A C = max<br />
1jn |Aj| 1 .<br />
n<br />
|xiAi| 1 =<br />
i=1<br />
n<br />
|xi| = AC |x| 1 ,<br />
i=1<br />
Agora, se escolhermos y = ej, temos que |y| 1 = 1 e<br />
para to<strong>do</strong> k, logo<br />
7. p-normas<br />
n<br />
|xi| |Ai| 1 <br />
i=1<br />
max<br />
|x| 1 =1 |Ax| 1 AC .<br />
|Ay| 1 = |Aj| 1<br />
max<br />
|x| 1 =1 |Ax| 1 |Ay| 1 = max<br />
1jn |Aj| 1 = AC .<br />
n<br />
i=1<br />
|xi| max<br />
1jn |Aj| 1<br />
Este é o nome geral para as normas induzidas pela norma vetorial lp. O caso especial da norma induzida<br />
pela norma vetorial l2 (a norma vetorial euclidiana) é também chamada a norma espectral e satisfaz<br />
|A|2 = √ <br />
∗<br />
λmax = max λ : λ é um autovalor <strong>de</strong> A A .
Rodney Josué Biezuner 72<br />
De fato, A ∗ A é uma matriz hermitiana e possui autovalores não-negativos, pois se A ∗ Ay = λy, então<br />
λ |y| 2<br />
2 = 〈y, λy〉 2 = 〈y, A∗Ay〉 2 = 〈Ay, Ay〉 2 = |Ay| 2<br />
2<br />
e, além disso, pela caracterização variacional <strong>do</strong>s autovalores <strong>de</strong> uma matriz hermitiana temos<br />
λmax = max<br />
x=0<br />
〈A ∗ Ax, x〉 2<br />
|x| 2<br />
2<br />
= max<br />
x=0<br />
|Ax| 2<br />
2<br />
|x| 2<br />
2<br />
Observe que a 2-norma é diferente da norma matricial l2. Note também que se A é uma matriz<br />
hermitiana, então A ∗ A = A 2 e |A| 2 é portanto o módulo <strong>do</strong> maior autovalor <strong>de</strong> A, isto é, a norma<br />
espectral <strong>de</strong> A é o raio espectral <strong>de</strong> A, <strong>de</strong>fini<strong>do</strong> como sen<strong>do</strong> o maior valor absoluto <strong>do</strong>s autovalores<br />
<strong>de</strong> A:<br />
ρ (A) = max<br />
i=1,...,n |λi| ,<br />
8. Norma induzida por uma matriz invertível<br />
Se · é uma norma matricial qualquer e se S é uma matriz invertível, então<br />
<strong>de</strong>fine uma norma matricial. Com efeito,<br />
.<br />
A S = S −1 AS (3.9)<br />
AB S = S −1 ABS = S −1 ASS −1 BS S −1 AS S −1 BS = A S B S .<br />
Lembramos que todas as normas em um espaço vetorial são equivalentes, e isso vale em particular para<br />
normas matriciais.<br />
3.2 Matrizes Diagonalmente Dominantes<br />
Definição. Dizemos que uma matriz An×n é diagonalmente <strong>do</strong>minante se<br />
|aii| <br />
n<br />
|aij| para to<strong>do</strong> i = 1, . . . , n<br />
j=1<br />
j=i<br />
e estritamente diagonalmente <strong>do</strong>minante se<br />
|aii| ><br />
n<br />
|aij| para to<strong>do</strong> i = 1, . . . , n.<br />
j=1<br />
j=i<br />
3.1 Proposição. Se A é uma matriz estritamente diagonalmente <strong>do</strong>minante, então A é invertível.<br />
Prova. Uma matriz A é invertível se existe alguma norma matricial · tal que I − A < 1. De fato, se<br />
esta condição é satisfeita, então a inversa é dada explicitamente pela série<br />
A −1 =<br />
∞<br />
(I − A) k . (3.10)<br />
k=0<br />
A condição I − A < 1 garante a convergência <strong>de</strong>sta série, pois a série geométrica ∞<br />
k=0 rk tem raio <strong>de</strong><br />
convergência 1; como para to<strong>do</strong> N temos<br />
N<br />
A (I − A) k N<br />
= [I − (I − A)] (I − A) k N<br />
= (I − A) k N+1 <br />
− (I − A) k = I − (I − A) N+1 ,<br />
k=0<br />
k=0<br />
k=0<br />
k=1
Rodney Josué Biezuner 73<br />
toman<strong>do</strong> o limite quan<strong>do</strong> N → ∞, concluímos (3.10).<br />
Para provar a proposição, <strong>de</strong>note por D a matriz diagonal cujas entradas diagonais são as entradas<br />
diagonais <strong>de</strong> A. Uma matriz estritamente diagonalmente <strong>do</strong>minante possui, por <strong>de</strong>finição, entradas diagonais<br />
não-nulas, logo D é uma matriz invertível. A matriz D −1 A tem apenas 1’s na diagonal principal e se<br />
mostramos que D −1 A é invertível, isto implicará que A é invertível. Para provar isso, consi<strong>de</strong>re a matriz<br />
I − D −1 A. Temos<br />
−1<br />
I − D A<br />
ij =<br />
<br />
0 se i = j,<br />
se i = j.<br />
−aij/aii<br />
Usemos a norma <strong>do</strong> máximo das somas das linhas. Para cada 1 i n temos<br />
n <br />
<br />
I − D −1 A n<br />
<br />
aij<br />
<br />
n<br />
= <br />
1<br />
ij = |aij| < 1,<br />
|aii|<br />
j=1<br />
j=1<br />
j=i<br />
logo I − D −1 A < 1 e o resulta<strong>do</strong> segue. <br />
Às vezes, exigir <strong>do</strong>minância diagonal estrita em todas as linhas é pedir <strong>de</strong>mais. Para certas matrizes,<br />
<strong>do</strong>minância diagonal junto com <strong>do</strong>minância diagonal estrita em apenas uma linha é suficiente para garantir<br />
a sua invertibilida<strong>de</strong>. As matrizes <strong>de</strong> discretização obtidas no capítulo anterior satisfazem esta condição<br />
(nas linhas correspon<strong>de</strong>ntes à pontos adjacentes à fronteira), e nenhuma <strong>de</strong>las é estritamente diagonalmente<br />
<strong>do</strong>minante. Por outro la<strong>do</strong>, esta condição não é suficiente para estabelecer a invertibilida<strong>de</strong> <strong>de</strong> uma matriz<br />
em geral, como o exemplo ⎡<br />
⎣<br />
aii<br />
4 2 1<br />
0 1 1<br />
0 1 1<br />
<strong>de</strong>monstra. Precisamos <strong>de</strong> <strong>de</strong>senvolver várias idéias e ferramentas teóricas antes <strong>de</strong> provar a invertibilida<strong>de</strong><br />
das matrizes <strong>de</strong> discretização <strong>do</strong> capítulo anterior.<br />
3.3 Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin<br />
A primeira ferramenta teórica é o importante Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin. Ele <strong>de</strong>corre da seguinte<br />
observação: se A é uma matriz complexa n × n, po<strong>de</strong>mos sempre escrever A = D + B, on<strong>de</strong> D = diag<br />
(a11, . . . , ann) é a matriz diagonal formada pela diagonal principal <strong>de</strong> A e B consiste <strong>do</strong>s elementos restantes<br />
<strong>de</strong> A, possuin<strong>do</strong> uma diagonal principal nula. Se <strong>de</strong>finirmos Aε = D + εB, então A0 = D e A1 = A. Os<br />
autovalores <strong>de</strong> D são a11, . . . , ann, enquanto que os autovalores <strong>de</strong> Aε <strong>de</strong>vem estar localiza<strong>do</strong>s em vizinhanças<br />
<strong>do</strong>s pontos a11, . . . , ann, <strong>de</strong>s<strong>de</strong> que ε seja suficientemente pequeno. O mesmo <strong>de</strong>ve valer para os autovalores<br />
da matriz A: eles <strong>de</strong>vem estar conti<strong>do</strong>s em discos centra<strong>do</strong>s nos elementos a11, . . . , ann da diagonal principal<br />
se os discos são suficientemente gran<strong>de</strong>s. O Teorema <strong>de</strong> Gershgorin dá uma estimativa precisa e simples <strong>de</strong><br />
calcular para os raios <strong>de</strong>stes discos em função das entradas restantes da matriz A. Denote o disco complexo<br />
fecha<strong>do</strong> <strong>de</strong> centro em a e raio R por<br />
⎤<br />
⎦<br />
j=1<br />
j=i<br />
DR (a) = {z ∈ C : |z − a| R} .<br />
3.2 Teorema. (Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin) Se A ∈ Mn (C) e<br />
n<br />
Ri (A) = |aij| (3.11)<br />
<strong>de</strong>nota a soma <strong>do</strong>s valores absolutos <strong>do</strong>s elementos da linha i <strong>de</strong> A excetuan<strong>do</strong> o elemento da diagonal<br />
principal, então to<strong>do</strong>s os autovalores <strong>de</strong> A estão conti<strong>do</strong>s na união <strong>do</strong>s n discos <strong>de</strong> Gershgorin<br />
n<br />
G (A) =<br />
i=1<br />
j=1<br />
j=i<br />
D Ri(A) (aii) . (3.12)
Rodney Josué Biezuner 74<br />
Além disso, se uma união <strong>de</strong> k <strong>de</strong>stes discos forma uma região que é disjunta <strong>do</strong>s n−k discos restantes,<br />
então existem exatamente k autovalores <strong>de</strong> A nesta região.<br />
Prova. Seja λ um autovalor <strong>de</strong> A e x = (x1, . . . , xn) = 0 um autovetor associa<strong>do</strong>. Seja k um índice tal que<br />
|xk| |xj| para j = 1, . . . , n,<br />
isto é, xk é a coor<strong>de</strong>nada <strong>de</strong> x <strong>de</strong> maior valor absoluto. Denotan<strong>do</strong> por (Ax) k a k-ésima coor<strong>de</strong>nada <strong>do</strong> vetor<br />
Ax = λx, temos<br />
n<br />
λxk = (Ax) k =<br />
que é equivalente a<br />
Daí,<br />
ou seja,<br />
|xk| |λ − akk| <br />
j=1<br />
j=k<br />
xk (λ − akk) =<br />
j=1<br />
j=k<br />
j=1<br />
n<br />
j=1<br />
j=k<br />
akjxj<br />
akjxj.<br />
n<br />
n<br />
n<br />
|akjxj| = |akj| |xj| |xk| |akj| = |xk| Rk (A) ,<br />
|λ − akk| Rk (A) .<br />
Isso prova o resulta<strong>do</strong> principal <strong>do</strong> Teorema <strong>de</strong> Gershgorin (como não sabemos qual k é apropria<strong>do</strong> para<br />
cada autovalor λ, e um mesmo k po<strong>de</strong> servir para vários autovalores λ, tu<strong>do</strong> o que po<strong>de</strong>mos afirmar é que<br />
os autovalores estão na união <strong>do</strong>s discos).<br />
Para provar a segunda afirmação, escreva A = D + B, on<strong>de</strong> D = diag (a11, . . . , ann) e <strong>de</strong>fina<br />
para 0 t 1. Note que<br />
At = D + tB<br />
j=1<br />
j=k<br />
Ri (At) = Ri (tB) = tRi (A) .<br />
Para simplificar a notação, assuma que a união <strong>do</strong>s primeiros k discos <strong>de</strong> Gershgorin<br />
satisfaz Gk (A) ∩ [G (A) \Gk (A)] = ∅. Temos<br />
logo<br />
e<br />
Gk (A) =<br />
k<br />
i=1<br />
D Ri(A) (aii)<br />
D Ri(At) (aii) = {z ∈ C : |z − aii| Ri (At)} = {z ∈ C : |z − aii| tRi (A)} ⊂ D Ri(A) (aii) ,<br />
Gk (At) ⊂ Gk (A)<br />
Gk (A) ∩ [G (At) \Gk (At)] = ∅<br />
para 0 t 1. Porque os autovalores são funções contínuas das entradas <strong>de</strong> uma matriz, o caminho<br />
λi (t) = λi (At)<br />
é um caminho contínuo que liga λi (A0) = λi (D) = aii a λi (A1) = λi (A). Como λi (At) ∈ Gk (At) ⊂ Gk (A),<br />
concluímos que para cada 0 t 1 existem k autovalores <strong>de</strong> At em Gk (A); em particular, fazen<strong>do</strong> t = 1,
Rodney Josué Biezuner 75<br />
obtemos que Gk (A) possui pelo menos k autovalores <strong>de</strong> A. Da mesma forma, não po<strong>de</strong> haver mais que<br />
k autovalores <strong>de</strong> A em Gk (A), pois os n − k autovalores restantes <strong>de</strong> A0 = D começam fora <strong>do</strong> conjunto<br />
Gk (A) e seguem caminhos contínuos que permanecem fora <strong>de</strong> Gk (A). <br />
A união G (A) <strong>do</strong>s discos <strong>de</strong> Gershgorin é conhecida como a região <strong>de</strong> Gershgorin. Observe que enquanto<br />
não po<strong>de</strong>mos em geral afirmar com certeza que cada disco <strong>de</strong> Gershgorin possui um autovalor, a segunda<br />
afirmação <strong>do</strong> teorema permite-nos fazer tal conclusão <strong>de</strong>s<strong>de</strong> que os discos <strong>de</strong> Gershgorin sejam <strong>do</strong>is a <strong>do</strong>is<br />
disjuntos.<br />
O Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin permite enten<strong>de</strong>r o resulta<strong>do</strong> da Proposição 3.1: se uma matriz A é<br />
estritamente diagonalmente <strong>do</strong>minante, então os discos <strong>de</strong> Gershgorin D Ri(A) (aii) não interceptam a origem,<br />
logo 0 não po<strong>de</strong> ser um autovalor para a matriz A, o que implica que A é invertível. Além disso, se to<strong>do</strong>s<br />
os elementos da diagonal principal <strong>de</strong> A são reais e positivos, então os autovalores <strong>de</strong> A estão localiza<strong>do</strong>s no<br />
semiplano direito <strong>de</strong> C, <strong>de</strong> mo<strong>do</strong> que se A é também simétrica, concluímos que to<strong>do</strong>s os autovalores <strong>de</strong> A<br />
são positivos.<br />
A aplicação mais óbvia <strong>do</strong> Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin é na estimativa <strong>do</strong>s autovalores <strong>de</strong> uma<br />
matriz, o que é importante se vamos usar os autovalores <strong>de</strong> matrizes <strong>de</strong> discretização para aproximar os<br />
autovalores <strong>do</strong> laplaciano:<br />
Aplicação 1. Pelo Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin, os autovalores da matriz <strong>de</strong> discretização <strong>do</strong> laplaciano<br />
no intervalo (0, π) discretiza<strong>do</strong> com n + 1 pontos (esquema <strong>de</strong> diferenças finitas centradas para<br />
a <strong>de</strong>rivada segunda unidimensional)<br />
⎡<br />
2 −1<br />
⎤<br />
⎢<br />
−1 2 −1<br />
⎥<br />
A = n2<br />
π 2<br />
⎢<br />
⎣<br />
−1<br />
. ..<br />
. ..<br />
. ..<br />
. .. −1<br />
−1 2 −1<br />
−1 2<br />
estão to<strong>do</strong>s localiza<strong>do</strong>s no intervalo (A é simétrica, logo seus autovalores são to<strong>do</strong>s reais) centra<strong>do</strong> em<br />
x = 2n 2 /π 2 <strong>de</strong> raio 2n 2 /π 2 , ou seja, no intervalo 0, 4n 2 /π 2 . Em particular o maior autovalor <strong>de</strong> A<br />
não po<strong>de</strong> exce<strong>de</strong>r 4n 2 /π 2 . Como os autovalores <strong>do</strong> laplaciano neste intervalo são da forma λj = j 2 ,<br />
para termos esperança em aproximar o autovalor λj por autovalores da matriz A precisamos que<br />
j 2 4n 2 /π 2 , isto é, precisamos discretizar o intervalo (0, π) com<br />
n π<br />
2 j<br />
pontos. Isso dá uma estimativa bastante grosseira <strong>do</strong> quão refinada a nossa malha precisa ser para<br />
aproximar os autovalores <strong>do</strong> laplaciano. Na prática, vimos que apenas os primeiros autovalores <strong>de</strong><br />
A aproximam bem os primeiros autovalores <strong>do</strong> laplaciano e portanto precisamos <strong>de</strong> uma malha com<br />
um número muito maior <strong>de</strong> pontos. Observe que uma estimativa semelhante vale para a matriz <strong>de</strong><br />
discretização M fornecida pela fórmula <strong>de</strong> cinco pontos no quadra<strong>do</strong> (0, π) 2 quan<strong>do</strong> tomamos ∆x =<br />
∆y = π/n: como os autovalores <strong>de</strong> M estão localiza<strong>do</strong>s no intervalo <strong>de</strong> centro em x = 4n 2 /π 2 <strong>de</strong> raio<br />
4n 2 /π 2 , isto é, em 0, 8n 2 /π 2 , precisamos <strong>de</strong><br />
n π<br />
2 √ <br />
i2 + j2 2<br />
pontos no eixos horizontal e vertical para aproximar o autovalor i 2 + j 2 . Por outro la<strong>do</strong>, no caso<br />
bidimensional isso implica em uma matriz <strong>de</strong> discretização da or<strong>de</strong>m <strong>de</strong> i 2 + j 2 . <br />
Usos mais refina<strong>do</strong>s <strong>do</strong> Teorema <strong>de</strong> Gershgorin permitem obter conhecimento mais preciso sobre on<strong>de</strong><br />
os autovalores da matriz se encontram e correspon<strong>de</strong>ntemente melhores estimativas para o raio espectral<br />
⎥<br />
⎦
Rodney Josué Biezuner 76<br />
<strong>de</strong> uma matriz. Por exemplo, como A e A t possuem os mesmos autovalores, existe um teorema <strong>do</strong>s discos<br />
<strong>de</strong> Gershgorin equivalente para as colunas <strong>de</strong> uma matriz. Em particular, to<strong>do</strong>s os autovalores <strong>de</strong> A estão<br />
localiza<strong>do</strong>s na interseção <strong>de</strong>stas duas regiões: G (A) ∩ G (A t ). Isso implica a seguinte estimativa simples para<br />
o raio espectral <strong>de</strong> uma matriz complexa:<br />
3.3 Corolário. Se A ∈ Mn (C), então<br />
⎛<br />
ρ (A) min ⎝ max<br />
i=1,...,n<br />
j=1<br />
n<br />
|aij| , max<br />
n<br />
|aij|<br />
j=1,...,n<br />
i=1<br />
⎞<br />
⎠ = min (A L , A C ) .<br />
Prova. O ponto no i-ésimo disco <strong>de</strong> Gershgorin que é mais distante da origem tem módulo<br />
n<br />
|aii| + Ri (A) =<br />
e um resulta<strong>do</strong> semelhante vale para as colunas <strong>de</strong> A. <br />
O resulta<strong>do</strong> <strong>do</strong> Corolário 3.3 não é surpreen<strong>de</strong>nte em vista <strong>do</strong> raio espectral <strong>de</strong> uma matriz ser menor que<br />
qualquer norma matricial (veja o próximo capítulo). Um resulta<strong>do</strong> melhor po<strong>de</strong> ser obti<strong>do</strong> uma vez que<br />
se observa que A e S−1AS também possuem os mesmos autovalores, qualquer que seja a matriz invertível<br />
S. Em particular, quan<strong>do</strong> S = D = diag (p1, . . . , pn) é uma matriz diagonal com to<strong>do</strong>s os seus elementos<br />
positivos, isto é, pi > 0 para to<strong>do</strong> i, aplican<strong>do</strong> o Teorema <strong>de</strong> Gershgorin à matriz<br />
<br />
D −1 AD =<br />
e à sua transposta, obtemos o seguinte resulta<strong>do</strong> que permite obter uma estimativa arbitrariamente boa <strong>do</strong>s<br />
autovalores <strong>de</strong> A:<br />
pj<br />
j=1<br />
aij<br />
pi<br />
3.4 Corolário. Se A ∈ Mn (C) e p1, . . . , pn > 0, então to<strong>do</strong>s os autovalores <strong>de</strong> A estão conti<strong>do</strong>s em<br />
Em particular,<br />
G D −1 AD ∩ G DA t D −1 =<br />
ρ (A) min<br />
3.4 Proprieda<strong>de</strong> FC<br />
p1,...,pn>0<br />
⎛<br />
∩<br />
⎝ max<br />
i=1,...,n<br />
n<br />
i=1<br />
n<br />
i=1<br />
1<br />
⎧<br />
⎪⎨<br />
|aij|<br />
z ∈ C : |z − aii| <br />
⎪⎩<br />
1<br />
pi<br />
⎧<br />
⎪⎨<br />
⎪⎩ z ∈ C : |z − aii| pj<br />
n<br />
n<br />
n<br />
j=1<br />
j=i<br />
n<br />
i=1<br />
i=j<br />
pj |aij|<br />
1<br />
|aij|<br />
pi<br />
pj |aij| , max<br />
pi<br />
j=1,...,n<br />
j=1<br />
pj |aij|<br />
pi<br />
i=1<br />
1<br />
⎞<br />
⎫<br />
⎪⎬<br />
⎪⎭<br />
⎫<br />
⎪⎬<br />
⎪⎭ .<br />
(3.13)<br />
⎠ . (3.14)<br />
Na nossa busca por proprieda<strong>de</strong>s para matrizes diagonalmente <strong>do</strong>minantes que garantirão a sua invertibilida<strong>de</strong>,<br />
uma observação fundamental é a <strong>de</strong> que se A é uma matriz diagonalmente <strong>do</strong>minante, então 0 não<br />
po<strong>de</strong> ser um ponto interior <strong>de</strong> nenhum disco <strong>de</strong> Gershgorin. De fato, se λ é um autovalor <strong>de</strong> A interior a<br />
algum disco <strong>de</strong> Gershgorin então <strong>de</strong>vemos ter <strong>de</strong>sigualda<strong>de</strong> estrita<br />
n<br />
|λ − aii| < Ri (A) = |aij|<br />
j=1<br />
j=i
Rodney Josué Biezuner 77<br />
para algum i. Se 0 é um autovalor <strong>de</strong> A interior a algum disco <strong>de</strong> Gershgorin, então<br />
|aii| <<br />
n<br />
j=1<br />
j=i<br />
para algum i e A não po<strong>de</strong> ser diagonalmente <strong>do</strong>minante na linha i.<br />
Uma condição equivalente para que um autovalor λ <strong>de</strong> A não seja um ponto interior <strong>de</strong> nenhum disco <strong>de</strong><br />
Gershgorin é que<br />
n<br />
|λ − aii| Ri (A) = |aij| para to<strong>do</strong> i = 1, . . . , n.<br />
j=1<br />
j=i<br />
Tais pontos λ na região <strong>de</strong> Gershgorin G (A) (não necessariamente autovalores <strong>de</strong> A) constituem precisamente<br />
a fronteira ∂G (A) da região <strong>de</strong> Gershgorin. Chamaremos a fronteira <strong>de</strong> um disco <strong>de</strong> Gershgorin<br />
{z ∈ C : |z − aii| = Ri (A)} um círculo <strong>de</strong> Gershgorin.<br />
3.5 Lema. Seja A ∈ Mn (C) e λ um autovalor <strong>de</strong> A que não é um ponto interior <strong>de</strong> nenhum disco <strong>de</strong><br />
Gershgorin. Seja x = (x1, . . . , xn) = 0 um autovetor associa<strong>do</strong> a λ e k um índice tal que<br />
Se i é qualquer índice tal que<br />
|aij|<br />
|xk| |xj| para j = 1, . . . , n.<br />
|xi| = |xk|<br />
então o i-ésimo círculo <strong>de</strong> Gershgorin passa por λ. Se, além disso,<br />
então<br />
aij = 0,<br />
|xj| = |xk|<br />
e o j-ésimo círculo <strong>de</strong> Gershgorin também passa por λ.<br />
Prova. Como na <strong>de</strong>monstração <strong>do</strong> Teorema <strong>de</strong> Gershgorin, temos<br />
|xi| |λ − aii| <br />
n<br />
n<br />
n<br />
|aijxj| = |aij| |xj| |xk| |aij| = |xk| Ri (A) (3.15)<br />
j=1<br />
j=k<br />
para to<strong>do</strong> índice i. Logo, se |xi| = |xk|, temos<br />
Como por hipótese<br />
para to<strong>do</strong> índice i, segue que<br />
j=1<br />
j=k<br />
|λ − aii| Ri (A) .<br />
|λ − aii| Ri (A)<br />
|λ − aii| = Ri (A) .<br />
Em geral, |xi| = |xk| implica que as <strong>de</strong>sigualda<strong>de</strong>s em (3.15) são i<strong>de</strong>ntida<strong>de</strong>s; em particular,<br />
n<br />
n<br />
|aij| |xj| = |xi|<br />
j=1<br />
j=k<br />
j=1<br />
j=k<br />
|aij|<br />
j=1<br />
j=k
Rodney Josué Biezuner 78<br />
<strong>do</strong>n<strong>de</strong><br />
n<br />
|aij| (|xi| − |xj|) = 0.<br />
j=1<br />
j=k<br />
Esta é uma soma <strong>de</strong> termos não-negativos, pois |xi| |xj|, logo se aij = 0 necessariamente <strong>de</strong>vemos ter<br />
|xj| = |xi| = |xk|. <br />
Este lema técnico tem as seguintes conseqüências úteis:<br />
3.6 Teorema. Seja A ∈ Mn (C) uma matriz cujas entradas são todas não-nulas e seja λ um autovalor <strong>de</strong><br />
A que não é um ponto interior <strong>de</strong> nenhum disco <strong>de</strong> Gershgorin. Então to<strong>do</strong> círculo <strong>de</strong> Gershgorin<br />
<strong>de</strong> A passa por λ (isto é, λ está na interseção <strong>de</strong> to<strong>do</strong>s os círculos <strong>de</strong> Gershgorin <strong>de</strong> A) e se x =<br />
(x1, . . . , xn) = 0 é um autovetor associa<strong>do</strong> a λ então<br />
Prova. Decorre diretamente <strong>do</strong> lema anterior. <br />
|xi| = |xj| para to<strong>do</strong>s i, j = 1, . . . , n.<br />
3.7 Corolário. Se A ∈ Mn (C) é uma matriz cujas entradas são todas não-nulas e diagonalmente <strong>do</strong>minante<br />
tal que |aii| > n<br />
|aij| para pelo menos alguma linha i, então A é invertível.<br />
j=1<br />
j=i<br />
Prova. Pois, como A é diagonalmente <strong>do</strong>minante, se 0 é um autovalor <strong>de</strong> A então 0 não po<strong>de</strong> ser um ponto<br />
interior <strong>de</strong> nenhum disco <strong>de</strong> Gershgorin. Por outro la<strong>do</strong>, pelo teorema anterior, segue que to<strong>do</strong> círculo <strong>de</strong><br />
Gershgorin passa por 0. Entretanto, o i-ésimo círculo <strong>de</strong> Gershgorin centra<strong>do</strong> em aii e com raio Ri < |aii|<br />
não po<strong>de</strong> passar por 0. Concluímos que 0 não é um autovalor <strong>de</strong> A, logo A é invertível. <br />
Na verda<strong>de</strong>, usan<strong>do</strong> com maior cuida<strong>do</strong> a informação dada pelo Lema 3.5 po<strong>de</strong>mos obter resulta<strong>do</strong>s ainda<br />
melhores:<br />
Definição. Dizemos que uma matriz A = (aij) ∈ Mn (C) satisfaz a proprieda<strong>de</strong> FC se para to<strong>do</strong> par <strong>de</strong><br />
inteiros distintos i, j existe uma seqüência <strong>de</strong> inteiros distintos i1 = i, i2, i3, . . . , im−1, im = j, com<br />
1 m n, tais que todas as entradas matriciais<br />
são não-nulas.<br />
ai1i2 , ai2i3 , . . . , aim−1im<br />
Por exemplo, a matriz diagonalmente <strong>do</strong>minante não-invertível<br />
⎡<br />
4<br />
⎣ 0<br />
2<br />
1<br />
1<br />
1<br />
⎤<br />
⎦ ,<br />
0 1 1<br />
já vista anteriormente, não satisfaz a proprieda<strong>de</strong> FC porque o par 2, 1 não admite tal seqüência (a única<br />
seqüência possível é a23, a31). Já qualquer par <strong>de</strong> inteiros distintos i, j tal que aij = 0 admite a seqüência<br />
trivial não-nula aij, <strong>de</strong> mo<strong>do</strong> que uma matriz cujas entradas não-diagonais são todas não-nulas satisfaz a<br />
proprieda<strong>de</strong> FC. O significa<strong>do</strong> da abreviatura “FC”, ou “fortemente conexo”, ficará claro mais adiante.<br />
3.8 Teorema. Seja A ∈ Mn (C) uma matriz que satisfaz a proprieda<strong>de</strong> FC e seja λ um autovalor <strong>de</strong> A que<br />
não é um ponto interior <strong>de</strong> nenhum disco <strong>de</strong> Gershgorin. Então to<strong>do</strong> círculo <strong>de</strong> Gershgorin <strong>de</strong> A passa<br />
por λ (isto é, λ está na interseção <strong>de</strong> to<strong>do</strong>s os círculos <strong>de</strong> Gershgorin <strong>de</strong> A) e se x = (x1, . . . , xn) = 0<br />
é um autovetor associa<strong>do</strong> a λ então<br />
|xi| = |xj| para to<strong>do</strong>s i, j = 1, . . . , n.
Rodney Josué Biezuner 79<br />
Prova. Seja x = (x1, . . . , xn) = 0 um autovetor associa<strong>do</strong> a λ e i um índice tal que<br />
Pelo Lema 3.5,<br />
|xi| |xk| para k = 1, . . . , n.<br />
|λ − aii| = Ri (A) .<br />
Seja j = i qualquer outro índice e i1 = i, i2, i3, . . . , im−1, im = j, com 1 m n, índices tais que todas as<br />
entradas matriciais<br />
aii2, ai2i3, . . . , aim−1j = 0.<br />
Como aii2 = 0, segue da segunda afirmativa <strong>do</strong> Lema 3.5 que |xi2| = |xi|. Mas então ai2i3 = 0 e portanto<br />
|xi3| = |xi2| = |xi|. Prosseguin<strong>do</strong> <strong>de</strong>sta forma, concluímos que<br />
|xi| = |xi2| = . . . <br />
xim−1<br />
= |xj| .<br />
Em particular, segue novamente <strong>do</strong> Lema 3.5 que o j-ésimo círculo <strong>de</strong> Gershgorin passa por λ. Como j é<br />
arbitrário, isso prova o teorema. <br />
3.9 Corolário. Se A ∈ Mn (C) é uma matriz que satisfaz a proprieda<strong>de</strong> FC e diagonalmente <strong>do</strong>minante tal<br />
que |aii| > n<br />
|aij| para pelo menos alguma linha i, então A é invertível.<br />
j=1<br />
j=i<br />
Prova. Segue <strong>do</strong> teorema anterior da mesma forma que o Corolário 3.7 segue <strong>do</strong> Teorema 3.6. <br />
Vamos tentar enten<strong>de</strong>r melhor o significa<strong>do</strong> da proprieda<strong>de</strong> FC. Note que ela se refere apenas à localização<br />
<strong>do</strong>s elementos não-nulos <strong>de</strong> A fora da diagonal principal – os elementos da diagonal principal e os valores<br />
específicos <strong>do</strong>s elementos fora da diagonal principal são irrelevantes. Isso motiva as seguintes <strong>de</strong>finições:<br />
Definição. Dada uma matriz A = (aij) ∈ Mn (C) <strong>de</strong>finimos o módulo da matriz A como sen<strong>do</strong> a matriz<br />
|A| = (|aij|)<br />
cujos elementos são os módulos <strong>do</strong>s elementos da matriz A e a matriz indica<strong>do</strong>ra <strong>de</strong> A como sen<strong>do</strong><br />
a matriz<br />
M (A) = (µij) ,<br />
on<strong>de</strong><br />
µij =<br />
1 se aij = 0,<br />
0 se aij = 0.<br />
O conceito <strong>de</strong> uma seqüência <strong>de</strong> entradas não-nulas da matriz A que aparece na <strong>de</strong>finição da proprieda<strong>de</strong><br />
FC po<strong>de</strong> ser visualiza<strong>do</strong> em termos <strong>de</strong> caminhos em um grafo associa<strong>do</strong> a A:<br />
Definição. Dada uma matriz A ∈ Mn (C), o grafo direciona<strong>do</strong> <strong>de</strong> A é o grafo direciona<strong>do</strong> Γ (A) com n<br />
no<strong>do</strong>s P1, . . . , Pn tais que existe um arco direciona<strong>do</strong> em Γ (A) <strong>de</strong> Pi a Pj se e somente se aij = 0.<br />
Um caminho direciona<strong>do</strong> γ em um grafo Γ é uma seqüência <strong>de</strong> arcos Pi1Pi2, Pi2Pi3, . . . em Γ. O<br />
comprimento <strong>de</strong> um caminho direciona<strong>do</strong> é o número <strong>de</strong> arcos sucessivos no caminho direciona<strong>do</strong>. Um<br />
ciclo é um caminho direciona<strong>do</strong> que começa e termina no mesmo nó.<br />
Dizemos que um grafo direciona<strong>do</strong> é fortemente conexo se entre qualquer par <strong>de</strong> no<strong>do</strong>s distintos<br />
Pi, Pj ∈ Γ existir um caminho direciona<strong>do</strong> <strong>de</strong> comprimento finito que começa em Pi e termina em Pj.<br />
Observe que quan<strong>do</strong> Γ é um grafo direciona<strong>do</strong> com n no<strong>do</strong>s, se existe um caminho direciona<strong>do</strong> entre <strong>do</strong>is<br />
no<strong>do</strong>s <strong>de</strong> Γ, então sempre existe um caminho direciona<strong>do</strong> entre estes <strong>do</strong>is no<strong>do</strong>s <strong>de</strong> comprimento menor que<br />
ou igual a n − 1.
Rodney Josué Biezuner 80<br />
3.10 Teorema. A ∈ Mn (C) satisfaz a proprieda<strong>de</strong> FC se e somente se Γ (A) é fortemente conexo.<br />
Verificar a proprieda<strong>de</strong> FC a partir <strong>do</strong> grafo direciona<strong>do</strong> <strong>de</strong> A po<strong>de</strong> ser impraticável se o tamanho da<br />
matriz for muito gran<strong>de</strong>. Existe um méto<strong>do</strong> computacional mais explícito para fazê-lo:<br />
3.11 Teorema. Sejam A ∈ Mn (C) e Pi, Pj no<strong>do</strong>s <strong>de</strong> Γ (A). Existe um caminho direciona<strong>do</strong> <strong>de</strong> comprimento<br />
m em Γ (A) <strong>de</strong> Pi para Pj se e somente se<br />
ou, equivalentemente, se e somente se<br />
(|A| m ) ij = 0<br />
[M (A) m ] ij = 0.<br />
Prova. Provaremos o teorema por indução. Para m = 1 a afirmativa é trivial. Para m = 2, temos<br />
<strong>de</strong> mo<strong>do</strong> que<br />
<br />
|A| 2<br />
ij<br />
<br />
|A| 2<br />
ij<br />
=<br />
n<br />
k=1<br />
(|A|) ik (|A|) kj =<br />
n<br />
k=1<br />
|aik| |akj| ,<br />
= 0 se e somente se aik, akj são ambos não-nulos para algum índice k. Mas isso é<br />
equivalente a dizer que existe um caminho direciona<strong>do</strong> <strong>de</strong> comprimento 2 em Γ (A) <strong>de</strong> Pi para Pj.<br />
Em geral, supon<strong>do</strong> a afirmativa provada para m, temos<br />
<br />
|A| m+1<br />
ij<br />
=<br />
n<br />
k=1<br />
(|A| m ) ik (|A|) kj =<br />
n<br />
(|A| m ) ik<br />
|akj| = 0<br />
se e somente se (|A| m ) ik , akj são ambos não-nulos para algum índice k. Por hipótese <strong>de</strong> indução, isso é<br />
equivalente a existir um caminho direciona<strong>do</strong> <strong>de</strong> comprimento m em Γ (A) <strong>de</strong> Pi para Pk e um caminho<br />
direciona<strong>do</strong> <strong>de</strong> comprimento 1 em Γ (A) <strong>de</strong> Pk para Pj, isto é, um caminho direciona<strong>do</strong> <strong>de</strong> comprimento<br />
m + 1 em Γ (A) <strong>de</strong> Pi para Pj. O mesmo argumento vale para M (A). <br />
Definição. Seja A = (aij) ∈ Mn (C). Dizemos que A 0 se aij 0 para to<strong>do</strong>s 1 i, j n e que A > 0 se<br />
aij > 0 para to<strong>do</strong>s 1 i, j n.<br />
3.12 Corolário. Seja A ∈ Mn (C). Existe um caminho direciona<strong>do</strong> <strong>de</strong> comprimento m em Γ (A) <strong>de</strong> cada<br />
no<strong>do</strong> Pi para cada no<strong>do</strong> Pj se e somente se<br />
ou, equivalentemente, se e somente se<br />
|A| m > 0<br />
M (A) m > 0.<br />
3.13 Corolário. Seja A ∈ Mn (C). A satisfaz a proprieda<strong>de</strong> FC se e somente se<br />
ou, equivalentemente, se e somente se<br />
k=1<br />
(I + |A|) n−1 > 0<br />
[I + M (A)] n−1 > 0.<br />
Prova. Temos<br />
(I + |A|) n−1 <br />
n − 1<br />
= I + (n − 1) |A| + |A|<br />
2<br />
2 <br />
n − 1<br />
+ . . . + |A|<br />
n − 3<br />
n−1 + |A| n−1 > 0
Rodney Josué Biezuner 81<br />
se e somente se para cada par <strong>de</strong> índices i, j com i = j pelo menos um <strong>do</strong>s termos |A| , |A| 2 , . . . , |A| n−1<br />
tem uma entrada positiva em (i, j). Pelo Teorema 3.11, isso ocorre se e somente se existe algum caminho<br />
direciona<strong>do</strong> em Γ (A) <strong>de</strong> Pi para Pj com comprimento n−1. Isto é equivalente a A satisfazer a proprieda<strong>de</strong><br />
FC. O mesmo argumento vale para M (A). <br />
Em geral, a maneira como uma matriz foi obtida (como as nossas matrizes <strong>de</strong> discretização; veja a última<br />
seção <strong>do</strong> capítulo) torna clara se elas são matrizes que satisfazem a proprieda<strong>de</strong> FC ou não. Se isso<br />
não é possível, e preten<strong>de</strong>-se verificar a proprieda<strong>de</strong> FC através <strong>do</strong> Corolário 3.13, é preferível calcular<br />
[I + M (A)] n−1 , já que M (A) é uma matriz composta apenas <strong>de</strong> 0’s e 1’s.<br />
3.5 Matrizes Irredutíveis<br />
Lembre-se que uma matriz <strong>de</strong> permutação P é uma matriz quadrada cujas entradas são todas 0 ou 1 e,<br />
além disso, em cada linha e em cada coluna <strong>de</strong> P existe exatamente um 1. Em particular, P é uma matriz<br />
ortogonal, <strong>de</strong> mo<strong>do</strong> que P −1 = P t , isto é, a inversa <strong>de</strong> P também é uma matriz <strong>de</strong> permutação. Um caso<br />
especial <strong>de</strong> uma matriz <strong>de</strong> permutação é uma matriz <strong>de</strong> transposição, que é uma matriz <strong>de</strong> permutação T<br />
igual à matriz i<strong>de</strong>ntida<strong>de</strong> exceto em duas posições, isto é, para algum par <strong>de</strong> índices fixa<strong>do</strong> k, l temos<br />
⎧<br />
⎨ δij se (i, j) = (k, l) , (l, k) , (k, k) ou (l, l) ,<br />
Tij = 1 e (i, j) = (k, l) ou se (i, j) = (l, k) ,<br />
⎩<br />
0 se (i, j) = (k, k) ou se (i, j) = (l, l) .<br />
Matrizes <strong>de</strong> transposição são simétricas. O efeito <strong>de</strong> multiplicar uma matriz A por uma matriz <strong>de</strong> transposição<br />
à esquerda é trocar a posição <strong>de</strong> duas linhas da matriz A (no caso acima, as linhas k e l), enquanto que a<br />
multiplicação <strong>de</strong> A por uma matriz <strong>de</strong> transposição à direita muda a posição <strong>de</strong> duas colunas <strong>de</strong> A (no caso<br />
acima, as colunas k e l).<br />
T A =<br />
AT =<br />
⎡<br />
⎢<br />
⎣<br />
⎡<br />
⎢<br />
⎣<br />
1 0 0 0<br />
0 0 1 0<br />
0 1 0 0<br />
0 0 0 1<br />
⎤ ⎡<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎦ ⎣<br />
a11 a12 a13 a14<br />
a21 a22 a23 a24<br />
a31 a32 a33 a34<br />
a41 a42 a43 a44<br />
a11 a12 a13 a14<br />
a21 a22 a23 a24<br />
a31 a32 a33 a34<br />
a41 a42 a43 a44<br />
⎤ ⎡<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎦ ⎣<br />
1 0 0 0<br />
0 0 1 0<br />
0 1 0 0<br />
0 0 0 1<br />
⎤<br />
⎡<br />
⎥<br />
⎦ =<br />
⎢<br />
⎣<br />
⎤<br />
⎥<br />
⎦ =<br />
⎡<br />
⎢<br />
⎣<br />
a11 a12 a13 a14<br />
a31 a32 a33 a34<br />
a21 a22 a23 a24<br />
a41 a42 a43 a44<br />
a11 a13 a12 a14<br />
a21 a23 a22 a24<br />
a31 a33 a32 a34<br />
a41 a43 a42 a44<br />
Po<strong>de</strong>-se provar que toda matriz <strong>de</strong> permutação P é o produto <strong>de</strong> matrizes <strong>de</strong> transposição P = T1 . . . Tm;<br />
em particular, P t = Tm . . . T1. A matriz<br />
P t AP = Tm . . . T1AT1 . . . Tm<br />
é portanto obtida através da permutação <strong>de</strong> linhas e colunas <strong>de</strong> A, <strong>de</strong> mo<strong>do</strong> que nenhum novo elemento é<br />
cria<strong>do</strong> ou algum elemento existente <strong>de</strong> A <strong>de</strong>struí<strong>do</strong>.<br />
Definição. Dizemos que uma matriz A ∈ Mn (C) é redutível se existe alguma matriz <strong>de</strong> permutação P e<br />
algum inteiro 1 m n − 1 tal que<br />
P t <br />
B<br />
AP =<br />
0<br />
C<br />
D<br />
<br />
on<strong>de</strong> B é uma matriz m × m, D é uma matriz (n − m) × (n − m), C é uma matriz m × (n − m) e 0 é<br />
a matriz nula (n − m) × m. Caso contrário, dizemos que A é irredutível.<br />
⎤<br />
⎥<br />
⎦ ,<br />
⎤<br />
⎥<br />
⎦ .
Rodney Josué Biezuner 82<br />
Da <strong>de</strong>finição vemos que se |A| > 0, então A é irredutível, e para que A seja redutível, ela precisa ter pelo<br />
menos n − 1 zeros (caso m = 1). A motivação para este nome é a seguinte. Suponha que queiramos resolver<br />
o sistema Ax = b e que A seja redutível. Então, se escrevermos<br />
A = P t AP =<br />
B C<br />
0 D<br />
teremos Ax = P AP t x = b ou AP t x = P t b; <strong>de</strong>notan<strong>do</strong> x = P t x e b = P t b, resolver o sistema Ax = b é então<br />
equivalente a resolver o sistema<br />
Ax = b.<br />
Escreven<strong>do</strong><br />
x =<br />
y<br />
z<br />
<br />
b1<br />
, b =<br />
b2<br />
on<strong>de</strong> y, b1 ∈ C m e z, b2 ∈ C n−m , este sistema é por sua vez equivalente ao sistema<br />
By + Cz = b1<br />
Dz = b2<br />
Se resolvermos primeiro Dz = b2 e utilizarmos o valor <strong>de</strong> z encontra<strong>do</strong> na primeira equação resolven<strong>do</strong><br />
By = b1 − Cz, teremos reduzi<strong>do</strong> o problema original a <strong>do</strong>is problemas menores, mais fáceis <strong>de</strong> resolver.<br />
3.14 Teorema. Uma matriz A ∈ Mn (C) é irredutível se e somente se<br />
ou, equivalentemente, se e somente se<br />
(I + |A|) n−1 > 0<br />
<br />
,<br />
<br />
[I + M (A)] n−1 > 0.<br />
Prova. Para provar o resulta<strong>do</strong>, mostraremos que A é redutível se e somente se (I + |A|) n−1 possui pelo<br />
menos uma entrada nula.<br />
Assuma primeiramente que A é redutível, <strong>de</strong> mo<strong>do</strong> que para alguma matriz <strong>de</strong> permutação P tenhamos<br />
Observe que<br />
A = P<br />
B C<br />
0 D<br />
<br />
P t =: P AP t .<br />
|A| = P AP t = P A P t ,<br />
já que o efeito <strong>de</strong> P é apenas trocar linhas e colunas. Além disso, note que<br />
A k <br />
k B<br />
=<br />
0<br />
Ck<br />
Dk <br />
para alguma matriz Ck. Logo, como<br />
(I + |A|) n−1 = I + P A t<br />
P n−1 n−1 = P I + A t<br />
P<br />
<br />
<br />
n − 1<br />
= P I + (n − 1) |A| + |A|<br />
2<br />
2 <br />
n − 1<br />
+ . . . + |A|<br />
n − 3<br />
n−1 + |A| n−1<br />
<br />
P t<br />
e to<strong>do</strong>s os termos <strong>de</strong>ntro <strong>do</strong>s colchetes são matrizes que tem um bloco (n − m) × m nulo no canto esquer<strong>do</strong><br />
inferior, segue que (I + |A|) n−1 é redutível, logo possui entradas nulas e não po<strong>de</strong> ser positiva.
Rodney Josué Biezuner 83<br />
Reciprocamente, suponha que (I + |A|) n−1 possui pelo menos uma entrada nula. Como<br />
(I + |A|) n−1 = I +<br />
n−1 <br />
m=1<br />
n − 1<br />
m<br />
<br />
|A| m ,<br />
(I + |A|) n−1 <br />
não possui entradas diagonais nulas, logo po<strong>de</strong>mos assumir que para algum par i = j temos<br />
(I + |A|) n−1<br />
= 0, o que implica [|A| m ] ij = 0 para to<strong>do</strong> 1 m n − 1. Pelo Teorema 3.11 (e observação<br />
ij<br />
imediatamente posterior à <strong>de</strong>finição <strong>de</strong> grafo direciona<strong>do</strong>), não existe um caminho direciona<strong>do</strong> em Γ (A) <strong>de</strong><br />
comprimento finito entre Pi e Pj. Defina os conjuntos <strong>de</strong> no<strong>do</strong>s<br />
S1 := {Pk : Pk = Pj ou existe um caminho direciona<strong>do</strong> em Γ (A) entre Pk e Pj} ,<br />
S2 = [ no<strong>do</strong>s <strong>de</strong> Γ (A)] \S1.<br />
Por <strong>de</strong>finição <strong>de</strong>stes conjuntos, não po<strong>de</strong> existir nenhum caminho <strong>de</strong> algum no<strong>do</strong> <strong>de</strong> S2 para algum no<strong>do</strong> <strong>de</strong><br />
S1, logo [|A| m ] lk = 0 se Pl ∈ S2 e Pk ∈ S1. E ambos os conjuntos são não-vazios, pois Pj ∈ S1 e Pi ∈ S2.<br />
Renomean<strong>do</strong> os no<strong>do</strong>s <strong>de</strong> mo<strong>do</strong> que<br />
<br />
S1 = P1, . . . , <br />
Pm ,<br />
<br />
S2 = Pm+1, . . . , <br />
Pn ,<br />
segue que existe uma matriz <strong>de</strong> permutação P tal que<br />
P t <br />
B C<br />
AP =<br />
0 D<br />
De fato, P é justamente a matriz <strong>de</strong> permutação que troca as colunas <strong>de</strong> tal forma que as variáveis anteriores<br />
correspon<strong>de</strong>ntes aos no<strong>do</strong>s P1, . . . , Pm no sistema Ax = b são as novas m primeiras variáveis <strong>do</strong> sistema linear<br />
Ax = b; como não existe nenhum caminho direciona<strong>do</strong> entre nenhum <strong>do</strong>s no<strong>do</strong>s Pm+1, . . . , Pn e qualquer um<br />
<strong>do</strong>s no<strong>do</strong>s P1, . . . , Pm, temos aij = 0 para m + 1 i n e 1 j m pelo Teorema 3.11. <br />
3.15 Corolário. Uma matriz A ∈ Mn (C) é irredutível se e somente se ela satisfaz a proprieda<strong>de</strong> FC.<br />
3.16 Proposição. Se A é uma matriz irredutível, diagonalmente <strong>do</strong>minante tal que |aii| > n<br />
|aij| para<br />
pelo menos alguma linha i, então A é invertível.<br />
Além disso, se A é hermitiana e to<strong>do</strong>s os elementos da diagonal principal <strong>de</strong> A são positivos, então<br />
to<strong>do</strong>s os autovalores <strong>de</strong> A são positivos.<br />
Prova. O resulta<strong>do</strong> segue <strong>do</strong> Teorema 3.14, <strong>do</strong> Corolário 3.9 e <strong>do</strong> Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin (veja<br />
comentários após o Teorema 3.2). <br />
3.6 Invertibilida<strong>de</strong> <strong>de</strong> Matrizes <strong>de</strong> Discretização<br />
Os resulta<strong>do</strong>s obti<strong>do</strong>s nas seções anteriores fornecem uma <strong>de</strong>monstração alternativa <strong>de</strong> que as matrizes<br />
<strong>de</strong> discretização <strong>do</strong> capítulo anterior (tanto no caso unidimensional, quanto no caso bidimensional) são<br />
invertíveis, sem a necessida<strong>de</strong> <strong>de</strong> se calcular os seus autovalores.<br />
<br />
.<br />
j=1<br />
j=i
Rodney Josué Biezuner 84<br />
3.6.1 Esquemas <strong>de</strong> Diferenças Finitas para o Intervalo e para o Retângulo<br />
É fácil ver que todas as matrizes <strong>de</strong> discretização obtidas no capítulo anterior para o intervalo e para o<br />
retângulo (isto é, os esquemas unidimensionais <strong>de</strong> três pontos e cinco pontos, e os esquemas bidimensionais<br />
<strong>de</strong> cinco e nove pontos, compacto ou não-compacto) são matrizes diagonalmente <strong>do</strong>minantes com <strong>do</strong>minância<br />
diagonal estrita nas linhas correspon<strong>de</strong>ntes a pontos adjacentes à fronteira. Além disso, elas são matrizes<br />
irredutíveis porque elas satisfazem a proprieda<strong>de</strong> FC. De fato, cada índice i da matriz correspon<strong>de</strong> a um<br />
ponto interior Pi da malha e aij = 0 sempre que Pi e Pj são pontos vizinhos naqueles esquemas. Então,<br />
da<strong>do</strong>s <strong>do</strong>is pontos distintos Pi, Pj é fácil encontrar uma seqüência <strong>de</strong> índices i1 = i, i2, i3, . . . , im−1, im = j,<br />
com 1 m n, tais que todas as entradas matriciais<br />
ai1i2 , ai2i3 , . . . , aim−1im<br />
são não-nulas: no caso unidimensional, basta percorrer a malha diretamente <strong>de</strong> Pi até Pj (andan<strong>do</strong> a partir<br />
<strong>de</strong> Pi sempre para a direita ou sempre para a esquerda, conforme o caso, até encontrar Pj), e no caso<br />
bidimensional basta usar qualquer caminho interior <strong>de</strong> Pi até Pj (po<strong>de</strong>-se usar a or<strong>de</strong>m lexicográfica para<br />
percorrer a malha, ou a or<strong>de</strong>m lexicográfica inversa, <strong>de</strong>pen<strong>de</strong>n<strong>do</strong> das posições relativas <strong>de</strong> Pi e Pj; no entanto,<br />
estes caminhos são mais longos que o necessário). Em outras palavras, i<strong>de</strong>ntifican<strong>do</strong> as malhas <strong>de</strong> pontos<br />
internos com os grafos direciona<strong>do</strong>s da matriz <strong>de</strong> discretização, <strong>de</strong> mo<strong>do</strong> que existe um arco direciona<strong>do</strong> entre<br />
<strong>do</strong>is pontos da malha se e somente se eles são vizinhos, os esquemas <strong>de</strong> discretização consi<strong>de</strong>ra<strong>do</strong>s garantem<br />
que estes grafos são fortemente conexos.<br />
As matrizes obtidas através <strong>de</strong> diferenças finitas em geral são irredutíveis, pois elas satisfazem a proprieda<strong>de</strong><br />
FC. É difícil imaginar um esquema <strong>de</strong> diferenças finitas para uma malha sobre um <strong>do</strong>mínio conexo<br />
em que não houvesse um caminho direciona<strong>do</strong> entre pontos vizinhos (isto é, em que tivéssemos aij = 0<br />
para <strong>do</strong>is pontos vizinhos Pi e Pj). Outra maneira <strong>de</strong> pensar sobre isso é observar que se uma matriz <strong>de</strong><br />
discretização fôsse (após permutação <strong>de</strong> linhas e colunas) da forma<br />
<br />
B C<br />
,<br />
0 D<br />
isso implicaria que um conjunto <strong>de</strong> pontos da malha (os correspon<strong>de</strong>ntes ao bloco D) teriam diferenças<br />
finitas in<strong>de</strong>pen<strong>de</strong>ntes <strong>do</strong> conjunto <strong>do</strong>s pontos restantes da malha (os correspon<strong>de</strong>ntes ao bloco D); pior<br />
ainda, estes últimos po<strong>de</strong>riam ter diferenças finitas <strong>de</strong>pen<strong>de</strong>ntes <strong>do</strong>s primeiros (já que o bloco C po<strong>de</strong>ria<br />
ser não-nulo). Em última análise, seria possível reduzir o problema <strong>de</strong> resolver o sistema linear associa<strong>do</strong> à<br />
discretização a <strong>do</strong>is problemas mais simples.<br />
É difícil imaginar um esquema <strong>de</strong> diferenças finitas com esta<br />
proprieda<strong>de</strong>, embora talvez possa ocorrer em algum <strong>do</strong>mínio com geometria altamente irregular em que a<br />
malha <strong>de</strong> pontos interiores se dividisse em essencialmente duas malhas in<strong>de</strong>pen<strong>de</strong>ntes. Tal situação <strong>de</strong>ve ser<br />
evitada com cuida<strong>do</strong> na hora <strong>de</strong> discretizar tais regiões.<br />
3.6.2 Esquema <strong>de</strong> Coor<strong>de</strong>nadas Polares<br />
As mesmas observações anteriores valem para a matriz <strong>de</strong> discretização obtida através <strong>do</strong> esquema <strong>de</strong> coor<strong>de</strong>nadas<br />
polares <strong>do</strong> capítulo anterior, isto é, ela satisfaz a proprieda<strong>de</strong> FC. Para verificar que ela é diagonalmente<br />
<strong>do</strong>minante, note que para todas as linhas, exceto a primeira que <strong>de</strong>ve ser tratada separadamente, temos<br />
|aii| = γi = 1<br />
ri<br />
r i+1/2 + r i−1/2<br />
∆r 2<br />
+ 2<br />
r 2 i<br />
1<br />
.<br />
∆θ2 Além disso, para todas as linhas, excetuan<strong>do</strong> a primeira e as linhas correspon<strong>de</strong>ntes a pontos adjacentes à<br />
fronteira <strong>do</strong> disco temos<br />
n<br />
j=1<br />
j=i<br />
|aij| = αi + βi + 2δi = 1<br />
∆r2 ri−1/2 +<br />
ri<br />
1<br />
∆r2 ri+1/2 +<br />
ri<br />
2<br />
r2 i<br />
1<br />
∆θ 2 = |aii| .
Rodney Josué Biezuner 85<br />
Nestas linhas existe <strong>do</strong>minância diagonal, enquanto que nas linhas correspon<strong>de</strong>ntes a pontos adjacentes à<br />
fronteira <strong>do</strong> disco temos<br />
(n−1)×m+1 <br />
j=1<br />
j=i<br />
|aij| = αi + 2δi < |aii| ,<br />
isto é, temos <strong>do</strong>minância diagonal estrita. Finalmente, para a primeira linha também temos <strong>do</strong>minância<br />
diagonal, pois<br />
(n−1)×m+1 <br />
j=1<br />
j=0<br />
|a00| = 4<br />
,<br />
∆r2 |a0j| = m 2<br />
π<br />
3.6.3 Esquema <strong>de</strong> Shortley-Weller<br />
∆θ m<br />
= 4<br />
∆r2 2π<br />
∆θ 4<br />
=<br />
∆r2 ∆r2 = |a00| .<br />
Se a geometria é razoavelmente regular, o esquema <strong>de</strong> Shortley-Weller para o problema <strong>de</strong> Dirichlet <strong>de</strong>ve<br />
satisfazer a proprieda<strong>de</strong> FC : aij = 0 sempre que Pi e Pj são pontos internos vizinhos, e se a geometria não é<br />
altamente irregular (por exemplo, se o <strong>do</strong>mínio é “razoavelmente” convexo) existe um caminho direciona<strong>do</strong> <strong>de</strong><br />
um ponto interno arbitrário a qualquer outro ponto interno da malha passan<strong>do</strong> apenas por pontos internos <strong>do</strong><br />
<strong>do</strong>mínio. Caso contrário, a matriz <strong>de</strong> discretização obtida po<strong>de</strong> <strong>de</strong>ixar <strong>de</strong> ser irredutível, mas isso <strong>de</strong>ve ocorrer<br />
apenas <strong>de</strong>vi<strong>do</strong> à quebra da malha <strong>de</strong> pontos internos em várias submalhas <strong>de</strong>sconexas, e cada submalha por<br />
si só <strong>de</strong>ve ser fortemente conexa. Portanto, a matriz <strong>de</strong> discretização total <strong>de</strong>ve ser uma matriz em blocos,<br />
cada bloco satisfazen<strong>do</strong> a proprieda<strong>de</strong> FC, logo a matriz é invertível.
Capítulo 4<br />
Méto<strong>do</strong>s Iterativos para a Resolução<br />
<strong>de</strong> Sistemas Lineares<br />
Neste capítulo investigaremos méto<strong>do</strong>s iterativos para a resolução <strong>de</strong> sistemas lineares<br />
Ax = b.<br />
Embora a matriz A que temos em mente é em geral uma matriz gran<strong>de</strong> e esparsa, <strong>do</strong> tipo que aparece<br />
em esquemas <strong>de</strong> diferenças finitas, os méto<strong>do</strong>s consi<strong>de</strong>ra<strong>do</strong>s aqui requerem apenas que A seja uma matriz<br />
invertível com todas as entradas diagonais aii não-nulas.<br />
Méto<strong>do</strong>s iterativos requerem um chute inicial x 0 , um vetor inicial que aproxima a solução exata x (se<br />
não há nenhuma informação disponível sobre a solução exata, <strong>de</strong> mo<strong>do</strong> que não temos como construir o<br />
chute inicial <strong>de</strong> forma inteligente, x 0 po<strong>de</strong> ser uma aproximação muito ruim <strong>de</strong> x). Uma vez que x 0 é da<strong>do</strong>,<br />
o méto<strong>do</strong> iterativo gera a partir <strong>de</strong> x 0 uma nova aproximação x 1 , que esperamos <strong>de</strong>ve aproximar melhor a<br />
solução exata. Em seguida, x 1 é usada para gerar uma nova melhor aproximação x 2 e assim por diante.<br />
Desta forma, gera-se uma seqüência <strong>de</strong> vetores x k que espera-se convergir para x. Como na prática não<br />
po<strong>de</strong>mos iterar para sempre, algum critério <strong>de</strong> parada <strong>de</strong>ve ser estabeleci<strong>do</strong> a priori. Uma vez que x k esteja<br />
suficientemente próximo da solução exata quanto se precise, <strong>de</strong> acor<strong>do</strong> com uma margem <strong>de</strong> tolerância aceita,<br />
pára-se o processo <strong>de</strong> iteração e aceita-se x k como a solução aproximada a<strong>de</strong>quada para o problema. Por<br />
exemplo, o critério <strong>de</strong> parada po<strong>de</strong> ser estabeleci<strong>do</strong> através <strong>de</strong> uma cota <strong>de</strong> tolerância τ: quan<strong>do</strong><br />
<br />
b − Ax k < τ<br />
ou quan<strong>do</strong> x k+1 − x k < τ<br />
as iterações são interrompidas e o último valor aproxima<strong>do</strong> obti<strong>do</strong> é aceito como a melhor aproximação da<br />
solução <strong>de</strong>ntro das circunstâncias.<br />
Os méto<strong>do</strong>s discuti<strong>do</strong>s neste capítulo não necessitam <strong>de</strong> um bom chute inicial (embora, é claro, quanto<br />
melhor o chute inicial, menor o número <strong>de</strong> iterações necessárias para se chegar à solução aproximada com a<br />
precisão especificada).<br />
4.1 Méto<strong>do</strong>s Iterativos Lineares<br />
Nesta seção apresentamos alguns exemplos clássicos <strong>de</strong> méto<strong>do</strong>s iterativos lineares. Na próxima seção daremos<br />
condições necessárias e suficientes para estabelecer a sua convergência.<br />
86
Rodney Josué Biezuner 87<br />
4.1.1 Méto<strong>do</strong> <strong>de</strong> Jacobi<br />
O primeiro méto<strong>do</strong> iterativo (que já foi <strong>de</strong>scrito como o mais lento para convergir, embora isso realmente<br />
<strong>de</strong>pen<strong>de</strong> da matriz A <strong>do</strong> sistema) é o algoritmo <strong>de</strong> Jacobi. Escreven<strong>do</strong> o sistema Ax = b na forma<br />
⎧ n<br />
⎪⎨<br />
⎪⎩<br />
a1jxj = b1<br />
j=1<br />
n<br />
.<br />
.<br />
anjxj = bn<br />
j=1<br />
se aii = 0 para to<strong>do</strong> i, cada xi po<strong>de</strong> ser isola<strong>do</strong> na i-ésima equação e escrito na forma<br />
xi = 1<br />
⎛<br />
⎜<br />
⎝bi ⎞<br />
n ⎟<br />
− aijxj ⎟<br />
⎠ .<br />
aii<br />
Isso sugere <strong>de</strong>finir um méto<strong>do</strong> iterativo da seguinte forma: suposto xk = xk 1, . . . , xk anterior, obtemos x<br />
<br />
n obti<strong>do</strong> no passo<br />
k+1 = x k+1<br />
1 , . . . , xk+1 <br />
n por<br />
x k+1<br />
⎛<br />
1 ⎜<br />
i = ⎜<br />
aii<br />
⎝bi n<br />
− aijx k ⎞<br />
⎟<br />
j ⎠ . (4.1)<br />
No caso da fórmula <strong>de</strong> cinco pontos para o problema <strong>de</strong> Poisson com ∆x = ∆y, como a equação para<br />
cada ponto (i, j) é dada por<br />
j=1<br />
j=i<br />
j=1<br />
j=i<br />
−ui,j−1 − ui,j+1 + 4ui,j − ui−1,j − ui+1,j = ∆x 2 fi,j<br />
o méto<strong>do</strong> <strong>de</strong> Jacobi é<br />
u k+1 1 k<br />
i,j = ui,j−1 + u<br />
4<br />
k i,j+1 + u k i−1,j + u k i+1,j + ∆x 2 <br />
fi,j . (4.2)<br />
No caso especial da equação <strong>de</strong> Laplace (f = 0) com condição <strong>de</strong> fronteira <strong>de</strong> Dirichlet não-nula, o méto<strong>do</strong><br />
<strong>de</strong> Jacobi é simplesmente a proprieda<strong>de</strong> <strong>do</strong> valor médio discreta<br />
u k+1<br />
i,j<br />
,<br />
1 k<br />
= ui,j−1 + u<br />
4<br />
k i,j+1 + u k i−1,j + u k <br />
i+1,j . (4.3)<br />
Em outras palavras, calcula<strong>do</strong>s os valores <strong>de</strong> u em to<strong>do</strong>s os pontos da malha na iteração anterior, o novo<br />
valor <strong>de</strong> u em um ponto interior da malha nesta iteração é calcula<strong>do</strong> através da média <strong>do</strong>s seus quatro<br />
pontos vizinhos. Os valores iniciais <strong>de</strong> u nos pontos interiores da malha para a primeira iteração (isto é, o<br />
chute inicial) po<strong>de</strong>m ser atribui<strong>do</strong>s arbitrariamente ou através <strong>de</strong> algum argumento razoável; por exemplo,<br />
po<strong>de</strong>mos utilizar uma média pon<strong>de</strong>rada <strong>do</strong>s valores <strong>de</strong> fronteira para o valor inicial em cada ponto interior<br />
da malha, <strong>de</strong> acor<strong>do</strong> com a posição <strong>do</strong> ponto em relação aos pontos das quatro fronteiras discretizadas.<br />
Em forma matricial, o algoritmo <strong>de</strong> Jacobi po<strong>de</strong> ser <strong>de</strong>scrito da seguinte forma. Denotan<strong>do</strong> por D = diag<br />
(a11, . . . , ann) a matriz diagonal cujas entradas são as entradas diagonais <strong>de</strong> A, temos que<br />
x k+1 = D −1 (D − A) x k + b <br />
(4.4)<br />
ou<br />
x k+1 = D −1 Cx k + b <br />
on<strong>de</strong> C = D − A é a matriz consistin<strong>do</strong> <strong>do</strong>s elementos restantes <strong>de</strong> A fora da diagonal principal.<br />
(4.5)
Rodney Josué Biezuner 88<br />
4.1.2 Méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l<br />
Um méto<strong>do</strong> iterativo que converge cerca <strong>de</strong> duas vezes mais rápi<strong>do</strong> que o méto<strong>do</strong> <strong>de</strong> Jacobi (pelo menos em<br />
várias aplicações) é o méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l, on<strong>de</strong> os valores <strong>de</strong> x são atualiza<strong>do</strong>s <strong>de</strong>ntro <strong>de</strong> cada iteração,<br />
sem esperar pela próxima. Em outras palavras, obti<strong>do</strong> o valor <strong>de</strong> x k+1<br />
l este é usa<strong>do</strong> no lugar <strong>de</strong> xk l no cálculo<br />
seguinte. No sistema Ax = b em que aii = 0 para to<strong>do</strong> i, como antes isolamos cada xi na i-ésima equação<br />
mas <strong>de</strong>sta vez escrevemos<br />
xi = 1<br />
⎛<br />
⎞<br />
i−1<br />
⎝bi − aijxj +<br />
n<br />
⎠ .<br />
Então <strong>de</strong>finimos<br />
pois os valores x k+1<br />
1<br />
x k+1<br />
i<br />
aii<br />
⎛<br />
1<br />
=<br />
aii<br />
j=1<br />
i−1<br />
⎝bi −<br />
j=1<br />
aijx k+1<br />
j<br />
j=i+1<br />
+<br />
aijxj<br />
n<br />
j=i+1<br />
aijx k j<br />
⎞<br />
⎠ (4.6)<br />
, . . . , x k+1<br />
i−1 já foram computa<strong>do</strong>s nesta iteração, enquanto que os valores xk i+1 , . . . , xk n são<br />
forneci<strong>do</strong>s pela iteração anterior.<br />
Por exemplo, no caso da equação <strong>de</strong> Laplace, po<strong>de</strong>ríamos utilizar a fórmula<br />
u k+1<br />
i,j<br />
1 k+1<br />
= ui,j−1 4<br />
+ uki,j+1 + u k+1<br />
i−1,j + uk <br />
i+1,j<br />
assumin<strong>do</strong> que os pontos da malha são percorri<strong>do</strong>s na or<strong>de</strong>m lexicográfica, <strong>de</strong> mo<strong>do</strong> que quan<strong>do</strong> vamos<br />
calcular o valor <strong>de</strong> u no ponto i, j na iteração k + 1, nesta mesma iteração já calculamos os valores <strong>de</strong> u em<br />
i − 1, j e em i, j − 1, e usamos estes valores para calcular u k+1<br />
i,j ao invés <strong>do</strong>s valores uk i,j−1 e uki−1,j obti<strong>do</strong>s<br />
na iteração anterior.<br />
Em forma matricial, o algoritmo <strong>de</strong> Jacobi po<strong>de</strong> ser <strong>de</strong>scrito da seguinte forma. Dada uma matriz A,<br />
existe uma única <strong>de</strong>composição<br />
A = D − L − U (4.8)<br />
on<strong>de</strong> D é uma matriz diagonal, L é uma matriz estritamente triangular inferior e U é uma matriz estritamente<br />
triangular superior; <strong>de</strong> fato, D = diag (a11, . . . , ann) é a parte diagonal <strong>de</strong> A, −L é a parte estritamente<br />
triangular inferior <strong>de</strong> A e −U é a parte estritamente triangular superior <strong>de</strong> A. Então o algoritmo <strong>de</strong> Jacobi<br />
po<strong>de</strong> ser <strong>de</strong>fini<strong>do</strong> por<br />
x k+1 = D −1 Lx k+1 + Ux k + b <br />
(4.9)<br />
ou<br />
<strong>do</strong>n<strong>de</strong><br />
(D − L) x k+1 = Ux k + b,<br />
(4.7)<br />
x k+1 = (D − L) −1 Ux k + b . (4.10)<br />
É importante ressaltar que existem matrizes para as quais o méto<strong>do</strong> <strong>de</strong> Jacobi converge e o méto<strong>do</strong> <strong>de</strong><br />
Gauss-Sei<strong>de</strong>l diverge, e vice-versa. Veja a próxima seção sobre a convergência <strong>do</strong>s méto<strong>do</strong>s.<br />
4.1.3 Méto<strong>do</strong> SOR<br />
O processo <strong>de</strong> corrigir uma equação através da modificação <strong>de</strong> uma variável é às vezes chama<strong>do</strong> <strong>de</strong> relaxamento.<br />
Antes da correção, a equação não é verda<strong>de</strong>ira; como um conjunto <strong>de</strong> partes que não se ajustam,<br />
ela está em esta<strong>do</strong> <strong>de</strong> tensão. A correção <strong>de</strong> uma variável relaxa a tensão. O méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l efetua<br />
relaxamento sucessivo, ou seja, passa <strong>de</strong> equação para equação, relaxan<strong>do</strong> uma <strong>de</strong>pois da outra. [Watkins]<br />
Por este motivo, os méto<strong>do</strong>s <strong>de</strong> Jacobi e <strong>de</strong> Gauss-Sei<strong>de</strong>l são também chama<strong>do</strong>s méto<strong>do</strong>s <strong>de</strong> relaxamento.<br />
Em muitos casos, a convergência po<strong>de</strong> ser substancialmente acelerada através <strong>de</strong> sobrerelaxamento. Isso<br />
significa que ao invés <strong>de</strong> fazer uma correção para a qual a equação é satisfeita exatamente, nós fazemos uma<br />
correção maior. No caso mais simples, escolhe-se um fator <strong>de</strong> relaxamento ω > 1 que sobrecorrige por aquele
Rodney Josué Biezuner 89<br />
fator em cada passo (se mover um passo na direção <strong>de</strong> xk para xk+1 é bom, mover naquela direção ω > 1<br />
passos é melhor). Este é o chama<strong>do</strong> méto<strong>do</strong> <strong>de</strong> sobrerelaxamento sucessivo (SOR, successive overrelaxation):<br />
usan<strong>do</strong> o méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l obtemos<br />
⎛<br />
⎞<br />
daí tomamos<br />
Isso po<strong>de</strong> ser resumi<strong>do</strong> em<br />
x k+1<br />
i<br />
x k+1<br />
i<br />
= xk i + ω<br />
1<br />
=<br />
aii<br />
⎡<br />
i−1<br />
⎝bi −<br />
x k+1<br />
i<br />
⎣ 1<br />
aii<br />
j=1<br />
aijx k+1<br />
j<br />
= xk i + ω x k+1<br />
i<br />
⎛<br />
i−1<br />
⎝bi −<br />
j=1<br />
aijx k+1<br />
j<br />
+<br />
n<br />
j=i+1<br />
− xk <br />
i .<br />
−<br />
n<br />
j=i+1<br />
aijx k j<br />
aijx k j<br />
⎠ ;<br />
⎞<br />
⎤<br />
⎠ − x k⎦ i . (4.11)<br />
Quan<strong>do</strong> ω = 1, o méto<strong>do</strong> SOR é exatamente o méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l. Um fator ω < 1 (subrelaxamento)<br />
normalmente diminui a velocida<strong>de</strong> <strong>de</strong> convergência.<br />
Para a maioria <strong>do</strong>s problemas, o melhor valor para o fator <strong>de</strong> relaxamento é <strong>de</strong>sconheci<strong>do</strong>. Para a matriz<br />
<strong>de</strong> discretização obtida a partir da fórmula <strong>de</strong> cinco pontos, é sabi<strong>do</strong> que o valor ótimo <strong>de</strong> ω é, como veremos<br />
na próxima seção,<br />
ω =<br />
2<br />
. (4.12)<br />
1 + sen (π∆x)<br />
Em forma matricial, o méto<strong>do</strong> SOR po<strong>de</strong> ser <strong>de</strong>scrito da seguinte forma. Como antes, dada uma matriz<br />
A escrevemos<br />
A = D − L − U (4.13)<br />
on<strong>de</strong> D é uma matriz diagonal, L é uma matriz estritamente triangular inferior e U é uma matriz estritamente<br />
triangular superior. Então, escreven<strong>do</strong> o algoritmo SOR na forma<br />
= aiix k ⎡<br />
i−1<br />
i + ω ⎣bi −<br />
−<br />
⎤<br />
n<br />
⎦ ,<br />
temos<br />
aiix k+1<br />
i<br />
j=1<br />
aijx k+1<br />
j<br />
j=i<br />
aijx k j<br />
Dx k+1 = Dx k + ω Lx k+1 + (U − D) x k + b <br />
ou <br />
1<br />
D − L x<br />
ω k+1 <br />
1 − ω<br />
= D + U x<br />
ω k + b,<br />
<strong>do</strong>n<strong>de</strong><br />
x k+1 =<br />
(4.14)<br />
−1 <br />
1<br />
1 − ω<br />
D − L<br />
D + U x<br />
ω ω k <br />
+ b . (4.15)<br />
4.1.4 Comparação da Velocida<strong>de</strong> <strong>de</strong> Convergência <strong>do</strong>s Três Méto<strong>do</strong>s<br />
A tabela a seguir foi extraída <strong>de</strong> [Watkins], págs. 533 e 542. Os méto<strong>do</strong>s introduzi<strong>do</strong>s acima foram usa<strong>do</strong>s<br />
para resolver o sistema linear Ax = b on<strong>de</strong> A é a matriz <strong>de</strong> discretização obtida a partir da fórmula <strong>do</strong>s<br />
cinco pontos <strong>do</strong> laplaciano no quadra<strong>do</strong> unitário Ω = (0, 1) 2 e b é estabeleci<strong>do</strong> pela condição <strong>de</strong> fronteira <strong>de</strong><br />
Dirichlet dada por<br />
⎧<br />
⎪⎨<br />
0 se x = 0,<br />
y se x = 1,<br />
g (x, y) =<br />
⎪⎩<br />
(x − 1) sen x se y = 0,<br />
x (2 − x) se y = 1,
Rodney Josué Biezuner 90<br />
ou seja, para resolver o problema discretiza<strong>do</strong><br />
<br />
−∆dud = 0 em Ωd,<br />
sobre ∂Ωd.<br />
As iterações foram interrompidas quan<strong>do</strong><br />
ud = gd<br />
<br />
u k+1 − u k 2<br />
|u k+1 | 2<br />
< 10 −8 .<br />
O número <strong>de</strong> iterações necessárias para convergir <strong>de</strong> acor<strong>do</strong> com esta margem <strong>de</strong> tolerância, para três refinamentos<br />
possíveis da malha (correspon<strong>de</strong>ntes a matrizes <strong>de</strong> dimensões n = 81, 361 e 1521, respectivamente),<br />
<strong>de</strong> acor<strong>do</strong> com cada méto<strong>do</strong> e para diferentes valores <strong>de</strong> ω no caso <strong>do</strong> méto<strong>do</strong> SOR é apresenta<strong>do</strong> na tabela<br />
abaixo.<br />
∆x = 0.1 ∆x = 0.05 ∆x = 0.025<br />
Jacobi 299 1090 3908<br />
SOR (ω = 0.8) 235 845 3018<br />
Gauss-Sei<strong>de</strong>l 160 581 2082<br />
SOR (ω = 1.4) 67 262 955<br />
SOR (ω = 1.6) 42 151 577<br />
SOR (ω = 1.7) 57 96 412<br />
SOR (ω = 1.8) 86 89 252<br />
SOR (ω = 1.9) 176 180 179<br />
SOR (ω = 2.0) ∞ ∞ ∞<br />
Vemos que o méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l é cerca <strong>de</strong> duas vezes mais rápi<strong>do</strong> para convergir que o méto<strong>do</strong> <strong>de</strong><br />
Jacobi e que <strong>de</strong>pen<strong>de</strong>n<strong>do</strong> da escolha <strong>de</strong> ω, o méto<strong>do</strong> SOR po<strong>de</strong> ser até <strong>de</strong>z vezes mais rápi<strong>do</strong> que o méto<strong>do</strong><br />
<strong>de</strong> Gauss-Sei<strong>de</strong>l para a malha mais refinada. Subrelaxamento não ajuda e para ω = 2 o méto<strong>do</strong> SOR é<br />
divergente.<br />
4.1.5 Méto<strong>do</strong> <strong>de</strong> Jacobi Amorteci<strong>do</strong><br />
O méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l po<strong>de</strong> ser sobrerelaxa<strong>do</strong> através <strong>de</strong> um parâmetro ω > 1 para obter um méto<strong>do</strong><br />
que converge mais rápi<strong>do</strong>.Já o méto<strong>do</strong> <strong>de</strong> Jacobi não po<strong>de</strong> em geral ser sobrerelaxa<strong>do</strong>, porque o méto<strong>do</strong><br />
obti<strong>do</strong> não converge. Ele po<strong>de</strong> no entanto ser subrelaxa<strong>do</strong> através <strong>de</strong> um parâmetro ω < 1 para obter um<br />
méto<strong>do</strong> convergente, se bem que mais vagaroso. A vantagem <strong>de</strong> se utilizar um tal méto<strong>do</strong> é que para certos<br />
valores <strong>de</strong> ω ele é um ótimo suaviza<strong>do</strong>r <strong>de</strong> erro (em um senti<strong>do</strong> que será explica<strong>do</strong> no próximo capítulo),<br />
enquanto que o méto<strong>do</strong> <strong>de</strong> Jacobi usual não possui esta proprieda<strong>de</strong>. Assim, o méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong><br />
po<strong>de</strong> ser usa<strong>do</strong> em méto<strong>do</strong>s multigrid (veja o próximo capítulo).<br />
Pelo méto<strong>do</strong> <strong>de</strong> Jacobi usual obtemos<br />
⎛<br />
⎞<br />
e tomamos<br />
ou seja,<br />
x k+1<br />
i<br />
x k+1<br />
i<br />
x k+1<br />
i<br />
1<br />
=<br />
aii<br />
= xk ⎢<br />
i + ω ⎢<br />
1<br />
⎣<br />
⎜<br />
⎝ bi −<br />
n<br />
j=1<br />
j=i<br />
= xk i + ω x k+1<br />
i<br />
⎡<br />
aii<br />
⎛<br />
⎜<br />
⎝ bi −<br />
n<br />
j=1<br />
j=i<br />
aijx k j<br />
⎟<br />
⎠ ,<br />
− xk <br />
i ,<br />
aijx k j<br />
⎞<br />
⎤<br />
⎟<br />
⎠ − xk ⎥<br />
i ⎦ . (4.16)
Rodney Josué Biezuner 91<br />
Este méto<strong>do</strong> é conheci<strong>do</strong> como méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong>, méto<strong>do</strong> <strong>de</strong> Jacobi pon<strong>de</strong>ra<strong>do</strong> ou ainda<br />
méto<strong>do</strong> <strong>de</strong> relaxamento simultâneo (diferente <strong>do</strong> méto<strong>do</strong> <strong>de</strong> relaxamento sucessivo, basea<strong>do</strong> no méto<strong>do</strong> <strong>de</strong><br />
Gauss-Sei<strong>de</strong>l, em que cada variável é substituída sucessivamente <strong>de</strong>ntro da mesma iteração à medida que<br />
ela é atualizada; no méto<strong>do</strong> <strong>de</strong> Jacobi, as variáveis são todas substituídas simultameamente na próxima<br />
iteração).<br />
Em forma matricial, o méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong> po<strong>de</strong> ser <strong>de</strong>scrito da seguinte forma. Denotan<strong>do</strong> por<br />
D a parte diagonal <strong>de</strong> A, temos<br />
⎛<br />
⎞<br />
temos<br />
aiix k+1<br />
i<br />
= aiix k i + ω<br />
⎝bi −<br />
n<br />
j=1<br />
aijx k j<br />
Dx k+1 = Dx k + ω b − Ax k<br />
⎠ ,<br />
(4.17)<br />
ou <br />
1<br />
ω D<br />
<br />
x k+1 <br />
1<br />
= D − A x<br />
ω k + ωb,<br />
<strong>do</strong>n<strong>de</strong><br />
x k+1 <br />
1<br />
=<br />
ω D<br />
−1 <br />
1<br />
D − A x<br />
ω k <br />
+ b . (4.18)<br />
Em contraste com o méto<strong>do</strong> SOR, que converge em geral para 0 < ω < 2, o méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong><br />
converge para 0 < ω 1 (veja a próxima seção).<br />
4.2 Análise <strong>de</strong> Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares<br />
Os méto<strong>do</strong>s <strong>de</strong>scritos na seção anterior são casos especiais <strong>de</strong> uma classe geral <strong>de</strong> méto<strong>do</strong>s chama<strong>do</strong>s méto<strong>do</strong>s<br />
iterativos lineares ou méto<strong>do</strong>s <strong>de</strong> correção residual. Um méto<strong>do</strong> iterativo linear para resolver o sistema<br />
linear<br />
Ax = b<br />
envolve a <strong>de</strong>composição da matriz A na forma<br />
A = B − C, (4.19)<br />
on<strong>de</strong> B é necessariamente uma matriz invertível, e então a resolução iterativa <strong>do</strong> sistema <strong>de</strong> equações<br />
ou, mais explicitamente,<br />
Bx k+1 = Cx k + b (4.20)<br />
x k+1 = B −1 Cx k + b .<br />
Se x k → x, então Bx = Cx + b, <strong>do</strong>n<strong>de</strong> Ax = b. Do ponto <strong>de</strong> vista prático, é importante que a matriz B<br />
seja “fácil <strong>de</strong> resolver” (mesmo que a inversa <strong>de</strong> B não seja efetivamente calculada), como nos exemplos da<br />
seção anterior:<br />
B C<br />
Jacobi D D − A<br />
Gauss-Sei<strong>de</strong>l D − L U<br />
SOR<br />
1 1 − ω<br />
D − L D + U<br />
ω ω<br />
Para obter uma convergência rápida, também gostaríamos que B ≈ A e C ≈ 0. Deste ponto <strong>de</strong> vista, o i<strong>de</strong>al<br />
seria B = A e C = 0 (convergência em uma iteração), mas isso viola em geral o critério que B seja “fácil<br />
<strong>de</strong> resolver”. Um compromisso é necessário: B <strong>de</strong>ve aproximar A o melhor possível sem se tornar muito<br />
complicada.
Rodney Josué Biezuner 92<br />
4.2.1 Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares<br />
Para méto<strong>do</strong>s iterativos em geral, <strong>de</strong>finimos o erro algébrico por<br />
enquanto que o erro residual é da<strong>do</strong> por<br />
e k = x − x k , (4.21)<br />
r k = Ax − Ax k = f − Ax k . (4.22)<br />
O erro algébrico tem interesse puramente teórico (para provar que <strong>de</strong>termina<strong>do</strong> méto<strong>do</strong> iterativo converge,<br />
precisamos mostrar que o erro algébrico ten<strong>de</strong> a zero), já que ele só po<strong>de</strong> ser calcula<strong>do</strong> uma vez que se<br />
conhece a solução exata, e se este for o caso obviamente não há necessida<strong>de</strong> <strong>de</strong> resolver o sistema. Já o erro<br />
residual po<strong>de</strong> ser usa<strong>do</strong> como critério <strong>de</strong> parada para o méto<strong>do</strong> iterativo. Como<br />
segue que<br />
Observe que<br />
A matriz<br />
Be k+1 = Bx − Bx k+1 = Ax + Cx − Cx k − b = C x − x k = Ce k ,<br />
e k+1 = B −1 Ce k .<br />
B −1 C = B −1 (B − A) = I − B −1 A.<br />
R = I − B −1 A = B −1 C (4.23)<br />
é chamada a matriz <strong>de</strong> iteração ou matriz <strong>de</strong> propagação <strong>do</strong> erro <strong>do</strong> algoritmo consi<strong>de</strong>ra<strong>do</strong>, porque<br />
e o erro é da<strong>do</strong> por<br />
Em particular,<br />
x k+1 = Rx k + B −1 b. (4.24)<br />
e k+1 = Re k . (4.25)<br />
e k = R k e 0<br />
(4.26)<br />
<strong>de</strong> mo<strong>do</strong> que o erro converge para 0, in<strong>de</strong>pen<strong>de</strong>ntemente <strong>do</strong> chute inicial x 0 , se e somente se R k → 0. Isso<br />
ocorre se e somente se existe alguma norma matricial · tal que R < 1. Obter uma norma matricial<br />
que satisfaz esta proprieda<strong>de</strong>, no entanto, é difícil. Vamos obter uma condição necessária e suficiente para<br />
R k → 0 em termos <strong>do</strong> raio espectral da matriz <strong>de</strong> iteração (Corolário 4.5 a seguir), que é em geral um pouco<br />
mais fácil <strong>de</strong> calcular. Antes, para motivar o resulta<strong>do</strong>, suponha que A seja uma matriz diagonalizável com<br />
λ1, . . . , λn os seus autovalores e {v1, . . . , vn} uma correspon<strong>de</strong>nte base <strong>de</strong> autovetores. Escreven<strong>do</strong> o erro<br />
inicial como uma combinação linear <strong>do</strong>s autovetores, temos<br />
Logo,<br />
<strong>de</strong> mo<strong>do</strong> que<br />
e 0 =<br />
n<br />
aivi.<br />
i=1<br />
e k = R k e 0 =<br />
<br />
e k <br />
n<br />
i=1<br />
aiλ k i vi,<br />
n<br />
|ai| |λi| k |vi| .<br />
i=1<br />
Como |λi| k → 0 se e somente se |λi| < 1, concluímos que e k → 0 qualquer que seja o erro inicial (isto é,<br />
qualquer que seja o chute inicial), se e somente se ρ (R) = max1in |λi| < 1 .
Rodney Josué Biezuner 93<br />
4.1 Lema. Se A ∈ Mn (C) e · é qualquer norma matricial, então<br />
ρ (A) A .<br />
Prova. Seja λ um autovalor qualquer <strong>de</strong> A e x um autovetor não-nulo correspon<strong>de</strong>nte a λ, <strong>de</strong> mo<strong>do</strong> que<br />
Ax = λx.<br />
Consi<strong>de</strong>re a matriz X ∈ Mn (C) cujas colunas são todas iguais ao vetor x. Temos também<br />
<strong>de</strong> mo<strong>do</strong> que<br />
<strong>do</strong>n<strong>de</strong><br />
AX = λX<br />
|λ| X = AX A X ,<br />
|λ| A<br />
para to<strong>do</strong> autovalor λ <strong>de</strong> A. Como existe um autovalor λ <strong>de</strong> A tal que ρ (A) = λ, isso prova o resulta<strong>do</strong>. <br />
4.2 Lema. Seja A ∈ Mn (C) e ε > 0 da<strong>do</strong>. Então existe uma norma matricial · tal que<br />
ρ (A) A ρ (A) + ε. (4.27)<br />
Prova. Toda matriz complexa é triangularizável através <strong>de</strong> uma matriz unitária (isto é, uma matriz U que<br />
satisfaz U ∗ U = UU ∗ = I; sua inversa é a sua adjunta ou transposta conjugada). Sejam então<br />
⎡<br />
⎤<br />
λ1 a12 a22 . . . a1n<br />
⎢ λ2 a23 ⎢<br />
. . . a2n ⎥<br />
⎢<br />
T =<br />
λ3 ⎢<br />
. . . a3n ⎥<br />
⎢<br />
⎣<br />
. ..<br />
. ⎥<br />
. ⎦<br />
uma matriz triangular e U uma matriz unitária tais que<br />
Consi<strong>de</strong>re a matriz diagonal<br />
Temos<br />
DtT D −1<br />
t<br />
⎡<br />
⎢<br />
= ⎢<br />
⎣<br />
⎡<br />
t<br />
⎢<br />
Dt = ⎢<br />
⎣<br />
A = U ∗ T U.<br />
t 2<br />
. ..<br />
t n<br />
λn<br />
⎤<br />
⎥<br />
⎦ .<br />
λ1 a12t −1 a22t −2 . . . . . . a1nt −n+1<br />
λ2 a23t −1 . . . . . . a2nt −n+2<br />
Logo, para t > 0 suficientemente gran<strong>de</strong>, a matriz DtT D −1<br />
t<br />
λ3 . . . . . . a3nt −n+3<br />
. ..<br />
.<br />
λn−1 an−1,nt −1<br />
tem a proprieda<strong>de</strong> que a soma <strong>do</strong>s valores<br />
absolutos <strong>de</strong> elementos fora da diagonal principal é menor que ε. Em particular, se ·L <strong>de</strong>nota a norma <strong>do</strong><br />
máximo das somas das linhas, po<strong>de</strong>mos garantir que<br />
<br />
DtT D −1<br />
<br />
<br />
t ρ (A) + ε<br />
L<br />
λn<br />
⎤<br />
⎥ .<br />
⎥<br />
⎦
Rodney Josué Biezuner 94<br />
para t suficientemente gran<strong>de</strong>. Portanto, fixa<strong>do</strong> um tal t, se <strong>de</strong>finirmos uma norma por<br />
<br />
<br />
<br />
<br />
,<br />
teremos<br />
Pelo lema anterior, ρ (A) A. <br />
A := DtUAU ∗ D −1<br />
<br />
<br />
t = L U ∗ D −1−1<br />
∗ −1<br />
t AU Dt <br />
L<br />
A = DtUAU ∗ D −1<br />
<br />
t<br />
L = DtT D −1<br />
t<br />
<br />
ρ (A) + ε.<br />
L<br />
4.3 Lema. Seja A ∈ Mn (C). Se existe alguma norma matricial · tal que A < 1, então<br />
Prova. Se A < 1, então<br />
<br />
4.4 Proposição. Seja A ∈ Mn (C). Então<br />
se e somente se<br />
A k → 0.<br />
<br />
A k A k → 0.<br />
A k → 0<br />
ρ (A) < 1.<br />
Prova. Se existe algum autovalor λ <strong>de</strong> A tal que |λ| 1 e x é um autovetor não-nulo correspon<strong>de</strong>nte, então<br />
A k x = λ k x<br />
não converge para 0. Reciprocamente, se ρ (A) < 1, então pelo Lema 4.2 existe uma norma matricial · tal<br />
que A < 1, logo A k → 0 pelo lema anterior. <br />
4.5 Corolário. Seja R a matriz <strong>de</strong> iteração <strong>de</strong> um méto<strong>do</strong> iterativo linear. Então<br />
se e somente se<br />
e k → 0<br />
ρ (R) < 1.<br />
Em outras palavras, um méto<strong>do</strong> iterativo linear é convergente in<strong>de</strong>pen<strong>de</strong>ntemente da escolha <strong>do</strong> chute<br />
inicial se e somente se to<strong>do</strong>s os autovalores da matriz <strong>de</strong> iteração têm valor absoluto menor que 1.<br />
4.2.2 Velocida<strong>de</strong> <strong>de</strong> Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares<br />
O raio espectral também dá informação sobre a velocida<strong>de</strong> <strong>de</strong> convergência. Se nós tivermos <strong>do</strong>is méto<strong>do</strong>s<br />
iterativos lineares diferentes, isto é, duas maneiras diferentes <strong>de</strong> <strong>de</strong>compor a matriz A:<br />
A = B1 − C1 = B2 − C2,<br />
então o segun<strong>do</strong> méto<strong>do</strong> convergirá mais rápi<strong>do</strong> se e somente se<br />
ρ (R2) < ρ (R1) .<br />
Vamos analisar a velocida<strong>de</strong> <strong>de</strong> convergência <strong>do</strong>s méto<strong>do</strong>s iterativos com maior precisão. Novamente à<br />
título <strong>de</strong> motivação, suponha que A é uma matriz diagonalizável com seu maior autovalor sen<strong>do</strong> um autovalor<br />
simples. Or<strong>de</strong>ne os autovalores <strong>de</strong> A na forma<br />
|λ1| > |λ2| . . . |λn|
Rodney Josué Biezuner 95<br />
e seja {v1, . . . , vn} uma correspon<strong>de</strong>nte base <strong>de</strong> autovetores. Escreven<strong>do</strong> <strong>de</strong> novo<br />
e 0 n<br />
= aivi,<br />
<strong>do</strong>n<strong>de</strong><br />
segue que<br />
e k = λ k 1<br />
i=1<br />
e k = R k e 0 =<br />
<br />
a1x1 +<br />
Como λi<br />
λ1<br />
n<br />
i=1<br />
aiλ k i vi,<br />
n<br />
k λi<br />
ai vi<br />
λ1<br />
i=2<br />
k<br />
→ 0,<br />
a taxa <strong>de</strong> convergência é <strong>de</strong>terminada por |λ1| k . Para k gran<strong>de</strong>, temos<br />
e k ≈ λ k 1a1v1.<br />
Portanto, <br />
ek+1 |ek | = |λ1| = ρ (R) . (4.28)<br />
Em outras palavras, a convergência é linear com taxa <strong>de</strong> convergência igual ao raio espectral. Se a1 =<br />
0 a convergência será mais rápida, pois <strong>de</strong>pen<strong>de</strong>rá <strong>do</strong> módulo <strong>do</strong> segun<strong>do</strong> autovalor, mas é obviamente<br />
extremamente raro que o chute inicial satisfaça esta condição. Para o caso geral, precisamos <strong>do</strong> seguinte<br />
resulta<strong>do</strong>:<br />
4.6 Proposição. Seja A ∈ Mn (C) e · uma norma matricial. Então<br />
ρ (A) = lim A k 1/k .<br />
Prova. Como os autovalores da matriz A k são as k-ésimas potências <strong>do</strong>s autovalores <strong>de</strong> A, temos que<br />
<strong>do</strong>n<strong>de</strong><br />
Da<strong>do</strong> ε > 0, a matriz<br />
ρ (A) k = ρ A k A k ,<br />
ρ (A) A k 1/k .<br />
B =<br />
1<br />
ρ (A) + ε A<br />
tem raio espectral menor que 1, logo B k → 0. Portanto, existe algum N = N (ε, A) tal que<br />
<br />
B k < 1<br />
ou seja,<br />
<br />
A k 1/k < ρ (A) + ε<br />
para to<strong>do</strong> k > N. <br />
Definimos a taxa média <strong>de</strong> convergência <strong>de</strong> um méto<strong>do</strong> iterativo linear com matriz <strong>de</strong> iteração R por<br />
<br />
Rk (R) = − log R 10<br />
k 1/k = − 1<br />
k log <br />
R 10<br />
k (4.29)<br />
e a taxa assintótica <strong>de</strong> convergência por<br />
<br />
.<br />
R∞ (R) = lim<br />
k→∞ Rk (R) . (4.30)
Rodney Josué Biezuner 96<br />
4.7 Corolário. Seja R a matriz <strong>de</strong> iteração <strong>de</strong> um méto<strong>do</strong> iterativo linear. Então a taxa assintótica <strong>de</strong><br />
convergência <strong>do</strong> méto<strong>do</strong> é dada por<br />
Prova. Pois<br />
R∞ (R) = − lim<br />
k→∞ log 10<br />
R∞ (R) = − log 10 ρ (R) . (4.31)<br />
<br />
R k 1/k <br />
= − log10 lim R k 1/k = − log10 ρ (R) .<br />
<br />
A taxa assintótica <strong>de</strong> convergência me<strong>de</strong> o aumento no número <strong>de</strong> casas <strong>de</strong>cimais corretas na solução por<br />
iteração. De fato, usan<strong>do</strong> a norma matricial <strong>do</strong> Lema 4.2 e medin<strong>do</strong> as normas <strong>do</strong>s vetores <strong>de</strong> acor<strong>do</strong>, temos<br />
<br />
ek+1 |ek | =<br />
<br />
Rk+1e0 |Rke0 R = ρ (R) + ε,<br />
|<br />
<strong>do</strong>n<strong>de</strong><br />
ou<br />
Assim, se<br />
teremos<br />
− log 10<br />
<br />
e k+1 <br />
k→∞<br />
|e k | = − log 10 ρ (R) + O (ε)<br />
<br />
log e 10<br />
k <br />
− log e 10<br />
k+1 = R∞ (R) + O (ε) . (4.32)<br />
<br />
e k = O 10 −p ,<br />
<br />
e k+1 = O 10 −q ,<br />
q − p ≈ R∞ (R) ,<br />
isto é, reduzimos R∞ (R) ≈ q − p casas <strong>de</strong>cimais no erro. Visto <strong>de</strong> outra forma, como<br />
<br />
ek+m |ek | =<br />
<br />
Rk+me0 |Rke0 | Rm = ρ (R) m + O (ε) ,<br />
<strong>do</strong>n<strong>de</strong><br />
ou<br />
− log 10<br />
<br />
e k+m <br />
|e k | ≈ −m log 10 ρ (R) ,<br />
m = log <br />
e 10<br />
k+m / ek <br />
log10 ρ (R)<br />
é o número <strong>de</strong> iterações necessárias para diminuir o erro <strong>de</strong> um número prescrito <strong>de</strong> casas <strong>de</strong>cimais.<br />
4.2.3 Convergência para Matrizes Simétricas Positivas Definidas<br />
(4.33)<br />
Para matrizes reais simétricas positivas <strong>de</strong>finidas é mais fácil provar a convergência <strong>do</strong>s méto<strong>do</strong>s iterativos<br />
lineares. Temos o seguinte resulta<strong>do</strong> básico a seguir. Antes precisamos da seguinte <strong>de</strong>finição:<br />
Definição. Introduzimos uma or<strong>de</strong>nação parcial em Mn (C) <strong>de</strong>finin<strong>do</strong><br />
se<br />
para to<strong>do</strong> x ∈ C n .<br />
A B<br />
〈Ax, x〉 〈Bx, x〉
Rodney Josué Biezuner 97<br />
Em particular, se A é uma matriz positiva <strong>de</strong>finida, segue que A εI para algum ε (o menor autovalor <strong>de</strong><br />
A) e <strong>de</strong>notamos este fato por<br />
A > 0.<br />
4.8 Teorema. Seja A uma matriz simétrica positiva <strong>de</strong>finida e seja A = B − C com B invertível. Então<br />
o méto<strong>do</strong> iterativo linear com matriz <strong>de</strong> iteração R = B −1 C converge se e somente se B t + C é uma<br />
matriz simétrica positiva <strong>de</strong>finida.<br />
Prova. Medimos a norma <strong>do</strong> erro através da norma induzida por A<br />
|x| A := 〈Ax, x〉 1/2<br />
e consi<strong>de</strong>raremos a norma matricial · A induzida por esta norma. Se provarmos que<br />
o méto<strong>do</strong> convergirá. Temos<br />
R A < 1,<br />
R 2<br />
A = <br />
B<br />
−1 2<br />
B C = sup A<br />
x=0<br />
−1Cx 2 A<br />
|x| 2<br />
<br />
−1 −1 t −t −1 AB Cx, B Cx C B AB Cx, x<br />
= sup<br />
= sup<br />
. (4.34)<br />
A<br />
x=0 〈Ax, x〉<br />
x=0 〈Ax, x〉<br />
Suponha que B t + C é uma matriz simétrica, positiva <strong>de</strong>finida. Temos<br />
ou<br />
C t B −t AB −1 C = B t − A B −t AB −1 (B − A) = I − AB −t A I − B −1 A <br />
= A − AB −t A + AB −1 A − AB −t AB −1 A <br />
= A − AB −t B + B t − A B −1 A<br />
= A − B −1 A t B + B t − A B −1 A<br />
C t B −t AB −1 C = A − B −1 A t B t + C B −1 A, (4.35)<br />
<strong>de</strong> mo<strong>do</strong> que C t B −t AB −1 C é uma matriz simétrica, positiva <strong>de</strong>finida. Logo, por (4.34), mostrar que<br />
R A < 1 é equivalente a provar que<br />
C t B −t AB −1 C < A,<br />
e por (4.35) C t B −t AB −1 C < A se e somente se B −1 A t (B t + C) B −1 A > 0, o que é verda<strong>de</strong> porque B t +C<br />
é positiva <strong>de</strong>finida. <br />
4.3 Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares para as Matrizes<br />
<strong>de</strong> Discretização<br />
4.3.1 Convergência <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Jacobi<br />
4.9 Teorema. Se A é uma matriz irredutível, diagonalmente <strong>do</strong>minante tal que |aii| > n<br />
|aij| para pelo<br />
menos alguma linha i, então o méto<strong>do</strong> <strong>de</strong> Jacobi converge.<br />
Prova. Seja D a parte diagonal da matriz A e R = D −1 (D − A) = I − D −1 A a matriz <strong>de</strong> iteração <strong>do</strong><br />
méto<strong>do</strong> <strong>de</strong> Jacobi para A. Suponha por absur<strong>do</strong> que exista um autovalor λ <strong>de</strong> R tal que |λ| 1. Como<br />
λ <strong>de</strong>t λ −1 R − I = <strong>de</strong>t (R − λI) = 0, temos<br />
<strong>de</strong>t I − λ −1 R = 0.<br />
j=1<br />
j=i
Rodney Josué Biezuner 98<br />
Por outro la<strong>do</strong>, observe que I − λ−1R também é irredutível, pois<br />
Rij = I − D −1 A <br />
ij =<br />
<br />
0 se i = j,<br />
se i = j,<br />
− aij<br />
aii<br />
−1<br />
I − λ R<br />
ij =<br />
<br />
1 se i = j,<br />
se i = j,<br />
−1<br />
aij<br />
λ<br />
aii<br />
<strong>de</strong> mo<strong>do</strong> que, on<strong>de</strong> A se anula, I −λ−1R também se anula. Além disso, I −λ−1R é diagonalmente <strong>do</strong>minante<br />
e estritamente <strong>do</strong>minante nas linhas on<strong>de</strong> A é, pois |λ| −1 1, I − λ−1R <br />
= 1 e<br />
ii<br />
n <br />
<br />
I − λ −1 R <br />
j=1<br />
j=i<br />
ij<br />
<br />
<br />
= |λ|−1<br />
|aii|<br />
n<br />
j=1<br />
j=i<br />
|aij| 1<br />
|aii|<br />
n<br />
|aij| .<br />
Mas, pela Proposição 3.16, isso implica que I − λ −1 R é invertível, uma contradição. <br />
O Teorema 4.8 mostra que o méto<strong>do</strong> <strong>de</strong> Jacobi converge para as matrizes <strong>de</strong> discretização obtidas através<br />
<strong>do</strong>s esquemas <strong>de</strong> diferenças finitas <strong>do</strong> Capítulo 2.<br />
Através <strong>do</strong> Teorema 4.9, fomos capazes <strong>de</strong> provar a convergência <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi para as matrizes <strong>de</strong><br />
discretização sem calcular explicitamente os seus raios espectrais. Para analizar a velocida<strong>de</strong> <strong>de</strong> convergência<br />
<strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi, no entanto, é necessário obter os raios espectrais <strong>de</strong>stas matrizes. Vamos fazer isso<br />
para as matrizes <strong>de</strong> discretização obtidas a partir da fórmula <strong>de</strong> três pontos unidimensional e a partir da<br />
fórmula <strong>de</strong> cinco pontos bidimensional.<br />
4.10 Teorema. Seja A a matriz <strong>de</strong> discretização obtida a partir da fórmula <strong>de</strong> três pontos unidimensional<br />
ou a partir da fórmula <strong>de</strong> cinco pontos bidimensional com ∆x = ∆y. Seja R = D −1 (D − A) a matriz<br />
<strong>de</strong> iteração <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi. Então<br />
j=1<br />
j=i<br />
ρ (R) = cos π<br />
. (4.36)<br />
n<br />
Prova. Para o méto<strong>do</strong> <strong>de</strong> Jacobi, a matriz <strong>de</strong> discretização x k+1 = Rx k +D −1 b é obtida através da fórmula:<br />
Já vimos no Lema 2.2 que<br />
com<br />
Daí segue que<br />
Logo<br />
para<br />
u k+1<br />
i,j<br />
1 k<br />
= ui,j−1 + u<br />
4<br />
k i,j+1 + u k i−1,j + u k <br />
i+1,j .<br />
−u kl<br />
i−1,j − u kl<br />
i+1,j + 4u kl<br />
i,j − u kl<br />
i,j−1 − u kl<br />
i,j+1 = λkl∆x 2 u kl<br />
i,j<br />
λkl = 2<br />
∆x2 <br />
2 − cos kπ<br />
<br />
lπ<br />
− cos .<br />
n n<br />
u kl<br />
i,j−1 + u kl<br />
i,j+1 + u kl<br />
i−1,j + u kl<br />
i+1,j = 4 − λkl∆x 2 u kl<br />
i,j<br />
1 kl<br />
ui,j−1 + u<br />
4<br />
kl<br />
i,j+1 + u kl<br />
i−1,j + u kl <br />
i+1,j = µlku kl<br />
i,j<br />
µlk = 1 − 1<br />
4 λkl∆x 2 = 1 − 1<br />
<br />
2 − cos<br />
2<br />
kπ<br />
<br />
lπ<br />
− cos =<br />
n n<br />
1<br />
<br />
cos<br />
2<br />
kπ<br />
<br />
lπ<br />
+ cos .<br />
n n
Rodney Josué Biezuner 99<br />
Estes são os autovalores da matriz <strong>de</strong> iteração <strong>de</strong> Jacobi para a matriz <strong>de</strong> discretização obtida a partir da<br />
fórmula <strong>de</strong> cinco pontos (observe que elas possuem os mesmos autovetores; no entanto R possui autovalores<br />
nulos). Segue que o máximo autovalor ocorre quan<strong>do</strong> k = l = 1, logo<br />
ρ (R) = cos π<br />
n .<br />
O argumento para a fórmula <strong>de</strong> três pontos é análogo. <br />
Para o quadra<strong>do</strong> unitário temos<br />
ρ (R) = cos (π∆x) . (4.37)<br />
Vemos em particular que ρ (R) → 1 quan<strong>do</strong> ∆x → 0, <strong>de</strong> mo<strong>do</strong> que a velocida<strong>de</strong> <strong>de</strong> convergência <strong>do</strong> méto<strong>do</strong><br />
<strong>de</strong> Jacobi vai fican<strong>do</strong> cada vez menor para malhas mais refinadas. Po<strong>de</strong>mos dizer mais usan<strong>do</strong> a expansão<br />
da função cosseno em torno da origem<br />
se ∆x é pequeno po<strong>de</strong>mos aproximar<br />
cos x = 1 − 1<br />
2 x2 + O x 4 ;<br />
cos (π∆x) ≈ 1 − π2<br />
2 ∆x2 ,<br />
<strong>de</strong> mo<strong>do</strong> que ρ (R) → 1 quadraticamente quan<strong>do</strong> ∆x → 0. Em outras palavras, para uma malha duas vezes<br />
mais refinada (isto é, ∆x reduzi<strong>do</strong> pela meta<strong>de</strong>), o méto<strong>do</strong> <strong>de</strong> Jacobi é cerca <strong>de</strong> quatro vezes mais vagaroso<br />
em média (consulte novamente a tabela no final da seção anterior). A tabela abaixo mostra os valores <strong>do</strong><br />
raio espectral para alguns valores <strong>de</strong> ∆x:<br />
∆x 0.1 0.05 0.025<br />
ρ (R) 0.9511 0.9877 0.9969<br />
Para ∆x = 0.025 (correspon<strong>de</strong>nte a uma matriz <strong>de</strong> tamanho n = 39 × 39 = 1521), temos<br />
R∞ (R) = − log 10 (0.9969) = 0.0013484,<br />
<strong>de</strong> mo<strong>do</strong> que para reduzir o erro pelo fator <strong>de</strong> uma casa <strong>de</strong>cimal precisamos <strong>de</strong><br />
iterações.<br />
m = log 10 0.1<br />
log 10 ρ (R)<br />
1<br />
= −<br />
log10 ρ (R) =<br />
1<br />
≈ 742<br />
0.00135<br />
4.3.2 Convergência <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l<br />
4.11 Teorema. Se A é uma matriz irredutível, diagonalmente <strong>do</strong>minante tal que |aii| > n<br />
|aij| para pelo<br />
menos alguma linha i, então o méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l converge.<br />
Prova. Sejam D a parte diagonal, −L a parte triangular inferior estrita e −U a parte triangular superior<br />
estrita da matriz A, e seja R = (D − L) −1 U a matriz <strong>de</strong> iteração <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l para A.<br />
Escrevemos<br />
R = (D − L) −1 U = D I − D −1 L −1 U<br />
ou<br />
j=1<br />
j=i<br />
R = I − D −1 L −1 D −1 U. (4.38)
Rodney Josué Biezuner 100<br />
Suponha por absur<strong>do</strong> que exista um autovalor λ <strong>de</strong> R tal que |λ| 1; como na <strong>de</strong>monstração <strong>do</strong> Teorema<br />
4.9, temos<br />
Agora, observan<strong>do</strong> que<br />
<strong>de</strong>t I − λ −1 R <br />
= <strong>de</strong>t I − λ −1 <br />
−1 −1 −1<br />
I − D L D U = 0.<br />
<strong>de</strong>t I − D −1 L = 1<br />
porque I − D−1L é uma matriz triangular inferior com apenas 1’s na diagonal principal, escrevemos<br />
<br />
0 = <strong>de</strong>t I − λ −1 <br />
−1 −1 −1<br />
I − D L D U<br />
= <strong>de</strong>t I − D −1 L <br />
<strong>de</strong>t I − λ −1 <br />
−1 −1 −1<br />
I − D L D U<br />
I −1<br />
= <strong>de</strong>t − D L <br />
I − λ −1 <br />
−1 −1 −1<br />
I − D L D U<br />
Por outro la<strong>do</strong>,<br />
= <strong>de</strong>t I − D −1 L − λ −1 D −1 U .<br />
D −1 A = I − D −1 L − D −1 U<br />
é irredutível, diagonalmente <strong>do</strong>minante e estritamente <strong>do</strong>minante nas linhas on<strong>de</strong> A é porque<br />
−1<br />
D A ij =<br />
<br />
1 se i = j,<br />
aij<br />
se i = j.<br />
aii<br />
Logo, a matriz I − D −1 L − λ −1 D −1 U também satisfaz estas proprieda<strong>de</strong>s, pois I, −D −1 L e −D −1 U são<br />
respectivamente a parte diagonal, a parte triangular inferior estrita e a parte triangular superior estrita da<br />
matriz D −1 A, e multiplicar a parte triangular inferior estrita pelo número λ −1 cujo módulo é menor que ou<br />
igual a 1 não alterará a <strong>do</strong>minância diagonal (na verda<strong>de</strong> só ten<strong>de</strong> a melhorá-la) nem acrescentará zeros à<br />
matriz. A Proposição 3.16 implica então que I − D −1 L − λ −1 D −1 U é invertível, um absur<strong>do</strong>. <br />
Usan<strong>do</strong> o Teorema 4.11, concluímos que o méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l converge para as matrizes <strong>de</strong> discretização<br />
obtidas através <strong>do</strong>s esquemas <strong>de</strong> diferenças finitas <strong>do</strong> Capítulo 2. Para analizar a velocida<strong>de</strong> <strong>de</strong> convergência<br />
<strong>do</strong> méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l, vamos obter os raios espectrais para as matrizes <strong>de</strong> discretização obtidas a partir<br />
da fórmula <strong>de</strong> três pontos unidimensional e a partir da fórmula <strong>de</strong> cinco pontos bidimensional.<br />
4.12 Teorema. Seja A a matriz <strong>de</strong> discretização obtida a partir da fórmula <strong>de</strong> três pontos unidimensional<br />
ou a partir da fórmula <strong>de</strong> cinco pontos bidimensional com ∆x = ∆y. Seja R = (D − L) −1 U a matriz<br />
<strong>de</strong> iteração <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l. Então<br />
2 π<br />
ρ (R) = cos . (4.39)<br />
n<br />
Prova. Para obter o raio espectral da matriz <strong>de</strong> iteração R, queremos encontrar os autovalores µ <strong>de</strong> R:<br />
ou seja,<br />
Ru = (D − L) −1 Uu = µu,<br />
Uu = µ (D − L) u<br />
(um problema <strong>de</strong> autovalor generaliza<strong>do</strong>). No caso da matriz <strong>de</strong> discretização da fórmula <strong>de</strong> cinco pontos,<br />
isso significa encontrar µ tal que<br />
Para os autovalores não-nulos, po<strong>de</strong>mos fazer a substituição<br />
ui,j+1 + ui+1,j = µ (4ui,j − ui,j−1 − ui−1,j) . (4.40)<br />
ui,j = µ i+j<br />
2 vi,j (4.41)
Rodney Josué Biezuner 101<br />
para transformar a equação <strong>de</strong> autovalor naquela que aparece no méto<strong>do</strong> <strong>de</strong> Jacobi. Temos<br />
<br />
µ i+j+1<br />
2 vi,j + µ i+j+1 <br />
2 vi+1,j = µ 4µ i+j<br />
2 vi,j − µ i+j−1<br />
2 vi,j−1 − µ i+j−1<br />
2 vi−1,j<br />
<strong>de</strong> mo<strong>do</strong> que, dividin<strong>do</strong> por µ i+j+1<br />
2 , obtemos<br />
= 4µ i+j+2<br />
2 vi,j − µ i+j+1<br />
2 vi,j−1 − µ i+j+1<br />
2 vi−1,j,<br />
vi−1,j + vi+1,j + vi,j−1 + vi,j+1 = µ 1/2 4vi,j.<br />
Portanto os autovalores da matriz <strong>de</strong> iteração <strong>de</strong> Gauss-Sei<strong>de</strong>l para esta matriz são exatamente os quadra<strong>do</strong>s<br />
<strong>do</strong>s autovalores da matriz <strong>de</strong> iteração <strong>de</strong> Jacobi (e os autovetores são os mesmos):<br />
µlk = 1<br />
<br />
cos<br />
4<br />
kπ<br />
2 lπ<br />
+ cos .<br />
n n<br />
Portanto, o máximo autovalor ocorre quan<strong>do</strong> k = l = 1 e<br />
2 π<br />
ρ (R) = cos<br />
n .<br />
O argumento para a fórmula <strong>de</strong> três pontos é análogo. <br />
Para o quadra<strong>do</strong> unitário temos<br />
ρ (R) = cos 2 (π∆x) ,<br />
e usan<strong>do</strong><br />
cos 2 x =<br />
se ∆x é pequeno po<strong>de</strong>mos aproximar<br />
<br />
1 − 1<br />
2 x2 + O x 4 2<br />
= 1 − x 2 + O x 4 ,<br />
cos 2 (π∆x) ≈ 1 − π 2 ∆x 2 .<br />
No méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l ainda temos ρ (R) → 1 quadraticamente quan<strong>do</strong> ∆x → 0, mas a sua velocida<strong>de</strong><br />
<strong>de</strong> convergência para a matriz <strong>de</strong> discretização <strong>de</strong> cinco pontos <strong>do</strong> quadra<strong>do</strong> unitário é duas vezes maior que<br />
a <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi. Para ver isso, faça a expansão <strong>do</strong> logaritmo em torno <strong>do</strong> ponto x = 1:<br />
Segue que<br />
4.3.3 Convergência <strong>do</strong> Méto<strong>do</strong> SOR<br />
4.13 Teorema. Se o méto<strong>do</strong> SOR converge, então<br />
log (1 + x) = x + O ∆x 2 .<br />
R∞ (RJacobi) = π2<br />
2 ∆x2 + O ∆x 4 , (4.42)<br />
R∞ (RGauss-Sei<strong>de</strong>l) = π 2 ∆x 2 + O ∆x 4 . (4.43)<br />
0 < ω < 2.<br />
Prova. A matriz <strong>de</strong> iteração <strong>do</strong> méto<strong>do</strong> SOR é<br />
−1 <br />
1<br />
1 − ω<br />
1<br />
R = D − L<br />
D + U =<br />
ω ω<br />
= I − ωD −1 L <br />
−1 −1 1 − ω<br />
ωD D + U<br />
ω<br />
ω D I − ωD −1 L −1 <br />
1 − ω<br />
ω<br />
<br />
D + U
Rodney Josué Biezuner 102<br />
ou<br />
Se λ1, . . . , λn são os autovalores <strong>de</strong> R, então<br />
Mas,<br />
R = I − ωD −1 L −1 (1 − ω) I + ωD −1 U . (4.44)<br />
<strong>de</strong>t R = λ1 . . . λn.<br />
I −1 −1 −1<br />
<strong>de</strong>t R = <strong>de</strong>t − ωD L (1 − ω) I + ωD U <br />
= <strong>de</strong>t I − ωD −1 L −1 −1<br />
<strong>de</strong>t (1 − ω) I + ωD U<br />
= (1 − ω) n ,<br />
já que I − ωD −1 L é uma matriz triangular inferior com apenas 1 na diagonal principal e (1 − ω) I + ωD −1 U<br />
é uma matriz triangular superior com apenas 1 − ω na diagonal principal. Logo<br />
λ1 . . . λn = (1 − ω) n .<br />
Em particular, pelo menos um <strong>do</strong>s autovalores λj <strong>de</strong> R <strong>de</strong>ve satisfazer<br />
|λj| |1 − ω| .<br />
Mas, se o méto<strong>do</strong> SOR converge, <strong>de</strong>vemos ter também |λ| < 1 para to<strong>do</strong> autovalor λ <strong>de</strong> R. Logo<br />
<strong>do</strong>n<strong>de</strong><br />
<br />
|1 − ω| < 1,<br />
0 < ω < 2.<br />
4.14 Corolário. Se R é a matriz <strong>de</strong> iteração n × n para o méto<strong>do</strong> SOR, então<br />
<strong>de</strong>t R = (1 − ω) n .<br />
Em particular, diferente das matrizes <strong>de</strong> iteração <strong>do</strong>s méto<strong>do</strong>s <strong>de</strong> Jacobi e <strong>de</strong> Gauss-Sei<strong>de</strong>l (para a matriz <strong>de</strong><br />
discretização <strong>de</strong> cinco pontos), zero não é um autovalor para a matriz <strong>de</strong> iteração <strong>do</strong> méto<strong>do</strong> SOR se ω = 1<br />
(para nenhuma matriz).<br />
4.15 Teorema. Se A é uma matriz irredutível, diagonalmente <strong>do</strong>minante tal que |aii| > n<br />
|aij| para pelo<br />
menos alguma linha i, então o méto<strong>do</strong> SOR converge se 0 < ω 1.<br />
Prova. A <strong>de</strong>monstração é análoga à <strong>do</strong> Teorema 4.11. A matriz <strong>de</strong> iteração <strong>do</strong> méto<strong>do</strong> SOR é<br />
R = I − ωD −1 L −1 (1 − ω) I + ωD −1 U .<br />
Suponha por absur<strong>do</strong> que exista um autovalor λ <strong>de</strong> R tal que |λ| 1; temos<br />
Agora, observan<strong>do</strong> que<br />
<strong>de</strong>t I − λ −1 R = <strong>de</strong>t<br />
j=1<br />
j=i<br />
<br />
I − λ −1 I − ωD −1 L −1 (1 − ω) I + ωD −1 U <br />
= 0.<br />
<strong>de</strong>t I − ωD −1 L = 1
Rodney Josué Biezuner 103<br />
porque I − ωD −1 L é uma matriz triangular inferior com apenas 1’s na diagonal principal, escrevemos<br />
0 = <strong>de</strong>t<br />
<br />
I − λ −1 I − ωD −1 L −1 (1 − ω) I + ωD −1 U <br />
= <strong>de</strong>t I − ωD −1 L <strong>de</strong>t<br />
= <strong>de</strong>t<br />
<br />
I − λ −1 I − ωD −1 L −1 (1 − ω) I + ωD −1 U <br />
I − ωD −1 L <br />
I − λ −1 I − ωD −1 L −1 (1 − ω) I + ωD −1 U <br />
= <strong>de</strong>t I − ωD −1 L − λ −1 (1 − ω) I + ωD −1 U <br />
= <strong>de</strong>t 1 − λ −1 (1 − ω) I − ωD −1 L − λ −1 ωD −1 U .<br />
Por outro la<strong>do</strong>, como vimos na <strong>de</strong>monstração <strong>do</strong> Teorema 4.11, a matriz<br />
D −1 A = I − D −1 L − D −1 U<br />
é irredutível, diagonalmente <strong>do</strong>minante e estritamente <strong>do</strong>minante nas linhas on<strong>de</strong> A é, logo a matriz<br />
S = 1 − λ −1 (1 − ω) I − ωD −1 L − λ −1 ωD −1 U<br />
também satisfaz estas proprieda<strong>de</strong>s. De fato, S tem zeros nas mesmas posições que I − D −1 L − D −1 U, logo<br />
a sua irredutibilida<strong>de</strong> não é afetada. Além disso, pela <strong>do</strong>minância diagonal <strong>de</strong> D −1 A, sabemos que se<br />
bij = D −1 L <br />
ij ,<br />
cij = D −1 U <br />
ij .<br />
então<br />
i−1<br />
1 |bij| +<br />
j=1<br />
Para provar a <strong>do</strong>minância diagonal <strong>de</strong> S, observamos que os valores que S possui na diagonal principal são<br />
<strong>de</strong> mo<strong>do</strong> que precisamos provar que<br />
se 0 < ω 1 e |λ| 1. Provaremos que<br />
1 − λ −1 (1 − ω) = 1 −<br />
j=1<br />
n<br />
j=i+1<br />
1 − ω<br />
λ<br />
|cij| .<br />
<br />
<br />
<br />
λ + ω − 1<br />
i−1<br />
<br />
λ ω |bij| + ω<br />
|λ|<br />
<br />
<br />
<br />
λ + ω − 1<br />
<br />
λ ω,<br />
<br />
<br />
<br />
λ + ω − 1<br />
<br />
ω<br />
λ <br />
|λ| .<br />
λ + ω − 1<br />
= ,<br />
λ<br />
Para isso, observe que como |λ| 1 basta provar a primeira <strong>de</strong>sigualda<strong>de</strong>, a qual por sua vez é equivalente a<br />
|λ + ω − 1| |λ| ω.<br />
É fácil ver que esta <strong>de</strong>sigualda<strong>de</strong> é válida quan<strong>do</strong> λ ∈ R, pois<br />
n<br />
j=i+1<br />
|cij|<br />
|λ + ω − 1| = λ + ω − 1 λω porque λ − 1 λω − ω = ω (λ − 1) .
Rodney Josué Biezuner 104<br />
Para o caso geral em que λ ∈ C, fazemos cair no caso real escreven<strong>do</strong><br />
|λ + ω − 1| 2 = |λ − (1 − ω)| 2 = |λ| 2 − 2 (Re λ) (1 − ω) + (1 − ω) 2<br />
|λ| 2 − 2 |λ| (1 − ω) + (1 − ω) 2 = [|λ| − (1 − ω)] 2<br />
= [|λ| + ω − 1] 2 |λ| 2 ω 2 .<br />
O resulta<strong>do</strong> acima continua valen<strong>do</strong> com <strong>de</strong>sigualda<strong>de</strong> estrita nas linhas on<strong>de</strong> a <strong>de</strong>sigualda<strong>de</strong> é estrita. A<br />
Proposição 3.16 implica então que S é invertível, contradizen<strong>do</strong> <strong>de</strong>t S = 0. <br />
4.16 Teorema. Seja A uma matriz simétrica positiva <strong>de</strong>finida. Então o méto<strong>do</strong> SOR converge se 0 < ω < 2.<br />
Prova. Usaremos o Teorema 4.8. Escreven<strong>do</strong> A = D − L − U, temos L t = U porque A é simétrica e as<br />
entradas diagonais <strong>de</strong> D positivas porque A é positiva <strong>de</strong>finida. Para o méto<strong>do</strong> SOR temos<br />
B = 1<br />
1 − ω<br />
D − L e C = D + U,<br />
ω ω<br />
logo<br />
B t + C = 1<br />
ω D − Lt 1 − ω 2 − ω<br />
+ D + U =<br />
ω ω D<br />
é uma matriz simétrica positiva <strong>de</strong>finida se 0 < ω < 2. <br />
Na verda<strong>de</strong>, se as entradas diagonais <strong>de</strong> uma matriz simétrica são positivas, a condição <strong>de</strong> ser <strong>de</strong>finida<br />
positiva é equivalente à convergência <strong>do</strong> méto<strong>do</strong> SOR para 0 < ω < 2, como o próximo resulta<strong>do</strong> mostra.<br />
4.17 Teorema. Seja A uma matriz simétrica com entradas diagonais positivas. Então o méto<strong>do</strong> SOR<br />
converge se e somente se A é positiva <strong>de</strong>finida e 0 < ω < 2.<br />
Prova. Assuma que A é positiva <strong>de</strong>finida e que 0 < ω < 2. Seja<br />
R = I − ωD −1 L −1 (1 − ω) I + ωD −1 U <br />
a matriz <strong>de</strong> iteração <strong>do</strong> méto<strong>do</strong> SOR. Se λ é um autovalor <strong>de</strong> R e x um autovetor associa<strong>do</strong>, temos Rx = λx,<br />
<strong>do</strong>n<strong>de</strong> (1 − ω) I + ωD −1 U x = λ I − ωD −1 L x.<br />
Fazen<strong>do</strong> o produto interno canônico (hermitiano) <strong>de</strong> C n <strong>de</strong> ambos os la<strong>do</strong>s com o vetor x, segue que<br />
(1 − ω) 〈x, x〉 + ω x, D −1 Ux = λ 〈x, x〉 − ω x, D −1 Lx <br />
Isolan<strong>do</strong> λ,<br />
λ = (1 − ω) 〈x, x〉 + ω x, D−1Ux <br />
〈x, x〉 − ω 〈x, D−1 . (4.45)<br />
Lx〉<br />
Como A é simétrica, o produto <strong>de</strong> matrizes simétricas D −1 A = I − D −1 U − D −1 L também é; como<br />
D −1 U, D −1 L são respectivamente a parte estritamente triangular superior e estritamente triangular inferior<br />
<strong>de</strong> uma matriz simétrica, temos<br />
D −1 U t = D −1 L.<br />
Logo<br />
e <strong>de</strong>finin<strong>do</strong><br />
x, D −1 Ux =<br />
D <br />
−1 t<br />
U x, x = D −1 L x, x = 〈x, (D−1L) x〉,<br />
z =<br />
x, D −1 L x <br />
〈x, x〉<br />
,
Rodney Josué Biezuner 105<br />
po<strong>de</strong>mos escrever<br />
(1 − ω) + ωz<br />
λ = . (4.46)<br />
1 − ωz<br />
Os argumentos acima assumem que o <strong>de</strong>nomina<strong>do</strong>r é não-nulo. E, <strong>de</strong> fato, temos<br />
Re z = 1<br />
<br />
−1 −1<br />
1 x, D L x x, D U x<br />
(z + z) = +<br />
=<br />
2 2 〈x, x〉<br />
〈x, x〉<br />
1<br />
<br />
−1 −1 x, D L + D U x<br />
2 〈x, x〉<br />
= 1<br />
<br />
−1 x, I − D A x<br />
=<br />
2 〈x, x〉<br />
1<br />
<br />
−1 x, D A x<br />
1 −<br />
.<br />
2 〈x, x〉<br />
e como A é positiva <strong>de</strong>finida, D −1 A também é, o que implica<br />
x, D −1 A x <br />
〈x, x〉<br />
<strong>do</strong>n<strong>de</strong><br />
Re z < 1<br />
2 .<br />
<strong>de</strong> mo<strong>do</strong> que a parte real <strong>do</strong> <strong>de</strong>nomina<strong>do</strong>r 1 − ωz <strong>de</strong> λ é não-nula para 0 < ω < 2. Segue que<br />
|λ| 2 = λλ =<br />
[(1 − ω) + ωz] [(1 − ω) + ωz]<br />
(1 − ωz) (1 − ωz)<br />
> 0<br />
= ω2 − 2ω2 Re z − 2ω + 4ω Re z + 1 − 2ω Re z + ω2 |z| 2<br />
1 − 2ω Re z + ω2 |z| 2<br />
ω (2 − ω) (1 − 2 Re z)<br />
= 1 −<br />
1 − 2ω Re z + ω2 2 .<br />
|z|<br />
Como 0 < ω < 2 e Re z < 1<br />
, temos<br />
2<br />
e concluímos que<br />
ω (2 − ω) (1 − 2 Re z) > 0,<br />
|λ| < 1<br />
= (1 − ω)2 + 2ω (1 − ω) Re z + ω 2 |z| 2<br />
1 − 2ω Re z + ω 2 |z| 2<br />
para to<strong>do</strong> autovalor λ <strong>de</strong> R, logo o méto<strong>do</strong> SOR converge. A <strong>de</strong>monstração da recíproca (assim como uma<br />
<strong>de</strong>monstração alternativa, variacional, <strong>de</strong>ste teorema) po<strong>de</strong> ser vista em [Young]. <br />
Usan<strong>do</strong> o Teorema 4.15, concluímos que o méto<strong>do</strong> SOR converge para as matrizes <strong>de</strong> discretização obtidas<br />
através <strong>do</strong>s esquemas <strong>de</strong> diferenças finitas <strong>do</strong> Capítulo 2 se 0 < ω 1. Isso permite apenas subrelaxamento<br />
<strong>do</strong> méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l, o que em geral reduz a velocida<strong>de</strong> <strong>de</strong> convergência. Por outro la<strong>do</strong>, usan<strong>do</strong> o<br />
Teorema 4.16 ou o Teorema 4.17, concluímos que o méto<strong>do</strong> SOR converge para as matrizes <strong>de</strong> discretização<br />
obtidas a partir da fórmula <strong>de</strong> três pontos unidimensional e a partir da fórmula <strong>de</strong> cinco pontos bidimensional<br />
se 0 < ω < 2, já que estas são matrizes simétricas, positivas <strong>de</strong>finidas (já as matrizes <strong>de</strong> discretização obtidas<br />
através <strong>de</strong> coor<strong>de</strong>nadas polares ou pelo esquema <strong>de</strong> Shortley-Weller não são simétricas, em geral, como<br />
vimos).<br />
Em seguida fazemos uma análise da velocida<strong>de</strong> <strong>de</strong> convergência <strong>do</strong> méto<strong>do</strong> SOR para a matriz <strong>de</strong> discretização<br />
da fórmula <strong>de</strong> cinco pontos, bem como obtemos o melhor valor <strong>do</strong> fator <strong>de</strong> relaxamento ω para<br />
este caso.<br />
4.18 Lema. Seja A a matriz <strong>de</strong> discretização obtida a partir da fórmula <strong>de</strong> três pontos unidimensional ou<br />
a partir da fórmula <strong>de</strong> cinco pontos bidimensional com ∆x = ∆y. Se λ = 0 é um autovalor <strong>de</strong> RSOR,<br />
então existe um autovalor λJ <strong>de</strong> RJ tal que<br />
λJ =<br />
1 − ω − λ<br />
λ1/2 . (4.47)<br />
ω2
Rodney Josué Biezuner 106<br />
Reciprocamente, se λJ é um autovalor <strong>de</strong> RJ e λ ∈ C satisfaz a equação acima, então λ é um autovalor<br />
<strong>de</strong> RSOR.<br />
Prova. Argumentamos como na <strong>de</strong>monstração <strong>do</strong> Teorema 4.12. Para obter o raio espectral da matriz <strong>de</strong><br />
iteração RSOR, queremos encontrar os autovalores λ <strong>de</strong> RSOR:<br />
RSORu = I − ωD −1 L −1 (1 − ω) I + ωD −1 U u = λu,<br />
ou seja, (1 − ω) I + ωD −1 U u = λ I − ωD −1 L u<br />
No caso da matriz <strong>de</strong> discretização da fórmula <strong>de</strong> cinco pontos, isso significa encontrar λ tal que<br />
(1 − ω) ui,j + ω<br />
4 ui,j+1 + ω<br />
4 ui+1,j<br />
<br />
= λ ui,j − ω<br />
4 ui,j−1 − ω<br />
4 ui−1,j<br />
<br />
ou<br />
Fazen<strong>do</strong> a substituição<br />
e dividin<strong>do</strong> por µ i+j+1<br />
2 , segue que<br />
1 − ω − λ<br />
ui,j =<br />
ω<br />
1<br />
4 (ui,j+1 + ui+1,j + λui,j−1 + λui−1,j) . (4.48)<br />
ui,j = λ i+j<br />
2 vi,j<br />
vi−1,j + vi+1,j + vi,j−1 + vi,j+1 =<br />
1 − ω − λ<br />
λ 1/2 ω 4vi,j<br />
e daí o resulta<strong>do</strong>. <br />
Resolven<strong>do</strong> a equação (4.47) como uma equação quadrática em √ λ, vemos que as duas raízes λ± = 2<br />
λ±<br />
po<strong>de</strong>m ser escritas na forma<br />
λ± = 1<br />
<br />
−ωλJ ± ω<br />
4<br />
2λ2 2 J − 4 (ω − 1) . (4.49)<br />
Denotaremos<br />
e por λJ = ρ (RJ) o maior autovalor <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi.<br />
Λω,λJ = max (|λ+| , |λ−|) (4.50)<br />
4.19 Proposição. Seja A a matriz <strong>de</strong> discretização obtida a partir da fórmula <strong>de</strong> três pontos unidimensional<br />
ou a partir da fórmula <strong>de</strong> cinco pontos bidimensional com ∆x = ∆y. Então<br />
Prova. Por <strong>de</strong>finição,<br />
De (4.49) segue que<br />
Λω,λJ = 1<br />
4<br />
ρ (RSOR,ω) = Λ ω,λJ<br />
ρ (RSOR,ω) = max Λω,λJ<br />
λJ<br />
.<br />
<br />
<br />
<br />
ωλJ +<br />
<br />
ω2λ 2<br />
<br />
<br />
J − 4 (ω − 1) <br />
<br />
2<br />
.<br />
(4.51)<br />
Se 0 < ω 1, ω2λ 2<br />
J − 4 (ω − 1) 0 e Λω,λJ é uma função crescente <strong>de</strong> λJ, logo o máximo é atingi<strong>do</strong> em λJ.<br />
Se ω > 1, <strong>de</strong>fina<br />
<br />
4 (ω − 1)<br />
λc =<br />
ω2 .
Rodney Josué Biezuner 107<br />
Se λJ > λc, ω 2 λ 2<br />
J − 4 (ω − 1) > 0 e segue a conclusão como no caso anterior. Se λJ λc, então ω 2 λ 2<br />
J −<br />
4 (ω − 1) 0 e<br />
on<strong>de</strong> i = √ −1, logo<br />
Λω,λJ =<br />
<br />
ω2λ 2<br />
<br />
J − 4 (ω − 1) = 4 (ω − 1) − ω2λ 2<br />
Ji,<br />
<br />
<br />
<br />
ωλJ <br />
+ ω2λ 2<br />
<br />
<br />
J − 4 (ω − 1) <br />
<br />
= ω − 1,<br />
2<br />
<br />
<br />
<br />
= <br />
<br />
ω 2 λ 2 J +<br />
<br />
4 (ω − 1) − ω2λ 2<br />
<br />
J<br />
2 <br />
<br />
e novamente Λω,λJ é uma função crescente <strong>de</strong> λJ. <br />
Defina<br />
2<br />
ωótimo = <br />
1 + 1 − λ 2<br />
.<br />
J<br />
(4.52)<br />
Note que 1 < ωótimo < 2. Mostraremos que ωótimo é <strong>de</strong> fato o melhor valor para o fator <strong>de</strong> relaxamento no<br />
méto<strong>do</strong> SOR. Antes precisamos <strong>do</strong> seguinte resulta<strong>do</strong>:<br />
4.20 Proposição. Seja A a matriz <strong>de</strong> discretização obtida a partir da fórmula <strong>de</strong> três pontos unidimensional<br />
ou a partir da fórmula <strong>de</strong> cinco pontos bidimensional com ∆x = ∆y. Então<br />
⎧ <br />
⎨ 1<br />
ωλJ ρ (RSOR,ω) =<br />
+ ω<br />
⎩<br />
4<br />
2λ 2<br />
2 J − 4 (ω − 1) se 0 < ω ωótimo,<br />
(4.53)<br />
ω − 1 se ωótimo ω < 2.<br />
Prova. Temos ω 2 λ 2<br />
J − 4 (ω − 1) 0 para 0 < ω < 2 se e somente se ω ωótimo. De fato, as raízes <strong>de</strong><br />
f (ω) = ω 2 λ 2<br />
J − 4ω + 4 são<br />
ω± =<br />
<br />
4 ± 4 1 − λ 2<br />
J<br />
2λ 2<br />
J<br />
= 2<br />
λ 2<br />
<br />
1 ± 1 − λ<br />
J<br />
2<br />
<br />
J<br />
<strong>de</strong> mo<strong>do</strong> que a raiz positiva <strong>de</strong> f é maior que 2, logo para que f (ω) 0 se 0 < ω < 2, <strong>de</strong>vemos ter<br />
ω 2<br />
λ 2<br />
<br />
1 − 1 − λ<br />
J<br />
2<br />
<br />
J = 2<br />
λ 2<br />
<br />
1 − 1 − λ<br />
J<br />
2<br />
<br />
J<br />
<br />
1 + 1 − λ 2<br />
2<br />
= <br />
J 1 + 1 − λ 2<br />
.<br />
J<br />
O resulta<strong>do</strong> segue então como na <strong>de</strong>monstração da proposição anterior. <br />
4.21 Teorema. Seja A a matriz <strong>de</strong> discretização obtida a partir da fórmula <strong>de</strong> três pontos unidimensional<br />
ou a partir da fórmula <strong>de</strong> cinco pontos bidimensional com ∆x = ∆y. Então o fator <strong>de</strong> relaxamento<br />
ótimo para o méto<strong>do</strong> SOR é da<strong>do</strong> por<br />
ωótimo =<br />
é o fator <strong>de</strong> relaxamento ótimo para o méto<strong>do</strong> SOR.<br />
Prova. Se 0 < ω ωótimo, então ω 2 λ 2<br />
J − 4 (ω − 1) 0 e<br />
<br />
d<br />
ωλJ + ω<br />
dω<br />
2λ 2<br />
<br />
J − 4 (ω − 1) = λJ<br />
2<br />
1 + sen π<br />
n<br />
<br />
ω 2 λ 2<br />
J − 4 (ω − 1) + ωλ 2<br />
J − 2<br />
<br />
ω2λ 2<br />
.<br />
J − 4 (ω − 1)<br />
(4.54)
Rodney Josué Biezuner 108<br />
Temos ωλ 2<br />
J − 2 < 0, porque 0 < ω < 2 e λJ < 1, e<br />
<br />
<br />
ωλ 2<br />
<br />
<br />
J − 2<br />
> λJ ω2λ 2<br />
J − 4 (ω − 1),<br />
pois<br />
Isso implica<br />
<br />
<br />
ωλ 2<br />
<br />
<br />
J − 2<br />
2<br />
= ω 2 λ 4<br />
J − 4λ 2<br />
Jω + 4 > ω 2 λ 4<br />
J − 4λ 2<br />
Jω + 4λ 2<br />
<br />
= λJ ω2λ 2<br />
2 J − 4 (ω − 1) .<br />
J > ω 2 λ 4<br />
<br />
d<br />
ωλJ + ω<br />
dω<br />
2λ 2<br />
<br />
J − 4 (ω − 1) < 0,<br />
J − 4λ 2<br />
J (ω − 1)<br />
logo ρ (RSOR,ω) é <strong>de</strong>crescente <strong>de</strong> 0 até ωótimo. Para ωótimo ω < 2, ρ (RSOR,ω) = ω − 1 é claramente<br />
crescente. Portanto, ρ (RSOR,ω) atinge o seu mínimo em ωótimo.<br />
Pelo Teorema 4.10, temos<br />
λJ = cos π<br />
n ,<br />
logo<br />
2<br />
ωótimo = <br />
1 + 1 − λ 2<br />
J<br />
2<br />
= <br />
π<br />
1 + 1 − cos2 n<br />
2<br />
=<br />
1 + sen π<br />
<br />
.<br />
n<br />
Para o quadra<strong>do</strong> unitário temos<br />
2<br />
ωótimo =<br />
1 + sen (π∆x)<br />
e conseqüentemente<br />
2<br />
1 − sen (π∆x)<br />
ρ (RSOR,ω) =<br />
− 1 =<br />
1 + sen (π∆x) 1 + sen (π∆x) .<br />
e usan<strong>do</strong><br />
1 − x<br />
1 + x = 1 − 2x + O x 2 ,<br />
sen x = x + O x 3 ,<br />
se ∆x é pequeno po<strong>de</strong>mos aproximar<br />
1 − sen (π∆x)<br />
1 + sen (π∆x) ≈ 1 − 2π∆x + O ∆x 2 .<br />
Portanto, usan<strong>do</strong> o valor ótimo <strong>de</strong> ω no méto<strong>do</strong> SOR, temos ρ (R) → 1 linearmente quan<strong>do</strong> ∆x → 0, um<br />
resulta<strong>do</strong> muito melhor que o obti<strong>do</strong> nos méto<strong>do</strong>s <strong>de</strong> Jacobi e <strong>de</strong> Gauss-Sei<strong>de</strong>l. Para uma comparação mais<br />
precisa, usan<strong>do</strong><br />
log (1 + x) = x + O ∆x 2<br />
temos que<br />
Segue que<br />
R∞ (RSOR) = 2π∆x + O ∆x 2 . (4.55)<br />
R∞ (RSOR)<br />
R∞ (RGauss-Sei<strong>de</strong>l)<br />
2π∆x<br />
≈<br />
π2 2<br />
=<br />
∆x2 π∆x .<br />
Em particular, se ∆x = 0.025, temos ωótimo = 1. 8545 e R∞ (RSOR) /R∞ (RGauss-Sei<strong>de</strong>l) = 25.5, isto é, o<br />
méto<strong>do</strong> SOR é 25 vezes mais rápi<strong>do</strong> que o méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l. Quanto mais refinada a malha, maior é<br />
a diferença na velocida<strong>de</strong> <strong>de</strong> convergência entre os <strong>do</strong>is méto<strong>do</strong>s.
Rodney Josué Biezuner 109<br />
4.3.4 Convergência <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Jacobi Amorteci<strong>do</strong><br />
4.22 Teorema. Se o méto<strong>do</strong> <strong>de</strong> Jacobi converge, então o méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong> converge para<br />
0 < ω 1.<br />
Prova. Vamos escrever a matriz <strong>de</strong> iteração RJ,ω <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong> em função da matriz <strong>de</strong><br />
iteração <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi RJ. Temos<br />
<strong>de</strong> mo<strong>do</strong> que<br />
<strong>do</strong>n<strong>de</strong><br />
RJ,ω =<br />
Em particular,<br />
se e somente se<br />
RJ = D −1 (D − A)<br />
<br />
1<br />
ω D<br />
−1 <br />
1<br />
D − A = ωD<br />
ω −1<br />
<br />
1<br />
D − D + D − A = ωD<br />
ω −1<br />
<br />
1<br />
D − D + ωD<br />
ω −1 (D − A)<br />
Portanto, λJ é um autovalor <strong>de</strong> RJ se e somente se<br />
RJ,ω = (1 − ω) I + ωRJ. (4.56)<br />
RJv = λv<br />
[RJ,ω − (1 − ω) I] v = ωλv.<br />
λJ,ω = ωλJ + 1 − ω (4.57)<br />
é um autovalor <strong>de</strong> RJ,ω. Logo, se to<strong>do</strong> autovalor <strong>de</strong> RJ satisfaz |λJ| < 1 (isto é, ρ (RJ) < 1 equivalente ao<br />
méto<strong>do</strong> <strong>de</strong> Jacobi convergir) e ω < 1, então<br />
|λJ,ω| 2 = (ωλJ + 1 − ω) ωλJ + 1 − ω <br />
= ω 2 |λJ| 2 + 2 Re λJω (1 − ω) + (1 − ω) 2<br />
ω 2 |λJ| 2 + 2 |λJ| ω (1 − ω) + (1 − ω) 2<br />
= (ω |λJ| + 1 − ω) 2<br />
< 1.<br />
<br />
Segue <strong>do</strong> Teorema 4.8 que o méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong> converge para as matrizes <strong>de</strong> discretização <strong>do</strong><br />
Capítulo 2 se 0 < ω 1.<br />
4.23 Corolário.<br />
Para o quadra<strong>do</strong> unitário temos<br />
Usan<strong>do</strong><br />
ρ (RJ,ω) = ω [ρ (RJ) − 1] + 1. (4.58)<br />
ρ (RJ,ω) = ω [cos (π∆x) − 1] + 1. (4.59)<br />
cos x = 1 − 1<br />
2 x2 + O x 4 ,<br />
log (1 + x) = x + O ∆x 2 ,
Rodney Josué Biezuner 110<br />
se ∆x é pequeno po<strong>de</strong>mos aproximar<br />
ρ (RJ,ω) ≈ 1 − ω π2<br />
2 ∆x2 + O ∆x 4 ,<br />
R∞ (RJ,ω) ≈ ω π2<br />
2 ∆x2 .<br />
Vemos que a velocida<strong>de</strong> <strong>de</strong> convergência <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong> é da mesma or<strong>de</strong>m que a <strong>do</strong> méto<strong>do</strong><br />
<strong>de</strong> Jacobi, um pouco pior para valores <strong>de</strong> ω próximos <strong>de</strong> 1 e muito pior para valores <strong>de</strong> ω próximos <strong>de</strong> 0.<br />
4.3.5 Resumo<br />
Méto<strong>do</strong> ρ (R) R∞ (R)<br />
Jacobi cos (π∆x)<br />
π 2<br />
2 ∆x2 + O ∆x 4<br />
Gauss-Sei<strong>de</strong>l cos 2 (π∆x) π 2 ∆x 2 + O ∆x 4<br />
SOR ótimo 1 − 2π∆x + O ∆x 2<br />
2π∆x + O ∆x 2<br />
Jacobi amorteci<strong>do</strong> 1 − ω π2<br />
2 ∆x2 + O ∆x 4 ω π2<br />
2 ∆x2 + O ∆x 4<br />
4.4 Méto<strong>do</strong> <strong>do</strong> Gradiente Conjuga<strong>do</strong><br />
Nesta seção, A será sempre uma matriz real simétrica, positiva <strong>de</strong>finida. Neste caso, a resolução <strong>do</strong> sistema<br />
Ax = b é equivalente à resolução <strong>de</strong> um problema <strong>de</strong> minimização <strong>de</strong> um funcional quadrático:<br />
4.24 Teorema. (Méto<strong>do</strong> Variacional para a Resolução <strong>de</strong> Sistemas Lineares) Seja A ∈ Mn (R) uma matriz<br />
simétrica positiva <strong>de</strong>finida e b ∈ R n . Então a solução <strong>do</strong> sistema<br />
Ax = b<br />
é o único ponto x que minimiza o funcional quadrático<br />
f (y) = 1<br />
2 yt Ay − y t b. (4.60)<br />
Prova: Uma matriz simétrica positiva <strong>de</strong>finida é invertível, logo existe uma única solução x para o sistema<br />
Ax = b. Para provar o teorema, começamos observan<strong>do</strong> que, como y t Ax ∈ R é um escalar, temos<br />
Daí,<br />
y t Ax = y t Ax t = x t A t y = x t Ay.<br />
f (y) − f (x) = 1<br />
2 yt Ay − y t b − 1<br />
2 xt Ax + x t b<br />
= 1<br />
2 yt Ay − y t Ax − 1<br />
2 xt Ax + x t Ax<br />
= 1<br />
2 yt Ay − y t Ax + 1<br />
2 xt Ax<br />
= 1<br />
2 yt Ay − 1<br />
2 yt Ax − 1<br />
2 xt Ay + 1<br />
2 xt Ax<br />
= 1<br />
2 yt A (y − x) − 1<br />
2 xt A (y − x)
Rodney Josué Biezuner 111<br />
ou<br />
f (y) − f (x) = 1<br />
2 (y − x)t A (y − x) . (4.61)<br />
Como A é positiva <strong>de</strong>finida, segue que<br />
e<br />
se e somente se y = x. Portanto,<br />
(y − x) t A (y − x) = 〈A (y − x) , (y − x)〉 0<br />
(y − x) t A (y − x) = 0<br />
f (y) > f (x)<br />
para to<strong>do</strong> y = x e o mínimo <strong>de</strong> f ocorre em x. <br />
Em muitos problemas, o funcional f tem significa<strong>do</strong> físico, correspon<strong>de</strong>nte a um funcional <strong>de</strong> energia que<br />
quan<strong>do</strong> é minimiza<strong>do</strong> correspon<strong>de</strong> a um esta<strong>do</strong> <strong>de</strong> equilíbrio <strong>do</strong> sistema. Observe que <strong>de</strong>finin<strong>do</strong> um produto<br />
interno a partir da matriz simétrica positiva <strong>de</strong>finida A da maneira usual por 〈v, w〉 A = vtAw e consi<strong>de</strong>ran<strong>do</strong><br />
a norma induzida vA = 〈v, v〉 1/2<br />
A , o funcional f po<strong>de</strong> ser escrito na forma<br />
f (y) = 1<br />
〈y, Ay〉 − 〈y, Ax〉 (4.62)<br />
2<br />
ou<br />
f (y) = 1<br />
2 y2 A − 〈y, x〉 A . (4.63)<br />
Outra maneira <strong>de</strong> enxergar o resulta<strong>do</strong> <strong>do</strong> teorema anterior é observar que o gradiente <strong>do</strong> funcional f é<br />
Se x é um ponto <strong>de</strong> mínimo temos ∇f (x) = 0, ou seja,<br />
∇f (y) = Ay − b. (4.64)<br />
Ax = b.<br />
Este méto<strong>do</strong> variacional é a base <strong>do</strong>s méto<strong>do</strong>s iterativos <strong>de</strong> <strong>de</strong>scida em geral, e <strong>do</strong> méto<strong>do</strong> <strong>do</strong> gradiente<br />
conjuga<strong>do</strong> em particular. A idéia é usar as idéias <strong>do</strong> cálculo diferencial para encontrar o mínimo <strong>do</strong> funcional<br />
quadrático f.<br />
4.4.1 Méto<strong>do</strong>s <strong>de</strong> Descida<br />
A filosofia <strong>do</strong>s méto<strong>do</strong>s <strong>de</strong> <strong>de</strong>scida é começar com um chute inicial x 0 e gerar uma seqüência <strong>de</strong> itera<strong>do</strong>s<br />
x 1 , x 2 , . . . , x k , . . . que satisfazem<br />
f x k+1 f x k<br />
ou, melhor ainda,<br />
f x k+1 < f x k<br />
<strong>de</strong> tal mo<strong>do</strong> que x k convirja para o minimiza<strong>do</strong>r <strong>de</strong> f. Em outras palavras, em um méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida<br />
buscamos encontrar uma seqüência minimizante x k que convirja para a solução <strong>do</strong> sistema.<br />
O passo <strong>de</strong> x k para x k+1 envolve <strong>do</strong>is ingredientes: (1) uma direção <strong>de</strong> busca e (2) um avanço <strong>de</strong><br />
comprimento especifica<strong>do</strong> na direção <strong>de</strong> busca. Uma direção <strong>de</strong> busca significa a escolha <strong>de</strong> um vetor p k que<br />
indicará a direção que avançaremos <strong>de</strong> x k para x k+1 . O comprimento <strong>do</strong> avanço é equivalente à escolha <strong>de</strong><br />
um escalar αk multiplican<strong>do</strong> o vetor p k . Assim,<br />
x k+1 = x k + αkp k .
Rodney Josué Biezuner 112<br />
A escolha <strong>de</strong> αk é também chamada uma busca na reta, já que queremos escolher um ponto na reta<br />
x k + αp k : α ∈ R <br />
tal que<br />
f x k + αp k f x k .<br />
I<strong>de</strong>almente, gostaríamos <strong>de</strong> escolher αk <strong>de</strong> tal mo<strong>do</strong> que<br />
f x k+1 = f x k + αkp k = min<br />
α∈R f x k + αp k<br />
Esta é chamada uma busca na reta exata. Para funcionais quadráticos, a busca na reta exata é trivial e<br />
obtemos uma fórmula para o valor <strong>de</strong> αk, como veremos a seguir. Denotaremos o resíduo em cada iteração<br />
por<br />
r k = b − Ax k . (4.65)<br />
4.25 Proposição. Seja αk ∈ R tal que<br />
Então<br />
Prova: Consi<strong>de</strong>re o funcional<br />
g é um polinômio quadrático em α, pois<br />
f x k + αkp k = min<br />
α∈R f x k + αp k .<br />
αk =<br />
p k t r k<br />
(pk ) t =<br />
Apk g (α) = f x k + αp k .<br />
p k , r k <br />
〈pk , Apk . (4.66)<br />
〉<br />
g (α) = 1 k k<br />
x + αp<br />
2<br />
t k k<br />
A x + αp − x k + αp kt b<br />
= 1 k<br />
x<br />
2<br />
t k k<br />
Ax − x t α k<br />
b + x<br />
2<br />
t k α k<br />
Ap + p<br />
2<br />
t k α<br />
Ax + 2 k<br />
p<br />
2<br />
t k k<br />
Ap − α p t<br />
b<br />
= f x k <br />
1 k<br />
+ α p<br />
2<br />
t k 1 k<br />
Ax + p<br />
2<br />
t k k<br />
Ax − p t<br />
<br />
b + α2 k<br />
p<br />
2<br />
t k<br />
Ap<br />
= f x k − α p kt k α<br />
Ar + 2 k<br />
p<br />
2<br />
t k<br />
Ap ,<br />
portanto o mínimo <strong>de</strong> g é atingi<strong>do</strong> no vértice −B/2A da parábola Y = AX 2 + BX + C. <br />
Observe que αk = 0 se e somente se p k t r k = 0, isto é, a direção <strong>de</strong> busca é ortogonal ao resíduo. Como<br />
gostaríamos sempre que possível <strong>de</strong> ter x k+1 = x k , <strong>de</strong>vemos sempre escolher a direção <strong>de</strong> busca <strong>de</strong> forma a<br />
não ser ortogonal a r k . Se esta escolha é feita, então teremos sempre f x k+1 < f x k .<br />
Exemplo 1. (Méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l) Consi<strong>de</strong>re o méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida em que as primeiras n direções <strong>de</strong><br />
busca p 1 , . . . , p n são os vetores e1, . . . , en da base canônica <strong>de</strong> R n , e isso é repeti<strong>do</strong> a cada n iterações,<br />
<strong>de</strong> mo<strong>do</strong> que p k+n = ek para to<strong>do</strong> k = 1, . . . , n, com uma busca na reta exata executada em cada<br />
iteração. Então cada grupo <strong>de</strong> n iterações correspon<strong>de</strong> a uma iteração <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l.<br />
Exemplo 2. (Méto<strong>do</strong> SOR) Usan<strong>do</strong> as mesmas direções <strong>de</strong> busca <strong>do</strong> exemplo anterior, mas com x k+1 =<br />
x k + ωαkp k , ω = 1, obtemos um méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida em que as buscas nas retas são inexatas. Cada<br />
grupo <strong>de</strong> n iterações correspon<strong>de</strong> a uma iteração <strong>do</strong> méto<strong>do</strong> SOR.
Rodney Josué Biezuner 113<br />
4.4.2 Méto<strong>do</strong> da Descida Mais Acentuada<br />
Do Cálculo Diferencial, sabemos que a direção em que a função cresce a uma taxa mais rápida a partir <strong>de</strong><br />
um ponto é a direção <strong>do</strong> gradiente neste ponto. Esta observação é a base da escolha da direção <strong>de</strong> busca no<br />
méto<strong>do</strong> da <strong>de</strong>scida mais acentuada. Em outras palavras, escolhemos<br />
ou<br />
p k = −∇f x k = b − Ax k<br />
p k = r k . (4.67)<br />
Buscar na direção da <strong>de</strong>scida mais acentuada é uma idéia natural, mas que na prática não funciona sem<br />
modificações. De fato, em alguns casos o méto<strong>do</strong> é <strong>de</strong> velocida<strong>de</strong> comparável à <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi, como<br />
na matriz <strong>de</strong> discretização da fórmula <strong>de</strong> cinco pontos aplicada ao problema <strong>de</strong>scrito na primeira seção <strong>de</strong>ste<br />
capítulo [Watkins]:<br />
∆x = 0.1 ∆x = 0.05 ∆x = 0.025<br />
Jacobi 299 1090 3908<br />
Descida Mais Acentuada 304 1114 4010<br />
De fato, como as iterações <strong>do</strong> méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida mais acentuada são bem mais custosas que as <strong>do</strong> méto<strong>do</strong><br />
<strong>de</strong> Jacobi, o primeiro é muito pior que este último.<br />
Para enten<strong>de</strong>r melhor o méto<strong>do</strong> da <strong>de</strong>scida mais acentuada, porque ele po<strong>de</strong> ser lento e as modificações que<br />
vamos fazer para torná-lo mais rápi<strong>do</strong> levan<strong>do</strong> ao méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong>, vamos enten<strong>de</strong>r o processo<br />
<strong>do</strong> ponto <strong>de</strong> vista geométrico. Como vimos na <strong>de</strong>monstração <strong>do</strong> Teorema 4.24, o funcional quadrático f é<br />
da forma<br />
f (y) = 1<br />
2 (y − x)t A (y − x) + c (4.68)<br />
on<strong>de</strong> c = f (x) = 1<br />
2 xt Ax − x t b é uma constante. Já que A é uma matriz simétrica, existe uma matriz<br />
ortogonal P tal que P t AP é uma matriz diagonal D , cujos valores na diagonal principal são exatamente os<br />
autovalores positivos <strong>de</strong> A. Nas coor<strong>de</strong>nadas<br />
o funcional f tem a forma<br />
z = P t (y − x) ,<br />
f (z) = 1<br />
2 ztDz + c = 1<br />
2<br />
n<br />
i=1<br />
λiz 2 i + c. (4.69)<br />
As curvas <strong>de</strong> nível <strong>do</strong> funcional f neste sistema <strong>de</strong> coor<strong>de</strong>nadas são elipses (em R 2 , elipsói<strong>de</strong>s em R 3 e<br />
hiperelipsói<strong>de</strong>s em R n ) centradas na origem com eixos paralelos aos eixos coor<strong>de</strong>na<strong>do</strong>s e f (0) = c é nível<br />
mínimo <strong>de</strong> f; elipses correspon<strong>de</strong>ntes a menores valores <strong>de</strong> f estão <strong>de</strong>ntro <strong>de</strong> elipses correspon<strong>de</strong>ntes a<br />
maiores valores <strong>de</strong> f. Como P é uma aplicação ortogonal, as curvas <strong>de</strong> nível <strong>de</strong> f no sistema <strong>de</strong> coor<strong>de</strong>nadas<br />
original também são elipses, centradas em x, e uma reta <strong>de</strong> um ponto y até o ponto x corta elipses <strong>de</strong> níveis<br />
cada vez menores até chegar ao mínimo da função f em x, centro <strong>de</strong> todas as elipses. O vetor gradiente é<br />
perpendicular às curvas <strong>de</strong> nível, logo é perpendicular às elipses. Seguir a direção <strong>de</strong> <strong>de</strong>scida mais acentuada<br />
equivale a cortar a elipse que contém x k ortogonalmente na direção <strong>do</strong> interior da elipse até encontrar um<br />
ponto x k+1 situa<strong>do</strong> em uma elipse que a reta tangencie, pois a partir daí a reta irá na direção <strong>de</strong> elipses com<br />
níveis maiores, portanto este é o ponto da reta on<strong>de</strong> f atinge o seu mínimo. Em particular, vemos que a<br />
próxima direção p k+1 é ortogonal à direção anterior p k , tangente a esta elipse. Em geral, a direção <strong>de</strong> <strong>de</strong>scida<br />
mais acentuada não é a direção <strong>de</strong> x (quan<strong>do</strong> bastaria uma iteração para atingir a solução exata) a não ser<br />
que A seja um múltiplo escalar da i<strong>de</strong>ntida<strong>de</strong>, <strong>de</strong> mo<strong>do</strong> que to<strong>do</strong>s os autovalores <strong>de</strong> A são iguais e as elipses<br />
são círculos. Por outro la<strong>do</strong>, se os autovalores <strong>de</strong> A têm valores muito diferentes uns <strong>do</strong>s outros, com alguns<br />
muito pequenos e alguns muito gran<strong>de</strong>s, as elipses serão bastante excêntricas e, <strong>de</strong>pen<strong>de</strong>n<strong>do</strong> <strong>do</strong> chute inicial,
Rodney Josué Biezuner 114<br />
a convergência po<strong>de</strong> ser muito lenta (matrizes com estas proprieda<strong>de</strong>s são chamadas mal-condicionadas; para<br />
que o méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida acentuada seja lento, a matriz A não precisa ser muito mal-condicionada).<br />
Como vimos na seção anterior, os algoritmos <strong>de</strong> Gauss-Sei<strong>de</strong>l e SOR po<strong>de</strong>m ser encara<strong>do</strong>s como algoritmos<br />
<strong>de</strong> <strong>de</strong>scida. A discussão no parágrafo anterior também po<strong>de</strong> ser usada para enten<strong>de</strong>r a relativa lentidão <strong>de</strong>stes<br />
algoritmos.<br />
4.4.3 Méto<strong>do</strong> <strong>do</strong> Gradiente Conjuga<strong>do</strong><br />
To<strong>do</strong>s os méto<strong>do</strong>s iterativos que vimos neste capítulo são limita<strong>do</strong>s pela sua falta <strong>de</strong> memória, no senti<strong>do</strong> <strong>de</strong><br />
que apenas informação sobre x k é usada para obter x k+1 . Toda a informação sobre as iterações anteriores é<br />
<strong>de</strong>letada. O méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong> é uma variação simples <strong>do</strong> méto<strong>do</strong> da <strong>de</strong>scida mais acentuada<br />
que funciona melhor porque a informação obtida através das iterações anteriores é utilizada.<br />
Para enten<strong>de</strong>r brevemente como isso funciona, observe que <strong>de</strong>pois <strong>de</strong> j iterações x k+1 = x k + αkp k <strong>de</strong><br />
um méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida temos<br />
x j = x 0 + α0p 0 + α1p 1 + . . . + αj−1p j−1 ,<br />
<strong>de</strong> mo<strong>do</strong> que x j está no subespaço afim gera<strong>do</strong> pelo chute inicial x 0 e pelos vetores p 0 , p 1 , . . . , p j−1 .<br />
Enquanto o méto<strong>do</strong> da <strong>de</strong>scida mais acentuada minimiza o funcional <strong>de</strong> energia f apenas ao longo das j<br />
retas x k + αkp k , cuja união constitui apenas um pequeno subconjunto <strong>de</strong> x 0 + p 0 , p 1 , . . . , p j−1 , o méto<strong>do</strong><br />
<strong>do</strong> gradiente conjuga<strong>do</strong> minimiza f sobre to<strong>do</strong> o subespaço afim x 0 + p 0 , p 1 , . . . , p j−1 .<br />
Para <strong>de</strong>finir as direções <strong>de</strong> busca <strong>do</strong> méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong> (que é, antes <strong>de</strong> mais nada, um<br />
méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida), lembramos que o funcional f foi escrito na forma<br />
Defina o erro<br />
Pela regra <strong>do</strong> paralelogramo, temos<br />
<strong>do</strong>n<strong>de</strong><br />
f (y) = 1<br />
2 y2<br />
A − 〈y, x〉 A .<br />
e = x − y. (4.70)<br />
x + y 2<br />
A + x − y2 A = 2 x2 A + 2 y2 A ,<br />
2 y 2<br />
A = x − y2 A + x2 A + 2 〈y, x〉 A + y2 A − 2 x2 A<br />
= x − y 2<br />
A + 2 〈y, x〉 A − x2 A + y2 A ,<br />
ou<br />
y 2<br />
A − 2 〈y, x〉 A = x − y2 A − x2 A .<br />
Logo, po<strong>de</strong>mos escrever<br />
f (y) = 1<br />
2 e2<br />
1<br />
A −<br />
2 x2 A . (4.71)<br />
Conseqüentemente, minimizar o funcional f é equivalente a minimizar a A-norma <strong>do</strong> erro.<br />
Agora, em um méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida, <strong>de</strong>pois <strong>de</strong> j iterações temos:<br />
e j = x − x j = x − x 0 − α0p 0 + α1p 1 + . . . + αj−1p j−1<br />
= e 0 − α0p 0 + α1p 1 + . . . + αj−1p j−1 .<br />
Logo, minimizar ej 2<br />
é equivalente a minimizar<br />
A<br />
<br />
e 0 − α0p 0 + α1p 1 + . . . + αj−1p j−1 ,<br />
A<br />
o que por sua vez é equivalente a encontrar a melhor aproximação <strong>do</strong> vetor e 0 no subespaço Wj = p 0 , p 1 , . . . , p j−1 .<br />
Esta é dada pelo lema da melhor aproximação:
Rodney Josué Biezuner 115<br />
4.26 Proposição. Sejam A ∈ Mn (R) uma matriz simétrica positiva <strong>de</strong>finida, v ∈ R n e W um subsespaço<br />
<strong>de</strong> R n . Então existe um único w ∈ W tal que<br />
v − w A = min<br />
z∈W v − z A .<br />
O vetor w é caracteriza<strong>do</strong> pela condição v − w ⊥A W .<br />
Segue <strong>de</strong>ste resulta<strong>do</strong> que e j A é minimiza<strong>do</strong> quan<strong>do</strong> escolhemos p = α0p 0 + α1p 1 + . . . + αj−1p j−1 ∈ Wj<br />
tal que e j = e 0 − p satisfaz<br />
e j ⊥A p i para i = 1, . . . , j − 1. (4.72)<br />
Definição. Dois vetores y, z que são ortogonais com respeito ao produto interno 〈·, ·〉 A , isto é, tais que<br />
são chama<strong>do</strong>s conjuga<strong>do</strong>s.<br />
〈y, z〉 A = 0<br />
Nosso objetivo então é <strong>de</strong>senvolver um méto<strong>do</strong> em que o erro a cada passo é conjuga<strong>do</strong> com todas as direções<br />
<strong>de</strong> busca anteriores. O próximo resulta<strong>do</strong>, que é basicamente uma reafirmação da Proposição 4.25, mostra<br />
que em qualquer méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida em que a busca na reta é exata satisfaz automaticamente e j ⊥A p j−1 ,<br />
isto é, (4.72) é váli<strong>do</strong> para a última iteração (o erro da iteração presente é A-ortogonal à direção <strong>de</strong> busca<br />
da iteração anterior).<br />
4.27 Proposição. Seja x k+1 = x k + αkp k obti<strong>do</strong> através <strong>de</strong> uma busca na reta exata. Então<br />
e<br />
Prova: Temos<br />
r k+1 ⊥ p k<br />
e k+1 ⊥A p k .<br />
b − Ax k+1 = b − Ax k − αkAp k ,<br />
<strong>de</strong> mo<strong>do</strong> que a seqüência <strong>do</strong>s resíduos é dada pela fórmula<br />
Logo,<br />
Além disso, como<br />
k+1 k<br />
r , p = r k+1 , p k k k<br />
− αk Ap , p = r k , p k −<br />
r k+1 = r k − αkAp k . (4.73)<br />
Ae k+1 = r k+1 ,<br />
p k , r k <br />
〈p k , Ap k 〉<br />
Ap k , p k = 0.<br />
segue que k+1 k<br />
e , p <br />
A = Ae k+1 , p k = r k+1 , p k = 0.<br />
<br />
O significa<strong>do</strong> geométrico <strong>de</strong>ste resulta<strong>do</strong> é que o mínimo <strong>do</strong> funcional f na reta xk + αkpk ocorre quan<strong>do</strong> a<br />
<strong>de</strong>rivada direcional <strong>de</strong> f na direção <strong>de</strong> busca é zero, ou seja,<br />
0 = ∂f k+1<br />
x<br />
∂pk<br />
= ∇f x k+1 k+1<br />
, pk = r , pk .<br />
De acor<strong>do</strong> com a Proposição 4.27, <strong>de</strong>pois <strong>do</strong> primeiro passo temos e 1 ⊥A p 0 . Para manter os erros<br />
subseqüentes conjuga<strong>do</strong>s a p 0 , como<br />
e k+1 = x − x k+1 = x − x k − αkp k
Rodney Josué Biezuner 116<br />
ou<br />
e k+1 = e k − αkp k , (4.74)<br />
basta escolher as direções <strong>de</strong> busca subseqüentes conjugadas a p 0 . Se escolhemos p 1 conjuga<strong>do</strong> a p 0 , obtemos<br />
x 2 para o qual o erro satisfaz e 2 ⊥A p 1 ; como p 1 ⊥A p 0 , segue <strong>de</strong> (4.74) que e 2 ⊥A p 0 também. Para manter<br />
os erros subseqüentes conjuga<strong>do</strong>s a p 0 e p 1 , basta escolher as direções <strong>de</strong> busca subseqüentes conjugadas a<br />
p 0 e p 1 . Assim, vemos que para obter a condição (4.72) basta escolher as direções <strong>de</strong> busca <strong>de</strong> tal forma que<br />
p i ⊥A p j para to<strong>do</strong>s i = j.<br />
Um méto<strong>do</strong> com estas características é chama<strong>do</strong> um méto<strong>do</strong> <strong>de</strong> direções conjugadas. Estes resulta<strong>do</strong>s<br />
são resumi<strong>do</strong>s na proposição a seguir:<br />
4.28 Teorema. Se um méto<strong>do</strong> emprega direções <strong>de</strong> busca conjugadas e performa buscas na reta exatas,<br />
então<br />
e j ⊥A p i<br />
para i = 1, . . . , j − 1,<br />
para to<strong>do</strong> j. Conseqüentemente <br />
e j <br />
= min e A p∈Wj<br />
0 − p , A<br />
on<strong>de</strong> Wj = p 0 , p 1 , . . . , p j−1 .<br />
Prova: A <strong>de</strong>monstração é por indução. Para j = 1, temos e 1 ⊥A p 0 pela Proposição 4.27 porque a busca<br />
na reta é exata. Em seguida, assuma e j ⊥A p i para i = 1, . . . , j − 1; queremos mostrar que e j+1 ⊥A p i<br />
para i = 1, . . . , j. Como<br />
e j+1 = e j − αjp j ,<br />
para i = 1, . . . , j − 1 temos<br />
e j+1 , p i <br />
A = e j − αjp j , p i<br />
A = e j , p i<br />
A<br />
− αj<br />
p j , p i <br />
A<br />
= 0 − 0 = 0<br />
porque as direções <strong>de</strong> busca são conjugadas. e j+1 ⊥A p j segue novamente da Proposição 4.27. <br />
Quan<strong>do</strong> a direção inicial é dada pelo vetor gradiente <strong>de</strong> f, como na primeira iteração <strong>do</strong> méto<strong>do</strong> da <strong>de</strong>scida<br />
mais acentuada, obtemos o méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong>. As direções subseqüentes são escolhidas<br />
através <strong>de</strong> A-ortogonalizar o resíduo (ou vetor gradiente <strong>de</strong> f, que é a direção <strong>de</strong> busca em cada iteração<br />
<strong>do</strong> méto<strong>do</strong> da <strong>de</strong>scida mais acentuada) com todas as direções <strong>de</strong> busca anteriores, para isso utilizan<strong>do</strong> o<br />
algoritmo <strong>de</strong> Gram-Schmidt. Assim, da<strong>do</strong> um chute inicial p 0 , a primeira direção é<br />
ou seja, a direção inicial é o primeiro resíduo:<br />
p 0 = −∇f x 0 = b − Ax 0 = r 0<br />
Depois <strong>de</strong> k passos com direções <strong>de</strong> busca conjugadas p 0 , . . . , p k , escolhemos<br />
p k+1 = r k+1 −<br />
on<strong>de</strong> os cki são da<strong>do</strong>s pelo algoritmo <strong>de</strong> Gram-Schmidt:<br />
<br />
k+1 i r , p <br />
cki =<br />
p 0 = r 0 . (4.75)<br />
k<br />
i=0<br />
〈p i , p i 〉 A<br />
ckip i<br />
A<br />
(4.76)<br />
. (4.77)<br />
<strong>de</strong> forma que p k+1 ⊥A p i para to<strong>do</strong>s i = 1, . . . , k. Felizmente, como veremos a seguir <strong>de</strong>pois <strong>de</strong> algum trabalho<br />
preliminar (Corolário 4.32), cki = 0 para to<strong>do</strong> i exceto i = k, o que torna necessário que apenas a direção
Rodney Josué Biezuner 117<br />
<strong>de</strong> busca mais recente pk seja armazenada na memória <strong>do</strong> computa<strong>do</strong>r, o que garante que a implementação<br />
<strong>do</strong> gradiente conjuga<strong>do</strong> é eficiente:<br />
<br />
k+1 k r , p <br />
<br />
k+1 k r , Ap <br />
p k+1 = r k+1 −<br />
〈p k , p k 〉 A<br />
A<br />
p k = r k+1 −<br />
〈p k , Ap k 〉 pk . (4.78)<br />
Esta é a modificação <strong>do</strong> méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong> em relação ao méto<strong>do</strong> da <strong>de</strong>scida mais acentuada,<br />
em que p k+1 = r k+1 .<br />
Definição. Dada uma matriz A ∈ Mn (C) e um vetor v ∈ C n , o espaço <strong>de</strong> Krylov Kj (A, v) é o subespaço<br />
v, Av, . . . , A j−1 v .<br />
4.29 Teorema. Depois <strong>de</strong> j iterações <strong>do</strong> algoritmo <strong>do</strong> gradiente conjuga<strong>do</strong> (com rk = 0 em cada iteração),<br />
temos 0 1 j−1<br />
p , p , . . . , p = r 0 , r 1 , . . . , r j−1 0<br />
= Kj A, r .<br />
Prova: A <strong>de</strong>monstração é por indução. O resulta<strong>do</strong> é trivial para j = 0, pois p 0 = r 0 . Assuma o resulta<strong>do</strong><br />
váli<strong>do</strong> para j − 1. Em primeiro lugar, mostraremos que<br />
0 1 j<br />
r , r , . . . , r 0<br />
⊂ Kj+1 A, r . (4.79)<br />
Em vista da hipótese <strong>de</strong> indução, basta mostrar que rj <br />
0 ∈ Kj+1 A, r . Como rj = rj−1 − αj−1Apj−1 e<br />
rj−1 <br />
0 ∈ Kj A, r <br />
0 ⊂ Kj+1 A, r por hipótese <strong>de</strong> indução, basta provar que Apj−1 <br />
0 ∈ Kj+1 A, r . Mas,<br />
também por hipótese <strong>de</strong> indução, pj−1 <br />
0 ∈ Kj+1 A, r , logo<br />
Ap j−1 ∈ Kj<br />
Em seguida, mostraremos que<br />
0<br />
A, Ar = Ar 0 , A 2 r 0 , . . . , A j r 0 ⊂ r 0 , Ar 0 , A 2 r 0 , . . . , A j r 0 0<br />
= Kj+1 A, r .<br />
p 0 , p 1 , . . . , p j ⊂ r 0 , r 1 , . . . , r j . (4.80)<br />
Por hipótese <strong>de</strong> indução, basta provar que pj ∈ r0 , r1 , . . . , rj . Isso segue <strong>de</strong> (4.76) e da hipótese <strong>de</strong> indução.<br />
Até aqui provamos que<br />
0 1 j<br />
p , p , . . . , p ⊂ r 0 , r 1 , . . . , r j 0<br />
⊂ Kj+1 A, r . (4.81)<br />
Para provar que eles são iguais, basta mostrar que eles têm a mesma dimensão. Isso <strong>de</strong>corre <strong>de</strong><br />
e<br />
dim r 0 , r 1 , . . . , r j j + 1,<br />
0<br />
dim Kj+1 A, r j + 1<br />
dim p 0 , p 1 , . . . , p j = j + 1,<br />
o último porque os vetores p 0 , p 1 , . . . , p j são vetores não-nulos A-ortogonais. <br />
4.30 Corolário. Depois <strong>de</strong> j iterações <strong>do</strong> algoritmo <strong>do</strong> gradiente conjuga<strong>do</strong>, temos<br />
0<br />
A, r <br />
para to<strong>do</strong> j.<br />
e j ⊥A Kj<br />
Prova: Segue imediatamente <strong>do</strong> teorema anterior e <strong>do</strong> Teorema 4.28.
Rodney Josué Biezuner 118<br />
4.31 Corolário. Depois <strong>de</strong> j iterações <strong>do</strong> algoritmo <strong>do</strong> gradiente conjuga<strong>do</strong>, temos<br />
r j 0<br />
⊥ Kj A, r <br />
para to<strong>do</strong> j.<br />
Prova: Em vista <strong>do</strong> Teorema 4.29, basta provar que rj ⊥ p0 , p1 , . . . , pj−1 para to<strong>do</strong> j. Como Aej+1 = rj+1 ,<br />
j+1 i<br />
r , p = Ae j+1 , p i = e j+1 , p i<br />
= 0 A<br />
para to<strong>do</strong> i = 1, . . . , j − 1, como vimos na <strong>de</strong>monstração <strong>do</strong> Teorema 4.28. <br />
4.32 Corolário. cki = 0 para to<strong>do</strong> i = 1, . . . , k − 1.<br />
Prova: Temos que provar que k+1 i<br />
r , p <br />
A = r k+1 , Ap i = 0<br />
para to<strong>do</strong>s i = 1, . . . , k − 1. Pelo Teorema 4.29, pi ∈ p0 , p1 , . . . , pi = r0 , Ar0 , . . . , Air <br />
0 = Ki+1 A, r ,<br />
logo<br />
Ap i ∈ Ar 0 , A 2 r 0 , . . . , A i+1 r 0<br />
⊂ Ki+2 A, r 0<br />
⊂ Kk+1 A, r <br />
e o resulta<strong>do</strong> segue <strong>do</strong> corolário anterior. <br />
4.33 Teorema. Seja A uma matriz simétrica positiva <strong>de</strong>finida n×n. Então o méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong><br />
converge em n iterações.<br />
Prova: Se fizemos n − 1 iterações em obter x, pelo Corolário 4.32 os vetores r 0 , r 1 , . . . , r n−1 formam uma<br />
base ortogonal para R n . Depois <strong>de</strong> mais uma iteração, <strong>de</strong> acor<strong>do</strong> com este mesmo corolário o resíduo r n<br />
satisfaz r n ⊥ r 0 , r 1 , . . . , r n−1 = R n , logo r n = 0. <br />
De fato, na maioria das aplicações o méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong> converge ainda mais rápi<strong>do</strong>, se apenas<br />
uma boa aproximação é requerida. Defina o número <strong>de</strong> condição <strong>de</strong> uma matriz simétrica positiva <strong>de</strong>finida<br />
por<br />
κ (A) =<br />
max {λ : λ é um autovalor <strong>de</strong> A}<br />
; (4.82)<br />
min {λ : λ é um autovalor <strong>de</strong> A}<br />
assim, quanto maior o número <strong>de</strong> condição <strong>de</strong> uma matriz, ela é mais mal-condicionada e a convergência<br />
<strong>de</strong> méto<strong>do</strong>s <strong>de</strong> <strong>de</strong>scida é mais vagarosa. Po<strong>de</strong>-se provar a seguinte estimativa <strong>de</strong> erro para o méto<strong>do</strong> <strong>do</strong><br />
gradiente conjuga<strong>do</strong> (veja [Strikwerda]):<br />
<br />
e k A 2 e 0 A<br />
κ (A) − 1<br />
κ (A) + 1<br />
k<br />
. (4.83)<br />
Esta estimativa é uma estimativa grosseira, mas mostra que o méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong> converge<br />
mais rapidamente para matrizes bem-condicionadas (κ (A) ∼ 1). Uma comparação entre a velocida<strong>de</strong> <strong>de</strong><br />
convergência <strong>do</strong>s <strong>do</strong>is méto<strong>do</strong>s para a matriz <strong>de</strong> discretização da fórmula <strong>de</strong> cinco pontos aplicada ao problema<br />
<strong>de</strong>scrito na primeira seção <strong>de</strong>ste capítulo, <strong>de</strong>sta vez com o tamanho das matrizes indica<strong>do</strong> na linha superior<br />
da tabela, é dada a seguir [Watkins].<br />
n = 81 n = 361 n = 1521<br />
Descida Mais Acentuada 304 1114 4010<br />
Gradiente Conjuga<strong>do</strong> 29 60 118<br />
No caso <strong>de</strong>sta matriz <strong>de</strong> discretização no quadra<strong>do</strong> unitário temos<br />
κ (A) =<br />
2 (n − 1) π<br />
sen<br />
2n<br />
π<br />
sen2 2n<br />
2 π π∆x<br />
= cot = cot2<br />
2n 2 ≈<br />
4<br />
π 2 ∆x 2
Rodney Josué Biezuner 119<br />
<strong>de</strong> mo<strong>do</strong> que <br />
κ (A) − 1 1 − π∆x/2<br />
≈ ≈ 1 − π∆x,<br />
κ (A) + 1 1 + π∆x/2<br />
o que dá uma velocida<strong>de</strong> <strong>de</strong> convergência para o méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong> duas vezes maior que a<br />
<strong>do</strong> méto<strong>do</strong> SOR com o fator <strong>de</strong> relaxamento ótimo. No entanto, <strong>de</strong>ve-se ter em mente que enquanto que a<br />
taxa <strong>de</strong> covergência que obtivemos para o méto<strong>do</strong> SOR é precisa, a estimativa <strong>de</strong> erro (4.83) para o méto<strong>do</strong><br />
<strong>do</strong> gradiente conjuga<strong>do</strong> é apenas um limitante superior grosseiro (veja [Watkins] para algumas estimativas<br />
melhoradas).
Capítulo 5<br />
Méto<strong>do</strong>s Multigrid<br />
5.1 Suavização <strong>de</strong> Erros<br />
5.2 Opera<strong>do</strong>r Restrição e Opera<strong>do</strong>r Extensão<br />
5.3 Ciclos V<br />
5.4 Multigrid Completo<br />
5.5 Convergência<br />
5.6 Multigrid Adaptativo<br />
5.7 Multigrid Algébrico<br />
120
Capítulo 6<br />
Méto<strong>do</strong> <strong>de</strong> Elementos Finitos<br />
O méto<strong>do</strong> <strong>de</strong> elementos finitos é um outro méto<strong>do</strong> <strong>de</strong> discretização <strong>de</strong> equações diferenciais parciais basea<strong>do</strong><br />
na reformulação variacional da equação. Por exemplo, como já vimos exemplos, encontrar a solução u <strong>de</strong><br />
uma equação diferencial parcial dada é equivalente a resolver um problema <strong>de</strong> minimização<br />
F (u) = min F (v)<br />
v∈V<br />
on<strong>de</strong> V é um conjunto <strong>de</strong> funções admissíveis e F : V −→ R é um funcional. Em geral, a dimensão <strong>de</strong> V é<br />
infinita e portanto as funções em V não po<strong>de</strong>m ser <strong>de</strong>scritas por um número finito <strong>de</strong> parâmetros. Discretizar<br />
este problema através <strong>de</strong> elementos finitos é substituir o espaço <strong>de</strong> dimensão infinita V por um subespaço <strong>de</strong><br />
dimensão finita Vh consistin<strong>do</strong> <strong>de</strong> funções simples (por exemplo, funções polinomiais). O problema discreto<br />
passa a ser encontrar o minimiza<strong>do</strong>r <strong>do</strong> funcional F sobre o subespaço Vh. Espera-se que este seja uma<br />
aproximação <strong>do</strong> minimiza<strong>do</strong>r <strong>de</strong> F sobre o espaço completo V , isto é, uma aproximação para a solução da<br />
equação diferencial parcial.<br />
6.1 O Caso Unidimensional<br />
Nesta seção, <strong>de</strong>senvolveremos méto<strong>do</strong>s <strong>de</strong> elementos finitos para resolver o problema <strong>de</strong> Dirichlet para a<br />
equação <strong>de</strong> Poisson em uma dimensão<br />
<br />
′′ −u = f (x) em [0, 1] ,<br />
(6.1)<br />
u (0) = u (1) = 0,<br />
on<strong>de</strong> f é uma função contínua.<br />
6.1.1 Formulação Variacional<br />
Para obter uma formulação variacional <strong>de</strong>ste problema, <strong>de</strong>fina<br />
e<br />
V = v ∈ C 0 ([0, 1]) : v ′ é contínua por partes em [0, 1] e v (0) = v (1) = 0 <br />
F (v) = 1<br />
2<br />
1<br />
0<br />
(6.2)<br />
|v ′ (x)| 2 1<br />
dx − f (x) v (x) dx =<br />
0<br />
1<br />
2 v′ L2 − 〈f, v〉 L2 . (6.3)<br />
Veremos agora que uma solução para o problema <strong>de</strong> Dirichlet (6.1), que sabemos existir por integração<br />
simples, é solução tanto <strong>de</strong> um problema <strong>de</strong> minimização como <strong>de</strong> um problema variacional.<br />
121
Rodney Josué Biezuner 122<br />
6.1 Proposição. (Problema Variacional) Se u ∈ V é uma solução <strong>do</strong> problema (6.1), então u é a solução<br />
única <strong>do</strong> problema variacional<br />
Prova. Multiplican<strong>do</strong> a equação<br />
〈u ′ , v ′ 〉 L 2 = 〈f, v〉 L 2 para to<strong>do</strong> v ∈ V. (6.4)<br />
−u ′′ (x) = f (x)<br />
por uma função teste v ∈ V e integran<strong>do</strong> sobre o intervalo (0, 1), obtemos<br />
Integran<strong>do</strong> por partes, temos<br />
Portanto,<br />
1<br />
0<br />
−<br />
1<br />
0<br />
u ′′ (x) v (x) dx =<br />
u ′′ (x) v (x) dx = u (x) v (x)| 1<br />
0 −<br />
1<br />
1<br />
u<br />
0<br />
′ (x) v ′ 1<br />
(x) dx =<br />
0<br />
0<br />
f (x) v (x) dx.<br />
1<br />
u<br />
0<br />
′ (x) v ′ 1<br />
(x) dx = − u<br />
0<br />
′ (x) v ′ (x) dx.<br />
f (x) v (x) dx.<br />
A unicida<strong>de</strong> <strong>de</strong> solução para o problema variacional (6.4) é facilmente <strong>de</strong>terminada. Se u1, u2 satisfazem<br />
para to<strong>do</strong> v ∈ V , então<br />
〈u ′ 1, v ′ 〉 L 2 = 〈f, v〉 L 2 ,<br />
〈u ′ 2, v ′ 〉 L 2 = 〈f, v〉 L 2 ,<br />
〈u ′ 1 − u ′ 2, v ′ 〉 L 2 = 0<br />
para to<strong>do</strong> v ∈ V , em particular para v = u1 − u2, <strong>do</strong>n<strong>de</strong><br />
u ′ 1 − u ′ 2 L 2 = 0.<br />
Isso implica u1 − u2 = c para alguma constante c, e as condições <strong>de</strong> fronteira implicam que c = 0. <br />
6.2 Proposição. (Problema <strong>de</strong> Minimização) u ∈ V é uma solução <strong>do</strong> problema variacional (6.4), se e<br />
somente se u satisfaz<br />
F (u) = min F (v) . (6.5)<br />
v∈V<br />
Prova. Suponha que u satisfaz (6.4). Da<strong>do</strong> v ∈ V , escreva w = u − v. Temos<br />
F (v) = F (u + w) = 1<br />
2 u′ + w ′ L2 − 〈f, u + w〉 L2 = 1<br />
2 u′ L2 + 〈u ′ , w ′ 〉 + 1<br />
2 w′ L2 − 〈f, u〉 L2 − 〈f, w〉 L2 = 1<br />
2 u′ L2 − 〈f, u〉 L2 + 〈u ′ , w ′ 〉 − 〈f, w〉 L2 + 1<br />
2 w′ L2 = F (u) + 1<br />
2 w′ L2 F (u) .<br />
Reciprocamente, suponha que u é um minimiza<strong>do</strong>r para o funcional F em V . Consi<strong>de</strong>re a função quadrática<br />
g : R −→ R <strong>de</strong>finida por<br />
g (t) = F (u + tv) .<br />
Temos<br />
g (t) = 1<br />
2 u′ L 2 + t 〈u ′ , v ′ 〉 + t2<br />
2 v′ L 2 − 〈f, u〉 L 2 − t 〈f, v〉 L 2<br />
= t2<br />
2 v′ L 2 + t [ 〈u ′ , v ′ 〉 − 〈f, v〉 L 2] + F (u) .
Rodney Josué Biezuner 123<br />
Como u é um ponto <strong>de</strong> mínimo para F , 0 é um ponto <strong>de</strong> mínimo para g, logo g ′ (0) = 〈u ′ , v ′ 〉 − 〈f, v〉 L 2 = 0.<br />
<br />
O problema variacional é chama<strong>do</strong> méto<strong>do</strong> <strong>de</strong> Galerkin, enquanto que o problema <strong>de</strong> minimização é<br />
chama<strong>do</strong> méto<strong>do</strong> <strong>de</strong> Ritz. Coletivamente, eles são chama<strong>do</strong>s simplesmente <strong>de</strong> méto<strong>do</strong> <strong>de</strong> Ritz-Galerkin.<br />
6.1.2 Elementos Finitos Lineares por Partes<br />
Vamos agora construir um subespaço Vh <strong>de</strong> dimensão finita <strong>de</strong> V consistin<strong>do</strong> das funções lineares por partes<br />
em [0, 1]. Seja<br />
0 = x0 < x1 < x2 < . . . < xn < xn+1 = 1<br />
uma partição <strong>do</strong> intervalo [0, 1] em n+1 subintervalos Ij = [xj−1, xj] <strong>de</strong> comprimento hj = xj −xj−1. Defina<br />
Vh = {v ∈ V : v é linear em Ij para j = 0, . . . , n} . (6.6)<br />
Observe que para <strong>de</strong>screver uma função v ∈ Vh é suficiente conhecer os n valores v (x1) , . . . , v (xn). Introduzimos<br />
uma base B = {ϕ1, . . . , ϕn} ⊂ Vh para Vh <strong>de</strong>claran<strong>do</strong><br />
<br />
1 se i = j,<br />
ϕj (xi) =<br />
(6.7)<br />
0 se i = j,<br />
(note que como estas funções são não-negativas, esta base é evi<strong>de</strong>ntemente não-ortogonal). Assim as funções<br />
v <strong>de</strong> V têm a representação<br />
v = v (x1) ϕ1 + . . . + v (xn) ϕn. (6.8)<br />
As funções ϕ1, . . . , ϕn são chamadas funções base. Note que dim Vh = n. Observe que estas funções têm<br />
suporte compacto, e que o suporte está conti<strong>do</strong> em <strong>do</strong>is subintervalos adjacentes.<br />
Se uh ∈ Vh satisfaz o problema variacional<br />
〈u ′ h, v ′ 〉 L 2 = 〈f, v〉 L 2 para to<strong>do</strong> v ∈ Vh, (6.9)<br />
então em particular ′<br />
u h, ϕ ′ <br />
j L2 Escreven<strong>do</strong><br />
= 〈f, ϕj〉 L2 para to<strong>do</strong> j = 1, . . . , n. (6.10)<br />
ou<br />
uh = uh (x1) ϕ1 + . . . + uh (xn) ϕn<br />
uh = u1ϕ1 + . . . + unϕn, (6.11)<br />
on<strong>de</strong> <strong>de</strong>notamos ui = uh (xi), obtemos um sistema linear nas incógnitas u1, . . . , un:<br />
A matriz <strong>do</strong> sistema<br />
n<br />
i=1<br />
′<br />
ϕ i, ϕ ′ <br />
j L2 ui = 〈f, ϕj〉 L2 para j = 1, . . . , n. (6.12)<br />
A =<br />
⎡<br />
⎢<br />
⎣<br />
〈ϕ ′ 1, ϕ ′ 1〉 L 2 . . . 〈ϕ ′ 1, ϕ ′ n〉 L 2<br />
.<br />
.<br />
.<br />
.<br />
〈ϕ ′ n, ϕ ′ 1〉 L 2 . . . 〈ϕ ′ n, ϕ ′ n〉 L 2<br />
⎤<br />
⎥<br />
⎦ (6.13)<br />
é uma matriz simétrica porque ϕ ′ i , ϕ′ <br />
j L2 = ϕ ′ j , ϕ′ <br />
i L2. Ela é chamada a matriz <strong>de</strong> rigi<strong>de</strong>z e o vetor<br />
⎡ ⎤<br />
b =<br />
⎢<br />
⎣<br />
〈f, ϕ1〉 L 2<br />
.<br />
.<br />
〈f, ϕn〉 L 2<br />
⎥<br />
⎦
Rodney Josué Biezuner 124<br />
é chama<strong>do</strong> o vetor <strong>de</strong> carga, terminologia emprestada das primeiras aplicações <strong>do</strong> méto<strong>do</strong> <strong>de</strong> elementos<br />
finitos em mecânica <strong>de</strong> estruturas; o méto<strong>do</strong> foi inventa<strong>do</strong> por engenheiros para tratar <strong>de</strong> tais problemas na<br />
década <strong>de</strong> 1950. As entradas da matriz <strong>de</strong> rigi<strong>de</strong>z po<strong>de</strong>m ser facilmente calcula<strong>do</strong>s. Primeiro observe que<br />
′<br />
ϕ i, ϕ ′ <br />
j L2 = 0 se |i − j| > 1,<br />
porque, neste caso, on<strong>de</strong> ϕ ′ i não se anula, ϕ′ j se anula, e vice-versa. Em particular, segue que a matriz A<br />
é uma matriz esparsa tridiagonal. A escolha especial <strong>de</strong> Vh e das funções base garantiu a esparsida<strong>de</strong> da<br />
matriz <strong>de</strong> rigi<strong>de</strong>z. Os elementos da diagonal principal da matriz <strong>de</strong> rigi<strong>de</strong>z são da<strong>do</strong>s por<br />
〈ϕ ′ i, ϕ ′ i〉 L 2 =<br />
xi+1<br />
ϕ<br />
xi−1<br />
′ i (x) 2 xi 1<br />
dx =<br />
xi−1 h2 i<br />
dx +<br />
xi+1<br />
enquanto que os elementos das diagonais secundárias são da<strong>do</strong>s por<br />
Resumin<strong>do</strong>,<br />
′<br />
ϕ i, ϕ ′ <br />
i+1 L2 =<br />
xi+1<br />
ϕ ′ i (x) ϕ ′ xi+1<br />
i+1 (x) dx =<br />
xi<br />
′<br />
ϕ i, ϕ ′ <br />
j L2 =<br />
⎧<br />
⎪⎨ ⎪ ⎩<br />
xi<br />
xi<br />
1<br />
h 2 i+1<br />
<br />
− 1<br />
<br />
1<br />
hi+1<br />
1<br />
+<br />
hi<br />
1<br />
se i = j,<br />
hi+1<br />
− 1<br />
se |i − j| = 1,<br />
hi+1<br />
0 se |i − j| > 1.<br />
dx = 1<br />
hi+1<br />
hi<br />
+ 1<br />
,<br />
hi+1<br />
dx = − 1<br />
hi+1<br />
.<br />
(6.14)<br />
A matriz <strong>de</strong> rigi<strong>de</strong>z também é positiva <strong>de</strong>finida, Se ξ = (ξ1, . . . , ξn) ∈ Rn é um vetor não-nulo e v = n<br />
ξiϕi,<br />
temos<br />
〈Aξ, ξ〉 =<br />
n<br />
aijξiξj =<br />
i,j=1<br />
No caso especial em que<br />
n<br />
i,j=1<br />
′<br />
ϕ i, ϕ ′ <br />
j L2 <br />
n<br />
ξiξj = ξiϕ<br />
i=1<br />
′ i,<br />
hi = xi − xi−1 = 1<br />
=: h,<br />
n + 1<br />
n<br />
j=1<br />
ξjϕ ′ j<br />
<br />
L 2<br />
= 〈v ′ , v ′ 〉 L 2 > 0.<br />
a matriz <strong>de</strong> rigi<strong>de</strong>z é exatamente a matriz <strong>de</strong> discretização <strong>de</strong> diferenças finitas centradas:<br />
1<br />
h2 ⎡<br />
2 −1<br />
⎤<br />
⎢<br />
−1<br />
⎢<br />
⎣<br />
2<br />
−1<br />
−1<br />
. ..<br />
. ..<br />
. ..<br />
. ..<br />
−1<br />
−1<br />
2 −1<br />
⎥ .<br />
⎥<br />
⎦<br />
−1 2<br />
6.2 O Caso Bidimensional<br />
Nesta seção, <strong>de</strong>senvolveremos méto<strong>do</strong>s <strong>de</strong> elementos finitos para resolver o problema <strong>de</strong> Dirichlet para a<br />
equação <strong>de</strong> Poisson em um <strong>do</strong>mínio Ω ⊂ R2 :<br />
<br />
−∆u = f em Ω,<br />
(6.15)<br />
u = 0 sobre ∂Ω,<br />
on<strong>de</strong> f é uma função contínua.<br />
i=1
Rodney Josué Biezuner 125<br />
6.2.1 Formulação Variacional<br />
Para obter uma formulação variacional <strong>de</strong>ste problema, <strong>de</strong>fina<br />
e<br />
V = W 1,2<br />
0 (Ω) (6.16)<br />
F (v) = 1<br />
<br />
|∇v (x)|<br />
2 Ω<br />
2 <br />
dx − f (x) v (x) dx =<br />
Ω<br />
1<br />
2 ∇vL2 (Ω) − 〈f, v〉 L2 (Ω) . (6.17)<br />
Como vimos no Capítulo 1, os problemas variacional e <strong>de</strong> minimização são equivalentes e a solução <strong>de</strong> ambos<br />
é a solução <strong>do</strong> problema (6.15):<br />
6.3 Proposição. u ∈ V é uma solução <strong>do</strong> problema (6.15), se e somente se u é a solução única <strong>do</strong> problema<br />
variacional<br />
〈∇u, ∇v〉 L 2 (Ω) = 〈f, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ V, (6.18)<br />
ou, equivalentemente, se e somente se u satisfaz<br />
F (u) = min F (v) . (6.19)<br />
v∈V<br />
6.2.2 Triangulações e Elementos Finitos Lineares por Partes<br />
Vamos agora construir um subespaço Vh <strong>de</strong> dimensão finita <strong>de</strong> V consistin<strong>do</strong> das funções lineares por partes<br />
em Ω. Por simplicida<strong>de</strong>, assumiremos que Ω é um <strong>do</strong>mínio poligonal, significan<strong>do</strong> que ∂Ω é uma curva poligonal<br />
(no caso geral, é necessário antes aproximar ∂Ω por uma curva poligonal). Fazemos uma triangulação<br />
<strong>de</strong> Ω subdividin<strong>do</strong> Ω em um conjunto <strong>de</strong> triângulos que não se sobrepõem, po<strong>de</strong>n<strong>do</strong> se interceptar apenas<br />
ao longo <strong>de</strong> uma aresta em comum ou em um vértice em comum:<br />
Ω =<br />
N<br />
Ti. (6.20)<br />
i=1<br />
Esta triangulação <strong>de</strong> Ω é também chamada uma malha triangular e os vértices da triangulação são freqüentemente<br />
chama<strong>do</strong>s no<strong>do</strong>s. Definimos o parâmetro da malha<br />
h = max<br />
i=1,...,N (diam Ti) . (6.21)<br />
Observe que o diâmetro <strong>de</strong> um triângulo é o comprimento <strong>de</strong> seu maior la<strong>do</strong>. Definimos o subespaço Vh <strong>de</strong><br />
dimensão finita <strong>de</strong> V por<br />
Vh = {v ∈ V : v é contínua em Ω e linear em Ti para i = 1, . . . , N} . (6.22)<br />
Para <strong>de</strong>screver uma função v ∈ Vh, é suficiente conhecer os n valores <strong>de</strong> v nos n no<strong>do</strong>s internos da triangulação<br />
<strong>de</strong> Ω: x1, . . . , xn (nos no<strong>do</strong>s da fronteira, v é nula). Introduzimos uma base B = {ϕ1, . . . , ϕn} ⊂ Vh para Vh<br />
<strong>de</strong>claran<strong>do</strong><br />
<br />
1 se i = j,<br />
ϕj (xi) =<br />
(6.23)<br />
0 se i = j.<br />
As funções v <strong>de</strong> V têm a seguinte representação em termos das funções base ϕ1, . . . , ϕn:<br />
v = v (x1) ϕ1 + . . . + v (xn) ϕn<br />
(6.24)<br />
e dim Vh = n. Note que o suporte <strong>de</strong> ϕj consiste <strong>do</strong>s triângulos que têm xn como um no<strong>do</strong> comum. Tais<br />
funções bases po<strong>de</strong>m ser <strong>de</strong>finidas da seguinte forma. Se Tk é um triângulo da triangulação <strong>de</strong> Ω que tem xi
Rodney Josué Biezuner 126<br />
como vértice, sejam xi = x0 , y0 , a1 k = x1 , y1 e a2 k = x2 , y2 os três vértices <strong>de</strong> Tk; <strong>de</strong>finimos ϕi em Tk<br />
por<br />
<br />
1 x − x<br />
ϕi (x, y) =<br />
y2 − y1 − y − y1 x2 − x1 (x0 − x1 ) (y2 − y1 ) − (y0 − y1 ) (x2 − x1 ) .<br />
<br />
0 0 Observe que ϕi x , y <br />
1 1 = 1 e ϕi x , y <br />
2 2 = ϕi x , y = 0. Se Tk é um triângulo da triangulação <strong>de</strong> Ω que<br />
não tem xi como vértice, então <strong>de</strong>finimos ϕj ≡ 0 em Tk.<br />
Se uh ∈ Vh satisfaz o problema variacional<br />
então em particular<br />
Escreven<strong>do</strong><br />
ou<br />
〈∇uh, ∇v〉 L 2 (Ω) = 〈f, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ Vh, (6.25)<br />
〈∇uh, ∇ϕj〉 L 2 (Ω) = 〈f, ϕj〉 L 2 (Ω) para to<strong>do</strong> j = 1, . . . , n. (6.26)<br />
uh = uh (x1) ϕ1 + . . . + uh (xn) ϕn<br />
uh = u1ϕ1 + . . . + unϕn, (6.27)<br />
on<strong>de</strong> <strong>de</strong>notamos ui = uh (xi), obtemos um sistema linear nas incógnitas u1, . . . , un:<br />
n<br />
i=1<br />
A matriz <strong>de</strong> rigi<strong>de</strong>z (isto é, a matriz <strong>do</strong> sistema)<br />
〈∇ϕi, ∇ϕj〉 L 2 (Ω) ui = 〈f, ϕj〉 L 2 (Ω) para j = 1, . . . , n. (6.28)<br />
A =<br />
⎡<br />
⎢<br />
⎣<br />
〈∇ϕ1, ∇ϕ1〉 L 2 (Ω) . . . 〈∇ϕ1, ∇ϕn〉 L 2 (Ω)<br />
.<br />
.<br />
〈∇ϕn, ∇ϕ1〉 L 2 (Ω) . . . 〈∇ϕn, ∇ϕn〉 L 2 (Ω)<br />
.<br />
.<br />
⎤<br />
⎥<br />
⎦ (6.29)<br />
é uma matriz simétrica, positiva <strong>de</strong>finida, pelos mesmos motivos que a matriz <strong>de</strong> rigi<strong>de</strong>z no caso unidimensional<br />
é. Ela é esparsa porque o suporte da função base ϕj é constituí<strong>do</strong> pelos triângulos que têm o vértice xj<br />
em comum. De fato, 〈∇ϕi, ∇ϕj〉 L 2 (Ω) = 0 se xi e xj não são diretamente liga<strong>do</strong>s pelo la<strong>do</strong> <strong>de</strong> um triângulo.<br />
Para calcular o valor das entradas não-nulas, é útil usar a seguinte fórmula <strong>de</strong> mudança <strong>de</strong> coor<strong>de</strong>nadas: se<br />
T é o triângulo <strong>de</strong> vértices (0, 0), (0, 1) e (1, 0) e T é um triângulo qualquer com vértices x 0 , y 0 , x 1 , y 1 e<br />
x 2 , y 2 , então a aplicação φ : T −→ T <strong>de</strong>finida por<br />
é um difeomorfismo com<br />
T<br />
φ (ξ, η) = x 0 , y 0 + ξ x 1 − x 0 , y 1 − y 0 + η x 2 − x 0 , y 2 − y 0<br />
<strong>de</strong>t dφ (ξ, η) = x 1 − x 0 y 1 − y 0 − x 2 − x 0 y 2 − y 0 ,<br />
<strong>de</strong> mo<strong>do</strong> que se F : T −→ R é uma função contínua, então<br />
<br />
F (x, y) dxdy = x 1 − x 0 y 1 − y 0 − x 2 − x 0 y 2 − y 0 <br />
F (φ (ξ, η)) dxdy.<br />
T
Rodney Josué Biezuner 127<br />
6.2.3 Interpretação Geométrica <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Elementos Finitos<br />
6.4 Lema. (Melhor Aproximação) Se u ∈ V é a solução exata <strong>do</strong> problema <strong>de</strong> Dirichlet (6.15) e uh é a<br />
solução aproximada dada pelo méto<strong>do</strong> <strong>de</strong> elementos finitos, então<br />
u − uh W 1,2<br />
0 (Ω) u − v W 1,2<br />
0 (Ω) (6.30)<br />
para to<strong>do</strong> v ∈ Vh, ou seja, uh é a melhor aproximação para u em Vh na norma W 1,2<br />
0 (Ω) .<br />
Prova. Como<br />
e<br />
segue que<br />
〈∇u, ∇v〉 L 2 (Ω) = 〈f, v〉 L 2 (Ω)<br />
〈∇uh, ∇v〉 L 2 (Ω) = 〈f, v〉 L 2 (Ω)<br />
Pela <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Cauchy, para to<strong>do</strong> v ∈ Vh vale então<br />
<strong>do</strong>n<strong>de</strong><br />
para to<strong>do</strong> v ∈ V<br />
para to<strong>do</strong> v ∈ Vh,<br />
〈∇u − ∇uh, ∇v〉 L 2 (Ω) = 0 para to<strong>do</strong> v ∈ Vh. (6.31)<br />
∇u − ∇uh 2<br />
L 2 (Ω) = 〈∇u − ∇uh, ∇u − ∇uh〉 L 2 (Ω) + 〈∇u − ∇uh, ∇uh − ∇v〉 L 2 (Ω)<br />
= 〈∇u − ∇uh, ∇u − ∇v〉 L 2 (Ω)<br />
∇u − ∇uh L 2 (Ω) ∇u − ∇v L 2 (Ω) ,<br />
∇u − ∇uh L 2 (Ω) ∇u − ∇v L 2 (Ω)<br />
para to<strong>do</strong> v ∈ Vh. Lembran<strong>do</strong> que a norma L 2 <strong>do</strong> gradiente é uma norma em W 1,2<br />
0 (Ω), pela <strong>de</strong>sigualda<strong>de</strong><br />
<strong>de</strong> Poincaré, segue o resulta<strong>do</strong>. <br />
6.3 Formulação Abstrata <strong>do</strong> Méto<strong>do</strong> <strong>do</strong>s Elementos Finitos<br />
Denotaremos por V um espaço <strong>de</strong> Hilbert com produto escalar 〈·, ·〉 V e correspon<strong>de</strong>nte norma induzida · V .<br />
Definição. Uma forma bilinear a : V × V −→ R é limitada (ou contínua) se existe uma constante Λ > 0<br />
tal que<br />
|a (u, v)| Λ u V v V para to<strong>do</strong>s u, v ∈ V. (6.32)<br />
a é coerciva se existe um número α > 0 tal que<br />
|a (v, v)| α v 2<br />
V para to<strong>do</strong> v ∈ V. (6.33)<br />
6.5 Lema. (Teorema <strong>de</strong> Lax-Milgram) Sejam V um espaço <strong>de</strong> Hilbert e a : V × V −→ R uma forma<br />
bilinear limitada e coerciva em V . Então para to<strong>do</strong> funcional linear limita<strong>do</strong> f : V −→ R existe um<br />
único u ∈ V tal que<br />
a (u, v) = f (v) para to<strong>do</strong> v ∈ V.<br />
Se a forma bilinear a que satisfaz as hipóteses <strong>do</strong> Teorema <strong>de</strong> Lax-Milgram for simétrica, isto é,<br />
a (u, v) = a (v, u) para to<strong>do</strong>s u, v ∈ V, (6.34)<br />
então ela <strong>de</strong>fine um produto interno em V , e a conclusão segue diretamente <strong>do</strong> Teorema <strong>de</strong> Representação<br />
<strong>de</strong> Riesz. Seja a uma forma bilinear limitada coerciva e f um funcional linear limita<strong>do</strong> em V . Consi<strong>de</strong>remos<br />
o funcional F : V −→ R <strong>de</strong>fini<strong>do</strong> por<br />
F (v) = 1<br />
a (v, v) − f (v) . (6.35)<br />
2
Rodney Josué Biezuner 128<br />
No caso da equação <strong>de</strong> Poisson com condição <strong>de</strong> Dirichlet homogênea, temos V = W 1,2<br />
0 (Ω) e<br />
<strong>de</strong> mo<strong>do</strong> que a é simétrica.<br />
<br />
a (u, v) =<br />
<br />
f (v) =<br />
Ω<br />
Ω<br />
∇u · ∇v,<br />
6.6 Lema. Sejam V um espaço <strong>de</strong> Hilbert, a : V × V −→ R uma forma bilinear simétrica, limitada e<br />
coerciva em V com<br />
|a (v, v)| α v 2<br />
V para to<strong>do</strong> v ∈ V<br />
fv,<br />
e f : V −→ R um funcional linear limita<strong>do</strong> em V com<br />
|f (v)| C v V<br />
para to<strong>do</strong> v ∈ V.<br />
Então existe uma única solução u ∈ V para o problema variacional<br />
a (u, v) = f (v) para to<strong>do</strong> v ∈ V. (6.36)<br />
se e somente se existe uma única solução u ∈ V para o problema <strong>de</strong> minimização<br />
F (u) = min F (v) .<br />
v∈V<br />
Além disso, existe <strong>de</strong> fato uma única solução u ∈ V para estes problemas e ela satisfaz a seguinte<br />
condição <strong>de</strong> estabilida<strong>de</strong>:<br />
u V C<br />
α .<br />
Prova. A existência <strong>de</strong> solução para o problema variacional segue <strong>do</strong> teorema <strong>de</strong> Lax-Milgram. Suponha<br />
que u satisfaz o problema variacional. Da<strong>do</strong> v ∈ V , escreva w = u − v. Temos<br />
F (v) = F (u + w) = 1<br />
a (u + w, u + w) − f (u + w)<br />
2<br />
= 1<br />
2<br />
1<br />
a (u, u) + a (u, w) + a (w, w) − f (u) − f (w)<br />
2<br />
= 1<br />
2<br />
= F (u) + 1<br />
α<br />
a (w, w) F (u) +<br />
2 2 w2 V<br />
F (u) .<br />
1<br />
a (u, u) + f (w) + a (w, w) − f (u) − f (w)<br />
2<br />
Reciprocamente, suponha que u é um minimiza<strong>do</strong>r para o funcional F em V . Consi<strong>de</strong>re a função quadrática<br />
g : R −→ R <strong>de</strong>finida por<br />
g (t) = F (u + tv) = 1<br />
a (u + tv, u + tv) − f (u + tv)<br />
2<br />
= 1<br />
t2<br />
a (u, u) + ta (u, v) + a (v, v) − f (u) − tf (v)<br />
2 2<br />
= t2<br />
a (v, v) + t [ a (u, v) − f (v)] + F (u) .<br />
2<br />
Como u é um ponto <strong>de</strong> mínimo para F , 0 é um ponto <strong>de</strong> mínimo para g, logo g ′ (0) = a (u, v) − f (v) = 0<br />
para to<strong>do</strong> v ∈ V .
Rodney Josué Biezuner 129<br />
Para provar a estimativa <strong>de</strong> estabilida<strong>de</strong>, escreva<br />
α u 2<br />
V a (u, u) = f (u) C u V .<br />
<br />
Observe que pelo Teorema <strong>de</strong> Lax-Milgram a solução para o problema variacional existe mesmo se a forma<br />
bilinear não é simétrica. No entanto, neste caso não existe um problema <strong>de</strong> minimização associa<strong>do</strong>.<br />
Seja Vh um subespaço <strong>de</strong> V <strong>de</strong> dimensão finita. Seja B = {ϕ1, . . . , ϕn} uma base para Vh e<br />
v = v1ϕ1 + . . . + vnϕn<br />
a representação <strong>de</strong> v nesta base. Se uh ∈ Vh satisfaz o problema variacional<br />
então em particular<br />
Escreven<strong>do</strong><br />
obtemos um sistema linear nas incógnitas u1, . . . , un:<br />
A matriz <strong>do</strong> sistema<br />
é chamada matriz <strong>de</strong> rigi<strong>de</strong>z.<br />
a (uh, v) = f (v) para to<strong>do</strong> v ∈ Vh, (6.37)<br />
a (uh, ϕj) = f (ϕj) para to<strong>do</strong> j = 1, . . . , n. (6.38)<br />
uh = u1ϕ1 + . . . + unϕn, (6.39)<br />
n<br />
a (ϕi, ϕj) ui = f (ϕj) para j = 1, . . . , n. (6.40)<br />
i=1<br />
⎡<br />
⎢<br />
A = ⎣<br />
a (ϕ1, ϕ1)<br />
.<br />
.<br />
. . . a (ϕ1, ϕn)<br />
.<br />
.<br />
⎤<br />
⎥<br />
⎦<br />
a (ϕn, ϕ1) . . . a (ϕn, ϕn)<br />
6.7 Proposição. Se a : V × V −→ R é uma forma bilinear simétrica, limitada e coerciva em V , então a<br />
matriz <strong>de</strong> rigi<strong>de</strong>z é simétrica e positiva <strong>de</strong>finida.<br />
Em particular, existe uma única solução para o problema discretiza<strong>do</strong> (6.37). Além disso, vale a mesma<br />
estimativa <strong>de</strong> estabilida<strong>de</strong> <strong>do</strong> lema anterior.<br />
Prova. Seja A = (aij). Se ξ = (ξ1, . . . , ξn) ∈ Rn é um vetor não-nulo e v = n<br />
ξiϕi, temos<br />
<br />
〈Aξ, ξ〉 =<br />
⎛<br />
n<br />
aijξiξj =<br />
n<br />
n n<br />
a (ϕi, ϕj) ξiξj = a ⎝ ξiϕi,<br />
i,j=1<br />
i,j=1<br />
Vamos agora provar a seguinte estimativa <strong>de</strong> erro:<br />
i=1<br />
j=1<br />
ξjϕj<br />
⎞<br />
i=1<br />
⎠ = a (v, v) α v 2<br />
V<br />
6.8 Proposição. (Estimativa <strong>de</strong> Erro) Se u ∈ V é a solução exata para o problema variacional (6.36) e uh<br />
é a solução <strong>do</strong> problema discretiza<strong>do</strong> (6.37), então<br />
para to<strong>do</strong> v ∈ Vh.<br />
u − uh V Λ<br />
α u − v V<br />
> 0.<br />
(6.41)
Rodney Josué Biezuner 130<br />
Prova. Como<br />
e<br />
segue que<br />
Para to<strong>do</strong> v ∈ Vh vale então<br />
<strong>do</strong>n<strong>de</strong><br />
a (u, v) = f (v) para to<strong>do</strong> v ∈ V<br />
a (uh, v) = f (v) para to<strong>do</strong> v ∈ Vh,<br />
a (u − uh, v) = 0 para to<strong>do</strong> v ∈ Vh. (6.42)<br />
α u − uh 2<br />
V a (u − uh, u − uh) + a (u − uh, uh − v)<br />
= a (u − uh, u − v)<br />
Λ u − uh V u − v V ,<br />
u − uh 2<br />
V<br />
Λ<br />
α ∇u − ∇v L 2 (Ω)<br />
para to<strong>do</strong> v ∈ Vh. <br />
Introduzimos uma norma equivalente em V , induzida pela forma bilinear simétrica a, <strong>de</strong>finin<strong>do</strong><br />
De fato,<br />
Esta norma é chamada norma da energia.<br />
v a = a (v, v) 1/2 . (6.43)<br />
√ α vV v a √ Λ v V .<br />
6.9 Proposição. (Melhor Aproximação) Se u ∈ V é a solução exata para o problema variacional (6.36) e<br />
uh é a solução <strong>do</strong> problema discretiza<strong>do</strong> (6.37), então<br />
u − uh a u − v a<br />
para to<strong>do</strong> v ∈ Vh, ou seja, uh é a melhor aproximação para u em Vh na norma da energia.<br />
Prova. A <strong>de</strong>monstração é análoga à da proposição anterior. <br />
(6.44)
Capítulo 7<br />
Aproximação <strong>de</strong> <strong>Autovalores</strong> <strong>do</strong><br />
<strong>Laplaciano</strong><br />
Neste capítulo <strong>de</strong>sejamos mostrar que tanto os autovalores da matriz <strong>de</strong> discretização, quanto os autovalores<br />
da matriz <strong>de</strong> rigi<strong>de</strong>z, são aproximações para os autovalores <strong>do</strong> laplaciano, o que produz méto<strong>do</strong>s numéricos<br />
para encontrar os autovalores <strong>do</strong> laplaciano em <strong>do</strong>mínios arbitrários.<br />
7.1 Elementos Finitos<br />
Como vimos, o problema <strong>de</strong> autovalor para o laplaciano com condição <strong>de</strong> Dirichlet<br />
−∆u = λu em Ω,<br />
u = 0 sobre ∂Ω,<br />
po<strong>de</strong> ser formula<strong>do</strong> variacionalmente como<br />
on<strong>de</strong><br />
a (u, v) = λ 〈u, v〉 L 2 (Ω)<br />
<br />
a (u, v) = 〈∇u, ∇v〉 L2 (Ω) =<br />
(7.1)<br />
para to<strong>do</strong> v ∈ V = W 1,2<br />
0 (Ω) , (7.2)<br />
Ω<br />
∇u · ∇v.<br />
A discretização correspon<strong>de</strong>nte <strong>de</strong> Ritz-Galerkin (isto é, elementos finitos) <strong>do</strong> problema <strong>de</strong> autovalor é<br />
a (uh, v) = λh 〈uh, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ Vh. (7.3)<br />
Escolhen<strong>do</strong> uma base B = {ϕ1, . . . , ϕn} para Vh, <strong>de</strong> mo<strong>do</strong> que<br />
e<br />
a (uh, v) =<br />
〈uh, v〉 L 2 (Ω) =<br />
uh =<br />
n<br />
uiϕi, v =<br />
i=1<br />
n<br />
uia (ϕi, ϕj) vj =<br />
i,j=1<br />
n<br />
i=1<br />
viϕi<br />
n<br />
ui 〈∇ϕi, ∇ϕj〉 L2 (Ω)<br />
vj = u t hAv,<br />
i,j=1<br />
n<br />
ui 〈ϕi, ϕj〉 L2 (Ω)<br />
vj = u t hMv,<br />
i,j=1<br />
131
Rodney Josué Biezuner 132<br />
on<strong>de</strong><br />
é a matriz <strong>de</strong> rigi<strong>de</strong>z e<br />
A =<br />
M =<br />
<br />
<br />
〈∇ϕi, ∇ϕj〉 L2 (Ω)<br />
1i,jn<br />
<br />
<br />
〈ϕi, ϕj〉 L2 (Ω)<br />
1i,jn<br />
é a chamada matriz <strong>de</strong> massa, este problema toma a seguinte forma matricial:<br />
Auh = λhMuh. (7.4)<br />
Ou seja, é um problema <strong>de</strong> autovalor generaliza<strong>do</strong>. Para transformá-lo em um problema <strong>de</strong> autovalor<br />
“normal”, observe que a matriz <strong>de</strong> massa é simétrica e positiva <strong>de</strong>finida, pois se ξ = (ξ1, . . . , ξn) ∈ Rn é um<br />
vetor não-nulo e v = n<br />
ξiϕi, temos<br />
i=1<br />
〈Mξ, ξ〉 =<br />
Logo, po<strong>de</strong>mos <strong>de</strong>compor<br />
n<br />
<br />
n n<br />
〈ϕi, ϕj〉 L2 (Ω)<br />
ξiξj = ξiϕi,<br />
i,j=1<br />
i=1<br />
M = B t B<br />
j=1<br />
ξjϕj<br />
<br />
L 2 (Ω)<br />
= 〈v, v〉 L 2 (Ω) > 0.<br />
on<strong>de</strong> B também é simétrica positiva <strong>de</strong>finida (por exemplo, a menos <strong>de</strong> similarida<strong>de</strong> ortogonal, B = M 1/2 ).<br />
Definin<strong>do</strong><br />
A = B −t AB −1 ,<br />
uh = Buh,<br />
o problema <strong>de</strong> autovalor generaliza<strong>do</strong> (7.4) é transforma<strong>do</strong> no problema <strong>de</strong> autovalor:<br />
Os autovalores em ambos os problemas são iguais, mas não as autofunções.<br />
7.1.1 Resulta<strong>do</strong>s Preliminares<br />
Auh = λhuh. (7.5)<br />
De agora em diante, além da continuida<strong>de</strong> e coercivida<strong>de</strong> da forma bilinear a (no caso da equação <strong>de</strong> Poisson,<br />
observe que po<strong>de</strong>mos tomar a constante <strong>de</strong> coercivida<strong>de</strong> igual a 1 usan<strong>do</strong> a norma equivalente em W 1,2<br />
0 (Ω))<br />
e <strong>do</strong> fato que W 1,2<br />
0 (Ω) está compactamente imerso em L 2 (Ω), assumiremos que {Vhi}, hi → 0, será sempre<br />
uma seqüência <strong>de</strong> subespaços <strong>de</strong> dimensão finita <strong>de</strong> V que aproximam V no senti<strong>do</strong> que<br />
ou, dito <strong>de</strong> outro mo<strong>do</strong>,<br />
lim dist (u, Vhi ) = 0 para to<strong>do</strong> u ∈ V (7.6)<br />
hi→0<br />
lim<br />
hi→0 inf {u − uhV : uh ∈ Vhi} para to<strong>do</strong> uh ∈ V. (7.7)<br />
Nestas condições, po<strong>de</strong>-se provar que a solução uh dada pelo méto<strong>do</strong> <strong>de</strong> elementos finitos converge na norma<br />
<strong>de</strong> V para a solução exata u (veja [Hackbusch]). Uma condição suficiente para assegurar (7.6) é que<br />
Vh1 ⊂ Vh2 ⊂ . . . ⊂ Vhi ⊂ Vhi+1 ⊂ . . . ⊂ V e<br />
∞<br />
i=1<br />
Vhi é <strong>de</strong>nso em V. (7.8)
Rodney Josué Biezuner 133<br />
Defina a forma bilinear<br />
aλ (u, v) = a (u, v) − λ 〈u, v〉 L 2 (Ω) . (7.9)<br />
Se a é coerciva com constante <strong>de</strong> coercivida<strong>de</strong> α, então aλ também é coerciva para to<strong>do</strong> |λ| < α (veja Lema<br />
7.2 a seguir). Em seguida, consi<strong>de</strong>re os números<br />
ω (λ) = inf<br />
u∈V<br />
sup<br />
v∈V<br />
uV =1 vV =1<br />
ωh (λ) = inf<br />
u∈Vh<br />
uV =1<br />
sup<br />
v∈Vh<br />
v V =1<br />
|aλ (u, v)| , (7.10)<br />
|aλ (u, v)| . (7.11)<br />
A relação entre os números ω (λ) e ωh (λ) e os respectivos problemas <strong>de</strong> autovalores é dada pelos Lemas 7.1<br />
e 7.2 a seguir.<br />
A uma forma bilinear contínua a : V × V −→ R po<strong>de</strong>mos associar <strong>de</strong> forma única um opera<strong>do</strong>r linear<br />
contínuo L : V −→ V ′ que satisfaz<br />
a (u, v) = (Lu) (v) . (7.12)<br />
Além disso, se<br />
para to<strong>do</strong>s u, v ∈ V , então<br />
|a (u, v)| C u V v V<br />
L C.<br />
7.1 Lema. Sejam L e Lh os opera<strong>do</strong>res lineares associa<strong>do</strong>s às formas bilineares a : V × V −→ R e a :<br />
Vh × Vh −→ R, respectivamente.<br />
Se λ não é um autovalor, temos<br />
1<br />
ω (λ) = <br />
<br />
(L − λI) −1 ,<br />
<br />
1<br />
ωh (λ) = <br />
<br />
(Lh − λI) −1 .<br />
<br />
Prova. Se λ não é um autovalor, então o opera<strong>do</strong>r linear L − λI é invertível pela alternativa <strong>de</strong> Fredholm.<br />
Observe que L − λI é precisamente o opera<strong>do</strong>r linear associa<strong>do</strong> à forma bilinear aλ. Denotan<strong>do</strong> A = L − λI,<br />
temos<br />
ω (λ) = inf sup<br />
u∈V v∈V<br />
u=0 v=0<br />
= inf<br />
u ′ ∈V ′<br />
u ′ =0<br />
=<br />
1<br />
A −1 .<br />
|aλ (u, v)|<br />
u V v V<br />
1<br />
A −1 u ′ V<br />
A <strong>de</strong>monstração para ωh (λ) é análoga. <br />
= inf sup<br />
u∈V v∈V<br />
u=0 v=0<br />
|u<br />
sup<br />
v∈V<br />
v=0<br />
′ (v)|<br />
= inf<br />
vV u ′ ∈V ′<br />
u ′ =0<br />
|(Au) (v)|<br />
u V v V<br />
1<br />
= inf<br />
A −1 u ′ V<br />
7.2 Lema. λ é um autovalor <strong>de</strong> (7.2) se e somente se ω (λ) = 0.<br />
λh é um autovalor <strong>de</strong> (7.3) se e somente se ωh (λh) = 0.<br />
u ′ ∈V ′<br />
u ′ =0<br />
sup<br />
v∈V<br />
v=0<br />
u ′ V<br />
<br />
AA −1 u ′ (v) <br />
A −1 u ′ V v V<br />
Prova. Se λ é um autovalor <strong>de</strong> (7.2), então por <strong>de</strong>finição existe u ∈ V tal que aλ (u, v) = 0 para to<strong>do</strong> v ∈ V ,<br />
<strong>do</strong>n<strong>de</strong> ω (λ) = 0. Reciprocamente, se λ não é um autovalor, pelo lema anterior ω (λ) = 0. A <strong>de</strong>monstração<br />
para ωh (λ) é análoga.
Rodney Josué Biezuner 134<br />
7.3 Corolário. ω (λ) e ωh (λ) são contínuas em λ ∈ C.<br />
7.4 Lema. Se a : V × V −→ R é uma forma bilinear coerciva com<br />
|a (v, v)| α v 2<br />
V<br />
para to<strong>do</strong> v ∈ V,<br />
então existe µ ∈ R tal que aµ também é coerciva. Além disso,<br />
Prova. Temos<br />
ω (µ) α − |µ| ,<br />
ωh (µ) α − |µ| .<br />
|aλ (u, u)| |a (u, u)| − |λ| u 2<br />
L2 (Ω) (α − |λ|) u2 V ,<br />
<strong>de</strong> mo<strong>do</strong> que aλ é coerciva sempre que |λ| < α. Para provar as <strong>de</strong>sigualda<strong>de</strong>s, note que se u ∈ V e uV = 1<br />
então<br />
sup |aλ (u, v)| |aλ (u, u)| α − |µ| .<br />
v∈V<br />
vV =1<br />
<br />
7.5 Lema. Seja K ⊂ C compacto. Então existem números C > 0 e ηh > 0 in<strong>de</strong>pen<strong>de</strong>ntes <strong>de</strong> λ ∈ K com<br />
lim<br />
h→0 ηh = 0 tais que<br />
para to<strong>do</strong> λ ∈ K.<br />
ωh (λ) Cω (λ) − ηh, (7.13)<br />
ω (λ) Cωh (λ) − ηh, (7.14)<br />
Prova. Escolha µ ∈ R como no lema anterior. Defina opera<strong>do</strong>res Zλ : V −→ V e Z h λ : V −→ Vh por<br />
z = Zλ (u) é a solução <strong>de</strong> aµ (z, v) = (λ − µ) 〈u, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ V,<br />
zh = Z h λ (u) é a solução <strong>de</strong> aµ (zh, v) = (λ − µ) 〈u, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ Vh.<br />
A existência e unicida<strong>de</strong> <strong>de</strong> z e zh é garantida pelo Teorema <strong>de</strong> Lax-Milgram. Observe que<br />
pois<br />
aλ (u, v) = aµ (u − z, v) , (7.15)<br />
aλ (u, v) = a (u, v) − λ 〈u, v〉 L 2 (Ω)<br />
= a (u, v) − µ 〈u, v〉 L 2 (Ω) − (λ − µ) 〈u, v〉 L 2 (Ω)<br />
= aµ (u, v) − aµ (z, v) .<br />
Usan<strong>do</strong> a continuida<strong>de</strong> <strong>do</strong>s opera<strong>do</strong>res Zλ, Z h λ com relação a λ e a compacida<strong>de</strong> <strong>de</strong> K, seja CZ > 0 uma<br />
constante positiva tal que<br />
Zλ , Z h <br />
<br />
λ CZ para to<strong>do</strong> λ ∈ K. (7.16)<br />
Denote por Cµ uma constante <strong>de</strong> continuida<strong>de</strong> para a forma bilinear aµ, isto é,<br />
|aµ (v, w)| Cµ v V w V<br />
(7.17)<br />
para to<strong>do</strong>s u, v ∈ V , por C0 uma constante uniforme <strong>de</strong> continuida<strong>de</strong> para as formas bilineares aλ, λ ∈ K,<br />
isto é,<br />
|aλ (v, w)| C0 v V w V , (7.18)
Rodney Josué Biezuner 135<br />
para to<strong>do</strong>s u, v ∈ V , para to<strong>do</strong> λ ∈ K, e<br />
β = α − |µ| . (7.19)<br />
Consi<strong>de</strong>remos a primeira <strong>de</strong>sigualda<strong>de</strong>, (7.13). Da <strong>de</strong>finição <strong>de</strong> ω (λ), segue que para to<strong>do</strong> u ∈ V vale<br />
ω (λ) uV sup |aλ (u, v)| = sup |aµ (u − z, v)| Cµ u − zV . (7.20)<br />
v∈V<br />
v∈V<br />
vV =1<br />
vV =1<br />
Usan<strong>do</strong> o Lema 7.4 e esta última <strong>de</strong>sigualda<strong>de</strong> escrevemos então<br />
sup |aλ (u, v)| = sup |aµ (u − zh, v)|<br />
v∈Vh<br />
v∈Vh<br />
vV =1<br />
vV =1<br />
ωh (µ) u − zh V<br />
para to<strong>do</strong> u ∈ V . Escolhen<strong>do</strong> u ∈ Vh tal que u V = 1 e<br />
obtemos<br />
ωh (λ) = inf<br />
u∈Vh<br />
uV =1<br />
sup<br />
v∈Vh<br />
v V =1<br />
β u − zhV β (u − zV − z − zhV )<br />
<br />
ω (λ)<br />
β − Zλ − Z h <br />
<br />
<br />
λ<br />
Cµ<br />
|aλ (u, v)| = min<br />
u∈Vh<br />
ωh (λ) β<br />
Cµ<br />
sup<br />
v∈Vh<br />
uV =1 vV =1<br />
u V<br />
|aλ (u, v)| = sup |aλ (u, v)| ,<br />
v∈Vh<br />
vV =1<br />
ω (λ) − β Zλ − Z h <br />
<br />
λ . (7.21)<br />
Portanto, (7.13) segue se provarmos que<br />
lim<br />
h→0 sup<br />
<br />
Zλ − Z<br />
λ∈K<br />
h <br />
<br />
λ = 0. (7.22)<br />
Da mesma forma, a <strong>de</strong>monstração <strong>de</strong> (7.14) <strong>de</strong>pen<strong>de</strong> <strong>de</strong> (7.22). De fato, pela <strong>de</strong>finição <strong>de</strong> ωh (λ) segue<br />
que para to<strong>do</strong> uh ∈ Vh temos<br />
ωh (λ) uhV sup |aλ (uh, v)| = sup |aµ (uh − zh, v)| Cµ uh − zhV . (7.23)<br />
v∈Vh<br />
v∈Vh<br />
vV =1<br />
vV =1<br />
Usan<strong>do</strong> o Lema 7.4 e esta última <strong>de</strong>sigualda<strong>de</strong> escrevemos<br />
sup |aλ (uh, v)| = sup |aµ (uh − z, v)|<br />
v∈V<br />
v∈V<br />
vV =1<br />
vV =1<br />
para to<strong>do</strong> uh ∈ Vh. Escolha u ∈ V tal que u V = 1 e<br />
ω (λ) = inf<br />
u∈V<br />
sup<br />
v∈V<br />
uV =1 vV =1<br />
ω (µ) uh − z V<br />
β uh − zV β (uh − zhV − z − zhV )<br />
<br />
ωh (λ)<br />
β − Zλ − Z h <br />
<br />
<br />
λ<br />
|aλ (u, v)| = min<br />
u∈V<br />
Cµ<br />
sup<br />
v∈V<br />
uV =1 vV =1<br />
uh V<br />
|aλ (u, v)| = sup |aλ (u, v)| .<br />
v∈V<br />
vV =1
Rodney Josué Biezuner 136<br />
Como<br />
segue que<br />
<strong>do</strong>n<strong>de</strong><br />
sup |aλ (u − uh, v)| C0 u − uhV ,<br />
v∈V<br />
vV =1<br />
ω (λ) + C0 u − uhV sup |aλ (u, v)| + sup |aλ (u − uh, v)|<br />
v∈V<br />
v∈V<br />
vV =1<br />
vV =1<br />
Cµ<br />
sup<br />
v∈V<br />
v V =1<br />
|aλ (uh, v)|<br />
<br />
ωh (λ)<br />
β − Zλ − Z h <br />
<br />
<br />
λ uhV ,<br />
Cµ<br />
<br />
β<br />
ω (λ) ωh (λ) − β Zλ − Z h <br />
<br />
<br />
λ uhV − C0 u − uhV .<br />
Como para cada h po<strong>de</strong>mos escolher uh tal que u − uhV → 0 quan<strong>do</strong> h → 0, por (7.7), (7.14) será prova<strong>do</strong><br />
se (7.22) for verda<strong>de</strong>iro.<br />
Para terminar a <strong>de</strong>monstração <strong>do</strong> lema, provaremos agora (7.22). Suponha por absur<strong>do</strong> que existe ε > 0,<br />
{λi} ⊂ K e hi → 0 tal que <br />
Zλi − Z hi<br />
<br />
<br />
ε.<br />
Então existe uma seqüência {ui} ⊂ V com uiV = 1 tal que<br />
<br />
<br />
Zλi (ui) − Z hi<br />
λi (ui)<br />
<br />
<br />
Pela compacida<strong>de</strong> <strong>de</strong> K e da imersão V −→ L 2 (Ω), po<strong>de</strong>mos assumir a menos <strong>de</strong> uma subseqüência que<br />
λi → λ0,<br />
λi<br />
V<br />
ui → u0 em V ′ .<br />
ε<br />
2 .<br />
Segue <strong>do</strong> fato que a solução dada por elementos finitos aproxima a solução exata que<br />
<br />
<br />
Zλ0 (u0) − Z hi<br />
λ0 (u0)<br />
<br />
<br />
→ 0.<br />
Logo,<br />
uma contradição. <br />
<br />
<br />
Zλi (ui) − Z hi<br />
λi (ui)<br />
<br />
<br />
V<br />
V<br />
<br />
<br />
Zλi (ui) − Zλ0 (ui)V + Z hi<br />
λ0 (ui) − Z hi<br />
λi (ui)<br />
<br />
<br />
<br />
V<br />
<br />
<br />
+ Zλ0 (ui − u0)V + Z hi<br />
λ0 (u0<br />
<br />
<br />
− ui) <br />
V<br />
<br />
<br />
+ Zλ0 (u0) − Z hi<br />
λ0 (u0)<br />
<br />
<br />
<br />
V <br />
<br />
2C |λi − λ0| + 2Cz u0 − uiV ′ + Zλ0 (u0) − Z hi<br />
λ0 (u0)<br />
<br />
<br />
→ 0<br />
V
Rodney Josué Biezuner 137<br />
7.1.2 Convergência <strong>do</strong>s <strong>Autovalores</strong> Discretos para os <strong>Autovalores</strong> Contínuos<br />
A convergência <strong>do</strong>s autovalores discretos para os autovalores exatos po<strong>de</strong> ser agora <strong>de</strong>monstrada:<br />
7.6 Teorema. Sejam λhi autovalores discretos <strong>de</strong> (7.3) tais que<br />
Então λ0 é um autovalor <strong>de</strong> (7.2).<br />
lim λhi = λ0. (7.24)<br />
Prova. Suponha por absur<strong>do</strong> que λ0 não é um autovalor <strong>de</strong> (7.2). Então, pelo Lema 7.2,<br />
ω (λ0) = η0 > 0.<br />
Como ω (λ) é uma função contínua, existe ε0 > 0 tal que<br />
ω (λ) η0<br />
2<br />
para to<strong>do</strong> λ ∈ Dε0 (λ0) = {z ∈ C : |z − λ0| ε0}. Escolha K = Dε0 (λ0) no Lema 7.5 e sejam ηh e C os<br />
números da<strong>do</strong>s naquele lema. Como lim ηhi = 0, seja h0 > 0 tal que<br />
ηh C η0<br />
4<br />
para to<strong>do</strong> h h0. Segue <strong>do</strong>s Lemas 7.2 e 7.5 que para to<strong>do</strong> λhi ∈ Dε0 (λ0) com hi h0 nós temos<br />
uma contradição. <br />
> 0<br />
0 = ωhi (λhi) Cω (λhi) − ηhi C η0<br />
2<br />
− C η0<br />
4<br />
= C η0<br />
4<br />
7.7 Lema. As funções ω (λ) e ωh (λ) não possuem um mínimo positivo próprio no interior <strong>de</strong> um compacto<br />
K ⊂ C.<br />
Prova. Seja L o opera<strong>do</strong>r associa<strong>do</strong> à forma bilinear a. Sejam µ um ponto interior <strong>de</strong> K com ω (µ) > 0<br />
e ε > 0 suficientemente pequeno para que Dε (µ) ⊂ K e ω (λ) > 0 para to<strong>do</strong> λ ∈ Dε (µ). Pelo Lema 7.2,<br />
(L − λI) −1 está <strong>de</strong>finida em Dε (µ), logo é holomórfica aí. Pela fórmula integral <strong>de</strong> Cauchy,<br />
(L − λI) −1 = 1<br />
<br />
2πi ∂Dε(µ)<br />
para to<strong>do</strong> λ ∈ Dε (µ). Daí,<br />
1<br />
ω (λ) =<br />
<br />
<br />
(L − λI) −1 max<br />
<strong>de</strong> mo<strong>do</strong> que<br />
z∈∂Dε(µ)<br />
<br />
<br />
ω (λ) min ω (z)<br />
z∈∂Dε(µ)<br />
(L − zI) −1<br />
dz<br />
z − λ<br />
(L − zI) −1 = max<br />
z∈∂Dε(µ)<br />
> 0,<br />
1<br />
ω (z) ,<br />
para to<strong>do</strong> λ ∈ Dε (µ). Portanto, ω (λ) não po<strong>de</strong> assumir um mínimo próprio em Dε (µ).<br />
A <strong>de</strong>monstração para ωh (λ) é análoga. <br />
A recíproca <strong>do</strong> Teorema 7.6, isto é, que to<strong>do</strong>s os autovalores reais po<strong>de</strong>m ser aproxima<strong>do</strong>s por uma<br />
seqüência <strong>de</strong> autovalores discretos, é dada no próximo resulta<strong>do</strong>:<br />
7.8 Teorema. Seja λ0 um autovalor <strong>de</strong> (7.2). Então existem autovalores discretos λh <strong>de</strong> (7.3) tais que<br />
lim<br />
h→0 λh = λ0. (7.25)
Rodney Josué Biezuner 138<br />
Prova. Os autovalores <strong>do</strong> laplaciano são isola<strong>do</strong>s, logo pelo Lema 7.2<br />
ω (λ) > 0 para to<strong>do</strong> 0 < |λ − λ0| < ε<br />
se ε > 0 é suficientemente pequeno. Como ω (λ) é contínua e ∂Dε (λ0) é compacto, temos<br />
ωε = min ω (λ) > 0.<br />
∂Dε(λ0)<br />
Segue <strong>do</strong> Lema 7.5 que para to<strong>do</strong> λ ∈ ∂Dε (λ0) e para to<strong>do</strong> h suficientemente pequeno temos<br />
ηh < C<br />
1 + 1<br />
ωε,<br />
C<br />
<strong>do</strong>n<strong>de</strong><br />
ωh (λ) Cω (λ) − ηh Cωε − ηh > ηh<br />
C ωh<br />
ω (λ0)<br />
(λ0) −<br />
C = ωh (λ0) .<br />
Em particular, ωh (λ) tem um mínimo próprio em Dε (λ0). Pelo lema anterior, isso implica que existe<br />
λh ∈ Dε (λ0) tal que ωh (λh) = 0, isto é, λh é um autovalor discreto. <br />
7.1.3 Convergência das Autofunções<br />
A convergência das autofunções segue <strong>do</strong> próximo teorema:<br />
7.9 Teorema. Sejam uh autofunções <strong>de</strong> (7.3) associadas respectivamentes aos autovalores discretos λh e<br />
satisfazen<strong>do</strong> uhV = 1 e lim λh = λ0. Então existe uma subseqüência uhi que converge em V para<br />
h→0<br />
uma autofunção u0 associada ao autovalor λ0 <strong>de</strong> (7.2) com u0V = 1.<br />
Prova. Usan<strong>do</strong> o fato que V = W 1,2<br />
0 (Ω) está compactamente imerso em L 2 (Ω), obtemos uma subseqüência<br />
uhi convergente para u0 ∈ L 2 (Ω). Como no Lema 7.4, <strong>de</strong>finimos<br />
z0 = Zλ0 (u0) é a solução <strong>de</strong> aµ (z0, v) = (λ0 − µ) 〈u0, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ V,<br />
zhi = Z hi<br />
λ0 (u0) é a solução <strong>de</strong> aµ (zhi, v) = (λ0 − µ) 〈u0, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ Vhi.<br />
Da<strong>do</strong> ε > 0, existe h 1 ε > 0 tal que<br />
se hi < h 1 ε. A função uhi é uma solução <strong>de</strong><br />
ou seja, uhi = Z hi<br />
λi (uhi). Segue que<br />
z0 − zhi V < ε<br />
2<br />
aµ (uhi, v) = (λhi − µ) 〈uhi, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ Vhi,<br />
fi (v) := aµ (zhi − uhi, v)<br />
= (λ0 − µ) 〈u0, v〉 L 2 (Ω) − (λhi − µ) 〈uhi, v〉 L 2 (Ω)<br />
= (λ0 − µ) 〈u0 − uhi, v〉 L 2 (Ω) − (λhi − λ0) 〈uhi, v〉 L 2 (Ω)<br />
para to<strong>do</strong> v ∈ Vhi. Mas fi → 0 em V ′ porque λhi → λ0 e uhi → u0 em L 2 (Ω), logo existe h 2 ε > 0 tal que<br />
fi V ′ ε<br />
2α<br />
(7.26)
Rodney Josué Biezuner 139<br />
e<br />
para hi < h 2 ε. Portanto,<br />
se hi < min h1 ε, h2 <br />
ε , o que implica<br />
Em particular,<br />
ou seja,<br />
e, portanto,<br />
<br />
zhi − uhi V < ε<br />
2<br />
z0 − uhi V < ε<br />
uhi → z0 em V,<br />
z0 = u0,<br />
aµ (u0, v) = (λ0 − µ) 〈u0, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ V,<br />
a (u0, v) = λ0 〈u0, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ V.<br />
(7.27)
Capítulo 8<br />
Méto<strong>do</strong>s Numéricos para a Obtenção<br />
<strong>de</strong> <strong>Autovalores</strong> <strong>de</strong> Matrizes<br />
Os autovalores <strong>de</strong> uma matriz A são as raízes <strong>do</strong> polinômio característico <strong>de</strong> A<br />
p (λ) = <strong>de</strong>t (λI − A) = λ n + an−1λ n−1 + . . . + a1λ + a0.<br />
Encontrar as raízes <strong>de</strong> um polinômio não é uma tarefa simples e nenhum <strong>do</strong>s algoritmos usa<strong>do</strong>s para encontrar<br />
os autovalores <strong>de</strong> uma matriz é basea<strong>do</strong> nesta estratégia (além disso, obter o polinômio característico <strong>de</strong><br />
uma matriz gran<strong>de</strong> também po<strong>de</strong> ser uma tarefa que consome muito tempo e recursos computacionais). Na<br />
verda<strong>de</strong>, muitos algoritmos para encontrar raízes <strong>de</strong> polinômios são basea<strong>do</strong>s em algoritmos para encontrar<br />
autovalores <strong>de</strong> matrizes. Eles são basea<strong>do</strong>s no fato que, da<strong>do</strong> um polinômio mônico p qualquer, ele é o<br />
polinômio característico da matriz companheira <strong>de</strong> p:<br />
⎡<br />
⎤<br />
−an−1 −an−2 . . . −a1 −a0<br />
⎢<br />
1 0 . . . 0 0 ⎥<br />
⎢<br />
A = ⎢<br />
.<br />
⎢ 0 1<br />
..<br />
⎥<br />
0 0 ⎥ .<br />
⎢<br />
⎣ .<br />
. . ⎥<br />
.<br />
..<br />
0 0 ⎦<br />
0 0 . . . 1 0<br />
Assim, encontrar as raízes <strong>do</strong> polinômio p é equivalente a encontrar os autovalores da matriz companheira<br />
<strong>de</strong> p. Por exemplo, o coman<strong>do</strong> roots em MATLAB encontra as raízes <strong>de</strong> um polinômio transforman<strong>do</strong>-o<br />
primeiro em um polinômio mônico e em seguida utilizan<strong>do</strong> o eficiente algoritmo QR, discuti<strong>do</strong> neste capítulo,<br />
para encontrar os autovalores da matriz companheira.<br />
Diferente <strong>do</strong> caso da resolução <strong>de</strong> sistemas lineares, em que existem méto<strong>do</strong>s diretos eficientes para<br />
matrizes gran<strong>de</strong>s, esparsas ou não, não existem correspon<strong>de</strong>ntes méto<strong>do</strong>s diretos para obter autovalores <strong>de</strong><br />
uma matriz (um méto<strong>do</strong> é chama<strong>do</strong> direto se a solução é obtida após um número finito <strong>de</strong> passos). Isso é<br />
<strong>de</strong>vi<strong>do</strong> ao teorema <strong>de</strong> Abel que diz que não existe uma fórmula geral para obter as raízes <strong>de</strong> um polinômio<br />
<strong>de</strong> grau maior que 4; se existisse um procedimento finito para obter os autovalores <strong>de</strong> uma matriz, usan<strong>do</strong> a<br />
equivalência entre as raízes <strong>de</strong> um polinômio e os autovalores <strong>de</strong> sua matriz companheira, obteríamos uma<br />
fórmula geral para obter as raízes <strong>de</strong> um polinômio, por mais complicada que fosse. Portanto, to<strong>do</strong>s os<br />
algoritmos para obter autovalores são iterativos.<br />
8.1 Méto<strong>do</strong> das Potências<br />
O méto<strong>do</strong> das potências é o algoritmo mais simples, mas ele po<strong>de</strong> apenas encontrar o maior autovalor <strong>de</strong> uma<br />
matriz A. Para simplificar a exposição, suponha que A é uma matriz diagonalizável cujo maior autovalor é<br />
140
Rodney Josué Biezuner 141<br />
um autovalor simples. Or<strong>de</strong>ne os autovalores <strong>de</strong> A na forma<br />
|λ1| > |λ2| . . . |λn|<br />
e seja {v1, . . . , vn} uma base correspon<strong>de</strong>nte <strong>de</strong> autovetores. λ1 é chama<strong>do</strong> o autovalor <strong>do</strong>minante <strong>de</strong> A e<br />
v1 um autovetor <strong>do</strong>minante. Quan<strong>do</strong> A tem um autovalor <strong>do</strong>minante, este e um correspon<strong>de</strong>nte autovetor<br />
<strong>do</strong>minante po<strong>de</strong>m ser encontra<strong>do</strong>s através <strong>do</strong> méto<strong>do</strong> das potências, que consiste essencialmente em tomar<br />
um vetor q arbitrário e consi<strong>de</strong>rar as potências<br />
ou seja,<br />
q, Aq, A 2 q, . . . , A k q, . . .<br />
A k q = A A k−1 q .<br />
Para quase todas as escolhas <strong>de</strong> q esta seqüência converge em um certo senti<strong>do</strong> para um autovetor <strong>do</strong>minante<br />
<strong>de</strong> A. De fato, para a maioria das escolhas <strong>de</strong> q <strong>de</strong>vemos ter<br />
q =<br />
com a1 = 0; raramente uma escolha aleatória <strong>de</strong> q produzirá um vetor no subespaço 〈v2, . . . , vn〉. Temos<br />
<strong>do</strong>n<strong>de</strong><br />
A k q = λ k 1<br />
A k q =<br />
<br />
a1v1 +<br />
n<br />
i=1<br />
n<br />
i=1<br />
aivi<br />
aiλ k i vi,<br />
Embora A k q → ∞ se λ1 > 1 e A k q → 0 se λ1 < 1, como<br />
k λi<br />
para to<strong>do</strong> i = 2, . . . , n, segue que a seqüência reescalada<br />
λ1<br />
qk = Ak q<br />
λ k 1<br />
n<br />
k λi<br />
ai vi<br />
λ1<br />
i=2<br />
→ 0,<br />
→ a1v1<br />
converge para um autovetor <strong>do</strong>minante. No entanto, como o autovalor λ1 não é conheci<strong>do</strong> a priori, é<br />
impossível trabalhar com esta seqüência. Em geral, escolhemos um fator <strong>de</strong> escala σk e <strong>de</strong>finimos<br />
qk+1 = 1<br />
σk+1<br />
<br />
.<br />
Aqk. (8.1)<br />
O fator <strong>de</strong> escala σk é comumente escolhi<strong>do</strong> como sen<strong>do</strong> o valor da coor<strong>de</strong>nada <strong>de</strong> Aqk que tem o maior<br />
valor absoluto. Deste mo<strong>do</strong>, o maior componente <strong>de</strong> qk é igual a 1 e a seqüência converge para um autovetor<br />
<strong>do</strong>minante cujo maior componente é 1.<br />
8.1.1 Iteração Inversa e Iteração com Deslocamento<br />
O méto<strong>do</strong> das potência permite apenas encontrar o autovalor <strong>do</strong>minante. Para obter o menor autovalor <strong>de</strong><br />
A, po<strong>de</strong>mos aplicar o méto<strong>do</strong> das potências à matriz A −1 , pois se λ é o menor autovalor <strong>de</strong> A, 1/λ será
Rodney Josué Biezuner 142<br />
o maior autovalor <strong>de</strong> A −1 . Este méto<strong>do</strong> é chama<strong>do</strong> méto<strong>do</strong> das potências inverso ou iteração inversa (em<br />
contraste, o méto<strong>do</strong> das potências é às vezes chama<strong>do</strong> iteração direta).<br />
Para encontrar os <strong>de</strong>mais autovalores da matriz A, observe que se A tem autovalores λ1, . . . , λn, então<br />
A − σI tem autovalores λ1 − σ, . . . , λn − σ. O escalar σ é chama<strong>do</strong> um <strong>de</strong>slocamento. Po<strong>de</strong>mos então aplicar<br />
o méto<strong>do</strong> das potências à matriz (A − σI) −1 , pois o maior autovalor <strong>de</strong>sta matriz é 1/ (λ − σ), on<strong>de</strong> λ é o<br />
autovalor <strong>de</strong> A mais próximo <strong>de</strong> σ. De fato, se<br />
(A − σI) −1 v = µv,<br />
então v = µ (A − σI) v, <strong>do</strong>n<strong>de</strong><br />
<br />
Av = σ + 1<br />
<br />
v.<br />
µ<br />
Assim, po<strong>de</strong>mos escolher quais autovalores <strong>de</strong> A encontrar através da escolha <strong>do</strong> <strong>de</strong>slocamento σ. Este<br />
méto<strong>do</strong> é chama<strong>do</strong> iteração com <strong>de</strong>slocamento.<br />
estimativas para os autovalores <strong>de</strong> A.<br />
Ele é particularmente eficiente quan<strong>do</strong> possuímos boas<br />
É muito importante notar que tanto na iteração inversa, quanto na iteração com <strong>de</strong>slocamento, em<br />
nenhum momento é necessário calcular a inversa A−1 recursos. Embora as iteradas satisfazem<br />
explicitamente, o que consumiria muito tempo e<br />
qk+1 = 1<br />
(A − σI) −1 qk,<br />
basta resolver o sistema<br />
e então tomar<br />
8.2 Iteração <strong>de</strong> Subespaços<br />
σk+1<br />
(A − σI) qk+1 = qk<br />
qk+1 = 1<br />
qk+1.<br />
σk+1<br />
O méto<strong>do</strong> <strong>de</strong> potências po<strong>de</strong> ser visto como uma iteração <strong>de</strong> subespaços<br />
S0 = 〈q〉 ,<br />
S1 = AS,<br />
S2 = A 2 S,<br />
.<br />
.<br />
Sk = A k S,<br />
.<br />
.<br />
que convergem para o subespaço T = 〈v1〉 associa<strong>do</strong> ao autovalor <strong>do</strong>minante <strong>de</strong> A. Esta idéia po<strong>de</strong> ser<br />
tornada mais precisa quan<strong>do</strong> se <strong>de</strong>fine a distância entre <strong>do</strong>is subespaços vetoriais.<br />
Definição. Da<strong>do</strong>s <strong>do</strong>is subespaços vetoriais E, F <strong>de</strong> um espaço vetorial V <strong>de</strong> dimensão finita com produto<br />
interno, cujas dimensões m = dim E, p = dim F satisfazem<br />
m p 1,<br />
os ângulos principais θ1, . . . , θp ∈ [0, π/2] entre E e F são <strong>de</strong>fini<strong>do</strong>s recursivamente por<br />
cos θj = max<br />
u∈E<br />
u=1<br />
〈u,ui〉=0<br />
para i=1,...,j−1<br />
max<br />
v∈F<br />
v=1<br />
〈v,vi〉=0<br />
para i=1,...,j−1<br />
〈u, v〉 = 〈uj, vj〉 .<br />
Os vetores {u1, . . . , up} e {v1, . . . , vp} são chama<strong>do</strong>s os vetores principais entre os subespaços E e F .
Rodney Josué Biezuner 143<br />
Em outras palavras, escolha vetores u1, v1 tais que o máximo<br />
é realiza<strong>do</strong> nestes vetores, e <strong>de</strong>fina<br />
max<br />
u∈E<br />
max<br />
v∈F<br />
u=1 v=1<br />
〈u, v〉<br />
cos θ1 = 〈u1, v1〉 .<br />
Por exemplo, se dim E = 2 e dim F = 1, então θ1 é o maior ângulo que a reta F faz com retas <strong>de</strong> E; se<br />
dim E = dim F = 2, então θ1 é o maior ângulo entre uma reta <strong>de</strong> E e uma reta <strong>de</strong> F . Em seguida, escolha<br />
vetores u2, v2 tais que o máximo<br />
é realiza<strong>do</strong> nestes vetores, e <strong>de</strong>fina<br />
max<br />
u∈E<br />
u=1<br />
〈u,u1〉=0<br />
max<br />
v∈F<br />
v=1<br />
〈v,v1〉=0<br />
〈u, v〉<br />
cos θ2 = 〈u2, v2〉 .<br />
Por exemplo, se dim E = dim F = 2, então θ2 = 0 porque u2 = v2. E assim por diante <strong>de</strong>finimos os ângulos<br />
principais restantes θ3, . . . , θp. Ângulos principais e vetores principais aparecem em aplicações <strong>de</strong> estatística<br />
e permitem a <strong>de</strong>finição <strong>de</strong> uma noção <strong>de</strong> distância entre subespaços vetoriais <strong>de</strong> mesma dimensão.<br />
Definição. Da<strong>do</strong>s <strong>do</strong>is subespaços vetoriais <strong>de</strong> mesma dimensão S1, S2 ⊂ V a distância dist (S1, S2) entre<br />
S1 e S2 é o seno <strong>do</strong> maior ângulo principal entre eles.<br />
Dada uma seqüência <strong>de</strong> subespaços {Sk} ⊂ V e um subespaço T ⊂ V , to<strong>do</strong>s <strong>de</strong> mesma dimensão,<br />
dizemos que Sk converge para T , <strong>de</strong>nota<strong>do</strong> por<br />
se<br />
Sk → T<br />
dist (Sk, T ) → 0.<br />
8.1 Teorema. Seja A ∈ Mn (F) uma matriz diagonalizável com autovalores λ1, . . . , λn ∈ F satisfazen<strong>do</strong><br />
|λ1| |λ2| . . . |λn|<br />
Seja B = {v1, . . . , vn} ⊂ F n uma base <strong>de</strong> autovetores correspon<strong>de</strong>nte. Suponha que |λm| > |λm+1| para<br />
algum m. Sejam<br />
Tm = 〈v1, . . . , vm〉 ,<br />
Um = 〈vm+1, . . . , vn〉 .<br />
Seja S um subespaço m-dimensional qualquer <strong>de</strong> Fn tal que S ∩Um = {0}. Então existe uma constante<br />
C > 0 tal que<br />
dist A k k<br />
λm+1<br />
<br />
S, Tm C <br />
para to<strong>do</strong> k.<br />
Em particular, A k S → Tm.<br />
Prova. Embora não <strong>de</strong>monstraremos o Teorema 8.1 rigorosamente, daremos uma idéia da <strong>de</strong>monstração.<br />
Seja q ∈ S um vetor arbitrário. Então q se escreve <strong>de</strong> maneira única na forma<br />
q =<br />
m<br />
aivi +<br />
i=1<br />
n<br />
i=m+1<br />
λm<br />
aivi =: q1 + q2
Rodney Josué Biezuner 144<br />
com q1 ∈ Tm e q2 ∈ Um. Como q /∈ Um, necessariamente q1 = 0, isto é, ai = 0 para algum índice i = 1, . . . , m.<br />
Em primeiro lugar, note que os subespaços A k S são to<strong>do</strong>s m-dimensionais. De fato, |λm| > |λm+1| implica<br />
que nenhum <strong>do</strong>s autovalores λ1, . . . , λm é o autovalor nulo, logo ker A ⊂ Um. Como S ∩ Um = {0}, segue<br />
que A é injetiva sobre S logo dim S = dim (AS). Mais geralmente, como A k Tm = Tm, temos ker A k ⊂ Um<br />
para to<strong>do</strong> k. Além disso, A k S ∩ Um = {0}, pois se q = q1 + q2 ∈ S é um vetor arbitrário com q1 ∈ Tm e<br />
q2 ∈ Um, segue que a componente A k q1 <strong>de</strong> A k q em Tm é não-nula para to<strong>do</strong> k, pois A k q1 = m<br />
i=1 aiλ k vi e<br />
ai = 0 para algum índice i = 1, . . . , m. Portanto, dim (AS) = dim (AS) = . . . = dim A k S .<br />
Temos<br />
A k q<br />
λ k m<br />
=<br />
m−1 <br />
k n<br />
<br />
λi<br />
λi<br />
ai vi + amvm + ai<br />
λm<br />
λm<br />
i=1<br />
i=m+1<br />
k<br />
vi.<br />
Os coeficientes da componente em Tm crescem, ou pelo menos não <strong>de</strong>crescem, enquanto que os coeficientes<br />
da componente em Um ten<strong>de</strong>m a zero com taxa igual a ou melhor que λm+1/λm. Portanto, toda seqüência<br />
k A q converge para um vetor em Tm com a taxa <strong>de</strong> convergência dada no enuncia<strong>do</strong>. O limite AkS não<br />
po<strong>de</strong> ser um subespaço próprio <strong>de</strong> Tm porque ele tem dimensão m. <br />
Tm é chama<strong>do</strong> o subespaço invariante <strong>do</strong>minante <strong>de</strong> A <strong>de</strong> dimensão m.<br />
Para fazer uma iteração <strong>de</strong> subespaços na prática, é necessário escolher uma base para o subespaço a<br />
ser itera<strong>do</strong>, iteran<strong>do</strong> to<strong>do</strong>s os vetores <strong>de</strong>sta base simultaneamente. Assim, se B0 = q0 1, . . . , q0 <br />
m é uma base<br />
para S, Bk = Akq0 1, . . . , Akq0 <br />
k<br />
m é uma base para A S. Por outro la<strong>do</strong>, já vimos que trabalhar com os<br />
vetores Akq0 j po<strong>de</strong> ser problemático, pois po<strong>de</strong> ocorrer Akq0 <br />
<br />
j → ∞ ou Akq0 <br />
<br />
j → 0; seria necessário fazer<br />
um reescalamento a cada iteração. Pior que isso, as seqüências <strong>de</strong> vetores Akq0 <br />
k 0<br />
1 , . . . , A qm convergem<br />
cada uma para o autovetor <strong>do</strong>minante v1, como vimos na seção anterior, logo os vetores A k q 0 1, . . . , A k q 0 m<br />
apontam aproximadamente para a mesma direção v1 para m gran<strong>de</strong>, logo Bk = Akq0 1, . . . , Akq0 <br />
m não é<br />
uma boa base para AkS (dizemos que Bk é uma base mal-condicionada): pequenas perturbações em um <strong>do</strong>s<br />
vetores-base po<strong>de</strong>m fazer uma gran<strong>de</strong> diferença no espaço.<br />
Deve-se portanto substituir a base obtida em cada iteração por uma base bem-condicionada. A maneira<br />
mais confiável <strong>de</strong> fazer isso é ortonormalizar a base. Assim, começa-se com uma base ortonormal B0 =<br />
0 q1, . . . , q0 <br />
m para S e obtém-se a base B1<br />
= Aq0 1, . . . , Aq0 <br />
m para AS. Através <strong>de</strong> um processo <strong>de</strong><br />
ortonormalização, como o algoritmo <strong>de</strong> Gram-Schmidt, a partir <strong>de</strong> B1 obtém-se uma base ortonormal<br />
B1 = q1 1, . . . , q1 <br />
m para AS. Em geral, dada uma base ortonormal Bk = qk 1 , . . . , qk <br />
k<br />
m para A S, obtemos<br />
uma base ortonormal Bk+1 = q k+1<br />
1 , . . . , qk+1 <br />
k+1<br />
m para A S a partir da base Bk+1<br />
= Aqk 1 , . . . , Aqk <br />
m .<br />
Este procedimento é chama<strong>do</strong> iteração simultânea com ortonormalização ou simplesmente iteração<br />
simultânea.<br />
8.3 Méto<strong>do</strong> QR<br />
O algoritmo mais usa<strong>do</strong> para calcular o conjunto completo <strong>de</strong> autovalores <strong>de</strong> uma matriz é o algoritmo<br />
QR, <strong>de</strong>senvolvi<strong>do</strong> simultanea e in<strong>de</strong>pen<strong>de</strong>ntemente por Francis e Kublanovskaya em 1961. Ele po<strong>de</strong> ser<br />
compreendi<strong>do</strong> a partir <strong>do</strong> processo <strong>de</strong> iteração simultânea.<br />
Consi<strong>de</strong>remos o que acontece quan<strong>do</strong> o processo <strong>de</strong> iteração simultânea é aplica<strong>do</strong> a uma base B0 =<br />
0 q1, . . . , q0 <br />
n<br />
n <strong>de</strong> vetores ortonormais para F . Como antes, assumimos que A é diagonalizável com autovalores<br />
λ1, . . . , λn e B = {v1, . . . , vn} é uma base correspon<strong>de</strong>nte <strong>de</strong> autovetores. Assuma<br />
para m = 1, . . . , n − 1, e <strong>de</strong>fina<br />
|λm| > |λm+1|<br />
Sm = q 0 1, . . . , q 0 <br />
m ,<br />
Tm = 〈v1, . . . , vm〉 ,<br />
Um = 〈vm+1, . . . , vn〉 .
Rodney Josué Biezuner 145<br />
Assuma também que Sm ∩ Um = {0} para m = 1, . . . , n − 1. Pelo Teorema 8.1,<br />
A k Sm = q k 1 , . . . , q k <br />
m → Tm<br />
com velocida<strong>de</strong> <strong>de</strong> convergência igual a |λm+1| / |λm|.<br />
Seja Qk a matriz unitária cujas colunas são os vetores ortonormais q k 1 , . . . , q k n e <strong>de</strong>note<br />
Ak = Q ∗ kA Qk. (8.2)<br />
Como Ak é similar a A, Ak possui os mesmos autovalores <strong>de</strong> A. Para k gran<strong>de</strong>, as primeiras m colunas <strong>de</strong><br />
Qk são próximas ao subespaço invariante Tm. Se estas colunas gerassem exatamente o subespaço Tm, então<br />
Ak teria a forma em blocos<br />
Ak =<br />
<br />
k A11 k×k<br />
0 (n−k)×k<br />
<br />
k A12 <br />
k A22 k×(n−k)<br />
(n−k)×(n−k)<br />
e os autovalores λ1, . . . , λk seriam os autovalores <strong>do</strong> bloco A k 11. Como estas colunas apenas aproximam Tm,<br />
ao invés <strong>de</strong> um bloco nulo <strong>de</strong>vemos obter um bloco A k 21 cujas entradas são próximas <strong>de</strong> zero. Po<strong>de</strong>-se provar<br />
que <strong>de</strong> fato A k 21 → 0. Isso acontece para to<strong>do</strong> k, <strong>de</strong> mo<strong>do</strong> que Ak converge para uma matriz triangular, cujos<br />
elementos na diagonal principal são os autovalores λ1, . . . , λn <strong>de</strong> A. Se A for uma matriz hermitiana, então<br />
Ak também será hermitiana e Ak convergirá para uma matriz diagonal.<br />
O algoritmo QR é uma variante da iteração <strong>de</strong> subespaços que produz a seqüência (Ak) diretamente.<br />
8.3.1 O Algoritmo QR<br />
Para obter o algoritmo QR, vamos colocar a iteração simultânea em forma matricial. Assumiremos que A<br />
é invertível. Depois <strong>de</strong> k iterações, temos os vetores ortonormais qk 1 , . . . , qk n, que são as colunas da matriz<br />
unitária Qk, isto é,<br />
Qk = qk 1 . . . qk <br />
n . (8.4)<br />
Denote<br />
Bk+1 = A Qk = Aq k 1 . . . Aq k n<br />
<br />
(8.3)<br />
. (8.5)<br />
Em seguida, o processo <strong>de</strong> Gram-Schmidt clássico é aplica<strong>do</strong> aos vetores linearmente in<strong>de</strong>pen<strong>de</strong>ntes b k+1<br />
1<br />
Aq k 1 , . . . , b k+1<br />
n<br />
= Aq k n (daí a hipótese <strong>de</strong> que A é invertível) para obter vetores ortonormais q k+1<br />
1<br />
=<br />
, . . . , q k+1<br />
n<br />
que serão as colunas da matriz unitária Qk+1.<br />
Para expressar o algoritmo <strong>de</strong> Gram-Schmidt em forma matricial, lembre-se que para obter vetores<br />
ortonormais q1, . . . , qn a partir <strong>de</strong> vetores linearmente in<strong>de</strong>pen<strong>de</strong>ntes b1, . . . , bn neste processo primeiro ortogonalizamos,<br />
obten<strong>do</strong> os vetores ortogonais<br />
q1 = b1,<br />
q2 = b2 − 〈b2, q1〉<br />
〈q1, q1〉 q1,<br />
.<br />
.<br />
m−1 <br />
qm = bm −<br />
.<br />
.<br />
qn = bn −<br />
j=1<br />
〈bm, qj〉<br />
〈qj, qj〉 qj,<br />
n 〈bn, qj〉<br />
〈qj, qj〉 qk+1 j .<br />
j=1
Rodney Josué Biezuner 146<br />
e <strong>de</strong>pois normalizamos obten<strong>do</strong> os vetores ortonormais<br />
q1 = q1<br />
q1 ,<br />
.<br />
.<br />
qn = qn<br />
qn .<br />
Po<strong>de</strong>mos escrever o processo <strong>de</strong> ortogonalização na forma<br />
ou<br />
on<strong>de</strong><br />
m−1 <br />
qm = bm − 〈bm, qj〉 qj,<br />
qm = qm<br />
qm ,<br />
j=1<br />
m−1 <br />
qm = bm − rjmqj, (8.6)<br />
qm = 1<br />
rmm<br />
j=1<br />
qm, (8.7)<br />
rjm = 〈bm, qj〉 , se j = 1, . . . , m − 1, (8.8)<br />
rmm = qm . (8.9)<br />
Os vetores b1, . . . , bn po<strong>de</strong>m então ser escritos diretamente em função <strong>do</strong>s vetores q1, . . . , qn:<br />
ou seja,<br />
bm =<br />
m−1 <br />
j=1<br />
b1 = r11q1,<br />
b2 = r12q1 + r22q2,<br />
b3 = r13q1 + r23q2 + r33q3<br />
.<br />
.<br />
rjmqj + rmmqm, (8.10)<br />
bn = r1nq1 + r2nq2 + . . . + rnnqn<br />
Em forma matricial, se <strong>de</strong>finirmos rjm = 0 sempre que j > m e consi<strong>de</strong>rarmos a matriz triangular superior<br />
R = (rij), temos<br />
b1 b2 b3 . . . bn<br />
<br />
= q1 q2 q3 . . . qn<br />
⎡<br />
r11<br />
⎢<br />
⎢ 0<br />
⎢ 0<br />
⎢ .<br />
⎣ .<br />
r12<br />
r22<br />
0<br />
.<br />
.<br />
r13<br />
r23<br />
r33<br />
. ..<br />
. . .<br />
. . .<br />
. . .<br />
. ..<br />
r1n<br />
r2n<br />
r3n<br />
.<br />
.<br />
⎤<br />
⎥<br />
⎦<br />
0 0 0 . . . rnn
Rodney Josué Biezuner 147<br />
ou<br />
B = QR (8.11)<br />
Esta é a chamada <strong>de</strong>composição QR <strong>de</strong> uma matriz invertível B em um produto <strong>de</strong> uma matriz unitária Q<br />
(ortogonal, se B for uma matriz real) e uma matriz triangular superior com entradas diagonais reais positivas<br />
R.<br />
Portanto, usan<strong>do</strong> a <strong>de</strong>composição QR, um passo <strong>de</strong> iteração simultânea po<strong>de</strong> ser expresso em forma<br />
matricial como<br />
Bk+1 = A Qk = Qk+1Rk+1, (8.12)<br />
on<strong>de</strong> Rk+1 é a matriz triangular superior <strong>de</strong>finida por<br />
⎧<br />
⎨ 0<br />
<br />
se j > m,<br />
k<br />
(Rk+1)<br />
jm = Aqj , q<br />
⎩<br />
k+1<br />
j se j = 1, . . . , m − 1,<br />
k Aqj , Aqk <br />
j se j = m.<br />
(8.13)<br />
Agora suponha que comecemos a iteração simultânea a partir <strong>do</strong>s vetores da base canônica, isto é,<br />
0 q1, . . . , q0 <br />
n = {e1, . . . , en}, <strong>de</strong> mo<strong>do</strong> que Q0 = I. Então<br />
<strong>do</strong>n<strong>de</strong><br />
Daí,<br />
Denotan<strong>do</strong> Q1 = Q1, escrevemos<br />
e<br />
No próximo passo,<br />
Observan<strong>do</strong> que<br />
<strong>de</strong>finin<strong>do</strong><br />
obtemos a <strong>de</strong>composição QR da matriz A1:<br />
Daí,<br />
Como Q ∗ 2A1 = R2, segue que<br />
Em geral,<br />
B1 = A Q0 = A,<br />
A = Q1R1.<br />
A1 = Q ∗ 1A Q1 = R1 Q1.<br />
A = Q1R1<br />
A1 = R1Q1. (8.14)<br />
B2 = A Q1 = Q2R2.<br />
A1 = Q ∗ 1A Q1 = Q ∗ 1 Q2R2,<br />
Q2 = Q ∗ 1 Q2<br />
A1 = Q2R2. (8.15)<br />
A2 = Q ∗ 2A Q2 = Q ∗ 2 Q1R1 Q2 = Q ∗ 2R1 Q1Q2 = Q ∗ 2A1Q2.<br />
A2 = R2Q2. (8.16)<br />
Ak−1 = QkRk, (8.17)<br />
Ak = RkQk, (8.18)<br />
isto é, obtemos primeiro a <strong>de</strong>composição QR da matriz Ak−1 e a partir <strong>de</strong>la obtemos a próxima iterada, a<br />
matriz Ak.
Rodney Josué Biezuner 148<br />
8.3.2 Implementação Eficiente <strong>do</strong> Algoritmo QR<br />
O algoritmo QR da forma como introduzi<strong>do</strong> na seção anterior é altamente ineficiente. Cada <strong>de</strong>composição<br />
QR custa O n 3 operações <strong>de</strong> ponto flutuante e a multiplicação <strong>de</strong> matrizes que lhe segue também custa<br />
O n 3 operações <strong>de</strong> ponto flutuante. Além disso, a velocida<strong>de</strong> <strong>de</strong> convergência também é muito lenta.<br />
O primeiro problema é resolvi<strong>do</strong> quan<strong>do</strong> se reduz a matriz A à sua forma <strong>de</strong> Hessenberg. Uma <strong>de</strong>composição<br />
QR <strong>de</strong> uma matriz na forma <strong>de</strong> Hessenberg é apenas O n 2 operações <strong>de</strong> ponto flutuante para uma<br />
matriz geral e O (n) operações <strong>de</strong> ponto flutuante para uma matriz hermitiana.<br />
Definição. Dizemos que uma matriz A = (aij) é uma matriz <strong>de</strong> Hessenberg superior se aij = 0 sempre<br />
que i > j + 1.<br />
Em outras palavras, uma matriz <strong>de</strong> Hessenberg superior tem a forma<br />
⎡<br />
∗<br />
⎢ ∗<br />
⎢ 0<br />
⎣ 0<br />
∗<br />
∗<br />
∗<br />
0<br />
∗<br />
∗<br />
∗<br />
∗<br />
∗<br />
∗<br />
∗<br />
∗<br />
∗<br />
∗<br />
∗<br />
∗<br />
⎤<br />
⎥<br />
⎦<br />
0 0 0 ∗ ∗<br />
.<br />
Observe que uma matriz hermitiana <strong>de</strong> Hessenberg é uma matriz tridiagonal. Toda matriz complexa é<br />
semelhante a uma matriz na forma <strong>de</strong> Hessenberg superior através <strong>de</strong> uma matriz unitária, isto é, dada<br />
A ∈ Mn (C), existe uma matriz unitária Q tal que<br />
B = Q ∗ AQ<br />
é <strong>de</strong> Hessenberg superior. O custo para isso é <strong>de</strong> 10<br />
3 n3 operações <strong>de</strong> ponto flutuante. Detalhes po<strong>de</strong>m ser<br />
vistos em [Watkins]. Se Ak−1 é uma matriz <strong>de</strong> Hessenberg superior, então a matriz Ak obtida através <strong>do</strong><br />
méto<strong>do</strong> QR também é <strong>de</strong> Hessenberg superior. De fato, da <strong>de</strong>composição QR <strong>de</strong> Ak−1, Ak−1 = QkRk,<br />
obtemos Qk = Ak−1R −1<br />
k . Como a inversa <strong>de</strong> uma matriz triangular superior é uma matriz triangular<br />
superior, segue que R −1<br />
k é triangular superior. O produto <strong>de</strong> uma matriz triangular superior e <strong>de</strong> uma<br />
matriz <strong>de</strong> Hessenberg superior, em qualquer or<strong>de</strong>m, sempre é uma matriz <strong>de</strong> Hessenberg superior. Segue<br />
que Qk é <strong>de</strong> Hessenberg superior e daí que Ak = RkQk é <strong>de</strong> Hessenberg superior. Assim, se começarmos<br />
com uma matriz <strong>de</strong> Hessenberg superior, em cada passo QR estaremos trabalhan<strong>do</strong> com uma matriz <strong>de</strong><br />
Hessenberg superior e o custo computacional cai <strong>de</strong> O n3 para O n2 (ou até mesmo O (n) se a matriz for<br />
hermitiana), uma redução significativa.<br />
A velocida<strong>de</strong> <strong>de</strong> convergência <strong>do</strong> algoritmo QR po<strong>de</strong> ser acelerada pela estratégia <strong>de</strong> <strong>de</strong>slocamento. Com<br />
efeito, como a taxa <strong>de</strong> convergência <strong>do</strong> méto<strong>do</strong> <strong>de</strong>pen<strong>de</strong> da razão |λm+1| / |λm|, ela po<strong>de</strong> ser melhorada<br />
quan<strong>do</strong> esta razão é <strong>de</strong>crescida. Isso po<strong>de</strong> ser feito através <strong>de</strong> <strong>de</strong>slocamento; |λm+1 − σ| / |λm − σ| po<strong>de</strong><br />
ser torna<strong>do</strong> arbitrariamente próximo a zero escolhen<strong>do</strong> um <strong>de</strong>slocamento arbitrariamente próximo a λm+1.<br />
A escolha <strong>do</strong> <strong>de</strong>slocamento po<strong>de</strong> ser feita através <strong>do</strong> próprio méto<strong>do</strong> QR: <strong>de</strong>pois <strong>de</strong> algumas iterações, os<br />
elementos na diagonal principal <strong>de</strong> Ak são aproximações <strong>do</strong>s autovalores <strong>de</strong> A.<br />
O méto<strong>do</strong> po<strong>de</strong> ter sua velocida<strong>de</strong> <strong>de</strong> convergência ainda mais acelerada através <strong>do</strong> uso <strong>de</strong> uma técnica<br />
chamada <strong>de</strong>flação. Suponha que obtivemos uma boa aproximação σ para o autovalor <strong>de</strong> menor módulo λn<br />
(como este autovalor tem o menor módulo, ele <strong>de</strong>ve ser o melhor aproxima<strong>do</strong> pelas iterações QR iniciais usadas<br />
para encontrar boas aproximações para os autovalores). Aplican<strong>do</strong> o algoritmo QR à matriz C = A − σI,<br />
obteremos uma convergência muito rápida, <strong>de</strong> mo<strong>do</strong> que após poucas iterações a matriz Ck +σI (adicionan<strong>do</strong><br />
o <strong>de</strong>slocamento <strong>de</strong> volta) terá aproximadamente a forma<br />
⎡<br />
⎤<br />
∗<br />
⎢ Ak<br />
Ck + σI = ⎢<br />
. . . ⎥<br />
⎣<br />
∗ ⎦<br />
0 0 0 λn<br />
.
Rodney Josué Biezuner 149<br />
Os autovalores restantes <strong>de</strong> A serão os autovalores <strong>de</strong> Ak, que é uma matriz (n − 1) × (n − 1), <strong>de</strong> mo<strong>do</strong> que<br />
po<strong>de</strong>mos efetuar iterações subseqüentes nesta matriz. Operan<strong>do</strong> <strong>de</strong>sta forma, a cada autovalor encontra<strong>do</strong><br />
diminuímos o tamanho da matriz, diminuin<strong>do</strong> o custo computacional (é claro que a cada autovalor encontra<strong>do</strong><br />
<strong>de</strong>vemos também consi<strong>de</strong>rar um novo <strong>de</strong>slocamento, aproximan<strong>do</strong> o próximo autovalor a ser encontra<strong>do</strong>).<br />
8.4 Méto<strong>do</strong>s para Matrizes Esparsas<br />
O algoritmo QR não é conveniente para obter os autovalores <strong>de</strong> matrizes esparsas, já que <strong>de</strong>pois <strong>de</strong> uma<br />
iteração QR a matriz A1 já <strong>de</strong>ixa <strong>de</strong> ser esparsa (po<strong>de</strong>-se construir exemplos em que todas as posições<br />
superiores da matriz <strong>de</strong> Hessenberg são preenchidas; veja [Watkins], Exercício 6.3.24). Precisaremos <strong>de</strong><br />
méto<strong>do</strong>s que não preenchem os zeros da matriz esparsa A. Uma possibilida<strong>de</strong> é voltar ao méto<strong>do</strong> <strong>de</strong> iteração<br />
<strong>de</strong> subespaços básico, sem as mudanças <strong>de</strong> coor<strong>de</strong>nadas a cada iteração que caracterizam o méto<strong>do</strong> QR e<br />
alteram a forma esparsa da matriz. Por outro la<strong>do</strong>, isso implica que apenas alguns poucos autovalores <strong>de</strong><br />
maior módulo po<strong>de</strong>m ser calcula<strong>do</strong>s. Para contornar este problema, <strong>de</strong>ve-se usar as estratégias <strong>de</strong> iteração<br />
inversa e iteração com <strong>de</strong>slocamento.<br />
Entretanto, méto<strong>do</strong>s mais sofistica<strong>do</strong>s e eficientes existem para encontrar os autovalores <strong>de</strong> uma matriz<br />
esparsa.<br />
8.4.1 Processo <strong>de</strong> Arnoldi<br />
O processo <strong>de</strong> Arnoldi foi introduzi<strong>do</strong> em 1950, mas só entrou em moda para calcular autovalores apenas na<br />
década <strong>de</strong> 1970. Atualmente, ele e suas variantes, são o méto<strong>do</strong> preferi<strong>do</strong> para o cálculo <strong>de</strong> autovalores em<br />
várias aplicações.<br />
O méto<strong>do</strong> das potências (ou mesmo o méto<strong>do</strong> da iteração <strong>de</strong> subespaços) utiliza apenas a informação <strong>do</strong><br />
último itera<strong>do</strong> para calcular o próximo itera<strong>do</strong>. A idéia <strong>do</strong> processo <strong>de</strong> Arnoldi (semelhante à <strong>do</strong> algoritmo<br />
<strong>do</strong> gradiente conjuga<strong>do</strong>) é usar toda a informação <strong>do</strong>s passos anteriores. Depois <strong>de</strong> k passos no méto<strong>do</strong><br />
das potências, guardamos to<strong>do</strong>s os k + 1 vetores q, Aq, A 2 q, . . . , A k q e procuramos boas aproximações <strong>de</strong><br />
autovetores no subespaço (k + 1)-dimensional gera<strong>do</strong> por estes vetores.<br />
Na prática, como já vimos antes, os vetores q, Aq, A 2 q, . . . , A k q formam uma base mal-condicionada para<br />
o subespaço, porque ten<strong>de</strong>m a apontar na mesma direção <strong>do</strong> autovetor <strong>do</strong>minante, logo em cada iteração<br />
substituímos esta base por uma base ortonormal q1, . . . , qk+1. Isso é realiza<strong>do</strong> pelo algoritmos <strong>de</strong> Gram-<br />
Schmidt com uma pequena modificação. Se trabalhássemos com a seqüência original q, Aq, A 2 q, . . . , A k−1 q,<br />
para obter A k q bastaria multiplicar A k−1 q por A. Como em cada passo usamos o algoritmo <strong>de</strong> Gram-Schmidt<br />
para ortonormalizar o conjunto <strong>de</strong> vetores obti<strong>do</strong>s anteriormente, o vetor A k−1 q não está disponível. Ao<br />
invés, multiplicamos o vetor qk por A e é necessário apenas ortonormalizar o vetor Aqk com relação aos<br />
vetores q1, . . . , qk para obter o vetor qk+1. Este é o processo <strong>de</strong> Arnoldi.<br />
Mais <strong>de</strong>talhadamente, no primeiro passo temos<br />
Em passos subseqüentes, tomamos<br />
on<strong>de</strong><br />
qk+1 = Aqk −<br />
q1 = q<br />
. (8.19)<br />
q<br />
k<br />
hjkqj, (8.20)<br />
j=1<br />
qk+1 = qk+1<br />
, (8.21)<br />
qk+1<br />
hjk = 〈Aqk, qj〉 , se j = 1, . . . , k, (8.22)<br />
hk+1,k = qk+1 . (8.23)
Rodney Josué Biezuner 150<br />
Po<strong>de</strong>-se mostrar que este processo produz exatamente a mesma seqüência <strong>de</strong> vetores que o processo <strong>de</strong><br />
Gram-Schmidt produz aplica<strong>do</strong> aos vetores q, Aq, A 2 q, . . . , A k q.<br />
Para ver como o processo <strong>de</strong> Arnoldi po<strong>de</strong> ser utiliza<strong>do</strong> para encontrar autovalores, primeiro estabelecemos<br />
alguns resulta<strong>do</strong>s teóricos. Lembre-se que dada uma matriz A ∈ Mn (C) e um vetor q ∈ C n , o j-ésimo espaço<br />
<strong>de</strong> Krylov associa<strong>do</strong> com A e q é o subespaço<br />
Kj (A, q) = q, Aq, . . . , A j−1 q .<br />
8.2 Proposição. Sejam A ∈ Mn (C) e q ∈ C n . Suponha que q, Aq, . . . , A m−1 q são linearmente in<strong>de</strong>pen<strong>de</strong>ntes.<br />
Então Km (A, q) é invariante sob A se e somente se q, Aq, . . . , A m−1 q, A m q são linearmente<br />
<strong>de</strong>pen<strong>de</strong>ntes.<br />
Prova. Como Km (A, q) é gera<strong>do</strong> por q, Aq, . . . , A m−1 q, Km (A, q) é invariante sob A se e somente se A m q<br />
é combinação linear <strong>de</strong> q, Aq, . . . , A m−1 q. <br />
8.3 Teorema. Sejam A ∈ Mn (C) e q ∈ C n . Suponha que q, Aq, . . . , A m−1 q são linearmente in<strong>de</strong>pen<strong>de</strong>ntes.<br />
Sejam q1, . . . , qm os vetores gera<strong>do</strong>s pelo processo <strong>de</strong> Arnoldi. Então<br />
(a) Kk (A, q) = 〈q1, . . . , qk〉 para k = 1, . . . , m.<br />
(b) hk+1,k > 0 para k = 1, . . . , m − 1.<br />
(c) hm+1,m = 0 se e somente se q, Aq, . . . , A m q são linearmente <strong>de</strong>pen<strong>de</strong>ntes ou, equivalentemente, se<br />
e somente se Km (A, q) é invariante sob A.<br />
Prova. (a) e (b) seguem por indução. Para k = 1 é óbvio. Assumin<strong>do</strong> (a) e (b) váli<strong>do</strong>s para to<strong>do</strong> j k < m,<br />
vamos provar a valida<strong>de</strong> <strong>de</strong> (a) e (b) para k + 1. Isso significa que temos que mostrar que hk+1,k > 0 e<br />
q, Aq, . . . , A k−1 q, A k q = 〈q1, . . . , qk+1〉<br />
assumin<strong>do</strong> váli<strong>do</strong><br />
〈q〉 = 〈q1〉<br />
〈q, Aq〉 = 〈q1, q2〉<br />
q, Aq, A 2 q = 〈q1, q2, q3〉<br />
.<br />
q, Aq, . . . , A k−1 q = 〈q1, . . . , qk〉<br />
Em particular, vemos que cada vetor qj, para j = 1, . . . , k, possui uma componente não-nula na direção <strong>de</strong><br />
Aj−1q, digamos<br />
qj = aj−1A j−1 j−2<br />
q + aiA i q com aj−1 = 0.<br />
Por <strong>de</strong>finição<br />
<strong>de</strong> mo<strong>do</strong> que se qk+1 = 0 teríamos<br />
i=0<br />
qk+1 = Aqk −<br />
k<br />
j=1<br />
hjkqj,<br />
<br />
Aqk = A ak−1A k−1 k−2 <br />
q + aiA i <br />
q =<br />
i=0<br />
k<br />
j=1<br />
hjkqj,
Rodney Josué Biezuner 151<br />
<strong>do</strong>n<strong>de</strong><br />
A k q = 1<br />
ak−1<br />
⎛<br />
⎝<br />
k<br />
j=1<br />
k−2<br />
hjkqj −<br />
<br />
aiA i ⎞<br />
q⎠<br />
= 1<br />
i=0<br />
aj−1<br />
⎡<br />
⎣<br />
k<br />
j=1<br />
<br />
j−1<br />
hjk bijA i q<br />
i=0<br />
<br />
<br />
aiA i ⎤<br />
q⎦<br />
, (8.24)<br />
k−1<br />
−<br />
produzin<strong>do</strong> A k q como combinação linear <strong>de</strong> q, Aq, . . . , A k−1 q para k < m, violan<strong>do</strong> a hipótese <strong>de</strong> que<br />
q, Aq, . . . , A m−1 q são linearmente in<strong>de</strong>pen<strong>de</strong>ntes. Isso prova que hk+1,k = qk+1 > 0. Além disso, como<br />
<br />
qk+1 = A ak−1A k−1 k−2 <br />
q + aiA i <br />
q −<br />
i=0<br />
k<br />
j=1<br />
hjkqj = ak−1A k k−1<br />
q +<br />
i=1<br />
<br />
aiA i q −<br />
i=1<br />
k<br />
j=1<br />
hjkqj,<br />
segue que qk+1 = qk+1/ qk+1 possui uma componente não-nula na direção <strong>de</strong> A k q; isso mais a hipótese <strong>de</strong><br />
indução q, Aq, . . . , A k−1 q = 〈q1, . . . , qk〉<br />
implica que q, Aq, . . . , A k−1 q, A k q = 〈q1, . . . , qk+1〉<br />
Para provar (c), observe que hm+1,m = 0 implica q, Aq, . . . , A m q linearmente <strong>de</strong>pen<strong>de</strong>ntes por (8.24).<br />
Reciprocamente, se A m q é combinação linear <strong>de</strong> q, Aq, . . . , A m−1 q, então<br />
e portanto<br />
A m q ∈ q, Aq, . . . , A m−1 q = 〈q1, . . . , qm〉 ,<br />
A m q =<br />
m<br />
〈Aqm, qj〉 qj<br />
j=1<br />
pois esta é a expressão <strong>de</strong> A m q na base ortonormal {q1, . . . , qm}; daí segue da <strong>de</strong>finição que qm+1 = 0. <br />
8.4.2 Representação Matricial <strong>do</strong> Processo <strong>de</strong> Arnoldi<br />
Segue <strong>de</strong> (8.20) e (8.21) que<br />
k+1 <br />
Aqk = hjkqj. (8.25)<br />
j=1<br />
Pelo Teorema 8.3, esta relação vale para k = 1, . . . , m se q, Aq, . . . , Amq forem linearmente in<strong>de</strong>pen<strong>de</strong>ntes.<br />
Estas equações vetoriais po<strong>de</strong>m ser combinadas em uma equação matricial da seguinte maneira. Definimos<br />
Qm = <br />
q1 . . . qm<br />
(8.26)<br />
e<br />
Temos<br />
n×m<br />
⎡<br />
h11<br />
⎢ h21 ⎢<br />
0<br />
Hm+1,m = ⎢ 0<br />
⎢ .<br />
⎣ .<br />
h12<br />
h22<br />
h32<br />
0<br />
.<br />
.<br />
. . .<br />
. . .<br />
. . .<br />
. ..<br />
. ..<br />
h1,m−1<br />
h2,m−1<br />
h3,m−1<br />
.<br />
.<br />
hm,m−1<br />
h1m<br />
h2m<br />
h3,m<br />
.<br />
.<br />
hm,m<br />
⎤<br />
⎥<br />
⎦<br />
0 0 . . . 0 hm+1,m<br />
(m+1)×m<br />
. (8.27)<br />
AQm = Qm+1Hm+1,m. (8.28)
Rodney Josué Biezuner 152<br />
Observe que Qm é uma isometria (embora não necessariamente um isomorfismo isométrico, a não ser que<br />
m = n) e que Hm+1,m é uma matriz <strong>de</strong> Hessenberg superior, não quadrada, com entradas diagonais positivas.<br />
Denotaremos por Hm a matriz <strong>de</strong> Hessenberg superior quadrada obtida através <strong>de</strong> Hm+1,m quan<strong>do</strong><br />
suprimimos a última linha <strong>de</strong>sta. Segue que<br />
<br />
AQm = QmHm + qm+1 0 . . . 0 hm+1,m<br />
ou<br />
8.4 Proposição. Suponha que q1, . . . , qm+1 são vetores ortonormais,<br />
Qm = <br />
q1 . . . qm ,<br />
AQm = QmHm + qm+1hm+1,me t m. (8.29)<br />
e que Hm é uma matriz <strong>de</strong> Hessenberg superior com hj+1,j > 0 para j = 1, . . . , m. Embora estes<br />
possam ter si<strong>do</strong> obti<strong>do</strong>s por qualquer processo, suponha que eles satisfazem (8.29).<br />
Então q1, . . . , qm+1 são exatamente os vetores produzi<strong>do</strong>s pelo processo <strong>de</strong> Arnoldi com vetor inicial<br />
q1. Em outras palavras, dada uma matriz A, os objetos em (8.29) são unicamente <strong>de</strong>termina<strong>do</strong>s pela<br />
primeira coluna <strong>de</strong> Qm.<br />
Se q, Aq, . . . , A m q são linearmente in<strong>de</strong>pen<strong>de</strong>ntes, então hm+1,m = 0. Se eles são linearmente <strong>de</strong>pen<strong>de</strong>ntes,<br />
então hm+1,m = 0 e<br />
AQm = QmHm. (8.30)<br />
Em particular, isso implica que 〈q1, . . . , qm〉 são invariantes sob A e que os autovalores <strong>de</strong> Hm são autovalores<br />
<strong>de</strong> A, como o próximo resulta<strong>do</strong> mostra:<br />
8.5 Proposição. Suponha que x1, . . . , xm ∈ Fn são linearmente in<strong>de</strong>pen<strong>de</strong>ntes e sejam S = 〈x1, . . . , xm〉 e<br />
X = <br />
x1 . . . xm<br />
Então S é invariante sob A ∈ Mn (F) se e somente se existe algum B ∈ Mm (F) tal que<br />
AX = XB.<br />
Além disso, to<strong>do</strong> autovalor <strong>de</strong> B é um autovalor <strong>de</strong> A com autovetor correspon<strong>de</strong>nte em S.<br />
Prova. Se existe tal B, então<br />
Axj =<br />
m<br />
xibij ∈ S.<br />
i=1<br />
Reciprocamente, se X é invariante sob A, então para cada índice j = 1, . . . , m existem escalares bij tais que<br />
m<br />
Axj = bijxi.<br />
i=1<br />
Defina B = (bij).<br />
Se w é um autovetor <strong>de</strong> B com autovalor λ, então v = Xw ∈ S é um autovetor <strong>de</strong> A com autovalor λ. <br />
Se m não é muito gran<strong>de</strong>, po<strong>de</strong>mos então usar o algoritmo QR para encontrar os autovalores <strong>de</strong> Hm. Na<br />
prática, dificilmente obteremos hm+1,m = 0 exatamente, mas se hm+1,m é próximo <strong>de</strong> zero po<strong>de</strong>mos esperar<br />
que estamos próximos <strong>de</strong> um subespaço invariante e, portanto, que os autovalores <strong>de</strong> Hm são próximos aos<br />
autovalores <strong>de</strong> A. O próximo resulta<strong>do</strong> mostra que mesmo na eventualida<strong>de</strong> em que hm+1,m não é pequeno,<br />
alguns <strong>do</strong>s autovalores <strong>de</strong> Hm po<strong>de</strong>m ser boas aproximações <strong>do</strong>s autovalores <strong>de</strong> A.<br />
8.6 Teorema. Sejam Qm, Hm e hm+1,m gera<strong>do</strong>s pelo processo <strong>de</strong> Arnoldi. Seja λ um autovalor <strong>de</strong> Hm<br />
com autovetor unitário x. Seja v = Qmx. Então<br />
on<strong>de</strong> xm <strong>de</strong>nota a última componente <strong>de</strong> x.<br />
n×m<br />
Av − λv = |hm+1,m| |xm| ,
Rodney Josué Biezuner 153<br />
8.4.3 Méto<strong>do</strong> <strong>de</strong> Lanczos<br />
Para matrizes simétricas reais, o processo <strong>de</strong> Arnoldi assume uma forma bem mais simples, porque a matriz<br />
<strong>de</strong> Hessenberg Hm é simétrica e portanto é uma matriz tridiagonal. Neste caso, o processo <strong>de</strong> Arnoldi é<br />
chama<strong>do</strong> o méto<strong>do</strong> <strong>de</strong> Lanczos.
Referências Bibliográficas<br />
[Asmar] Nakhlé ASMAR, Partial Differential Equations and Boundary Value Problems, Prentice<br />
Hall, 2000.<br />
[Aronszajn] N. ARONSZAJN, A unique continuation theorem for solutions of elliptic partial differential<br />
equations of second or<strong>de</strong>r, J. Math. Pures Appl. 36 (1957), 235-239.<br />
[Bandle] Catherine BANDLE, Isoperimetric Inequalities and Applications, Pitman, 1980.<br />
[Berard1] Pierre BÉRARD, Transplantation et isospectralité, Math. Ann. 292 (1992), pp. 547–<br />
559<br />
[Berard2] Pierre BÉRARD, Domaines plans isospectraux à la Gor<strong>do</strong>n-Webb-Wolpert:<br />
preuve élémentaire, Afrika Mat. 3 (1993), no. 1, 135–146.<br />
une<br />
[Biezuner] Rodney Josué BIEZUNER, Notas <strong>de</strong> Aula: Equações Diferenciais Parciais, <strong>UFMG</strong>,<br />
2005.<br />
[BHM] William L. BRIGGS, Van Em<strong>de</strong>n HENSON e Steve F. McCORMICK, A Multigrid<br />
Tutorial, SIAM, 2000.<br />
[Chapman] S. J. CHAPMAN, Drums That Sound the Same, American Mathematical Monthly,<br />
102 (1995), no. 2, 124–138.<br />
[Cheng] Shiu-Yuen CHENG, Eigenfunctions and nodal sets, Comment. Math. Helvetici 51<br />
(1976), 43–55.<br />
[Courant-Hilbert] Richard COURANT e David HILBERT, Methods of Mathematical Physics, Wiley-<br />
Interscience, 1953.<br />
[Demmel] James W. DEMMEL, Applied Numerical Linear Algebra, SIAM, 1997.<br />
[Driscoll] Tobin A. DRISCOLL, Eigenmo<strong>de</strong>s of isospectral drums, SIAM Review 39 (1997), no.<br />
1, 1–17.<br />
[Evans] Lawrence C. EVANS, Partial Differential Equations, AMS, 1998.<br />
[Gilbarg-Trudinger] David GILBARG e Neil S. TRUDINGER, Elliptic Partial Differential Equations of<br />
Second Or<strong>de</strong>r, 2nd Ed., Springer-Verlag, 1983.<br />
[Gladwell-Zhu] G. M. L. GLADWELL and H. ZHU, Courant’s Nodal Line Theorem and Its Discrete<br />
Counterparts, The Quarterly Journal of Mechanics and Applied Mathematics<br />
55 (2002), 1-15.<br />
[GWW1] Carolyn GORDON, David L. WEBB e Scott WOLPERT, One cannot hear the shape<br />
of a drum, Bulletin of the American Mathematical Society 27 (1992), n. 1, 134–138.<br />
154
Rodney Josué Biezuner 155<br />
[GWW2] Carolyn GORDON, David L. WEBB e Scott WOLPERT, Isospectral plane <strong>do</strong>mains<br />
and surfaces via Riemannian orbifolds, Inventiones Mathematicae 110 (1992), n. 1,<br />
1–22.<br />
[Hackbusch] W. HACKBUSCH, Elliptic Differential Equations: Theory and Numerical Treatment,<br />
Springer Series in Computational Mathematics 18, Springer, 1992.<br />
[Herrman] H. HERRMANN, Beziehungen zwischen <strong>de</strong>n Eigenwerten und Eigenfunktionen verschie<strong>de</strong>ner<br />
Eigenwertprobleme, Math. Z. 40 (1935), 221–241.<br />
[Heuveline] Vincent HEUVELINE, On the computation of a very large number of eigenvalues for<br />
selfadjoint elliptic operators by means of multigrid methods, Journal of Computational<br />
Physics 184 (2003), 321–337.<br />
[Horn-Johnson] Roger A. HORN e Charles R. JOHNSON, Matrix Analysis, Cambridge University<br />
Press, 1985.<br />
[Johnson] Claes JOHNSON, Numerical solutions of partial differential equations by the finite<br />
element method, Cambridge, 1987.<br />
[Jost] Jürgen JOST, Partial Differential Equations, Graduate Texts in Mathematics 214,<br />
Springer-Verlag, 2002.<br />
[Kac] M. KAC, Can one hear the shape of a drum?, American Mathematical Monthly 73<br />
(1966), no. 4, part II, 1–23.<br />
[Kuttler-Sigillito] J. R. KUTTLER e V. G. SIGILLITO, Eigenvalues of the Laplacian in two dimensions,<br />
SIAM REVIEW 26 (1984) no. 2, 163–193.<br />
[Milnor] J. MILNOR, Eigenvalues of the Laplace operator on certain manifolds, Proceedings<br />
of the National Aca<strong>de</strong>my of Sciences USA 51 (1964), 542.<br />
[Pleijel] A. PLEIJEL, Remarks on Courant’s nodal line theorem, Comm. Pure Appl. Math. 9<br />
(1956), 543–550.<br />
[Protter] M. H. PROTTER, Can one hear the shape of a drum? Revisited, SIAM REVIEW<br />
29 (1987) no. 2, 185–197.<br />
[Rosser1] J. Barkley ROSSER, Nine point difference solutions for Poisson’s equation, Comp.<br />
Math. Appl. 1 (1975), 351–360.<br />
[Rosser2] J. Barkley ROSSER, Finite-difference solution of Poisson’s equation in rectangles of<br />
arbitrary proportions, Zeitschrift für Angewandte Mathematik und Physik (ZAMP)<br />
28 (1977), no.2, 185–196.<br />
[Sridhar-Kudrolli] S. SRIDAR e A. KUDROLLI, Experiments on not “hearing the shape” of drums,<br />
Physical Review Letters 72 (1994), 2175–2178.<br />
[Strang] Gilbert STRANG, Linear Algebra and its Applications, 3rd Ed., Harcourt Brace Jovanovich,<br />
1988.<br />
[Strikwerda] John C. STRIKWERDA, Finite Difference Schemes and Partial Differential Equations,<br />
2nd Ed., SIAM, 2004.<br />
[Thomas1] J. W. THOMAS, Numerical Partial Differential Equations: Finite Difference Methods,<br />
Texts in Applied Mathematics 22, Springer, 1995.
Rodney Josué Biezuner 156<br />
[Thomas2] J. W. THOMAS, Numerical Partial Differential Equations: Conservation Laws and<br />
Elliptic Equations, Texts in Applied Mathematics 33, Springer, 1999.<br />
[Uhlenbeck1] K. UHLENBECK, Eigenfunctions of Laplace operator, Bulletin of the American<br />
Mathematical Society 78 (1972), 1073–1076.<br />
[Uhlenbeck2] K. UHLENBECK, Generic properties of eigenfunctions, American Journal of Mathematics<br />
98 (1976), 1059–1078.<br />
[Vigneras] Marie-France VIGNÉRAS, Varietés riemanniennes isospectrales et non isometriques,<br />
Annals of Mathematics 91 (1980), 21–32.<br />
[Wat1] K. WATANABE, Plane Domains Which Are Spectrally Determined, Annals of Global<br />
Analysis and Geometry 18 (2000), no. 5, 447–475.<br />
[Wat2] K. WATANABE, Plane Domains Which Are Spectrally Determined II, J. Inequal.<br />
Appl. 7 (2002), no. 1, 25–47.<br />
[Watkins] David S. WATKINS, Fundamentals of Matrix Computations, 2nd Ed., John Wiley &<br />
Sons, 2002.<br />
[Weyl] H. WEYL, Über die Asymptotische Verteilung <strong>de</strong>r Eigenwerte, Nachr. Konigl. Ges.<br />
Wiss. Göttingen (1911), 110–117.<br />
[Young] David M. YOUNG, Iterative Solutions of Large Linear Systems, Aca<strong>de</strong>mic Press,<br />
1971.<br />
[Zelditch] S. ZELDITCH, Spectral <strong>de</strong>termination of analytic bi-axisymmetric plane <strong>do</strong>mains,<br />
Geometric and Functional Analysis 10 (2000), no. 3, 628–677.