09.05.2013 Views

Autovalores do Laplaciano - Departamento de Matemática - UFMG

Autovalores do Laplaciano - Departamento de Matemática - UFMG

Autovalores do Laplaciano - Departamento de Matemática - UFMG

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Notas <strong>de</strong> Aula<br />

<strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong><br />

Rodney Josué Biezuner 1<br />

<strong>Departamento</strong> <strong>de</strong> <strong>Matemática</strong><br />

Instituto <strong>de</strong> Ciências Exatas (ICEx)<br />

Universida<strong>de</strong> Fe<strong>de</strong>ral <strong>de</strong> Minas Gerais (<strong>UFMG</strong>)<br />

Notas <strong>de</strong> aula <strong>do</strong> curso Tópicos em Análise: <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong> <strong>do</strong> Programa<br />

<strong>de</strong> Pós-Graduação em <strong>Matemática</strong>, ministra<strong>do</strong> durante o segun<strong>do</strong> semestre <strong>do</strong> ano <strong>de</strong> 2006.<br />

16 <strong>de</strong> novembro <strong>de</strong> 2006<br />

1 E-mail: rodney@mat.ufmg.br; homepage: http://www.mat.ufmg.br/∼rodney.


Sumário<br />

1 Os <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong> 4<br />

1.1 Motivação para o Estu<strong>do</strong> <strong>do</strong>s <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong> . . . . . . . . . . . . . . . . . . . . . 4<br />

1.1.1 Méto<strong>do</strong> <strong>de</strong> Expansão em Autofunções . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />

1.1.2 Problema Isospectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

1.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

1.3 Princípio <strong>do</strong> Máximo Fraco: O <strong>Laplaciano</strong> não possui <strong>Autovalores</strong> Negativos . . . . . . . . . 10<br />

1.4 Méto<strong>do</strong>s Variacionais para <strong>Autovalores</strong> <strong>de</strong> Opera<strong>do</strong>res Lineares . . . . . . . . . . . . . . . . . 12<br />

1.5 Os Espaços <strong>de</strong> Sobolev W 1,2 e W 1,2<br />

0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

1.5.1 A Derivada Fraca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

1.5.2 Espaços <strong>de</strong> Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

1.5.3 Proprieda<strong>de</strong>s <strong>do</strong>s Espaços <strong>de</strong> Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

1.6 Existência e Unicida<strong>de</strong> <strong>de</strong> Soluções para o <strong>Laplaciano</strong> através <strong>do</strong> Méto<strong>do</strong> Variacional . . . . . 18<br />

1.6.1 Soluções Fracas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

1.6.2 Existência, Unicida<strong>de</strong> e Regularida<strong>de</strong> <strong>de</strong> Soluções Fracas . . . . . . . . . . . . . . . . . 18<br />

1.7 O Espectro <strong>do</strong> <strong>Laplaciano</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

1.7.1 Existência e Caracterização Variacional <strong>do</strong>s <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong> . . . . . . . . . 21<br />

1.7.2 Comparação <strong>de</strong> <strong>Autovalores</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

1.8 Conjunto Nodal e Domínios Nodais <strong>de</strong> uma Autofunção . . . . . . . . . . . . . . . . . . . . . 30<br />

1.8.1 Princípio <strong>do</strong> Máximo Forte: o Primeiro Autovalor <strong>do</strong> <strong>Laplaciano</strong> é Simples . . . . . . 30<br />

1.8.2 Conjunto Nodal e Domínios Nodais <strong>de</strong> Autofunções <strong>do</strong> <strong>Laplaciano</strong> . . . . . . . . . . . 32<br />

1.9 Multiplicida<strong>de</strong> <strong>do</strong>s <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

2 Méto<strong>do</strong> <strong>de</strong> Diferenças Finitas 39<br />

2.1 O Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39<br />

2.1.1 Séries <strong>de</strong> Taylor e Diferenças Finitas em Uma Dimensão . . . . . . . . . . . . . . . . . 39<br />

2.1.2 Discretização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

2.1.3 Resolução Numérica <strong>do</strong> Problema <strong>de</strong> Autovalor Unidimensional . . . . . . . . . . . . . 42<br />

2.2 O Caso Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

2.2.1 A Fórmula <strong>do</strong>s Cinco Pontos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

2.2.2 Existência e Unicida<strong>de</strong> da Solução Discreta – <strong>Autovalores</strong> <strong>do</strong> Problema Bidimensional 47<br />

2.2.3 Princípio <strong>do</strong> Máximo Discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />

2.2.4 Convergência da Solução Discreta para a Solução Clássica . . . . . . . . . . . . . . . . 51<br />

2.3 Discretizações <strong>de</strong> Or<strong>de</strong>m Superior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />

2.3.1 Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />

2.3.2 Caso Bidimensional: A Fórmula <strong>do</strong>s Nove Pontos Compacta . . . . . . . . . . . . . . 56<br />

2.4 Diferenças Finitas em Coor<strong>de</strong>nadas Polares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

2.5 Domínios Arbitrários . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65<br />

2.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67<br />

1


Rodney Josué Biezuner 2<br />

3 Existência e Unicida<strong>de</strong> <strong>de</strong> Soluções Discretas 69<br />

3.1 Normas Matriciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69<br />

3.2 Matrizes Diagonalmente Dominantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72<br />

3.3 Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73<br />

3.4 Proprieda<strong>de</strong> FC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76<br />

3.5 Matrizes Irredutíveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81<br />

3.6 Invertibilida<strong>de</strong> <strong>de</strong> Matrizes <strong>de</strong> Discretização . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83<br />

3.6.1 Esquemas <strong>de</strong> Diferenças Finitas para o Intervalo e para o Retângulo . . . . . . . . . . 84<br />

3.6.2 Esquema <strong>de</strong> Coor<strong>de</strong>nadas Polares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84<br />

3.6.3 Esquema <strong>de</strong> Shortley-Weller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85<br />

4 Méto<strong>do</strong>s Iterativos para a Resolução <strong>de</strong> Sistemas Lineares 86<br />

4.1 Méto<strong>do</strong>s Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86<br />

4.1.1 Méto<strong>do</strong> <strong>de</strong> Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />

4.1.2 Méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88<br />

4.1.3 Méto<strong>do</strong> SOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88<br />

4.1.4 Comparação da Velocida<strong>de</strong> <strong>de</strong> Convergência <strong>do</strong>s Três Méto<strong>do</strong>s . . . . . . . . . . . . . 89<br />

4.1.5 Méto<strong>do</strong> <strong>de</strong> Jacobi Amorteci<strong>do</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90<br />

4.2 Análise <strong>de</strong> Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . 91<br />

4.2.1 Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . . . 92<br />

4.2.2 Velocida<strong>de</strong> <strong>de</strong> Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares . . . . . . . . . . . . . . 94<br />

4.2.3 Convergência para Matrizes Simétricas Positivas Definidas . . . . . . . . . . . . . . . . 96<br />

4.3 Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares para as Matrizes <strong>de</strong> Discretização . . . . . . . 97<br />

4.3.1 Convergência <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97<br />

4.3.2 Convergência <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l . . . . . . . . . . . . . . . . . . . . . . . . . 99<br />

4.3.3 Convergência <strong>do</strong> Méto<strong>do</strong> SOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />

4.3.4 Convergência <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Jacobi Amorteci<strong>do</strong> . . . . . . . . . . . . . . . . . . . . . . 109<br />

4.3.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110<br />

4.4 Méto<strong>do</strong> <strong>do</strong> Gradiente Conjuga<strong>do</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110<br />

4.4.1 Méto<strong>do</strong>s <strong>de</strong> Descida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111<br />

4.4.2 Méto<strong>do</strong> da Descida Mais Acentuada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113<br />

4.4.3 Méto<strong>do</strong> <strong>do</strong> Gradiente Conjuga<strong>do</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114<br />

5 Méto<strong>do</strong>s Multigrid 120<br />

5.1 Suavização <strong>de</strong> Erros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />

5.2 Opera<strong>do</strong>r Restrição e Opera<strong>do</strong>r Extensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />

5.3 Ciclos V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />

5.4 Multigrid Completo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />

5.5 Convergência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />

5.6 Multigrid Adaptativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />

5.7 Multigrid Algébrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />

6 Méto<strong>do</strong> <strong>de</strong> Elementos Finitos 121<br />

6.1 O Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121<br />

6.1.1 Formulação Variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121<br />

6.1.2 Elementos Finitos Lineares por Partes . . . . . . . . . . . . . . . . . . . . . . . . . . . 123<br />

6.2 O Caso Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124<br />

6.2.1 Formulação Variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125<br />

6.2.2 Triangulações e Elementos Finitos Lineares por Partes . . . . . . . . . . . . . . . . . . 125<br />

6.2.3 Interpretação Geométrica <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Elementos Finitos . . . . . . . . . . . . . . . 127<br />

6.3 Formulação Abstrata <strong>do</strong> Méto<strong>do</strong> <strong>do</strong>s Elementos Finitos . . . . . . . . . . . . . . . . . . . . . 127


Rodney Josué Biezuner 3<br />

7 Aproximação <strong>de</strong> <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong> 131<br />

7.1 Elementos Finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131<br />

7.1.1 Resulta<strong>do</strong>s Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132<br />

7.1.2 Convergência <strong>do</strong>s <strong>Autovalores</strong> Discretos para os <strong>Autovalores</strong> Contínuos . . . . . . . . 137<br />

7.1.3 Convergência das Autofunções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138<br />

8 Méto<strong>do</strong>s Numéricos para a Obtenção <strong>de</strong> <strong>Autovalores</strong> <strong>de</strong> Matrizes 140<br />

8.1 Méto<strong>do</strong> das Potências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140<br />

8.1.1 Iteração Inversa e Iteração com Deslocamento . . . . . . . . . . . . . . . . . . . . . . . 141<br />

8.2 Iteração <strong>de</strong> Subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142<br />

8.3 Méto<strong>do</strong> QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144<br />

8.3.1 O Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145<br />

8.3.2 Implementação Eficiente <strong>do</strong> Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . 148<br />

8.4 Méto<strong>do</strong>s para Matrizes Esparsas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149<br />

8.4.1 Processo <strong>de</strong> Arnoldi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149<br />

8.4.2 Representação Matricial <strong>do</strong> Processo <strong>de</strong> Arnoldi . . . . . . . . . . . . . . . . . . . . . 151<br />

8.4.3 Méto<strong>do</strong> <strong>de</strong> Lanczos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153


Capítulo 1<br />

Os <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong><br />

Seja Ω ⊂ R n um aberto limita<strong>do</strong>. O problema <strong>de</strong> autovalor para o laplaciano consiste em encontrar os valores<br />

λ tais que<br />

−∆u = λu em Ω (1.1)<br />

admite soluções não triviais, com alguma condição <strong>de</strong> fronteira imposta sobre u. A equação <strong>de</strong> autovalor <strong>do</strong><br />

laplaciano também é conhecida como equação <strong>de</strong> Helmholtz. Nestas notas, consi<strong>de</strong>raremos o problema <strong>de</strong><br />

autovalor com condição <strong>de</strong> Dirichlet<br />

<br />

−∆u = λu em Ω,<br />

(1.2)<br />

u = 0 sobre ∂Ω,<br />

e o problema <strong>de</strong> autovalor com condição <strong>de</strong> Neumann<br />

⎧<br />

⎨<br />

⎩<br />

−∆u = λu em Ω,<br />

∂u<br />

∂η<br />

= 0 sobre ∂Ω.<br />

O problema é tradicionalmente escrito nesta forma, com o sinal negativo multiplican<strong>do</strong> o laplaciano, porque<br />

assim to<strong>do</strong>s os autovalores são não-negativos. No caso <strong>do</strong> problema <strong>de</strong> Dirichlet, este fato segue imediatamente<br />

<strong>do</strong> princípio <strong>do</strong> máximo. De fato, este implica que to<strong>do</strong>s os autovalores, se existirem, <strong>de</strong>vem ser<br />

positivos, como veremos neste capítulo. Por outro la<strong>do</strong>, zero é um autovalor no problema <strong>de</strong> Neumann, pois<br />

as funções constantes são autofunções associadas a este.<br />

1.1 Motivação para o Estu<strong>do</strong> <strong>do</strong>s <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong><br />

1.1.1 Méto<strong>do</strong> <strong>de</strong> Expansão em Autofunções<br />

Vários problemas <strong>de</strong> equações diferenciais parciais po<strong>de</strong>m ser resolvi<strong>do</strong>s através <strong>do</strong> chama<strong>do</strong> méto<strong>do</strong> <strong>de</strong><br />

expansão em autofunções <strong>do</strong> laplaciano.<br />

Consi<strong>de</strong>re o seguinte problema <strong>de</strong> Dirichlet para a equação da onda em um aberto limita<strong>do</strong> Ω ⊂ R n :<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

utt = c 2 ∆u se x ∈ Ω e t > 0,<br />

u (x, 0) = f (x) se x ∈ Ω,<br />

ut (x, 0) = g (x) se x ∈ Ω,<br />

u (x, t) = 0 se x ∈ ∂Ω e t 0,<br />

on<strong>de</strong> c ∈ R, f ∈ C 2 Ω e g ∈ C 1 Ω . Se Ω ⊂ R 2 , então este problema mo<strong>de</strong>la as vibrações transversais<br />

<strong>de</strong> baixa amplitu<strong>de</strong> <strong>de</strong> uma membrana fina fixada em um aro com o formato <strong>de</strong> ∂Ω: se ∂Ω é um retângulo,<br />

4<br />

(1.3)


Rodney Josué Biezuner 5<br />

estamos estudan<strong>do</strong> as vibrações <strong>de</strong> uma membrana retangular; se ∂Ω é um círculo, o estu<strong>do</strong> é o <strong>de</strong> uma<br />

membrana circular (um tambor usual), e assim por diante. Este problema po<strong>de</strong> ser resolvi<strong>do</strong> pelo méto<strong>do</strong><br />

<strong>de</strong> separação <strong>de</strong> variáveis: supomos que a solução <strong>do</strong> problema po<strong>de</strong> ser escrita na forma<br />

u (x, t) = F (x) G (t) , x ∈ Ω e t 0.<br />

Substituin<strong>do</strong> esta expressão na equação da onda, obtemos<br />

Separan<strong>do</strong> as variáveis, segue que<br />

F (x) G ′′ (t) = c 2 ∆F (x) G (t) .<br />

∆F (x)<br />

F (x)<br />

1<br />

=<br />

c2 G ′′ (t)<br />

= −λ<br />

G (t)<br />

on<strong>de</strong> λ ∈ R é alguma constante a ser <strong>de</strong>terminada. Como em geral G (t) não é a função i<strong>de</strong>nticamente nula,<br />

a condição <strong>de</strong> fronteira implica que F (x) = 0 para x ∈ ∂Ω. Portanto, a função F satisfaz o problema <strong>de</strong><br />

Dirichlet para a equação <strong>de</strong> Laplace<br />

−∆F (x) = λF (x) se x ∈ Ω,<br />

F (x) = 0 se x ∈ ∂Ω,<br />

ou seja, λ é um autovalor <strong>do</strong> laplaciano em Ω. Como veremos, os autovalores <strong>do</strong> laplaciano em Ω formam<br />

um conjunto enumerável {λn} n∈N e existe um conjunto associa<strong>do</strong> <strong>de</strong> autofunções {Fn} n∈N que constitui uma<br />

base <strong>de</strong> Schau<strong>de</strong>r (em outras palavras, um conjunto ortonormal completo) para L 2 (Ω). A solução geral para<br />

a equação diferencial ordinária<br />

G ′′ (t) = −λnc 2 G (t)<br />

é<br />

Logo, a solução <strong>do</strong> problema da onda é<br />

u (x, t) =<br />

Gn(t) = an cos λnt + bn sen λnt.<br />

∞ <br />

an cos λnt + bn sen <br />

λnt Fn (x) ,<br />

n=1<br />

on<strong>de</strong> os coeficientes an, bn são <strong>de</strong>termina<strong>do</strong>s pelas condições iniciais (posição inicial e velocida<strong>de</strong> inicial da<br />

membrana):<br />

f (x) =<br />

g (x) =<br />

∞<br />

anFn (x) ,<br />

n=1<br />

∞<br />

n=1<br />

bn<br />

λnFn (x) ,<br />

ou seja, usan<strong>do</strong> as relações <strong>de</strong> ortonormalida<strong>de</strong> das funções Fn,<br />

<br />

an = f(x)Fn (x) dx,<br />

Ω<br />

bn = 1<br />

<br />

√ f(x)Fn (x) dx.<br />

λn Ω<br />

Assim, no caso bidimensional, os autovalores <strong>do</strong> laplaciano correspon<strong>de</strong>m às freqüências naturais <strong>de</strong> vibração<br />

<strong>de</strong> uma membrana, enquanto que as autofunções associadas correspon<strong>de</strong>m aos mo<strong>do</strong>s naturais <strong>de</strong> vibração<br />

da membrana. Estas idéias se generalizam para fenômenos vibratórios em três ou mais dimensões.


Rodney Josué Biezuner 6<br />

O méto<strong>do</strong> <strong>de</strong> expansão em autofunções também po<strong>de</strong> ser usa<strong>do</strong> para resolver o problema <strong>de</strong> Neumann<br />

da equação da onda ou outros problemas mais gerais. Nestes casos, <strong>de</strong>vem ser busca<strong>do</strong>s os autovalores <strong>do</strong><br />

laplaciano <strong>de</strong> acor<strong>do</strong> com a condição <strong>de</strong> fronteira consi<strong>de</strong>rada.<br />

O méto<strong>do</strong> <strong>de</strong> expansão em autofunções também po<strong>de</strong> ser usa<strong>do</strong> para resolver o problema <strong>do</strong> calor com<br />

as condições <strong>de</strong> fronteira apropriadas. Por exemplo, para o problema <strong>de</strong> Dirichlet<br />

a solução é dada por<br />

⎧<br />

⎨<br />

⎩<br />

ut = K∆u se x ∈ Ω e t > 0,<br />

u (x, 0) = f (x) se x ∈ Ω,<br />

u (x, t) = 0 se x ∈ ∂Ω e t 0,<br />

u (x, t) =<br />

∞<br />

n=1<br />

ane −√ λnKt Fn (x) ,<br />

on<strong>de</strong> os coeficientes an são <strong>de</strong>termina<strong>do</strong>s pelas condição inicial (distribuição <strong>de</strong> temperaturas inicial na placa<br />

bidimensional ou no objeto tridimensional):<br />

isto é,<br />

1.1.2 Problema Isospectral<br />

f (x) =<br />

∞<br />

anFn (x) ,<br />

n=1<br />

<br />

an = f(x)Fn (x) dx.<br />

Ω<br />

Dada uma varieda<strong>de</strong> Riemanniana compacta com fronteira (M, g), po<strong>de</strong>-se <strong>de</strong>finir um opera<strong>do</strong>r laplaciano<br />

∆gu = div (∇u). Em coor<strong>de</strong>nadas locais, ele é um opera<strong>do</strong>r elíptico. Como no caso <strong>de</strong> abertos <strong>de</strong> R n , o<br />

laplaciano em varieda<strong>de</strong>s possui uma seqüência <strong>de</strong> autovalores (o seu espectro). Dizemos que duas varieda<strong>de</strong>s<br />

Riemannianas são isospectrais se seus espectros coincidirem, contan<strong>do</strong> multiplicida<strong>de</strong>s. Uma questão natural<br />

é a seguinte: duas varieda<strong>de</strong>s Riemannianas isospectrais são isométricas? Se consi<strong>de</strong>rarmos varieda<strong>de</strong>s ndimensionais<br />

contida em R n sob a métrica euclidiana, duas varieda<strong>de</strong>s serem isométricas é equivalente a<br />

elas serem congruentes <strong>do</strong> ponto <strong>de</strong> vista da geometria euclidiana clássica. Esta questão para <strong>do</strong>mínios<br />

planos foi colocada <strong>de</strong> maneira mais colorida por Bers e Kac em 1966 ([Kac]; o último atribui o problema<br />

a Bochner em mea<strong>do</strong>s <strong>do</strong>s anos 1950s) como “é possível escutar o formato <strong>de</strong> um tambor?”, já que no caso<br />

<strong>de</strong> <strong>do</strong>mínios no plano os autovalores <strong>do</strong> laplaciano correspon<strong>de</strong>m ao quadra<strong>do</strong> das freqüências naturais <strong>de</strong><br />

vibração produzidas por uma membrana, como vimos na seção anterior. Po<strong>de</strong>-se traçar as origens <strong>de</strong>sta<br />

especulação ao resulta<strong>do</strong> obti<strong>do</strong> por Weyl em 1911 [Weyl] <strong>de</strong> que a área <strong>de</strong> um <strong>do</strong>mínio plano é <strong>de</strong>terminada<br />

pelo espectro <strong>do</strong> laplaciano; em particular, <strong>do</strong>mínios com diferentes áreas nunca po<strong>de</strong>m ter o mesmo espectro.<br />

Sabe-se também que o espectro <strong>de</strong>termina o perímetro e o número <strong>de</strong> componentes conexas <strong>de</strong> um <strong>do</strong>mínio<br />

plano (veja [Kac] para referências). Kac, usan<strong>do</strong> a <strong>de</strong>sigualda<strong>de</strong> perimétrica (perímetro(Ω) 4π área(Ω)) e<br />

o fato que a área e o perímetro são <strong>de</strong>terminadas pelo espectro <strong>do</strong> laplaciano, conseguiu provar que se um<br />

<strong>do</strong>mínio plano possui o mesmo espectro <strong>de</strong> um disco <strong>de</strong> raio r, então ele é congruente ao disco, mostran<strong>do</strong><br />

que existem <strong>do</strong>mínios que são <strong>de</strong>termina<strong>do</strong>s pelo espectro <strong>do</strong> laplaciano.<br />

No entanto, a resposta a este problema no caso geral é negativa: o formato <strong>de</strong> um tambor não é audível.<br />

No caso <strong>de</strong> varieda<strong>de</strong>s Riemannianas, Milnor já havia construí<strong>do</strong> em 1964 [Milnor] um par <strong>de</strong> varieda<strong>de</strong>s<br />

isospectrais não-isométricas <strong>de</strong> dimensão 16; vários outros exemplos se seguiram, incluin<strong>do</strong> superfícies <strong>de</strong><br />

Riemann (veja [GWW1] e [Protter], para referências) até que em 1980 Vignéras [Vigneras] obteve exemplos<br />

<strong>de</strong> varieda<strong>de</strong>s compactas isospectrais não-isométricas <strong>de</strong> qualquer dimensão n 2. Entretanto, a questão <strong>de</strong><br />

Kac para <strong>do</strong>mínios no plano permaneceu em aberta até 1992, quan<strong>do</strong> Gor<strong>do</strong>n, Webb e Wolpert ([GWW1];<br />

veja [GWW2] para os <strong>de</strong>talhes completos), usan<strong>do</strong> resulta<strong>do</strong>s <strong>de</strong> teoria <strong>de</strong> espaços <strong>de</strong> recobrimento e teoria<br />

<strong>do</strong>s grupos, obtiveram um par <strong>de</strong> <strong>do</strong>mínios planos simplesmente conexos não-isométricos com os mesmos


Rodney Josué Biezuner 7<br />

espectros <strong>de</strong> Dirichlet e <strong>de</strong> Neumann. Os contra-exemplos que eles obtiveram têm o formato <strong>de</strong> uma região<br />

poligonal, não-convexa, e o méto<strong>do</strong> permite a obtenção <strong>de</strong> uma larga coleção <strong>de</strong> contra-exemplos. Os<br />

primeiros 54 autovalores <strong>do</strong> primeiro contra-exemplo <strong>de</strong> Gor<strong>do</strong>n, Webb e Wolpert, que ficou conheci<strong>do</strong> como<br />

os tambores GWW, foram encontra<strong>do</strong>s experimentalmente por Sridhar e Kudrolli [Sridhar-Kudrolli]; eles<br />

construíram cavida<strong>de</strong>s <strong>de</strong> microondas com o formato da região poligonal e mediram ressonâncias em ondas<br />

magnéticas transversais, que obe<strong>de</strong>cem a equação <strong>de</strong> Helmoltz. Posteriormente, vários autores calcularam<br />

autovalores e autofunções <strong>do</strong>s tambores GWW através <strong>de</strong> méto<strong>do</strong>s numéricos; veja [Driscoll], [Heuveline] e<br />

as referências nestes artigos.<br />

Uma <strong>de</strong>monstração mais simples e versátil <strong>do</strong> resulta<strong>do</strong> <strong>de</strong> Gor<strong>do</strong>n, Webb e Wolpert, foi dada por Berard<br />

[Berard2], usan<strong>do</strong> a chamada técnica <strong>de</strong> transplantação <strong>de</strong> autofunções, introduzida pelo próprio [Berard1].<br />

Os <strong>do</strong>mínios são construí<strong>do</strong>s a partir <strong>de</strong> translações, rotações e reflexões <strong>de</strong> uma única forma, tal como um<br />

triângulo, sem sobreposições. Dada uma autofunção em um <strong>do</strong>mínio, po<strong>de</strong>-se prescrever uma função sobre<br />

o outro <strong>do</strong>mínio cujos valores sobre cada parte são combinações lineares <strong>do</strong>s valores da autofunção sobre<br />

várias das partes <strong>do</strong> primeiro <strong>do</strong>mínio. As combinações são escolhidas <strong>de</strong> mo<strong>do</strong> a satisfazer as condições<br />

<strong>de</strong> fronteira e igualar valores da função e suas <strong>de</strong>rivadas nas interfaces entre as partes. O resulta<strong>do</strong> é uma<br />

autofunção na segunda região ten<strong>do</strong> o mesmo autovalor. Para completar a prova <strong>de</strong> isospectralida<strong>de</strong>, basta<br />

mostrar que o procedimento é invertível. Usan<strong>do</strong> esta técnica, Chapman [Chapman] obteve alguns exemplos<br />

que po<strong>de</strong>m ser explica<strong>do</strong>s em nível elementar através <strong>de</strong> <strong>do</strong>braduras <strong>de</strong> papel e até mesmo um exemplo on<strong>de</strong><br />

os autovalores <strong>do</strong> laplaciano po<strong>de</strong>m ser calcula<strong>do</strong>s explicitamente (este exemplo consiste <strong>de</strong> <strong>do</strong>is <strong>do</strong>mínios<br />

cada um com duas componentes conexas, um retângulo e um triângulo isósceles reto; veja Exemplo 4 na<br />

próxima seção).<br />

To<strong>do</strong>s os contra-exemplos da<strong>do</strong>s nas referências acima são <strong>de</strong> <strong>do</strong>mínios não-convexos ou com quinas.<br />

Watanabe ([Wat1], [Wat2]) <strong>de</strong>terminou a existência <strong>de</strong> uma classe não-enumerável <strong>de</strong> <strong>do</strong>mínios suaves que<br />

não é um disco (incluin<strong>do</strong> exemplos convexos e não-convexos) que são <strong>de</strong>termina<strong>do</strong>s pelos espectros <strong>de</strong> Dirichlet<br />

ou <strong>de</strong> Neumann <strong>do</strong> laplaciano. Outros exemplos <strong>de</strong> <strong>do</strong>mínios <strong>de</strong>termina<strong>do</strong>s pelo espectro <strong>do</strong> laplaciano,<br />

com a proprieda<strong>de</strong> adicional <strong>de</strong> serem analíticos reais e simétricos com respeito a reflexões em relação a um<br />

eixo horizontal e a um eixo vertical, foram da<strong>do</strong>s por Zelditch [Zelditch]. A i<strong>de</strong>ntificação <strong>de</strong> todas as classes<br />

<strong>de</strong> <strong>do</strong>mínios que são <strong>de</strong>termina<strong>do</strong>s pelo espectro <strong>do</strong> laplaciano é um problema em aberto.<br />

1.2 Exemplos<br />

Exemplo 1. Os autovalores <strong>do</strong> laplaciano para o problema <strong>de</strong> Dirichlet no caso unidimensional<br />

−u ′′ = λu em [0, L] ,<br />

são<br />

As autofunções correspon<strong>de</strong>ntes são<br />

<br />

u (0) = u (L) = 0,<br />

λn = n2π2 , n ∈ N.<br />

L2 un (x) = sen nπx<br />

L .<br />

Exemplo 2. Os autovalores <strong>do</strong> laplaciano para o problema <strong>de</strong> Dirichlet no retângulo R = [0, a] × [0, b] ⊂ R 2<br />

são<br />

− (uxx + uyy) = λu em R,<br />

u = 0 sobre ∂R,<br />

λnm = π 2<br />

2 n m2<br />

+<br />

a2 b2 <br />

, n, m ∈ N.


Rodney Josué Biezuner 8<br />

As autofunções correspon<strong>de</strong>ntes são<br />

<br />

unm (x, y) = sen nπx<br />

a<br />

mπy<br />

sen .<br />

b<br />

Exemplo 3. Os autovalores <strong>do</strong> laplaciano para o problema <strong>de</strong> Dirichlet em um triângulo isósceles reto<br />

T ⊂ R 2 com la<strong>do</strong> menor <strong>de</strong> comprimento c<br />

− (uxx + uyy) = λu em T,<br />

u = 0 sobre ∂T,<br />

são<br />

As autofunções correspon<strong>de</strong>ntes são<br />

<br />

λnm = π 2<br />

2 n m2<br />

+<br />

c2 c2 <br />

, n, m ∈ N.<br />

unm (x, y) = sen nπx<br />

c<br />

sen mπy<br />

c<br />

− sen mπx<br />

c<br />

sen nπy<br />

c .<br />

Exemplo 4. [Chapman] A partir <strong>do</strong>s Exemplos 2 e 3 po<strong>de</strong>mos construir <strong>do</strong>is <strong>do</strong>mínios planos isospectrais<br />

Ω1 e Ω2 que não são isométricos. De fato, cada Ωi é a união disjunta <strong>de</strong> um retângulo e um triângulo<br />

isósceles reto:<br />

Ω1 = R1 ∪ T1,<br />

Ω2 = R2 ∪ T2,<br />

on<strong>de</strong> R1 é um quadra<strong>do</strong> unitário, R2 é um retângulo <strong>de</strong> comprimento 2 e altura 1 e T1 e T2 são triângulos<br />

isósceles √ retos, os la<strong>do</strong>s menores <strong>do</strong> primeiro ten<strong>do</strong> comprimento 2 e os <strong>do</strong> segun<strong>do</strong> com comprimento<br />

2. Os autovalores <strong>de</strong> um <strong>do</strong>mínio que é a união disjunta <strong>de</strong> várias componentes conexas (incluin<strong>do</strong><br />

as fronteiras <strong>de</strong> cada componente) é a união <strong>do</strong>s autovalores <strong>de</strong> cada componente, as autofunções <strong>do</strong><br />

<strong>do</strong>mínio sen<strong>do</strong> as funções que são iguais às autofunções em cada componente e zero nas <strong>de</strong>mais. De<br />

acor<strong>do</strong> com os Exemplos 2 e 3, segue que os espectros <strong>do</strong>s <strong>do</strong>mínios Ω1 e Ω2 são da<strong>do</strong>s por<br />

ΛΩ1 = π 2 n 2 + m 2<br />

n,m∈N ∪<br />

ΛΩ2 =<br />

<br />

π 2<br />

<br />

2 N 2<br />

+ M<br />

4<br />

N,M∈N<br />

<br />

π 2<br />

ΛΩ2 ⊂ ΛΩ1: Seja λ ∈ ΛΩ2 um autovalor da forma π2 2 N 2 + M<br />

2<br />

n = N<br />

2<br />

e m = M, obten<strong>do</strong> N 2<br />

2 N<br />

min (N, 2M), produzin<strong>do</strong><br />

<br />

2 n m2<br />

+ ,<br />

4 4 n,m∈N<br />

<br />

∪ π 2<br />

<br />

2 2 N M<br />

+ .<br />

2 2 N,M∈N<br />

<br />

, N, M ∈ N. Se N é par, tomamos<br />

4 + M 2 = n 2 + m 2 ; se N é ímpar, escolhemos n = max (N, 2M), m =<br />

4 +M 2 = n2<br />

4<br />

+ m2<br />

4 . Se λ ∈ ΛΩ2 é um autovalor da forma π 2<br />

N, M ∈ N, escolhemos n = N + M e m = |N − M|, <strong>de</strong> mo<strong>do</strong> que<br />

N 2<br />

2<br />

+ M 2<br />

2<br />

= n2<br />

4<br />

N 2<br />

+ m2<br />

4 .<br />

2<br />

+ M 2<br />

2<br />

ΛΩ1 ⊂ ΛΩ2: Se λ ∈ ΛΩ1 é um autovalor da forma π2 n2 + m2 , n, m ∈ N, escolhemos N = 2n<br />

e M = m, obten<strong>do</strong> n2 + m2 2 N<br />

=<br />

4 + M 2 . Seja λ ∈ ΛΩ2 um autovalor da forma π2 <br />

2 n m2<br />

+ ,<br />

4 4<br />

<br />

,


Rodney Josué Biezuner 9<br />

n, m ∈ N. Se n é par, tomamos N = m e M = n<br />

n2<br />

, <strong>de</strong> mo<strong>do</strong> que<br />

2 4<br />

tomamos N = n e M = m<br />

para produzir o mesmo resulta<strong>do</strong>.<br />

2<br />

Portanto,<br />

ΛΩ1 = ΛΩ2<br />

+ m2<br />

4<br />

= N 2<br />

4 + M 2 ; se m é par,<br />

embora Ω1 e Ω2 não sejam congruentes. Observe que, como requer o resulta<strong>do</strong> obti<strong>do</strong> por Weil<br />

(discuti<strong>do</strong> na seção anterior), Ω1 e Ω2 possuem a mesma área igual a 2, o mesmo perímetro igual a<br />

8 + 2 √ 2 e obviamente o mesmo número <strong>de</strong> componentes conexas. <br />

Exemplo 5. Os autovalores <strong>do</strong> laplaciano para o problema <strong>de</strong> Dirichlet no paralelepípe<strong>do</strong> P = [0, a]×[0, b]×<br />

[0, c] ⊂ R 3<br />

− (uxx + uyy + uzz) = λu em P,<br />

u = 0 sobre ∂P,<br />

são<br />

As autofunções correspon<strong>de</strong>ntes são<br />

<br />

λnmk = π 2<br />

2 n<br />

a<br />

b<br />

c 2<br />

m2 k2<br />

+ + 2 2<br />

unmk (x, y) = sen nπx<br />

a<br />

<br />

, n, m, k ∈ N.<br />

sen mπy<br />

b<br />

sen kπz<br />

c .<br />

Exemplo 6. Os autovalores <strong>do</strong> laplaciano para o problema <strong>de</strong> Dirichlet no disco D = x ∈ R 2 : x R <br />

são<br />

⎧<br />

⎨<br />

⎩<br />

<br />

− urr + 1<br />

r ur + + 1<br />

<br />

uθθ = λu<br />

r2 se 0 < r < 1 e 0 < θ < 2π,<br />

u = 0 se r = R e 0 < θ < 2π,<br />

λnm =<br />

<br />

αn,m<br />

2<br />

, n = 0, 1, 2, . . . , m = 1, 2, . . .<br />

R<br />

on<strong>de</strong> αn,m é o m-ésimo zero positivo da função <strong>de</strong> Bessel <strong>do</strong> primeiro tipo Jn<br />

As autofunções correspon<strong>de</strong>ntes são<br />

Jn(r) =<br />

u0m (r, θ) = J0 (λ0mr) ,<br />

∞<br />

k=0<br />

(−1) k<br />

k!(k + n)!<br />

<br />

r<br />

2k+n .<br />

2<br />

u 1 nm (r, θ) = cos nθJn (λnmr) e u 2 nm (r, θ) = sen nθJn (λnmr) .<br />

Note que para m = 1, 2, . . . temos duas autofunções distintas para um da<strong>do</strong> autovalor, isto é, tais<br />

autovalores têm multiplicida<strong>de</strong> pelo menos igual a 2. <br />

Exemplo 7. Os autovalores <strong>do</strong> laplaciano para o problema <strong>de</strong> Dirichlet na bola B = x ∈ R3 : x R <br />

⎧<br />

⎨<br />

⎩<br />

são<br />

<br />

− urr + 2<br />

r ur + 1<br />

r2 <br />

uθθ + cot θ uθ + csc2 <br />

θuφφ<br />

<br />

= λu se 0 < r < 1, 0 < θ < 2π e 0 < φ < π<br />

u = 0 se r = R, 0 < θ < 2π e 0 < φ < π<br />

λnm =<br />

<br />

αn+ 1<br />

2 ,m<br />

2 , n = 0, 1, 2, . . . , m = 1, 2, . . .<br />

R


Rodney Josué Biezuner 10<br />

on<strong>de</strong> α 1 n+ 2 ,m é o m-ésimo zero positivo da função <strong>de</strong> Bessel <strong>do</strong> primeiro tipo J 1 n+ 2<br />

J 1 n+ (r) =<br />

2<br />

∞<br />

k=0<br />

(−1) k<br />

k!Γ k + n + 1<br />

2 + 1<br />

À cada autovalor λnm correspon<strong>de</strong>m 2n + 1 autofunções<br />

<br />

r<br />

1 2k+n+ 2<br />

.<br />

2<br />

u k nm (r, θ, φ) = jn (λnmr) Yn,k (θ, φ) , k = −n, −n + 1, . . . , −1, 0, 1, . . . , n − 1, n,<br />

on<strong>de</strong> jn é a função <strong>de</strong> Bessel esférica <strong>do</strong> primeiro tipo<br />

e Yn,k são as harmônicas esféricas<br />

Yn,k (θ, φ) =<br />

com P k n sen<strong>do</strong> a função <strong>de</strong> Legendre<br />

<br />

jn (r) =<br />

<br />

P 0 n (r) = 1<br />

2n d<br />

n!<br />

n<br />

drn 2 n<br />

r − 1 ,<br />

P k n (r) = (−1) k 1 − r 2k/2 dk π<br />

2r J n+ 1<br />

2 (r),<br />

2n + 1 (n − k)!<br />

4π (n + k)! P k n (cos θ) e ikφ ,<br />

dr k P 0 n (r) , se 0 k n,<br />

P k n (r) = (−1) k (n + k)! −k<br />

Pn (r) , se − n k < 0.<br />

(n − k)!<br />

1.3 Princípio <strong>do</strong> Máximo Fraco: O <strong>Laplaciano</strong> não possui <strong>Autovalores</strong><br />

Negativos<br />

1.1 Lema. (Princípio <strong>do</strong> Máximo Fraco) Seja Ω ⊂ R n um aberto limita<strong>do</strong>. Seja u ∈ C 2 (Ω) ∩ C 0 (Ω).<br />

Se ∆u 0 em Ω, então<br />

Se ∆u 0 em Ω, então<br />

max u = max<br />

Ω ∂Ω u;<br />

min u = min<br />

Ω ∂Ω u.<br />

Em particular, se u satisfaz ∆u = 0 em Ω, então u atinge o seu máximo e o seu mínimo na fronteira<br />

<strong>de</strong> Ω.<br />

Prova: Sejam<br />

M = max u e m = max<br />

Ω<br />

∂Ω u<br />

e suponha por absur<strong>do</strong> que m < M. Então existe um ponto x0 ∈ Ω\∂Ω tal que u (x0) = M. Defina a função<br />

v (x) = u (x) +<br />

M − m<br />

4d 2<br />

|x − x0| 2 ,


Rodney Josué Biezuner 11<br />

d = diam Ω. Se x ∈ ∂Ω, temos<br />

M − m<br />

v (x) m +<br />

4d2 d2 = 3<br />

4<br />

m + M<br />

4<br />

e como u (x0) = v (x0) = M, segue que o máximo <strong>de</strong> v também é assumi<strong>do</strong> em um ponto <strong>de</strong> Ω\∂Ω, digamos<br />

em x. Mas, como x é um ponto <strong>de</strong> máximo para v, <strong>de</strong>vemos ter<br />

∆v (x) 0,<br />

< M,<br />

enquanto que, pela <strong>de</strong>finição <strong>de</strong> v e pelo fato <strong>de</strong> u satisfazer a equação <strong>de</strong> Laplace, para to<strong>do</strong> x temos<br />

∆v (x) = ∆u (x) +<br />

M − m<br />

2d 2<br />

M − m<br />

<br />

2d2 > 0,<br />

uma contradição. Isso mostra que u atinge o seu máximo em ∂Ω.<br />

Para provar a segunda afirmação, basta consi<strong>de</strong>rar −u e observar que min u = − max(−u). <br />

Defina a parte positiva e a parte negativa <strong>de</strong> uma função u respectivamente por<br />

u + = max(u, 0),<br />

u − = min(u, 0).<br />

1.2 Corolário. Seja Ω ⊂ R n um aberto limita<strong>do</strong>. Seja λ ∈ R, λ 0. Seja u ∈ C 2 (Ω) ∩ C 0 (Ω).<br />

Se −∆u − λu 0 em Ω, então<br />

Se −∆u − λu 0 em Ω, então<br />

max u max<br />

Ω ∂Ω u+ .<br />

min u min<br />

Ω ∂Ω u− .<br />

Em particular, se u satisfaz −∆u = λu em Ω, então<br />

max |u| = max<br />

Ω<br />

∂Ω |u|<br />

<strong>de</strong> mo<strong>do</strong> que se o problema <strong>de</strong> Dirichlet<br />

−∆u = λu em Ω,<br />

u = 0 sobre ∂Ω,<br />

possuir solução u ∈ C 2 (Ω) ∩ C 0 (Ω), então a solução é trivial. Conseqüentemente, o problema <strong>de</strong><br />

Dirichlet para o laplaciano não possui autovalores negativos ou nulos.<br />

Prova. Assuma primeiro −∆u − λu 0 em Ω. Se u 0 em Ω, então o corolário vale trivialmente. Logo,<br />

po<strong>de</strong>mos assumir que Ω + = {x ∈ Ω : u(x) > 0} = ∅. Como −λu 0 em Ω + , temos que ∆u 0 em Ω + .<br />

Segue <strong>do</strong> Princípio <strong>do</strong> Máximo Fraco que<br />

max<br />

Ω +<br />

u = max u.<br />

∂Ω +<br />

Mas u = 0 em ∂Ω + ∩ Ω, logo o máximo <strong>de</strong>ve ser atingi<strong>do</strong> em ∂Ω. O caso −∆u − λu 0 segue <strong>do</strong> primeiro<br />

consi<strong>de</strong>ran<strong>do</strong> −u.


Rodney Josué Biezuner 12<br />

1.4 Méto<strong>do</strong>s Variacionais para <strong>Autovalores</strong> <strong>de</strong> Opera<strong>do</strong>res Lineares<br />

Nesta seção vamos rever os méto<strong>do</strong>s variacionais para a obtenção <strong>de</strong> autovalores para opera<strong>do</strong>res lineares<br />

<strong>de</strong>fini<strong>do</strong>s em espaços <strong>de</strong> dimensão finita provi<strong>do</strong>s <strong>de</strong> produto interno. A teoria será então generalizada mais<br />

tar<strong>de</strong> para obter a existência e algumas proprieda<strong>de</strong>s básicas <strong>do</strong>s autovalores <strong>do</strong> laplaciano. Em primeiro<br />

lugar, discutiremos o Princípio <strong>de</strong> Rayleigh, que afirma que o menor autovalor <strong>de</strong> um opera<strong>do</strong>r linear po<strong>de</strong><br />

ser encontra<strong>do</strong> como o mínimo <strong>de</strong> um certo funcional, enquanto que o seu maior autovalor é o máximo <strong>de</strong>ste<br />

mesmo funcional:<br />

1.3 Teorema. (Princípio <strong>de</strong> Rayleigh) Seja V um espaço vetorial com produto interno <strong>de</strong> dimensão n e<br />

T : V −→ V um opera<strong>do</strong>r linear auto-adjunto. Sejam λ1 . . . λn os autovalores <strong>de</strong> T , <strong>de</strong> mo<strong>do</strong> que<br />

λ1 é o menor autovalor <strong>de</strong> T e λn é o maior autovalor <strong>de</strong> T . Então<br />

e<br />

λ1 = min<br />

x∈V<br />

x=0<br />

λn = max<br />

x∈V<br />

x=0<br />

〈T x, x〉<br />

2 = min 〈T x, x〉 (1.4)<br />

x<br />

x∈V<br />

x=1<br />

〈T x, x〉<br />

2 = max 〈T x, x〉 (1.5)<br />

x<br />

x∈V<br />

x=1<br />

Prova: Seja B = {v1, . . . , vn} uma base ortonormal <strong>de</strong> autovetores <strong>de</strong> T correspon<strong>de</strong>ntes aos autovalores<br />

λ1 . . . λn <strong>de</strong> T . Então, para to<strong>do</strong> x = n<br />

xivi ∈ V temos<br />

〈T x, x〉 =<br />

=<br />

=<br />

<br />

T<br />

n<br />

i=1<br />

xivi<br />

<br />

,<br />

n<br />

j=1<br />

n<br />

〈λixivi, xjvj〉 =<br />

i,j=1<br />

n<br />

i=1<br />

λix 2 i .<br />

Portanto, para to<strong>do</strong> x ∈ V , x = 0, vale<br />

λ1 x 2 =<br />

i=1<br />

xjvj<br />

<br />

n<br />

n<br />

= xiT vi,<br />

i=1<br />

n<br />

λixixj 〈vi, vj〉<br />

i,j=1<br />

n<br />

λ1x 2 i 〈T x, x〉 <br />

i=1<br />

j=1<br />

xjvj<br />

<br />

n<br />

n<br />

= λixivi,<br />

i=1<br />

n<br />

λnx 2 i = λn x 2<br />

O mínimo é atingi<strong>do</strong> em x = v1, ou em qualquer outro autovetor <strong>de</strong> T associa<strong>do</strong> a λ1, e o máximo é atingi<strong>do</strong><br />

em x = vn, ou em qualquer outro autovetor <strong>de</strong> T associa<strong>do</strong> a λn. <br />

O quociente<br />

〈T x, x〉<br />

x 2<br />

é chama<strong>do</strong> o quociente <strong>de</strong> Rayleigh.<br />

Os <strong>de</strong>mais autovalores <strong>de</strong> T , λ2, . . . , λn−1, são pontos <strong>de</strong> sela e po<strong>de</strong>m ser encontra<strong>do</strong> através <strong>de</strong> um<br />

princípio <strong>de</strong> minimax:<br />

1.4 Teorema. (Princípio <strong>de</strong> Minimax para <strong>Autovalores</strong>) Seja V um espaço vetorial com produto interno <strong>de</strong><br />

dimensão n e T : V −→ V um opera<strong>do</strong>r linear auto-adjunto. Sejam λ1 . . . λn os autovalores <strong>de</strong><br />

i=1<br />

j=1<br />

xjvj


Rodney Josué Biezuner 13<br />

T . Então, se Wj <strong>de</strong>nota o conjunto <strong>do</strong>s subespaços <strong>de</strong> V <strong>de</strong> dimensão j, temos<br />

⎛<br />

⎞ ⎛<br />

λj = min ⎝ max 〈T x, x〉 ⎠ = min ⎝max<br />

〈T x, x〉<br />

W ∈Wj x∈W<br />

W ∈Wj x∈W x<br />

x=1<br />

x=0<br />

2<br />

⎞<br />

⎠ . (1.6)<br />

ou, dualmente,<br />

λj = max<br />

W ∈Wj−1<br />

⎛<br />

⎞<br />

⎝ min 〈T x, x〉 ⎠ = max<br />

x⊥W<br />

x=1<br />

W ∈Wj−1<br />

⎛<br />

⎝ min<br />

x⊥W<br />

x=0<br />

〈T x, x〉<br />

x 2<br />

⎞<br />

⎠ . (1.7)<br />

Prova: Provemos primeiro (1.6). Seja W ⊂ V um subespaço <strong>de</strong> dimensão j. Primeiro mostraremos que<br />

max 〈T x, x〉 λj.<br />

x∈W<br />

x=1<br />

Seja B = {v1, . . . , vn} uma base ortonormal <strong>de</strong> autovetores <strong>de</strong> T correspon<strong>de</strong>ntes aos autovalores λ1, . . . , λn.<br />

Seja Z = 〈v1, . . . , vj−1〉. Como Z ⊥ = 〈vj, . . . , vn〉, temos<br />

<strong>de</strong> mo<strong>do</strong> que<br />

n dim W + Z ⊥ = dim W + dim Z ⊥ − dim W ∩ Z ⊥ = j + n − (j − 1) − dim W ∩ Z ⊥ ,<br />

dim W ∩ Z ⊥ 1<br />

e existe um vetor x ∈ W ∩ Z⊥ tal que x = 1. Escreven<strong>do</strong> x = n<br />

xkvk, temos x = n<br />

<br />

n<br />

n<br />

〈T x, x〉 = xkT vk,<br />

=<br />

k=j<br />

n<br />

k=j<br />

λkx 2 k λj<br />

l=j<br />

n<br />

k=j<br />

xlvl<br />

k=j<br />

k=j<br />

<br />

n<br />

n<br />

= xkλkvk,<br />

x 2 k = λj.<br />

l=j<br />

xlvl<br />

<br />

=<br />

x<br />

k=j<br />

2 k<br />

n<br />

λkxkxl 〈vk, vl〉<br />

k,l=j<br />

= 1, <strong>do</strong>n<strong>de</strong><br />

Para completar a <strong>de</strong>monstração, <strong>de</strong>vemos encontrar um subespaço W ⊂ V <strong>de</strong> dimensão j tal que 〈T x, x〉 <br />

λj para to<strong>do</strong> x ∈ W com x = 1. Tomemos W = 〈v1, . . . , vj〉. Temos<br />

<br />

j<br />

〈T x, x〉 = xkT vk,<br />

=<br />

k=1<br />

j<br />

k=1<br />

λkx 2 k λj<br />

j<br />

l=1<br />

xlvl<br />

j<br />

k=1<br />

<br />

j<br />

= xkλkvk,<br />

x 2 k = λj.<br />

k=1<br />

j<br />

l=1<br />

xlvl<br />

<br />

=<br />

j<br />

λkxkxl 〈vk, vl〉<br />

O minimax é atingi<strong>do</strong> em vj.<br />

Vamos agora provar o princípio dual (1.7). Seja W ⊂ V um subespaço <strong>de</strong> dimensão j − 1. Primeiro<br />

mostraremos que<br />

min 〈T x, x〉 λj.<br />

x⊥W<br />

x=1<br />

Como antes, B = {v1, . . . , vn} é uma base ortonormal <strong>de</strong> autovetores <strong>de</strong> T correspon<strong>de</strong>ntes aos autovalores<br />

λ1, . . . , λn. Seja Z = 〈v1, . . . , vj〉. Como W ⊥ tem dimensão n − (j − 1), temos<br />

n dim W ⊥ + Z = dim W ⊥ + dim Z − dim W ⊥ ∩ Z = n − (j − 1) + j − dim W ⊥ ∩ Z ,<br />

k,l=1


Rodney Josué Biezuner 14<br />

<strong>de</strong> mo<strong>do</strong> que<br />

dim W ⊥ ∩ Z 1<br />

e existe um vetor x ∈ Z tal que x ⊥ W e x = 1. Escreven<strong>do</strong> x = j<br />

xkvk, temos x = j<br />

<br />

j<br />

〈T x, x〉 = xkT vk,<br />

=<br />

k=1<br />

j<br />

k=1<br />

λkx 2 k λj<br />

j<br />

l=1<br />

xlvl<br />

j<br />

k=1<br />

<br />

j<br />

= xkλkvk,<br />

x 2 k = λj.<br />

k=1<br />

j<br />

l=1<br />

k=1<br />

xlvl<br />

<br />

=<br />

x<br />

k=1<br />

2 k<br />

j<br />

λkxkxl 〈vk, vl〉<br />

k,l=1<br />

= 1, <strong>do</strong>n<strong>de</strong><br />

Para completar a <strong>de</strong>monstração, <strong>de</strong>vemos encontrar um subespaço W ⊂ V <strong>de</strong> dimensão j − 1 tal que<br />

〈T x, x〉 λj para to<strong>do</strong> x ⊥ W com x = 1. Tomemos W = 〈v1, . . . , vj−1〉. Então W ⊥ = 〈vj, . . . , vn〉 e<br />

para to<strong>do</strong> x ∈ W ⊥ com x = 1 temos<br />

<br />

n<br />

n<br />

<br />

n<br />

n<br />

<br />

n<br />

〈T x, x〉 = xkT vk, = xkλkvk, = λkxkxl 〈vk, vl〉<br />

=<br />

k=j<br />

n<br />

k=j<br />

O maximin é atingi<strong>do</strong> em vj. <br />

λkx 2 k λj<br />

l=j<br />

n<br />

k=j<br />

xlvl<br />

x 2 k = λj.<br />

1.5 Os Espaços <strong>de</strong> Sobolev W 1,2 e W 1,2<br />

0<br />

k=j<br />

Para generalizar os méto<strong>do</strong>s variacionais discuti<strong>do</strong>s na seção anterior para encontrar os autovalores <strong>do</strong> <strong>Laplaciano</strong>,<br />

é necessário <strong>de</strong>finir um espaço <strong>de</strong> funções <strong>do</strong>ta<strong>do</strong> <strong>de</strong> um produto interno a<strong>de</strong>qua<strong>do</strong>. Para <strong>do</strong>mínios<br />

limita<strong>do</strong>s, o espaço a<strong>de</strong>qua<strong>do</strong> para se trabalhar é o espaço <strong>de</strong> Sobolev.<br />

1.5.1 A Derivada Fraca<br />

Seja Ω um aberto <strong>de</strong> Rn . Suponha que u ∈ C1 (Ω) é uma função real continuamente diferenciável. Se<br />

ϕ ∈ C∞ 0 (Ω) é uma função suave com suporte compacto em Ω, segue da fórmula <strong>de</strong> integração por partes que<br />

<br />

u ∂ϕ<br />

<br />

dx = −<br />

∂xi<br />

∂u<br />

ϕ dx<br />

∂xi<br />

(1.8)<br />

Ω<br />

para i = 1, . . . , n. Não há termos <strong>de</strong> fronteira exatamente porque ϕ tem suporte compacto em Ω.<br />

Definição. Seja Ω ⊂ Rn um subconjunto aberto e u ∈ L1 loc (Ω). Dizemos que uma função vi ∈ L1 loc (Ω) é<br />

uma <strong>de</strong>rivada fraca <strong>de</strong> u, se <br />

u<br />

Ω<br />

∂ϕ<br />

<br />

dx = − viϕ dx, (1.9)<br />

∂xi<br />

para toda ϕ ∈ C ∞ 0 (Ω). Se este for o caso, <strong>de</strong>notamos<br />

Ω<br />

Ω<br />

l=j<br />

xlvl<br />

k,l=j<br />

vi = ∂u<br />

. (1.10)<br />

∂xi<br />

Dizemos que u é fracamente diferenciável se todas as <strong>de</strong>rivadas fracas <strong>de</strong> primeira or<strong>de</strong>m <strong>de</strong> u<br />

existirem. O espaço vetorial das funções fracamente diferenciáveis é <strong>de</strong>nota<strong>do</strong> por W 1 (Ω).


Rodney Josué Biezuner 15<br />

Quan<strong>do</strong> existe, vi é únicamente <strong>de</strong>terminada a menos <strong>de</strong> conjuntos <strong>de</strong> medida nula. Claramente C 1 (Ω) ⊂<br />

W 1 (Ω): o conceito <strong>de</strong> <strong>de</strong>rivada fraca é uma extensão <strong>do</strong> conceito clássico <strong>de</strong> <strong>de</strong>rivada que mantém a valida<strong>de</strong><br />

da fórmula <strong>de</strong> integração por partes.<br />

Exemplo 1. Sejam n = 1, Ω = (0, 2) e<br />

Então, se<br />

u(x) =<br />

v(x) =<br />

x se 0 < x 1,<br />

1 se 1 x < 2.<br />

1 se 0 < x 1,<br />

0 se 1 x < 2,<br />

temos u ′ (x) = v(x). De fato, dada ϕ ∈ C ∞ 0 ((0, 2)), temos<br />

<br />

2<br />

Exemplo 2. Sejam n = 1, Ω = (0, 2) e<br />

0<br />

uϕ ′ dx =<br />

u(x) =<br />

1<br />

0<br />

xϕ ′ dx +<br />

= ϕ(1) − 0 −<br />

= −<br />

2<br />

0<br />

vϕ dx.<br />

2<br />

1<br />

1<br />

0<br />

ϕ ′ dx<br />

ϕ dx + 0 − ϕ(1)<br />

x se 0 < x 1,<br />

2 se 1 x < 2.<br />

Então u não possui uma <strong>de</strong>rivada fraca. Com efeito, suponha por absur<strong>do</strong> que exista uma função<br />

v ∈ L1 loc ((0, 2)) satisfazen<strong>do</strong><br />

para toda ϕ ∈ C ∞ 0 ((0, 2)). Então<br />

ou seja,<br />

−<br />

2<br />

0<br />

vϕ dx =<br />

1<br />

0<br />

= −ϕ(1) −<br />

2<br />

0<br />

xϕ ′ dx + 2<br />

1<br />

0<br />

ϕ(1) =<br />

uϕ ′ dx = −<br />

2<br />

1<br />

ϕ dx,<br />

1<br />

0<br />

2<br />

0<br />

vϕ dx,<br />

ϕ ′ dx = ϕ(1) − 0 −<br />

ϕ dx +<br />

2<br />

0<br />

vϕ dx.<br />

1<br />

0<br />

ϕ dx + 0 − 2ϕ(1)<br />

para toda ϕ ∈ C ∞ 0 ((0, 2)). Escolhen<strong>do</strong> uma seqüência <strong>de</strong> funções-teste (ϕm) ⊂ C ∞ 0 ((0, 2)) satisfazen<strong>do</strong><br />

ϕm(1) = 1, 0 ϕm 1 e ϕm(x) → 0 para to<strong>do</strong> x = 1, obtemos através <strong>do</strong> teorema da convergência<br />

<strong>do</strong>minada <strong>de</strong> Lebesgue que<br />

uma contradição. <br />

1 = lim<br />

m→∞ ϕm(1)<br />

1<br />

= lim<br />

m→∞<br />

0<br />

ϕm dx +<br />

2<br />

0<br />

<br />

vϕm dx = 0,


Rodney Josué Biezuner 16<br />

Estes exemplos não são aci<strong>de</strong>ntais. É possível provar que uma função real em uma variável real possui uma<br />

<strong>de</strong>rivada fraca se e somente se ela for absolutamente contínua (a menos <strong>de</strong> modificações em conjuntos <strong>de</strong><br />

medida nula); em particular, isso implica que ela é diferenciável no senti<strong>do</strong> clássico em quase to<strong>do</strong> ponto. No<br />

caso <strong>de</strong> funções <strong>de</strong> várias variáveis, po<strong>de</strong>-se provar que uma função u ∈ L1 loc (Ω) é fracamente diferenciável<br />

se e somente se ela é igual, a menos <strong>de</strong> um conjunto <strong>de</strong> medida nula, a uma função que (1) é absolutamente<br />

contínua em quase to<strong>do</strong>s os segmentos em Ω paralelos aos eixos coor<strong>de</strong>na<strong>do</strong>s e (2) as <strong>de</strong>rivadas parciais <strong>de</strong><br />

u são localmente integráveis. Para maiores <strong>de</strong>talhes, veja [Biezuner].<br />

1.5.2 Espaços <strong>de</strong> Sobolev<br />

Seja Ω um aberto <strong>de</strong> Rn . Definimos<br />

W 1,2 <br />

(Ω) = u ∈ W 1 (Ω) : u ∈ L 2 (Ω) e ∂u<br />

∂xi<br />

W 1,2 (Ω) é claramente um espaço vetorial. Ele é muni<strong>do</strong> da norma<br />

Definimos também<br />

uW 1,2 (Ω) = |u|<br />

Ω<br />

2 n<br />

<br />

+<br />

i=1<br />

∈ L 2 <br />

(Ω) para to<strong>do</strong> i = 1, . . . , n . (1.11)<br />

Ω<br />

<br />

<br />

<br />

∂u <br />

<br />

∂xi<br />

<br />

2 1/2<br />

W 1,2<br />

0 (Ω) = fecho <strong>de</strong> C ∞ 0 (Ω) em W 1,2 (Ω).<br />

. (1.12)<br />

Em ambos os espaços vetoriais norma<strong>do</strong>s W 1,2 (Ω) e W 1,2<br />

0 (Ω) <strong>de</strong>finimos o produto interno<br />

<br />

〈u, v〉 =<br />

Ω<br />

uv +<br />

n<br />

<br />

i=1<br />

Ω<br />

∂u ∂v<br />

= 〈u, v〉 L2 (Ω) +<br />

∂xi ∂xi<br />

n<br />

<br />

∂u<br />

,<br />

∂xi<br />

∂v<br />

<br />

∂xi L2 . (1.13)<br />

(Ω)<br />

Desta forma, a norma <strong>de</strong>finida acima é <strong>de</strong>rivada <strong>de</strong>ste produto interno. Ela também é equivalente à norma<br />

<br />

uW 1,2 (Ω) =<br />

|u|<br />

Ω<br />

2<br />

1/2 = u L 2 (Ω) +<br />

+<br />

n<br />

i=1<br />

n<br />

<br />

<br />

<br />

∂u <br />

<br />

∂xi<br />

1.5.3 Proprieda<strong>de</strong>s <strong>do</strong>s Espaços <strong>de</strong> Sobolev<br />

i=1<br />

Ω<br />

i=1<br />

L 2 (Ω)<br />

<br />

<br />

<br />

∂u <br />

<br />

∂xi<br />

<br />

.<br />

2 1/2<br />

Assumiremos os resulta<strong>do</strong>s a seguir sem <strong>de</strong>monstração (veja [Biezuner] para a <strong>de</strong>monstração <strong>de</strong>stes resulta<strong>do</strong>s).<br />

1.3 Teorema. W 1,2 (Ω) é um espaço <strong>de</strong> Hilbert. Em particular, W 1,2<br />

0 (Ω) também é um espaço <strong>de</strong> Hilbert.<br />

1.4 Teorema. C ∞ (Ω) ∩ W 1,2 (Ω) é <strong>de</strong>nso em W 1,2 (Ω). Se Ω um aberto com fronteira <strong>de</strong> classe C 1 , então<br />

C ∞ (Ω) ∩ W 1,2 (Ω) é <strong>de</strong>nso em W 1,2 (Ω).<br />

Os seguintes resulta<strong>do</strong>s caracterizam o espaço W 1,2<br />

0 (Ω):<br />

1.5 Teorema. Se u ∈ W 1,2 (Ω) satisfaz supp u ⊂⊂ Ω, então u ∈ W 1,2<br />

0 (Ω).<br />

Se Ω ⊂ Rn é um aberto com fronteira <strong>de</strong> classe C1 e se u ∈ W 1,2 (Ω) ∩ C(Ω), então u ∈ W 1,2<br />

0 (Ω) se e<br />

somente se u = 0 em ∂Ω.


Rodney Josué Biezuner 17<br />

As proprieda<strong>de</strong>s <strong>de</strong> imersão compacta <strong>do</strong>s espaços <strong>de</strong> Sobolev são as que lhe conferem a sua gran<strong>de</strong><br />

utilida<strong>de</strong>. Recordamos os conceitos <strong>de</strong> imersão contínua e imersão compacta:<br />

Definição. Seja E um subespaço vetorial norma<strong>do</strong> <strong>de</strong> um espaço norma<strong>do</strong> F (ou seja, a norma em E não<br />

precisa necessariamente ser a norma induzida <strong>de</strong> F ). Dizemos que a inclusão E ⊂ F é uma imersão<br />

(contínua) se a aplicação inclusão I : E → F <strong>de</strong>finida por Ix = x for contínua. Denotamos este fato<br />

por<br />

E ↩→ F.<br />

Se, além disso, a aplicação inclusão for compacta, dizemos que a imersão E ↩→ F é compacta.<br />

Denotaremos a imersão compacta <strong>de</strong> um espaço vetorial norma<strong>do</strong> E em um espaço vetorial norma<strong>do</strong><br />

F por<br />

E ↩ → F.<br />

Como a aplicação inclusão é linear, o fato <strong>de</strong> existir uma imersão E ↩→ F é equivalente à existência <strong>de</strong> uma<br />

constante C tal que<br />

xF C xE para to<strong>do</strong> x ∈ E.<br />

Em particular, se (xn) é uma seqüência <strong>de</strong> Cauchy em E, então (xn) também é uma seqüência <strong>de</strong> Cauchy<br />

em F ; logo, se xn → x em E, então xn → x em F também. É claro que se E tem a norma induzida <strong>de</strong> F ,<br />

então a inclusão E ⊂ F é uma imersão, com C = 1. Quan<strong>do</strong> existe uma imersão E ↩→ F , dizer que ela é<br />

compacta é equivalente a dizer que seqüências limitadas <strong>de</strong> (E, ·E ) possuem subseqüências convergentes<br />

em (F, ·F ).<br />

1.6 Teorema. (Teorema da Imersão <strong>de</strong> Sobolev) Seja Ω ⊂ R n um aberto. Então<br />

W 1,2 (Ω) ↩→ L 2 (Ω),<br />

W 1,2<br />

0 (Ω) ↩→ L 2 (Ω).<br />

Prova: Usan<strong>do</strong> a norma equivalente introduzida acima, se E = W 1,2 (Ω) ou se E = W 1,2<br />

0 (Ω) temos<br />

<br />

u E = u L 2 (Ω) +<br />

n<br />

<br />

<br />

<br />

∂u <br />

<br />

∂xi<br />

i=1<br />

L 2 (Ω)<br />

u L 2 (Ω) .<br />

1.7 Teorema. (Teorema <strong>de</strong> Rellich–Kondrakhov) Seja Ω ⊂ R n um aberto limita<strong>do</strong> com fronteira <strong>de</strong> classe<br />

C 1 . Então<br />

W 1,2 (Ω) ↩ → L 2 (Ω) ,<br />

Se trocarmos W 1,2 por W 1,2<br />

0 , o resulta<strong>do</strong> é váli<strong>do</strong> para abertos arbitrários.<br />

1.8 Teorema. (Desigualda<strong>de</strong> <strong>de</strong> Poincaré) Seja Ω ⊂ R n um aberto limita<strong>do</strong>. Então<br />

u L 2 (Ω) <br />

|Ω|<br />

ωn<br />

1/n<br />

∇u L 2 (Ω) .<br />

para to<strong>do</strong> u ∈ W 1,2<br />

0 (Ω) (aqui ωn é o volume da bola unitária em R n ).<br />

Observe que o Teorema 1.8 não é váli<strong>do</strong> se trocamos W 1,2<br />

0<br />

por W 1,2 porque as funções constantes pertencem<br />

a W 1,2 e não satisfazem a <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Poincaré (pois têm <strong>de</strong>rivada nula).


Rodney Josué Biezuner 18<br />

1.6 Existência e Unicida<strong>de</strong> <strong>de</strong> Soluções para o <strong>Laplaciano</strong> através<br />

<strong>do</strong> Méto<strong>do</strong> Variacional<br />

De agora em diante, Ω ⊂ R n será sempre um aberto limita<strong>do</strong>.<br />

1.6.1 Soluções Fracas<br />

Definição. Seja f ∈ L2 (Ω). Dizemos que u ∈ W 1,2<br />

0 (Ω) é uma solução fraca para o problema <strong>de</strong> Dirichlet<br />

<br />

∆u = f<br />

u = 0<br />

em Ω,<br />

sobre ∂Ω,<br />

(1.14)<br />

se <br />

<br />

∇u · ∇v = −<br />

Ω<br />

Ω<br />

fv para to<strong>do</strong> v ∈ W 1,2<br />

0 (Ω) .<br />

Se os da<strong>do</strong>s <strong>do</strong> problema <strong>de</strong> Dirichlet (1.14) são suficientemente regulares e a solução fraca também é<br />

suficientemente regular, então ela é uma solução clássica:<br />

1.9 Proposição. (Soluções Fracas Regulares são Soluções Clássicas) Sejam f ∈ C 0 (Ω). Se existir uma<br />

solução fraca u ∈ C 2 (Ω) ∩ C 0 Ω para o problema<br />

então u é uma solução clássica.<br />

∆u = f em Ω,<br />

u = 0 sobre ∂Ω,<br />

Prova: Pela Primeira I<strong>de</strong>ntida<strong>de</strong> <strong>de</strong> Green, para to<strong>do</strong> v ∈ C∞ 0 (Ω) temos<br />

<br />

<br />

∇u · ∇v =<br />

<br />

∂u<br />

v −<br />

∂ν<br />

<br />

(∆u) v = − (∆u) v.<br />

Ω<br />

∂Ω<br />

Daí e da <strong>de</strong>finição <strong>de</strong> solução fraca segue que<br />

<br />

para to<strong>do</strong> v ∈ C ∞ 0 (Ω), ou seja,<br />

Ω<br />

Ω<br />

<br />

(∆u) v =<br />

Ω<br />

fv<br />

∆u = f em Ω.<br />

Além disso, como u ∈ W 1,2<br />

0 (Ω) ∩ C 0 Ω , segue da caracterização <strong>do</strong>s espaços W 1,2<br />

0 (Ω) que u = 0 em ∂Ω. <br />

1.6.2 Existência, Unicida<strong>de</strong> e Regularida<strong>de</strong> <strong>de</strong> Soluções Fracas<br />

Quan<strong>do</strong> uma solução fraca existe ela é única:<br />

1.10 Proposição. (Unicida<strong>de</strong> da Solução Fraca) Seja f ∈ L 2 (Ω). Se existir uma solução fraca para o<br />

problema ∆u = f em Ω,<br />

então ela é única.<br />

u = 0 sobre ∂Ω,<br />


Rodney Josué Biezuner 19<br />

Prova: O resulta<strong>do</strong> segue imediatamente da estabilida<strong>de</strong> fraca da equação <strong>de</strong> Poisson, isto é, se u1, u2 ∈<br />

W 1,2 (Ω) satisfazem<br />

∆u1 = f1, ∆u2 = f2 em Ω<br />

para f1, f2 ∈ L 2 (Ω), e<br />

então existe uma constante C = C (n, Ω) tal que<br />

u1 − u2 ∈ W 1,2<br />

0 (Ω) ,<br />

u1 − u2 W 1,2 (Ω) C f1 − f2 L 2 (Ω) . (1.15)<br />

De fato, temos <br />

<br />

∇ (u1 − u2) · ∇v = − (f1 − f2) v,<br />

Ω<br />

Ω<br />

para to<strong>do</strong> v ∈ W 1,2<br />

0 (Ω), em particular para v = u1 − u2. Portanto segue da <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Poincaré que<br />

∇u1 − ∇u2 2<br />

L2 (Ω) =<br />

<br />

|∇ (u1 − u2)|<br />

Ω<br />

2<br />

<br />

= (f1 − f2) (u1 − u2)<br />

Ω<br />

<strong>do</strong>n<strong>de</strong><br />

f1 − f2 L 2 (Ω) u1 − u2 L 2 (Ω)<br />

C f1 − f2 L 2 (Ω) ∇u1 − ∇u2 L 2 (Ω) ,<br />

∇u1 − ∇u2 L 2 (Ω) C f1 − f2 L 2 (Ω) .<br />

Novamente usan<strong>do</strong> a <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Poincaré, isso é suficiente para estabelecer (1.15). <br />

No caso <strong>do</strong> problema <strong>de</strong> Dirichlet para a equação <strong>de</strong> Poisson, a existência <strong>de</strong> uma solução fraca é imediatamente<br />

estabelecida pelo equivalente ao princípio <strong>de</strong> Dirichlet visto no início <strong>do</strong> capítulo anterior:<br />

1.11 Teorema. (Existência da Solução Fraca) Sejam f ∈ L 2 (Ω). Então existe uma única solução fraca<br />

u ∈ W 1,2<br />

0 (Ω) para o problema<br />

∆u = f em Ω,<br />

u = 0 sobre ∂Ω.<br />

Prova: Consi<strong>de</strong>re o funcional <strong>de</strong> Dirichlet I : W 1,2<br />

0 (Ω) → R <strong>de</strong>fini<strong>do</strong> por<br />

I (v) = 1<br />

2<br />

<br />

Ω<br />

|∇v| 2 <br />

dx +<br />

Ω<br />

fv.<br />

(1.16)<br />

Afirmamos que um ponto crítico u <strong>de</strong>ste funcional é uma solução fraca <strong>de</strong> (1.16). De fato, se u é um ponto<br />

crítico <strong>de</strong> I, então a <strong>de</strong>rivada direcional <strong>de</strong> I na direção <strong>de</strong> qualquer v ∈ W 1,2<br />

0 (Ω) é igual a 0, logo<br />

0 = d<br />

dt [I (u + tv)| <br />

d 1<br />

t=0 = |∇ (u + tv)|<br />

dt 2 Ω<br />

2 <br />

<br />

<br />

+ f (u + tv) <br />

<br />

Ω<br />

t=0<br />

<br />

<br />

= ∇u · ∇v + fv<br />

Ω<br />

Ω<br />

para to<strong>do</strong> v.<br />

Para provar o teorema, basta então encontrar uma função u ∈ W 1,2<br />

0 (Ω) que minimiza I, isto é, u tal que<br />

I (u) = min<br />

v∈W 1,2<br />

<br />

1<br />

|∇v|<br />

0 (Ω) 2 Ω<br />

2 dx +<br />

<br />

Ω<br />

<br />

fv ,


Rodney Josué Biezuner 20<br />

pois um ponto <strong>de</strong> mínimo é um ponto crítico <strong>de</strong> um funcional diferenciável. Pela <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Poincaré,<br />

o funcional I é limita<strong>do</strong> por baixo, pois<br />

I (v) = 1<br />

2 ∇v2 L2 (Ω) +<br />

<br />

<br />

f (v − g) + fg<br />

Ω<br />

Ω<br />

1<br />

2 ∇v2 L2 (Ω) −<br />

<br />

<br />

<br />

<br />

<br />

f (v − g) <br />

<br />

Ω<br />

+<br />

<br />

fg<br />

Ω<br />

1<br />

2 ∇v2 L2 (Ω) − fL2 (Ω) (v − g)L2 (Ω) +<br />

<br />

fg<br />

Ω<br />

1<br />

2 ∇v2 L2 (Ω) − C fL2 (Ω) ∇ (v − g)L2 (Ω) +<br />

<br />

fg<br />

Ω <br />

1<br />

2 ∇v2<br />

L 2 (Ω) − C f L 2 (Ω) ∇v L 2 (Ω) +<br />

fg − C fL2 (Ω) ∇gL2 (Ω) ,<br />

Ω<br />

e a função real h (t) = t2<br />

−at+b é limitada por baixo para t ∈ R, quaisquer que sejam os valores <strong>de</strong> a, b ∈ R.<br />

2<br />

Po<strong>de</strong>mos então <strong>de</strong>finir<br />

I0 = inf<br />

v∈W 1,2<br />

I (u) .<br />

0 (Ω)<br />

Seja (um) m∈N uma seqüência minimizante para I, isto é,<br />

I (um) = 1<br />

<br />

|∇um|<br />

2 Ω<br />

2 <br />

dx + fum → I0.<br />

Ω<br />

É fácil ver, que o funcional I é convexo. De fato, isto é uma conseqüência imediata da convexida<strong>de</strong> da função<br />

x ↦→ |x| 2<br />

<br />

I (tu + (1 − t) v) = |t∇u + (1 − t) ∇v|<br />

Ω<br />

2 <br />

dx + f (tu + (1 − t) v)<br />

Ω<br />

<br />

t |∇u| 2 + (1 − t) |∇v| 2<br />

<br />

dx + t<br />

<br />

fu + (1 − t) fv<br />

Ω<br />

= tI (u) + (1 − t) I (v) .<br />

A convexida<strong>de</strong> da função x ↦→ |x| 2 por sua vez po<strong>de</strong> ser provada <strong>do</strong> seguinte mo<strong>do</strong>:<br />

|tx + (1 − t) y| 2 − t |x| 2 − (1 − t) |y| 2 = t 2 − t |x| 2 <br />

+ 2t (1 − t) x · y + (1 − t) 2 <br />

− (1 − t)<br />

Logo,<br />

<br />

uk + ul<br />

I0 I<br />

2<br />

Ω<br />

= −t (1 − t) |x − y| 2 0.<br />

quan<strong>do</strong> k, l → ∞. Por outro la<strong>do</strong>, temos<br />

<br />

1<br />

|∇ (uk − ul)|<br />

2 Ω<br />

2 <br />

dx = |∇uk|<br />

Ω<br />

2 <br />

dx +<br />

Ω<br />

<br />

= |∇uk| 2 <br />

dx + 2<br />

Ω<br />

1<br />

2 I (uk) + 1<br />

2 I (ul) → I0<br />

|∇ul| 2 <br />

<br />

dx − 2 <br />

<br />

Ω<br />

∇<br />

<br />

uk + ul<br />

2<br />

<br />

fuk + |∇ul|<br />

Ω<br />

Ω<br />

2 <br />

dx + 2<br />

2 <br />

dx − 4<br />

<br />

uk + ul<br />

f<br />

<br />

<br />

− 2 <br />

<br />

Ω<br />

∇<br />

<br />

uk + ul <br />

2<br />

Ω<br />

<br />

uk + ul<br />

= 2I (uk) + 2I (ul) − 4I<br />

,<br />

2<br />

2<br />

Ω<br />

ful<br />

Ω<br />

2 <br />

dx<br />

|y| 2


Rodney Josué Biezuner 21<br />

<strong>do</strong>n<strong>de</strong> concluímos que (∇um) é uma seqüência <strong>de</strong> Cauchy em L 2 (Ω). Pela <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Poincaré temos<br />

que<br />

uk − ul L 2 (Ω) C ∇uk − ∇ul L 2 (Ω) ,<br />

logo (um) também é uma seqüência <strong>de</strong> Cauchy em L2 (Ω) e portanto (um) é uma seqüência <strong>de</strong> Cauchy em<br />

W 1,2<br />

0 (Ω), ou seja, existe u ∈ W 1,2<br />

0 (Ω) tal que um → u em W 1,2<br />

0 (Ω). Em particular, segue que I (u) = I0.<br />

Como um → u em L2 (Ω) e ∇um → ∇u em L2 (Ω), temos que<br />

<br />

1<br />

|∇um|<br />

2 Ω<br />

2 <br />

dx + fum →<br />

Ω<br />

1<br />

<br />

|∇u|<br />

2 Ω<br />

2 <br />

dx + fu,<br />

Ω<br />

e concluímos que u é o minimiza<strong>do</strong>r <strong>do</strong> funcional <strong>de</strong> Dirichlet I. <br />

Se a fronteira e os da<strong>do</strong>s <strong>do</strong> problema são suficientemente regulares, po<strong>de</strong>-se provar que uma solução<br />

fraca é uma solução clássica (veja [Gilbarg-Trudinger] ou [Biezuner] para os <strong>de</strong>talhes):<br />

1.12 Teorema. Seja Ω ⊂ R n um aberto limita<strong>do</strong> com fronteira <strong>de</strong> classe C ∞ . Seja f ∈ C ∞ (Ω).. Se<br />

u ∈ W 1,2<br />

0 (Ω) é uma solução fraca <strong>de</strong><br />

∆u = f em Ω,<br />

então u ∈ C ∞ Ω .<br />

1.7 O Espectro <strong>do</strong> <strong>Laplaciano</strong><br />

u = 0 sobre ∂Ω,<br />

1.7.1 Existência e Caracterização Variacional <strong>do</strong>s <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong><br />

Para o problema <strong>de</strong> Dirichlet, o espaço natural para aplicar o méto<strong>do</strong> variacional é W 1,2<br />

0 (Ω), enquanto que<br />

para o problema <strong>de</strong> Neumann trabalharemos em W 1,2 (Ω). Examinaremos primeiro o problema <strong>de</strong> autovalor<br />

<strong>do</strong> laplaciano para condição <strong>de</strong> fronteira <strong>de</strong> Dirichlet.<br />

Definição. Dizemos que u ∈ W 1,2<br />

0 (Ω) é uma solução fraca para o problema <strong>de</strong> autovalor <strong>do</strong> laplaciano<br />

para condição <strong>de</strong> fronteira <strong>de</strong> Dirichlet<br />

−∆u = λu em Ω,<br />

se <br />

<br />

∇u · ∇v = λ<br />

Ω<br />

u = 0 sobre ∂Ω,<br />

Aceitaremos o seguinte resulta<strong>do</strong> <strong>de</strong> regularida<strong>de</strong> sem <strong>de</strong>monstração.<br />

Ω<br />

uv para to<strong>do</strong> v ∈ W 1,2<br />

0 (Ω) . (1.17)<br />

1.13 Teorema. Seja Ω ⊂ R n um aberto limita<strong>do</strong> com fronteira <strong>de</strong> classe C ∞ . Seja λ ∈ R. Se u ∈ W 1,2<br />

0 (Ω)<br />

é uma solução fraca <strong>de</strong> −∆u = λu em Ω,<br />

então u ∈ C ∞ Ω .<br />

u = 0 sobre ∂Ω,<br />

1.14 Teorema. Seja Ω ⊂ R n um aberto limita<strong>do</strong>. Então o problema <strong>de</strong> autovalor<br />

−∆u = λu em Ω, u ∈ W 1,2<br />

0 (Ω)<br />

possui um número infinito enumerável <strong>de</strong> autovalores<br />

0 < λ1 λ2 . . . λj . . .


Rodney Josué Biezuner 22<br />

tais que<br />

λj → ∞,<br />

e autofunções {uj} que constituem um sistema ortonormal completo para L 2 (Ω), isto é,<br />

para to<strong>do</strong> v ∈ L 2 (Ω). Em particular,<br />

Além disso, para to<strong>do</strong> v ∈ W 1,2<br />

0 (Ω) vale<br />

v =<br />

v 2<br />

L 2 (Ω) =<br />

∇v 2<br />

L 2 (Ω) =<br />

∞<br />

i=1<br />

∞<br />

i=1<br />

∞<br />

i=1<br />

αiui<br />

〈v, ui〉 2<br />

L 2 (Ω) .<br />

λi 〈v, ui〉 2<br />

L 2 (Ω) .<br />

Prova: Generalizan<strong>do</strong> o princípio <strong>de</strong> Rayleigh, gostaríamos <strong>de</strong> obter o primeiro autovalor <strong>do</strong> laplaciano<br />

como o mínimo <strong>do</strong> funcional <strong>de</strong> Rayleigh:<br />

λ1 = inf<br />

u∈W 1,2<br />

0 (Ω)\{0}<br />

〈−∆u, u〉 L2 (Ω)<br />

u 2<br />

L2 .<br />

(Ω)<br />

No entanto, nossas funções estão em W 1,2<br />

0 (Ω) e em geral não possuem <strong>de</strong>rivadas parcias <strong>de</strong> segunda or<strong>de</strong>m<br />

e portanto seus laplacianos não estão <strong>de</strong>fini<strong>do</strong>s. Porém, lembran<strong>do</strong> que C∞ 0 (Ω) é <strong>de</strong>nso em W 1,2<br />

0 (Ω) e a<br />

primeira i<strong>de</strong>ntida<strong>de</strong> <strong>de</strong> Green para funções em C∞ 0 (Ω) toma a forma<br />

<br />

〈−∆u, u〉 L2 (Ω) =<br />

Ω<br />

<br />

(−∆u) u =<br />

Ω<br />

<br />

〈∇u, ∇u〉 −<br />

consi<strong>de</strong>ramos o funcional I : W 1,2<br />

0 (Ω) \ {0} → R <strong>de</strong>fini<strong>do</strong> por<br />

Afirmamos que se<br />

I (u) =<br />

então existe u ∈ W 1,2<br />

0 (Ω), u = 0, tal que<br />

<br />

Ω |∇u|2<br />

<br />

Ω u2 = 〈∇u, ∇u〉 L2 (Ω)<br />

〈u, u〉 L2 (Ω)<br />

∂Ω<br />

u ∂u<br />

∂η = 〈∇u, ∇u〉 L 2 (Ω)<br />

L2 (Ω)<br />

u 2<br />

L2 (Ω)<br />

= ∇u2<br />

λ1 = inf<br />

u∈W 1,2<br />

I (u) , (1.18)<br />

0 (Ω)\{0}<br />

−∆u = λ1u,<br />

ou seja, λ1 é um autovalor <strong>do</strong> laplaciano. Para provar isso, observe em primeiro lugar que o funcional I<br />

é invariante por escala, no senti<strong>do</strong> <strong>de</strong> que I (αu) = I (u) para to<strong>do</strong> α = 0, logo po<strong>de</strong>mos consi<strong>de</strong>rar uma<br />

seqüência minimizante (uk) ⊂ W 1,2<br />

0 (Ω) que satisfaz uk L 2 (Ω) = 1 para to<strong>do</strong> k. Em particular,<br />

∇uk 2<br />

L2 (Ω) → λ1,<br />

logo (uk) é uma seqüência limitada em W 1,2<br />

0 (Ω). Segue <strong>do</strong> Teorema <strong>de</strong> Rellich-Kondrakhov que, a menos<br />

<strong>de</strong> uma subseqüência, uk → u em L 2 (Ω) e, portanto, u L 2 (Ω) = 1, o que implica em particular que u = 0.<br />

Afirmamos que uk → u em W 1,2<br />

0 (Ω). De fato, valem as i<strong>de</strong>ntida<strong>de</strong>s<br />

∇ (uk − ul) 2<br />

L2 (Ω) + ∇ (uk + ul) 2<br />

L2 2<br />

(Ω) = 2 ∇ukL2 2<br />

(Ω) + 2 ∇ulL2 (Ω) ,<br />

uk − ul 2<br />

L2 (Ω) + uk + ul 2<br />

L2 2<br />

(Ω) = 2 ukL2 2<br />

(Ω) + 2 ulL2 (Ω) = 4.<br />

.


Rodney Josué Biezuner 23<br />

A segunda i<strong>de</strong>ntida<strong>de</strong> implica que uk + ul 2<br />

juntamente com a <strong>de</strong>sigualda<strong>de</strong><br />

que segue da <strong>de</strong>finição <strong>de</strong> λ1, obtemos<br />

L 2 (Ω)<br />

→ 4 quan<strong>do</strong> k, l → ∞. Usan<strong>do</strong> a primeira i<strong>de</strong>ntida<strong>de</strong><br />

∇ (uk + ul) 2<br />

L 2 (Ω) λ1 uk + ul 2<br />

L 2 (Ω) ,<br />

∇ (uk − ul) 2<br />

L2 2<br />

(Ω) 2 ∇ukL2 2<br />

(Ω) + 2 ∇ulL2 (Ω) − λ1 uk + ul 2<br />

L2 (Ω) → 0<br />

quan<strong>do</strong> k, l → ∞, isto é, (∇uk) é uma seqüência <strong>de</strong> Cauchy em L 2 (Ω), o que prova a afirmação. Segue que<br />

λ1 = ∇u 2<br />

L 2 (Ω)<br />

e o Teorema <strong>de</strong> Poincaré implica que λ1 = 0. Vamos <strong>de</strong>notar u = u1. Para mostrar que u1 é uma solução<br />

fraca <strong>de</strong> −∆u1 = λ1u1, observe que para to<strong>do</strong> v ∈ W 1,2<br />

0 (Ω) fixa<strong>do</strong> temos<br />

I (u1 + tv) = 〈∇ (u1 + tv) , ∇ (u1 + tv)〉 L 2 (Ω)<br />

〈(u1 + tv) , (u1 + tv)〉 L 2 (Ω)<br />

= ∇u1 2<br />

L2 (Ω) + 2t 〈∇u1, ∇v〉 L2 (Ω) + t2 ∇u1 2<br />

L2 (Ω)<br />

u1 2<br />

L2 (Ω) + 2t 〈u1, v〉 L2 (Ω) + t2 u1 2<br />

L2 (Ω)<br />

on<strong>de</strong> |t| é suficientemente pequeno para que o <strong>de</strong>nomina<strong>do</strong>r nunca se anule. Como u1 é um mínimo para<br />

este funcional, segue que<br />

0 = dI<br />

<br />

<br />

(u + tv) <br />

dt <br />

t=0<br />

<br />

2 〈∇u1, ∇v〉 L2 (Ω) + 2t ∇u1<br />

=<br />

2<br />

L2 <br />

(Ω) u1 + tv 2<br />

L2 (Ω) −<br />

<br />

2 〈u1, v〉 L2 (Ω) + 2t u1 2<br />

L2 <br />

(Ω) ∇ (u1 + tv) 2<br />

L2 (Ω)<br />

u1 + tv 4<br />

L2 <br />

<br />

<br />

<br />

<br />

(Ω)<br />

= 2 〈∇u1, ∇v〉 L 2 (Ω) u1 2<br />

L 2 (Ω) − 2 〈u1, v〉 L 2 (Ω) ∇u1 2<br />

L 2 (Ω)<br />

u1 + tv 4<br />

L 2 (Ω)<br />

= 2 〈∇u1, ∇v〉 L2 (Ω) − 2λ1 〈u1, v〉 L2 (Ω)<br />

u1 + tv 4<br />

L2 ,<br />

(Ω)<br />

ou seja, <br />

∇u1 · ∇v = λ1<br />

Ω<br />

para to<strong>do</strong> v ∈ W 1,2<br />

0 (Ω).<br />

Suponha como hipótese <strong>de</strong> indução que obtivemos (λ1, u1) , . . . , (λj−1, uj−1) satisfazen<strong>do</strong><br />

e<br />

<br />

Ω<br />

ui ∈ W 1,2<br />

0 (Ω) ,<br />

λ1 . . . λj−1,<br />

−∆u = λiu em Ω,<br />

〈ui, uk〉 L 2 (Ω) = δik<br />

para to<strong>do</strong>s 1 i, k j. Definimos<br />

<br />

Hj = v ∈ W 1,2<br />

<br />

0 (Ω) : 〈v, ui〉 L2 (Ω) = 0 para i = 1, . . . , j − 1 .<br />

u1v<br />

t=0


Rodney Josué Biezuner 24<br />

Em outras palavras, Hj é o subespaço <strong>de</strong> Hilbert ortogonal ao subespaço <strong>de</strong> dimensão finita gera<strong>do</strong> pelas<br />

autofunções u1, . . . , uj−1. Defina<br />

λj = inf I (u) .<br />

u∈Hj<br />

Como o ínfimo está toma<strong>do</strong> sobre um espaço menor, segue que<br />

λj λj−1.<br />

O fato <strong>de</strong> que Hj é um subespaço fecha<strong>do</strong> <strong>de</strong> W 1,2<br />

0 (Ω) permite repetir o mesmo argumento acima para obter<br />

uj ∈ Hj tal que ujL2 (Ω) = 1, λj = ∇uj 2<br />

L2 (Ω) . Também analogamente obtemos<br />

<br />

∇uj · ∇v = λj<br />

Ω<br />

para to<strong>do</strong> v ∈ Hj e a relação é trivialmente verda<strong>de</strong>ira para to<strong>do</strong> v ∈ W 1,2<br />

0 (Ω), já que uj é ortogonal ao<br />

subespaço gera<strong>do</strong> por u1, . . . , uj−1. Portanto uj é uma solução fraca <strong>de</strong> −∆u = λju em Ω.<br />

Para ver que λj → ∞, suponha por absur<strong>do</strong> que λj → λ0. Então obtemos uma seqüência (uj) ⊂ W 1,2<br />

0 (Ω)<br />

<strong>de</strong> autofunções associadas aos autovalores λk tais que ujL2 (Ω) = 1 e<br />

<br />

Ω<br />

ujv<br />

∇uj 2<br />

L 2 (Ω) = λj → λ0.<br />

Em particular, po<strong>de</strong>mos usar novamente o Teorema <strong>de</strong> Rellich-Kondrakhov para concluir que uj → u em<br />

L 2 (Ω). Mas isso é um absur<strong>do</strong>, pois a seqüência (uj) é ortonormal em L 2 (Ω) e portanto satisfaz<br />

e<br />

uk − ul 2<br />

L2 2<br />

(Ω) = ukL2 2<br />

(Ω) + ulL2 (Ω) = 2.<br />

Falta apenas provar os resulta<strong>do</strong>s <strong>de</strong> expansão. Para v ∈ W 1,2<br />

0 (Ω), escreva<br />

Para to<strong>do</strong> i k temos<br />

〈wk, ui〉 =<br />

<br />

v −<br />

αi = 〈v, ui〉 L 2 (Ω)<br />

vk =<br />

k<br />

αiui,<br />

i=1<br />

wk = v − vk.<br />

k<br />

i=1<br />

αiui, ui<br />

Daí, como ui é solução fraca, para to<strong>do</strong> i k temos também<br />

<strong>do</strong>n<strong>de</strong><br />

Desta última i<strong>de</strong>ntida<strong>de</strong> segue que<br />

<br />

= 〈v, ui〉 − αi = 0.<br />

〈∇wk, ∇ui〉 L 2 (Ω) = λi 〈wk, ui〉 L 2 (Ω) = 0,<br />

〈wk, wk〉 L 2 (Ω) = 〈v, v〉 L 2 (Ω) − 〈vk, vk〉 L 2 (Ω) ,<br />

〈∇wk, ∇wk〉 L 2 (Ω) = 〈∇v, ∇v〉 L 2 (Ω) − 〈∇vk, ∇vk〉 L 2 (Ω) .<br />

〈∇wk, ∇wk〉 L 2 (Ω) 〈∇v, ∇v〉 L 2 (Ω) .


Rodney Josué Biezuner 25<br />

Por <strong>de</strong>finição <strong>de</strong> λk,<br />

logo<br />

Em particular, concluímos que<br />

Para provar a segunda expansão, escreva<br />

<strong>do</strong>n<strong>de</strong><br />

Como<br />

segue que<br />

〈∇wk, ∇wk〉 L 2 (Ω) λk+1 〈wk, wk〉 L 2 (Ω) ,<br />

wk 2<br />

L 2 (Ω) = 〈wk, wk〉 L 2 (Ω) 1<br />

∇vk 2<br />

L 2 (Ω) =<br />

v = lim vk + lim wk =<br />

∇vk =<br />

λk+1<br />

〈∇v, ∇v〉 L 2 (Ω) → 0.<br />

∞<br />

αiui em L 2 (Ω) . (1.19)<br />

i=1<br />

k<br />

αi∇ui,<br />

i=1<br />

k<br />

α 2 i 〈∇ui, ∇ui〉 =<br />

i=1<br />

k<br />

α 2 i λi 〈ui, ui〉 =<br />

i=1<br />

k<br />

i=1<br />

〈∇wk, ∇wk〉 L 2 (Ω) + 〈∇vk, ∇vk〉 L 2 (Ω) = 〈∇v, ∇v〉 L 2 (Ω) ,<br />

∇vk 2<br />

L2 (Ω) ∇v2 L2 (Ω) .<br />

Soman<strong>do</strong>-se a isso o fato que os λi são não-negativos, concluímos que a série ∞<br />

∇ (wk − wl) 2<br />

L 2 (Ω) = ∇ (vl − vk) 2<br />

L 2 (Ω) =<br />

l<br />

i=k+1<br />

λiα 2 i .<br />

λiα<br />

i=1<br />

2 i<br />

λiα 2 i<br />

converge, <strong>de</strong> mo<strong>do</strong> que<br />

e portanto (∇wk) também é uma seqüência <strong>de</strong> Cauchy em L 2 (Ω), ou seja, (wk) converge em W 1,2<br />

0 (Ω).<br />

Conseqüentemente, em vista <strong>do</strong> resulta<strong>do</strong> anterior, wk → 0 em W 1,2<br />

0 (Ω), logo<br />

∇v 2<br />

L2 2<br />

(Ω) = lim ∇vkL2 (Ω) + 2 lim 〈∇vk, ∇wk〉 + lim ∇wk 2<br />

L2 (Ω) =<br />

Segue que (uj) é uma seqüência ortonormal e o fecho <strong>do</strong> subespaço gera<strong>do</strong> por (uj) é um espaço <strong>de</strong> Hilbert<br />

conten<strong>do</strong> W 1,2<br />

0 (Ω) conti<strong>do</strong> em L2 (Ω). Como W 1,2<br />

0 (Ω) = L2 (Ω), concluímos que {uj} é um sistema ortonormal<br />

completo para L2 (Ω). <br />

Observação 1. Segue <strong>de</strong>ste teorema, em particular, que aquelas funções v em L2 (Ω) que não estão em<br />

W 1,2<br />

0 (Ω) po<strong>de</strong>m ser caracterizadas pelo fato que ∞ i=1 λi 〈v, ui〉 L2 (Ω) diverge.<br />

Observação 2. Pelo Teorema 1.13, se ∂Ω for <strong>de</strong> classe C∞ , então as autofunções <strong>do</strong> problema <strong>de</strong> Dirichlet<br />

estão em C∞ Ω e são soluções clássicas.<br />

A <strong>de</strong>monstração <strong>do</strong> resulta<strong>do</strong> equivalente para o problema <strong>de</strong> autovalor com condição <strong>de</strong> Neumann é<br />

análoga (veja [Jost]):<br />

1.15 Teorema. Seja Ω ⊂ R n um aberto limita<strong>do</strong>. Então o problema <strong>de</strong> autovalor<br />

−∆u = λu em Ω, u ∈ W 1,2 (Ω)<br />

∞<br />

i=1<br />

λiα 2 i .


Rodney Josué Biezuner 26<br />

possui um número infinito enumerável <strong>de</strong> autovalores<br />

tais que<br />

e autofunções {uj} que satisfazem<br />

0 = λ0 λ1 λ2 . . . λj . . .<br />

∂u<br />

∂η<br />

λj → ∞,<br />

= 0 sobre ∂Ω<br />

e constituem um sistema ortonormal completo para L 2 (Ω), isto é,<br />

para to<strong>do</strong> v ∈ L 2 (Ω). Em particular,<br />

Além disso, para to<strong>do</strong> v ∈ W 1,2 (Ω) vale<br />

v =<br />

v 2<br />

L 2 (Ω) =<br />

∇v 2<br />

L 2 (Ω) =<br />

∞<br />

i=1<br />

∞<br />

i=1<br />

∞<br />

i=1<br />

αiui<br />

〈v, ui〉 2<br />

L 2 (Ω) .<br />

λi 〈v, ui〉 2<br />

L 2 (Ω) .<br />

Na <strong>de</strong>monstração <strong>do</strong> Teorema 1.14 usamos o princípio <strong>de</strong> Rayleigh para obter o primeiro autovalor<br />

<strong>do</strong> laplaciano como o mínimo <strong>do</strong> funcional <strong>de</strong> Rayleigh. Como os autovalores <strong>do</strong> laplaciano formam uma<br />

seqüência infinita que cresce arbitrariamente em módulo, o funcional <strong>de</strong> Rayleigh para o laplaciano não<br />

possui um máximo. Entretanto, da mesma forma que no caso <strong>de</strong> opera<strong>do</strong>res lineares em dimensão finita,<br />

po<strong>de</strong>mos também <strong>de</strong>rivar um princípio <strong>de</strong> minimax para obter os <strong>de</strong>mais autovalores <strong>do</strong> laplaciano:<br />

1.16 Teorema. Seja Ω ⊂ R n um aberto limita<strong>do</strong>. Sejam<br />

0 < λ1 λ2 . . . λj . . .<br />

os autovalores <strong>do</strong> laplaciano com condição <strong>de</strong> Dirichlet:<br />

−∆u = λu em Ω, u ∈ W 1,2<br />

0 (Ω) .<br />

Então, se Lj <strong>de</strong>nota o conjunto <strong>do</strong>s subespaços vetoriais <strong>de</strong> W 1,2<br />

0 (Ω) <strong>de</strong> dimensão j, temos<br />

ou, dualmente,<br />

λj = min<br />

L∈Lj<br />

λj = max<br />

L∈Lj−1<br />

⎛<br />

⎝ max<br />

u∈L<br />

u=1<br />

⎛<br />

⎝ min<br />

u⊥L<br />

u=1<br />

〈∇u, ∇u〉 L 2 (Ω)<br />

〈∇u, ∇u〉 L 2 (Ω)<br />

⎞<br />

⎠ = min<br />

L∈Lj<br />

⎞<br />

⎛<br />

⎠ = max<br />

L∈Lj−1<br />

⎝max<br />

u∈L<br />

u=0<br />

⎛<br />

⎝min<br />

u⊥L<br />

u=0<br />

〈∇u, ∇u〉 L 2 (Ω)<br />

u 2<br />

L 2 (Ω)<br />

〈∇u, ∇u〉 L 2 (Ω)<br />

u 2<br />

L 2 (Ω)<br />

⎞<br />

⎠ (1.20)<br />

⎞<br />

⎠ . (1.21)<br />

O resulta<strong>do</strong> análogo vale para os autovalores <strong>do</strong> laplaciano com condição <strong>de</strong> Neumann trocan<strong>do</strong>-se<br />

W 1,2<br />

0 (Ω) por W 1,2 (Ω) e λj por λj−1.


Rodney Josué Biezuner 27<br />

Prova: Vimos na <strong>de</strong>monstração <strong>do</strong> Teorema 1.13 que se L = 〈u1, . . . , uj−1〉 é o subespaço gera<strong>do</strong> pelas<br />

primeiras j − 1 autofunções u1, . . . , uj−1 <strong>do</strong> laplaciano, então<br />

λj = min<br />

u⊥L<br />

u=0<br />

〈∇u, ∇u〉 L2 (Ω)<br />

u 2<br />

L2 ;<br />

(Ω)<br />

<strong>de</strong> fato, o mínimo é realiza<strong>do</strong> em u = uj. Por outro la<strong>do</strong>, se L ′ = 〈u1, . . . , uj〉 é o subespaço gera<strong>do</strong> pelas<br />

primeiras j autofunções u1, . . . , uj <strong>do</strong> laplaciano, também temos<br />

De fato, para to<strong>do</strong> ui com i < j vale<br />

enquanto que<br />

Portanto, se u = n<br />

aiui ∈ L ′ , temos<br />

i=1<br />

〈∇u, ∇u〉 L 2 (Ω)<br />

u 2<br />

L 2 (Ω)<br />

= 〈∇u, ∇u〉 L 2 (Ω)<br />

〈u, u〉 L 2 (Ω)<br />

=<br />

λj = max<br />

u∈L ′<br />

u=0<br />

n<br />

λia2 i 〈ui, ui〉 L2 (Ω)<br />

i=1<br />

n<br />

a2 i 〈ui, ui〉 L2 (Ω)<br />

i=1<br />

〈∇ui, ∇ui〉 L 2 (Ω)<br />

ui 2<br />

L 2 (Ω)<br />

〈∇uj, ∇uj〉 L 2 (Ω)<br />

uj 2<br />

L 2 (Ω)<br />

〈∇u, ∇u〉 L2 (Ω)<br />

u 2<br />

L2 .<br />

(Ω)<br />

= λi λj,<br />

= λj.<br />

<br />

n<br />

ai∇ui,<br />

=<br />

i=1<br />

n<br />

<br />

ai∇ui<br />

<br />

n<br />

i=1<br />

<br />

aiui,<br />

i=1<br />

n<br />

aiui<br />

i=1<br />

i=1<br />

λj<br />

L 2 (Ω)<br />

L 2 (Ω)<br />

=<br />

n<br />

a2 i 〈ui, ui〉 L2 (Ω)<br />

n<br />

a2 i 〈ui, ui〉 L2 (Ω)<br />

= λj,<br />

i=1<br />

n<br />

a2 i 〈∇ui, ∇ui〉 L2 (Ω)<br />

i=1<br />

n<br />

a2 i 〈ui, ui〉 L2 (Ω)<br />

e o máximo é realiza<strong>do</strong> em u = uj.<br />

Agora, para provar (1.20), seja L ′ ⊂ Lj outro subespaço <strong>de</strong> W 1,2<br />

0 (Ω) <strong>de</strong> dimensão j, digamos L ′ =<br />

〈v1, . . . , vj〉. Afirmamos que existe um vetor não nulo v = j<br />

aivi ∈ L ′ tal que v ⊥ ui para i = 1, . . . , j − 1.<br />

De fato, basta tomar uma das soluções não triviais <strong>do</strong> sistema homogêneo<br />

⎧<br />

〈v, u1〉 =<br />

⎪⎨<br />

⎪⎩<br />

j<br />

ai 〈vi, u1〉 = 0<br />

i=1<br />

.<br />

〈v, uj−1〉 = j<br />

ai 〈vi, uj−1〉 = 0<br />

que possui j − 1 equações e j incógnitas. Logo, disso e <strong>do</strong> Teorema 1.15 segue que<br />

〈∇v, ∇v〉 L 2 (Ω)<br />

v 2<br />

L 2 (Ω)<br />

= ∇v2 L2 (Ω)<br />

v 2<br />

L2 =<br />

(Ω)<br />

∞<br />

i=1<br />

∞<br />

i=1<br />

i=1<br />

λi 〈v, ui〉 2<br />

L 2 (Ω)<br />

〈v, ui〉 2<br />

L 2 (Ω)<br />

=<br />

i=1<br />

∞<br />

i=j<br />

∞<br />

i=j<br />

λi 〈v, ui〉 2<br />

L 2 (Ω)<br />

〈v, ui〉 2<br />

L 2 (Ω)<br />

<br />

i=1<br />

∞<br />

λj<br />

i=j<br />

∞<br />

i=j<br />

〈v, ui〉 2<br />

L 2 (Ω)<br />

〈v, ui〉 2<br />

L 2 (Ω)<br />

= λj,


Rodney Josué Biezuner 28<br />

e portanto<br />

max<br />

u∈L ′<br />

u=0<br />

〈∇u, ∇u〉 L 2 (Ω)<br />

u 2<br />

L 2 (Ω)<br />

Isso prova (1.20).<br />

Para provar a afirmativa dual (1.21), seja L ⊂ Lj um subespaço <strong>de</strong> W 1,2<br />

0 (Ω) <strong>de</strong> dimensão j − 1, digamos<br />

L = 〈v1, . . . , vj−1〉. Afirmamos que existe um vetor não nulo v = j<br />

aiui ⊥ L, combinação linear <strong>do</strong>s vetores<br />

λj.<br />

u1, . . . , uj. De fato, basta tomar uma das soluções não triviais <strong>do</strong> sistema homogêneo<br />

⎧<br />

〈v, v1〉 =<br />

⎪⎨<br />

⎪⎩<br />

n<br />

ai 〈ui, v1〉 = 0<br />

i=1<br />

.<br />

.<br />

〈v, vj−1〉 = n<br />

ai 〈ui, vj−1〉 = 0<br />

i=1<br />

que possui j − 1 equações e j incógnitas. Então algum <strong>do</strong>s vetores u1, . . . , uj é perpendicular a L, digamos<br />

ui. Logo, disso e <strong>do</strong> Teorema 1.13 segue que<br />

〈∇v, ∇v〉 L 2 (Ω)<br />

v 2<br />

L 2 (Ω)<br />

e portanto<br />

= ∇v2 L2 (Ω)<br />

v 2<br />

L2 =<br />

(Ω)<br />

<br />

o que prova (1.21). <br />

λj<br />

i=1<br />

∞<br />

i=1<br />

j<br />

∞<br />

i=1<br />

∞<br />

i=1<br />

a 2 i 〈ui, ui〉 2<br />

L 2 (Ω)<br />

a 2 i 〈ui, ui〉 2<br />

L 2 (Ω)<br />

λi 〈v, ui〉 2<br />

L 2 (Ω)<br />

〈v, ui〉 2<br />

L 2 (Ω)<br />

= λj,<br />

min<br />

u⊥L<br />

u=0<br />

1.7.2 Comparação <strong>de</strong> <strong>Autovalores</strong><br />

=<br />

∞<br />

λi<br />

i=1<br />

j<br />

∞<br />

<br />

j<br />

i=1<br />

〈∇u, ∇u〉 L 2 (Ω)<br />

u 2<br />

L 2 (Ω)<br />

i=1<br />

2<br />

akuk, ui<br />

k=1<br />

L2 (Ω)<br />

2<br />

akuk, ui<br />

k=1<br />

λj,<br />

L 2 (Ω)<br />

=<br />

j<br />

i=1<br />

∞<br />

i=1<br />

a 2 i λi 〈ui, ui〉 2<br />

L 2 (Ω)<br />

a 2 i 〈ui, ui〉 2<br />

L 2 (Ω)<br />

Como uma conseqüência simples da caracterização minimax obtemos uma comparação entre os autovalores<br />

<strong>do</strong> laplaciano <strong>de</strong> Dirichlet e os autovalores <strong>do</strong> laplaciano <strong>de</strong> Neumann <strong>de</strong> um mesmo <strong>do</strong>mínio:<br />

1.17 Corolário. Seja Ω ⊂ R n um aberto limita<strong>do</strong>. Sejam<br />

0 < λ D 1 λ D 2 . . . λ D k . . .<br />

os autovalores <strong>do</strong> laplaciano com condição <strong>de</strong> Dirichlet e<br />

0 = λ N 0 λ N 1 λ N 2 . . . λ N k . . .<br />

os autovalores <strong>do</strong> laplaciano com condição <strong>de</strong> Neumann. Então<br />

para to<strong>do</strong> j.<br />

λ N j−1 λ D j


Rodney Josué Biezuner 29<br />

Prova: Denotan<strong>do</strong><br />

<br />

Lj W 1,2<br />

<br />

0 (Ω) = L ⊂ W 1,2<br />

<br />

0 (Ω) : L é um subespaço vetorial <strong>de</strong> dimensão j ,<br />

1,2 1,2<br />

W (Ω) = L ⊂ W (Ω) : L é um subespaço vetorial <strong>de</strong> dimensão j ,<br />

Lj<br />

como W 1,2<br />

0 (Ω) ⊂ W 1,2 (Ω), segue que<br />

Em particular, o mínimo sobre Lj<br />

que<br />

⎛<br />

λ N j−1 = min<br />

L∈Lj(W 1,2 (Ω))<br />

⎝ max<br />

u∈L<br />

u=1<br />

Lj<br />

<br />

W 1,2<br />

1,2<br />

0 (Ω) ⊂ Lj W (Ω) .<br />

<br />

W 1,2<br />

<br />

<br />

1,2<br />

0 (Ω) não po<strong>de</strong> ser maior que o mínimo sobre Lj W (Ω) . Segue<br />

〈∇u, ∇u〉 L 2 (Ω)<br />

⎞<br />

⎠ min<br />

L∈Lj(W 1,2<br />

0 (Ω))<br />

⎛<br />

⎝ max<br />

u∈L<br />

u=1<br />

〈∇u, ∇u〉 L 2 (Ω)<br />

⎞<br />

⎠ = λ D j .<br />

<br />

O que acontece com os autovalores <strong>do</strong> laplaciano <strong>de</strong> um <strong>do</strong>mínio Ω quan<strong>do</strong> este aumenta? Se nos<br />

restringirmos a simples aumentos <strong>de</strong> escala, a resposta é simples. Denote Ωa = {ax : x ∈ Ω}. Se u satisfaz<br />

<br />

−∆u = λu em Ω,<br />

então v (x) = u<br />

<br />

x<br />

<br />

satisfaz<br />

a<br />

<br />

u = 0 sobre ∂Ω,<br />

−∆v = λ<br />

v em Ωa,<br />

a2 v = 0 sobre ∂Ωa.<br />

Em particular, se a > 1 (dilatação), então os autovalores <strong>do</strong> laplaciano em Ωa são menores que os autovalores<br />

<strong>do</strong> laplaciano em Ω. No caso geral, ainda é verda<strong>de</strong> que os autovalores <strong>de</strong>crescem quan<strong>do</strong> o <strong>do</strong>mínio aumenta,<br />

e no caso <strong>do</strong>s autovalores <strong>de</strong> Dirichlet isto é novamente uma conseqüência simples da caracterização minimax:<br />

1.18 Corolário. Sejam Ω1 ⊂ Ω2 ⊂ R n abertos limita<strong>do</strong>s. Sejam λj (Ω1) e λj (Ω2) os autovalores <strong>de</strong><br />

Dirichlet <strong>do</strong> laplaciano em Ω1 e Ω2, respectivamente. Então<br />

para to<strong>do</strong> j.<br />

λj (Ω2) λj (Ω1)<br />

Prova: Po<strong>de</strong>mos consi<strong>de</strong>rar W 1,2<br />

0 (Ω1) ⊂ W 1,2<br />

0 (Ω2), porque qualquer função u ∈ W 1,2<br />

0 (Ω1) po<strong>de</strong> ser estendida<br />

a uma função u ∈ W 1,2<br />

0 (Ω2) <strong>de</strong>finin<strong>do</strong>-se<br />

<br />

u (x) se x ∈ Ω1,<br />

u (x) =<br />

0 se x ∈ Ω2\Ω1.<br />

Em particular, usan<strong>do</strong> a notação <strong>do</strong> corolário anterior, temos que<br />

<br />

Lj W 1,2<br />

<br />

0 (Ω1) ⊂ Lj W 1,2<br />

<br />

0 (Ω2) .<br />

e o mínimo sobre Lj<br />

λj (Ω2) = min<br />

L∈Lj(W 1,2<br />

0 (Ω2))<br />

<br />

W 1,2<br />

<br />

<br />

1,2<br />

0 (Ω1) não po<strong>de</strong> ser maior que o mínimo sobre Lj W (Ω2) . Logo<br />

⎛<br />

⎞<br />

⎛<br />

⎞<br />

⎝ max<br />

u∈L<br />

u=1<br />

〈∇u, ∇u〉 L 2 (Ω)<br />

⎠ min<br />

L∈Lj(W 1,2<br />

0 (Ω1))<br />

⎝ max<br />

u∈L<br />

u=1<br />

〈∇u, ∇u〉 L 2 (Ω)<br />

⎠ = λj (Ω1) .


Rodney Josué Biezuner 30<br />

<br />

No caso <strong>do</strong>s autovalores <strong>de</strong> Neumann, o resulta<strong>do</strong> continua váli<strong>do</strong> mas a <strong>de</strong>monstração é mais complicada<br />

porque o opera<strong>do</strong>r extensão E : W 1,2 (Ω1) −→ W 1,2 (Ω2) não preserva a norma: em geral Eu W 1,2 (Ω2) ><br />

u W 1,2 (Ω1) (embora exista uma constante C > 0 tal que Eu W 1,2 (Ω2) C u W 1,2 (Ω1) , esta constante é<br />

geralmente maior que 1) e por este motivo W 1,2 (Ω1) não po<strong>de</strong> ser consi<strong>de</strong>ra<strong>do</strong> um subespaço <strong>de</strong> Hilbert <strong>de</strong><br />

W 1,2 (Ω2).<br />

1.8 Conjunto Nodal e Domínios Nodais <strong>de</strong> uma Autofunção<br />

1.8.1 Princípio <strong>do</strong> Máximo Forte: o Primeiro Autovalor <strong>do</strong> <strong>Laplaciano</strong> é Simples<br />

O primeiro autovalor <strong>do</strong> laplaciano é simples, isto é, o seu autoespaço associa<strong>do</strong> tem dimensão 1, e possui<br />

uma autofunção associada positiva. Para provar este resulta<strong>do</strong>, precisamos <strong>do</strong> Princípio <strong>do</strong> Máximo Forte<br />

para opera<strong>do</strong>res elípticos, adapta<strong>do</strong> para o opera<strong>do</strong>r <strong>de</strong> Helmholtz (veja [Gilbarg-Trudinger] ou [Biezuner]<br />

para uma <strong>de</strong>monstração):<br />

1.19 Lema. (Princípio <strong>do</strong> Máximo Forte) Seja Ω ⊂ R n um aberto conexo. Seja u ∈ C 2 (Ω).<br />

Se ∆u 0 em Ω e u atinge o seu máximo no interior <strong>de</strong> Ω, então u é constante.<br />

Se ∆u 0 em Ω e u atinge o seu mínimo no interior <strong>de</strong> Ω, então u é constante.<br />

Prova: Provaremos a segunda afirmação, que será usada na seqüência; a <strong>de</strong>monstração da primeira é<br />

análoga. Afirmamos que se ∆u 0 em Ω, vale a seguinte <strong>de</strong>sigualda<strong>de</strong> <strong>do</strong> valor médio: para qualquer bola<br />

BR (x) ⊂⊂ Ω temos<br />

u (x) 1<br />

<br />

u =<br />

|BR| BR<br />

1<br />

ωnRn <br />

u, (1.22)<br />

BR<br />

on<strong>de</strong> ωn é o volume da bola unitária em Rn . Para provar esta <strong>de</strong>sigualda<strong>de</strong>, <strong>de</strong>fina para r ∈ (0, R] a função<br />

φ(r) = 1<br />

<br />

u.<br />

|∂Br|<br />

Para obter a <strong>de</strong>rivada da função φ, fazemos a mudança <strong>de</strong> variáveis<br />

<strong>de</strong> mo<strong>do</strong> que<br />

e daí<br />

φ(r) =<br />

ω =<br />

y − x<br />

,<br />

r<br />

1<br />

nωnrn−1 <br />

u(y) ds =<br />

∂Br<br />

1<br />

<br />

<br />

1<br />

u(x + rω) dω =<br />

u(x + rω) dω,<br />

nωn ∂B1(0)<br />

|∂B1(0)| ∂B1(0)<br />

φ ′ <br />

1<br />

(r) =<br />

|∂B1(0)|<br />

= 1<br />

<br />

|∂Br|<br />

∂Br<br />

∂B1(0)<br />

∂Br<br />

∇u(x + rω) · ω dω = 1<br />

<br />

y − x<br />

∇u(y) · ds<br />

|∂Br| ∂Br r<br />

∂u<br />

∂ν ds,<br />

pois o vetor normal unitário à ∂Br(x) apontan<strong>do</strong> para fora é exatamente o vetor<br />

da Divergência e por hipótese, temos <br />

∂Br<br />

∂u<br />

∂ν =<br />

<br />

∆u 0,<br />

Ω<br />

y − x<br />

. Mas, pelo Teorema<br />

r


Rodney Josué Biezuner 31<br />

logo<br />

e φ(r) é uma função <strong>de</strong>crescente. Portanto,<br />

1<br />

|∂Br|<br />

<br />

∂Br<br />

φ ′ (r) 0<br />

u 1<br />

<br />

u<br />

|∂BR| ∂BR<br />

para to<strong>do</strong> 0 < r R. Usan<strong>do</strong> o Teorema <strong>do</strong> Valor Médio para Integrais<br />

<br />

1<br />

lim<br />

u = u(x),<br />

r→0 |∂Br|<br />

∂Br<br />

obtemos<br />

u(x) 1<br />

<br />

u.<br />

|∂BR| ∂BR<br />

(1.23)<br />

Em particular, como R é arbitrário, vale a <strong>de</strong>sigualda<strong>de</strong><br />

nωnr n−1 <br />

u(x) u<br />

para to<strong>do</strong> r, e a <strong>de</strong>sigualda<strong>de</strong> <strong>do</strong> valor médio (1.22) é obtida integran<strong>do</strong>-se esta equação <strong>de</strong> r = 0 até r = R.<br />

Vamos agora provar o lema. Seja m = minΩ u e consi<strong>de</strong>re o conjunto A = {x ∈ Ω : u(x) = m}. Por<br />

hipótese, A é não-vazio e fecha<strong>do</strong> em Ω, pois u é contínua em Ω. Como Ω é conexo, para provar que A = Ω e<br />

portanto que u é constante, basta provar que A é aberto. De fato, da<strong>do</strong> x ∈ A e uma bola BR = BR(x) ⊂⊂ Ω,<br />

temos pela <strong>de</strong>sigualda<strong>de</strong> <strong>do</strong> valor médio para funções harmônicas que<br />

m = u(x) 1<br />

|BR|<br />

<br />

BR<br />

∂Br<br />

u 1<br />

|BR|<br />

<br />

BR<br />

m = m.<br />

Se houvesse pelo menos um ponto em BR(x) cujo valor é estritamente maior que m, então a <strong>de</strong>sigualda<strong>de</strong><br />

acima seria estrita, o que constituiria uma contradição. Concluímos que u ≡ m em BR(x), logo A é aberto.<br />

<br />

1.20 Lema. Seja Ω ⊂ R n um aberto. Seja u ∈ C 2 (Ω) uma solução <strong>de</strong> −∆u = λu em Ω, λ 0. Se u<br />

atinge um mínimo igual a 0 no interior <strong>de</strong> Ω, então u é constante.<br />

Prova: Se minΩ u = 0, em particular u 0 em Ω. Logo, ∆u = −λu 0 em Ω. Pelo Princípio <strong>do</strong> Máximo<br />

Forte, concluímos que u é constante. <br />

1.21 Teorema. Seja Ω ⊂ R n um aberto limita<strong>do</strong> conexo. Então o problema <strong>de</strong> autovalor<br />

−∆u = λu em Ω,<br />

u = 0 sobre ∂Ω,<br />

possui uma solução positiva u1 > 0 em Ω. Além disso, qualquer outra autofunção associada a λ1 é<br />

múltipla <strong>de</strong> u1.<br />

Prova: Para simplificar a <strong>de</strong>monstração, assumiremos que Ω tem regularida<strong>de</strong> suficiente para que u ∈<br />

C2 (Ω)∩C 0 Ω <strong>de</strong> mo<strong>do</strong> que po<strong>de</strong>mos usar o Princípio <strong>do</strong> Máximo Forte clássico da<strong>do</strong> no lema anterior (um<br />

princípio <strong>do</strong> máximo forte para funções em W 1,2<br />

0 (Ω) po<strong>de</strong> ser visto em [Gilbarg-Trudinger]). Pela formulação<br />

variacional, se u é uma autofunção associada a λ1, então |u| também é, pois I (u) = I (|u|). A teoria <strong>de</strong><br />

regularida<strong>de</strong> (Teorema 1.13) garante então que |u| ∈ C2 (Ω) ∩ C0 Ω também. Pelo lema anterior, u não<br />

po<strong>de</strong> se anular no interior <strong>de</strong> Ω, pois isso implicaria que |u| atinge o seu mínimo no interior, logo u > 0.<br />

Este argumento também implica que as autofunções associadas a λ1 são negativas ou positivas em Ω, logo<br />

não po<strong>de</strong>m ser ortogonais, e portanto o subespaço associa<strong>do</strong> a λ1 só po<strong>de</strong> ser unidimensional. <br />

Mais geralmente, vale o resulta<strong>do</strong> <strong>do</strong> Teorema 1.24 a seguir para to<strong>do</strong>s os autovalores <strong>do</strong> laplaciano.


Rodney Josué Biezuner 32<br />

1.8.2 Conjunto Nodal e Domínios Nodais <strong>de</strong> Autofunções <strong>do</strong> <strong>Laplaciano</strong><br />

Definição. Se λj é um autovalor <strong>do</strong> laplaciano em Ω e uj é uma autofunção associada, <strong>de</strong>finimos o conjunto<br />

nodal <strong>de</strong> uj por<br />

Γj = {x ∈ Ω : uj (x) = 0} .<br />

As componentes conexas <strong>de</strong> Ω\Γj são chamadas os <strong>do</strong>mínios nodais <strong>de</strong> uj.<br />

O conjunto nodal <strong>de</strong> uj é simplesmente o conjunto <strong>do</strong>s pontos on<strong>de</strong> uj se anula; a terminologia nodal é oriunda<br />

<strong>do</strong> estu<strong>do</strong> das vibrações <strong>de</strong> cordas e membranas em Mecânica. O Teorema 1.21 afirma que o conjunto nodal<br />

<strong>de</strong> u1 é vazio; em particular, se Ω é conexo, então Ω\Γ1 possui uma componente conexa, isto é, apenas<br />

um <strong>do</strong>mínio nodal. Para as <strong>de</strong>mais autofunções, o Teorema <strong>do</strong> Conjunto Nodal <strong>de</strong> Courant (Teorema 1.24<br />

abaixo) afirma que o número <strong>de</strong> <strong>do</strong>mínios nodais da autofunção uj não po<strong>de</strong> exce<strong>de</strong>r j.<br />

1.22 Lema. Seja Ω ⊂ R n um aberto limita<strong>do</strong> conexo e<br />

0 < λ1 < λ2 . . . λj . . .<br />

os autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano e u1, u2, . . . , uj, . . . as respectivas autofunções associadas. Se<br />

λj tem multiplicida<strong>de</strong> r, <strong>de</strong> mo<strong>do</strong> que<br />

λj−1 < λj = λj+1 = . . . = λj+r−1 < λj+r,<br />

Então uj possui no máximo j + r − 1 <strong>do</strong>mínios nodais.<br />

Prova: A <strong>de</strong>monstração <strong>do</strong> lema é baseada na caracterização variacional <strong>do</strong>s autovalores <strong>do</strong> laplaciano.<br />

Suponha que uj tenha m <strong>do</strong>mínios nodais Ω1, · · · , Ωm. Defina<br />

<br />

βiuj (x) se x ∈ Ωi,<br />

wi (x) =<br />

0 caso contrário,<br />

on<strong>de</strong> o fator <strong>de</strong> escala βi é escolhi<strong>do</strong> <strong>de</strong> tal forma que wi L 2 (Ω) = 1. Observe que, como os <strong>do</strong>mínios nodais<br />

Ωi são disjuntos, as funções wi são ortogonais em L 2 (Ω) e em W 1,2<br />

0 (Ω). Como<br />

para to<strong>do</strong> v ∈ W 1,2<br />

0 (Ω), em particular temos<br />

<br />

<br />

Ωi<br />

∇uj · ∇v = λj<br />

Ω<br />

∇wi · ∇wi = λj<br />

(embora wi seja uma autofunção <strong>do</strong> laplaciano em Ωi associada a λj, wi não é uma autofunção <strong>do</strong> laplaciano<br />

em Ω associada a λj; pelo Princípio da Continuação Única (veja o lema a seguir), uma autofunção que se<br />

anula em um aberto, <strong>de</strong>ve-se anular no <strong>do</strong>mínio to<strong>do</strong>). Consi<strong>de</strong>re combinações lineares v <strong>do</strong>s wi tais que<br />

vL2 (Ω) = 1, isto é,<br />

m<br />

v =<br />

i=1<br />

e a1, . . . , am ∈ R são quaisquer escalares que satisfazem<br />

m<br />

i=1<br />

aiwi<br />

a 2 i = 1.<br />

<br />

Ω<br />

<br />

ujv<br />

Ωi<br />

w 2 i


Rodney Josué Biezuner 33<br />

Em particular,<br />

ou seja,<br />

m<br />

〈∇v, ∇v〉 L2 (Ω) = a 2 i 〈∇wi, ∇wi〉 L2 (Ωi) =<br />

m<br />

i=1<br />

〈∇v, ∇v〉 L 2 (Ω)<br />

v L 2 (Ω)<br />

i=1<br />

= λj.<br />

Por outro la<strong>do</strong>, po<strong>de</strong>mos escolher a1, . . . , am <strong>de</strong> tal forma que<br />

para i = 1, . . . , m − 1, pois o sistema<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

〈v, ui〉 L 2 (Ω) = 0<br />

〈v, u1〉 = n<br />

ai 〈wi, u1〉 = 0<br />

i=1<br />

.<br />

.<br />

〈v, um−1〉 = n<br />

ai 〈wi, um−1〉 = 0<br />

i=1<br />

a 2 i λj 〈wi, wi〉 L 2 (Ωi)<br />

= λj,<br />

possui m − 1 equações e m incógnitas. Para esta escolha <strong>de</strong> v, segue <strong>do</strong> Teorema 1.13 que<br />

〈∇v, ∇v〉 L 2 (Ω)<br />

v 2<br />

L 2 (Ω)<br />

Portanto,<br />

= ∇v2 L2 (Ω)<br />

v 2<br />

L2 =<br />

(Ω)<br />

∞<br />

i=1<br />

∞<br />

i=1<br />

λi 〈v, ui〉 2<br />

L 2 (Ω)<br />

〈v, ui〉 2<br />

L 2 (Ω)<br />

=<br />

λm λj.<br />

∞<br />

i=m<br />

∞<br />

i=m<br />

λi 〈v, ui〉 2<br />

L 2 (Ω)<br />

〈v, ui〉 2<br />

L 2 (Ω)<br />

<br />

∞<br />

λm<br />

i=m<br />

∞<br />

i=m<br />

〈v, ui〉 2<br />

L 2 (Ω)<br />

〈v, ui〉 2<br />

L 2 (Ω)<br />

= λm.<br />

Como λj < λj+r, segue que λm < λj+r, <strong>do</strong>n<strong>de</strong> m < n + r. <br />

Em particular, se λj é um autovalor simples, o número máximo <strong>de</strong> <strong>do</strong>mínios nodais <strong>de</strong> uj é j. Para<br />

mostrar que esta mesma estimativa vale para as <strong>de</strong>mais autofunções, Courant e Hilbert produziram um<br />

refinamento complica<strong>do</strong> <strong>do</strong> seu argumento no lema acima. A <strong>de</strong>monstração simplificada apresentada a<br />

seguir é <strong>de</strong>vida a Herrman [Herrman] e Pleijel [Pleijel] (reproduzida em [Gladwell-Zhu]) e é baseada no<br />

Princípio da Continuação Única (uma <strong>de</strong>monstração <strong>de</strong>ste po<strong>de</strong> ser encontrada em [Aronszajn]):<br />

1.23 Lema. (Princípio da Continuação Única) Seja Ω ⊂ Rn um aberto limita<strong>do</strong> conexo. Se u é uma solução<br />

<strong>de</strong><br />

−∆u = λu em Ω<br />

que se anula em um aberto não vazio <strong>de</strong> Ω, então u ≡ 0.<br />

1.24 Teorema. (Teorema <strong>do</strong> Conjunto Nodal <strong>de</strong> Courant) Seja Ω ⊂ R n um aberto limita<strong>do</strong> conexo e<br />

0 < λ1 < λ2 . . . λj . . .<br />

os autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano e u1, u2, . . . , uj, . . . as respectivas autofunções associadas.<br />

Então uj possui no máximo j <strong>do</strong>mínios nodais.<br />

Prova: Suponha por absur<strong>do</strong> que uj tenha m > j <strong>do</strong>mínios nodais. Defina wi e v como na <strong>de</strong>monstração<br />

<strong>do</strong> Lema 1.22, escolhen<strong>do</strong><br />

aj+1 = . . . = am = 0,


Rodney Josué Biezuner 34<br />

<strong>de</strong> mo<strong>do</strong> que v ≡ 0 em Ωj+1 ∪ . . . ∪ Ωm. Como antes, temos<br />

e po<strong>de</strong>mos escolher a1, . . . , aj <strong>de</strong> tal forma que<br />

〈∇v, ∇v〉 L 2 (Ω)<br />

v L 2 (Ω)<br />

= λj<br />

〈v, ui〉 L 2 (Ω) = 0<br />

para i = 1, . . . , j − 1. Isso implica que v é uma autofunção associada a λj (como vimos na <strong>de</strong>monstração<br />

<strong>do</strong> Teorema 1.13, nestas condições o mínimo λj <strong>do</strong> quociente <strong>de</strong> Rayleigh é realiza<strong>do</strong> em uma autofunção<br />

<strong>de</strong> λj), isto é, é uma solução fraca <strong>de</strong> −∆u = λju em Ω. Como v se anula em Ωj+1 ∪ . . . ∪ Ωm, segue <strong>do</strong><br />

Princípio da Continuação Única que v ≡ 0 em Ω, contradizen<strong>do</strong> vL2 (Ω) = 1. <br />

Observe que o Teorema 1.24 implica que se λj tem multiplicida<strong>de</strong> r, <strong>de</strong> mo<strong>do</strong> que<br />

λj−1 < λj = λj+1 = . . . = λj+r−1 < λj+r,<br />

então qualquer autofunção associada a λj possui no máximo j <strong>do</strong>mínios nodais, mesmo as autofunções<br />

uj+1, . . . , uj+r−1.<br />

1.25 Corolário. O Teorema <strong>do</strong> Conjunto Nodal <strong>de</strong> Courant vale mesmo se Ω não é conexo.<br />

Prova: Sejam Ω = Ω1 ∪ . . . ∪ Ωp a <strong>de</strong>composição <strong>de</strong> Ω em componentes conexas. Denote por λk <br />

j j∈N<br />

a seqüência crescente <strong>de</strong> autovalores <strong>de</strong> Ωk com uk <br />

j j∈N as correspon<strong>de</strong>ntes autofunções. Seja {λj} j∈N =<br />

<br />

1 λj j∈N ∪ . . . ∪ λ p<br />

j a seqüência crescente <strong>de</strong> autovalores <strong>de</strong> Ω; as autofunções correspon<strong>de</strong>ntes são da<br />

j∈N<br />

forma<br />

<br />

k u<br />

uj (x) = i (x) se x ∈ Ωk,<br />

0 caso contrário,<br />

para alguns índices i, k, com j i. Pelo Teorema <strong>do</strong> Conjunto Nodal <strong>de</strong> Courant aplica<strong>do</strong> a Ωk, uk i não tem<br />

mais que i <strong>do</strong>mínios nodais em Ωk, logo uj não tem mais que j <strong>do</strong>mínios nodais em Ωk e é nula fora <strong>de</strong> Ωk.<br />

<br />

1.26 Corolário. Uma autofunção u2 associada ao segun<strong>do</strong> autovalor λ2 possui exatamente 2 <strong>do</strong>mínios<br />

nodais. Autofunções associadas a outros autovalores λj, j = 1, 2, possuem pelo menos <strong>do</strong>is <strong>do</strong>mínios<br />

nodais.<br />

Prova: Pelo Teorema <strong>do</strong> Conjunto Nodal <strong>de</strong> Courant, o número <strong>de</strong> <strong>do</strong>mínios nodais <strong>de</strong> u2 não po<strong>de</strong> exce<strong>de</strong>r<br />

2. Por outro la<strong>do</strong>, o fato <strong>de</strong> que uma autofunção u1 associada ao primeiro autovalor λ1 = λ2 ter o mesmo<br />

sinal em Ω, juntamente com o fato que u1 ⊥ u2, implicam que u2 muda <strong>de</strong> sinal em Ω, logo não po<strong>de</strong> ter<br />

apenas um <strong>do</strong>mínio nodal. Este mesmo argumento <strong>de</strong> ortogonalida<strong>de</strong>, u1 ⊥ uj se j = 1, implica que qualquer<br />

autofunção associada a um autovalor diferente <strong>de</strong> λ1 necessariamente muda <strong>de</strong> sinal em Ω. <br />

O Corolário 1.26 sugere que a estimativa dada no Teorema 1.24 é a melhor possível. Isso não é verda<strong>de</strong>, no<br />

entanto. Usan<strong>do</strong> a <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Faber-Krahn e a Lei <strong>de</strong> Weyl sobre a expansão assintótica <strong>do</strong>s autovalores,<br />

Pleijel [Pleijel] provou que para valores suficientemente gran<strong>de</strong>s <strong>de</strong> j, o número máximo <strong>de</strong> <strong>do</strong>mínios nodais<br />

j nunca é atingi<strong>do</strong> (Corolário 1.30, a seguir). A <strong>de</strong>monstração da <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Faber-Krahn dada a seguir<br />

é baseada na simetrização <strong>de</strong> Schwartz, que <strong>de</strong>finiremos a seguir.<br />

Definição. Seja Ω ⊂ R n um aberto limita<strong>do</strong>. O <strong>do</strong>mínio simetriza<strong>do</strong> Ω ∗ é a bola B = {x ∈ R n : |x| < R}<br />

que possui o mesmo volume <strong>de</strong> Ω.<br />

Dada uma função u : Ω −→ R, a função simetrizada u ∗ : Ω ∗ −→ R é <strong>de</strong>finida da seguinte forma.<br />

Denotan<strong>do</strong><br />

Ωµ = {x ∈ Ω : u (x) µ}<br />

<strong>de</strong>finimos<br />

u ∗ (x) = sup µ : x ∈ Ω ∗ <br />

µ .


Rodney Josué Biezuner 35<br />

Observe que u ∗ é uma função radialmente simétrica, não-crescente. Assumiremos os seguintes resulta<strong>do</strong>s<br />

sem <strong>de</strong>monstração (para uma prova, veja [Bandle], Lema 2.4 e Corolário 2.1):<br />

1.27 Lema. Seja Ω ⊂ Rn um aberto limita<strong>do</strong>. Então<br />

<br />

f <br />

e <br />

|∇u|<br />

Ω<br />

2 <br />

<br />

Ω<br />

Ω ∗<br />

Ω ∗<br />

f ∗<br />

|∇u ∗ | 2 .<br />

1.28 Teorema. (Desigualda<strong>de</strong> <strong>de</strong> Faber-Krahn) Seja Ω ⊂ R 2 um aberto limita<strong>do</strong>. Se λ1 é o primeiro<br />

autovalor <strong>de</strong> Dirichlet <strong>do</strong> laplaciano em Ω, então vale<br />

λ1 πα2 0,1<br />

A ,<br />

on<strong>de</strong> α0,1 é o primeiro zero positivo da função <strong>de</strong> Bessel J0 e A é a área <strong>de</strong> Ω.<br />

Prova: Seja (un) ⊂ W 1,2<br />

0 (Ω) uma seqüência minimizante para o quociente <strong>de</strong> Rayleigh I <strong>do</strong> primeiro<br />

autovalor <strong>de</strong> Dirichlet λ1 (Ω) <strong>do</strong> laplaciano em Ω. Como I (|u|) = I (u), po<strong>de</strong>mos assumir un 0 para to<strong>do</strong><br />

n. Então u ∗ n ∈ W 1,2<br />

0 (D), on<strong>de</strong> D = Ω ∗ é o disco <strong>de</strong> raio R que possui área A. Segue que<br />

<br />

Ω<br />

λ1 (Ω) = lim inf <br />

|∇un| 2<br />

Ω u2 n<br />

= α2 0,1 π<br />

=<br />

R2 πR2 α2 0,1 = πα2 0,1<br />

A .<br />

<br />

D lim inf<br />

|∇u∗n| 2<br />

<br />

D (u∗ 2 min<br />

n) u∈W 1,2<br />

0 (Ω)\{0}<br />

<br />

Ω |∇u|2<br />

<br />

Ω u2 = λ1 (D)<br />

<br />

A <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Faber-Krahn entre outras coisas comprova a conjectura <strong>de</strong> Rayleigh <strong>de</strong> que entre todas<br />

as regiões <strong>de</strong> mesma área, o disco tem o menor primeiro autovalor.<br />

1.29 Teorema. (Lei <strong>de</strong> Weyl) Seja Ω ⊂ R 2 um aberto limita<strong>do</strong> conexo e<br />

0 < λ1 < λ2 . . . λj . . .<br />

os autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano em Ω. Então<br />

λj ∼ 4πj<br />

A ,<br />

on<strong>de</strong> A é a área <strong>de</strong> Ω. Mais geralmente, se Ω ⊂ R n é um aberto limita<strong>do</strong>, então<br />

λj ∼ 4π 2<br />

2/n j<br />

,<br />

ωnV<br />

Prova: Veja [Weyl] ou [Courant-Hilbert], pág. .429–443 <br />

1.30 Corolário. Seja Ω ⊂ R 2 um aberto limita<strong>do</strong> conexo. Existe apenas um número finito <strong>de</strong> autovalores<br />

λj para os quais o número máximo j <strong>de</strong> <strong>do</strong>mínios nodais é atingi<strong>do</strong>.


Rodney Josué Biezuner 36<br />

Prova: A <strong>de</strong>monstração <strong>de</strong>ste corolário <strong>de</strong>pen<strong>de</strong> da observação <strong>de</strong> que se u é uma autofunção associada a<br />

um certo autovalor <strong>de</strong> Dirichlet λ e Ωi é qualquer <strong>do</strong>mínio nodal <strong>de</strong> u, então λ é o primeiro autovalor <strong>do</strong><br />

laplaciano em Ωi, isto é,<br />

λ1 (Ωi) = λ.<br />

De fato, ui = u|Ωi é uma autofunção associada a λ em Ωi, pois ui ∈ C2 (Ωi) ∩ C0 <br />

Ωi satisfaz −∆ui = λui<br />

em Ωi e ui = 0 em ∂Ωi (pois ∂Ωi está contida na união <strong>do</strong> conjunto nodal <strong>de</strong> u e ∂Ω, on<strong>de</strong> u = 0). Além<br />

disso, ui não muda <strong>de</strong> sinal em Ωi por <strong>de</strong>finição <strong>de</strong> <strong>do</strong>mínio nodal <strong>de</strong> u, logo possui apenas um <strong>do</strong>mínio nodal<br />

e portanto segue <strong>do</strong> Corolário 1.26 que ui é uma autofunção associada ao primeiro autovalor <strong>de</strong> Dirichlet em<br />

Ωi.<br />

Sejam Ω1, · · · , Ωm, m j, os <strong>do</strong>mínios nodais <strong>de</strong> uma autofunção u associada a λj. Como λj = λ1 (Ωi)<br />

para to<strong>do</strong> i, segue da Desigualda<strong>de</strong> <strong>de</strong> Faber-Krahn que<br />

λj πα2 0,1<br />

A (Ωi) ,<br />

on<strong>de</strong> A (Ωi) é a área <strong>de</strong> Ωi, para to<strong>do</strong> i. Escreven<strong>do</strong> estas <strong>de</strong>sigualda<strong>de</strong>s na forma<br />

e soman<strong>do</strong>-as para i = 1, . . . , m, segue que<br />

Logo, se o caso máximo m = j ocorre, temos<br />

A (Ωi)<br />

πα 2 0,1<br />

A (Ω)<br />

πα 2 0,1<br />

A (Ω)<br />

πα 2 0,1<br />

1<br />

,<br />

λj<br />

m<br />

.<br />

λj<br />

j<br />

.<br />

λj<br />

Se o número máximo m = j <strong>de</strong> <strong>do</strong>mínios nodais fosse atingi<strong>do</strong> para um número infinito <strong>de</strong> índices j, toman<strong>do</strong><br />

o limite nesta <strong>de</strong>sigualda<strong>de</strong> quan<strong>do</strong> j → ∞ para esta subseqüência <strong>de</strong> índices, teríamos pela Lei <strong>de</strong> Weyl que<br />

<strong>do</strong>n<strong>de</strong><br />

A (Ω)<br />

πα 2 0,1<br />

<br />

α0,1 2.<br />

A (Ω)<br />

4π ,<br />

Mas α0,1 = 2.404825558..., contradição. <br />

Com relação aos conjuntos nodais das autofunções <strong>do</strong> laplaciano, po<strong>de</strong>-se dizer que eles são altamente<br />

regulares: o conjunto nodal <strong>de</strong> uma autofunção u <strong>do</strong> laplaciano em Ω ⊂ R n é localmente composto <strong>de</strong><br />

hiperfícies <strong>de</strong> dimensão n − 1, que po<strong>de</strong>m se intersectar em superfícies <strong>de</strong> dimensão menor que n − 1 (veja<br />

[Cheng] para o enuncia<strong>do</strong> preciso e sua <strong>de</strong>monstração). Estas hiperfícies não po<strong>de</strong>m terminar no interior <strong>de</strong><br />

Ω, o que significa que ou elas são fechadas, ou elas começam e terminam na fronteira <strong>de</strong> Ω. Além disso, no<br />

caso bidimensional, quan<strong>do</strong> as curvas nodais se intersectam, ou quan<strong>do</strong> elas interceptam a fronteira, elas o<br />

fazem em ângulos iguais; assim, por exemplo, se uma curva nodal intercepta a fronteira, ela o faz em um<br />

ângulo reto, enquanto que se duas curvas nodais interceptam a fronteira no mesmo ponto, elas o fazem em<br />

ângulos <strong>de</strong> π/3 e guardam também um ângulo <strong>de</strong> π/3 entre si (veja [Courant-Hilbert]).<br />

Exemplo 8. Como vimos no Exemplo 2, os autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano no quadra<strong>do</strong> Q = [0, π] 2 ⊂<br />

R 2 são da<strong>do</strong>s por<br />

λnm = n 2 + m 2 , n, m ∈ N,


Rodney Josué Biezuner 37<br />

com correspon<strong>de</strong>ntes autofunções<br />

unm (x, y) = sen nx sen my.<br />

O autovalor λ2 = λ3 = 5 tem multiplicida<strong>de</strong> 2 e o seu autoespaço é constituí<strong>do</strong> pelas funções da forma<br />

u (x, y) = A sen x sen 2y + B sen 2x sen y, A, B ∈ R.<br />

Para A = 0, u tem uma reta nodal vertical (x = π/2); para B = 0, u tem uma reta nodal horizontal<br />

(y = π/2); se A = ±B, u tem uma reta nodal diagonal (a reta y = x se A = −B e a reta y = −x + 1<br />

se A = B); nos <strong>de</strong>mais casos, a curva nodal é especificada pela equação transcen<strong>de</strong>ntal<br />

A cos y + B cos x = 0,<br />

que é uma curva que intercepta a fronteira em <strong>do</strong>is pontos em ângulos retos. Em to<strong>do</strong>s os casos, a<br />

curva nodal <strong>de</strong> uma autofunção associada ao autovalor 5 divi<strong>de</strong> o quadra<strong>do</strong> em <strong>do</strong>is <strong>do</strong>mínios nodais.<br />

O autovalor λ4 = 8 é simples, com o seu autoespaço gera<strong>do</strong> pela autofunção<br />

u (x, y) = sen 2x sen 2y,<br />

cujo conjunto nodal é a união das retas vertical x = π/2 e horizontal y = π/2; ela possui portanto<br />

quatro <strong>do</strong>mínios nodais.<br />

O autovalor λ5 = λ6 = 10 também tem multiplicida<strong>de</strong> 2 e o seu autoespaço é constituí<strong>do</strong> pelas funções<br />

da forma<br />

u (x, y) = A sen x sen 3y + B sen 3x sen y, A, B ∈ R.<br />

Para A = 0, u tem duas retas nodais verticais (x = π/3 e x = 2π/3); para B = 0, u tem duas retas<br />

nodais horizontais (y = π/3 e y = 2π/3); em ambos os casos, temos três <strong>do</strong>mínios nodais. Se A = −B,<br />

u tem as duas diagonais <strong>do</strong> quadra<strong>do</strong> como retas nodais, originan<strong>do</strong> quatro <strong>do</strong>mínios nodais, enquanto<br />

que se A = B, u tem uma curva nodal fechada<br />

sen 2 x + sen 2 y = 3/2<br />

que divi<strong>de</strong> o quadra<strong>do</strong> em apenas <strong>do</strong>is <strong>do</strong>mínios nodais, a região interior à curva e a região exterior.<br />

Pleijel verifica em [Pleijel] que os únicos autovalores <strong>do</strong> laplaciano no quadra<strong>do</strong> que possuem autofunções<br />

que assumem o número maximal <strong>de</strong> <strong>do</strong>mínios nodais são λ1 = 2 (um <strong>do</strong>mínio nodal),<br />

λ2 = λ3 = 5 (<strong>do</strong>is <strong>do</strong>mínios nodais) e λ4 = 8 (quatro <strong>do</strong>mínios nodais). <br />

1.9 Multiplicida<strong>de</strong> <strong>do</strong>s <strong>Autovalores</strong> <strong>do</strong> <strong>Laplaciano</strong><br />

Em regiões com algum tipo <strong>de</strong> simetria, o laplaciano freqüentemente possui autovalores com multiplicida<strong>de</strong>s<br />

maiores que 1.<br />

Exemplo 9. Como os autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano no quadra<strong>do</strong> Q = [0, π] 2 ⊂ R 2 , da<strong>do</strong>s por<br />

com correspon<strong>de</strong>ntes autofunções<br />

λnm = n 2 + m 2 , n, m ∈ N,<br />

unm (x, y) = sen nx sen my,<br />

vemos imediatamente que sempre que n = m o autovalor λnm terá multiplicida<strong>de</strong> pelo menos igual a<br />

2, já que as autofunções<br />

unm (x, y) = sen nx sen my e umn (x, y) = sen mx sen ny


Rodney Josué Biezuner 38<br />

são linearmente in<strong>de</strong>pen<strong>de</strong>ntes. Na verda<strong>de</strong>, o conjunto <strong>de</strong> todas as autofunções unm associadas ao<br />

autovalor λnm é linearmente in<strong>de</strong>pen<strong>de</strong>nte, logo a questão da multiplicida<strong>de</strong> <strong>do</strong> autovalor λnm é reduzida<br />

à questão <strong>de</strong> quantos maneiras diferentes um número inteiro p po<strong>de</strong> ser escrito como a soma<br />

<strong>de</strong> quadra<strong>do</strong>s inteiros n 2 + m 2 . A Teoria <strong>do</strong>s Números permite respon<strong>de</strong>r precisamente a esta questão<br />

(veja [Kuttler-Sigillito] para referências). Obtemos a <strong>de</strong>composição em primos <strong>do</strong> autovalor<br />

λnm = 2 α p r1<br />

1<br />

. . . prk<br />

k qs1 1 . . . qsl<br />

l ,<br />

on<strong>de</strong> os primos pi são da forma 4t + 1, enquanto que os primos qj são da forma 4t + 3, e to<strong>do</strong>s os si<br />

são pares. Segue que a multiplicida<strong>de</strong> <strong>do</strong> autovalor λnm é<br />

mult (λnm) =<br />

k<br />

(ri + 1) .<br />

Em particular, o laplaciano possui autovalores no quadra<strong>do</strong> <strong>de</strong> multiplicida<strong>de</strong> arbitrariamente gran<strong>de</strong>.<br />

<br />

O comportamento exibi<strong>do</strong> pelo laplaciano no quadra<strong>do</strong> nos Exemplos 8 e 9 não é típico, no entanto.<br />

Em [Uhlenbeck1] e [Uhlenbeck2], Uhlenbeck mostrou que na maioria das regiões (no senti<strong>do</strong> genérico), os<br />

autovalores <strong>do</strong> laplaciano são to<strong>do</strong>s simples, os conjuntos nodais das autofunções são <strong>de</strong> fato hiperfícies<br />

que não se autointerceptam e os pontos críticos das autofunções são máximos ou mínimos não-<strong>de</strong>genera<strong>do</strong>s<br />

(as autofunções são funções <strong>de</strong> Morse). Assim, dada qualquer região, existem perturbações suficientemente<br />

pequenas que a transformarão em uma região com estas proprieda<strong>de</strong>s, ou seja, autovalores múltiplos se<br />

tornarão distintos e cruzamentos das linhas nodais <strong>de</strong>saparecerão.<br />

i=1


Capítulo 2<br />

Méto<strong>do</strong> <strong>de</strong> Diferenças Finitas<br />

2.1 O Caso Unidimensional<br />

Nesta seção, <strong>de</strong>senvolveremos um méto<strong>do</strong> numérico <strong>de</strong> diferenças finitas para resolver o problema <strong>de</strong> Dirichlet<br />

para a equação <strong>de</strong> Poisson em uma dimensão<br />

−u ′′ = f (x) em [0, a] ,<br />

u (0) = u (a) = 0,<br />

e para o problema <strong>de</strong> autovalor <strong>de</strong> Dirichlet para o laplaciano<br />

−u ′′ = λu em [0, a] ,<br />

u (0) = u (a) = 0.<br />

2.1.1 Séries <strong>de</strong> Taylor e Diferenças Finitas em Uma Dimensão<br />

Seja ∆x > 0. Consi<strong>de</strong>re as seguintes expansões <strong>de</strong> Taylor <strong>de</strong> uma função u em torno <strong>de</strong> um ponto x0,<br />

respectivamente à direita e à esquerda <strong>de</strong> x0:<br />

Daí,<br />

u(x0 + ∆x) = u(x0) + u ′ (x0)∆x + 1<br />

2! u′′ (x0)∆x 2 + 1<br />

3! u′′′ (x0)∆x 3 + . . . , (2.1)<br />

u(x0 − ∆x) = u(x0) − u ′ (x0)∆x + 1<br />

2! u′′ (x0)∆x 2 − 1<br />

3! u′′′ (x0)∆x 3 + . . . (2.2)<br />

u ′ (x0) = u(x0 + ∆x) − u(x0)<br />

∆x<br />

u ′ (x0) = u(x0) − u(x0 − ∆x)<br />

∆x<br />

− 1<br />

2! u′′ (x0)∆x − 1<br />

3! u′′′ (x0)∆x 2 − . . . ,<br />

+ 1<br />

2! u′′ (x0)∆x − 1<br />

3! u′′′ (x0)∆x 2 + . . .<br />

Isso fornece duas aproximações possíveis para a primeira <strong>de</strong>rivada u ′ (x0) <strong>de</strong> u em x0:<br />

u ′ (x0) ≈ u(x0 + ∆x) − u(x0)<br />

,<br />

∆x<br />

(2.3)<br />

u ′ (x0) ≈ u(x0) − u(x0 − ∆x)<br />

.<br />

∆x<br />

(2.4)<br />

A primeira é chamada uma diferença progressiva e a segunda é uma diferença regressiva. Pela Fórmula<br />

<strong>de</strong> Taylor com Resto, o erro <strong>de</strong>stas aproximações é da<strong>do</strong> por<br />

ɛ = ± 1<br />

2 u′′ (ξ)∆x = O(∆x),<br />

39


Rodney Josué Biezuner 40<br />

on<strong>de</strong> x0 ξ x0 + ∆x no primeiro caso, e x0 − ∆x ξ x0 no segun<strong>do</strong> caso.<br />

Por outro la<strong>do</strong>, se subtrairmos (2.2) <strong>de</strong> (2.1), obtemos<br />

u ′ (x0) = u(x0 + ∆x) − u(x0 − ∆x)<br />

2∆x<br />

− 1<br />

3! u′′′ (x0)∆x 2 − 1<br />

5! u(5) (x0)∆x 4 − . . .<br />

o que dá uma outra aproximação possível para a primeira <strong>de</strong>rivada u ′ (x0) <strong>de</strong> u em x0:<br />

u ′ (x0) ≈ u(x0 + ∆x) − u(x0 − ∆x)<br />

2∆x<br />

com erro<br />

ɛ = − 1<br />

6 u′′′ (ξ)∆x 2 = O(∆x 2 ),<br />

para algum x0 − ∆x ξ x0 + ∆x. Esta aproximação por diferença finita é chamada diferença centrada.<br />

Ela é uma melhor aproximação que as aproximações laterais (progressiva e regressiva).<br />

Se, ao invés, adicionarmos (2.1) e (2.2), obtemos<br />

u ′′ (x0) = u(x0 + ∆x) + u(x0 − ∆x) − 2u(x0)<br />

∆x 2<br />

o que fornece uma aproximação para a <strong>de</strong>rivada segunda u ′′ (x0) <strong>de</strong> u em x0:<br />

u ′′ (x0) ≈ u(x0 + ∆x) + u(x0 − ∆x) − 2u(x0)<br />

∆x 2<br />

− 2<br />

4! u(4) (x0)∆x 2 − 2<br />

5! u(6) (x0)∆x 4 − . . .<br />

com erro<br />

ɛ = − 1<br />

12 u(4) (ξ)∆x 2 = O(∆x 2 ),<br />

on<strong>de</strong> x0 − ∆x ξ x0 + ∆x. Esta aproximação é também chamada uma diferença centrada para a<br />

<strong>de</strong>rivada segunda.<br />

2.1.2 Discretização<br />

Dividimos o intervalo [0, a] em n subintervalos <strong>de</strong> comprimento ∆x = a/n através <strong>de</strong> n − 1 pontos interiores<br />

uniformemente espaça<strong>do</strong>s:<br />

x0 = 0, x1 = ∆x, x2 = 2∆x, . . . , xn−1 = (n − 1) ∆x, xn = n∆x = a,<br />

<strong>de</strong> mo<strong>do</strong> que [0, a] = [x0, x1] ∪ [x1, x2] ∪ . . . ∪ [xn−1, xn]. Introduzimos a notação:<br />

ui = u(xi),<br />

fi = f (xi) .<br />

Esta é uma discretização uniforme <strong>do</strong> intervalo [0, a]. Uma vez discretiza<strong>do</strong> o <strong>do</strong>mínio da equação diferencial<br />

parcial, proce<strong>de</strong>mos à discretização <strong>de</strong>sta. Usan<strong>do</strong> diferenças centradas para cada ponto interior xi, 1 i <br />

n − 1, temos<br />

−ui−1 + 2ui − ui+1<br />

∆x 2 = fi. (2.7)<br />

Para os pontos <strong>de</strong> fronteira, a condição <strong>de</strong> Dirichlet implica simplesmente que<br />

(2.5)<br />

(2.6)<br />

u0 = un = 0. (2.8)


Rodney Josué Biezuner 41<br />

Portanto, para encontrar a solução discretizada temos que resolver o sistema linear com n − 1 equações a<br />

n − 1 incógnitas: ⎧⎪ ⎨<br />

ou seja,<br />

⎪⎩<br />

1<br />

∆x2 ⎡<br />

2 −1<br />

⎢<br />

−1<br />

⎢<br />

⎣<br />

2<br />

−1<br />

−1<br />

. ..<br />

. ..<br />

∆x −2 (2u1 + u2) = f1<br />

∆x −2 (−u1 + 2u2 − u3) = f2<br />

.<br />

.<br />

∆x −2 (−un−3 + 2un−2 − un−1) = f2<br />

∆x −2 (−un−2 + 2un−1) = fn−1<br />

. ..<br />

. .. −1<br />

−1 2 −1<br />

−1 2<br />

⎤ ⎡<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎦ ⎣<br />

u1<br />

u2<br />

.<br />

.<br />

un−2<br />

un−1<br />

⎤<br />

,<br />

⎡<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ = ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎦ ⎣<br />

Esta é uma matriz tridiagonal simétrica, esparsa. Além disso, como veremos na próxima subseção, ela é<br />

positiva <strong>de</strong>finida (isto é, seus autovalores são positivos) e portanto possui uma inversa, o que garante a<br />

existência e unicida<strong>de</strong> da solução. Dada sua simplicida<strong>de</strong>, ela po<strong>de</strong> ser resolvida por eliminação gaussiana<br />

ou sua inversa po<strong>de</strong> ser efetivamente calculada. Por exemplo, para n = 4, 5, 6 temos<br />

⎡<br />

⎢<br />

⎣<br />

⎡<br />

⎣<br />

2 −1 0<br />

−1 2 −1<br />

0 −1 2<br />

2 −1 0 0<br />

−1 2 −1 0<br />

0 −1 2 −1<br />

0 0 −1 2<br />

⎡<br />

⎢<br />

⎣<br />

⎤<br />

⎥<br />

⎦<br />

−1<br />

0 0 3<br />

4<br />

1<br />

3<br />

2<br />

3<br />

f1<br />

f2<br />

.<br />

.<br />

fn−2<br />

fn−1<br />

⎤−1<br />

⎡<br />

⎦ = ⎣ 1 ⎤ ⎡ ⎤ ⎡ ⎤<br />

1 1 1<br />

2 3 2 0 0 1 0 0<br />

2 0 1 ⎦ ⎣ 2<br />

3 0 3 0 ⎦ ⎣ 1<br />

2 1 0 ⎦ =<br />

0 0 1<br />

1<br />

1<br />

⎡<br />

⎣<br />

4<br />

=<br />

2 −1 0 0 0<br />

−1 2 −1 0 0<br />

0 −1 2 −1 0<br />

0 0 −1 2 −1<br />

0 0 0 −1 2<br />

⎡<br />

⎢<br />

⎣<br />

⎤<br />

⎥<br />

⎦<br />

1<br />

4<br />

2<br />

0<br />

0<br />

0<br />

0<br />

3<br />

1<br />

0<br />

4<br />

3<br />

4<br />

1<br />

1 1 1 2 3<br />

2 0 1<br />

−1<br />

⎤ ⎡<br />

1<br />

2 0 0 0<br />

4<br />

4<br />

0 0 0 5<br />

⎤ ⎡<br />

⎥ ⎢ 2<br />

⎥ ⎢ 0 3 0 0 ⎥ ⎢<br />

⎥ ⎢<br />

⎦ ⎣<br />

3 0 0 0 ⎦ ⎣<br />

A forma da inversa no caso geral po<strong>de</strong> ser facilmente adivinhada.<br />

1 0 0 0<br />

1<br />

2 1 0 0<br />

1<br />

3<br />

1<br />

4<br />

2<br />

3 1 0<br />

1<br />

2<br />

4<br />

3<br />

4<br />

⎤<br />

⎥ .<br />

⎥<br />

⎦<br />

⎤<br />

3 2 1<br />

2 4 2<br />

1 2 3<br />

⎥<br />

1<br />

⎦ =<br />

5<br />

⎡<br />

⎢<br />

⎣<br />

⎤<br />

⎦ ,<br />

4 3 2 1<br />

3 6 4 2<br />

2 4 6 3<br />

1 2 3 4<br />

⎡<br />

1 1 1<br />

1 2 3 4<br />

⎢<br />

2 2<br />

⎢ 0 1 3 4<br />

= ⎢<br />

3<br />

⎢ 0 0 1 4<br />

⎣ 0 0 0 1<br />

0 0 0 0<br />

=<br />

⎤ ⎡<br />

1<br />

5<br />

2 ⎥ ⎢<br />

5 ⎥ ⎢<br />

3 ⎥ ⎢<br />

5 ⎥ ⎢<br />

4 ⎦ ⎣<br />

5<br />

1<br />

1<br />

2<br />

0<br />

0<br />

0<br />

0<br />

0<br />

2<br />

3<br />

0<br />

0<br />

0<br />

0<br />

0<br />

3<br />

4<br />

0<br />

0<br />

0<br />

0<br />

0<br />

4<br />

5<br />

0<br />

0<br />

0<br />

0<br />

0<br />

5<br />

6<br />

⎤ ⎡<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎦ ⎣<br />

1<br />

1<br />

2<br />

1<br />

3<br />

1<br />

4<br />

1<br />

5<br />

0<br />

1<br />

2<br />

3<br />

1<br />

2<br />

5<br />

0<br />

0<br />

1<br />

3<br />

4<br />

3<br />

5<br />

0<br />

0<br />

0<br />

1<br />

4<br />

5<br />

⎤<br />

0<br />

0 ⎥<br />

0 ⎥<br />

0 ⎦<br />

1<br />

1<br />

⎡<br />

5 4 3 2<br />

⎢ 4 8 6 4<br />

⎢<br />

6 ⎢ 3 6 9 6<br />

⎣ 2 4 6 8<br />

⎤<br />

1<br />

2 ⎥<br />

3 ⎥<br />

4 ⎦<br />

1 2 3 4 5<br />

.<br />

⎤<br />

⎥<br />


Rodney Josué Biezuner 42<br />

2.1.3 Resolução Numérica <strong>do</strong> Problema <strong>de</strong> Autovalor Unidimensional<br />

Os autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano em [0, a] <strong>de</strong>vem ser aproxima<strong>do</strong>s pelos autovalores da matriz<br />

(n − 1) × (n − 1)<br />

A = 1<br />

∆x2 ⎡<br />

2 −1<br />

⎤<br />

⎢<br />

−1<br />

⎢<br />

⎣<br />

2<br />

−1<br />

−1<br />

. ..<br />

. ..<br />

. ..<br />

. ..<br />

−1<br />

−1<br />

2 −1<br />

⎥<br />

⎦<br />

−1 2<br />

quan<strong>do</strong> n → ∞ e correspon<strong>de</strong>ntemente ∆x → 0.<br />

Lembran<strong>do</strong> que as autofunções <strong>de</strong> Dirichlet <strong>do</strong> laplaciano no intervalo [0, a] são as funções<br />

Uj (x) = sen jπx<br />

a ,<br />

este fato sugere que os autovetores uj da matriz A são os vetores <strong>de</strong> coor<strong>de</strong>nadas<br />

Uj (x1) , Uj (x2) , . . . , Uj (xn−2) , Uj (xn−1) = Uj (∆x) , Uj (2∆x) , . . . , Uj ((n − 2) ∆x) , Uj ((n − 1) ∆x) ,<br />

ou seja, como ∆x = a/n, os vetores<br />

1 θ<br />

sin = cos θ<br />

2 2<br />

<br />

uj = sen jπ<br />

<br />

2jπ (n − 2) jπ (n − 1) jπ<br />

, sen , . . . , sen , sen .<br />

n n n<br />

n<br />

Usan<strong>do</strong> i<strong>de</strong>ntida<strong>de</strong>s trigonométricas, vamos verificar que isso <strong>de</strong> fato acontece:<br />

2.1 Lema. Os n − 1 autovalores da matriz A são<br />

λj = 2<br />

∆x2 <br />

1 − cos jπ<br />

<br />

=<br />

n<br />

4 jπ<br />

sen2 ,<br />

∆x2 2n<br />

j = 1, . . . , n − 1, (2.9)<br />

e os autovetores correspon<strong>de</strong>ntes são<br />

<br />

uj = sen jπ 2jπ<br />

, sen<br />

n n<br />

(n − 2) jπ<br />

, . . . , sen , sen<br />

n<br />

<br />

(n − 1) jπ<br />

, j = 1, . . . , n − 1. (2.10)<br />

n


Rodney Josué Biezuner 43<br />

Prova. Temos<br />

⎡<br />

2 −1<br />

⎢<br />

−1<br />

⎢<br />

⎣<br />

2<br />

−1<br />

−1<br />

. ..<br />

. ..<br />

pois<br />

e<br />

. ..<br />

. .. −1<br />

−1 2 −1<br />

−1 2<br />

2 sen jπ<br />

n<br />

− sen 2jπ<br />

n<br />

⎡<br />

⎤<br />

⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎦ ⎢<br />

⎣<br />

sen<br />

sen jπ<br />

n<br />

sen 2jπ<br />

n<br />

.<br />

(n − 2) jπ<br />

sen<br />

n<br />

(n − 1) jπ<br />

n<br />

= 2 sen jπ<br />

n<br />

⎤ ⎡<br />

⎥ ⎢<br />

2 sen<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ = ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎦ ⎣<br />

jπ 2jπ<br />

− sen<br />

n n<br />

− sen jπ<br />

⎤<br />

⎥<br />

2jπ 3jπ<br />

⎥<br />

+ 2 sen − sen ⎥<br />

n n n<br />

⎥<br />

.<br />

⎥<br />

(n − 3) jπ (n − 2) jπ (n − 1) jπ ⎥<br />

− sen + 2 sen − sen ⎥<br />

n<br />

n<br />

n ⎥<br />

(n − 2) jπ (n − 1) jπ ⎦<br />

− sen + 2 sen<br />

n<br />

n<br />

<br />

= 2 1 − cos jπ<br />

⎡<br />

⎢<br />

sen<br />

⎢<br />

⎢<br />

n ⎢<br />

⎣<br />

jπ<br />

n<br />

sen 2jπ<br />

⎤<br />

⎥<br />

n<br />

⎥<br />

. ⎥ ,<br />

⎥<br />

(n − 2) jπ ⎥<br />

sen ⎥<br />

n ⎥<br />

(n − 1) jπ ⎦<br />

sen<br />

n<br />

− 2 sen jπ<br />

n<br />

cos jπ<br />

n<br />

<br />

= 2 1 − cos jπ<br />

<br />

sen<br />

n<br />

jπ<br />

n ,<br />

(n − k − 1) jπ (n − k) jπ (n − k + 1) jπ<br />

− sen + 2 sen − sen<br />

<br />

n<br />

n<br />

n<br />

(n − k) jπ<br />

= − sen<br />

−<br />

n<br />

jπ<br />

<br />

<br />

(n − k) jπ (n − k) jπ<br />

+ 2 sen − sen<br />

+<br />

n<br />

n<br />

n<br />

jπ<br />

<br />

n<br />

(n − k) jπ<br />

= − sen cos<br />

n<br />

jπ (n − k) jπ<br />

+ cos sen<br />

n n<br />

jπ (n − k) jπ<br />

+ 2 sen<br />

n n<br />

(n − k) jπ<br />

− sen cos<br />

n<br />

jπ (n − k) jπ<br />

− cos sen<br />

n n<br />

jπ<br />

<br />

n<br />

= 2 1 − cos jπ<br />

<br />

(n − k) jπ<br />

sen ,<br />

n n<br />

(n − 2) jπ (n − 1) jπ<br />

− sen + 2 sen<br />

<br />

n<br />

n<br />

(n − 1) jπ<br />

= − sen<br />

−<br />

n<br />

jπ<br />

<br />

(n − 1) jπ<br />

+ 2 sen<br />

n<br />

n<br />

(n − 1) jπ<br />

= − sen cos<br />

n<br />

jπ (n − 1) jπ<br />

+ cos sen<br />

n n<br />

jπ<br />

n<br />

(n − 1) jπ<br />

= − sen cos<br />

n<br />

jπ (n − 1) jπ<br />

− sen cos<br />

n n<br />

jπ<br />

<br />

n<br />

= 2 1 − cos jπ<br />

<br />

(n − 1) jπ<br />

sen ,<br />

n n<br />

on<strong>de</strong> na penúltima i<strong>de</strong>ntida<strong>de</strong> usamos o fato que<br />

cos<br />

(n − 1) jπ<br />

n<br />

sen jπ<br />

n<br />

= − sen (n − 1) jπ<br />

n<br />

+ 2 sen (n − 1) jπ<br />

n<br />

+ 2 sen (n − 1) jπ<br />

n<br />

cos jπ<br />

n


Rodney Josué Biezuner 44<br />

porque<br />

<br />

(n − 1) jπ<br />

0 = sen jπ = sen<br />

+<br />

n<br />

jπ<br />

<br />

(n − 1) jπ<br />

= sen cos<br />

n<br />

n<br />

jπ (n − 1) jπ<br />

+ cos sen<br />

n n<br />

jπ<br />

n .<br />

<br />

Os autovalores <strong>de</strong> A são positivos, portanto A é uma matriz positiva <strong>de</strong>finida. Observe que, fixa<strong>do</strong> j, se n é<br />

arbitrariamente gran<strong>de</strong> então<br />

cos jπ<br />

n ≈ 1 − j2π 2<br />

,<br />

2n2 pois o <strong>de</strong>senvolvimento em série <strong>de</strong> Taylor da função cosseno em torno da origem é<br />

cos x = 1 − 1<br />

2 x2 + O x 3 ;<br />

toman<strong>do</strong> x = jπ/n para n suficientemente gran<strong>de</strong> e <strong>de</strong>sprezan<strong>do</strong> os termos <strong>de</strong> terceira or<strong>de</strong>m, obtemos a<br />

aproximação acima. Daí,<br />

2<br />

∆x 2<br />

<br />

1 − cos jπ<br />

n<br />

<br />

= 2n2<br />

a 2<br />

<br />

1 − cos jπ<br />

<br />

≈<br />

n<br />

2n2<br />

a2 <br />

1 − 1 − j2π 2<br />

2n2 <br />

= j2π 2<br />

,<br />

a2 <strong>de</strong> forma que os menores autovalores da matriz A são uma boa aproximação para os menores autovalores <strong>de</strong><br />

Dirichlet <strong>do</strong> laplaciano no intervalo [0, a]. Já o maior autovalor da matriz A é<br />

λn−1 = 2<br />

∆x2 <br />

<br />

(n − 1) π<br />

1 − cos =<br />

n<br />

2n2<br />

a2 <br />

<br />

(n − 1) π<br />

1 − cos ≈<br />

n<br />

4n2<br />

,<br />

a2 que não é uma boa aproximação para um autovalor <strong>do</strong> laplaciano. Vemos que se aumentarmos o número <strong>de</strong><br />

pontos <strong>de</strong> discretização (malha mais refinada) obteremos melhores aproximações e uma quantida<strong>de</strong> maior <strong>de</strong><br />

autovalores próximos aos autovalores <strong>do</strong> laplaciano. Para comparar, veja a tabela a seguir para os autovalores<br />

<strong>do</strong> laplaciano no intervalo [0, π]; na primeira coluna temos os autovalores exatos <strong>do</strong> laplaciano, enquanto que<br />

na <strong>de</strong>mais colunas os autovalores da matriz A, λj = 2n2<br />

π2 número n <strong>de</strong> subintervalos na malha<br />

<br />

1 − cos jπ<br />

<br />

, com a linha superior indican<strong>do</strong> o<br />

n<br />

n = 11 n = 21 n = 31 n = 51 n = 101 n = 1001<br />

1 0.993 221 21 0.998 136 38 0.999 144 44 0.999 683 82 0.999 919 37 0.999 999 18<br />

4 3.892 419 95 3.970 248 82 3.986 325 21 3.994 943 16 3.998 710 15 3.999 986 87<br />

9 8.462 720 39 8.849 945 24 8.930 889 79 8.974 415 97 8.993 471 18 8.999 933 51<br />

16 14.333 863 96 15.528 221 28 15.782 100 25 15.919 213 41 15.979 370 36 15.999 789 87<br />

25 21.030 205 54 23.855 895 28 24.469 653 89 24.802 991 47 24.949 649 29 24.999 486 99<br />

36 28.009 247 34 33.646 940 78 34.904 404 68 35.592 050 94 35.895 629 79 35.998 936 22<br />

49 34.705 588 92 44.682 641 99 46.979 277 93 48.245 465 23 48.806 722 35 48.998 029 23<br />

64 40.576 732 50 56.716 479 58 60.570 369 11 62.715 235 6 63.670 436 30 63.996 637 97<br />

81 45.147 032 93 69.479 637 52 75.538 215 24 78.946 473 26 80.472 391 97 80.994 614 71<br />

100 48.046 231 68 82.687 007 94 91.729 225 95 96.877 607 56 99.196 334 56 99.991 792 02<br />

2.2 O Caso Bidimensional<br />

Nesta seção, <strong>de</strong>senvolveremos um méto<strong>do</strong> numérico <strong>de</strong> diferenças finitas para resolver o problema <strong>de</strong> Dirichlet<br />

para a equação <strong>de</strong> Poisson no retângulo (0, a) × (0, b)<br />

−∆u = f (x, y) em (0, a) × (0, b) ,<br />

u = 0 sobre ∂ ((0, a) × (0, b)) ,<br />

e para o problema <strong>de</strong> autovalor <strong>de</strong> Dirichlet para o laplaciano no retângulo<br />

−∆u = λu em (0, a) × (0, b) ,<br />

u = 0 sobre ∂ ((0, a) × (0, b)) .


Rodney Josué Biezuner 45<br />

2.2.1 A Fórmula <strong>do</strong>s Cinco Pontos<br />

Vamos estabelecer alguma notação. Denote<br />

Ao discretizar Ω através <strong>do</strong>s pontos<br />

Ω = (0, a) × (0, b) = (x, y) ∈ R 2 : 0 < x < a, 0 < y < b .<br />

(xi, yj) = (i∆x, j∆y) , 0 i n, 0 j m<br />

on<strong>de</strong><br />

∆x = a<br />

,<br />

n<br />

b<br />

∆y =<br />

m ,<br />

substituímos o <strong>do</strong>mínio Ω pela malha (ou gri<strong>de</strong>) uniforme<br />

Ωd = {(x, y) ∈ Ω : x = i∆x, y = j∆y, 1 i n − 1, 1 j m − 1} .<br />

Sua fronteira discretizada é o conjunto<br />

<strong>de</strong> forma que<br />

A equação <strong>de</strong> Poisson<br />

po<strong>de</strong> ser agora discretizada. Denotamos<br />

∂Ωd = {(x, y) ∈ ∂Ω : x = i∆x, y = j∆y, 0 i n, 0 j m} ,<br />

Ωd = (x, y) ∈ Ω : x = i∆x, y = j∆y, 0 i n, 0 j m .<br />

−uxx − uyy = f (x, y)<br />

ui,j = u (xi, yj) ,<br />

fi,j = f (xi, yj) .<br />

Aproximamos cada <strong>de</strong>rivada parcial <strong>de</strong> segunda or<strong>de</strong>m pela sua diferença centrada, obten<strong>do</strong><br />

−uxx ≈ −ui−1,j + 2ui,j − ui+1,j<br />

∆x2 ,<br />

−uyy ≈ −ui,j−1 + 2ui,j − ui,j+1<br />

∆y2 .<br />

Portanto, a equação <strong>de</strong> Poisson discretizada toma a forma<br />

−ui−1,j + 2ui,j − ui+1,j<br />

∆x 2<br />

+ −ui,j−1 + 2ui,j − ui,j+1<br />

∆y 2 = fi,j. (2.11)<br />

Como a função u é calculada em cinco pontos, esta equação é chamada a fórmula <strong>do</strong>s cinco pontos.<br />

Para cada ponto interior da malha obtemos uma equação, logo temos um sistema linear <strong>de</strong> (n − 1) (m − 1)<br />

equações com o mesmo número <strong>de</strong> incógnitas. Diferente <strong>do</strong> caso unidimensional, no entanto, não existe uma<br />

maneira natural <strong>de</strong> or<strong>de</strong>nar os pontos da malha, logo não po<strong>de</strong>mos obter imediatamente uma representação<br />

matricial para o problema discretiza<strong>do</strong>. Precisamos antes escolher uma or<strong>de</strong>nação para os pontos da malha,<br />

e como existem várias or<strong>de</strong>nações possíveis, existem várias matrizes associadas.<br />

Talvez a mais simples or<strong>de</strong>nação é a or<strong>de</strong>m lexicográfica induzida <strong>de</strong> Z 2 . Nesta or<strong>de</strong>m, os pontos da<br />

malha são percorri<strong>do</strong>s linha por linha, da esquerda para a direita, <strong>de</strong> baixo para cima:<br />

u1,1, u2,1, . . . , un−1,1, u1,2, u2,2, . . . , un−1,2, . . . . . . , u1,m−1, u2,m−1, . . . , un−1,m−1.


Rodney Josué Biezuner 46<br />

Neste caso, a matriz associada ao sistema linear é uma matriz (n − 1) (m − 1) × (n − 1) (m − 1) que po<strong>de</strong><br />

ser escrita como uma matriz <strong>de</strong> (m − 1) × (m − 1) blocos <strong>de</strong> dimensão (n − 1) × (n − 1) na forma<br />

⎡<br />

⎢<br />

A = ⎢<br />

⎣<br />

B − 1<br />

−<br />

I<br />

∆y2 1<br />

I<br />

∆y2 B<br />

1<br />

− I<br />

∆y2 − 1<br />

I<br />

∆y2 . ..<br />

. ..<br />

. ..<br />

. .. 1<br />

− I<br />

∆y2 − 1<br />

1<br />

I B − I<br />

∆y2 ∆y2 − 1<br />

I B<br />

∆y2 ⎤<br />

⎥<br />

⎦<br />

(m−1)×(m−1)<br />

on<strong>de</strong> I é a matriz i<strong>de</strong>ntida<strong>de</strong> (n − 1) × (n − 1) e B é a matriz (n − 1) × (n − 1) dada por<br />

⎡ <br />

1 1<br />

⎢<br />

2 +<br />

⎢ ∆x2 ∆y<br />

⎢<br />

⎣<br />

2<br />

<br />

− 1<br />

∆x2 − 1<br />

∆x2 <br />

1 1<br />

2 +<br />

∆x2 ∆y2 <br />

− 1<br />

∆x2 − 1<br />

∆x2 . ..<br />

. ..<br />

. ..<br />

. ..<br />

− 1<br />

∆x2 − 1<br />

∆x2 <br />

1 1<br />

2 +<br />

∆x2 ∆y2 <br />

− 1<br />

∆x2 − 1<br />

∆x2 <br />

1 1<br />

2 +<br />

∆x2 ∆y2 <br />

Observe que<br />

para to<strong>do</strong> 1 i (n − 1) (m − 1), enquanto que<br />

<br />

1 1<br />

aii = 2 +<br />

∆x2 ∆y2 <br />

aij = − 1<br />

∆y 2<br />

se o ponto j é vizinho à esquerda ou à direita <strong>do</strong> ponto i e<br />

aij = − 1<br />

∆x 2<br />

⎤<br />

⎥<br />

⎦<br />

(n−1)×(n−1)<br />

se o ponto j é vizinho acima ou abaixo <strong>do</strong> ponto i. Por exemplo, no caso especial ∆x = ∆y, se n = 4 e m = 6


Rodney Josué Biezuner 47<br />

(ou seja 3 × 5 = 15 pontos internos na malha e uma matriz 15 × 15), temos<br />

A = 1<br />

∆x2 ⎡<br />

4<br />

⎢ −1<br />

⎢ 0<br />

⎢ −1<br />

⎢ 0<br />

⎢ 0<br />

⎢ 0<br />

⎢ 0<br />

⎢ 0<br />

⎢ 0<br />

⎢ 0<br />

⎢ 0<br />

⎢ 0<br />

⎣ 0<br />

−1<br />

4<br />

−1<br />

0<br />

−1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−1<br />

4<br />

0<br />

0<br />

−1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−1<br />

0<br />

0<br />

4<br />

−1<br />

0<br />

−1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−1<br />

0<br />

−1<br />

4<br />

−1<br />

0<br />

−1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−1<br />

0<br />

−1<br />

4<br />

0<br />

0<br />

−1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−1<br />

0<br />

0<br />

4<br />

−1<br />

0<br />

−1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−1<br />

0<br />

−1<br />

4<br />

−1<br />

0<br />

−1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−1<br />

0<br />

−1<br />

4<br />

0<br />

0<br />

−1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−1<br />

0<br />

0<br />

4<br />

−1<br />

0<br />

−1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−1<br />

0<br />

−1<br />

4<br />

−1<br />

0<br />

−1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−1<br />

0<br />

−1<br />

4<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−1<br />

0<br />

0<br />

4<br />

−1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−1<br />

0<br />

−1<br />

4<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−1<br />

0<br />

−1<br />

0 0 0 0 0 0 0 0 0 0 0 −1 0 −1 4<br />

Observe que a matriz A é uma matriz simétrica, pentadiagonal e esparsa.<br />

2.2.2 Existência e Unicida<strong>de</strong> da Solução Discreta – <strong>Autovalores</strong> <strong>do</strong> Problema<br />

Bidimensional<br />

Denotaremos por ud a função u| Ωd , isto é, ud é a discretização da função u no <strong>do</strong>mínio discretiza<strong>do</strong> Ωd.<br />

Vamos <strong>de</strong>finir o opera<strong>do</strong>r laplaciano discreto obti<strong>do</strong> a partir da fórmula <strong>do</strong>s cinco pontos por<br />

<br />

ui−1,j − 2ui,j + ui+1,j<br />

−∆dud = −<br />

∆x2 + ui,j−1 − 2ui,j + ui,j+1<br />

∆y2 <br />

. (2.12)<br />

<strong>de</strong> mo<strong>do</strong> que a discretização <strong>do</strong> problema<br />

−∆u = f em Ω,<br />

u = 0 sobre ∂Ω,<br />

é o problema −∆dud = fd em Ωd,<br />

ud = 0 sobre ∂Ωd.<br />

⎤<br />

⎥<br />

⎦<br />

(2.13)<br />

Para estabelecer a existência e unicida<strong>de</strong> da solução discreta, provaremos que a matriz <strong>de</strong> discretização A,<br />

que é uma matriz simétrica, é também uma matriz positiva <strong>de</strong>finida, pois isso implica em particular que A<br />

é invertível.<br />

Lembran<strong>do</strong> que as autofunções <strong>de</strong> Dirichlet <strong>do</strong> laplaciano no retângulo [0, a] × [0, b] são as funções<br />

Ukl (x, y) = sen kπx<br />

a<br />

sen lπy<br />

b ,<br />

este fato sugere que os autovetores ukl da matriz A na or<strong>de</strong>m lexicográfica são os vetores <strong>de</strong> coor<strong>de</strong>nadas<br />

Ukl (x1, y1) , Ukl (x2, y1) , . . . , Ukl (xn−1, y1) ,<br />

Ukl (x1, y2) , Ukl (x2, y2) , . . . , Ukl (xn−1, y2) ,<br />

.<br />

Ukl (x1, ym−1) , Ukl (x2, ym−1) , . . . , Ukl (xn−1, ym−1)


Rodney Josué Biezuner 48<br />

= Ukl (∆x, ∆y) , Ukl (2∆x, ∆y) , . . . , Ukl ((n − 1) ∆x, ∆y) ,<br />

Ukl (∆x, 2∆y) , Ukl (2∆x, 2∆y) , . . . , Ukl ((n − 1) ∆x, 2∆y) ,<br />

.<br />

.<br />

Ukl (∆x, (m − 1) ∆y) , Ukl (2∆x, (m − 1) ∆y) , . . . , Ukl ((n − 1) ∆x, (m − 1) ∆y) ,<br />

ou seja, como ∆x = a/n e ∆y = b/m, os vetores<br />

ukl =<br />

<br />

sen kπ<br />

n<br />

sen kπ<br />

n<br />

. . . ,<br />

sen kπ<br />

n<br />

lπ 2kπ<br />

sen , sen<br />

m n<br />

2lπ 2kπ<br />

sen , sen<br />

m n<br />

(m − 1) lπ<br />

sen , sen<br />

m<br />

2kπ<br />

n<br />

lπ (n − 1) kπ<br />

sen , . . . , sen sen<br />

m n<br />

lπ<br />

m ,<br />

2lπ (n − 1) kπ<br />

sen , . . . , sen sen<br />

m n<br />

2lπ<br />

m ,<br />

(m − 1) lπ (n − 1) kπ<br />

sen , . . . , sen sen<br />

m<br />

n<br />

<br />

(m − 1) lπ<br />

.<br />

m<br />

2.2 Lema. Os (n − 1) × (m − 1) autovalores da matriz A são<br />

<br />

1<br />

λkl = 2<br />

∆x2 <br />

1 − cos kπ<br />

<br />

+<br />

n<br />

1<br />

∆y2 <br />

1 − cos lπ<br />

<br />

1 kπ 1 lπ<br />

= 4 sen2 + sen2 , (2.14)<br />

m ∆x2 2n ∆y2 2m<br />

k = 1, . . . , n − 1, l = 1, . . . , m − 1, e os autovetores correspon<strong>de</strong>ntes são<br />

ukl =<br />

<br />

sen kπ<br />

n<br />

sen kπ<br />

n<br />

. . . ,<br />

sen kπ<br />

n<br />

lπ 2kπ<br />

sen , sen<br />

m n<br />

2lπ 2kπ<br />

sen , sen<br />

m n<br />

(m − 1) lπ<br />

sen , sen<br />

m<br />

2kπ<br />

n<br />

k = 1, . . . , n − 1, l = 1, . . . , m − 1.<br />

lπ (n − 1) kπ<br />

sen , . . . , sen sen<br />

m n<br />

lπ<br />

m ,<br />

2lπ (n − 1) kπ<br />

sen , . . . , sen<br />

m n<br />

(m − 1) lπ (n − 1) kπ<br />

sen , . . . , sen sen<br />

m<br />

n<br />

sen 2lπ<br />

, (2.15)<br />

m<br />

<br />

(m − 1) lπ<br />

,<br />

m<br />

Prova. Embora a <strong>de</strong>monstração <strong>de</strong>ste lema possa ser feita <strong>de</strong> maneira análoga à <strong>do</strong> Lema 2.1, usan<strong>do</strong><br />

i<strong>de</strong>ntida<strong>de</strong>s trigonométricas, daremos uma <strong>de</strong>monstração diferente. Lembran<strong>do</strong> que as autofunções e os<br />

autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano no retângulo são facilmente obti<strong>do</strong>s através <strong>do</strong> méto<strong>do</strong> <strong>de</strong> separação<br />

<strong>de</strong> variáveis, encontraremos os autovalores da matriz A usan<strong>do</strong> um méto<strong>do</strong> <strong>de</strong> separação <strong>de</strong> variáveis discreto<br />

para achar os autovalores <strong>do</strong> laplaciano discreto<br />

<br />

ui−1,j − 2ui,j + ui+1,j<br />

−<br />

∆x2 + ui,j−1 − 2ui,j + ui,j+1<br />

∆y2 <br />

= λui,j. (2.16)<br />

Em particular, este méto<strong>do</strong> não <strong>de</strong>pen<strong>de</strong> da maneira como os pontos da malha são or<strong>de</strong>na<strong>do</strong>s (não <strong>de</strong>pen<strong>de</strong><br />

da matriz A usada para representar o laplaciano discreto). Como no méto<strong>do</strong> <strong>de</strong> separação <strong>de</strong> variáveis<br />

contínuo, assumimos que as soluções da equação discreta acima são produtos da forma<br />

ui,j = F (i) G (j) , (2.17)<br />

on<strong>de</strong> F e G são funções <strong>de</strong> uma variável inteira. Substituin<strong>do</strong> esta expressão na equação <strong>de</strong> Helmholtz<br />

discreta, obtemos<br />

F (i − 1) G (j) − 2F (i) G (j) + F (i + 1) G (j)<br />

∆x2 + F (i) G (j − 1) − 2F (i) G (j) + F (i) G (j + 1)<br />

∆y2 = −λF (i) G (j) .


Rodney Josué Biezuner 49<br />

Dividin<strong>do</strong> esta equação por F (i) G (j), segue que<br />

F (i − 1) − 2F (i) + F (i + 1)<br />

∆x 2 F (i)<br />

+ G (j − 1) − 2G (j) + G (j + 1)<br />

∆y 2 G (j)<br />

= −λ.<br />

Separan<strong>do</strong> as variáveis, concluímos que cada um <strong>do</strong>s quocientes acima é in<strong>de</strong>pen<strong>de</strong>nte <strong>de</strong> i ou <strong>de</strong> j, isto é,<br />

eles são constantes:<br />

on<strong>de</strong> as constantes α, β estão relacionadas pela i<strong>de</strong>ntida<strong>de</strong><br />

F (i − 1) − 2F (i) + F (i + 1)<br />

= A,<br />

F (i)<br />

(2.18)<br />

G (j − 1) − 2G (j) + G (j + 1)<br />

= B,<br />

G (j)<br />

(2.19)<br />

A B<br />

+ = −λ. (2.20)<br />

∆x2 ∆y2 Estas equações po<strong>de</strong>m ser escritas como fórmulas <strong>de</strong> recorrência (análogas às equações diferenciais ordinárias<br />

obtidas no méto<strong>do</strong> <strong>de</strong> separação <strong>de</strong> variáveis contínuo)<br />

F (i + 1) − (A + 2) F (i) + F (i − 1) = 0,<br />

G (j − 1) − (B + 2) G (j) + G (j + 1) = 0.<br />

Para resolvê-las, é mais conveniente trabalhar com as constantes<br />

Desta forma, as equações para F e G tornam-se<br />

Observe que<br />

2α = A + 2, 2β = B + 2.<br />

F (i − 1) − 2αF (i) + F (i + 1) = 0, (2.21)<br />

G (j − 1) − 2βG (j) + G (j + 1) = 0. (2.22)<br />

<br />

1 − α 1 − β<br />

λ = 2 +<br />

∆x2 ∆y2 <br />

. (2.23)<br />

Vamos resolver a equação para F , já que a equação para G é completamente análoga. Substituin<strong>do</strong> em<br />

(2.21) uma solução da forma<br />

F (i) = z i<br />

(2.24)<br />

obtemos<br />

z i−1 − 2αz i + z i+1 = 0,<br />

<strong>do</strong>n<strong>de</strong>, dividin<strong>do</strong> por z i−1 extraímos a equação quadrática (análoga à equação indicial)<br />

As duas raízes são<br />

z 2 − 2αz + 1 = 0. (2.25)<br />

z± = α ± α 2 − 1,<br />

com z+ + z− = 2α e z+z− = 1. Portanto, a solução geral para a equação (2.21) é<br />

F (i) = c1z i + + c2z i −<br />

para algumas constantes c1, c2. Para <strong>de</strong>terminarmos estas constantes e também α, aplicamos as condições<br />

<strong>de</strong> fronteira, que implicam<br />

F (0) = F (n) = 0.


Rodney Josué Biezuner 50<br />

A primeira <strong>de</strong>stas por sua vez implica que c1 = −c2, logo<br />

F (i) = c z i + − z i <br />

− . (2.26)<br />

Como a equação para F é homogênea, a constante c é arbitrária. Aplican<strong>do</strong> a segunda, segue que<br />

ou, como z+z− = 1,<br />

z n + = z n −,<br />

z 2n<br />

+ = 1<br />

Conseqüentemente, z+ é uma 2n-ésima raiz complexa <strong>de</strong> 1:<br />

z+ = e ijπ/n<br />

(2.27)<br />

para algum inteiro 1 k 2n − 1, on<strong>de</strong> i = √ −1. Como z− = 1/z+, po<strong>de</strong>mos restringir 0 k n − 1 e<br />

(2.26) produz todas as soluções não-triviais F <strong>de</strong> (2.21).<br />

Portanto,<br />

e, escolhen<strong>do</strong> c = 1/2,<br />

Analogamente,<br />

e<br />

Segue que os autovalores são<br />

α = z+ + z−<br />

2<br />

λkl = 2<br />

= eiπk/n + e −iπk/n<br />

2<br />

= cos kπ<br />

, 0 k n − 1,<br />

n<br />

Fk (i) = e iπki/n − e −iπki/n = sen ikπ<br />

n .<br />

β = cos lπ<br />

, 0 l m − 1,<br />

m<br />

Gl (j) = sen jlπ<br />

m .<br />

<br />

1<br />

∆x2 <br />

1 − cos kπ<br />

<br />

+<br />

n<br />

1<br />

∆y2 <br />

1 − cos lπ<br />

<br />

m<br />

e as coor<strong>de</strong>nadas das autofunções associadas são dadas por<br />

<br />

(ukl) i,j = Fk (i) Gl (j) = sen ikπ<br />

n<br />

sen jlπ<br />

m .<br />

2.3 Teorema. (Existência e Unicida<strong>de</strong> da Solução Discreta) Seja Ω = (0, a) × (0, b). Então o problema<br />

discretiza<strong>do</strong> −∆dud = fd em Ωd,<br />

possui uma única solução.<br />

ud = 0 sobre ∂Ωd,<br />

Prova. Pelo lema anterior, os autovalores da matriz simétrica A são positivos, logo ela é uma matriz<br />

invertível.


Rodney Josué Biezuner 51<br />

2.2.3 Princípio <strong>do</strong> Máximo Discreto<br />

Para obter uma estimativa a priori para a equação <strong>de</strong> Poisson discretizada, e com isso provar a convergência<br />

da solução discreta para a solução clássica, usaremos um princípio <strong>do</strong> máximo discreto que enunciaremos e<br />

provaremos nesta subseção.<br />

2.3 Lema. (Proprieda<strong>de</strong> <strong>do</strong> Valor Médio) Se ∆dud = 0, então para pontos interiores vale<br />

ui,j = ∆x2 (ui,j−1 + ui,j+1) + ∆y2 (ui−1,j + ui+1,j)<br />

2 (∆x2 + ∆y2 .<br />

)<br />

Em particular, se ∆x = ∆y, então para pontos interiores vale<br />

ui,j = ui,j−1 + ui,j+1 + ui−1,j + ui+1,j<br />

.<br />

4<br />

2.4 Teorema. (Princípio <strong>do</strong> Máximo Discreto) Se ∆dud 0, o máximo <strong>de</strong> ud em Ωd é atingi<strong>do</strong> na fronteira<br />

∂Ωd; se o máximo <strong>de</strong> ud é atingi<strong>do</strong> no interior, então ud é constante.<br />

Se ∆dud 0, o mínimo <strong>de</strong> ud em Ωd é atingi<strong>do</strong> na fronteira ∂Ωd; se o mínimo <strong>de</strong> ud é atingi<strong>do</strong> no<br />

interior, então ud é constante.<br />

Prova. Primeiro provaremos para ∆x = ∆y, para ilustrar a analogia com o caso contínuo. ∆dud 0 implica<br />

Logo, um ponto interior é um máximo local, isto é,<br />

ui,j ui,j−1 + ui,j+1 + ui−1,j + ui+1,j<br />

.<br />

4<br />

ui,j ui,j−1, ui,j+1, ui−1,j, ui+1,j<br />

(ou seja, é um máximo em relação aos seus quatro vizinhos), somente se cada um <strong>do</strong>s seus quatro vizinhos<br />

assume este mesmo valor máximo, e a <strong>de</strong>sigualda<strong>de</strong> torna-se uma i<strong>de</strong>ntida<strong>de</strong>. Aplican<strong>do</strong> este argumento a<br />

to<strong>do</strong>s os pontos da malha, concluímos que ou não existe um máximo interior, e portanto o máximo é atingi<strong>do</strong><br />

na fronteira, ou existe um máximo interior e to<strong>do</strong>s os pontos da malha assumem o mesmo valor, isto é, ud é<br />

constante.<br />

No caso geral ∆x = ∆y, se ∆dud 0 temos<br />

<br />

1 1<br />

+<br />

∆x2 ∆y2 <br />

ui,j 1<br />

<br />

ui,j−1 + ui,j+1<br />

2 ∆y2 Se ui,j é um máximo local, segue que<br />

<br />

1 1<br />

+<br />

∆x2 ∆y2 <br />

ui,j 1<br />

<br />

ui,j + ui,j<br />

2 ∆y2 + ui−1,j + ui+1,j<br />

∆x2 <br />

.<br />

+ ui,j + ui,j<br />

∆x2 <br />

= 1<br />

<br />

1 1<br />

+<br />

2 ∆x2 ∆y2 <br />

ui,j,<br />

logo nenhum <strong>do</strong>s seus quatro vizinhos po<strong>de</strong> assumir um valor menor que ui,j, isto é, cada um <strong>do</strong>s quatro<br />

vizinhos assume o mesmo valor máximo e o argumento prossegue como no caso anterior. O caso ∆dud 0<br />

é prova<strong>do</strong> consi<strong>de</strong>ran<strong>do</strong>-se −ud. <br />

2.2.4 Convergência da Solução Discreta para a Solução Clássica<br />

Por simplicida<strong>de</strong>, trabalharemos no quadra<strong>do</strong> unitário, isto é, Ω = (0, 1) × (0, 1). Consi<strong>de</strong>raremos a norma<br />

<strong>do</strong> máximo discreta para funções vd <strong>de</strong>finidas no <strong>do</strong>mínio discretiza<strong>do</strong> Ωd:<br />

vd∞ = max |vi,j| .<br />

0in<br />

0jm<br />

Em primeiro lugar, obtemos uma estimativa a priori discreta (que também po<strong>de</strong> ser visto como um resulta<strong>do</strong><br />

<strong>de</strong> regularida<strong>de</strong> discreto) para soluções da equação <strong>de</strong> Poisson discreta com condição <strong>de</strong> Dirichlet homogênea:


Rodney Josué Biezuner 52<br />

2.5 Lema. (Estimativa a Priori) Seja Ω = (0, 1) 2 . Seja ud uma solução <strong>de</strong><br />

<br />

−∆dud = fd em Ωd,<br />

ud = 0 sobre ∂Ωd.<br />

Então<br />

Prova. Consi<strong>de</strong>re a função<br />

e sua versão discretizada wd <strong>de</strong>finida por<br />

Então<br />

e também<br />

pois<br />

ud ∞ 1<br />

8 ∆dud ∞ . (2.28)<br />

w (x, y) = 1<br />

x −<br />

4<br />

1<br />

2 <br />

+ y −<br />

2<br />

1<br />

<br />

2<br />

2<br />

wi,j = 1<br />

4<br />

<br />

xi − 1<br />

2<br />

2<br />

w 0 e ∆w = 1,<br />

∆dwd = wi−1,j − 2wi,j + wi+1,j<br />

+ wi,j−1 − 2wi,j + wi,j+1<br />

∆x 2<br />

xi−1 − 1<br />

2<br />

2 + yj − 1<br />

2<br />

<br />

+ yj − 1<br />

<br />

2<br />

. (2.29)<br />

2<br />

wd 0 e ∆dwd = 1, (2.30)<br />

∆y 2<br />

2 − 2 xi − 1<br />

2<br />

2 − 2 yj − 1<br />

2<br />

2 + xi+1 − 1<br />

2<br />

2 <br />

+ yj − 1<br />

2 2<br />

= 1<br />

4<br />

∆x2 <br />

xi −<br />

+<br />

1<br />

2 <br />

2 + yj−1 − 1<br />

2 <br />

2 − 2 xi − 1<br />

2 <br />

2 − 2 yj − 1<br />

2 <br />

2 + xi − 1<br />

2 <br />

2 + yj+1 − 1<br />

2 2<br />

∆y2 <br />

= 1<br />

<br />

xi−1 −<br />

4<br />

1<br />

2 <br />

2 − 2 xi − 1<br />

2 <br />

2 + xi+1 − 1<br />

2 2<br />

∆x2 <br />

yj−1 −<br />

+<br />

1<br />

2 <br />

2 − 2 yj − 1<br />

2 <br />

2 + yj+1 − 1<br />

2 2<br />

∆y2 <br />

= 1<br />

<br />

xi − ∆x −<br />

4<br />

1<br />

2 <br />

2 − 2 xi − 1<br />

2 <br />

2 + xi + ∆x − 1<br />

2 2<br />

∆x2 <br />

yj − ∆y −<br />

+<br />

1<br />

2 <br />

2 − 2 yj − 1<br />

2 <br />

2 + yj + ∆y − 1<br />

2 2<br />

∆y2 <br />

= 1<br />

<br />

2 xi + ∆x<br />

4<br />

2 + 1<br />

4 − 2xi∆x − xi + ∆x − 2 x2 i − xi + 1<br />

<br />

2<br />

4 + xi + ∆x2 + 1<br />

4 + 2xi∆x − xi − ∆x <br />

∆x2 <br />

2 yj + ∆y<br />

+<br />

2 + 1<br />

4 − 2yj∆y − yj + ∆y − 2 y2 j − yj + 1<br />

<br />

2<br />

4 + yj + ∆y2 + 1<br />

4 + 2yj∆y − yj − ∆y <br />

∆y2 <br />

= 1<br />

2 2∆x 2∆y2<br />

+<br />

4 ∆x2 ∆y2 <br />

= 1.<br />

Consi<strong>de</strong>re agora a função<br />

Temos então<br />

ud − ∆dud ∞ wd. (2.31)<br />

∆d (ud − ∆dud ∞ wd) = ∆dud − ∆dud ∞ ∆dwd<br />

= ∆dud − ∆dud ∞<br />

0.


Rodney Josué Biezuner 53<br />

Segue <strong>do</strong> Princípio <strong>do</strong> Máximo Discreto que a função ud − ∆dud ∞ wd assume o seu mínimo na fronteira.<br />

Este último é igual a − ∆dud ∞ max∂Ωd wd. Por sua vez, o máximo <strong>de</strong> wd na fronteira é menor ou igual ao<br />

máximo <strong>de</strong> w em ∂Ω, da<strong>do</strong> por<br />

Portanto, concluímos que<br />

para to<strong>do</strong>s i, j. Analogamente,<br />

<br />

1<br />

max x −<br />

0x1 4<br />

1<br />

2 <br />

1<br />

= max y −<br />

2 0x1 4<br />

1<br />

2 =<br />

2<br />

1<br />

8 .<br />

ui,j ui,j − ∆dud ∞ wi,j − 1<br />

8 ∆dud ∞<br />

∆d (ud + ∆dud ∞ wd) 0<br />

(2.32)<br />

e a função ud + ∆dud∞ wd assume o seu máximo na fronteira, igual a ∆dud max∂Ωd ∞ wd 1<br />

8a, <strong>do</strong>n<strong>de</strong><br />

ui,j ui,j − ∆dud ∞ wi,j 1<br />

8 ∆dud ∞<br />

para to<strong>do</strong>s i, j. Reunin<strong>do</strong> as duas <strong>de</strong>sigualda<strong>de</strong>s, segue que<br />

para to<strong>do</strong>s i, j, o que conclui a <strong>de</strong>monstração. <br />

|ui,j| 1<br />

8 ∆dud ∞<br />

2.6 Teorema. Seja Ω = (0, 1) 2 . Sejam u ∈ C 4 Ω uma solução clássica para o problema <strong>de</strong> Dirichlet<br />

−∆u = f em Ω,<br />

u = 0 sobre ∂Ω,<br />

e vd uma solução <strong>do</strong> correspon<strong>de</strong>nte problema discretiza<strong>do</strong><br />

<br />

−∆dvd = fd em Ωd,<br />

vd = 0 sobre ∂Ωd.<br />

(2.33)<br />

Então existe uma constante C > 0 in<strong>de</strong>pen<strong>de</strong>nte <strong>de</strong> u tal que<br />

ud − vd∞ C D 4 u <br />

2 2<br />

L∞ ∆x + ∆y<br />

(Ω)<br />

. (2.34)<br />

Prova. A hipótese f ∈ C2,α Ω garante que u ∈ C4 Ω . Lembre-se que<br />

<br />

D 4 u <br />

L∞ =<br />

(Ω)<br />

sup<br />

<br />

<br />

<br />

∂<br />

<br />

4u ∂xp <br />

<br />

(x, y) <br />

∂yq .<br />

Pela Fórmula <strong>de</strong> Taylor,<br />

(x,y)∈Ω<br />

p+q=4<br />

∂2u ∂x2 (xi, yj) = u(xi − ∆x, yj) − 2u(xi, yj) + u(xi + ∆x, yj)<br />

∆x2 − 2 ∂<br />

4!<br />

4u ∂x4 (xi, yj)∆x 2 − 2 ∂<br />

5!<br />

6u ∂x6 (xi, yj)∆x 4 − . . .<br />

= ui−1,j − 2ui,j + ui+1,j<br />

∆x2 − 2 ∂<br />

4!<br />

4u ∂x4 (xi, yj)∆x 2 − 2 ∂<br />

5!<br />

6u ∂x6 (xi, yj)∆x 4 − . . . ,<br />

∂2u ∂y2 (xi, yj) = u(xi, yj − ∆y) − 2u(xi, yj) + u(xi, yj + ∆y)<br />

∆y2 − 2 ∂<br />

4!<br />

4u ∂y4 (xi, yj)∆y 2 − 2 ∂<br />

5!<br />

6u ∂y6 (xi, yj)∆y 4 − . . .<br />

= ui,j−1 − 2ui,j + ui,j+1<br />

∆y2 − 2 ∂<br />

4!<br />

4u ∂y4 (xi, yj)∆y 2 − 2 ∂<br />

5!<br />

6u ∂y6 (xi, yj)∆y 4 − . . . ,


Rodney Josué Biezuner 54<br />

<strong>do</strong>n<strong>de</strong><br />

Como<br />

temos que<br />

∆u (xi, yj) = (∆dud) ij − 1<br />

4 ∂ u<br />

3! ∂x4 (xi, yj)∆x 2 + ∂4u ∂y4 (xi, yj)∆y 2<br />

<br />

+ O ∆x 4 , ∆y 4 . (2.35)<br />

−∆u (xi, yj) = f (xi, yj) ,<br />

− (∆dud) i,j = (fd) i,j − 1<br />

4 ∂ u<br />

3! ∂x4 (xi, yj)∆x 2 + ∂4u ∂y4 (xi, yj)∆y 2<br />

<br />

+ O ∆x 4 , ∆y 4 . (2.36)<br />

Subtrain<strong>do</strong> <strong>de</strong>sta equação a equação<br />

obtemos<br />

o que implica<br />

− (∆dvd) i,j = (fd) i,j ,<br />

− (∆dud − ∆dvd) i,j = − 1<br />

4 ∂ u<br />

3! ∂x4 (xi, yj)∆x 2 + ∂4u ∂y4 (xi, yj)∆y 2<br />

<br />

+ O ∆x 4 , ∆y 4 ,<br />

∆d (ud − vd)∞ 1 <br />

D<br />

3!<br />

4 u <br />

2 2<br />

L∞ ∆x + ∆y<br />

(Ω)<br />

+ O ∆x 4 , ∆y 4<br />

C <br />

4<br />

D uL 2 2<br />

∞ ∆x + ∆y (Ω)<br />

.<br />

Usan<strong>do</strong> a estimativa a priori <strong>do</strong> lema anterior, obtemos finalmente o resulta<strong>do</strong> <strong>de</strong>seja<strong>do</strong>. <br />

Definição. Dizemos que as soluções <strong>do</strong> problema discretiza<strong>do</strong><br />

<br />

−∆dvd = fd em Ωd,<br />

vd = 0 sobre ∂Ωd,<br />

convergem para a solução exata u <strong>do</strong> problema <strong>de</strong> Poisson<br />

−∆u = f em Ω,<br />

u = 0 sobre ∂Ω,<br />

com relação à norma · se<br />

ud − vd → 0<br />

quan<strong>do</strong> ∆x, ∆y → 0. Dizemos que a convergência é <strong>de</strong> or<strong>de</strong>m k (ou que o esquema <strong>de</strong> diferenças<br />

finitas é convergente <strong>de</strong> or<strong>de</strong>m k) se<br />

ud − vd = O ∆x k , ∆y k .<br />

O Teorema 2.6 diz que o esquema <strong>de</strong> diferenças finitas da fórmula <strong>de</strong> cinco pontos é um esquema convergente<br />

na norma <strong>do</strong> sup <strong>de</strong> or<strong>de</strong>m 2, se u ∈ C 4 Ω . Maior regularida<strong>de</strong> da solução u não causa melhor convergência<br />

no méto<strong>do</strong>. Na verda<strong>de</strong>, a or<strong>de</strong>m <strong>de</strong> convergência da fórmula <strong>de</strong> cinco pontos ainda é 2 mesmo sob hipóteses<br />

mais fracas sobre a regularida<strong>de</strong> <strong>de</strong> u: basta assumir u ∈ C 3,1 Ω , ao invés <strong>de</strong> u ∈ C 4 Ω . No entanto,<br />

regularida<strong>de</strong> menor que esta em u afeta negativamente a or<strong>de</strong>m <strong>de</strong> convergência da fórmula <strong>de</strong> cinco pontos.<br />

Em geral, po<strong>de</strong>-se provar que se u ∈ C k,α Ω , 2 k 4, então existe uma constante C = C (k, α) tal que<br />

ud − vd ∞ C ∆x k+α−2 + ∆y k+α−2 u C k,α (Ω) . (2.37)<br />

Para uma <strong>de</strong>monstração <strong>de</strong>stes resulta<strong>do</strong>s, veja [Hackbusch], págs. 60-61. Se quisermos uma melhor or<strong>de</strong>m<br />

<strong>de</strong> convergência para as soluções discretizadas, é necessário consi<strong>de</strong>rar outras forma <strong>de</strong> discretizar o laplaciano<br />

através <strong>de</strong> diferenças finitas. Isto será feito na próxima seção.


Rodney Josué Biezuner 55<br />

2.3 Discretizações <strong>de</strong> Or<strong>de</strong>m Superior<br />

Para obter esquemas <strong>de</strong> diferenças finitas com melhor or<strong>de</strong>m <strong>de</strong> convergência, em geral é necessário acrescentar<br />

mais pontos na fórmula. O méto<strong>do</strong> <strong>do</strong>s coeficientes in<strong>de</strong>termina<strong>do</strong>s é um méto<strong>do</strong> simples para<br />

construir estes esquemas.<br />

2.3.1 Caso Unidimensional<br />

Vamos obter um esquema <strong>de</strong> diferenças finitas convergente <strong>de</strong> or<strong>de</strong>m 4 para o caso unidimensional. O<br />

esquema envolven<strong>do</strong> três pontos, que obtivemos no início <strong>do</strong> capítulo através da aproximação da <strong>de</strong>rivada<br />

segunda em um ponto por uma diferença finita centrada (que envolve o ponto e seus <strong>do</strong>is vizinhos, à esquerda<br />

e à direita), é convergente <strong>de</strong> or<strong>de</strong>m 2 (isso que po<strong>de</strong> ser prova<strong>do</strong> <strong>de</strong> maneira semelhante a como fizemos para<br />

a fórmula <strong>de</strong> cinco pontos). Para obter um esquema com uma maior or<strong>de</strong>m <strong>de</strong> convergência, acrescentamos<br />

mais <strong>do</strong>is pontos à fórmula <strong>de</strong> diferenças finitas <strong>do</strong> esquema, que <strong>de</strong>notaremos por δui:<br />

Cada termo tem sua expansão em série <strong>de</strong> Taylor:<br />

δui = c1ui−2 + c2ui−1 + c3ui + c4ui+1 + c5ui+2. (2.38)<br />

u(xi − 2∆x) = u(xi) − 2u ′ (xi)∆x + 4<br />

2! u′′ (xi)∆x 2 − 8<br />

3! u′′′ (xi)∆x 3 + 16<br />

4! u(4) (xi)∆x 4 − 32<br />

5! u(5) (xi)∆x 5 + O ∆x 6 ,<br />

u(xi − ∆x) = u(xi) − u ′ (xi)∆x + 1<br />

2! u′′ (xi)∆x 2 − 1<br />

3! u′′′ (xi)∆x 3 + 1<br />

4! u(4) (xi)∆x 4 − 1<br />

5! u(5) (xi)∆x 5 + O ∆x 6 ,<br />

u(xi + ∆x) = u(xi) + u ′ (xi)∆x + 1<br />

2! u′′ (xi)∆x 2 + 1<br />

3! u′′′ (xi)∆x 3 + 1<br />

4! u(4) (xi)∆x 4 + 1<br />

5! u(5) (xi)∆x 5 + O ∆x 6 ,<br />

u(xi + 2∆x) = u(xi) + 2u ′ (xi)∆x + 4<br />

2! u′′ (xi)∆x 2 + 8<br />

3! u′′′ (xi)∆x 3 + 16<br />

4! u(4) (xi)∆x 4 + 32<br />

5! u(5) (xi)∆x 5 + O ∆x 6 .<br />

Substituin<strong>do</strong> estas expressões na fórmula acima, obtemos:<br />

δui = (c1 + c2 + c3 + c4 + c5) u (xi)<br />

+ ∆x (−2c1 − c2 + c4 + 2c5) u ′ (xi)<br />

+ ∆x 2<br />

<br />

2c1 + 1<br />

2 c2 + 1<br />

2 c4<br />

<br />

+ 2c5 u ′′ (xi)<br />

+ ∆x 3<br />

<br />

− 4<br />

3 c1 − 1<br />

6 c2 + 1<br />

6 c4 + 4<br />

3 c5<br />

<br />

u ′′′ (xi)<br />

+ ∆x 4<br />

<br />

2<br />

3 c1 + 1<br />

24 c2 + 1<br />

24 c4 + 2<br />

3 c5<br />

<br />

u (4) (xi)<br />

+ ∆x 5<br />

<br />

− 4<br />

15 c1 − 1<br />

120 c2 + 1<br />

120 c4 + 4<br />

15 c5<br />

<br />

u (5) (xi)<br />

+ O ∆x 6 .<br />

Como procuramos um esquema <strong>de</strong> diferenças finitas com or<strong>de</strong>m <strong>de</strong> convergência maior que 2, queremos obter<br />

uma solução não-nula para o sistema<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

c1 + c2 + c3 + c4 + c5 = 0<br />

−2c1 − c2 + c4 + 2c5 = 0<br />

2c1 + 1<br />

2 c2 + 1<br />

2 c4 + 2c5<br />

=<br />

1<br />

∆x 2<br />

− 4<br />

3 c1 − 1<br />

6 c2 + 1<br />

6 c4 + 4<br />

3 c5 = 0<br />

2<br />

3 c1 + 1<br />

24 c2 + 1<br />

24 c4 + 2<br />

3 c5 = 0<br />

;


Rodney Josué Biezuner 56<br />

isso implicaria em princípio em um esquema com or<strong>de</strong>m <strong>de</strong> convergência pelo menos igual a 3:<br />

δui = u ′′ (xi) + O ∆x 3 .<br />

Como a matriz ⎡<br />

1 1 1 1 1<br />

⎢ −2<br />

⎢ 2<br />

⎢<br />

−<br />

⎣<br />

−1<br />

1<br />

2<br />

0<br />

0<br />

1<br />

1<br />

2<br />

2<br />

2<br />

4<br />

3 −1<br />

⎤<br />

2<br />

3<br />

6<br />

1<br />

24<br />

0<br />

0<br />

1<br />

6<br />

1<br />

24<br />

⎥<br />

4 ⎥<br />

3 ⎥<br />

⎦<br />

2<br />

3<br />

tem <strong>de</strong>terminante igual a 1, ela é invertível e o sistema possui a solução única<br />

Inci<strong>de</strong>ntalmente, esta solução também implica<br />

c1 = − 1 1<br />

,<br />

12 ∆x2 c2 = 4 1<br />

,<br />

3 ∆x2 c3 = − 5 1<br />

2 ∆x2 c4 = 4 1<br />

,<br />

3 ∆x2 c5 = − 1 1<br />

.<br />

12 ∆x2 − 4<br />

15 c1 − 1<br />

120 c2 + 1<br />

120 c4 + 4<br />

15 c5 = 0<br />

o que permite obter um esquema com or<strong>de</strong>m <strong>de</strong> convergência igual a 4:<br />

δui = u ′′ (xi) + O ∆x 4 ,<br />

aproximan<strong>do</strong> a <strong>de</strong>rivada segunda u ′′ pela diferença finita<br />

ou<br />

u ′′ =<br />

− 1<br />

12 ui−2 + 4<br />

3 ui−1 − 5<br />

2 ui + 4<br />

3 ui+1 − 1<br />

12 ui+2<br />

∆x 2<br />

−u ′′ = ui−2 − 16ui−1 + 30ui − 16ui+1 + ui+2<br />

12∆x 2 . (2.39)<br />

2.3.2 Caso Bidimensional: A Fórmula <strong>do</strong>s Nove Pontos Compacta<br />

Um esquema <strong>de</strong> or<strong>de</strong>m 4 para a equação <strong>de</strong> Poisson em duas dimensões é a fórmula <strong>de</strong> nove pontos compacta.<br />

Se buscássemos uma fórmula <strong>de</strong> nove pontos simplesmente a partir da fórmula <strong>de</strong> cinco pontos unidimensional<br />

obtida na subseção prece<strong>de</strong>nte (como obtivemos a fórmula <strong>de</strong> cinco pontos bidimensional a partir<br />

da fórmula <strong>de</strong> três pontos unidimensional), escreveríamos<br />

−∆dud = ui−2,j − 16ui−1,j + 30ui,j − 16ui+1,j + ui+2,j<br />

12∆x 2<br />

+ ui,j−2 − 16ui,j−1 + 30ui,j − 16ui,j+1 + ui,j+2<br />

12∆y2 ,<br />

(2.40)


Rodney Josué Biezuner 57<br />

que po<strong>de</strong> ser resumida na forma<br />

⎡<br />

⎢<br />

−∆dud = ⎢<br />

⎣<br />

− 1 16<br />

−<br />

12∆x2 12∆x2 − 1<br />

12∆y2 − 16<br />

12∆y2 <br />

1 1<br />

30 +<br />

12∆x2 12∆y2 <br />

− 16<br />

12∆y2 − 1<br />

12∆y2 − 16 1<br />

−<br />

12∆x2 12∆x2 Embora este esquema seja <strong>de</strong> fato <strong>de</strong> or<strong>de</strong>m 4, ele apresenta dificulda<strong>de</strong>s para pontos interiores adjacentes à<br />

fronteira <strong>do</strong> retângulo (por exemplo, se consi<strong>de</strong>rarmos o ponto (x1, y1), os pontos (x−1, y1) e (x1, y−1) estão<br />

fora <strong>do</strong> retângulo). Uma possibilida<strong>de</strong> para resolver este problema seria aplicar a fórmula <strong>do</strong>s cinco pontos<br />

nos pontos interiores adjacentes à fronteira e aplicar a fórmula <strong>do</strong>s nove pontos apenas nos pontos interiores<br />

mais distantes da fronteira. No entanto, como a fórmula <strong>de</strong> cinco pontos é <strong>de</strong> segunda or<strong>de</strong>m, a convergência<br />

<strong>de</strong>ste méto<strong>do</strong> misto não <strong>de</strong>ve ser <strong>de</strong> or<strong>de</strong>m 4.<br />

Vamos tentar encontrar uma fórmula <strong>de</strong> nove pontos compacta, em que os nove pontos estão dispostos<br />

em três linhas e três colunas, <strong>de</strong> mo<strong>do</strong> que não há problemas em usá-la nos pontos interiores adjacentes à<br />

fronteira. Aplican<strong>do</strong> o méto<strong>do</strong> <strong>do</strong>s coeficientes in<strong>de</strong>termina<strong>do</strong>s, buscamos nove coeficientes para a diferença<br />

finita<br />

−∆dud = c1ui−1,j−1 + c2ui,j−1 + c3ui+1,j−1<br />

+ c4ui−1,j + c5ui,j + c6ui+1,j<br />

+ c7ui−1,j+1 + c8ui,j+1 + c9ui+1,j+1.<br />

⎤<br />

⎥ .<br />

⎥<br />

⎦<br />

(2.41)<br />

Observe a distribuição <strong>do</strong>s nove pontos. Além <strong>do</strong>s cinco usuais, foram acrescenta<strong>do</strong>s os quatro pontos que<br />

ocupam as posições diagonais. Para os quatro pontos vizinhos horizontais ou verticais <strong>do</strong> ponto central, a<br />

fórmula <strong>de</strong> Taylor produz<br />

u(xi − ∆x, yj) = u(xi, yj) − ∂u<br />

∂x (xi, yj)∆x + 1<br />

2!<br />

− 1 ∂<br />

5!<br />

5u ∂x5 (xi, yj)∆x 5 + O ∆x 6<br />

u(xi + ∆x, yj) = u(xi, yj) + ∂u<br />

∂x (xi, yj)∆x + 1<br />

2!<br />

+ 1 ∂<br />

5!<br />

5u ∂x5 (xi, yj)∆x 5 + O ∆x 6<br />

u(xi, yj − ∆y) = u(xi, yj) − ∂u<br />

∂y (xi, yj)∆y + 1<br />

2!<br />

− 1 ∂<br />

5!<br />

5u ∂x5 (xi, yj)∆x 5 + O ∆x 6<br />

u(xi, yj + ∆y) = u(xi, yj) + ∂u<br />

∂y (xi, yj)∆y + 1<br />

2!<br />

+ 1 ∂<br />

5!<br />

5u ∂x5 (xi, yj)∆x 5 + O ∆x 6 , ∆y 6<br />

∂2u ∂x2 (xi, yj)∆x 2 − 1 ∂<br />

3!<br />

3u ∂x3 (xi, yj)∆x 3 + 1 ∂<br />

4!<br />

4u ∂x4 (xi, yj)∆x 4<br />

∂2u ∂x2 (xi, yj)∆x 2 + 1 ∂<br />

3!<br />

3u ∂x3 (xi, yj)∆x 3 + 1 ∂<br />

4!<br />

4u ∂x4 (xi, yj)∆x 4<br />

∂2u ∂y2 (xi, yj)∆y 2 − 1 ∂<br />

3!<br />

3u ∂y3 (xi, yj)∆y 3 + 1 ∂<br />

4!<br />

4u ∂y4 (xi, yj)∆y 4<br />

∂2u ∂y2 (xi, yj)∆y 2 + 1 ∂<br />

3!<br />

3u ∂y3 (xi, yj)∆y 3 + 1 ∂<br />

4!<br />

4u ∂y4 (xi, yj)∆y 4


Rodney Josué Biezuner 58<br />

enquanto que para os quatro pontos diagonais temos<br />

u(xi + ∆x, yj + ∆y)<br />

= u(xi, yj) +<br />

+ 1<br />

3 ∂ u<br />

3!<br />

+ 1<br />

4!<br />

+ 1<br />

5!<br />

∂u<br />

∂x (xi, yj)∆x + ∂u<br />

∂y (xi, yj)∆y<br />

<br />

+ 1<br />

2 ∂ u<br />

2! ∂x2 (xi, yj)∆x 2 + 2 ∂2u ∂x∂y (xi, yj)∆x∆y + ∂2 u<br />

∂x3 (xi, yj)∆x 3 + 3 ∂3u ∂x2∂y (xi, yj)∆x 2 ∆y + 3 ∂3u ∂x∂y2 (xi, yj)∆x∆y 2 + ∂3u ∂y3 (xi, yj)∆y 3<br />

∂ 4 u<br />

<br />

∂y2 (xi, yj)∆y 2<br />

<br />

∂x4 (xi, yj)∆x 4 + 4 ∂4u ∂x3∂y (xi, yj)∆x 3 ∆y + 6 ∂4u ∂x∂y3 (xi, yj)∆x 2 ∆y 2 + 4 ∂3u ∂x∂y3 (xi, yj)∆x∆y 3 + ∂4u ∂ 5 u<br />

∂x 5 (xi, yj)∆x 5 + 5 ∂5 u<br />

∂x 4 ∂y (xi, yj)∆x 4 ∆y + 10 ∂5 u<br />

+5 ∂5 u<br />

∂x∂y 4 (xi, yj)∆x∆y 4 + ∂5 u<br />

∂y 5 (xi, yj)∆y 5<br />

u(xi − ∆x, yj − ∆y)<br />

= u(xi, yj) −<br />

− 1<br />

3 ∂ u<br />

3!<br />

+ 1<br />

4!<br />

− 1<br />

5!<br />

∂u<br />

∂x (xi, yj)∆x + ∂u<br />

∂y (xi, yj)∆y<br />

∂x3∂y 2 (xi, yj)∆x 3 ∆y 2 + 10 ∂5u ∂x∂y4 (xi, yj)∆x 2 ∆y 3<br />

<br />

+ O ∆x 6 , ∆y 6 ,<br />

<br />

+ 1<br />

2 ∂ u<br />

2! ∂x2 (xi, yj)∆x 2 + 2 ∂2u ∂x∂y (xi, yj)∆x∆y + ∂2 u<br />

∂x3 (xi, yj)∆x 3 + 3 ∂3u ∂x2∂y (xi, yj)∆x 2 ∆y + 3 ∂3u ∂x∂y2 (xi, yj)∆x∆y 2 + ∂3u ∂y3 (xi, yj)∆y 3<br />

∂ 4 u<br />

<br />

∂y4 (xi, yj)∆y 4<br />

<br />

∂y2 (xi, yj)∆y 2<br />

<br />

∂x4 (xi, yj)∆x 4 + 4 ∂4u ∂x3∂y (xi, yj)∆x 3 ∆y + 6 ∂4u ∂x∂y3 (xi, yj)∆x 2 ∆y 2 + 4 ∂3u ∂x∂y3 (xi, yj)∆x∆y 3 + ∂4u ∂ 5 u<br />

∂x 5 (xi, yj)∆x 5 + 5 ∂5 u<br />

∂x 4 ∂y (xi, yj)∆x 4 ∆y + 10 ∂5 u<br />

+5 ∂5 u<br />

∂x∂y 4 (xi, yj)∆x∆y 4 + ∂5 u<br />

∂y 5 (xi, yj)∆y 5<br />

u(xi + ∆x, yj − ∆y)<br />

= u(xi, yj) +<br />

<br />

∂u<br />

∂x (xi, yj)∆x − ∂u<br />

∂y (xi,<br />

<br />

yj)∆y<br />

<br />

+ O ∆x 6<br />

∂x3∂y 2 (xi, yj)∆x 3 ∆y 2 + 10 ∂5u ∂x∂y4 (xi, yj)∆x 2 ∆y 3<br />

+ 1<br />

2 ∂ u<br />

2! ∂x2 (xi, yj)∆x 2 − 2 ∂2u ∂x∂y (xi, yj)∆x∆y + ∂2u ∂y2 (xi, yj)∆y 2<br />

<br />

+ 1<br />

3 ∂ u<br />

3! ∂x3 (xi, yj)∆x 3 − 3 ∂3u ∂x2∂y (xi, yj)∆x 2 ∆y + 3 ∂3u ∂x∂y2 (xi, yj)∆x∆y 2 − ∂3u ∂y3 (xi, yj)∆y 3<br />

<br />

+ 1<br />

4 ∂ u<br />

4! ∂x4 (xi, yj)∆x 4 − 4 ∂4u ∂x3∂y (xi, yj)∆x 3 ∆y + 6 ∂4u ∂x∂y3 (xi, yj)∆x 2 ∆y 2 − 4 ∂3u + 1<br />

5 ∂ u<br />

5! ∂x5 (xi, yj)∆x 5 − 5 ∂5u ∂x4∂y (xi, yj)∆x 4 ∆y + 10 ∂5u ∂x3∂y 2 (xi, yj)∆x 3 ∆y 2 − 10 ∂5u <br />

+ O ∆x 6 , ∆y 6 ,<br />

+5 ∂5 u<br />

∂x∂y 4 (xi, yj)∆x∆y 4 − ∂5 u<br />

∂y 5 (xi, yj)∆y 5<br />

∂x∂y 3 (xi, yj)∆x∆y 3 + ∂4 u<br />

∂x∂y 4 (xi, yj)∆x 2 ∆y 3<br />

∂y4 (xi, yj)∆y 4<br />

<br />

∂y4 (xi, yj)∆y 4


Rodney Josué Biezuner 59<br />

u(xi − ∆x, yj + ∆y)<br />

= u(xi, yj) +<br />

+ 1<br />

2 ∂ u<br />

2!<br />

+ 1<br />

3!<br />

+ 1<br />

4!<br />

+ 1<br />

5!<br />

<br />

− ∂u<br />

∂x (xi, yj)∆x + ∂u<br />

∂y (xi,<br />

<br />

yj)∆y<br />

∂x 2 (xi, yj)∆x 2 − 2 ∂2 u<br />

∂x∂y (xi, yj)∆x∆y + ∂2 u<br />

∂y 2 (xi, yj)∆y 2<br />

<br />

− ∂3 u<br />

∂ 4 u<br />

∂x 3 (xi, yj)∆x 3 + 3 ∂3 u<br />

∂x 2 ∂y (xi, yj)∆x 2 ∆y − 3 ∂3 u<br />

<br />

∂x∂y 2 (xi, yj)∆x∆y 2 + ∂3 u<br />

∂y3 (xi, yj)∆y 3<br />

<br />

∂x 4 (xi, yj)∆x 4 − 4 ∂4 u<br />

∂x 3 ∂y (xi, yj)∆x 3 ∆y + 6 ∂4 u<br />

∂x∂y 3 (xi, yj)∆x 2 ∆y 2 − 4 ∂3 u<br />

∂x∂y 3 (xi, yj)∆x∆y 3 + ∂4 u<br />

∂y 4 (xi, yj)∆y 4<br />

<br />

− ∂5 u<br />

∂x 5 (xi, yj)∆x 5 + 5 ∂5 u<br />

∂x 4 ∂y (xi, yj)∆x 4 ∆y − 10 ∂5 u<br />

−5 ∂5 u<br />

∂x∂y 4 (xi, yj)∆x∆y 4 + ∂5 u<br />

∂y 5 (xi, yj)∆y 5<br />

<br />

+ O ∆x 6 , ∆y 6 .<br />

Substituin<strong>do</strong> estas expressões na fórmula acima, obtemos:<br />

−∆dud = (c1 + c2 + c3 + c4 + c5 + c6 + c7 + c8 + c9) u (xi, yj)<br />

+ ∆x (−c1 + c3 − c4 + c6 − c7 + c9) ∂u<br />

∂x (xi, yj)<br />

∂x3∂y 2 (xi, yj)∆x 3 ∆y 2 + 10 ∂5u ∂x∂y4 (xi, yj)∆x 2 ∆y 3<br />

+ ∆y (−c1 − c2 − c3 + c7 + c8 + c9) ∂u<br />

∂y (xi, yj)<br />

+ ∆x 2<br />

<br />

1<br />

2 c1 + 1<br />

2 c3 + 1<br />

2 c4 + 1<br />

2 c6 + 1<br />

2 c7 + 1<br />

2 c9<br />

2 ∂ u<br />

∂x2 (xi, yj)<br />

+ ∆x∆y (c1 − c3 − c7 + c9) ∂2u ∂x∂y (xi, yj)<br />

+ ∆y 2<br />

<br />

1<br />

2 c1 + 1<br />

2 c2 + 1<br />

2 c3 + 1<br />

2 c7 + 1<br />

2 c8 + 1<br />

2 c9<br />

2 ∂ u<br />

∂y2 (xi, yj)<br />

+ ∆x 3<br />

<br />

− 1<br />

6 c1 + 1<br />

6 c3 − 1<br />

6 c4 + 1<br />

6 c6 − 1<br />

6 c7 + 1<br />

6 c9<br />

3 ∂ u<br />

∂x3 (xi, yj)<br />

+ ∆x 2 <br />

∆y − 1<br />

2 c1 − 1<br />

2 c3 + 1<br />

2 c7 + 1<br />

2 c9<br />

3 ∂ u<br />

∂x2∂y (xi, yj)<br />

+ ∆x∆y 2<br />

<br />

− 1<br />

2 c1 + 1<br />

2 c3 − 1<br />

2 c7 + 1<br />

2 c9<br />

3 ∂ u<br />

∂x∂y2 (xi, yj)<br />

+ ∆y 3<br />

<br />

− 1<br />

6 c1 − 1<br />

6 c2 − 1<br />

6 c3 + 1<br />

6 c7 + 1<br />

6 c8 + 1<br />

6 c9<br />

3 ∂ u<br />

∂y3 (xi, yj)<br />

+ ∆x 4<br />

<br />

1<br />

24 c1 + 1<br />

24 c3 + 1<br />

24 c4 + 1<br />

24 c6 + 1<br />

24 c7 + 1<br />

24 c9<br />

4 ∂ u<br />

∂x4 (xi, yj)<br />

+ ∆x 3 <br />

1<br />

∆y<br />

6 c1 − 1<br />

6 c3 − 1<br />

6 c7 + 1<br />

6 c9<br />

4 ∂ u<br />

∂x3∂y (xi, yj)<br />

+ ∆x 2 ∆y 2<br />

<br />

1<br />

4 c1 + 1<br />

4 c3 + 1<br />

4 c7 + 1<br />

4 c9<br />

4 ∂ u<br />

∂x2∂y 2 (xi, yj)<br />

+ ∆x∆y 3<br />

<br />

1<br />

6 c1 − 1<br />

6 c3 − 1<br />

6 c7 + 1<br />

6 c9<br />

4 ∂ u<br />

∂x∂y3 (xi, yj)<br />

+ ∆y 4<br />

<br />

1<br />

24 c1 + 1<br />

24 c2 + 1<br />

24 c3 + 1<br />

24 c7 + 1<br />

24 c8 + 1<br />

24 c9<br />

4 ∂ u<br />

∂y4 (xi, yj)


Rodney Josué Biezuner 60<br />

+ ∆x 5<br />

<br />

− 1<br />

120 c1 + 1<br />

120 c3 − 1<br />

120 c4 + 1<br />

120 c6 − 1<br />

120 c7 + 1<br />

+ ∆x 4 <br />

∆y − 1<br />

24 c1 − 1<br />

24 c3 + 1<br />

24 c7 + 1<br />

24 c9<br />

5 ∂ u<br />

∂x4∂y (xi, yj)<br />

+ ∆x 3 ∆y 2<br />

<br />

− 1<br />

12 c1 + 1<br />

12 c3 + 1<br />

12 c7 + 1<br />

12 c9<br />

5 ∂ u<br />

+ ∆x 2 ∆y 3<br />

<br />

− 1<br />

5 ∂ u<br />

120 c9<br />

∂x 3 ∂y 2 (xi, yj)<br />

∂ 5 u<br />

∂x 5 (xi, yj)<br />

12 c1 − 1<br />

12 c3 − 1<br />

12 c7 + 1<br />

12 c9<br />

∂x2∂y 3 (xi, yj)<br />

+ ∆x∆y 4<br />

<br />

− 1<br />

24 c1 + 1<br />

24 c3 − 1<br />

24 c7 + 1<br />

24 c9<br />

5 ∂ u<br />

∂x∂y4 (xi, yj)<br />

+ ∆y 5<br />

<br />

− 1<br />

120 c1 − 1<br />

120 c2 − 1<br />

120 c3 + 1<br />

120 c7 + 1<br />

120 c8 + 1<br />

120 c9<br />

5 ∂ u<br />

∂y5 (xi, yj)<br />

Para obter um esquema com or<strong>de</strong>m <strong>de</strong> convergência pelo menos igual a 3, precisaríamos obter uma solução<br />

não-nula para o sistema<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

c1 + c2 + c3 + c4 + c5 + c6 + c7 + c8 + c9 = 0<br />

−c1 + c3 − c4 + c6 − c7 + c9 = 0<br />

−c1 − c2 − c3 + c7 + c8 + c9 = 0<br />

c1 + c3 + c4 + c6 + c7 + c9<br />

=<br />

1<br />

∆x 2<br />

c1 − c3 − c7 + c9 = 0<br />

c1 + c2 + c3 + c7 + c8 + c9<br />

=<br />

1<br />

∆y2 −c1 + c3 − c4 + c6 − c7 + c9 = 0<br />

−c1 − c3 + c7 + c9 = 0<br />

−c1 + c3 − c7 + c9 = 0<br />

−c1 − c2 − c3 + c7 + c8 + c9 = 0<br />

c1 + c3 + c4 + c6 + c7 + c9 = 0<br />

c1 − c3 − c7 + c9 = 0<br />

c1 + c3 + c7 + c9 = 0<br />

c1 − c3 − c7 + c9 = 0<br />

c1 + c2 + c3 + c7 + c8 + c9 = 0<br />

Infelizmente este sistema não tem solução pois ele é inconsistente: a sexta e a última equação são incompatíveis,<br />

assim como a quarta e a décima primeira. Portanto, não existe uma fórmula <strong>de</strong> nove pontos<br />

compacta tal que<br />

−∆dud = −∆u + O ∆x 3 , ∆y 3 .<br />

No entanto, em 1975 o matemático e lógico Rosser introduziu a seguinte fórmula <strong>de</strong> nove pontos compacta<br />

no caso especial ∆x = ∆y (em [Rosser1]; veja também [Rosser2])<br />

∆dud = ui−1,j−1 + 4ui,,j−1 + ui+1,j−1 + 4ui−1,j − 20ui,j + 4ui+1,j + ui−1,j+1 + 4ui,j+1 + ui+1,j+1<br />

6∆x2 , (2.42)<br />

que po<strong>de</strong> ser resumida na forma<br />

−∆dud = 1<br />

6∆x2 ⎡<br />

⎣<br />

−1 −4 −1<br />

−4 20 −4<br />

−1 −4 −1<br />

⎤<br />

⎦ , (2.43)<br />

a qual produz um esquema convergente <strong>de</strong> quarta or<strong>de</strong>m se a solução u ∈ C 6 Ω (ou mesmo se u ∈ C 5,1 Ω <br />

apenas) <strong>de</strong>pen<strong>de</strong>n<strong>do</strong> <strong>de</strong> como a função f é discretizada. Para enten<strong>de</strong>r como isso ocorre, observe que se


Rodney Josué Biezuner 61<br />

u ∈ C 8 Ω a fórmula <strong>de</strong> Taylor produz<br />

−∆dud = −∆u − ∆x2<br />

12 ∆2u − ∆x4<br />

4 ∂ ∂<br />

+ 4<br />

360 ∂x4 4<br />

∂x2∂y = −∆u − ∆x2<br />

4 ∆x4 ∂ ∂<br />

∆f − + 4<br />

12 360 ∂x4 4<br />

∂x2∂y ∂y4 <br />

∆u + O ∆x 6<br />

(2.44)<br />

∂y4 <br />

f + O ∆x 6 . (2.45)<br />

2 + ∂4<br />

2 + ∂4<br />

O ponto crucial aqui é que o erro é expresso em termos <strong>de</strong> −∆u e, conseqüentemente, por f. Ainda é<br />

necessário escolher uma discretização especial para f:<br />

ou<br />

fd = fi,,j−1 + fi−1,j + 8fi,j + fi+1,j + fi,j+1<br />

12<br />

fd = 1<br />

⎡<br />

⎣<br />

12<br />

1<br />

1 8 1<br />

1<br />

⎤<br />

(2.46)<br />

⎦ . (2.47)<br />

Usan<strong>do</strong> a fórmula <strong>de</strong> Taylor para f, obtemos que esta discretização especial para f satisfaz<br />

fd = f + ∆x2<br />

12 ∆f + O ∆x 4 . (2.48)<br />

Soman<strong>do</strong> esta estimativa com (2.45), e usan<strong>do</strong> −∆dud = fd, −∆u = f, obtemos<br />

−∆dud = −∆u + O ∆x 4<br />

Para este esquema, po<strong>de</strong>-se provar (veja [Hackbusch], pág. 64) que existe uma constante C > 0 tal que<br />

ud − vd ∞ C∆x 4 u C 6 (Ω)<br />

ou ud − vd ∞ C∆x 4 u C 5,1 (Ω)<br />

(2.49)<br />

O esquema <strong>de</strong> Rosser também satisfaz o princípio <strong>do</strong> máximo. Concluin<strong>do</strong>, vemos que uma maior regularida<strong>de</strong><br />

da solução permite obter méto<strong>do</strong>s <strong>de</strong> diferenças finitas com maior or<strong>de</strong>m <strong>de</strong> convergência, embora esta não<br />

seja uma tarefa simples.<br />

2.4 Diferenças Finitas em Coor<strong>de</strong>nadas Polares<br />

Consi<strong>de</strong>raremos nesta seção diferenças finitas em coor<strong>de</strong>nadas polares para <strong>do</strong>mínios com simetria radial.<br />

Consi<strong>de</strong>raremos em <strong>de</strong>talhes os casos <strong>do</strong> disco e <strong>do</strong> anel. O primeiro caso inclui a origem no <strong>do</strong>mínio da<br />

<strong>de</strong>finição, on<strong>de</strong> o laplaciano apresenta uma singularida<strong>de</strong> quan<strong>do</strong> escrito em coor<strong>de</strong>nadas polares, singularida<strong>de</strong><br />

esta que não existe no problema original, e esta particularida<strong>de</strong> <strong>de</strong>ve ser tratada com cuida<strong>do</strong> para não<br />

atrapalhar a or<strong>de</strong>m <strong>de</strong> convergência <strong>do</strong> esquema obti<strong>do</strong>.<br />

Consi<strong>de</strong>re a equação <strong>de</strong> Poisson em coor<strong>de</strong>nadas polares no disco Ω = [0, R) × [0, 2π) :<br />

<br />

urr + 1<br />

r ur + 1<br />

r2 uθθ = f (r, θ) se 0 r < R e 0 < θ < 2π,<br />

u (R, θ) = 0 se 0 θ 2π.<br />

A solução exata <strong>de</strong>ste problema <strong>de</strong>ve satisfazer a condição <strong>de</strong> continuida<strong>de</strong><br />

u (r, 0) = u (r, 2π) para to<strong>do</strong> 0 r R.<br />

Embora esta condição não seja uma condição <strong>de</strong> fronteira e aparece apenas por causa <strong>do</strong> sistema <strong>de</strong> coor<strong>de</strong>nadas<br />

utiliza<strong>do</strong>, ela acaba funcionan<strong>do</strong> como uma condição <strong>de</strong> fronteira em muitos méto<strong>do</strong>s numéricos (e


Rodney Josué Biezuner 62<br />

mesmo analíticos), pois não <strong>de</strong>ixa <strong>de</strong> ser uma condição na fronteira <strong>do</strong> retângulo (0, R) × (0, 2π).<br />

on<strong>de</strong><br />

Discretizamos o disco através <strong>de</strong> uma malha polar<br />

Sua fronteira discretizada é o conjunto<br />

∆r<br />

∆θ<br />

Ωd = {(ri, θj) ∈ Ω : ri = i∆r, θj = j∆θ, 0 i n − 1, 0 j m}<br />

∆r = R 2π<br />

, ∆θ =<br />

n m .<br />

∂Ωd = {(rn, θj) ∈ ∂Ω : rn = n∆r = R, θj = j∆θ, 0 j m} .<br />

Discretizamos a equação <strong>de</strong> Poisson da seguinte forma. Denotamos os valores das discretizações ud e fd<br />

em pontos da malha por<br />

enten<strong>de</strong>n<strong>do</strong> que ui,j e fi,j <strong>de</strong>vem satisfazer<br />

ui,j = u (ri, θj) ,<br />

fi,j = f (ri, θj) ,<br />

u0,0 = u0,j e f0,0 = f0,j (2.50)<br />

para to<strong>do</strong> 0 j m, já que existe apenas um ponto associa<strong>do</strong> com i = 0 (a origem, correspon<strong>de</strong>nte a r = 0).<br />

Além disso, pela condição <strong>de</strong> continuida<strong>de</strong>, <strong>de</strong>vemos ter também<br />

ui,0 = ui,2π e fi,0 = fi,2π (2.51)<br />

para to<strong>do</strong> 0 i n. Usan<strong>do</strong> uma diferença centrada usual para <strong>de</strong>rivadas segundas, o terceiro termo <strong>do</strong><br />

laplaciano em coor<strong>de</strong>nadas polares po<strong>de</strong> ser aproxima<strong>do</strong> para pontos interiores <strong>do</strong> disco por<br />

<br />

1<br />

uθθ (ri, θj) ≈<br />

r2 1<br />

r2 ui,j−1 − 2ui,j − ui,j+1<br />

i ∆θ2 . (2.52)<br />

Para aproximar os primeiros <strong>do</strong>is termos, escrevemos<br />

urr + 1<br />

r ur = 1<br />

r (rur) r .<br />

Se (ri, θj) é um ponto interior <strong>do</strong> disco diferente da origem (isto é, i = 0), po<strong>de</strong>mos usar diferenças centradas<br />

para a <strong>de</strong>rivada primeira, tanto na primeira quanto na segunda aproximações a seguir, obten<strong>do</strong><br />

1<br />

r (rur) r (ri, θj) ≈ 1 (rur) (ri + ∆r/2, θj) − (rur) (ri − ∆r/2, θj)<br />

ri<br />

2∆r/2<br />

≈ 1<br />

u (ri + ∆r, θj) − u (ri, θj) u (ri, θj) − u (ri − ∆r, θj)<br />

ri+1/2 − ri−1/2 ∆r<br />

∆r<br />

ri<br />

∆r<br />

= 1 ri+1/2 (ui+1,j − ui,j) − ri−1/2 (ui,j − ui−1,j)<br />

ri<br />

∆r2 . (2.53)


Rodney Josué Biezuner 63<br />

Portanto, a discretização da equação <strong>de</strong> Poisson no disco para pontos interiores <strong>do</strong> disco diferentes da origem<br />

é <br />

1 ri+1/2 (ui+1,j − ui,j) − ri−1/2 (ui,j − ui−1,j)<br />

−<br />

∆r2 ui,j−1 − 2ui,j − ui,j+1<br />

∆θ2 <br />

= fi,j (2.54)<br />

ri<br />

para 1 i n − 1 e 1 j m − 1. Se j = 0, usan<strong>do</strong> a condição <strong>de</strong> continuida<strong>de</strong> que i<strong>de</strong>ntifica o ponto<br />

(i, 0) com o ponto (i, n), substituímos ui,j−1 por ui,n−1e escrevemos<br />

<br />

1 ri+1/2 (ui+1,0 − ui,0) − ri−1/2 (ui,0 − ui−1,0)<br />

−<br />

∆r2 ui,n−1 − 2ui,0 − ui,1<br />

∆θ2 <br />

= fi,0 (2.55)<br />

ri<br />

para 1 i n − 1. Como este esquema <strong>de</strong> diferenças finitas foi obti<strong>do</strong> através <strong>de</strong> diferenças centradas,<br />

ele <strong>de</strong>ve ser <strong>de</strong> segunda or<strong>de</strong>m. No entanto, <strong>de</strong>vemos ter cuida<strong>do</strong> ao discretizar a equação <strong>de</strong> Poisson na<br />

origem para preservar esta or<strong>de</strong>m <strong>de</strong> convergência. Para isso, multiplicamos a equação <strong>de</strong> Poisson por r e<br />

integramos o resulta<strong>do</strong> sobre um pequeno disco Dε centra<strong>do</strong> na origem <strong>de</strong> raio ε:<br />

2π ε 2π ε <br />

1<br />

fr drdθ = r<br />

r (rur) r + 1<br />

<br />

uθθ drdθ<br />

r2 on<strong>de</strong> assumimos u ∈ C 2 (Ω) <strong>de</strong> mo<strong>do</strong> que<br />

0<br />

0<br />

=<br />

=<br />

0 0<br />

2π ε<br />

+ 1<br />

r 2 i<br />

+ 1<br />

r 2 i<br />

(rur) r drdθ +<br />

ε<br />

1<br />

r<br />

2π<br />

0 0<br />

0 0<br />

2π<br />

[rur]<br />

0<br />

ε<br />

ε<br />

1 2π<br />

0 dθ + [uθ] 0<br />

0 r drdθ<br />

2π<br />

= ε<br />

0<br />

ur (ε, θ) dθ,<br />

uθ (r, 0) = uθ (r, 2π)<br />

para to<strong>do</strong> 0 r < R. Escolhen<strong>do</strong> ε = ∆r/2, discretizamos a equação integral<br />

∆r<br />

2<br />

2π<br />

0<br />

ur (∆r/2, θ) dθ =<br />

2π ∆r/2<br />

0<br />

0<br />

fr drdθ<br />

uθθ drdθ<br />

aproximan<strong>do</strong> a <strong>de</strong>rivada primeira ur (∆r/2, θ) = (ur) i+1/2,j por diferenças centradas e f por f (0) (pois ∆r<br />

é suposto pequeno), <strong>de</strong> mo<strong>do</strong> que<br />

e assim<br />

2π ∆r/2<br />

0<br />

ur (∆r/2, θj) ≈ u1,j − u0,j<br />

,<br />

∆r<br />

0<br />

fr drdθ ≈ f (0)<br />

∆r<br />

2<br />

m−1 <br />

j=0<br />

2π ∆r/2<br />

0<br />

0<br />

r drdθ = 2πf (0) r2<br />

2<br />

u1,j − u0,j<br />

∆θ =<br />

∆r<br />

π<br />

4 f (0) ∆r2 ,<br />

<br />

<br />

<br />

<br />

∆r/2<br />

0<br />

= π<br />

4 f (0) ∆r2 ,<br />

<strong>do</strong>n<strong>de</strong>, como u0 := u0,j in<strong>de</strong>pen<strong>de</strong> <strong>de</strong> j, segue que o valor <strong>de</strong> u na origem será da<strong>do</strong> por<br />

m ∆θ<br />

2 u0 = ∆θ<br />

m−1 <br />

u1,j −<br />

2<br />

π<br />

4 f (0) ∆r2 ,<br />

ou, usan<strong>do</strong> m∆θ = 2π,<br />

j=0<br />

4u0 2∆θ<br />

−<br />

∆r2 π∆r2 m−1 <br />

u1,j = f0. (2.56)<br />

j=0


Rodney Josué Biezuner 64<br />

Para escrever essas diferenças finitas em forma matricial<br />

Au = f,<br />

escolhemos or<strong>de</strong>nar os pontos da malha discretizada no retângulo polar {(ri, θj) : 1 i n − 1, 0 j m}<br />

pela or<strong>de</strong>m lexicográfica em (θ, r) e colocan<strong>do</strong> a origem antes <strong>de</strong> to<strong>do</strong>s estes pontos:.<br />

u = (u0, u1,0, u1,1, . . . , u1,m−1, u2,0, u2,1, . . . , u2,m−1, . . . . . . , un−1,0, un−1,1, . . . , un−1,m−1) . (2.57)<br />

Observe que existem (n − 1) × m + 1 incógnitas. Nesta or<strong>de</strong>nação, segue que A tem a forma em blocos<br />

on<strong>de</strong><br />

on<strong>de</strong><br />

⎡<br />

α0 b<br />

⎢<br />

a B1 −β1I<br />

⎢<br />

.<br />

⎢ −α2I B2 −β2I ..<br />

A = ⎢<br />

−α3I B3 −β3I<br />

⎢<br />

. .. . ..<br />

⎢<br />

⎣<br />

⎡<br />

⎢<br />

Bi = ⎢<br />

⎣<br />

αi = 1<br />

∆r 2<br />

βi = 1<br />

∆r 2<br />

α0 = 4<br />

,<br />

∆r2 ⎡ ⎤<br />

−α1<br />

⎢<br />

a = ⎣ .<br />

⎥<br />

. ⎦<br />

−α1<br />

. ..<br />

−αn−2I Bn−2 −βn−2I<br />

−αn−1I Bn−1<br />

m×1<br />

ri−1/2 , i = 1, . . . , n − 1,<br />

ri<br />

ri+1/2 , i = 1, . . . , n − 2,<br />

ri<br />

b = −β0 . . . −β0<br />

β0 = 2 ∆θ<br />

,<br />

π ∆r2 I = Im,<br />

,<br />

<br />

1×m ,<br />

γi −δi 0 −δi<br />

−δi γi −δi<br />

−δi γi −δi<br />

. .. . ..<br />

. ..<br />

−δi γi −δi<br />

−δi −δi γi<br />

γi = 1<br />

ri<br />

δi = 1<br />

r 2 i<br />

r i+1/2 + r i−1/2<br />

1<br />

.<br />

∆θ2 ∆r 2<br />

+ 2<br />

r 2 i<br />

1<br />

,<br />

∆θ2 ⎤<br />

⎥<br />

⎦<br />

m×m<br />

,<br />

⎤<br />

⎥ , (2.58)<br />

⎥<br />


Rodney Josué Biezuner 65<br />

A matriz A em geral não é simétrica. Por exemplo, no caso n = 4 e m = 5 ((n − 1) × m + 1 = 16) temos<br />

⎡<br />

α<br />

⎢ −α1 ⎢ −α1 ⎢ −α1 ⎢ −α1 ⎢ −α1 ⎢ 0<br />

⎢ 0<br />

⎢ 0<br />

⎢ 0<br />

⎢ 0<br />

⎢ 0<br />

⎢ 0<br />

⎢ 0<br />

⎣ 0<br />

−β0<br />

γ1<br />

−δ1<br />

0<br />

0<br />

−δ1<br />

−α2<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−β0<br />

−δ1<br />

γ1<br />

−δ1<br />

0<br />

0<br />

0<br />

−α2<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−β0<br />

0<br />

−δ1<br />

γ1<br />

−δ1<br />

0<br />

0<br />

0<br />

−α2<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−β0<br />

0<br />

0<br />

−δ1<br />

γ1<br />

−δ1<br />

0<br />

0<br />

0<br />

−α2<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−β0<br />

−δ1<br />

0<br />

0<br />

−δ1<br />

γ1<br />

0<br />

0<br />

0<br />

0<br />

−α2<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−β1<br />

0<br />

0<br />

0<br />

0<br />

γ2<br />

−δ2<br />

0<br />

0<br />

−δ2<br />

−α3<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−β1<br />

0<br />

0<br />

0<br />

−δ2<br />

γ2<br />

−δ2<br />

0<br />

0<br />

0<br />

−α3<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−β1<br />

0<br />

0<br />

0<br />

−δ2<br />

γ2<br />

−δ2<br />

0<br />

0<br />

0<br />

−α3<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−β1<br />

0<br />

0<br />

0<br />

−δ2<br />

γ2<br />

−δ2<br />

0<br />

0<br />

0<br />

−α3<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−β1<br />

−δ2<br />

0<br />

0<br />

−δ2<br />

γ2<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−β2<br />

0<br />

0<br />

0<br />

0<br />

γ3<br />

−δ3<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−β2<br />

0<br />

0<br />

0<br />

−δ3<br />

γ3<br />

−δ3<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−β2<br />

0<br />

0<br />

0<br />

−δ3<br />

γ3<br />

−δ3<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−β2<br />

0<br />

0<br />

0<br />

−δ3<br />

γ3<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

−β2<br />

−δ3<br />

0<br />

0<br />

−δ3<br />

⎤<br />

⎥<br />

⎦<br />

0 0 0 0 0 0 0 0 0 0 −α3 −δ3 0 0 −δ3 γ3<br />

A primeira linha e a primeira coluna são diferentes porque os pontos (0, j), j = 0, . . . , m, são realmente um<br />

único ponto e este ponto é vizinho a to<strong>do</strong>s os pontos (1, j), j = 0, . . . , m.<br />

A matriz <strong>de</strong> discretização A no caso <strong>do</strong> anel será um pouco mais simples, já que ela será igual à matriz<br />

<strong>de</strong> discretização no caso <strong>do</strong> disco menos a primeira linha e a primeira coluna.<br />

2.5 Domínios Arbitrários<br />

Queremos agora discutir a resolução numérica da equação <strong>de</strong> Poisson através <strong>de</strong> diferenças finitas em um<br />

<strong>do</strong>mínio arbitrário.<br />

Seja Ω ⊂ R 2 um <strong>do</strong>mínio arbitrário. Se sobrepusermos uma malha uniforme<br />

M = {(i∆x, j∆y) ∈ Ω : i ∈ Z e j ∈ Z}<br />

sobre Ω, obtemos um <strong>do</strong>mínio discretiza<strong>do</strong> <strong>de</strong>fini<strong>do</strong> por<br />

Ωd = {(x, y) ∈ Ω : x/∆x ∈ Z e y/∆y ∈ Z} . (2.59)<br />

Esta é exatamente a maneira como discretizamos o retângulo. No entanto, o conjunto discretiza<strong>do</strong> <strong>do</strong>s<br />

pontos <strong>de</strong> fronteira ∂Ωd <strong>de</strong> um <strong>do</strong>mínio arbitrário <strong>de</strong>ve ser trata<strong>do</strong> <strong>de</strong> maneira diferente <strong>do</strong> retângulo, já que<br />

a malha uniforme M em geral não vai se sobrepor à fronteira <strong>de</strong> Ω, po<strong>de</strong>n<strong>do</strong> não possuir nenhum ponto em<br />

comum com a fronteira ou um número muito pequeno <strong>de</strong> pontos em poucas regiões da fronteira.<br />

Uma maneira <strong>de</strong> tratar este problema é a seguinte. Para <strong>de</strong>terminar se o ponto (xi, yj) ∈ Ωd é adjacente<br />

à “fronteira esquerda” <strong>de</strong> Ω, por exemplo, e ao mesmo tempo encontrar o seu vizinho à esquerda na fronteira<br />

se for o caso, basta verificar se o segmento<br />

[xi − ∆x, yj] = {(xi − t∆x, yj) : t ∈ [0, 1]}<br />

está inteiramente conti<strong>do</strong> em Ω ou não. Se não estiver, então (xi, yj) é um ponto interior adjacente à fronteira<br />

e existe um número tW ∈ (0, 1) tal que<br />

(xi − tW ∆x, yj) ∈ ∂Ω e (xi − t∆x, yj) ∈ Ω para to<strong>do</strong> t ∈ [0, tW ). (2.60)<br />

Este será o vizinho à esquerda <strong>de</strong> (xi, yj) na fronteira discretizada ∂Ωd <strong>do</strong> <strong>do</strong>mínio. Analogamente, os<br />

pontos vizinhos na fronteira discretizada à direita, abaixo e acima <strong>de</strong> pontos adjacentes à fronteira po<strong>de</strong>m<br />

ser encontra<strong>do</strong>s; eles satisfazem, respectivamente,<br />

(xi + tE∆x, yj) ∈ ∂Ω e (xi + t∆x, yj) ∈ Ω para to<strong>do</strong> t ∈ [0, tE). (2.61)


Rodney Josué Biezuner 66<br />

(xi, yj − tS∆y) ∈ ∂Ω e (xi, yj − t∆y) ∈ Ω para to<strong>do</strong> t ∈ [0, tS). (2.62)<br />

(xi, yj + tN∆y) ∈ ∂Ω e (xi, yj + t∆y) ∈ Ω para to<strong>do</strong> t ∈ [0, tN ). (2.63)<br />

(os subíndices W, E, S, N correspon<strong>de</strong>m aos quatro pontos car<strong>de</strong>ais oeste, leste, sul, norte em inglês). Definimos<br />

∂Ωd = {(x, y) ∈ ∂Ω : (x, y) satisfaz (2.60), (2.61), (2.62) ou (2.63)} (2.64)<br />

Depen<strong>de</strong>n<strong>do</strong> da geometria <strong>de</strong> Ω é concebível que um ponto seja simultaneamente adjacente às “quatro<br />

fronteiras” <strong>de</strong> Ω, isto é, que ele tenha os seus quatro vizinhos em ∂Ωd. Além disso, embora os pontos<br />

interiores da malha estejam distribuí<strong>do</strong>s uniformemente, esta discretização da fronteira <strong>do</strong> <strong>do</strong>mínio permite<br />

que às vezes <strong>do</strong>is pontos da malha da fronteira estejam bem próximos um <strong>do</strong> outro em alguma região da<br />

fronteira e relativamente distantes em outras (isso ocorre mesmo em <strong>do</strong>mínio regulares como um disco).<br />

Para discretizar a equação <strong>de</strong> Poisson nesta malha, observe que pela fórmula <strong>de</strong> Taylor temos, para pontos<br />

x− < x < x+,<br />

on<strong>de</strong><br />

De fato,<br />

u ′′ (x) =<br />

2<br />

x+ − x−<br />

<br />

u (x+) − u (x)<br />

−<br />

x+ − x<br />

<br />

u (x) − u (x−)<br />

+ r, (2.65)<br />

x − x−<br />

|r| 1 (x+ − x)<br />

3<br />

2 + (x − x−) 2<br />

1<br />

uC3 ([x−,x+]) <br />

x+ − x−<br />

3 max (x+ − x, x − x−) uC3 ([x−,x+]) . (2.66)<br />

u(x−) = u(x) − u ′ (x) (x − x−) + 1<br />

2 u′′ (x) (x − x−) 2 − 1<br />

3! u′′′ (ξ−) (x − x−) 3 ,<br />

u(x+) = u(x) + u ′ (x) (x+ − x) + 1<br />

2 u′′ (x) (x+ − x) 2 + 1<br />

3! u′′′ (ξ+) (x+ − x) 3 ,<br />

para alguns ξ− ∈ [x−, x] , ξ+ ∈ [x, x+], <strong>de</strong> mo<strong>do</strong> que<br />

u (x) − u (x−)<br />

−<br />

x − x−<br />

u (x+) − u (x)<br />

x+ − x<br />

<strong>do</strong>n<strong>de</strong>, soman<strong>do</strong> as duas expressões,<br />

u (x+) − u (x)<br />

x+ − x<br />

−<br />

Assim, po<strong>de</strong>mos aproximar<br />

u (x) − u (x−)<br />

x − x−<br />

u ′′ (x) ≈<br />

= −u ′ (x) + 1<br />

2 u′′ (x) (x − x−) − 1<br />

6 u′′′ (ξ−) (x − x−) 2 ,<br />

= u ′ (x) + 1<br />

2 u′′ (x) (x+ − x) + 1<br />

6 u′′′ (ξ+) (x+ − x) 2 ,<br />

= 1<br />

2 u′′ (x) (x+ − x−) + 1<br />

<br />

u<br />

6<br />

′′′ (ξ+) (x+ − x) 2 − u ′′′ (ξ−) (x − x−) 2<br />

.<br />

2<br />

x+ − x−<br />

<br />

u (x+) − u (x)<br />

−<br />

x+ − x<br />

<br />

u (x) − u (x−)<br />

x − x−<br />

Se x− = x − ∆x e x+ = x + ∆x, obtemos a fórmula <strong>de</strong> diferenças centradas usual para a <strong>de</strong>rivada segunda.<br />

Para aproximar o laplaciano através <strong>de</strong> uma fórmula <strong>de</strong> cinco pontos, usamos os quatro pontos vizinhos<br />

(xi − tW ∆x, yj) , (xi + tE∆x, yj) , (xi, yj − tS∆y) , (xi, yj + tN ∆y) , com t∗ ∈ (0, 1]


Rodney Josué Biezuner 67<br />

<strong>de</strong>finin<strong>do</strong> o esquema <strong>de</strong> diferenças finitas <strong>de</strong> Shortley-Weller:<br />

<br />

2<br />

u (xi + tE∆x, yj) − u (xi, yj)<br />

∆dud =<br />

−<br />

(xi + tE∆x) − (xi − tW ∆x) (xi + tE∆x) − xi<br />

u (xi,<br />

<br />

yj) − u (xi − tW ∆x, yj)<br />

xi − (xi − tW ∆x)<br />

<br />

2<br />

u (xi, yj + tN ∆y) − u (xi, yj)<br />

+<br />

−<br />

(yj + tN ∆y) − (yj − tS∆y) (yj + tN∆y) − yj<br />

u (xi,<br />

<br />

yj) − u (xi, yj − tS∆y)<br />

yj − (yj − tS∆y)<br />

<br />

2 ui+tE∆x,j − ui,j<br />

=<br />

−<br />

(tE + tW ) ∆x tE∆x<br />

ui,j<br />

<br />

− ui−tW ∆x,j<br />

tW ∆x<br />

<br />

2 ui,j+tN ∆y − ui,j<br />

+<br />

−<br />

(tN + tS) ∆y tN∆y<br />

ui,j<br />

<br />

− ui,j−tS∆y<br />

tS∆y<br />

ou<br />

−∆dud = 2<br />

∆x2 <br />

1<br />

−<br />

+ 2<br />

∆y2 <br />

1<br />

−<br />

tS (tN + tS) ui,j−tS∆y + 1<br />

tE (tE + tW ) ui+tE∆x,j + 1<br />

1<br />

ui,j −<br />

tEtW tW (tE + tW ) ui−tW ∆x,j<br />

ui,j −<br />

tNtS<br />

1<br />

tN (tN + tS) ui,j+tN ∆y<br />

<br />

.<br />

<br />

(2.67)<br />

Se (xi, yj) é um ponto interior distante da fronteira (isto é, não adjacente à fronteira), então t∗ = 1 e para<br />

este ponto vale a fórmula <strong>do</strong>s cinco pontos usual.<br />

Embora a or<strong>de</strong>m <strong>de</strong> aproximação <strong>do</strong> laplaciano para pontos próximos à fronteira é apenas 1, o esquema <strong>de</strong><br />

Shortley-Weller é convergente <strong>de</strong> segunda or<strong>de</strong>m, conforme veremos no próximo capítulo, on<strong>de</strong> provaremos<br />

também que o correspon<strong>de</strong>nte problema discretiza<strong>do</strong> possui solução única.<br />

2.6 Exercícios<br />

1. Implemente os méto<strong>do</strong>s discuti<strong>do</strong>s neste capítulo computacionalmente, verifique a precisão comparan<strong>do</strong><br />

com a solução exata e também a velocida<strong>de</strong> <strong>de</strong> convergência.<br />

2. Discretize o problema <strong>de</strong> Poisson com valor <strong>de</strong> fronteira <strong>de</strong> Dirichlet a seguir, usan<strong>do</strong> a fórmula <strong>de</strong><br />

cinco pontos. −∆u = f (x, y) em (0, a) × (0, b) ,<br />

u = g (x, y) sobre ∂ ((0, a) × (0, b)) ,<br />

Implemente alguns exemplos <strong>de</strong>ste problema computacionalmente e compare os resulta<strong>do</strong>s obti<strong>do</strong>s com<br />

as soluções exatas.<br />

3. Prove que a fórmula <strong>do</strong>s nove pontos compacta satisfaz o princípio <strong>do</strong> máximo discreto.<br />

4. Prove resulta<strong>do</strong>s equivalentes ao Lema 2.5 e ao Teorema 2.6 para a fórmula <strong>do</strong>s nove pontos compacta.<br />

5. Investigue a or<strong>de</strong>m <strong>de</strong> convergência <strong>do</strong> esquema <strong>de</strong> diferenças finitas misto: fórmula <strong>do</strong>s nove pontos nos<br />

pontos interiores distantes da fronteira e fórmula <strong>do</strong>s cinco pontos para pontos adjacentes à fronteira.<br />

6. Encontre um esquema <strong>de</strong> diferenças finitas <strong>de</strong> segunda or<strong>de</strong>m para a equação <strong>de</strong> laplace tridimensional<br />

em um paralelepípe<strong>do</strong> reto. Escolha uma or<strong>de</strong>nação apropriada <strong>do</strong>s pontos da malha e <strong>de</strong>screva a<br />

matriz <strong>de</strong> discretização obtida. Implemente o méto<strong>do</strong> no computa<strong>do</strong>r.<br />

7. Mostre que o esquema <strong>de</strong> diferenças finitas em coor<strong>de</strong>nadas polares introduzi<strong>do</strong> neste capítulo satisfaz<br />

o princípio <strong>do</strong> máximo discreto <strong>de</strong>s<strong>de</strong> que o valor <strong>de</strong> u0 seja da<strong>do</strong> pela fórmula (2.56).


Rodney Josué Biezuner 68<br />

8. Mostre que se ∆d <strong>de</strong>nota o esquema <strong>de</strong> diferenças finitas em coor<strong>de</strong>nadas polares introduzi<strong>do</strong> neste<br />

capítulo e Ω é o disco unitário, então vale a estimativa a priori: se ud é uma solução <strong>de</strong><br />

<br />

−∆dud = fd em Ωd,<br />

ud = 0 sobre ∂Ωd,<br />

então<br />

ud ∞ 1<br />

4 ∆dud ∞<br />

(2.68)<br />

<strong>de</strong>s<strong>de</strong> que o valor <strong>de</strong> u0 seja da<strong>do</strong> pela fórmula (2.56). Conclua que este esquema tem or<strong>de</strong>m <strong>de</strong><br />

convergência 2.<br />

9. Encontre os autovalores da matriz <strong>de</strong> discretização <strong>do</strong> esquema <strong>de</strong> diferenças finitas em coor<strong>de</strong>nadas<br />

polares e compare com os autovalores <strong>de</strong> Dirichlet <strong>do</strong> laplaciano no disco.<br />

10. Discretize o problema <strong>de</strong> Poisson com valor <strong>de</strong> fronteira <strong>de</strong> Dirichlet para o anel:<br />

⎧<br />

⎨<br />

⎩<br />

−∆u = f (r, θ) se R1 < r < R2 e 0 < θ < 2π,<br />

u (R1, θ) = g1 (θ)<br />

u (R2, θ) = g2 (θ) se 0 θ 2π.<br />

Implemente alguns exemplos <strong>de</strong>ste problema computacionalmente e compare os resulta<strong>do</strong>s obti<strong>do</strong>s com<br />

as soluções exatas.<br />

11. Mostre que toman<strong>do</strong> o “quadra<strong>do</strong>” da fórmula <strong>de</strong> três pontos para o laplaciano unidimensional (esquema<br />

<strong>de</strong> diferenças centradas para a <strong>de</strong>rivada segunda) obtemos a seguinte fórmula <strong>de</strong> cinco pontos<br />

para o opera<strong>do</strong>r biharmônico unidimensional (esquema <strong>de</strong> diferenças centradas para a <strong>de</strong>rivada quarta):<br />

δ 4 ui = ui−2 − 4ui−1 + 6ui − 4ui+1 + ui+2<br />

∆x 4<br />

Usan<strong>do</strong> a fórmula <strong>de</strong> Taylor, obtenha o expoente p tal que<br />

δ 4 ui = u (4) (xi) + O (∆x p ) .<br />

(2.69)<br />

12. O esquema <strong>de</strong> diferenças finitas mais simples para o opera<strong>do</strong>r biharmônico ∆2 em duas dimensões é a<br />

seguinte fórmula <strong>de</strong> 13 pontos (para o caso ∆x = ∆y):<br />

∆ 2 u = 1<br />

∆x4 ⎡<br />

⎢ 1<br />

⎣<br />

2<br />

−8<br />

2<br />

1<br />

−8<br />

20<br />

−8<br />

1<br />

2<br />

−8<br />

2<br />

1<br />

⎤<br />

⎥ .<br />

⎦<br />

(2.70)<br />

Mostre que esta fórmula po<strong>de</strong> ser obtida a partir <strong>do</strong> “quadra<strong>do</strong>” da fórmula <strong>de</strong> cinco pontos para<br />

o laplaciano. Como a equação biharmônica não satisfaz o princípio <strong>do</strong> máximo, a <strong>de</strong>monstração da<br />

or<strong>de</strong>m <strong>de</strong> convergência <strong>de</strong>ste esquema necessita <strong>de</strong> argumentos diferentes <strong>do</strong>s usa<strong>do</strong>s neste capítulo<br />

para o laplaciano. Na realida<strong>de</strong>, <strong>de</strong>pen<strong>de</strong>n<strong>do</strong> <strong>de</strong> como as duas condições <strong>de</strong> fronteira são discretizadas,<br />

a or<strong>de</strong>m <strong>de</strong> convergência <strong>de</strong>ste méto<strong>do</strong> po<strong>de</strong> ser O ∆x 3/2 ou O ∆x 2 . Veja [Hackbusch], pág. 103 e<br />

págs. 105-109, para <strong>de</strong>talhes e referências.


Capítulo 3<br />

Existência e Unicida<strong>de</strong> <strong>de</strong> Soluções<br />

Discretas<br />

Determinar a existência e unicida<strong>de</strong> <strong>de</strong> soluções discretas para as matrizes <strong>de</strong> discretização obtidas via<br />

esquemas <strong>de</strong> diferenças finitas através <strong>do</strong> cálculo <strong>de</strong> seus autovalores como fizemos no capítulo anterior para<br />

diferenças centradas em uma dimensão e para a fórmula <strong>de</strong> cinco pontos é inviável em geral (tente calcular<br />

os autovalores da matriz <strong>de</strong> discretização para a fórmula <strong>do</strong>s nove pontos, para o esquema em coor<strong>de</strong>nadas<br />

polares e para o esquema <strong>de</strong> Shortley-Weller). Neste capítulo, <strong>de</strong>senvolveremos méto<strong>do</strong>s mais gerais e mais<br />

fáceis <strong>de</strong> aplicar.<br />

3.1 Normas Matriciais<br />

Uma norma matricial no espaço vetorial Mn (C) das matrizes complexas n × n é uma norma vetorial que<br />

satisfaz a proprieda<strong>de</strong> submultiplicativa<br />

AB A B (3.1)<br />

para todas as matrizes A, B ∈ Mn (C). Algumas das normas mais importantes em Mn (C) são as seguintes:<br />

1. Norma l1<br />

De fato,<br />

AB 1 =<br />

2. Norma l2<br />

Com efeito,<br />

AB 2<br />

2 =<br />

n<br />

<br />

n <br />

<br />

<br />

i,j=1<br />

n<br />

<br />

n <br />

<br />

<br />

i,j=1<br />

k=1<br />

k=1<br />

aikbkj<br />

aikbkj<br />

<br />

<br />

<br />

<br />

<br />

2<br />

<br />

<br />

<br />

<br />

<br />

<br />

n<br />

i,j,k=1<br />

n<br />

<br />

n<br />

i,j=1<br />

A 1 =<br />

|aikbkj| <br />

⎛<br />

A2 = ⎝<br />

k=1<br />

|aik| 2<br />

n<br />

|aij| . (3.2)<br />

i,j=1<br />

n<br />

i,j,k,l=1<br />

n<br />

i,j=1<br />

n<br />

69<br />

l=1<br />

|aij| 2<br />

|blj| 2<br />

|aikblj| =<br />

⎞<br />

⎠<br />

<br />

1/2<br />

= ⎝<br />

n<br />

i,j=1<br />

|aik|<br />

n<br />

|blj| = A1 B1 .<br />

k,l=1<br />

. (3.3)<br />

⎛<br />

n<br />

i,k=1<br />

|aik| 2<br />

⎞ ⎛<br />

⎠ ⎝<br />

n<br />

j,l=1<br />

|blj| 2<br />

⎞<br />

⎠ = A 2<br />

2 B2<br />

2 .


Rodney Josué Biezuner 70<br />

A norma l2 também é chamada norma euclidiana e, mais raramente e somente para matrizes, norma<br />

<strong>de</strong> Schur, norma <strong>de</strong> Frobenius ou norma <strong>de</strong> Hilbert-Schmidt.<br />

3. Norma l∞ modificada<br />

A norma l∞<br />

A ∞ = max<br />

1i,jn |aij| .<br />

é uma norma vetorial no espaço das matrizes complexas, mas não é uma norma matricial, pois se<br />

então<br />

A =<br />

A 2 =<br />

1 1<br />

1 1<br />

2 2<br />

2 2<br />

e portanto A 2 ∞ = 2 > 1 = A ∞ A ∞ .<br />

Mas um múltiplo escalar <strong>de</strong>sta norma vetorial é uma norma matricial:<br />

Com efeito,<br />

4. Norma induzida<br />

AB n∞ = n max<br />

<br />

n<br />

<br />

<br />

<br />

aikbkj<br />

1i,jn 1i,jn<br />

k=1<br />

k=1<br />

= n A∞ n B∞ = ABn∞ .<br />

<br />

,<br />

<br />

A n∞ = n max<br />

1i,jn |aij| . (3.4)<br />

<br />

<br />

<br />

n max<br />

n<br />

|aikbkj| n max<br />

n<br />

A<br />

1i,jn<br />

∞ B∞ k=1<br />

Dada uma norma vetorial |·| em C n , ela induz uma norma matricial através da <strong>de</strong>finição<br />

De fato,<br />

AB = max<br />

x=0<br />

|ABx|<br />

|x|<br />

= max<br />

x=0<br />

|ABx|<br />

|Bx|<br />

A = max |Ax| = max<br />

|x|=1 x=0<br />

|Ax|<br />

. (3.5)<br />

|x|<br />

<br />

|Bx| |ABx|<br />

max<br />

|x| x=0 |Bx| max<br />

|Bx| |Ay|<br />

max<br />

x=0 |x| y=0 |y| max<br />

|Bx|<br />

= A B .<br />

x=0 |x|<br />

Esta norma também é chamada norma <strong>do</strong> opera<strong>do</strong>r. Ela satisfaz a proprieda<strong>de</strong> muitas vezes útil<br />

para to<strong>do</strong> vetor x ∈ C n .<br />

5. Norma <strong>do</strong> máximo das somas das linhas<br />

|Ax| A |x| (3.6)<br />

A L = max<br />

1in<br />

j=1<br />

n<br />

|aij| . (3.7)<br />

Esta norma é induzida pela norma vetorial l∞. De fato, se x = (x1, . . . , xn), temos<br />

<br />

<br />

n<br />

<br />

<br />

n<br />

n<br />

|Ax| ∞ = max aijxj <br />

1in max |aijxj| max<br />

1in<br />

1in<br />

j=1<br />

j=1<br />

j=1<br />

|aij| |x| ∞ = A L |x| ∞ ,


Rodney Josué Biezuner 71<br />

<strong>de</strong> mo<strong>do</strong> que<br />

max<br />

|x|=1 |Ax| ∞ AL .<br />

Supon<strong>do</strong> que a k-ésima linha <strong>de</strong> A é não-nula, <strong>de</strong>finimos o vetor y = (y1, . . . , yn) ∈ Cn por<br />

⎧<br />

⎨<br />

yi =<br />

⎩<br />

akj<br />

|akj|<br />

1<br />

se aij = 0,<br />

se aij = 0.<br />

,<br />

o que implica |y| ∞ = 1, akjyj = |akj| e<br />

max<br />

|x| ∞ =1 |Ax| ∞ |Ay| <br />

<br />

n<br />

∞ = max <br />

1in <br />

<br />

Isso vale para to<strong>do</strong> k, logo<br />

j=1<br />

max<br />

|x| ∞ =1 |Ax| ∞ max<br />

1kn<br />

6. Norma <strong>do</strong> máximo das somas das colunas<br />

A C = max<br />

aijyj<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

n<br />

<br />

<br />

<br />

j=1<br />

akjyj<br />

n<br />

|aij| = AL .<br />

j=1<br />

1jn<br />

i=1<br />

<br />

<br />

<br />

<br />

<br />

=<br />

n<br />

|akj| .<br />

j=1<br />

n<br />

|aij| . (3.8)<br />

Esta norma é induzida pela norma vetorial l1. De fato, escreven<strong>do</strong> A em termos <strong>de</strong> suas colunas<br />

segue que<br />

Se x = (x1, . . . , xn), segue que<br />

<strong>do</strong>n<strong>de</strong><br />

|Ax| 1 = |x1A1 + . . . + xnAn| 1 <br />

= A C<br />

A = [A1 . . . An]<br />

A C = max<br />

1jn |Aj| 1 .<br />

n<br />

|xiAi| 1 =<br />

i=1<br />

n<br />

|xi| = AC |x| 1 ,<br />

i=1<br />

Agora, se escolhermos y = ej, temos que |y| 1 = 1 e<br />

para to<strong>do</strong> k, logo<br />

7. p-normas<br />

n<br />

|xi| |Ai| 1 <br />

i=1<br />

max<br />

|x| 1 =1 |Ax| 1 AC .<br />

|Ay| 1 = |Aj| 1<br />

max<br />

|x| 1 =1 |Ax| 1 |Ay| 1 = max<br />

1jn |Aj| 1 = AC .<br />

n<br />

i=1<br />

|xi| max<br />

1jn |Aj| 1<br />

Este é o nome geral para as normas induzidas pela norma vetorial lp. O caso especial da norma induzida<br />

pela norma vetorial l2 (a norma vetorial euclidiana) é também chamada a norma espectral e satisfaz<br />

|A|2 = √ <br />

∗<br />

λmax = max λ : λ é um autovalor <strong>de</strong> A A .


Rodney Josué Biezuner 72<br />

De fato, A ∗ A é uma matriz hermitiana e possui autovalores não-negativos, pois se A ∗ Ay = λy, então<br />

λ |y| 2<br />

2 = 〈y, λy〉 2 = 〈y, A∗Ay〉 2 = 〈Ay, Ay〉 2 = |Ay| 2<br />

2<br />

e, além disso, pela caracterização variacional <strong>do</strong>s autovalores <strong>de</strong> uma matriz hermitiana temos<br />

λmax = max<br />

x=0<br />

〈A ∗ Ax, x〉 2<br />

|x| 2<br />

2<br />

= max<br />

x=0<br />

|Ax| 2<br />

2<br />

|x| 2<br />

2<br />

Observe que a 2-norma é diferente da norma matricial l2. Note também que se A é uma matriz<br />

hermitiana, então A ∗ A = A 2 e |A| 2 é portanto o módulo <strong>do</strong> maior autovalor <strong>de</strong> A, isto é, a norma<br />

espectral <strong>de</strong> A é o raio espectral <strong>de</strong> A, <strong>de</strong>fini<strong>do</strong> como sen<strong>do</strong> o maior valor absoluto <strong>do</strong>s autovalores<br />

<strong>de</strong> A:<br />

ρ (A) = max<br />

i=1,...,n |λi| ,<br />

8. Norma induzida por uma matriz invertível<br />

Se · é uma norma matricial qualquer e se S é uma matriz invertível, então<br />

<strong>de</strong>fine uma norma matricial. Com efeito,<br />

.<br />

A S = S −1 AS (3.9)<br />

AB S = S −1 ABS = S −1 ASS −1 BS S −1 AS S −1 BS = A S B S .<br />

Lembramos que todas as normas em um espaço vetorial são equivalentes, e isso vale em particular para<br />

normas matriciais.<br />

3.2 Matrizes Diagonalmente Dominantes<br />

Definição. Dizemos que uma matriz An×n é diagonalmente <strong>do</strong>minante se<br />

|aii| <br />

n<br />

|aij| para to<strong>do</strong> i = 1, . . . , n<br />

j=1<br />

j=i<br />

e estritamente diagonalmente <strong>do</strong>minante se<br />

|aii| ><br />

n<br />

|aij| para to<strong>do</strong> i = 1, . . . , n.<br />

j=1<br />

j=i<br />

3.1 Proposição. Se A é uma matriz estritamente diagonalmente <strong>do</strong>minante, então A é invertível.<br />

Prova. Uma matriz A é invertível se existe alguma norma matricial · tal que I − A < 1. De fato, se<br />

esta condição é satisfeita, então a inversa é dada explicitamente pela série<br />

A −1 =<br />

∞<br />

(I − A) k . (3.10)<br />

k=0<br />

A condição I − A < 1 garante a convergência <strong>de</strong>sta série, pois a série geométrica ∞<br />

k=0 rk tem raio <strong>de</strong><br />

convergência 1; como para to<strong>do</strong> N temos<br />

N<br />

A (I − A) k N<br />

= [I − (I − A)] (I − A) k N<br />

= (I − A) k N+1 <br />

− (I − A) k = I − (I − A) N+1 ,<br />

k=0<br />

k=0<br />

k=0<br />

k=1


Rodney Josué Biezuner 73<br />

toman<strong>do</strong> o limite quan<strong>do</strong> N → ∞, concluímos (3.10).<br />

Para provar a proposição, <strong>de</strong>note por D a matriz diagonal cujas entradas diagonais são as entradas<br />

diagonais <strong>de</strong> A. Uma matriz estritamente diagonalmente <strong>do</strong>minante possui, por <strong>de</strong>finição, entradas diagonais<br />

não-nulas, logo D é uma matriz invertível. A matriz D −1 A tem apenas 1’s na diagonal principal e se<br />

mostramos que D −1 A é invertível, isto implicará que A é invertível. Para provar isso, consi<strong>de</strong>re a matriz<br />

I − D −1 A. Temos<br />

−1<br />

I − D A<br />

ij =<br />

<br />

0 se i = j,<br />

se i = j.<br />

−aij/aii<br />

Usemos a norma <strong>do</strong> máximo das somas das linhas. Para cada 1 i n temos<br />

n <br />

<br />

I − D −1 A n<br />

<br />

aij<br />

<br />

n<br />

= <br />

1<br />

ij = |aij| < 1,<br />

|aii|<br />

j=1<br />

j=1<br />

j=i<br />

logo I − D −1 A < 1 e o resulta<strong>do</strong> segue. <br />

Às vezes, exigir <strong>do</strong>minância diagonal estrita em todas as linhas é pedir <strong>de</strong>mais. Para certas matrizes,<br />

<strong>do</strong>minância diagonal junto com <strong>do</strong>minância diagonal estrita em apenas uma linha é suficiente para garantir<br />

a sua invertibilida<strong>de</strong>. As matrizes <strong>de</strong> discretização obtidas no capítulo anterior satisfazem esta condição<br />

(nas linhas correspon<strong>de</strong>ntes à pontos adjacentes à fronteira), e nenhuma <strong>de</strong>las é estritamente diagonalmente<br />

<strong>do</strong>minante. Por outro la<strong>do</strong>, esta condição não é suficiente para estabelecer a invertibilida<strong>de</strong> <strong>de</strong> uma matriz<br />

em geral, como o exemplo ⎡<br />

⎣<br />

aii<br />

4 2 1<br />

0 1 1<br />

0 1 1<br />

<strong>de</strong>monstra. Precisamos <strong>de</strong> <strong>de</strong>senvolver várias idéias e ferramentas teóricas antes <strong>de</strong> provar a invertibilida<strong>de</strong><br />

das matrizes <strong>de</strong> discretização <strong>do</strong> capítulo anterior.<br />

3.3 Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin<br />

A primeira ferramenta teórica é o importante Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin. Ele <strong>de</strong>corre da seguinte<br />

observação: se A é uma matriz complexa n × n, po<strong>de</strong>mos sempre escrever A = D + B, on<strong>de</strong> D = diag<br />

(a11, . . . , ann) é a matriz diagonal formada pela diagonal principal <strong>de</strong> A e B consiste <strong>do</strong>s elementos restantes<br />

<strong>de</strong> A, possuin<strong>do</strong> uma diagonal principal nula. Se <strong>de</strong>finirmos Aε = D + εB, então A0 = D e A1 = A. Os<br />

autovalores <strong>de</strong> D são a11, . . . , ann, enquanto que os autovalores <strong>de</strong> Aε <strong>de</strong>vem estar localiza<strong>do</strong>s em vizinhanças<br />

<strong>do</strong>s pontos a11, . . . , ann, <strong>de</strong>s<strong>de</strong> que ε seja suficientemente pequeno. O mesmo <strong>de</strong>ve valer para os autovalores<br />

da matriz A: eles <strong>de</strong>vem estar conti<strong>do</strong>s em discos centra<strong>do</strong>s nos elementos a11, . . . , ann da diagonal principal<br />

se os discos são suficientemente gran<strong>de</strong>s. O Teorema <strong>de</strong> Gershgorin dá uma estimativa precisa e simples <strong>de</strong><br />

calcular para os raios <strong>de</strong>stes discos em função das entradas restantes da matriz A. Denote o disco complexo<br />

fecha<strong>do</strong> <strong>de</strong> centro em a e raio R por<br />

⎤<br />

⎦<br />

j=1<br />

j=i<br />

DR (a) = {z ∈ C : |z − a| R} .<br />

3.2 Teorema. (Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin) Se A ∈ Mn (C) e<br />

n<br />

Ri (A) = |aij| (3.11)<br />

<strong>de</strong>nota a soma <strong>do</strong>s valores absolutos <strong>do</strong>s elementos da linha i <strong>de</strong> A excetuan<strong>do</strong> o elemento da diagonal<br />

principal, então to<strong>do</strong>s os autovalores <strong>de</strong> A estão conti<strong>do</strong>s na união <strong>do</strong>s n discos <strong>de</strong> Gershgorin<br />

n<br />

G (A) =<br />

i=1<br />

j=1<br />

j=i<br />

D Ri(A) (aii) . (3.12)


Rodney Josué Biezuner 74<br />

Além disso, se uma união <strong>de</strong> k <strong>de</strong>stes discos forma uma região que é disjunta <strong>do</strong>s n−k discos restantes,<br />

então existem exatamente k autovalores <strong>de</strong> A nesta região.<br />

Prova. Seja λ um autovalor <strong>de</strong> A e x = (x1, . . . , xn) = 0 um autovetor associa<strong>do</strong>. Seja k um índice tal que<br />

|xk| |xj| para j = 1, . . . , n,<br />

isto é, xk é a coor<strong>de</strong>nada <strong>de</strong> x <strong>de</strong> maior valor absoluto. Denotan<strong>do</strong> por (Ax) k a k-ésima coor<strong>de</strong>nada <strong>do</strong> vetor<br />

Ax = λx, temos<br />

n<br />

λxk = (Ax) k =<br />

que é equivalente a<br />

Daí,<br />

ou seja,<br />

|xk| |λ − akk| <br />

j=1<br />

j=k<br />

xk (λ − akk) =<br />

j=1<br />

j=k<br />

j=1<br />

n<br />

j=1<br />

j=k<br />

akjxj<br />

akjxj.<br />

n<br />

n<br />

n<br />

|akjxj| = |akj| |xj| |xk| |akj| = |xk| Rk (A) ,<br />

|λ − akk| Rk (A) .<br />

Isso prova o resulta<strong>do</strong> principal <strong>do</strong> Teorema <strong>de</strong> Gershgorin (como não sabemos qual k é apropria<strong>do</strong> para<br />

cada autovalor λ, e um mesmo k po<strong>de</strong> servir para vários autovalores λ, tu<strong>do</strong> o que po<strong>de</strong>mos afirmar é que<br />

os autovalores estão na união <strong>do</strong>s discos).<br />

Para provar a segunda afirmação, escreva A = D + B, on<strong>de</strong> D = diag (a11, . . . , ann) e <strong>de</strong>fina<br />

para 0 t 1. Note que<br />

At = D + tB<br />

j=1<br />

j=k<br />

Ri (At) = Ri (tB) = tRi (A) .<br />

Para simplificar a notação, assuma que a união <strong>do</strong>s primeiros k discos <strong>de</strong> Gershgorin<br />

satisfaz Gk (A) ∩ [G (A) \Gk (A)] = ∅. Temos<br />

logo<br />

e<br />

Gk (A) =<br />

k<br />

i=1<br />

D Ri(A) (aii)<br />

D Ri(At) (aii) = {z ∈ C : |z − aii| Ri (At)} = {z ∈ C : |z − aii| tRi (A)} ⊂ D Ri(A) (aii) ,<br />

Gk (At) ⊂ Gk (A)<br />

Gk (A) ∩ [G (At) \Gk (At)] = ∅<br />

para 0 t 1. Porque os autovalores são funções contínuas das entradas <strong>de</strong> uma matriz, o caminho<br />

λi (t) = λi (At)<br />

é um caminho contínuo que liga λi (A0) = λi (D) = aii a λi (A1) = λi (A). Como λi (At) ∈ Gk (At) ⊂ Gk (A),<br />

concluímos que para cada 0 t 1 existem k autovalores <strong>de</strong> At em Gk (A); em particular, fazen<strong>do</strong> t = 1,


Rodney Josué Biezuner 75<br />

obtemos que Gk (A) possui pelo menos k autovalores <strong>de</strong> A. Da mesma forma, não po<strong>de</strong> haver mais que<br />

k autovalores <strong>de</strong> A em Gk (A), pois os n − k autovalores restantes <strong>de</strong> A0 = D começam fora <strong>do</strong> conjunto<br />

Gk (A) e seguem caminhos contínuos que permanecem fora <strong>de</strong> Gk (A). <br />

A união G (A) <strong>do</strong>s discos <strong>de</strong> Gershgorin é conhecida como a região <strong>de</strong> Gershgorin. Observe que enquanto<br />

não po<strong>de</strong>mos em geral afirmar com certeza que cada disco <strong>de</strong> Gershgorin possui um autovalor, a segunda<br />

afirmação <strong>do</strong> teorema permite-nos fazer tal conclusão <strong>de</strong>s<strong>de</strong> que os discos <strong>de</strong> Gershgorin sejam <strong>do</strong>is a <strong>do</strong>is<br />

disjuntos.<br />

O Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin permite enten<strong>de</strong>r o resulta<strong>do</strong> da Proposição 3.1: se uma matriz A é<br />

estritamente diagonalmente <strong>do</strong>minante, então os discos <strong>de</strong> Gershgorin D Ri(A) (aii) não interceptam a origem,<br />

logo 0 não po<strong>de</strong> ser um autovalor para a matriz A, o que implica que A é invertível. Além disso, se to<strong>do</strong>s<br />

os elementos da diagonal principal <strong>de</strong> A são reais e positivos, então os autovalores <strong>de</strong> A estão localiza<strong>do</strong>s no<br />

semiplano direito <strong>de</strong> C, <strong>de</strong> mo<strong>do</strong> que se A é também simétrica, concluímos que to<strong>do</strong>s os autovalores <strong>de</strong> A<br />

são positivos.<br />

A aplicação mais óbvia <strong>do</strong> Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin é na estimativa <strong>do</strong>s autovalores <strong>de</strong> uma<br />

matriz, o que é importante se vamos usar os autovalores <strong>de</strong> matrizes <strong>de</strong> discretização para aproximar os<br />

autovalores <strong>do</strong> laplaciano:<br />

Aplicação 1. Pelo Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin, os autovalores da matriz <strong>de</strong> discretização <strong>do</strong> laplaciano<br />

no intervalo (0, π) discretiza<strong>do</strong> com n + 1 pontos (esquema <strong>de</strong> diferenças finitas centradas para<br />

a <strong>de</strong>rivada segunda unidimensional)<br />

⎡<br />

2 −1<br />

⎤<br />

⎢<br />

−1 2 −1<br />

⎥<br />

A = n2<br />

π 2<br />

⎢<br />

⎣<br />

−1<br />

. ..<br />

. ..<br />

. ..<br />

. .. −1<br />

−1 2 −1<br />

−1 2<br />

estão to<strong>do</strong>s localiza<strong>do</strong>s no intervalo (A é simétrica, logo seus autovalores são to<strong>do</strong>s reais) centra<strong>do</strong> em<br />

x = 2n 2 /π 2 <strong>de</strong> raio 2n 2 /π 2 , ou seja, no intervalo 0, 4n 2 /π 2 . Em particular o maior autovalor <strong>de</strong> A<br />

não po<strong>de</strong> exce<strong>de</strong>r 4n 2 /π 2 . Como os autovalores <strong>do</strong> laplaciano neste intervalo são da forma λj = j 2 ,<br />

para termos esperança em aproximar o autovalor λj por autovalores da matriz A precisamos que<br />

j 2 4n 2 /π 2 , isto é, precisamos discretizar o intervalo (0, π) com<br />

n π<br />

2 j<br />

pontos. Isso dá uma estimativa bastante grosseira <strong>do</strong> quão refinada a nossa malha precisa ser para<br />

aproximar os autovalores <strong>do</strong> laplaciano. Na prática, vimos que apenas os primeiros autovalores <strong>de</strong><br />

A aproximam bem os primeiros autovalores <strong>do</strong> laplaciano e portanto precisamos <strong>de</strong> uma malha com<br />

um número muito maior <strong>de</strong> pontos. Observe que uma estimativa semelhante vale para a matriz <strong>de</strong><br />

discretização M fornecida pela fórmula <strong>de</strong> cinco pontos no quadra<strong>do</strong> (0, π) 2 quan<strong>do</strong> tomamos ∆x =<br />

∆y = π/n: como os autovalores <strong>de</strong> M estão localiza<strong>do</strong>s no intervalo <strong>de</strong> centro em x = 4n 2 /π 2 <strong>de</strong> raio<br />

4n 2 /π 2 , isto é, em 0, 8n 2 /π 2 , precisamos <strong>de</strong><br />

n π<br />

2 √ <br />

i2 + j2 2<br />

pontos no eixos horizontal e vertical para aproximar o autovalor i 2 + j 2 . Por outro la<strong>do</strong>, no caso<br />

bidimensional isso implica em uma matriz <strong>de</strong> discretização da or<strong>de</strong>m <strong>de</strong> i 2 + j 2 . <br />

Usos mais refina<strong>do</strong>s <strong>do</strong> Teorema <strong>de</strong> Gershgorin permitem obter conhecimento mais preciso sobre on<strong>de</strong><br />

os autovalores da matriz se encontram e correspon<strong>de</strong>ntemente melhores estimativas para o raio espectral<br />

⎥<br />


Rodney Josué Biezuner 76<br />

<strong>de</strong> uma matriz. Por exemplo, como A e A t possuem os mesmos autovalores, existe um teorema <strong>do</strong>s discos<br />

<strong>de</strong> Gershgorin equivalente para as colunas <strong>de</strong> uma matriz. Em particular, to<strong>do</strong>s os autovalores <strong>de</strong> A estão<br />

localiza<strong>do</strong>s na interseção <strong>de</strong>stas duas regiões: G (A) ∩ G (A t ). Isso implica a seguinte estimativa simples para<br />

o raio espectral <strong>de</strong> uma matriz complexa:<br />

3.3 Corolário. Se A ∈ Mn (C), então<br />

⎛<br />

ρ (A) min ⎝ max<br />

i=1,...,n<br />

j=1<br />

n<br />

|aij| , max<br />

n<br />

|aij|<br />

j=1,...,n<br />

i=1<br />

⎞<br />

⎠ = min (A L , A C ) .<br />

Prova. O ponto no i-ésimo disco <strong>de</strong> Gershgorin que é mais distante da origem tem módulo<br />

n<br />

|aii| + Ri (A) =<br />

e um resulta<strong>do</strong> semelhante vale para as colunas <strong>de</strong> A. <br />

O resulta<strong>do</strong> <strong>do</strong> Corolário 3.3 não é surpreen<strong>de</strong>nte em vista <strong>do</strong> raio espectral <strong>de</strong> uma matriz ser menor que<br />

qualquer norma matricial (veja o próximo capítulo). Um resulta<strong>do</strong> melhor po<strong>de</strong> ser obti<strong>do</strong> uma vez que<br />

se observa que A e S−1AS também possuem os mesmos autovalores, qualquer que seja a matriz invertível<br />

S. Em particular, quan<strong>do</strong> S = D = diag (p1, . . . , pn) é uma matriz diagonal com to<strong>do</strong>s os seus elementos<br />

positivos, isto é, pi > 0 para to<strong>do</strong> i, aplican<strong>do</strong> o Teorema <strong>de</strong> Gershgorin à matriz<br />

<br />

D −1 AD =<br />

e à sua transposta, obtemos o seguinte resulta<strong>do</strong> que permite obter uma estimativa arbitrariamente boa <strong>do</strong>s<br />

autovalores <strong>de</strong> A:<br />

pj<br />

j=1<br />

aij<br />

pi<br />

3.4 Corolário. Se A ∈ Mn (C) e p1, . . . , pn > 0, então to<strong>do</strong>s os autovalores <strong>de</strong> A estão conti<strong>do</strong>s em<br />

Em particular,<br />

G D −1 AD ∩ G DA t D −1 =<br />

ρ (A) min<br />

3.4 Proprieda<strong>de</strong> FC<br />

p1,...,pn>0<br />

⎛<br />

∩<br />

⎝ max<br />

i=1,...,n<br />

n<br />

i=1<br />

n<br />

i=1<br />

1<br />

⎧<br />

⎪⎨<br />

|aij|<br />

z ∈ C : |z − aii| <br />

⎪⎩<br />

1<br />

pi<br />

⎧<br />

⎪⎨<br />

⎪⎩ z ∈ C : |z − aii| pj<br />

n<br />

n<br />

n<br />

j=1<br />

j=i<br />

n<br />

i=1<br />

i=j<br />

pj |aij|<br />

1<br />

|aij|<br />

pi<br />

pj |aij| , max<br />

pi<br />

j=1,...,n<br />

j=1<br />

pj |aij|<br />

pi<br />

i=1<br />

1<br />

⎞<br />

⎫<br />

⎪⎬<br />

⎪⎭<br />

⎫<br />

⎪⎬<br />

⎪⎭ .<br />

(3.13)<br />

⎠ . (3.14)<br />

Na nossa busca por proprieda<strong>de</strong>s para matrizes diagonalmente <strong>do</strong>minantes que garantirão a sua invertibilida<strong>de</strong>,<br />

uma observação fundamental é a <strong>de</strong> que se A é uma matriz diagonalmente <strong>do</strong>minante, então 0 não<br />

po<strong>de</strong> ser um ponto interior <strong>de</strong> nenhum disco <strong>de</strong> Gershgorin. De fato, se λ é um autovalor <strong>de</strong> A interior a<br />

algum disco <strong>de</strong> Gershgorin então <strong>de</strong>vemos ter <strong>de</strong>sigualda<strong>de</strong> estrita<br />

n<br />

|λ − aii| < Ri (A) = |aij|<br />

j=1<br />

j=i


Rodney Josué Biezuner 77<br />

para algum i. Se 0 é um autovalor <strong>de</strong> A interior a algum disco <strong>de</strong> Gershgorin, então<br />

|aii| <<br />

n<br />

j=1<br />

j=i<br />

para algum i e A não po<strong>de</strong> ser diagonalmente <strong>do</strong>minante na linha i.<br />

Uma condição equivalente para que um autovalor λ <strong>de</strong> A não seja um ponto interior <strong>de</strong> nenhum disco <strong>de</strong><br />

Gershgorin é que<br />

n<br />

|λ − aii| Ri (A) = |aij| para to<strong>do</strong> i = 1, . . . , n.<br />

j=1<br />

j=i<br />

Tais pontos λ na região <strong>de</strong> Gershgorin G (A) (não necessariamente autovalores <strong>de</strong> A) constituem precisamente<br />

a fronteira ∂G (A) da região <strong>de</strong> Gershgorin. Chamaremos a fronteira <strong>de</strong> um disco <strong>de</strong> Gershgorin<br />

{z ∈ C : |z − aii| = Ri (A)} um círculo <strong>de</strong> Gershgorin.<br />

3.5 Lema. Seja A ∈ Mn (C) e λ um autovalor <strong>de</strong> A que não é um ponto interior <strong>de</strong> nenhum disco <strong>de</strong><br />

Gershgorin. Seja x = (x1, . . . , xn) = 0 um autovetor associa<strong>do</strong> a λ e k um índice tal que<br />

Se i é qualquer índice tal que<br />

|aij|<br />

|xk| |xj| para j = 1, . . . , n.<br />

|xi| = |xk|<br />

então o i-ésimo círculo <strong>de</strong> Gershgorin passa por λ. Se, além disso,<br />

então<br />

aij = 0,<br />

|xj| = |xk|<br />

e o j-ésimo círculo <strong>de</strong> Gershgorin também passa por λ.<br />

Prova. Como na <strong>de</strong>monstração <strong>do</strong> Teorema <strong>de</strong> Gershgorin, temos<br />

|xi| |λ − aii| <br />

n<br />

n<br />

n<br />

|aijxj| = |aij| |xj| |xk| |aij| = |xk| Ri (A) (3.15)<br />

j=1<br />

j=k<br />

para to<strong>do</strong> índice i. Logo, se |xi| = |xk|, temos<br />

Como por hipótese<br />

para to<strong>do</strong> índice i, segue que<br />

j=1<br />

j=k<br />

|λ − aii| Ri (A) .<br />

|λ − aii| Ri (A)<br />

|λ − aii| = Ri (A) .<br />

Em geral, |xi| = |xk| implica que as <strong>de</strong>sigualda<strong>de</strong>s em (3.15) são i<strong>de</strong>ntida<strong>de</strong>s; em particular,<br />

n<br />

n<br />

|aij| |xj| = |xi|<br />

j=1<br />

j=k<br />

j=1<br />

j=k<br />

|aij|<br />

j=1<br />

j=k


Rodney Josué Biezuner 78<br />

<strong>do</strong>n<strong>de</strong><br />

n<br />

|aij| (|xi| − |xj|) = 0.<br />

j=1<br />

j=k<br />

Esta é uma soma <strong>de</strong> termos não-negativos, pois |xi| |xj|, logo se aij = 0 necessariamente <strong>de</strong>vemos ter<br />

|xj| = |xi| = |xk|. <br />

Este lema técnico tem as seguintes conseqüências úteis:<br />

3.6 Teorema. Seja A ∈ Mn (C) uma matriz cujas entradas são todas não-nulas e seja λ um autovalor <strong>de</strong><br />

A que não é um ponto interior <strong>de</strong> nenhum disco <strong>de</strong> Gershgorin. Então to<strong>do</strong> círculo <strong>de</strong> Gershgorin<br />

<strong>de</strong> A passa por λ (isto é, λ está na interseção <strong>de</strong> to<strong>do</strong>s os círculos <strong>de</strong> Gershgorin <strong>de</strong> A) e se x =<br />

(x1, . . . , xn) = 0 é um autovetor associa<strong>do</strong> a λ então<br />

Prova. Decorre diretamente <strong>do</strong> lema anterior. <br />

|xi| = |xj| para to<strong>do</strong>s i, j = 1, . . . , n.<br />

3.7 Corolário. Se A ∈ Mn (C) é uma matriz cujas entradas são todas não-nulas e diagonalmente <strong>do</strong>minante<br />

tal que |aii| > n<br />

|aij| para pelo menos alguma linha i, então A é invertível.<br />

j=1<br />

j=i<br />

Prova. Pois, como A é diagonalmente <strong>do</strong>minante, se 0 é um autovalor <strong>de</strong> A então 0 não po<strong>de</strong> ser um ponto<br />

interior <strong>de</strong> nenhum disco <strong>de</strong> Gershgorin. Por outro la<strong>do</strong>, pelo teorema anterior, segue que to<strong>do</strong> círculo <strong>de</strong><br />

Gershgorin passa por 0. Entretanto, o i-ésimo círculo <strong>de</strong> Gershgorin centra<strong>do</strong> em aii e com raio Ri < |aii|<br />

não po<strong>de</strong> passar por 0. Concluímos que 0 não é um autovalor <strong>de</strong> A, logo A é invertível. <br />

Na verda<strong>de</strong>, usan<strong>do</strong> com maior cuida<strong>do</strong> a informação dada pelo Lema 3.5 po<strong>de</strong>mos obter resulta<strong>do</strong>s ainda<br />

melhores:<br />

Definição. Dizemos que uma matriz A = (aij) ∈ Mn (C) satisfaz a proprieda<strong>de</strong> FC se para to<strong>do</strong> par <strong>de</strong><br />

inteiros distintos i, j existe uma seqüência <strong>de</strong> inteiros distintos i1 = i, i2, i3, . . . , im−1, im = j, com<br />

1 m n, tais que todas as entradas matriciais<br />

são não-nulas.<br />

ai1i2 , ai2i3 , . . . , aim−1im<br />

Por exemplo, a matriz diagonalmente <strong>do</strong>minante não-invertível<br />

⎡<br />

4<br />

⎣ 0<br />

2<br />

1<br />

1<br />

1<br />

⎤<br />

⎦ ,<br />

0 1 1<br />

já vista anteriormente, não satisfaz a proprieda<strong>de</strong> FC porque o par 2, 1 não admite tal seqüência (a única<br />

seqüência possível é a23, a31). Já qualquer par <strong>de</strong> inteiros distintos i, j tal que aij = 0 admite a seqüência<br />

trivial não-nula aij, <strong>de</strong> mo<strong>do</strong> que uma matriz cujas entradas não-diagonais são todas não-nulas satisfaz a<br />

proprieda<strong>de</strong> FC. O significa<strong>do</strong> da abreviatura “FC”, ou “fortemente conexo”, ficará claro mais adiante.<br />

3.8 Teorema. Seja A ∈ Mn (C) uma matriz que satisfaz a proprieda<strong>de</strong> FC e seja λ um autovalor <strong>de</strong> A que<br />

não é um ponto interior <strong>de</strong> nenhum disco <strong>de</strong> Gershgorin. Então to<strong>do</strong> círculo <strong>de</strong> Gershgorin <strong>de</strong> A passa<br />

por λ (isto é, λ está na interseção <strong>de</strong> to<strong>do</strong>s os círculos <strong>de</strong> Gershgorin <strong>de</strong> A) e se x = (x1, . . . , xn) = 0<br />

é um autovetor associa<strong>do</strong> a λ então<br />

|xi| = |xj| para to<strong>do</strong>s i, j = 1, . . . , n.


Rodney Josué Biezuner 79<br />

Prova. Seja x = (x1, . . . , xn) = 0 um autovetor associa<strong>do</strong> a λ e i um índice tal que<br />

Pelo Lema 3.5,<br />

|xi| |xk| para k = 1, . . . , n.<br />

|λ − aii| = Ri (A) .<br />

Seja j = i qualquer outro índice e i1 = i, i2, i3, . . . , im−1, im = j, com 1 m n, índices tais que todas as<br />

entradas matriciais<br />

aii2, ai2i3, . . . , aim−1j = 0.<br />

Como aii2 = 0, segue da segunda afirmativa <strong>do</strong> Lema 3.5 que |xi2| = |xi|. Mas então ai2i3 = 0 e portanto<br />

|xi3| = |xi2| = |xi|. Prosseguin<strong>do</strong> <strong>de</strong>sta forma, concluímos que<br />

|xi| = |xi2| = . . . <br />

xim−1<br />

= |xj| .<br />

Em particular, segue novamente <strong>do</strong> Lema 3.5 que o j-ésimo círculo <strong>de</strong> Gershgorin passa por λ. Como j é<br />

arbitrário, isso prova o teorema. <br />

3.9 Corolário. Se A ∈ Mn (C) é uma matriz que satisfaz a proprieda<strong>de</strong> FC e diagonalmente <strong>do</strong>minante tal<br />

que |aii| > n<br />

|aij| para pelo menos alguma linha i, então A é invertível.<br />

j=1<br />

j=i<br />

Prova. Segue <strong>do</strong> teorema anterior da mesma forma que o Corolário 3.7 segue <strong>do</strong> Teorema 3.6. <br />

Vamos tentar enten<strong>de</strong>r melhor o significa<strong>do</strong> da proprieda<strong>de</strong> FC. Note que ela se refere apenas à localização<br />

<strong>do</strong>s elementos não-nulos <strong>de</strong> A fora da diagonal principal – os elementos da diagonal principal e os valores<br />

específicos <strong>do</strong>s elementos fora da diagonal principal são irrelevantes. Isso motiva as seguintes <strong>de</strong>finições:<br />

Definição. Dada uma matriz A = (aij) ∈ Mn (C) <strong>de</strong>finimos o módulo da matriz A como sen<strong>do</strong> a matriz<br />

|A| = (|aij|)<br />

cujos elementos são os módulos <strong>do</strong>s elementos da matriz A e a matriz indica<strong>do</strong>ra <strong>de</strong> A como sen<strong>do</strong><br />

a matriz<br />

M (A) = (µij) ,<br />

on<strong>de</strong><br />

µij =<br />

1 se aij = 0,<br />

0 se aij = 0.<br />

O conceito <strong>de</strong> uma seqüência <strong>de</strong> entradas não-nulas da matriz A que aparece na <strong>de</strong>finição da proprieda<strong>de</strong><br />

FC po<strong>de</strong> ser visualiza<strong>do</strong> em termos <strong>de</strong> caminhos em um grafo associa<strong>do</strong> a A:<br />

Definição. Dada uma matriz A ∈ Mn (C), o grafo direciona<strong>do</strong> <strong>de</strong> A é o grafo direciona<strong>do</strong> Γ (A) com n<br />

no<strong>do</strong>s P1, . . . , Pn tais que existe um arco direciona<strong>do</strong> em Γ (A) <strong>de</strong> Pi a Pj se e somente se aij = 0.<br />

Um caminho direciona<strong>do</strong> γ em um grafo Γ é uma seqüência <strong>de</strong> arcos Pi1Pi2, Pi2Pi3, . . . em Γ. O<br />

comprimento <strong>de</strong> um caminho direciona<strong>do</strong> é o número <strong>de</strong> arcos sucessivos no caminho direciona<strong>do</strong>. Um<br />

ciclo é um caminho direciona<strong>do</strong> que começa e termina no mesmo nó.<br />

Dizemos que um grafo direciona<strong>do</strong> é fortemente conexo se entre qualquer par <strong>de</strong> no<strong>do</strong>s distintos<br />

Pi, Pj ∈ Γ existir um caminho direciona<strong>do</strong> <strong>de</strong> comprimento finito que começa em Pi e termina em Pj.<br />

Observe que quan<strong>do</strong> Γ é um grafo direciona<strong>do</strong> com n no<strong>do</strong>s, se existe um caminho direciona<strong>do</strong> entre <strong>do</strong>is<br />

no<strong>do</strong>s <strong>de</strong> Γ, então sempre existe um caminho direciona<strong>do</strong> entre estes <strong>do</strong>is no<strong>do</strong>s <strong>de</strong> comprimento menor que<br />

ou igual a n − 1.


Rodney Josué Biezuner 80<br />

3.10 Teorema. A ∈ Mn (C) satisfaz a proprieda<strong>de</strong> FC se e somente se Γ (A) é fortemente conexo.<br />

Verificar a proprieda<strong>de</strong> FC a partir <strong>do</strong> grafo direciona<strong>do</strong> <strong>de</strong> A po<strong>de</strong> ser impraticável se o tamanho da<br />

matriz for muito gran<strong>de</strong>. Existe um méto<strong>do</strong> computacional mais explícito para fazê-lo:<br />

3.11 Teorema. Sejam A ∈ Mn (C) e Pi, Pj no<strong>do</strong>s <strong>de</strong> Γ (A). Existe um caminho direciona<strong>do</strong> <strong>de</strong> comprimento<br />

m em Γ (A) <strong>de</strong> Pi para Pj se e somente se<br />

ou, equivalentemente, se e somente se<br />

(|A| m ) ij = 0<br />

[M (A) m ] ij = 0.<br />

Prova. Provaremos o teorema por indução. Para m = 1 a afirmativa é trivial. Para m = 2, temos<br />

<strong>de</strong> mo<strong>do</strong> que<br />

<br />

|A| 2<br />

ij<br />

<br />

|A| 2<br />

ij<br />

=<br />

n<br />

k=1<br />

(|A|) ik (|A|) kj =<br />

n<br />

k=1<br />

|aik| |akj| ,<br />

= 0 se e somente se aik, akj são ambos não-nulos para algum índice k. Mas isso é<br />

equivalente a dizer que existe um caminho direciona<strong>do</strong> <strong>de</strong> comprimento 2 em Γ (A) <strong>de</strong> Pi para Pj.<br />

Em geral, supon<strong>do</strong> a afirmativa provada para m, temos<br />

<br />

|A| m+1<br />

ij<br />

=<br />

n<br />

k=1<br />

(|A| m ) ik (|A|) kj =<br />

n<br />

(|A| m ) ik<br />

|akj| = 0<br />

se e somente se (|A| m ) ik , akj são ambos não-nulos para algum índice k. Por hipótese <strong>de</strong> indução, isso é<br />

equivalente a existir um caminho direciona<strong>do</strong> <strong>de</strong> comprimento m em Γ (A) <strong>de</strong> Pi para Pk e um caminho<br />

direciona<strong>do</strong> <strong>de</strong> comprimento 1 em Γ (A) <strong>de</strong> Pk para Pj, isto é, um caminho direciona<strong>do</strong> <strong>de</strong> comprimento<br />

m + 1 em Γ (A) <strong>de</strong> Pi para Pj. O mesmo argumento vale para M (A). <br />

Definição. Seja A = (aij) ∈ Mn (C). Dizemos que A 0 se aij 0 para to<strong>do</strong>s 1 i, j n e que A > 0 se<br />

aij > 0 para to<strong>do</strong>s 1 i, j n.<br />

3.12 Corolário. Seja A ∈ Mn (C). Existe um caminho direciona<strong>do</strong> <strong>de</strong> comprimento m em Γ (A) <strong>de</strong> cada<br />

no<strong>do</strong> Pi para cada no<strong>do</strong> Pj se e somente se<br />

ou, equivalentemente, se e somente se<br />

|A| m > 0<br />

M (A) m > 0.<br />

3.13 Corolário. Seja A ∈ Mn (C). A satisfaz a proprieda<strong>de</strong> FC se e somente se<br />

ou, equivalentemente, se e somente se<br />

k=1<br />

(I + |A|) n−1 > 0<br />

[I + M (A)] n−1 > 0.<br />

Prova. Temos<br />

(I + |A|) n−1 <br />

n − 1<br />

= I + (n − 1) |A| + |A|<br />

2<br />

2 <br />

n − 1<br />

+ . . . + |A|<br />

n − 3<br />

n−1 + |A| n−1 > 0


Rodney Josué Biezuner 81<br />

se e somente se para cada par <strong>de</strong> índices i, j com i = j pelo menos um <strong>do</strong>s termos |A| , |A| 2 , . . . , |A| n−1<br />

tem uma entrada positiva em (i, j). Pelo Teorema 3.11, isso ocorre se e somente se existe algum caminho<br />

direciona<strong>do</strong> em Γ (A) <strong>de</strong> Pi para Pj com comprimento n−1. Isto é equivalente a A satisfazer a proprieda<strong>de</strong><br />

FC. O mesmo argumento vale para M (A). <br />

Em geral, a maneira como uma matriz foi obtida (como as nossas matrizes <strong>de</strong> discretização; veja a última<br />

seção <strong>do</strong> capítulo) torna clara se elas são matrizes que satisfazem a proprieda<strong>de</strong> FC ou não. Se isso<br />

não é possível, e preten<strong>de</strong>-se verificar a proprieda<strong>de</strong> FC através <strong>do</strong> Corolário 3.13, é preferível calcular<br />

[I + M (A)] n−1 , já que M (A) é uma matriz composta apenas <strong>de</strong> 0’s e 1’s.<br />

3.5 Matrizes Irredutíveis<br />

Lembre-se que uma matriz <strong>de</strong> permutação P é uma matriz quadrada cujas entradas são todas 0 ou 1 e,<br />

além disso, em cada linha e em cada coluna <strong>de</strong> P existe exatamente um 1. Em particular, P é uma matriz<br />

ortogonal, <strong>de</strong> mo<strong>do</strong> que P −1 = P t , isto é, a inversa <strong>de</strong> P também é uma matriz <strong>de</strong> permutação. Um caso<br />

especial <strong>de</strong> uma matriz <strong>de</strong> permutação é uma matriz <strong>de</strong> transposição, que é uma matriz <strong>de</strong> permutação T<br />

igual à matriz i<strong>de</strong>ntida<strong>de</strong> exceto em duas posições, isto é, para algum par <strong>de</strong> índices fixa<strong>do</strong> k, l temos<br />

⎧<br />

⎨ δij se (i, j) = (k, l) , (l, k) , (k, k) ou (l, l) ,<br />

Tij = 1 e (i, j) = (k, l) ou se (i, j) = (l, k) ,<br />

⎩<br />

0 se (i, j) = (k, k) ou se (i, j) = (l, l) .<br />

Matrizes <strong>de</strong> transposição são simétricas. O efeito <strong>de</strong> multiplicar uma matriz A por uma matriz <strong>de</strong> transposição<br />

à esquerda é trocar a posição <strong>de</strong> duas linhas da matriz A (no caso acima, as linhas k e l), enquanto que a<br />

multiplicação <strong>de</strong> A por uma matriz <strong>de</strong> transposição à direita muda a posição <strong>de</strong> duas colunas <strong>de</strong> A (no caso<br />

acima, as colunas k e l).<br />

T A =<br />

AT =<br />

⎡<br />

⎢<br />

⎣<br />

⎡<br />

⎢<br />

⎣<br />

1 0 0 0<br />

0 0 1 0<br />

0 1 0 0<br />

0 0 0 1<br />

⎤ ⎡<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎦ ⎣<br />

a11 a12 a13 a14<br />

a21 a22 a23 a24<br />

a31 a32 a33 a34<br />

a41 a42 a43 a44<br />

a11 a12 a13 a14<br />

a21 a22 a23 a24<br />

a31 a32 a33 a34<br />

a41 a42 a43 a44<br />

⎤ ⎡<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎦ ⎣<br />

1 0 0 0<br />

0 0 1 0<br />

0 1 0 0<br />

0 0 0 1<br />

⎤<br />

⎡<br />

⎥<br />

⎦ =<br />

⎢<br />

⎣<br />

⎤<br />

⎥<br />

⎦ =<br />

⎡<br />

⎢<br />

⎣<br />

a11 a12 a13 a14<br />

a31 a32 a33 a34<br />

a21 a22 a23 a24<br />

a41 a42 a43 a44<br />

a11 a13 a12 a14<br />

a21 a23 a22 a24<br />

a31 a33 a32 a34<br />

a41 a43 a42 a44<br />

Po<strong>de</strong>-se provar que toda matriz <strong>de</strong> permutação P é o produto <strong>de</strong> matrizes <strong>de</strong> transposição P = T1 . . . Tm;<br />

em particular, P t = Tm . . . T1. A matriz<br />

P t AP = Tm . . . T1AT1 . . . Tm<br />

é portanto obtida através da permutação <strong>de</strong> linhas e colunas <strong>de</strong> A, <strong>de</strong> mo<strong>do</strong> que nenhum novo elemento é<br />

cria<strong>do</strong> ou algum elemento existente <strong>de</strong> A <strong>de</strong>struí<strong>do</strong>.<br />

Definição. Dizemos que uma matriz A ∈ Mn (C) é redutível se existe alguma matriz <strong>de</strong> permutação P e<br />

algum inteiro 1 m n − 1 tal que<br />

P t <br />

B<br />

AP =<br />

0<br />

C<br />

D<br />

<br />

on<strong>de</strong> B é uma matriz m × m, D é uma matriz (n − m) × (n − m), C é uma matriz m × (n − m) e 0 é<br />

a matriz nula (n − m) × m. Caso contrário, dizemos que A é irredutível.<br />

⎤<br />

⎥<br />

⎦ ,<br />

⎤<br />

⎥<br />

⎦ .


Rodney Josué Biezuner 82<br />

Da <strong>de</strong>finição vemos que se |A| > 0, então A é irredutível, e para que A seja redutível, ela precisa ter pelo<br />

menos n − 1 zeros (caso m = 1). A motivação para este nome é a seguinte. Suponha que queiramos resolver<br />

o sistema Ax = b e que A seja redutível. Então, se escrevermos<br />

A = P t AP =<br />

B C<br />

0 D<br />

teremos Ax = P AP t x = b ou AP t x = P t b; <strong>de</strong>notan<strong>do</strong> x = P t x e b = P t b, resolver o sistema Ax = b é então<br />

equivalente a resolver o sistema<br />

Ax = b.<br />

Escreven<strong>do</strong><br />

x =<br />

y<br />

z<br />

<br />

b1<br />

, b =<br />

b2<br />

on<strong>de</strong> y, b1 ∈ C m e z, b2 ∈ C n−m , este sistema é por sua vez equivalente ao sistema<br />

By + Cz = b1<br />

Dz = b2<br />

Se resolvermos primeiro Dz = b2 e utilizarmos o valor <strong>de</strong> z encontra<strong>do</strong> na primeira equação resolven<strong>do</strong><br />

By = b1 − Cz, teremos reduzi<strong>do</strong> o problema original a <strong>do</strong>is problemas menores, mais fáceis <strong>de</strong> resolver.<br />

3.14 Teorema. Uma matriz A ∈ Mn (C) é irredutível se e somente se<br />

ou, equivalentemente, se e somente se<br />

(I + |A|) n−1 > 0<br />

<br />

,<br />

<br />

[I + M (A)] n−1 > 0.<br />

Prova. Para provar o resulta<strong>do</strong>, mostraremos que A é redutível se e somente se (I + |A|) n−1 possui pelo<br />

menos uma entrada nula.<br />

Assuma primeiramente que A é redutível, <strong>de</strong> mo<strong>do</strong> que para alguma matriz <strong>de</strong> permutação P tenhamos<br />

Observe que<br />

A = P<br />

B C<br />

0 D<br />

<br />

P t =: P AP t .<br />

|A| = P AP t = P A P t ,<br />

já que o efeito <strong>de</strong> P é apenas trocar linhas e colunas. Além disso, note que<br />

A k <br />

k B<br />

=<br />

0<br />

Ck<br />

Dk <br />

para alguma matriz Ck. Logo, como<br />

(I + |A|) n−1 = I + P A t<br />

P n−1 n−1 = P I + A t<br />

P<br />

<br />

<br />

n − 1<br />

= P I + (n − 1) |A| + |A|<br />

2<br />

2 <br />

n − 1<br />

+ . . . + |A|<br />

n − 3<br />

n−1 + |A| n−1<br />

<br />

P t<br />

e to<strong>do</strong>s os termos <strong>de</strong>ntro <strong>do</strong>s colchetes são matrizes que tem um bloco (n − m) × m nulo no canto esquer<strong>do</strong><br />

inferior, segue que (I + |A|) n−1 é redutível, logo possui entradas nulas e não po<strong>de</strong> ser positiva.


Rodney Josué Biezuner 83<br />

Reciprocamente, suponha que (I + |A|) n−1 possui pelo menos uma entrada nula. Como<br />

(I + |A|) n−1 = I +<br />

n−1 <br />

m=1<br />

n − 1<br />

m<br />

<br />

|A| m ,<br />

(I + |A|) n−1 <br />

não possui entradas diagonais nulas, logo po<strong>de</strong>mos assumir que para algum par i = j temos<br />

(I + |A|) n−1<br />

= 0, o que implica [|A| m ] ij = 0 para to<strong>do</strong> 1 m n − 1. Pelo Teorema 3.11 (e observação<br />

ij<br />

imediatamente posterior à <strong>de</strong>finição <strong>de</strong> grafo direciona<strong>do</strong>), não existe um caminho direciona<strong>do</strong> em Γ (A) <strong>de</strong><br />

comprimento finito entre Pi e Pj. Defina os conjuntos <strong>de</strong> no<strong>do</strong>s<br />

S1 := {Pk : Pk = Pj ou existe um caminho direciona<strong>do</strong> em Γ (A) entre Pk e Pj} ,<br />

S2 = [ no<strong>do</strong>s <strong>de</strong> Γ (A)] \S1.<br />

Por <strong>de</strong>finição <strong>de</strong>stes conjuntos, não po<strong>de</strong> existir nenhum caminho <strong>de</strong> algum no<strong>do</strong> <strong>de</strong> S2 para algum no<strong>do</strong> <strong>de</strong><br />

S1, logo [|A| m ] lk = 0 se Pl ∈ S2 e Pk ∈ S1. E ambos os conjuntos são não-vazios, pois Pj ∈ S1 e Pi ∈ S2.<br />

Renomean<strong>do</strong> os no<strong>do</strong>s <strong>de</strong> mo<strong>do</strong> que<br />

<br />

S1 = P1, . . . , <br />

Pm ,<br />

<br />

S2 = Pm+1, . . . , <br />

Pn ,<br />

segue que existe uma matriz <strong>de</strong> permutação P tal que<br />

P t <br />

B C<br />

AP =<br />

0 D<br />

De fato, P é justamente a matriz <strong>de</strong> permutação que troca as colunas <strong>de</strong> tal forma que as variáveis anteriores<br />

correspon<strong>de</strong>ntes aos no<strong>do</strong>s P1, . . . , Pm no sistema Ax = b são as novas m primeiras variáveis <strong>do</strong> sistema linear<br />

Ax = b; como não existe nenhum caminho direciona<strong>do</strong> entre nenhum <strong>do</strong>s no<strong>do</strong>s Pm+1, . . . , Pn e qualquer um<br />

<strong>do</strong>s no<strong>do</strong>s P1, . . . , Pm, temos aij = 0 para m + 1 i n e 1 j m pelo Teorema 3.11. <br />

3.15 Corolário. Uma matriz A ∈ Mn (C) é irredutível se e somente se ela satisfaz a proprieda<strong>de</strong> FC.<br />

3.16 Proposição. Se A é uma matriz irredutível, diagonalmente <strong>do</strong>minante tal que |aii| > n<br />

|aij| para<br />

pelo menos alguma linha i, então A é invertível.<br />

Além disso, se A é hermitiana e to<strong>do</strong>s os elementos da diagonal principal <strong>de</strong> A são positivos, então<br />

to<strong>do</strong>s os autovalores <strong>de</strong> A são positivos.<br />

Prova. O resulta<strong>do</strong> segue <strong>do</strong> Teorema 3.14, <strong>do</strong> Corolário 3.9 e <strong>do</strong> Teorema <strong>do</strong>s Discos <strong>de</strong> Gershgorin (veja<br />

comentários após o Teorema 3.2). <br />

3.6 Invertibilida<strong>de</strong> <strong>de</strong> Matrizes <strong>de</strong> Discretização<br />

Os resulta<strong>do</strong>s obti<strong>do</strong>s nas seções anteriores fornecem uma <strong>de</strong>monstração alternativa <strong>de</strong> que as matrizes<br />

<strong>de</strong> discretização <strong>do</strong> capítulo anterior (tanto no caso unidimensional, quanto no caso bidimensional) são<br />

invertíveis, sem a necessida<strong>de</strong> <strong>de</strong> se calcular os seus autovalores.<br />

<br />

.<br />

j=1<br />

j=i


Rodney Josué Biezuner 84<br />

3.6.1 Esquemas <strong>de</strong> Diferenças Finitas para o Intervalo e para o Retângulo<br />

É fácil ver que todas as matrizes <strong>de</strong> discretização obtidas no capítulo anterior para o intervalo e para o<br />

retângulo (isto é, os esquemas unidimensionais <strong>de</strong> três pontos e cinco pontos, e os esquemas bidimensionais<br />

<strong>de</strong> cinco e nove pontos, compacto ou não-compacto) são matrizes diagonalmente <strong>do</strong>minantes com <strong>do</strong>minância<br />

diagonal estrita nas linhas correspon<strong>de</strong>ntes a pontos adjacentes à fronteira. Além disso, elas são matrizes<br />

irredutíveis porque elas satisfazem a proprieda<strong>de</strong> FC. De fato, cada índice i da matriz correspon<strong>de</strong> a um<br />

ponto interior Pi da malha e aij = 0 sempre que Pi e Pj são pontos vizinhos naqueles esquemas. Então,<br />

da<strong>do</strong>s <strong>do</strong>is pontos distintos Pi, Pj é fácil encontrar uma seqüência <strong>de</strong> índices i1 = i, i2, i3, . . . , im−1, im = j,<br />

com 1 m n, tais que todas as entradas matriciais<br />

ai1i2 , ai2i3 , . . . , aim−1im<br />

são não-nulas: no caso unidimensional, basta percorrer a malha diretamente <strong>de</strong> Pi até Pj (andan<strong>do</strong> a partir<br />

<strong>de</strong> Pi sempre para a direita ou sempre para a esquerda, conforme o caso, até encontrar Pj), e no caso<br />

bidimensional basta usar qualquer caminho interior <strong>de</strong> Pi até Pj (po<strong>de</strong>-se usar a or<strong>de</strong>m lexicográfica para<br />

percorrer a malha, ou a or<strong>de</strong>m lexicográfica inversa, <strong>de</strong>pen<strong>de</strong>n<strong>do</strong> das posições relativas <strong>de</strong> Pi e Pj; no entanto,<br />

estes caminhos são mais longos que o necessário). Em outras palavras, i<strong>de</strong>ntifican<strong>do</strong> as malhas <strong>de</strong> pontos<br />

internos com os grafos direciona<strong>do</strong>s da matriz <strong>de</strong> discretização, <strong>de</strong> mo<strong>do</strong> que existe um arco direciona<strong>do</strong> entre<br />

<strong>do</strong>is pontos da malha se e somente se eles são vizinhos, os esquemas <strong>de</strong> discretização consi<strong>de</strong>ra<strong>do</strong>s garantem<br />

que estes grafos são fortemente conexos.<br />

As matrizes obtidas através <strong>de</strong> diferenças finitas em geral são irredutíveis, pois elas satisfazem a proprieda<strong>de</strong><br />

FC. É difícil imaginar um esquema <strong>de</strong> diferenças finitas para uma malha sobre um <strong>do</strong>mínio conexo<br />

em que não houvesse um caminho direciona<strong>do</strong> entre pontos vizinhos (isto é, em que tivéssemos aij = 0<br />

para <strong>do</strong>is pontos vizinhos Pi e Pj). Outra maneira <strong>de</strong> pensar sobre isso é observar que se uma matriz <strong>de</strong><br />

discretização fôsse (após permutação <strong>de</strong> linhas e colunas) da forma<br />

<br />

B C<br />

,<br />

0 D<br />

isso implicaria que um conjunto <strong>de</strong> pontos da malha (os correspon<strong>de</strong>ntes ao bloco D) teriam diferenças<br />

finitas in<strong>de</strong>pen<strong>de</strong>ntes <strong>do</strong> conjunto <strong>do</strong>s pontos restantes da malha (os correspon<strong>de</strong>ntes ao bloco D); pior<br />

ainda, estes últimos po<strong>de</strong>riam ter diferenças finitas <strong>de</strong>pen<strong>de</strong>ntes <strong>do</strong>s primeiros (já que o bloco C po<strong>de</strong>ria<br />

ser não-nulo). Em última análise, seria possível reduzir o problema <strong>de</strong> resolver o sistema linear associa<strong>do</strong> à<br />

discretização a <strong>do</strong>is problemas mais simples.<br />

É difícil imaginar um esquema <strong>de</strong> diferenças finitas com esta<br />

proprieda<strong>de</strong>, embora talvez possa ocorrer em algum <strong>do</strong>mínio com geometria altamente irregular em que a<br />

malha <strong>de</strong> pontos interiores se dividisse em essencialmente duas malhas in<strong>de</strong>pen<strong>de</strong>ntes. Tal situação <strong>de</strong>ve ser<br />

evitada com cuida<strong>do</strong> na hora <strong>de</strong> discretizar tais regiões.<br />

3.6.2 Esquema <strong>de</strong> Coor<strong>de</strong>nadas Polares<br />

As mesmas observações anteriores valem para a matriz <strong>de</strong> discretização obtida através <strong>do</strong> esquema <strong>de</strong> coor<strong>de</strong>nadas<br />

polares <strong>do</strong> capítulo anterior, isto é, ela satisfaz a proprieda<strong>de</strong> FC. Para verificar que ela é diagonalmente<br />

<strong>do</strong>minante, note que para todas as linhas, exceto a primeira que <strong>de</strong>ve ser tratada separadamente, temos<br />

|aii| = γi = 1<br />

ri<br />

r i+1/2 + r i−1/2<br />

∆r 2<br />

+ 2<br />

r 2 i<br />

1<br />

.<br />

∆θ2 Além disso, para todas as linhas, excetuan<strong>do</strong> a primeira e as linhas correspon<strong>de</strong>ntes a pontos adjacentes à<br />

fronteira <strong>do</strong> disco temos<br />

n<br />

j=1<br />

j=i<br />

|aij| = αi + βi + 2δi = 1<br />

∆r2 ri−1/2 +<br />

ri<br />

1<br />

∆r2 ri+1/2 +<br />

ri<br />

2<br />

r2 i<br />

1<br />

∆θ 2 = |aii| .


Rodney Josué Biezuner 85<br />

Nestas linhas existe <strong>do</strong>minância diagonal, enquanto que nas linhas correspon<strong>de</strong>ntes a pontos adjacentes à<br />

fronteira <strong>do</strong> disco temos<br />

(n−1)×m+1 <br />

j=1<br />

j=i<br />

|aij| = αi + 2δi < |aii| ,<br />

isto é, temos <strong>do</strong>minância diagonal estrita. Finalmente, para a primeira linha também temos <strong>do</strong>minância<br />

diagonal, pois<br />

(n−1)×m+1 <br />

j=1<br />

j=0<br />

|a00| = 4<br />

,<br />

∆r2 |a0j| = m 2<br />

π<br />

3.6.3 Esquema <strong>de</strong> Shortley-Weller<br />

∆θ m<br />

= 4<br />

∆r2 2π<br />

∆θ 4<br />

=<br />

∆r2 ∆r2 = |a00| .<br />

Se a geometria é razoavelmente regular, o esquema <strong>de</strong> Shortley-Weller para o problema <strong>de</strong> Dirichlet <strong>de</strong>ve<br />

satisfazer a proprieda<strong>de</strong> FC : aij = 0 sempre que Pi e Pj são pontos internos vizinhos, e se a geometria não é<br />

altamente irregular (por exemplo, se o <strong>do</strong>mínio é “razoavelmente” convexo) existe um caminho direciona<strong>do</strong> <strong>de</strong><br />

um ponto interno arbitrário a qualquer outro ponto interno da malha passan<strong>do</strong> apenas por pontos internos <strong>do</strong><br />

<strong>do</strong>mínio. Caso contrário, a matriz <strong>de</strong> discretização obtida po<strong>de</strong> <strong>de</strong>ixar <strong>de</strong> ser irredutível, mas isso <strong>de</strong>ve ocorrer<br />

apenas <strong>de</strong>vi<strong>do</strong> à quebra da malha <strong>de</strong> pontos internos em várias submalhas <strong>de</strong>sconexas, e cada submalha por<br />

si só <strong>de</strong>ve ser fortemente conexa. Portanto, a matriz <strong>de</strong> discretização total <strong>de</strong>ve ser uma matriz em blocos,<br />

cada bloco satisfazen<strong>do</strong> a proprieda<strong>de</strong> FC, logo a matriz é invertível.


Capítulo 4<br />

Méto<strong>do</strong>s Iterativos para a Resolução<br />

<strong>de</strong> Sistemas Lineares<br />

Neste capítulo investigaremos méto<strong>do</strong>s iterativos para a resolução <strong>de</strong> sistemas lineares<br />

Ax = b.<br />

Embora a matriz A que temos em mente é em geral uma matriz gran<strong>de</strong> e esparsa, <strong>do</strong> tipo que aparece<br />

em esquemas <strong>de</strong> diferenças finitas, os méto<strong>do</strong>s consi<strong>de</strong>ra<strong>do</strong>s aqui requerem apenas que A seja uma matriz<br />

invertível com todas as entradas diagonais aii não-nulas.<br />

Méto<strong>do</strong>s iterativos requerem um chute inicial x 0 , um vetor inicial que aproxima a solução exata x (se<br />

não há nenhuma informação disponível sobre a solução exata, <strong>de</strong> mo<strong>do</strong> que não temos como construir o<br />

chute inicial <strong>de</strong> forma inteligente, x 0 po<strong>de</strong> ser uma aproximação muito ruim <strong>de</strong> x). Uma vez que x 0 é da<strong>do</strong>,<br />

o méto<strong>do</strong> iterativo gera a partir <strong>de</strong> x 0 uma nova aproximação x 1 , que esperamos <strong>de</strong>ve aproximar melhor a<br />

solução exata. Em seguida, x 1 é usada para gerar uma nova melhor aproximação x 2 e assim por diante.<br />

Desta forma, gera-se uma seqüência <strong>de</strong> vetores x k que espera-se convergir para x. Como na prática não<br />

po<strong>de</strong>mos iterar para sempre, algum critério <strong>de</strong> parada <strong>de</strong>ve ser estabeleci<strong>do</strong> a priori. Uma vez que x k esteja<br />

suficientemente próximo da solução exata quanto se precise, <strong>de</strong> acor<strong>do</strong> com uma margem <strong>de</strong> tolerância aceita,<br />

pára-se o processo <strong>de</strong> iteração e aceita-se x k como a solução aproximada a<strong>de</strong>quada para o problema. Por<br />

exemplo, o critério <strong>de</strong> parada po<strong>de</strong> ser estabeleci<strong>do</strong> através <strong>de</strong> uma cota <strong>de</strong> tolerância τ: quan<strong>do</strong><br />

<br />

b − Ax k < τ<br />

ou quan<strong>do</strong> x k+1 − x k < τ<br />

as iterações são interrompidas e o último valor aproxima<strong>do</strong> obti<strong>do</strong> é aceito como a melhor aproximação da<br />

solução <strong>de</strong>ntro das circunstâncias.<br />

Os méto<strong>do</strong>s discuti<strong>do</strong>s neste capítulo não necessitam <strong>de</strong> um bom chute inicial (embora, é claro, quanto<br />

melhor o chute inicial, menor o número <strong>de</strong> iterações necessárias para se chegar à solução aproximada com a<br />

precisão especificada).<br />

4.1 Méto<strong>do</strong>s Iterativos Lineares<br />

Nesta seção apresentamos alguns exemplos clássicos <strong>de</strong> méto<strong>do</strong>s iterativos lineares. Na próxima seção daremos<br />

condições necessárias e suficientes para estabelecer a sua convergência.<br />

86


Rodney Josué Biezuner 87<br />

4.1.1 Méto<strong>do</strong> <strong>de</strong> Jacobi<br />

O primeiro méto<strong>do</strong> iterativo (que já foi <strong>de</strong>scrito como o mais lento para convergir, embora isso realmente<br />

<strong>de</strong>pen<strong>de</strong> da matriz A <strong>do</strong> sistema) é o algoritmo <strong>de</strong> Jacobi. Escreven<strong>do</strong> o sistema Ax = b na forma<br />

⎧ n<br />

⎪⎨<br />

⎪⎩<br />

a1jxj = b1<br />

j=1<br />

n<br />

.<br />

.<br />

anjxj = bn<br />

j=1<br />

se aii = 0 para to<strong>do</strong> i, cada xi po<strong>de</strong> ser isola<strong>do</strong> na i-ésima equação e escrito na forma<br />

xi = 1<br />

⎛<br />

⎜<br />

⎝bi ⎞<br />

n ⎟<br />

− aijxj ⎟<br />

⎠ .<br />

aii<br />

Isso sugere <strong>de</strong>finir um méto<strong>do</strong> iterativo da seguinte forma: suposto xk = xk 1, . . . , xk anterior, obtemos x<br />

<br />

n obti<strong>do</strong> no passo<br />

k+1 = x k+1<br />

1 , . . . , xk+1 <br />

n por<br />

x k+1<br />

⎛<br />

1 ⎜<br />

i = ⎜<br />

aii<br />

⎝bi n<br />

− aijx k ⎞<br />

⎟<br />

j ⎠ . (4.1)<br />

No caso da fórmula <strong>de</strong> cinco pontos para o problema <strong>de</strong> Poisson com ∆x = ∆y, como a equação para<br />

cada ponto (i, j) é dada por<br />

j=1<br />

j=i<br />

j=1<br />

j=i<br />

−ui,j−1 − ui,j+1 + 4ui,j − ui−1,j − ui+1,j = ∆x 2 fi,j<br />

o méto<strong>do</strong> <strong>de</strong> Jacobi é<br />

u k+1 1 k<br />

i,j = ui,j−1 + u<br />

4<br />

k i,j+1 + u k i−1,j + u k i+1,j + ∆x 2 <br />

fi,j . (4.2)<br />

No caso especial da equação <strong>de</strong> Laplace (f = 0) com condição <strong>de</strong> fronteira <strong>de</strong> Dirichlet não-nula, o méto<strong>do</strong><br />

<strong>de</strong> Jacobi é simplesmente a proprieda<strong>de</strong> <strong>do</strong> valor médio discreta<br />

u k+1<br />

i,j<br />

,<br />

1 k<br />

= ui,j−1 + u<br />

4<br />

k i,j+1 + u k i−1,j + u k <br />

i+1,j . (4.3)<br />

Em outras palavras, calcula<strong>do</strong>s os valores <strong>de</strong> u em to<strong>do</strong>s os pontos da malha na iteração anterior, o novo<br />

valor <strong>de</strong> u em um ponto interior da malha nesta iteração é calcula<strong>do</strong> através da média <strong>do</strong>s seus quatro<br />

pontos vizinhos. Os valores iniciais <strong>de</strong> u nos pontos interiores da malha para a primeira iteração (isto é, o<br />

chute inicial) po<strong>de</strong>m ser atribui<strong>do</strong>s arbitrariamente ou através <strong>de</strong> algum argumento razoável; por exemplo,<br />

po<strong>de</strong>mos utilizar uma média pon<strong>de</strong>rada <strong>do</strong>s valores <strong>de</strong> fronteira para o valor inicial em cada ponto interior<br />

da malha, <strong>de</strong> acor<strong>do</strong> com a posição <strong>do</strong> ponto em relação aos pontos das quatro fronteiras discretizadas.<br />

Em forma matricial, o algoritmo <strong>de</strong> Jacobi po<strong>de</strong> ser <strong>de</strong>scrito da seguinte forma. Denotan<strong>do</strong> por D = diag<br />

(a11, . . . , ann) a matriz diagonal cujas entradas são as entradas diagonais <strong>de</strong> A, temos que<br />

x k+1 = D −1 (D − A) x k + b <br />

(4.4)<br />

ou<br />

x k+1 = D −1 Cx k + b <br />

on<strong>de</strong> C = D − A é a matriz consistin<strong>do</strong> <strong>do</strong>s elementos restantes <strong>de</strong> A fora da diagonal principal.<br />

(4.5)


Rodney Josué Biezuner 88<br />

4.1.2 Méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l<br />

Um méto<strong>do</strong> iterativo que converge cerca <strong>de</strong> duas vezes mais rápi<strong>do</strong> que o méto<strong>do</strong> <strong>de</strong> Jacobi (pelo menos em<br />

várias aplicações) é o méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l, on<strong>de</strong> os valores <strong>de</strong> x são atualiza<strong>do</strong>s <strong>de</strong>ntro <strong>de</strong> cada iteração,<br />

sem esperar pela próxima. Em outras palavras, obti<strong>do</strong> o valor <strong>de</strong> x k+1<br />

l este é usa<strong>do</strong> no lugar <strong>de</strong> xk l no cálculo<br />

seguinte. No sistema Ax = b em que aii = 0 para to<strong>do</strong> i, como antes isolamos cada xi na i-ésima equação<br />

mas <strong>de</strong>sta vez escrevemos<br />

xi = 1<br />

⎛<br />

⎞<br />

i−1<br />

⎝bi − aijxj +<br />

n<br />

⎠ .<br />

Então <strong>de</strong>finimos<br />

pois os valores x k+1<br />

1<br />

x k+1<br />

i<br />

aii<br />

⎛<br />

1<br />

=<br />

aii<br />

j=1<br />

i−1<br />

⎝bi −<br />

j=1<br />

aijx k+1<br />

j<br />

j=i+1<br />

+<br />

aijxj<br />

n<br />

j=i+1<br />

aijx k j<br />

⎞<br />

⎠ (4.6)<br />

, . . . , x k+1<br />

i−1 já foram computa<strong>do</strong>s nesta iteração, enquanto que os valores xk i+1 , . . . , xk n são<br />

forneci<strong>do</strong>s pela iteração anterior.<br />

Por exemplo, no caso da equação <strong>de</strong> Laplace, po<strong>de</strong>ríamos utilizar a fórmula<br />

u k+1<br />

i,j<br />

1 k+1<br />

= ui,j−1 4<br />

+ uki,j+1 + u k+1<br />

i−1,j + uk <br />

i+1,j<br />

assumin<strong>do</strong> que os pontos da malha são percorri<strong>do</strong>s na or<strong>de</strong>m lexicográfica, <strong>de</strong> mo<strong>do</strong> que quan<strong>do</strong> vamos<br />

calcular o valor <strong>de</strong> u no ponto i, j na iteração k + 1, nesta mesma iteração já calculamos os valores <strong>de</strong> u em<br />

i − 1, j e em i, j − 1, e usamos estes valores para calcular u k+1<br />

i,j ao invés <strong>do</strong>s valores uk i,j−1 e uki−1,j obti<strong>do</strong>s<br />

na iteração anterior.<br />

Em forma matricial, o algoritmo <strong>de</strong> Jacobi po<strong>de</strong> ser <strong>de</strong>scrito da seguinte forma. Dada uma matriz A,<br />

existe uma única <strong>de</strong>composição<br />

A = D − L − U (4.8)<br />

on<strong>de</strong> D é uma matriz diagonal, L é uma matriz estritamente triangular inferior e U é uma matriz estritamente<br />

triangular superior; <strong>de</strong> fato, D = diag (a11, . . . , ann) é a parte diagonal <strong>de</strong> A, −L é a parte estritamente<br />

triangular inferior <strong>de</strong> A e −U é a parte estritamente triangular superior <strong>de</strong> A. Então o algoritmo <strong>de</strong> Jacobi<br />

po<strong>de</strong> ser <strong>de</strong>fini<strong>do</strong> por<br />

x k+1 = D −1 Lx k+1 + Ux k + b <br />

(4.9)<br />

ou<br />

<strong>do</strong>n<strong>de</strong><br />

(D − L) x k+1 = Ux k + b,<br />

(4.7)<br />

x k+1 = (D − L) −1 Ux k + b . (4.10)<br />

É importante ressaltar que existem matrizes para as quais o méto<strong>do</strong> <strong>de</strong> Jacobi converge e o méto<strong>do</strong> <strong>de</strong><br />

Gauss-Sei<strong>de</strong>l diverge, e vice-versa. Veja a próxima seção sobre a convergência <strong>do</strong>s méto<strong>do</strong>s.<br />

4.1.3 Méto<strong>do</strong> SOR<br />

O processo <strong>de</strong> corrigir uma equação através da modificação <strong>de</strong> uma variável é às vezes chama<strong>do</strong> <strong>de</strong> relaxamento.<br />

Antes da correção, a equação não é verda<strong>de</strong>ira; como um conjunto <strong>de</strong> partes que não se ajustam,<br />

ela está em esta<strong>do</strong> <strong>de</strong> tensão. A correção <strong>de</strong> uma variável relaxa a tensão. O méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l efetua<br />

relaxamento sucessivo, ou seja, passa <strong>de</strong> equação para equação, relaxan<strong>do</strong> uma <strong>de</strong>pois da outra. [Watkins]<br />

Por este motivo, os méto<strong>do</strong>s <strong>de</strong> Jacobi e <strong>de</strong> Gauss-Sei<strong>de</strong>l são também chama<strong>do</strong>s méto<strong>do</strong>s <strong>de</strong> relaxamento.<br />

Em muitos casos, a convergência po<strong>de</strong> ser substancialmente acelerada através <strong>de</strong> sobrerelaxamento. Isso<br />

significa que ao invés <strong>de</strong> fazer uma correção para a qual a equação é satisfeita exatamente, nós fazemos uma<br />

correção maior. No caso mais simples, escolhe-se um fator <strong>de</strong> relaxamento ω > 1 que sobrecorrige por aquele


Rodney Josué Biezuner 89<br />

fator em cada passo (se mover um passo na direção <strong>de</strong> xk para xk+1 é bom, mover naquela direção ω > 1<br />

passos é melhor). Este é o chama<strong>do</strong> méto<strong>do</strong> <strong>de</strong> sobrerelaxamento sucessivo (SOR, successive overrelaxation):<br />

usan<strong>do</strong> o méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l obtemos<br />

⎛<br />

⎞<br />

daí tomamos<br />

Isso po<strong>de</strong> ser resumi<strong>do</strong> em<br />

x k+1<br />

i<br />

x k+1<br />

i<br />

= xk i + ω<br />

1<br />

=<br />

aii<br />

⎡<br />

i−1<br />

⎝bi −<br />

x k+1<br />

i<br />

⎣ 1<br />

aii<br />

j=1<br />

aijx k+1<br />

j<br />

= xk i + ω x k+1<br />

i<br />

⎛<br />

i−1<br />

⎝bi −<br />

j=1<br />

aijx k+1<br />

j<br />

+<br />

n<br />

j=i+1<br />

− xk <br />

i .<br />

−<br />

n<br />

j=i+1<br />

aijx k j<br />

aijx k j<br />

⎠ ;<br />

⎞<br />

⎤<br />

⎠ − x k⎦ i . (4.11)<br />

Quan<strong>do</strong> ω = 1, o méto<strong>do</strong> SOR é exatamente o méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l. Um fator ω < 1 (subrelaxamento)<br />

normalmente diminui a velocida<strong>de</strong> <strong>de</strong> convergência.<br />

Para a maioria <strong>do</strong>s problemas, o melhor valor para o fator <strong>de</strong> relaxamento é <strong>de</strong>sconheci<strong>do</strong>. Para a matriz<br />

<strong>de</strong> discretização obtida a partir da fórmula <strong>de</strong> cinco pontos, é sabi<strong>do</strong> que o valor ótimo <strong>de</strong> ω é, como veremos<br />

na próxima seção,<br />

ω =<br />

2<br />

. (4.12)<br />

1 + sen (π∆x)<br />

Em forma matricial, o méto<strong>do</strong> SOR po<strong>de</strong> ser <strong>de</strong>scrito da seguinte forma. Como antes, dada uma matriz<br />

A escrevemos<br />

A = D − L − U (4.13)<br />

on<strong>de</strong> D é uma matriz diagonal, L é uma matriz estritamente triangular inferior e U é uma matriz estritamente<br />

triangular superior. Então, escreven<strong>do</strong> o algoritmo SOR na forma<br />

= aiix k ⎡<br />

i−1<br />

i + ω ⎣bi −<br />

−<br />

⎤<br />

n<br />

⎦ ,<br />

temos<br />

aiix k+1<br />

i<br />

j=1<br />

aijx k+1<br />

j<br />

j=i<br />

aijx k j<br />

Dx k+1 = Dx k + ω Lx k+1 + (U − D) x k + b <br />

ou <br />

1<br />

D − L x<br />

ω k+1 <br />

1 − ω<br />

= D + U x<br />

ω k + b,<br />

<strong>do</strong>n<strong>de</strong><br />

x k+1 =<br />

(4.14)<br />

−1 <br />

1<br />

1 − ω<br />

D − L<br />

D + U x<br />

ω ω k <br />

+ b . (4.15)<br />

4.1.4 Comparação da Velocida<strong>de</strong> <strong>de</strong> Convergência <strong>do</strong>s Três Méto<strong>do</strong>s<br />

A tabela a seguir foi extraída <strong>de</strong> [Watkins], págs. 533 e 542. Os méto<strong>do</strong>s introduzi<strong>do</strong>s acima foram usa<strong>do</strong>s<br />

para resolver o sistema linear Ax = b on<strong>de</strong> A é a matriz <strong>de</strong> discretização obtida a partir da fórmula <strong>do</strong>s<br />

cinco pontos <strong>do</strong> laplaciano no quadra<strong>do</strong> unitário Ω = (0, 1) 2 e b é estabeleci<strong>do</strong> pela condição <strong>de</strong> fronteira <strong>de</strong><br />

Dirichlet dada por<br />

⎧<br />

⎪⎨<br />

0 se x = 0,<br />

y se x = 1,<br />

g (x, y) =<br />

⎪⎩<br />

(x − 1) sen x se y = 0,<br />

x (2 − x) se y = 1,


Rodney Josué Biezuner 90<br />

ou seja, para resolver o problema discretiza<strong>do</strong><br />

<br />

−∆dud = 0 em Ωd,<br />

sobre ∂Ωd.<br />

As iterações foram interrompidas quan<strong>do</strong><br />

ud = gd<br />

<br />

u k+1 − u k 2<br />

|u k+1 | 2<br />

< 10 −8 .<br />

O número <strong>de</strong> iterações necessárias para convergir <strong>de</strong> acor<strong>do</strong> com esta margem <strong>de</strong> tolerância, para três refinamentos<br />

possíveis da malha (correspon<strong>de</strong>ntes a matrizes <strong>de</strong> dimensões n = 81, 361 e 1521, respectivamente),<br />

<strong>de</strong> acor<strong>do</strong> com cada méto<strong>do</strong> e para diferentes valores <strong>de</strong> ω no caso <strong>do</strong> méto<strong>do</strong> SOR é apresenta<strong>do</strong> na tabela<br />

abaixo.<br />

∆x = 0.1 ∆x = 0.05 ∆x = 0.025<br />

Jacobi 299 1090 3908<br />

SOR (ω = 0.8) 235 845 3018<br />

Gauss-Sei<strong>de</strong>l 160 581 2082<br />

SOR (ω = 1.4) 67 262 955<br />

SOR (ω = 1.6) 42 151 577<br />

SOR (ω = 1.7) 57 96 412<br />

SOR (ω = 1.8) 86 89 252<br />

SOR (ω = 1.9) 176 180 179<br />

SOR (ω = 2.0) ∞ ∞ ∞<br />

Vemos que o méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l é cerca <strong>de</strong> duas vezes mais rápi<strong>do</strong> para convergir que o méto<strong>do</strong> <strong>de</strong><br />

Jacobi e que <strong>de</strong>pen<strong>de</strong>n<strong>do</strong> da escolha <strong>de</strong> ω, o méto<strong>do</strong> SOR po<strong>de</strong> ser até <strong>de</strong>z vezes mais rápi<strong>do</strong> que o méto<strong>do</strong><br />

<strong>de</strong> Gauss-Sei<strong>de</strong>l para a malha mais refinada. Subrelaxamento não ajuda e para ω = 2 o méto<strong>do</strong> SOR é<br />

divergente.<br />

4.1.5 Méto<strong>do</strong> <strong>de</strong> Jacobi Amorteci<strong>do</strong><br />

O méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l po<strong>de</strong> ser sobrerelaxa<strong>do</strong> através <strong>de</strong> um parâmetro ω > 1 para obter um méto<strong>do</strong><br />

que converge mais rápi<strong>do</strong>.Já o méto<strong>do</strong> <strong>de</strong> Jacobi não po<strong>de</strong> em geral ser sobrerelaxa<strong>do</strong>, porque o méto<strong>do</strong><br />

obti<strong>do</strong> não converge. Ele po<strong>de</strong> no entanto ser subrelaxa<strong>do</strong> através <strong>de</strong> um parâmetro ω < 1 para obter um<br />

méto<strong>do</strong> convergente, se bem que mais vagaroso. A vantagem <strong>de</strong> se utilizar um tal méto<strong>do</strong> é que para certos<br />

valores <strong>de</strong> ω ele é um ótimo suaviza<strong>do</strong>r <strong>de</strong> erro (em um senti<strong>do</strong> que será explica<strong>do</strong> no próximo capítulo),<br />

enquanto que o méto<strong>do</strong> <strong>de</strong> Jacobi usual não possui esta proprieda<strong>de</strong>. Assim, o méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong><br />

po<strong>de</strong> ser usa<strong>do</strong> em méto<strong>do</strong>s multigrid (veja o próximo capítulo).<br />

Pelo méto<strong>do</strong> <strong>de</strong> Jacobi usual obtemos<br />

⎛<br />

⎞<br />

e tomamos<br />

ou seja,<br />

x k+1<br />

i<br />

x k+1<br />

i<br />

x k+1<br />

i<br />

1<br />

=<br />

aii<br />

= xk ⎢<br />

i + ω ⎢<br />

1<br />

⎣<br />

⎜<br />

⎝ bi −<br />

n<br />

j=1<br />

j=i<br />

= xk i + ω x k+1<br />

i<br />

⎡<br />

aii<br />

⎛<br />

⎜<br />

⎝ bi −<br />

n<br />

j=1<br />

j=i<br />

aijx k j<br />

⎟<br />

⎠ ,<br />

− xk <br />

i ,<br />

aijx k j<br />

⎞<br />

⎤<br />

⎟<br />

⎠ − xk ⎥<br />

i ⎦ . (4.16)


Rodney Josué Biezuner 91<br />

Este méto<strong>do</strong> é conheci<strong>do</strong> como méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong>, méto<strong>do</strong> <strong>de</strong> Jacobi pon<strong>de</strong>ra<strong>do</strong> ou ainda<br />

méto<strong>do</strong> <strong>de</strong> relaxamento simultâneo (diferente <strong>do</strong> méto<strong>do</strong> <strong>de</strong> relaxamento sucessivo, basea<strong>do</strong> no méto<strong>do</strong> <strong>de</strong><br />

Gauss-Sei<strong>de</strong>l, em que cada variável é substituída sucessivamente <strong>de</strong>ntro da mesma iteração à medida que<br />

ela é atualizada; no méto<strong>do</strong> <strong>de</strong> Jacobi, as variáveis são todas substituídas simultameamente na próxima<br />

iteração).<br />

Em forma matricial, o méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong> po<strong>de</strong> ser <strong>de</strong>scrito da seguinte forma. Denotan<strong>do</strong> por<br />

D a parte diagonal <strong>de</strong> A, temos<br />

⎛<br />

⎞<br />

temos<br />

aiix k+1<br />

i<br />

= aiix k i + ω<br />

⎝bi −<br />

n<br />

j=1<br />

aijx k j<br />

Dx k+1 = Dx k + ω b − Ax k<br />

⎠ ,<br />

(4.17)<br />

ou <br />

1<br />

ω D<br />

<br />

x k+1 <br />

1<br />

= D − A x<br />

ω k + ωb,<br />

<strong>do</strong>n<strong>de</strong><br />

x k+1 <br />

1<br />

=<br />

ω D<br />

−1 <br />

1<br />

D − A x<br />

ω k <br />

+ b . (4.18)<br />

Em contraste com o méto<strong>do</strong> SOR, que converge em geral para 0 < ω < 2, o méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong><br />

converge para 0 < ω 1 (veja a próxima seção).<br />

4.2 Análise <strong>de</strong> Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares<br />

Os méto<strong>do</strong>s <strong>de</strong>scritos na seção anterior são casos especiais <strong>de</strong> uma classe geral <strong>de</strong> méto<strong>do</strong>s chama<strong>do</strong>s méto<strong>do</strong>s<br />

iterativos lineares ou méto<strong>do</strong>s <strong>de</strong> correção residual. Um méto<strong>do</strong> iterativo linear para resolver o sistema<br />

linear<br />

Ax = b<br />

envolve a <strong>de</strong>composição da matriz A na forma<br />

A = B − C, (4.19)<br />

on<strong>de</strong> B é necessariamente uma matriz invertível, e então a resolução iterativa <strong>do</strong> sistema <strong>de</strong> equações<br />

ou, mais explicitamente,<br />

Bx k+1 = Cx k + b (4.20)<br />

x k+1 = B −1 Cx k + b .<br />

Se x k → x, então Bx = Cx + b, <strong>do</strong>n<strong>de</strong> Ax = b. Do ponto <strong>de</strong> vista prático, é importante que a matriz B<br />

seja “fácil <strong>de</strong> resolver” (mesmo que a inversa <strong>de</strong> B não seja efetivamente calculada), como nos exemplos da<br />

seção anterior:<br />

B C<br />

Jacobi D D − A<br />

Gauss-Sei<strong>de</strong>l D − L U<br />

SOR<br />

1 1 − ω<br />

D − L D + U<br />

ω ω<br />

Para obter uma convergência rápida, também gostaríamos que B ≈ A e C ≈ 0. Deste ponto <strong>de</strong> vista, o i<strong>de</strong>al<br />

seria B = A e C = 0 (convergência em uma iteração), mas isso viola em geral o critério que B seja “fácil<br />

<strong>de</strong> resolver”. Um compromisso é necessário: B <strong>de</strong>ve aproximar A o melhor possível sem se tornar muito<br />

complicada.


Rodney Josué Biezuner 92<br />

4.2.1 Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares<br />

Para méto<strong>do</strong>s iterativos em geral, <strong>de</strong>finimos o erro algébrico por<br />

enquanto que o erro residual é da<strong>do</strong> por<br />

e k = x − x k , (4.21)<br />

r k = Ax − Ax k = f − Ax k . (4.22)<br />

O erro algébrico tem interesse puramente teórico (para provar que <strong>de</strong>termina<strong>do</strong> méto<strong>do</strong> iterativo converge,<br />

precisamos mostrar que o erro algébrico ten<strong>de</strong> a zero), já que ele só po<strong>de</strong> ser calcula<strong>do</strong> uma vez que se<br />

conhece a solução exata, e se este for o caso obviamente não há necessida<strong>de</strong> <strong>de</strong> resolver o sistema. Já o erro<br />

residual po<strong>de</strong> ser usa<strong>do</strong> como critério <strong>de</strong> parada para o méto<strong>do</strong> iterativo. Como<br />

segue que<br />

Observe que<br />

A matriz<br />

Be k+1 = Bx − Bx k+1 = Ax + Cx − Cx k − b = C x − x k = Ce k ,<br />

e k+1 = B −1 Ce k .<br />

B −1 C = B −1 (B − A) = I − B −1 A.<br />

R = I − B −1 A = B −1 C (4.23)<br />

é chamada a matriz <strong>de</strong> iteração ou matriz <strong>de</strong> propagação <strong>do</strong> erro <strong>do</strong> algoritmo consi<strong>de</strong>ra<strong>do</strong>, porque<br />

e o erro é da<strong>do</strong> por<br />

Em particular,<br />

x k+1 = Rx k + B −1 b. (4.24)<br />

e k+1 = Re k . (4.25)<br />

e k = R k e 0<br />

(4.26)<br />

<strong>de</strong> mo<strong>do</strong> que o erro converge para 0, in<strong>de</strong>pen<strong>de</strong>ntemente <strong>do</strong> chute inicial x 0 , se e somente se R k → 0. Isso<br />

ocorre se e somente se existe alguma norma matricial · tal que R < 1. Obter uma norma matricial<br />

que satisfaz esta proprieda<strong>de</strong>, no entanto, é difícil. Vamos obter uma condição necessária e suficiente para<br />

R k → 0 em termos <strong>do</strong> raio espectral da matriz <strong>de</strong> iteração (Corolário 4.5 a seguir), que é em geral um pouco<br />

mais fácil <strong>de</strong> calcular. Antes, para motivar o resulta<strong>do</strong>, suponha que A seja uma matriz diagonalizável com<br />

λ1, . . . , λn os seus autovalores e {v1, . . . , vn} uma correspon<strong>de</strong>nte base <strong>de</strong> autovetores. Escreven<strong>do</strong> o erro<br />

inicial como uma combinação linear <strong>do</strong>s autovetores, temos<br />

Logo,<br />

<strong>de</strong> mo<strong>do</strong> que<br />

e 0 =<br />

n<br />

aivi.<br />

i=1<br />

e k = R k e 0 =<br />

<br />

e k <br />

n<br />

i=1<br />

aiλ k i vi,<br />

n<br />

|ai| |λi| k |vi| .<br />

i=1<br />

Como |λi| k → 0 se e somente se |λi| < 1, concluímos que e k → 0 qualquer que seja o erro inicial (isto é,<br />

qualquer que seja o chute inicial), se e somente se ρ (R) = max1in |λi| < 1 .


Rodney Josué Biezuner 93<br />

4.1 Lema. Se A ∈ Mn (C) e · é qualquer norma matricial, então<br />

ρ (A) A .<br />

Prova. Seja λ um autovalor qualquer <strong>de</strong> A e x um autovetor não-nulo correspon<strong>de</strong>nte a λ, <strong>de</strong> mo<strong>do</strong> que<br />

Ax = λx.<br />

Consi<strong>de</strong>re a matriz X ∈ Mn (C) cujas colunas são todas iguais ao vetor x. Temos também<br />

<strong>de</strong> mo<strong>do</strong> que<br />

<strong>do</strong>n<strong>de</strong><br />

AX = λX<br />

|λ| X = AX A X ,<br />

|λ| A<br />

para to<strong>do</strong> autovalor λ <strong>de</strong> A. Como existe um autovalor λ <strong>de</strong> A tal que ρ (A) = λ, isso prova o resulta<strong>do</strong>. <br />

4.2 Lema. Seja A ∈ Mn (C) e ε > 0 da<strong>do</strong>. Então existe uma norma matricial · tal que<br />

ρ (A) A ρ (A) + ε. (4.27)<br />

Prova. Toda matriz complexa é triangularizável através <strong>de</strong> uma matriz unitária (isto é, uma matriz U que<br />

satisfaz U ∗ U = UU ∗ = I; sua inversa é a sua adjunta ou transposta conjugada). Sejam então<br />

⎡<br />

⎤<br />

λ1 a12 a22 . . . a1n<br />

⎢ λ2 a23 ⎢<br />

. . . a2n ⎥<br />

⎢<br />

T =<br />

λ3 ⎢<br />

. . . a3n ⎥<br />

⎢<br />

⎣<br />

. ..<br />

. ⎥<br />

. ⎦<br />

uma matriz triangular e U uma matriz unitária tais que<br />

Consi<strong>de</strong>re a matriz diagonal<br />

Temos<br />

DtT D −1<br />

t<br />

⎡<br />

⎢<br />

= ⎢<br />

⎣<br />

⎡<br />

t<br />

⎢<br />

Dt = ⎢<br />

⎣<br />

A = U ∗ T U.<br />

t 2<br />

. ..<br />

t n<br />

λn<br />

⎤<br />

⎥<br />

⎦ .<br />

λ1 a12t −1 a22t −2 . . . . . . a1nt −n+1<br />

λ2 a23t −1 . . . . . . a2nt −n+2<br />

Logo, para t > 0 suficientemente gran<strong>de</strong>, a matriz DtT D −1<br />

t<br />

λ3 . . . . . . a3nt −n+3<br />

. ..<br />

.<br />

λn−1 an−1,nt −1<br />

tem a proprieda<strong>de</strong> que a soma <strong>do</strong>s valores<br />

absolutos <strong>de</strong> elementos fora da diagonal principal é menor que ε. Em particular, se ·L <strong>de</strong>nota a norma <strong>do</strong><br />

máximo das somas das linhas, po<strong>de</strong>mos garantir que<br />

<br />

DtT D −1<br />

<br />

<br />

t ρ (A) + ε<br />

L<br />

λn<br />

⎤<br />

⎥ .<br />

⎥<br />


Rodney Josué Biezuner 94<br />

para t suficientemente gran<strong>de</strong>. Portanto, fixa<strong>do</strong> um tal t, se <strong>de</strong>finirmos uma norma por<br />

<br />

<br />

<br />

<br />

,<br />

teremos<br />

Pelo lema anterior, ρ (A) A. <br />

A := DtUAU ∗ D −1<br />

<br />

<br />

t = L U ∗ D −1−1<br />

∗ −1<br />

t AU Dt <br />

L<br />

A = DtUAU ∗ D −1<br />

<br />

t<br />

L = DtT D −1<br />

t<br />

<br />

ρ (A) + ε.<br />

L<br />

4.3 Lema. Seja A ∈ Mn (C). Se existe alguma norma matricial · tal que A < 1, então<br />

Prova. Se A < 1, então<br />

<br />

4.4 Proposição. Seja A ∈ Mn (C). Então<br />

se e somente se<br />

A k → 0.<br />

<br />

A k A k → 0.<br />

A k → 0<br />

ρ (A) < 1.<br />

Prova. Se existe algum autovalor λ <strong>de</strong> A tal que |λ| 1 e x é um autovetor não-nulo correspon<strong>de</strong>nte, então<br />

A k x = λ k x<br />

não converge para 0. Reciprocamente, se ρ (A) < 1, então pelo Lema 4.2 existe uma norma matricial · tal<br />

que A < 1, logo A k → 0 pelo lema anterior. <br />

4.5 Corolário. Seja R a matriz <strong>de</strong> iteração <strong>de</strong> um méto<strong>do</strong> iterativo linear. Então<br />

se e somente se<br />

e k → 0<br />

ρ (R) < 1.<br />

Em outras palavras, um méto<strong>do</strong> iterativo linear é convergente in<strong>de</strong>pen<strong>de</strong>ntemente da escolha <strong>do</strong> chute<br />

inicial se e somente se to<strong>do</strong>s os autovalores da matriz <strong>de</strong> iteração têm valor absoluto menor que 1.<br />

4.2.2 Velocida<strong>de</strong> <strong>de</strong> Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares<br />

O raio espectral também dá informação sobre a velocida<strong>de</strong> <strong>de</strong> convergência. Se nós tivermos <strong>do</strong>is méto<strong>do</strong>s<br />

iterativos lineares diferentes, isto é, duas maneiras diferentes <strong>de</strong> <strong>de</strong>compor a matriz A:<br />

A = B1 − C1 = B2 − C2,<br />

então o segun<strong>do</strong> méto<strong>do</strong> convergirá mais rápi<strong>do</strong> se e somente se<br />

ρ (R2) < ρ (R1) .<br />

Vamos analisar a velocida<strong>de</strong> <strong>de</strong> convergência <strong>do</strong>s méto<strong>do</strong>s iterativos com maior precisão. Novamente à<br />

título <strong>de</strong> motivação, suponha que A é uma matriz diagonalizável com seu maior autovalor sen<strong>do</strong> um autovalor<br />

simples. Or<strong>de</strong>ne os autovalores <strong>de</strong> A na forma<br />

|λ1| > |λ2| . . . |λn|


Rodney Josué Biezuner 95<br />

e seja {v1, . . . , vn} uma correspon<strong>de</strong>nte base <strong>de</strong> autovetores. Escreven<strong>do</strong> <strong>de</strong> novo<br />

e 0 n<br />

= aivi,<br />

<strong>do</strong>n<strong>de</strong><br />

segue que<br />

e k = λ k 1<br />

i=1<br />

e k = R k e 0 =<br />

<br />

a1x1 +<br />

Como λi<br />

λ1<br />

n<br />

i=1<br />

aiλ k i vi,<br />

n<br />

k λi<br />

ai vi<br />

λ1<br />

i=2<br />

k<br />

→ 0,<br />

a taxa <strong>de</strong> convergência é <strong>de</strong>terminada por |λ1| k . Para k gran<strong>de</strong>, temos<br />

e k ≈ λ k 1a1v1.<br />

Portanto, <br />

ek+1 |ek | = |λ1| = ρ (R) . (4.28)<br />

Em outras palavras, a convergência é linear com taxa <strong>de</strong> convergência igual ao raio espectral. Se a1 =<br />

0 a convergência será mais rápida, pois <strong>de</strong>pen<strong>de</strong>rá <strong>do</strong> módulo <strong>do</strong> segun<strong>do</strong> autovalor, mas é obviamente<br />

extremamente raro que o chute inicial satisfaça esta condição. Para o caso geral, precisamos <strong>do</strong> seguinte<br />

resulta<strong>do</strong>:<br />

4.6 Proposição. Seja A ∈ Mn (C) e · uma norma matricial. Então<br />

ρ (A) = lim A k 1/k .<br />

Prova. Como os autovalores da matriz A k são as k-ésimas potências <strong>do</strong>s autovalores <strong>de</strong> A, temos que<br />

<strong>do</strong>n<strong>de</strong><br />

Da<strong>do</strong> ε > 0, a matriz<br />

ρ (A) k = ρ A k A k ,<br />

ρ (A) A k 1/k .<br />

B =<br />

1<br />

ρ (A) + ε A<br />

tem raio espectral menor que 1, logo B k → 0. Portanto, existe algum N = N (ε, A) tal que<br />

<br />

B k < 1<br />

ou seja,<br />

<br />

A k 1/k < ρ (A) + ε<br />

para to<strong>do</strong> k > N. <br />

Definimos a taxa média <strong>de</strong> convergência <strong>de</strong> um méto<strong>do</strong> iterativo linear com matriz <strong>de</strong> iteração R por<br />

<br />

Rk (R) = − log R 10<br />

k 1/k = − 1<br />

k log <br />

R 10<br />

k (4.29)<br />

e a taxa assintótica <strong>de</strong> convergência por<br />

<br />

.<br />

R∞ (R) = lim<br />

k→∞ Rk (R) . (4.30)


Rodney Josué Biezuner 96<br />

4.7 Corolário. Seja R a matriz <strong>de</strong> iteração <strong>de</strong> um méto<strong>do</strong> iterativo linear. Então a taxa assintótica <strong>de</strong><br />

convergência <strong>do</strong> méto<strong>do</strong> é dada por<br />

Prova. Pois<br />

R∞ (R) = − lim<br />

k→∞ log 10<br />

R∞ (R) = − log 10 ρ (R) . (4.31)<br />

<br />

R k 1/k <br />

= − log10 lim R k 1/k = − log10 ρ (R) .<br />

<br />

A taxa assintótica <strong>de</strong> convergência me<strong>de</strong> o aumento no número <strong>de</strong> casas <strong>de</strong>cimais corretas na solução por<br />

iteração. De fato, usan<strong>do</strong> a norma matricial <strong>do</strong> Lema 4.2 e medin<strong>do</strong> as normas <strong>do</strong>s vetores <strong>de</strong> acor<strong>do</strong>, temos<br />

<br />

ek+1 |ek | =<br />

<br />

Rk+1e0 |Rke0 R = ρ (R) + ε,<br />

|<br />

<strong>do</strong>n<strong>de</strong><br />

ou<br />

Assim, se<br />

teremos<br />

− log 10<br />

<br />

e k+1 <br />

k→∞<br />

|e k | = − log 10 ρ (R) + O (ε)<br />

<br />

log e 10<br />

k <br />

− log e 10<br />

k+1 = R∞ (R) + O (ε) . (4.32)<br />

<br />

e k = O 10 −p ,<br />

<br />

e k+1 = O 10 −q ,<br />

q − p ≈ R∞ (R) ,<br />

isto é, reduzimos R∞ (R) ≈ q − p casas <strong>de</strong>cimais no erro. Visto <strong>de</strong> outra forma, como<br />

<br />

ek+m |ek | =<br />

<br />

Rk+me0 |Rke0 | Rm = ρ (R) m + O (ε) ,<br />

<strong>do</strong>n<strong>de</strong><br />

ou<br />

− log 10<br />

<br />

e k+m <br />

|e k | ≈ −m log 10 ρ (R) ,<br />

m = log <br />

e 10<br />

k+m / ek <br />

log10 ρ (R)<br />

é o número <strong>de</strong> iterações necessárias para diminuir o erro <strong>de</strong> um número prescrito <strong>de</strong> casas <strong>de</strong>cimais.<br />

4.2.3 Convergência para Matrizes Simétricas Positivas Definidas<br />

(4.33)<br />

Para matrizes reais simétricas positivas <strong>de</strong>finidas é mais fácil provar a convergência <strong>do</strong>s méto<strong>do</strong>s iterativos<br />

lineares. Temos o seguinte resulta<strong>do</strong> básico a seguir. Antes precisamos da seguinte <strong>de</strong>finição:<br />

Definição. Introduzimos uma or<strong>de</strong>nação parcial em Mn (C) <strong>de</strong>finin<strong>do</strong><br />

se<br />

para to<strong>do</strong> x ∈ C n .<br />

A B<br />

〈Ax, x〉 〈Bx, x〉


Rodney Josué Biezuner 97<br />

Em particular, se A é uma matriz positiva <strong>de</strong>finida, segue que A εI para algum ε (o menor autovalor <strong>de</strong><br />

A) e <strong>de</strong>notamos este fato por<br />

A > 0.<br />

4.8 Teorema. Seja A uma matriz simétrica positiva <strong>de</strong>finida e seja A = B − C com B invertível. Então<br />

o méto<strong>do</strong> iterativo linear com matriz <strong>de</strong> iteração R = B −1 C converge se e somente se B t + C é uma<br />

matriz simétrica positiva <strong>de</strong>finida.<br />

Prova. Medimos a norma <strong>do</strong> erro através da norma induzida por A<br />

|x| A := 〈Ax, x〉 1/2<br />

e consi<strong>de</strong>raremos a norma matricial · A induzida por esta norma. Se provarmos que<br />

o méto<strong>do</strong> convergirá. Temos<br />

R A < 1,<br />

R 2<br />

A = <br />

B<br />

−1 2<br />

B C = sup A<br />

x=0<br />

−1Cx 2 A<br />

|x| 2<br />

<br />

−1 −1 t −t −1 AB Cx, B Cx C B AB Cx, x<br />

= sup<br />

= sup<br />

. (4.34)<br />

A<br />

x=0 〈Ax, x〉<br />

x=0 〈Ax, x〉<br />

Suponha que B t + C é uma matriz simétrica, positiva <strong>de</strong>finida. Temos<br />

ou<br />

C t B −t AB −1 C = B t − A B −t AB −1 (B − A) = I − AB −t A I − B −1 A <br />

= A − AB −t A + AB −1 A − AB −t AB −1 A <br />

= A − AB −t B + B t − A B −1 A<br />

= A − B −1 A t B + B t − A B −1 A<br />

C t B −t AB −1 C = A − B −1 A t B t + C B −1 A, (4.35)<br />

<strong>de</strong> mo<strong>do</strong> que C t B −t AB −1 C é uma matriz simétrica, positiva <strong>de</strong>finida. Logo, por (4.34), mostrar que<br />

R A < 1 é equivalente a provar que<br />

C t B −t AB −1 C < A,<br />

e por (4.35) C t B −t AB −1 C < A se e somente se B −1 A t (B t + C) B −1 A > 0, o que é verda<strong>de</strong> porque B t +C<br />

é positiva <strong>de</strong>finida. <br />

4.3 Convergência <strong>do</strong>s Méto<strong>do</strong>s Iterativos Lineares para as Matrizes<br />

<strong>de</strong> Discretização<br />

4.3.1 Convergência <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Jacobi<br />

4.9 Teorema. Se A é uma matriz irredutível, diagonalmente <strong>do</strong>minante tal que |aii| > n<br />

|aij| para pelo<br />

menos alguma linha i, então o méto<strong>do</strong> <strong>de</strong> Jacobi converge.<br />

Prova. Seja D a parte diagonal da matriz A e R = D −1 (D − A) = I − D −1 A a matriz <strong>de</strong> iteração <strong>do</strong><br />

méto<strong>do</strong> <strong>de</strong> Jacobi para A. Suponha por absur<strong>do</strong> que exista um autovalor λ <strong>de</strong> R tal que |λ| 1. Como<br />

λ <strong>de</strong>t λ −1 R − I = <strong>de</strong>t (R − λI) = 0, temos<br />

<strong>de</strong>t I − λ −1 R = 0.<br />

j=1<br />

j=i


Rodney Josué Biezuner 98<br />

Por outro la<strong>do</strong>, observe que I − λ−1R também é irredutível, pois<br />

Rij = I − D −1 A <br />

ij =<br />

<br />

0 se i = j,<br />

se i = j,<br />

− aij<br />

aii<br />

−1<br />

I − λ R<br />

ij =<br />

<br />

1 se i = j,<br />

se i = j,<br />

−1<br />

aij<br />

λ<br />

aii<br />

<strong>de</strong> mo<strong>do</strong> que, on<strong>de</strong> A se anula, I −λ−1R também se anula. Além disso, I −λ−1R é diagonalmente <strong>do</strong>minante<br />

e estritamente <strong>do</strong>minante nas linhas on<strong>de</strong> A é, pois |λ| −1 1, I − λ−1R <br />

= 1 e<br />

ii<br />

n <br />

<br />

I − λ −1 R <br />

j=1<br />

j=i<br />

ij<br />

<br />

<br />

= |λ|−1<br />

|aii|<br />

n<br />

j=1<br />

j=i<br />

|aij| 1<br />

|aii|<br />

n<br />

|aij| .<br />

Mas, pela Proposição 3.16, isso implica que I − λ −1 R é invertível, uma contradição. <br />

O Teorema 4.8 mostra que o méto<strong>do</strong> <strong>de</strong> Jacobi converge para as matrizes <strong>de</strong> discretização obtidas através<br />

<strong>do</strong>s esquemas <strong>de</strong> diferenças finitas <strong>do</strong> Capítulo 2.<br />

Através <strong>do</strong> Teorema 4.9, fomos capazes <strong>de</strong> provar a convergência <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi para as matrizes <strong>de</strong><br />

discretização sem calcular explicitamente os seus raios espectrais. Para analizar a velocida<strong>de</strong> <strong>de</strong> convergência<br />

<strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi, no entanto, é necessário obter os raios espectrais <strong>de</strong>stas matrizes. Vamos fazer isso<br />

para as matrizes <strong>de</strong> discretização obtidas a partir da fórmula <strong>de</strong> três pontos unidimensional e a partir da<br />

fórmula <strong>de</strong> cinco pontos bidimensional.<br />

4.10 Teorema. Seja A a matriz <strong>de</strong> discretização obtida a partir da fórmula <strong>de</strong> três pontos unidimensional<br />

ou a partir da fórmula <strong>de</strong> cinco pontos bidimensional com ∆x = ∆y. Seja R = D −1 (D − A) a matriz<br />

<strong>de</strong> iteração <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi. Então<br />

j=1<br />

j=i<br />

ρ (R) = cos π<br />

. (4.36)<br />

n<br />

Prova. Para o méto<strong>do</strong> <strong>de</strong> Jacobi, a matriz <strong>de</strong> discretização x k+1 = Rx k +D −1 b é obtida através da fórmula:<br />

Já vimos no Lema 2.2 que<br />

com<br />

Daí segue que<br />

Logo<br />

para<br />

u k+1<br />

i,j<br />

1 k<br />

= ui,j−1 + u<br />

4<br />

k i,j+1 + u k i−1,j + u k <br />

i+1,j .<br />

−u kl<br />

i−1,j − u kl<br />

i+1,j + 4u kl<br />

i,j − u kl<br />

i,j−1 − u kl<br />

i,j+1 = λkl∆x 2 u kl<br />

i,j<br />

λkl = 2<br />

∆x2 <br />

2 − cos kπ<br />

<br />

lπ<br />

− cos .<br />

n n<br />

u kl<br />

i,j−1 + u kl<br />

i,j+1 + u kl<br />

i−1,j + u kl<br />

i+1,j = 4 − λkl∆x 2 u kl<br />

i,j<br />

1 kl<br />

ui,j−1 + u<br />

4<br />

kl<br />

i,j+1 + u kl<br />

i−1,j + u kl <br />

i+1,j = µlku kl<br />

i,j<br />

µlk = 1 − 1<br />

4 λkl∆x 2 = 1 − 1<br />

<br />

2 − cos<br />

2<br />

kπ<br />

<br />

lπ<br />

− cos =<br />

n n<br />

1<br />

<br />

cos<br />

2<br />

kπ<br />

<br />

lπ<br />

+ cos .<br />

n n


Rodney Josué Biezuner 99<br />

Estes são os autovalores da matriz <strong>de</strong> iteração <strong>de</strong> Jacobi para a matriz <strong>de</strong> discretização obtida a partir da<br />

fórmula <strong>de</strong> cinco pontos (observe que elas possuem os mesmos autovetores; no entanto R possui autovalores<br />

nulos). Segue que o máximo autovalor ocorre quan<strong>do</strong> k = l = 1, logo<br />

ρ (R) = cos π<br />

n .<br />

O argumento para a fórmula <strong>de</strong> três pontos é análogo. <br />

Para o quadra<strong>do</strong> unitário temos<br />

ρ (R) = cos (π∆x) . (4.37)<br />

Vemos em particular que ρ (R) → 1 quan<strong>do</strong> ∆x → 0, <strong>de</strong> mo<strong>do</strong> que a velocida<strong>de</strong> <strong>de</strong> convergência <strong>do</strong> méto<strong>do</strong><br />

<strong>de</strong> Jacobi vai fican<strong>do</strong> cada vez menor para malhas mais refinadas. Po<strong>de</strong>mos dizer mais usan<strong>do</strong> a expansão<br />

da função cosseno em torno da origem<br />

se ∆x é pequeno po<strong>de</strong>mos aproximar<br />

cos x = 1 − 1<br />

2 x2 + O x 4 ;<br />

cos (π∆x) ≈ 1 − π2<br />

2 ∆x2 ,<br />

<strong>de</strong> mo<strong>do</strong> que ρ (R) → 1 quadraticamente quan<strong>do</strong> ∆x → 0. Em outras palavras, para uma malha duas vezes<br />

mais refinada (isto é, ∆x reduzi<strong>do</strong> pela meta<strong>de</strong>), o méto<strong>do</strong> <strong>de</strong> Jacobi é cerca <strong>de</strong> quatro vezes mais vagaroso<br />

em média (consulte novamente a tabela no final da seção anterior). A tabela abaixo mostra os valores <strong>do</strong><br />

raio espectral para alguns valores <strong>de</strong> ∆x:<br />

∆x 0.1 0.05 0.025<br />

ρ (R) 0.9511 0.9877 0.9969<br />

Para ∆x = 0.025 (correspon<strong>de</strong>nte a uma matriz <strong>de</strong> tamanho n = 39 × 39 = 1521), temos<br />

R∞ (R) = − log 10 (0.9969) = 0.0013484,<br />

<strong>de</strong> mo<strong>do</strong> que para reduzir o erro pelo fator <strong>de</strong> uma casa <strong>de</strong>cimal precisamos <strong>de</strong><br />

iterações.<br />

m = log 10 0.1<br />

log 10 ρ (R)<br />

1<br />

= −<br />

log10 ρ (R) =<br />

1<br />

≈ 742<br />

0.00135<br />

4.3.2 Convergência <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l<br />

4.11 Teorema. Se A é uma matriz irredutível, diagonalmente <strong>do</strong>minante tal que |aii| > n<br />

|aij| para pelo<br />

menos alguma linha i, então o méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l converge.<br />

Prova. Sejam D a parte diagonal, −L a parte triangular inferior estrita e −U a parte triangular superior<br />

estrita da matriz A, e seja R = (D − L) −1 U a matriz <strong>de</strong> iteração <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l para A.<br />

Escrevemos<br />

R = (D − L) −1 U = D I − D −1 L −1 U<br />

ou<br />

j=1<br />

j=i<br />

R = I − D −1 L −1 D −1 U. (4.38)


Rodney Josué Biezuner 100<br />

Suponha por absur<strong>do</strong> que exista um autovalor λ <strong>de</strong> R tal que |λ| 1; como na <strong>de</strong>monstração <strong>do</strong> Teorema<br />

4.9, temos<br />

Agora, observan<strong>do</strong> que<br />

<strong>de</strong>t I − λ −1 R <br />

= <strong>de</strong>t I − λ −1 <br />

−1 −1 −1<br />

I − D L D U = 0.<br />

<strong>de</strong>t I − D −1 L = 1<br />

porque I − D−1L é uma matriz triangular inferior com apenas 1’s na diagonal principal, escrevemos<br />

<br />

0 = <strong>de</strong>t I − λ −1 <br />

−1 −1 −1<br />

I − D L D U<br />

= <strong>de</strong>t I − D −1 L <br />

<strong>de</strong>t I − λ −1 <br />

−1 −1 −1<br />

I − D L D U<br />

I −1<br />

= <strong>de</strong>t − D L <br />

I − λ −1 <br />

−1 −1 −1<br />

I − D L D U<br />

Por outro la<strong>do</strong>,<br />

= <strong>de</strong>t I − D −1 L − λ −1 D −1 U .<br />

D −1 A = I − D −1 L − D −1 U<br />

é irredutível, diagonalmente <strong>do</strong>minante e estritamente <strong>do</strong>minante nas linhas on<strong>de</strong> A é porque<br />

−1<br />

D A ij =<br />

<br />

1 se i = j,<br />

aij<br />

se i = j.<br />

aii<br />

Logo, a matriz I − D −1 L − λ −1 D −1 U também satisfaz estas proprieda<strong>de</strong>s, pois I, −D −1 L e −D −1 U são<br />

respectivamente a parte diagonal, a parte triangular inferior estrita e a parte triangular superior estrita da<br />

matriz D −1 A, e multiplicar a parte triangular inferior estrita pelo número λ −1 cujo módulo é menor que ou<br />

igual a 1 não alterará a <strong>do</strong>minância diagonal (na verda<strong>de</strong> só ten<strong>de</strong> a melhorá-la) nem acrescentará zeros à<br />

matriz. A Proposição 3.16 implica então que I − D −1 L − λ −1 D −1 U é invertível, um absur<strong>do</strong>. <br />

Usan<strong>do</strong> o Teorema 4.11, concluímos que o méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l converge para as matrizes <strong>de</strong> discretização<br />

obtidas através <strong>do</strong>s esquemas <strong>de</strong> diferenças finitas <strong>do</strong> Capítulo 2. Para analizar a velocida<strong>de</strong> <strong>de</strong> convergência<br />

<strong>do</strong> méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l, vamos obter os raios espectrais para as matrizes <strong>de</strong> discretização obtidas a partir<br />

da fórmula <strong>de</strong> três pontos unidimensional e a partir da fórmula <strong>de</strong> cinco pontos bidimensional.<br />

4.12 Teorema. Seja A a matriz <strong>de</strong> discretização obtida a partir da fórmula <strong>de</strong> três pontos unidimensional<br />

ou a partir da fórmula <strong>de</strong> cinco pontos bidimensional com ∆x = ∆y. Seja R = (D − L) −1 U a matriz<br />

<strong>de</strong> iteração <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l. Então<br />

2 π<br />

ρ (R) = cos . (4.39)<br />

n<br />

Prova. Para obter o raio espectral da matriz <strong>de</strong> iteração R, queremos encontrar os autovalores µ <strong>de</strong> R:<br />

ou seja,<br />

Ru = (D − L) −1 Uu = µu,<br />

Uu = µ (D − L) u<br />

(um problema <strong>de</strong> autovalor generaliza<strong>do</strong>). No caso da matriz <strong>de</strong> discretização da fórmula <strong>de</strong> cinco pontos,<br />

isso significa encontrar µ tal que<br />

Para os autovalores não-nulos, po<strong>de</strong>mos fazer a substituição<br />

ui,j+1 + ui+1,j = µ (4ui,j − ui,j−1 − ui−1,j) . (4.40)<br />

ui,j = µ i+j<br />

2 vi,j (4.41)


Rodney Josué Biezuner 101<br />

para transformar a equação <strong>de</strong> autovalor naquela que aparece no méto<strong>do</strong> <strong>de</strong> Jacobi. Temos<br />

<br />

µ i+j+1<br />

2 vi,j + µ i+j+1 <br />

2 vi+1,j = µ 4µ i+j<br />

2 vi,j − µ i+j−1<br />

2 vi,j−1 − µ i+j−1<br />

2 vi−1,j<br />

<strong>de</strong> mo<strong>do</strong> que, dividin<strong>do</strong> por µ i+j+1<br />

2 , obtemos<br />

= 4µ i+j+2<br />

2 vi,j − µ i+j+1<br />

2 vi,j−1 − µ i+j+1<br />

2 vi−1,j,<br />

vi−1,j + vi+1,j + vi,j−1 + vi,j+1 = µ 1/2 4vi,j.<br />

Portanto os autovalores da matriz <strong>de</strong> iteração <strong>de</strong> Gauss-Sei<strong>de</strong>l para esta matriz são exatamente os quadra<strong>do</strong>s<br />

<strong>do</strong>s autovalores da matriz <strong>de</strong> iteração <strong>de</strong> Jacobi (e os autovetores são os mesmos):<br />

µlk = 1<br />

<br />

cos<br />

4<br />

kπ<br />

2 lπ<br />

+ cos .<br />

n n<br />

Portanto, o máximo autovalor ocorre quan<strong>do</strong> k = l = 1 e<br />

2 π<br />

ρ (R) = cos<br />

n .<br />

O argumento para a fórmula <strong>de</strong> três pontos é análogo. <br />

Para o quadra<strong>do</strong> unitário temos<br />

ρ (R) = cos 2 (π∆x) ,<br />

e usan<strong>do</strong><br />

cos 2 x =<br />

se ∆x é pequeno po<strong>de</strong>mos aproximar<br />

<br />

1 − 1<br />

2 x2 + O x 4 2<br />

= 1 − x 2 + O x 4 ,<br />

cos 2 (π∆x) ≈ 1 − π 2 ∆x 2 .<br />

No méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l ainda temos ρ (R) → 1 quadraticamente quan<strong>do</strong> ∆x → 0, mas a sua velocida<strong>de</strong><br />

<strong>de</strong> convergência para a matriz <strong>de</strong> discretização <strong>de</strong> cinco pontos <strong>do</strong> quadra<strong>do</strong> unitário é duas vezes maior que<br />

a <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi. Para ver isso, faça a expansão <strong>do</strong> logaritmo em torno <strong>do</strong> ponto x = 1:<br />

Segue que<br />

4.3.3 Convergência <strong>do</strong> Méto<strong>do</strong> SOR<br />

4.13 Teorema. Se o méto<strong>do</strong> SOR converge, então<br />

log (1 + x) = x + O ∆x 2 .<br />

R∞ (RJacobi) = π2<br />

2 ∆x2 + O ∆x 4 , (4.42)<br />

R∞ (RGauss-Sei<strong>de</strong>l) = π 2 ∆x 2 + O ∆x 4 . (4.43)<br />

0 < ω < 2.<br />

Prova. A matriz <strong>de</strong> iteração <strong>do</strong> méto<strong>do</strong> SOR é<br />

−1 <br />

1<br />

1 − ω<br />

1<br />

R = D − L<br />

D + U =<br />

ω ω<br />

= I − ωD −1 L <br />

−1 −1 1 − ω<br />

ωD D + U<br />

ω<br />

ω D I − ωD −1 L −1 <br />

1 − ω<br />

ω<br />

<br />

D + U


Rodney Josué Biezuner 102<br />

ou<br />

Se λ1, . . . , λn são os autovalores <strong>de</strong> R, então<br />

Mas,<br />

R = I − ωD −1 L −1 (1 − ω) I + ωD −1 U . (4.44)<br />

<strong>de</strong>t R = λ1 . . . λn.<br />

I −1 −1 −1<br />

<strong>de</strong>t R = <strong>de</strong>t − ωD L (1 − ω) I + ωD U <br />

= <strong>de</strong>t I − ωD −1 L −1 −1<br />

<strong>de</strong>t (1 − ω) I + ωD U<br />

= (1 − ω) n ,<br />

já que I − ωD −1 L é uma matriz triangular inferior com apenas 1 na diagonal principal e (1 − ω) I + ωD −1 U<br />

é uma matriz triangular superior com apenas 1 − ω na diagonal principal. Logo<br />

λ1 . . . λn = (1 − ω) n .<br />

Em particular, pelo menos um <strong>do</strong>s autovalores λj <strong>de</strong> R <strong>de</strong>ve satisfazer<br />

|λj| |1 − ω| .<br />

Mas, se o méto<strong>do</strong> SOR converge, <strong>de</strong>vemos ter também |λ| < 1 para to<strong>do</strong> autovalor λ <strong>de</strong> R. Logo<br />

<strong>do</strong>n<strong>de</strong><br />

<br />

|1 − ω| < 1,<br />

0 < ω < 2.<br />

4.14 Corolário. Se R é a matriz <strong>de</strong> iteração n × n para o méto<strong>do</strong> SOR, então<br />

<strong>de</strong>t R = (1 − ω) n .<br />

Em particular, diferente das matrizes <strong>de</strong> iteração <strong>do</strong>s méto<strong>do</strong>s <strong>de</strong> Jacobi e <strong>de</strong> Gauss-Sei<strong>de</strong>l (para a matriz <strong>de</strong><br />

discretização <strong>de</strong> cinco pontos), zero não é um autovalor para a matriz <strong>de</strong> iteração <strong>do</strong> méto<strong>do</strong> SOR se ω = 1<br />

(para nenhuma matriz).<br />

4.15 Teorema. Se A é uma matriz irredutível, diagonalmente <strong>do</strong>minante tal que |aii| > n<br />

|aij| para pelo<br />

menos alguma linha i, então o méto<strong>do</strong> SOR converge se 0 < ω 1.<br />

Prova. A <strong>de</strong>monstração é análoga à <strong>do</strong> Teorema 4.11. A matriz <strong>de</strong> iteração <strong>do</strong> méto<strong>do</strong> SOR é<br />

R = I − ωD −1 L −1 (1 − ω) I + ωD −1 U .<br />

Suponha por absur<strong>do</strong> que exista um autovalor λ <strong>de</strong> R tal que |λ| 1; temos<br />

Agora, observan<strong>do</strong> que<br />

<strong>de</strong>t I − λ −1 R = <strong>de</strong>t<br />

j=1<br />

j=i<br />

<br />

I − λ −1 I − ωD −1 L −1 (1 − ω) I + ωD −1 U <br />

= 0.<br />

<strong>de</strong>t I − ωD −1 L = 1


Rodney Josué Biezuner 103<br />

porque I − ωD −1 L é uma matriz triangular inferior com apenas 1’s na diagonal principal, escrevemos<br />

0 = <strong>de</strong>t<br />

<br />

I − λ −1 I − ωD −1 L −1 (1 − ω) I + ωD −1 U <br />

= <strong>de</strong>t I − ωD −1 L <strong>de</strong>t<br />

= <strong>de</strong>t<br />

<br />

I − λ −1 I − ωD −1 L −1 (1 − ω) I + ωD −1 U <br />

I − ωD −1 L <br />

I − λ −1 I − ωD −1 L −1 (1 − ω) I + ωD −1 U <br />

= <strong>de</strong>t I − ωD −1 L − λ −1 (1 − ω) I + ωD −1 U <br />

= <strong>de</strong>t 1 − λ −1 (1 − ω) I − ωD −1 L − λ −1 ωD −1 U .<br />

Por outro la<strong>do</strong>, como vimos na <strong>de</strong>monstração <strong>do</strong> Teorema 4.11, a matriz<br />

D −1 A = I − D −1 L − D −1 U<br />

é irredutível, diagonalmente <strong>do</strong>minante e estritamente <strong>do</strong>minante nas linhas on<strong>de</strong> A é, logo a matriz<br />

S = 1 − λ −1 (1 − ω) I − ωD −1 L − λ −1 ωD −1 U<br />

também satisfaz estas proprieda<strong>de</strong>s. De fato, S tem zeros nas mesmas posições que I − D −1 L − D −1 U, logo<br />

a sua irredutibilida<strong>de</strong> não é afetada. Além disso, pela <strong>do</strong>minância diagonal <strong>de</strong> D −1 A, sabemos que se<br />

bij = D −1 L <br />

ij ,<br />

cij = D −1 U <br />

ij .<br />

então<br />

i−1<br />

1 |bij| +<br />

j=1<br />

Para provar a <strong>do</strong>minância diagonal <strong>de</strong> S, observamos que os valores que S possui na diagonal principal são<br />

<strong>de</strong> mo<strong>do</strong> que precisamos provar que<br />

se 0 < ω 1 e |λ| 1. Provaremos que<br />

1 − λ −1 (1 − ω) = 1 −<br />

j=1<br />

n<br />

j=i+1<br />

1 − ω<br />

λ<br />

|cij| .<br />

<br />

<br />

<br />

λ + ω − 1<br />

i−1<br />

<br />

λ ω |bij| + ω<br />

|λ|<br />

<br />

<br />

<br />

λ + ω − 1<br />

<br />

λ ω,<br />

<br />

<br />

<br />

λ + ω − 1<br />

<br />

ω<br />

λ <br />

|λ| .<br />

λ + ω − 1<br />

= ,<br />

λ<br />

Para isso, observe que como |λ| 1 basta provar a primeira <strong>de</strong>sigualda<strong>de</strong>, a qual por sua vez é equivalente a<br />

|λ + ω − 1| |λ| ω.<br />

É fácil ver que esta <strong>de</strong>sigualda<strong>de</strong> é válida quan<strong>do</strong> λ ∈ R, pois<br />

n<br />

j=i+1<br />

|cij|<br />

|λ + ω − 1| = λ + ω − 1 λω porque λ − 1 λω − ω = ω (λ − 1) .


Rodney Josué Biezuner 104<br />

Para o caso geral em que λ ∈ C, fazemos cair no caso real escreven<strong>do</strong><br />

|λ + ω − 1| 2 = |λ − (1 − ω)| 2 = |λ| 2 − 2 (Re λ) (1 − ω) + (1 − ω) 2<br />

|λ| 2 − 2 |λ| (1 − ω) + (1 − ω) 2 = [|λ| − (1 − ω)] 2<br />

= [|λ| + ω − 1] 2 |λ| 2 ω 2 .<br />

O resulta<strong>do</strong> acima continua valen<strong>do</strong> com <strong>de</strong>sigualda<strong>de</strong> estrita nas linhas on<strong>de</strong> a <strong>de</strong>sigualda<strong>de</strong> é estrita. A<br />

Proposição 3.16 implica então que S é invertível, contradizen<strong>do</strong> <strong>de</strong>t S = 0. <br />

4.16 Teorema. Seja A uma matriz simétrica positiva <strong>de</strong>finida. Então o méto<strong>do</strong> SOR converge se 0 < ω < 2.<br />

Prova. Usaremos o Teorema 4.8. Escreven<strong>do</strong> A = D − L − U, temos L t = U porque A é simétrica e as<br />

entradas diagonais <strong>de</strong> D positivas porque A é positiva <strong>de</strong>finida. Para o méto<strong>do</strong> SOR temos<br />

B = 1<br />

1 − ω<br />

D − L e C = D + U,<br />

ω ω<br />

logo<br />

B t + C = 1<br />

ω D − Lt 1 − ω 2 − ω<br />

+ D + U =<br />

ω ω D<br />

é uma matriz simétrica positiva <strong>de</strong>finida se 0 < ω < 2. <br />

Na verda<strong>de</strong>, se as entradas diagonais <strong>de</strong> uma matriz simétrica são positivas, a condição <strong>de</strong> ser <strong>de</strong>finida<br />

positiva é equivalente à convergência <strong>do</strong> méto<strong>do</strong> SOR para 0 < ω < 2, como o próximo resulta<strong>do</strong> mostra.<br />

4.17 Teorema. Seja A uma matriz simétrica com entradas diagonais positivas. Então o méto<strong>do</strong> SOR<br />

converge se e somente se A é positiva <strong>de</strong>finida e 0 < ω < 2.<br />

Prova. Assuma que A é positiva <strong>de</strong>finida e que 0 < ω < 2. Seja<br />

R = I − ωD −1 L −1 (1 − ω) I + ωD −1 U <br />

a matriz <strong>de</strong> iteração <strong>do</strong> méto<strong>do</strong> SOR. Se λ é um autovalor <strong>de</strong> R e x um autovetor associa<strong>do</strong>, temos Rx = λx,<br />

<strong>do</strong>n<strong>de</strong> (1 − ω) I + ωD −1 U x = λ I − ωD −1 L x.<br />

Fazen<strong>do</strong> o produto interno canônico (hermitiano) <strong>de</strong> C n <strong>de</strong> ambos os la<strong>do</strong>s com o vetor x, segue que<br />

(1 − ω) 〈x, x〉 + ω x, D −1 Ux = λ 〈x, x〉 − ω x, D −1 Lx <br />

Isolan<strong>do</strong> λ,<br />

λ = (1 − ω) 〈x, x〉 + ω x, D−1Ux <br />

〈x, x〉 − ω 〈x, D−1 . (4.45)<br />

Lx〉<br />

Como A é simétrica, o produto <strong>de</strong> matrizes simétricas D −1 A = I − D −1 U − D −1 L também é; como<br />

D −1 U, D −1 L são respectivamente a parte estritamente triangular superior e estritamente triangular inferior<br />

<strong>de</strong> uma matriz simétrica, temos<br />

D −1 U t = D −1 L.<br />

Logo<br />

e <strong>de</strong>finin<strong>do</strong><br />

x, D −1 Ux =<br />

D <br />

−1 t<br />

U x, x = D −1 L x, x = 〈x, (D−1L) x〉,<br />

z =<br />

x, D −1 L x <br />

〈x, x〉<br />

,


Rodney Josué Biezuner 105<br />

po<strong>de</strong>mos escrever<br />

(1 − ω) + ωz<br />

λ = . (4.46)<br />

1 − ωz<br />

Os argumentos acima assumem que o <strong>de</strong>nomina<strong>do</strong>r é não-nulo. E, <strong>de</strong> fato, temos<br />

Re z = 1<br />

<br />

−1 −1<br />

1 x, D L x x, D U x<br />

(z + z) = +<br />

=<br />

2 2 〈x, x〉<br />

〈x, x〉<br />

1<br />

<br />

−1 −1 x, D L + D U x<br />

2 〈x, x〉<br />

= 1<br />

<br />

−1 x, I − D A x<br />

=<br />

2 〈x, x〉<br />

1<br />

<br />

−1 x, D A x<br />

1 −<br />

.<br />

2 〈x, x〉<br />

e como A é positiva <strong>de</strong>finida, D −1 A também é, o que implica<br />

x, D −1 A x <br />

〈x, x〉<br />

<strong>do</strong>n<strong>de</strong><br />

Re z < 1<br />

2 .<br />

<strong>de</strong> mo<strong>do</strong> que a parte real <strong>do</strong> <strong>de</strong>nomina<strong>do</strong>r 1 − ωz <strong>de</strong> λ é não-nula para 0 < ω < 2. Segue que<br />

|λ| 2 = λλ =<br />

[(1 − ω) + ωz] [(1 − ω) + ωz]<br />

(1 − ωz) (1 − ωz)<br />

> 0<br />

= ω2 − 2ω2 Re z − 2ω + 4ω Re z + 1 − 2ω Re z + ω2 |z| 2<br />

1 − 2ω Re z + ω2 |z| 2<br />

ω (2 − ω) (1 − 2 Re z)<br />

= 1 −<br />

1 − 2ω Re z + ω2 2 .<br />

|z|<br />

Como 0 < ω < 2 e Re z < 1<br />

, temos<br />

2<br />

e concluímos que<br />

ω (2 − ω) (1 − 2 Re z) > 0,<br />

|λ| < 1<br />

= (1 − ω)2 + 2ω (1 − ω) Re z + ω 2 |z| 2<br />

1 − 2ω Re z + ω 2 |z| 2<br />

para to<strong>do</strong> autovalor λ <strong>de</strong> R, logo o méto<strong>do</strong> SOR converge. A <strong>de</strong>monstração da recíproca (assim como uma<br />

<strong>de</strong>monstração alternativa, variacional, <strong>de</strong>ste teorema) po<strong>de</strong> ser vista em [Young]. <br />

Usan<strong>do</strong> o Teorema 4.15, concluímos que o méto<strong>do</strong> SOR converge para as matrizes <strong>de</strong> discretização obtidas<br />

através <strong>do</strong>s esquemas <strong>de</strong> diferenças finitas <strong>do</strong> Capítulo 2 se 0 < ω 1. Isso permite apenas subrelaxamento<br />

<strong>do</strong> méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l, o que em geral reduz a velocida<strong>de</strong> <strong>de</strong> convergência. Por outro la<strong>do</strong>, usan<strong>do</strong> o<br />

Teorema 4.16 ou o Teorema 4.17, concluímos que o méto<strong>do</strong> SOR converge para as matrizes <strong>de</strong> discretização<br />

obtidas a partir da fórmula <strong>de</strong> três pontos unidimensional e a partir da fórmula <strong>de</strong> cinco pontos bidimensional<br />

se 0 < ω < 2, já que estas são matrizes simétricas, positivas <strong>de</strong>finidas (já as matrizes <strong>de</strong> discretização obtidas<br />

através <strong>de</strong> coor<strong>de</strong>nadas polares ou pelo esquema <strong>de</strong> Shortley-Weller não são simétricas, em geral, como<br />

vimos).<br />

Em seguida fazemos uma análise da velocida<strong>de</strong> <strong>de</strong> convergência <strong>do</strong> méto<strong>do</strong> SOR para a matriz <strong>de</strong> discretização<br />

da fórmula <strong>de</strong> cinco pontos, bem como obtemos o melhor valor <strong>do</strong> fator <strong>de</strong> relaxamento ω para<br />

este caso.<br />

4.18 Lema. Seja A a matriz <strong>de</strong> discretização obtida a partir da fórmula <strong>de</strong> três pontos unidimensional ou<br />

a partir da fórmula <strong>de</strong> cinco pontos bidimensional com ∆x = ∆y. Se λ = 0 é um autovalor <strong>de</strong> RSOR,<br />

então existe um autovalor λJ <strong>de</strong> RJ tal que<br />

λJ =<br />

1 − ω − λ<br />

λ1/2 . (4.47)<br />

ω2


Rodney Josué Biezuner 106<br />

Reciprocamente, se λJ é um autovalor <strong>de</strong> RJ e λ ∈ C satisfaz a equação acima, então λ é um autovalor<br />

<strong>de</strong> RSOR.<br />

Prova. Argumentamos como na <strong>de</strong>monstração <strong>do</strong> Teorema 4.12. Para obter o raio espectral da matriz <strong>de</strong><br />

iteração RSOR, queremos encontrar os autovalores λ <strong>de</strong> RSOR:<br />

RSORu = I − ωD −1 L −1 (1 − ω) I + ωD −1 U u = λu,<br />

ou seja, (1 − ω) I + ωD −1 U u = λ I − ωD −1 L u<br />

No caso da matriz <strong>de</strong> discretização da fórmula <strong>de</strong> cinco pontos, isso significa encontrar λ tal que<br />

(1 − ω) ui,j + ω<br />

4 ui,j+1 + ω<br />

4 ui+1,j<br />

<br />

= λ ui,j − ω<br />

4 ui,j−1 − ω<br />

4 ui−1,j<br />

<br />

ou<br />

Fazen<strong>do</strong> a substituição<br />

e dividin<strong>do</strong> por µ i+j+1<br />

2 , segue que<br />

1 − ω − λ<br />

ui,j =<br />

ω<br />

1<br />

4 (ui,j+1 + ui+1,j + λui,j−1 + λui−1,j) . (4.48)<br />

ui,j = λ i+j<br />

2 vi,j<br />

vi−1,j + vi+1,j + vi,j−1 + vi,j+1 =<br />

1 − ω − λ<br />

λ 1/2 ω 4vi,j<br />

e daí o resulta<strong>do</strong>. <br />

Resolven<strong>do</strong> a equação (4.47) como uma equação quadrática em √ λ, vemos que as duas raízes λ± = 2<br />

λ±<br />

po<strong>de</strong>m ser escritas na forma<br />

λ± = 1<br />

<br />

−ωλJ ± ω<br />

4<br />

2λ2 2 J − 4 (ω − 1) . (4.49)<br />

Denotaremos<br />

e por λJ = ρ (RJ) o maior autovalor <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi.<br />

Λω,λJ = max (|λ+| , |λ−|) (4.50)<br />

4.19 Proposição. Seja A a matriz <strong>de</strong> discretização obtida a partir da fórmula <strong>de</strong> três pontos unidimensional<br />

ou a partir da fórmula <strong>de</strong> cinco pontos bidimensional com ∆x = ∆y. Então<br />

Prova. Por <strong>de</strong>finição,<br />

De (4.49) segue que<br />

Λω,λJ = 1<br />

4<br />

ρ (RSOR,ω) = Λ ω,λJ<br />

ρ (RSOR,ω) = max Λω,λJ<br />

λJ<br />

.<br />

<br />

<br />

<br />

ωλJ +<br />

<br />

ω2λ 2<br />

<br />

<br />

J − 4 (ω − 1) <br />

<br />

2<br />

.<br />

(4.51)<br />

Se 0 < ω 1, ω2λ 2<br />

J − 4 (ω − 1) 0 e Λω,λJ é uma função crescente <strong>de</strong> λJ, logo o máximo é atingi<strong>do</strong> em λJ.<br />

Se ω > 1, <strong>de</strong>fina<br />

<br />

4 (ω − 1)<br />

λc =<br />

ω2 .


Rodney Josué Biezuner 107<br />

Se λJ > λc, ω 2 λ 2<br />

J − 4 (ω − 1) > 0 e segue a conclusão como no caso anterior. Se λJ λc, então ω 2 λ 2<br />

J −<br />

4 (ω − 1) 0 e<br />

on<strong>de</strong> i = √ −1, logo<br />

Λω,λJ =<br />

<br />

ω2λ 2<br />

<br />

J − 4 (ω − 1) = 4 (ω − 1) − ω2λ 2<br />

Ji,<br />

<br />

<br />

<br />

ωλJ <br />

+ ω2λ 2<br />

<br />

<br />

J − 4 (ω − 1) <br />

<br />

= ω − 1,<br />

2<br />

<br />

<br />

<br />

= <br />

<br />

ω 2 λ 2 J +<br />

<br />

4 (ω − 1) − ω2λ 2<br />

<br />

J<br />

2 <br />

<br />

e novamente Λω,λJ é uma função crescente <strong>de</strong> λJ. <br />

Defina<br />

2<br />

ωótimo = <br />

1 + 1 − λ 2<br />

.<br />

J<br />

(4.52)<br />

Note que 1 < ωótimo < 2. Mostraremos que ωótimo é <strong>de</strong> fato o melhor valor para o fator <strong>de</strong> relaxamento no<br />

méto<strong>do</strong> SOR. Antes precisamos <strong>do</strong> seguinte resulta<strong>do</strong>:<br />

4.20 Proposição. Seja A a matriz <strong>de</strong> discretização obtida a partir da fórmula <strong>de</strong> três pontos unidimensional<br />

ou a partir da fórmula <strong>de</strong> cinco pontos bidimensional com ∆x = ∆y. Então<br />

⎧ <br />

⎨ 1<br />

ωλJ ρ (RSOR,ω) =<br />

+ ω<br />

⎩<br />

4<br />

2λ 2<br />

2 J − 4 (ω − 1) se 0 < ω ωótimo,<br />

(4.53)<br />

ω − 1 se ωótimo ω < 2.<br />

Prova. Temos ω 2 λ 2<br />

J − 4 (ω − 1) 0 para 0 < ω < 2 se e somente se ω ωótimo. De fato, as raízes <strong>de</strong><br />

f (ω) = ω 2 λ 2<br />

J − 4ω + 4 são<br />

ω± =<br />

<br />

4 ± 4 1 − λ 2<br />

J<br />

2λ 2<br />

J<br />

= 2<br />

λ 2<br />

<br />

1 ± 1 − λ<br />

J<br />

2<br />

<br />

J<br />

<strong>de</strong> mo<strong>do</strong> que a raiz positiva <strong>de</strong> f é maior que 2, logo para que f (ω) 0 se 0 < ω < 2, <strong>de</strong>vemos ter<br />

ω 2<br />

λ 2<br />

<br />

1 − 1 − λ<br />

J<br />

2<br />

<br />

J = 2<br />

λ 2<br />

<br />

1 − 1 − λ<br />

J<br />

2<br />

<br />

J<br />

<br />

1 + 1 − λ 2<br />

2<br />

= <br />

J 1 + 1 − λ 2<br />

.<br />

J<br />

O resulta<strong>do</strong> segue então como na <strong>de</strong>monstração da proposição anterior. <br />

4.21 Teorema. Seja A a matriz <strong>de</strong> discretização obtida a partir da fórmula <strong>de</strong> três pontos unidimensional<br />

ou a partir da fórmula <strong>de</strong> cinco pontos bidimensional com ∆x = ∆y. Então o fator <strong>de</strong> relaxamento<br />

ótimo para o méto<strong>do</strong> SOR é da<strong>do</strong> por<br />

ωótimo =<br />

é o fator <strong>de</strong> relaxamento ótimo para o méto<strong>do</strong> SOR.<br />

Prova. Se 0 < ω ωótimo, então ω 2 λ 2<br />

J − 4 (ω − 1) 0 e<br />

<br />

d<br />

ωλJ + ω<br />

dω<br />

2λ 2<br />

<br />

J − 4 (ω − 1) = λJ<br />

2<br />

1 + sen π<br />

n<br />

<br />

ω 2 λ 2<br />

J − 4 (ω − 1) + ωλ 2<br />

J − 2<br />

<br />

ω2λ 2<br />

.<br />

J − 4 (ω − 1)<br />

(4.54)


Rodney Josué Biezuner 108<br />

Temos ωλ 2<br />

J − 2 < 0, porque 0 < ω < 2 e λJ < 1, e<br />

<br />

<br />

ωλ 2<br />

<br />

<br />

J − 2<br />

> λJ ω2λ 2<br />

J − 4 (ω − 1),<br />

pois<br />

Isso implica<br />

<br />

<br />

ωλ 2<br />

<br />

<br />

J − 2<br />

2<br />

= ω 2 λ 4<br />

J − 4λ 2<br />

Jω + 4 > ω 2 λ 4<br />

J − 4λ 2<br />

Jω + 4λ 2<br />

<br />

= λJ ω2λ 2<br />

2 J − 4 (ω − 1) .<br />

J > ω 2 λ 4<br />

<br />

d<br />

ωλJ + ω<br />

dω<br />

2λ 2<br />

<br />

J − 4 (ω − 1) < 0,<br />

J − 4λ 2<br />

J (ω − 1)<br />

logo ρ (RSOR,ω) é <strong>de</strong>crescente <strong>de</strong> 0 até ωótimo. Para ωótimo ω < 2, ρ (RSOR,ω) = ω − 1 é claramente<br />

crescente. Portanto, ρ (RSOR,ω) atinge o seu mínimo em ωótimo.<br />

Pelo Teorema 4.10, temos<br />

λJ = cos π<br />

n ,<br />

logo<br />

2<br />

ωótimo = <br />

1 + 1 − λ 2<br />

J<br />

2<br />

= <br />

π<br />

1 + 1 − cos2 n<br />

2<br />

=<br />

1 + sen π<br />

<br />

.<br />

n<br />

Para o quadra<strong>do</strong> unitário temos<br />

2<br />

ωótimo =<br />

1 + sen (π∆x)<br />

e conseqüentemente<br />

2<br />

1 − sen (π∆x)<br />

ρ (RSOR,ω) =<br />

− 1 =<br />

1 + sen (π∆x) 1 + sen (π∆x) .<br />

e usan<strong>do</strong><br />

1 − x<br />

1 + x = 1 − 2x + O x 2 ,<br />

sen x = x + O x 3 ,<br />

se ∆x é pequeno po<strong>de</strong>mos aproximar<br />

1 − sen (π∆x)<br />

1 + sen (π∆x) ≈ 1 − 2π∆x + O ∆x 2 .<br />

Portanto, usan<strong>do</strong> o valor ótimo <strong>de</strong> ω no méto<strong>do</strong> SOR, temos ρ (R) → 1 linearmente quan<strong>do</strong> ∆x → 0, um<br />

resulta<strong>do</strong> muito melhor que o obti<strong>do</strong> nos méto<strong>do</strong>s <strong>de</strong> Jacobi e <strong>de</strong> Gauss-Sei<strong>de</strong>l. Para uma comparação mais<br />

precisa, usan<strong>do</strong><br />

log (1 + x) = x + O ∆x 2<br />

temos que<br />

Segue que<br />

R∞ (RSOR) = 2π∆x + O ∆x 2 . (4.55)<br />

R∞ (RSOR)<br />

R∞ (RGauss-Sei<strong>de</strong>l)<br />

2π∆x<br />

≈<br />

π2 2<br />

=<br />

∆x2 π∆x .<br />

Em particular, se ∆x = 0.025, temos ωótimo = 1. 8545 e R∞ (RSOR) /R∞ (RGauss-Sei<strong>de</strong>l) = 25.5, isto é, o<br />

méto<strong>do</strong> SOR é 25 vezes mais rápi<strong>do</strong> que o méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l. Quanto mais refinada a malha, maior é<br />

a diferença na velocida<strong>de</strong> <strong>de</strong> convergência entre os <strong>do</strong>is méto<strong>do</strong>s.


Rodney Josué Biezuner 109<br />

4.3.4 Convergência <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Jacobi Amorteci<strong>do</strong><br />

4.22 Teorema. Se o méto<strong>do</strong> <strong>de</strong> Jacobi converge, então o méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong> converge para<br />

0 < ω 1.<br />

Prova. Vamos escrever a matriz <strong>de</strong> iteração RJ,ω <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong> em função da matriz <strong>de</strong><br />

iteração <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi RJ. Temos<br />

<strong>de</strong> mo<strong>do</strong> que<br />

<strong>do</strong>n<strong>de</strong><br />

RJ,ω =<br />

Em particular,<br />

se e somente se<br />

RJ = D −1 (D − A)<br />

<br />

1<br />

ω D<br />

−1 <br />

1<br />

D − A = ωD<br />

ω −1<br />

<br />

1<br />

D − D + D − A = ωD<br />

ω −1<br />

<br />

1<br />

D − D + ωD<br />

ω −1 (D − A)<br />

Portanto, λJ é um autovalor <strong>de</strong> RJ se e somente se<br />

RJ,ω = (1 − ω) I + ωRJ. (4.56)<br />

RJv = λv<br />

[RJ,ω − (1 − ω) I] v = ωλv.<br />

λJ,ω = ωλJ + 1 − ω (4.57)<br />

é um autovalor <strong>de</strong> RJ,ω. Logo, se to<strong>do</strong> autovalor <strong>de</strong> RJ satisfaz |λJ| < 1 (isto é, ρ (RJ) < 1 equivalente ao<br />

méto<strong>do</strong> <strong>de</strong> Jacobi convergir) e ω < 1, então<br />

|λJ,ω| 2 = (ωλJ + 1 − ω) ωλJ + 1 − ω <br />

= ω 2 |λJ| 2 + 2 Re λJω (1 − ω) + (1 − ω) 2<br />

ω 2 |λJ| 2 + 2 |λJ| ω (1 − ω) + (1 − ω) 2<br />

= (ω |λJ| + 1 − ω) 2<br />

< 1.<br />

<br />

Segue <strong>do</strong> Teorema 4.8 que o méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong> converge para as matrizes <strong>de</strong> discretização <strong>do</strong><br />

Capítulo 2 se 0 < ω 1.<br />

4.23 Corolário.<br />

Para o quadra<strong>do</strong> unitário temos<br />

Usan<strong>do</strong><br />

ρ (RJ,ω) = ω [ρ (RJ) − 1] + 1. (4.58)<br />

ρ (RJ,ω) = ω [cos (π∆x) − 1] + 1. (4.59)<br />

cos x = 1 − 1<br />

2 x2 + O x 4 ,<br />

log (1 + x) = x + O ∆x 2 ,


Rodney Josué Biezuner 110<br />

se ∆x é pequeno po<strong>de</strong>mos aproximar<br />

ρ (RJ,ω) ≈ 1 − ω π2<br />

2 ∆x2 + O ∆x 4 ,<br />

R∞ (RJ,ω) ≈ ω π2<br />

2 ∆x2 .<br />

Vemos que a velocida<strong>de</strong> <strong>de</strong> convergência <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi amorteci<strong>do</strong> é da mesma or<strong>de</strong>m que a <strong>do</strong> méto<strong>do</strong><br />

<strong>de</strong> Jacobi, um pouco pior para valores <strong>de</strong> ω próximos <strong>de</strong> 1 e muito pior para valores <strong>de</strong> ω próximos <strong>de</strong> 0.<br />

4.3.5 Resumo<br />

Méto<strong>do</strong> ρ (R) R∞ (R)<br />

Jacobi cos (π∆x)<br />

π 2<br />

2 ∆x2 + O ∆x 4<br />

Gauss-Sei<strong>de</strong>l cos 2 (π∆x) π 2 ∆x 2 + O ∆x 4<br />

SOR ótimo 1 − 2π∆x + O ∆x 2<br />

2π∆x + O ∆x 2<br />

Jacobi amorteci<strong>do</strong> 1 − ω π2<br />

2 ∆x2 + O ∆x 4 ω π2<br />

2 ∆x2 + O ∆x 4<br />

4.4 Méto<strong>do</strong> <strong>do</strong> Gradiente Conjuga<strong>do</strong><br />

Nesta seção, A será sempre uma matriz real simétrica, positiva <strong>de</strong>finida. Neste caso, a resolução <strong>do</strong> sistema<br />

Ax = b é equivalente à resolução <strong>de</strong> um problema <strong>de</strong> minimização <strong>de</strong> um funcional quadrático:<br />

4.24 Teorema. (Méto<strong>do</strong> Variacional para a Resolução <strong>de</strong> Sistemas Lineares) Seja A ∈ Mn (R) uma matriz<br />

simétrica positiva <strong>de</strong>finida e b ∈ R n . Então a solução <strong>do</strong> sistema<br />

Ax = b<br />

é o único ponto x que minimiza o funcional quadrático<br />

f (y) = 1<br />

2 yt Ay − y t b. (4.60)<br />

Prova: Uma matriz simétrica positiva <strong>de</strong>finida é invertível, logo existe uma única solução x para o sistema<br />

Ax = b. Para provar o teorema, começamos observan<strong>do</strong> que, como y t Ax ∈ R é um escalar, temos<br />

Daí,<br />

y t Ax = y t Ax t = x t A t y = x t Ay.<br />

f (y) − f (x) = 1<br />

2 yt Ay − y t b − 1<br />

2 xt Ax + x t b<br />

= 1<br />

2 yt Ay − y t Ax − 1<br />

2 xt Ax + x t Ax<br />

= 1<br />

2 yt Ay − y t Ax + 1<br />

2 xt Ax<br />

= 1<br />

2 yt Ay − 1<br />

2 yt Ax − 1<br />

2 xt Ay + 1<br />

2 xt Ax<br />

= 1<br />

2 yt A (y − x) − 1<br />

2 xt A (y − x)


Rodney Josué Biezuner 111<br />

ou<br />

f (y) − f (x) = 1<br />

2 (y − x)t A (y − x) . (4.61)<br />

Como A é positiva <strong>de</strong>finida, segue que<br />

e<br />

se e somente se y = x. Portanto,<br />

(y − x) t A (y − x) = 〈A (y − x) , (y − x)〉 0<br />

(y − x) t A (y − x) = 0<br />

f (y) > f (x)<br />

para to<strong>do</strong> y = x e o mínimo <strong>de</strong> f ocorre em x. <br />

Em muitos problemas, o funcional f tem significa<strong>do</strong> físico, correspon<strong>de</strong>nte a um funcional <strong>de</strong> energia que<br />

quan<strong>do</strong> é minimiza<strong>do</strong> correspon<strong>de</strong> a um esta<strong>do</strong> <strong>de</strong> equilíbrio <strong>do</strong> sistema. Observe que <strong>de</strong>finin<strong>do</strong> um produto<br />

interno a partir da matriz simétrica positiva <strong>de</strong>finida A da maneira usual por 〈v, w〉 A = vtAw e consi<strong>de</strong>ran<strong>do</strong><br />

a norma induzida vA = 〈v, v〉 1/2<br />

A , o funcional f po<strong>de</strong> ser escrito na forma<br />

f (y) = 1<br />

〈y, Ay〉 − 〈y, Ax〉 (4.62)<br />

2<br />

ou<br />

f (y) = 1<br />

2 y2 A − 〈y, x〉 A . (4.63)<br />

Outra maneira <strong>de</strong> enxergar o resulta<strong>do</strong> <strong>do</strong> teorema anterior é observar que o gradiente <strong>do</strong> funcional f é<br />

Se x é um ponto <strong>de</strong> mínimo temos ∇f (x) = 0, ou seja,<br />

∇f (y) = Ay − b. (4.64)<br />

Ax = b.<br />

Este méto<strong>do</strong> variacional é a base <strong>do</strong>s méto<strong>do</strong>s iterativos <strong>de</strong> <strong>de</strong>scida em geral, e <strong>do</strong> méto<strong>do</strong> <strong>do</strong> gradiente<br />

conjuga<strong>do</strong> em particular. A idéia é usar as idéias <strong>do</strong> cálculo diferencial para encontrar o mínimo <strong>do</strong> funcional<br />

quadrático f.<br />

4.4.1 Méto<strong>do</strong>s <strong>de</strong> Descida<br />

A filosofia <strong>do</strong>s méto<strong>do</strong>s <strong>de</strong> <strong>de</strong>scida é começar com um chute inicial x 0 e gerar uma seqüência <strong>de</strong> itera<strong>do</strong>s<br />

x 1 , x 2 , . . . , x k , . . . que satisfazem<br />

f x k+1 f x k<br />

ou, melhor ainda,<br />

f x k+1 < f x k<br />

<strong>de</strong> tal mo<strong>do</strong> que x k convirja para o minimiza<strong>do</strong>r <strong>de</strong> f. Em outras palavras, em um méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida<br />

buscamos encontrar uma seqüência minimizante x k que convirja para a solução <strong>do</strong> sistema.<br />

O passo <strong>de</strong> x k para x k+1 envolve <strong>do</strong>is ingredientes: (1) uma direção <strong>de</strong> busca e (2) um avanço <strong>de</strong><br />

comprimento especifica<strong>do</strong> na direção <strong>de</strong> busca. Uma direção <strong>de</strong> busca significa a escolha <strong>de</strong> um vetor p k que<br />

indicará a direção que avançaremos <strong>de</strong> x k para x k+1 . O comprimento <strong>do</strong> avanço é equivalente à escolha <strong>de</strong><br />

um escalar αk multiplican<strong>do</strong> o vetor p k . Assim,<br />

x k+1 = x k + αkp k .


Rodney Josué Biezuner 112<br />

A escolha <strong>de</strong> αk é também chamada uma busca na reta, já que queremos escolher um ponto na reta<br />

x k + αp k : α ∈ R <br />

tal que<br />

f x k + αp k f x k .<br />

I<strong>de</strong>almente, gostaríamos <strong>de</strong> escolher αk <strong>de</strong> tal mo<strong>do</strong> que<br />

f x k+1 = f x k + αkp k = min<br />

α∈R f x k + αp k<br />

Esta é chamada uma busca na reta exata. Para funcionais quadráticos, a busca na reta exata é trivial e<br />

obtemos uma fórmula para o valor <strong>de</strong> αk, como veremos a seguir. Denotaremos o resíduo em cada iteração<br />

por<br />

r k = b − Ax k . (4.65)<br />

4.25 Proposição. Seja αk ∈ R tal que<br />

Então<br />

Prova: Consi<strong>de</strong>re o funcional<br />

g é um polinômio quadrático em α, pois<br />

f x k + αkp k = min<br />

α∈R f x k + αp k .<br />

αk =<br />

p k t r k<br />

(pk ) t =<br />

Apk g (α) = f x k + αp k .<br />

p k , r k <br />

〈pk , Apk . (4.66)<br />

〉<br />

g (α) = 1 k k<br />

x + αp<br />

2<br />

t k k<br />

A x + αp − x k + αp kt b<br />

= 1 k<br />

x<br />

2<br />

t k k<br />

Ax − x t α k<br />

b + x<br />

2<br />

t k α k<br />

Ap + p<br />

2<br />

t k α<br />

Ax + 2 k<br />

p<br />

2<br />

t k k<br />

Ap − α p t<br />

b<br />

= f x k <br />

1 k<br />

+ α p<br />

2<br />

t k 1 k<br />

Ax + p<br />

2<br />

t k k<br />

Ax − p t<br />

<br />

b + α2 k<br />

p<br />

2<br />

t k<br />

Ap<br />

= f x k − α p kt k α<br />

Ar + 2 k<br />

p<br />

2<br />

t k<br />

Ap ,<br />

portanto o mínimo <strong>de</strong> g é atingi<strong>do</strong> no vértice −B/2A da parábola Y = AX 2 + BX + C. <br />

Observe que αk = 0 se e somente se p k t r k = 0, isto é, a direção <strong>de</strong> busca é ortogonal ao resíduo. Como<br />

gostaríamos sempre que possível <strong>de</strong> ter x k+1 = x k , <strong>de</strong>vemos sempre escolher a direção <strong>de</strong> busca <strong>de</strong> forma a<br />

não ser ortogonal a r k . Se esta escolha é feita, então teremos sempre f x k+1 < f x k .<br />

Exemplo 1. (Méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l) Consi<strong>de</strong>re o méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida em que as primeiras n direções <strong>de</strong><br />

busca p 1 , . . . , p n são os vetores e1, . . . , en da base canônica <strong>de</strong> R n , e isso é repeti<strong>do</strong> a cada n iterações,<br />

<strong>de</strong> mo<strong>do</strong> que p k+n = ek para to<strong>do</strong> k = 1, . . . , n, com uma busca na reta exata executada em cada<br />

iteração. Então cada grupo <strong>de</strong> n iterações correspon<strong>de</strong> a uma iteração <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Gauss-Sei<strong>de</strong>l.<br />

Exemplo 2. (Méto<strong>do</strong> SOR) Usan<strong>do</strong> as mesmas direções <strong>de</strong> busca <strong>do</strong> exemplo anterior, mas com x k+1 =<br />

x k + ωαkp k , ω = 1, obtemos um méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida em que as buscas nas retas são inexatas. Cada<br />

grupo <strong>de</strong> n iterações correspon<strong>de</strong> a uma iteração <strong>do</strong> méto<strong>do</strong> SOR.


Rodney Josué Biezuner 113<br />

4.4.2 Méto<strong>do</strong> da Descida Mais Acentuada<br />

Do Cálculo Diferencial, sabemos que a direção em que a função cresce a uma taxa mais rápida a partir <strong>de</strong><br />

um ponto é a direção <strong>do</strong> gradiente neste ponto. Esta observação é a base da escolha da direção <strong>de</strong> busca no<br />

méto<strong>do</strong> da <strong>de</strong>scida mais acentuada. Em outras palavras, escolhemos<br />

ou<br />

p k = −∇f x k = b − Ax k<br />

p k = r k . (4.67)<br />

Buscar na direção da <strong>de</strong>scida mais acentuada é uma idéia natural, mas que na prática não funciona sem<br />

modificações. De fato, em alguns casos o méto<strong>do</strong> é <strong>de</strong> velocida<strong>de</strong> comparável à <strong>do</strong> méto<strong>do</strong> <strong>de</strong> Jacobi, como<br />

na matriz <strong>de</strong> discretização da fórmula <strong>de</strong> cinco pontos aplicada ao problema <strong>de</strong>scrito na primeira seção <strong>de</strong>ste<br />

capítulo [Watkins]:<br />

∆x = 0.1 ∆x = 0.05 ∆x = 0.025<br />

Jacobi 299 1090 3908<br />

Descida Mais Acentuada 304 1114 4010<br />

De fato, como as iterações <strong>do</strong> méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida mais acentuada são bem mais custosas que as <strong>do</strong> méto<strong>do</strong><br />

<strong>de</strong> Jacobi, o primeiro é muito pior que este último.<br />

Para enten<strong>de</strong>r melhor o méto<strong>do</strong> da <strong>de</strong>scida mais acentuada, porque ele po<strong>de</strong> ser lento e as modificações que<br />

vamos fazer para torná-lo mais rápi<strong>do</strong> levan<strong>do</strong> ao méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong>, vamos enten<strong>de</strong>r o processo<br />

<strong>do</strong> ponto <strong>de</strong> vista geométrico. Como vimos na <strong>de</strong>monstração <strong>do</strong> Teorema 4.24, o funcional quadrático f é<br />

da forma<br />

f (y) = 1<br />

2 (y − x)t A (y − x) + c (4.68)<br />

on<strong>de</strong> c = f (x) = 1<br />

2 xt Ax − x t b é uma constante. Já que A é uma matriz simétrica, existe uma matriz<br />

ortogonal P tal que P t AP é uma matriz diagonal D , cujos valores na diagonal principal são exatamente os<br />

autovalores positivos <strong>de</strong> A. Nas coor<strong>de</strong>nadas<br />

o funcional f tem a forma<br />

z = P t (y − x) ,<br />

f (z) = 1<br />

2 ztDz + c = 1<br />

2<br />

n<br />

i=1<br />

λiz 2 i + c. (4.69)<br />

As curvas <strong>de</strong> nível <strong>do</strong> funcional f neste sistema <strong>de</strong> coor<strong>de</strong>nadas são elipses (em R 2 , elipsói<strong>de</strong>s em R 3 e<br />

hiperelipsói<strong>de</strong>s em R n ) centradas na origem com eixos paralelos aos eixos coor<strong>de</strong>na<strong>do</strong>s e f (0) = c é nível<br />

mínimo <strong>de</strong> f; elipses correspon<strong>de</strong>ntes a menores valores <strong>de</strong> f estão <strong>de</strong>ntro <strong>de</strong> elipses correspon<strong>de</strong>ntes a<br />

maiores valores <strong>de</strong> f. Como P é uma aplicação ortogonal, as curvas <strong>de</strong> nível <strong>de</strong> f no sistema <strong>de</strong> coor<strong>de</strong>nadas<br />

original também são elipses, centradas em x, e uma reta <strong>de</strong> um ponto y até o ponto x corta elipses <strong>de</strong> níveis<br />

cada vez menores até chegar ao mínimo da função f em x, centro <strong>de</strong> todas as elipses. O vetor gradiente é<br />

perpendicular às curvas <strong>de</strong> nível, logo é perpendicular às elipses. Seguir a direção <strong>de</strong> <strong>de</strong>scida mais acentuada<br />

equivale a cortar a elipse que contém x k ortogonalmente na direção <strong>do</strong> interior da elipse até encontrar um<br />

ponto x k+1 situa<strong>do</strong> em uma elipse que a reta tangencie, pois a partir daí a reta irá na direção <strong>de</strong> elipses com<br />

níveis maiores, portanto este é o ponto da reta on<strong>de</strong> f atinge o seu mínimo. Em particular, vemos que a<br />

próxima direção p k+1 é ortogonal à direção anterior p k , tangente a esta elipse. Em geral, a direção <strong>de</strong> <strong>de</strong>scida<br />

mais acentuada não é a direção <strong>de</strong> x (quan<strong>do</strong> bastaria uma iteração para atingir a solução exata) a não ser<br />

que A seja um múltiplo escalar da i<strong>de</strong>ntida<strong>de</strong>, <strong>de</strong> mo<strong>do</strong> que to<strong>do</strong>s os autovalores <strong>de</strong> A são iguais e as elipses<br />

são círculos. Por outro la<strong>do</strong>, se os autovalores <strong>de</strong> A têm valores muito diferentes uns <strong>do</strong>s outros, com alguns<br />

muito pequenos e alguns muito gran<strong>de</strong>s, as elipses serão bastante excêntricas e, <strong>de</strong>pen<strong>de</strong>n<strong>do</strong> <strong>do</strong> chute inicial,


Rodney Josué Biezuner 114<br />

a convergência po<strong>de</strong> ser muito lenta (matrizes com estas proprieda<strong>de</strong>s são chamadas mal-condicionadas; para<br />

que o méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida acentuada seja lento, a matriz A não precisa ser muito mal-condicionada).<br />

Como vimos na seção anterior, os algoritmos <strong>de</strong> Gauss-Sei<strong>de</strong>l e SOR po<strong>de</strong>m ser encara<strong>do</strong>s como algoritmos<br />

<strong>de</strong> <strong>de</strong>scida. A discussão no parágrafo anterior também po<strong>de</strong> ser usada para enten<strong>de</strong>r a relativa lentidão <strong>de</strong>stes<br />

algoritmos.<br />

4.4.3 Méto<strong>do</strong> <strong>do</strong> Gradiente Conjuga<strong>do</strong><br />

To<strong>do</strong>s os méto<strong>do</strong>s iterativos que vimos neste capítulo são limita<strong>do</strong>s pela sua falta <strong>de</strong> memória, no senti<strong>do</strong> <strong>de</strong><br />

que apenas informação sobre x k é usada para obter x k+1 . Toda a informação sobre as iterações anteriores é<br />

<strong>de</strong>letada. O méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong> é uma variação simples <strong>do</strong> méto<strong>do</strong> da <strong>de</strong>scida mais acentuada<br />

que funciona melhor porque a informação obtida através das iterações anteriores é utilizada.<br />

Para enten<strong>de</strong>r brevemente como isso funciona, observe que <strong>de</strong>pois <strong>de</strong> j iterações x k+1 = x k + αkp k <strong>de</strong><br />

um méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida temos<br />

x j = x 0 + α0p 0 + α1p 1 + . . . + αj−1p j−1 ,<br />

<strong>de</strong> mo<strong>do</strong> que x j está no subespaço afim gera<strong>do</strong> pelo chute inicial x 0 e pelos vetores p 0 , p 1 , . . . , p j−1 .<br />

Enquanto o méto<strong>do</strong> da <strong>de</strong>scida mais acentuada minimiza o funcional <strong>de</strong> energia f apenas ao longo das j<br />

retas x k + αkp k , cuja união constitui apenas um pequeno subconjunto <strong>de</strong> x 0 + p 0 , p 1 , . . . , p j−1 , o méto<strong>do</strong><br />

<strong>do</strong> gradiente conjuga<strong>do</strong> minimiza f sobre to<strong>do</strong> o subespaço afim x 0 + p 0 , p 1 , . . . , p j−1 .<br />

Para <strong>de</strong>finir as direções <strong>de</strong> busca <strong>do</strong> méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong> (que é, antes <strong>de</strong> mais nada, um<br />

méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida), lembramos que o funcional f foi escrito na forma<br />

Defina o erro<br />

Pela regra <strong>do</strong> paralelogramo, temos<br />

<strong>do</strong>n<strong>de</strong><br />

f (y) = 1<br />

2 y2<br />

A − 〈y, x〉 A .<br />

e = x − y. (4.70)<br />

x + y 2<br />

A + x − y2 A = 2 x2 A + 2 y2 A ,<br />

2 y 2<br />

A = x − y2 A + x2 A + 2 〈y, x〉 A + y2 A − 2 x2 A<br />

= x − y 2<br />

A + 2 〈y, x〉 A − x2 A + y2 A ,<br />

ou<br />

y 2<br />

A − 2 〈y, x〉 A = x − y2 A − x2 A .<br />

Logo, po<strong>de</strong>mos escrever<br />

f (y) = 1<br />

2 e2<br />

1<br />

A −<br />

2 x2 A . (4.71)<br />

Conseqüentemente, minimizar o funcional f é equivalente a minimizar a A-norma <strong>do</strong> erro.<br />

Agora, em um méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida, <strong>de</strong>pois <strong>de</strong> j iterações temos:<br />

e j = x − x j = x − x 0 − α0p 0 + α1p 1 + . . . + αj−1p j−1<br />

= e 0 − α0p 0 + α1p 1 + . . . + αj−1p j−1 .<br />

Logo, minimizar ej 2<br />

é equivalente a minimizar<br />

A<br />

<br />

e 0 − α0p 0 + α1p 1 + . . . + αj−1p j−1 ,<br />

A<br />

o que por sua vez é equivalente a encontrar a melhor aproximação <strong>do</strong> vetor e 0 no subespaço Wj = p 0 , p 1 , . . . , p j−1 .<br />

Esta é dada pelo lema da melhor aproximação:


Rodney Josué Biezuner 115<br />

4.26 Proposição. Sejam A ∈ Mn (R) uma matriz simétrica positiva <strong>de</strong>finida, v ∈ R n e W um subsespaço<br />

<strong>de</strong> R n . Então existe um único w ∈ W tal que<br />

v − w A = min<br />

z∈W v − z A .<br />

O vetor w é caracteriza<strong>do</strong> pela condição v − w ⊥A W .<br />

Segue <strong>de</strong>ste resulta<strong>do</strong> que e j A é minimiza<strong>do</strong> quan<strong>do</strong> escolhemos p = α0p 0 + α1p 1 + . . . + αj−1p j−1 ∈ Wj<br />

tal que e j = e 0 − p satisfaz<br />

e j ⊥A p i para i = 1, . . . , j − 1. (4.72)<br />

Definição. Dois vetores y, z que são ortogonais com respeito ao produto interno 〈·, ·〉 A , isto é, tais que<br />

são chama<strong>do</strong>s conjuga<strong>do</strong>s.<br />

〈y, z〉 A = 0<br />

Nosso objetivo então é <strong>de</strong>senvolver um méto<strong>do</strong> em que o erro a cada passo é conjuga<strong>do</strong> com todas as direções<br />

<strong>de</strong> busca anteriores. O próximo resulta<strong>do</strong>, que é basicamente uma reafirmação da Proposição 4.25, mostra<br />

que em qualquer méto<strong>do</strong> <strong>de</strong> <strong>de</strong>scida em que a busca na reta é exata satisfaz automaticamente e j ⊥A p j−1 ,<br />

isto é, (4.72) é váli<strong>do</strong> para a última iteração (o erro da iteração presente é A-ortogonal à direção <strong>de</strong> busca<br />

da iteração anterior).<br />

4.27 Proposição. Seja x k+1 = x k + αkp k obti<strong>do</strong> através <strong>de</strong> uma busca na reta exata. Então<br />

e<br />

Prova: Temos<br />

r k+1 ⊥ p k<br />

e k+1 ⊥A p k .<br />

b − Ax k+1 = b − Ax k − αkAp k ,<br />

<strong>de</strong> mo<strong>do</strong> que a seqüência <strong>do</strong>s resíduos é dada pela fórmula<br />

Logo,<br />

Além disso, como<br />

k+1 k<br />

r , p = r k+1 , p k k k<br />

− αk Ap , p = r k , p k −<br />

r k+1 = r k − αkAp k . (4.73)<br />

Ae k+1 = r k+1 ,<br />

p k , r k <br />

〈p k , Ap k 〉<br />

Ap k , p k = 0.<br />

segue que k+1 k<br />

e , p <br />

A = Ae k+1 , p k = r k+1 , p k = 0.<br />

<br />

O significa<strong>do</strong> geométrico <strong>de</strong>ste resulta<strong>do</strong> é que o mínimo <strong>do</strong> funcional f na reta xk + αkpk ocorre quan<strong>do</strong> a<br />

<strong>de</strong>rivada direcional <strong>de</strong> f na direção <strong>de</strong> busca é zero, ou seja,<br />

0 = ∂f k+1<br />

x<br />

∂pk<br />

= ∇f x k+1 k+1<br />

, pk = r , pk .<br />

De acor<strong>do</strong> com a Proposição 4.27, <strong>de</strong>pois <strong>do</strong> primeiro passo temos e 1 ⊥A p 0 . Para manter os erros<br />

subseqüentes conjuga<strong>do</strong>s a p 0 , como<br />

e k+1 = x − x k+1 = x − x k − αkp k


Rodney Josué Biezuner 116<br />

ou<br />

e k+1 = e k − αkp k , (4.74)<br />

basta escolher as direções <strong>de</strong> busca subseqüentes conjugadas a p 0 . Se escolhemos p 1 conjuga<strong>do</strong> a p 0 , obtemos<br />

x 2 para o qual o erro satisfaz e 2 ⊥A p 1 ; como p 1 ⊥A p 0 , segue <strong>de</strong> (4.74) que e 2 ⊥A p 0 também. Para manter<br />

os erros subseqüentes conjuga<strong>do</strong>s a p 0 e p 1 , basta escolher as direções <strong>de</strong> busca subseqüentes conjugadas a<br />

p 0 e p 1 . Assim, vemos que para obter a condição (4.72) basta escolher as direções <strong>de</strong> busca <strong>de</strong> tal forma que<br />

p i ⊥A p j para to<strong>do</strong>s i = j.<br />

Um méto<strong>do</strong> com estas características é chama<strong>do</strong> um méto<strong>do</strong> <strong>de</strong> direções conjugadas. Estes resulta<strong>do</strong>s<br />

são resumi<strong>do</strong>s na proposição a seguir:<br />

4.28 Teorema. Se um méto<strong>do</strong> emprega direções <strong>de</strong> busca conjugadas e performa buscas na reta exatas,<br />

então<br />

e j ⊥A p i<br />

para i = 1, . . . , j − 1,<br />

para to<strong>do</strong> j. Conseqüentemente <br />

e j <br />

= min e A p∈Wj<br />

0 − p , A<br />

on<strong>de</strong> Wj = p 0 , p 1 , . . . , p j−1 .<br />

Prova: A <strong>de</strong>monstração é por indução. Para j = 1, temos e 1 ⊥A p 0 pela Proposição 4.27 porque a busca<br />

na reta é exata. Em seguida, assuma e j ⊥A p i para i = 1, . . . , j − 1; queremos mostrar que e j+1 ⊥A p i<br />

para i = 1, . . . , j. Como<br />

e j+1 = e j − αjp j ,<br />

para i = 1, . . . , j − 1 temos<br />

e j+1 , p i <br />

A = e j − αjp j , p i<br />

A = e j , p i<br />

A<br />

− αj<br />

p j , p i <br />

A<br />

= 0 − 0 = 0<br />

porque as direções <strong>de</strong> busca são conjugadas. e j+1 ⊥A p j segue novamente da Proposição 4.27. <br />

Quan<strong>do</strong> a direção inicial é dada pelo vetor gradiente <strong>de</strong> f, como na primeira iteração <strong>do</strong> méto<strong>do</strong> da <strong>de</strong>scida<br />

mais acentuada, obtemos o méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong>. As direções subseqüentes são escolhidas<br />

através <strong>de</strong> A-ortogonalizar o resíduo (ou vetor gradiente <strong>de</strong> f, que é a direção <strong>de</strong> busca em cada iteração<br />

<strong>do</strong> méto<strong>do</strong> da <strong>de</strong>scida mais acentuada) com todas as direções <strong>de</strong> busca anteriores, para isso utilizan<strong>do</strong> o<br />

algoritmo <strong>de</strong> Gram-Schmidt. Assim, da<strong>do</strong> um chute inicial p 0 , a primeira direção é<br />

ou seja, a direção inicial é o primeiro resíduo:<br />

p 0 = −∇f x 0 = b − Ax 0 = r 0<br />

Depois <strong>de</strong> k passos com direções <strong>de</strong> busca conjugadas p 0 , . . . , p k , escolhemos<br />

p k+1 = r k+1 −<br />

on<strong>de</strong> os cki são da<strong>do</strong>s pelo algoritmo <strong>de</strong> Gram-Schmidt:<br />

<br />

k+1 i r , p <br />

cki =<br />

p 0 = r 0 . (4.75)<br />

k<br />

i=0<br />

〈p i , p i 〉 A<br />

ckip i<br />

A<br />

(4.76)<br />

. (4.77)<br />

<strong>de</strong> forma que p k+1 ⊥A p i para to<strong>do</strong>s i = 1, . . . , k. Felizmente, como veremos a seguir <strong>de</strong>pois <strong>de</strong> algum trabalho<br />

preliminar (Corolário 4.32), cki = 0 para to<strong>do</strong> i exceto i = k, o que torna necessário que apenas a direção


Rodney Josué Biezuner 117<br />

<strong>de</strong> busca mais recente pk seja armazenada na memória <strong>do</strong> computa<strong>do</strong>r, o que garante que a implementação<br />

<strong>do</strong> gradiente conjuga<strong>do</strong> é eficiente:<br />

<br />

k+1 k r , p <br />

<br />

k+1 k r , Ap <br />

p k+1 = r k+1 −<br />

〈p k , p k 〉 A<br />

A<br />

p k = r k+1 −<br />

〈p k , Ap k 〉 pk . (4.78)<br />

Esta é a modificação <strong>do</strong> méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong> em relação ao méto<strong>do</strong> da <strong>de</strong>scida mais acentuada,<br />

em que p k+1 = r k+1 .<br />

Definição. Dada uma matriz A ∈ Mn (C) e um vetor v ∈ C n , o espaço <strong>de</strong> Krylov Kj (A, v) é o subespaço<br />

v, Av, . . . , A j−1 v .<br />

4.29 Teorema. Depois <strong>de</strong> j iterações <strong>do</strong> algoritmo <strong>do</strong> gradiente conjuga<strong>do</strong> (com rk = 0 em cada iteração),<br />

temos 0 1 j−1<br />

p , p , . . . , p = r 0 , r 1 , . . . , r j−1 0<br />

= Kj A, r .<br />

Prova: A <strong>de</strong>monstração é por indução. O resulta<strong>do</strong> é trivial para j = 0, pois p 0 = r 0 . Assuma o resulta<strong>do</strong><br />

váli<strong>do</strong> para j − 1. Em primeiro lugar, mostraremos que<br />

0 1 j<br />

r , r , . . . , r 0<br />

⊂ Kj+1 A, r . (4.79)<br />

Em vista da hipótese <strong>de</strong> indução, basta mostrar que rj <br />

0 ∈ Kj+1 A, r . Como rj = rj−1 − αj−1Apj−1 e<br />

rj−1 <br />

0 ∈ Kj A, r <br />

0 ⊂ Kj+1 A, r por hipótese <strong>de</strong> indução, basta provar que Apj−1 <br />

0 ∈ Kj+1 A, r . Mas,<br />

também por hipótese <strong>de</strong> indução, pj−1 <br />

0 ∈ Kj+1 A, r , logo<br />

Ap j−1 ∈ Kj<br />

Em seguida, mostraremos que<br />

0<br />

A, Ar = Ar 0 , A 2 r 0 , . . . , A j r 0 ⊂ r 0 , Ar 0 , A 2 r 0 , . . . , A j r 0 0<br />

= Kj+1 A, r .<br />

p 0 , p 1 , . . . , p j ⊂ r 0 , r 1 , . . . , r j . (4.80)<br />

Por hipótese <strong>de</strong> indução, basta provar que pj ∈ r0 , r1 , . . . , rj . Isso segue <strong>de</strong> (4.76) e da hipótese <strong>de</strong> indução.<br />

Até aqui provamos que<br />

0 1 j<br />

p , p , . . . , p ⊂ r 0 , r 1 , . . . , r j 0<br />

⊂ Kj+1 A, r . (4.81)<br />

Para provar que eles são iguais, basta mostrar que eles têm a mesma dimensão. Isso <strong>de</strong>corre <strong>de</strong><br />

e<br />

dim r 0 , r 1 , . . . , r j j + 1,<br />

0<br />

dim Kj+1 A, r j + 1<br />

dim p 0 , p 1 , . . . , p j = j + 1,<br />

o último porque os vetores p 0 , p 1 , . . . , p j são vetores não-nulos A-ortogonais. <br />

4.30 Corolário. Depois <strong>de</strong> j iterações <strong>do</strong> algoritmo <strong>do</strong> gradiente conjuga<strong>do</strong>, temos<br />

0<br />

A, r <br />

para to<strong>do</strong> j.<br />

e j ⊥A Kj<br />

Prova: Segue imediatamente <strong>do</strong> teorema anterior e <strong>do</strong> Teorema 4.28.


Rodney Josué Biezuner 118<br />

4.31 Corolário. Depois <strong>de</strong> j iterações <strong>do</strong> algoritmo <strong>do</strong> gradiente conjuga<strong>do</strong>, temos<br />

r j 0<br />

⊥ Kj A, r <br />

para to<strong>do</strong> j.<br />

Prova: Em vista <strong>do</strong> Teorema 4.29, basta provar que rj ⊥ p0 , p1 , . . . , pj−1 para to<strong>do</strong> j. Como Aej+1 = rj+1 ,<br />

j+1 i<br />

r , p = Ae j+1 , p i = e j+1 , p i<br />

= 0 A<br />

para to<strong>do</strong> i = 1, . . . , j − 1, como vimos na <strong>de</strong>monstração <strong>do</strong> Teorema 4.28. <br />

4.32 Corolário. cki = 0 para to<strong>do</strong> i = 1, . . . , k − 1.<br />

Prova: Temos que provar que k+1 i<br />

r , p <br />

A = r k+1 , Ap i = 0<br />

para to<strong>do</strong>s i = 1, . . . , k − 1. Pelo Teorema 4.29, pi ∈ p0 , p1 , . . . , pi = r0 , Ar0 , . . . , Air <br />

0 = Ki+1 A, r ,<br />

logo<br />

Ap i ∈ Ar 0 , A 2 r 0 , . . . , A i+1 r 0<br />

⊂ Ki+2 A, r 0<br />

⊂ Kk+1 A, r <br />

e o resulta<strong>do</strong> segue <strong>do</strong> corolário anterior. <br />

4.33 Teorema. Seja A uma matriz simétrica positiva <strong>de</strong>finida n×n. Então o méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong><br />

converge em n iterações.<br />

Prova: Se fizemos n − 1 iterações em obter x, pelo Corolário 4.32 os vetores r 0 , r 1 , . . . , r n−1 formam uma<br />

base ortogonal para R n . Depois <strong>de</strong> mais uma iteração, <strong>de</strong> acor<strong>do</strong> com este mesmo corolário o resíduo r n<br />

satisfaz r n ⊥ r 0 , r 1 , . . . , r n−1 = R n , logo r n = 0. <br />

De fato, na maioria das aplicações o méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong> converge ainda mais rápi<strong>do</strong>, se apenas<br />

uma boa aproximação é requerida. Defina o número <strong>de</strong> condição <strong>de</strong> uma matriz simétrica positiva <strong>de</strong>finida<br />

por<br />

κ (A) =<br />

max {λ : λ é um autovalor <strong>de</strong> A}<br />

; (4.82)<br />

min {λ : λ é um autovalor <strong>de</strong> A}<br />

assim, quanto maior o número <strong>de</strong> condição <strong>de</strong> uma matriz, ela é mais mal-condicionada e a convergência<br />

<strong>de</strong> méto<strong>do</strong>s <strong>de</strong> <strong>de</strong>scida é mais vagarosa. Po<strong>de</strong>-se provar a seguinte estimativa <strong>de</strong> erro para o méto<strong>do</strong> <strong>do</strong><br />

gradiente conjuga<strong>do</strong> (veja [Strikwerda]):<br />

<br />

e k A 2 e 0 A<br />

κ (A) − 1<br />

κ (A) + 1<br />

k<br />

. (4.83)<br />

Esta estimativa é uma estimativa grosseira, mas mostra que o méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong> converge<br />

mais rapidamente para matrizes bem-condicionadas (κ (A) ∼ 1). Uma comparação entre a velocida<strong>de</strong> <strong>de</strong><br />

convergência <strong>do</strong>s <strong>do</strong>is méto<strong>do</strong>s para a matriz <strong>de</strong> discretização da fórmula <strong>de</strong> cinco pontos aplicada ao problema<br />

<strong>de</strong>scrito na primeira seção <strong>de</strong>ste capítulo, <strong>de</strong>sta vez com o tamanho das matrizes indica<strong>do</strong> na linha superior<br />

da tabela, é dada a seguir [Watkins].<br />

n = 81 n = 361 n = 1521<br />

Descida Mais Acentuada 304 1114 4010<br />

Gradiente Conjuga<strong>do</strong> 29 60 118<br />

No caso <strong>de</strong>sta matriz <strong>de</strong> discretização no quadra<strong>do</strong> unitário temos<br />

κ (A) =<br />

2 (n − 1) π<br />

sen<br />

2n<br />

π<br />

sen2 2n<br />

2 π π∆x<br />

= cot = cot2<br />

2n 2 ≈<br />

4<br />

π 2 ∆x 2


Rodney Josué Biezuner 119<br />

<strong>de</strong> mo<strong>do</strong> que <br />

κ (A) − 1 1 − π∆x/2<br />

≈ ≈ 1 − π∆x,<br />

κ (A) + 1 1 + π∆x/2<br />

o que dá uma velocida<strong>de</strong> <strong>de</strong> convergência para o méto<strong>do</strong> <strong>do</strong> gradiente conjuga<strong>do</strong> duas vezes maior que a<br />

<strong>do</strong> méto<strong>do</strong> SOR com o fator <strong>de</strong> relaxamento ótimo. No entanto, <strong>de</strong>ve-se ter em mente que enquanto que a<br />

taxa <strong>de</strong> covergência que obtivemos para o méto<strong>do</strong> SOR é precisa, a estimativa <strong>de</strong> erro (4.83) para o méto<strong>do</strong><br />

<strong>do</strong> gradiente conjuga<strong>do</strong> é apenas um limitante superior grosseiro (veja [Watkins] para algumas estimativas<br />

melhoradas).


Capítulo 5<br />

Méto<strong>do</strong>s Multigrid<br />

5.1 Suavização <strong>de</strong> Erros<br />

5.2 Opera<strong>do</strong>r Restrição e Opera<strong>do</strong>r Extensão<br />

5.3 Ciclos V<br />

5.4 Multigrid Completo<br />

5.5 Convergência<br />

5.6 Multigrid Adaptativo<br />

5.7 Multigrid Algébrico<br />

120


Capítulo 6<br />

Méto<strong>do</strong> <strong>de</strong> Elementos Finitos<br />

O méto<strong>do</strong> <strong>de</strong> elementos finitos é um outro méto<strong>do</strong> <strong>de</strong> discretização <strong>de</strong> equações diferenciais parciais basea<strong>do</strong><br />

na reformulação variacional da equação. Por exemplo, como já vimos exemplos, encontrar a solução u <strong>de</strong><br />

uma equação diferencial parcial dada é equivalente a resolver um problema <strong>de</strong> minimização<br />

F (u) = min F (v)<br />

v∈V<br />

on<strong>de</strong> V é um conjunto <strong>de</strong> funções admissíveis e F : V −→ R é um funcional. Em geral, a dimensão <strong>de</strong> V é<br />

infinita e portanto as funções em V não po<strong>de</strong>m ser <strong>de</strong>scritas por um número finito <strong>de</strong> parâmetros. Discretizar<br />

este problema através <strong>de</strong> elementos finitos é substituir o espaço <strong>de</strong> dimensão infinita V por um subespaço <strong>de</strong><br />

dimensão finita Vh consistin<strong>do</strong> <strong>de</strong> funções simples (por exemplo, funções polinomiais). O problema discreto<br />

passa a ser encontrar o minimiza<strong>do</strong>r <strong>do</strong> funcional F sobre o subespaço Vh. Espera-se que este seja uma<br />

aproximação <strong>do</strong> minimiza<strong>do</strong>r <strong>de</strong> F sobre o espaço completo V , isto é, uma aproximação para a solução da<br />

equação diferencial parcial.<br />

6.1 O Caso Unidimensional<br />

Nesta seção, <strong>de</strong>senvolveremos méto<strong>do</strong>s <strong>de</strong> elementos finitos para resolver o problema <strong>de</strong> Dirichlet para a<br />

equação <strong>de</strong> Poisson em uma dimensão<br />

<br />

′′ −u = f (x) em [0, 1] ,<br />

(6.1)<br />

u (0) = u (1) = 0,<br />

on<strong>de</strong> f é uma função contínua.<br />

6.1.1 Formulação Variacional<br />

Para obter uma formulação variacional <strong>de</strong>ste problema, <strong>de</strong>fina<br />

e<br />

V = v ∈ C 0 ([0, 1]) : v ′ é contínua por partes em [0, 1] e v (0) = v (1) = 0 <br />

F (v) = 1<br />

2<br />

1<br />

0<br />

(6.2)<br />

|v ′ (x)| 2 1<br />

dx − f (x) v (x) dx =<br />

0<br />

1<br />

2 v′ L2 − 〈f, v〉 L2 . (6.3)<br />

Veremos agora que uma solução para o problema <strong>de</strong> Dirichlet (6.1), que sabemos existir por integração<br />

simples, é solução tanto <strong>de</strong> um problema <strong>de</strong> minimização como <strong>de</strong> um problema variacional.<br />

121


Rodney Josué Biezuner 122<br />

6.1 Proposição. (Problema Variacional) Se u ∈ V é uma solução <strong>do</strong> problema (6.1), então u é a solução<br />

única <strong>do</strong> problema variacional<br />

Prova. Multiplican<strong>do</strong> a equação<br />

〈u ′ , v ′ 〉 L 2 = 〈f, v〉 L 2 para to<strong>do</strong> v ∈ V. (6.4)<br />

−u ′′ (x) = f (x)<br />

por uma função teste v ∈ V e integran<strong>do</strong> sobre o intervalo (0, 1), obtemos<br />

Integran<strong>do</strong> por partes, temos<br />

Portanto,<br />

1<br />

0<br />

−<br />

1<br />

0<br />

u ′′ (x) v (x) dx =<br />

u ′′ (x) v (x) dx = u (x) v (x)| 1<br />

0 −<br />

1<br />

1<br />

u<br />

0<br />

′ (x) v ′ 1<br />

(x) dx =<br />

0<br />

0<br />

f (x) v (x) dx.<br />

1<br />

u<br />

0<br />

′ (x) v ′ 1<br />

(x) dx = − u<br />

0<br />

′ (x) v ′ (x) dx.<br />

f (x) v (x) dx.<br />

A unicida<strong>de</strong> <strong>de</strong> solução para o problema variacional (6.4) é facilmente <strong>de</strong>terminada. Se u1, u2 satisfazem<br />

para to<strong>do</strong> v ∈ V , então<br />

〈u ′ 1, v ′ 〉 L 2 = 〈f, v〉 L 2 ,<br />

〈u ′ 2, v ′ 〉 L 2 = 〈f, v〉 L 2 ,<br />

〈u ′ 1 − u ′ 2, v ′ 〉 L 2 = 0<br />

para to<strong>do</strong> v ∈ V , em particular para v = u1 − u2, <strong>do</strong>n<strong>de</strong><br />

u ′ 1 − u ′ 2 L 2 = 0.<br />

Isso implica u1 − u2 = c para alguma constante c, e as condições <strong>de</strong> fronteira implicam que c = 0. <br />

6.2 Proposição. (Problema <strong>de</strong> Minimização) u ∈ V é uma solução <strong>do</strong> problema variacional (6.4), se e<br />

somente se u satisfaz<br />

F (u) = min F (v) . (6.5)<br />

v∈V<br />

Prova. Suponha que u satisfaz (6.4). Da<strong>do</strong> v ∈ V , escreva w = u − v. Temos<br />

F (v) = F (u + w) = 1<br />

2 u′ + w ′ L2 − 〈f, u + w〉 L2 = 1<br />

2 u′ L2 + 〈u ′ , w ′ 〉 + 1<br />

2 w′ L2 − 〈f, u〉 L2 − 〈f, w〉 L2 = 1<br />

2 u′ L2 − 〈f, u〉 L2 + 〈u ′ , w ′ 〉 − 〈f, w〉 L2 + 1<br />

2 w′ L2 = F (u) + 1<br />

2 w′ L2 F (u) .<br />

Reciprocamente, suponha que u é um minimiza<strong>do</strong>r para o funcional F em V . Consi<strong>de</strong>re a função quadrática<br />

g : R −→ R <strong>de</strong>finida por<br />

g (t) = F (u + tv) .<br />

Temos<br />

g (t) = 1<br />

2 u′ L 2 + t 〈u ′ , v ′ 〉 + t2<br />

2 v′ L 2 − 〈f, u〉 L 2 − t 〈f, v〉 L 2<br />

= t2<br />

2 v′ L 2 + t [ 〈u ′ , v ′ 〉 − 〈f, v〉 L 2] + F (u) .


Rodney Josué Biezuner 123<br />

Como u é um ponto <strong>de</strong> mínimo para F , 0 é um ponto <strong>de</strong> mínimo para g, logo g ′ (0) = 〈u ′ , v ′ 〉 − 〈f, v〉 L 2 = 0.<br />

<br />

O problema variacional é chama<strong>do</strong> méto<strong>do</strong> <strong>de</strong> Galerkin, enquanto que o problema <strong>de</strong> minimização é<br />

chama<strong>do</strong> méto<strong>do</strong> <strong>de</strong> Ritz. Coletivamente, eles são chama<strong>do</strong>s simplesmente <strong>de</strong> méto<strong>do</strong> <strong>de</strong> Ritz-Galerkin.<br />

6.1.2 Elementos Finitos Lineares por Partes<br />

Vamos agora construir um subespaço Vh <strong>de</strong> dimensão finita <strong>de</strong> V consistin<strong>do</strong> das funções lineares por partes<br />

em [0, 1]. Seja<br />

0 = x0 < x1 < x2 < . . . < xn < xn+1 = 1<br />

uma partição <strong>do</strong> intervalo [0, 1] em n+1 subintervalos Ij = [xj−1, xj] <strong>de</strong> comprimento hj = xj −xj−1. Defina<br />

Vh = {v ∈ V : v é linear em Ij para j = 0, . . . , n} . (6.6)<br />

Observe que para <strong>de</strong>screver uma função v ∈ Vh é suficiente conhecer os n valores v (x1) , . . . , v (xn). Introduzimos<br />

uma base B = {ϕ1, . . . , ϕn} ⊂ Vh para Vh <strong>de</strong>claran<strong>do</strong><br />

<br />

1 se i = j,<br />

ϕj (xi) =<br />

(6.7)<br />

0 se i = j,<br />

(note que como estas funções são não-negativas, esta base é evi<strong>de</strong>ntemente não-ortogonal). Assim as funções<br />

v <strong>de</strong> V têm a representação<br />

v = v (x1) ϕ1 + . . . + v (xn) ϕn. (6.8)<br />

As funções ϕ1, . . . , ϕn são chamadas funções base. Note que dim Vh = n. Observe que estas funções têm<br />

suporte compacto, e que o suporte está conti<strong>do</strong> em <strong>do</strong>is subintervalos adjacentes.<br />

Se uh ∈ Vh satisfaz o problema variacional<br />

〈u ′ h, v ′ 〉 L 2 = 〈f, v〉 L 2 para to<strong>do</strong> v ∈ Vh, (6.9)<br />

então em particular ′<br />

u h, ϕ ′ <br />

j L2 Escreven<strong>do</strong><br />

= 〈f, ϕj〉 L2 para to<strong>do</strong> j = 1, . . . , n. (6.10)<br />

ou<br />

uh = uh (x1) ϕ1 + . . . + uh (xn) ϕn<br />

uh = u1ϕ1 + . . . + unϕn, (6.11)<br />

on<strong>de</strong> <strong>de</strong>notamos ui = uh (xi), obtemos um sistema linear nas incógnitas u1, . . . , un:<br />

A matriz <strong>do</strong> sistema<br />

n<br />

i=1<br />

′<br />

ϕ i, ϕ ′ <br />

j L2 ui = 〈f, ϕj〉 L2 para j = 1, . . . , n. (6.12)<br />

A =<br />

⎡<br />

⎢<br />

⎣<br />

〈ϕ ′ 1, ϕ ′ 1〉 L 2 . . . 〈ϕ ′ 1, ϕ ′ n〉 L 2<br />

.<br />

.<br />

.<br />

.<br />

〈ϕ ′ n, ϕ ′ 1〉 L 2 . . . 〈ϕ ′ n, ϕ ′ n〉 L 2<br />

⎤<br />

⎥<br />

⎦ (6.13)<br />

é uma matriz simétrica porque ϕ ′ i , ϕ′ <br />

j L2 = ϕ ′ j , ϕ′ <br />

i L2. Ela é chamada a matriz <strong>de</strong> rigi<strong>de</strong>z e o vetor<br />

⎡ ⎤<br />

b =<br />

⎢<br />

⎣<br />

〈f, ϕ1〉 L 2<br />

.<br />

.<br />

〈f, ϕn〉 L 2<br />

⎥<br />


Rodney Josué Biezuner 124<br />

é chama<strong>do</strong> o vetor <strong>de</strong> carga, terminologia emprestada das primeiras aplicações <strong>do</strong> méto<strong>do</strong> <strong>de</strong> elementos<br />

finitos em mecânica <strong>de</strong> estruturas; o méto<strong>do</strong> foi inventa<strong>do</strong> por engenheiros para tratar <strong>de</strong> tais problemas na<br />

década <strong>de</strong> 1950. As entradas da matriz <strong>de</strong> rigi<strong>de</strong>z po<strong>de</strong>m ser facilmente calcula<strong>do</strong>s. Primeiro observe que<br />

′<br />

ϕ i, ϕ ′ <br />

j L2 = 0 se |i − j| > 1,<br />

porque, neste caso, on<strong>de</strong> ϕ ′ i não se anula, ϕ′ j se anula, e vice-versa. Em particular, segue que a matriz A<br />

é uma matriz esparsa tridiagonal. A escolha especial <strong>de</strong> Vh e das funções base garantiu a esparsida<strong>de</strong> da<br />

matriz <strong>de</strong> rigi<strong>de</strong>z. Os elementos da diagonal principal da matriz <strong>de</strong> rigi<strong>de</strong>z são da<strong>do</strong>s por<br />

〈ϕ ′ i, ϕ ′ i〉 L 2 =<br />

xi+1<br />

ϕ<br />

xi−1<br />

′ i (x) 2 xi 1<br />

dx =<br />

xi−1 h2 i<br />

dx +<br />

xi+1<br />

enquanto que os elementos das diagonais secundárias são da<strong>do</strong>s por<br />

Resumin<strong>do</strong>,<br />

′<br />

ϕ i, ϕ ′ <br />

i+1 L2 =<br />

xi+1<br />

ϕ ′ i (x) ϕ ′ xi+1<br />

i+1 (x) dx =<br />

xi<br />

′<br />

ϕ i, ϕ ′ <br />

j L2 =<br />

⎧<br />

⎪⎨ ⎪ ⎩<br />

xi<br />

xi<br />

1<br />

h 2 i+1<br />

<br />

− 1<br />

<br />

1<br />

hi+1<br />

1<br />

+<br />

hi<br />

1<br />

se i = j,<br />

hi+1<br />

− 1<br />

se |i − j| = 1,<br />

hi+1<br />

0 se |i − j| > 1.<br />

dx = 1<br />

hi+1<br />

hi<br />

+ 1<br />

,<br />

hi+1<br />

dx = − 1<br />

hi+1<br />

.<br />

(6.14)<br />

A matriz <strong>de</strong> rigi<strong>de</strong>z também é positiva <strong>de</strong>finida, Se ξ = (ξ1, . . . , ξn) ∈ Rn é um vetor não-nulo e v = n<br />

ξiϕi,<br />

temos<br />

〈Aξ, ξ〉 =<br />

n<br />

aijξiξj =<br />

i,j=1<br />

No caso especial em que<br />

n<br />

i,j=1<br />

′<br />

ϕ i, ϕ ′ <br />

j L2 <br />

n<br />

ξiξj = ξiϕ<br />

i=1<br />

′ i,<br />

hi = xi − xi−1 = 1<br />

=: h,<br />

n + 1<br />

n<br />

j=1<br />

ξjϕ ′ j<br />

<br />

L 2<br />

= 〈v ′ , v ′ 〉 L 2 > 0.<br />

a matriz <strong>de</strong> rigi<strong>de</strong>z é exatamente a matriz <strong>de</strong> discretização <strong>de</strong> diferenças finitas centradas:<br />

1<br />

h2 ⎡<br />

2 −1<br />

⎤<br />

⎢<br />

−1<br />

⎢<br />

⎣<br />

2<br />

−1<br />

−1<br />

. ..<br />

. ..<br />

. ..<br />

. ..<br />

−1<br />

−1<br />

2 −1<br />

⎥ .<br />

⎥<br />

⎦<br />

−1 2<br />

6.2 O Caso Bidimensional<br />

Nesta seção, <strong>de</strong>senvolveremos méto<strong>do</strong>s <strong>de</strong> elementos finitos para resolver o problema <strong>de</strong> Dirichlet para a<br />

equação <strong>de</strong> Poisson em um <strong>do</strong>mínio Ω ⊂ R2 :<br />

<br />

−∆u = f em Ω,<br />

(6.15)<br />

u = 0 sobre ∂Ω,<br />

on<strong>de</strong> f é uma função contínua.<br />

i=1


Rodney Josué Biezuner 125<br />

6.2.1 Formulação Variacional<br />

Para obter uma formulação variacional <strong>de</strong>ste problema, <strong>de</strong>fina<br />

e<br />

V = W 1,2<br />

0 (Ω) (6.16)<br />

F (v) = 1<br />

<br />

|∇v (x)|<br />

2 Ω<br />

2 <br />

dx − f (x) v (x) dx =<br />

Ω<br />

1<br />

2 ∇vL2 (Ω) − 〈f, v〉 L2 (Ω) . (6.17)<br />

Como vimos no Capítulo 1, os problemas variacional e <strong>de</strong> minimização são equivalentes e a solução <strong>de</strong> ambos<br />

é a solução <strong>do</strong> problema (6.15):<br />

6.3 Proposição. u ∈ V é uma solução <strong>do</strong> problema (6.15), se e somente se u é a solução única <strong>do</strong> problema<br />

variacional<br />

〈∇u, ∇v〉 L 2 (Ω) = 〈f, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ V, (6.18)<br />

ou, equivalentemente, se e somente se u satisfaz<br />

F (u) = min F (v) . (6.19)<br />

v∈V<br />

6.2.2 Triangulações e Elementos Finitos Lineares por Partes<br />

Vamos agora construir um subespaço Vh <strong>de</strong> dimensão finita <strong>de</strong> V consistin<strong>do</strong> das funções lineares por partes<br />

em Ω. Por simplicida<strong>de</strong>, assumiremos que Ω é um <strong>do</strong>mínio poligonal, significan<strong>do</strong> que ∂Ω é uma curva poligonal<br />

(no caso geral, é necessário antes aproximar ∂Ω por uma curva poligonal). Fazemos uma triangulação<br />

<strong>de</strong> Ω subdividin<strong>do</strong> Ω em um conjunto <strong>de</strong> triângulos que não se sobrepõem, po<strong>de</strong>n<strong>do</strong> se interceptar apenas<br />

ao longo <strong>de</strong> uma aresta em comum ou em um vértice em comum:<br />

Ω =<br />

N<br />

Ti. (6.20)<br />

i=1<br />

Esta triangulação <strong>de</strong> Ω é também chamada uma malha triangular e os vértices da triangulação são freqüentemente<br />

chama<strong>do</strong>s no<strong>do</strong>s. Definimos o parâmetro da malha<br />

h = max<br />

i=1,...,N (diam Ti) . (6.21)<br />

Observe que o diâmetro <strong>de</strong> um triângulo é o comprimento <strong>de</strong> seu maior la<strong>do</strong>. Definimos o subespaço Vh <strong>de</strong><br />

dimensão finita <strong>de</strong> V por<br />

Vh = {v ∈ V : v é contínua em Ω e linear em Ti para i = 1, . . . , N} . (6.22)<br />

Para <strong>de</strong>screver uma função v ∈ Vh, é suficiente conhecer os n valores <strong>de</strong> v nos n no<strong>do</strong>s internos da triangulação<br />

<strong>de</strong> Ω: x1, . . . , xn (nos no<strong>do</strong>s da fronteira, v é nula). Introduzimos uma base B = {ϕ1, . . . , ϕn} ⊂ Vh para Vh<br />

<strong>de</strong>claran<strong>do</strong><br />

<br />

1 se i = j,<br />

ϕj (xi) =<br />

(6.23)<br />

0 se i = j.<br />

As funções v <strong>de</strong> V têm a seguinte representação em termos das funções base ϕ1, . . . , ϕn:<br />

v = v (x1) ϕ1 + . . . + v (xn) ϕn<br />

(6.24)<br />

e dim Vh = n. Note que o suporte <strong>de</strong> ϕj consiste <strong>do</strong>s triângulos que têm xn como um no<strong>do</strong> comum. Tais<br />

funções bases po<strong>de</strong>m ser <strong>de</strong>finidas da seguinte forma. Se Tk é um triângulo da triangulação <strong>de</strong> Ω que tem xi


Rodney Josué Biezuner 126<br />

como vértice, sejam xi = x0 , y0 , a1 k = x1 , y1 e a2 k = x2 , y2 os três vértices <strong>de</strong> Tk; <strong>de</strong>finimos ϕi em Tk<br />

por<br />

<br />

1 x − x<br />

ϕi (x, y) =<br />

y2 − y1 − y − y1 x2 − x1 (x0 − x1 ) (y2 − y1 ) − (y0 − y1 ) (x2 − x1 ) .<br />

<br />

0 0 Observe que ϕi x , y <br />

1 1 = 1 e ϕi x , y <br />

2 2 = ϕi x , y = 0. Se Tk é um triângulo da triangulação <strong>de</strong> Ω que<br />

não tem xi como vértice, então <strong>de</strong>finimos ϕj ≡ 0 em Tk.<br />

Se uh ∈ Vh satisfaz o problema variacional<br />

então em particular<br />

Escreven<strong>do</strong><br />

ou<br />

〈∇uh, ∇v〉 L 2 (Ω) = 〈f, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ Vh, (6.25)<br />

〈∇uh, ∇ϕj〉 L 2 (Ω) = 〈f, ϕj〉 L 2 (Ω) para to<strong>do</strong> j = 1, . . . , n. (6.26)<br />

uh = uh (x1) ϕ1 + . . . + uh (xn) ϕn<br />

uh = u1ϕ1 + . . . + unϕn, (6.27)<br />

on<strong>de</strong> <strong>de</strong>notamos ui = uh (xi), obtemos um sistema linear nas incógnitas u1, . . . , un:<br />

n<br />

i=1<br />

A matriz <strong>de</strong> rigi<strong>de</strong>z (isto é, a matriz <strong>do</strong> sistema)<br />

〈∇ϕi, ∇ϕj〉 L 2 (Ω) ui = 〈f, ϕj〉 L 2 (Ω) para j = 1, . . . , n. (6.28)<br />

A =<br />

⎡<br />

⎢<br />

⎣<br />

〈∇ϕ1, ∇ϕ1〉 L 2 (Ω) . . . 〈∇ϕ1, ∇ϕn〉 L 2 (Ω)<br />

.<br />

.<br />

〈∇ϕn, ∇ϕ1〉 L 2 (Ω) . . . 〈∇ϕn, ∇ϕn〉 L 2 (Ω)<br />

.<br />

.<br />

⎤<br />

⎥<br />

⎦ (6.29)<br />

é uma matriz simétrica, positiva <strong>de</strong>finida, pelos mesmos motivos que a matriz <strong>de</strong> rigi<strong>de</strong>z no caso unidimensional<br />

é. Ela é esparsa porque o suporte da função base ϕj é constituí<strong>do</strong> pelos triângulos que têm o vértice xj<br />

em comum. De fato, 〈∇ϕi, ∇ϕj〉 L 2 (Ω) = 0 se xi e xj não são diretamente liga<strong>do</strong>s pelo la<strong>do</strong> <strong>de</strong> um triângulo.<br />

Para calcular o valor das entradas não-nulas, é útil usar a seguinte fórmula <strong>de</strong> mudança <strong>de</strong> coor<strong>de</strong>nadas: se<br />

T é o triângulo <strong>de</strong> vértices (0, 0), (0, 1) e (1, 0) e T é um triângulo qualquer com vértices x 0 , y 0 , x 1 , y 1 e<br />

x 2 , y 2 , então a aplicação φ : T −→ T <strong>de</strong>finida por<br />

é um difeomorfismo com<br />

T<br />

φ (ξ, η) = x 0 , y 0 + ξ x 1 − x 0 , y 1 − y 0 + η x 2 − x 0 , y 2 − y 0<br />

<strong>de</strong>t dφ (ξ, η) = x 1 − x 0 y 1 − y 0 − x 2 − x 0 y 2 − y 0 ,<br />

<strong>de</strong> mo<strong>do</strong> que se F : T −→ R é uma função contínua, então<br />

<br />

F (x, y) dxdy = x 1 − x 0 y 1 − y 0 − x 2 − x 0 y 2 − y 0 <br />

F (φ (ξ, η)) dxdy.<br />

T


Rodney Josué Biezuner 127<br />

6.2.3 Interpretação Geométrica <strong>do</strong> Méto<strong>do</strong> <strong>de</strong> Elementos Finitos<br />

6.4 Lema. (Melhor Aproximação) Se u ∈ V é a solução exata <strong>do</strong> problema <strong>de</strong> Dirichlet (6.15) e uh é a<br />

solução aproximada dada pelo méto<strong>do</strong> <strong>de</strong> elementos finitos, então<br />

u − uh W 1,2<br />

0 (Ω) u − v W 1,2<br />

0 (Ω) (6.30)<br />

para to<strong>do</strong> v ∈ Vh, ou seja, uh é a melhor aproximação para u em Vh na norma W 1,2<br />

0 (Ω) .<br />

Prova. Como<br />

e<br />

segue que<br />

〈∇u, ∇v〉 L 2 (Ω) = 〈f, v〉 L 2 (Ω)<br />

〈∇uh, ∇v〉 L 2 (Ω) = 〈f, v〉 L 2 (Ω)<br />

Pela <strong>de</strong>sigualda<strong>de</strong> <strong>de</strong> Cauchy, para to<strong>do</strong> v ∈ Vh vale então<br />

<strong>do</strong>n<strong>de</strong><br />

para to<strong>do</strong> v ∈ V<br />

para to<strong>do</strong> v ∈ Vh,<br />

〈∇u − ∇uh, ∇v〉 L 2 (Ω) = 0 para to<strong>do</strong> v ∈ Vh. (6.31)<br />

∇u − ∇uh 2<br />

L 2 (Ω) = 〈∇u − ∇uh, ∇u − ∇uh〉 L 2 (Ω) + 〈∇u − ∇uh, ∇uh − ∇v〉 L 2 (Ω)<br />

= 〈∇u − ∇uh, ∇u − ∇v〉 L 2 (Ω)<br />

∇u − ∇uh L 2 (Ω) ∇u − ∇v L 2 (Ω) ,<br />

∇u − ∇uh L 2 (Ω) ∇u − ∇v L 2 (Ω)<br />

para to<strong>do</strong> v ∈ Vh. Lembran<strong>do</strong> que a norma L 2 <strong>do</strong> gradiente é uma norma em W 1,2<br />

0 (Ω), pela <strong>de</strong>sigualda<strong>de</strong><br />

<strong>de</strong> Poincaré, segue o resulta<strong>do</strong>. <br />

6.3 Formulação Abstrata <strong>do</strong> Méto<strong>do</strong> <strong>do</strong>s Elementos Finitos<br />

Denotaremos por V um espaço <strong>de</strong> Hilbert com produto escalar 〈·, ·〉 V e correspon<strong>de</strong>nte norma induzida · V .<br />

Definição. Uma forma bilinear a : V × V −→ R é limitada (ou contínua) se existe uma constante Λ > 0<br />

tal que<br />

|a (u, v)| Λ u V v V para to<strong>do</strong>s u, v ∈ V. (6.32)<br />

a é coerciva se existe um número α > 0 tal que<br />

|a (v, v)| α v 2<br />

V para to<strong>do</strong> v ∈ V. (6.33)<br />

6.5 Lema. (Teorema <strong>de</strong> Lax-Milgram) Sejam V um espaço <strong>de</strong> Hilbert e a : V × V −→ R uma forma<br />

bilinear limitada e coerciva em V . Então para to<strong>do</strong> funcional linear limita<strong>do</strong> f : V −→ R existe um<br />

único u ∈ V tal que<br />

a (u, v) = f (v) para to<strong>do</strong> v ∈ V.<br />

Se a forma bilinear a que satisfaz as hipóteses <strong>do</strong> Teorema <strong>de</strong> Lax-Milgram for simétrica, isto é,<br />

a (u, v) = a (v, u) para to<strong>do</strong>s u, v ∈ V, (6.34)<br />

então ela <strong>de</strong>fine um produto interno em V , e a conclusão segue diretamente <strong>do</strong> Teorema <strong>de</strong> Representação<br />

<strong>de</strong> Riesz. Seja a uma forma bilinear limitada coerciva e f um funcional linear limita<strong>do</strong> em V . Consi<strong>de</strong>remos<br />

o funcional F : V −→ R <strong>de</strong>fini<strong>do</strong> por<br />

F (v) = 1<br />

a (v, v) − f (v) . (6.35)<br />

2


Rodney Josué Biezuner 128<br />

No caso da equação <strong>de</strong> Poisson com condição <strong>de</strong> Dirichlet homogênea, temos V = W 1,2<br />

0 (Ω) e<br />

<strong>de</strong> mo<strong>do</strong> que a é simétrica.<br />

<br />

a (u, v) =<br />

<br />

f (v) =<br />

Ω<br />

Ω<br />

∇u · ∇v,<br />

6.6 Lema. Sejam V um espaço <strong>de</strong> Hilbert, a : V × V −→ R uma forma bilinear simétrica, limitada e<br />

coerciva em V com<br />

|a (v, v)| α v 2<br />

V para to<strong>do</strong> v ∈ V<br />

fv,<br />

e f : V −→ R um funcional linear limita<strong>do</strong> em V com<br />

|f (v)| C v V<br />

para to<strong>do</strong> v ∈ V.<br />

Então existe uma única solução u ∈ V para o problema variacional<br />

a (u, v) = f (v) para to<strong>do</strong> v ∈ V. (6.36)<br />

se e somente se existe uma única solução u ∈ V para o problema <strong>de</strong> minimização<br />

F (u) = min F (v) .<br />

v∈V<br />

Além disso, existe <strong>de</strong> fato uma única solução u ∈ V para estes problemas e ela satisfaz a seguinte<br />

condição <strong>de</strong> estabilida<strong>de</strong>:<br />

u V C<br />

α .<br />

Prova. A existência <strong>de</strong> solução para o problema variacional segue <strong>do</strong> teorema <strong>de</strong> Lax-Milgram. Suponha<br />

que u satisfaz o problema variacional. Da<strong>do</strong> v ∈ V , escreva w = u − v. Temos<br />

F (v) = F (u + w) = 1<br />

a (u + w, u + w) − f (u + w)<br />

2<br />

= 1<br />

2<br />

1<br />

a (u, u) + a (u, w) + a (w, w) − f (u) − f (w)<br />

2<br />

= 1<br />

2<br />

= F (u) + 1<br />

α<br />

a (w, w) F (u) +<br />

2 2 w2 V<br />

F (u) .<br />

1<br />

a (u, u) + f (w) + a (w, w) − f (u) − f (w)<br />

2<br />

Reciprocamente, suponha que u é um minimiza<strong>do</strong>r para o funcional F em V . Consi<strong>de</strong>re a função quadrática<br />

g : R −→ R <strong>de</strong>finida por<br />

g (t) = F (u + tv) = 1<br />

a (u + tv, u + tv) − f (u + tv)<br />

2<br />

= 1<br />

t2<br />

a (u, u) + ta (u, v) + a (v, v) − f (u) − tf (v)<br />

2 2<br />

= t2<br />

a (v, v) + t [ a (u, v) − f (v)] + F (u) .<br />

2<br />

Como u é um ponto <strong>de</strong> mínimo para F , 0 é um ponto <strong>de</strong> mínimo para g, logo g ′ (0) = a (u, v) − f (v) = 0<br />

para to<strong>do</strong> v ∈ V .


Rodney Josué Biezuner 129<br />

Para provar a estimativa <strong>de</strong> estabilida<strong>de</strong>, escreva<br />

α u 2<br />

V a (u, u) = f (u) C u V .<br />

<br />

Observe que pelo Teorema <strong>de</strong> Lax-Milgram a solução para o problema variacional existe mesmo se a forma<br />

bilinear não é simétrica. No entanto, neste caso não existe um problema <strong>de</strong> minimização associa<strong>do</strong>.<br />

Seja Vh um subespaço <strong>de</strong> V <strong>de</strong> dimensão finita. Seja B = {ϕ1, . . . , ϕn} uma base para Vh e<br />

v = v1ϕ1 + . . . + vnϕn<br />

a representação <strong>de</strong> v nesta base. Se uh ∈ Vh satisfaz o problema variacional<br />

então em particular<br />

Escreven<strong>do</strong><br />

obtemos um sistema linear nas incógnitas u1, . . . , un:<br />

A matriz <strong>do</strong> sistema<br />

é chamada matriz <strong>de</strong> rigi<strong>de</strong>z.<br />

a (uh, v) = f (v) para to<strong>do</strong> v ∈ Vh, (6.37)<br />

a (uh, ϕj) = f (ϕj) para to<strong>do</strong> j = 1, . . . , n. (6.38)<br />

uh = u1ϕ1 + . . . + unϕn, (6.39)<br />

n<br />

a (ϕi, ϕj) ui = f (ϕj) para j = 1, . . . , n. (6.40)<br />

i=1<br />

⎡<br />

⎢<br />

A = ⎣<br />

a (ϕ1, ϕ1)<br />

.<br />

.<br />

. . . a (ϕ1, ϕn)<br />

.<br />

.<br />

⎤<br />

⎥<br />

⎦<br />

a (ϕn, ϕ1) . . . a (ϕn, ϕn)<br />

6.7 Proposição. Se a : V × V −→ R é uma forma bilinear simétrica, limitada e coerciva em V , então a<br />

matriz <strong>de</strong> rigi<strong>de</strong>z é simétrica e positiva <strong>de</strong>finida.<br />

Em particular, existe uma única solução para o problema discretiza<strong>do</strong> (6.37). Além disso, vale a mesma<br />

estimativa <strong>de</strong> estabilida<strong>de</strong> <strong>do</strong> lema anterior.<br />

Prova. Seja A = (aij). Se ξ = (ξ1, . . . , ξn) ∈ Rn é um vetor não-nulo e v = n<br />

ξiϕi, temos<br />

<br />

〈Aξ, ξ〉 =<br />

⎛<br />

n<br />

aijξiξj =<br />

n<br />

n n<br />

a (ϕi, ϕj) ξiξj = a ⎝ ξiϕi,<br />

i,j=1<br />

i,j=1<br />

Vamos agora provar a seguinte estimativa <strong>de</strong> erro:<br />

i=1<br />

j=1<br />

ξjϕj<br />

⎞<br />

i=1<br />

⎠ = a (v, v) α v 2<br />

V<br />

6.8 Proposição. (Estimativa <strong>de</strong> Erro) Se u ∈ V é a solução exata para o problema variacional (6.36) e uh<br />

é a solução <strong>do</strong> problema discretiza<strong>do</strong> (6.37), então<br />

para to<strong>do</strong> v ∈ Vh.<br />

u − uh V Λ<br />

α u − v V<br />

> 0.<br />

(6.41)


Rodney Josué Biezuner 130<br />

Prova. Como<br />

e<br />

segue que<br />

Para to<strong>do</strong> v ∈ Vh vale então<br />

<strong>do</strong>n<strong>de</strong><br />

a (u, v) = f (v) para to<strong>do</strong> v ∈ V<br />

a (uh, v) = f (v) para to<strong>do</strong> v ∈ Vh,<br />

a (u − uh, v) = 0 para to<strong>do</strong> v ∈ Vh. (6.42)<br />

α u − uh 2<br />

V a (u − uh, u − uh) + a (u − uh, uh − v)<br />

= a (u − uh, u − v)<br />

Λ u − uh V u − v V ,<br />

u − uh 2<br />

V<br />

Λ<br />

α ∇u − ∇v L 2 (Ω)<br />

para to<strong>do</strong> v ∈ Vh. <br />

Introduzimos uma norma equivalente em V , induzida pela forma bilinear simétrica a, <strong>de</strong>finin<strong>do</strong><br />

De fato,<br />

Esta norma é chamada norma da energia.<br />

v a = a (v, v) 1/2 . (6.43)<br />

√ α vV v a √ Λ v V .<br />

6.9 Proposição. (Melhor Aproximação) Se u ∈ V é a solução exata para o problema variacional (6.36) e<br />

uh é a solução <strong>do</strong> problema discretiza<strong>do</strong> (6.37), então<br />

u − uh a u − v a<br />

para to<strong>do</strong> v ∈ Vh, ou seja, uh é a melhor aproximação para u em Vh na norma da energia.<br />

Prova. A <strong>de</strong>monstração é análoga à da proposição anterior. <br />

(6.44)


Capítulo 7<br />

Aproximação <strong>de</strong> <strong>Autovalores</strong> <strong>do</strong><br />

<strong>Laplaciano</strong><br />

Neste capítulo <strong>de</strong>sejamos mostrar que tanto os autovalores da matriz <strong>de</strong> discretização, quanto os autovalores<br />

da matriz <strong>de</strong> rigi<strong>de</strong>z, são aproximações para os autovalores <strong>do</strong> laplaciano, o que produz méto<strong>do</strong>s numéricos<br />

para encontrar os autovalores <strong>do</strong> laplaciano em <strong>do</strong>mínios arbitrários.<br />

7.1 Elementos Finitos<br />

Como vimos, o problema <strong>de</strong> autovalor para o laplaciano com condição <strong>de</strong> Dirichlet<br />

−∆u = λu em Ω,<br />

u = 0 sobre ∂Ω,<br />

po<strong>de</strong> ser formula<strong>do</strong> variacionalmente como<br />

on<strong>de</strong><br />

a (u, v) = λ 〈u, v〉 L 2 (Ω)<br />

<br />

a (u, v) = 〈∇u, ∇v〉 L2 (Ω) =<br />

(7.1)<br />

para to<strong>do</strong> v ∈ V = W 1,2<br />

0 (Ω) , (7.2)<br />

Ω<br />

∇u · ∇v.<br />

A discretização correspon<strong>de</strong>nte <strong>de</strong> Ritz-Galerkin (isto é, elementos finitos) <strong>do</strong> problema <strong>de</strong> autovalor é<br />

a (uh, v) = λh 〈uh, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ Vh. (7.3)<br />

Escolhen<strong>do</strong> uma base B = {ϕ1, . . . , ϕn} para Vh, <strong>de</strong> mo<strong>do</strong> que<br />

e<br />

a (uh, v) =<br />

〈uh, v〉 L 2 (Ω) =<br />

uh =<br />

n<br />

uiϕi, v =<br />

i=1<br />

n<br />

uia (ϕi, ϕj) vj =<br />

i,j=1<br />

n<br />

i=1<br />

viϕi<br />

n<br />

ui 〈∇ϕi, ∇ϕj〉 L2 (Ω)<br />

vj = u t hAv,<br />

i,j=1<br />

n<br />

ui 〈ϕi, ϕj〉 L2 (Ω)<br />

vj = u t hMv,<br />

i,j=1<br />

131


Rodney Josué Biezuner 132<br />

on<strong>de</strong><br />

é a matriz <strong>de</strong> rigi<strong>de</strong>z e<br />

A =<br />

M =<br />

<br />

<br />

〈∇ϕi, ∇ϕj〉 L2 (Ω)<br />

1i,jn<br />

<br />

<br />

〈ϕi, ϕj〉 L2 (Ω)<br />

1i,jn<br />

é a chamada matriz <strong>de</strong> massa, este problema toma a seguinte forma matricial:<br />

Auh = λhMuh. (7.4)<br />

Ou seja, é um problema <strong>de</strong> autovalor generaliza<strong>do</strong>. Para transformá-lo em um problema <strong>de</strong> autovalor<br />

“normal”, observe que a matriz <strong>de</strong> massa é simétrica e positiva <strong>de</strong>finida, pois se ξ = (ξ1, . . . , ξn) ∈ Rn é um<br />

vetor não-nulo e v = n<br />

ξiϕi, temos<br />

i=1<br />

〈Mξ, ξ〉 =<br />

Logo, po<strong>de</strong>mos <strong>de</strong>compor<br />

n<br />

<br />

n n<br />

〈ϕi, ϕj〉 L2 (Ω)<br />

ξiξj = ξiϕi,<br />

i,j=1<br />

i=1<br />

M = B t B<br />

j=1<br />

ξjϕj<br />

<br />

L 2 (Ω)<br />

= 〈v, v〉 L 2 (Ω) > 0.<br />

on<strong>de</strong> B também é simétrica positiva <strong>de</strong>finida (por exemplo, a menos <strong>de</strong> similarida<strong>de</strong> ortogonal, B = M 1/2 ).<br />

Definin<strong>do</strong><br />

A = B −t AB −1 ,<br />

uh = Buh,<br />

o problema <strong>de</strong> autovalor generaliza<strong>do</strong> (7.4) é transforma<strong>do</strong> no problema <strong>de</strong> autovalor:<br />

Os autovalores em ambos os problemas são iguais, mas não as autofunções.<br />

7.1.1 Resulta<strong>do</strong>s Preliminares<br />

Auh = λhuh. (7.5)<br />

De agora em diante, além da continuida<strong>de</strong> e coercivida<strong>de</strong> da forma bilinear a (no caso da equação <strong>de</strong> Poisson,<br />

observe que po<strong>de</strong>mos tomar a constante <strong>de</strong> coercivida<strong>de</strong> igual a 1 usan<strong>do</strong> a norma equivalente em W 1,2<br />

0 (Ω))<br />

e <strong>do</strong> fato que W 1,2<br />

0 (Ω) está compactamente imerso em L 2 (Ω), assumiremos que {Vhi}, hi → 0, será sempre<br />

uma seqüência <strong>de</strong> subespaços <strong>de</strong> dimensão finita <strong>de</strong> V que aproximam V no senti<strong>do</strong> que<br />

ou, dito <strong>de</strong> outro mo<strong>do</strong>,<br />

lim dist (u, Vhi ) = 0 para to<strong>do</strong> u ∈ V (7.6)<br />

hi→0<br />

lim<br />

hi→0 inf {u − uhV : uh ∈ Vhi} para to<strong>do</strong> uh ∈ V. (7.7)<br />

Nestas condições, po<strong>de</strong>-se provar que a solução uh dada pelo méto<strong>do</strong> <strong>de</strong> elementos finitos converge na norma<br />

<strong>de</strong> V para a solução exata u (veja [Hackbusch]). Uma condição suficiente para assegurar (7.6) é que<br />

Vh1 ⊂ Vh2 ⊂ . . . ⊂ Vhi ⊂ Vhi+1 ⊂ . . . ⊂ V e<br />

∞<br />

i=1<br />

Vhi é <strong>de</strong>nso em V. (7.8)


Rodney Josué Biezuner 133<br />

Defina a forma bilinear<br />

aλ (u, v) = a (u, v) − λ 〈u, v〉 L 2 (Ω) . (7.9)<br />

Se a é coerciva com constante <strong>de</strong> coercivida<strong>de</strong> α, então aλ também é coerciva para to<strong>do</strong> |λ| < α (veja Lema<br />

7.2 a seguir). Em seguida, consi<strong>de</strong>re os números<br />

ω (λ) = inf<br />

u∈V<br />

sup<br />

v∈V<br />

uV =1 vV =1<br />

ωh (λ) = inf<br />

u∈Vh<br />

uV =1<br />

sup<br />

v∈Vh<br />

v V =1<br />

|aλ (u, v)| , (7.10)<br />

|aλ (u, v)| . (7.11)<br />

A relação entre os números ω (λ) e ωh (λ) e os respectivos problemas <strong>de</strong> autovalores é dada pelos Lemas 7.1<br />

e 7.2 a seguir.<br />

A uma forma bilinear contínua a : V × V −→ R po<strong>de</strong>mos associar <strong>de</strong> forma única um opera<strong>do</strong>r linear<br />

contínuo L : V −→ V ′ que satisfaz<br />

a (u, v) = (Lu) (v) . (7.12)<br />

Além disso, se<br />

para to<strong>do</strong>s u, v ∈ V , então<br />

|a (u, v)| C u V v V<br />

L C.<br />

7.1 Lema. Sejam L e Lh os opera<strong>do</strong>res lineares associa<strong>do</strong>s às formas bilineares a : V × V −→ R e a :<br />

Vh × Vh −→ R, respectivamente.<br />

Se λ não é um autovalor, temos<br />

1<br />

ω (λ) = <br />

<br />

(L − λI) −1 ,<br />

<br />

1<br />

ωh (λ) = <br />

<br />

(Lh − λI) −1 .<br />

<br />

Prova. Se λ não é um autovalor, então o opera<strong>do</strong>r linear L − λI é invertível pela alternativa <strong>de</strong> Fredholm.<br />

Observe que L − λI é precisamente o opera<strong>do</strong>r linear associa<strong>do</strong> à forma bilinear aλ. Denotan<strong>do</strong> A = L − λI,<br />

temos<br />

ω (λ) = inf sup<br />

u∈V v∈V<br />

u=0 v=0<br />

= inf<br />

u ′ ∈V ′<br />

u ′ =0<br />

=<br />

1<br />

A −1 .<br />

|aλ (u, v)|<br />

u V v V<br />

1<br />

A −1 u ′ V<br />

A <strong>de</strong>monstração para ωh (λ) é análoga. <br />

= inf sup<br />

u∈V v∈V<br />

u=0 v=0<br />

|u<br />

sup<br />

v∈V<br />

v=0<br />

′ (v)|<br />

= inf<br />

vV u ′ ∈V ′<br />

u ′ =0<br />

|(Au) (v)|<br />

u V v V<br />

1<br />

= inf<br />

A −1 u ′ V<br />

7.2 Lema. λ é um autovalor <strong>de</strong> (7.2) se e somente se ω (λ) = 0.<br />

λh é um autovalor <strong>de</strong> (7.3) se e somente se ωh (λh) = 0.<br />

u ′ ∈V ′<br />

u ′ =0<br />

sup<br />

v∈V<br />

v=0<br />

u ′ V<br />

<br />

AA −1 u ′ (v) <br />

A −1 u ′ V v V<br />

Prova. Se λ é um autovalor <strong>de</strong> (7.2), então por <strong>de</strong>finição existe u ∈ V tal que aλ (u, v) = 0 para to<strong>do</strong> v ∈ V ,<br />

<strong>do</strong>n<strong>de</strong> ω (λ) = 0. Reciprocamente, se λ não é um autovalor, pelo lema anterior ω (λ) = 0. A <strong>de</strong>monstração<br />

para ωh (λ) é análoga.


Rodney Josué Biezuner 134<br />

7.3 Corolário. ω (λ) e ωh (λ) são contínuas em λ ∈ C.<br />

7.4 Lema. Se a : V × V −→ R é uma forma bilinear coerciva com<br />

|a (v, v)| α v 2<br />

V<br />

para to<strong>do</strong> v ∈ V,<br />

então existe µ ∈ R tal que aµ também é coerciva. Além disso,<br />

Prova. Temos<br />

ω (µ) α − |µ| ,<br />

ωh (µ) α − |µ| .<br />

|aλ (u, u)| |a (u, u)| − |λ| u 2<br />

L2 (Ω) (α − |λ|) u2 V ,<br />

<strong>de</strong> mo<strong>do</strong> que aλ é coerciva sempre que |λ| < α. Para provar as <strong>de</strong>sigualda<strong>de</strong>s, note que se u ∈ V e uV = 1<br />

então<br />

sup |aλ (u, v)| |aλ (u, u)| α − |µ| .<br />

v∈V<br />

vV =1<br />

<br />

7.5 Lema. Seja K ⊂ C compacto. Então existem números C > 0 e ηh > 0 in<strong>de</strong>pen<strong>de</strong>ntes <strong>de</strong> λ ∈ K com<br />

lim<br />

h→0 ηh = 0 tais que<br />

para to<strong>do</strong> λ ∈ K.<br />

ωh (λ) Cω (λ) − ηh, (7.13)<br />

ω (λ) Cωh (λ) − ηh, (7.14)<br />

Prova. Escolha µ ∈ R como no lema anterior. Defina opera<strong>do</strong>res Zλ : V −→ V e Z h λ : V −→ Vh por<br />

z = Zλ (u) é a solução <strong>de</strong> aµ (z, v) = (λ − µ) 〈u, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ V,<br />

zh = Z h λ (u) é a solução <strong>de</strong> aµ (zh, v) = (λ − µ) 〈u, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ Vh.<br />

A existência e unicida<strong>de</strong> <strong>de</strong> z e zh é garantida pelo Teorema <strong>de</strong> Lax-Milgram. Observe que<br />

pois<br />

aλ (u, v) = aµ (u − z, v) , (7.15)<br />

aλ (u, v) = a (u, v) − λ 〈u, v〉 L 2 (Ω)<br />

= a (u, v) − µ 〈u, v〉 L 2 (Ω) − (λ − µ) 〈u, v〉 L 2 (Ω)<br />

= aµ (u, v) − aµ (z, v) .<br />

Usan<strong>do</strong> a continuida<strong>de</strong> <strong>do</strong>s opera<strong>do</strong>res Zλ, Z h λ com relação a λ e a compacida<strong>de</strong> <strong>de</strong> K, seja CZ > 0 uma<br />

constante positiva tal que<br />

Zλ , Z h <br />

<br />

λ CZ para to<strong>do</strong> λ ∈ K. (7.16)<br />

Denote por Cµ uma constante <strong>de</strong> continuida<strong>de</strong> para a forma bilinear aµ, isto é,<br />

|aµ (v, w)| Cµ v V w V<br />

(7.17)<br />

para to<strong>do</strong>s u, v ∈ V , por C0 uma constante uniforme <strong>de</strong> continuida<strong>de</strong> para as formas bilineares aλ, λ ∈ K,<br />

isto é,<br />

|aλ (v, w)| C0 v V w V , (7.18)


Rodney Josué Biezuner 135<br />

para to<strong>do</strong>s u, v ∈ V , para to<strong>do</strong> λ ∈ K, e<br />

β = α − |µ| . (7.19)<br />

Consi<strong>de</strong>remos a primeira <strong>de</strong>sigualda<strong>de</strong>, (7.13). Da <strong>de</strong>finição <strong>de</strong> ω (λ), segue que para to<strong>do</strong> u ∈ V vale<br />

ω (λ) uV sup |aλ (u, v)| = sup |aµ (u − z, v)| Cµ u − zV . (7.20)<br />

v∈V<br />

v∈V<br />

vV =1<br />

vV =1<br />

Usan<strong>do</strong> o Lema 7.4 e esta última <strong>de</strong>sigualda<strong>de</strong> escrevemos então<br />

sup |aλ (u, v)| = sup |aµ (u − zh, v)|<br />

v∈Vh<br />

v∈Vh<br />

vV =1<br />

vV =1<br />

ωh (µ) u − zh V<br />

para to<strong>do</strong> u ∈ V . Escolhen<strong>do</strong> u ∈ Vh tal que u V = 1 e<br />

obtemos<br />

ωh (λ) = inf<br />

u∈Vh<br />

uV =1<br />

sup<br />

v∈Vh<br />

v V =1<br />

β u − zhV β (u − zV − z − zhV )<br />

<br />

ω (λ)<br />

β − Zλ − Z h <br />

<br />

<br />

λ<br />

Cµ<br />

|aλ (u, v)| = min<br />

u∈Vh<br />

ωh (λ) β<br />

Cµ<br />

sup<br />

v∈Vh<br />

uV =1 vV =1<br />

u V<br />

|aλ (u, v)| = sup |aλ (u, v)| ,<br />

v∈Vh<br />

vV =1<br />

ω (λ) − β Zλ − Z h <br />

<br />

λ . (7.21)<br />

Portanto, (7.13) segue se provarmos que<br />

lim<br />

h→0 sup<br />

<br />

Zλ − Z<br />

λ∈K<br />

h <br />

<br />

λ = 0. (7.22)<br />

Da mesma forma, a <strong>de</strong>monstração <strong>de</strong> (7.14) <strong>de</strong>pen<strong>de</strong> <strong>de</strong> (7.22). De fato, pela <strong>de</strong>finição <strong>de</strong> ωh (λ) segue<br />

que para to<strong>do</strong> uh ∈ Vh temos<br />

ωh (λ) uhV sup |aλ (uh, v)| = sup |aµ (uh − zh, v)| Cµ uh − zhV . (7.23)<br />

v∈Vh<br />

v∈Vh<br />

vV =1<br />

vV =1<br />

Usan<strong>do</strong> o Lema 7.4 e esta última <strong>de</strong>sigualda<strong>de</strong> escrevemos<br />

sup |aλ (uh, v)| = sup |aµ (uh − z, v)|<br />

v∈V<br />

v∈V<br />

vV =1<br />

vV =1<br />

para to<strong>do</strong> uh ∈ Vh. Escolha u ∈ V tal que u V = 1 e<br />

ω (λ) = inf<br />

u∈V<br />

sup<br />

v∈V<br />

uV =1 vV =1<br />

ω (µ) uh − z V<br />

β uh − zV β (uh − zhV − z − zhV )<br />

<br />

ωh (λ)<br />

β − Zλ − Z h <br />

<br />

<br />

λ<br />

|aλ (u, v)| = min<br />

u∈V<br />

Cµ<br />

sup<br />

v∈V<br />

uV =1 vV =1<br />

uh V<br />

|aλ (u, v)| = sup |aλ (u, v)| .<br />

v∈V<br />

vV =1


Rodney Josué Biezuner 136<br />

Como<br />

segue que<br />

<strong>do</strong>n<strong>de</strong><br />

sup |aλ (u − uh, v)| C0 u − uhV ,<br />

v∈V<br />

vV =1<br />

ω (λ) + C0 u − uhV sup |aλ (u, v)| + sup |aλ (u − uh, v)|<br />

v∈V<br />

v∈V<br />

vV =1<br />

vV =1<br />

Cµ<br />

sup<br />

v∈V<br />

v V =1<br />

|aλ (uh, v)|<br />

<br />

ωh (λ)<br />

β − Zλ − Z h <br />

<br />

<br />

λ uhV ,<br />

Cµ<br />

<br />

β<br />

ω (λ) ωh (λ) − β Zλ − Z h <br />

<br />

<br />

λ uhV − C0 u − uhV .<br />

Como para cada h po<strong>de</strong>mos escolher uh tal que u − uhV → 0 quan<strong>do</strong> h → 0, por (7.7), (7.14) será prova<strong>do</strong><br />

se (7.22) for verda<strong>de</strong>iro.<br />

Para terminar a <strong>de</strong>monstração <strong>do</strong> lema, provaremos agora (7.22). Suponha por absur<strong>do</strong> que existe ε > 0,<br />

{λi} ⊂ K e hi → 0 tal que <br />

Zλi − Z hi<br />

<br />

<br />

ε.<br />

Então existe uma seqüência {ui} ⊂ V com uiV = 1 tal que<br />

<br />

<br />

Zλi (ui) − Z hi<br />

λi (ui)<br />

<br />

<br />

Pela compacida<strong>de</strong> <strong>de</strong> K e da imersão V −→ L 2 (Ω), po<strong>de</strong>mos assumir a menos <strong>de</strong> uma subseqüência que<br />

λi → λ0,<br />

λi<br />

V<br />

ui → u0 em V ′ .<br />

ε<br />

2 .<br />

Segue <strong>do</strong> fato que a solução dada por elementos finitos aproxima a solução exata que<br />

<br />

<br />

Zλ0 (u0) − Z hi<br />

λ0 (u0)<br />

<br />

<br />

→ 0.<br />

Logo,<br />

uma contradição. <br />

<br />

<br />

Zλi (ui) − Z hi<br />

λi (ui)<br />

<br />

<br />

V<br />

V<br />

<br />

<br />

Zλi (ui) − Zλ0 (ui)V + Z hi<br />

λ0 (ui) − Z hi<br />

λi (ui)<br />

<br />

<br />

<br />

V<br />

<br />

<br />

+ Zλ0 (ui − u0)V + Z hi<br />

λ0 (u0<br />

<br />

<br />

− ui) <br />

V<br />

<br />

<br />

+ Zλ0 (u0) − Z hi<br />

λ0 (u0)<br />

<br />

<br />

<br />

V <br />

<br />

2C |λi − λ0| + 2Cz u0 − uiV ′ + Zλ0 (u0) − Z hi<br />

λ0 (u0)<br />

<br />

<br />

→ 0<br />

V


Rodney Josué Biezuner 137<br />

7.1.2 Convergência <strong>do</strong>s <strong>Autovalores</strong> Discretos para os <strong>Autovalores</strong> Contínuos<br />

A convergência <strong>do</strong>s autovalores discretos para os autovalores exatos po<strong>de</strong> ser agora <strong>de</strong>monstrada:<br />

7.6 Teorema. Sejam λhi autovalores discretos <strong>de</strong> (7.3) tais que<br />

Então λ0 é um autovalor <strong>de</strong> (7.2).<br />

lim λhi = λ0. (7.24)<br />

Prova. Suponha por absur<strong>do</strong> que λ0 não é um autovalor <strong>de</strong> (7.2). Então, pelo Lema 7.2,<br />

ω (λ0) = η0 > 0.<br />

Como ω (λ) é uma função contínua, existe ε0 > 0 tal que<br />

ω (λ) η0<br />

2<br />

para to<strong>do</strong> λ ∈ Dε0 (λ0) = {z ∈ C : |z − λ0| ε0}. Escolha K = Dε0 (λ0) no Lema 7.5 e sejam ηh e C os<br />

números da<strong>do</strong>s naquele lema. Como lim ηhi = 0, seja h0 > 0 tal que<br />

ηh C η0<br />

4<br />

para to<strong>do</strong> h h0. Segue <strong>do</strong>s Lemas 7.2 e 7.5 que para to<strong>do</strong> λhi ∈ Dε0 (λ0) com hi h0 nós temos<br />

uma contradição. <br />

> 0<br />

0 = ωhi (λhi) Cω (λhi) − ηhi C η0<br />

2<br />

− C η0<br />

4<br />

= C η0<br />

4<br />

7.7 Lema. As funções ω (λ) e ωh (λ) não possuem um mínimo positivo próprio no interior <strong>de</strong> um compacto<br />

K ⊂ C.<br />

Prova. Seja L o opera<strong>do</strong>r associa<strong>do</strong> à forma bilinear a. Sejam µ um ponto interior <strong>de</strong> K com ω (µ) > 0<br />

e ε > 0 suficientemente pequeno para que Dε (µ) ⊂ K e ω (λ) > 0 para to<strong>do</strong> λ ∈ Dε (µ). Pelo Lema 7.2,<br />

(L − λI) −1 está <strong>de</strong>finida em Dε (µ), logo é holomórfica aí. Pela fórmula integral <strong>de</strong> Cauchy,<br />

(L − λI) −1 = 1<br />

<br />

2πi ∂Dε(µ)<br />

para to<strong>do</strong> λ ∈ Dε (µ). Daí,<br />

1<br />

ω (λ) =<br />

<br />

<br />

(L − λI) −1 max<br />

<strong>de</strong> mo<strong>do</strong> que<br />

z∈∂Dε(µ)<br />

<br />

<br />

ω (λ) min ω (z)<br />

z∈∂Dε(µ)<br />

(L − zI) −1<br />

dz<br />

z − λ<br />

(L − zI) −1 = max<br />

z∈∂Dε(µ)<br />

> 0,<br />

1<br />

ω (z) ,<br />

para to<strong>do</strong> λ ∈ Dε (µ). Portanto, ω (λ) não po<strong>de</strong> assumir um mínimo próprio em Dε (µ).<br />

A <strong>de</strong>monstração para ωh (λ) é análoga. <br />

A recíproca <strong>do</strong> Teorema 7.6, isto é, que to<strong>do</strong>s os autovalores reais po<strong>de</strong>m ser aproxima<strong>do</strong>s por uma<br />

seqüência <strong>de</strong> autovalores discretos, é dada no próximo resulta<strong>do</strong>:<br />

7.8 Teorema. Seja λ0 um autovalor <strong>de</strong> (7.2). Então existem autovalores discretos λh <strong>de</strong> (7.3) tais que<br />

lim<br />

h→0 λh = λ0. (7.25)


Rodney Josué Biezuner 138<br />

Prova. Os autovalores <strong>do</strong> laplaciano são isola<strong>do</strong>s, logo pelo Lema 7.2<br />

ω (λ) > 0 para to<strong>do</strong> 0 < |λ − λ0| < ε<br />

se ε > 0 é suficientemente pequeno. Como ω (λ) é contínua e ∂Dε (λ0) é compacto, temos<br />

ωε = min ω (λ) > 0.<br />

∂Dε(λ0)<br />

Segue <strong>do</strong> Lema 7.5 que para to<strong>do</strong> λ ∈ ∂Dε (λ0) e para to<strong>do</strong> h suficientemente pequeno temos<br />

ηh < C<br />

1 + 1<br />

ωε,<br />

C<br />

<strong>do</strong>n<strong>de</strong><br />

ωh (λ) Cω (λ) − ηh Cωε − ηh > ηh<br />

C ωh<br />

ω (λ0)<br />

(λ0) −<br />

C = ωh (λ0) .<br />

Em particular, ωh (λ) tem um mínimo próprio em Dε (λ0). Pelo lema anterior, isso implica que existe<br />

λh ∈ Dε (λ0) tal que ωh (λh) = 0, isto é, λh é um autovalor discreto. <br />

7.1.3 Convergência das Autofunções<br />

A convergência das autofunções segue <strong>do</strong> próximo teorema:<br />

7.9 Teorema. Sejam uh autofunções <strong>de</strong> (7.3) associadas respectivamentes aos autovalores discretos λh e<br />

satisfazen<strong>do</strong> uhV = 1 e lim λh = λ0. Então existe uma subseqüência uhi que converge em V para<br />

h→0<br />

uma autofunção u0 associada ao autovalor λ0 <strong>de</strong> (7.2) com u0V = 1.<br />

Prova. Usan<strong>do</strong> o fato que V = W 1,2<br />

0 (Ω) está compactamente imerso em L 2 (Ω), obtemos uma subseqüência<br />

uhi convergente para u0 ∈ L 2 (Ω). Como no Lema 7.4, <strong>de</strong>finimos<br />

z0 = Zλ0 (u0) é a solução <strong>de</strong> aµ (z0, v) = (λ0 − µ) 〈u0, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ V,<br />

zhi = Z hi<br />

λ0 (u0) é a solução <strong>de</strong> aµ (zhi, v) = (λ0 − µ) 〈u0, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ Vhi.<br />

Da<strong>do</strong> ε > 0, existe h 1 ε > 0 tal que<br />

se hi < h 1 ε. A função uhi é uma solução <strong>de</strong><br />

ou seja, uhi = Z hi<br />

λi (uhi). Segue que<br />

z0 − zhi V < ε<br />

2<br />

aµ (uhi, v) = (λhi − µ) 〈uhi, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ Vhi,<br />

fi (v) := aµ (zhi − uhi, v)<br />

= (λ0 − µ) 〈u0, v〉 L 2 (Ω) − (λhi − µ) 〈uhi, v〉 L 2 (Ω)<br />

= (λ0 − µ) 〈u0 − uhi, v〉 L 2 (Ω) − (λhi − λ0) 〈uhi, v〉 L 2 (Ω)<br />

para to<strong>do</strong> v ∈ Vhi. Mas fi → 0 em V ′ porque λhi → λ0 e uhi → u0 em L 2 (Ω), logo existe h 2 ε > 0 tal que<br />

fi V ′ ε<br />

2α<br />

(7.26)


Rodney Josué Biezuner 139<br />

e<br />

para hi < h 2 ε. Portanto,<br />

se hi < min h1 ε, h2 <br />

ε , o que implica<br />

Em particular,<br />

ou seja,<br />

e, portanto,<br />

<br />

zhi − uhi V < ε<br />

2<br />

z0 − uhi V < ε<br />

uhi → z0 em V,<br />

z0 = u0,<br />

aµ (u0, v) = (λ0 − µ) 〈u0, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ V,<br />

a (u0, v) = λ0 〈u0, v〉 L 2 (Ω) para to<strong>do</strong> v ∈ V.<br />

(7.27)


Capítulo 8<br />

Méto<strong>do</strong>s Numéricos para a Obtenção<br />

<strong>de</strong> <strong>Autovalores</strong> <strong>de</strong> Matrizes<br />

Os autovalores <strong>de</strong> uma matriz A são as raízes <strong>do</strong> polinômio característico <strong>de</strong> A<br />

p (λ) = <strong>de</strong>t (λI − A) = λ n + an−1λ n−1 + . . . + a1λ + a0.<br />

Encontrar as raízes <strong>de</strong> um polinômio não é uma tarefa simples e nenhum <strong>do</strong>s algoritmos usa<strong>do</strong>s para encontrar<br />

os autovalores <strong>de</strong> uma matriz é basea<strong>do</strong> nesta estratégia (além disso, obter o polinômio característico <strong>de</strong><br />

uma matriz gran<strong>de</strong> também po<strong>de</strong> ser uma tarefa que consome muito tempo e recursos computacionais). Na<br />

verda<strong>de</strong>, muitos algoritmos para encontrar raízes <strong>de</strong> polinômios são basea<strong>do</strong>s em algoritmos para encontrar<br />

autovalores <strong>de</strong> matrizes. Eles são basea<strong>do</strong>s no fato que, da<strong>do</strong> um polinômio mônico p qualquer, ele é o<br />

polinômio característico da matriz companheira <strong>de</strong> p:<br />

⎡<br />

⎤<br />

−an−1 −an−2 . . . −a1 −a0<br />

⎢<br />

1 0 . . . 0 0 ⎥<br />

⎢<br />

A = ⎢<br />

.<br />

⎢ 0 1<br />

..<br />

⎥<br />

0 0 ⎥ .<br />

⎢<br />

⎣ .<br />

. . ⎥<br />

.<br />

..<br />

0 0 ⎦<br />

0 0 . . . 1 0<br />

Assim, encontrar as raízes <strong>do</strong> polinômio p é equivalente a encontrar os autovalores da matriz companheira<br />

<strong>de</strong> p. Por exemplo, o coman<strong>do</strong> roots em MATLAB encontra as raízes <strong>de</strong> um polinômio transforman<strong>do</strong>-o<br />

primeiro em um polinômio mônico e em seguida utilizan<strong>do</strong> o eficiente algoritmo QR, discuti<strong>do</strong> neste capítulo,<br />

para encontrar os autovalores da matriz companheira.<br />

Diferente <strong>do</strong> caso da resolução <strong>de</strong> sistemas lineares, em que existem méto<strong>do</strong>s diretos eficientes para<br />

matrizes gran<strong>de</strong>s, esparsas ou não, não existem correspon<strong>de</strong>ntes méto<strong>do</strong>s diretos para obter autovalores <strong>de</strong><br />

uma matriz (um méto<strong>do</strong> é chama<strong>do</strong> direto se a solução é obtida após um número finito <strong>de</strong> passos). Isso é<br />

<strong>de</strong>vi<strong>do</strong> ao teorema <strong>de</strong> Abel que diz que não existe uma fórmula geral para obter as raízes <strong>de</strong> um polinômio<br />

<strong>de</strong> grau maior que 4; se existisse um procedimento finito para obter os autovalores <strong>de</strong> uma matriz, usan<strong>do</strong> a<br />

equivalência entre as raízes <strong>de</strong> um polinômio e os autovalores <strong>de</strong> sua matriz companheira, obteríamos uma<br />

fórmula geral para obter as raízes <strong>de</strong> um polinômio, por mais complicada que fosse. Portanto, to<strong>do</strong>s os<br />

algoritmos para obter autovalores são iterativos.<br />

8.1 Méto<strong>do</strong> das Potências<br />

O méto<strong>do</strong> das potências é o algoritmo mais simples, mas ele po<strong>de</strong> apenas encontrar o maior autovalor <strong>de</strong> uma<br />

matriz A. Para simplificar a exposição, suponha que A é uma matriz diagonalizável cujo maior autovalor é<br />

140


Rodney Josué Biezuner 141<br />

um autovalor simples. Or<strong>de</strong>ne os autovalores <strong>de</strong> A na forma<br />

|λ1| > |λ2| . . . |λn|<br />

e seja {v1, . . . , vn} uma base correspon<strong>de</strong>nte <strong>de</strong> autovetores. λ1 é chama<strong>do</strong> o autovalor <strong>do</strong>minante <strong>de</strong> A e<br />

v1 um autovetor <strong>do</strong>minante. Quan<strong>do</strong> A tem um autovalor <strong>do</strong>minante, este e um correspon<strong>de</strong>nte autovetor<br />

<strong>do</strong>minante po<strong>de</strong>m ser encontra<strong>do</strong>s através <strong>do</strong> méto<strong>do</strong> das potências, que consiste essencialmente em tomar<br />

um vetor q arbitrário e consi<strong>de</strong>rar as potências<br />

ou seja,<br />

q, Aq, A 2 q, . . . , A k q, . . .<br />

A k q = A A k−1 q .<br />

Para quase todas as escolhas <strong>de</strong> q esta seqüência converge em um certo senti<strong>do</strong> para um autovetor <strong>do</strong>minante<br />

<strong>de</strong> A. De fato, para a maioria das escolhas <strong>de</strong> q <strong>de</strong>vemos ter<br />

q =<br />

com a1 = 0; raramente uma escolha aleatória <strong>de</strong> q produzirá um vetor no subespaço 〈v2, . . . , vn〉. Temos<br />

<strong>do</strong>n<strong>de</strong><br />

A k q = λ k 1<br />

A k q =<br />

<br />

a1v1 +<br />

n<br />

i=1<br />

n<br />

i=1<br />

aivi<br />

aiλ k i vi,<br />

Embora A k q → ∞ se λ1 > 1 e A k q → 0 se λ1 < 1, como<br />

k λi<br />

para to<strong>do</strong> i = 2, . . . , n, segue que a seqüência reescalada<br />

λ1<br />

qk = Ak q<br />

λ k 1<br />

n<br />

k λi<br />

ai vi<br />

λ1<br />

i=2<br />

→ 0,<br />

→ a1v1<br />

converge para um autovetor <strong>do</strong>minante. No entanto, como o autovalor λ1 não é conheci<strong>do</strong> a priori, é<br />

impossível trabalhar com esta seqüência. Em geral, escolhemos um fator <strong>de</strong> escala σk e <strong>de</strong>finimos<br />

qk+1 = 1<br />

σk+1<br />

<br />

.<br />

Aqk. (8.1)<br />

O fator <strong>de</strong> escala σk é comumente escolhi<strong>do</strong> como sen<strong>do</strong> o valor da coor<strong>de</strong>nada <strong>de</strong> Aqk que tem o maior<br />

valor absoluto. Deste mo<strong>do</strong>, o maior componente <strong>de</strong> qk é igual a 1 e a seqüência converge para um autovetor<br />

<strong>do</strong>minante cujo maior componente é 1.<br />

8.1.1 Iteração Inversa e Iteração com Deslocamento<br />

O méto<strong>do</strong> das potência permite apenas encontrar o autovalor <strong>do</strong>minante. Para obter o menor autovalor <strong>de</strong><br />

A, po<strong>de</strong>mos aplicar o méto<strong>do</strong> das potências à matriz A −1 , pois se λ é o menor autovalor <strong>de</strong> A, 1/λ será


Rodney Josué Biezuner 142<br />

o maior autovalor <strong>de</strong> A −1 . Este méto<strong>do</strong> é chama<strong>do</strong> méto<strong>do</strong> das potências inverso ou iteração inversa (em<br />

contraste, o méto<strong>do</strong> das potências é às vezes chama<strong>do</strong> iteração direta).<br />

Para encontrar os <strong>de</strong>mais autovalores da matriz A, observe que se A tem autovalores λ1, . . . , λn, então<br />

A − σI tem autovalores λ1 − σ, . . . , λn − σ. O escalar σ é chama<strong>do</strong> um <strong>de</strong>slocamento. Po<strong>de</strong>mos então aplicar<br />

o méto<strong>do</strong> das potências à matriz (A − σI) −1 , pois o maior autovalor <strong>de</strong>sta matriz é 1/ (λ − σ), on<strong>de</strong> λ é o<br />

autovalor <strong>de</strong> A mais próximo <strong>de</strong> σ. De fato, se<br />

(A − σI) −1 v = µv,<br />

então v = µ (A − σI) v, <strong>do</strong>n<strong>de</strong><br />

<br />

Av = σ + 1<br />

<br />

v.<br />

µ<br />

Assim, po<strong>de</strong>mos escolher quais autovalores <strong>de</strong> A encontrar através da escolha <strong>do</strong> <strong>de</strong>slocamento σ. Este<br />

méto<strong>do</strong> é chama<strong>do</strong> iteração com <strong>de</strong>slocamento.<br />

estimativas para os autovalores <strong>de</strong> A.<br />

Ele é particularmente eficiente quan<strong>do</strong> possuímos boas<br />

É muito importante notar que tanto na iteração inversa, quanto na iteração com <strong>de</strong>slocamento, em<br />

nenhum momento é necessário calcular a inversa A−1 recursos. Embora as iteradas satisfazem<br />

explicitamente, o que consumiria muito tempo e<br />

qk+1 = 1<br />

(A − σI) −1 qk,<br />

basta resolver o sistema<br />

e então tomar<br />

8.2 Iteração <strong>de</strong> Subespaços<br />

σk+1<br />

(A − σI) qk+1 = qk<br />

qk+1 = 1<br />

qk+1.<br />

σk+1<br />

O méto<strong>do</strong> <strong>de</strong> potências po<strong>de</strong> ser visto como uma iteração <strong>de</strong> subespaços<br />

S0 = 〈q〉 ,<br />

S1 = AS,<br />

S2 = A 2 S,<br />

.<br />

.<br />

Sk = A k S,<br />

.<br />

.<br />

que convergem para o subespaço T = 〈v1〉 associa<strong>do</strong> ao autovalor <strong>do</strong>minante <strong>de</strong> A. Esta idéia po<strong>de</strong> ser<br />

tornada mais precisa quan<strong>do</strong> se <strong>de</strong>fine a distância entre <strong>do</strong>is subespaços vetoriais.<br />

Definição. Da<strong>do</strong>s <strong>do</strong>is subespaços vetoriais E, F <strong>de</strong> um espaço vetorial V <strong>de</strong> dimensão finita com produto<br />

interno, cujas dimensões m = dim E, p = dim F satisfazem<br />

m p 1,<br />

os ângulos principais θ1, . . . , θp ∈ [0, π/2] entre E e F são <strong>de</strong>fini<strong>do</strong>s recursivamente por<br />

cos θj = max<br />

u∈E<br />

u=1<br />

〈u,ui〉=0<br />

para i=1,...,j−1<br />

max<br />

v∈F<br />

v=1<br />

〈v,vi〉=0<br />

para i=1,...,j−1<br />

〈u, v〉 = 〈uj, vj〉 .<br />

Os vetores {u1, . . . , up} e {v1, . . . , vp} são chama<strong>do</strong>s os vetores principais entre os subespaços E e F .


Rodney Josué Biezuner 143<br />

Em outras palavras, escolha vetores u1, v1 tais que o máximo<br />

é realiza<strong>do</strong> nestes vetores, e <strong>de</strong>fina<br />

max<br />

u∈E<br />

max<br />

v∈F<br />

u=1 v=1<br />

〈u, v〉<br />

cos θ1 = 〈u1, v1〉 .<br />

Por exemplo, se dim E = 2 e dim F = 1, então θ1 é o maior ângulo que a reta F faz com retas <strong>de</strong> E; se<br />

dim E = dim F = 2, então θ1 é o maior ângulo entre uma reta <strong>de</strong> E e uma reta <strong>de</strong> F . Em seguida, escolha<br />

vetores u2, v2 tais que o máximo<br />

é realiza<strong>do</strong> nestes vetores, e <strong>de</strong>fina<br />

max<br />

u∈E<br />

u=1<br />

〈u,u1〉=0<br />

max<br />

v∈F<br />

v=1<br />

〈v,v1〉=0<br />

〈u, v〉<br />

cos θ2 = 〈u2, v2〉 .<br />

Por exemplo, se dim E = dim F = 2, então θ2 = 0 porque u2 = v2. E assim por diante <strong>de</strong>finimos os ângulos<br />

principais restantes θ3, . . . , θp. Ângulos principais e vetores principais aparecem em aplicações <strong>de</strong> estatística<br />

e permitem a <strong>de</strong>finição <strong>de</strong> uma noção <strong>de</strong> distância entre subespaços vetoriais <strong>de</strong> mesma dimensão.<br />

Definição. Da<strong>do</strong>s <strong>do</strong>is subespaços vetoriais <strong>de</strong> mesma dimensão S1, S2 ⊂ V a distância dist (S1, S2) entre<br />

S1 e S2 é o seno <strong>do</strong> maior ângulo principal entre eles.<br />

Dada uma seqüência <strong>de</strong> subespaços {Sk} ⊂ V e um subespaço T ⊂ V , to<strong>do</strong>s <strong>de</strong> mesma dimensão,<br />

dizemos que Sk converge para T , <strong>de</strong>nota<strong>do</strong> por<br />

se<br />

Sk → T<br />

dist (Sk, T ) → 0.<br />

8.1 Teorema. Seja A ∈ Mn (F) uma matriz diagonalizável com autovalores λ1, . . . , λn ∈ F satisfazen<strong>do</strong><br />

|λ1| |λ2| . . . |λn|<br />

Seja B = {v1, . . . , vn} ⊂ F n uma base <strong>de</strong> autovetores correspon<strong>de</strong>nte. Suponha que |λm| > |λm+1| para<br />

algum m. Sejam<br />

Tm = 〈v1, . . . , vm〉 ,<br />

Um = 〈vm+1, . . . , vn〉 .<br />

Seja S um subespaço m-dimensional qualquer <strong>de</strong> Fn tal que S ∩Um = {0}. Então existe uma constante<br />

C > 0 tal que<br />

dist A k k<br />

λm+1<br />

<br />

S, Tm C <br />

para to<strong>do</strong> k.<br />

Em particular, A k S → Tm.<br />

Prova. Embora não <strong>de</strong>monstraremos o Teorema 8.1 rigorosamente, daremos uma idéia da <strong>de</strong>monstração.<br />

Seja q ∈ S um vetor arbitrário. Então q se escreve <strong>de</strong> maneira única na forma<br />

q =<br />

m<br />

aivi +<br />

i=1<br />

n<br />

i=m+1<br />

λm<br />

aivi =: q1 + q2


Rodney Josué Biezuner 144<br />

com q1 ∈ Tm e q2 ∈ Um. Como q /∈ Um, necessariamente q1 = 0, isto é, ai = 0 para algum índice i = 1, . . . , m.<br />

Em primeiro lugar, note que os subespaços A k S são to<strong>do</strong>s m-dimensionais. De fato, |λm| > |λm+1| implica<br />

que nenhum <strong>do</strong>s autovalores λ1, . . . , λm é o autovalor nulo, logo ker A ⊂ Um. Como S ∩ Um = {0}, segue<br />

que A é injetiva sobre S logo dim S = dim (AS). Mais geralmente, como A k Tm = Tm, temos ker A k ⊂ Um<br />

para to<strong>do</strong> k. Além disso, A k S ∩ Um = {0}, pois se q = q1 + q2 ∈ S é um vetor arbitrário com q1 ∈ Tm e<br />

q2 ∈ Um, segue que a componente A k q1 <strong>de</strong> A k q em Tm é não-nula para to<strong>do</strong> k, pois A k q1 = m<br />

i=1 aiλ k vi e<br />

ai = 0 para algum índice i = 1, . . . , m. Portanto, dim (AS) = dim (AS) = . . . = dim A k S .<br />

Temos<br />

A k q<br />

λ k m<br />

=<br />

m−1 <br />

k n<br />

<br />

λi<br />

λi<br />

ai vi + amvm + ai<br />

λm<br />

λm<br />

i=1<br />

i=m+1<br />

k<br />

vi.<br />

Os coeficientes da componente em Tm crescem, ou pelo menos não <strong>de</strong>crescem, enquanto que os coeficientes<br />

da componente em Um ten<strong>de</strong>m a zero com taxa igual a ou melhor que λm+1/λm. Portanto, toda seqüência<br />

k A q converge para um vetor em Tm com a taxa <strong>de</strong> convergência dada no enuncia<strong>do</strong>. O limite AkS não<br />

po<strong>de</strong> ser um subespaço próprio <strong>de</strong> Tm porque ele tem dimensão m. <br />

Tm é chama<strong>do</strong> o subespaço invariante <strong>do</strong>minante <strong>de</strong> A <strong>de</strong> dimensão m.<br />

Para fazer uma iteração <strong>de</strong> subespaços na prática, é necessário escolher uma base para o subespaço a<br />

ser itera<strong>do</strong>, iteran<strong>do</strong> to<strong>do</strong>s os vetores <strong>de</strong>sta base simultaneamente. Assim, se B0 = q0 1, . . . , q0 <br />

m é uma base<br />

para S, Bk = Akq0 1, . . . , Akq0 <br />

k<br />

m é uma base para A S. Por outro la<strong>do</strong>, já vimos que trabalhar com os<br />

vetores Akq0 j po<strong>de</strong> ser problemático, pois po<strong>de</strong> ocorrer Akq0 <br />

<br />

j → ∞ ou Akq0 <br />

<br />

j → 0; seria necessário fazer<br />

um reescalamento a cada iteração. Pior que isso, as seqüências <strong>de</strong> vetores Akq0 <br />

k 0<br />

1 , . . . , A qm convergem<br />

cada uma para o autovetor <strong>do</strong>minante v1, como vimos na seção anterior, logo os vetores A k q 0 1, . . . , A k q 0 m<br />

apontam aproximadamente para a mesma direção v1 para m gran<strong>de</strong>, logo Bk = Akq0 1, . . . , Akq0 <br />

m não é<br />

uma boa base para AkS (dizemos que Bk é uma base mal-condicionada): pequenas perturbações em um <strong>do</strong>s<br />

vetores-base po<strong>de</strong>m fazer uma gran<strong>de</strong> diferença no espaço.<br />

Deve-se portanto substituir a base obtida em cada iteração por uma base bem-condicionada. A maneira<br />

mais confiável <strong>de</strong> fazer isso é ortonormalizar a base. Assim, começa-se com uma base ortonormal B0 =<br />

0 q1, . . . , q0 <br />

m para S e obtém-se a base B1<br />

= Aq0 1, . . . , Aq0 <br />

m para AS. Através <strong>de</strong> um processo <strong>de</strong><br />

ortonormalização, como o algoritmo <strong>de</strong> Gram-Schmidt, a partir <strong>de</strong> B1 obtém-se uma base ortonormal<br />

B1 = q1 1, . . . , q1 <br />

m para AS. Em geral, dada uma base ortonormal Bk = qk 1 , . . . , qk <br />

k<br />

m para A S, obtemos<br />

uma base ortonormal Bk+1 = q k+1<br />

1 , . . . , qk+1 <br />

k+1<br />

m para A S a partir da base Bk+1<br />

= Aqk 1 , . . . , Aqk <br />

m .<br />

Este procedimento é chama<strong>do</strong> iteração simultânea com ortonormalização ou simplesmente iteração<br />

simultânea.<br />

8.3 Méto<strong>do</strong> QR<br />

O algoritmo mais usa<strong>do</strong> para calcular o conjunto completo <strong>de</strong> autovalores <strong>de</strong> uma matriz é o algoritmo<br />

QR, <strong>de</strong>senvolvi<strong>do</strong> simultanea e in<strong>de</strong>pen<strong>de</strong>ntemente por Francis e Kublanovskaya em 1961. Ele po<strong>de</strong> ser<br />

compreendi<strong>do</strong> a partir <strong>do</strong> processo <strong>de</strong> iteração simultânea.<br />

Consi<strong>de</strong>remos o que acontece quan<strong>do</strong> o processo <strong>de</strong> iteração simultânea é aplica<strong>do</strong> a uma base B0 =<br />

0 q1, . . . , q0 <br />

n<br />

n <strong>de</strong> vetores ortonormais para F . Como antes, assumimos que A é diagonalizável com autovalores<br />

λ1, . . . , λn e B = {v1, . . . , vn} é uma base correspon<strong>de</strong>nte <strong>de</strong> autovetores. Assuma<br />

para m = 1, . . . , n − 1, e <strong>de</strong>fina<br />

|λm| > |λm+1|<br />

Sm = q 0 1, . . . , q 0 <br />

m ,<br />

Tm = 〈v1, . . . , vm〉 ,<br />

Um = 〈vm+1, . . . , vn〉 .


Rodney Josué Biezuner 145<br />

Assuma também que Sm ∩ Um = {0} para m = 1, . . . , n − 1. Pelo Teorema 8.1,<br />

A k Sm = q k 1 , . . . , q k <br />

m → Tm<br />

com velocida<strong>de</strong> <strong>de</strong> convergência igual a |λm+1| / |λm|.<br />

Seja Qk a matriz unitária cujas colunas são os vetores ortonormais q k 1 , . . . , q k n e <strong>de</strong>note<br />

Ak = Q ∗ kA Qk. (8.2)<br />

Como Ak é similar a A, Ak possui os mesmos autovalores <strong>de</strong> A. Para k gran<strong>de</strong>, as primeiras m colunas <strong>de</strong><br />

Qk são próximas ao subespaço invariante Tm. Se estas colunas gerassem exatamente o subespaço Tm, então<br />

Ak teria a forma em blocos<br />

Ak =<br />

<br />

k A11 k×k<br />

0 (n−k)×k<br />

<br />

k A12 <br />

k A22 k×(n−k)<br />

(n−k)×(n−k)<br />

e os autovalores λ1, . . . , λk seriam os autovalores <strong>do</strong> bloco A k 11. Como estas colunas apenas aproximam Tm,<br />

ao invés <strong>de</strong> um bloco nulo <strong>de</strong>vemos obter um bloco A k 21 cujas entradas são próximas <strong>de</strong> zero. Po<strong>de</strong>-se provar<br />

que <strong>de</strong> fato A k 21 → 0. Isso acontece para to<strong>do</strong> k, <strong>de</strong> mo<strong>do</strong> que Ak converge para uma matriz triangular, cujos<br />

elementos na diagonal principal são os autovalores λ1, . . . , λn <strong>de</strong> A. Se A for uma matriz hermitiana, então<br />

Ak também será hermitiana e Ak convergirá para uma matriz diagonal.<br />

O algoritmo QR é uma variante da iteração <strong>de</strong> subespaços que produz a seqüência (Ak) diretamente.<br />

8.3.1 O Algoritmo QR<br />

Para obter o algoritmo QR, vamos colocar a iteração simultânea em forma matricial. Assumiremos que A<br />

é invertível. Depois <strong>de</strong> k iterações, temos os vetores ortonormais qk 1 , . . . , qk n, que são as colunas da matriz<br />

unitária Qk, isto é,<br />

Qk = qk 1 . . . qk <br />

n . (8.4)<br />

Denote<br />

Bk+1 = A Qk = Aq k 1 . . . Aq k n<br />

<br />

(8.3)<br />

. (8.5)<br />

Em seguida, o processo <strong>de</strong> Gram-Schmidt clássico é aplica<strong>do</strong> aos vetores linearmente in<strong>de</strong>pen<strong>de</strong>ntes b k+1<br />

1<br />

Aq k 1 , . . . , b k+1<br />

n<br />

= Aq k n (daí a hipótese <strong>de</strong> que A é invertível) para obter vetores ortonormais q k+1<br />

1<br />

=<br />

, . . . , q k+1<br />

n<br />

que serão as colunas da matriz unitária Qk+1.<br />

Para expressar o algoritmo <strong>de</strong> Gram-Schmidt em forma matricial, lembre-se que para obter vetores<br />

ortonormais q1, . . . , qn a partir <strong>de</strong> vetores linearmente in<strong>de</strong>pen<strong>de</strong>ntes b1, . . . , bn neste processo primeiro ortogonalizamos,<br />

obten<strong>do</strong> os vetores ortogonais<br />

q1 = b1,<br />

q2 = b2 − 〈b2, q1〉<br />

〈q1, q1〉 q1,<br />

.<br />

.<br />

m−1 <br />

qm = bm −<br />

.<br />

.<br />

qn = bn −<br />

j=1<br />

〈bm, qj〉<br />

〈qj, qj〉 qj,<br />

n 〈bn, qj〉<br />

〈qj, qj〉 qk+1 j .<br />

j=1


Rodney Josué Biezuner 146<br />

e <strong>de</strong>pois normalizamos obten<strong>do</strong> os vetores ortonormais<br />

q1 = q1<br />

q1 ,<br />

.<br />

.<br />

qn = qn<br />

qn .<br />

Po<strong>de</strong>mos escrever o processo <strong>de</strong> ortogonalização na forma<br />

ou<br />

on<strong>de</strong><br />

m−1 <br />

qm = bm − 〈bm, qj〉 qj,<br />

qm = qm<br />

qm ,<br />

j=1<br />

m−1 <br />

qm = bm − rjmqj, (8.6)<br />

qm = 1<br />

rmm<br />

j=1<br />

qm, (8.7)<br />

rjm = 〈bm, qj〉 , se j = 1, . . . , m − 1, (8.8)<br />

rmm = qm . (8.9)<br />

Os vetores b1, . . . , bn po<strong>de</strong>m então ser escritos diretamente em função <strong>do</strong>s vetores q1, . . . , qn:<br />

ou seja,<br />

bm =<br />

m−1 <br />

j=1<br />

b1 = r11q1,<br />

b2 = r12q1 + r22q2,<br />

b3 = r13q1 + r23q2 + r33q3<br />

.<br />

.<br />

rjmqj + rmmqm, (8.10)<br />

bn = r1nq1 + r2nq2 + . . . + rnnqn<br />

Em forma matricial, se <strong>de</strong>finirmos rjm = 0 sempre que j > m e consi<strong>de</strong>rarmos a matriz triangular superior<br />

R = (rij), temos<br />

b1 b2 b3 . . . bn<br />

<br />

= q1 q2 q3 . . . qn<br />

⎡<br />

r11<br />

⎢<br />

⎢ 0<br />

⎢ 0<br />

⎢ .<br />

⎣ .<br />

r12<br />

r22<br />

0<br />

.<br />

.<br />

r13<br />

r23<br />

r33<br />

. ..<br />

. . .<br />

. . .<br />

. . .<br />

. ..<br />

r1n<br />

r2n<br />

r3n<br />

.<br />

.<br />

⎤<br />

⎥<br />

⎦<br />

0 0 0 . . . rnn


Rodney Josué Biezuner 147<br />

ou<br />

B = QR (8.11)<br />

Esta é a chamada <strong>de</strong>composição QR <strong>de</strong> uma matriz invertível B em um produto <strong>de</strong> uma matriz unitária Q<br />

(ortogonal, se B for uma matriz real) e uma matriz triangular superior com entradas diagonais reais positivas<br />

R.<br />

Portanto, usan<strong>do</strong> a <strong>de</strong>composição QR, um passo <strong>de</strong> iteração simultânea po<strong>de</strong> ser expresso em forma<br />

matricial como<br />

Bk+1 = A Qk = Qk+1Rk+1, (8.12)<br />

on<strong>de</strong> Rk+1 é a matriz triangular superior <strong>de</strong>finida por<br />

⎧<br />

⎨ 0<br />

<br />

se j > m,<br />

k<br />

(Rk+1)<br />

jm = Aqj , q<br />

⎩<br />

k+1<br />

j se j = 1, . . . , m − 1,<br />

k Aqj , Aqk <br />

j se j = m.<br />

(8.13)<br />

Agora suponha que comecemos a iteração simultânea a partir <strong>do</strong>s vetores da base canônica, isto é,<br />

0 q1, . . . , q0 <br />

n = {e1, . . . , en}, <strong>de</strong> mo<strong>do</strong> que Q0 = I. Então<br />

<strong>do</strong>n<strong>de</strong><br />

Daí,<br />

Denotan<strong>do</strong> Q1 = Q1, escrevemos<br />

e<br />

No próximo passo,<br />

Observan<strong>do</strong> que<br />

<strong>de</strong>finin<strong>do</strong><br />

obtemos a <strong>de</strong>composição QR da matriz A1:<br />

Daí,<br />

Como Q ∗ 2A1 = R2, segue que<br />

Em geral,<br />

B1 = A Q0 = A,<br />

A = Q1R1.<br />

A1 = Q ∗ 1A Q1 = R1 Q1.<br />

A = Q1R1<br />

A1 = R1Q1. (8.14)<br />

B2 = A Q1 = Q2R2.<br />

A1 = Q ∗ 1A Q1 = Q ∗ 1 Q2R2,<br />

Q2 = Q ∗ 1 Q2<br />

A1 = Q2R2. (8.15)<br />

A2 = Q ∗ 2A Q2 = Q ∗ 2 Q1R1 Q2 = Q ∗ 2R1 Q1Q2 = Q ∗ 2A1Q2.<br />

A2 = R2Q2. (8.16)<br />

Ak−1 = QkRk, (8.17)<br />

Ak = RkQk, (8.18)<br />

isto é, obtemos primeiro a <strong>de</strong>composição QR da matriz Ak−1 e a partir <strong>de</strong>la obtemos a próxima iterada, a<br />

matriz Ak.


Rodney Josué Biezuner 148<br />

8.3.2 Implementação Eficiente <strong>do</strong> Algoritmo QR<br />

O algoritmo QR da forma como introduzi<strong>do</strong> na seção anterior é altamente ineficiente. Cada <strong>de</strong>composição<br />

QR custa O n 3 operações <strong>de</strong> ponto flutuante e a multiplicação <strong>de</strong> matrizes que lhe segue também custa<br />

O n 3 operações <strong>de</strong> ponto flutuante. Além disso, a velocida<strong>de</strong> <strong>de</strong> convergência também é muito lenta.<br />

O primeiro problema é resolvi<strong>do</strong> quan<strong>do</strong> se reduz a matriz A à sua forma <strong>de</strong> Hessenberg. Uma <strong>de</strong>composição<br />

QR <strong>de</strong> uma matriz na forma <strong>de</strong> Hessenberg é apenas O n 2 operações <strong>de</strong> ponto flutuante para uma<br />

matriz geral e O (n) operações <strong>de</strong> ponto flutuante para uma matriz hermitiana.<br />

Definição. Dizemos que uma matriz A = (aij) é uma matriz <strong>de</strong> Hessenberg superior se aij = 0 sempre<br />

que i > j + 1.<br />

Em outras palavras, uma matriz <strong>de</strong> Hessenberg superior tem a forma<br />

⎡<br />

∗<br />

⎢ ∗<br />

⎢ 0<br />

⎣ 0<br />

∗<br />

∗<br />

∗<br />

0<br />

∗<br />

∗<br />

∗<br />

∗<br />

∗<br />

∗<br />

∗<br />

∗<br />

∗<br />

∗<br />

∗<br />

∗<br />

⎤<br />

⎥<br />

⎦<br />

0 0 0 ∗ ∗<br />

.<br />

Observe que uma matriz hermitiana <strong>de</strong> Hessenberg é uma matriz tridiagonal. Toda matriz complexa é<br />

semelhante a uma matriz na forma <strong>de</strong> Hessenberg superior através <strong>de</strong> uma matriz unitária, isto é, dada<br />

A ∈ Mn (C), existe uma matriz unitária Q tal que<br />

B = Q ∗ AQ<br />

é <strong>de</strong> Hessenberg superior. O custo para isso é <strong>de</strong> 10<br />

3 n3 operações <strong>de</strong> ponto flutuante. Detalhes po<strong>de</strong>m ser<br />

vistos em [Watkins]. Se Ak−1 é uma matriz <strong>de</strong> Hessenberg superior, então a matriz Ak obtida através <strong>do</strong><br />

méto<strong>do</strong> QR também é <strong>de</strong> Hessenberg superior. De fato, da <strong>de</strong>composição QR <strong>de</strong> Ak−1, Ak−1 = QkRk,<br />

obtemos Qk = Ak−1R −1<br />

k . Como a inversa <strong>de</strong> uma matriz triangular superior é uma matriz triangular<br />

superior, segue que R −1<br />

k é triangular superior. O produto <strong>de</strong> uma matriz triangular superior e <strong>de</strong> uma<br />

matriz <strong>de</strong> Hessenberg superior, em qualquer or<strong>de</strong>m, sempre é uma matriz <strong>de</strong> Hessenberg superior. Segue<br />

que Qk é <strong>de</strong> Hessenberg superior e daí que Ak = RkQk é <strong>de</strong> Hessenberg superior. Assim, se começarmos<br />

com uma matriz <strong>de</strong> Hessenberg superior, em cada passo QR estaremos trabalhan<strong>do</strong> com uma matriz <strong>de</strong><br />

Hessenberg superior e o custo computacional cai <strong>de</strong> O n3 para O n2 (ou até mesmo O (n) se a matriz for<br />

hermitiana), uma redução significativa.<br />

A velocida<strong>de</strong> <strong>de</strong> convergência <strong>do</strong> algoritmo QR po<strong>de</strong> ser acelerada pela estratégia <strong>de</strong> <strong>de</strong>slocamento. Com<br />

efeito, como a taxa <strong>de</strong> convergência <strong>do</strong> méto<strong>do</strong> <strong>de</strong>pen<strong>de</strong> da razão |λm+1| / |λm|, ela po<strong>de</strong> ser melhorada<br />

quan<strong>do</strong> esta razão é <strong>de</strong>crescida. Isso po<strong>de</strong> ser feito através <strong>de</strong> <strong>de</strong>slocamento; |λm+1 − σ| / |λm − σ| po<strong>de</strong><br />

ser torna<strong>do</strong> arbitrariamente próximo a zero escolhen<strong>do</strong> um <strong>de</strong>slocamento arbitrariamente próximo a λm+1.<br />

A escolha <strong>do</strong> <strong>de</strong>slocamento po<strong>de</strong> ser feita através <strong>do</strong> próprio méto<strong>do</strong> QR: <strong>de</strong>pois <strong>de</strong> algumas iterações, os<br />

elementos na diagonal principal <strong>de</strong> Ak são aproximações <strong>do</strong>s autovalores <strong>de</strong> A.<br />

O méto<strong>do</strong> po<strong>de</strong> ter sua velocida<strong>de</strong> <strong>de</strong> convergência ainda mais acelerada através <strong>do</strong> uso <strong>de</strong> uma técnica<br />

chamada <strong>de</strong>flação. Suponha que obtivemos uma boa aproximação σ para o autovalor <strong>de</strong> menor módulo λn<br />

(como este autovalor tem o menor módulo, ele <strong>de</strong>ve ser o melhor aproxima<strong>do</strong> pelas iterações QR iniciais usadas<br />

para encontrar boas aproximações para os autovalores). Aplican<strong>do</strong> o algoritmo QR à matriz C = A − σI,<br />

obteremos uma convergência muito rápida, <strong>de</strong> mo<strong>do</strong> que após poucas iterações a matriz Ck +σI (adicionan<strong>do</strong><br />

o <strong>de</strong>slocamento <strong>de</strong> volta) terá aproximadamente a forma<br />

⎡<br />

⎤<br />

∗<br />

⎢ Ak<br />

Ck + σI = ⎢<br />

. . . ⎥<br />

⎣<br />

∗ ⎦<br />

0 0 0 λn<br />

.


Rodney Josué Biezuner 149<br />

Os autovalores restantes <strong>de</strong> A serão os autovalores <strong>de</strong> Ak, que é uma matriz (n − 1) × (n − 1), <strong>de</strong> mo<strong>do</strong> que<br />

po<strong>de</strong>mos efetuar iterações subseqüentes nesta matriz. Operan<strong>do</strong> <strong>de</strong>sta forma, a cada autovalor encontra<strong>do</strong><br />

diminuímos o tamanho da matriz, diminuin<strong>do</strong> o custo computacional (é claro que a cada autovalor encontra<strong>do</strong><br />

<strong>de</strong>vemos também consi<strong>de</strong>rar um novo <strong>de</strong>slocamento, aproximan<strong>do</strong> o próximo autovalor a ser encontra<strong>do</strong>).<br />

8.4 Méto<strong>do</strong>s para Matrizes Esparsas<br />

O algoritmo QR não é conveniente para obter os autovalores <strong>de</strong> matrizes esparsas, já que <strong>de</strong>pois <strong>de</strong> uma<br />

iteração QR a matriz A1 já <strong>de</strong>ixa <strong>de</strong> ser esparsa (po<strong>de</strong>-se construir exemplos em que todas as posições<br />

superiores da matriz <strong>de</strong> Hessenberg são preenchidas; veja [Watkins], Exercício 6.3.24). Precisaremos <strong>de</strong><br />

méto<strong>do</strong>s que não preenchem os zeros da matriz esparsa A. Uma possibilida<strong>de</strong> é voltar ao méto<strong>do</strong> <strong>de</strong> iteração<br />

<strong>de</strong> subespaços básico, sem as mudanças <strong>de</strong> coor<strong>de</strong>nadas a cada iteração que caracterizam o méto<strong>do</strong> QR e<br />

alteram a forma esparsa da matriz. Por outro la<strong>do</strong>, isso implica que apenas alguns poucos autovalores <strong>de</strong><br />

maior módulo po<strong>de</strong>m ser calcula<strong>do</strong>s. Para contornar este problema, <strong>de</strong>ve-se usar as estratégias <strong>de</strong> iteração<br />

inversa e iteração com <strong>de</strong>slocamento.<br />

Entretanto, méto<strong>do</strong>s mais sofistica<strong>do</strong>s e eficientes existem para encontrar os autovalores <strong>de</strong> uma matriz<br />

esparsa.<br />

8.4.1 Processo <strong>de</strong> Arnoldi<br />

O processo <strong>de</strong> Arnoldi foi introduzi<strong>do</strong> em 1950, mas só entrou em moda para calcular autovalores apenas na<br />

década <strong>de</strong> 1970. Atualmente, ele e suas variantes, são o méto<strong>do</strong> preferi<strong>do</strong> para o cálculo <strong>de</strong> autovalores em<br />

várias aplicações.<br />

O méto<strong>do</strong> das potências (ou mesmo o méto<strong>do</strong> da iteração <strong>de</strong> subespaços) utiliza apenas a informação <strong>do</strong><br />

último itera<strong>do</strong> para calcular o próximo itera<strong>do</strong>. A idéia <strong>do</strong> processo <strong>de</strong> Arnoldi (semelhante à <strong>do</strong> algoritmo<br />

<strong>do</strong> gradiente conjuga<strong>do</strong>) é usar toda a informação <strong>do</strong>s passos anteriores. Depois <strong>de</strong> k passos no méto<strong>do</strong><br />

das potências, guardamos to<strong>do</strong>s os k + 1 vetores q, Aq, A 2 q, . . . , A k q e procuramos boas aproximações <strong>de</strong><br />

autovetores no subespaço (k + 1)-dimensional gera<strong>do</strong> por estes vetores.<br />

Na prática, como já vimos antes, os vetores q, Aq, A 2 q, . . . , A k q formam uma base mal-condicionada para<br />

o subespaço, porque ten<strong>de</strong>m a apontar na mesma direção <strong>do</strong> autovetor <strong>do</strong>minante, logo em cada iteração<br />

substituímos esta base por uma base ortonormal q1, . . . , qk+1. Isso é realiza<strong>do</strong> pelo algoritmos <strong>de</strong> Gram-<br />

Schmidt com uma pequena modificação. Se trabalhássemos com a seqüência original q, Aq, A 2 q, . . . , A k−1 q,<br />

para obter A k q bastaria multiplicar A k−1 q por A. Como em cada passo usamos o algoritmo <strong>de</strong> Gram-Schmidt<br />

para ortonormalizar o conjunto <strong>de</strong> vetores obti<strong>do</strong>s anteriormente, o vetor A k−1 q não está disponível. Ao<br />

invés, multiplicamos o vetor qk por A e é necessário apenas ortonormalizar o vetor Aqk com relação aos<br />

vetores q1, . . . , qk para obter o vetor qk+1. Este é o processo <strong>de</strong> Arnoldi.<br />

Mais <strong>de</strong>talhadamente, no primeiro passo temos<br />

Em passos subseqüentes, tomamos<br />

on<strong>de</strong><br />

qk+1 = Aqk −<br />

q1 = q<br />

. (8.19)<br />

q<br />

k<br />

hjkqj, (8.20)<br />

j=1<br />

qk+1 = qk+1<br />

, (8.21)<br />

qk+1<br />

hjk = 〈Aqk, qj〉 , se j = 1, . . . , k, (8.22)<br />

hk+1,k = qk+1 . (8.23)


Rodney Josué Biezuner 150<br />

Po<strong>de</strong>-se mostrar que este processo produz exatamente a mesma seqüência <strong>de</strong> vetores que o processo <strong>de</strong><br />

Gram-Schmidt produz aplica<strong>do</strong> aos vetores q, Aq, A 2 q, . . . , A k q.<br />

Para ver como o processo <strong>de</strong> Arnoldi po<strong>de</strong> ser utiliza<strong>do</strong> para encontrar autovalores, primeiro estabelecemos<br />

alguns resulta<strong>do</strong>s teóricos. Lembre-se que dada uma matriz A ∈ Mn (C) e um vetor q ∈ C n , o j-ésimo espaço<br />

<strong>de</strong> Krylov associa<strong>do</strong> com A e q é o subespaço<br />

Kj (A, q) = q, Aq, . . . , A j−1 q .<br />

8.2 Proposição. Sejam A ∈ Mn (C) e q ∈ C n . Suponha que q, Aq, . . . , A m−1 q são linearmente in<strong>de</strong>pen<strong>de</strong>ntes.<br />

Então Km (A, q) é invariante sob A se e somente se q, Aq, . . . , A m−1 q, A m q são linearmente<br />

<strong>de</strong>pen<strong>de</strong>ntes.<br />

Prova. Como Km (A, q) é gera<strong>do</strong> por q, Aq, . . . , A m−1 q, Km (A, q) é invariante sob A se e somente se A m q<br />

é combinação linear <strong>de</strong> q, Aq, . . . , A m−1 q. <br />

8.3 Teorema. Sejam A ∈ Mn (C) e q ∈ C n . Suponha que q, Aq, . . . , A m−1 q são linearmente in<strong>de</strong>pen<strong>de</strong>ntes.<br />

Sejam q1, . . . , qm os vetores gera<strong>do</strong>s pelo processo <strong>de</strong> Arnoldi. Então<br />

(a) Kk (A, q) = 〈q1, . . . , qk〉 para k = 1, . . . , m.<br />

(b) hk+1,k > 0 para k = 1, . . . , m − 1.<br />

(c) hm+1,m = 0 se e somente se q, Aq, . . . , A m q são linearmente <strong>de</strong>pen<strong>de</strong>ntes ou, equivalentemente, se<br />

e somente se Km (A, q) é invariante sob A.<br />

Prova. (a) e (b) seguem por indução. Para k = 1 é óbvio. Assumin<strong>do</strong> (a) e (b) váli<strong>do</strong>s para to<strong>do</strong> j k < m,<br />

vamos provar a valida<strong>de</strong> <strong>de</strong> (a) e (b) para k + 1. Isso significa que temos que mostrar que hk+1,k > 0 e<br />

q, Aq, . . . , A k−1 q, A k q = 〈q1, . . . , qk+1〉<br />

assumin<strong>do</strong> váli<strong>do</strong><br />

〈q〉 = 〈q1〉<br />

〈q, Aq〉 = 〈q1, q2〉<br />

q, Aq, A 2 q = 〈q1, q2, q3〉<br />

.<br />

q, Aq, . . . , A k−1 q = 〈q1, . . . , qk〉<br />

Em particular, vemos que cada vetor qj, para j = 1, . . . , k, possui uma componente não-nula na direção <strong>de</strong><br />

Aj−1q, digamos<br />

qj = aj−1A j−1 j−2<br />

q + aiA i q com aj−1 = 0.<br />

Por <strong>de</strong>finição<br />

<strong>de</strong> mo<strong>do</strong> que se qk+1 = 0 teríamos<br />

i=0<br />

qk+1 = Aqk −<br />

k<br />

j=1<br />

hjkqj,<br />

<br />

Aqk = A ak−1A k−1 k−2 <br />

q + aiA i <br />

q =<br />

i=0<br />

k<br />

j=1<br />

hjkqj,


Rodney Josué Biezuner 151<br />

<strong>do</strong>n<strong>de</strong><br />

A k q = 1<br />

ak−1<br />

⎛<br />

⎝<br />

k<br />

j=1<br />

k−2<br />

hjkqj −<br />

<br />

aiA i ⎞<br />

q⎠<br />

= 1<br />

i=0<br />

aj−1<br />

⎡<br />

⎣<br />

k<br />

j=1<br />

<br />

j−1<br />

hjk bijA i q<br />

i=0<br />

<br />

<br />

aiA i ⎤<br />

q⎦<br />

, (8.24)<br />

k−1<br />

−<br />

produzin<strong>do</strong> A k q como combinação linear <strong>de</strong> q, Aq, . . . , A k−1 q para k < m, violan<strong>do</strong> a hipótese <strong>de</strong> que<br />

q, Aq, . . . , A m−1 q são linearmente in<strong>de</strong>pen<strong>de</strong>ntes. Isso prova que hk+1,k = qk+1 > 0. Além disso, como<br />

<br />

qk+1 = A ak−1A k−1 k−2 <br />

q + aiA i <br />

q −<br />

i=0<br />

k<br />

j=1<br />

hjkqj = ak−1A k k−1<br />

q +<br />

i=1<br />

<br />

aiA i q −<br />

i=1<br />

k<br />

j=1<br />

hjkqj,<br />

segue que qk+1 = qk+1/ qk+1 possui uma componente não-nula na direção <strong>de</strong> A k q; isso mais a hipótese <strong>de</strong><br />

indução q, Aq, . . . , A k−1 q = 〈q1, . . . , qk〉<br />

implica que q, Aq, . . . , A k−1 q, A k q = 〈q1, . . . , qk+1〉<br />

Para provar (c), observe que hm+1,m = 0 implica q, Aq, . . . , A m q linearmente <strong>de</strong>pen<strong>de</strong>ntes por (8.24).<br />

Reciprocamente, se A m q é combinação linear <strong>de</strong> q, Aq, . . . , A m−1 q, então<br />

e portanto<br />

A m q ∈ q, Aq, . . . , A m−1 q = 〈q1, . . . , qm〉 ,<br />

A m q =<br />

m<br />

〈Aqm, qj〉 qj<br />

j=1<br />

pois esta é a expressão <strong>de</strong> A m q na base ortonormal {q1, . . . , qm}; daí segue da <strong>de</strong>finição que qm+1 = 0. <br />

8.4.2 Representação Matricial <strong>do</strong> Processo <strong>de</strong> Arnoldi<br />

Segue <strong>de</strong> (8.20) e (8.21) que<br />

k+1 <br />

Aqk = hjkqj. (8.25)<br />

j=1<br />

Pelo Teorema 8.3, esta relação vale para k = 1, . . . , m se q, Aq, . . . , Amq forem linearmente in<strong>de</strong>pen<strong>de</strong>ntes.<br />

Estas equações vetoriais po<strong>de</strong>m ser combinadas em uma equação matricial da seguinte maneira. Definimos<br />

Qm = <br />

q1 . . . qm<br />

(8.26)<br />

e<br />

Temos<br />

n×m<br />

⎡<br />

h11<br />

⎢ h21 ⎢<br />

0<br />

Hm+1,m = ⎢ 0<br />

⎢ .<br />

⎣ .<br />

h12<br />

h22<br />

h32<br />

0<br />

.<br />

.<br />

. . .<br />

. . .<br />

. . .<br />

. ..<br />

. ..<br />

h1,m−1<br />

h2,m−1<br />

h3,m−1<br />

.<br />

.<br />

hm,m−1<br />

h1m<br />

h2m<br />

h3,m<br />

.<br />

.<br />

hm,m<br />

⎤<br />

⎥<br />

⎦<br />

0 0 . . . 0 hm+1,m<br />

(m+1)×m<br />

. (8.27)<br />

AQm = Qm+1Hm+1,m. (8.28)


Rodney Josué Biezuner 152<br />

Observe que Qm é uma isometria (embora não necessariamente um isomorfismo isométrico, a não ser que<br />

m = n) e que Hm+1,m é uma matriz <strong>de</strong> Hessenberg superior, não quadrada, com entradas diagonais positivas.<br />

Denotaremos por Hm a matriz <strong>de</strong> Hessenberg superior quadrada obtida através <strong>de</strong> Hm+1,m quan<strong>do</strong><br />

suprimimos a última linha <strong>de</strong>sta. Segue que<br />

<br />

AQm = QmHm + qm+1 0 . . . 0 hm+1,m<br />

ou<br />

8.4 Proposição. Suponha que q1, . . . , qm+1 são vetores ortonormais,<br />

Qm = <br />

q1 . . . qm ,<br />

AQm = QmHm + qm+1hm+1,me t m. (8.29)<br />

e que Hm é uma matriz <strong>de</strong> Hessenberg superior com hj+1,j > 0 para j = 1, . . . , m. Embora estes<br />

possam ter si<strong>do</strong> obti<strong>do</strong>s por qualquer processo, suponha que eles satisfazem (8.29).<br />

Então q1, . . . , qm+1 são exatamente os vetores produzi<strong>do</strong>s pelo processo <strong>de</strong> Arnoldi com vetor inicial<br />

q1. Em outras palavras, dada uma matriz A, os objetos em (8.29) são unicamente <strong>de</strong>termina<strong>do</strong>s pela<br />

primeira coluna <strong>de</strong> Qm.<br />

Se q, Aq, . . . , A m q são linearmente in<strong>de</strong>pen<strong>de</strong>ntes, então hm+1,m = 0. Se eles são linearmente <strong>de</strong>pen<strong>de</strong>ntes,<br />

então hm+1,m = 0 e<br />

AQm = QmHm. (8.30)<br />

Em particular, isso implica que 〈q1, . . . , qm〉 são invariantes sob A e que os autovalores <strong>de</strong> Hm são autovalores<br />

<strong>de</strong> A, como o próximo resulta<strong>do</strong> mostra:<br />

8.5 Proposição. Suponha que x1, . . . , xm ∈ Fn são linearmente in<strong>de</strong>pen<strong>de</strong>ntes e sejam S = 〈x1, . . . , xm〉 e<br />

X = <br />

x1 . . . xm<br />

Então S é invariante sob A ∈ Mn (F) se e somente se existe algum B ∈ Mm (F) tal que<br />

AX = XB.<br />

Além disso, to<strong>do</strong> autovalor <strong>de</strong> B é um autovalor <strong>de</strong> A com autovetor correspon<strong>de</strong>nte em S.<br />

Prova. Se existe tal B, então<br />

Axj =<br />

m<br />

xibij ∈ S.<br />

i=1<br />

Reciprocamente, se X é invariante sob A, então para cada índice j = 1, . . . , m existem escalares bij tais que<br />

m<br />

Axj = bijxi.<br />

i=1<br />

Defina B = (bij).<br />

Se w é um autovetor <strong>de</strong> B com autovalor λ, então v = Xw ∈ S é um autovetor <strong>de</strong> A com autovalor λ. <br />

Se m não é muito gran<strong>de</strong>, po<strong>de</strong>mos então usar o algoritmo QR para encontrar os autovalores <strong>de</strong> Hm. Na<br />

prática, dificilmente obteremos hm+1,m = 0 exatamente, mas se hm+1,m é próximo <strong>de</strong> zero po<strong>de</strong>mos esperar<br />

que estamos próximos <strong>de</strong> um subespaço invariante e, portanto, que os autovalores <strong>de</strong> Hm são próximos aos<br />

autovalores <strong>de</strong> A. O próximo resulta<strong>do</strong> mostra que mesmo na eventualida<strong>de</strong> em que hm+1,m não é pequeno,<br />

alguns <strong>do</strong>s autovalores <strong>de</strong> Hm po<strong>de</strong>m ser boas aproximações <strong>do</strong>s autovalores <strong>de</strong> A.<br />

8.6 Teorema. Sejam Qm, Hm e hm+1,m gera<strong>do</strong>s pelo processo <strong>de</strong> Arnoldi. Seja λ um autovalor <strong>de</strong> Hm<br />

com autovetor unitário x. Seja v = Qmx. Então<br />

on<strong>de</strong> xm <strong>de</strong>nota a última componente <strong>de</strong> x.<br />

n×m<br />

Av − λv = |hm+1,m| |xm| ,


Rodney Josué Biezuner 153<br />

8.4.3 Méto<strong>do</strong> <strong>de</strong> Lanczos<br />

Para matrizes simétricas reais, o processo <strong>de</strong> Arnoldi assume uma forma bem mais simples, porque a matriz<br />

<strong>de</strong> Hessenberg Hm é simétrica e portanto é uma matriz tridiagonal. Neste caso, o processo <strong>de</strong> Arnoldi é<br />

chama<strong>do</strong> o méto<strong>do</strong> <strong>de</strong> Lanczos.


Referências Bibliográficas<br />

[Asmar] Nakhlé ASMAR, Partial Differential Equations and Boundary Value Problems, Prentice<br />

Hall, 2000.<br />

[Aronszajn] N. ARONSZAJN, A unique continuation theorem for solutions of elliptic partial differential<br />

equations of second or<strong>de</strong>r, J. Math. Pures Appl. 36 (1957), 235-239.<br />

[Bandle] Catherine BANDLE, Isoperimetric Inequalities and Applications, Pitman, 1980.<br />

[Berard1] Pierre BÉRARD, Transplantation et isospectralité, Math. Ann. 292 (1992), pp. 547–<br />

559<br />

[Berard2] Pierre BÉRARD, Domaines plans isospectraux à la Gor<strong>do</strong>n-Webb-Wolpert:<br />

preuve élémentaire, Afrika Mat. 3 (1993), no. 1, 135–146.<br />

une<br />

[Biezuner] Rodney Josué BIEZUNER, Notas <strong>de</strong> Aula: Equações Diferenciais Parciais, <strong>UFMG</strong>,<br />

2005.<br />

[BHM] William L. BRIGGS, Van Em<strong>de</strong>n HENSON e Steve F. McCORMICK, A Multigrid<br />

Tutorial, SIAM, 2000.<br />

[Chapman] S. J. CHAPMAN, Drums That Sound the Same, American Mathematical Monthly,<br />

102 (1995), no. 2, 124–138.<br />

[Cheng] Shiu-Yuen CHENG, Eigenfunctions and nodal sets, Comment. Math. Helvetici 51<br />

(1976), 43–55.<br />

[Courant-Hilbert] Richard COURANT e David HILBERT, Methods of Mathematical Physics, Wiley-<br />

Interscience, 1953.<br />

[Demmel] James W. DEMMEL, Applied Numerical Linear Algebra, SIAM, 1997.<br />

[Driscoll] Tobin A. DRISCOLL, Eigenmo<strong>de</strong>s of isospectral drums, SIAM Review 39 (1997), no.<br />

1, 1–17.<br />

[Evans] Lawrence C. EVANS, Partial Differential Equations, AMS, 1998.<br />

[Gilbarg-Trudinger] David GILBARG e Neil S. TRUDINGER, Elliptic Partial Differential Equations of<br />

Second Or<strong>de</strong>r, 2nd Ed., Springer-Verlag, 1983.<br />

[Gladwell-Zhu] G. M. L. GLADWELL and H. ZHU, Courant’s Nodal Line Theorem and Its Discrete<br />

Counterparts, The Quarterly Journal of Mechanics and Applied Mathematics<br />

55 (2002), 1-15.<br />

[GWW1] Carolyn GORDON, David L. WEBB e Scott WOLPERT, One cannot hear the shape<br />

of a drum, Bulletin of the American Mathematical Society 27 (1992), n. 1, 134–138.<br />

154


Rodney Josué Biezuner 155<br />

[GWW2] Carolyn GORDON, David L. WEBB e Scott WOLPERT, Isospectral plane <strong>do</strong>mains<br />

and surfaces via Riemannian orbifolds, Inventiones Mathematicae 110 (1992), n. 1,<br />

1–22.<br />

[Hackbusch] W. HACKBUSCH, Elliptic Differential Equations: Theory and Numerical Treatment,<br />

Springer Series in Computational Mathematics 18, Springer, 1992.<br />

[Herrman] H. HERRMANN, Beziehungen zwischen <strong>de</strong>n Eigenwerten und Eigenfunktionen verschie<strong>de</strong>ner<br />

Eigenwertprobleme, Math. Z. 40 (1935), 221–241.<br />

[Heuveline] Vincent HEUVELINE, On the computation of a very large number of eigenvalues for<br />

selfadjoint elliptic operators by means of multigrid methods, Journal of Computational<br />

Physics 184 (2003), 321–337.<br />

[Horn-Johnson] Roger A. HORN e Charles R. JOHNSON, Matrix Analysis, Cambridge University<br />

Press, 1985.<br />

[Johnson] Claes JOHNSON, Numerical solutions of partial differential equations by the finite<br />

element method, Cambridge, 1987.<br />

[Jost] Jürgen JOST, Partial Differential Equations, Graduate Texts in Mathematics 214,<br />

Springer-Verlag, 2002.<br />

[Kac] M. KAC, Can one hear the shape of a drum?, American Mathematical Monthly 73<br />

(1966), no. 4, part II, 1–23.<br />

[Kuttler-Sigillito] J. R. KUTTLER e V. G. SIGILLITO, Eigenvalues of the Laplacian in two dimensions,<br />

SIAM REVIEW 26 (1984) no. 2, 163–193.<br />

[Milnor] J. MILNOR, Eigenvalues of the Laplace operator on certain manifolds, Proceedings<br />

of the National Aca<strong>de</strong>my of Sciences USA 51 (1964), 542.<br />

[Pleijel] A. PLEIJEL, Remarks on Courant’s nodal line theorem, Comm. Pure Appl. Math. 9<br />

(1956), 543–550.<br />

[Protter] M. H. PROTTER, Can one hear the shape of a drum? Revisited, SIAM REVIEW<br />

29 (1987) no. 2, 185–197.<br />

[Rosser1] J. Barkley ROSSER, Nine point difference solutions for Poisson’s equation, Comp.<br />

Math. Appl. 1 (1975), 351–360.<br />

[Rosser2] J. Barkley ROSSER, Finite-difference solution of Poisson’s equation in rectangles of<br />

arbitrary proportions, Zeitschrift für Angewandte Mathematik und Physik (ZAMP)<br />

28 (1977), no.2, 185–196.<br />

[Sridhar-Kudrolli] S. SRIDAR e A. KUDROLLI, Experiments on not “hearing the shape” of drums,<br />

Physical Review Letters 72 (1994), 2175–2178.<br />

[Strang] Gilbert STRANG, Linear Algebra and its Applications, 3rd Ed., Harcourt Brace Jovanovich,<br />

1988.<br />

[Strikwerda] John C. STRIKWERDA, Finite Difference Schemes and Partial Differential Equations,<br />

2nd Ed., SIAM, 2004.<br />

[Thomas1] J. W. THOMAS, Numerical Partial Differential Equations: Finite Difference Methods,<br />

Texts in Applied Mathematics 22, Springer, 1995.


Rodney Josué Biezuner 156<br />

[Thomas2] J. W. THOMAS, Numerical Partial Differential Equations: Conservation Laws and<br />

Elliptic Equations, Texts in Applied Mathematics 33, Springer, 1999.<br />

[Uhlenbeck1] K. UHLENBECK, Eigenfunctions of Laplace operator, Bulletin of the American<br />

Mathematical Society 78 (1972), 1073–1076.<br />

[Uhlenbeck2] K. UHLENBECK, Generic properties of eigenfunctions, American Journal of Mathematics<br />

98 (1976), 1059–1078.<br />

[Vigneras] Marie-France VIGNÉRAS, Varietés riemanniennes isospectrales et non isometriques,<br />

Annals of Mathematics 91 (1980), 21–32.<br />

[Wat1] K. WATANABE, Plane Domains Which Are Spectrally Determined, Annals of Global<br />

Analysis and Geometry 18 (2000), no. 5, 447–475.<br />

[Wat2] K. WATANABE, Plane Domains Which Are Spectrally Determined II, J. Inequal.<br />

Appl. 7 (2002), no. 1, 25–47.<br />

[Watkins] David S. WATKINS, Fundamentals of Matrix Computations, 2nd Ed., John Wiley &<br />

Sons, 2002.<br />

[Weyl] H. WEYL, Über die Asymptotische Verteilung <strong>de</strong>r Eigenwerte, Nachr. Konigl. Ges.<br />

Wiss. Göttingen (1911), 110–117.<br />

[Young] David M. YOUNG, Iterative Solutions of Large Linear Systems, Aca<strong>de</strong>mic Press,<br />

1971.<br />

[Zelditch] S. ZELDITCH, Spectral <strong>de</strong>termination of analytic bi-axisymmetric plane <strong>do</strong>mains,<br />

Geometric and Functional Analysis 10 (2000), no. 3, 628–677.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!