Академический Документы
Профессиональный Документы
Культура Документы
DIFERENCIAIS PARCIAIS
Técnicas de Diferenças Finitas
13 de outubro de 2006
2
Sumário
1 Conceitos Fundamentais 7
1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Aproximações de Derivadas por Diferenças Finitas . . . . . . . . . . . . . . . 9
1.3 Problema de Valor Inicial em Equações Ordinárias . . . . . . . . . . . . . . . 15
1.3.1 Convergência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4 Problema de Valor de Fronteira em Equações Ordinárias . . . . . . . . . . . . 29
1.4.1 Métodos de Diferenças Finitas . . . . . . . . . . . . . . . . . . . . . . 30
1.5 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3 Equações Parabólicas 69
3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.2 Métodos de Diferenças Finitas . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.3 Problemas Não Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.4 Outros Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.5 Equações Parabólicas em Duas Dimensões . . . . . . . . . . . . . . . . . . . . 97
3.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3
4 SUMÁRIO
PREFÁCIO
alertamos os professores que pretendem utilizar o texto como guia de um curso, para o fato
de que uma seleção dos exercı́cios pode ser recomendada para não desestimular os estudantes
com problemas muito difı́ceis. A ordem de apresentação dos exercı́cios não segue um critério
de dificuldade crescente e sim a ordem dos tópicos no texto.
O material deste livro deriva em boa parte de cursos de graduação que os autores têm
ministrado em suas respectivas unidades de ensino. Agradecimento especial nos é devido aos
autores da apostila [28], aos alunos do ICMC pela leitura dos originais e o apoio financeiro
do Instituto de Ciências Matemáticas e de Computação - USP São Carlos, Faculdade de
Ciências e Tecnologia - UNESP Presidente Prudente, CNPq e Pró-Reitoria de Graduação
da USP através dos Programa SIAE 97 e SIAE 98.
Capı́tulo 1
Conceitos Fundamentais
1.1 Introdução
Um modelo matemático é uma representação, idealizada e muitas vezes simplificada,
da natureza. Quando derivado de maneira criteriosa, sua solução simula propriedades dos
processos naturais envolvidos, tais como velocidade e pressão no escoamento de um fluido,
temperatura, humidade, direção dos ventos e precipitação na previsão do tempo, trajetória
de um satélite artificial, entre outras muitas aplicações. Assim, as soluções das equações de
um modelo, devem captar os aspectos relevantes no comportamento do problema modelado,
não sendo possı́vel, na maioria dos casos, justificar a utilização de hipóteses simplificado-
ras que modificam a natureza do problema (tal como linearidade) que tornariam possı́vel
a determinação de uma solução exata. Em outra palavras, quando estamos resolvendo
um problema real, em geral, não é possı́vel forçá-lo a satisfazer hipóteses que permitam a
obtenção de uma solução exata. Daı́ a necessidade da procura de soluções numéricas, ou
aproximadas.
A importância da modelagem matemática cresceu muito nos últimos anos porque a
análise detalhada de um modelo e suas propriedades, viabilizada pelo avanço tecnológico
dos computadores, permite um melhor entendimento do evento modelado e, mais do que
isso, permite a simulação de mudanças nos parâmetros do modelo e a análise da respec-
tiva resposta, que não seriam possı́veis na situação real. Por exemplo, no projeto de um
carro, alterações na forma resultam em modificações no comportamento aerodinâmico, de
cuja análise obtém-se um indicador dos ganhos e/ou perdas em performance; a localização
ideal da asa de um avião em relação ao casco pode ser obtida pela resposta à simulação
matemática das equações da aerodinâmica, e até a melhor polı́tica de vacinação contra
doenças transmissı́veis, tipo sarampo, pode ser decidida com base em modelos matemáticos.
A economia de tempo gerada por esta maneira de projetar um produto, ou tomar decisões,
é clara, diminuindo sensivelmente o número de protótipos ou modelos em tamanho reduzido
a serem construı́dos e ensaiados. No projeto de equipamentos com tecnologia avançada, a
simulação através da modelagem matemática é uma ferramenta indispensável a ser utilizada
na eliminação de casos triviais ou impossı́veis, fornecendo um guia seguro para a seleção dos
casos a serem ensaiados em modelos de escala reduzida ou para a construção de protótipos.
Como virtualmente todas as áreas em matemática aplicada, o principal objetivo das
7
8 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
xi = x0 ± ih, i = 1, 2, . . . , N.
Nos pontos dessa malha serão calculadas aproximações para uma função y(x) e suas
derivadas. A ferramenta matemática básica no cálculo de aproximações para as derivadas é
a série de Taylor que relaciona valores da função e suas derivadas, num ponto x, com valores
dessa mesma função numa vizinhaça de x, ou seja, com y(x + h). Se y(x) tem derivadas até
a ordem n + 1 em x, podemos escrever:
h2 ′′ hn (n)
y(x + h) = y(x) + hy ′ (x) + y (x) + · · · + y (x) +
2! n!
n+1
h
+ y (n+1) (ξ), x < ξ < x + h. (1.1)
(n + 1)!
1 h
y ′ (x) = ∆y(x) − y ′′ (ξ).
h 2
De modo semelhante, tomando −h em (1.1), ainda com n = 1, obtemos a fórmula
regressiva que utiliza a diferença regressiva (∇y(x)) e seu erro, ou seja:
y(x) − y(x − h) h ′′
y ′ (x) = + y (ξ)
h 2
1 h ′′
= ∇y(x) + y (ξ).
h 2
Tomando n = 2 em (1.1), e reescrevendo (1.1) para h e −h, respectivamente, obtemos
h2 ′′ h3
y(x + h) = y(x) + hy ′ (x) + y (x) + y ′′′ (ξ1 )
2! 3!
e
h2 ′′ h3
y(x − h) = y(x) − hy ′ (x) + y (x) − y ′′′ (ξ2 ).
2! 3!
Subtraindo a última expressão da penúltima obtemos a fórmula centrada ou fórmula de
diferenças centrais
1 h2
y ′ (x) = δh y(x) − y ′′′ (ξ).
2h 3!
Observação 1.2.1 Quando se fizer necessário deixar claro a importância do passo h para
um operador que está sendo utilizado, escreveremos: δh , δh2 , ∆h , ∇h , etc..
Dizemos que a fórmula F(x, h) é de ordem p se E(x, h) = hp R(x), onde R(x) não depende de
h. Nesse caso usamos a notação E(x, h) = O(hp ). Essa notação significa que limh→0 E(x,h)
hp
é uma constante finita. Por exemplo no caso da fórmula centrada temos que:
h2 ′′ h3 h4
y(x + h) = y(x) + hy ′ (x) + y (x) + y ′′′ (x) + y (4) (ξ1 )
2! 3! 4!
e
h2 ′′ h3 h4
y(x − h) = y(x) − hy ′ (x) + y (x) − y ′′′ (x) + y (4) (ξ2 ).
2! 3! 4!
Somando estas duas últimas expressões e isolando y ′′ (x) obtemos:
Outras expressões podem ser obtidas considerando-se mais pontos. Por exemplo, a com-
binação linear
y ′ (x) = c1 y(x + h) + c2 y(x) + c3 y(x − h)
impõe, por expansão em série de Taylor em torno de x e por comparação dos termos de
mesma ordem em h, as seguintes condições sobre os coeficientes c1 , c2 e c3 :
c1 + c2 + c3 = 0
1
c1 − c3 = h
c1 + c3 = erro,
12 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
= (E − 1)y(x) =⇒ E = 1 + ∆.
Pela fórmula de Taylor tem-se
h2 2
Ey(x) = (1 + hD + D + · · ·)y(x) = ehD y(x) (1.4)
2
logo, formalmente podemos escrever:
hD = ln E = ln(1 + ∆). (1.5)
1.2. APROXIMAÇÕES DE DERIVADAS POR DIFERENÇAS FINITAS 13
1 1
ln(1 + ∆)y(x) = (∆ − ∆2 + ∆3 − · · ·)y(x).
2 3
Assim a equação (1.5) pode ser reescrita na forma:
1 1
hy ′ (x) = (∆ − ∆2 + ∆3 − · · ·)y(x)
2 3
constituindo-se numa fórmula que expressa a primeira derivada de uma função em termos
de suas diferenças progressivas. Portanto, aproximações de qualquer ordem podem ser obti-
das considerando-se na série acima o número adequado de termos, pagando-se o preço do
aumento do número de pontos envolvidos na fórmula. Por exemplo uma aproximação de
ordem 2, que utiliza três pontos, é obtida considerando-se apenas os 2 primeiros termos da
soma. Observe o desenvolvimento abaixo:
1
hy ′ (x) = ∆ − ∆2 y(x)
2
1
= y(x + h) − y(x) − (y(x + 2h) − y(x + h) − y(x + h) + y(x))
2
1 3
= − y(x + 2h) + 2y(x + h) − y(x).
2 2
que utiliza três pontos, para aproximar a derivada.
Outras fórmulas que podem ser obtidas pela manipulação de operadores são:
1 1
hy ′ (x + h) = (∆ + ∆2 − ∆3 + · · ·)y(x) (1.6)
2 6
11 4 5 5
h2 y ′′ (x) = 2 3
(∆ − ∆ + ∆ − ∆ + · · ·)y(x) (1.7)
12 6
1 4 1 5
h2 y ′′ (x + h) = 2
(∆ − ∆ + ∆ + · · ·)y(x) (1.8)
12 12
1 3 1 5
hy ′ (x) = µ(δ − δ + δ − · · ·)y(x) (1.9)
6 30
e
1 4 1 1 8
h2 y ′′ (x) = (δ 2 − δ + δ6 − δ + · · ·)y(x). (1.10)
12 90 560
Observação 1.2.3 É importante notar que, na prática, os valores da função efetivamente
utilizados numa fórmula, para cada ponto da malha, não serão os valores exatos e sim val-
ores calculados. Dessa forma além do erro de truncamento dessa fórmula estarão também
presentes, os erros de arredondamento do computador. Consequentemente, quando aprox-
imamos uma equação diferencial, as derivadas são substituı́das por aproximações como as
14 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
que podem ser deduzidas a partir de (1.6), (1.7), (1.8), (1.9) e (1.10) mas com os valores
efetivamente calculados, ou seja,
hy ′ (xi ) ≃ yi+1 − yi
hy ′ (xi ) ≃ yi − yi−1
2hy ′ (xi ) ≃ yi+1 − yi−1
e
h2 y ′′ (xi ) ≃ yi+1 − 2yi + yi−1 ,
onde yi é uma aproximação de y(xi ).
u(x, t + k) − u(x, t) k
ut (x, t) = − utt (x, ζ)
k 2
1 k
= ∆t u(x, t) − utt (x, ζ) (t < ζ < t + k) (1.11)
k 2
regressiva
u(x, t) − u(x, t − k) k
ut (x, t) = + utt (x, ζ)
k 2
1 k
= ∇t u(x, t) + utt (x, ζ), (t − k < ζ < t) (1.12)
k 2
central
u(x + h, t) − u(x − h, t) h2
ux (x, t) = − uxxx(ξ, t)
2h 6
1 h2
= δx u(x, t) − uxxx (ξ, t), (x − h < ξ < x + h)
2h 6
y′ = f (x, y) (1.14)
y(a) = α,
onde f : IR2 → IR é uma função contı́nua. A função y = y(x) (x ≥ a) é a solução e α é o
valor inicial em a. Equações ordinárias de ordem mais alta podem sempre ser transformadas
nessa forma, desde que estejamos preparados para admitir que y seja um vetor. Por exemplo,
a equação de segunda ordem,
y ′′ = f (x, y, y ′ ) (1.15)
y(a) = α, y ′ (a) = β,
com solução y(x) e os valores iniciais α e β dados no ponto a, pode ser reescrita na forma
vetorial fazendo:
y ′ = v, y(a) = α
v ′ = f (x, y, v), v(a) = β.
16 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
y α
Considerando Y = e γ = o problema acima transforma-se na equação
v β
vetorial de primeira ordem
Y′ = F (x, Y ),
Y (a) = γ
onde
v
F (x, Y ) = .
f (x, y, v)
Um ponto fundamental na resolução de uma equação diferencial, diz respeito à existência
e unicidade de soluções. Por princı́pio, só tem sentido a solução numérica de um problema
quando este tem solução. Pode-se ainda argumentar que para determinarmos a solução
numérica de um problema esta deveria ser única, pois caso contrário o processo numérico
poderia ficar indeciso sobre qual solução perseguir. No caso de um problema de valor inicial
de equações ordinárias esta dificuldade está bem resolvida.
Vamos supor que a função f (x, y) satisfaz as seguintes condições:
1. f : E → IRn é contı́nua, onde E = {(x, y), x ∈ [a, b], y ∈ IRn };
2. existe uma constante L tal que para todo x ∈ [a, b] e quaisquer dois vetores y e y ∗ em
IRn
|f (x, y) − f (x, y ∗ )| ≤ L|y − y ∗ |. (1.16)
Neste caso dizemos que a função f satisfaz a condição de Lipschitz na variável y.
yi+1 − yi
∆yi = = f (xi , yi ), i = 0, 1, . . . , N − 1
h
ou,
yi+1 − yi = hf (xi , yi ), i = 0, 1, . . . , N − 1.
Este é o método de Euler que é um método explı́cito. Note que o valor de yi+1 é calculado
explicitamente em função de yi , mesmo quando a função f é não linear. Se no lugar de ∆
fosse usado ∇ terı́amos a versão implı́cita do Método de Euler:
yi − yi−1
∇yi = = f (xi , yi ), i = 1, . . . , N
h
ou,
yi+1 − yi = hf (xi+1 , yi+1 ), i = 0, 1, . . . , N − 1. (1.17)
Note que no caso em que f é não linear, a equação (1.17) define o vetor yi+1 implicitamente
e portanto seu cálculo exige a utilização de métodos para a solução de sistemas de equações
algébricas não lineares, como por exemplo, o método das aproximações sucessivas ou o
método de Newton.
Observe também que a equação diferencial no processo de discretização, foi substituı́da
por uma outra equação chamada equação de diferenças que tem sua própria solução inde-
pendente daquela da equação diferencial. Assim o método numérico será considerado eficaz
se a solução da equação de diferenças tiver comportamento similar ao da solução da equação
diferencial. Para mais informações sobre equações de diferenças, ver [18].
Exemplo 1.3.1 Considere o PVI,
y′ = −y + x
y(0) = 1 (1.18)
−x
cuja solução exata é y(x) = x − 1 + 2e , de onde obtemos:
y(0.1) = 0.9097 y(0.3) = 0.7816 y(0.5) = 0.7131 y(0.7) = 0.6932 y(0.9) = 0.7131
y(0.2) = 0.8375 y(0.4) = 0.7406 y(0.6) = 0.6976 y(0.8) = 0.6986 y(1.0) = 0.7357.
A função f é dada por: f (x, y) = −y + x e, portanto o método de Euler explı́cito toma
a forma:
yi+1 = yi + h(−yi + xi ).
Tomando h = 0.2, encontraremos uma solução aproximada em [0, 1] resolvendo a equação
de diferenças:
yi+1 = yi − 0.2yi + 0.2xi ou seja yi+1 = 0.8yi + 0.2xi ,
cuja solução para n = 1, 2, . . . , 5 é:
y0 = 1.0 = y(0.0) (condição inicial)
y1 = 0.8y0 + 0.2x0 = 0.8000 ≃ y(0.2)
y2 = 0.8y1 + 0.2x1 = 0.6800 ≃ y(0.4)
y3 = 0.8y2 + 0.2x2 = 0.6240 ≃ y(0.6)
y4 = 0.8y3 + 0.2x3 = 0.6192 ≃ y(0.8)
y5 = 0.8y4 + 0.2x4 = 0.6554 ≃ y(1.0).
18 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
Tomando h = 0.1, obtemos um problema semelhante, mas com 10 valores de y para serem
calculados. Um procedimento análogo produz as aproximações:
A figura 1.1 ilustra o comportamento dos métodos de Euler explı́cito e implı́cito compara-
dos com a solução exata. Observamos que o método explı́cito erra por falta, já o implı́cito o
faz por excesso.
É natural, portanto, considerarmos a combinação linear desses dois métodos, com o ob-
jetivo de que os erros se cancelem e possamos obter uma melhor aproximação. Por exemplo,
uma combinação linear é a média aritmética, que fornece o Método dos Trapézios, também
conhecido como Regra dos Trapézios:
h
yi+1 − yi = (f (xi , yi ) + f (xi+1 , yi+1 )), i = 0, 1, . . . , N − 1.
2
também implı́cito e que, para o PVI em questão, produz:
O método dos trapézios é claramente mais preciso que ambos os métodos anteriores,
conforme pode ser observado na figura 1.2.
1.3.1 Convergência
Seja y(xn ) a solução exata do PVI (1.14) no ponto xn e yn uma aproximação obtida
por um método numérico para essa solução.
Definição 1.1 O erro global no ponto xn é definido por:
en = y(xn ) − yn .
1.3. PROBLEMA DE VALOR INICIAL EM EQUAÇÕES ORDINÁRIAS 19
1.2
1
* Euler Implicito
x Solucao Exata
+ Euler Explicito
y
0.8
0.6
0.4
Definição 1.2 Dizemos que um método numérico é convergente se o erro global en converge
para zero quando n tende para infinito de maneira que o ponto xn permaneça fixo.
Isto quer dizer que a convergência está sendo analisada no ponto xn = a + nh e para que
este ponto permaneça fixo, a quantidade nh deve permanecer fixa, portanto se n tende para
infinito necessariamente h deve tender a zero, ou seja, a malha está sendo refinada para cada
novo valor de n da sequência. É possı́vel verificar a convergência de um método numérico
diretamente a partir de sua definição, como faremos a seguir para o método dos trapézios.
No entanto esta é uma maneira muito trabalhosa e é então preferı́vel fazê-lo indiretamente
utilizando os conceitos de consistência e zero-estabilidade.
h
yn+1 = yn + [f (xn , yn ) + f (xn+1 , yn+1 )]
2
20 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
1.2
x Solucao Exata
+ Regra dos Trapezios
y
0.8
0.6
0.4
Figura 1.2: Solução do problema (1.18) pelo método dos trapézios com h = 0.1
h h3
y(xn+1 ) = y(xn ) + [f (xn , y(xn )) + f (xn+1 , y(xn+1 ))] − y ′′′ (ξ).
2 12
Subtraindo a primeira equação da segunda obtemos a seguinte relação para o erro global
en :
h h3
en+1 = en + [f (xn , y(xn )) − f (xn , yn ) + f (xn+1 , y(xn+1 )) − f (xn+1 , yn+1 )] − y ′′′ (ξ).
2 12
Tomando o valor absoluto e utilizando a condição de Lipschitz de f , equação (1.16), obtemos
a desigualdade:
h h3
|en+1 | ≤ |en | + (L|en | + L|en+1 |) + |y ′′′ (ξ)|.
2 12
Supondo agora que |y ′′′ (x)| é limitada por 12M no intervalo de interesse, a desigualdade
acima transforma-se em:
hL hL
(1 − )|en+1 | ≤ (1 + )|en | + h3 M.
2 2
É possı́vel mostrar por indução sobre n (ver exercı́cio (1.8)) que a solução ξn da equação de
diferenças
1 + hL 2 h3 M
ξn+1 = Aξn + B, com A = e B = (1.19)
1 − hL 2 1 − hL
2
Reescrevendo o termo 1+ hL hL
2 na forma 1− 2 +hL, substituindo no quociente entre parênteses
da expressão (1.20) e simplificando os fatores comuns, esse quociente transforma-se em:
!
L
1+h .
1 − hL
2
Tomando n tendendo para infinito, ou equivalentemente h tendendo para zero, vemos que
|en | tende para zero com ordem O(h2 ), pois o termo entre parênteses tende para eL(x−a) − 1
quando h → 0, onde x (fixo) é o ponto onde estamos analisando a convergência. Agora, o
termo eL(x−a) − 1 é limitado independentemente de h, o que demonstra a convergência da
regra dos trapézios.
Exemplo 1.3.2 Apresentamos a seguir um exemplo ilustrando o fato de que o limitante
para o erro global obtido em (1.21) é em geral bastante conservador. Consideremos o PVI:
y ′ = −2y, y(0) = 1 , 0 ≤ x ≤ 1.
cuja solução é: y(x) = e−2x . Resolvendo esse problema pela regra dos trapézios com
h = 0.1 e com h = 0.01 obtemos os seguintes valores para o erro global máximo: emax =
0.00123160912 no primeiro caso e emax = 0.0000122631795 no segundo. Por outro lado, cal-
culando o limitante do erro global através da fórmula (1.21), obtemos os valores 0.005727606
e 0.00005727606 respectivamente para h = 0.1 e h = 0.01. Comparando esses valores, vemos
que o limitante é 5 vezes o erro verdadeiro.
Note que o conceito de convergência aqui definido não é de aplicação prática direta, pois
para calcular o erro global precisamos da solução exata que não está disponı́vel. Portanto
para testar na prática a convergência de um método numérico, resolve-se o problema para
vários valores decrescentes de h e observa-se se a sequência assim obtida está se aproxi-
mando de algum valor fixado, ou seja testa-se, de maneira empı́rica, se essa sequência é de
Cauchy e portanto convergente. No entanto, o fato da sequência ser convergente não implica
que ela converge para um limite que é a solução da equação diferencial. Assim, algumas
questões práticas relacionadas ao conceito de convergência merecem ser salientadas, como
por exemplo:
• Havendo convergência no sentido prático, a solução numérica obtida representa a
solução do problema?
• A discretização numérica introduz alguma caracterı́stica (“ruı́do”) que não está pre-
sente na equação original? Neste caso é este ruı́do controlável ou não?
• Quão rápida é a convergência?
As respostas a essas perguntas estão associadas aos conceitos de Consistência, Zero
Estabilidade e Ordem de Convergência que estudaremos logo a seguir.
Consistência
Parece natural admitir-se que a solução numérica aproxime a solução teórica do problema
em estudo. No entanto, este não é sempre o caso pois a equação de diferenças tem vida
própria e portanto sua própria solução, que não necessariamente guarda relação alguma com
a solução do problema original, a menos que assim seja explicitamente exigido desta equação
de diferenças. Essa propriedade, chamada consistência, é imposta à equação de diferenças e
“amarra-a” à equação diferencial. Inversamente, a solução do problema contı́nuo não é, em
geral, solução da equação de diferenças e o erro cometido ao substituirmos a solução exata
na equação de diferenças é chamado de erro de truncamento local. Se o erro de truncamento
1.3. PROBLEMA DE VALOR INICIAL EM EQUAÇÕES ORDINÁRIAS 23
local é de O(hp ), com p ≥ 1 dizemos que esse método tem ordem de consistência p, ou
simplesmente que esse método é de ordem p.
O erro de truncamento local pode também ser interpretado como o erro cometido ao
calcularmos a solução num ponto xi+1 sem levar em consideração os erros dos passos ante-
riores, isto é, levando em conta somente o erro cometido no passo atual. Para o método de
Euler, suponha que até o ponto xi todos os cálculos foram executados exatamente e que o
valor em xi+1 deverá ser aproximado através do método numérico. Essa aproximação terá
então erro de truncamento local τi+1 , dado por:
y(xi+1 ) − y(xi )
= f (xi , y(xi )) + τi+1
h
m
h
y ′ (xi ) − y ′′ (ξ) = f (xi , y(xi )) + τi+1
2
Podemos interpretar ainda o erro de truncamento local como aquele erro introduzido ao
substituirmos a equação diferencial por uma equação de diferenças. Portanto, para o método
de Euler com h → 0 a equação de diferenças aproxima-se da equação diferencial com erro
de truncamento local τi+1 = − h2 y ′′ (ξ), ou seja, com ordem O(h). Dizemos que o método
de Euler é consistente de ordem 1. Analogamente, o método dos trapézios é consistente de
ordem 2, porque o seu erro é O(h2 ).
O erro global é formado pela acumulação dos erros de truncamento local a cada passo
juntamente com os erros de arredondamento. Portanto a ordem de consistência de um
método está relacionada com sua ordem de convergência. Essa ordem é um indicativo da
velocidade com que se dá a convergência. Assim um método com erro O(h2 ) deve convergir
mais rapidamente que outro com erro O(h). Isso significa, pelo menos teoricamente, que
para o mesmo tamanho de passo h um método com ordem mais alta produz aproximações
mais precisas.
Zero Estabilidade
É possı́vel melhorar a ordem de consistência de um método simplesmente aumentando-se
a quantidade de informações nas quais esse método está baseado. Por exemplo a fórmula
do ponto médio que utiliza 3 pontos,
yi+1 − yi−1 = 2hf (xi , yi ), i = 1, 2, . . . , N − 1
ou equivalentemente,
yi+2 − yi = 2hf (xi+1 , yi+1 ), i = 0, 1, . . . , N − 2
tem ordem de consistência 2, e a fórmula implı́cita
3yi+2 − 4yi+1 + yi = 2hf (xi+2 , yi+2 ), i = 0, 1, . . . , N − 2. (1.22)
também tem ordem de consistência 2.
No entanto, como veremos, ao aumentarmos a quantidade de informação utilizada au-
mentamos também a possibilidade de algo dar errado. Na argumentação abaixo, tentare-
mos convencer o leitor da necessidade de uma análise mais detalhada das propriedades das
24 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
equações de diferenças com o objetivo de esclarecer onde e como esse “algo” pode dar er-
rado. Acompanhe a análise dos exemplos acima, onde estamos aproximando uma equação
diferencial de primeira ordem por uma equação de diferenças de segunda ordem, ou seja,
uma equação que relaciona 3 valores consecutivos. Similarmente às equações diferenciais,
uma solução da equação de diferenças de segunda ordem é uma combinação linear de duas
soluções básicas. De forma que, enquanto a equação diferencial tem apenas uma solução
básica (no caso em que y ∈ IR) a equação de diferenças tem duas distintas. Assim, essas duas
soluções não podem convergir para a solução do problema, ao mesmo tempo. A solução que
não converge para a solução exata é denominada solução espúria à qual não é permitido
crescer de maneira ilimitada, sob pena de inviabiliziar a aplicação do método. O efeito das
soluções espúrias na solução numérica é, comumente, o aparecimento de oscilações. Quando
o método é razoável essas oscilações decrescem com a evolução, o que significa que as soluções
espúrias decaem para zero à medida que i cresce. Um primeiro teste para esta condição de
decaimento é feito para o caso em que f (x, y) = 0, impondo que a solução do método deva
oscilar em torno de uma constante. Se o método é razoável, as oscilações se dissipam e o
método é dito ser zero-estável; caso contrário as oscilações são amplificadas prejudicando a
convergência.
Definição 1.3 A condição necessária para um método ser zero-estável é que as soluções
básicas da equação de diferenças associada, considerando f (x, y) = 0, sejam limitadas.
As soluções básicas da equação de diferenças são dadas pelas raı́zes do polinômio caracte-
rı́stico a ela associado. Por exemplo, a fórmula do ponto médio, yi+2 − yi = 0 tem polinômio
caracterı́stico ρ(z) = z 2 − 1 = 0, cujas raı́zes são 1 e −1, e as soluções básicas, ϕ e ψ, dadas
por ϕn = (1)n e ψn = (−1)n , n = 1, 2, . . . Já a fórmula 3yi+2 − 4yi+1 + yi = 0 tem polinômio
caracterı́stico ρ(z) = 3z 2 − 4z + 1 = 0, cujas raı́zes são 1 e 13 , e as soluções básicas, ϕ e ψ,
dadas por ϕn = (1)n e ψn = ( 13 )n , n = 1, 2, . . ..
Note que o comportamento dos dois métodos é distinto; enquanto a fórmula do ponto
médio conserva a amplitude das oscilações, a fórmula (1.22) amortece-as. Como em nenhum
dos dois casos, as oscilações são amplificadas, isto é, nenhuma das soluções básicas cresce,
ambos os métodos são zero-estáveis.
As condições: consistência e zero-estabilidade são necessárias e suficientes para a con-
vergência de um método [20].
Teorema 1.2 (Equivalência de Lax) No contexto de problema de valor inicial para
equações ordinárias, um método baseado em diferenças finitas é convergente se e somente
se ele é consistente e zero-estável.
É importante notar entretanto, que no caso de equações parciais, apesar de existir de-
terminada analogia, os resultados não são suficientemente abrangentes, ou seja, são válidos
somente em alguns casos particulares. O teorema acima garante a convergência, mas não
especifica a ordem de convergência. Como regra, pode-se dizer que a ordem de convergência
é a mesma da consistência.
Estabilidade
Os conceitos estudados até aqui dizem respeito a h → 0. No entanto, quanto menor o
valor de h, tanto maior será o número de cálculos que deverão ser efetuados para produzir
1.3. PROBLEMA DE VALOR INICIAL EM EQUAÇÕES ORDINÁRIAS 25
uma solução aproximada em determinado ponto x, fixado. Isto pode levar a um acúmulo,
não controlado, de erros e nesse caso dizemos que esse método é não estável ou instável.
A estabilidade (h fixo) é muito importante para problemas que exigem um número muito
grande de aplicações repetidas de um método para obter a solução em um dado intervalo.
Como em geral não é possı́vel predizer o número de passos necessários para obtenção da
solução, é aconselhável que, por precaução, tenhamos um controle do comportamento do
erro, isto é, um controle da propagação do erro. Na verdade, a escolha do tamanho h da
malha está intimamente ligada à estabilidade do método, e é o parâmetro através do qual é
possı́vel exercer esse controle. Podemos interpretar um método numérico como uma máquina
de produzir números a partir de dados iniciais. Como esses dados iniciais contém sempre
erro (de arredondamento do computador por exemplo), se essa máquina tiver o defeito
de amplificá-los, em pouco tempo o crescimento do erro dominará a solução produzida pela
máquina e esta perderá seu significado. Vamos ilustrar essas idéias pela análise, em paralelo,
de dois métodos numéricos.
Considere os métodos do ponto médio e do trapézio
yi+2 − yi = 2hf (xi+1 , yi+1 ), i = 0, 1, . . . , N − 2 (1.23)
h
yi+1 − yi = (f (xi , yi ) + f (xi+1 , yi+1 )), i = 0, 1, . . . , N − 1. (1.24)
2
Substituindo a solução exata nas expressões (1.23-1.24) e considerando a definição de erro
de truncamento local obtemos:
uma equação do tipo e′ = λe + g, onde λ = 2hfy (xi+1 , ζ) em (1.27) e λ tem uma expressão
um pouco mais complicada no caso (1.28). Obviamente λ não será sempre constante, mas
essas expressões nos motivam a definir a estabilidade, baseada no problema teste y ′ = λy,
pois nesse caso, assumindo que o erro de truncamento local satisfaz τi = T , as equações
(1.27) e (1.28) se transformam, respectivamente, em:
Observação 1.3.2 Para -hλ crescente, o método de Euler implı́cito apresenta amorteci-
mento e o do Trapézio apresenta oscilação, pois o fator de amplificação do método de Euler
1.3. PROBLEMA DE VALOR INICIAL EM EQUAÇÕES ORDINÁRIAS 27
implı́cito é
−1 (1+ hλ
2 )
(1 − hλ) → 0 e o do trapézio é (1− hλ ) → −1 quando −hλ → ∞. Portanto, esses
2
métodos são mais indicados, respectivamente, para problemas que apresentam solução com
decaimento e para problemas com solução periódica. No contexto das equações parciais, um
método similar ao de Euler implı́cito seria adequado para equações parabólicas e um similar
ao Trapézio, mais adequado para equações hiperbólicas (na forma de conservação).
Exemplos
Nesta seção apresentamos exemplos numéricos ilustrando o efeito prático de cada um dos
conceitos de consistência, zero-estabilidade e estabilidade.
Seja o PVI: √
y ′ = 4x y, y(0) = 1, 0 ≤ x ≤ 2.
cuja solução exata é y(x) = (1 + x2 )2 . Consideremos primeiramente a solução desse PVI
pelo seguinte método explı́cito de 2 passos:
h
yn+2 = yn+1 + (3fn+1 − 2fn ) (1.30)
3
que é zero-estável, mas não é consistente, como pode ser facilmente testado, ver exercı́cio
(1.10).
Ilustração da Consistência
x |Erro| |Erro| |Erro|
h = 0.1 h = 0.05 h = 0.025
0 0 0 0
0.1 0 5.07E-03 8.82E-03
0.2 2.11E-02 3.61E-02 4.50E-02
0.3 7.21E-02 9.76E-02 1.12E-01
0.4 1.57E-01 1.95E-01 2.15E-01
0.5 2.85E-01 3.34E-01 3.61E-01
.. .. .. ..
. . . .
2.0 1.82E+01 1.89E+01 1.92E+01
Como o método é de dois passos necessitamos duas condições iniciais para começar o processo
de cálculo, tomamos y0 = 1 e y1 = y(h) = (1 + h2 )2 . Note que quando o passo diminui o
erro em y(2) aumenta mas não de maneira explosiva. A sequência de soluções numéricas
converge para uma função y(x) à medida que h → 0, mas como o método não é consistente,
essa função não é solução do PVI dado, e sim de um outro problema.
28 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
Um dos PVFs mais simples e de alguma importância prática pode ser colocado como:
Sejam quatro constantes a, b, α e β, com a < b, e uma equação diferencial de segunda
ordem
y ′′ = f (x, y, y ′ ), (1.32)
o problema consiste em encontrar uma função y(x) ∈ C 2 [a, b], satisfazendo (1.32) em
a < x < b, e as duas condições de fronteira:
y ′′ + k 2 y = 2k 2 x, y(0) = 0, y(1) = 1,
cuja solução geral é: y(x) = c1 sen kx + c2 cos kx + 2x. Das condições de contorno tem-se
c2 = 0 e c1 = −2/ sen k. Para k = π, o problema não tem solução. Para k = π + ε, ε
pequeno, c1 = −2/ sen ε ≃ 2ε−1 , ou seja, uma pequena variação nos dados do problema
implica em grande variação na solução que passou a existir. O problema acima constitui um
exemplo de um problema mal posto, ou mal condicionado.
Note que instabilidade é uma dificuldade do método numérico, enquanto mal condiciona-
mento diz respeito ao problema.
A solução do problema (1.32) pode ser obtida via métodos para problema de valor inicial,
(Método Shooting), que usa a condição dada em x = a e escolhe um valor para a derivada
(inclinação) também em x = a, calcula a solução até x = b e, de acordo com o resultado,
ajusta o valor da derivada em x = a e resolve novamente, repetindo estes passos até que a
30 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
y(a) = α, y(b) = β.
Impomos a restrição q(x) ≥ Q∗ > 0, a ≤ x ≤ b que é mais restritiva do que Q∗ ≥ 0
requerida para a prova de existência e unicidade de solução .
Supomos no que segue, que o PVF objeto de estudo possui uma única solução com quatro
derivadas contı́nuas em a ≤ x ≤ b. Usaremos uma malha uniforme com h = Nb−a+1 e diferenças
centradas para aproximar L[y(x)] para obter:
y0 = α, yN +1 = β. (1.36)
2
Multiplicando (1.35) por − h2 , obtemos:
h2 1 h
− Lh [yj ] ≡ − {yj+1 − 2yj + yj−1 } + p(xj ) {yj+1 − yj−1 } +
2 2 4
h2 h2
yj = − r(xj ), j = 1, 2, . . . , N.
q(xj )
2 2
Rearranjando os termos de mesmo ı́ndice:
h2 h2
1 h
− Lh [yj ] ≡ − 1 + p(xj ) yj−1 + 1 + q(xj ) yj
2 2 2 2
1.4. PROBLEMA DE VALOR DE FRONTEIRA EM EQUAÇÕES ORDINÁRIAS 31
h2
1 h
− 1 − p(xj ) yj+1 = − r(xj ), j = 1, 2, . . . N.
2 2 2
Fazendo:
h2
aj ≡ 1 + q(xj ),
2
1 h
bj ≡ 1 + p(xj ) ,
2 2
1 h
cj ≡ 1 − p(xj ) ,
2 2
chegamos à equação
h2 h2
− Lh [yj ] ≡ −bj yj−1 + aj yj − cj yj+1 = − r(xj ), j = 1, 2, . . . N.
2 2
que em notação vetorial, juntamente com as condições de fronteira (1.36), pode ser escrita
na forma:
Ay = r (1.37)
onde
a1 −c1 0 ··· 0
−b2 a2 −c2 ··· 0
A≡ .. .. .. .. ..
, (1.38)
. . . . .
0 ··· −bN −1 aN −1 −cN −1
0 ··· 0 −bN aN
y1 r(x1 ) − 2bh12α
y2 r(x2 )
h2
.. ..
y≡ e r≡− .
. .
2
yN −1 r(xN −1 )
yN r(xN ) − 2chN2 β
Assim, resolvendo o sistema linear de ordem N (1.37), cuja matriz dos coeficientes,
A, é tridiagonal, determinamos os valores de yj , j = 1, 2, . . . , N , que desejamos sejam
aproximações da solução exata, y(xj ), onde xj = x0 + jh.
Tendo construı́do o método, deve-se procurar conhecer a consistência e convergência do
mesmo. Um ponto novo aqui é que deve-se também cuidar da existência e unicidade da
solução numérica. Se A é inversı́vel tem-se solução única. Se A for quase singular, o método
será não estável. Note que isso pode ocorrer quando h → 0 e a dimensão de A cresce.
Quando A é quase singular, os elementos de A−1 crescem com o aumento da ordem de
A, deteriorando o erro e consequentemente a convergência. Mais uma vez, estabilidade e
consistência equivalem a convergência.
32 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
Um critério a ser considerado, é criar condições para que A seja diagonalmente domi-
nante. Vamos exigir que o espaçamento h seja tão pequeno que
h
|p(xj )| ≤ 1, j = 1, 2, . . . , N. (1.39)
2
Então, segue que
|bj | + |cj | = bj + cj = 1 e aj > 1.
Logo,
τj = Lh [y(xj )] − L[y(xj )]
Supondo que y (4) (x) é contı́nua e usando a expressão do erro nas fórmulas centradas
obtemos:
1.4. PROBLEMA DE VALOR DE FRONTEIRA EM EQUAÇÕES ORDINÁRIAS 33
h2 (4)
τj = [y (ξj ) − 2p(xj )y ′′′ (ηj )], j = 1, 2, . . . , N, (1.42)
12
onde ξj ,ηj ∈ [xj−1 , xj+1 ]. Assim o erro de truncamento local é O(h2 ) e quando h → 0
o método tende para a equação diferencial com ordem O(h2 ). Dizemos que o método é
consistente de ordem 2.
A estimativa de erro global é obtida do seguinte resultado:
Teorema 1.4 Se o espaçamento h da malha satisfaz (1.39) então,
M4 + 2P ∗ M3
2
|y(xj ) − yj | ≤ h , j = 0, 1, . . . , N + 1,
12Q∗
onde y(x) é a solução exata de (1.34), yi é a solução calculada
de (1.35) e
P ∗ ≡ maxx∈[a,b] |p(x)|, M3 ≡ maxx∈[a,b] |y ′′′ (x)|, M4 ≡ maxx∈[a,b] y (4) (x).
Prova: Sejam ej = y(xj ) − yj , j = 0, 1, . . . , N + 1, ve : vetor dos erros ej e vτ : vetor
dos erros τj . Subtraindo (1.35) de (1.40) obtemos:
Lh [y(xj )] − Lh [yj ] = r(xj ) − r(xj ) + τj = τj , j = 1, 2, . . . , N.
Logo,
Lh [y(xj ) − yj ] = τj , ou Lh [ej ] = τj .
Esta última expressão nos diz que o erro global satisfaz a mesma equação de diferenças que
define o método, tendo como lado direito o erro de truncamento local.
2
Multiplicando ambos os membros da expressão acima por − h2 obtemos:
h2 h2
− Lh [ej ] = − τj , j = 1, 2, . . . , N, (1.43)
2 2
2
que utilizando a mesma notação matricial de (1.37) produz, Ave = − h2 vτ , donde segue
2
que ve = − h2 A−1 vτ , e mais uma vez observa-se a necessidade dos elementos de A−1 não
crescerem (estabilidade). Os vetores ve e vτ são formados respectivamente pelas compo-
nentes do erro global e do erro de truncamento local.
Escrevendo individualmente cada equação de (1.43) obtemos
h2
−bj ej−1 + aj ej − cj ej+1 = − τj , j = 1, 2, . . . , N.
2
Daı́,
h2
aj e j = bj ej−1 + cj ej+1 − τj , j = 1, 2, . . . , N
2
h2
|aj ej | ≤ |bj ej−1 | + |cj ej+1 | + |τj |, j = 1, 2, . . . , N
2
h2
|aj ej | ≤ (|bj | + |cj |)e + |τj |, j = 1, 2, . . . , N
2
34 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
e usando (1.39)
h2
|aj ej | ≤ e + τ,
2
onde:
e≡ max |ej | e τ ≡ max |τj |.
0≤j≤N +1 1≤j≤N
Vamos tratar de alguns desses aspectos a seguir. Considere que no lugar de y(a) = α em
(1.36), a condição dada seja y ′ (a) + γy(a) = 0. Essa nova condição tem consequências no
sistema (1.37) que passamos a analisar.
Uma primeira abordagem é tomar uma aproximação progressiva (de ordem O(h)) para
a derivada, ou seja,
y(a + h) − y(a) y1 − y0
y ′ (a) ≃ =
h h
donde
y1
y1 − y0 + hγy0 = 0 ⇒ y0 =
1 − hγ
que incorporada ao sistema, modifica apenas a primeira equação para
b1 h2
(a1 − )y1 − c1 y2 = − r(x0 )
1 − hγ 2
deixando o restante inalterado. O inconveniente aqui é o fato de introduzirmos um erro
local de O(h) que deteriora um pouco o resultado final.
Uma outra abordagem, que recupera a ordem 2, se dá pelo uso de uma aproximação
central
y(a + h) − y(a − h) y1 − y−1
y ′ (a) ≃ =
2h 2h
onde y−1 é introduzido artificialmente.
Assim,
y1 − y−1 + 2hγy0 = 0.
Como uma nova incógnita foi introduzida, nova equação é necessária. Esta pode ser
providenciada considerando-se como primeira equação em (1.37), a equação obtida para
j=0
h2
−b0 y−1 + a0 y0 − c0 y1 = − r(x0 ),
2
que por substituição de y−1 fica
h2
(a0 − b0 2hγ)y0 − (b0 + c0 )y1 = − r(x0 ).
2
36 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
O sistema (1.37) fica agora com uma equação extra, entrando y0 como incógnita. Apesar
de pequeno acréscimo no esforço computacional, o resultado final é O(h2 ), conservando-se a
ordem anterior.
Com relação à utilização de tamanhos de passo maiores, é possı́vel a construção de
um método menos restritivo. Esse método denominado upwind, tem bastante aplicação na
prática, principalmente em equações hiperbólicas e consiste em combinarmos as diferenças
progressiva e regressiva conforme o sinal de p(x). Isto reduz a ordem do método, mas a
restrição sobre h é relaxada.
Assim, o método upwind é baseado na seguinte aproximação para a primeira derivada:
yj+1 − yj yj − yj−1
y ′ (xj ) ≃ η + (1 − η) . (1.44)
h h
Portanto para η = 1, 21 e −1 tem-se as aproximações progressiva, central e regressiva, re-
spectivamente.
Usando (1.44) em (1.35) temos
h2 1
− Lh [yj ] ≡ − {yj+1 − 2yj + yj−1 } +
2 2
p(xj )h {η(yj+1 − yj ) + (1 − η)(yj − yj−1 )} +
h2 h2
q(xj ) yj = − r(xj ), j = 1, 2, . . . , N
2 2
donde
h2
−bj yj−1 + aj yj − cj yj+1 = − r(xj ), j = 1, 2, . . . N
2
com
aj ≡ 1 − (1 − 2η)hp(xj ) − h2 q(xj ),
1
bj ≡ {1 − (1 − η)hp(xj )} ,
2
1
cj ≡ {1 + hηp(xj )} .
2
No método upwind, η vai assumir valores 0 ou 1 , conforme p(xj ) < 0 ou p(xj ) > 0,
respectivamente. Isso mantém a dominância da diagonal de A sem a restrição (1.39). A
ordem do método diminui um pouco, mas o esforço computacional pode diminuir significa-
tivamente, porque a malha pode ser menos fina, ou seja, h pode ser maior.
Foi visto anteriormente que é possı́vel a melhoria da ordem de aproximação, aumentando
os pontos na aproximação da derivada. Esta abordagem acarreta um aumento na banda da
matriz do sistema e o esforço computacional cresce. Para ilustrar uma outra maneira de se
melhorar a ordem, vamos considerar o problema
que é consistente de ordem O(h2 ). Como estão envolvidos yj+1 , yj e yj−1 , pode-se usá-los
para se obter uma aproximação melhor para f (xj , yj ) da seguinte maneira:
onde c1 , c2 e c3 são calculados para aumentar a precisão. O método mais conhecido, assim
obtido, é o método de Numerov
h2
yj+1 − 2yj + yj−1 = {f (xj−1 , yj−1 ) + 10f (xj , yj ) + f (xj+1 , yj+1 )}
12
que é consistente de ordem O(h4 ).
Quando f é não linear e c3 6= 0, esse método requer a solução de uma equação (ou
um sistema) não-linear. Isto pode ser resolvido por iterações sucessivas ou pelo método de
Newton, mas claramente o esforço computacional é bem maior.
Em geral, um problema não-linear de segunda ordem pode ser colocado como
1.5 Exercı́cios
1.1 Utilizando propriedades dos operadores e expansão formal em série de potências das
funções envolvidas prove as relações abaixo:
1 1
∇ = E −1 ∆, ∆∇ = ∇∆ = ∆ − ∇ = δ 2 , µδ = (∆ + ∇), µ2 = 1 + δ 2
2 4
1 1 1
1 1
∇ = 1 − E −1 , µ = E 2 + E− 2 , δ = E 2 − E− 2 ,
2
− 21
1 1 3 4
1 = µµ−1 = µ 1 + δ 2 = µ 1 − δ2 + δ + ···
4 8 128
r !
−1 δ 1 2 1
hD = ln(1 + ∆) = − ln(1 − ∇) = 2 sinh = 2 ln 1+ δ + δ
2 4 2
38 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
h4 (2M + 5N + 5R)
720Q∗
é um limitante superior para o erro global do método em (a) onde M e R são limitantes
superiores para a derivada de ordem 6 de y e derivada de ordem 4 de r respectivamente
e N é um limitante superior para a derivada de ordem 4 da função q(x)y(x).
1.12 Encontre a solução geral para a equação de diferenças
yn+2 − yn+1 + 4yn = 2n.
Sugestão: Existe uma solução particular da forma an + b.
40 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
Derivar um método numérico de segunda ordem para aproximar esse problema. Montar o
sistema linear resultante.
y ′′ + xy ′ + y = 2x y(0) = 1, y(1) = 0.
Tomando h = 0.1 construa o sistema linear associado e resolva-o por eliminação de Gauss.
1.16 Construa o método de Numerov, mostre que esse método é de fato de O(h4 ) e construa
seu erro de truncamento local.
1.18 Faça um programa MATLAB para implementar o método de diferenças centrais para
a solução do PVF:
Prove que se um método é de ordem s então uma estimativa para o valor de s pode ser
obtida de:
e
ln ehh1
s= 2
ln hh21
1.19 Considere o problema de determinar a deflecção de uma viga apoiada nos dois ex-
tremos x = 0 e x = L quando sujeita a uma carga w uniformemente distribuı́da ao longo de
seu comprimento. De acordo com ( [Ames 1992]) a equação que modela essa deflecção é:
∂4y
EI = w − ky
∂x4
onde y é a deflecção da viga, EI é o coeficiente de rigidez e k é um coeficiente relacionado
com a rigidez da fundação. As condições de fronteira são:
∂2y
y = 0 em x = 0 e x = L, = 0 em x = 0 e x = L.
∂x2
yEI
a. Considerando EI = kL4 , ξ = x/L e ψ = wL4 mostre que na forma adimensional a
equação acima transforma-se em:
∂4ψ
=1−ψ
∂ξ 4
∂2ψ
ψ = 0 em ξ = 0 e ξ = 1, = 0 em ξ = 0 e ξ = 1.
∂ξ 2
b. Usando diferenças finitas e MATLAB determine uma aproximação para ψ(ξ), em pon-
tos ξi = i ∗ h ao longo da viga. Use h = 0.1.
1.20 A tensão numa membrana esférica suportada num aro é modelada pelo seguinte PVF:
λ2 x2
y ′′ = − , y(0) = 0, 2y ′ (1) − (1 + ν)y(1) = 0.
8 32y 2
Determine y(1), para ν = 0.3 e λ = 0.991, usando MATLAB e discretização por diferenças
finitas com h = 0.1.
EC ′′ − vC ′ − kC = 0.
1.22 Considere o problema de encontrar a deflecção de uma viga apoiada nos extremos
com carregamento pontual como na figura 1.3.
y
P
a b
x
L
A equação diferencial que modela o problema descrito na figura 1.3 é dada por:
Pb
EIy1′′ = L x para x ≤ a
Pb
EIy2′′ = L x − P (x − a) para x ≥ a,
x = a são então dadas por y1 (a) = y2 (a) e y1′ (a) = y2′ (a). Tomando s = x/L, z1 =
βy1 , z2 = βy2 onde β = EI/(P bL2 ) obtenha as equações e condições de fronteira na
forma adimensional. Obtenha a solução exata desse problema. Utilizando diferenças centrais
derive uma aproximação de ordem 4 para a segunda derivada. Discretize o problema acima
usando a fórmula recém deduzida, para obter um sistema linear com 5 diagonais. Faça
um programa MATLAB para implementar a solução desse problema e resolva-o tomando
β = 1.0 e h = 0.05. Compare seus resultados numéricos com os resultados exatos.
44 CAPÍTULO 1. CONCEITOS FUNDAMENTAIS
Capı́tulo 2
2.1 Introdução
Este capı́tulo tem o objetivo de apresentar rapidamente a notação básica e os principais
resultados sobre a teoria das equações diferenciais parciais e geração de malhas, necessários
para a compreensão do material a ser desenvolvido no restante do texto. Não temos a
menor intenção de apresentar material suficiente para o estudo da teoria das equações difer-
enciais parciais muito menos para o estudo de geração de malhas. O leitor interessado em
aprofundar-se nesses assuntos é fortemente encorajado a procurar outras fontes onde eles
são tratados com o rigor necessário. Por exemplo os livros Ockendon [15] e Williams [14]
trazem material suficiente para uma boa visão da teoria clássica das equações diferenciais
parciais, enquanto o livro do Thompson [40] constitui um tratado sobre geração de malhas.
O modelamento matemático de problemas em ciências aplicadas resulta frequentemente
na formulação de uma Equação Diferencial Parcial (EDP), (ou sistema de equações difer-
enciais parciais), que é uma equação envolvendo duas ou mais variáveis independentes
x1 , x2 , . . . , xn e derivadas parciais de uma função real u = u(x1 , x2 , . . . , xn ). A forma mais
geral de uma EDP de ordem k é:
∂u ∂u 2 2u ∂k u
ϕ x1 , x2 , . . . , xn , u, ∂x1 , . . . , ∂xn , ∂∂xu2 , ∂x∂1 ∂x 2
, . . . , ∂xk
= 0.
1 n
45
46 CAPÍTULO 2. INTRODUÇÃO ÀS EQUAÇÕES DIFERENCIAIS PARCIAIS
Definição 2.1 Um problema é dito bem-posto se ele tem uma única solução que depende
continuamente dos dados iniciais e de fronteira.
Note que se condições auxiliares são prescritas em excesso, pode haver incompatibilidade
entre elas e o problema não terá solução; se, por outro lado, não forem suficientes, o problema
terá muitas soluções. Somente na medida certa, teremos um problema bem posto.
Apresentamos acima a definição matemática de um problema bem posto. Daremos a
seguir uma explicação suscinta do seu significado. Acreditamos que o leitor não terá prob-
lemas com a questão de existência e unicidade de solução. Talvez um conceito que não seja
tão popular é o de dependência contı́nua dos dados. Vamos ilustrar esse conceito através de
um exemplo.
Considere a equação elı́ptica
sen (nx)
u(x, 0) = , uy (x, 0) = 0,
n
onde n é um inteiro fixo, mas a não ser por isso, arbitrário. Uma solução desse prob-
lema, como pode ser facilmente comprovado por substituição direta da solução na equação
e condições de fronteira, é
sen (nx) cosh(ny)
u(x, y) = .
n
2.2. CLASSIFICAÇÃO 47
2.2 Classificação
A maioria dos problemas práticos classificam-se naturalmente em uma das três categorias:
– problemas de auto-valores.
– problemas de equilı́brio,
– problemas de propagação.
Problemas de auto-valores podem ser entendidos como uma extensão dos problemas de
equilı́brio. Matematicamente, o problema é encontrar uma ou mais constantes λ, e as funções
correspondentes u tais que a equação diferencial
L[u] = λM u
Bi u = λEi u
b2 − ac = −y,
sendo portanto: parabólica para y = 0, elı́ptica para y > 0 e hiperbólica para y < 0.
No caso mais geral uma equação linear de segunda ordem em várias variáveis tem a
forma:
n
X n
X
aij uxi xj + bi uxi + cu = g. (2.2)
i,j=1 i=1
2.2. CLASSIFICAÇÃO 49
Sem perda de generalidade, podemos assumir que aij = aji , uma vez que uxi xj = uxj xi ,
ou seja a matriz dos coeficientes de mais alta ordem é simétrica. Nesse caso a classificação
é baseada nos auto-valores da matriz A = {aij }. (Ver [16], página 4).
Se A tem algum autovalor nulo a equação é parabólica. Se A não tem autovalores nulos
e os seus autovalores são todos positivos ou todos negativos, a equação é elı́ptica. Se A não
tem autovalores nulos, mas tem autovalores positivos e negativos, a equação será hiperbólica.
No caso de sistemas de equações quasi-lineares de primeira ordem em duas variáveis x e
y da forma:
N N
X ∂uj X ∂uj
aij + bij = ci , para i = 1, 2, . . . N
j=1
∂x j=1
∂y
Pondo V = (v, w)T a equação (2.4) pode ser escrita na forma (2.3) com
a 0 b c
A= e B=
0 −1 1 0
e portanto P (λ) = det(A − λB) = cλ2 − bλ + a, que resultará numa equação parabólica se
∆ = b2 − 4ac = 0, numa equação elı́ptica se ∆ < 0 e numa equação hiperbólica se ∆ > 0.
2.3 Caracterı́sticas
Apresentamos um estudo bastante simplificado das caracterı́sticas de um sitema hiperbólico.
Esse estudo será apresentado apenas para o sistema de primeira ordem (2.3). O objetivo aqui
é dar uma idéia geométrica do significado das caracterı́sticas. Um estudo tecnicamente mais
detalhado [Courant 1962], [14] mostra que os autovalores λ, raı́zes reais de det(A − λB) = 0,
são direções especiais, chamadas direções caracterı́sticas, ao longo das quais o problema (2.3)
reduz-se a uma equação diferencial ordinária. A equação
dx
= λ(x, y, u)
dy
Parabólica : uεε
Elı́ptica : uεε + uηη
Hiperbólica : uεη ou uεε − uηη ,
que serão usadas nos próximos capı́tulos, para o estudo da solução numérica das equações
diferenciais parciais por técnicas de diferenças finitas.
Na prática também aparecem problemas em outras dimensões cujos exemplos mais sig-
nificativos são, em duas dimensões espaciais:
equação de advecção ut + aux + buy = 0,
equação do calor ut − uxx − uyy = 0,
equação de Laplace uxx + uyy = 0, (2.6)
equação da onda utt − a2 uxx − b2 uyy = 0.
52 CAPÍTULO 2. INTRODUÇÃO ÀS EQUAÇÕES DIFERENCIAIS PARCIAIS
2.4 Discretização
A aproximação numérica da solução de uma equação a derivadas parciais é obtida pela
transformação do problema contı́nuo num problema discreto finito, exatamente como no caso
das equações ordinárias, brevemente descrito, no primeiro capı́tulo. No caso de equações
parciais o problema tem a dificuldade adicional do número de variáveis independentes ser
maior que 1, isto é, o domı́nio deixa de ser um intervalo e passa a ser uma região do plano
ou do espaço. A transformação acima referida, é realizada tanto na função incógnita e na
equação quanto no domı́nio de solução. No domı́nio ela é obtida pela subdivisão deste em um
conjunto de pontos (discretização), em geral igualmente espaçados, ao qual damos o nome de
malha. A transformação da função incógnita e da equação são obtidas, respectivamente pela
avaliação desta nos pontos da malha e pela aproximação das derivadas por diferenças finitas.
Apresentamos a seguir um exemplo completo do processo de discretização para ilustrar os
conceitos de transformação do domı́nio e da equação.
Exemplo 2.4.1 Seja a equação de difusão:
ut = uxx , 0 ≤ x ≤ 1, t≥0
u(x, 0) = 100 sen πx 0 <x<1
u(0, t) = u(1, t) = 0, t > 0,
2
cuja solução exata é: u(x, t) = 100e−π t sen πx.
Discretizando o intervalo [0, 1] por pontos com espaçamento h = 0.1 e a variável tempo
com espaçamento k = 1/600 = 0.0016667 obtemos uma malha para o domı́nio [0, 1]× [0, 0.5].
t=0.5
2/600
1/600
Por outro lado, discretizando, a função u(x, t) nos pontos dessa malha e aproximando
ut (xi , tj ) e uxx (xi , tj ) por diferenças finitas como em (1.11) e (1.13), obtemos:
k
Ui,j+1 = Ui,j + (Ui+1,j − 2Ui,j + Ui−1,j ), para i = 0, 1, · · · N, j = 0, 1, · · · (2.7)
h2
2.5. DOMÍNIOS GENÉRICOS E TRANSFORMAÇÃO DE VARIÁVEIS 53
onde Ui,j é uma aproximação para u(xi , tj ). Das condições iniciais temos que:
U0,0 = 0, U1,0 = 100 sen 0.1π = 30.901699, · · · , U10,0 = 100 sen 1.0π = 0.
Das condições de fronteira obtemos:
U0,j = UN,j = 0, para j = 0, 1, · · ·
A equação de diferenças finitas (2.7), juntamente com as condições de fronteira pode ser
resolvida para cada j e i = 1, 2, · · · , N − 1. Assim procedendo obtemos as seguintes aprox-
imações para u(xi , 0.5) = u(xi , 300 ∗ k) = Ui,300 , i = 1, 2, · · · , N − 1.
(x, y) Aproximada Exata
(0.0, 0.5) 0.0 0.0
(0.1, 0.5) 0.222262 0.222242
(0.2, 0.5) 0.422767 0.422730
(0.3, 0.5) 0.581889 0.581838
(0.4, 0.5) 0.684051 0.683992
(0.5, 0.5) 0.719254 0.719192
(0.6, 0.5) 0.684051 0.683992
(0.7, 0.5) 0.581889 0.581838
(0.8, 0.5) 0.422767 0.422730
(0.9, 0.5) 0.222262 0.222243
(1.0, 0.5) 0.0 0.0
Como podemos observar da tabela acima, esse método numérico é bastante eficiente
na tarefa de aproximar a solução teórica, apesar de sua simplicidade. Esse fato encoraja o
estudo de outras técnicas mais elaboradas, pois se com uma aproximação tão simples e óbvia
pode-se produzir resultados tão bons é de se esperar que com um pouco mais de empenho
seja possı́vel melhorá-los. Este de fato é o caso, como teremos oportunidade de discutir nos
capı́tulos a seguir.
Antes de prosseguirmos com o estudo de novos métodos vamos comentar brevemente
que os conceitos de Estabilidade, Consistência e Convergência, já introduzidos no primeiro
capı́tulo no contexto da solução numérica de equações diferenciais ordinárias, são essencial-
mente os mesmos com as devidas adaptações que levem em conta as dimensões do prob-
lema. Esses conceitos serão melhor trabalhados dentro de cada classe de equação estudada
nos capı́tulos subsequentes. Como é usual, esses conceitos servirão de parâmetro para com-
paração e avaliação de novos métodos numéricos. Novamente, em linha com a teoria dos
métodos numéricos para equações ordinárias temos a equivalência “Consistência + Esta-
bilidade = Convergência”, que é conhecido como Teorema de Equivalência de Lax; ver por
exemplo ( [Cryer 1983]).
Na próxima seção discutiremos um pouco mais detalhadamente a questão da aproximação
do domı́nio, já que nos capı́tulos subsequentes, dedicados especificamente a cada uma das
classes de equações, discutiremos longamente a discretização da equação.
recomenda-se a utilização desse mesmo sistema desde que a geometria do domı́nio não
imponha dificuldades ou apresente aspectos simplificadores, como por exemplo simetrias.
Entretanto, existem situações em que a geometria do domı́nio sugere a utilização de uma
malha não cartesiana. É o caso, por exemplo, quando desejamos calcular a distribuição
de calor num disco circular; a malha mais adequada é dada em coordenadas polares. Na
prática, as vezes tem-se sistemas construı́dos para reproduzir, ou que melhor se ajustam à
geometria do problema em estudo, é o caso por exemplo do escoamento de gás pelo bocal
de uma turbina, ver figura 2.2
(a) malha retangular (b) malha circular (c) malha inclinada (d) malha triangular
y (r, θ )
ω (x,y)
r
θ
ω x x
A função u(x, y), no novo sistema passa a ser u(r, θ), onde r = r(x, y) e θ = θ(x, y).
No caso de coordenadas polares
x = r cos θ e y = r sen θ
donde
y
r2 = x2 + y 2
e θ = arctan .
x
Podemos então ilustrar a transformação do disco no retângulo, com a respectiva trans-
formação de uma malha polar em uma cartesiana como na figura 2.5.
y Θ
−1 1 x 1 r
−π
∂θ −y/x2 −y 1
= = 2 = − sen θ
∂x 1 + (y/x)2 x + y2 r
e
∂θ 1/x x 1
= = 2 = cos θ.
∂y 1 + (y/x)2 x + y2 r
Substituindo em (2.8) determina-se as derivadas parciais de u com relação a x e y na forma
polar:
∂u ∂u 1 ∂u
= cos θ − cos θ (2.9)
∂x ∂r r ∂θ
∂u ∂u 1 ∂u
= sen θ + cos θ . (2.10)
∂y ∂r r ∂θ
As derivadas parciais de ordem 2 são determinadas usando-se (2.9-2.10) e a regra da
cadeia. Após uma quantidade considerável de cálculos obtém-se:
∂2u
∂ ∂u 1 ∂ ∂u
= cos θ − sen θ
∂x2 ∂r ∂x r ∂θ ∂x
2 2 2
∂ u sen θ ∂ u sen θ cos θ ∂ 2 u
= cos2 θ 2 + 2 2
−2
∂r r ∂θ r ∂r∂θ
sen 2 θ ∂u sen θ cos θ ∂u
+ +2 ;
r ∂r r2 ∂θ
δθ
ij
h i
y
(q,r)
ω (x,y)
r
θ
q
ω x x ,q
Vamos abordar este problema de uma maneira um pouco diferente: ao invés de encon-
trarmos as derivadas parciais no sistema cartesiano, as determinaremos, primeiro, no sistema
de coordenadas oblı́quas. Isto é,
∂u ∂u ∂x ∂u ∂y
= +
∂r ∂x ∂r ∂y ∂r
∂u ∂u ∂x ∂u ∂y
= + .
∂q ∂x ∂q ∂y ∂q
Mas
∂x ∂x ∂y ∂y
= cos θ, = 1, = sen θ e = 0.
∂r ∂q ∂r ∂q
2.5. DOMÍNIOS GENÉRICOS E TRANSFORMAÇÃO DE VARIÁVEIS 59
Por substituição,
∂u ∂u ∂2u ∂2u
= ⇒ = ,
∂q ∂x ∂q 2 ∂x2
∂u ∂u ∂u
= cos θ + sen θ
∂r ∂x ∂y
∂2u ∂ 2
u ∂2u ∂2u
= cos2 θ 2 + 2 sen θ cos θ + sen 2 θ 2 .
∂r2 ∂x ∂x∂y ∂y
e
∂2u ∂2u ∂2u
= cos θ 2 + sen θ .
∂q∂r ∂x ∂x∂y
Note que:
! !
∂u ∂u
∂q 1 0 ∂x
= ∂u
∂u cos θ sen θ ∂y
∂r
e
∂2u ∂2u
1 0 0
!
∂q2 ∂x2
∂2u ∂2u
∂q∂r =
cos θ sen θ 0
∂x∂y .
(2.11)
∂2u cos2 θ 2 sen θ cos θ sen 2 θ ∂2u
∂r 2 ∂y 2
∂2u ∂2u
+ 2 = 0,
∂x2 ∂y
do sistema cartesiano para o sistema de coordenadas oblı́quas usando θ = 45o .
Solução: Fazendo θ = 45o no sistema acima, obtém-se:
2 ∂2 u
∂ u
∂q2 1 0 0 ∂x2
∂ 2 u √2 √2 ∂2 u
∂q∂r = 0 .
2 2 ∂x∂y
1 1 ∂2 u
2
∂ u
2 1 2
2 ∂r ∂y 2
Portanto
∂2u ∂2u
=
∂x2 ∂q 2
60 CAPÍTULO 2. INTRODUÇÃO ÀS EQUAÇÕES DIFERENCIAIS PARCIAIS
∂2u
∂ Ui+1,j − Ui−1,j
∂ ∂u
= =
∂r∂q ∂r ∂q ∂r 2h
1 Ui+1,j+1 − Ui−1,j+1 − Ui+1,j−1 + Ui−1,j−1
= .
2h 2k
A presença da derivada mista exige que um número maior de pontos da malha este-
jam envolvidos nessa discretização. Serão necessários 9 pontos no lugar da já conhecida
discretização de 5 pontos. Observe atentamente a figura 2.8.
x = q + r cos θ + s cos β,
y = r sen θ + s sen β.
2.5. DOMÍNIOS GENÉRICOS E TRANSFORMAÇÃO DE VARIÁVEIS 61
δr
i,j
δq q
s
y
r
ω (x,y)
(q,v)=(q,(r,s))
y
v
β
θ
ω q x x,q
e notemos que x e y são expressos em termos de três variáveis. Portanto, por substituição:
∂u ∂u ∂x ∂u ∂y ∂u
= + = ,
∂q ∂x ∂q ∂y ∂q ∂x
∂u ∂u ∂x ∂u ∂y ∂u ∂u
= + = cos θ + sen θ ,
∂r ∂x ∂r ∂y ∂r ∂x ∂y
∂u ∂u ∂x ∂u ∂y ∂u ∂u
= + = cos β + sen β .
∂s ∂x ∂s ∂y ∂s ∂x ∂y
As segundas derivadas parciais, calculadas como fizemos nas secções anteriores, são dadas
por:
∂2u ∂2u
= ,
∂q 2 ∂x2
∂2u ∂2u ∂2u ∂2u
= cos2 θ + 2 sen θ cos θ + sen 2 θ 2 ,
∂r2 ∂x 2 ∂x∂y ∂y
∂2u ∂ 2
u ∂ 2
u ∂ 2u
= cos2 β 2 + 2 sen β cos β + sen 2 β 2 .
∂s2 ∂x ∂x∂y ∂y
62 CAPÍTULO 2. INTRODUÇÃO ÀS EQUAÇÕES DIFERENCIAIS PARCIAIS
Na forma matricial:
∂2 u
2
∂ u
∂q2 1 0 0 ∂x2
∂2 u
∂2u = cos2 θ 2 sen θ cos θ sen 2 θ . (2.12)
∂r 2 ∂x∂y
∂2u cos2 β 2 sen β cos β 2
sen β ∂2 u
∂s2 ∂y 2
∂2u
Resolvendo o sistema (2.12), já que θ e β são dados, determinamos os valores de e
∂x2
∂2u ∂2u ∂2u ∂2u
em termos de , e , restando somente substituı́-los na Equação de Laplace
∂y 2 ∂q 2 ∂r2 ∂s2
em coordenadas cartesianas para obtermos a Equação de Laplace em coordenadas triangu-
lares. Para θ = 600 e β = 1200 a equação de Laplace torna-se:
r
s
i,j,k
δr δs
δq q
2.6 Exercı́cios
2.6. EXERCÍCIOS 63
2
P∞ π 2 at
2.1 Mostre que u(x, t) = n=1 cn exp(− n l2 ) sen ( nπx
l ) é solução do problema:
∇2 u = f em R
∂u
= g em ∂R
∂n
tem solução somente se a condição de consistência:
Z Z
f dR = g d(∂R)
R ∂R
for satisfeita.
2.5 Mostre que as equações do calor, da onda e de Laplace, são respectivamente, Parabólica,
Hiperbólica e Elı́ptica; ver (2.5).
aux + buy = c,
dx dy
= a, =b
dt dt
e a solução u satisfaz ao longo dessa curva caracterı́stica a equação diferencial ordinária :
du c dx c dy
= = .
dt a dt b dt
Deduza então que essas equações podem ser reescritas numa forma compacta como:
dx dy du
= = .
a b c
Sugestão: Ver [13].
Utilizando essa técnica encontre a solução da equação:
yux + uy = 2
é dada implicitamente por u(x, t) = u0 (x − a(u)t) desde que 1 + u′0 (x − a(u)t)a′ (u)t 6= 0.
2.10 Seja p(x, t) uma função real positiva e continuamente diferenciável. Derivar a parte
principal e classificar de cada uma das equações abaixo.
α
onde A∗ = T B e c∗ = T c. Escrevendo agora ei = β = cot(θ) cada uma das equações em
(2.14) pode ser reescrita como:
n
X 1
a∗ij uj x cos(θ) + uj y sen (θ) = c∗i
j=1
β
e portanto conclua que esta equação representa uma equação diferencial ordinária na direção
do vetor (cos(θ), sen (θ)).
Mostre em seguida que a condição para existência das matrizes T e E é que a equação
det(A − λB) = 0 tenha n raı́zes reais e que os autovetores associados a elas forme uma base
do espaço. Observe também que nesse caso as curvas caracterı́sticas são dadas por:
dx
= ei = cot(θi ).
dy
2.12 O escoamento em uma dimensão de um gás ideal isentrópico é descrito pelas equações
de momento, da continuidade e lei dos gases, como a seguir:
ut + uux + ρ−1 px = 0
ρt + ρux + uρx = 0
pρ−γ = α constante > 0, γ > 0
onde u(x, t), p(x, t) e ρ(x, t) são, respectivamente a velocidade, a pressão e a densidade
do sistema. Eliminando a pressão p das duas primeiras equações utilizando a terceira,
escreva esse sistema na forma (2.3) e então mostre, utilizando o exercı́cio (2.11), que elas
formam um sistema hiperbólico. Calcule as equações caracterı́sticas. Mostre, utilizando os
invariantes de Riemann ( [Ames 1972] páginas 81-84) que para γ = 3 as caracterı́sticas são
linhas retas. Calcule as matrizes E e T que o transforma em (2.14).
66 CAPÍTULO 2. INTRODUÇÃO ÀS EQUAÇÕES DIFERENCIAIS PARCIAIS
2.13 O escoamento de água num canal retangular, aberto e levemente inclinado com largura
unitária, profundidade u e velocidade v é descrito pelo sistema de equações de primeira
ordem:
vux + uvx + ut = 0
gux + vvx + vt = g(S0 − Sf )
onde S0 é a inclinação do fundo do canal, Sf é uma medida da resistência do atrito ao
escoamento e g é aceleração da gravidade. Mostre que esse sistema é hiperbólico e determine
suas caracterı́sticas. Escreva-o na forma (2.14) calculando as matrizes E e T . Mostre que
os invariantes de Riemann quando S0 − Sf = 0 (lei de conservação) são v + 2c e v − 2c com
c2 = gu.
2.14 Considere a mudança de coordenadas ξ = ξ(x, y) e η = η(x, y) que transforma o sis-
tema cartesiano num sistema de coordenadas genérico. Mostre que a equação transformada
para o sistema (ξ, η) nos casos
a. ux + auy = 0 é (ξx + aξy ) uξ + (ηx + aηy ) uη = 0
b. ∇2 u = 0 é J 2 (auξξ − 2buξη + cuηη + duξ + euη ) = 0, onde
J = 1/(xξ yη − xη yξ ), a = x2η + yη2 , b = xξ xη + yξ yη , c = x2ξ + yξ2 ,
d = J (xη β − yη α) , e = J (yξ α − xξ β) , α = axξξ − 2bxξη + cxηη ,
β = ayξξ − 2byξη + cyηη .
2.15 Qual o resultado da transformação de coordenadas triangulares se β = 180o, ou β =
θ + 180o?
2.16 Calcular a solução numérica da equação de Laplace que fornece a distribuição de
temperatura numa região triangular como a da figura 2.11. Utilizar a expressão derivada
em (2.13) para construir o sistema linear de acordo com a numeração da figura 2.11 com
δq = δs = δr = 1.
1
o
40o C 2 3
10 C
4 5 6
0o C
5 6 7 8
S
3
1 2 3 4
R
1 4
✕ S
2 ✕
●
✕ ✕
✕ ✕ ❍ ●
u=1
u x =1
a u=2/ π arctan(2y/(1-a*a))
u=0
a 1 x
Equações Parabólicas
3.1 Introdução
As equações parabólicas são equações de evolução, ou seja, elas modelam fenômenos que
evoluem (de maneira geral, irreversivelmente) com o tempo, assim uma das variáveis tem
sempre um caráter temporal que a distingue das demais. Esse aspecto serve de motivação
para, no caso bidimensional, usarmos a variável x com sentido espacial e t como variável
evolutiva. Essas variáveis são tratadas distintintamente tanto do ponto de vista teórico
quanto do ponto de vista experimental e também numérico. Esperamos que no material
que segue esta distinção fique bastante clara, pois este é um aspecto muito importante da
classificação das equações nos três tipos clássicos.
Como vimos, se b2 − ac = 0 na equação
69
70 CAPÍTULO 3. EQUAÇÕES PARABÓLICAS
É importante lembrar que no caso das equações parabólicas, a solução num ponto interior
depende de toda a condição inicial. Além disso, o operador parabólico regulariza a solução,
ou seja, num ponto interior (t > 0), mesmo que bem próximo da condição inicial (t = 0), a
solução é completamente suave (regular), mesmo que, por exemplo f (0) 6= ψ(0). A mesma
observação é válida próximo de x = L.
Discretização
Para desenvolver algumas técnicas para solução de equações parabólicas vamos usar,
em princı́pio, o modelo da equação do calor, apresentado em (3.3), com a(x, t) constante e
r(x, t) ≡ 0.
Consideremos, então, o problema de Dirichlet
ut = auxx , a > 0, 0 ≤ x ≤ L, 0<t<T (3.4)
u(x, 0) = ψ(x), 0 ≤ x ≤ L
u(0, t) = f (t), 0 < t < T
u(L, t) = g(t), 0 < t < T.
Dividindo o intervalo [0, L], da variável espacial x, em N partes iguais de comprimento
L
h, temos os N + 1 pontos xi = ih, i = 0, 1, . . . , N , onde h = N e, dividindo o intervalo
[0, T ], da variável tempo t, em M partes iguais de comprimento k, temos os M + 1 pontos
T
tj = jk, j = 0, 1, . . . , M , onde k = M . Assim vamos obter uma aproximação da solução nos
pontos (xi , tj ) da malha, como mostra a figura 3.1
Vamos denotar por ui,j a solução exata no ponto (xi , tj ) e por Ui,j o valor aproximado
de ui,j .
k
f(t) g(t)
h
0 L x
ψ (x)
Figura 3.1: Domı́nio da equação e respectiva malha
3
2 k
1
Solução: Como σ = 16 , a = 1 e k = 54 1
temos que h = 13 e portanto x0 = 0, x1 = 31 , x2 =
2 1 2
3 , x3 = 1 e t0 = 0, t1 = 54 , t2 = 54 , . . .. Da condição inicial vem que:
1
u01 = u(x0 , t1 ) = u(0, ) = 0 = U01 ,
54
1
u31 = u(x3 , t1 ) = u(1, ) = 0 = U31 .
54
3.2. MÉTODOS DE DIFERENÇAS FINITAS 73
5
u11 = u(x1 , t1 ) = 0.1861023 ≃ U11 = U10 + σ(U00 − 2U10 + U20 ) = = 0.1851852,
27
5
u21 = u(x2 , t1 ) = 0.1861023 ≃ U21 = U20 + σ(U10 − 2U20 + U30 ) = = 0.1851852.
27
Erro Global
Definimos o erro global em um ponto (xi , tj ), por:
e, então
|ei,j+1 | ≤ |σ|(|ei−1,j | + |ei+1,j |) + |1 − 2σ||ei,j | + | − k||τi,j |. (3.13)
Fazendo Ej = max{|ep,j |, 0 ≤ p ≤ N }, τj = max{|τp,j |, 0 ≤ p ≤ N }, supondo 1 − 2σ ≥ 0,
(condição de estabilidade) e como σ > 0 podemos reescrever a equação (3.13) como:
√
Observação 3.2.1 Utilizaremos nesse trabalho a notação I = −1.
Este é um critério simples e muito utilizado para determinar a estabilidade de um método
numérico. Ele é baseado no princı́pio da superposição, ou seja, na observação de que o erro
global é a somatória de erros mais simples também chamados harmônicos. Esse processo é
inspirado na expansão de uma função em série de Fourier. Denotando por Ei , i = 0, 1, . . . N
o erro global em cada ponto ao longo da primeira linha t = 0 permite-nos escrever:
N
X
Ei = an exp(Iαn ih), i = 0, 1, . . . N
n=0
76 CAPÍTULO 3. EQUAÇÕES PARABÓLICAS
então para cada j a equação (3.17) pode ser escrita na forma matricial:
1 − 2σ σ 0 ... 0
σ 1 − 2σ σ ... 0
A= .. ..
(3.20)
. .
0 ... σ 1 − 2σ σ
0 ... 0 σ 1 − 2σ
exata, o erro de truncamento local e o erro global, e considerando (3.10), podemos escrever
a equação matricial para o erro de truncamento local,
uj+1 = Auj + cj + τj . (3.21)
Subtraindo (3.19) de (3.21) obtemos a equação vetorial para o erro global:
ej+1 = Aej + τj . (3.22)
Aplicando a equação (3.22) recursivamente para j, j − 1, . . . 0 obtemos:
ej+1 = Aj+1 e0 + Aj τ0 + Aj−1 τ1 + · · · + Aτj−1 + τj
= Aj τ0 + Aj−1 τ1 + · · · + Aτj−1 + τj (3.23)
se lembrarmos que e0 = 0 por construção. Vê-se de (3.23) que o erro global é formado pelo
acúmulo dos erros de truncamento local de cada passo propagados pelas potências da matriz
A. Portanto a matriz A tem um papel crucial na propagação desses erros e ela é chamada
de matriz de amplificação. O erro cresce se algum autovalor de A tem módulo maior do
que 1. Se todos são menores do que 1 em módulo, temos o erro decrescendo e portanto
estabilidade. Definimos então:
Definição 3.1 Uma equação de diferenças vetorial da forma
Uj+1 = AUj + cj
é dita estável com relação a alguma norma || · || se e somente se existem constantes h0 > 0,
k0 > 0, K ≥ 0 e β ≥ 0 com:
||An || ≤ K exp(βt),
sempre que 0 ≤ t = nk, 0 < h ≤ h0 e 0 < k ≤ k0 .
Em particular se os autovetores de A são linearmente independentes e se seus autovalores
λi satisfazem |λi | ≤ 1 + O(k), ∀i, então o método será estável. Ver exercı́cio (3.10).
No caso particular da matriz A do método explı́cito (3.20) seus autovalores são dados no
exercı́cio (3.12) e portanto para estabilidade precisamos que:
iπ
|λi | = |1 − 4σ sen 2 ( )| ≤ 1 + O(k)
2N
que pode ser facilmente mostrado implicar em σ ≤ 12 , ou seja a mesma condição já obtida
pelos critérios anteriores.
Note que a matriz A de um método numérico geral terá sempre seus elementos depen-
dentes do parâmetro σ, e portanto determinar a estabilidade desse método numérico requer
a determinação dos autovalores de uma matriz de ordem arbitrária N cujos elementos de-
pendem de σ. Esta pode ser uma tarefa bastante difı́cil. Para tanto contamos com alguns
resultados de álgebra linear que nos auxiliam na tarefa de encontrar limitantes para esses
autovalores. Eles são os teoremas de Gerschgorin que aplicam-se para uma matriz A geral
da forma:
a11 a12 · · · a1N
a21 a22 · · · a2N
A= ... .. .. .. .
. . .
aN 1 aN 2 . . . aN N
3.2. MÉTODOS DE DIFERENÇAS FINITAS 79
PN
Seja di = j=1 |ai,j |, temos então o primeiro teorema:
Teorema 3.2 Seja λ o maior autovalor de A tomado em módulo. Então λ ≤ max1≤i≤N |di |.
Prova: Ver [13] página 87.
O segundo teorema pode ser enunciado como a seguir:
Teorema 3.3 Seja ri = di − |aii |. Então os autovalores de A estão na união dos discos de
centro em |aii | e raio ri .
Prova: Ver [13] páginas 88-89.
Como mostrado em (3.11) o erro de truncamento local do método explı́cito é de ordem
O(k + h2 ). Uma pergunta que surge naturalmente é se podemos obter métodos com ordem
melhor. A resposta é positiva como veremos a seguir.
Melhorando a ordem
Uma tentativa de melhoria da ordem, ainda mantendo a condição de método explı́cito,
pode ser feita incorporando-se mais um ponto à fórmula (3.7), ou seja, usando-se diferença
centrada na variável t. Tem-se então a seguinte equação de diferenças, chamado método de
Richardson, e respectiva molécula computacional
i,j+1
i,j
i-1,j i+1,j
h
i,j-1
k2 h2 k2 k4
τi,j = uttt − uxxxx − 2 autt + O(h4 + k 4 + 2 ).
6 12 h h
Agora, se k = rh temos que o método não será consistente, melhor dizendo, o método
será consistente com a equação
ut = auxx − ar2 utt
que é uma equação hiperbólica!
Portanto, para obtermos um método consistente, é preciso restringir k em função de h,
por exemplo k = rh2 e aı́ teremos um método consistente de ordem 2. O método de Du
Fort-Frankel é pois condicionalmente consistente e a condição imposta é bastante restritiva.
Analisando a estabilidade, vemos que, a partir de
Ui,j+1 − Ui,j−1 = 2σ(Ui+1,j − (Ui,j+1 + Ui,j−1 ) + Ui−1,j )
obtém-se
(1 + 2σ)Ui,j+1 − 2σ(Ui+1,j + Ui−1,j ) − (1 − 2σ)Ui,j−1 = 0
e pelo critério de von Neumann, escrevendo:
(a + Ib)(a − Ib) 4σ 2 − 1
|γ| = = 2 < 1.
1 + 2σ 4σ + 4σ + 1
3.2. MÉTODOS DE DIFERENÇAS FINITAS 81
ii) Se positivo:
1 1+2σ
Então, 0 < (1 − 4σ sen 2 β) 2 < 1 e |2σ cos β| < 2σ , logo |γ| < 2σ+1 = 1.
Portanto o método é incondicionalmente estável.
Este método é um método explı́cito de dois passos, pois exige conhecimento da solução em
2 nı́veis anteriores de tempo para a construção da solução no próximo nı́vel. Diferentemente
dos métodos de um nı́vel, ele só pode ser aplicado para o cálculo da solução a partir do nı́vel
2, exigindo que o primeiro passo seja calculado por meio de outro método.
Este método constitue um exemplo claro do cuidado que se deve ter em relação ao
teorema da equivalência de Lax ilustrando o importante fato de que nem sempre a escolha
da malha (relação entre h e k) é ditada pela condição de estabilidade. No caso do método
de DuFort–Frankel quem impõe a escolha da malha é a consistência e não a estabilidade.
Está implı́cito no teorema de Lax que é preciso verificar não só a condição de estabilidade
mas também a escolha adequada da malha.
Como vimos resolvemos o problema da instabilidade e criamos um outro com a con-
sistência, este será sempre um dilema pois essas duas propriedades estão no mais das vezes
em conflito. Uma maneira de aliviar esse problema é considerar métodos implı́citos, pois
estes têm melhores propriedades de estabilidade, mas como veremos abaixo o custo com-
putacional aumenta consideravelmente.
Método Implı́cito
Uma fórmula implı́cita é aquela em que dois ou mais valores desconhecidos na linha j
são especificados simultaneamente em termos de valores conhecidos das linhas j − 1, j − 2, . . .
(ver figura 3.4). Claramente, não será possı́vel o cálculo direto de Ui,j ; usualmente exigi-se
a solução de um sistema linear.
Aplicando diferenças regressivas do lado esquerdo da equação e diferenças centradas do
lado direito, temos:
Ui,j − Ui,j−1 Ui−1,j − 2Ui,j + Ui+1,j
=a (3.26)
k h2
que depois de alguma manipulação algébrica pode ser reescrita na forma:
i,j
i-1,j i+1,j
h
i,j-1
k h2
ut − utt + O(k 2 ) = auxx + a uxxxx + O(h4 ) + τi,j .
2 12
Daı́,
k ah2
τi,j = − utt − uxxxx + O(k 2 ) + O(h4 ) = O(k + h2 ). (3.29)
2 12
Concluı́mos que o método é incondicionalmente consistente e de ordem 1. Comparando
as expressões (3.11) e (3.29) observamos que elas diferem apenas no sinal do termo k2 utt
sendo um positivo e outro negativo. Esse fato nos motiva a considerar uma nova aproximação
que é a média entre as aproximações explı́cita e implı́cita, na esperança de que esse termo
desapareça do erro de truncamento local, como de fato ocorre. Essa estratégia dá origem ao
método de Crank-Nicolson que será estudado logo mais adiante.
Erro Global
Segue o mesmo desenvolvimento feito para o método explı́cito.
Estabilidade
Analogamente ao caso do método explı́cito pelo critério de von Neumann escrevemos
Método de Crank-Nicolson
Este é um dos métodos mais utilizados na solução de equações parabólicas. Como no
caso do método do Trapézio para equações diferenciais ordinárias, este método é a “média
aritmética” do explı́cito com o implı́cito. Tomando pois a média entre as expressões (3.7) e
(3.27) obtemos o método de Crank-Nicolson dado por:
2 + 2σ −σ 0 ... 0 U1,j+1
−σ 2 + 2σ −σ ... 0 U2,j+1
.
.. .
..
..
=
.
0 ... −σ 2 + 2σ −σ UN −2,j+1
0 ... 0 −σ 2 + 2σ UN −1,j+1
3.2. MÉTODOS DE DIFERENÇAS FINITAS 85
h h
i-1,j i,j i+1,j
h4
ui−1,j − 2ui,j + ui+1,j = h2 uxx + uxxxx + O(h6 )
12
h4 h2 k 2 h4 k 2
ui−1,j+1 − 2ui,j+1 + ui+1,j+1 = h2 uxx + uxxxx uxxtt + uxxxxtt + O(h6 ).
12 8 96
Logo,
k2 ah2 ak 2 h2 k 2
τi,j = uttt − uxxxx − uxxtt − a uxxxxtt + O(h4 ) + O(k 4 ) = O(h2 + k 2 ),
24 12 8 96
e o método é consistente de ordem 2.
86 CAPÍTULO 3. EQUAÇÕES PARABÓLICAS
Estabilidade
A análise da estabilidade segue o mesmo raciocı́nio desenvolvido para o método explı́cito.
Substituindo (3.15) em (3.30) obtemos:
1 − 2σ sen 2 β2
eλ = , (3.32)
1 + 2σ sen 2 β2
e concluı́mos que o método é incondicionalmente estável, pois |eλ | é sempre menor do que
1.
É possı́vel provar que o erro global satisfaz a equação vetorial Aej = Bej−1 + τj e
como A é inversı́vel, tem-se estabilidade se todos os autovalores da matriz de amplificação
C = A−1 B estão no disco unitário. Ver exercı́cio (3.15).
-1 0 1 2 N N+1
(-1,j) (N+1,j)
(−1,2) (N+1,2)
(−1,1) (N+1,1)
(−1,0) (N+1,0)
L
u ( x , 0)=ψ ( x ) x
e portanto o valor de U−1,j pode ser substituı́do por (3.35) na expressão do método numérico
sem maiores problemas. Devemos no entanto observar que a notação vetorial introduzida
em (3.18) deve ser modificada para refletir o fato de que U0,j e UN,j são agora incógnitas.
Assim:
Uj = (U0,j , U1,j , . . . , UN,j )T
e portanto um vetor de N + 1 componentes. Certamente a matriz A da equação (3.19) deve
ser de ordem (N + 1) × (N + 1) e ter sua primeira e última linhas modificadas. A equação
equivalente a (3.19) para o caso de condições de fronteira com derivadas é:
Uj+1 = AUj + cj
onde A é a matriz não simétrica
1 − 2σ 2σ 0 ... 0
σ 1 − 2σ σ ... 0
A=
.. ..
(3.36)
. .
0 ... σ 1 − 2σ σ
0 ... 0 2σ 1 − 2σ
Já para o caso de um método implı́cito teremos um pouco mais de dificuldades. Consid-
eremos o método de Crank-Nicolson (3.30) que pode ser reescrito na forma:
−σUi+1,j+1 + (2 + 2σ)Ui,j+1 − σUi−1,j+1 = σUi+1,j + (2 − 2σ)Ui,j + σUi−1,j . (3.37)
Novamente quando i = 0 ou i = N teremos o aparecimento dos termos U−1,j+1 , U−1,j ,
UN +1,j+1 e UN +1,j que não fazem parte da malha e portanto são pontos fantasmas. Da
mesma maneira que fizemos para o caso explı́cito em (3.35) eliminamos esses valores da
equação (3.37), para obter a equação matricial:
AUj+1 = BUj + cj
onde as matrizes A e B são de ordem N + 1 e dadas por:
2 + 2σ −2σ 0 ... 0
−σ 2 + 2σ −σ ... 0
A=
.
. ..
. .
0 ... −σ 2 + 2σ −σ
0 ... 0 −2σ 2 + 2σ
2 − 2σ) 2σ 0 ... 0
σ 2 − 2σ σ ... 0
B=
.
.. ..
.
0 ... σ 2 − 2σ σ
0 ... 0 2σ 2 − 2σ
e o vetor independente cj = (2hσ(f (tj+1 ) − f (tj )), 0, . . . , 0, 2hσ(g(tj+1 ) − g(tj )))T
Observação 3.2.2 Observamos que a matriz A do método de Crank-Nicolson para prob-
lemas com condição de fronteira de Neumann não é simétrica, mas continua estritamente
diagonalmente dominante. A perda da simetria é um fator de considerável complicação para
a solução do sistema linear.
Observação 3.2.3 Uma outra observação importante é que no caso do domı́nio possuir
uma fronteira irregular, os pontos próximos da fronteira precisam de tratamento especı́fico,
por meio de interpolação. Este aspecto será tratado com mais detalhe nas equações elı́pticas.
No caso em que
2
∂2u
m m−2 ∂u
r(x, t, u, ux , uxx ) = (u )xx = m(m − 1)u + mum−1 , m ≥ 2, (3.40)
∂x ∂x2
k k
ii. < (1 − βk)/(2β), ou seja, β 2 < (1 − βk)/2 < 1/2.
h2 h
Usando agora que β > α na última desigualdade obtemos:
k k 1
mum−1 2
=α 2 < .
h h 2
Esse mesmo resultado poderia ser obtido por comparação com a equação linear com
coeficientes constantes, isto é, reescrevendo a equação (3.40) na forma
ut = (mum−1 ux )x
e comparando com a equação com coeficientes constantes ut = (aux )x para concluir que a
condição de estabilidade do método explı́cito toma a forma
ak mum−1 k 1
σ= = ≤ .
h2 h2 2
Isto quer dizer que para problemas não lineares a estabilidade depende, além da equação
de diferenças finitas, da solução do problema que está sendo resolvido e portanto a condição
de estabilidade pode variar ao longo do domı́nio.
Para obter-se um método implı́cito substitui-se as derivadas da variável espacial por
fórmulas envolvendo o mesmo nı́vel de tempo. Um exemplo de método implı́cito para resolver
(3.38) é o método de Crank-Nicolson dado por:
Ui,j+1 + Ui,j Ui,j+1 − Ui,j µδx Ui,j+1 + µδx Ui,j δx2 Ui,j+1 + δx2 Ui,j
r xi , tj+ 12 , , , , =0
2 k 2h 2h2
onde os operadores µ e δx estão definidos em (1.3). A equação acima deve ser aplicada em
todos os pontos do domı́nio para os quais quer-se calcular uma aproximação, produzindo
portanto um sistema de equações não lineares nas variáveis Ui,j . Esse sistema pode ser
resolvido por aproximações sucessivas ou pelo método de Newton.
3.4. OUTROS MÉTODOS 91
“Embora pareça que os métodos com 2 passos (3 nı́veis) têm vantagem sobre
os de 2 nı́veis (Crank-Nicolson) na solução de equações parabólicas, é possı́vel
que a introdução de um nı́vel extra cause dificuldades em problemas especı́ficos.
Cada problema não-linear tem suas peculiaridades e a escolha entre um método
de 2 ou de 3 nı́veis, para um dado problema, é bastante difı́cil. Todos os métodos
devem ser tentados quando o problema é não linear e uma análise crı́tica dos
resultados deve ser feita para a melhor certeza de sua solução” [6]
pois o caminho do algoritmo computacional parece com o jogo da amarelinha, como mostra
a figura 3.7.
O resultado global é uma série de cálculos explı́citos, onde ui,j+1 é a incógnita, pois
todos os valores da j-ésima linha são conhecidos. Gordon [3] demonstra a consistência e
estabilidade deste algoritmo. Além disso, é um método muito rápido e portanto muito
usado para dimensões mais altas.
A sequência de cálculos aproximados para a equação ut = auxx pode ser descrita como
segue.
Para j fixado,
Ui,j+1 = Ui,j + σ(Ui−1,j − 2Ui,j + Ui+1,j ), para todo i tal que i + j + 1 é par
e em seguida,
Ui,j+1 = Ui,j + σ(Ui−1,j+1 − 2Ui,j+1 + Ui+1,j+1 ), para todo i tal que i + j + 1 é ı́mpar
onde σ = ka/h2 .
Se definirmos β p = 1 para p par e β p = 0 para p ı́mpar, então o método hopscotch pode
ser expresso em uma única equação:
Ui,j+1 = Ui,j +β i+j+1 σ(Ui−1,j −2Ui,j +Ui+1,j )+β i+j σ(Ui−1,j+1 −2Ui,j+1 +Ui+1,j+1 ). (3.41)
Agora, este método corresponde à aplicação do método de Crank-Nicolson e do método
explı́cito. De fato, substituindo j por j + 1 na equação (3.41), temos:
Para i + j ı́mpar, a equação (3.42) torna-se o método de Crank-Nicolson com passo 2h:
Ui,j+2 = Ui,j + β i+j+1 σ[(Ui−1,j − 2Ui,j + Ui+1,j ) + (Ui−1,j+2 − 2Ui,j+2 + Ui+1,j+2 )].
Aproximações Assimétricas
Uma série de aproximações assimétricas para a equação do calor foi introduzida por
Saul’yev [12]. O resultado é um par de aproximações que resulta explı́cito e incondiciona-
mente estável.
A idéia básica do método é substituir ux (xi−1/2 , tj ) da equação:
ux (xi+1/2 , tj ) − ux (xi−1/2 , tj )
uxx (xi , tj ) ≃ ,
h
por ux (xi− 21 , tj+1 ), e então usarmos diferenças centradas para aproximar ux .
Ui+1,j − Ui,j
ux (xi+1/2 , tj ) ≃ ,
h
Ui,j+1 − Ui−1,j+1
ux (xi−1/2 , tj+1 ) ≃ .
h
Para ut usamos diferenças progressivas. O algoritmo de Saul’yev A (ver figura 3.8) é então
dado por:
i,j+1 i,j+1
Método Box
Keller [5] propôs o método box, um método simples e compacto, que pode inclusive
ser usado com malha de tamanho variável. A precisão é de ordem 2 e incondicionalmente
estável. Ele pode ser usado para problemas lineares e não-lineares. Considere a equação
u(x, 0) = ψ(x), 0 ≤ x ≤ 1,
v = a(x)ux , (3.47)
vx = ut − c(x)u,
com
u(x, 0) = ψ(x), 0 ≤ x ≤ 1,
1
i,j- __
2
x
U5(t) =U(1,t)=sen(t) x=1
U5 (0)=0
U4(t)
U4(0)=0.16
U3(t)
U3 (0)=0.24
U2(t)
U2 (0)=0.24
U1 (t) 0.2
U1 (0)=0.16
U0 (0)=0
U0(t) =U(0,t)=0
t
U0 (t) = 0
1 1
U1′ (t) = (U2 − 2U1 + U0 ) + (U2 − U0 )2
0.04 0.16
1 1
U2′ (t) = (U3 − 2U2 + U1 ) + (U3 − U1 )2
0.04 0.16
1 1
U3′ (t) = (U4 − 2U3 + U2 ) + (U4 − U2 )2
0.04 0.16
1 1
U4′ (t) = (U5 − 2U4 + U3 ) + (U5 − U3 )2
0.04 0.16
U5 (t) = sen (t),
3.5. EQUAÇÕES PARABÓLICAS EM DUAS DIMENSÕES 97
U0 (0) = 0
U1 (0) = u(0.2, 0) = 0.2(1 − 0.2) = 0.16
U2 (0) = u(0.4, 0) = 0.4(1 − 0.4) = 0.24
U3 (0) = u(0.6, 0) = 0.6(1 − 0.6) = 0.24
U4 (0) = u(0.8, 0) = 0.8(1 − 0.8) = 0.16
U5 (0) = 0.
Resolvendo este sistema, obtemos aproximações para u(x, t) ao longo das linhas (xi , t).
ut = Lu (3.50)
com L ≡ a1 uxx + a2 uyy .
Todos os métodos discutidos anteriormente podem ser adaptados para este caso mas o
esforço computacional aumenta quadraticamente, de forma que a simples adaptação não é
uma solução satisfatória. Apresentamos a seguir alguns métodos criados para contornar esse
problema, exigindo um número menor de operações aritméticas.
Inicialmente supomos que a região de definição do problema seja formada pelo retângulo
[0, a] × [0, b] do plano x − y e pelo intervalo de tempo [0, ∞). Essa região do plano é coberta
por uma malha retangular com lados paralelos aos eixos, com espaçamento h1 na direção x,
h2 na direção y e por uma discretização temporal com passo k. Os pontos da malha (x, y, t)
serão dados por x = lh1 , y = mh2 e t = nk, onde l, m, n são inteiros. Uma função discreta
n
definida nessa malha será denotada por Ul,m .
Da expansão em série de Taylor de u(x, y, tn+1 ) = u(x, y, tn + k) em torno do ponto
(x, y, tn ), obtemos:
k2
utt (x, y, tn ) + · · · .
u(x, y, tn+1 ) = u(x, y, tn ) + kut (x, y, tn ) + (3.51)
2
Observando agora que ut = Lu e que L independe de t, deduzimos por diferenciação com
relação a t que utt = (Lu)t = Lut = L × Lu = L2 u. Assim podemos mostrar por indução
que:
∂ pu
= Lp u.
∂tp
98 CAPÍTULO 3. EQUAÇÕES PARABÓLICAS
k2 2
u(x, y, tn+1 ) = u(x, y, tn ) + kLu(x, y, tn ) + L u(x, y, tn ) + · · ·
2
k2 2 k3 3
= (I + kL + L + L + · · ·)u(x, y, tn ) = exp(kL)u(x, y, tn )(3.52)
2 3!
Avaliando a expressão (3.52) no ponto (xl , ym , tn ) obtemos a fórmula (3.53), que será uti-
lizada na dedução dos diversos métodos a seguir.
un+1 n
l,m = exp(kL)ul,m (3.53)
Método Explı́cito
Vamos exemplificar esta técnica usando
onde un = unl,m .
Como
1 2 1 1
D12 = (δ − δ 4 + δ 6 · · ·)
h2 x 12 x 90 x
e
1 2 1 1
D22 = 2
(δy − δy4 + δy6 · · ·),
h 12 90
veja (exercı́cio (1.1)), então
1 1 1 1
un+1 = [1 + σδx2 + σ(σ − )δx4 · · ·][1 + σδy2 + σ(σ − )δy4 · · ·]un , (3.55)
2 6 2 6
onde σ = k/h2 . Aqui estamos utilizando h1 = h2 = h, como espaçamento nas variáveis x e
y. A conclusão final não será muito distinta se considerarmos espaçamentos diferentes para
cada uma das variáveis espaciais. No entanto, alertamos que essa talvez seja uma situação
mais realista para aplicações práticas.
Vários métodos explı́citos podem ser obtidos da equação (3.55). Por exemplo, multi-
plicando as duas séries e em seguida considerando somente os termos de primeira ordem
obtemos,
n+1
Ul,m = [1 + σ(δx2 + δy2 )]Ul,m
n
+ O(k 2 + kh2 ), (3.56)
3.5. EQUAÇÕES PARABÓLICAS EM DUAS DIMENSÕES 99
que é o método explı́cito padrão envolvendo cinco pontos no nı́vel de tempo t = nk.
Outro método simples pode ser obtido da equação (3.55) considerando os termos de
primeira ordem em cada uma das expansões separadamente
n+1
Ul,m = (1 + σδx2 )(1 + σδy2 )Ul,m
n
+ O(k 2 + kh2 ), (3.57)
Esta fórmula envolve nove pontos do nı́vel de tempo t = nk.
Estabilidade
Analogamente ao caso unidimensional temos o critério de von Neumann e o critério da
matriz para análise da estabilidade. No entanto, em duas dimensões a análise da estabilidade
pelo método da matriz se torna um tanto complexa, pois na tentativa de generalizar o
procedimento feito para o problema unidimensional, para por exemplo a equação (3.49),
obtemos um sistema linear Un+1 = AUn + cn , onde agora, Un é um vetor de vetores e A
uma matriz de matrizes. Se compararmos com a matriz (3.20) veremos que no lugar dos
elementos dessa matriz aparecerão agora matrizes. Este fato, complica a análise do problema
de autovalores.
Pela sua simplicidade e facilidade de exposição concentraremo-nos aqui no estudo do
critério de von Neumann que assume uma decomposição harmônica dos erros em um dado
nı́vel de tempo, por exemplo, t = 0. Um modo individual, representando a decomposição é
então dado por:
|eαk | ≤ 1
para todo α.
Se (3.58) é substituı́do na fórmula (3.56), o resultado após a eliminação dos fatores
comuns torna-se
βh γh
eαk = 1 − 4σ sen 2 + sen 2 .
2 2
1 1
σ≤ ≤ ,
2 sen 2 βh + sen 2 γh 4
2 2
ou seja,
n+1
(1 + σ(δx2 + δy2 ))Ui,j n
= Ui,j
que resulta num sistema linear cuja matriz A tem no máximo 5 elementos não nulos por
linha. Na maioria das vezes é possı́vel arranjar as incógnitas desse sistema de tal forma
que os 5 elementos não nulos de cada linha estejam posicionados de maneira a formar uma
matriz com 5 diagonais, a principal, uma imediatamente acima e outra imediatamente abaixo
desta, e duas outras localizadas a certa distância da diagonal principal. Obviamente esta
é uma matriz muito especial e não devemos tentar resolver o sistema linear resultante sem
ter essa caracterı́stica em mente. A grande dificuldade é que não existem métodos especiais
eficientes para tratar o problema com cinco diagonais, e o método de Gauss não é muito
adequado pois ao aplicarmos o processo de triangularização os elementos que eram nulos
originalmente o deixam de ser ao longo do processo, provocando o fenômeno conhecido como
“fill in”. Esta mesma dificuldade não ocorre se a matriz tiver apenas 3 diagonais; a principal
e as duas adjacentes. Nesse caso o método de eliminação de Gauss pode ser aplicado sem
nenhuma dificuldade. A tentativa de resolver o problema bidimensional resolvendo-se apenas
sistemas tridiagonais é materializada pela concepção dos Métodos de Direções Alternadas
(ADI). Métodos ADI são métodos de 2-passos onde em cada passo apenas uma das variáveis
é tratada implicitamente. No primeiro passo uxx é discretizado implicitamente e uyy é
tratado explicitamente, no segundo passo os papeis se invertem e assim sucessivamente. O
esforço computacional do método ADI é cerca de três vezes o do método explı́cito, preço
que pagamos ao utilizar um método incondicionalmente estável.
3.5. EQUAÇÕES PARABÓLICAS EM DUAS DIMENSÕES 101
Ilustraremos estes métodos por meio da equação (3.50), com L como em (3.54). A região
a ser considerada consiste em R x [t ≥ 0], onde R é uma região arbitrária fechada em IR2 .
Inicialmente tomamos R como quadrado [0 ≤ x ≤ 1, 0 ≤ y ≤ 1].
Da equação (3.53) temos:
k k
un+1 = exp( (D12 + D22 ) + (D12 + D22 ))un
2 2
logo,
k k
exp(− (D12 + D22 ))un+1 = exp( (D12 + D22 ))un (3.60)
2 2
k k k k
exp(− D12 )exp(− D22 )un+1 = exp( D12 )exp( D22 )un ,
2 2 2 2
cuja expansão e truncamento da série fornece a equação:
1 1 1 1
(1 − σδx2 )(1 − σδy2 )U n+1 = (1 + σδx2 )(1 + σδy2 )U n + O(k 3 + kh2 ) (3.61)
2 2 2 2
Este método é uma modificação do método de Crank-Nicolson em duas dimensões que é
dado por:
1 1 1 1
(1 − σδx2 − σδy2 )U n+1 = (1 + σδx2 + σδy2 )U n + O(k 3 + kh2 ). (3.62)
2 2 2 2
Note que para obter (3.61) de (3.62) um termo da forma σ4 δx2 δy2 foi adicionado em ambos os
membros de (3.62).
A equação (3.61) pode ser interpretada de uma forma mais conveniente para a imple-
mentação computacional introduzindo-se um passo intermediário para “decompor” (3.61)
em duas equações:
(1 − 12 σδx2 )U n+1∗ = (1 + 21 σδy2 )U n
(3.63)
(1 − 12 σδy2 )U n+1 = (1 + 12 σδx2 )U n+1∗
ou seja, o passo intermediário representa uma solução na direção x e o passo final uma
solução na direção y.
∗
O método decomposto (3.63) com U n+1 = U n+1/2 , isto é o passo intermediário é inter-
pretado como um “meio” passo, foi introduzido por Peaceman e Rachford [8] e é conhecido
como método de Peaceman e Rachford.
Um método decomposto e com precisão mais alta pode ser obtido da equação (3.60)
substituindo D12 e D22 por, (veja exercı́cio (1.1))
δx2 δy2
D12 = 1 2 e D22 = 1 2
h2 (1 + 12 δx ) h2 (1 + 12 δy )
102 CAPÍTULO 3. EQUAÇÕES PARABÓLICAS
σ1 1 σ2 1 σ1 1 σ2 1
[1− (σ1 − )δx2 ][1− (σ2 − )δy2 ]U n+1 = [1+ (σ1 + )δx2 ][1+ (σ2 + )δy2 ]U n +O(k 3 +kh4 ),
2 6 2 6 2 6 2 6
(3.64)
que pode ser decomposto em duas equações:
∗
σ1 σ2
− 61 )δx2 )U n+1 + 61 )δy2 )U n
(1 − 2 (σ1 = (1 + 2 (σ2
σ2 σ1 ∗ (3.65)
(1 − 2 (σ2 − 61 )δy2 )U n+1 = (1 + 2 (σ1 + 61 )δx2 )U n+1
e
∗
(1 − 12 (σ − 61 )δx2 )U n+1 (1 + 12 (σ + 16 )δx2 )(1 + 21 (σ + 16 )δy2 )U n
=
∗
(1 − 12 (σ − 61 )δy2 )U n = U n+1
respectivamente.
Finalmente, Douglas e Rachford [Douglas 1956] formularam um método ADI que é dado
na forma decomposta por:
∗
(1 − σδx2 )U n+1 (1 + σδy2 )U n
=
∗
(1 − σδy2 )U n+1 = U n+1 − σδy2 U n ,
∗
e é conhecido como o método de Douglas-Rachford. Eliminando-se U n+1 temos a fórmula:
Usando o método de von Neumann, mostra-se a estabilidade, dos métodos ADI apresen-
tados nesta seção, para todo valor de σ > 0; ver exercı́cio (3.25).
3.5. EQUAÇÕES PARABÓLICAS EM DUAS DIMENSÕES 103
ut = uxx + uyy ,
que pode ser reescrita como o par de equações
1 1
ut = uxx e ut = uyy . (3.66)
2 2
A idéia é portanto, aproximar a solução de um problema em duas dimensões resolvendo-
se dois problemas unidimensionais que localmente representam o problema original. As
discretizações explı́citas mais simples dessas fórmulas são:
1
!
1 U n+ 2 − U n δx2 n
= U
2 k/2 h2
!
δy2 n+ 1
1
1 U n+1 − U n+ 2
= U 2
2 k/2 h2
Obtemos assim a equação (3.57) que aproxima a solução com erro de truncamento da
O(k 2 + kh2 ). Para um problema de valor inicial com condições dadas sobre o plano t = 0,
−∞ < x < ∞, −∞ < y < ∞, se usarmos o método LOD (3.67) temos a mesma precisão e
estabilidade mas mais economia de cálculos do que usando (3.57). Já o método de Crank-
Nicolson para o par de equações (3.66) toma a forma:
1
! 1
1 U n+ 2 − U n δ 2 U n+ 2 + δx2 U n
= x
2 k/2 2h2
! 1
δy2 U n+1 + δy2 U n+ 2
1
1 U n+1 − U n+ 2
=
2 k/2 2h2
que pode ser reescrito como:
σ 1
σ 2 n
1 − δx2 U n+ 2 = 1+ δ U
2 2 x
(3.68)
σ σ 1
1 − δy2 U n+1 = 1 + δy2 U n+ 2 .
2 2
104 CAPÍTULO 3. EQUAÇÕES PARABÓLICAS
3.6 Exercı́cios
3.1 Mostre pelo método de separação de variáveis, que a solução do problema (3.8) é dada
pela fórmula (3.9).
para 0 ≤ x ≤ 12
2x,
u(x, 0) =
2 − 2x, para 12 ≤ x ≤ 1
Faça um programa em MATLAB para resolver esse problema usando o método explı́cito
com h = 0.05 e
5 2
a. k = 11 h
b. k = 59 h2 .
Utilizando MATLAB faça um gráfico da solução numérica e da solução exata para cada
um dos casos acima, plotando U e u contra x para vários valores de t, por exemplo,
t = 0.05, 0.1, 0.15, . . . , 0.5. Observe atentamente os gráficos dos dois casos. Note que a
solução inicial tem uma descontinuidade na primeira derivada no ponto x = 1/2, e esta
descontinuidade é suavizada imediatamente quando entramos no domı́nio. Esta é uma pro-
priedade geral das equações parabólicas e elı́pticas. Obtenha pelo método de separação de
variáveis a solução exata desse problema.
Discretizando essa equação pelo método explı́cito e diferenças centrais para aproximar ux
obtém-se:
bk bk
Ui,j+1 = (σ + )Ui+1,j + (1 − 2σ)Ui,j + (σ − )Ui−1,j .
2h 2h
Utilizando o critério de von Neumann estude a estabilidade desse método. Compare com a
estabilidade do método resultante do seguinte critério para aproximar o termo ux , chamado
método “up-wind”; aproximamos ux por diferenças progressivas se b > 0 e por diferenças
regressivas caso contrário.
3.12 Mostre que os autovalores e autovetores da matriz (3.20) são dados por:
T
2 iπ iπ 2iπ (N − 1)iπ
λi = 1 − 4σ sen ( ), vi = sen ( ), sen ( ), · · · , sen ( ) .
2N N N N
iπ
λi = 1 + 4σ sen 2 ( )
2N
e portanto os autovalores de A−1 são λ1i que são menores que 1 para todo valor de σ impli-
cando que esse método é incondicionalmente estável, como já haviamos concluı́do.
∂2u
1 2 1 4 1 6
= 2 δx − δx + δx + . . . u.
∂x2 h 12 90
Escreva o método acima na forma matricial e utilize o critério da matriz para estudar sua
estabilidade.
108 CAPÍTULO 3. EQUAÇÕES PARABÓLICAS
3.16 Considere a seguinte aproximação para a equação do calor no intervalo [0, 1]:
3 1 1
∆t Ui,j − ∇t Ui,j = 2 δx2 Ui,j+1 .
2k 2k h
Utilizando o critério da matriz analise a estabilidade desse método.
3.17 Considere a equação parabólica não linear
ut = um
xx , m inteiro ≥ 2
que pode ser aproximada pelo método implı́cito,
Ui,j+1 − Ui,j θδ 2 (Ui,j+1 )m + (1 − θ)δx2 (Ui,j )m
= x .
k h2
Expansão em série de Taylor de (u(xi , tj+1 ))m , em torno do ponto (xi , tj ) produz:
∂(ui,j )m
(ui,j+1 )m = (ui,j )m + k + ···
∂t
∂ui,j
= (ui,j )m + km(ui,j )m−1 + ···.
∂t
Dessa forma, a menos de termos com ordem maior que O(k), temos a seguinte aproximação:
(Ui,j+1 )m = (Ui.j )m + m(Ui,j )m−1 (Ui,j+1 − Ui,j )
que se substituı́da na equação do método o torna linear. Escrevendo ωi = Ui,j+1 − Ui,j
deduza um sistema linear em termos dessa nova variável.
3.18 a. Considere a equação parabólica não linear:
ut = φ(x, t, u, ux , uxx ), 0 < x < 1, 0 < t ≤ T, (3.70)
u(x, 0) = ψ(x),
u(0, t) = f (t),
u(1, t) = g(t).
∂φ
Esse problema constitue um problema bem posto se a condição ∂u xx
≥ a > 0 estiver
satisfeita no domı́nio. Expandindo u(xi , tj+1 ) em série de Taylor no ponto (xi , tj ),
e utilizando a equação (3.70), para substituir ut , deduza um método explı́cito para
resolvê-la.
3.6. EXERCÍCIOS 109
3.24 Considere o método obtido pela média ponderada dos métodos implı́cito e explı́cito:
k
Ui,j+1 − Ui,j = σ θδx2 Ui,j+1 + (1 − θ)δx2 Ui,j ,
σ= , 0 ≤ θ ≤ 1.
h2
Observe que para θ = 0 obtemos o método explı́cito, para θ = 1 obtemos o método implı́cito
e para θ = 1/2 obtemos o método de Crank-Nicolson. Deduzir a expressão do erro de
truncamento local e usando a técnica de von Neumann mostre que para 0 ≤ θ < 1/2 o
1
método é estável se σ ≤ 2(1−2θ) e incondicionalmente estável para 1/2 ≤ θ ≤ 1.
3.26 Mostre que os operadores δx2 e δy2 comutam quando o domı́nio onde eles se aplicam
é um retângulo. Dê um contra-exemplo para ilustrar o caso em que o domı́nio não é um
retângulo.
3.28 Mostre que o método de Peaceman-Rachford para solução da equação do calor não
homogênea
ut = uxx + uyy + F (x, y, t)
toma a forma:
σx 2 n+ 1 σy 2 n k n
1− δ U 2 = 1+ δ U + F
2 x 2 y 2
σy 2 n+1 σx 2 n+ 1 k
1− δ U = 1+ δ U 2 + F n+1 .
2 y 2 x 2
112 CAPÍTULO 3. EQUAÇÕES PARABÓLICAS
Capı́tulo 4
Equações Elı́pticas
4.1 Introdução
Problemas de equilı́brio em duas ou três dimensões geralmente dão origem à equações
elı́pticas. Exemplos tı́picos dessa classe são problemas de difusão e de pressão, problemas
em elasticidade, problemas de camada limite, problemas de vibração de membranas, etc.
Mais simplificadamente, os problemas elı́pticos caracterizam-se pela propagação de suas
propriedades fı́sicas em todas as direções coordenadas indistintamente, ao contrário das
equações parabólicas e hiperbólicas onde essas propriedades propagam-se em direções pref-
erenciais. Daı́ porque as condições de fronteira de um problema elı́ptico são normalmente
especificadas ao longo de toda a fronteira.
Seja R uma região limitada do plano com fronteira ∂R. A equação
113
114 CAPÍTULO 4. EQUAÇÕES ELÍPTICAS
passa como se na verdade estivessemos resolvendo um outro problema cujos dados iniciais
sofreram uma pequena perturbação. Se o problema não se comporta bem com relação à
pequenas perturbações nesses dados, a solução numérica obtida será desastrosa.
Vimos então a necessidade de que à equação (4.1) seja adicionada condições de fron-
teira e que essas condições de fronteira devem ser escolhidas de maneira a resultar em um
problema bem posto. Felizmente, a maioria dos problemas que reclamam um tratamento
numérico provêm de aplicações práticas e essas mesmas aplicações determinam as condições
de fronteira, formando problemas bem postos.
Três tipos de problemas distintos envolvendo a equação (4.1) podem ser destacados
dependendo das condições de fronteira:
• (i) o problema de Dirichlet, requer que a solução u de (4.1) seja conhecida sobre a
fronteira ∂R, isto é,
u(x, y) = f (x, y), (x, y) ∈ ∂R.
∂u
• (ii) quando ∂n é conhecida sobre ∂R, ou seja,
∂u
= g(x, y), (x, y) ∈ ∂R,
∂n
onde n é a normal externa à fronteira ∂R, o problema de valor de fronteira é conhecido
como problema de Neumann.
• (iii) o problema de Robbins ou misto, surge quando conhecemos
∂u
α(x, y)u + β(x, y) = γ(x, y) sobre ∂R,
∂n
onde α(x, y) > 0, β(x, y) > 0, (x, y) ∈ ∂R.
Quando em (4.1) tomamos a = c ≡ 1 e b = d ≡ 0 obtemos o protótipo de equação
elı́ptica mais conhecido que é a famosa equação de Laplace
u = g(x, y) (4.4)
sobre a fronteira, ∂R desse retângulo.
Primeiramente, para que possamos aproximar uxx e uyy por diferenças finitas cobrimos
a região R com uma malha. Escolhemos a opção mais óbvia que consiste em traçar linhas
paralelas aos eixos coordenados, conforme ilustrado na figura 4.1. Os pontos dessa malha
serão denotados por (xi , yj ), xi = ih, yj = jk, i = 0, 1, · · · M, j = 0, 1, · · · N , onde h repre-
senta o espaçamento na direção x e k na direção y. Denotamos por Rδ os pontos da malha
interiores a R, isto é,
Rδ = {(xi , yj ), 0 < i < M, 0 < j < N }
e por ∂Rδ os pontos da malha que estão sobre a fronteira, ou seja,
∂Rδ = {(xi , yj ), (i = 0, M, 0 ≤ j ≤ N ) e (0 ≤ i ≤ M, j = 0, N )}
b =y N h
y1
y0
x0 x1 x M= a x
Note que a expressão (4.6) não representa uma equação porque o segundo membro é somente
uma aproximação para o primeiro e portanto não temos uma igualdade. Isto decorreu de
termos substituı́do uxx (xi , yj ) e uyy (xi , yj ) por suas respectivas aproximações. Podemos
transformar (4.6) numa equação, simplesmente trocando o sinal ≃ pelo de igualdade. Se
assim procedermos, no entanto, não poderemos mais garantir que os valores numéricos
presentes no lado esquerdo de (4.6) coincidam com os valores da solução de (4.3) nos mesmos
pontos.
Seguindo a notação utilizada na literatura denotaremos por ui,j o valor da solução no
ponto (xi , yj ) e por Ui,j a solução da equação de diferenças:
Ui+1,j − 2Ui,j + Ui−1,j Ui,j+1 − 2Ui,j + Ui,j−1
− + = fi,j . (4.7)
h2 k2
A equação (4.7) deverá ser aplicada para todos os pontos em Rδ . Para os pontos em ∂Rδ
calculamos Ui,j diretamente da condição de fronteira de Dirichlet
Nossa esperança quando escrevemos a equação (4.7) é que Ui,j seja uma aproximação
para u(xi , yj ), isto é, Ui,j ≃ u(xi , yj ). Demonstraremos mais adiante que, de fato, isto é
verdadeiro. Provaremos mais ainda que Ui,j “converge” para u(xi , yj ) quando a malha é
refinada. Para simplificar a notação para a equação de diferenças definimos o operador:
Ui+1,j − 2Ui,j + Ui−1,j Ui,j+1 − 2Ui,j + Ui,j−1
−∆δ Ui,j = − + .
h2 k2
Com essa notação as equações discretas (4.7)-(4.8) podem ser reescritas na forma:
a b c
..
b
a b . 0
.. .. .. ..
. . . 0 .
.. .. ..
. . .
c
A= .. .. ..
(4.11)
. . .
.. .. ..
c . . .
.. .. .. ..
. . . .
0
..
0 . b a b
c b a
g(x0 , y1 ) g(x1 , y0 )
f (x1 , y1 ) + +
h2 k2
g(x2 , y0 )
f (x2 , y1 ) +
k2
r=
..
.
g(xN , y1 ) g(xN −1 , y0 )
f (xN −1 , y1 ) + +
h2 k2
Na matriz A, os números a, b e c são os coeficientes da discretização de 5 pontos e são dados
por:
2 2 1
a = 2 + 2, c = − 2,
h k k
sendo que o valor de b não é constante na matriz toda: em algumas posições esse valor é
nulo. Essas posições correspondem àqueles pontos situados sobre a fronteira que são dados
pelas posições da matriz A (p ∗ (M − 1), p ∗ (M − 1) + 1) e (p ∗ (M − 1) + 1, p ∗ (M − 1))
com p = 1, 2, . . .. Nas demais posições o valor de b é b = − h12 .
Talvez essas idéias fiquem mais claras se considerarmos um exemplo.
Exemplo 4.2.1 Consideremos a equação de Poisson com condições de fronteira de Dirich-
let no domı́nio 0 < x < 1 e 0 < y < 1 discretizada na malha mostrada na figura 4.2.
Existem 4 pontos internos: P1,1 , P1,2 , P2,1 , P2,2 , (Pi,j = (xi , yj )). Nesse caso N = M = 3.
As condições de fronteira para o problema de Dirichlet são dadas como:
Observe que estamos utilizando h = k e portanto a equação (4.7) pode ser reescrita como:
y
3
2
h=1/3
1
j=0 h
i=0 1 2 3 x
1
Figura 4.2: Malha de discretização com h = 3
1
4U1,2 − U2,2 − U0,2 − U1,3 − U1,1 = f1,2 (4.13)
9
1
4U2,1 − U3,1 − U1,1 − U2,2 − U2,0 = f2,1
9
1
4U2,2 − U3,2 − U1,2 − U2,3 − U2,1 = f2,2 .
9
Todos os valores de Ui,j para i = 0 ou i = 3, e qualquer j, e j = 0 ou j = 3 e qualquer i,
são conhecidos. Substituindo esses valores nas equações (4.13) acima podemos reescrevê-las
na forma matricial como:
4 −1 −1 0 U1,1 f1,1 /9
−1 4 0 −1 U1,2 f1,2 /9
−1 = .
0 4 −1 U2,1 1 + f2,1 /9
0 −1 −1 4 U2,2 1 + f2,2 /9
Lema 4.1 Se a solução u(x, y) é diferenciável até ordem 4 com derivada limitada, então o
erro de truncamento local definido por (4.14) satisfaz:
|τi,j | ≤ c1 h2 + c2 k 2
onde c1 e c2 são constantes independentes de h e k.
Prova: Da definição do operador ∆δ temos o seguinte:
u(xi + h, yj ) − 2u(xi , yj ) + u(xi − h, yj )
τi,j = −
h2
(4.15)
u(xi , yj + k) − 2u(xi , yj ) + u(xi , yj − k)
+ − f (xi , yj ).
k2
Expandindo os termos u(xi + h, yj ), u(xi − h, yj ), u(xi , yj + k) e u(xi , yj − k) em série de
Taylor em torno do ponto (xi , yj ) obtemos:
h2 h3 h4
u(xi + h, yj ) = u(xi , yj ) + hux (xi , yj ) + uxx (xi , yj ) + uxxx(xi , yj ) + uxxxx(ξ1 , yj )
2! 3! 4!
h2 h3 h4
u(xi − h, yj ) = u(xi , yj ) − hux (xi , yj ) + uxx (xi , yj ) − uxxx(xi , yj ) + uxxxx(ξ2 , yj )
2! 3! 4!
k2 k3 k4
u(xi , yj + k) = u(xi , yj ) + kuy (xi , yj ) + uyy (xi , yj ) + uyyy (xi , yj ) + uyyyy (xi , η1 )
2! 3! 4!
k2 k3 k4
u(xi , yj − k) = u(xi , yj ) − kuy (xi , yj ) + uyy (xi , yj ) − uyyy (xi , yj ) + uyyyy (xi , η2 )
2! 3! 4!
onde ξ1 , ξ2 , η1 e η2 são pontos arbitrários com ξ1 ∈ (xi , xi + h),
ξ2 ∈ (xi − h, xi ), η1 ∈ (yj , yj + k), η2 ∈ (yj − k, yj ).
Substituindo essas expansões em (4.15) e simplificando os termos semelhantes obtemos:
h2 h2
τi,j = − uxx (xi , yj ) + uxxxx (ξ1 , yj ) + uxxxx(ξ2 , yj )
4! 4!
k2 k2
+uyy (xi , yj ) + uyyyy (xi , η1 ) + uyyyy (xi , η2 ) − f (xi , yj ) . (4.16)
4! 4!
Da hipótese de que as derivadas uxxxx e uyyyy existem e são limitadas segue que os números
P = max |uxxxx (x, y)| e Q = max |uyyyy (x, y)| estão bem definidos. Assim tomando o
módulo e em seguida o máximo da expressão (4.16) obtemos, considerando que uxx +uyy = f ,
P 2 Q 2
|τi,j | ≤ h + k . (4.17)
12 12
2
Observe que nesse caso o erro de truncamento local decresce ao refinarmos a malha, isto
é, ao fazermos h e k menores. Na verdade o lema 4.1 nos diz mais do que simplesmente que o
erro diminui, ele nos dá a velocidade de convergência desse erro, que nesse caso é quadrática.
No entanto, isto não implica necessariamente que o erro global também está decrescendo.
120 CAPÍTULO 4. EQUAÇÕES ELÍPTICAS
Prova: Provaremos a parte (a) por contradição. Suponhamos que em algum ponto P0 ≡
(xr , ys ) de Rδ temos V (P0 ) = M0 , onde M0 ≥ V (P ), ∀P ∈ Rδ e M0 > V (P ), ∀P ∈ ∂Rδ .
Sejam
P1 = (xr + h, ys ),
P2 = (xr − h, ys ),
P3 = (xr , ys + k) e
P4 = (xr , ys − k).
Então, usando, (4.7) podemos escrever
V (P1 ) + V (P2 ) V (P3 ) + V (P4 ) 1 1
∆δ V (P0 ) ≡ + −2 + 2 V (P0 ).
h2 k2 h2 k
Mas, por hipótese, temos ∆δ V (P0 ) ≥ 0, de modo que
1 1 V (P1 ) + V (P2 ) 1 V (P3 ) + V (P4 )
M0 = V (P0 ) ≤ + 2 . (4.19)
1/h2 + 1/k 2 h2 2 k 2
Como M0 ≥ V (Q), ∀Q ∈ Rδ ∪ ∂Rδ , implica que V (Pν ) = M0 para ν = 1, 2, 3, 4, pois
se V (Pν ) < M0 para algum ν = 1, 2, 3, 4 então (4.19) implica o seguinte:
1 1 M0 + M0 1 M0 + M0
M0 = V (P0 ) < + 2 = M0
1/h2 + 1/k 2 h2 2 k 2
4.3. ERRO DE TRUNCAMENTO LOCAL 121
o que leva a uma contradição pois M0 não pode ser estritamente menor do que ele mesmo.
Lembre-se que estamos supondo que M0 é o máximo de V em todo o domı́nio e portanto
V (Q) ≤ M0 ∀Q.
Agora, repetimos esse argumento para cada um dos pontos interiores Pν no lugar de
P0 . Por repetição, cada ponto de Rδ e ∂Rδ aparece como um dos pontos Pν para algum
correspondente P0 . Assim, concluı́mos que
o que contradiz a hipótese que V < M0 em ∂Rδ . Daı́, a parte (a) do teorema segue.1
Para provar a parte (b), podemos repetir o argumento acima. Entretanto, é mais simples
recordar que
∆δ (−V ) = −∆δ (V ).
Portanto, se V satisfaz a hipótese da parte (b), então −V satisfaz a hipótese da parte
(a). Mas a conclusão da parte (a) para −V é a mesma da parte (b) para V . 2
Aplicando adequadamente o princı́pio do máximo podemos obter um limitante para a
solução da equação de diferenças (4.7). O resultado, chamado estimativa a priori, pode ser
dado por:
Teorema 4.2 Seja V (x, y) qualquer função discreta definida sobre os conjuntos Rδ e ∂Rδ .
Então,
a2
max |V (x, y)| ≤ max |V (x, y)| + max |∆δ V (x, y)| (4.20)
(x,y)∈Rδ (x,y)∈∂Rδ 2 (x,y)∈Rδ
a2
0 ≤ φ(x, y) ≤ e ∆δ φ(x, y) = 1.
2
Agora, sejam V+ (x, y) e V− (x, y) dadas por
onde
N0 ≡ max |∆δ V (x, y)|.
(x,y)∈Rδ
1 Na verdade provamos mais que isso. Provamos que se o máximo, no caso (a) ou o mı́nimo, no caso (b),
de V (x, y) ocorre em Rδ , então V (x, y) é constante em Rδ e ∂Rδ .
122 CAPÍTULO 4. EQUAÇÕES ELÍPTICAS
Assim, podemos aplicar o princı́pio do máximo, parte (a) do Teorema 4.1, a cada V± (x, y)
e obtemos, para todo (x, y) ∈ Rδ ,
a2
max [±V (x, y) + N0 φ] ≤ max [±V (x, y)] + N0 .
(x,y)∈∂Rδ (x,y)∈∂Rδ 2
Mas, da definição de V± e do fato que φ ≥ 0, obtemos:
Portanto,
a2 a2
±V (x, y) ≤ max [±V (x, y)] + N0 ≤ max |V (x, y)| + N0 .
(x,y)∈∂Rδ 2 (x,y)∈∂Rδ 2
a2 b2
Observação 4.3.2 Note que podemos substituir 2 em (4.20) por 2 desde que usemos
2
y
ψ(x, y) = 2 no lugar de φ(x, y) na prova do teorema.
Para encontrar uma estimativa para o erro global, tomaremos no teorema 4.2,
V (x, y) = e(x, y) então segue que:
a2
±ei,j ≤ max |ei,j | + N0 .
∂Rδ 2
Mas como Ui,j = ui,j = gi,j na fronteira ∂Rδ temos que ei,j = 0 em ∂Rδ . Assim,
a2
±ei,j ≤ N0
2
ou seja,
a2 a2
|ei,j | ≤ N0 = max |∆δ ei,j |.
2 2 Rδ
Agora,
a2 a2
|ei,j | ≤ max |τi,j | ≤ (P h2 + Qk 2 ).
2 Rδ 24
Portanto o método numérico definido em (4.7) produz uma solução Ui,j que converge
pontualmente para a solução u(xi , yj ) quando h → 0 e k → 0, com xi = ih e yj = jk valores
fixos.
Corolário 4.1 Uma consequência do teorema 4.2 é que o sistema de equações lineares
AU = r definido pela matriz (4.11) tem uma única solução.
Prova: Provaremos que o sistema homogêneo correspondente a (4.7) tem somente a solução
trivial. Para isso consideremos o problema homogêneo:
−(uxx + uyy ) = 0 em R
com condição de fronteria homogênea u = 0 sobre a fronteira ∂R, cuja única solução é
obviamente a solução u ≡ 0. Discretizando esse problema, como fizemos para obter (4.7),
teremos um sistema linear homogêneo para as incógnitas Ui,j . Utilizando agora o teorema
4.2 com V (x, y) = Ui,j , obtemos:
Por outro lado como ∆δ Ui,j = 0, pois estamos assumindo que Ui,j é solução da equação de
diferenças, temos também , usando a parte (b) do teorema 4.1:
yN=b
O C L
y2
P Q
y1
S
y0
x0 x1 x2 xM=a x
Notemos que, ao contrário do caso de domı́nio retangular, neste caso os pontos onde
a condição de fronteira é conhecida não fazem parte da malha e portanto não podemos
utilizar a condição de fronteira para eliminá-los da equação (4.7). A primeira técnica que
apresentamos consiste em aproximar a fronteira do domı́nio por segmentos da malha como
ilustrado na figura 4.3 pela linha mais grossa. Completada essa aproximação passamos
a resolver o problema no novo domı́nio supondo que a condição de fronteira u(x, y) =
g(x, y) aplica-se agora sobre a nova fronteira. Como pode ser facilmente e diretamente
observado da figura 4.3, ao refinarmos a malha melhores aproximações da fronteira são
obtidas. Entretanto, esse não é o método mais preciso que podemos deduzir. Sua grande
vantagem está na simplicidade e facilidade de aplicação. Na prática, quando aproximamos
o domı́nio pelos lados das células e transportamos a condição de fronteira para essa nova
curva, (observe o ponto P na figura 4.3), estamos aproximando o valor de UO por aquele
de UP , ou seja, estamos interpolando u na célula por um polinômio constante de grau zero.
Como é sabido da teoria da aproximação [30], o erro em tal aproximação é de ordem h. Já
o erro de aproximação da equação diferencial por diferenças finitas, como foi mostrado em
(4.17), é de ordem h2 . Por essa razão foi comentado acima ser esse um método que não goza
de boa precisão.
O sistema linear resultante da aplicação dessa técnica é similar àquele obtido para o caso
de um domı́nio retangular tendo a forma AU = r, onde U representa o vetor das incógnitas,
a matriz A tem as mesmas caracterı́sticas daquela em (4.11), a menos do fato de que a
subdiagonal onde aparece a constante c deixa de ser uma diagonal e os valores aparecem em
zig-zag.
4.4. CONDIÇÕES DE FRONTEIRA EM DOMÍNIOS GERAIS 125
Exemplo 4.4.1 Considere como um exemplo, a equação de Poisson com condição de fron-
teira de Dirichlet para o domı́nio da figura 4.4. A discretização dessa equação por diferenças
y9 =b
22 23 24
17 18 19 20 21
11 12 13 14 15 16
6 7 8 9 10
2 3 4 5
y2
y1 1
y0
x0 x1 x2 x 8=a x
finitas de cinco pontos tomando como aproximação da fronteira irregular os lados da malha,
conforme ilustrado pela linha cheia na figura 4.4, produz um sistema linear 24 × 24 AU = r
onde:
U = (U1 , U2 , . . . , U24 )T
126 CAPÍTULO 4. EQUAÇÕES ELÍPTICAS
com Ui denotando uma aproximação para u(x, y) no ponto da figura 4.4 marcado com i.
a c
a b c
b a b c
c b a b c
b a c
a b c
c b a b c
c b a b c
c b a b c
c b a c
a b
c b a b c
A=
c b a b c
c b a b c
c b a b c
c b a c
c a b c
c b a b c
c b a b c
c b a b
c b a
c a b
c b a b
c b a
onde
2 2 1 1
a= + 2, b = − 2 e c=− 2
h2 k h k
O vetor r contém o valor da função f (x, y) avaliada nos pontos correspondentes à enu-
meração da figura 4.4 e também os valores da fronteira. Por exemplo a primeira coordenada
de r é:
g(x4 , y1 ) + g(x6 , y1 ) g(x5 , y0 )
r1 = f (x5 , y1 ) + +
h2 k2
que corresponde ao valor de f no ponto 1 adicionado aos valores da fronteira correspondentes
aos pontos à esquerda e à direita de 1 e também do ponto abaixo.
As demais coordenadas de r são calculadas de maneira similar e deixamos como exercı́cio.
(Ver exercı́cio (4.9)). )
A outra técnica consiste na utilização de um polinômio de primeiro grau na interpolação.
No caso da figura 4.3 utilizamos os pontos P e C para interpolação e avaliamos esse polinômio
no ponto O, na verdade uma extrapolação! Assim o valor de UO será expresso como função
dos valores de UP que é conhecido e de UC que não o é. Isto produz uma equação que
permite a eliminação de UO da equação de diferenças para UC .
Deduzimos a seguir as fórmulas para o caso especial do ponto C da figura 4.3. Na notação
da figura 4.3 temos
UO − 2UC + UL UN − 2UC + US
+ = fC . (4.21)
h2 k2
4.4. CONDIÇÕES DE FRONTEIRA EM DOMÍNIOS GERAIS 127
0 < θ1<1
0 < θ2 < 1
(1- θ 1) h hθ1
O P L
C
hθ 2
Q
(1- θ 1) h
S
Figura 4.5: Interpolação linear
Uma variação da técnica de interpolação acima descrita e que é muitas vezes preferida
na prática por tratar-se de interpolação propriamente dita e não extrapolação é a seguinte:
Aplica-se a equação de diferenças de 5 pontos somente para aqueles pontos da malha
interiores ao domı́nio e para os quais todos os 4 vizinhos estão no domı́nio. Para pontos
interiores ao domı́nio com algum vizinho fora dele, calculamos uma aproximação por in-
terpolação. Assim, para o ponto C da figura 4.3 calculamos uma primeira aproximação
para UC interpolando na direção x os pontos UP e UL em seguida calculamos uma segunda
aproximação para UC interpolando na direção y os pontos UQ e UN e finalmente adotamos
como aproximação definitiva para UC a média ponderada pelas distâncias dos dois valores
obtidos
Formalmente, calculamos o polinômio que interpola UP e UL dado por:
1
[(x − xP )UL − (x − xL )UP ] .
xL − xP
hθ1 UL + hUP θ1 U L + U P
UC1 = = .
h + hθ1 1 + θ1
u y ( x ,b)=f 3 ( x )
b
N
O C L
S a x
uy ( x , 0)=f 1 ( x )
figura 4.6. Como a equação de diferenças utiliza pontos para traz e para frente (também
para cima e para baixo) teremos que introduzir pontos fantasmas que estão fora do domı́nio
de cálculo, como aqueles formados pelas linhas tracejadas da figura 4.6. Utilizamos então as
condições de fronteira para eliminá-los. Assim, a equação de Poisson discretizada no ponto
C fica:
UO − 2UC + UL UN − 2UC + US
+ = fC . (4.23)
h2 k2
O ponto O é fantasma e deve ser eliminado. Descrevemos a seguir como eliminar esse
ponto. Procede-se de maneira similar na eliminação de pontos sobre as outras linhas trace-
jadas.
Com esse objetivo aproximamos a condição de fronteira ∂u(0,y)∂x = f4 (y) por diferenças
centrais no ponto C para obter:
UL − UO
f4 (yC ) =
2h
ou seja
UO = UL − 2hf4 (yC ). (4.24)
Portanto (4.23) transforma-se em:
δθ
ij
h i
Notemos que a equação acima tem a mesma forma da equação (4.7) a menos dos termos
resultantes da discretização da derivada de primeira ordem. No entanto esse termo irá
agrupar-se com aqueles provenientes das derivadas de segunda ordem e ao final teremos
o mesmo tipo de molécula de cálculo de 5 pontos tão bem conhecida. Os coeficientes da
discretização serão porém distintos daqueles que aparecem na discretização da equação de
Poisson em coordenadas cartesianas, como na equação (4.7).
ek = u(k) − A−1 v
= Gk u(k−1) + Mk v − A−1 v
= Gk u(k−1) + Mk v − Gk A−1 v − Mk v
= Gk (u(k−1) − A−1 v)
= Gk ek−1 .
e1 = G0 e0 ,
e2 = G2 G1 e0 ,
..
.
ek = Gk Gk−1 · · · G1 e0 .
Hk e0 = Gk Gk−1 · · · G1 e0 −→ 0, quando k −→ ∞.
A = L + D + S,
onde
0 0 ... 0
a21 0 ... 0
L=
... .. .. .
. . ..
an1 an2 ... 0
é uma matriz estritamente triangular inferior,
a11 0 ... 0
0 a22 ... 0
D=
... .. .. ..
. . .
0 0 . . . ann
134 CAPÍTULO 4. EQUAÇÕES ELÍPTICAS
Método de Jacobi
Este método, primeiro aplicado por Jacobi em 1844, é também chamado iteração por
passos totais ou método dos deslocamentos simultâneos. O método de Jacobi, devido a
sua simplicidade de implementação é muito utilizado como primeira tentativa de solução
por muitos usuários, principalmente iniciantes na arte. No entanto, a convergência desse
método pode ser excessivamente lenta comparada com outras técnicas mais elaboradas.
Neste texto, utilizaremos sempre o método de Jacobi para ilustrar os conceitos discutidos.
Seja:
A = L + D + S.
Para a aplicação do método de Jacobi é necessário que os elementos diagonais da matriz
D, os a′ii s, sejam não nulos (no caso do exemplo 4.2.1, aii = 4, i = 1, 2, ..., N ), de modo que
D é não singular. Portanto, D−1 existe e, pré-multiplicando (L + D + S)u = v por D−1
temos:
Método de Gauss-Seidel
Este método foi usado por Gauss em seus cálculos e independentemente descoberto
por Seidel em 1874. Esse esquema, também conhecido como método dos deslocamentos
sucessivos ou por passos simples, é baseado no uso imediato dos valores recentemente atual-
izados. Pode ser derivado da equação (4.31) substituindo-se os valores da iteração corrente,
já calculados, nessa mesma iteração, isto é,
i−1 N
(k) (k) (k−1)
X X
J J
ui = gij uj + gij uj + ti . (4.33)
j=1 j=i+1
(L + D)u(k) = −Su(k−1) + v.
Logo,
GS = −(L + D)−1 S.
A matriz −(L + D)−1 existe desde que o determinante de L + D seja não nulo e este é
o caso quando os elementos diagonais de A são não nulos.
Para ilustrar este conceito retornamos à equação (4.7) supondo que a enumeração sele-
cionada seja U1,1 , U1,2 , ..., U1,N , U2,1 , U2,2 , ... , isto é, de baixo para cima e da esquerda para
(k)
a direita como na figura 4.8. Assim, para calcular Ui,j os valores já calculados no k-ésimo
passo são usados em todos os pontos que estão sobre todas as linhas abaixo da j-ésima e
nos pontos da j-ésima linha com coordenadas menores que i, isto é, abaixo da linha sólida
L na figura 4.8.
136 CAPÍTULO 4. EQUAÇÕES ELÍPTICAS
(i,j)
3
L
2
j=0
i=0 1 2 3 4 5 6
Logo,
4.8 Convergência
Consideremos um método iterativo linear estacionário (como na seção 4.7)
u(k) = Gu(k−1) + r.
u = Gu + r.
Subtraindo membro a membro essas equações deduzimos que o erro na k-ésima iteração é
dado por
Consequentemente,
ek = Gk e0 . (4.40)
Portanto, a análise da convergência de um método iterativo está intimanente relacionada
com o comportamento de Gk quando k → ∞. Para estudar esse comportamento com um
pouco mais de detalhe, faremos a seguir uma rápida revisão de alguns conceitos de Álgebra
Linear (ver, por exemplo, Varga, [22] ).
Seja u um vetor com N componentes complexas e A = (aij ) uma matriz complexa N xN .
Sejam também u∗ e A∗ os respectivos transpostos conjugados de u e A. A norma euclidiana
de u é definida por
138 CAPÍTULO 4. EQUAÇÕES ELÍPTICAS
N
!1/2
X
∗ 1/2 2
||u|| = [u u] = |ui | (4.41)
i=1
Reescrevendo essa relação com k+1 no lugar de k e dividindo-se uma pela outra encontramos:
||ek+1 ||
λ(G) ≈ . (4.45)
||ek ||
4.8. CONVERGÊNCIA 139
||ek+1 ||
De forma que para valores grandes de k, ||ek || se aproxima de λ(G). Portanto, na média, o
||ek+1 ||
erro decresce de um fator λ(G) a cada passo de iteração. Na verdade, se ||ek || se aproxima
de λ(G), então, o número
GJ = −D−1 (L + S).
GJ = −D−1 (A − D) = I − D−1 A.
h2
GJ = I + (Ah ).
4
Como os autovalores de −Ah são dados por (4.52), os autovetores, λJpq , de GJ são
ph qh cos ph + cos qh
λJpq = 1 − sen 2
− sen 2
= , p, q = 1, 2, . . . , N − 1.
2 2 2
h2
λ(GJ ) = max |λJpq | = cos h ∼ 1 − , quando h → 0,
2
e a taxa de convergência é portanto
4.8. CONVERGÊNCIA 141
h2 h2
R(GJ ) = − log(cos h) ∼ − log(1 − )= + O(h4 ). (4.55)
2 2
2
Portanto, a taxa de convergência do método de Jacobi é aproximadamente h2 , que é bastante
lenta para valores pequenos de h.
A convergência do método de Gauss-Seidel aplicado à equação (4.48) é estudada de
maneira análoga. O autovalor dominante, nesse caso, é
que é duas vezes mais rápido do que o método de Jacobi. Se a matriz A tem uma propriedade
chamada propriedade 2 A ( [Ames 1992] páginas 168-170) é possı́vel mostrar que o método
SOR, cuja matriz de iteração é dada por,
(λw
pq + w − 1)
2
w
= w2 (λJpq )2 , (4.56)
λpq
λSpq = (λJpq )2 .
R(GS ) = 2R(GJ ),
Vários autores [37], [Ames 1992] e [31] estudam em detalhes a relação (4.56) na tentativa
de derivar um valor de w que minimize o raio espectral de Gw . E de fato esse estudo produz
o seguinte valor ótimo para o parâmetro w, no sentido de minimizar o raio espectral de Gw ,
ver [Ames 1992] páginas 171-173.
2 2
wotm = p = p (4.57)
1 + 1 − (λ(GJ ))2 1 + 1 − (λJ11 )2
2 2 1 − sen h
λ(Gw ) = wotm − 1 = p −1 = √ −1 = ≈ 1 − 2h.
1 + 1 − (λ(GJ ))2 2
1 + 1 − cos h 1 + sen h
R(Gwotm ) = log(λ(Gwotm )) ≈ 2h
Tabela 4.1
2
λ(GJ ) k wotm λ(Gwotm ) k
0.500 4 1.17 0.17 2
0.700 7 1.29 0.29 2
0.800 11 1.38 0.38 3
0.900 18 1.52 0.52 4
0.950 45 1.63 0.63 5
0.990 230 1.82 0.82 12
0.999 2300 1.94 0.94 37
número p varia com a coordenada m de y que está sendo calculada, de forma que p será
então uma função de m. Computacionalmente essa dependência é resolvida utilizando-se
endereçamento indireto, isto é, os ı́ndices m + p e m − p são armazenados em variáveis
indup(m) e inddown(m) que conterão as localizações das posições de U que devem entrar
na formação da coordenada m de y.
Começamos a dedução do método GC considerando como fariamos para minimizar o
funcional:
1
φ(x) = xT Ax − xT b
2
onde b é um vetor de n componentes, A uma matriz n × n simétrica e definida positiva.
Definição 4.1 Uma matrix A é definida positiva se para todo vetor x não nulo tem-se
xT Ax > 0.
A definição acima não é muito intuitiva, mas o leitor não deve desesperar-se pois esse
conceito ficará mais claro quando explicarmos como ele influencia o gráfico de uma forma
quadrática.
O cálculo dos pontos crı́ticos de φ, leva-nos à conclusão de que o único mı́nimo de φ
T −1
ocorre quando x = A−1 b, com valor do mı́nimo igual a −b 2A b . Dessa forma minimizar o
funcional φ e resolver o sistema linear Ax = b são problemas equivalentes. Para ilustrar o
que dissemos acima consideremos o seguinte sistema linear:
10x + 2y = 12
2x + 8y = 10
600
500
400
300
f(x,y)
200
100
−100
10
5 10
0 5
0
−5
−5
y −10 −10
x
1
φ(xp + αrp ) = (xp + αrp )T A(xp + αrp ) − (xp + αrp )T b.
2
Diferenciando essa expressão em relação a α e igualando a zero para encontrar os pontos
crı́ticos, encontramos o valor de α.
rTp rp
αcritico = . (4.60)
rTp Arp
Repetindo-se agora esse processo com o ponto xp + αcritico rp obtemos o seguinte algoritmo
(de máxima descida) para minimização do funcional φ, ou equivalentemente para a solução
do sistema Ax = b :
• k = 0, x0 = b, r0 = b − Ax0
• Enquanto rk 6= 0
• k =k+1
• αk = rTk−1 rk−1 /rTk−1 Ark−1
• xk = xk−1 + αk rk−1
• rk = b − Axk
146 CAPÍTULO 4. EQUAÇÕES ELÍPTICAS
• Fim Enquanto
Teorema 4.4 Se A é simétrica e definida positiva então o algoritmo acima produz uma
sequência xk satisfazendo:
1 λn (A) 1
φ(xk ) + bT A−1 b ≤ 1 − φ(xk−1 ) + bT A−1 b . (4.61)
2 λ1 (A) 2
A demonstração desse resultado pode ser encontrada em Luenberger [25] na página 218-
219. Uma interpretação geométrica do teorema 4.4 pode ser obtida observando-se a figura
4.10. O fato dos autovalores de A serem bastante separados implica que o eixo maior da
elipse é muito maior do que o eixo menor e assim o método faz um “zig-zag” ao longo do
vale tornando a convergência muito demorada.
x1 1
x*
x2
x0
Como pode ser observado de (4.61) se a razão λn (A)/λ1 (A) for pequena a taxa de
convergência desse algoritmo é sofrı́vel. Quando λn (A)/λ1 (A) é pequeno as curvas de nı́vel
da função φ são elipsoides muito alongados (figura 4.10) e devemos encontrar o mı́nimo que
está localizado num vale com paredes laterais muito ı́ngremes e com o fundo relativamente
plano. Nesse caso o método de máxima descida oscila de um lado pra outro nessas paredes
laterais ao invés de ir diretamente vale-abaixo. Essas oscilações é que fazem o processo de
convergência ser lento, pois pode ocorrer que um determinado passo seja tomado na mesma
direção de busca de um passo anterior. Seria mais razoável que uma vez escolhida uma
direção de busca tomássemos um passo que minimizasse a função naquela direção de uma
vez por todas, sem a necessidade de retornarmos a ela num passo posterior. Uma cura para
esse problema está na escolha de uma direção de descida diferente daquela da direção oposta
ao gradiente.
Suponha que tenhamos escolhido um conjunto de direções de busca ortogonais
p0 , p1 , · · · pn−1 . Em cada uma dessas direções nós faremos exatamente um passo de forma a
obtermos uma das coordenadas da solução x. Depois de n passos o processo deverá terminar
com a solução exata, uma vez que x tem somente n coordenadas. Em geral, para cada passo
escolhemos o ponto
xk+1 = xk + αk pk . (4.62)
4.9. MÉTODO DOS GRADIENTES CONJUGADOS 147
Para determinar o valor de αk usamos o fato de que ek+1 = x − xk+1 deve ser ortogonal a
pk , de forma que nunca mais precisaremos andar na direção de pk . Subtraindo x em ambos
os membros de (4.62) e fazendo o produto escalar com ek+1 encontramos:
pTk ek
αk = − .
pTk pk
A fórmula acima resolveria o problema não fosse o fato de que não conhecemos ek , pois
este depende da solução x. A alternativa é escolher as direções de busca p0 , p1 , · · · pn−1 de
forma que elas sejam A-ortogonais ou conjugadas ao invés de ortogonais, isto é:
Portanto
pTk Aek pT A(x − xk ) pT (b − Axk ) pT Ark
αk = − T
=− k T =− k T = − Tk . (4.63)
pk Apk pk Apk pk Apk pk Apk
Resta-nos agora especificar como as direções A–conjugadas devem ser escolhidas. Uma
maneira de gerar essas direções é o processo de Gram-Schmidt conjugado ( [Shewchuck 1994]
página 25). Nesse processo, dado um conjunto {u0 , u1 , · · · un−1 } de vetores linearmente
independentes um novo conjunto de direções A–conjugadas {p0 , p1 , · · · pn−1 } é gerado a
partir de combinações lineares dos vetores originais, isto é, escolhendo p0 = u0 , as demais
direções conjugadas podem ser geradas a partir da fórmula:
i−1
X
pi = ui + βi,k pk (4.64)
k=0
uT Ap
onde βi,k = − piT Apk estão definidos para i > k. Uma dificuldade na utilização da fórmula
k k
(4.64) está no fato de que todas as direções conjugadas calculadas préviamente precisam ser
148 CAPÍTULO 4. EQUAÇÕES ELÍPTICAS
O fato de que a maioria dos coeficientes βi,j se anulam significa que não é necessário o
armazenamento de um grande número de direções de busca anteriores para a construção
de uma nova e que o cálculo dessas direções envolve somente O(n) operações aritméticas.
Utilizando a notação simplificada βi = βi,i−1 e a expressão para αi podemos escrever:
rTi ri rTi ri
βi = T
= T
pi−1 ri−1 ri−1 ri−1
Juntando todas as fórmulas deduzidas nessa breve introdução, obtemos o algoritmo simpli-
ficado do método dos gradientes conjugados:
i. p0 = r0 = b − Ax0
rTi ri
ii. αi = pT Api
i
iii. xi+1 = xi + αi pi
iv. ri+1 = ri − αi Api
rT
i+1 ri+1
v. βi+1 = rT r
i i
A prova desse resultado pode ser encontrada em [25], pag. 248 ou [Shewchuck 1994], pag.
36. Uma implicação imediata do teorema 4.6 é que se os autovalores de A estão bastante
separados então a convergência do método CG pode ser bastante lenta, e será de apenas
uma iteração no caso em A tenha todos os autovalores iguais. De forma que a convergência
do método CG será tão mais rápida quanto mais agrupados estiverem os autovalores de A.
Considere uma matriz M simétrica e definida positiva e o sistema resultante da pré-
multiplicação do sistema Ax = b por M −1 , isto é o sistema M −1 Ax = M −1 b, que obvia-
mente tem a mesma solução que o sistema original. É possı́vel, com uma escolha cuidadosa
da matriz M fazer com que os autovalores de M −1 A estejam mais agrupados do que os
de A, de forma que o método CG aplicado ao sistema M −1 Ax = M −1 b convergirá mais
rapidamente do que quando aplicado ao sistema original Ax = b. A matriz M deve ser es-
colhida de forma que M −1 seja uma boa aproximação para A−1 . Esse processo é conhecido
na literatura como pré-condicionamento, e é muito utilizado para acelerar a convergência do
método CG. Resta agora a escolha de uma matriz M que tenha a propriedade de agrupar
os autovalores de A. Muitas são as escolhas possı́veis mas esta análise está além das pre-
tensões deste livro, de forma que referimos ao livro [26] ou ao trabalho [Shewchuck 1994]
para maiores detalhes.
4.10 Exercı́cios
∂2u ∂2u
+ 2 = −2
∂x2 ∂y
definido no quadrado [−1, 1] × [−1, 1] com condição de Dirichlet nula na fronteira. Utilize
h = 0.2. Compare seu resultado com a solução exata:
∞
32 X (−1)n
2 (2n + 1)π (2n + 1)πx (2n + 1)πy
u(x, y) = 1−y − 3 sech cosh cos .
π n=0 (2n + 1)3 2 2 2
∂2u ∂2u
+ 2 − 10u = 0
∂x2 ∂y
Obter a discretização desse problema em coordenadas polares com δr = 0.1, δθ = π/10. Usar
MATLAB para resolver o sistema linear resultante.
4.4 Como já mencionado várias vezes, a fórmula de 5 pontos é de ordem O(h2 ). Se
porventura necessitarmos de uma fórmula mais precisa para discretizar a equação de Laplace,
devemos utilizar mais pontos. Mostre que uma fórmula de ordem O(h4 ) pode ser obtida
utilizando-se os pontos da molécula da figura 4.11 e é dada por:
1
U0 = (−U7 + 16U3 + 16U1 − U5 − U6 + 16U2 + 16U4 − U8 ) .
60
2
7 3 0 1 5
8
Figura 4.11: Molécula de cálculo para a fórmula de O(h4 )
No entanto essa fórmula não pode ser aplicada para pontos próximos à fronteira, pois
ela utiliza dois pontos em cada direção. Poder-se-ia utilizar a molécula de cálculo da figura
4.12 para deduzir o esquema numérico (4.65), que também é de ordem O(h4 ).
4.10. EXERCÍCIOS 151
6 2 5
3 0 1
7 4 8
Figura 4.12: Molécula de cálculo para a fórmula de O(h4 ) utilizando um ponto em
cada direção
1
U0 = (4(U1 + U2 + U3 + U4 ) + U5 + U6 + U7 + U8 ) . (4.65)
20
Mostre que no caso da equação de Poisson o esquema (4.65) transforma-se em:
h2
4 (U1 + U2 + U3 + U4 ) + U5 + U6 + U7 + U8 − 20U0 = − (8f0 + f1 + f2 + f3 + f4 ) .
2
Calcule o ETL em todos os casos.
4.5 Considere a numeração como na figura 4.13
y
5 20 10 24 13
16 6 21 11 25
2 17 7 22 12
14 3 18 8 23
1 15 4 19 9 x
Figura 4.13: Numeração “red–black” diagonal
Obtenha a matriz do sistema linear resultante. Generalize esse resultado para uma malha
com N pontos na direção x e M pontos na direção y.
152 CAPÍTULO 4. EQUAÇÕES ELÍPTICAS
y
11 24 12 25 13
21 9 22 10 23
6 19 7 20 8
16 4 17 5 18
1 14 2 15 3 x
Figura 4.14: Numeração “red–black” horizontal
com condição de Dirichlet sobre a fronteira de um retângulo. Mostre que a matriz resultante
da discretização de 5 pontos é simétrica.
y
10
6 2 5
11 3 0 1 9
7 4 8
12
x
Figura 4.15: Molécula de cálculo para a equação biharmônica
α0 U0 + α1 U1 + α2 U2 + α3 U3 + α4 U4 = f0
2 2
α3 = ; α4 = ;
h3 (h1 + h3 ) h4 (h2 + h4 )
h2
3 h1
h3 0 1
h4
4
Figura 4.16: Molécula de cálculo para a dicretização de 5 pontos numa malha não
uniformemente espaçada
154 CAPÍTULO 4. EQUAÇÕES ELÍPTICAS
4.11 Utilizar a técnica derivada no exercı́cio anterior para aproximar a solução do problema
do exercı́cio (4.3) na malha da figura 4.17.
u=100
u=0
Figura 4.17: Malha para um domı́nio semi–circular
e lembrando que o determinante de uma matriz triangular é o produto dos seus elementos
diagonais, mostre que det(Gw ) = (1 − w)n , onde n é a dimensão do problema. Utilizando
agora que det(Gw ) = λ1 λ2 . . . λn onde λi é um autovalor de Gw , mostre que:
λ(Gw ) ≥ |1 − w|.
Conclua que o método SOR só pode ser útil na prática se 0 < w < 2.
4.14 Mostre que (4.52) é um autovalor da matriz Ah definida em (4.49) com autovetor
dado por (4.51).
Sugestão: Discretizando o problema:
uxx + uyy = αu
definido no retângulo [0, a] × [0, b] com condição de fronteira de Dirichlet nula na fronteira,
por diferenças finitas de 5 pontos obtemos o problema:
com condições de fronteira U0,j = UN,j = Ui,0 = Ui,M = 0, cuja solução pode ser obtida por
separação de variáveis e é dada por:
4.16 Mostre que o método de Jacobi não é convergente para qualquer valor de a que faz a
matriz abaixo definida positiva.
√
2
1 2 a
√ √
A = 22 1 2
2
.
√
2
a 2 1
4.17 Utilizar MATLAB para desenhar o gráfico de λ(Gw ) como função de w no intervalo
[1, 2] para o caso em que (λJ11 )2 = 0.95.
Sugestão: Para cada valor de w resolver a equação (4.56) plotando o maior módulo das
raı́zes.
4.18 Demonstre o teorema (4.5). Sugestão: Consulte [Shewchuck 1994] páginas 24-25.
4.19 Mostre que os números βi,k definidos em (4.64) satisfazem:
rT
(
i ri
αi−1 pT
, i = j + 1,
βi,j = i−1
Api−1
0, i > j + 1.
4.21 Mostre que o número k de iterações necessário para reduzir a norma do erro de um
valor ǫ, isto é, ||ek || < ǫ||e0 || satisfaz:
1p 2
k≤ κ(A) ln .
2 ǫ
4.23 Aplicando o teorema 4.6 para a matriz Ah definida em (4.49) calcule a velocidade de
convergência do método GC em função do parâmetro h.
Capı́tulo 5
Equações Hiperbólicas
5.1 Introdução
Ao contrário das equações parabólicas, onde, em geral, a solução é mais suave do que os
dados do problema, nas equações hiperbólicas, as descontinuidades são transportadas sem
suavização, podendo haver também a formação de singularidades (choques) mesmo no caso
de dados iniciais bem comportados.
Os modelos mais simples para o estudo das equações hiperbólicas são a equação de
advecção ut + aux = 0, a equação escalar conservativa ut + (f (u))x = 0 e a equação da onda
utt − a2 uxx = 0.
Nesta introdução vamos abordar alguns aspectos analı́ticos desse tipo de equação, que
causam dificuldades significativas no seu tratamento numérico. O problema de valor inicial,
ou problema de Cauchy, para tais equações consiste em encontrar uma função u(x, t) no semi
plano D = {(x, t)/t ≥ 0, −∞ < x < ∞}, que satisfaça a equação, juntamente com a condição
inicial. Em geral, a solução no sentido clássico é contı́nua e suficientemente diferenciável, mas
isto nem sempre acontece. Torna-se imprescindı́vel que o espaço de soluções seja ampliado
para que, por exemplo, soluções clássicas por partes sejam possı́veis; dizemos que essas
soluções existem no sentido fraco ou são soluções fracas. Um tratamento analı́tico, nesse
caso, envolve soluções no sentido de distribuições, que está além do escopo deste livro.
Para o leitor interessado em maiores detalhes sobre o tópico de soluções no sentido de
distribuições, recomendamos a leitura de [Cryer 1983], [Debnath 1990] ou [Taylor 1996].
Vamos inicialmente tentar entender detalhadamente vários aspectos da equação escalar de
advecção para em seguida analisar a equação da onda e também sistemas de equações.
ut + aux = 0, em D
(5.1)
u(x, 0) = u0 (x), ∀x.
157
158 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
Solução Clássica
A dedução da solução para a equação (5.1) pode ser estabelecida, considerando uma
transformação linear x = x(s) e t = t(s). Portanto u(x, t) = u(x(s), t(s)). A transformação
mais simples que podemos tentar é: x(s) = x + c1 s e t(s) = t + c2 s, onde c1 e c2 são
constantes a serem determinadas. Diferenciando u(x(s), t(s)) com relação ao parâmetro s
obtemos:
du dt dx
= ut + ux .
ds ds ds
dx dt
Esta expressão transforma-se na equação (5.1) quando =ae = 1, ou seja, c1 = a e
ds ds
c2 = 1 e portanto x(s) = x + as e t(s) = t + s. Além disso
du
= ut + aux .
ds
dx
=a (5.2)
dt
que define as caracterı́sticas da equação (5.1).
ut + tux = 3 (5.3)
onde a condição inicial é dada sobre o eixo x. As caracterı́sticas de (5.3) são as soluções
da equação diferencial ordinária:
dx
= t,
dt
que são dadas pela famı́lia de curvas (parábolas)
t2
x= +A
2
onde o parâmetro A é uma constante possivelmente distinta para cada caracterı́stica. Para
a caracterı́stica passando por (x0 , 0) temos A = x0 e portanto a curva é definida por t2 =
2(x − x0 ).
5.1. INTRODUÇÃO 159
u=3t+u0 (x0 )
x0 x
30
25
20
U(x,t)
15
10
0
6
5
30
4 25
3 20
2 15
10
1 5
0 0
t
x
Características da Equação
7
4
t
0
0 5 10 15 20 25 30
x
Perfil da Solução
25
20
15
U
10
0
0 5 10 15 20 25 30
x
du(x(t), t) dx
= ut + ux = ut + aux = 0.
dt dt
Essas curvas são as caracterı́sticas, uma vez que dx dt = a.
Note que se a é constante, então as caracterı́sticas são retas paralelas; se a depende
apenas de u, isto é, a = a(u), as caracterı́sticas ainda serão retas, mas não necessariamente
paralelas, podendo interceptar-se umas às outras. Mesmo no caso mais simples da equação
(5.1), onde u é uma constante, possivelmente distinta, ao longo de cada curva caracterı́stica,
na interseção de duas dessas curvas o valor de u não estará unicamente definido, ou seja
teremos nesse ponto uma singularidade. Por outro lado, se a não depende de u mas de
x e/ou t, as caracterı́sticas não mais serão retas, mas não haverá cruzamentos se a(x, t) é
t-Lipschitz. No caso mais geral, a = a(x, t, u) as caracterı́sticas não serão retas e novamente
é possı́vel ocorrer singularidades. A figura 5.4 ilustra esses casos.
t t
a>0 x a=a(x,t)=t x
t t
a=a(u) x a=a(u) x
Observação 5.1.1 Como vimos, uma equação hiperbólica não está completamente estab-
elecida sem as condições iniciais. As caracterı́sticas “transportam” a informação inicial
162 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
Q
T
P
Γ
Figura 5.5: Ilustração de uma curva inicial tangente às curvas caracterı́sticas
dada sobre a curva Γ(x(s), t(s)) domı́nio adentro construindo a solução. No caso de Γ ser
ela mesma uma caracterı́stica, a equação faz com que um valor u(s) seja transportado ao
longo de Γ. Portanto, os valores iniciais sobre Γ devem ser compatı́veis com a equação, e
nesse caso o domı́nio de existência da solução é formado apenas pela curva inicial.
Observação 5.1.2 Mesmo no caso de Γ ser suave, algum cuidado é necessário pois po-
dem ocorrer incompatibilidades. Por exemplo, na figura 5.5, o valor inicial em Q deve ser
compatı́vel com aquele transportado a partir de P. Esse problema ocorre porque a curva Γ
tornou-se tangente às caracterı́sticas no ponto T . A partir do ponto de tangência a curva Γ
deveria ser considerada uma curva de fronteira e não uma curva inicial. Sem muito rigor,
uma curva inicial é aquela da qual partem as curvas caracterı́sticas, enquanto uma curva de
fronteira é aquela para a qual as caracterı́sticas afluem.
ut + aux + bu = d
Observação 5.1.4 Nem sempre duas equações com o mesmo conjunto de caracterı́sticas
têm a mesma solução, pois se prescrevermos valores iniciais distintos a cada uma delas, o
valor transportado ao longo de cada caracterı́stica será distinto.
Observação 5.1.5 Na prática, existe sempre uma restrição no domı́nio, de maneira que,
além de se especificar valores iniciais sobre Γ, também são estabelecidos dados de fronteira
sobre uma curva Ω. Em alguns casos a fronteira Ω desempenha um papel semelhante àquele
da curva de condição inicial Γ (caso (a) da figura 5.6, onde as curvas caracterı́sticas partem
da curva Ω), em outros é preciso compatibilidade (caso (b) da figura 5.6 onde as curvas
caracterı́sticas chegam na curva Ω trazendo informações da condição inicial).
É possı́vel também a formação de singularidades, dependendo dos valores especificados
na fronteira; casos (a) e (b) da figura 5.7.
5.1. INTRODUÇÃO 163
t t
Ω
Ω
Γ (a) x Γ (b) x
t t Ω
Ω
Γ (a) x Γ x
(b)
ut + ux = 1
u(0, t) = 0
(5.4)
0, 0≤x<3
u(x, 0) =
x − 3, x ≥ 3.
As caracterı́sticas são retas paralelas dx = dt, ou seja x = t + A como no caso (a) da figura
5.6. Então t = x + x0 e t = x + t0 são as caracterı́sticas passando pelos pontos (x0 , 0)
e (0, t0 ) respectivamente. A solução ao longo de cada caracterı́stica partindo do eixo x é
u = t + B1 e do eixo t é u = x + B2 . Assim, utilizando as condições iniciais, (verifique)
u = x sobre as caracterı́sticas partindo do eixo t; u = t sobre as caracterı́sticas partindo do
intervalo 0 ≤ x < 3 e u = x − 3 sobre as caracterı́sticas partindo do eixo x, com x ≥ 3.
Na expressão da solução ao longo das caracterı́sticas, podemos substituir os valores de x e t
para obter a solução geral u(x, t).
Temos então, considerando a condição inicial para t = 0,
t, t≤x<3+t
u(x, t) = ,
x − 3, x ≥ 3 + t
164 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
16
14
12
10
15
15
10
10
5 5
0 0
t
x
18
16
14
12
10
15
15
10
10
5 5
0 0
t
x
R
Q
P x
but + aux = r.
Supondo, como já feito anteriormente, que x, t e u são funções de um parâmetro s e difer-
enciando a equação acima com relação a esse parâmetro obtemos:
du dt dx
= ut + ux .
ds ds ds
Assim, uma escolha natural para a parametrização é aquela que satisfaz:
dx dt du
= a, = b, = r,
ds ds ds
que definem as equações caracterı́sticas para a equação original. Claramente foi consider-
ada a regularidade da solução; no caso de descontinuidades um tratamento especial se faz
166 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
necessário para utilizar-se o método das caracterı́sticas. É portanto possı́vel obter aprox-
imações da solução ao longo das caracterı́sticas usando o devido deslocamento (vide figura
5.10) fazendo:
xQ − xP tQ − tP uQ − uP
= aP , = bP , = rP . (5.5)
δs δs δs
Então, fixando tQ = tP + k, podemos eliminar δs para obter:
aP rP
xQ = xP + (tQ − tP ) = xP + σaP , uQ = uP + (tQ − tP ) = up + σrP ,
bP bP
onde
tQ − tP k
σ= = .
bP bP
Note que as aproximações em (5.5) foram deduzidas pela discretização das equações
originais pelo método de Euler. Um melhor resultado, especialmente quando a, b ou r são
funções de (x, t, u), poderia ser obtido utilizando-se a regra dos trapézios que resulta em:
xQ − xP 1 tQ − tP 1 uQ − uP 1
= (aP + aQ ), = (bP + bQ ), = (rP + rQ ). (5.6)
δs 2 δs 2 δs 2
As equações (5.5) e (5.6) podem então ser utilizadas como um par previsor-corretor, com
(5.5) atuando como o previsor e (5.6) atuando como o corretor. Podemos levar essa idéia
um passo adiante e construir um método iterativo conforme o que segue.
Calculamos uma primeira aproximação de
(0) (0) (0)
xQ − xP tQ − tP uQ − uP
= aP , = bP , = rP
δs δs δs
e para m = 0, 1, . . . corrigimos esse valor utilizando,
(m+1) (m+1) (m+1)
xQ − xP 1 (m) tQ − tP 1 (m) uQ − uP 1 (m)
= (aP +aQ ), = (bP +bQ ), = (rP +rQ ).
δs 2 δs 2 δs 2
Região de influência
x Q
Região de dependência
P
Γ
de influência) e, a solução em cada ponto Q do domı́nio só depende dos pontos sobre a
caracterı́stica que vai dele até a condição inicial (região de dependência). Veja figura 5.11.
Quando, há descontinuidades nos dados, elas serão transportadas sem suavização ao
longo das caracterı́sticas, sendo isto uma das principais propriedades das equações hiperbólicas
e que traz dificuldades adicionais do ponto de vista do tratamento numérico. As descon-
tinuidades ao longo das caracterı́sticas são denominadas descontinuidades de contato quando
referem-se a descontinuidades nos dados, isto é, a condição inicial é dada por uma função
contı́nua mas com derivada descontı́nua, por exemplo.
u u(x,t 1) u(x,t2)
x
x+at1 x+at2
Afim de melhor ilustrar os conceitos introduzidos nesta seção apresentamos alguns ex-
emplos gráficos. A figura 5.12 representa a evolução de uma onda no tempo com velocidade
a constante, sem deformação do perfil. Para este mesmo caso em que a é constante, os
gráficos da figura 5.13 ilustram a ação da equação hiperbólica sobre um perfil inicial através
das caracterı́sticas. Apresentamos na figura 5.13 as soluções para diferentes casos de condição
inicial.
Solução Fraca
Não havendo regularidade na solução, devido à propagação de descontinuidades, é preciso
entender a solução não no sentido global imposto pelas derivadas (solução clássica), mas em
um sentido local e mais fraco. Por exemplo, admitir-se-ia uma solução (solução fraca) que
por partes seja contı́nua e diferenciável. Quando soluções fracas são admitidas, o problema de
valor inicial pode apresentar uma multiplicidade de soluções (ver observação 5.1.7), sendo
168 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
t u0(x−at) t
a(t)=t u0(x−t2)
u0(x) u0(x)
s=x−at
x x
t u0(x−at) t u0(x−at)
u0(x) u0(x)
s=x−at s=x−at
x x
ut + uux =0
0, x≤0 (5.7)
u(x, 0) =
1, x > 0.
O valor da solução u(x, t) é constante ao longo de cada caracterı́stica, uma vez que,
du du(x(t), t)
= = ut + uux = 0.
dt dt
Desse fato e de (5.2) resulta que as caracterı́sticas são retas dadas por:
0, x≤0
(
uǫ (x, 0) = x/ǫ, 0<x≤ǫ
1, x > ǫ.
t u(x,t) t u(x,t)
uε (x,0) u(x,0)
ε x x
(a) (b)
0, x ≤ −ǫ
(
ǫ
u (x, 0) = (x + ǫ)/ǫ, −ǫ < x ≤ 0
1, x>0
o limite para ǫ → 0 produz a mesma solução ilustrada na figura 5.14-b. O ideal seria
trabalharmos com um intervalo de comprimento ǫ centrado na origem ou seja:
0, x ≤ ǫ/2
(
uǫ (x, 0) = (2x + ǫ)/(2ǫ), −ǫ/2 < x ≤ ǫ/2
1, x > ǫ/2.
170 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
0, x≤0
(
u(x, t) = x/t, 0<x≤t
1, x > t.
Observação 5.1.7 Os exercı́cios (5.6) e (5.7) mostram que soluções fracas não são únicas
e pode-se obter diferentes soluções dependendo do procedimento utilizado para encontrá-las.
Na situação oposta,
ut + uux =0
1, x≤0 (5.8)
u(x, 0) =
0, x>0
quando a condição inicial à direita da descontinuidade tem valor menor que à esquerda,
temos então a situação ilustrada na figura 5.15. Nesse caso para ǫ > 0 e condição inicial
uǫ (x, 0) como na figura 5.15(a), existe um tǫ onde as caracterı́sticas se interceptam dando
origem à formação de uma descontinuidade ou choque.
t t
choque choque
uε (x,0) u(x,0)
tε
ε x x
(a) (b)
A figura 5.16 detalha a solução em perfis para diversos valores de t enfatizando a formação
do choque em t = tǫ .
O problema agora é determinar como e em que direção o choque se propaga. No caso
do modelo simples que estamos considerando, esse problema pode ser abordado da seguinte
maneira.
A solução clássica do problema (5.8), com condição inicial uǫ (x, 0), existe somente para
t < tǫ . No ponto t = tǫ a solução tem uma descontinuidade do mesmo tipo que a condição
inicial original, situada na posição x = ǫ, e portanto podemos considerar o mesmo problema
com a mesma condição inicial transladada para o ponto (ǫ, tǫ ), isto é o problema:
ut + uux =0
1, x≤ǫ (5.9)
u(x, tǫ ) =
0, x > ǫ.
5.1. INTRODUÇÃO 171
tε u(x, t ε)
u(x, t 3 )
u(x,t 2 )
u(x,0)
u(x,t 1 )
ε x
Regularizando a condição inicial do problema (5.9) obtemos uma nova solução clássica
que existe até t = 2tǫ . Analogamente, um novo problema poderia ser considerado com
condição inicial:
1, x ≤ 2ǫ
u(x, 2tǫ ) =
0, x > 2ǫ.
Esse processo poderia então ser repetido para 3tǫ , 4tǫ , · · ·, produzindo uma sequência de
problemas cujas soluções clássicas existem até t = 3tǫ , t = 4tǫ , etc. A figura 5.17 é uma
tentativa de ilustrar esse processo.
t
2t ε
tε u2ε(x,tε)
2ε
u1ε(x,0)
ε x
A discussão acima foi apresentada com o objetivo de ilustrar a composição dos efeitos
da não-linearidade da equação, com a descontinuidade da condição inicial, na formação do
choque. Observamos que, a primeira vista, parece que a contribuição da condição inicial
para a formação do choque vem somente dos valores à direita da descontinuidade. Note que
as caracterı́sticas emanando da condição inicial à esquerda da descontinuidade permanecem
172 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
paralelas em todo o domı́nio, enquanto que aquelas emanando da condição inicial à direita
da descontinuidade interceptam-se sobre a caracterı́stica passando pelo ponto de descon-
tinuidade.
O mesmo desenvolvimento pode ser feito considerando-se a condição inicial:
1, x ≤ −ǫ
(
uǫ (x, 0) = −x/ǫ, −ǫ < x ≤ 0
0, x>0
uε2 (x,tε)
tε
−ε
uε1 (x,0)
−ε x
Sugerimos que o leitor resolva o exercı́cio (5.8), para convencer-se de que a solução do
problema é de fato a apresentada na figura 5.18.
Se observarmos atentamente a figura 5.18, notamos que ela ilustra uma situação oposta
àquela da figura 5.17, no que diz respeito ao papel desempenhado pela condição inicial na
formação do choque. Agora são as caracterı́sticas à direita da descontinuidade que per-
manecem paralelas, enquanto aquelas à esquerda interceptam-se para formar o choque.
Na passagem ao limite com ǫ → 0, a figura 5.17 dá a ilusão de que o choque está
localizado sobre a caracterı́stica inclinada passando pela descontinuidade, enquanto que a
figura 5.18 sugere que este mesmo choque deveria estar localizado sobre a caracterı́stica
vertical passando pela mesma descontinuidade. No entanto, nenhuma dessas duas situações
correspondem à verdadeira localização do choque que está, na realidade, situado entre elas.
Essa configuração intuitiva pode ser obtida pelo processo de passagem ao limite na sequência
de problemas obtidos da regularização centralizada na descontinuidade, isto é, considerando
a sequência de problemas
ut + uux =(0
1, x ≤ −ǫ/2
(5.10)
uǫ (x, 0) = (ǫ − 2x)/(2ǫ), −ǫ/2 < x ≤ ǫ/2
0, x > ǫ/2.
A repetição do argumento utilizado para produzir a figura 5.17 leva-nos à figura 5.19,
que ilustra o choque produzido pela solução da sequência de problemas (5.10).
5.1. INTRODUÇÃO 173
t
2 tε
uε2(x,t ε)
tε
ε
uε1(x,0)
−ε/2 ε/2 x
A figura 5.19 sugere que o choque deve estar localizado na média daquelas posições
indicadas pelas figuras 5.17 e 5.18, ou em outras palavras, a condição inicial em cada lado
da descontinuidade participa igualmente na formação do choque.
Como pode-se observar nos pontos tǫ , 2tǫ , 3tǫ , . . . está havendo a intersecção das carac-
terı́sticas à esquerda e à direita da descontinuidade. Assim para ǫ → 0, em todos os pontos
do choque devemos ter cruzamento das caracterı́sticas que provém da condição inicial.
u(x,t)
u(x,0)
A figura 5.20 mostra a posição do choque; note como a solução descontı́nua se propaga.
Observe que a solução da equação (5.8) pode ser dada por:
1, x ≤ t/2
u(x, t) =
0, x > t/2.
A propriedade de que o choque deve ser determinado pelas condições iniciais é muito
importante porque fornece um critério simples para escolha da solução descontı́nua que
melhor representa a fı́sica do modelo.
174 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
Regularização da Equação
Como já mencionado no inı́cio desta seção uma solução fraca pode ser obtida pelo limite
de aproximações contı́nuas dos dados iniciais, ou como um caso limite de regularização da
própria equação pela adição de um termo parabólico, isto é, pela adição de viscosidade arti-
ficial à equação original. Assim, por exemplo, pode ser considerada a seguinte regularização:
para ǫ > 0, suficientemente pequeno. A solução uǫ (x, t) é sempre suave e limǫ→0 uǫ (x, t) =
u(x, t). Note que na prática resolve-se uma sequência de problemas com valores decrescentes
de ǫ.
O efeito da parabolização é a suavização da solução, como ilustrado pelas figuras 5.21 e
5.22, que representam a solução do problema
ut + ux = 1 + ǫuxx
6, x≤3
(
u(x, 0) = x + 3, 3≤x<7 (5.11)
17 − x, x ≥ 7.
Note que para ǫ = 0, a condição inicial seria transportada domı́nio adentro sem suavização
.
11
11
10
10
9
9
8
u(x,t)
7 8
u(x,.)
6
7
5 t=0.54
t=0
4 6
15
0.6
10 5
0.4
5
0.2
4
0 0 0 2 4 6 8 10 12 14
x t x
Figura 5.21: Gráfico da solução e perfis nos tempos t = 0 e t = 0.54 para ǫ = 0.2
Para o caso da equação de Burgers com condição inicial constante por partes, com
apenas um salto (Problema de Riemann), pode ser provado que as soluções obtidas através
do processo limite, tanto no caso de modificação da condição inicial quanto no caso da
parabolização da equação, coincidem, ver exercı́cios (5.9-5.10) [23]. No entanto o caso geral
de equações hiperbólicas não lineares pode apresentar singularidades mesmo se os dados
5.1. INTRODUÇÃO 175
11
11
10
10
9
9
8
u(x,t)
7 8
u(x,.)
6
7
5 t=0.54
t=0
4 6
15
0.6
10 5
0.4
5
0.2
4
0 0 0 2 4 6 8 10 12 14
x t x
Figura 5.22: Gráfico da solução e perfis nos tempos t = 0 e t = 0.54 para ǫ = 0.01
iniciais forem regulares. Portanto, a regularização das condições iniciais não é suficiente para
garantir a existência de uma solução clássica para o problema não linear com condição inicial
uǫ (x, 0). Por outro lado a equação parabolizada com dados iniciais descontı́nuos sempre tem
uma solução clássica. Dessa forma, a segunda técnica de regularização é preferida, por
generalizar-se para outros problemas.
Como esperamos ficou claro dessa discussão, soluções fracas não são, em geral, unica-
mente determinadas. Os processos de passagem ao limite discutidos acima, fornecem um
critério lógico para a escolha da solução fraca que melhor representa a fı́sica do problema.
Dizemos que neste caso a solução fraca satisfaz a condição de entropia.
O processo de passagem ao limite oferece sérias dificuldades do ponto de vista prático,
principalmente com relação à obtenção de uma solução numérica. Dessa forma, para a
classe dos problemas de conservação de fluxos, que modelam situações reais importantes,
foram estabelecidas propriedades, a serem descritas logo a seguir, que se observadas, levam
à solução que satisfaz a condição de entropia. No entanto, para o caso de uma equação geral
a escolha da solução entrópica é um problema ainda não resolvido ( [23], página 75).
Leis de Conservação
Diversos aspectos das equações hiperbólicas foram abordados até aqui, ficando claro,
que esses tipos de equações oferecem diversas dificuldades (por exemplo, admitem soluções
com descontinuidades). No sentido de oferecer resultados práticos, a pesquisa nessa área
evoluiu na direção das equações na forma de lei de conservação, onde conseguiu-se estabelecer
resultados importantes principalmente no que concerne à compreensão sobre choques.
Uma lei de conservação estabelece que a variação de uma quantidade u(x, t) definida em
um domı́nio D só depende do fluxo de u através da fronteira ∂D. Se o fluxo de u é dado
por uma função f , então
d
Z Z
udx = − f ηds (5.12)
dt D ∂D
que é a equação na forma de conservação. É importante observar que a forma integral (5.13)
não impõe exigências de diferenciabilidade tão restritivas quanto a forma diferencial (5.14).
Por isso a formulação integral é frequentemente usada para a construção de soluções fracas.
No caso de um sistema de equações de conservação, um bom exemplo de (5.14) é a equação
de Euler da dinâmica dos gases em que u = (ρ, ρv, ρE)T é o vetor de estado das variáveis
conservadas e f = (ρv, ρv 2 + P, ρvE + P v)T , sendo ρ, v, E e P a massa especı́fica do gas, a
velocidade, a pressão e a energia total, respectivamente.
A equação na forma de conservação fornece informações mais detalhadas sobre o choque.
De fato, seja uma curva x = ξ(t) ao longo da qual a solução u é descontı́nua e seja [a, b] um
intervalo na variável espacial x que contenha ξ(t), como ilustrado pela figura 5.23.
t
ξ(t)
[ ]
a b
então
ξ(t) b
dI
Z Z
= ut dx + ue s + ut dx − ud s
dt a ξ(t)
onde s = dξ
dt . No caso de um choque estacionário s representa sua inclinação.
Como, ut = −(f (u))x , obtemos,
dI
= f (ua ) − f (ue ) + ue s − f (ub ) + f (ud ) − ud s (5.15)
dt
5.1. INTRODUÇÃO 177
dx [f (u)]
= .
dt [u]
Por exemplo, no caso da equação de Burgers
ut + uux = 0 (5.17)
que pode ser colocada na forma conservativa
ut + (f (u))x = 0
2
onde f (u) = u2 é a função de fluxo, a condição de Rankine-Hugoniot indica que o choque
será dado pela curva:
dx u2 /2 − u2d /2 ue + ud
= e = .
dt ue − ud 2
confirmando o que já havı́amos observado na figura 5.20.
Observação 5.1.8 Chamamos a atenção do leitor para o fato de que a forma conservativa
em que uma equação hiperbólica é escrita determina a solução fraca escolhida pelo processo
de Rankine–Hugoniot e portanto influencia a posição do choque. Duas formas conservativas
distintas e equivalentes de uma mesma equação geram soluções fracas diferentes, por exemplo
a equação
2
(u2 )t + ( u3 )x = 0 (5.18)
3
é equivalente à equação de Burgers pois é uma forma conservativa para u2 obtida pela mul-
tiplicação de (5.17) por 2u. Se considerarmos o problema de Riemann para (5.17) e (5.18)
com condição inicial tal que ue > ud então (5.17) possue um choque com inclinação:
2
[f (u)] [u ] 1
s1 = = 2 = (ue + ud )
[u] [u] 2
178 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
[ 23 u3 ] 2(u2e + ue ud + u2d )
s2 = =
[u2 ] 3(ue + ud )
diferente portanto de s1 .
Problema de Riemann
Um problema de Riemann é constituı́do de uma equação diferencial parcial na forma de
conservação tendo como condição inicial a função de Heaviside, isto é uma função da forma:
ue , se x ≤ 0
Heav(x) = .
ud , se x > 0
t
ue
ud
ue
ud
No caso da equação de Burgers não viscosa a solução poderá apresentar onda de rarefação
ou onda de choque, conforme ue < ud ou ue > ud , respectivamente, conforme já estabelecido
na subseção Regularização dos dados.
5.1. INTRODUÇÃO 179
t ue ud
t
ud ue
ue ud
ud ue
x x
Condições de Entropia
A escolha da solução entrópica, via regularização dos dados ou da própria equação é
quase sempre de difı́cil tratamento. A literatura apresenta condições alternativas quando as
equações estão escritas na forma de leis de conservação . Como vimos, um critério, no caso
da equação escalar, é que as condições iniciais compartilhem a construção e evolução das
descontinuidades. Por exemplo é o que ocorre no caso de choque, onde a descontinuidade vai
se formar se a inclinação das caracterı́sticas à esquerda for maior do que à direita do ponto
de descontinuidade da condição inicial. Uma outra forma de apresentação deste critério é:
Note que se f é convexa esta relação reduz-se àquela do critério 1. Ver exercı́cio (5.3).
Uma outra relação importante diz respeito à expansão de uma rarefação e foi também
estabelecida por Oleinik, [Oleinik 1957] para f ′′ > 0.
180 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
Critério 3: A solução u(x, t) é entrópica se existe uma constante E tal que para δ > 0,
t > 0 e qualquer x ∈ IR, tem-se:
u(x + δ, t) − u(x, t) E
< .
δ t
Aspectos adicionais sobre condições de entropia incluindo funções de entropia podem ser
obtidos, por exemplo, em LeVeque [23].
No caso escalar com f convexa, um problema de Riemann apresenta alternativamente,
ou choque ou rarefação como solução entrópica. No caso em que f é côncava a mesma
afirmação é verdadeira. Porém, quando f tem um ponto de inflexão os dois tipos de solução
entrópica podem desenvolver-se simultaneamente. Ver figura 5.26.
O exemplo mais simples e interessante é aquele dado pela equação de Buckley–Leverett
que modela o escoamento de um fluido em meio poroso com duas fases, por exemplo a injeção
de água para extração de petróleo. O modelo é dado por:
u2
ut + (f (u))x = 0, com f (u) = , (5.21)
u2 + c(1 − u)2
e c constante.
A solução u(x, t) representa a saturação de água satisfazendo portanto a desigualdade
0 ≤ u(x, t) ≤ 1.
Pode ser demonstrado (veja por exemplo LeVeque [23], página 48) que para o problema
de Riemann com ue = 1 (água) e ud = 0 (óleo) a solução possui uma rarefação com um
choque no extremo da área de rarefação, chamada de uma rarefação seguida de choque.
ue
u*
t ud
ue
ud
x
Observação 5.1.9 Se f (u) tem vários pontos de inflexão a solução pode apresentar uma
composição de choques e rarefações.
5.1. INTRODUÇÃO 181
0.9
0.8
0.7
0.6
f(u)
0.5
0.4
0.3
0.2
0.1
0
0 0.2 0.4 0.6 u* 0.8 1
u
∂2φ
4a2 ≡ 0.
∂ξ∂η
A solução geral desta equação é da forma:
182 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
x ± at = constante,
são as curvas caracterı́sticas da equação. Note que a equação da onda (de ordem 2) tem
duas famı́lias de caracterı́sticas, enquanto a equação de advecção (de ordem 1) tem apenas
uma.
Quando aplicamos as condições iniciais da equação (5.22), na solução (5.23), obtemos:
1 x
Z
P (x) − Q(x) = g(y)dy + Q(0) − P (0).
a 0
Assim, obtemos
x
1 1
Z
P (x) = f (x) + g(y)dy + M
2 2a 0
e
x
1 1
Z
Q(x) = f (x) − g(y)dy − M,
2 2a 0
Os valores da solução em um ponto (x0 , t0 ) fixo dependem somente dos valores iniciais
sobre o segmento de reta no eixo x delimitado pelas retas x−at = x0 −at0 e x+at = x0 +at0 .
Este segmento é chamado de intervalo de dependência do ponto (x0 , t0 ). Inversamente, o
conjunto de pontos (x, t) no qual a solução é influenciada pelos dados iniciais em um ponto
(x0 , 0) é a região limitada pelas linhas x + at = x0 e x − at = x0 . Esta região é chamada de
domı́nio de influência do ponto (x0 , 0).
t (x 0 , t 0)
x
Intervalo de dependência
x-0 at 0 x0+ at 0
t Domínio de
influência
Dominio de
x+at=x 0 influencia x-at=x 0
(x0 , 0) x
Esta rápida dedução reforça o papel básico das caracterı́sticas na construção da solução.
Note que para equações hiperbólicas mais gerais (a ≡ a(x, t, u)) > 0 teremos duas famı́lias
de caracterı́sticas não necessariamente linhas retas, mas os mesmos conceitos se aplicam.
Exemplo 5.1.3 Vamos considerar a equação
utt − 4uxx = 0 0 < x < 1, t ≥ 0
u(x, 0) = sen (2πx), 0 < x < 1,
ut (x, 0) = 0, 0 < x < 1,
u(0, t) = u(1, t) = 0, t > 0,
cuja solução exata é u(x, t) = sen (2πx) cos (4πt) e as caracterı́sticas são x ± 2t = c.
184 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
Conforme (5.24) e como g(x) = 0, temos que a solução será a média de duas ondas que
se propagam, para a direita e para a esquerda, com velocidade 2 nas direções x − 2t e x + 2t,
ou seja,
1
u(x, t) = ( sen (2π(x − 2t)) + sen (2π(x + 2t)) = sen (2πx) cos (4πt).
2
As figuras em 5.30 representam 5 perfis das ondas sen (2π(x − 2t)) e sen (2π(x + 2t)).
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 0
−0.2 −0.2
−0.4 −0.4
−0.6 −0.6
−0.8 −0.8
−1 −1
0 5 10 15 20 25 30 35 40 0 5 10 15 20 25 30 35 40
Os perfis da média das duas ondas, que coincidem com os respectivos perfis da solução
exata, são mostrados na figura 5.31.
1
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
−1
0 5 10 15 20 25 30 35 40
0.5
−0.5
−1
200
150 40
30
100
20
50
10
0 0
Uma preocupação sempre presente quando trabalhamos com sistemas está ligada à es-
pecificação de condições de fronteira. Se essas condições de fronteira não forem cuidadosa-
mente especificadas ocorrerá incompatibilidade e o problema não será então bem posto.
Para ilustrar essa situação vamos considerar um sistema 2 × 2 ligeiramente mais geral.
Seja
u b a u 0
− = , t > 0, 0 < x < 1.
v t a b v x 0
Os autovalores são λ1 = b + a e λ2 = b − a e as variáveis caracterı́sticas são u + v e u − v
e portanto obtemos o sistema:
u+v b+a 0 u+v 0
+ = . (5.26)
u−v t 0 b−a u−v x 0
As caracterı́sticas propagam informações nas direções λ1 = b + a e λ2 = b − a.
Se 0 < a < b então λ1 > 0 e λ2 > 0 e ambas as caracterı́sticas se propagam para a direita
no plano (x, t). Nesse caso as condições de fronteira deverão ser especificadas em x = 0.
Se 0 < b < a então uma caracterı́stica propaga-se para a direita (λ1 > 0) enquanto a
outra propaga-se para a esquerda (λ2 < 0). Devemos então especificar valores para x = 0
e também para x = 1. Como λ1 está associado à variável u + v da caracterı́stica e λ2 está
associado à variável u − v, devemos especificar u + v em x = 0 e u − v em x = 1. Na verdade
as seguintes condições tornam o problema bem posto, ( [Quarteroni 1997], página 453).
c b a utt e
! ! !
dt dx 0 uxt = d(ut ) .
0 dt dx uxx d(ux )
c b a
!
det dt dx 0 = 0,
0 dt dx
∂p ∂p
dp = dx + dt = rdx + sdt
∂x ∂t
188 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
e
∂q ∂q
dq = dx + dt = sdx + ydt.
∂x ∂t
Usando (5.29) e eliminando e e y com a ajuda de (5.27) podemos dizer que ao longo das
direções caracterı́sticas, as diferenciais dp e dq estão relacionadas pela equação:
dq dx dp dx
c +a −e = 0,
dt dt dt dt
que pode ser reescrita na forma:
dx
c dq + adp − edx = 0. (5.30)
dt
Vamos supor que a equação (5.27) seja hiperbólica, assim as raı́zes da equação (5.29) são
reais e distintas. Sejam elas:
dx dx
=f e = g. (5.31)
dt dt
A discretização agora é feita sem maiores dificuldades. Escolhe-se um espaçamento sobre
a curva de condições iniciais, por exemplo para os pontos P , Q, W , etc. A partir desses
pontos e seguindo as curvas caraterı́sticas dadas por (5.31), a solução numérica vai sendo
construı́da.
Consideremos então Γ uma curva não caracterı́stica, sobre a qual os valores para u, p
e q são conhecidos. Sejam P e Q pontos sobre Γ e seja f a caracterı́stica através de P
interceptando a caracterı́stica g através de Q no ponto R(xR , tR ), figura 5.33.
T S
Γ
t R
W
g
Q
P
xR − xP = fP (tR − tP ) (5.32)
5.1. INTRODUÇÃO 189
e
xR − xQ = gQ (tR − tQ ), (5.33)
ou seja, obtivemos duas equações para duas incógnitas xR e tR .
Pela equação (5.30) as relações diferenciais ao longo das caracterı́sticas são:
cf dq + adp − edx = 0
e
cgdq + adp − edx = 0.
A primeira pode ser aproximada ao longo de P R pela equação:
A repetição deste último ciclo de operações produzirá um valor mais preciso para uR .
Computacionalmente o número de iterações necessárias para obtermos a precisão desejada
deve ser pequeno e isto é garantido pelo refinamento da discretização inicial.
Da mesma maneira calcula-se a solução em S, usando Q e W . É possı́vel então avançar
com o cálculo da solução no ponto T pelo mesmo processo, mas usando R e S no lugar de
P e Q.
Uma das desvantagens práticas desse método é que, além dele poder ser aplicado apenas
para problemas simples, os valores da solução são obtidos numa malha irregular. É possı́vel
contornar a situação de malha irregular construindo-se um método hı́brido conhecido como
método de Hartree, para o qual faz-se a discretização do domı́nio como se fosse para diferenças
finitas. A partir de cada ponto da malha, cuja posição já é conhecida, calcula-se por in-
terpolação os valores da solução retrocedendo ao longo da caracterı́stica até a intersecção
desta com uma linha horizontal da malha, conforme figura 5.34. Note que os parâmetros de
malha devem ser tais que a condição CFL seja satisfeita, ou seja o espaçamento é escolhido
de forma que uma caracterı́stica não intercepta uma linha vertical da malha.
h
x
t ≥ 0, −∞ < x < ∞,
5.2. DIFERENÇAS FINITAS PARA A EQUAÇÃO DE ADVECÇÃO 191
coberta por uma malha retangular com linhas paralelas aos eixos x e t e espaçamento dado
respectivamente por h e k,
t
P
h
U(x) x
Condição CFL
A condição CFL estabelece um critério mı́nimo e simples a ser exigido de um método
convergente. A motivação para a condição CFL pode ser desenvolvida como segue.
Todos os pontos que contribuem para a solução exata em um ponto P (veja figura
5.36), devem influenciar a solução numérica, sob pena de no limite h, k → 0, obtermos uma
aproximação que não representa a solução exata. Em outras palavras, todos os pontos da
malha que estão contidos na região de dependência devem estar envolvidos no cálculo da
solução aproximada em P . É suficiente portanto, que os pontos envolvidos no cálculo de
Ui,j+1 contenham a região de dependência para u(ih, (j + 1)k).
Essa é a condição mı́nima, considerada análoga à zero–estabilidade, exigida para a con-
vergência de um método.
Uma maneira prática de saber se um método satisfaz a condição CFL é observar sua
molécula de cálculo de Ui,j+1 , pois por meio dela sabemos a região de dependência numérica
192 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
do método, que é dada pelo “cone” dos pontos que influenciam o cálculo de Ui,j+1 . Esta
região deve conter as caracterı́sticas passando por P .
Por exemplo, no caso de um método explı́cito que utilize 3 pontos no nı́vel j, isto é
ui−1,j , ui,j e ui+1,j para construir Ui,j+1 (como na figura 5.40) essa condição exige que uma
caracterı́stica passando por P = (ih, (j + 1)k) (figura 5.35) corte a linha t = jk, entre os
pontos ((i−1)h, jk) e ((i+1)h, jk). Em outras palavras, o intervalo de dependência numérica
deve conter o intervalo de dependência da solução analı́tica. As ilustrações da figura 5.36
indicam as situações em que o método de Lax–Wendroff satisfaz a condição CFL e a outra
em que esta é violada.
Claramente um método implı́cito satisfaz a condição CFL.
Se a condição CFL não for satisfeita, não há convergência do método, quando h → 0,
com ν = hk , ν constante. Isso significa que a relação hk é essencial para que haja convergência
do esquema considerado.
t t
P P
k k
h h
U(x) x U(x) x
(a) (b)
k a) satisfaz CFL,
Figura 5.36: Relação para a qual Lax–Wendroff:
h b) não satisfaz CFL
νa
Ui,j+1 − Ui,j = − (Ui+1,j − Ui−1,j ). (5.38)
2
Apesar de um método simples, este constitui-se em um método inadequado por ser incondi-
cionalmente instável, veja exercı́cio (5.19).
Método de Lax–Friedrichs
A simples substituição de Ui,j em (5.38) pela média (Ui+1,j +Ui−1,j )/2, leva a um método
estável conhecido como método de Lax-Friedrichs, a saber
1 νa
Ui,j+1 = (Ui+1,j + Ui−1,j ) − (Ui+1,j − Ui−1,j ). (5.39)
2 2
5.2. DIFERENÇAS FINITAS PARA A EQUAÇÃO DE ADVECÇÃO 193
Q S
∂ k2 ∂ 2 k3 ∂ 3
uP = uS + k uS + 2
uS + uS + · · ·
∂t 2! ∂t 3! ∂t3
∂
uP = exp k uS
∂t
∂ ∂ ∂
uP = exp −ka uS , pois = −a .
∂x ∂t ∂x
Consideremos, agora, as aproximações de primeira ordem:
∂ ∂ 1
uP ≃ uS − ak uS e uS ≃ (uS − uQ ).
∂x ∂x h
Assim,
k
uP ≃ uS − a (uS − uQ ).
h
Obtivemos, portanto, a fórmula de diferenças
∂ k2 ∂ 2
uP = uS + k uS + uS + · · ·
∂t 2! ∂t2
∂ k2 ∂ 2
uQ = uS − h uS + uS − · · ·
∂x 2! ∂x2
Substituindo essas expressões na equação (5.40), obtemos:
k2 ∂ 2 h2 ∂ 2
∂ k k ∂
uS + k uS + u S + · · · = u S − au S + a u S − h u S + u S − · · · .
∂t 2! ∂t2 h h ∂x 2! ∂x2
O erro de truncamento local é dado, portanto, por:
k2 ∂ 2 k ∂2
us − a 2 us + · · ·
2! ∂t2 h ∂x
Seja R o ponto onde a caracterı́stica passando por P intercepta o nı́vel da malha sobre
o qual estão os pontos Q e S. Para que a condição CFL seja satisfeita devemos ter, nesse
esquema, o ponto R situado entre os pontos Q e S, veja figura 5.38.
R d S
Q
h
Método Upwind
No método anterior, uma condição essencial para garantir a condição CFL é a > 0.
Evidentemente, se a < 0, devemos usar diferença progressiva para aproximação da derivada
5.2. DIFERENÇAS FINITAS PARA A EQUAÇÃO DE ADVECÇÃO 195
t t
ão
di
aç
reç
ag
a<0
ão
op
a>0
de
pr
de
pr
op
ão
ag
reç
x x
aç
di
ão
Esquema de Lax-Wendroff
Os pontos envolvidos nesse esquema são:
P = (ih, (j + 1)k), Q = ((i + 1)h, jk), S = (ih, jk) e T = ((i + 1)h, jk),
com a correspondente molécula dada pela figura 5.40.
Expandindo uP em série de Taylor, temos:
∂ k2 ∂ 2
uS +
uP = uS + k uS + · · ·
∂t 2 ∂t2
∂ ∂
Eliminando os termos com derivadas em t ∂t = −a ∂x , obtém-se
196 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
Q S T
∂ k2 ∂2
uP = uS − ka u S + a2 2 u S − · · ·
∂x 2 ∂x
Truncando a expressão acima, de maneira a manter os termos de até segunda ordem, e
então usando diferença central para a segunda derivada na variável x, vamos obter o método
conhecido como esquema de Lax-Wendroff:
ka k 2 a2
UP = US − (UT − UQ ) + (UQ − 2US + UT )
2h 2h2
ou
νa ν 2 a2
Ui,j+1 = Ui,j − (Ui+1,j − Ui−1,j ) + (Ui+1,j − 2Ui,j + Ui−1,j ). (5.42)
2 2
Portanto, a fórmula de segunda ordem, é dada por:
νa νa
UP = (1 − ν 2 a2 )US − (1 − νa)UT + (1 + νa)UQ ,
2 2
ou genericamente
νa νa
Ui,j+1 = (1 − ν 2 a2 )Ui,j − (1 − νa)Ui+1,j + (1 + νa)Ui−1,j .
2 2
O erro de truncamento para a aproximação de Lax-Wendroff é da O(h2 + k 2 ).
Para que a condição CFL seja satisfeita, nesse esquema, devemos ter o ponto R entre os
pontos Q e T . A condição CFL exige que 0 ≤ d ≤ h, ou seja, 0 ≤ |νa| ≤ 1, (h 6= 0).
Note que esse método pode ser aplicado também para a < 0, sendo em qualquer caso,
apropriado quando as condições de fronteira são fixadas em ambos os lados do domı́nio.
Vamos agora examinar a estabilidade da fórmula de Lax-Wendroff. Usando o método
de Neumann, pode ser mostrado que o fator de amplificação ζ (ver subseção Dissipação e
Dispersão) é dado por:
τ 2 Iβh τ
ζ = (1 − τ 2 ) + (e + e−Iβh ) − (eIβh + e−Iβh )
2 2
βh
ζ = (1 − 2τ 2 sen2 ) − Iτ senβh,
2
5.2. DIFERENÇAS FINITAS PARA A EQUAÇÃO DE ADVECÇÃO 197
onde τ = νa.
Assim,
βh 1/2
|ζ| = [1 − 4τ 2 (1 − τ 2 ) sen4 ] .
2
De onde segue que:
|ζ| ≤ 1, se 0 < τ ≤ 1.
u(x, 0) = u0 (x), 0 ≤ x ≤ 1
u(0, t) = g(t), t > 0.
P = (ih, (j + 1)k), W = (ih, (j − 1)k), Q = ((i − 1)h, jk) e T = ((i + 1)h, jk),
Q
T
W
Figura 5.41: Molécula do esquema Leap Frog
UP = UW − νa(UT − UQ )
ou genericamente por
Esse método é estável para 0 < νa ≤ 1, que coincide com a condição CFL.
É um esquema de dois passos e necessita, portanto, de mais um nı́vel de tempo no inı́cio
do processo (j = 1), que geralmente é calculado por algum outro método de passo 1.
Método de Beam–Warming
Para obter-se um método com melhor precisão podemos lançar mão do uso de um número
maior de pontos na molécula computacional desse método, por exemplo como no caso do
método de Lax-Wendroff que é de ordem 2 e usa 3 pontos. O método de Beam–Warming é
assimétrico e utiliza 3 pontos sendo dado por:
νa ν 2 a2
Ui,j+1 = Ui,j − (3Ui,j − 4Ui−1,j + Ui−2,j ) + (Ui,j − 2Ui−1,j + Ui−2,j ) .
2 2
Método de MacCormack
Uma maneira alternativa de construção de um método de ordem superior é através
da introdução de um passo intermediário imitando um previsor–corretor. O método de
5.2. DIFERENÇAS FINITAS PARA A EQUAÇÃO DE ADVECÇÃO 199
P
V
∂ k2 ∂ 2
uS = uP − k uP + uP − · · ·
∂t 2! ∂t2
∂ a2 k 2 ∂ 2
uS = uP + ak uP + uP + · · · .
∂x 2! ∂x2
200 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
P
W
T
S
∆x uS = uT − uS (por definição).
Assim,
uT = (1 + ∆x )uS .
Mas,
h2 ∂ 2
∂ ∂
uT = uS + h uS + uS + · · · = exp h uS .
∂x 2! ∂x2 ∂x
5.2. DIFERENÇAS FINITAS PARA A EQUAÇÃO DE ADVECÇÃO 201
Logo,
∂
1 + ∆x = exp h ,
∂x
ou
∂ 1
= log(1 + ∆x ).
∂x h
De maneira análoga:
∂ 1
= log(1 + ∆t ).
∂t k
Substituindo essa expressão na equação (5.37), obtemos:
uP = (1 + ∆x )−νa uS . (5.43)
−νa
Note que o operador (1 + ∆x ) não possui uma expressão óbvia e simples em termos
de potências inteiras de (1 + ∆x ), o que permitiria sua aplicação na malha retangular em
questão. Para solucionar esse problema propomos que o operador em (5.43) seja aproximado
como na expressão abaixo:
uP = (1 + α∆x )−1 (1 + β∆x )uS , (5.44)
onde α e β são constantes arbitrárias a serem convenientemente determinadas.
Expandindo os lados direitos das equações (5.43) e (5.44) e igualando os coeficientes de
∆x e ∆2x , encontramos:
1 1
α= (1 + νa), β = (1 − νa).
2 2
Logo,
1 1
[1 + (1 + νa)∆x ]uP = [1 + (1 − νa)∆x ]uS .
2 2
Esta fórmula é novamente incondicionalmente estável e pode ser explicitada na forma:
1 − νa
UW = US + (UT − UP ),
1 + νa
ou genericamente
1 − νa
Ui+1,j+1 = Ui,j + (Ui+1,j − Ui,j+1 ),
1 + νa
a qual juntamente com as condições iniciais e de fronteira à esquerda do domı́nio permite o
cálculo de aproximações (explı́citas) para todos os pontos da malha.
Note que se a fronteira estiver à direita também é possı́vel a determinação explı́cita a
partir de UP .
202 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
Observação 5.2.1 Evidentemente outros esquemas numéricos podem ser construidos con-
siderando-se diferentes moléculas computacionais, porém as técnicas são semelhantes. O
leitor é estimulado a experimentar com outros métodos de criação própria. O leitor é também
fortemente encorajado, para não dizer obrigado, a considerar a adaptação dos métodos aqui
apresentados para o caso em que a ≡ a(x, t, u). Nos exercı́cios apresentamos um roteiro
para essa tarefa!
Dissipação e Dispersão
Para uma noção intuitiva dos conceitos de dissipação e dispersão consideremos uma
função periódica u(t) de perı́odo T e uma aproximação genérica U (t) de u(t). A função u(t)
pode ser pensada como o deslocamento de uma partı́cula no tempo, e nesse caso o gráfico
de u(t) é dado pela figura 5.44.
u(t)
Por outro lado, essa mesma função u(t) pode ser considerada como a trajetória da
partı́cula no espaço de fase, que é parametrizada pela função t → (u(t), u′ (t)). Nesse caso o
gráfico é a curva fechada apresentada na figura 5.45.
u’(t) x
t=0
u(t)
Vamos imaginar que o inı́cio seja em t = 0 e que após um tempo t0 a partı́cula tenha
percorrido a trajetória até o ponto assinalado com x na figura ??. A aproximação U (t) pode
5.2. DIFERENÇAS FINITAS PARA A EQUAÇÃO DE ADVECÇÃO 203
u(t) U(t)
u’(t) x
t=0
t
u(t)
u(t)
u’(t) x
x
t=0
t U(t)
u(t)
u(t)
u’(t) x
x
t=0
t
u(t)
∞
X
u(x, 0) = Aj eIβj x
j=0
então, pela linearidade do problema, as propriedades da solução podem ser avaliadas pela
propagação de um único modo de Fourier eIβx . Considerando então u(x, 0) = eIβx , a solução
em (5.45) é dada por:
τ2
|ζ| ≃ 1 − (1 − τ 2 )(βh)4
2
e a ordem de dissipação não pode, desta forma ser menor que 4. A desigualdade (5.49) é
2
satisfeita para σ = τ2 (1 − τ 2 )π 4 , por exemplo.
(βh)3
senβh = βh − e (1 − x)−1 ≃ 1 + x,
6
segue de (5.50) que
(βh)2
tan(αβk) ≃ τ βh(1 + (3τ 2 − 1)).
6
Agora, desde que:
x3
tan−1 x ≃ x − ,
3
obtemos:
206 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
(βh)2
αβk ≃ τ βh(1 − (1 − τ 2 ))
6
que leva a
(βh)2
α ≃ a(1 − (1 − τ 2 )).
6
Isto mostra que α < a para modos de baixa frequência, e a solução numérica, desta forma,
fica atrás da solução verdadeira, isto é, existe um erro da fase. A magnitude do erro da fase
aumenta com a frequência e resulta em uma perda de precisão que é particularmente evidente
quando o dado inicial está na forma de um sinal bem definido (por exemplo, uma função
escada). Efeitos dispersivos são usualmente menos evidentes em esquemas dissipativos, já
que os modos com maior erro de fase são aqueles que são excessivamente amortecidos. Por
esta razão, frequentemente, é benéfico introduzir mecanismos dissipativos em esquemas de
diferença dispersivos. Mais detalhes podem ser obtidos em [TRE86].
utt − a2 uxx = 0,
u(x, 0) = f (x), 0 ≤ x ≤ 1
ut (x, 0) = g(x), 0 ≤ x ≤ 1
u(0, t) = h1 (x), t > 0
u(1, t) = h2 (x), t > 0.
!
2λ 2ν 2 sen βk
e −2 1− 2
eλ + 1 = 0.
1 + 4ην 2 sen βk
2
1
incondicionalmente estável se η ≥ e ν<∞
4
1 1
e condicionalmente estável se 0 < η< e 0<ν< .
4 1 − 4η
Observação 5.3.1 É importante chamar a atenção para o fato de que o método (5.51) é
um esquema de dois passos e portanto é necessário o conhecimento da solução em dois nı́veis
iniciais de tempo, da mesma forma que o método Leap Frog.
A análise da estabilidade pelo método da matriz (veja a seção (3.2)), para o método
2 2
obtido tomando η = 1/2 em (5.51), pode ser feita, para N h = 1 e σ = kha2 , como segue.
Na notação do capı́tulo 3, a forma matricial da equação de diferenças (5.51) para η = 12
é:
AUj+1 = 2Uj − AUj−1 − cj
onde o vetor cj contém informações das condições de fronteira,
1+σ − σ2 0 ... 0
− σ2 1+σ − σ2 ... 0
A= .. ..
. .
0 ... − σ2 1+σ − σ2
0 ... 0 − σ2 1+σ
Uma maneira de continuarmos a análise do comportamento desse erro, dá-se pela ob-
servação de que (5.52) pode ser reescrita na forma:
ej+1 2A−1 −I ej
=
ej I Θ ej−1
ou seja,
Ej+1 = PEj .
208 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
O crescimento do erro depende então dos autovalores de P, que são obtidos da equação
2λ−1
j −λ 1
det =0
1 −λ
onde λj é autovalor da matriz A. Os autovalores de A são conhecidos, pois essa matriz tem
uma estrutura que permite calculá-los explicitamente,
jπ
λj = 1 + σ(1 − cos ), j = 1, 2, . . . , N − 1.
N
Logo, calculando o determinante, é imediato verificar que todos os autovalores λ de P
satisfazem |λ| < 1 e concluı́mos que esse método é incondicionalmente estável.
Em relação a condição CFL, devemos notar que para a equação da onda o domı́nio de
dependência numérica deve conter ambas as caracterı́sticas passando por um ponto P da
malha. Um exemplo concreto da necessidade da condição CFL para a convergência de um
método de diferenças finitas para a equação da onda foi apresentado por Isaacson ( [IK66]
página 488).
Suponhamos que queremos resolver a equação da onda,
0 x + at ≤ c
(
∗
u (x, t) = u(x, t) + (x + at − c)2 x + at ≥ c ≥ x − at . (5.54)
4at(x − c) x − at ≥ c
Se a malha é tal que a condição CFL é violada teremos pontos (xi , tj ) que satisfazem
simultaneamente as seguintes condições :
h
xi + tj ≤ c e xi + atj ≥ c ≥ xi − atj . (5.55)
k
Na figura (5.49) as caracterı́sticas correspondem às linhas cheias enquanto que as in-
clinações numéricas correspondem às linhas tracejadas. A região hachurada entre essas
linhas inclue os pontos da condição (5.55) e demarca os pontos onde as soluções numéricas
U e U ∗ coincidem, mas as soluções exatas não. Por outro lado a região hachurada abaixo da
caracterı́stica demarca os pontos onde as soluções exatas coincidem, assim como as soluções
numéricas. O argumento de que o método não pode ser convergente é consequência da ob-
servação de que, na região hachurada entre a caracterı́stica e a inclinação numérica, sendo
as soluções numéricas coincidentes, temos U = U ∗ → u(6= u∗ ) e portanto não podemos ter
U ∗ → u∗ , ou seja, fazendo h → 0 e k → 0 com hk fixo, tal que para qualquer refinamento
existe i com xi = c, não haverá convergência de U ∗ (x, t) para u∗ (x, t) e portanto a condição
CFL é essencial para a convergência do método.
01
10
0000000000000
1111111111111
x+(h/k)t=c
1010 1010
0000000000
1111111111
000000000
111111111
0000000000
1111111111
000000000
111111111
0000000000000
1111111111111
0000000000
1111111111
0000000000
1111111111
0000000000000
1111111111111
0000000000
1111111111
000000000
111111111
000000000
111111111
000000000
111111111
x+at=c 0
1
0000000000
1111111111
0000000000000
1111111111111
0000000000
1111111111
0
1
0000000000
1111111111 0
1
0
1
000000000
111111111
000000000
111111111
000000000
111111111
0000000000000
1111111111111
0000000000
1111111111
0000000000000
1111111111111
0
1 0
1
000000000
111111111
111111111111111111111111111
000000000000000000000000000
0000000000
1111111111
0000000000000
1111111111111
0000000000
1111111111
000000000
111111111
000000000
111111111
0000000000000
1111111111111
0
1
0000000000
1111111111
0000000000000
1111111111111
0000000000
1111111111
0000000000000
1111111111111 0
1 000000000
111111111
000000000
111111111
0
1
0000000000
1111111111
0000000000000
1111111111111
0000000000
1111111111
0000000000000
1111111111111 0
1 000000000
111111111
000000000
111111111
0
1
0000000000
1111111111
0000000000000
1111111111111 0
1 000000000
111111111
000000000
111111111
111111111111111111111111111
000000000000000000000000000
0000000000
1111111111
0000000000000
1111111111111
0
1
0000000000
1111111111
0
1 000000000
111111111
0000000000000
1111111111111
0000000000
1111111111
0000000000000
1111111111111
0
1
0000000000
1111111111
0
1
000000000
111111111
000000000
111111111
0000000000000
1111111111111
0000000000
1111111111
0000000000000
1111111111111
0
1
0000000000
1111111111
0000000000000
1111111111111
0000000000
1111111111 0
1
000000000
111111111
000000000
111111111
000000000
111111111
0000000000000
1111111111111
0
1
0000000000
1111111111
0000000000000
1111111111111
0000000000
1111111111
0000000000000
1111111111111 0
1 000000000
111111111
000000000
111111111
1010 1010
0000000000
1111111111
0000000000
1111111111
000000000
111111111
000000000
111111111
0000
1111
c x
0000Soluções Numéricas Coincidentes
1111
0000
1111
0000
1111
0000Soluções Exatas Coincidentes
1111
Figura 5.49: Ilustração das regiões onde as soluções
numéricas coincidem mas as exatas não
técnicas baseadas em heurı́sticas foram propostas por vários autores, como por exemplo a
utilização da direção das caracterı́sticas para orientar a imposição da quantidade e a seleção
das variáveis sob as quais devemos impor condições. O número de condições de fronteira
deve sempre ser compatı́vel com o número de caracterı́sticas partindo da curva onde essa
condição será imposta. Outra maneira de superar o problema da fronteira numérica é fazer
UN,j+1 = UN,j , ou seja, utilizar na fronteira o valor nos pontos adjacentes e interior ao
domı́nio.
Um método bastante adequado para solução da equação da onda na forma de sistema
(lembre-se que nesse caso a solução da equação da onda é um vetor (u, v)T , veja (5.25))
é o método Leap Frog em sua versão compacta (equações em (5.56)), que usa uma malha
diferenciada (staggered grid), onde os valores da variável u são localizados nos nós da malha
e os valores de v são localizados nos centros das células da malha (conforme figura (5.49)).
Na prática isso corresponde a utilizarmos uma malha duas vezes mais fina que aquela da
notação .
O método Leap Frog aplicado então ao sistema (5.25) produz o sistema de equações de
diferenças;
Ui,j+1 − Ui,j + aν Vi+ 21 ,j+ 21 − Vi− 21 ,j+ 21 = 0, i = 1, 2, . . . , N − 1
Vi+ 21 ,j+ 23 − Vi+ 12 ,j+ 21 + aν (Ui+1,j+1 − Ui,j+1 ) = 0, i = 0, 1, . . . N − 1. (5.56)
U
+V
+ + +
j
Observa-se facilmente que se valores para u forem especificados em cada lado do domı́nio
o método não exigirá valores extras para a fronteira numérica. Por outro lado, aplicação do
método Leap Frog em uma malha co-localizada (unstaggered) exige a espeficação de u e v
em cada fronteira, sendo um deles portanto considerado fronteira numérica.
Vamos nessa seção apenas enfatizar que é possı́vel estender os métodos até aqui estudados
para equações de dimensão maior ou igual a 2, principalmente os métodos clássicos, sem
significativa dificuldade. Devemos entretanto estar conscientes de que existe deficiência na
própria teoria que trata das equações hiperbólicas multidimensionais.
Não apenas os métodos precisam ser adaptados, mas também as análises de estabilidade,
incluindo a condição CFL. As técnicas entretanto são bastante semelhantes.
Muito do que foi feito para as equações parabólicas multidimensionais pode ser adaptado
para as equações hiperbólicas como por exemplo métodos do tipo ADI, LOD e hopscotch.
O tratamento dos métodos numéricos para equações com dimensão 2, com abrangência
bastante razoável pode ser encontrado em [32]. Para uma discussão interessante sobre a
equação de Burgers ver [FLE91]. Métodos TVD para equações hiperbólicas em dimensão 2
podem ser encontrados em [LG85]. Para uma discussão mais especı́fica e abrangente sobre
métodos para sistemas conservativos multidimensionais citamos [23], [39] e [33].
Os métodos até aqui estudados não foram construı́dos especificamente para o tratamento
de descontinuidades e são comumente denominados métodos clássicos na literatura. Na
próxima seção estudaremos métodos especı́ficos para o tratamento desses problemas.
scontinuidades e suas interações domı́nio adentro (front tracking). Nesse método procura-se
maior precisão na localização das descontinuidades. Para um detalhamento desse assunto
sugerimos a leitura de [11]. A vertente que mais teve sucesso foi aquela relacionada com
a construção de métodos de diferenças finitas com propriedades adequadas para evitar as
oscilações e que não envolvem qualquer tratamento especial da descontinuidade (shock cap-
turing), cuja propriedade essencial deles exigida é conhecida como variação total amortecida
(Total Variation Diminishing) ou TVD.
Seguindo a filosofia de trabalho até aqui adotada, apresentaremos esses métodos para o
caso escalar. Isso possibilita o estudo das idéias conceituais e básicas com a devida atenção
e clareza, as generalizações são relativamente simples, e o leitor encorajado a pesquisá-las.
Para a construção de uma classe de métodos conservativos convergentes para a solução
entrópica, utilizando conceitos mais sofisticados veja [AIS97].
Uma observação relevante é que sempre podemos resolver uma dada equação sem antes
colocá-la na forma conservativa. A esse respeito, um exemplo dado em [23], que utiliza a
equação de Burgers é bastante importante pois mostra que para condições iniciais descon-
tinuas, pode haver convergência para uma outra solução .
Exemplo 5.4.1 Dada a equação de Burgers
ut + uux = 0
1 x<0
u(x, 0) =
0 x≥0
podemos resolvê-la pelo método
Ui,j+1 − Ui,j + νUi,j (Ui,j − Ui−1,j ) = 0.
Tomando uma discretização em que x = 0 é um ponto da malha, podemos supor que
1 i<0
Ui,0 =
0 i ≥ 0.
Por substituição na fórmula acima, obtemos Ui,1 = Ui,0 , ∀i e portanto Ui,j = Ui,0 , ∀i.
Fazendo h, k → 0 e mantendo x = 0 como um ponto da malha, temos que a solução
numérica converge para:
1 x<0 t>0
u(x, t) =
0 x≥0 t>0
que como sabemos não representa a real posição do choque, ou seja, a solução numérica está
convergindo para uma outra solução . Isto ocorre porque o método usado não é conservativo.
Entretanto, é preciso chamar a atenção para o fato de ser possı́vel construir métodos não
conservativos que convergem para a solução de equações na forma conservativa (vide por
exemplo [TW90]).
Uma forma mais adequada para o método numérico desse exemplo seria
ν 2 2
Ui,j+1 − Ui,j + Ui,j − Ui−1,j =0
2
que utiliza a função fluxo f (v) = 12 v 2 pela qual a equação de Burgers fica na forma conser-
vativa.
5.4. MÉTODOS NUMÉRICOS PARA LEIS DE CONSERVAÇÃO 213
Método Conservativo
Dizemos que um método de diferenças finitas para aproximar a equação (5.14) está em
forma consevativa (ou forma de conservação ou, ainda, forma de “fluxo”) quando ele pode
ser escrito da seguinte forma
onde w : IRp+q+2 → IR é uma função contı́nua, pode ser posto na forma conservativa se
existe uma função de fluxo numérico φ : IRp+q+1 → IR tal que
Ui,j+1 = Ui,j − ν φi+ 12 ,j − φi− 21 ,j , (5.59)
ou seja, o total da quantidade U não varia do tempo tj para o tempo tj+1 . De fato, todo
esquema na forma (5.59) é conservativo, pois
+∞
X +∞
X +∞
X
Ui,j+1 = Ui,j − ν φi+ 12 ,j − φi− 21 ,j
i=−∞ i=−∞ i=−∞
+∞
X +∞
X
= Ui,j − ν . . . + φ− 23 ,j + φ 21 ,j + . . . − φ− 23 ,j − φ 12 ,j − . . . = Ui,j .
i=−∞ i=−∞
214 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
seja uma aproximação de f (u)x no mesmo ponto da malha. Isto leva à seguinte definição:
φ(u, . . . , u) = f (u), ∀u ∈ IR
1 1
φ(Ui,j , Ui+1,j ) = (f (Ui,j ) + f (Ui+1,j )) − (Ui+1,j − Ui,j ) .
2 2ν
1 ν
Ui+ 12 ,j+ 21 = (Ui,j − Ui+1,j ) − (f (Ui+1,j ) − f (Ui,j ))
2 2
Ui,j+1 = Ui,j − ν(f (Ui+ 21 ,j+ 21 ) − f (Ui+ 21 ,j− 21 )).
5.4. MÉTODOS NUMÉRICOS PARA LEIS DE CONSERVAÇÃO 215
A estratégia para construção da solução numérica, consiste em supor que esta seja con-
stante por partes em um determinado nı́vel de tempo j, ou seja, Ui,j = u(x, tj ), para
|x − xi | < h2 , observe a figura (5.52).
216 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
U1j
Unj
U2j ...
| | | |
a a+h a+2h b
t j+1
U i+1,j
U i,j
tj
x i+1 x
xi a+ih
Método de Godunov
Similarmente ao procedimento da amostragem uniforme este método evolue a solução no
tempo através da resolução de uma sequência de problemas de Riemann:
ut + (f (u))x = 0
Ui,j , x < xi+ 21 (5.62)
u(x, tj ) =
Ui+1,j , x ≥ xi+ 21 .
Ui,j
Ui+1,j
| | | | |
xi xi+1/2 xi+1
onde φi+ 21 ,j = φ(Ui,j , Ui+1,j ) e φ é a função de fluxo numérico satisfazendo φ(u, u) = f (u).
No caso, por exemplo, da equação de Burgers o método acima pode ser simplificado.
Como u∗ deve satisfazer a equação (??) para t ∈ [tj , tj+1 ] podemos integrá-la em t para
obter
1 1 tj+1 ∗
Z
u∗t + (u∗ )2x = 0 ⇒ u∗ (x, tj+1 ) = u∗ (x, tj ) − (u (x, t))2x dt.
2 2 tj
Daı́, ( )
xi+ 1 tj+1
1 1
Z Z
2
u∗ (x, tj ) − (u∗ (x, t))x
2
Ui,j+1 = dt dx
h xi− 1 2 tj
2
Como a condição CFL deve ser satisfeita, não há interferência de choques distintos no
interior de uma célula da malha, e portanto, em (xi+ 21 , tj+1 ) a solução exata assume um
dos valores Ui,j ou Ui+1,j , conforme a solução exata do respectivo problema de Riemann.
Denotando por χi+ 21 ,j esta solução teremos
1 2 1
Ui,j+1 = Ui,j − ν χi+ 1 ,j − χ2i− 1 ,j ,
2 2 2 2
1 tj+1
Z
φi+ 21 ,j = f (u∗ (xi+ 21 , t))dt.
k tj
Pode ser demonstrado que esse método não possue oscilações e satisfaz a condição de en-
tropia, vide [36] e [23].
É possı́vel demonstrar que ( [23], página 145)
min{f (u) | Ui,j ≤ u ≤ Ui+1,j } se Ui,j ≤ Ui+1,j
φi+ 12 ,j =
max{f (u) | Ui+1,j ≤ u ≤ Ui,j } se Ui,j > Ui+1,j .
Note que para problemas lineares o método de Godunov transforma-se num método upwind.
Observação 5.4.2 A aplicação do método de Godunov exige a solução de uma sequência
de problemas de Riemann a cada passo no tempo. Esse é um processo computacionalmente
caro quando a solução desses problemas de Riemann não são triviais, como por exemplo
quando exigem o cálculo de autovalores. Por essa razão outras técnicas foram desenvolvidas
que substituem a equação original por outra dela derivada, cujos problemas de Riemann
sejam mais fáceis de serem resolvidos. Esse métodos são chamados de Riemann Solvers.
Apresentamos a seguir o mais simples deles, chamado de método de Murman–Roe (veja
[39]), apenas a tı́tulo de ilustração da técnica, que na verdade representa uma linearização
local do problema.
O procedimento numérico segue aquele do método de Godunov, mas substituindo a equação
diferencial pela seguinte aproximação :
onde
f ′ (w) se w = v
a(w, v) = f (w)−f (v)
w−v 6 v.
se w =
Pode ser mostrado que para o método (5.59) a função de fluxo numérico é dada por:
f (w) se a(w, v) > 0
φi+ 21 (w, v) =
f (v) se a(w, v) < 0.
Este método pode, entretanto, produzir, ao inveś de uma rarefação, um choque não
entrópico ( [39], página 118).
Um outro método que evita soluções violando a condição de entropia é o esquema de
Engquist–Osher. Este método é dado por
(Z )
Ui+1,j Z Ui,j
ν ν
Ui,j+1 = Ui,j − {f (Ui+1,j ) − f (Ui−1,j )} + |a(ξ)|dξ − |a(ξ)|dξ
2 2 Ui,j Ui−1,j
220 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
que pode ser colocado na forma conservativa com função de fluxo dada por
( Z Ui+1,j )
1
φi+ 21 j = φ(Ui,j , Ui+1,j ) = f (Ui+1,j ) − f (Ui,j ) − |a(ξ)|dξ
2 Ui,j
Z Ui+1,j
= f (Ui,j ) + a− (ξ)dξ
Ui,j
Z Ui+1,j
= f (Ui+1,j ) − a+ (ξ)dξ
Ui,j
esquemas de alta resolução em esquemas que evitam oscilações (ou ondulações ou novos
extremos) na solução numérica. A literatura é bastante ampla no tratamento desse tipo
de método. Seguiremos uma apresentação simplificada conforme Davis [DAV86] tratando
apenas alguns aspectos básicos e considerando o modelo escalar mais simples possı́vel (isto
é, a equação unidimensional de advecção ou convecção)
φt + aφx = 0, a = constante,
T V (φj+1 ) ≤ T V (φj ).
Observe por esta definição que a TV não pode exceder a TV das condições iniciais, e clara-
mente o esquema é estável (ou, usualmente, TV-estável). A propriedade TVD é desejável
porque ela significa que oscilações não fı́sicas não podem aparecer na solução numérica;
em outras palavras, um esquema de diferenças finitas é monotônico (ou preserva mono-
tonicidade) se dado que φi,j ≥ φi+1,j , para todo i, segue que φi,j+1 ≥ φi+1,j+1 , o que
significa ausência de oscilações. Entretanto, existem limitações na precisão de um esquema
monotônico; esquemas monotônicos são, em sua maioria, de primeira ordem de precisão
(ver [Harteen 1983a], [?]), isto significa que ordem de precisão 1 é o melhor que se pode
esperar de esquemas TVD lineares. Entretanto, esquemas não lineares que preservam mono-
tonicidade e são TVD possuem segunda ordem de precisão (ver [Harteen 1983a], [?]).
Apresentamos a seguir um critério bastante útil, conhecido como lema de Hateen [Harteen
1983a], o qual assegura a propriedade TVD para um esquema numérico. Em resumo, o
critério é como segue. Coloca-se o método na forma
em que ∆φi+1/2 = φi+1,j − φi,j e os coeficientes Di+ 21 e Ci− 21 são funções dos φi,j envolvidos
e em geral a escolha desses coeficientes não é única. Se os coeficientes C e D em (5.64)
satisfazem as seguintes desigualdades para todo i
Ci+1/2 ≥ 0,
Di+1/2 ≥ 0,
0 ≤ Ci+1/2 + Di+1/2 ≤ 1,
222 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
então o esquema é TVD. A verificação desse critério é como segue. Observe que
Observe que a principal exigência de um esquema TVD é que, além de ser conservativo,
a limitação da variação impede a formação de ondulações na solução. A construção de
métodos TVD se deu de várias formas e por diversos autores (ver [Harteen 1983a], [Osher
1984], [Sewby 1984] e [1] para uma descrição detalhada). Uma maneira simples de construir
um método TVD é adicionar um termo de correção ao método Lax–Wendroff. Essa correção
visa eliminar as oscilações que aparecem no entorno das descontinuidades. Isso é obtido
transformando-se esse método em um do tipo TVD. Na verdade o que está por trás dessa
correção é a noção de que um método de primeira ordem não gera oscilações, porque o
termo difusivo (ou de viscosidade artificial) presente neste método é grande o suficiente para
suavizar (amortecer ou atenuar) significativamente a solução (neste caso é comum dizer que
a solução numérica é equivalente à solução do problema parabolizado).
Como um método clássico de segunda ordem funciona bem nas regiões de solução regular
(ou suave) e introduz oscilações no entorno das descontinuidades a idéia inicial é a de se
usar uma “média ponderada” de um método conservativo de primeira ordem com outro
conservativo de segunda ordem, de maneira que próximo às descontinuidades o peso maior
é dado para o método de ordem 1 (portanto para o fluxo de baixa ordem φ1 ), e em regiões
de solução suave o peso é maior para o método de ordem 2 (fluxo de alta ordem φ2 ). Assim
o fluxo médio ficaria φ = φ1 + ψ(r)φ2 ou φ = φ2 + (1 − ψ(r))φ1 , onde 0 ≤ ψ(r) ≤ 1.
Como se pode ver a seguir, um método de ordem 2 pode ser visto como um método de
ordem 1 ao qual adiciona-se um termo de correção de fluxo (antidifusivo). Procura-se então,
em analogia à média ponderada, multiplicar o termo corretivo do fluxo por uma função de
restrição de fluxo (ou limitador de fluxo). A ação do limitador de fluxo tem o papel de
diminuir a importância do termo antidifusivo próximo à descontinuidade. Claramente essa
função deve “reconhecer” a localização da descontinuidade. Isso pode ser feito analisando-se
os gradientes da solução em pontos consecutivos da malha. Em resumo, a idéia por trás
de esquemas TVD é limitar a magnitude da função limitador de fluxo de maneira que a
variação total não aumenta no tempo.
5.4. MÉTODOS NUMÉRICOS PARA LEIS DE CONSERVAÇÃO 223
• Lax-Wendroff
ν ν2
φi,j+1 = φi,j − (φi+1,j − φi−1,j ) + (φi+1,j − 2φi,j + φi−1,j ) (5.67)
2 2
1
= φi,j − ν (φi,j − φi−1,j ) − ν(1 − ν)(φi+1,j − 2φi,j + φi−1,j ) (5.68)
2
1
= φi,j − ν ∆φi−1/2 − ν(1 − ν)(∆φi+1/2 − ∆φi−1/2 ). (5.69)
2
Note que o termo 21 ν(1 − ν)(∆φi+1/2 − ∆φi−1/2 ) na equação (5.69) pode ser interpretado
como um termo antidifusivo adicionado ao esquema upwind de primeira ordem (5.66). No
contexto de fluxo na face de uma célula computacional, pode-se dizer que o fluxo numérico
para o esquema de Lax-Wendroff é o fluxo numérico do esquema upwind mais um termo
adicional, isto é,
1
φi+1/2,j = φi,j + ν(1 − ν)∆φi+1/2 (5.70)
2
É claro que, devido às oscilações não fı́sicas produzidas próximo a descontinuidades, o es-
quema de Lax-Wendroff não é TVD (ver figura 5.55). Sweby [Sewby 1984] sugeriu então
que o fluxo adicional em (5.70) deveria ser limitado por alguma funçao ϕj , que depende
localmente da solução, tal que o esquema resultante
1
φi,j+1 = φi,j − ν ∆φi−1/2 − ν(1 − ν)(ϕj ∆φi+1/2 − ϕj−1 ∆φi−1/2 ) (5.71)
2
tem a propriedade TVD desejada. O esquema (5.71) pode ser reescrito na forma incremental
como
h 1 ∆φ i
i+1/2
φi,j+1 = φi,j − ν + ν(1 − ν) ϕj − ϕj−1 ∆φi−1/2 , (5.72)
2 ∆φi−1/2
e uma variável apropriada para a função limitador de fluxo ϕ é a razão de gradientes con-
secutivos
224 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
0.8
0.6
φ(x)
0.4
0.2
∆φi−1/2
rj = . (5.73)
∆φi+1/2
Combinando as equações (5.72) e (5.73), obtém-se as expressões para os coeficientes
1 ϕ
j
Ci−1/2 = ν + ν(1 − ν) − ϕj−1 e Di+1/2 = 0. (5.74)
2 rj
Do lema de Harten, condições suficientes para que o esquema (5.72) seja TVD (ver [Sewby
1984]) são
ϕ
j
ν≤1 e − ϕj−1 ≤ 2.
rj
Exigências adicionais no limitador de fluxo ϕ são a não negatividade, ϕ ≥ 0, para
preservar o sinal do termo de fluxo adicional, e a condição ϕ = 0 para r ≤ 0, desde que
r < 0 próximo a volores extremos. Usando um método de alta ordem nesses pontos acentua o
valor da solução e, geralmente, causará a variação total da solução aumentar (ver [?]), então
é necessário reverter ao esquema upwind de primeira ordem. Combinando essas exigências,
obtém-se as restrições TVD de Sweby
ϕ(r)
0≤ ≤2 e 0 ≤ ϕ(r) ≤ 2. (5.75)
r
O resultado da análise de Sweby (5.75) pode ser ilustrado graficamente no plano ϕ − r,
como mostra a figura 5.56.
5.4. MÉTODOS NUMÉRICOS PARA LEIS DE CONSERVAÇÃO 225
ϕ= r
ϕ = 2r
ϕ( r )
ϕ= 1
1
ϕ= r
ϕ = 2r
ϕ( r )
ϕ= 1
1
pode-se alcançar segunda ordem de precisão exigindo-se que o limitador de fluxo ϕ(r) passe
suavemente pelo ponto em que ϕ(1) = 1. E para que um esquema de diferenças finitas TVD
com limitador de fluxo seja de segunda ordem, ele deve ser uma combinação convexa dos
métodos Lax-Wendroff e Beam-Warming (ϕ(1) = 1 e ϕ(r) = r), isto é,
ϕ(r) = (1 − α)1 + αr, com 0 ≤ α ≤ 1, (5.76)
e deve estar interiramente contido na região TVD. Isto leva à região TVD reduzida para
esquemas de segunda ordem, como está ilustrado na figura 5.57.
Desde os anos 70, um número considerável de limitadores de fluxo tem aparecido na
literatura, sendo que os mais populares em aplicações de engenharia são os esquemas da
classe MUSCL, isto é, Minmod
ϕ(r) = min{r, 1},
e Superbee
ϕ(r) = M ax{0, M in{1, 2r}, min{0, 2}},
desenvolvidos por Roe [?], e Van-Lear []
r + |r|
ϕ(r) = .
1 + |r|
Hirsch [?] e Yee [?] fornecem uma ampla variedade de limitadores e respectivos esquemas
monotônicos TVD.
A tı́tulo de ilustração, nas Figuras 5.58, 5.59, 5.60, 5.61 e 5.62 estão apresentadas a
solução “exata” (obtida com o esquema upwind de primeira ordem usando uma malha ex-
tremamente fina) e soluções numéricas, para as equações de Euler (5.14). Estas últimas obti-
das, respectivamente, usando os limitadores Minmod, Superbee e Van-Leer, e os esquemas de
Lax-Wendroff e upwind de primeira ordem em uma malha 20 x 20 células comp[utacionais.
Como pode-se observar a partir da Figura 5.61, o esquema de Lax-Wendroff gera oscilações
na solução. E essas oscilações são completamente removidas quando se utiliza os esquemas
com os limitadores de fluxo Minmod, Superbee e VanLeer, ou o esquema de primeira ordem
upwind. Note também que a solução numérica obtida com o esquema upwind é bastante
suavisada, e que a solução obtida usando os esquemas de alta resolução Minmod, Superbee
e VanLeer reduzem os pontos de máximo nas curvas, perdendo precisão. Essa perda de
precisão é uma conseqüência inevitável do uso de esquemas com limitadores de fluxo.
φ − φR
φ̂ = . (5.78)
φD − φR
230 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
φ φ
D R
a) b)
φ φ φ
U f U
φ φ
R D
φ
f
a a
R U f D D f U R
Note que com esta normalização, φˆR = 0, φˆD = 1, e o problema de interpolação para φˆf ,
equação (5.77), fica
φ̂f = φ̂f (φ̂U ). (5.79)
Observe que o uso de variáveis normalizadas simplifica a definição da relação funcional de
esquemas de alta resolução (5.77) e facilita a derivação de condições que esta relação deve
satisfazer para se obter soluções limitadas e estáveis numericamente. O esquema QUICK
(Quadratic Upstream Interpolation for Convection Kinematic) [?], por exemplo, é dado por
1 1 3 3 1
φf = φf (φD , φU , φR ) = (φU + φR ) − (φR − 2φU + φD ) = φR + φU − φD ) (5.80)
2 8 8 4 8
Usando-se (5.78) para normalizar as variáveis na equação (5.80), obtém-se
3 3
φ̂f = φ̂f (φ̂U ) = + φ̂U . (5.81)
8 4
Note que o esquema QUICK depende linearmente φ̂U e essa dependência é mostrada
diagramaticamente na figura 5.65. Vários esquemas bem conhecidos usando a formulação
variáveis normalizadas são apresentados na tabela 5.1.
A relação funcional (5.79) pode ser lançada em um diagrama de variáveis normalizadas,
isto é plotando φ̂f versus φ̂U (ver figura 5.64). A figura 5.65 mostra este mesmo diagrama
mais alguns esquemas não limitados da tabela 5.1, e a figura 5.66 mostra os esquemas
limitados CENTRAL LIMITADO e SMART.
O diagrama de variáveis normalizadas é uma ferramenta bastante útil para se ter uma
idéia geral da precisão e da difusividade do esquema de alta resolução. Por exemplo,
Leonard [?] mostrou que qualquer esquema que tem a relação funcional (5.79) passando
pelo ponto Q = (0.5, 0.75) possui ao menos segunda ordem de precisão, e se, ainda mais,
a inclinação dessa relação neste mesmo ponto é 0.75, então o esquema é de terceira or-
dem (QUICK por exemplo). Também, esquemas que têm relação funcional no diagrama de
5.4. MÉTODOS NUMÉRICOS PARA LEIS DE CONSERVAÇÃO 231
Esquema φf φ̂f
UPWIND φU φ̂U
1 3
CENTRAL 2 (φD + φU ) 4 + 21 (φ̂U − 12 )
3
SOU 2 φU − 21 φR 3
2 φ̂U
1 3 3
QUICK 8 (3φD + 6φU − φR ) 4 φ̂U + 8
φ , φ̂ if φ̂U 6∈ [0, 1],
U U
3φU − 2φR , 3φ̂U if φ̂U ∈ [0, 1/6),
SMART 1
8 (3φD + 6φU − φR ),
3 3
4 φ̂U +
8 if ≤ φ̂U ∈ [1/6, 5/6),
φD .
1 if φ̂U ∈ [5/6, 1).
φU , φ̂U if φ̂U 6∈ [0, 1],
10φU − 9φR , 10φ̂U if φ̂U ∈ [0, 3/74),
1
8 (3φD + 6φU − φR ),
VONOS 3
8 (1 + 2φ̂U ) if φ̂U ∈ [3/74, 1/2),
1, 5φU − 0.5φR ,
5φ̂U
1, if φ̂U ∈ [1/2, 2/3),
φD .
1 if φ̂U ∈ [2/3, 1].
φU φ̂U if φ̂U 6∈ [0, 1],
HLPA
φU + (φD − φU )φ̂U . (2 − φ̂U )φ̂U if φ̂U ∈ [0, 1].
variáveis normalizadas próxima ao esquema upwind de primeira ordem tendem ser altamente
difusivos, enquanto esquemas que têm relação funcional próxima ao downwind de primeira
ordem (φ̂f = 1) tendem ser altamente não difusivos (compressivos).
De maneira similar como nos esquemas TVD, esquemas upwind de alta resolução são
geralmente derivados forçando-se o critério de limitação CBC. Este procedimento tranforma
um esquema linear não limitado de alta ordem em um esquema limitado não linear (ou linear
por partes). A não linearidade (ou linearidade por partes) aparece da dependência desse
critério em função da solução local.
Formalmente, o critério de limitação CBC afirma que se a relação funcional (5.79) é cres-
cente e contı́nua (ou crescente e contı́nua por partes), então uma aproximação por diferenças
finitas para φ̂f é limitada (boundedness property) se, e somente se, satisfaz as seguintes
condições:
• φf (φ̂U ) ≤ 1, φf (φ̂U ) ≥ φ̂U , φf (0) = 0 e φf (1) = 1, se φ̂U ∈ [0, 1],
• φf (φ̂U ) = φ̂U , se φ̂U 6∈ [0, 1].
CBC
^φ
f
Q
3/4
1/2 1 ^
φ
U
^φ
f
Q
3/4
CENTRAL
QUICK
1/2 1 ^φ
U
UPWIND
CENTRAL LIMITADO
^
φ
f
Q
3/4
SMART
1/2 1 ^φ
U
Usando essa relação e as restrições TVD (5.75), a relação funcional (5.79) torna-se TVD se
^φ = 2 ^φ
f U
5.5 Exercı́cios
5.5. EXERCÍCIOS 235
5.1 Fazer um programa em MATLAB para resolver os problemas dos exemplos (5.1.1-5.1.2)
pelo método das caracterı́sticas usando k = 0.1, 0.05, 0.01 e comparar os valores obtidos
em t = 1 com a solução exata.
5.2 Faça um programa MATLAB para resolver, pelo método das caracterı́sticas, o prob-
lema:
ut + tux = 3
6 x<8
(
u(x, 0) = x − 2 8 ≤ x < 12
22 − x x ≥ 12.
Faça os gráficos em separado das caracterı́sticas, dos perfı́s da solução para alguns valores
de t e da superfı́cie da solução .
5.3 Verifique que se f é convexa então a expressão do critério 2 coincide com aquela do
critério 1.
5.4 Considere a equação de Burgers
u2
ut + ( )x = 0, x ∈ [a, b], t>0
2
satisfazendo u(a, t) = u(b, t). Mostre que qualquer que seja a condição inicial u(0, t), existe
um tempo T , a partir do qual há choque.
5.5 Faça um diagrama das caracterı́sticas e possı́veis choques para a equação de Burgers
não viscosa com a seguinte função escada como condição inicial,
2 x<0
(
u(x, 0) = 1 0≤x<2
0 x ≥ 2.
5.6 Mostre que
u x < sm t
e
um sm t ≤ x ≤ u m t
u(x, t) = x
um t <≤ ud t
t
ud x > ud t
representa uma solução fraca da equação de Burgers, onde ue < um < ud e
ue + um
sm =
2
5.7 Mostre que uma possı́vel solução para a equação de Burgers com a seguinte condição
inicial
ue x < 0
u(x, 0) =
ud x ≥ 0
com ue < ud é dada pela figura (5.68). Dizemos que essa solução não satisfaz o princı́pio
entrópico porque pequenas variações nos dados geram sérias mudanças na solução. Verifique!
236 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
1, x ≤ −ǫ
(
ǫ
u (x, 0) = −x/ǫ, −ǫ < x ≤ 0
0, x>0
e seguindo os mesmos passos utilizados no texto para obter a figura (5.18), represente grafi-
camente as soluções dos problemas regularizados.
ut + uux =ǫuxx
ue , x ≤ st
uǫ (x, 0) =
ud , x > st
onde s = (ue +ud )/2 é a velocidade do choque, tem uma solução da forma uǫ (x, t) = w(x−st)
e w é a solução de uma equação diferencial ordinária. Mostre que
1
w(y) = ud + (ue − ud )[1 − tanh((ue − ud )y/(4ǫ))].
2
Note que w(y) → ue quando y → −∞ e w(y) → ud quando y → +∞. Faça a gráfico do
limite quando ǫ → 0. ( [23] página 29).
5.5. EXERCÍCIOS 237
5.10 Resolver numericamente o problema dado pela equação (5.10) traçando gráficos para
alguns valores de ǫ → 0.
5.11 Usando o teorema de Green deduza a expressão (5.13) a partir de (5.12).
5.12 Considere a equação que modela o fluxo de trânsito, cuja solução representa a densi-
dade de carros em uma estrada:
ρ
ρt + (f (ρ))x = 0, onde f (ρ) = ρumax (1 − ).
ρmax
Observe que f (ρ) é côncava. Quando a estrada está vazia (ρ = 0) a velocidade u deve ser
máxima (= umax ) e quando a densidade é máxima (= ρmax ) a velocidade deve ser nula, ou
seja, a velocidade como função da densidade deve ter a forma:
ρ
u(ρ) = umax (1 − ).
ρmax
a. Calcule a posição do choque que se forma quando a condição inicial é:
ρe = 21 ρmax , x < 0
ρ(x, 0) =
ρd = ρmax , x ≥ 0.
b. Compare com a solução obtida para a equação de Burgers com a mesma condição
inicial.
5.17 Estudar os métodos apresentados para a equação de advecção no caso mais geral
ut + a(x, t)ux = d(x, t).
Se a ≡ a(u) ou d ≡ d(u) teremos dificuldades adicionais?
5.18 Estabeleça as moléculas computacionais dos métodos de Euler (5.38), Lax–Friedrichs
(5.39) e upwind (5.41), bem como o termo principal do erro de truncamento local para cada
um deles. Sob quais hipóteses as condições CFL e de estabilidade estarão satisfeitas?
5.19 Usando o critério de von Neumann mostre que o método de Euler explı́cito (5.38) é
incondicionalmente instável. Deduza sob que condições a modificação desse método para a
obtenção do método de Lax-Friedrichs o estabiliza.
5.20 Um método com molécula como o da figura (5.69) e com malha e caracterı́stica como
no diagrama b) da figura (5.36) satisfaz CFL?
i,j
Figura 5.69:
b.
0, x < 0
u(x, 0) =
1, x ≥ 0,
c.
x, x < 0
u(x, 0) =
0, x ≥ 0,
d.
1, x < 0
u(x, 0) =
0, x ≥ 0,
e.
1, x<0
(
u(x, 0) = 1 − x, 0≤x<1
0, x ≥ 1,
5.26 Discuta se o método Box faz uso de fronteira numérica. E o método de Lax–Friedrichs?
5.28 Mostre que a solução da equação da onda com a condição inicial dada por (5.53) é
como em (5.54).
5.29 Estabeleça a relação entre k e h para que o método de Godunov satisfaça a condição
CFL. Faça um programa MATLAB para resolver a equação de Burgers pelo método de Go-
dunov. Utilize duas condições iniciais com um ponto de descontinuidade cada uma gerando,
respectivamente, um choque e uma rarefação .
5.30 Construa um método de amostragem uniforme de dois passos, ( [36], página 230).
Esse método resolve dois problemas de Riemann; sendo o primeiro intermediário, para t =
tj+ 21 , com condição inicial constante por partes e possı́vel descontinuidade em a + ih, isto
é, como em (5.61), cuja solução é, para t = tj+ 12
h
Ui,j+1 (x) = v(xi + ζj+ 12 h, tj+1 ), |x − xi | <
2
onde v é solução do problema de Riemann com condições iniciais Ui− 12 ,j+ 21 e Ui+ 21 ,j+ 21 , com
possı́vel descontinuidade em xi . A figura (5.70) ilustra a sequência construtiva do método
descrito neste exercı́cio.
Ui,j+1
t j+1
Ui-1/2,j+1/2 Ui+1/2,j+1/2
t j+1/2
Ui,j Ui+1,j
tj
a+(i-1)h xi a+ih x i+1 a+(i+1)h
Use as relações entre as caracterı́sticas e as regiões de definição da solução para mostrar que
esse método é instável a menos que νa ≤ 1. Confirme essa conclusão utilizando o método
de von Neumann.
Porque é desejável que um método de diferenças finitas para a equação deste exercı́cio
tenha fator de amplificação igual a 1? Mostre que isso acontece para o esquema:
νa νa
Ui,j+1 + (Ui+1,j+1 − Ui−1,j+1 ) = Ui,j − (Ui+1,j − Ui−1,j )
4 4
e discuta quais as condições de fronteira são requeridas por esse método.
Construa um método usando diferenças centrais. É possı́vel analisar a sua estabilidade pelo
critério de von Neumann? Utilize o método das caracterı́sticas para resolver o problema
acima.
cuja solução é u(x, t) = x(1+t). O método Leap frog para a equação linearizada ut +αux = 0,
α = max{|u|} é estável para να < 1.
Faça experimentos numéricos para k → 0 observando a solução em um valor fixo de t.
Mostre que se f é duas vezes diferenciável é possı́vel obter uma melhor aproximação fazendo:
k 2 a2 ′′
u(x, 0 + k) = f (x) + kg(x) f (x) + O(k 3 ).
2
Observando que uttt (x, 0) = a2 uxxt (x, 0) podemos obter um resultado de ordem mais alta
ainda. Como?
ut + a(x, t)ux = 0, x ≥ 0, t ≥ 0
onde
1 + x2
a(x, t) =
1 + 2xt + 2x2 + x4
com a condição inicial:
a.
1 0.2 ≤ x ≤ 0.4
u(x, 0) =
0 caso contrário
u(0, t) = 0
t
cuja solução exata é u(x, t) = u(x − 1+x2 , 0).
com
u(x, 0) = x2 , ut (x, 0) = 0, ux (0, t) = 0, u(1, t) = 1.
Mostre que as condições de fronteira estão incluı́das no método numérico. Estabeleça as
condições CFL para esse método.
é estável se 0 < ν ≤ 1.
5.43 Coloque os métodos upwind e Lax–Wendroff na forma (??) e mostre que o primeiro
é TVD mas o segundo não.
5.44 Faa̧ experimentos numéricos com o método de Murman-Roe para verificar se choques
e rarefações são seguidos com boa resolução .
5.5. EXERCÍCIOS 243
5.45 Mostre que, para a equação escalar de conservação, o esquema de primeira ordem
abaixo é TVD
Ui,j+1 = Ui,j − ν(f (Ui+1,j ) − f (Ui,j )) αi+ 21 < 0
Ui,j+1 = Ui,j − ν(f (Ui,j ) − f (Ui−1,j )) αi+ 21 > 0
onde
Ui,j para Ui+1,j = Ui,j
αi+ 21 = f (Ui+1,j )−f (Ui,j )
Ui+1,j −Ui,j caso contrário.
Implemente este método em MATLAB e faça experimentos numéricos para verificar se
choques e rarefações são seguidos com boa resolução .
ν
Ui,j+2 + θi,j+2 ((f (Ui+1,j+2 ) − f (Ui,j+2 )) − σδx2 Ui,j+2
2 ν
= Ui,j+1 − θi,j+1 (f (Ui+1,j+1 ) − f (Ui,j+1 )) − σδx2 Ui,j+1
2
5.47 Resolver a equação do exercı́cio (5.38) pelo método hopscotch e comentar sua perfor-
mance.
244 CAPÍTULO 5. EQUAÇÕES HIPERBÓLICAS
5.48 Implemente o método hopscotch para resolver a equação de Burgers e faça experi-
mentos numéricos para capturar choques e rarefações comparando sua performance com os
métodos especialmente desenvolvidos para leis de conservação .
b. A equação
utt = ux uxx , u(x, 0) = f (x), ut (x, 0) = g(x).
[AIS97] H. AISO, A general class of difference approximation for scalar conservation law
converging to the entropy solution and including high resolution ones, Lecture
Notes in Physics, vol 480, Springer Verlag, 1997, pp. 57–62.
[AKT86] A.W. AL-KHAFAJI and J.R. TODLEY, Numerical methods in engineering,
Hartcourt Publishing, 1986.
[AME72] W.F. AMES, Nonlinear partial differential equations in engineering, Academic
Press, New York, 1972.
[AME92] W.F. AMES, Numerical methods for partial differential equations, Academic
Press, New York, 1992.
[BB79] J.P. BORIS and D.L. BOOK, Flux corrected transport iii: Minimal error fct
algorithm, J. Comp. Phys. 30 (1979), 397–432.
[BER50] D.L. BERNSTEIN, Existence theorems in partial differential equations, Prince-
ton University Press, New Jersey, 1950.
[BF86] R.C. BASSANEZI and W.C. FERREIRA, Equações diferenciais com aplicações,
Editora Harbra, São Paulo, 1986.
[CH62] R. COURANT and D. HILBERT, Methods of mathematical physics, Inter-
science, New York, 1962.
[CHO76] A.J. CHORIN, Randon choice solution of hyperbolic systems, J. Comp. Phys.
22 (1976), no. 4, 517–533.
[CL55] E.A. CODDINGTON and N. LEVINSON, Theory of ordinary differential equa-
tions, McGraw-Hill Book Company, New York, 1955.
[CRY83] C.W. CRYER, Numerical functional analysis, Oxford Science Publ., London,
1983.
[CUN93] C. CUNHA, Métodos numéricos para as engenharias e ciências aplicadas, Edi-
tora da UNICAMP, Campinas, 1993.
[CW84] P. COLLELA and P.R. WOODWARD, The piecewise parabolic method (ppm)
for gas dynamical simulations, J. Comp. Phys. 54 (1984), 174–201.
245
246 REFERÊNCIAS BIBLIOGRÁFICAS
[DAV86] S.F. DAVIS, Shock capturing, Numerical Methods for Partial Differential Equa-
tions, Pitman, 1986, pp. 175–198.
[KEL68] H.B. KELLER, Numerical methods for two point boundary value problems, Ginn-
Blaisdell, Massachusetts, 1968.
[KEL71] H.B. KELLER, A new difference scheme for parabolic problems, Numerical Solu-
tions of Partial Differential Equations, Academic Press, New York, 1971, pp. 36–
50.
[LAM73] J. LAMBERT, Computational methods in ordinary differential equations, John
Wiley, 1973.
[LEE66] M. LEES, A linear three-level difference scheme for quasi-linear parabolic equa-
tions, Math. Comp. 20 (1966), 516–522.
[LEV90] R.J. LEVEQUE, Numerical methods for conservation laws, Birkhäuser, 1990.
[LG85] R.J. LEVEQUE and J.B. GOODMAN, Tvd schemes in one and two space
dimensions, Lecture in Applied Mathematics, vol 22, Springer-Verlag, 1985,
pp. 51–62.
[LP82] L. LAPIDUS and G.F. PINDER, Numerical solution of partial differential equa-
tions in science and engineering, Wiley, 1982.
[LUE84] D.G. LUENBERGER, Linear and nonlinear programming, Addison-Wesley,
1984.
[MABB94] M. MENEGUETTE, E.X.L. ANDRADE, M. BOAVENTURA, and C.F. BRAC-
CIALI, Solução numérica de equações diferenciais parciais, FCT/UNESP- Pres-
idente Prudente, Presidente Prudente, 1994, Leituras e Notas 94/4.
[MCB85] O.A. MCBRYAN, Computational methods for discontinuities in fluids, Lectures
in Applied Maths. 22 (1985), 63–79.
[MF64] A.R. MITCHELL and G. FAIRWEATHER, Improved forms of the alternating
direction methods of douglas, peaceman and rachford for solving parabolic and
eliptic equations, Numer. Math. 6 (1964), 285–292.
[MG85] A.R. MITCHELL and D.F. GRIFFITHS, The finite difference method in partial
differential equations, John Wiley & Sons, New York, 1985.
[OC84] S. OSHER and S. CHAKRAVARTHY, Very high order accurate tvd schemes,
Tech. Report 84/44, ICASE, 1984.
[OHLM99] J. OCKENDON, S. HOWISON, A. LACEY, and A. MOVCHAN, Applied partial
differential equations, Oxford University Press, Oxford, 1999.
[OLE57] O. OLEINIK, Discontinuous solutions of nonlinear differential equations, Amer.
Math. Soc. Transl. Ser. 2 (1957), 26–95.
[OS82] S. OSHER and F. SALOMON, Upwind difference schemes for hyperbolic systems
of conservation laws, Math. Comp. 38 (1982), 339–377.
248 REFERÊNCIAS BIBLIOGRÁFICAS
[OS87] S. OSHER and P.K. SWEBY, Recent developments in the numerical solution of
nonlinear conservation laws, The State of Art in Numerical Analysis, Clarendon
Press, 1987, pp. 681–701.
[PL81] P.J.S. PAES LEME, Sistemas hiperbólicos de conservação: Uma análise
numérica de ondas de choque, Congresso Nacional de Matemática Aplicada e
Computacional - SBMAC, Rio de Janeiro, 1981.
[PR55] D.W. PEACEMAN and H.H. RACHFORD, The numerical solution of parabolic
and eliptic equations, J. Soc. Indust. App. Math. 3 (1955), 28–41.
[QV97] A. QUARTERONI and A. VALLI, Numerical approximation of partial differen-
tial equations, Springer, 1997.
[RIV69] T.J. RIVLIN, An introduction to the approximation of functions, Dover, 1969.
[RM67] R.D. RICHTMYER and K.M. MORTON, Difference methods for initial value
problems, John Wiley & Sons, New York, 1967.
[SAU64] V.K. SAUL’YEV, Integration of equations of parabolic type by the method of
nets, Pergamon Press, New York, 1964.
[SCH91] W.E. SCHIESSER, The numerical method of lines: Integration of partial differ-
ential equations, Academic Press, 1991.
[SHE94] J.R SHEWCHUK, An introduction to the conjugate gradiente method without
agonizing pain, Notas de Aula de Carnegie Mellon University, 1994.
[SMI78] G.D. SMITH, Numerical solution of partial differential equations: Finite differ-
ence methods, Clarendon Press, Oxford, 1978.
[SOD89] G.A. SOD, Numerical methods in fluid dynamics: Initial and initial boundary-
values problems, Cambridge University Press, Cambridge, 1989.
[SRS73] H.R. SCHWARZ, H. RUTISHAUSER, and E. STIEFEL, Numerical analysis of
symmetric matrices, Prentice Hall, New Jersey, 1973.
[SWE84] P.K. SWEBY, High resolution schemes using flux limiters for hyperbolic conser-
vation laws, SIAM J. Num. Anal. 21 (1984), 995–1011.
[TAY96] M.E. TAYLOR, Partial differential equations iii: Non linear equations, Springer
Verlag, New York, 1996.
[THO95] J.W. THOMAS, Numerical partial differential equations - finite difference meth-
ods, Springer, New York, 1995.
[THO99] J.W. THOMAS, Numerical partial differential equations - conservation laws and
eliptic equations, Springer, New York, 1999.
[TOM93] M.F TOME, Gensmac: A multiple free surface fluid flow solver, Ph.D. thesis,
Strathclyde University, 1993.
REFERÊNCIAS BIBLIOGRÁFICAS 249
251
252 REFERÊNCIAS BIBLIOGRÁFICAS
[van Leer 1985] van LEER, B. - Upwind–difference methods for aerodynamic problems gov-
erned by the Euler equations - Lectures in Applied Maths, 22 pp. 327-336, 1985.
[Osher 1982] OSHER, S., SALOMON, F. - Upwind difference schemes for hyperbolic sys-
tems of conservation laws - Math. Comp. 38 pp. 339-377, 1982.
[Shewchuck 1994] SHEWCHUK, J. R; An Introduction to the Conjugate Gradiente
Method Without Agonizing Pain, Notas de Aula, Carnegie Mellon Univer-
sity, Pittsburgh, (Cópias desse trabalho podem ser obtidas por FTP anônimo
para WARP.CS.CMU.EDU (IP 128.2.209.103) no arquivo “quake-papers/painless-
conjugate-gradient.ps”, 1994
[Davies 1986] DAVIES, S. F. - Shock capturing - em Numerical Methods for Partial Dif-
ferential Equations, Editado por Hariharan, S.I., Moulden, T. H. - Pitman Research
Notes in Mathematics Series, 145, pp. 175-198, 1986.
[Quarteroni 1997] QUARTERONI, A., VALLI, A. Numerical Approximation of Partial Dif-
ferential Equations Springer, 1997
[Enquist 1985] ENGQUIST, B. E., OSHER, S. SOMERVILLE, R. C. J. Large–scale Com-
putations in Fluid Mechanics Lecture Notes in Applied Maths 22, AMS, volumes 1 e
2, 1985.
[Osher 1987] OSHER, S., SWEBY, P. K. - Recent developments in the numerical solution
of nonlinear conservation laws - em The State of Art in Numerical Analysis Editado
por IRSELES, A., POWELL, M. J. D., Clarendon Press, 1987.
[Coddington 1955] CODDINGTON, E.A., LEVINSON, N. Theory of Ordinary Differential
Equations, McGraw-Hill Book Company, New York, 1955.
[Debnath 1990] DEBNATH, L., MIKUSIŃSKI, P. Introduction to Hilbert Spaces with Ap-
plications, Academic Press New York, 1990.
[Taylor 1996] TAYLOR, M. E. Partial Differential Equations III: Non Linear Equations
Springer Verlag, New York, 1996.
[Ames 1992] AMES, W.F. Numerical Methods for Partial Differential Equations., Academic
Press, New York, 3ed., 1992.
[Ames 1972] AMES, W.F. Nonlinear Partial Differential Equations in Engineering., Aca-
demic Press, New York, vol.I (1965), vol.II (1972).
[Bernstein 1950] BERNSTEIN, D.L. Existence Theorems in Partial Differential Equations.,
Princeton University Press, Princeton, New Jersey, 1950.
[Courant 1962] COURANT, R., HILBERT, D. Methods of Mathematical Physics., Inter-
science, New York, 1962.
[Cryer 1983] CRYER, C.W. Numerical Functional Analysis., Oxford Science Publ., Londres,
1983.
REFERÊNCIAS BIBLIOGRÁFICAS 253
[Douglas 1956] DOUGLAS, J., RACHFORD, H.H. On the numerical solution of heat con-
duction problems in two and three space variables. Trans. Amer. Math. Soc., 82,
421-439, 1956.
[D’yakonov 1963] D’YAKONOV, Ye G. - On the application of disintegrating difference
operators, Z. Vycisl. Mat. i Mat. Fiz., 3, 385-388, 1963.
[2] FRIEDMAN, A. Partial Differential Equations of Parabolic Tipe. Prentice-Hall Inc,
Englewood Cliffs, New Jersey, 1964.
[3] GORDON, P. SIAM J. Appl. Math. v.13, p.667, 1965.
[4] KELLER, H. B. Numerical Methods for Two Point Boundary Value Problems, Ginn-
Blaisdell, Massachusetts, 1968.
[5] KELLER, H.B. A new difference scheme for parabolic problems, in Numerical Solu-
tions of Partial Differential Equations, v.2 (ed. B. Hubbard), Academic Press, New
York, pp. 36-50, 1971.
[6] MITCHELL, A.R., GRIFFITHS, D.F. The Finite Difference Method in Partial Dif-
ferential Equations., John Wiley & Sons, New York, 1985.
[7] MITCHELL, A.R., FAIRWEATHER, G. Improved forms of the alternating direction
methods of Douglas, Peaceman and Rachford for solving parabolic and eliptic equa-
tions. Numer. Math. 6, 285-292, 1964.
[8] PEACEMAN, D.W., RACHFORD, H.H. The numerical solution of parabolic and
eliptic equations. J. Soc. Indust. App. Math. 3, 28-41. 1955.
[9] RICHTMYER, R.D., MORTON, K.M. Difference Methods for Initial Value Problems.,
John Wiley & Sons (Intercience), New York, 1967.
[10] HARTEN, A., HYMAN, J. M. - Selfadjusting grid methods for one dimensional hy-
perbolic conservation laws - J. Comp. Phys. 50 pp. 235-269, 1983.
[11] MCBRYAN, O. A. - Computational methods for discontinuities in fluids - Lectures in
Applied Maths. 22 pp. 63-79, 1985.
[12] SAUL’YEV V.K. Integration of Equations of Parabolic Type by the Method of Nets.,
Pergamon Press, New York, 1964.
[13] SMITH, G.D. Numerical Solution of Partial Differential Equations: Finite Difference
Methods., Clarendon Press, Oxford, 3ed, 1985.
[14] WILLIAMS, W.E. Partial Differential Equations Clarendon Press, 1980
[15] OCKENDON, J.; HOWISON, S.; LACEY, A.; MOVCHAN, A. Applied Partial Dif-
ferential Equations, OUP, 1999.
[16] DUCHATEAU,P.; ZACHMANN, D.W. Theory and Problems of Partial Differential
Equations, McGrawhill, 1986.
254 REFERÊNCIAS BIBLIOGRÁFICAS
[35] GLYMM, J. Solutions in the large for nonlinear hyperbolic systems of conservation
laws, Cmm. Pure Appl. Math, 18, p.697, 1965
[36] SOD, G. A. Numerical Methods in Fluid Dynamics: Initial and Initial Boundary-
Values Problems, CUP, 1989.
[37] SCHWARZ, H. R.; RUTISHAUSER, H.; STIEFEL, E.; Numerical Analysis of Sym-
metric Matrices, Prentice-Hall, 1973.
[38] JEFFREY, A. Quasilinear Hyperbolic Systems and Waves, Pitman, 1976.
[39] GODLEWSKI, E.; RAVIART, P. A. Hyperbolic Systems of Conservation Laws, SMAI,
Ellipses, 1991.
[40] THOMPSON, J. F.; WARSI, Z. U. A.; MASTIN, C. W.; Numerical Grid Generation
– Foundations and Applications Elsevier, 1985.
[41] TREFETHEN, N. Dispersion, dissipation and stability - em Numerical Analysis ed-
itado por Griffits, D. F.; Watson, G. A., Pittman Research Notes in Maths. Series,
140, pp. 200–237, 1986.
Índice Remissivo
A erro, 10
Direções A–conjugadas, 147
ADI
Discretização
método de Douglas e Rachford, 102
equação do calor, 52
método de Mitchell e Fairweather, 102
Domı́nios de dependência e influência, 164
método de Peaceman e Rachford, 101
Domı́nios genéricos, 123
métodos de D’Yakonov, 102
equação de Poisson
Algoritmo de máxima descida
aproximação numérica, 123
convergência, 146
Domı́nios gerais
ilustração da convergência, 146
mudança de coordenadas, 54
C
E
Consistência, 22
EDO
ordem, 22
alta ordem, 15
Convergência
método dos trapézios, 20 condição de Lipschitz, 16
existência e unicidade
teorema de Picard, 16
D
sistemas, 15
Diferenças centrais EDP
derivada de segunda ordem, 11 classificação, 47
erro, 11 curvas caracterı́sticas, 50
ordem, 11 equação da onda, 51
Diferenças finitas equação de Laplace, 51
diferença central, 10 equação de segunda ordem
fórmula progressiva, 9 classificação, 48
fórmula regressiva, 10 equação do calor, 51
fórmulas em duas dimensões, 14 equações lineares canônicas, 51
central, 14 exemplo
progressiva, 14 problema bem posto, 46
regressiva, 14 problema bem posto, 46
fórmula de alta ordem, 11 problemas de autovalores, 47
erro, 11 problemas de equilı́brio, 47
operadores, 12 problemas de propagação, 47
relações, 12 sistema de primeira ordem
outras fórmulas, 12 classificação, 49
Diferenças finitas sistema de segunda ordem
256
ÍNDICE REMISSIVO 257
S
Série de Taylor, 9
erro, 9
Sistemas de EDPs, 45
Sistemas de equações
duas dimensões, 204
Sumário, 6
T
Taxa de convergência
relação entre Jacobi e Gauss-Seidel,
141
Teoremas de Gerschgorin, 78
Transformação de coordenadas
oblı́quas, 57
triangulares, 60
transformação de coordenadas
polares, 55
Z
Zero-estabilidade, 24