EQUAÇÕES DIFERENCIAIS
E
MODELAÇÃO
20 ano da Licenciatura em Matemática
i
ii
Nota prévia
O texto que se apresenta serviu de apoio às aulas da disciplina de Equações Diferenciais
e Modelação leccionada pelos autores nos dois últimos anos. Deve ter-se em mente que o
texto não abarca a totalidade dos tópicos estudados, assim como inclui outros que não foram
abordados, e que a ordem de apresentação não corresponde, em muitas situações, àquela em
que a matéria foi, efectivamente, leccionada. Trata-se, pois, apenas de umas notas ainda em
construção.
Índice
Noções básicas
1. Primeiras definições
Uma equação envolvendo derivadas de uma função desconhecida dependente de uma
ou mais variáveis (independentes) diz-se equação diferencial. Neste curso vamos supor que
esta função desconhecida depende apenas de uma única variável real, e que na equação
figura apenas um número finito de derivadas. Uma tal equação diferencial diz-se ordinária1
(abreviadamente, escreveremos EDO) e pode sempre pôr-se na forma
³ ´
(1.1) F t, y, y ′ , y ′′ , · · · , y (n) = 0
onde y = y(t) é a função incógnita, t é a variável independente, e F é uma função de
várias variáveis definida de uma forma adequada. Naturalmente, na equação (1.1) a plica
representa a derivada relativamente à variável independente t. O número inteiro positivo
n, que indica a ordem da derivada de maior ordem de todas as derivadas que figuram na
equação diferencial, é designado por ordem da equação diferencial. No caso mais geral a
função desconhecida y pode ser interpretada como uma matriz de funções reais,
y = y(t) = [ yij (t) ] i=1,...,r ,
j=1,...,s
pelo que F pode ser considerada definida num subconjunto D ⊂ IRrs(n+1)+1 e a tomar valores
em IRrs . Assim, em geral, o zero no segundo membro da equação (1.1) pode identificar-se
com a matriz nula de ordem r × s.
Por exemplo, considerando r = s = 1 (caso escalar),
µ 3 ¶2
dy d2 y d y
= ty + sin y e − 3 = t2 et
dt dt2 dt3
são equações diferenciais ordinárias de ordens 1 e 3, respectivamente, tendo-se
F (t, y, y ′ ) := y ′ − ty − sin y e F (t, y, y ′ , y ′′ ) := (y ′ )2 − 3(y ′′ )2 − t2 et .
Pensando num exemplo mais elaborado, para r = 2 e s = 3,
2
d y11 d2 y12 d2 y13
5
d y11 4 dy21
t sin y13
d2 y dt
2 dt2 dt2 = dt
5 dt
≡
dt2 d2 y
21
2
d y22 d y232
2 dy13 2
d y23
cos(t ) arccos
dt2 dt2 dt2 dt dt2
é uma equação diferencial (ordinária) de ordem 5, sendo neste caso a função desconhecida
do tipo " #
y11 (t) y12 (t) y13 (t)
y = y(t) = .
y21 (t) y22 (t) y23 (t)
1No caso de na equação diferencial aparecerem mais que uma variável independente, a equação diz-se
de derivadas parciais (e o seu estudo será realizado em disciplinas de anos posteriores).
1
2 1. NOÇÕES BÁSICAS
Seja I um intervalo de R e ϕ : I → Rr×s uma função que admite derivadas até à ordem
n (inclusivé) para todo o t ∈ I. A função ϕ diz-se uma solução explı́cita em I da equação
diferencial (1.1) se
F (t, ϕ(t), ϕ′ (t), . . . , ϕ(n) (t)) ≡ 0 em I .
Isto significa que ϕ é solução explı́cita em I da EDO (1.1) se substituindo nesta y e as
suas sucessivas derivadas por ϕ(t) e as suas sucessivas derivadas, respectivamente, a EDO é
transformada numa identidade em I.
Uma relação
ψ(t, y) = 0
diz-se solução implı́cita em I da EDO (1.1) se define pelo menos uma função ϕ da variável
real t, no intervalo I, tal que esta função é uma solução explı́cita em I de (1.1).
Soluções explı́citas e soluções implı́citas de uma dada EDO denominam-se, usualmente,
soluções. Por resolver ou integrar uma EDO entende-se determinar as suas soluções.
Note-se que uma solução implı́cita não é uma função (de acordo com a definição).
Sucede que por vezes não é possı́vel determinar uma solução explı́cita de uma EDO, pelo
que se considera como “resolução satisfatória” dessa EDO a determinação de uma relação
implı́cita (equação) envolvendo apenas as variáveis independente e dependente (já “livre”
de derivadas!).
Por exemplo, a função ϕ : R → R definida por ϕ(t) = et é solução explı́cita em R da
EDO de ordem 2
y ′′ = y .
√ √
Por outro lado, a relação t2 + y 2 = 2 é solução implı́cita em ] − 2, 2[ da EDO
(1.2) yy ′ = −t ,
√ √
já que cada√uma das funções y = ϕ+ (t) e y = ϕ− (t) definidas por ϕ± :]√ − √ 2, 2[→ R (t 7→
ϕ± (t) = ± 2 − t√ 2 ) satisfaz a relação t2 + y 2 = 2 para todo o t ∈] − 2, 2[, e é solução
√
explı́cita em ] − 2, 2[ da EDO (1.2). Isto pode confirmar-se facilmente determinando
as expressões designatórias que definem as funções derivadas ϕ′+ e ϕ′− , obtendo-se ϕ′± (t) =
√ √ ′
√
∓t/ 2 − t2 , e verificar (por substituição directa) que com y = ± 2 − t2 e y√ = ∓t/
√ 2 − t2
(respectivamente) a equação (1.2) se reduz a uma identidade para t ∈] − 2, 2[. Note-
se também que por derivação em ambos os membros da igualdade t2 + y 2 = 2 obtém-
se 2t + 2yy ′ = 0, donde yy ′ = −t, pelo que da mera comprovação de que uma função
y = ϕ(t), diferenciável nalgum intervalo I ⊂ R, satisfaça à relação t2 + y 2 = 2 em I, decorre
imediatamente que essa função é solução da EDO (1.2) em I.
Na prática, o problema que se coloca é o de saber se uma dada relação implı́cita define,
de facto, alguma função solução de uma dada EDO. Uma condição suficiente para que uma
relação implı́cita defina uma relação explı́cita é dada pelo denominado Teorema das Funções
Implı́citas, estabelecido na disciplina de Análise Infinitesimal. Recordemos aqui uma versão
simples deste importante resultado.
Nas condições do teorema, diz-se que a equação G(t, y) = 0 define y como função implı́cita
de t numa vizinhança de t0 . Recordemos que este é um resultado de natureza local, o que
significa que se tem a garantia de existência de função (explı́cita) a partir da relação implı́cita
apenas numa vizinhança de certo ponto (sob as condições do teorema). Resultados gerais
de natureza global (i.e., que garantam a existência da função num intervalo fixado a priori)
não são conhecidos, embora esta “globalidade” possa ser testada nalguns casos particulares.
Concretizando, no caso do exemplo anterior envolvendo a equação diferencial (1.2), o teorema
precedente apenas garante que existe um intervalo aberto I ⊂ R, vizinhança do ponto 0
(toma-se t0 = 0 para fixar ideias), tal que a relação t2 + y 2 = 2 define √ implicitamente uma
única função (solução da EDO (1.2)) y = ϕ(t) satisfazendo ϕ(0) = 2 para todo o t ∈ I.
Mas o Teorema nada diz àcerca da maior ou menor “extensão” desse intervalo I, nem dá
um método para a determinação (explı́cita) da função ϕ. Contudo, no √ caso em discussão
verifica-se que ϕ seria a função ϕ+ introduzida
√ √ atrás (pois ϕ + (0) = 2) e o “maior” (ou
“mais global”) intervalo I possı́vel seria ] − 2, 2 [.
Observamos ainda, como se constata analisando este último exemplo, que para assegurar
a unicidade da função ϕ nas condições do teorema√ anterior é necessário requerer a sua
continuidade. De facto, considerando
√ √ (t0 , y0 ) = (0, √2) √ e G(t, y) = t2 + y 2 − 2, é fácil de
verificar que as funçõs ϕ1 :] − 2, 2[→ R e ϕ2 :] − 2, 2[→ R definidas por
( √ √
p ϕ+ (t) ≡ 2 − t2 , t ∈] − 2, 0]
2
ϕ1 (t) = ϕ+ (t) ≡ 2 − t e ϕ2 (t) = √ √
ϕ− (t) ≡ − 2 − t2 , t ∈]0, 2 [
ambas √ satisfazem
√ a relação F (t, y) ≡ t2 + y 2 − 2 = 0√em qualquer vizinhança de 0 contida
em ] − 2, 2 [ e ambas cumprem a condição √ y(0)√= 2. O que se passa é que ϕ1 é contı́nua
em qualquer vizinhança de 0 contida em ] − 2, 2 [, mas ϕ2 não (já que é descontı́nua no
ponto 0).
Naturalmente, nem sempre é possı́vel determinar uma solução (explı́cita ou implı́cita) de
uma dada EDO (e pode até suceder que uma EDO não tenha soluções, como, por exemplo,
|y ′ | + y 2 = −1), mas em muitos problemas isso não é importante, bastando apenas saber
justificar, por algum processo, que a solução (ou as soluções) existe e que se comporta
de determinada maneira (por exemplo, que à medida que t cresce a solução se mantém
limitada, ou que certas alterações na equação—tais como a substituição, na EDO dada, de
certos termos por outros—não conduzem a alterações significativas no comportamento das
suas soluções, etc.). Isto conduz ao estudo da chamada Teoria Qualitativa das EDO’s.
Um outro aspecto que também importa referir é que na maior parte das aplicações
não interessa conhecer todas as soluções de uma dada EDO (mesmo que fosse possı́vel
determiná-las), mas sim soluções satisfazendo certas condições previamente fixadas. Assim,
dá-se o nome de problema de valores iniciais ou problema de Cauchy a todo o problema que
consista em determinar a solução (ou as soluções) de uma EDO requerendo que essa solução
satisfaça certas condições dadas num dado ponto (pertencente ao intervalo onde a EDO é
dada). Estas condições dadas dizem-se condições iniciais. Por outro lado, dá-se o nome de
problema de valores na fronteira a todo o problema que consista em determinar a solução (ou
as soluções) de uma EDO requerendo que essa solução satisfaça certas condições dadas em
dois ou mais pontos dados.
4 1. NOÇÕES BÁSICAS
Chama-se solução geral (ou integral geral ou, ainda, integral completo) de uma EDO ao
conjunto de todas as suas soluções. Em particular, se n é a ordem da EDO, uma famı́lia de
funções
(1.3) Φ(t, y, c1 , . . . , cn ) = 0
(explı́citas ou implı́citas), dependente de n parâmetros reais c1 , c2 , ..., cn , define a solução
geral se (i) todo o elemento da famı́lia for solução dessa EDO nalgum intervalo; e (ii) toda
a solução da equação se puder obter dessa famı́lia por concretização de c1 , c2 , ..., cn .
Note-se que é natural (apesar de não ser evidente!) que se existir uma expressão que
seja o “mais geral possı́vel”, no sentido de englobar o maior número possı́vel de soluções da
EDO de ordem n (1.1), nessa expressão figurem n constantes arbitrárias, porque no processo
de integração (resolução) da EDO, intuitivamente tudo se passa como se efectuássemos n
integrações (primitivações), uma vez que na resolução de (1.1) procuramos y e em (1.1)
aparece a derivada de ordem n de y.
Para muitas equações diferenciais, de ordem n, a solução geral reduz-se a uma famı́lia
dependente de n parâmetros, do tipo (1.3). No entanto, existem casos em que isto não sucede.
Qualquer solução que se obtenha desta famı́lia (1.3) por concretização das n constantes c1 ,
c2 , ..., cn diz-se uma solução particular da EDO relativamente à famı́lia em questão. Dada
uma famı́lia de soluções com n parâmetros de uma EDO, chama-se solução singular da EDO
relativamente a esta famı́lia a qualquer solução da EDO que não pertença a essa famı́lia.
Por exemplo,
y = 1/(c + t)2
define uma famı́lia de soluções com um parâmetro da EDO
(1.4) y ′ = −2y 3/2 ,
no sentido de que para cada escolha de c existe um intervalo I onde y = 1/(c+t)2 define uma
solução (em I) desta EDO. No entanto, a solução y(t) ≡ 0 não está incluı́da nessa famı́lia e,
por isso, é uma solução singular da EDO em questão (relativamente à famı́lia definida por
y = 1/(c + t)2 ). Para ilustrar a dependência dos conceitos de solução particular e de solução
singular relativamente a uma famı́lia de soluções, considere-se a EDO de ordem 1
(1.5) y′ = 1
2 (y 2 − 1) .
Constata-se facilmente que a relação
(1.6) y − 1 = c et (y + 1)
define uma famı́lia de soluções com um parâmetro de (1.5) (já que, fazendo c percorrer R,
define implicitamente as funções ϕc (t) := (1 + cet )/(1 − cet ), e comprova-se por substituição
directa que todas estas funções são soluções da EDO em discussão, nalgum intervalo real).
Além disso, ϕ ≡ −1 é solução da EDO, mas não se pode obter da famı́lia (1.6) por nenhuma
escolha da constante c, pelo que constitui uma solução singular da EDO relativamente à
famı́lia (1.6). Por outro lado, também a relação
c (y − 1) = et (y + 1)
define uma famı́lia de soluções com um parâmetro de (1.5). Porém, relativamente a esta
famı́lia, ϕ ≡ −1 é solução particular (escolhendo c = 0) e ϕ ≡ 1 é solução singular.
Por vezes a equação (1.1) pode ser resolvida explicitamente em termos de y (n) , obtendo-
se
(1.7) y (n) = f (t, y, y ′ , y ′′ , . . . , y (n−1) ) ,
2. EXERCÍCIOS 5
onde f é uma função conhecida. Nesse caso, (1.7) diz-se forma normal da equação diferencial.
Observe-se que (1.1) pode corresponder a mais do que uma equação na forma normal. De
√
facto, por exemplo, (y ′ )2 − 4y = 0 representa as duas equações diferenciais y ′ = ±2 y.
No caso mais simples, n = 1, a equação (1.7) reduz-se a
y ′ = f (t, y) .
O capı́tulo 2 tem por objectivo, justamente, o estudo deste tipo de equações (ou das que
se podem reduzir a este tipo) na situação particular em que y é função escalar, o que
corresponde a tomar em (1.1) r = s = 1 (e, claro, n = 1).
2. Exercı́cios
(1) Considere a igualdade cosh α = 12 sin β .
(a) Justifique que não existem números reais α e β que verifiquem a igualdade anterior.
(b) Será a relação cosh y ′′ = 12 sin(πy) uma equação diferencial? Em caso afirmativo, o
que poderá dizer relativamente ao conjunto das suas soluções?
(2) Diga quais das relações indicadas a seguir são equações diferenciais
2
d √ √
a) y ′ = cos(π/y) b) ddt2y = dy ( t+y) c) y ′′′ = −1
y 2 t
d ∂z ∂z ∂x
d) y ′ = 0
e−t dt e) y ′′ = dt 0
log(sy ′ ) ds f) ∂x
+ ∂y
= ∂y
.
(3) Para cada uma das alı́neas seguintes, verifique que as expressões indicadas à direita
definem soluções das equações diferenciais indicadas à esquerda (nalgum intervalo de
números reais).
a) y ′′′ = 8y ; ϕ(t) := e2t−1
2 ′′ ′
b) t y + ty + y = 0 ; ϕ(t) := cos(log x)
ty ty
c) (1 + te )y + ye ′
+ 1 = 0; t + y + ety = 0 .
(4) Considere a relação implı́cita
(ty)2 + log(t2 + y 2 + ǫ) = 0 ,
onde ǫ é um parâmetro positivo (fixo).
(a) Justifique que para ǫ ≥ 1 a relação anterior não pode definir y como função de t em
nenhum intervalo (não degenerado) de números reais.
(b) Se 0 < ǫ < 1, use o Teorema da existência de funções implı́citas para mostrar que
aquela relação define implicitamente uma solução da equação diferencial
t 1 + ty(t2 + y 2 + ǫ)
y′ = −
y 1 + t2 (t2 + y 2 + ǫ)
nalgum intervalo de números reais que contenha√a origem.
(Sugestão: Procure uma solução tal que y(0) = 1 − ǫ )
CAPı́TULO 2
Neste capı́tulo vamos estudar equações diferencias ordinárias de primeira ordem cuja
função desconhecida é escalar. De acordo com o exposto anteriormente, uma tal equação
pode-se traduzir por uma relação do tipo
F (t, y, y ′ ) = 0 ,
onde F é uma função definida de modo adequado. Esta relação pode assumir uma forma
extremamente simples, como
y′ = 0 ,
ou uma forma bastante complicada, tal como
′
p
log |ty ′ | + sin[(t2 y − ey + 1)y ′ + t4 + 3 ] = 0 .
1. Considerações geométricas
Vamos supor que a equação geral de primeira ordem acima pode ser escrita na forma
normal,
(1.1) y ′ = f (t, y) ,
onde f é uma função real conhecida definida num certo conjunto Ω ⊂ R2 .
1.1. Campo de Direcções. Recordemos que se uma função real de variável real é
derivável num certo intervalo então o valor da derivada da função num ponto t0 desse
intervalo é o declive da recta tangente ao gráfico da função no ponto do gráfico cuja abcissa
é t0 . Por outro lado, fixada a função f , a cada ponto (t0 , y0 ) de Ω pode associar-se a recta
r ≡ rt0 ,y0 que passa por (t0 , y0 ) e tem declive f (t0 , y0 ), definida por
y − y0 = f (t0 , y0 )(t − t0 ) .
Por conseguinte, construindo um “pequeno” segmento de recta, ϕt0 ,y0 , passando por (t0 , y0 )
e paralelo a rt0 ,y0 , e fazendo o mesmo para cada ponto (t, y) do domı́nio Ω de f , obtém-
se o chamado campo de direcções definido pela equação (1.1). O gráfico de cada solução
y = ϕ(t) de (1.1) é, pois, tangente ao segmento ϕt,ϕ(t) em cada ponto (t, ϕ(t)) de Ω; e, como
“perto” dos pontos de tangência o gráfico da função tende a confundir-se com o conjunto
dos correspondentes segmentos do campo de direcções, conclui-se que o campo de direcções
permite ter uma ideia aproximada do comportamento geométrico das soluções da EDO (1.1).
O campo de direcções da equação diferencial
y′ = t
é dado pelas figuras seguintes (na figura 1 traçam-se apenas alguns segmentos do campo
de direcções, enquanto que na figura 2 já se indica uma curva representando um esboço do
gráfico de alguma solução).
7
8 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM
2 2
1 1
-2 -1 1 2 -2 -1 1 2
-1 -1
-2 -2
Figura 1 Figura 2
y′ = y .
-2 -1 1 2
-1
-2
Figura 3
Analisando este campo de direcções, podemos inferir algumas conclusões àcerca das
soluções da equação diferencial y ′ = y:
• A solução cresce com o tempo se a condição inicial for positiva; e decresce se a
condição inicial for negativa.
• As soluções não podem mudar de sinal com o crescimento do tempo.
• As soluções não constantes são ilimitadas.
• Se a condição inicial for nula, a solução é a função identicamente nula.
• Não há soluções constantes para além da solução nula.
1. CONSIDERAÇÕES GEOMÉTRICAS 9
Estas conclusões resultam da mera observação da figura 3. Porém, neste caso, podemos
mesmo confirmar a sua veracidade, já que as soluções da EDO y ′ = y são as funções da
forma ϕ(t) = cet , onde c é uma constante real qualquer.
A importância do conhecimento dos campos de direcções está ligada, por exemplo, ao
estudo de certas EDO’s cujas soluções não podem ser determinadas explicitamente, tais
como
2
p
y ′ = cos t2 , y ′ = e−t , y ′ = 1 − k sin2 t (0 < k < 1) , y ′ = t2 + y 2 , etc.
De facto, para cada uma das três primeiras destas equações, a resolução da EDO consiste,
simplesmente, em determinar as primitivas (relativamente à variável t) das funções que
figuram nos segundos membros das igualdades, e é bem conhecido da Análise Infinitesimal
que cada uma das funções envolvidas nos segundos membros dessas equações não admite
primitivas que se possam escrever como soma finita de funções elementares, i.e., funções
polinomiais, racionais, exponenciais, logarı́tmicas, circulares e hiperbólicas (e suas inversas).
Referimos, a tı́tulo de curiosidade, que as funções que figuram nos segundos membros destas
2
EDO’s têm interesse efectivo em problemas concretos: p cos t é uma função útil em Óptica;
2
e−t é fundamental na Teoria das Probabilidades; e 1 − k sin2 t está ligada aos chamados
integrais elı́pticos, úteis no cálculo do comprimento de uma elı́pse, por exemplo. Por outro
lado, o campo de direcções é construı́do directamente a partir da equação diferencial em
análise, procedimento que não envolve o conhecimento explı́cito das soluções da equação, e
em muitos casos permite traçar satisfatoriamente os gráficos dessas soluções.
1.5
0.5
-2 -1 1 2
-0.5
-1
-1.5
-2
Figura 4
Como último exemplo, considere-se a EDO
y ′ = t2 + y 2 .
-2 -1 1 2
-1
-2
Figura 5
Do exposto, a resolução da EDO (1.1) tem uma interpretação geométrica natural: fixada
a função f e o domı́nio Ω, trata-se de determinar (se existirem) todas as curvas contidas em
Ω cujas rectas tangentes em cada ponto (t, y) da curva coincidam com as dadas pelo campo
de direcções neste ponto.
2. EQUAÇÕES EXACTAS 11
2. Equações exactas
2.1. Definição. Sejam M (t, y) e N (t, y) duas funções definidas num determinado aberto
Ω ⊂ R2 , e considere-se a EDO
(2.1) M (t, y) + N (t, y)y ′ = 0 .
Se N (t, y) 6= 0 para todos os pontos (t, y) ∈ Ω, (2.1) pode reduzir-se à forma normal (1.1)
com
M (t, y)
f (t, y) = − .
N (t, y)
A EDO (2.1) diz-se diferencial total exacta (ou, simplesmente, exacta) em Ω se existir uma
função u(t, y) definida em Ω tal que
∂u ∂u
(2.2) (t, y) = M (t, y) , (t, y) = N (t, y) , ∀(t, y) ∈ Ω .
∂t ∂y
A designação resulta do facto de, nas condições indicadas (e atendendo ao teorema da
derivação da função composta), ser
∂u ∂u dy d
M (t, y) + N (t, y)y ′ = (t, y) + (t, y) (t) = u(t, y(t))
∂t ∂y dt dt
(i.e., M + N y ′ é exactamente a derivada total (ordinária), du/dt, da função definida pela
correspondência t 7→ u(t, y(t))).
Observe-se que a relação M + N y ′ = du/dt permite determinar as soluções de (2.1), as
quais são, portanto, definidas implicitamente pela fórmula
u(t, y) = C ,
onde C é uma constante real arbitrária.
onde g(y) é, em princı́pio, uma função arbitrária de y (que desempenha o papel das con-
stantes de integração nos processos de primitivação usuais). Para determinar g, vamos usar
a segunda condição, uy = N , a que u (existindo) também deve satisfazer. Assim, derivando
ambos os membros de (2.5) relativamente a y, obtém-se
Z t
∂
(2.6) g ′ (y) = N (t, y) − M (s, y)ds ,
∂y t0
e como µ Z t ¶
∂ ∂
N− M (s, y)ds = Nt − My = 0
∂t ∂y t0
(atenda-se ao Teorema de Schwarz para funções reais de duas variáveis reais e ao Teorema
Fundamental do Cálculo Integral para funções reais de uma variável real), conclui-se que
o segundo membro de (2.6) depende, de facto, apenas de y. Consequentemente, g pode
obter-se de (2.6) e decorre que a função u procurada é dada por (2.5). Portanto, mostrámos
que a condição (2.3) é suficiente para que a EDO (2.1) seja exacta.
Para concluir a demonstração resta mostrar que a fórmula (2.4) define uma solução
implı́cita de (2.1), para cada constante real C. Para isso, começamos por calcular g(y) a
partir de (2.6), obtendo-se (integrando ambos os membros de (2.6) entre y0 e y)
Z y Z t Z t
g(y) = g(y0 ) + N (t, s)ds − M (s, y)ds + M (s, y0 )ds ,
y0 t0 t0
o que mostra que (2.4) é uma solução implı́cita de (2.1) para cada C ∈ R.
Observação 2.1. Como decorre da demonstração, no enunciado do teorema precedente
pode substituir-se a condição de Ω ser um rectângulo pela condição de ser um conjunto aberto
e convexo de R2 (e, nesse caso, supor que (t0 , y0 ) ∈ Ω).
Observação 2.2. Em (2.5), a escolha de t0 e y0 é arbitrária, impondo-se apenas que
sejam escolhidos por forma a que os integrais envolvidos se mantenham próprios.
2.3. Factores integrantes. Por vezes, é possı́vel transformar uma EDO não exacta
numa exacta, multiplicando ambos os membros da EDO (não exacta) por um certo factor
µ ≡ µ(t, y), chamado factor integrante, tal que
(2.7) µ(t, y)M (t, y) + µ(t, y)N (t, y)y ′ = 0
seja uma EDO exacta. Observe-se, no entanto, que as EDO’s (2.1) e (2.7) podem não
ser equivalentes, pois podemos “perder” ou “ganhar” soluções com a introdução do factor
integrante. Por exemplo, a EDO
(2.8) y + 3ty ′ = 0
2. EQUAÇÕES EXACTAS 13
é factor integrante de (2.8), como anteriormente se tinha visto. Por outro lado, tem-se
também µ ¶
1 ∂M ∂N 2
− − = ≡ Y (y) ,
M ∂y ∂t y
pelo que
2
µ(y) = e y dy = y 2
é também factor integrante de (2.8).
Agora, considerando a EDO exacta que resulta de (2.8) pela multiplicação do factor
integrante y 2 , i.e., a EDO (2.9), usando a fórmula (2.3) do Teorema 2.1 conclui-se que as
soluções de (2.8) são dadas por
Z y Z t
2
3ts ds + y03 ds = C , i.e. , ty 3 = C , C ∈ R .
y0 t0
i.e., H(y) é uma primitiva, relativamente à variável t, de h(y)y ′ . Assim, de acordo com o que
se expôs para a resolução de (3.1), é agora claro como resolver (3.2): primitivam-se ambos
os membros de (3.2) relativamente a t, obtendo-se
H(y) = G(t) + C (C ∈ R) ,
ou, usando uma notação mais sugestiva,
Z Z
(3.3) h(y) dy = g(t) dt + C (C ∈ R) .
Observe-se que nesta expressão estão abarcadas todas as soluções de (3.2), por construção,
pelo que (3.3) constitui a solução geral de (3.2).
Como primeiro exemplo, considere-se a EDO
(3.4) y ′ = e−2y cos t .
Multiplicando ambos os membros da equação por e2y , obtém-se e2y y ′ = cos t, pelo que (3.4)
é uma EDO de variáveis separáveis, cuja solução geral é determinada por
Z Z
e2y dy = cos t dt + C , i.e. , e2y = 2 sin t + C (C ∈ R) ,
relação que define implicitamente as soluções de (3.4). Neste caso é claro que, considerando
intervalos adequados para a variação de t, as soluções podem mesmo explicitar-se, de modo
que (em intervalos adequados) as soluções de (3.4) são definidas por
√
ϕ(t) = log 2 sin t + C (C ∈ R) .
Como se constata imediatamente, e (3.4) sugere, uma EDO de variáveis separáveis
é, essencialmente, uma EDO de primeira ordem que se pode escrever na forma normal
y ′ = f (t, y) onde a função f (t, y) é factorizável como produto de duas funções, uma apenas
de t e outra apenas de y, digamos, f (t, y) = g(t)h1 (y), ou seja, é essencialmente uma EDO
da forma
(3.5) y ′ = g(t)h1 (y) .
Note-se que se h1 (y) 6= 0 nalgum intervalo então, nesse intervalo, (3.5) é equivalente a (3.2),
pondo h(y) = 1/h1 (y) e, de acordo com (3.3), a solução geral de (3.5) é dada por
1
Z Z
(3.6) dy = g(t) dt + C (C ∈ R) .
h1 (y)
Porém, se h1 (y0 ) = 0 para algum y0 , então é óbvio que a função constante definida por
ϕ(t) ≡ y0
é solução de (3.5) em qualquer intervalo onde g esteja bem definida (e, claro, seja aı́ primi-
tivável).
Como segundo exemplo, considere-se a EDO
(3.7) y ′ = (3 − y)y .
Referimos que EDO’s deste tipo dizem-se logı́sticas e aparecem frequentemente em problemas
de variação populacional. É óbvio, por um lado, que
ϕ1 (t) ≡ 0 e ϕ2 (t) ≡ 3
3. EQUAÇÕES DE VARIÁVEIS SEPARÁVEIS 17
Daqui, para C > 0 (fixo) resulta que y/(3 − y) = ±Ce3t para todo o t ∈ I. Porém, como
procuramos y = y(t) como solução de uma EDO no intervalo I, logo, em particular, y deverá
ser uma função contı́nua de t em I, terá forçosamente de ser ou y/(3 − y) = Ce3t para todo o
t ∈ I, ou y/(3 − y) = −Ce3t para todo o t ∈ I. Estas duas situações podem ser descritas por
uma mesma expressão, atribuindo maior liberdade à constante C, e deduz-se que a relação
y
(3.9) = Ce3t (C ∈ R)
3−y
define implicitamente uma famı́lia de soluções da EDO (3.7) nalgum intervalo I. Note-se
que a solução ϕ1 ≡ 0 se obtém desta famı́lia de soluções como solução particular, escolhendo
C = 0. Foi por isso que se pôs C ∈ R e não C ∈ R\{0}, em (3.9). Observe-se também que
a solução ϕ2 ≡ 3 não se pode obter de (3.9) por concretização de C, pelo que constitui uma
solução singular da EDO (3.7) relativamente a esta famı́lia de soluções (3.9). Além disso,
resolvendo (3.9) [ou (3.8)] relativamente a y, conclui-se que as soluções de (3.7) são dadas
explicitamente por
3Ce3t /(Ce3t − 1) , y < 0
0 , y=0
(3.10) ϕ(t) = 3Ce3t /(Ce3t + 1) , 0 < y < 3
3 , y=3
3Ce3t /(Ce3t − 1) , y > 3 ,
somos conduzidos à seguinte regra prática para a determinação das soluções da EDO de
variáveis separadas na forma (3.2): basta “aplicar integrais” a ambos os membros da igual-
dade (3.11).
Assim, por exemplo, para resolver a EDO yy ′ = t2 , reescrevemo-la Rna forma Ry dy = t2 dt
e, “aplicando integrais”, segue-se que as suas soluções são dadas por y dy = t2 dt + C,
ou seja, são definidas implicitamente pela relação
y2 t3
= + C (C ∈ R) .
2 3
Observação 3.2. Do mesmo modo, em vez da EDO do tipo (2.1), anteriormente con-
siderada, também é corrente (e rigoroso) escrever
(3.12) M (t, y) dt + N (t, y) dy = 0 .
Contudo, neste caso as vantagens não são tão evidentes como no caso acima, pois as variáveis
t e y figuram nas funções que aparecem como factores de ambos os acréscimos dt e dy na
equação, pelo que não faz sentido “aplicar integrais” a (3.12).
onde C é uma constante real arbitrária, logo o integral geral da EDO (4.1) é
µZ ³ ´ ¶
P (t)dt
(4.2) y= Q(t) e dt + C e− P (t)dt , C ∈ R .
Observação 4.1. A introdução do factor integrante µ, tal como definido acima, pode
justificar-se no contexto da teoria devenvolvida para as equações diferenciais totais exactas.
Com efeito, (4.1) é do tipo (2.1), com M (t, y) := P (t)y − Q(t) e N ³ (t, y) ≡ 1´ . Como
∂M/∂y = P (t) e ∂N/∂t = 0 , a equação não é total exacta. Porém, N1 ∂M ∂y − ∂t
∂N
= P (t) ,
que só depende de t, pelo que existe factor integrante como função apenas de t, que é
justamente o factor µ introduzido acima.
4.2. Método da variação das constantes arbitrárias. Este método consiste em re-
solver a EDO (4.1) em duas etapas, determinando primeiramente a solução geral da equação
homogénea associada,
(4.3) y ′ + P (t)y = 0 ,
que é uma equação de variáveis separáveis (e, portanto, sabemos já como resolver), e em
seguida fazendo variar a constante arbitrária, C, que figura na solução geral que já se
determinou (da equação homogénea), considerando momentaneamente que essa constante é
função de t, digamos, C = C(t), e determinando em seguida C(t) de modo que a expressão
da solução geral da equação homogénea, com C(t) em vez de C, seja uma solução particular
da equação completa (4.1). É óbvio que y(t) ≡ 0 é uma solução de (4.3). Supondo então
y 6= 0 nalgum intervalo, nesse intervalo deduz-se sucessivamente
1 1
Z Z
dy = −P (t) dt ⇒ dy = − P (t) dt + c
y y
Z
⇒ log |y| = − P (t) dt + c
⇒ |y| = ec e− P (t)dt
,
onde c é uma constante real arbitrária. Pela continuidade da solução de uma EDO, decorre
que a solução geral da equação homogénea (4.3) é dada por
y = C e− P (t)dt
, C ∈ R.
20 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM
Supondo agora que C é função de t, determine-se C(t) de modo que y(t) = C(t) e− P (t)dt
seja solução de (4.1). Como y ′ (t) = [C ′ (t) − P (t)C(t)] e− P (t)dt , substituindo estas ex-
pressões de y(t) e y ′ (t) em (4.1), obtém-se
Z ³ ´
C ′ (t) = Q(t) e− P (t)dt ⇒ C(t) = Q(t) e P (t)dt dt + C , C ∈ R ;
que é uma EDO linear na variável dependente v que, portanto, sabemos já como resolver.
5.3.2. Equação de Clairaut. Uma EDO da forma
(5.3) y = ty ′ + f (y ′ ) ,
onde f é uma função definida nalgum intervalo de R, diz-se uma equação de Clairaut. Efec-
tuando na equação anterior a mudança de variável (y → p) definida por
dy
p = y′ ≡ ,
dt
a equação pode reescrever-se na forma
(5.4) y = tp + f (p) .
Supondo agora que f é diferenciável e atendendo a que p é função de t, derivando ambos os
membros desta equação relativamente a t, obtém-se
dy dp dp ′ dp
=p+t + f (p) ⇔ [ t + f ′ (p) ] = 0.
dt dt dt dt
Assim, as soluções da equação satisfazem
dp
= 0 ou t + f ′ (p) = 0 .
dt
No primeiro caso, tendo derivada nula (num intervalo), p é necessariamente uma função
constante (nesse intervalo), digamos p ≡ c; logo, substituindo em (5.4), resulta
(5.5) y = ct + f (c) , c ∈ R.
No segundo caso, é t = −f (p) e, substituindo em (5.4), deduz-se y = −pf ′ (p) + f (p);
′
e conlui-se que as soluções da EDO (6.1) são definidas implicitamente pela relação
y 3 t = 2(y 2 + 2y + 2) + Cey , C ∈ R.
26 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM
Prova. Que (i) implica (ii) é imediato, já que, sendo ϕ solução de (7.2) então é ϕ(t0 ) = y0
e ϕ′ (s) = f (s, ϕ(s)) para todo o s ∈ I, logo, integrando ambos os membros desta igualdade
no intervalo [t0 , t], com t ∈ I, fixo, obtém-se
Z t
ϕ(t) − ϕ(t0 ) = f (s, ϕ(s)) ds ,
t0
donde resulta que ϕ é solução de (7.3). Para provar que (ii) implica (i), suponha-se que ϕ
satisfaz a equação integral (7.3) em I, i.e.,
Z t
(7.4) ϕ(t) = y0 + f (s, ϕ(s)) ds , t ∈ I .
t0
Então, é claro que ϕ(t0 ) = y0 e como, pelas hipóteses do teorema, a função s ∈ I 7→ f (s, ϕ(s))
é contı́nua, decorre do Teorema Fundamental do Cálculo Integral que a função
Z t
t ∈ I 7→ f (s, ϕ(s)) ds
t0
é diferenciável em I (tendo por derivada a função integranda calculada para s = t). Assim,
o segundo membro de (7.4) define uma função diferenciável em I, logo o mesmo sucede
ao primeiro membro, i.e., ϕ é diferenciável em I. Derivando então ambos os membros da
igualdade (7.4), obtém-se ϕ′ (t) = f (t, ϕ(t)) para todo o t ∈ I, o que prova que ϕ é solução
de (7.2) em I.
Observação 7.1. A condição inicial desempenha um papel determinante na definição
do intervalo de definição da solução. Com efeito, considerando a EDO
y′ = y2 ,
com a condição inicial y(0) = 1 o correspondente problema de Cauchy tem por solução
y(t) = 1/(1 − t) , t ∈] − ∞, 1[ ;
7. PROBLEMA DE CAUCHY: y ′ = f (t, y) , y(t0 ) = y0 27
(cuja existência é assegurada pelo teorema de Weierstrass). Nestas condições, dado δ > 0,
existe uma função ϕ que é uma solução δ−aproximada de (7.1) no intervalo
Iα := { t ∈ R : |t − t0 | ≤ α } , α := min{a, b/M } ,
e que satisfaz ϕ(t0 ) = y0 .
Prova. Mostraremos que existe uma função ϕ (nas condições indicadas) definida em
[t0 , t0 + α]. (De modo análogo se definiria a função em [t0 − α, t0 ].) Fixemos δ > 0. Como f
é contı́nua em Ω, que é um subconjunto compacto de R2 , então é aı́ uniformemente contı́nua
e, portanto, para o δ considerado pode assegurar-se a existência de ǫ = ǫ(δ) > 0, tal que
(7.5) |f (t, y) − f (s, w)| ≤ δ ,
sempre que se cumpram as condições
(t, y), (s, w) ∈ Ω , |t − s| ≤ ǫ e |y − w| ≤ ǫ .
Proceda-se a uma partição do intervalo [t0 , t0 + α] em m sub-intervalos, definidos pelos
pontos t0 < t1 < · · · < tm = t0 + α, escolhidos de tal modo que
(7.6) max |tk+1 − tk | ≤ min{ǫ, ǫ/M } .
Defina-se então a função ϕ por
(
ϕ(t0 ) := y0
(7.7)
ϕ(t) := ϕ(tk ) + f (tk , ϕ(tk ))(t − tk ) , tk < t ≤ tk+1 (k = 0, 1, . . . , m − 1) .
Note-se que ϕ está bem definida, já que (como se constata facilmente por indução sobre k)
(tk , ϕ(tk )) ∈ Ω , k = 0, 1, . . . , m .
Vamos provar que ϕ é uma solução δ− aproximada de (7.1). As condições (i)-(iii) da definição
de solução δ−aproximada verificam-se facilmente. Observe-se que, relativamente a (iii), o
conjunto S é S := {t1 , . . . , tm }. Quanto a (iv), temos que mostrar que
(7.8) |ϕ′ (t) − f (t, ϕ(t))| ≤ δ , t ∈ [t0 , t0 + α]\S .
Para isso, comecemos por verificar que
(7.9) |ϕ(t) − ϕ(s)| ≤ M |t − s| , t, s ∈ [t0 , t0 + α] .
De facto, se t e s pertencerem ao mesmo sub-intervalo [tk , tk+1 ], tem-se
|ϕ(t) − ϕ(s)| = |(t − s)f (tk , ϕ(tk ))| ≤ M |t − s| ,
7. PROBLEMA DE CAUCHY: y ′ = f (t, y) , y(t0 ) = y0 29
o que prova (7.9) nesse caso. Se t e s não pertencerem ao mesmo sub-intervalo, digamos,
t ∈ [tk , tk+1 ] e s ∈ [tℓ , tℓ+1 ], com k, ℓ ∈ {0, 1, . . . , m − 1} e k > ℓ, tem-se
|ϕ(t) − ϕ(s)| ≤ |ϕ(t) − ϕ(tk−1 )| + |ϕ(tk−1 ) − ϕ(tk−2 )| + · · · + |ϕ(tℓ+1 ) − ϕ(s)| ,
e como para cada um dos pares (t, tk−1 ), (tk−1 , tk−2 ), . . . , (tℓ+1 , s) os pontos do par per-
tencem todos ao mesmo sub-intervalo (e, portanto, provámos já que vale (7.9) para os
pontos de cada um desses pares), obtém-se de imediato
|ϕ(t) − ϕ(s)| ≤ M |t − tk−1 | + M |tk−1 − tk−2 | + · · · + M |tℓ+1 − s|
= M (t − tk−1 + tk−1 − tk−2 + · · · + tℓ+1 − s)
= M |t − s| ,
o que completa a prova de (7.9).
Assim, se t é tal que tk < t ≤ tk+1 , então por (7.6) tem-se
(7.10) |t − tk | ≤ ǫ
e, por conseguinte, de (7.9) deduz-se que também
(7.11) |ϕ(t) − ϕ(tk )| ≤ ǫ ,
e, uma vez que (7.10) e (7.11) se verificam, de (7.5) conclui-se que
|f (t, ϕ(t)) − f (tk , ϕ(tk ))| ≤ δ ;
e, portanto, como por (7.7) é ϕ′ (t) = f (tk , ϕ(tk )) para tk < t < tk+1 , deduz-se
|ϕ′ (t) − f (t, ϕ(t))| = |f (tk , ϕ(tk )) − f (t, ϕ(t))| ≤ δ ,
o que prova (7.8) e conclui a demonstração do teorema.
considerar na partição, e cuja determinação depende do valor δ fixado), conclui-se que esta
linha poligonal é o gráfico da solução δ−aproximada requerida, e constata-se facilmente que,
analiticamente, pode ser expressa por (7.7). Fica assim justificada a forma como surgiu a
função ϕ na demonstração precedente.
y0 +b
★★
★
★ T
y2
★
★
y3 ★ ★★❜❜✧✧
★★
y1
★✥
✥ ✥
(t0 ,y0 ) ❝ t1 t2 t3 t0 +α t0 +a
❝
❝
❝
❝
❝
❝
❝❝
Figura 6
Prova. Seja {δn }n≥0 uma sucessão estritamente decrescente de números reais positivos
convergente para zero (arbitrariamente fixa):
(7.12) δn ց 0 (n → +∞) .
Pelo teorema 7.2, para cada n existe uma solução δn −aproximada, ϕn , do problema de
Cauchy (7.1) no intervalo Iα tal que ϕn (t0 ) = y0 . Naturalmente, podemos considerar que
estas funções ϕn são definidas como em (7.7) na demonstração do teorema 7.2, com δn em
vez de δ (observe-se que δ intervém, de facto, na construção da solução δ−aproximada, pois
é a partir de δ que se determina o número m com o qual se determina o número de pontos
tj (j = 0, 1, . . . , m) que intervêm na definição (7.7)). Assim, atendendo a (7.9), para cada n
tem-se
(7.13) |ϕn (t) − ϕn (s)| ≤ M |t − s| , t, s ∈ Iα .
Daqui, para s = t0 , como |t − t0 | ≤ α ≤ b/M e ϕn (t0 ) = y0 , sai
|ϕn (t)| ≤ |y0 | + b , ∀ t ∈ Iα ,
o que mostra que a famı́lia de funções F := {ϕn }n∈N é uniformemente limitada em Iα .
Além disso, (7.13) implica ainda que {ϕn }n∈N é uma famı́lia equicontı́nua em Iα , porque
dado δ > 0 existe ǫ := δ/M tal que a condição |t − s| ≤ ǫ implica |ϕn (t) − ϕn (s)| ≤ δ,
para todo o n. Assim, pelo teorema de Ascoli-Arzelá, existe uma subsucessão {ϕnj }j∈N que
converge uniformemente em Iα para uma função limite ϕ definida em Iα ,
ϕ(t) := lim ϕnj (t) , t ∈ Iα .
j→+∞
Esta função ϕ é contı́nua em Iα , por ser o limite uniforme de funções contı́nuas. Mostraremos
que ϕ é solução do problema de Cauchy (7.1) em Iα , o que concluirá a demonstração. Com
efeito, como cada ϕn é solução δn −aproximada de (7.1) em Iα , tem-se
|ϕ′n (t) − f (t, ϕn (t))| ≤ δn , t ∈ Iα \Sn
e, portanto, podemos escrever
Z t
(7.14) ϕn (t) = y0 + { f (s, ϕn (s)) + ∆n (s) } ds , t ∈ Iα
t0
onde (
ϕ′n (t) − f (t, ϕn (t)) , t ∈ Iα \Sn
∆n (t) :=
0 , t ∈ Sn
e Sn representa o conjunto dos possı́veis pontos onde ϕ′n
não existe. Como ϕn cumpre a
condição (iv) da definição de solução δn −aproximada, então é óbvio que
(7.15) |∆n (t)| ≤ δn , t ∈ Iα .
Como f é uniformemente contı́nua em Ω e ϕnj → ϕ uniformemente em Iα quando j → +∞,
segue-se que f (t, ϕnj (t)) → f (t, ϕ(t)) uniformemente em Iα quando j → +∞. Substituindo
então n por nj em (7.14) e tomando em seguida limites quando j → +∞, e observando que
∆nj → 0 (já que δnj ց 0), obtém-se
Z t
ϕ(t) = y0 + f (s, ϕ(s)) ds , t ∈ Iα .
t0
Conclui-se que ϕ é uma função contı́nua que satisfaz (7.3) e, portanto, pelo teorema 7.1, é
solução de (7.1), o que conclui a demonstração.
32 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM
Observação 7.4. O intervalo Iα dado pelo teorema de Cauchy-Peano pode não ser o
maior intervalo onde existe solução para o problema de Cauchy (7.1). Com efeito, considere-
se o problema
(
y′ = 1 + y2
y(0) = 0 .
Ora, quando b percorre o conjunto dos números reais positivos, o maior valor que a expressão
b/(1 + b2 ) pode assumir é 12 , logo para qualquer escolha de a > 0 é sempre Iα ⊂ [− 21 , 12 ].
Assim, o maior £ intervalo de existência de solução que o teorema de Cauchy-Peano permite
assegurar é − 21 , 21¤ . Mas,
¤
£ constata-se facilmente que £ ϕ(t)¤ := tan t é solução do prob-
lema no intervalo − π2 , π2 , que contém estritamente − 12 , 12 . Isto põe em evidência algu-
mas limitações do teorema de Cauchy-Peano. Assinale-se, no entanto, que impondo certas
condições adicionais é possı́vel estabelecer resultados que assegurem a existência (e unici-
dade) de solução para o problema de Cauchy definida num intervalo I previamente fixado
(cf. corolário 7.1 adiante).
Observação 7.7. A condição (7.17) traduz, essencialmente, que para funções f difer-
enciáveis a condição de Lipschitz é equivalente à existência de derivada limitada a respeito da
segunda derivada. Contudo, uma função pode ser lipschitziana e não ter derivada limitada
a respeito de y, como sucede com
f (t, y) := |y| , Ω := R2 .
De facto, esta função f não tem derivada nos pontos (t, 0), logo, em particular, não tem
derivada limitada a respeito de y em R2 . Porém, para (t, y1 ), (t, y2 ) ∈ R2 , é
|f (t, y1 ) − f (t, y2 )| = | |y1 | − |y2 | | ≤ |y1 − y2 | ,
logo f é lipschitziana em R2 , com constante de Lipschitz L := 1.
Assinale-se, finalmente, que quando aplicável o critério expresso pelo teorema anterior
pode simplificar consideravelmente os cálculos na verificação do carácter lipschitziano de uma
função. Assim, por exemplo, retomando o exemplo atrás, com f (t, y) := t sin y + y cos t e
Ω := { (t, y) ∈ R2 : |t| ≤ a¯ , |y|
¯ ≤ b }, é óbvio que f é diferenciável a respeito de y, tendo-se
∂f ¯ ∂f ¯
∂y = t cos y + cos t , logo ¯ ∂y ¯ ≤ |t| + 1 , donde
¯ ¯
¯ ∂f (t, y) ¯
sup ¯ ¯ ¯ ≤ a + 1,
(t,y)∈Ω ∂y ¯
pelo que f é lipschitziana em Ω, com constante de Lipschitz L := a + 1.
7.5. Unicidade da solução: Teorema de Picard. Nos dois parágrafos precedentes
provámos que, essencialmente, a continuidade de f assegura a existência de solução para o
problema de Cauchy (7.1), e referimos que a continuidade de f juntamente com a condição
de Lipschitz permite estabelecer a unicidade da solução. Esta afirmação é justificada pelo
teorema de Picard que a seguir se estabelece.
Teorema 7.5. (Picard) Sejam t0 , y0 ∈ R, a, b > 0 e Ω o rectângulo
Ω = { (t, y) ∈ R2 : |t − t0 | ≤ a , |y − y0 | ≤ b } .
Suponha-se que f é contı́nua em Ω; seja M > 0 tal que
|f (t, y)| ≤ M , ∀(t, y) ∈ Ω .
Admita-se ainda que f é lipschitziana em Ω a respeito da segunda variável. Então, existe
uma e uma só solução y = ϕ(t) do problema de Cauchy (7.1) definida no intervalo
Iα = {t ∈ R : |t − t0 | ≤ α} , α := min{a, b/M } .
i.e.,
Z t
(7.18) |φ(t)| ≤ L |φ(s)|ds , t ≥ t0
t0
(se fosse t < t0 , viria o segundo membro desta desigualdade afectado pelo sinal “-”, e deveria
proceder-se por analogia com o que a seguir se expõe). Ponha-se
Z t
Φ(t) := |φ(s)|ds , t ≥ t0 .
t0
Como |φ(s)| é uma função contı́nua para s ∈ [t0 , t], usando o facto de o integral indefinido
ter por derivada a função integranda nos pontos de continuidade desta, deduz-se
(7.19) Φ′ (t) = |φ(t)| ≤ LΦ(t) , t ≥ t0 ,
sendo a última desigualdade justificada por (7.18). Consequentemente, podemos escrever
d −L(t−t0 )
{e Φ(t)} = e−L(t−t0 ) [Φ′ (t) − LΦ(t)] ≤ 0 , t ≥ t0 ,
dt
pelo que a função e−L(t−t0 ) Φ(t) é decrescente para t ≥ t0 . Logo,
h i
e−L(t−t0 ) Φ(t) ≤ e−L(t−t0 ) Φ(t) = Φ(t0 ) = 0 , t ≥ t0 ,
t=t0
e como as funções envolvidas no primeiro membro desta expressão são não negativas, tem
de ser, forçosamente,
Φ(t) = 0 , t ≥ t0 .
Logo, por (7.19),
φ(s) = 0 , ∀s ∈ [t0 , t] .
Como t é arbitrário em Iα , sujeito apenas à condição t ≥ t0 , conclui-se que φ(t) = 0 para
todo o t ∈ [t0 , t0 + α]. Do mesmo modo se mostra que φ(t) = 0 para todo o t ∈ [t0 − α, t0 ].
Consequentemente,
φ(t) = 0 , ∀t ∈ Iα ,
o que demonstra o teorema.
36 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM
tem como única solução a função identicamente nula, ϕ ≡ 0, mas f não satisfaz a condição
de Lipschitz em nenhum rectângulo que contenha a origem.
O teorema de Picard apenas garante a existência de solução local do problema de Cauchy
(7.1) com condição incial, definida num “pequeno” intervalo Iα . A proposição seguinte
mostra que sob certas condições a solução local pode ser prolongada a uma solução global,
definida num intervalo I previamente fixado.
Corolário 7.1. (existência e unicidade de solução global) Sejam I um intervalo
de números reais, t0 ∈ I 0 e y0 ∈ R. Seja f : I × R → R uma função contı́nua, limitada e
lipschitziana a respeito da segunda variável. Então existe uma e uma só solução y = ϕ(t)
do problema de Cauchy (7.1), definida em todo o intervalo I.
Prova. Faremos apenas um esboço da demonstração, provando que fixado arbitraria-
mente um ponto τ ∈ I\{t0 } existe uma só solução do problema de Cauchy (7.1) definida
num subintervalo de I contendo t0 e τ . Observe-se primeiramente que, como f é limitada
em I × R, existe uma constante M > 0 tal que
|f (t, y)| ≤ M , ∀(t, y) ∈ I × R .
Fixemos então τ ∈ I\{t0 }, arbitrariamente. Sem perda de generalidade, admita-se τ > t0 .
Escolham-se a, b > 0 tais que [t0 − a, t0 + a] ⊂ I e b ≥ aM , e ponha-se Ω0 := { (t, y) ∈ R2 :
|t − t0 | ≤ a , |y − y0 | ≤ b }. Pelo teorema de Picard, e observando que (pela escolha de b) é
min{a, b/M } = a, o problema de Cauchy
y ′ = f (t, y) , y(t0 ) = y0 ,
7. PROBLEMA DE CAUCHY: y ′ = f (t, y) , y(t0 ) = y0 37
tem uma só solução (local) y = ϕ0 (t) em I0 := [t0 − a, t0 + a]. Se τ ∈ I0 , nada mais há
a provar. Se não, tome-se agora para condição inicial um ponto (t1 , y1 ) escolhido de modo
que t0 < t1 ∈ I0 , [t1 − a, t1 + a] ⊂ I e y1 = ϕ0 (t1 ), e ponha-se Ω1 := { (t, y) ∈ R2 : |t − t1 | ≤
a , |y − y1 | ≤ b}. Então, novamente pelo teorema de Picard, o problema de Cauchy
y ′ = f (t, y) , y(t1 ) = y1 ,
tem uma só solução y = ϕ1 (t) em I1 := [t1 − a, t1 + a]. Note-se que, pela unicidade
da solução, ϕ0 ≡ ϕ1 em I0 ∩ I1 . Agora, se τ ∈ I1 , nada mais há a provar, e a solução
ϕ procurada, passando por (t0 , y0 ) e definida em τ , é dada por ϕ(t) := ϕk (t) se t ∈ Ik
(k = 1, 2). Porém, se τ 6∈ I1 , procedendo como anteriormente, tome-se para condição inicial
um ponto (t2 , y2 ) escolhido de modo que t1 < t2 ∈ I1 , [t2 − a, t2 + a] ⊂ I e y2 = ϕ1 (t2 ), e
ponha-se Ω2 := { (t, y) ∈ R2 : |t − t2 | ≤ a , |y − y2 | ≤ b }. Então, uma vez mais pelo teorema
de Picard, o problema de Cauchy
y ′ = f (t, y) , y(t2 ) = y2 ,
tem uma só solução y = ϕ2 (t) em I2 := [t2 − a, t2 + a]. Se τ ∈ I2 o problema está resolvido.
Caso contrário continue-se o processo descrito, construindo intervalos I3 , I4 , . . ., até se chegar
a algum intervalo Ik ⊂ I tal que τ ∈ Ik , o que é certamente possı́vel pois todos os intervalos
I0 , I1 , I2 , . . . assim construı́dos têm o mesmo comprimento 2a.
Se esta sucessão de funções {yn }n≥0 convergir num certo intervalo I para uma função ϕ,
contı́nua em I, e se for permitido passar o limite sob o sinal de integral no segundo membro
da igualdade anterior (impondo, naturalmente, certas condições à função f ), então esta
função ϕ é uma solução em I do problema de Cauchy (7.1).
Neste contexto, pode provar-se o teorema seguinte (cuja prova se pode fazer usando os
resultados do capı́tulo 4):
38 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM
tendo-se ∂f /∂y(t, y) = 2t logo |∂f /∂y(t, y)| = 2|t| ≤ L ≡ L(I) < ∞ , para todo o t ∈ I
e y ∈ R, onde I é qualquer intervalo limitado de números reais centrado na origem e L
representa o comprimento de I. Assim, f é lipschitziana em qualquer rectângulo limitado
Ω ⊂ {(t, y) ∈ R2 : t ∈ I , y ∈ R }, logo pelo teorema de Picard existe uma e uma só solução
do problema em análise, nalgum intervalo Iα do tipo descrito no teorema. As condições do
método das aproximações sucessivas de Picard são cumpridas. Assim, tomando y0 (t) := 0,
a correspondente fórmula (7.20) escreve-se
Z t Z t
2
yn+1 (t) = [ 2syn (s) + 1 − 2s2 ] ds = t − t3 + 2syn (s) ds (n = 0, 1, 2, . . .) ,
0 3 0
donde se deduz facilmente, por indução, que
2n
yn (t) = t − t2n+1 (n = 1, 2, . . .) .
3 × 5 × · · · × (2n + 1)
Agora, como
2n t2n+1
lim = 0 , ∀t ∈ R
n→∞ 3 × 5 × · · · × (2n + 1)
(facto que pode ser justificado observando que este limite é o limite de uma sucessão que é
termo geral de uma série convergente, como se verifica de imediato por aplicação do critério
da razão para séries), obtém-se
lim yn (t) = t , ∀t ∈ R .
n→∞
Por conseguinte, a solução do problema em questão é ϕ(t) := t, e é a única solução (não
apenas no intervalo Iα descrito, mas também) em toda a recta real R.
CAPı́TULO 4
1. Preliminares
Sejam a0 , a1 , . . . , an e b funções definidas num intervalo I ⊂ R. A equação diferencial
(1.1) a0 (t)y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y ′ + an (t)y = b(t)
diz-se uma equação diferencial linear de ordem n.
Esta designação justifica-se pelo facto de esta equação poder ser encarada como uma
combinação linear das variáveis dependente, y, e suas sucessivas derivadas até à ordem n
(sendo os coeficientes da combinação linear as funções a0 , a1 , . . . , an , independentes de y e
suas derivadas).
Tal como sucedia para as equações lineares de primeira ordem, tratadas no capı́tulo 2, se
o segundo membro da equação (1.1), b(t), for a função identicamente nula em I, a equação
diz-se homogénea; caso contrário, diz-se não homogénea ou completa.
Os pontos t0 ∈ I tais que a0 (t0 ) = 0 dizem-se pontos singulares da EDO (1.1). No caso
em que existem pontos singulares, a resolução de (1.1) é, em geral, mais complicada que no
caso em que tal não sucede, sendo as soluções, usualmente, descritas por recurso a séries
(de funções) de potências em torno dos pontos singulares. Neste estudo vamos “eliminar”
esta dificuldade, e considerar apenas EDO’s do tipo (1.1) definidas em intervalos onde não
existam pontos singulares, i.e., consideraremos que
a0 (t) 6= 0 , ∀t ∈ I .
Assim, sem perda de generalidade, podemos considerar a equação linear de ordem n escrita
sob a forma
(1.2) y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y ′ + an (t)y = b(t) .
Ao longo deste capı́tulo suporemos que I ⊂ R é um intervalo onde a1 , a2 , . . . , an e b são
funções contı́nuas. Nestas condições, pode garantir-se a existência e unicidade de solução
de (1.2) em I, para condições iniciais arbitrariamente prefixadas. Enunciamos de seguida
o resultado que justifica esta afirmação, cuja prova é uma consequência dos resultados do
capı́tulo 6 (ver a observação 5.2 no capı́tulo 6).
Teorema 1.1. (existência e unicidade de solução) Sejam a1 , a2 , . . . , an e b funções
reais de variável real definidas e contı́nuas num intervalo I ⊂ R. Sejam t0 um ponto qualquer
de I e y0 , y1 , . . . , yn−1 quaisquer n números reais.
Então, existe uma e uma só solução y = ϕ(t) definida em todo o intervalo I que é
solução em I da EDO linear de ordem n (1.2) e satisfazendo as condições iniciais
y(t0 ) = y0 , y ′ (t0 ) = y1 , ... , y (n−1) (t0 ) = yn−1 .
Observação 1.1. De acordo com o teorema precedente, a EDO linear de ordem n (1.1)
tem solução definida em todo o intervalo I onde as funções a0 , a1 , . . . , an e b sejam contı́nuas,
49
50 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n
desde que se cumpra a condição a0 (t) 6= 0 para todo o t ∈ I. Note-se que se esta condição
não se verificar, pode a solução ter de ser definida apenas num subconjunto de I. Com
efeito, considere-se a EDO linear de ordem 1
ty ′ + y = 0 , y(1) = 1 ,
que é da forma (1.1) com as funções a0 , a1 e b definidas por a0 (t) = t, a1 (t) = 1 e b(t) = 0,
as quais são funções contı́nuas em I = R. A solução desta equação pode determinar-se
usando a teoria exposta no capı́tulo 2 (para as equações lineares de primeira ordem, e.g.),
obtendo-se
1
y(t) = , t ∈]0, +∞[ ;
t
por conseguinte, o maior intervalo possı́vel onde a solução pode estar definida é ]0, +∞[, o
qual está estritamente contido em I = R. Note-se que este exemplo ilustra, de certo modo, o
que atrás se afirmou acerca da dificuldade de resolução das EDO’s do tipo (1.1) com pontos
singulares.
Observação 1.2. Um outro aspecto interessante a destacar é o da existência de solução
(única) para qualquer problema de valores iniciais do tipo em discussão.
Considerando, no teorema precedente, b(t) ≡ 0 e y0 = y1 = . . . = yn−1 = 0, obtém-se a
seguinte proposição:
Corolário 1.1. Sejam a1 , a2 , . . . , an e b funções reais de variável real contı́nuas num
intervalo I ⊂ R e t0 um ponto qualquer de I. Seja y = ϕ(t) uma solução da EDO linear
homogénea de ordem n
y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y ′ + an (t)y = 0 ,
satisfazendo as condições iniciais
y(t0 ) = y ′ (t0 ) = . . . = y (n−1) (t0 ) = 0 .
Nestas condições,
ϕ(t) ≡ 0 em I .
ou
L = Dn + a1 (t)Dn−1 + . . . + an−1 (t)D + an (t) ,
onde Dk designa o operador derivada de ordem k (k = 0, 1, . . . , n), i.e., o operador que associa
a cada função f ∈ C k (I) a função derivada de ordem k:
3.1. Espaço das soluções. Sistema fundamental de soluções (SFS). Um dos re-
sultados principais àcerca da EDO linear homogénea (3.1) é expresso pela seguinte proposição.
Teorema 3.1. O conjunto S0 (I) constituı́do pela totalidade das soluções em I da EDO
linear homogénea (3.1) é um espaço vectorial de dimensão n.
Prova. Para mostrar que S0 (I) é um espaço vectorial de dimensão n é suficiente mostrar
que é um subespaço vectorial do espaço vectorial C n (I), e que dim S0 (I) = n. Com efeito,
é claro que S0 (I) ⊂ C n (I). Além disso, sendo ϕ1 , ϕ2 ∈ S0 (I) e c1 , c2 ∈ R, tem-se
L[ϕ1 ] = 0 e L[ϕ2 ] = 0 ,
logo, como L é linear,
L[c1 ϕ1 + c2 ϕ2 ] = c1 L[ϕ1 ] + c2 L[ϕ2 ] = 0 ,
o que mostra que também c1 ϕ1 + c2 ϕ2 ∈ S0 (I). Portanto, S0 (I) é um espaço vectorial. Para
provar que tem dimensão n, considere-se a aplicação h definida por
h : S0 (I) → Rn
ϕ → h(ϕ) = (ϕ(t0 ), ϕ′ (t0 ), . . . , ϕ(n−1) (t0 )) ,
onde t0 é um ponto de I arbitrariamente escolhido. Esta aplicação h é claramente linear
(k) (k)
(pois (c1 ϕ1 + c2 ϕ2 )(k) (t0 ) = c1 ϕ1 (t0 ) + c2 ϕ2 (t0 ) para quaisquer funções ϕ1 e ϕ2 de S0 (I),
para quaisquer constantes reais c1 e c2 , e para qualquer k ∈ {0, 1, . . . , n − 1}). Além disso,
o Teorema 1.1, de existência e unicidade, assegura que h é bijectiva. Por conseguinte, h é
um isomorfismo entre os espaços vectoriais S0 (I) e Rn e, consequentemente, como sabemos
que dim Rn = n, concluimos que também dim S0 (I) = n.
Observação 3.1. O facto importante que resulta do teorema precedente é que se, por
algum processo, for possı́vel determinar n soluções linearmente independentes da equação
homogénea
L[y] = 0 ,
digamos, ϕ1 , ϕ2 , . . . , ϕn , então qualquer outra solução, ϕ, da mesma equação pode escrever-
se como uma combinação linear dessas n soluções, i.e., existem números reais c1 , c2 , . . . , cn
tais que
ϕ(t) = c1 ϕ1 (t) + c2 ϕ2 (t) + . . . + cn ϕn (t) .
Recorde-se que n funções f1 , f2 , . . . , fn definidas num mesmo intervalo I ⊂ R e per-
tencentes a um espaço vectorial (de funções) E(I) sobre um corpo K, dizem-se linearmente
independentes em I se a relação
c1 f1 (t) + c2 f2 (t) + . . . + cn fn (t) = 0 , ∀t ∈ I
onde c1 , c2 , . . . , cn ∈ K, for verificada apenas se
c1 = c2 = . . . = cn = 0 .
Por exemplo, as funções f1 (t) = t e f2 (t) = t2 são linearmente independentes em qualquer
intervalo I ⊂ R (podemos considerar E(I) o espaço vectorial dos polinómios de grau quando
muito 2) já que a expressão c1 t+c2 t2 é o polinómio identicamente nulo se e só se c1 = c2 = 0.
Note-se, porém, que mesmo sendo as n funções linearmente independentes, podem existir
pontos t0 ∈ I e escalares c1 , c2 , . . . , cn ∈ K, no todos nulos, tais que
c1 f1 (t0 ) + c2 f2 (t0 ) + . . . + cn fn (t0 ) = 0 ;
no caso do exemplo precedente, e.g., com t0 = 1 e c1 = −c2 = 1, obtém-se c1 t0 + c2 t20 = 0.
3. EQUAÇÕES LINEARES HOMOGÉNEAS 53
√
e conclui-se que ϕ1 (t) = t e ϕ2 (t) = 1/t são soluções da EDO anterior linearmente in-
dependentes em ]0, +∞[. Se agora procurarmos a solução da mesma EDO que verifica as
condições iniciais y(1) = 2 e y ′ (1) = 1, como toda a solução da EDO é da forma
√ c2
(3.7) y(t) = c1 ϕ1 (t) + c2 ϕ2 (t) = c1 t + ,
t
com c1 e c2 constantes reais, resolvendo o sistema formado por (3.7) e pelas equações y(1) = 2
e y ′ (1) = 1, obtém-se c1 = 2, c2 = 0 e a solução particular procurada é
√
ϕ(t) = 2 t , t ∈]0, +∞[ .
O teorema seguinte mostra que o wronskiano de n soluções ϕ1 , ϕ2 , . . . , ϕn (em I) da
equação L[y] = 0 ou é identicamente nulo em I ou nunca se anula em I. Note-se que,
nesta afirmação, estamos a impor à partida que as n funções ϕ1 , ϕ2 , . . . , ϕn sejam soluções
(nalgum intervalo I) da EDO L[y] = 0. Sem impor esta restrição, nada se poderia concluir
a priori. De facto, considerando n = 2, ϕ1 (t) = t e ϕ2 (t) = t2 , vimos já anteriormente que
ϕ1 e ϕ2 são linearmente independentes em qualquer intervalo I ⊂ R. Porém, tem-se
¯ ¯
¯ t t2 ¯
¯
W [ϕ1 , ϕ2 ](t) = ¯ ¯ = t2 ,
1 2t ¯
que se anula para t = 0. Claro que isto não conduz a nenhuma contradição com o teorema
precedente (nem com o Teorema 3.4 adiante), e a conclusão que se pode extraı́r é que as
funções ϕ1 e ϕ2 assim definidas não podem ser soluções de nenhuma EDO linear homogénea
de segunda ordem do tipo (3.1), se o intervalo I considerado for tal que 0 ∈ I. Note-se,
aliás, que se uma tal equação existisse, seria da forma
y ′′ + a1 (t)y ′ + a2 (t)y = 0 ;
obrigando então a que y = t e y = t2 fossem soluções, ter-se-ia a1 (t) + ta2 (t) = 0 e 2 +
2ta1 (t) + t2 a2 (t) = 0, donde
a1 (t) = −2/t , a2 (t) = 1/t2 ,
e é agora claro que o intervalo I a considerar não poderia conter a origem, pois estas funções
a1 e a2 não são contı́nuas em intervalos que contenham a origem.
Teorema 3.3. Sejam ϕ1 , ϕ2 , . . . , ϕn n soluções, em I, da EDO linear homogénea de
ordem n (3.1) e designe W (t) o seu wronskiano. Seja t0 ∈ I, qualquer. Então
t
− a1 (s)ds
W (t) = W (t0 ) e t0
, ∀t ∈ I .
Por definição, é
¯ ¯
¯ ϕ1 (t) ϕ2 (t) ... ϕn (t)¯
¯ ¯
¯ ϕ′1 (t) ϕ′
2 (t) . .. ϕ′n (t)
¯
¯ ¯
W (t) = ¯ .. .. .. .. ¯.
¯ . . . . ¯
¯ (n−1) ¯
¯ ϕ (n−1)
(t) ϕ2 (t) . . .
(n−1)
ϕn (t) ¯
1
Ora, a derivada de um determinante (i.e., de uma função definida à custa de um determinante
cujas entradas dependem da variável independente) é a soma de n determinantes (n designa
a ordem do determinante) V1 , V2 , . . . , Vn , onde Vk se obtém de W substituindo as entradas
da sua k-ésima linha pelas respectivas derivadas (de 1a ordem), para cada k = 1, 2, . . . , n.
Por conseguinte, podemos escrever
W ′ (t) = V1 (t) + V2 (t) + . . . + Vn (t) .
Ora, pela estrutura especı́fica do determinante W , a derivada da k-ésima linha de W é
justamente a (k + 1)-ésima linha de W , para k = 1, 2, . . . , n − 1, pelo que todos os n − 1
determinantes V1 , V2 , . . . , Vn−1 são zero (por terem, cada um, duas linhas iguais). Conse-
quentemente,
¯ ¯
¯ ϕ1 (t) ϕ2 (t) ... ϕn (t) ¯
¯ ′ ′ ′ ¯
¯ ϕ1 (t) ϕ2 (t) ... ϕn (t) ¯
¯ .. .. .. ¯
¯ .. ¯
W ′ (t) = Vn (t) = ¯ . . . . ¯.
¯ (n−2) (n−2) (n−2)
¯
¯ ϕ (t) ϕ2 (t) . . . ϕn (t) ¯¯
¯ 1
¯ ϕ(n) (t) (n)
ϕ2 (t) ... ϕn (t) ¯
(n)
1
¯ ¯
¯ ϕ1 (t) ϕ2 (t) ... ϕn (t) ¯
¯ ¯
¯ ϕ′1 (t) ϕ′2 (t) ... ϕ′n (t) ¯
n−1
X ¯ .. .. .. ¯
¯ .. ¯
=− anj (t) ¯ . . . . ¯
¯ (n−2) (n−2) (n−2)
¯
j=0 ¯ ϕ (t) ϕ2 (t) . . . ϕn (t) ¯¯
¯ 1
¯ ϕ(j) (t) (j)
ϕ2 (t) ... ϕn (t) ¯
(j)
1
Prova. Seja y = ϕ(t) uma solução da equação completa (4.1). Pelo Teorema 2.1, ψ =
ϕ − ϕP é solução da equação homogénea L[y] = 0. Logo, existem números reais c1 , c2 , . . . , cn
tais que ψ = c1 y1 + c2 y2 + . . . + cn yn , sendo {y1 , y2 , . . . , yn } um SFS da equação homogénea
L[y] = 0 (cuja existência é garantida pelo Teorema 3.1). Assim, podemos escrever
(4.2) ϕ = ϕP + ψ = ϕP + c1 y1 + c2 y2 + . . . + cn yn .
Mostrámos, pois, que toda a solução ϕ da equação completa L[y] = b(t) é da forma (4.2),
para alguma escolha das constantes c1 , c2 , . . . , cn . Em consequência, como, fazendo variar
as constantes, ψ representa o integral geral, ϕH , da equação homogénea L[y] = 0, conclui-se
que toda a solução de L[y] = b(t) é da forma ϕP + ϕH .
Observação 4.1. O enunciado do teorema precedente pode reescrever-se do seguinte
modo: o conjunto S(I) constituı́do pela totalidade das soluções em I da equação linear com-
pleta (4.1) é um espaço afim associado ao espaço vectorial S0 (I) constituı́do pela totalidade
das soluções em I da equação linear homogénea associada.
58 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n
Observação 4.2. O teorema precedente mostra que toda a solução de uma EDO linear
completa se pode obter por particularização das constantes de uma expressão do tipo (4.2),
envolvendo n constantes arbitrárias c1 , c2 , . . . , cn . Assim, à semelhança do que sucede para
as EDO’s lineares homogéneas, faz sentido falar em solução geral ou integral geral de uma
EDO linear completa: trata-se de uma expressão envolvendo n constantes reais arbitrárias a
partir da qual toda a solução da EDO linear completa se pode obter por escolha particular
das constantes.
Como exemplo, considere-se a EDO
y ′′ − y = 2 − t2 .
Um SFS da EDO linear homogénea associada, y ′′ − y = 0, é {et , e−t } (pois cada uma das
funções deste conjunto é claramente solução de y ′′ −y = 0 e o seu wronskiano nunca se anula:
W [et , e−t ](t) = −2 6= 0 para todo o t ∈ R). Então, a solução geral da equação homogénea é
ϕH (t) = c1 et + c2 e−t , c1 , c2 ∈ R .
Constata-se facilmente (por substituição directa) que uma solução particular da equação
completa é
ϕP (t) = t2 .
Logo, a solução geral da EDO completa proposta é
ϕ(t) = t2 + c1 et + c2 e−t , c1 , c2 ∈ R .
Teorema 4.3. (Princı́pio da sobreposição) Sejam k ≥ 2 um inteiro e ϕ1 , ϕ2 , . . . , ϕk
soluções das k EDO’s lineares completas de ordem n
L[y] = bj (t) , j = 1, 2, . . . , k
(respectivamente). Então, a função ϕ definida por
k
X k
X
ϕ := ϕj é solução da EDO linear completa L[y] = bj (t) .
j=1 j=1
deduz-se
n X
X k µ ¶
k (j)
an−k (t) y1 (t)z (k−j) = b(t) .
j
k=0 j=0
Usando agora a fórmula
n X
X k n X
X n
αk,j = αj,j−k ,
k=0 j=0 k=0 j=k
onde
n
X µ ¶
j (j−k)
rn−k (t) = an−j (t) y1 (t) , k = 1, . . . , n .
j−k
j=k
60 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n
uma vez que, por hipótese, y1 é solução da equação linear homogénea L[y] = 0. Além disso,
o coeficiente de z (n) na equação (5.4) é
(0)
r0 (t) = y1 (t) ≡ y1 (t) .
Assim, introduzindo a mudança de variável u = z ′ (logo, z (k) = u(k−1) , para cada k =
1, . . . , n), decorre que (5.4) se pode reescrever na forma
y1 (t)u(n−1) + r1 (t)u(n−2) + . . . + rn−2 (t)u′ + rn−1 (t)u = b(t) ,
o que prova (i), pondo
ak (t) := rk (t)/y1 (t) ,
e t∈I (k = 1, 2, . . . , n − 1) .
Prove-se (ii). Como y2 , y3 , . . . , yn−1 são soluções da equação homogénea L[y] = 0,
associada a (5.1), e como (5.2) se obtém de (5.1) efectuando a mudança de variável u = z ′ =
³ ´′
y
y1 , então as funções uk (k = 2, . . . , n−1) definidas por (5.3) são, evidentemente, soluções
da EDO homogénea associada a (5.2). Resta mostrar que estas funções são linearmente
independentes (em I). Com efeito, considere-se a expressão
n−1
X
ck uk (t) = 0 , t∈I,
k=2
onde c2 , . . . , cn−1 são números reais. Substituindo uk (t) pela sua expressão dada por (5.3)
e integrando (ou primitivando) em seguida a respeito de t, obtém-se
n−1
X yk (t)
ck = −c1 , t∈I,
y1 (t)
k=2
onde c1 é uma constante real, em princı́pio arbitrária. A última equação pode reescrever-se
sob a forma
c1 y1 (t) + c2 y2 (t) + . . . + cn−1 yn−1 (t) = 0 , t ∈ I ,
e como y1 , y2 , . . . , yn−1 são linearmente independentes em I, segue-se que c2 = . . . = cn−1 =
0 (e também c1 = 0, claro!), o que permite concluir que as funções u2 , . . . , un−1 são linear-
mente independentes em I, o que completa a demonstração.
Observação 5.1. O teorema anterior (quando aplicável!) indica um processo de res-
olução da equação de ordem n (5.1), reduzindo-a a uma EDO linear de primeira ordem
por aplicações sucessivas do método de abaixamento de ordem, na circunstância de serem
conhecidas n−1 soluções linearmente independentes da equação linear homogénea associada
(tais que pelo menos uma delas nunca se anule em I).
Observação 5.2. No caso n = 2 a equação (5.2) é linear de primeira ordem (em u) e,
por conseguinte, pode ser resolvida utilizando os os métodos do Capı́tulo I.
Como exemplo de aplicação, considere-se a EDO linear de ordem 3
1 1
(5.5) y ′′′ − y ′′ + y ′ − y = 0 .
t t
5. MÉTODO DE D’ALEMBERT OU DE ABAIXAMENTO DE ORDEM 61
onde k1 é uma constante real arbitrária. Para determinar a solução geral da equação pro-
posta, basta agora “desfazer” as mudanças de variável efectuadas. Assim, como w′ = v,
integrando, tem-se
Z
w(t) = k1 t sin t dt + k2 = k1 (sin t − t cos t) + k2 ,
onde c1 , c2 , . . . , cn são n funções definidas em I cujas funções derivadas, c′1 , c′2 , . . . , c′n con-
stituem a solução do correspondente sistema de Lagrange.
é solução da EDO linear completa (6.1). Comecemos por calcular as sucessivas derivadas de
y(t). Tem-se
n
X n
X n
X
y ′ (t) = c′k (t)yk (t) + ck (t)yk′ (t) = ck (t)yk′ (t) ,
k=1 k=1 k=1
Pn ′
uma vez que, da primeira equação de (6.5), é k=1 ck (t)yk (t)
= 0. Derivando segunda vez,
obtém-se
n
X n
X n
X
y ′′ (t) = c′k (t)yk′ (t) + ck (t)yk′′ (t) = ck (t)yk′′ (t) ,
k=1 k=1 k=1
Pn ′ ′
já que, da segunda equação de (6.5), é também k=1 ck (t)yk (t)
= 0. Enfim, prosseguindo
o processo de derivação, utilizando sucessivamente as n − 1 primeiras equações do sistema
(6.5), obter-se-ia
n
X (j)
(6.6) y (j) (t) = ck (t)yk (t) , j = 0, 1, . . . , n − 1 .
k=1
Para a derivada de ordem n, derivando y (n−1) dada por (6.6) e usando a última equação de
(6.5), deduz-se
n
X (n)
y (n) (t) = b(t) + ck (t)yk (t) .
k=1
64 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n
= b(t) ,
sendo a última igualdade justificada pelo facto de cada uma das funções yk (k = 1, . . . , n) ser
solução de L[y] = 0, tendo-se, por isso, L[yk ](t) = 0 para k = 1, . . . , n. Provou-se, pois, que
y(t) definido por (6.4) verifica L[y](t) = b(t), para todo o t ∈ I, i.e., é solução da equação
completa (6.1). Isto conclui a demonstração do teorema.
Observação 6.1. Recorde-se que, de acordo com o Teorema 4.2, para determinar o
integral geral da equação completa (6.1) basta conhecer um integral particular desta equação
e um SFS da equação linear homogénea que lhe está associada. Assim, o método de Lagrange
permite determinar a solução geral da equação completa (6.1), supondo que, por algum
processo, foi já determinado um SFS da equação homogénea associada.
onde c′1 , c′2 , . . . , c′n constituem a solução do sistema de Lagrange (6.5). Basta, pois, mostrar
que
Wk (t)
c′k (t) = (−1)n+k b(t) , k = 1, . . . , n .
W (t)
De facto, como c′k é solução do sistema linear (6.5), resolvendo este sistema pela regra
de Crammer, e recordando que o determinante do sistema é o wronskiano W [y1 , . . . , yn ],
7. EQUAÇÕES LINEARES DE COEFICIENTES CONSTANTES 65
obtém-se
¯ ¯
¯ y1 ... yk−1 0 yk+1 ... yn ¯
¯ ¯
¯ ¯
¯ y1′ ... ′
yk−1 0 ′
yk+1 ... yn′ ¯
1 ¯ .. .. .. .. .. .. .. ¯
¯ ¯
c′k = ¯ . . . . . . . ¯
W [y1 , . . . , yn ] ¯ (n−2) (n−2) (n−2) (n−2) ¯
¯ y1 ... yk−1 0 yk+1 ... yn ¯
¯ ¯
¯ (n−1) (n−1) (n−1) (n−1)
¯
¯ y ... yk−1 b(t) yk+1 ... yn ¯
1
Wk (t)
= (−1)n+k b(t) ,
W (t)
para cada k = 1, . . . , n, o que conclui a demonstração do corolário.
Conclui-se assim que (7.3) é solução de (7.2) se e só se r for raı́z da equação (7.4), i.e., se e
só se o número real r for zero do polinómio P definido por
(7.5) P (r) := rn + a1 rn−1 + . . . + an−1 r + an .
Note-se que, dada a equação (7.1), podemos sempre formar o polinómio P definido por
(7.5), uma vez que para tal basta o conhecimento dos coeficientes a1 , a2 , . . . , an que figuram
(explicitamente) na equação diferencial (e para isso não tem qualquer importância o facto
de se saber se os zeros do polinómio são todos reais ou não). Ao polinómio P definido por
(7.4) – com zeros reais ou complexos – chama-se polinómio caracterı́stico associado à EDO
linear de coeficientes constantes (7.1). E, à correspondente equação (7.4) chama-se equação
caracterı́stica.
Associado ao polinómio (7.4) – de coeficientes constantes – podemos introduzir o chamado
operador diferencial polinomial de ordem n, P (D), definido por
P (D) := Dn + a1 Dn−1 + . . . + an−1 D + an ,
que actua em funções, f , diferenciáveis até à ordem n, do seguinte modo:
P (D)[f (t)] = Dn [f (t)] + a1 Dn−1 [f (t)] + . . . + an−1 D[f (t)] + an
= f (n) (t) + a1 f (n−1) (t) + . . . + an−1 f ′ (t) + an .
No que vai seguir-se é importante reter algumas propriedades deste operador diferencial,
que decorrem essencialmente do facto de este ter coeficientes (constantes) reais. Designe-se
por r1 , r2 , . . . , rn as raı́zes (reais ou complexas) de P . Como se sabe, P admite a factorização
n
Y
P (r) = (r − rj )
j=1
(estamos a supor que o coeficiente do termo de maior grau é 1). Além disso, se r1 , . . . , rk
designam as raı́zes reais distintas e α1 ± iβ1 , . . . , αl ± iβl as raı́zes complexas distintas, com
parte imaginária diferente de zero (note-se que, por o polinómio ter coeficientes reais, então
se α + iβ é zero do polinómio, o mesmo sucede ao seu conjugado α − iβ), podemos também
escrever
k
Y l
Y
(7.6) P (r) = (r − rj )µj [(r − αj )2 + βj2 ]νj ,
j=1 j=1
L = P (D) .
Como se sabe das secções anteriores, a determinação da solução geral de uma EDO lin-
ear completa L[y] = b(t) passa, em geral, pela determinação de um SFS da EDO linear
homogénea associada L[y] = 0. Assim, no parágrafo seguinte vamos ocupar-nos da deter-
minação de um SFS da EDO linear homogénea de coeficientes constantes (7.11), i.e., da
equação
P (D)y = 0 .
68 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n
são soluções complexas de (7.11). Assim, a questão que se coloca de imediato é a de saber
se o conhecimento da existência destas soluções complexas permite obter soluções reais (que
é o que nos interessa!). A resposta é dada pela proposição seguinte.
Lema 7.1. Seja y(t) = u(t) + iv(t) uma solução complexa da EDO (7.11). Então, as
funções y1 (t) = u(t) e y2 (t) = v(t) são soluções reais da mesma equação (i.e., as partes real
e imaginária de uma solução complexa da EDO (7.11) são soluções reais desta equação).
Prova. Atendendo à definição (7.12) de derivada de uma função complexa, tem-se
= βe2αt 6= 0 , ∀t ∈ R .
Isto sugere a resposta para o problema colocado, da determinação de um SFS de (7.11),
a qual será dada no teorema 7.1 seguinte. Antes, porém, é conveniente estabelecer dois
resultados auxiliares.
Lema 7.2. Sejam r é um número complexo qualquer, k um número natural e f uma
função complexa com derivadas até à ordem k. Então
(7.14) (D − r)k [ert f (t)] = ert Dk [f (t)] .
Prova. Prove-se esta propriedade por indução sobre k. Para k = 1, tem-se
(D − r)[ert f (t)] = D[ert f (t)] − rert f (t) = rert f (t) + ert D[f (t)] − rert f (t) = ert D[f (t)] .
Suponha-se agora que (7.2) se verifica (hipótese de indução) e prove-se que, então, também
(D − r)k+1 [ert f (t)] = ert Dk+1 [f (t)] .
70 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n
De facto, tem-se
(D − r)k+1 [ert f (t)] = (D − r)(D − r)k [ert f (t)]
= (D − r)(ert Dk [f (t)])
= D(ert Dk [f (t)]) − rert Dk [f (t)]
= ert Dk+1 [f (t)] + rert Dk [f (t)] − rert Dk [f (t)]
= ert Dk+1 [f (t)] .
Lema 7.3. Consideremos k números (reais ou) complexos distintos λ1 , λ2 , . . . , λk , e
sejam µ1 , µ2 , . . . , µk quaisquer k números inteiros positivos. Então, as µ1 + · · · + µk funções
(reais ou complexas)
t ∈ I ⊂ R 7→ tm eλj t (j = 1, . . . , k ; m = 0, 1, . . . , µj − 1)
são linearmente independentes em I, quer sobre o corpo R, quer sobre o corpo C.
Prova. Sejam cjm (j = 1, . . . , k; m = 0, 1, . . . , µj − 1) números reais ou complexos tais
que
k µX
X j −1
Derivando ambos os membros desta expressão µ1 vezes (que é o grau de P1 acrescido de uma
unidade, logo a derivada de ordem µ1 de P1 é o polinómio identicamente nulo), e observando
que se λ ∈ C e µ ∈ N então para qualquer polinómio P é
¡ ¢(µ)
P (t) eλt = Q(t) eλt ,
onde, se λ 6= 0, Q é um polinómio do mesmo grau que P (de facto, constata-se facilmente
Pµ ³ ´
pela regra de Leibnitz para a derivada de um produto que Q(t) = j=0 µj λj P (µ−j) (t) ),
obtém-se
X k
(7.18) Qj (t) e(λj −λ1 )t = 0 , ∀t ∈ I ,
j=2
7. EQUAÇÕES LINEARES DE COEFICIENTES CONSTANTES 71
que é uma expressão do tipo (7.16). Procedendo então como anteriormente, multipliquem-se
ambos os membros de (7.19) por e−λ2 t e em seguida derive-se µ2 vezes, de modo a obter
k
X
Rj (t) eλj t = 0 , ∀t ∈ I ,
j=3
para todo o t ∈ I, então, necessariamente, Ajm = Bjm = Cjm = 0 para todos os possı́veis
pares (j, m). Com efeito, observando que, para quaisquer números reais p, q, α, β é
peαt cos(βt) + qeαt sin(βt) = 12 (p − iq)e(α+iβ)t + 12 (p + iq)e(α−iβ)t ,
72 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n
Amj tm erj t
j=1 m=0
l νX
X j −1 n o
+ 1
2 [Bjm − iCjm ]tm e(αj +iβj )t + 21 [Bjm + iCjm ]tm e(αj −iβj )t =0
j=1 m=0
Exemplos:
1. Considere-se a EDO
y (iv) + 2y ′′′ + y ′′ = 0 , i.e. , (D4 + 2D3 + D2 )y = 0 .
O polinómio caracterı́stico associado é
P (r) = r4 + 2r3 + r2 .
Resolvendo a equação caracterı́stica associada, tem-se
r4 + 2r3 + r2 = 0 ⇔ r2 (r2 + 2r + 1) = 0 ⇔ r = 0 (dupla) ∨ r = −1 (dupla) .
Assim, um SFS da EDO anterior é {e0t , te0t , e−t , te−t } ≡ {1, t, e−t , te−t }, pelo que o seu
integral geral é dado por
y(t) = c1 + c2 t + e−t (c3 + c4 t) , c1 , c2 , c3 , c4 ∈ R .
Assim, um SFS da EDO anterior é {cos 2t, t cos 2t, sin 2t, t sin 2t} e o integral geral é dado
por
y(t) = (c1 + c2 t) cos 2t + (c3 + c4 t) sin 2t , c1 , c2 , c3 , c4 ∈ R .
Posto isto, passamos à descrição do método acima referido. Considere-se então uma
EDO linear completa de coeficientes constantes:
(7.26) P (D)y = b(t) ,
onde b é uma função que admite polinómio anulador. O método do polinómio anulador (ou
dos coeficientes indeterminados), consiste no seguinte:
(i) Determina-se um polinómio anulador de b (de menor grau possı́vel e mónico, por
uma questão de simplicidade). Designando este polinómio por Q, tem-se
(7.27) Q(D)b(t) = 0 .
(ii) Aplica-se o operador polinomial Q(D) a ambos os membros de (7.26). De acordo
com (7.27), obtém-se
(7.28) Q(D)P (D)y = 0 ,
que é uma EDO linear homogénea de coeficientes constantes, cujo integral geral pode sempre
escrever-se na forma
(7.29) y = yH + yQ ,
onde yH representa o integral geral da equação homogénea associada à equação dada (7.26)
e yQ depende de algumas constantes arbitrárias – o integral geral de (7.28) é, de facto, da
forma (7.29), uma vez que P (D) é factor do operador polinomial que figura em (7.28).
(iv) Uma vez determinadas as constantes, em (iii), designando por yP a função que se
obtém de yQ com os valores dessas constantes, como yP é um integral particular da equação
(7.26), conclui-se que o integral geral de (7.26) é dado por
y = yH + yP .
76 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n
8. Exercı́cios
(a) Use o método de D’Alembert para mostrar que a mudança de variável y = y1 (t)z
permite reduzir (1) à forma
!
y1′ (t)
u′ + 2 + a1 (t) u = 0 . (2)
y1 (t)
(b) Verifique que a solução geral de (2) é
C
u(t) = 2 e− a1 (t)dt ,
y1 (t)
onde C é uma constante real arbitrária.
(c) Use os resultados das alı́neas anteriores para justificar que
" e− a1 (t)dt
y2 (t) = y1 (t) dt . (3)
y12 (t)
é também uma solução particular de (1).
(d) Mostre que y1 e y2 são soluções linearmente independentes de (1), provando que
a1 (t)dt
W [y1 , y2 ] = e−
Conclui-se assim que dada a EDO linear homogénea de segunda ordem (1), e sendo y1 (t)
uma solução particular desta equação tal que y1 (t) 6= 0 para todo o t ∈ I, então uma
segunda solução de (1), linearmente independente com y1 (t) em I, é dada por (3). E,
consequentemente, qualquer outra solução de (1) é uma combinação linear de y1 e y2 .
(2)
CAPı́TULO 5
Transformada de Laplace
79
80 5. TRANSFORMADA DE LAPLACE
Exemplos.
1. Considere-se a função
f (t) := eat , t ≥ 0 (a ∈ R) .
Aplicando a definição, vem
Z +∞ Z T
L{f (t)} = L{eat } = e−st eat dt = lim e−(s−a)t dt .
0 T →+∞ 0
RT −(s−a)t
Agora, se s = a então 0 e dt = T → +∞ (quando T → +∞), logo o integral
impróprio é divergente e, por conseguinte, a transformada de Laplace não está definida.
Considerando então s 6= a, podemos escrever
Z T · ¸T
−(s−a)t 1 −(s−a)t 1 ³ ´
e dt = − e = 1 − e−(s−a)T ,
0 s−a t=0 s−a
e como (
−(s−a)T
0 se s > a
lim e =
T →+∞ + ∞ se s < a ,
decorre imediatamente que
1
(1.1) L{eat } = , s>a.
s−a
Em particular, para a = 0 obtém-se
1
L{1} = , s>0.
s
2. Considere-se agora a função
f (t) := sin(kt) , t ≥ 0 (k ∈ R) .
É fácil justificar, usando o método de primitivação por partes, que para quaisquer números
reais não simultaneamente nulos a e b é
Z
1
eat sin(bt) dt = 2 eat [ a sin(bt) − b cos(bt) ] + C (C ∈ R) ,
a + b2
e, consequentemente, para cada T > 0 obtém-se
Z T
1 ¡ ¢
(1.2) e−st sin(kt) dt = 2 2
k − e−sT [ s sin(kT ) + k cos(kT ) ] .
0 s + k
Assim, tomando o limite quando T → +∞, constata-se que o limite existe se e só se s > 0,
o que permite obter
k
(1.3) L{sin(kt)} = , s>0.
s2 + k 2
Definição 2.1. Uma função f , real de variável real, diz-se de ordem exponencial (quando
t → +∞) se existem números σ ∈ R e M, T > 0 tais que
(2.4) |f (t)| ≤ M eσt para todo o t>T .
Essencialmente, isto significa que f é de ordem exponencial se não cresce mais rapi-
damente que alguma função exponencial do tipo eσt para todos os instantes t posteriores
a um determinado instante fixo T > 0. Muitas funções de interesse prático são de ordem
exponencial—tais como as que aparecem como solução de uma EDO linear de coeficientes
constantes—, daı́ o interesse em introduzir este conceito.
Exemplos:
1. A função f (t) := e3t é de ordem exponencial. Basta observar que se cumpre a
definição anterior escolhendo quaisquer σ, M e T tais que σ ≥ 3, M ≥ 1 e T > 0.
2. A função f (t) := tn (n ∈ N0 , fixo) é de ordem exponencial. De facto, podemos
tomar σ > 0 (qualquer), M = n!/σ n e T > 0 (qualquer). Isto decorre directamente
do desenvolvimento em série de Taylor da função eσt :
(σt)2 (σt)n (σt)n σn n
eσt = 1 + σt + + ··· + + ··· > = t ,
2! n! n! n!
donde f (t) = tn < (n!/σ n ) eσt para todo o t > 0.
2
3. A função f (t) := et não é de ordem exponencial. De facto, quaiquer que sejam os
2
valores que se considerem para M > 0 e σ, et cresce mais rapidamente à medida
que t aumenta do que M eσt , pois
2
et 1 t2 −σt
= e → +∞ (quando t → +∞) .
M eσt M
Decorre dos exemplos precedentes que, para uma dada função de ordem exponencial, a
escolha do valor σ não é única (nas condições da definição). O ı́nfimo do conjunto de todos
os valores σ para os quais se cumpre (2.4) chama-se abcissa de convergência da função (de
ordem exponencial) f , e será designado por σf . Explicitamente,
© ª
σf := inf σ ∈ R : ∃M,T >0 : ∀t>T |f (t)| < M eσt .
No caso dos dois primeiros exemplos anteriores, constata-se facilmente que para a função
f (t) := e3t é σf = 3, enquanto que para f (t) := tn é σf = 0.
para algum instante T > 0 e alguma constante M > 0. Além disso, como f é seccionalmente
contı́nua em [0, +∞[, então é integrável em qualquer subintervalo limitado de [0, +∞[, e em
R +∞
particular em [0, T ]. Assim, para provar que 0 e−st f (t) dt é convergente (i.e., que L{f (t)}
R +∞
existe) basta mostrar que T e−st f (t) dt é convergente. Com efeito, como
Observação 2.1. Constata-se facilmente que todas as funções do tipo c tm eαt sin(βt) e
m αt
c t e cos(βt) , com c, α, β ∈ R e m ∈ N0 , são de ordem exponencial quando t → +∞. Como
todas as soluções de EDO’s lineares homogéneas de coeficientes constantes são combinações
lineares de funções deste tipo, decorre do Teorema precedente que as transformadas de
Laplace de tais soluções existe.
Observação 2.2. O teorema anterior dá apenas uma condição suficiente que garante
a existência da transformada de Laplace. Porém, existem funções que têm transformada√de
Laplace mas que não são de ordem exponencial,
√ p como é o caso da função f (t) := 1/ t ,
para a qual se pode verificar que L{ 1/ t } = π/s para s > 0.
Exemplos.
2Recorde-se o seguinte Critério de comparação para integrais impróprios: Sendo g e h funções reais de
variável real tais que 0 ≤ g(t) ≤ h(t) para todo o t ∈ [a, +∞[ (onde a ∈ , fixo), se a+∞ h é convergente
então também a+∞ g é converge. Recorde-se ainda que sendo f uma função real de variável real integrável
à Riemann em cada subintervalo limitado de [a, +∞[, se a+∞ |f | é convergente então também a+∞ f é
convergente.
3. PROPRIEDADES DA TRANSFORMADA DE LAPLACE 83
1. Seja f (t) := sinh(at), com a ∈ R (fixo). Como sinh(at) = 21 eat − 12 e−at , e atendendo
a que, por (1.1), é L{eat } = 1/(s − a) para s > a e L{e−at } = 1/(s + a) para
s > −a , usando a linearidade da transformada de Laplace deduz-se
1 1
L{sinh(at)} = L{eat } − L{e−at }
2 2
1 1 1 1 a
= − = 2 ,
2s−a 2s+a s − a2
igualdades que estão bem definidas para s > max{a, −a} = |a|. Por conseguinte,
a
L{sinh(at)} = , s > |a| .
s2 − a2
1
2. Analogamente, usando cosh(at) := 2 eat + 21 e−at , verifica-se que
s
L{cosh(at)} = , s > |a| .
s2 − a2
3. Considere-se agora f (t) := 3 + 2e5t . Então, é
L{3 + 2e5t } = 3 L{1} + 2 L{e5t } ,
e como, por (1.1), é L{1} = 1/s para s > 0 e L{e5t } = 1/(s − 5) para s > 5,
decorre que
3 2 5(s − 3)
L{3 + 2e5t } = + = , s > max{0, 5} = 5 .
s s−5 s(s − 5)
Propriedade 3.2 (translação no domı́nio de frequência). Se f é uma função cuja
transformada de Laplace, L{f (t)} ≡ F (s), existe para s > σ, então a função eat f , onde
a ∈ R, tem transformada de Laplace para s > σ + a, e tem-se
L{eat f (t)} = F (s − a) , s>σ+a.
Exemplos.
1. Seja f (t) := tn , com n ∈ N0 . Já vimos anteriormente que L{1} = 1/s para s > 0.
Então, pela Propriedade 3.3, vem
µ ¶
dn 1 n!
L{tn } = L{tn · 1} = (−1)n n = n+1 , s > 0 .
ds s s
2. Seja agora f (t) := t2 et . Sabemos já que L{et } = 1/(s − 1) para s > 1, logo
2
µ ¶ µ ¶′′
2 t 2 d 1 1 2
L{t e } = (−1) = = , s>1.
ds2 s − 1 s−1 (s − 1)3
A tabela seguinte resume alguns dos exemplos anteriormente analisados, e será de grande
utilidade nos desenvolvimentos seguintes.
n!
tn (n ∈ 0) s>0
sn+1
1
eat (a ∈ !) s>a
s−a
(a, k ∈ !)
k
eat sin(kt) s>a
(s − a)2 + k2
s−a
eat cos(kt) (a, k ∈ !) s>a
(s − a)2 + k2
Observação 3.3. Os exemplos anteriores, bem como muitos outros, podem ser obtidos
usando os programas Maple ou Mathematica. Neste último a transformada de Laplace
é implementada através do comando
LaplaceTransform[f[t],t,s] .
Assim, por exemplo, o comando LaplaceTransform[Cos[3t],t,s] produz como output a
s
expressão 2 (como podemos confirmar na tabela).
s +9
4Se f ′ não for contı́nua, como é seccionalmente contı́nua, então basta particionar o intervalo [0, T ]
em subintervalos, pelos pontos de descontinuidade de f ′ , e considerar como funções integrandas em cada
subintervalo as funções contı́nuas que coincidem com e−st f ′ no interior de cada um desses subintervalos.
86 5. TRANSFORMADA DE LAPLACE
Seja f (t) := cos(kt). Então f (0) = 1 e f ′ (t) = −k sin(kt) e, portanto, por (1.3),
k2
L {f ′ (t)} = −kL{sin(kt)} = − , s>0.
s2 + k2
k2
Assim, atendendo a (3.7) tem-se − = L{−k sin(kt)} = s L{cos(kt)} − 1 para s > 0,
s2 + k 2
donde µ ¶
1 k2 s
L{cos(kt)} = 1− 2 = 2 , s > 0.
s s + k2 s + k2
Para concluir este primeiro grupo de propriedades, vamos estabelecer uma fórmula que
permite determinar de forma eficaz a transformada de Laplace de uma função periódica.
Recorde-se que uma função f : [0, +∞[→ R é dita periódica se existir um número real T > 0
(chamado perı́odo de f ) tal que
f (t + T ) = f (t) , t≥0.
Propriedade 3.6 (transformada de uma função periódica). Seja f (t) uma função
periódica em [0, +∞[, com perı́odo T > 0, e admita-se ainda que f (t) é seccionalmente
contı́nua. Então Z T
1
L {f (t)} = e−st f (t) dt , s > 0 .
1 − e−sT 0
4. INVERSÃO DA TRANSFORMADA DE LAPLACE 87
Prova. Sendo f periódica e seccionalmente contı́nua em [0, +∞[, é claro que é limitada
neste intervalo. Isto implica que f é também de ordem exponencial com abcissa de con-
vergência σf = 0, pelo que a transformada de Laplace existe para s > 0. Assim, para s > 0
podemos escrever
Z +∞
L {f (t)} = e−st f (t) dt
0
Z T Z 2T Z 3T
−st −st
= e f (t) dt + e f (t) dt + e−st f (t) dt + · · ·
0 T 2T
∞
X
= In (s, T ) ,
n=0
Z (n+1)T
onde In (s, t) := e−st f (t) dt para todo o n = 0, 1, 2 · · · . Agora, efectuando no
nT
integral In (s, T ) a mudança de variável t y x definida por t = x + nT , vem
Z T Z T
In (s, t) = e−s(x+nT ) f (x + nT ) dx = e−snT e−sx f (x) dx (n = 0, 1, 2, · · · ) ,
0 0
sendo a última igualdade justificada pelo facto de f ser periódica de perı́odo T . Conse-
quentemente, substituindo acima vem
à ∞ !Z
X T
−snT
L {f (t)} = e e−sx f (x) dx ,
n=0 0
P∞ −snT
e como n=0 e é uma série geométrica de razão e−sT , a qual é convergente e tem
soma 1/(1 − e−sT )—já que s > 0, logo 0 < e−sT < 1—, obtém-se a fórmula que figura no
enunciado da proposição.
funções f (t) definidas para t ≥ 0 tais que L{f (t)} = F (s). Naturalmente, como a trans-
formada de Laplace é definida à custa de um integral envolvendo o produto de uma função
exponencial pela função f (t), e o valor do integral não é afectado se modificarmos o valor da
função nalgum ponto isolado, e.g., é claro que, dada F (s), existe uma infinidade de funções
f (t) para as quais L{f (t)} = F (s). No entanto, é possı́vel demonstrar que se duas funções
f (t) e g(t) têm a mesma transformada de Laplace, apenas uma delas pode ser contı́nua. De
facto, podemos dizer um pouco mais. Designe V o conjunto constituı́do pela totalidade das
funções contı́nuas definidas em [0, +∞[ e de ordem exponencial quando t → +∞. De acordo
com a Propriedade 3.1 e a observação que se lhe segue, podemos afirmar que V é um espaço
vectorial e que a aplicação (operador) L : V → R(V ), onde R(V ) designa o contradomı́nio
da aplicação L, é linear e, obviamente, sobrejectiva. Além disso, pode mostrar-se que L é
também injectiva e, por conseguinte, é invertı́vel. Deste modo, existe a aplicação inversa
L−1 : R(V ) → V , à qual chamaremos operador transformada inversa de Laplace. Porém, se
retirarmos aos elementos de V a exigência de serem funções contı́nuas, deixa de ser ver-
dade que o operador L é invertı́vel e, por conseguinte, dada uma função F (s), existe uma
infinidade de funções seccionalmente contı́nuas que verificam L{f (t)} = F (s). Tendo em
mente as considerações precedentes, adoptaremos como “satisfatória”a seguinte definição:
s+1
Começamos por decompôr F (s) = como soma de fracções elementares. Os
s2 (s2 + 9)
zeros do polinómio que figura em denominador são as raı́zes da equação algébrica s2 (s2 +9) =
4. INVERSÃO DA TRANSFORMADA DE LAPLACE 89
0, logo são os números 0 (zero duplo) e ±3i (zeros complexos simples). Assim,
s+1 A B C + Ds
(4.8) = 2+ + 2 ,
s2 (s2 + 9) s s s +9
onde A, B, C e D são constantes reais a determinar. A determinação da constante A pode
fazer-se imediatamente pela “regra do tapa”, obtendo-se
· ¸
s+1 1
A= 2 = .
s + 9 s=0 9
Para determinar C e D tem-se (multiplicando ambos os membros de (4.8) por s2 + 9 e, em
seguida, fazendo s = 3i—que é um dos zeros de s2 + 9)
· ¸
s+1 3i + 1 1 1
[C + Ds]s=3i = 2
⇔ C + 3Di = ⇔ C + 3Di = − − i ,
s s=3i −9 9 3
donde (atendendo a que dois números complexos coincidem se e só se coincidem as suas
partes real e imaginária, resp.) C = − 91 e 3D = − 13 , i.e.,
1
C=D=− .
9
Resta determinar a constante B. Um processo possı́vel para a determinação desta constante
(e que permite também obter todas as outras constantes) consiste em reduzir o segundo
membro da expressão (4.8) a uma só fracção (com denominador igual ao da fracção do
primeiro membro de (4.8)) e em seguida, da igualdade entre os numeradores das fracções
nos primeiro e segundo membros da igualdade resultante, deduz-se
s+1 = A(s2 + 9) + Bs(s2 + 9) + (c + Ds)
= (B + D)s3 + (9A + C)s2 + 9Bs + 9A ,
donde, por comparação de coeficientes, se obtém
0=B+D , 0 = 9A + C , 1 = 9B , 1 = 9A .
Em particular, daqui deduz-se B = 19 . (Note-se que, como já haviam sido determinados
os valores de A, C e D, bastaria, por exemplo, ter comparado os coeficientes de s3 , o que
conduziria à relação 0 = B + D, a qual, conjuntamente com o facto de já se saber que
D = − 91 , permitiria determinar o valor de B.) Assim, (4.8) dá lugar a
µ ¶
s+1 1 1 1 1 s
= + − 2 − .
s2 (s2 + 9) 9 s2 s s + 9 s2 + 9
Finalmente, usando a linearidade de L−1 , e como, de acordo com os resultados da tabela de
transformadas de Laplace, é
½ ¾ ½ ¾ ½ 2 ¾
−1 1 −1 1 −1 s
L =t, L =1, L = cos(3t) ,
s2 s s2 + 9
½ ¾ ½ ¾
−1 1 1 −1 3 1
L = L = sin(3t) ,
s2 + 9 3 s2 + 32 3
obtém-se ½ ¾ µ ¶
s+1 1 1
L−1 = t + 1 − sin(3t) − cos(3t) , t≥0.
s2 (s2 + 9) 9 3
90 5. TRANSFORMADA DE LAPLACE
½ ¾
2
Exemplo. Determinar L−1 .
s2 + 6s + 13
Observando que
· ¸
2 2 2
= = ,
s2 + 6s + 13 (s + 3)2 + 22 s2 + 22 s→s+3
Em consequência, é
F (s) + P (s)
Y (s) = ,
Q(s)
de modo que a solução da equação diferencial (5.9) proposta, sujeita às condições iniciais
(5.10) especificadas, se pode agora obter por aplicação da transformada inversa de Laplace:
½ ¾
F (s) + P (s)
y(t) = L−1 {Y (s)} = L−1 .
Q(s)
Observação 5.1.
1. Quando a ordem da EDO é muito elevada, o processo descrito pode tornar-se
“fastidioso”, mas é possı́vel amenizar esta dificuldade usando métodos matriciais (e, claro,
computacionais!).
2. É usual encontrar sistemas modelizados não apenas por uma, mas antes por
várias equações diferenciais de coeficientes constantes, ou seja, sistemas de equações difer-
enciais (de coeficientes constantes). Neste caso, se for r o número de equações deste sis-
tema, nas incógnitas y1 (t), y2 (t), · · · , yr (t), normalmente seremos conduzidos a um sistema
linear algébrico de r equações a r incógnitas, nas n variáveis Yj = Yj (s) := L{yj (t)}
(j = 1, 2, · · · , r).
3. Uma das vantagens deste método para a resolução de EDO lineares de coefi-
cientes constantes, relativamente aos métodos anteriormente estudados, reside no facto de
ser possı́vel determinar soluções particulares da EDO em análise sem necessidade de de-
terminar previamente a solução geral da EDO. Isto mesmo será ilustrado nos exemplos
seguintes.
Exemplos.
92 5. TRANSFORMADA DE LAPLACE
− 92 − 11
6
25
= + + 3 ,
s s+2 s−1
sendo a última igualdade justificada efectuando uma decomposição em fracções
parciais. Aplicando agora a transformada inversa de Laplace (e tendo em conta os
resultados da tabela), vem
x(t) = L−1 {X(s)}
½ ¾ ½ ¾ ½ ¾
9 −1 1 11 −1 1 25 −1 1
= − L − L + L
2 s 6 s+2 3 s−1
9 11 −2t 25 t
= − − e + e , t≥0.
2 6 3
Analogamente,
¯ ¯
¯ s + 5 3s+4 ¯
¯ s+1 ¯
¯ ¯
¯ 2s + 1 5s+3 ¯ s3 − 22s2 + 39s − 15
s
Y (s) = =
− (s + 2)(s − 1) s(s + 1)(s + 2)(s − 1)
15 1 11
2 2 2 − 25
3
= + + + ,
s s+1 s+2 s−1
94 5. TRANSFORMADA DE LAPLACE
donde
y(t) = L−1 {Y (s)}
15 1 −t 11 −2t 25 t
= + e + e − e , t≥0.
2 2 2 3
6. Teorema de Heaviside
Nos dois exemplos da secção anterior considerámos EDO’s da forma (5.9) nas quais o
segundo membro da equação, f (t), era uma função contı́nua. Porém, em muitos problemas
somos conduzidos a EDO’s daquele tipo, mas para as quais a função f (t) não é contı́nua
(por exemplo, numa equação que descreva a intensidade da corrente eléctrica num circuito
onde possam ocorrer cortes bruscos da corrente). Nestes casos é útil fazer uso da chamada
função de Heaviside (5), designada por H(t) ou U(t), e definida por
(
0 se t < 0
H(t) :=
1 se t ≥ 0 .
De facto, esta função pode ser usada para descrever de forma concisa funções com descon-
tinuidades. Para justificar esta afirmação, observemos primeiramente que, da definição da
função de Heaviside, para qualquer número real a (fixo), é
(
0 , t<a
H(t − a) =
1 , t≥a.
(Observamos que também se usa a notação Ua (t) para representar H(t − a)). A partir desta
igualdade constata-se facilmente que, para a função rectângulo, definida por
(
1 , t ∈ [a, b[
Πa,b (t) :=
0 , t 6∈ [a, b[ ,
se verifica a relação
(6.15) Πa,b (t) = H(t − a) − H(t − b) , t∈R.
Finalmente, usando esta expressão da função rectângulo, é fácil expressar funções definidas
por ramos em termos da função de Heaviside. Assim, por exemplo, considerando uma função
definida por três ramos, digamos,
f1 (t) , 0 ≤ t < t1
f (t) := f2 (t) , t1 ≤ t < t2
f3 (t) , t ≥ t2 ,
onde f1 , f2 e f3 são funções contı́nuas, tem-se sucessivamente
f (t) = f1 (t)H0,t1 (t) + f2 (t)Ht1 ,t2 (t) + f3 (t)H(t − t2 )
= f1 (t)[H(t) − H(t − t1 )] + f2 (t)[H(t − t1 ) − H(t − t2 )] + f3 (t)H(t − t2 )
= f1 (t)H(t) + [f2 (t) − f1 (t)]H(t − t1 ) + [f3 (t) − f2 (t)]H(t − t2 ) ,
igualdade que expressa f em termos da função de Heaviside.
Teorema 6.1 (de Heaviside). Seja f uma função com transformada de Laplace
definida num certo domı́nio de frequência D. Então, para qualquer constante real a ≥ 0,
tem-se
L {f (t − a)H(t − a)} = e−as L {f (t)} , s ∈ D .
Exemplos.
1. Escolhendo f (t) ≡ 1, como L {1} = 1/s para s > 0, deduz-se
e−as
L {H(t − a)} = , s > 0 (a ≥ 0) ;
s
em particular, para a = 0 obtém-se a transformada de Laplace da função de Heav-
iside:
1
L {H(t)} = , s > 0 .
s
2. Determinar a transformada de Laplace da função
0 ,
t<a
f (t) := ℓ , a≤t<b (ℓ ∈ R , 0 < a < b) .
0 , t≥b,
(O gráfico desta função sugere um rectângulo de largura |ℓ| e comprimento b − a.)
De acordo com (6.15), tem-se
f (t) = ℓ Πa,b (t) = ℓ [H(t − a) − H(t − b)] ;
logo, usando o resultado do exemplo 1,
L{f (t)} = ℓ [L{H(t − a)} − L{H(t − b)}]
ℓ ¡ −as ¢
=e − e−bs , s > 0 .
s
3. Determinar a transformada de Laplace da função
(
t , 0≤t<b
f (t) := (b > 0) .
0 , t≥b,
Em primeiro lugar, expressamos f em termos da função de Heaviside:
f (t) = tH(t) + (0 − t)H(t − b)
= (t − 0)H(t − 0) − (t − b)H(t − b) − bH(t − b) .
96 5. TRANSFORMADA DE LAPLACE
Exemplos.
½ ¾
4e−4s
1. Determinar L−1 .
s(s + 2)
2. Determinar uma solução contı́nua e com derivada contı́nua em [0, +∞[ da equação
diferencial
d2 y dy
2
+5 + 6y = f (t)
dt dt
sujeita às condições iniciais y(0) = 0 e dy
dt (0) = 2, onde
(
3 , 0≤t<6
f (t) :=
0 , t≥6.
Primeiramente, exprimimos f (t) em termos da função de Heaviside e calcu-
lamos a sua transformada de Laplace:
f (t) = 3 [ H(t) − H(t − 6) ] ,
donde
L{f (t)}= 3L{H(t)} − 3L{H(t − 6)}
1 e−6s 3¡ ¢
= 3 −3 = 1 − e−6s , s > 0 .
s s s
Agora, aplicando a transformada de Laplace a ambos os membros da EDO dada,
vem
½ 2 ¾ ½ ¾
d y dy 3¡ ¢
(6.16) L + 5L + 6 L {y} = 1 − e−6s .
dt2 dt s
Pondo Y (s) = L {y}, e assumindo as condições da Propriedade 3.4 e atendendo às
condições iniciais especificadas, temos
½ 2 ¾
d y
L = s2 Y (s) − sy(0) − y ′ (0) = s2 Y (s) − 2 ,
dt2
½ ¾
dy
L = sY (s) − y(0) = sY (s) ,
dt
logo, substituindo em (6.16),
3¡ ¢
(s2 + 5s + 6)Y (s) = 2 + 1 − e−6s ,
s
donde, após efectuar alguns cálculos,
2s + 3 3
Y (s) = − e−6s
s(s + 2)(s + 3) s(s + 2)(s + 3)
1 1 µ1 3 ¶
2 2 1 −6s 2 2 1
= + − −e − + .
s s+2 s+3 s s+2 s+3
Consequentemente,
y(t) = L−1 {Y (s)}
½ ¾ ½ ¾ ½ ¾
1 −1 1 1 −1 1 −1 1
= L + L −L
2 s 2 s+2 s+3
½ −6s ¾ ½ −6s ¾ ½ −6s ¾
1 −1 e 3 −1 e −1 e
− L + L −L .
2 s 2 s+2 s+3
Finalmente, como (pela tabela)
½ ¾ ½ ¾ ½ ¾
−1 1 −1 1 1
L =1, L = e−2t , L −1
= e−3t
s s+2 s+3
98 5. TRANSFORMADA DE LAPLACE
7. “Pacotes” computacionais
A teoria desenvolvida para a transformada de Laplace permite-nos constatar que muitos
dos procedimentos analisados relativos à transformada de Laplace são meramente algébricos
(em particular os métodos expostos para a determinação da transformada ou da transfor-
mada inversa). Sendo assim, é natural que a transformada possa ser implementada em
pacotes computacionais algébricos, como o Mathematica ou o Maple.
A tı́tulo de exemplo, apresentam-se em seguida os comandos do Mathematica que
permitem obter a transformada de Laplace “simbólica” da equação diferencial com condições
iniciais
d2 y dy dy
(7.17) +6 + 9y = t sin t , y(0) = 2 , (0) = −1 ,
dt2 dt dt
bem como a solução deste problema de valor inicial, determinando-se a transformada in-
versa. Conforme já anteriormente referimos, no Mathematica a transformada de Laplace
é obtida através do comando LaplaceTransform[y[t],t,s] , e a transformada inversa
por InverseLaplaceTransform[y[t],t,s] . Na segunda linha da sintaxe substitui-se
LaplaceTransform[y[t],t,s] por Y.
2 2 s
1 - 2 s + 9 Y + s Y + 6 (-2 + s Y) == ---------
--------
2 2
(1 + s )
2 s
-11 - 2 s - ---------
--------
2 2
(1 + s )
{Y -> -(---------------------)}
--------------------
2
9 + 6 s + s
2 s
-11 - 2 s - ---------
--------
2 2
(1 + s )
-(---------------------)
--------------------
2
9 + 6 s + s
1 487 + 1235 t
---
-- (------------
----------- - (-13 + 15 t) Cos[t] - (9 - 20 t) Sin[t])
250 3 t
E
Para cada λ ∈ σ(A), S(λ) designará o conjunto de todas as soluções v da equação (1.2),
chamado subespaço próprio de A associado a λ. Verifica-se facilmente que S(λ) é um sube-
spaço vectorial de Rn . Ainda, para cada λ ∈ σ(A), ma (λ) denotará a multiplicidade algébrica
de λ, isto é, o número de vezes que λ é raı́z da equação caracterı́stica (1.1), e mg (λ) des-
ignará a multiplicidade geométrica de λ, que é exactamente a dimensão do subespaço S(λ).
Constata-se facilmente que
(1.3) 1 ≤ mg (λ) ≤ ma (λ) , ∀λ ∈ σ(A) .
Teorema 1.1. Vectores próprios associados a valores próprios distintos são linearmente
independentes.
Prova. A prova faz-se facilmente por indução sobre o número de vectores próprios em
análise.
É útil observar que, nas condições do teorema, as colunas da matriz P que diagonaliza
A são constituı́das pelas componentes de n vectores próprios linearmente independentes, o
que permite concluir que a diagonalização a que se refere o teorema é uma diagonalização
em C, mesmo que A seja real.
Prova. É uma consequência imediata do teorema 1.2 e de (1.3), já que afirmar que A
tem valores próprios distintos significa que ma (λ) = 1, ∀λ ∈ σ(A).
Embora nem todas as matrizes quadradas sejam diagonalizáveis, o teorema que a seguir
se estabelece garante que toda a matriz quadrada é triangularizável, isto é, semelhante a uma
matriz triangular.
1. TÓPICOS DA TEORIA DAS MATRIZES 103
Teorema 1.3. (Schur) Se A é uma matriz quadrada qualquer, existe uma matriz in-
vertı́vel P tal que
(1.4) P −1 AP = T,
onde T é uma matriz triangular, tendo os valores próprios de A ao longo da sua diagonal
principal.
Prova. A demonstração será feita por indução sobre a ordem n de A e admitindo, sem
perda de generalidade, que T é triangular superior. Para n = 1 o teorema é trivialmente
verdadeiro. Agora suponha-se que o teorema é verdadeiro para matrizes n × n (hipótese de
indução) e prove-se que, então, também se verifica para matrizes (n + 1) × (n + 1).
Seja A uma matriz (n + 1) × (n + 1) e λ1 , · · · , λn+1 os seus valores próprios, não neces-
sariamente distintos. Seja, ainda, v1 um vector próprio associado a um determinado valor
próprio, digamos λ1 , isto é, Av1 = λ1 v1 . Seja Q uma matriz invertı́vel cuja primeira coluna
é constituı́da pelas componentes de v1 . (A existência de Q está garantida pelo teorema do
completamento da base.) Então Qe1 = v1 , onde e1 = [ 1 0 · · · 0 ]T . Vamos mostrar
que a primeira coluna da matriz Q−1 AQ é igual a λ1 e1 , ou, equivalentemente,
Q−1 AQe1 = λ1 e1 .
Atendendo a que Qe1 = v1 e Av1 = λ1 v1 , tem-se
Q−1 AQe1 = Q−1 Av1 = Q−1 λ1 v1 = λ1 Q−1 v1 = λ1 e1 .
Portanto,
· ¸
−1 λ1 ∗
(1.5) Q AQ = ,
0 A1
onde A1 é uma matriz de ordem n, tendo valores próprios λ2 , · · · λn+1 , pois (1.5) mostra
que a matriz no segundo membro é semelhante à matriz A. Mas, por hipótese de indução,
existe P1 invertı́vel tal que P1−1 A1 P1 = T1 , onde T1 é triangular, tendo os valores próprios
de A1 ao longo da diagonal principal. Agora vamos mostrar que a matriz invertı́vel
· ¸
1 0
P =Q
0 P1
triangulariza A. Na verdade,
· ¸ · ¸ · ¸· ¸· ¸
−1 1 0 −1 1 0 1 0 λ1 ∗ 1 0
P AP = Q AQ =
0 P1 −1 0 P1 0 P1 −1 0 A1 0 P1
· ¸ · ¸ λ1 ∗
λ1 ∗ λ1 ∗ ..
= = = . ,
0 P1 −1 A1 P1 0 T1
0 λn+1
o que conclui a demonstração.
Por este motivo, há autores que se referem à matriz C como sendo a matriz companheira do
polinómio p(λ). Decorre de (ii) que mg (λ) = 1, ∀λ ∈ σ(C) , logo uma matriz companheira é
diagonalizável se e só se todos os seus valores próprios são distintos.
1.5. Forma normal de Jordan. De acordo com o teorema 1.2, se A ∈ Rn×n é diag-
onalizável, existe um conjunto de vectores próprios de A linearmente independentes cujas
componentes formam as colunas da matriz que diagonaliza A. Contudo, no caso de A não
ser diagonalizável é possı́vel reduzı́-la, através de uma transformação de semelhança, a uma
forma canónica, chamada forma normal de Jordan, que, não sendo diagonal, tem quando
muito entradas não nulas na diagonal principal e na diagonal imediatamente acima desta.
A forma normal de Jordan de A é uma matriz diagonal por blocos, J, tal que
P −1 AP = J ,
cujos blocos não nulos, chamados blocos elementares de Jordan, são submatrizes da forma
λ 1
λ 1
. .. . ..
(1.9) Jm (λ) = ,
λ 1
λ
onde m indica a ordem da submatriz. O escalar λ que figura em cada um dos blocos
elementares de Jordan de A é valor próprio de A. As colunas da matriz P que permite reduzir
A à sua forma normal de Jordan são constituı́das pelas componentes de n vectores, que são
106 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS
pelo que cada bloco elementar de Jordan se pode decompor na soma de uma matriz escalar
(múltiplo da matriz identidade) com uma matriz nilpotente (i.e., existe uma poência da
matriz que se reduz à matriz nula – no caso presente, é N m = 0 ).
1.6. Normas vectoriais e matriciais. No que vai seguir-se vamos considerar uma
norma matricial definida por
kAk := max |aij | ,
1≤i≤n
1≤j≤m
onde A é uma matriz de ordem n×m com entradas aij , i.e., A = [aij ] ∈ Rn,m . Em particular,
para um dado vector v = [vi ]ni=1 ∈ Rn , tem-se
Com efeito, pondo A = [aij ] e B = [bij ], por definição do produto AB, a entrada (i, j)
Pk
desta matriz é (AB)ij = s=1 ais bsj , logo
k
X
kABk = max |(AB)ij | ≤ max |air | max |brj | = k kAk kBk .
1≤i≤n 1≤i≤n 1≤r≤k
1≤j≤m s=1 1≤r≤k 1≤j≤m
Como usualmente, esta série diz-se convergente se a sua sucessão associada (das somas
parciais) {Sp }p∈N , onde
Xp
Sp := Ak
k=0
for convergente para alguma matriz S. Por exemplo,
" 1 # " P∞ P∞ 1 # " π2
#
X∞ 0 k2 k=1 0 k=1 k2 0 6
1 1−k
= P∞ 1
P∞ 1−k = .
e e
k=1 k(k+1) k=1 k(k+1) k=1 e 1 e−1
Como se sabe, dada uma série numérica, se esta for absolutamente convergente (i.e., se
convergir a série cujos termos são os módulo dos termos correpondentes da série dada) então
é também convergente. A proposição seguinte pode ser interpretada como sendo o resultado
análogo para séries matriciais.
108 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS
Teorema 1.5. Seja {Ak }k∈N0 uma qualquer sucessão de matrizes da mesma ordem, e
suponha-se que
(1.12) kAk k ≤ ak (k = 0, 1, 2, . . .) ,
onde {ak }k∈N0 éPuma sucessão numérica de termos não negativos. Nestas condições,
P∞ se a
∞
série numérica k=0 ak for convergente, o mesmo sucede à série matricial k=0 Ak .
Prova. Por uma questão de simplicidade, vamos provar o resultado supondo que as
matrizes Ak são quadradas de ordem n, mas isso não é essencial na prova. Designando
(k)
por aij as entradas de Ak , por definição de série matricial temos que mostrar que para
P∞ (k) (i,j)
i, j = 1, . . . , n cada uma das séries numéricas k=0 aij é convergente. Designe SN o
(i,j) P N (k)
termo geral da sucessão associada desta série numérica, i.e., SN = k=0 aij . Então,
para M > N tem-se
¯ M ¯ ¯ M ¯ ° M °
¯ X ¯ ¯ X ¯ ° X ° XM
(i,j) (i,j) ¯ (k) ¯ ¯ (k) ¯ ° °
|SM − SN | = ¯ aij ¯ ≤ max ¯ aij ¯ = ° Ak ° ≤ kAk k ,
¯ ¯ 1≤i,j≤n ¯ ¯ ° °
k=N +1 k=N +1 k=N +1 k=N +1
P∞ PM
Como, por hipótese, a série numérica k=0 ak é convergente, então k=N +1 ak → 0
(i,j) (i,j)
para M, N → ∞, logo também − |SM SN | → 0 para M, N
→ ∞. Isto significa que
(i,j)
{SN }N ∈N0 é uma sucessão de Cauchy para todo o par (i, j), logo cada uma das séries
P∞ (k)
numéricas k=0 aij é convergente.
P −1 AP = J ,
1. TÓPICOS DA TEORIA DAS MATRIZES 109
observamos que basta provar o teorema para o caso em que J consiste num único bloco de
Jordan, digamos,
0 1
0 1
.. ..
J = Jm (λ) = λI + N , N = . . .
0 1
0 m×m
donde
∞ m−1
à ∞ µ ¶
! m−1
X X X k X f (ℓ) (λ) ℓ
k k−ℓ
(1.13) f (J) = ck J = ck λ Nℓ = N ,
ℓ λ!
k=0 ℓ=0 k=0 ℓ=0
sendo a última igualdade justificada pelo facto de a função f (z) (que é definida por uma
série de potências) ter derivadas de todas as ordens nos pontos z tais que |z| < r, as quais
podem ser calculadas derivando a série termo a termo, tendo-se
∞ µ ¶
X
(ℓ) k
f (z) = ℓ! ck z k−ℓ , |z| < r .
ℓ
k=ℓ
Decorre de (1.13) que a série definida por f (J) converge, o que conclui a prova.
Observação 1.2. As sucessivas potências da matriz nilpotente N têm todas as entradas
iguais a zero com excepção das entradas de uma diagonal paralela à diagonal principal, as
quais são todas iguais a 1. Mais concretamente, as únicas entradas não nulas e iguais a 1 da
matriz N ℓ , para ℓ = 2, 3, . . . , m − 1, são as entradas que figuram na posição (i, i + ℓ) para
110 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS
(k)
Prova. Prove-se apenas (i). Ponha-se Ak = [aij ]ni,j=1 , para todo o k ∈ N0 . Como,
P∞ k
por hipótese, a série matricial k=0 Ak t é convergente para todo o t ∈ I então, por
definição de série matricial convergente, cada uma das séries (de potências) de números
P∞ (k) k
reais k=0 aij t é convergente para todo o t ∈ I, e tem-se
∞
" ∞ #n
X X (k)
k k
Ak t = aij t , t∈I,
k=0 k=0 i,j=1
2. EXPONENCIAL MATRICIAL 111
Agora, as séries que figuram nas entradas da matriz do segundo membro desta igualdade
são séries de potências convergentes para todo o t ∈ I, pelo que podem ser derivadas termo
a termo no interior do seu intervalo de convergência (que, naturalmente, tem que conter I 0 ),
obtendo-se
Ã∞ ! ∞ ∞
d X (k) k X (k)
X (k+1) k
aij t = k aij tk−1 = (k + 1)aij t , t ∈ I0 .
dt
k=0 k=1 k=0
Assim,
à ∞
! " ∞
#n ∞
d X X (k+1) k
X
k
Ak t = (k + 1)aij t = (k + 1)Ak+1 tk , t ∈ I0 .
dt
k=0 k=0 i,j=1 k=0
2. Exponencial matricial
2.1. Definição e exemplos.
P∞ k Como se sabe, sendo a um númeroa real ou complexo
qualquer, a série numérica k=0 a /k! é convergente e tem por soma e . Tal como sucede
para um dado número, também o conceito de exponencial pode ser introduzido para uma
dada matriz (quadrada) A, definindo-se exp A como sendo a soma de uma série de matrizes
adequada, definida à custa de A.
P∞ k
Teorema 2.1. Dada uma matriz A real de ordem n, a série k=0 A /k! converge para
uma matriz real de ordem n.
Prova. Basta observar que, pondo a := kAk, atendendo a (1.11) é kAk /k!k = kAk k/k! ≤
k−1 k
P∞ kAk /k!
n ≤ (na)k /k! para todo o k ∈ N0 . Consequentemente, como a série P∞numérica
k na k
k=0 (na) /k! converge (para e ), decorre do teorema 1.5 que a série matricial k=0 A /k!
também converge.
Observação 2.1. Uma demonstração alternativa (e igualmente imediata) do teorema
precedente
P∞ k é a seguinte: comoz ρ(A) < a para algum a > 0, e a função definida por f (z) :=
k=0 z /k!
P∞converge (para e ) em |z| < a , o teorema 1.6 assegura que a série de matrizes
k
f (A) = k=0 A /k! é convergente. Note-se, contudo, que esta demonstração, por ser
baseada no teorema 1.6, depende de conhecimentos sobre funções de variável complexa.
Uma outra demonstração aternativa, que também não envolve tais conhecimentos, pode
fazer-se com argumentos de equações diferenciais, com base no teorema 5.1 adiante (cf.
observação 5.3).
À soma da série anterior convencionou-se chamar exponencial da matriz A. Mais pre-
cisamente, dada uma matriz A real de ordem n, exponencial da matriz A, designada por
exp A ou eA , é a matriz real de ordem n definida por
A2 Ak
(2.1) + ··· +
exp A = I + A + + ··· ,
2! k!
onde I denota a matriz identidade de ordem n.
Deste modo, podemos definir a função matricial exp tA, t ∈ R ,
A2 t2 Ak tk
(2.2) exp tA = I + tA + + ··· + + ··· .
2! k!
112 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS
Vimos já anteriormente que as únicas entradas não nulas (e que são iguais a 1) da matriz
N k , para k = 2, 3, . . . , n − 1, são as entradas na posição (i, i + k) para i = 1, · · · , n − k.
Portanto,
2
tn−2 tn−1
1 t t2! · · · (n−2)! (n−1)!
1 t · · · tn−3 tn−2
(n−3)! (n−2)!
.. ..
.. ..
. . . .
exp tA = .
.. t 2
. t
2!
1 t
1
2. EXPONENCIAL MATRICIAL 113
Atendendo a que se λ é valor próprio de A então eλ é valor próprio de exp A, (iii) é uma
consequência imediata do corolário 1.2. Na verdade, se λ1 , · · · , λn são os valores próprios
de A, então pode-se escrever
n
Y
= etraço(A) .
n
det (exp A) = eλi = e i=1 λi
i=1
Remete-se a prova de (iv) para mais tarde (cf. observação 7.2). A invertibilidade da
exponencial matricial é garantida por (iii). Assim, para provar (v) basta observar que
exp (tA) exp (−tA) = I, igualdade esta que resulta da propriedade (iv), com B = −A.
Finalmente, (vi) decorre da definição de exponencial matricial e da fórmula
(P −1 AP )k = P −1 Ak P , ∀k ∈ N ,
cuja demonstração se faz facilmente por indução sobre k.
Observação 2.2. De acordo com a propriedade (iv), se A e B são matrizes comutativas
então a exponencial matricial da soma A + B é igual ao produto das exponenciais matriciais
de cada parcela. Porém, quando A e B não comutam este facto pode não se verificar.
Para justificar esta afirmação, considere-se uma matriz referida num exemplo anterior e cuja
exponencial foi já calculada:
· ¸ · ¸
0 1 cos t sin t
C := , exp tC = .
−1 0 − sin t cos t
Ora, C = A + B, com
· ¸ · ¸
0 1 0 0
A= , B= .
0 0 −1 0
Observe-se que A e B não comutam. Porém, estas duas matrizes são nilpotentes e, além
disso, A2 = B 2 = 0, o que permite calcular
· ¸ · ¸
1 t 1 0
exp tA = I + tA = , exp tB = I + tB = ,
0 1 −t 1
114 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS
donde · ¸
1 − t2 t
exp tA · exp tB = 6= exp tC = exp t(A + B) .
−t 1
Como exemplo de aplicação, considere-se a matriz A considerada em(1.6),
· ¸
0 1
A= .
−4 4
De acordo com (1.7), esta matriz é triangularizável, e P −1 AP = T , com
· ¸ · ¸ · ¸
1 0 1 0 2 1
P := , P −1 = , T := .
2 1 −2 1 0 2
£ ¤
Como T = E + N , com E := 2I (matriz escalar) e N := 00 10 , e E e N comutam, então
exp(T t) = exp(Et) exp(N t). Como E é matriz diagonal e N matriz nilpotente, com N k = 0
para k ≥ 2, deduz-se
· 2t ¸ · ¸
e 0 1 t
exp(Et) = 2t = e2t I , exp(N t) = I + N t = ,
0 e 0 1
logo
· ¸
1 − 2t t
exp(At) = P exp(T t) P −1 = e2t .
−4t 1 + 2t
Observação 2.3. Um bloco elementar de Jordan da forma (1.9) pode-se decompor na
soma da uma matriz escalar, λI, com a matriz nilpotente (2.3). Atendendo a que uma
matriz escalar comuta com qualquer outra matriz, aplicando a propriedade (iv) pode-se
obter a exponencial de um bloco elementar de Jordan multiplicando a matriz escalar exp λI
pela exponencial da matriz (2.3). Atendendo a que a forma normal de Jordan, J, de uma
dada matriz A é diagonal por blocos e que os blocos ao longo da diagonal são matrizes cuja
exponencial já sabemos calcular, também é imediato calcular a exponencial de J. Além disso,
se J for conhecida, assim como a matriz P tal que P −1 AP = J, aplicando a propriedade
(vi) pode-se calcular exp A através da fórmula
exp A = P (exp J ) P −1 .
Recordemos que por solução em I do sistema (3.1) (ou (3.2)), entende-se n funções
ϕ1 , ϕ2 , . . . , ϕn , definidas e deriváveis em I, tais que para todo o t ∈ I se verifiquem as duas
condições
(i) (t, ϕ1 (t), ϕ2 (t), . . . , ϕn (t)) ∈ Ω
(ii) ϕ′j (t) = fj (t, ϕ1 (t), ϕ2 (t), . . . , ϕn (t)) , j = 1, 2, . . . , n .
Se, além de (3.1), impusermos as condições iniciais
(3.6) y1 = y , y2 = y ′ , y3 = y ′′ , . . . , yn = y (n−1) ,
tem-se
y1′ = y ′ = y2 , y2′ = y ′′ = y3 , y3′ = y ′′′ = y4 , . . . , ′
yn−1 = y (n−1) = yn
e, ainda,
yn′ = y (n) = −an (t)y − an−1 (t)y ′ − . . . − a1 (t)y (n−1) + b(t)
onde C(t) é uma matriz companheira e b(t) um vector coluna, definidos por
0 1
0 1 0
..
.. ..
C(t) := . . , b(t) := . .
0
0 1
b(t)
−an (t) −an−1 (t) · · · −a2 (t) −a1 (t) n×n
Se, em vez da equação (3.5), partirmos de uma outra EDO de ordem n, não necessari-
amente linear, mas que possa escrever-se na forma normal, digamos,
(3.8) y (n) = F (t, y, y ′ , y ′′ , · · · , y (n−1) ) ,
do mesmo modo se gerava a partir desta EDO um sistema de n EDO’s, introduzindo as mes-
mas variáveis y1 , y2 , . . . , yn definidas por (3.6), obtendo-se deste modo o seguinte resultado:
Teorema 3.1. A equação (3.8) é equivalente ao sistema diferencial
y1′ = y2
y2′ = y3
(3.9) ..
.
′
yn−1 = yn
yn′ = F (t, y1 , y2 , · · · , yn ) ,
no sentido seguinte: se ϕ é uma solução da EDO (3.8) então o vector (ϕ, ϕ′ , ϕ′′ , · · · , ϕ(n−1) )
é uma solução do sistema (3.9), enquanto que se (ϕ1 , · · · , ϕn ) é uma solução do sistema
(3.9) então ϕ1 é uma solução da equação (3.8).
Por exemplo, o problema de Cauchy
µ ¶2
d3 y dy
+ + 5y = cos t , y(0) = 1 , y ′ (0) = 0 , y ′′ (0) = 0 ,
dt3 dt
é equivalente ao sistema diferencial com condições iniciais (problema de valores iniciais)
′
y1 = y2
y ′ = y3 , y1 (0) = 1, y2 (0) = 0, y3 (0) = 0 .
2′
y3 = cos t − 5y1 − y22
4. Teorema de existência e unicidade
Uma questão essencial que se coloca no estudo do sistema diferencial
(4.1) y′ = f (t, y)
é, naturalmente, a de saber se tal sistema admite ou não alguma solução e, no caso de
existência, analisar se existe ou não unicidade de solução quando uma condição inicial
y(t0 ) = y0 é fixada. Esse estudo será realizado nesta secção e os resultados a estabelecer
consistem numa generalização natural dos resultados de existência e unicidade apresentados
no capı́tulo 2 para as EDO’s de primeira ordem. Recorde-se que, aı́ se provou um teorema
de existência de soluções (teorema de Cauchy-Peano) e um teorema de existência e unici-
dade da solução (teorema de Picard), e na base dessas provas esteve a noção de solução
δ−aproximada. Referimos também na altura que uma prova alternativa para o teorema de
Picard poderia ser dada com base no método das aproximações sucessivas de Picard. É este
o método que adoptaremos para a prova do resultado de existência e unicidade que vamos
estabelecer nesta secção para os sistemas da forma (4.1).
4. TEOREMA DE EXISTÊNCIA E UNICIDADE 117
donde ° °
n
X ° ∂f °
kh′ (s)k ≤ |yi − zi | °
° ∂yi (t, y + s(z − y))° ≤ nL1 ky − zk .
°
i=1
Consequentemente,
°Z 1 ° Z 1
° °
k f (t, y) − f (t, z) k = kh(1) − h(0)k = °
° h′ (s) ds°
°≤ kh′ (s)k ds ≤ nL1 ky − zk ,
0 0
o que prova a proposição.
Picard) poderia também omitir-se, mas daremos uma prova alternativa com base no método
das aproximações sucessivas de Picard.
Então, existe pelo menos uma solução y = ϕ(t) do problema de Cauchy (4.2) definida no
intervalo
Iα = {t ∈ R : |t − t0 | ≤ α} , α := min{a, b/M } .
Se, além das hipóteses anteriores, se admitir que f é também lipschitziana em Ω a respeito
da segunda variável, então a solução é única em Iα e tem-se
ϕ = lim yk uniformemente em Iα ,
k→∞
onde {yk }k∈N0 é uma sucessão de aproximações sucessivas, definida recorrentemente por
Z t
(4.3) y0 (t) := y0 , yk+1 (t) := y0 + f (s, yk (s)) ds (k = 0, 1, 2, . . .)
t0
para todo o t ∈ Iα .
o que mostra que (s, yk+1 (t)) ∈ Ω e, consequentemente, como t é arbitrário em Iα , fica
justificada a afirmação acima.
Designe L > 0 a constante de Lipschitz e seja c := maxs∈Iα ky1 (s) − y0 (s)k . Note-se
que este máximo existe, de facto, em virtude da continuidade das funções envolvidas e por
Iα ser um intervalo compacto de R. Vamos começar por mostrar, por indução sobre k, que
Lk c
(4.4) kyk+1 (t) − yk (t)k ≤ |t − t0 |k , ∀t ∈ Iα (k = 0, 1, 2, . . .) .
k!
4. TEOREMA DE EXISTÊNCIA E UNICIDADE 119
Para k = 0 é trivial. Suponha-se então que a desigualdade (4.4) vale para um inteiro k (fixo)
e prove-se que permanece válida para o seu sucessor, k + 1. Com efeito, tem-se
°Z t °
° °
kyk+2 (t) − yk+1 (t)k = ° [ f (s, yk+1 (s)) − f (s, yk (s)) ] ds°
°
°
t0
¯Z t ¯
¯ ¯
≤ ¯ ¯ kf (s, yk+1 (s)) − f (s, yk (s))k ds ¯¯
t0
¯Z t ¯
¯ ¯
≤ L ¯¯ kyk+1 (s) − yk (s)k ds ¯¯ ,
t0
sendo a última desigualdade justificada por f satisfazer a condição de Lipschitz. Agora, pela
hipótese de indução, obtém-se
¯Z ¯ ¯
k+1 ¯ Z t
¯
Lk+1 c ¯¯ t k
¯
¯ = L c ¯ k
¯
¯
kyk+2 (t) − yk+1 (t)k ≤ ¯ |s − t 0 | ds ¯ ¯ (s − t0 ) ds ¯
k! t0 k! t0
k+1
L c
≤ |t − t0 |k+1 ,
(k + 1)!
o que prova (4.4). Como Iα = [t0 − α, t0 + α], decorre de (4.4) que
(2αL)k c
sup kyk+1 (t) − yk (t)k ≤ .
t∈Iα k!
Ora, o segundo membro desta desigualdade constitui o termo geral de uma série numérica
convergente (para e2αL c), pelo que, pelo critério de Weierstrass
P∞ para séries de funções reais
(aplicado a cada uma das séries componentes), a série k=0 (yk+1 (t) − yk (t)) é uniforme-
Pk
mente convergente em Iα . Consequentemente, como yk = y0 + j=1 (yj − yj−1 ) , deduz-se
que a sucessão de aproximações {yk }k∈N0 converge uniformemente em Iα , para alguma
função limite ϕ : Iα → Rn ,
ϕ := lim yk uniformemente em Iα .
k→∞
Esta função ϕ é contı́nua em Iα , pois é o limite uniforme de funções contı́nuas. Fazendo
então k tender para +∞ em (4.3), deduz-se
Z t
ϕ(t) = y0 + f (s, ϕ(s)) ds ,
t0
o que permite concluir (passando às componentes em ambos os membros desta igualdade e
aplicando o teorema 7.1 estabelecido no capı́tulo 2) que ϕ é solução do problema de Cauchy
(4.2) em Iα .
Para provar a unicidade da solução, suponha-se que existe uma outra função vectorial
ψ : Iα → Rn satisfazendo
Z t
ψ(t) := y0 + f (s, ψ(s)) ds .
t0
Designe m := maxt∈Iα kψ(t) − y1 (t)k . Constata-se facilmente por indução sobre k que
Lk−1 m (2αL)k−1 m
kψ(t) − yk (t)k ≤ |t − t0 |k−1 ≤ , ∀t ∈ Iα (k = 2, 3, . . .) .
(k − 1)! (k − 1)!
Como o último membro desta expressão tende para zero quando k → ∞ (basta observar que
se trata do termo geral de uma série numérica convergente), deduz-se
ψ(t) = lim yk (t) = ϕ(t) , t ∈ Iα ,
k→∞
120 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS
Tal como sucedia para as EDO’s de primeira ordem com condição inicial, o teorema
precedente apenas garante a existência de solução local do sistema diferencial (4.2) com
condição incial, definida no intervalo Iα . A proposição que a seguir se enuncia, e cuja
prova é análoga à do corolário 7.1 do capı́tulo 2, estabelece condições que asseguram que a
solução local encontrada pode ser prolongada a uma solução global, definida num intervalo
I previamente fixado.
Corolário 4.1. (existência e unicidade de solução global) Sejam I um intervalo
de números reais, t0 ∈ I 0 e y0 ∈ Rn . Seja f : I × Rn → Rn uma função contı́nua, limitada
e lipschitziana a respeito da segunda variável. Então existe uma e uma só solução y = ϕ(t)
do problema de Cauchy (4.2), definida em todo o intervalo I.
onde
y10
y0 = ... .
yn0
Por exemplo, o problema de valores iniciais (3.4), pode ser escrito na forma
· ¸ · ¸ · ¸
0 0 1 0
y′ = y+ , y(0) = 0 ≡ ;
0 2 0 0
enquanto que o problema de valores iniciais
′
y1 = y1 − y2 + 2y3
A prova consiste em mostrar que para qualquer intervalo [ξ, η] ⊂ I, contendo t0 , a sucessão
{yk }k∈N0 converge uniformemente em [ξ, η] para uma solução de (5.2) que satisfaz y(t0 ) =
y0 . Designem ℓ := maxs∈[ξ,η] kA(s)k e c := maxs∈[ξ,η] ky1 (s) − y0 (s)k . Estes máximos
existem, pois as funções envolvidas são contı́nuas e [ξ, η] é compacto. Por analogia com a
prova de (4.4) é fácil mostrar, por indução sobre k, que
ℓk c
kyk+1 (t) − yk (t)k ≤ |t − t0 |k , ∀t ∈ [ξ, η] (k = 0, 1, 2, . . .) ,
k!
donde
[ℓ(η − ξ)]k c
sup kyk+1 (t) − yk (t)k ≤ , k = 0, 1, 2, . . . .
t∈[ξ,η] k!
Daqui, como na prova do teorema 4.1, deduz-se que a sucessão de aproximações {yk }k∈N0
converge uniformemente em [ξ, η], para alguma função limite ϕ : [ξ, η] → Rn , contı́nua. Este
122 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS
n
Pondo B ≡ Bb (y0 ) := {y ∈ R : ky − y0 k ≤ b } , é claro que f é também lipschitziana em
J × B, e como este conjunto é compacto e f é aı́ contı́nua, existe M ≡ M (J, B) > 0 tal que
kf k ≤ M em J × B . Assim, o teorema 4.1 garante a existência de uma única solução no
intervalo Iα := [t0 − α, t0 + α] ⊂ J ⊂ I, com α := min{a, b/M }. Este intervalo Iα depende
das escolhas de J e B, pelo que, em princı́pio, Iα é um subintervalo estritamente contido
em I e, consequentemente, esta solução que obtivemos não é ainda uma solução definida
em todo o intervalo I. Naturalmente, poderı́amos pensar em prolongar a todo o intervalo
I a solução obtida em Iα , tentando aplicar o corolário 4.1. Porém, este resultado não pode
aplicar-se a esta situação, uma vez que a função f (t, y) := A(t)y + b(t), apesar de contı́nua,
não é limitada em I × Rn , mesmo que I seja limitado. Por esta razão, foi necessário dar
uma prova directa do teorema 5.1 precedente, para garantir que a solução existe, de facto,
em todo o intervalo I (e não apenas numa vizinhança de t0 ).
Observação 5.2. Tal como havia sido referido no capı́tulo 4, o teorema 1.1 aı́ apre-
sentado é consequência imediata do teorema precedente, atendendo à equivalência anteri-
ormente referida entre a EDO linear de ordem n (3.5) e o sistema diferencial linear (3.7).
Observação 5.3. De acordo com o que se referiu na observação 2.1, o teorema 5.1
permite dar uma prova alternativa (sem usar argumentos de funções de variável complexa)
da convergência da série que define a exponencial de uma matriz real. Com efeito, fixada uma
6. SISTEMAS DIFERENCIAIS LINEARES HOMOGÉNEOS 123
Assim, se se provar que a sucessão de matrizes {Φk (t)}k∈N0 é convergente para todo o
t ∈ R, em particular ficará estabelecida a convergência da série que define a exponencial
da matriz A. Para provar que aquela sucessão converge, comecemos por notar que (5.5) se
pode reescrever sob a forma equivalente de n sistema diferenciais de ordem n
Z t
(5.6) ϕj0 (t) = ej , ϕjk+1 (t) = ej + Aϕjk (s) ds (k = 0, 1, 2, . . .)
0
para j = 1, 2, . . . , n, onde ej designa o j−ésimo vector da base canónica de Rn e ϕjk (t) designa
a j−ésima coluna de Φk (t). Ora, para cada j, (5.6) é uma caso especial de (5.4) na demon-
stração do teorema 5.1, pelo que, pela própria demonstração deste teorema, para cada j
cada uma das sucessões de funções vectoriais {ϕjk (t)}k∈N0 converge uniformemente (quando
k → ∞) em cada intervalo compacto de R. Consequentemente, também {Φk (t)}k∈N0 con-
verge uniformemente (quando k → ∞) em cada intervalo compacto de R. Isto mostra que
Pk j j
a série matricial j=0 A t /j! converge uniformemente em cada intervalo compacto de R.
A matriz C é invertı́vel, pois para t = 0 vem Ψ(0) = Φ(0) C e as matrizes Φ(0) e Ψ(0) são
invertı́veis (o que é uma consequência do facto de as colunas de cada uma das matrizes Φ(t)
e Ψ(t) constituirem um conjunto de n soluções linearmente independentes de (7.1) e do teste
de independência linear).
A prova consiste em mostrar que cada um dos membros desta igualdade (7.2) define uma
solução do problema
(7.3) Y ′ = (A + B) Y , Y (0) = I
(logo, como a solução é única, a igualdade (7.2) terá que se verificar). É claro, pelas con-
siderações acima, que exp t(A + B) é solução de (7.3). Para mostrar que exp(tA) · exp(tB)
é também solução, comecemos por observar que, pelo facto de A e B comutarem, então
Ak B = BAk para todo o k = 0, 1, 2 . . ., logo
∞
X ∞
X
Ak Btk Ak tk
exp(tA)B = =B = B exp(tA) ,
k! k!
k=0 k=0
= (A + B) exp(tA) · exp(tB) ,
o que mostra que exp(tA) · exp(tB) é solução de (7.3).
Qualquer que seja a matriz A, o vector v (real ou complexo) e o escalar λ (real ou
complexo), é válida a seguinte expressão, que resulta de aplicação directa da definição de
exponencial matricial e do facto de uma matriz escalar comutar com qualquer matriz.
é solução de (7.1) então (A − λI)m v = 0 . Comecemos por observar que, de acordo com
(7.4), é válida a igualdade
(7.6) exp(tA) v = ϕm (t; λ, A, v) + eλt (A − λI)m ψm (t; λ, A, v) , t∈R
onde
tm tm+1 tm+2
ψm (t; λ, A, v) := v+ (A − λI)v + (A − λI)2 v + · · · .
m! (m + 1)! (m + 2)!
Como, por hipótese, ϕm (t; λ, A, v) é solução de (7.1), então pelo corolário 7.1 é da forma
ϕm (t; λ, A, v) = exp(tA) u , para algum vector constante u. Assim, como ψm (0; λ, A, v) = 0,
fazendo t = 0 em (7.6) deduz-se v = u, e (7.6) reduz-se a
(A − λI)m ψm (t; λ, A, v) = 0 , t ∈ R.
Derivando ambos os membros desta igualdade m vezes, e notando que
¯
dm ¯
m
{ψm (t; λ, A, v)}¯¯ = v,
dt t=0
obtém-se (A − λI)m v = 0 .
De acordo com o lema 1.1, o número de passos deste algoritmo é finito, sendo quando
muito igual a n.
Exemplo. Considere-se o sistema diferencial
0 1 2
(7.7) y′ (t) = 0 0 2 y(t) .
4 −6 6
Designando por A a matriz deste sistema, verifica-se que A tem apenas um valor próprio,
λ = 2, tendo-se, portanto, ma (2) = 3. Além disso, verifica-se também que todos os vectores
próprios são da forma α[ 1 , 2 , 2 ]T , com α ∈ R\{0}, logo o subespaço próprio associado
a este valor próprio 2 é gerado apenas por um vector, donde mg (2) = 1. Decorre que,
com os vectores próprios apenas podemos construir uma solução para integrar um sistema
fundamental de soluções do sistema diferencial (7.7), por exemplo,
1
y1 (t) := e2t 2 .
2
Como A tem apenas um vector próprio linearmente independente, passamos à determinação
dos vectores v = [ v1 , v2 , v3 ]T tais que
(A − 2I)2 v = 0 , (A − 2I)v 6= 0 .
Tem-se
4 −4 2 v1 0
(A − 2I)2 v = 0 ⇔ 8 −8 4 v2 = 0 ⇔ v3 = 2(v2 − v1 ) ,
8 −8 4 v3 0
logo
1 0
(A − 2I)2 v = 0 ⇔ v = α 1 + β 1 , α, β ∈ R .
0 2
Agora, qualquer dos vectores [ 1 , 1 , 0 ]T e [ 0 , 1 , 2 ]T satisfaz (A − 2I)v 6= 0 . Porém,
os vectores [ 1 , 2 , 2 ]T , [ 1 , 1 , 0 ]T e [ 0 , 1 , 2 ]T não são linearmente independentes, logo
y1 (t) ≡ exp(tA) [ 1 , 2 , 2 ]T , exp(tA) [ 1 , 1 , 0 ]T e exp(tA) [ 0 , 1 , 2 ]T são três soluções do
sistema (7.7), mas não são linearmente independentes (de acordo com o teste de inde-
pendência linear). Consequentemente, para já apenas obtivemos (por exemplo)
1 1 1 1−t
y2 (t) := exp(tA) 1 = e2t 1 + t(A − 2I) 1 = e2t 1 − 2t
0 0 0 −2t
como solução adicional, linearmente independente com y1 (t). Para determinar uma terceira
solução linearmente independente com y1 (t) e y2 (t), determinemos os vectores v tais que
(A − 2I)3 v = 0 , (A − 2I)2 v 6= 0 .
Ora, efectuando os cálculos, obtém-se (A − 2I)3 = 0 , logo (A − 2I)3 v = 0 para todo o
vector v. Em particular, o vector v := [ 1 , 0 , 0 ]T satisfaz (A − 2I)2 v 6= 0 e, além disso, é
linearmente independente com [ 1 , 2 , 2 ]T e [ 1 , 1 , 0 ]T , logo
1 1 2 1 1 − 2t + 2t2
t
y3 (t) := e2t 0 + t(A − 2I) 0 + (A − 2I)2 0 = e2t 4t2
2!
0 0 0 4t + 4t2
130 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS
é uma terceira solução do sistema, linearmente independente com y1 (t) e y2 (t). Conclui-se
que a solução geral do sistema diferencial (7.7) é
c1 + c2 + c3 − (c2 + 2c3 )t + 2c3 t2
y(t) = c1 y1 (t) + c2 y2 (t) + c3 y3 (t) = e2t 2c1 + c2 − 2c2 t + 4c3 t2 ,
2
2c1 + (4c3 − 2c2 )t + 4c3 t
onde c1 , c2 e c3 são constantes reais arbitrárias.
Conforme já foi referido atrás, a necessidade de se recorrer ao algoritmo anterior para
a determinação de um sistema fundamental de soluções de (7.1) deve-se à dificuldade em
calcular a exponencial matricial. Acontece que, depois de se construir uma matriz funda-
mental para o sistema (7.1), usando o algoritmo, é possı́vel determinar exp At. Isto decorre
da relação existente entre matrizes fundamentais, referida no teorema 6.3. Na verdade,
tem-se o seguinte resultado.
Teorema 7.6. Se Φ(t) é uma matriz fundamental para o sistema (7.1), então
exp At = Φ(t)Φ−1 (0) .
Prova. Como exp(tA) e (por hipótese) Φ(t) são matrizes fundamentais de soluções para
o sistema (7.1), decorre do teorema 6.3 que existe uma matriz constante invertı́vel, C, tal
que Φ(t) = exp(tA) C . Para t = 0 vem C = Φ(0), logo Φ(t) = exp(tA) Φ(0) . O resultado
pretendido decorre então do facto de Φ(0) ser uma matriz invertı́vel.
onde as funções vectoriais A e b são contı́nuas num certo intervalo I ⊂ R. Esta condição
garante a existência e unicidade de solução de qualquer problema de Cauchy em I. O
teorema seguinte, cuja demonstração se omite por ser semelhante ao caso escalar, estabelece
a relação entre as soluções de (8.1) e as soluções do sistema homogéneo associado
(8.2) y′ = A(t)y .
Teorema 8.1. O conjunto S(I) de todas as soluções em I do sistema linear não ho-
mogéneo (8.1) é um espaço afim, associado ao espaço vectorial real S0 (I) das soluções do
sistema homogéneo associado (8.2).
Sendo assim, no caso em que a matriz dos coeficientes é constante, se for conhecida
uma solução particular de (8.1), estamos em condições de determinar todas as soluções de
(8.1). Atendendo a que se Φ(t) é uma matriz fundamental de (8.2), a sua solução geral é da
forma Φ(t)c, onde c é um vector arbitrário de Rn . Uma simples generalização do método
da variação das constantes arbitrárias, introduzido no capı́tulo anterior, permite obter como
solução particular do sistema não homogéneo (8.1) a função
Z t
t ∈ I 7→ Φ(t) Φ−1 (s)b(s)ds ,
t0
onde t0 é um ponto qualquer do intervalo I. Esta última afirmação também pode ser
comprovada directamente, usando a definição de solução e o facto da matriz fundamental
de (8.2) satisfazer Φ′ (t) = AΦ(t). Então podemos enunciar o resultado seguinte.
Teorema 8.2. Se Φ(t) é uma matriz fundamental para o sistema (8.2), então
Z t
(8.3) y(t) = Φ(t)c + Φ(t) Φ−1 (s)b(s) ds ,
t0
onde t0 é qualquer em I e c é um vector de Rn arbitrário, é a solução geral do sistema não
homogéneo (8.1).
Corolário 8.1. Se Φ(t) é uma matriz fundamental para o sistema homogéneo (8.2),
então a solução do sistema não homogéneo (8.1), que satisfaz a condição inicial y(t0 ) = y0 ,
é dada por
Z t
−1
(8.4) y(t) = Φ(t)Φ (t0 )y0 + Φ(t) Φ−1 (s)b(s), ds .
t0
133