Академический Документы
Профессиональный Документы
Культура Документы
2.1.
Sistemas lineales
x0 (t) = g2 (t, x1 , x2 , . . . , xn )
2
.
(2.1)
..
..
.
.
0
xn (t) = gn (t, x1 , x2 , . . . , xn )
Cuando las funciones g1 , . . . , gn son lineales en las variables dependientes x1 , . . . , xn , el sistema se
denomina lineal y tiene la forma:
x01 (t) = a11 (t)x1 (t) + a12 (t)x2 (t) + + a1n (t)xn (t) + f1 (t)
x0 (t) = a21 (t)x1 (t) + a22 (t)x2 (t) + + a2n (t)xn (t) + f2 (t)
2
.
(2.2)
..
..
.
.
0
xn (t) = an1 (t)x1 (t) + an2 (t)x2 (t) + + ann (t)xn (t) + fn (t)
21
22
Donde aij (t) y fi (t) son funciones definidas en un cierto intervalo J de la recta real, 0 i, j n.
Si fi (t) = 0 para cada t J, 1 i n, se dice que el sistema es homogneo.
Por otra parte, todo sistema lineal se puede expresar en forma matricial como:
X 0 = A(t)X + F (t),
(2.3)
donde
X=
x1 (t)
x2 (t)
..
.
xn (t)
, A =
a1n (t)
a2n (t)
..
.
, F =
ann (t)
f1 (t)
f2 (t)
..
.
fn (t)
2.1.1.
(2.4)
Un problema de valor inicial (PVI) para el sistema lineal (2.3) ( (2.2)) es un problema de la
forma:
Resolver:
X 0 = A(t)X + F (t),
Sujeto a:
X(t0 ) = X0 .
(2.5)
2
n
A(t) y F (t), y X0 =
.. es un vector de R .
.
n
Como siempre, se trata de encontrar una solucin de (2.5), es decir, una matriz (columna) (x) =
1 (t)
2 (t)
. definida en un intervalo J que verifique las ecuaciones del sistema y las condiciones iniciales.
.
.
n (t)
A continuacin enunciaremos un resultado que garantiza la existencia y unicidad de solucin.
Teorema 2.1 (Existencia y unicidad) Sea t0 J y supongamos que las funciones que componen
las matrices A(t) y F (t) son continuas en el intervalo abierto J. Entonces existe una nica solucin
(t) del problema de valor inicial (2.5).
23
Hiptesis: En lo que sigue, supondremos que las funciones que componen las matrices A(t) y F (t) de
(2.3) son continuas en un intervalo abierto J.
2.1.2.
EDO lineales
(2.6)
Donde las funciones ai (x) y f (x) estn definidas en un intervalo J de la recta real, 0 i n y an (x)
no se anula en J.
Observamos que toda ecuacin diferencial lineal de orden n es equivalente a un sistema lineal.
Efectivamente, pongamos, y = y1 , y 0 = y2 , . . . , y (n1 = yn , entonces la ecuacin anterior se puede
expresar mediante el sistema lineal
y1 = y2
y2 = y3
.
..
..
.
(2.7)
yn1 = yn
a0 (x)
f (x)
an1 (x)
yn0
yn
y1 +
=
an (x)
an (x)
an (x)
o matricialmente como
Y 0 (x) = A(x)Y (x) + F (x),
(2.8)
donde
A(x) =
y1 (x)
y2 (x)
..
Y (x) =
.
y
n1 (x)
yn (x)
0
0
..
.
1
0
..
.
0
1
..
.
..
.
0
a0 (x)
an (x)
0
a1 (x)
an (x)
0
a2 (x)
an (x)
..
Y 0 (x) =
.
y 0 (x)
n1
yn0 (x)
y10 (x)
y20 (x)
0
0
..
.
an1 (x)
an (x)
0
0
..
.
F (x) =
f (x)
an (x)
24
Desde el punto de vista de las soluciones tenemos que y(x) es una solucin de (2.6) si, y slo si,
y(x)
y 0 (x)
es una solucin del sistema (2.7) ( (2.8)).
..
y (n1 (x)
Sujeto a:
(2.9)
Como siempre se trata de encontrar una funcin y(x) definida en un intervalo abierto I que verifique
la ecuacin y las condiciones iniciales.
Ntese que todo PVI para (2.6) proporciona un PVI para (2.7) (2.8). En este sentido el Teorema
de Existencia y Unicidad 2.1 se traduce en trminos de EDO lineales como:
Teorema 2.2 (Existencia y unicidad) Supongamos que an (x), an1 (x), . . . , a1 (x), a0 (x) y f (x)
son continuas en un intervalo abierto J y que an (x) 6= 0 para cada x J. Si x0 J, existe una nica
solucin y(x) del PVI (2.9).
Atencin: Los requisitos del Teorema 2.2 deben verificarse para tener solucin nica. Por ejemplo,
y(x) = cx2 + x + 3 es una solucin del PVI, x2 y 00 2xy 0 + 2y = 6 sujeto a y(0) = 3, y 0 (0) = 1. En este
caso, la solucin no es nica, basta dar valores a c.
Hiptesis: En lo que sigue supondremos que las funciones an (x), . . . , a0 (x) y f (x) de las ecuaciones
(2.6) y (2.12) son continuas en un intervalo abierto J y que an (x) 6= 0 para cada x J.
Otro tipo de problema es cuando las condiciones se especifican en puntos distintos. Un problema
como
Resolver:
Sujeto a:
y(a) = y0 , y(b) = y1 .
(2.10)
y(a) = y0
y 0 (a) = y0
y(a) = y0
y 0 (a) = y0
25
y(b) = y1
y(b) = y1
y 0 (b) = y1
y 0 (b) = y1
26
Se tiene que Dn (J), n 0 tiene una estructura de espacio vectorial sobre los nmeros reales con
las operaciones: f + g es la funcin definida por (f + g)(x) = f (x) + g(x) y f es la definida por
(f )(x) = (f (x)).
Ntese que Dn (J) Dn1 (J) D1 (J) F(J). Adems, la estructura de espacio vectorial de
Dn (J) induce una estructura de espacio vectorial en el producto cartesiano (Dn (J))m , n 0, m 1.
Para k = 0, 1, . . . , n, tenemos el operador diferencial Dk de orden k definido como Dk (f ) =
dk
f (k = k (f ). De esta forma, Dk : Dn (J) Dnk (J) es una aplicacin lineal, siempre que n k.
dx
Ahora, podemos considerar la expresin L = an (x)Dn + an1 (x)Dn1 + + a1 (x)D + a0 (x) que
define un operador lineal de orden n en Dn (J). De hecho, se tiene que L(f +g) = L(f )+L(g).
En este contexto, la EDO (2.6) se escribe como L(y) = f (x). As, encontrar las soluciones de dicha
ecuacin equivale a determinar el conjunto L1 (f ).
2.1.3.
Sistemas homogneos
(2.11)
i=1
i=1
Corolario 2.5 La matriz idnticamente nula X(t) = 0 siempre es solucin del sistema lineal homogneo (2.11). El conjunto de soluciones del sistema lineal homogneo (2.11) en un intervalo abierto J es
un subespacio vectorial de (D1 (J))n .
Dependencia e independencia lineal
xi1 (t)
xi2 (t)
(F(J))n , 1 i s.
Consideremos Xi (t) =
..
xin (t)
27
xi1 (t)
xi2 (t)
en un intervalo abierto
J.
x11 (t)
x21 (t)
W (X1 , . . . , Xn ) =
..
.
xn1 (t)
xin (t)
Entonces X1 (t), . . . , Xn (t) son linealmente independientes si, y slo si,
x12 (t) x1n (t)
x22 (t) x2n (t)
6= 0 en J.
..
..
..
.
.
.
xn2 (t) xnn (t)
28
n
Prueba.- Consideremos n vectores linealmente independientes de R ,
xj1 (t)
xj2 (t)
e Xj (t) =
..
xjn (t)
Teorema 2.1).
k1j
..
kj
n
. Sean t0 J
1jn
x11 (t0 ) x21 (t0 ) xn1 (t0 ) k 1 k 2 k n
1
1
1
x12 (t0 ) x22 (t0 ) xn2 (t0 ) k21 k22 k2n
Como W (X1 , . . . , Xn )(t0 ) =
..
..
..
.. . .
. 6= 0, enton..
= ..
.
. ..
.
.
.
.
.
x1n (t0 ) x2n (t0 ) xnn (t0 ) k 1 k 2 k n
n
n
n
ces X1 (t), . . . , Xn (t) son linealmente independientes en J.
Ahora, supongamos que X1 (t), . . . , Xn (t) son soluciones linealmente independientes de (2.11) en J
x1 (t)
x2 (t)
y sea X(t) =
.. otra solucin de (2.11), de forma que xi (t0 ) = ki , 1 i n con t0 I.
.
xn (t)
Tenemos el sistema lineal con coeficientes reales e
.
..
.
incgnitas C1 , . . . , Cn :
+
+
..
.
que es compatible determinado pues W (X1 , . . . , Xn )(t0 ) 6= 0. Por tanto, tiene solucin nica en
Pn
e
C1 , . . . , Cn . Como X(t)
=
i=1 Ci Xi (t) es una solucin de (2.11) con las mismas condiciones iniP
e
ciales en t0 , necesariamente X(t) = X(t)
= m
i=1 Ci Xi (t).
Corolario 2.8 El subespacio vectorial de las soluciones del sistema lineal homogneo (2.11) en un
intervalo J tiene dimensin n.
Matriz fundamental
Una matriz cuadrada (t) de orden n es una matriz fundamental para el sistema lineal homogneo (2.11), si cada una de sus columnas es una solucin de (2.11) y det((t)) 6= 0, es decir, las
columnas de (t) son n soluciones linealmente independientes de (2.11).
29
Proposicin 2.9 Si (t) es una matriz fundamental para (2.11), entonces 0 (t) = A(t)(t). Adems,
si C es una matriz cuadrada constante de orden n con det(C) 6= 0, entonces (t)C tambin es una
matriz fundamental. Es ms, si 1 (t) y 2 (t) son matrices fundamentales para (2.11) , entonces existe
una matriz constante C con det(C) 6= 0 tal que 2 = 1 C.
Prueba.- Si (t) es fundamental para (2.11), se tiene que 0j (t) = A(t)j (t), para cada columna j (t)
de (t), 1 j n. Teniendo en cuenta que la columna j-sima de la matriz producto A(t)(t) es el
producto de A(t) por la columna j-sima de (t), se verifica que 0 (t) = A(t)(t).
Por otro lado, si (t) es fundamental para (2.11) y C es una matriz constante n n e inversible,
entonces ((t)C)0 = 0 (t)C = A(t)(t)C y como det((t)C) = det((t)) det(C) 6= 0, se tiene que
(t)C es una matriz fundamental para (2.11).
Finalmente, si 1 (t) y 2 (t) son matrices fundamentales para (2.11), sea (t) = 1
1 (t)2 (t).
Se tiene que 2 (t) = 1 (t)(t). Derivando respecto de t, 02 (t) = 01 (t)(t) + 1 (t)0 (t). Luego,
02 (t) = A(t)2 (t) = A(t)1 (t)(t) = A(t)1 (t)(t) + 1 (t)0 (t). As 1 (t)0 (t) = 0 y como 1 (t) es
inversible, necesariamente 0 (t) = 0. Luego, en el intervalo J en el que estamos trabajando se verifica
(t) = C es constante e invertible (por serlo 1 y 2 ).
2.1.4.
(2.12)
Nuestro objetivo es recopilar los resultados obtenidos para sistemas lineales homogneos en trminos
de EDO lineales homogneas, recurdese que toda EDO lineal es equivalente a un sistema lineal 2.7
2.8.
En primer lugar, como consecuencia del principio de superposicin para sistemas lineales tenemos:
Teorema 2.10 (Principio de superposicin) Si y1 , y2 , . . . , ys son soluciones de la EDO lineal hoP
mognea (2.12), entonces toda combinacin lineal y = si=1 ci yi con ci R, 1 i s es tambin
solucin de (2.12).
Corolario 2.11 La funcin idnticamente nula y(x) = 0 siempre es solucin de la EDO lineal homognea (2.12). El conjunto de soluciones de la EDO lineal homognea (2.12) en un intervalo J es un
subespacio vectorial de Dn (J).
30
0
0
f2
f1
W (f1 , f2 , . . . , fn ) =
..
..
..
.
.
.
(n1)
(n1)
f
f2
fn
fn0
..
.
(n1)
fn
2.1.5.
31
2.2.
Nuestro siguiente objetivo ser describir mtodos para resolver sistema lineales y EDO lineales
homogneos a coeficientes constantes, pero antes debemos establecer algunas propiedades de la exponencial de una matriz.
Sea A una matriz cuadrada de orden n en los nmeros reales. Se define la exponencial de A como
X
1 m
A . Donde A0 = I es la matriz identidad de orden n.
eA =
m!
m=0
Se puede demostrar que la serie (matricial) anterior es convergente.
Proposicin 2.18 Sean A, B y P matrices cuadradas de orden n tal que P es invertible. Se verifican
las siguientes propiedades:
1. Si A = P 1 BP (es decir, A y B son semejantes), entonces eA = P 1 eB P . Adems, det(eA ) =
etraza(A)
2. eA(t+s) = eAt eAs .
3. eAt es invertible con eAt
1
= eAt .
32
d1 0
0
0
0 d2
1
det(eA )
det(eD )
ed1
edn
ed1 ++dn
etraza(D)
k=0
2.3.
En esta seccin, estudiaremos algunas propiedades de los sistemas lineales como (2.3) en los que
la matriz A(t) es constante, es decir, las funciones que la componen son constantes en el intervalo de
definicin.
Consideremos el sistema lineal homogneo a coeficientes constantes
X 0 (t) = AX(t).
(2.13)
tn1
t2 3
A + +
An + , se tiene que (eAt v)0 = AeAt v y
2!
(n 1)!
33
Con el resultado anterior, tenemos otra forma de encontrar un sistema de n soluciones linealmente
independientes. Aparentemente, no se ha mejorado mucho pues debemos calcular productos del tipo eAt v. Sin embargo, con los subespacios propios (o invariantes) generalizados se pueden encontrar
vectores v de forma que el clculo de eAt v es relativamente sencillo.
Comencemos considerando un nmero real, tenemos eAt v = eAtIt+It v = e(AI)t eIt v, la
ltima igualdad gracias a que (A I)I = I(A I). Ahora bien,
e
It
2
2t
v = I + It + (I)
2!
2t
+ v = 1 + t + ()
2!
+ Iv = et v.
1)!
tm1
t
m1
e v + (A I)tv + +
(A I)
v es una solucin del sistema homogneo (2.13).
(m 1)!
Por otro lado, para que (A I)m v = 0 con v 6= 0, debe ocurrir que sea un valor propio de la
matriz A, pues (A I)m1 v un vector propio de A, siempre que se tome m el menor entero tal que
(A I)m v = 0.
El siguiente resultado recopila algunas de las propiedades ms interesantes de los subespacios propios
generalizados.
Proposicin 2.21 Sean 1 , . . . , s los valores propios de la matriz A con multiplicidades algebraicas
m1 , . . . , ms . Sea Vi el conjunto de soluciones del sistema lineal homogneo (Ai I)mi Y = 0, 1 i s.
Se verifican las siguientes afirmaciones:
1. Vi es un subespacio vectorial de dimensin finita mi , 1 i s.
i } es una base de V , 1 i s, entonces {v 1 , . . . , v 1 , . . . , v s , . . . , v s } es una base
2. Si {v1i , . . . , vm
i
m1
ms
1
1
i
del espacio ambiente.
No probaremos este resultado. Sin embargo, llamamos la atencin del lector sobre el hecho de que
estamos trabajando con matrices reales A que pueden tener valores propios complejos. La proposicin
anterior tiene sentido, en general, en Cn . Slo cuando todos los valores propios 1 , . . . , s sean reales,
se podr suponer que estamos trabajando en Rn .
En cualquier caso, desde el punto de vista operacional no hay diferencia, y veremos como obtener
soluciones reales a partir de soluciones complejas.
34
Atencin: Puede ocurrir que para algn vji sea (A i I)h vji = 0 con h mi 1, entonces Xji (t) =
th1
i
i
i t
h1 i
vj + (A i I)tvj + +
e
(A i I) vj , con (A i I)h1 vji 6= 0.
(h 1)!
tm1
m1
(A I)
vj ,
(m 1)!
ej (t) = e
X
tm1
m1
vj + (A I)tvj + +
(A I)
vj ,
(m 1)!
1 j m, asociadas a su conjugado .
Para obtener 2m soluciones reales linealmente independientes que sustituyan a las anteriores, basta
ej (t) + X
ej (t)
ej (t) X
ej (t)
X
X
considerar las soluciones Xj (t) =
y Xj (t) =
.
2
2i
Ejemplos 2.22 Resolver los siguientes sistemas lineales de ecuaciones diferenciales o problemas de
valores iniciales.
(
1.
35
x0 = 2x + 3y
. Los valores propios son las races de
y 0 = 2x + y
2
3
2
1
= 2 3 4 = ( + 1)( 4) = 0.
2 1 6
3
0 1 6
0 1 6
0 0 5
1
3
0 0 5 = 0 0 0 . Como (A 2I) = 0 es la matriz nula los vectores v1 = 0 ,
0 0 0
0
v2 = 1 y v3 =
0
0 0
0
1 t 6t + 5t2 /2
c1
= e2t 0 1
5t
c2 .
0 0
1
c3
36
!
!
2
2
8
2
8
3. X 0 =
X; X(0) =
. Resolvemos
= 2 + 4 = 0, y los
1 2
1 2
1
propio es solucin del sistema
valores propios son!1 = 2i!y 2 = !
1 = 2i. Para 1 , un vector
!
0
2 + 2i
2
8
k1
=
. As, v1 =
es un vector propio asociado a 1
0
1
1 2
k
!2
2 2i
y v2 = v 1 =
es un vector propio asociado a 2 = 1 .
1
!
2
+
2i
e1 (t) = e2it v1 = (cos(2t) + i sen(2t))
Dos soluciones linealmente independientes son: X
1
!
e 1 (t) = e2it v2 = (cos(2t) i sen(2t)) 2 2i . Dos soluciones reales linealy su conjugada X
1
mente independientes se obtienen como
e1 (t) + X
e 1 (t)
X
X1 (t) =
=
2
2(cos(2t) sen(2t))
cos(2t)
e1 (t) X
e 1 (t)
X
X1 (t) =
=
2i
2(cos(2t) + sen(2t))
sen(2t)
2.4.
En esta seccin, estudiaremos las ecuaciones diferenciales lineales homogneas como (2.12) en las
que los coeficientes an (x), . . . , a0 (x) son constantes en el intervalo de definicin. Para esto traduciremos
a esta situacin lo demostrado para sistemas lineales a coeficientes constantes.
Consideremos la ecuacin a coeficientes constantes
an y (n + an1 (x)y (n1 + + a1 (x)y 0 + a0 (x)y = 0,
(2.14)
(2.15)
37
donde
A=
0
0
..
.
1
0
..
.
0
1
..
.
..
.
0
0
0
a0 a1 a2
0
0
..
.
1
an1
y1 (x)
y2 (x)
..
.
, Y (x) =
n1 (x)
yn (x)
y10 (x)
y20 (x)
..
.
e Y 0 (x) =
y 0 (x)
n1
yn0 (x)
Antes de nada debemos calcular los valores propios de A y para ello necesitamos determinar el
polinomio caracterstico de A. Se puede probar por induccin que
1
0
0
0
0
..
..
..
.
.
.
.
|A I| = .
= (1)n (n + an1 n1 + + a1 + a0 ).
.
.
.
.
0
0
0
1
a0 a1 a2 an1
Por tanto, los valores propios son las soluciones de la denominada ecuacin caracterstica,
n + an1 n1 + + a1 + a0 = 0,
obtenida al sustituir y (k por k en la ecuacin 2.14, 0 k n.
Supongamos que es un valor propio de A de multiplicidad m. El siguiente paso es determinar m
soluciones linealmente independientes del sistema lineal homogneo (AI)m X = 0. Para esto conside
..
n
=
remos el sistema vectores {v1 , . . . , vm } de R , donde vmk =
k(k 1) 2 1
(k + 1)k(k 1) 2
..
n1k
(n 1)(n 2) (n k)
1
1
dk
2
2
,
k
=
0,
1,
.
.
.
,
m
1.
En
particular,
v
=
m
.
dk .
..
..
n1
n1
38
(2.16)
39
Atencin: Aparentemente toda la dificultad para resolver una ecuacin diferencial lineal homognea
con coeficientes constantes est en determinar las races de su ecuacin caracterstica. Este no es un
problema menor, incluso en grados relativamente bajos. Conviene recordar que slo hasta grado cuatro
es posible resolver por radicales tales ecuaciones y que, en general, para grado cinco o superior es
necesario utilizar mtodos numricos o algn sistema de computacin algebraica.
2.5.
Variacin de parmetros
En este apartado, nos ocuparemos del mtodo de variacin de parmetros que permite obtener
la solucin particular de un sistema lineal o de una EDO lineal (no necesariamente a coeficientes
constantes), conocida una base del espacio vectorial de soluciones del sistema lineal homogneo o de
la EDO homognea asociados.
2.5.1.
(2.17)
Supongamos conocida una matriz fundamental (t) para el sistema homogneo X 0 (t) = A(t)X(t).
u1 (t)
u2 (t)
que U (t) =
parmetros.
!
!
3
1
3t
X+
.
Ejemplo 2.24 Calcular la solucin general de X 0 =
2 4
et
Primero se resuelve
Determinamos los valores propios de la matriz del sistema
el sistema homogneo.
3
1
que son las races de
= ( + 2)( + 5) = 0.
2
4
40
1
1
1
2
es un vector
!
1
propio asociado a 2 = 5. Luego dos soluciones linealmente independientes son X1 (t) =
e2t y
1
!
!
2t
5t
1
e
e
X2 (t) =
e5t . Una matriz fundamental es (t) =
cuya inversa es 1 (t) =
2t
2
e
2e5t
!
1 2t
2 2t
3e
3e
. La solucin particular es
1 5t
13 e5t
3e
Xp (t) =
e2t
e2t
e2t
e5t
e2t 2e5t
1 2t
3e
13 e5t
2 2t
3e
1 5t
3e
3t
et
!
dt =
!Z
!
e2t
2te2 t + 13 et
e5t
=
dt =
e2t 2e5t
5e5t 31 e4t
!
!
!
27
1 t
6
t
+
e
e5t
te2t 21 e2t + 13 et
5
50
4
=
.
1 5t
3
1 5t
1 4t
21
1 t
2e5t
te
e
t
+
5
25
12
5
50
2e
2.5.2.
!Z
1
2
!
e5t +
6
5
3
5
!
t
27
50
21
50
!
+
1
4
1
2
!
et .
(2.18)
0
1
0
0
0
1
..
..
..
.
.
.
.
A(x) =
,
.
.
.
.
.
0
0
0
41
y1 (x)
y2 (x)
..
.
Y (x) =
y
n1 (x)
yn (x)
0
Y (x) =
y 0 (x)
n1
yn0 (x)
y10 (x)
y20 (x)
..
.
F (x) =
0
0
..
.
0
f (x)
y1
y10
..
.
y2
y20
..
.
..
.
(x) =
y (n2 y (n2
1
2
(n1
(n1
y1
y2
yn
yn0
..
.
(n2
yn
(n1
yn
Queremos encontrar una solucin particular en la forma Yp (x) = (t)U (x), donde U (x) =
u1 (x)
u2 (x)
..
.
un (x)
es una matriz de funciones a determinar.
Razonando como en el caso sistemas lineales, tendramos (x)U 0 (x) = F (x), es decir, debemos
resolver
=
0
y1 u01
+
y2 u02
++
yn u0n
0 0
=
0
+
y20 u02
++
yn0 u0n
y1 u1
..
..
..
..
.
.
.
.
.
(n2 0
(n2 0
(n2 0
y1 u1 + y2 u2 + + yn un =
0
42
2.6.
(2.19)
Una vez descritas las soluciones de la correspondiente ecuacin homognea, el problema se reduce a
encontrar una solucin particular yp de (2.19), pues la solucin general se escribir como y = c1 y1 +
+ cn yn + yp , donde y1 , . . . , yn son soluciones linealmente independientes de (2.14) (vase el Teorema
2.19).
El mtodo de variacin de parmetros proporciona una solucin particular. En algunas ocasiones,
dependiendo de como sea la funcin f (x), es posible encontrar una solucin particular de (2.19),
reduciendo la cuestin a resolver una ecuacin lineal homognea, obteniendo la solucin particular por
la determinacin de los coeficientes de la solucin general de dicha ecuacin lineal homognea. De aqu
el nombre del mtodo de coeficientes indeterminados.
El objetivo de esta seccin es describir este procedimiento. Pero antes debemos obtener algunas
propiedades de los operadores diferenciales con coeficientes constantes.
Algunas propiedades de los operadores diferenciales con coeficientes constantes
P
Consideremos dos operadores diferenciales con coeficientes constantes, L1 = nj=0 aj Dj y L2 =
Pm
k
k=0 bk D . Se tiene entonces que L2 L1 = L1 L2 , es decir, los operadores diferenciales a coeficientes
constantes conmutan.
Atencin: Si los coeficientes no son constantes, en general, dos operadores no conmutan. Por ejemplo,
D (xD) = D + xD2 y (xD) D = xD2 .
Un operador L tal que para una funcin f verifica que L(f ) = 0, se denomina un anulador de f .
Observamos que si L1 es un anulador de f y L2 es un anulador de g, ambos operadores con coeficientes
constantes, entonces L2 L1 y L1 L2 anulan a f + g.
43
Se tiene que
1. El operador diferencial Dn anula a 1, x, x2 , . . . , xn1 .
2. El operador (D )n anula a ex , xex , . . . , xn1 ex .
3. El operador [D2 2D + (2 + 2 )]n anula a ex cos(x), xex cos(x), . . . , xn1 ex cos(x) y
a ex sen(x), xex sen(x), . . . , xn1 ex sen(x).
Ejercicio 2.26 Calcular un operador diferencial que anule a 5ex cos(2x) 9ex sen(2x).
Determinacin de una solucin particular
La idea es utilizar estos hechos para calcular una solucin particular de la ecuacin (2.19).
P
Notamos que (2.19) se puede expresar como L(y) = f (x) con L = nj=0 aj Dj .
Para poder aplicar las propiedades anteriores, supongamos que f (x) es una funcin polinomial
Pn
( i=0 i xi ), exponencial (ex ), seno (sen(x)), coseno (cos(x)), sumas y productos finitos de esas
funciones.
Podremos, por tanto, encontrar un operador diferencial L1 (que ser combinacin lineal finita de
productos de operadores del tipo Dn , (D )n y [D2 2D + (2 + 2 )]n ) tal que sea un anulador
de f , es decir, L1 (f ) = 0, y por tanto, (L1 L)(y) = L1 (f ) = 0.
De esta forma, una solucin particular de (2.19) se encuentra entre las soluciones de la ecuacin
homognea (L1 L)(y) = 0.
El procedimiento se resume en los siguientes pasos:
1. Se resuelve la ecuacin homognea L(y) = 0.
2. Se determina un operador L1 tal que L1 (f ) = 0.
3. Se determina la solucin general de la ecuacin homognea (L1 L)(y) = 0.
4. Se suprimen de la solucin de (L1 L)(y) = 0 los trminos que aparecen en la solucin de L(y) = 0
y se obtiene una propuesta de solucin y1 que depender de algunos parmetros.
5. Se calculan los parmetros obligando a que L(y1 ) = f (x) y se obtiene la solucin particular.
Ejemplo 2.27 Calcular una solucin particular de y 000 4y 00 + 4y 0 = 5x2 6x + 4x2 e2x + 3e5x .
Se observa que D3 (5x2 6x) = 0, (D 2)3 (x2 e2x ) = 0 y (D 5)(e5x ) = 0. Luego D3 (D 2)3 (D 5)
es un anulador de 5x2 6x + 4x2 e2x + 3e5x .
44
Tenemos que resolver la ecuacin homognea (D3 (D 2)3 (D 5)(D3 4D2 + 4D))(y) = 0 equivalentemente (D4 (D 2)5 (D 5))(y) = 0. Como 0 es una raz de orden 4 de la ecuacin caracterstica,
2 lo es de orden 5 y 5 es simple, la solucin general es
y = c1 + c2 x + c3 x2 + c4 x3 + c5 e2x + c6 xe2x + c7 x2 e2x + c8 x3 e2x + c9 x4 e2x + c10 e5x .
Como la solucin general de (D3 4D2 + 4D)(y) = (D(D 2)2 )(y) = 0 es y = c1 + c5 e2x + c6 xe2x ,
resulta que la solucin particular tiene la forma
yp = Ax + Bx2 + Cx3 + (Ex2 + F x3 + Gx4 )e2x + He5x .
Slo falta determinar los parmetros obligando a que yp satisfaga la ecuacin.
2.7.
La ecuacin de Cauchy-Euler
(2.20)
(2.21)
Para encontrar las soluciones de (2.21), se plantea el cambio de variable t = ln(x), x = et ; con la
idea de transformar (2.21) en una EDO lineal homognea a coeficientes constantes.
Antes de nada observamos que (2.21) se puede escribir en trminos de operadores diferenciales
como
(an xn Dxn + an1 xn1 Dxn1 + + a1 xDx + a0 )y = 0,
(2.22)
d
.
dx
d
Para transformar la ecuacin (2.22) en trminos del operador diferencial Dt = , debemos reladt
cionar Dx y Dt .
df
df /dt
1
Consideremos f (x) una funcin derivable para x > 0, tenemos que Dx f =
=
= t Dt f =
dx
dx/dt
e
1
Dt f . Por tanto, xDx = Dt .
x
donde Dx denota el operador diferencial derivar respecto a x, es decir Dx =
45
En general se verifica
xn Dxn = Dt (Dt 1)(Dt 2) (Dt (n 1)).
(2.23)
n
X
46
1
Imponiendo las condiciones iniciales se obtiene c1 = 1 y c2 = , con lo que la solucin buscada
4
1
es y = x( cos(2 ln x) + sen(2 ln x)).
4
4. x3 y 000 + 5x2 y 00 + 7xy 0 + 8y = 0. En trminos de operadores diferenciales tenemos (x3 Dx3 + 5x2 Dx2 +
7xDx + 8)y = 0. Haciendo el cambio t = ln(x), se transforma en (Dt (Dt 1)(Dt 2) + 5Dt (Dt
1) + 7Dt + 8)y = 0, es decir, (Dt3 + 2Dt2 + 4Dt + 8)y = 0.
La ecuacin caracterstica es m3 + 2m2 + 4m + 8 = (m + 2)(m2 + 4) = 0 con races m1 = 2,
m2 = 2i y m3 = 2i. La solucin general en trminos de t es y = c1 e2t + c2 cos(2t) + c3 sen(2t)
y deshaciendo el cambio de variabley = c1 x2 + c2 cos(2 ln x) + c3 sen(2 ln x).
Como hemos dicho, para resolver la ecuacin (2.13) basta con determinar una solucin particular,
una vez resuelta la ecuacin homognea correspondiente. Por ejemplo, mediante el mtodo de variacin
de parmetros pues los coeficientes no son constantes.
Ejemplo 2.29 Resolver x2 y 00 3xy 0 + 3y = 2x4 ex . La ecuacin homognea tiene por solucin general
y = c1 x + c2 x3 .
3
3
Ahora utilizamos el mtodo de variacin de parmetros con la ecuacin y 00 y 0 + 2 y = 2x2 ex . Se
x
x
tiene que u01 = x2 ex y u02 = ex , con lo que u1 = x2 ex + 2xex 2ex y u2 = ex y la solucin particular
es yp = u1 x + u2 x3 = 2x2 ex 2xex . Finalmente, la solucin general es y = c1 x + c2 x3 + 2x2 ex 2xex .
Apndice A
x0 (t) = g2 (x1 , . . . , xn )
2
.
(A.1)
..
..
.
.
0
xn (t) = gn (x1 , . . . , xn )
Se observa que la variable independiente t no aparece de forma explcita en las funciones gi , 1 i n.
Tambin, se hace notar que los sistemas lineales homogneos a coeficientes constantes son autnomos.
Consideremos un sistema autnomo plano
(
x0 (t) = P (x, y)
.
(A.2)
y 0 (t) = Q(x, y)
Tenemos que el vector V (x, y) = (P (x, y), Q(x, y)) define un campo vectorial en una cierta regin
del plano. Una solucin X(t) = (x(t), y(t)) de (A.2) define una curva C en forma paramtrica que tiene
a X 0 (t) = V (x(t), y(t)) por vector tangente en el punto (x(t), y(t)). Tambin, se suele decir que C es la
trayectoria de la solucin, en el sentido fsico de una partcula que en el instante t tiene la posicin
(x(t), y(t)). Ntese que (x(t ), y(t )) es tambin solucin de X 0 (t) = V (x(t), y(t)) con la misma
trayectoria, cuando es un nmero real fijo. En otras palabras, existen infinitas soluciones que definen
la misma trayectoria.
Aconsejamos al lector que vuelva a leer el apartado del captulo 1 dedicado a las ecuaciones diferenciales de primer orden autnomas.
Por otro lado, cuando P y Q son de clase C 1 (es decir, ellas y sus derivadas parciales son continuas),
podemos garantizar que existe una nica solucin de (A.2) sujeta a la condicin inicial X(t0 ) = X0 =
(x0 , y0 ). Una tal solucin es de uno de los tres siguientes tipos:
47
48
(I) Una solucin constante x(t) = x0 , y(t) = y0 , es decir, X(t) = X0 . Una tal solucin se denomina
punto crtico punto estacionario solucin de equilibrio. Ntese que para que esto sea
factible debe ser P (x0 , y0 ) = 0 y Q(x0 , y0 ) = 0. De esta forma, cuando una partcula sigue una
solucin constante o se coloca en un punto crtico, su posicin permanece invariante y fija en
dicho punto a lo largo del tiempo. En este caso, la trayectoria se reduce a un punto, realmente
no tenemos una curva.
(II) Una solucin que define un arco de curva plana que no se cruza a s misma. Ntese que si la
curva se cruza a s misma en un punto, entonces por dicho punto pasan (localmente) al menos
dos soluciones.
(III) Una solucin peridica ciclo. Si p es el periodo son soluciones que verifican X(t + p) = X(t).
Ejemplos A.1 Determinar los puntos crticos de los siguientes sistemas autnomos planos:
(
(
x0 = x + y
0 = x + y
1.
. Basta resolver
que tiene por solucin la recta y = x, con
0
y =
xy
0 =
xy
lo que tiene infinitos puntos crticos.
(
(
x0 = x2 + y 2 6
0 = x2 + y 2 6
2.
.
Basta
resolver
, luego y 2 + y 6 = 0, con lo que
y0 =
x2 y
0 =
x2 y
y = 3 y x2 = 3 no da lugar a puntos crticos, mientras que y = 2 proporciona dos puntos
crticos ( 2, 2) y ( 2, 2).
Ejemplos A.2 Determinar las soluciones peridicas de los siguientes sistemas autnomos planos:
(
1.
x0 = 2x + 8y
. La solucin general del sistema se escribe como x(t) = c1 (2 cos(2t)
y 0 = x 2y
2 sen(2t)) + c2 (2 cos(2t) + 2 sen(2t)), y(t) = c1 ( cos(2t)) + c2 ( sen(2t)).
Como cos(2t) y sen(2t) son peridicas de periodo , toda solucin es peridica de periodo .
(
2.
x0 =
x + 2y
. La solucin general del sistema se escribe como x(t) = 2c1 et cos(t) +
0
y = 21 x + y
2c2 et sen(t), y(t) = c1 et sen(t) + c2 et cos(t). No existen soluciones peridicas por la presencia de
et .
A.1.
49
Consideremos el sistema
x0 (t) = ax + by
.
y 0 (t) = cx + dy
(A.3)
Como el sistema (A.3) es homogneo, al menos el origen (0, 0) es un punto crtico, siendo este el nico
punto crtico cuando ad bc 6= 0. La otra posibilidad interesante es cuando existe una recta (pasando
por el origen) de puntos crticos, lo que implica que 0 sea un valor propio de la matriz del sistema.
Los valores propios de la matriz del sistema son las races de su polinomio caracterstico 2 +
= 0, donde = a + d es la traza de la matriz y = ad bc es su determinante. Al final de esta
seccin, se analizar un ejemplo en el que = 0, sin embargo, en el desarrollo general supondremos
que el determinante de la matriz del sistema es no nulo, 6= 0.
Lo que pretendemos hacer es estudiar el comportamiento de las soluciones de (A.3) en funcin de
los valores propios de la matriz del sistema, que dependen de y .
Caso I: Valores propios reales distintos ( 2 4 > 0)
Si los valores propios son 1 y 2 con vectores propios asociados K1 y K2 , la solucin general de
(A.3) es X(t) = c1 K1 e1 t + c2 K2 e2 t .
Denotemos por Li la recta que pasa por el origen y tiene por vector director Ki , i = 1, 2.
(a) Los dos valores propios son negativos ( 2 4 > 0, < 0 y > 0).
Supongamos 2 < 1 < 0. Tenemos que lmt kX(t)k = 0. Donde k k denota la norma eucldea
50
51
y
10
10
-5
-5
-10
-10
-5
10
-10
-10
-5
10
Figura A.1: Trayectorias del ejemplo 3.17.1. (Punto de silla) y 3.17.2 (Nodo estable).
Si 1 < 0, entonces lmt kX(t)k = 0 y lmt kX(t)k = . Las trayectorias se dirigen al
origen. Se dice que tenemos un nodo estable degenerado.
Si 0 < 1 , entonces lmt kX(t)k = y lmt kX(t)k = 0. Las trayectorias se salen origen.
Se dice que tenemos un un nodo inestable degenerado.
Caso III: Valores complejos ( 2 4 < 0)
Si 1 = + i y 2 = i ( 6= 0) son los valores propios y K1 = B1 + iB2 es un vector propio
asociado a 1 , la solucin general de (A.3) es
X(t) = c1 et (B1 cos(t) B2 sen(t)) + c2 et (B2 cos(t) + B1 sen(t)).
O si se quiere x(t) = et (c11 cos t + c12 sen(t)), y(t) = et (c21 cos t + c22 sen(t)) en representacin
paramtrica.
(a) Races imaginarias puras ( 2 4 < 0, = 0).
En este caso, se puede probar que todas las trayectorias son elipses. De hecho, si c12 = c21 = 0,
tenemos que x(t) = et (c11 cos(t), y(t) = c22 sen(t)) es una parametrizacin de la elipse
x/c211 + y 2 /c222 = 1. Adems, todas las soluciones son peridicas de periodo 2/. Se dice que el
punto crtico (0, 0) es un centro.
(b) Parte real no nula ( 2 4 < 0, 6= 0).
En este caso, 6= 0.
52
Si < 0, entonces lmt et = 0, las trayectorias son espirales elpticas que se acercan al origen.
Se dice que tenemos un punto espiral estable.
Si > 0, se produce el efecto contrario, las trayectorias son espirales elpticas que se alejan del
origen. Se dice que tenemos un punto espiral inestable.
y
10
10
-5
-5
-10
-10
-5
10
-10
-10
-5
10
Figura A.2: Trayectorias del ejemplo 3.17.3. (Nodo estable degenerado) y 3.17.4. (Centro).
1.
2.
3.
4.
!
2
3
X. Los valores propios son 1 = 4 y 2 = 1. Se tiene un punto de silla. Las
X0 =
2 1
trayectorias estn representadas el la figura A.1.
!
10
6
0
X. Los valores propios son 1 = 4 y 2 = 25. Se tiene un nodo estable.
X =
15 19
Las trayectorias estn representadas el la figura A.1.
!
3 18
0
X =
X. Un nico valor propio 1 = 3 con un nico vector propio asociado
2 9
K1 = (3, 1). Se tiene un nodo estable degenerado. Las trayectorias estn representadas el la
figura A.2.
!
1 2
0
X =
X. Valores propios complejos 1 = i y 2 = i. Se tiene un centro. Las
1 1
trayectorias estn representadas el la figura A.2.
53
y
10
-5
-10
-10
-5
10