Вы находитесь на странице: 1из 46

Ecuaciones Diferenciales Ordinarias.

20 de febrero de 2012
2
Las siguientes notas fueron preparadas, en su mayora, a partir de las notas
del curso de Ecuaciones Diferenciales Ordinarias I, impartido en la licenciatura
en matematicas del Departamento de Matematicas de la Universidad de Gua-
najuato, por el Dr. Manuel Cruz Lopez durante el semestre EneroJulio 2010.
Su intencion es de mera consulta para el estudiante interesado en uno de los
topicos tan fundamentales como lo es el estudio de las ecuaciones diferenciales
y sus soluciones.
En el primer captulo se presentan los metodos de solucion, para lo cual
el estudio se divide en dos partes: las ecuaciones elementales de primer orden
y posteriormente las ecuaciones de segundo orden. Entendemos que, cualquier
lector interesado en estas notas, debera admitir en su conocimiento los metodos
de solucion a un a su nivel mas basico.
Sin embargo, y quizas este sea el caracter principal de estas notas, nuestro
estudio pretende develar el caracter cualitativo de los sistemas de ecuaciones
diferenciales primero en el caso lineal y posteriormente para el caso nolineal.
Por lo tanto, en el estudio de las ecuaciones de segundo orden daremos una
breve introduccion a los sistemas lineales planos, usando uno de los modelos
mas simples de la fsica: el oscilador armonico simple. Este modelo esta bien
descrito por una ecuacion de segundo orden con caractersticas especiales y sus
soluciones pueden ser conocidas con facilidad.
A partir de ah, estudiamos sistemas de ecuaciones diferenciales en el segundo
captulo. En la primera parte hacemos el estudio de los sistemas planos y despues
el del caso general. Veremos la estrecha relacion que existe entre las soluciones de
los sistemas lineales y las soluciones de las ecuaciones caractersticas asociadas a
la matriz del sistema. Usando algunos principios basicos de linealidad, al nal de
este captulo podremos entender perfectamente las soluciones, su caracterizacion
y comportamiento. En las ultimas dos secciones introducimos el concepto de
estabilidad y vericamos la forma de las soluciones de sistemas nohomogeneos,
esto nos permitira poder avanzar hacia la solucion de los sitemas nolineales.

Indice general
1. Metodos de solucion 5
1.1. Primer orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1. Ecuaciones separables . . . . . . . . . . . . . . . . . . . . 7
1.1.2. Ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . 8
1.1.3. Ecuaciones exactas . . . . . . . . . . . . . . . . . . . . . . 10
1.1.4. Trayectorias ortogonales . . . . . . . . . . . . . . . . . . . 13
1.1.5. Funciones homogeneas de grado . . . . . . . . . . . . . 14
1.2. Segundo orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.1. Reduccion de orden . . . . . . . . . . . . . . . . . . . . . 17
1.2.2. El oscilador armonico simple . . . . . . . . . . . . . . . . 19
1.2.3. Ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . 19
1.2.4. Principio de linealidad . . . . . . . . . . . . . . . . . . . . 21
1.2.5. Ecuaciones con coecientes constantes . . . . . . . . . . . 23
1.2.6. Ecuaciones lineales nohomogeneas . . . . . . . . . . . . . 24
1.2.7. El metodo de variacion de parametros . . . . . . . . . . . 25
2. Sistemas lineales 27
2.1. Sistemas lineales planos . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.1. Valores propios y vectores propios . . . . . . . . . . . . . 28
2.1.2. Solucion de sistemas lineales . . . . . . . . . . . . . . . . 29
2.1.3. La exponencial de un operador . . . . . . . . . . . . . . . 30
2.1.4. Clasicacion . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2. Sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.1. El teorema fundamental para sistemas lineales . . . . . . 34
2.2.2. Valores propios m ultiples . . . . . . . . . . . . . . . . . . 34
2.2.3. Formas de Jordan . . . . . . . . . . . . . . . . . . . . . . 37
2.2.4. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.5. Sistemas lineales nohomogeneos . . . . . . . . . . . . . . 45
3
4

INDICE GENERAL
Captulo 1
Metodos de solucion
1.1. Primer orden
Comenzaremos estudiando el caso de las ecuaciones diferenciales ordinarias
de primer orden. El ejemplo mas simple de una ecuacion diferencial de este tipo
es la ecuacion
dx
dt
= ax(t),
donde x : R R es una funcion que depende de la variable independiente real
t y a R es una constante.
Una solucion de la ecuacion diferencial es una funcion diferenciable
: R R,
tal que
d(t)
dt
= a(t).
Observemos que en este caso sencillo si (t) = k exp(at), entonces efectiva-
mente

(t) = ak exp(at) = a(t).


Es decir, (t) es una solucion de la ecuacion diferencial. Mas a un, esta solucion
es unica: Sea (t) otra solucion, entonces
d
dt
((t) exp(at)) =

(t) exp(at) + (a(t) exp(at)) = 0.


Luego,
(t) exp(at) = k
es constante; por lo tanto (t) = k exp(at).
Analizar el comportamiento cualitativo de las curvas solucion para cada
a R es un ejercicio que dejamos al lector.
El primer resultado que nos garantiza que las soluciones existen es el sigu-
iente, su demostracion puede consultarse en la bibliografa.
5
6 CAP

ITULO 1. M

ETODOS DE SOLUCI

ON
Teorema 1.1.1 (Existencia). Supongamos que f(t, x) es una funcion continua
en un rectangulo (t, x) : a < t < b , c < x < d en el plano t x.
Si (t
0
, x
0
) es un punto en ese rectangulo, entonces existen > 0 y una funcion
x(t) denida en el intervalo
t
0
< t < t
0
+,
tal que resuelve la ecuacion diferencial
dx
dt
= f(t, x), x(t
0
) = x
0
.
Observar que el teorema anterior nos garantiza la existencia de la solucion
solamente en un intervalo de denicion, puede ser muy peque no.
Ejemplo 1.1.1. Consideremos la ecuacion diferencial
dx
dt
= 1 +x
2
, x(0) = 0.
Observar que cuando x es muy grande la pendiente en ese punto tiende a ser
mas grande a un.
Resolvamos la ecuacion
dx
dt
= 1 +x
2

dx
dt
1
1 +x
2
= 1

_
1
1 +x
2
dx =
_
dt
arctan(x) = t +C.
Por lo tanto x(t) = tan(t +C).
Utilizando la condicion inicial observamos que en el tiempo t = 0, x(0) =
tan(C) implica que C = 0. Esto es, la solucion particular del problema con valor
inicial dado es
x(t) = tan(t), /2 < t < /2.
En cuanto a la unicidad de soluciones tenemos lo siguiente.
Teorema 1.1.2 (Unicidad). Supongamos que f(t, x) y
f
x
son continuas en un
rectangulo (t, x) : a < t < b, c < x < d.
Si (t
0
, x
0
) es un punto en ese rectangulo y x
1
(t), x
2
(t) son ambas soluciones
del problema de valor inicial
dx
dt
= f(t, x), x(t
0
) = x
0
,
denidas en el intervalo t
0
< t < t
0
+. Entonces, en este intervalo
x
1
(t) x
2
(t).
Ejemplo 1.1.2. Resolvamos la ecuacion diferencial
dx
dt
= 3x
2/3
.
1.1. PRIMER ORDEN 7
Observar que 3x
2/3
es continua, sin embargo la parcial con respecto a x no es
continua en x = 0.
Resolvamos primero la ecuacion. En este caso reescribimos la ecuacion y
tenemos que
_
x
2/3
dx =
_
3dt.
Por lo tanto, x(t) = (t + C)
3
es una solucion. Por lo tanto, si exigimos que
x(0) = 0, tenemos que la constante C = 0.
De esto deducimos que tenemos dos soluciones que satisfacen x(0) = 0. En
primer lugar la solucion trivial x(t) 0 y la solucion x(t) = t
3
.
1.1.1. Ecuaciones separables
Decimos que una ecuacion diferencial es separable si es una ecuacion de la
forma
dx
dt
=
a(t)
b(x)
,
donde a(t) y b(x) son funciones continuas de t y x respectivamente.
Para resolver una ecuacion de este tipo la reescribimos en la forma
b(x)
dx
dt
= a(t).
Consideremos una primitiva de b; esto es,
B(x) =
_
b(x)dx.
Entonces, podemos reescribir la ecuacion anterioro en la forma
d
dt
(B(x(t))) = a(t).
Integrando en ambos miembros de la igualdad obtenemos
B(x(t)) =
_
a(t)dt +C.
En esta ecuacion resolvemos para x(t) y esto nos da la solucion general de la
ecuacion diferencial. Este metodo se llama Metodo de separacion de vari-
ables.
Ejemplo 1.1.3. Resolver la ecuacion x

= ax.
La ecuacion es separable, y la podemos reescribir como
1
x(t)
dx
dt
= a.
Equivalentemente,
d
dt
(log x(t)) = a.
8 CAP

ITULO 1. M

ETODOS DE SOLUCI

ON
Por lo tanto, si integramos tenemos que
x(t) = exp(at +C).
Esto es, la solucion general de la ecuacion esta dada por x(t) = k exp(at), con
k constante.
1.1.2. Ecuaciones lineales
Decimos que una ecuacion diferencial es lineal si se puede escribir en la
forma
dx
dt
+a(t)x(t) = b(t),
donde a(t) y b(t) son funciones continuas.
Si b(t) 0 decimos que la ecuacion lineal es homogenea; en caso contrario
diremos que es nohomogenea.
Observar que una ecuacion lineal homogenea la podemos resolver por el
metodo de separacion de variables; esto es, podemos reescribir la ecuacion en la
forma
1
x(t)
dx
dt
= a(t).
Por lo tanto,
x(t) = k exp
_

_
a(t)dt
_
.
Para resolver la ecuacion lineal nohomogenea intentaremos encontrar un
factor que nos ayude a resolverla. Sea (t) una funcion continua, si multiplicamos
en ambos miembros de la ecuacion por esta funcion tenemos que
(t)
dx
dt
+a(t)(t)x = b(t)(t).
Por otro lado,
d
dt
((t)x) = (t)
dx
dt
+
d
dt
x.
Si equiparamos esta igualdad con el lado izquierdo de la ecuacion anterior,
tenemos que (t) debe de ser una solucion de la ecuacion diferencial
d
dt
= a(t).
Esta ecuacion es homogenea y tiene como solucion
(t) = k exp
__
a(t)dt
_
.
De tal forma que si denimos (t) := exp
__
a(t)dt
_
, la ecuacion lineal no
homogenea se puede reescribir en la forma
d
dt
((t)x) = (t)b(t).
1.1. PRIMER ORDEN 9
Esta ecuacion es separable y tiene como solucion
x(t) =
1
(t)
k exp
__
(t)b(t)dt
_
= k exp
_

_
a(t)dt
_
exp
__
(t)b(t)dt
_
.
Llamamos a una funcion (t) como antes un factor integrante de la
ecuacion diferencial lineal nohomogenea.
Ejemplo 1.1.4. Resolver la ecuacion
dx
dt
2tx = t.
Consideremos la funcion
(t) = exp
__
2tdt
_
= exp(t
2
).
Multiplicamos la ecuacion por esta funcion para obtener
d
dt
(exp(t
2
)x) = t exp(t
2
).
Por lo tanto, integrando y despejando x(t), obtenemos la solucion general:
x(t) =
1
2
.
Las ecuaciones lineales nohomogeneas del tipo
dx
dt
= a(t)x +b(t),
con a(t) y b(t) funciones continuas, sirven para modelar muchos fenomenos im-
portantes tales como el decaimiento de elementos radiactivos o el enfriamiento
de una taza de cafe.
Veamos ademas como las soluciones de una ecuacion lineal estan relacionadas.
Principios de linealidad
1. Si x
h
(t) es una solucion de la ecuacion homogenea
dx
dt
= a(t)x,
entonces kx
h
(t) tambien es una solucion para cada constante k.
2. Si x
h
(t) es una solucion de la ecuacion homogenea asociada a la ecuacion
dx
dt
= a(t)x +b(t),
y x
p
(t) es cualquier solucion de la ecuacion nohomogenea; entonces
x
h
(t) +x
p
(t)
tambien es solucion de la ecuacion nohomogenea.
10 CAP

ITULO 1. M

ETODOS DE SOLUCI

ON
3. Si x
p
(t) y x
q
(t) son cualesquiera dos souciones de la ecuacion nohomogenea,
entonces x
p
(t) x
q
(t) es solucion de la ecuacion homogenea asociada.
De estos principios podemos concluir que la solucion general de una ecuacion
diferencial lineal nohomogenea es de la forma
x(t) = kx
h
(t) +x
p
(t);
donde x
h
(t) es cualquier solucion de la ecuacion homogenea y x
p
(t) es cualquier
solucion de la ecuacion nohomogenea.
1.1.3. Ecuaciones exactas
La ecuacion diferencial de primer orden mas general que podemos resolver
es una que se escribe en la forma
d
dt
(t, x) = 0.
Cuya solucion general esta dada por (t, x) = C.
Observemos que usando la regla de Leibniz
d
dt
(t, x) =

t
+

x
dx
dt
.
Si hacemos
M(t, x) :=

t
y N(t, x) :=

x
,
entonces la ecuacion diferencial se puede reescribir como
M(t, x) +N(t, x)
dx
dt
= 0.
Recprocamente, consideremos una ecuacion diferencial que se escribe en la
forma
M(t, x) +N(t, x)
dx
dt
= 0.
Veamos bajo que condiciones podemos encontrar una funcion (t, x) que re-
suelve la ecuacion diferencial.
Teorema 1.1.3. Sean M(t, x) y N(t, x) funciones de clase (
1
en una region
homeomorfa a un disco en el plano R
2
. Existe una funcion (t, x) tal que

t
= M(t, x) y

x
= N(t, x),
s, y solo si,
M
x
=
N
t
.
1.1. PRIMER ORDEN 11
Demostracion. Si M(t, x) = /t, para alguna fuancion (t, x), entonces
integrando obtenemos que
(t) =
_
M(t, x)dt +h(x),
donde h(x) es una funcion continua que solo depende de x. Tomando derivadas
parciales en ambos lados con respecto de x obtenemos que
N(t, x) =

x
=
_
M
x
dt +h

(x).
Es decir,
h

(x) = N
_
M
x
dt.
Por lo tanto, derivando con respecto de t obtenemos que
M
x
=
N
t
.
Recprocamente, si
M
x
=
N
t
, entonces, en la ecuacion anterior resolvemos
para h, esto es
h(x) =
_ _
N
_
M
x
dt
_
dx.
Por lo tanto
(t, x) =
_
Mdt +
_ _
N
_
M
x
dt
_
dx.

Decimos que una ecuacion diferencial de la forma


M(t, x) +N(t, x)
dx
dt
= 0
es exacta si M(t, x) y N(t, x) son funciones continuas que satisfacen la condicion
de exactitud M/x = N/t.
En caso de que la ecuacion
M(t, x) +N(t, x)
dx
dt
= 0
no sea exacta podemos intentar encontrar un factor integrante de tal forma
que la haga exacta. Esto es, queremos encontrar una funcion (t, x) tal que la
ecuacion
(t, x)M(t, x) +(t, x)N(t, x)
dx
dt
= 0
sea exacta.
Probemos con la condicion de exactitud; esto es,

x
((t, x)M(t, x)) =

t
((t, x)N(t, x)).
12 CAP

ITULO 1. M

ETODOS DE SOLUCI

ON
Por lo tanto, la ecuacion sera exacta s, y solo si,
M

x
+
M
x
= N

t
+
N
t
.
En tal caso podremos decir que es un factor integrante para la ecuacion.
Por desgracia, no siempre es posible encontrar un factor integrante, la condicion
para que esto suceda es que (t, x) sea solo una funcion de t o de x.
Por ejemplo, si suponemos que solo es funcion de t, tenemos que

M
x
= N
d
dt
t +
N
t
.
Esto es, debe satisfacer la ecuacion
d
dt
=
_
M
x

N
t
_
/N.
Esto es, el factor integrante esta dado por
(t) = exp
__
R(t)dt
_
,
donde
R(t) =
_
M
x

M
t
_
/N.
Ejemplo 1.1.5. Resolvamos
y
2
2
+ 2ye
t
+ (y +e
t
)
dy
dt
= 0.
Observar que las funciones M(t, y) = y +2e
t
y N(t, y) = y +e
t
no satisfacen
la condicion de exactitud. Consideremos sin embargo la funcion
M
x

N
t
/N =
y +e
t
y +e
t
= 1.
Por lo tanto, el factor integrante en este caso esta dado por (t) = e
t
.
Esto es, la ecuacion
y
2
2
e
t
+ 2ye
t
+ (ye
t
+e
2t
)
dy
dt
= 0
es exacta. Por lo tanto, existe una funcion (t, y) tal que satisface las condiciones

t
=
y
2
2
e
t
+ 2ye
2t
,
y

y
= ye
t
+e
2t
.
De donde comparando al integrar cada una de las expresiones anteriores, ten-
emos que
(t, y) =
y
2
2
e
t
+ye
2t
.
1.1. PRIMER ORDEN 13
As que las soluciones de la ecuacion diferencial estan determinadas por las
curvas
(t, y) = C;
o bien,
y(t) = e
t

_
e
2t
+ 2ce
t
.
Observacion 1.1.1. Consideremos las funciones
M(t, x) =
x
t
2
+x
2
y N(t, x) =
t
t
2
+x
2
.
De tal forma que su dominio de denicion sea la region
U = (t, x) : 1 < t
2
+x
2
< 2.
Entonces, ambas funciones estan bien denidas en U y ademas
M
x
=
N
t
en U.
Sin embargo, no existe (t, x) denida en U tal que /x = M y /t =
N.
1.1.4. Trayectorias ortogonales
Consideremos una familia de curvas
T = F(x, y, c) = 0
en el plano x y. Decimos que una curva que intersecta a cada curva en la
familia de manera ortogonal es una trayectoria ortogonal a T.
Si F(x, y, c) = 0 es una curva, derivamos con respecto de x para obtener
F
x
+
F
y
dy
dx
= 0.
Esto es,
dy
dx
=
F/x
F/y
.
As que la curva C T correspondiente a F(x, y, c) = 0 y que pasa por el
punto (x, y) R
2
tiene como pendiente

F/x
F/y
en dicho punto.
Como la condicion de ortogonalidad es equivalente a la condicion de ortogo-
nalidad de los vectores tangentes a las curvas; tenemos que cualquier trayectoria
ortogonal a C que pasa por el punto (x, y) tiene pendiente menos el recproco de
la expresion anterior; esto es, las trayectorias ortogonales a F(x, y, c) = 0 estan
dadas por la familia de curvas que satisfacen la ecuacion diferencial
dy
dx
=
F/y
F/x
.
14 CAP

ITULO 1. M

ETODOS DE SOLUCI

ON
Ejemplo 1.1.6. Encuentra las trayectorias ortogonales a la familia de curvas
solucion de la ecuacion
2x + 2y
dy
dx
= 0.
Esto es, consideremos una curva de la forma
x
2
+y
2
= c.
De la ecuacion tenemos que
dy
dx
=
x
y
.
Por lo tanto, las trayectorias ortogonales a las curvas de la forma x
2
+ y
2
= c
estan dadas por las curvas solucion de la ecuacion
dy
dx
=
y
x
.
Es decir, las curvas de la forma y = kx, para cualquier k R.
1.1.5. Funciones homogeneas de grado
Consideremos un tipo especial de ecuaciones diferenciales ordinarias, en
alg un sentido aquellas que tienen cierto equilibrio en el peso de las variables.
Denicion 1.1.1. Una funcion g(x, y) se dice homogenea de grado si
g(tx, ty) = t

g(x, y), t > 0.


Ejemplo 1.1.7. 1. g(x, y) := x
2
+ xy, es una funcion homogenea de grado
2.
2. g(x, y) := sin(x/y), es homogenea de grado 0,
3. g(x, y) :=
_
x
2
+y
2
, es homogenea de grado 1.
En el caso en que una ecuacion de la forma
M(x, y) +N(x, y)
dy
dx
= 0,
donde M y N son funciones homogeneas del mismo grado de homogeneidad,
entonces realizando el cambio de variable
z = y/x,
la ecuacion se vuelve una ecuacion separable. Veamos un ejemplo.
1.1. PRIMER ORDEN 15
Ejemplo 1.1.8. Resolver la ecuacion
(x +y) (x y)
dy
dx
= 0.
En primer lugar, observar que la ecuacion no es exacta. Sin embargo, si
consideramos las funciones
M(x, y) := x +y, y N(x, y) := (x y);
entonces, M y N son homogeneas, ambas de grado 1.
As que al reescribir la ecuacion, tenemos
dy
dx
=
x +y
x y
;
luego, dividimos entre la variable dependiente (para reducir la homogeneidad
en uno)
dy
dx
=
1 +y/x
1 y/x
.
Luego, haciendo el cambio de variable z = y/x, obtenemos una ecuacion que
podemos resolver. Primero
y = zx
dy
dx
=
dz
dx
x +z,
luego la ecuacion tiene la forma
dz
dx
x +z =
1 +z
1 z

dz
dx
x =
1 +z
2
1 z

dz
dx
1 z
1 +z
2
=
1
x

_
1
1 +z
2
dz
_
z
1 +z
2
dz =
_
1
x
dx
arctan(z)
1
2
ln(1 +z
2
) = ln(x) +C.
Por lo tanto, recordando que z = y/x podemos resolver
arctan(y/x)
1
2
ln(1 +y
2
/x
2
) = ln(x) +C
arctan(y/x)
1
2
ln
_
x
2
+y
2
x
2
_
ln(x) = C.
Esto es, la solucion esta dada de manera implcita por
arctan(y/x) + ln(
_
x
2
+y
2
) = C.
16 CAP

ITULO 1. M

ETODOS DE SOLUCI

ON
1.2. SEGUNDO ORDEN 17
1.2. Segundo orden
Las ecuaciones de primer orden son muy importantes, virtualmente cualquier
ecuacion diferencial ordinaria se puede transformar en un sistema de ecuaciones
de primer orden.
1.2.1. Reduccion de orden
Consideremos a x como la variable independiente y a y como la variable
dependiente. Usamos la notacion y

, y

, . . . para las derivadas de y con respecto


de x.
Hay dos casos simples:
1. Si falta la variable dependiente: En el caso en que y no aparezca en la
ecuacion, podemos hacer
z := y

y z

= y

.
De tal forma que la ecuacion resultante es una ecuacion de primer orden, con
variable independiente x y variable dependiente z.
Ejemplo 1.2.1. Resolvamos la ecuacion
xy

= 3x
2
.
Observamos que falta y y podemos hacer z = y

. Luego obtenemos
xz

z = 3x
2
z

=
1
x
z = 3x.
La cual es una ecuacion lineal nohomogenea.
Consideremos el factor integrante
(x) = exp
_

1
x
dx
_
=
1
x
.
Entonces, multiplicando por esta fucion en ambos miembros de la igualdad
tenemos que
1
x
z


1
x
2
z = 3
d
dx
_
1
x
z
_
= 3

1
x
z = 3x +C
z(x) = 3x
2
+Cx.
Recordando que z = y

, nos queda por resolver una segunda ecuacion difer-


encial de primer orden, a saber
y

= 3x
2
+Cx.
Por lo tanto, tenemos la solucion
y(x) = x
3
+
C
2
x
2
+D.
18 CAP

ITULO 1. M

ETODOS DE SOLUCI

ON
La observacion importante es que, aunque reducimos el orden, aumentamos
el n umero de ecuaciones de primer orden a resolver. Por otra parte, en la solu-
cion, existen dos constantes por determinar. Esto nos dice que haran falta dos
tipos de condiciones iniciales para ello. Veremos alg un ejemplo explcito mas
adelante.
2. Si falta la variable independiente: Tambien en el caso de que en una
ecuacion de segundo orden falte la variable x, podemos pensar a z = y

pero en
este caso, la pensamos como funcion de x. Esto es,
y

=
dz
dx
=
dz
dy
dy
dx
= z
dz
dy
.
Con este cambio de variable obtendremos una solucion de primer orden, con
variable dependiente z y variable indepiente y.
Ejemplo 1.2.2. Resolvamos la ecuacion
y

+k
2
y = 0.
Observemos que la variable x no aparece en la ecuacion, as que ponemos
z = y

y y

= z
dz
dy
para obtener la ecuacion
dz
dy
z = k
2
y.
Por lo tanto, tenemos que la ecuacion tiene solucion dada por
z
2
2
= k
2
y
2
2
+C.
O bien, tenemos que resolver la ecuacion polinomial
z
2
+k
2
y
2
+C = 0.
Esto es,
z(y) =

_
4(k
2
y
2
+C)
2
=
_
E y
2
.
Ahora recordamos que z = y

. Por lo tanto, nos queda por resolver la


ecuacion
dy
dx
= k
_
E y
2

dy
dx
1
_
E y
2
= k.
Despues de hacer la integracion obtenemos que
arcsin(y/

E) = kx +F;
o bien, la solucion general esta dada por
y(x) =

E cos(F) sin(x) +

E sin(T) cos(kx).
Sera conveniente escribir este tipo de soluciones como
y(x) = Asin(kx) +Bcos(kx).
1.2. SEGUNDO ORDEN 19
1.2.2. El oscilador armonico simple
Consideremos una masa atada a un resorte, que se desliza sin friccion sobre
una tabla. Supongamos que queremos entender el comportamiento del desplaza-
miento horizontal cuando el resorte se contrae o se comprime.
Para mantener la simplicidad en este modelo, suponemos que la unica fuerza
que act ua sobre la masa es la fuerza del resorte.
Determinemos la posicion de la masa como funcion del tiempo; esto es, con-
sideramos una funcion y(t) para denotar la posicion a tiempo t. Supondremos
que, ademas y(0) = 0 y por ende
y(t) < 0 si el resorte esta comprimido.
y(t) > 0 si el resorte esta alargado.
La idea fundamental para resolver este modelo viene de la segunda ley de
Newton. En este caso, la aceleracion estara modelada por
d
2
y
dt
2
y tenemos una
ecuacion del tipo
F = m
d
2
y
dt
2
.
Por otro lado, como la fuerza del resorte es la unica que act ua, tenemos que
por la ley de Hook
F = ky;
donde k > 0 es la constante del resorte. Es decir, tenemos una ecuacion de
segudo orden por resolver
d
2
y
dt
2
+
k
m
y = 0.
Observar que la variable t no aparece en la ecuacion anterior, entonces
podemos aplicar un metodo de reduccion de orden para resolver la ecuacion
anterior. Lo dejamos hasta aqu, por ahora...
1.2.3. Ecuaciones lineales
Formalmente una ecuacion diferencial ordinaria de segundo orden es una
ecuacion de la forma
d
2
x
dt
2
= f
_
t, x,
dx
dt
_
.
Una funcion (t) es una solucion de la ecuacion diferencial si
d
2
(t)
dt
2
= f
_
t, (t),
d(t)
dt
_
.
Como hemos visto, una solucion general de una ecuacion de segundo orden
tiene dos constantes por determinar. As que diremos que la ecuacion es de
condicione iniciales si ademas se deben satisfacer
x(t
0
) = x
0
, x

(t
0
) = x

0
.
20 CAP

ITULO 1. M

ETODOS DE SOLUCI

ON
Decimos que una ecuacion de segundo orden es lineal nohomogenea si
puede escribirse en la forma
d
2
x
dt
2
+p(t)
dx
dt
+q(t)x = r(t);
donde p(t), q(t) y r(t) son funciones continuas.
En el caso en que la funcion r(t) sea cero, diremos que le ecuacion es lineal
homogenea.
La demostracion del siguiente resultado se vera en captulos posteriores. Por
ahora la dejamos como referencia al lector.
Teorema 1.2.1 (Existencia y unicidad). Supongamos que p(t), q(t) y r(t) son
funciones continuas en el intervalo a < t < b. Entonces, existe una unica solucion
x(t) de la ecuacion diferencial lineal homogenea
d
2
x
dt
2
+p(t)
dx
dt
+q(t)x = 0,
denida en el intervalo a < t < b y que satisface las condiciones iniciales
x(t
0
) = x
0
, x

(t
0
) = x

0
.
Observar que para el caso del oscilador armonico simple, este teorema nos
garantiza la existencia de una solucion. Consideremos una nueva funcion v(t), la
cual sera la velocidad de la masa con respecto del tiempo. En este caso podemos
transformar la ecuacion de primer orden en dos ecuaciones de primer orden. A
saber
dy
dt
= v,
dv
dt
=
k
m
y.
O bien, podemos pensar en las soluciones del sistema de dos ecuaciones
dy
dt
= v
dv
dt
=
k
m
y.
De tal forma que pensar en el plano (y, v) nos ayudara a entender el com-
portamiento cualitativo de estas soluciones, y en general de las soluciones de
segundo orden.
Ejemplo 1.2.3. Supongamos que en el ejemplo del oscilador armonico simple
podemos jar k y m de tal forma que k/m = 1. Esto es, queremos resolver la
ecuacion
d
2
y
dt
2
= y.
A primera vista uno adivina que funciones como sin y cos satisfacen este
tipo de ecuaciones. Supongamos que ademas tenemos una condicion inicial
(y(0), v(0)) = (y
0
, v
0
) = (1, 0).
En tal caso, cos(t) satisface el problema con valor inicial.
Si pensamos en el sistema de ecuaciones
1.2. SEGUNDO ORDEN 21
dy
dt
= v
dv
dt
= y.
En este caso, la solucion esta dada por (cos(t), sin(t)) y ademas satisface la
condicion inicial dada.
Por lo tanto, la curva correspondiente al conjunto de soluciones en el plano
(y, v), que pasa por el punto (1, 0) esta dada por
(cos(t), sin(t)).
Observar que
y
2
+v
2
= cos
2
(t) + sin
2
(t) = 1,
es decir, la curva solucion a este sistema se corresponde con el crculo de radio
uno. Ademas, dado el signo negativo de sin(t) esta curva se recorre en el sentido
de las manecillas del reloj.
Concluimos que la solucion en este caso es periodica, con y(t) y v(t) funciones
que crecen y decrecen continuamente... esto es, la masa oscila una y otra vez y
as seguira para la eternidad.
1.2.4. Principio de linealidad
Escribamos una ecuacion diferencial lineal homogenea de la siguiente forma
x

(t) +p(t)x

+q(t)x = 0.
Consideremos el espacio vectorial de las funciones diferenciables ( = (

(R).
Denimos el operador
L : ( (
x L(x);
donde
L(x)(t) := x

(t) +p(t)x

(t) +q(t)x(t).
Proposicion 1.2.1. L : ( ( es un operador lineal.
La demostracion es trivial dada la denicion de L.
Por lo tanto, si una funcion x(t) es solucion de la ecuacion diferencial, en-
tonces L(x)(t) = 0; o bien, x(t) pertenece al subespacio ker(L).
Como L es lineal, dado R y x, x
1
y x
2
soluciones de la ecuacion, en-
tonces ax ker(L) y x
1
+x
2
ker(L). Esto es, cualquier combinacion lineal de
soluciones x
1
y x
2
, de la forma
c
1
x
1
(t) +c
2
x
2
(t)
tambien es solucion de la ecuacion diferencial homogenea.
22 CAP

ITULO 1. M

ETODOS DE SOLUCI

ON
Veamos cual es la forma general de la solucion para la ecuacion
x

(t) +p(t)x

(t) +q(t)x(t) = 0.
Sean x
1
(t), x
2
(t) dos soluciones de la ecuacion; denimos
W(x
1
, x
2
) := x
1
(t)x

2
(t) x

1
(t)x
2
(t).
Teorema 1.2.2. Sean x
1
, x
2
soluciones del a ecuacion anterior, denidas en el
interbalo a < t < b. Si W(x
1
, x
2
) ,= 0 en el intervalo a < t < b, entonces
x(t) := C
1
x
1
(t) +C
2
x
2
(t)
es la solucion general de la ecuacion.
Demostracion. Escojamos un t
0
en el intervalo a < t < b y supongamos que
podemos encontrar dos constantes C
1
y C
2
de tal forma que
x(t) = C
1
x
1
(t) +C
2
x
2
(t)
sea solucion de la ecuacion con condiciones iniciales
x(t
0
) = x
0
, x

(t
0
) = x

0
.
En tal caso, las constantes deben satisfacer las ecuaciones
C
1
x
1
(t
0
) +C
2
x
2
(t
0
) = x
0
C
1
x

1
(t
0
) +C
2
x

2
(t
0
) = x

0
.
En este caso, si multiplicamos la primera ecuacion por x

2
(t
0
) y la segunda
ecuacion por x
2
(t
0
), obtenemos que
C
1
x
1
(t
0
)x

2
(t
0
) +C
2
x
2
(t
0
)x

2
(t
0
) = x
0
x

2
(t
0
)
C
1
x

1
(t
0
)x
2
(t
0
) +C
2
x

2
(t
0
)x
2
(t
0
) = x

0
x
2
(t
0
).
Si restamos este par de ecuaciones podemos despejar C
1
; esto es,
C
1
=
x
0
x

2
(t
0
) x

0
x
2
(t
0
)
x
1
(t
0
)x

2
(t
0
) x

1
(t
0
)x
2
(t
0
)
.
Pero esto solo en el caso en que W(x
1
, x
2
) ,= 0 al menos en t
0
.
De manera similar podemos proceder para encontrar C
2
en el caso en que
W(x
1
, x
2
) ,= 0. Sea (t) = C
1
x
1
(t)+C
2
x
2
(t) con C
1
y C
2
obtenidas como antes.
Entonces, (t) es solucion de la ecuacion ya que es combinacion lineal de dos
soluciones.
Por lo tanto, por el teorema de existencia y unicidad, en el intervalo a < t < b
x(t) (t).

1.2. SEGUNDO ORDEN 23


Ejemplo 1.2.4. Encontremos la solucion general de la ecuacion
x

+x = 0.
Consideremos L(x)(t) = x

(t) +x(t). Observar que


L(cos)(t) = cos(t) + cos(t) = 0,
y
L(sin)(t) = sin(t) + sin(t) = 0.
Ademas W(cos(t), sin(t)) = 1, por lo que la solucion generla esta dada por
x(t) = Acos(t) +Bsin(t).
1.2.5. Ecuaciones con coecientes constantes
Consideremos una ecuacion diferencial del tipo
a
d
2
x
dt
2
+b
dx
dt
+cx = 0;
donde a ,= 0, b y c son valores constantes.
Al igual que en el caso de primer orden, funciones como exp nos ayudaran
a dar soluciones de este tipo de ecuaciones. Sea x(t) := e
rt
con r R. Veamos
bajo que condiciones x(t) es solucion de la ecuacion.
Por denicion, x(t) es solucion si x(t) ker(L). Esto es
L(x)(t) = (ar
2
+br +c)e
rt
= 0.
Es decir, x(t) es solucion de la ecuacion s, y solo si, r es solucion de una ecuacion
polinomial del tipo
ax
2
+bx +c = 0,
llamamos a esta ecuacion la ecuacion caracterstica.
La races de la ecuacion caracterstica estan dadas por
r =
b

b
2
4ac
2a
.
Analicemos distintos casos del discriminante:
1. Si b
2
4ac > 0: en este caso tenemos dos races reales, que corresponden
a dos soluciones de la ecuacion
x
1
(t) = e
r
1
t
, x
2
(t) = e
r
2
t
.
Como ademas W(x
1
, x
2
) ,= 0 en todo R; concluimos que la solucion general de
la ecuacion esta dada por
C
1
e
r
1
t
+C
2
e
r
2
t
.
2. Si b
2
4ac < 0: entonces la ecuacion caracterstica tiene una raz compleja
r = +i,
24 CAP

ITULO 1. M

ETODOS DE SOLUCI

ON
ademas de que su conjugado complejo tambien es raz.
Por lo tanto, la funcion
x(t) = e
(+i)t
= e
t
(cos(t) +i sin(t));
con
=
b
2a
, =

4ac b
2
2a
,
es una solucion compleja de la ecuacion.
La observacion importante es que la parte real e imaginaria de esta solucion,
son dos soluciones reales. Esto es
x
1
(t) = e
t
cos(t), x
2
(t) = e
t
sin(t),
son dos soluciones reales de la ecuacion.
Concluimos que la solucion general esta dada por
C
1
e
t
cos(t) +C
2
e
t
sin(t).
3. Si b
2
4ac = 0: En este caso la ecuacion caracterstica tiene una unica
raz real r = b/2a y x(t) = e
bt/2a
es solucion de la ecuacion. A partir de esta
solucion encontraremos otra.
Hacemos y(t) = x(t)(t), donde (t) es una funcion continua. Luego, al
evaluar, obtenemos que
L(y)(t) = ax
d
2

dt
+
_
2a
dx
dt
+bx
_
d
dt
+
_
cx +b
dx
dt
_
(t).
Por lo tanto, y(t) es solucion si esta expresion es igual a cero.
Dejamos como ejercicio vericar que si escribimos el valor de x(t) en la
ecuacion, podemos resolver la ecuacion para (t), lo cual nos queda
(t) = C
1
t +C
2
.
Por lo tanto
y(t) = (C
1
t +C
2
)e
bt/2a
es otra solucion de la ecuacion.
En conclusion, la solucion general de la ecuacion esta dada por
K
1
te
bt/2a
+K
2
e
bt/2a
.
1.2.6. Ecuaciones lineales nohomogeneas
Estudiamos ahora las ecuaciones del tipo
d
2
x
dt
2
+p(t)
dx
dt
+q(t)x = r(t),
donde p(t), q(t) y r(t) son funciones continuas en alg un intervalo a < t < b.
1.2. SEGUNDO ORDEN 25
Lema 1.2.1 (Principio de linealidad). Sean x
1
(t) y x
2
(t) dos soluciones de
la ecuacion nohomogenea, entonces x
1
(t) x
2
(t) es solucion de la ecuacion
homogenea.
Demostracion. Usemos la linealidad del operador L; esto es,
L(x
1
x
2
)(t) = L(x
1
)(t) L(x
2
)(t) = r(t) r(t) = 0.
Por lo tanto, x
1
(t) x
2
(t) es solucion de la ecuacion homogenea.

Teorema 1.2.3. Sean x


1
(t) y x
2
(t) dos soluciones independientes de la ecuacion
homogenea L(x)(t) = 0 y (t) una solucion (cualquiera) le ecuacion nohomogenea.
Entonces, toda solucion x(t) de la ecuacion nohomogenea es de la forma
x(t) = C
1
x
1
(t) +C
2
x
2
(t) +(t).
Demostracion. Sea x(t) una solucion de la ecuacion nohomogenea. Por el
principio de linealidad (t) := x(t) (t) es solucion de la ecuacion homogenea.
Sabemos cual es la forma de la solucion general para una ecuacion homogenea;
esto es (t) = C
1
x
1
(t) +C
2
x
2
(t). Por lo tanto,
x(t) = C
1
x
1
(t) +C
2
x
2
(t) +(t).

1.2.7. El metodo de variacion de parametros


Para nalizar el estudio de las ecuaciones de segundo orden, describiremos
un metodo para encontrar una solucion particular de la ecuacion nohomogenea
una vez que se conocen las soluciones de la ecuacion homogenea.
Sean x
1
(t) y x
2
(t) dos soluciones independientes de la ecuacion homogenea.
Queremos encontrar una solucion particular de la ecuacion nohomogenea de la
forma
(t) = u
1
(t)x
1
(t) +u
2
(t)x
2
(t),
donde u
1
(t) y u
2
(t) son funciones diferenciables.
En primer lugar
d
dt
(t) = (u
1
x

1
+u
2
x

2
) + (u

1
x
1
+u

2
x
2
).
Supongamos que el segundo sumando es igual a cero, esto es
u

1
(t)x
1
(t) +u

2
(t)x
2
(t) = 0.
Entonces,
26 CAP

ITULO 1. M

ETODOS DE SOLUCI

ON
L()(t) = (u
1
x

1
+u
2
x

2
)

+p(t)(u
1
x

1
+u
2
x

2
) +q(t)(u
1
x
1
+u
2
x
2
)
= u

1
x

1
+u

2
+x

2
+u
1
L(x
1
)(t) +u
2
L(x
2
)(t)
= u

1
x

1
+u

2
x

2
.
Es decir, (t) = u
1
(t)x
1
(t)+u
2
(t)x
2
(t) es solucion de la ecuacion nohomogenea
si u
1
(t) y u
2
(t) satisfacen las ecuaciones
x
1
(t)u

1
(t) +x
2
(t)u

2
(t) = 0
x

1
(t)u

1
(t) +x

2
(t)u

2
(t) = r(t).
Resolviendo para u

1
(t) y u

2
(t) en estas ecuaciones obtenemos
u

1
(t) =
r(t)x
2
(t)
W(x
1
, x
2
)(t)
y u

2
(t) =
r(t)x
1
(t)
W(x
1
, x
2
)(t)
.
Integramos en ambas expresiones y obtenemos u
1
(t) y u
2
(t).
Captulo 2
Sistemas lineales
Dediquemos un tiempo a estudiar los sistemas en el plano R
2
. Sea U R
2
un subconjunto abierto. Decimos que una aplicacion X : U R
2
de clase (
r
es un campo vectorial de clase (
r
.
Un campo vectorial asocia a cada punto x U un vector X(x). Una curva
integral del campo X es una solucion de la ecuacion diferencial
x

= X(x), (x U).
Si : I R U es una solucion de la ecuacion diferencial; entonces

(t) = X((t)), (t I).


Decimos que un punto x U es regular si X(x) ,= 0. En caso contrario
diremos que x U es un punto singular de X. Si x U es un punto singular
de X, entonces
(t) x
es solucion de la ecuacion; i.e. X(x) = 0.
Sea x
0
U y : I U una solucion de la ecuacion diferencial con (0) =
x
0
. Decimos que es solucion maxima si para cada funcion : J U tal
que I J y [I = , entonces I = J y en consecuencia, . Escribiremos
I
x
0
para denotar el intervalo maximo de denicion de la solucion maxima.
La imagen de una solucion maxima regular : I
x
0
U se llama la trayec-
toria, orbita o curva integral (maxima) asociada a la solucion maxima. El
retrato fase de un campo vectorial X : U R
2
es el conjunto que consiste
de todas sus orbitas (orientadas).
2.1. Sistemas lineales planos
Enfoquemonos ahora en la clase mas importante de sistemas planos, los
sistemas de ecuaciones lineales. Consideremos un sistema de la forma
x

= ax +by
y

= cx +dy,
27
28 CAP

ITULO 2. SISTEMAS LINEALES


donde a, b, c y d son constantes.
Abreviaremos este sistema usando la matriz
A =
_
a b
c d
_
;
esto es, escribimos el sistema lineal de ecuaciones como
X

= AX;
donde X = (x, y). Decimos que un punto X
0
es un punto de equilibrio de la
ecuacion si AX
0
= 0.
Para este sistema particular, el origen es un punto de equilibrio. Para en-
contrar otros puntos de equilibrio resolvemos el sistema
ax +by = 0
cx +dy = 0.
Este sistema tiene una solucion notrivial s, y solo si, el determinante det(A) =
0. Si A no es la matriz cero y det(A) = 0, es un resultado de algebra lineal que
existe una lnea que pasa por el origen en la cual cada punto es un punto de
equilibrio.
Proposicion 2.1.1. El sistema lineal plano X

= AX tiene o un unico punto


de equilibrio en el origen (0, 0) si det(A) ,= 0; o bien, tiene toda una lnea de
puntos de equilibrio si det(A) = 0.
2.1.1. Valores propios y vectores propios
Veamos ahora como encontrar soluciones que no sean de equilibrio del sis-
tema X

= AX. Observemos lo siguiente: supongamos que V


0
es un vector
nocero, para el cual
AV
0
= V
0
,
donde R, entonces la funcion
X(t) = e
t
V
0
,
es una solucion del sistema.
Esto se observa al evaluar como sigue
X

(t) = e
t
V
0
= e
t
(V
0
)
= e
t
AV
0
= A(e
t
V
0
)
= AX(t).
Es decir, X(t) satisface el sistema de ecuaciones.
Decimos que un vector V
0
como antes es un vector propio de A y al valor
lo llamamos valor propio de A.
2.1. SISTEMAS LINEALES PLANOS 29
Teorema 2.1.1. Supongamos que V
0
es un vector propio de la matriz A con
valor propio asociado . Entonces, la funcion X(t) = e
t
V
0
es una solucion del
sistema X

= AX.
Observar que si V
0
es un vector propio de A con valor propio , entonces
cualquier m ultiplo escalar de V
0
tambien sera un vector propio de A con el
mismo valor propio .
Para generar un vector propio V = (x, y), debemos encontrar una solucion
nocero de la ecuacion
AV = V.
Esta ecuacion la podemos reescribir en la forma
(AI)V = 0;
donde I es la matriz identidad y el cero del lado derecho se corresponde con el
vector cero (0, 0).
Este sistema tiene soluciones nocero s, y solo si, det(A I) = 0. Pero
esta ecuacion es una ecuacion cuadratica en , cuyas races podemos encontrar.
Esta ecuacion se llama la ecuacion caracterstica.
2.1.2. Solucion de sistemas lineales
En el caso en que tengamos dos valores propios reales
1
y
2
distintos para
una matriz A; es decir, dos races distintas de la ecuacion caracterstica; entonces
podremos generar un par de soluciones del sistema, del tipo X
i
(t)e

i
t
V
i
, donde
V
i
es el vector propio asociado a
i
.
Hay que observar que cada una de estas soluciones es en realidad toda una
lnea de soluciones; a saber, la lnea que pasa por el vector V
i
. Ademas si
i
> 0,
entonces
lm
t
[X
i
(t)[ = ,
y
lm
t
[X
i
(t)[ = 0.
Es decir, recorremos la lnea que parte del cero con magnitud cada vez mas
grande.
Tenemos exactamente el comportamiento opuesto si
i
< 0. En tano que si

i
= 0, la solucion es la solucion constante X
i
(t) V
0
.
Teorema 2.1.2. Supongamos que A tiene un par de valores propios
1
y
2
,
distintos, con vectores propios asociados V
1
y V
2
. Entonces, la solucion general
del sistema lineal X

= AX esta dada por


X(t) = C
1
e

1
t
V
1
+C
2
e

2
t
V
2
.
30 CAP

ITULO 2. SISTEMAS LINEALES


2.1.3. La exponencial de un operador
Denotemos por L(R
2
) al conjunto de los operadores lineales en R
2
; esto es
L(R
2
) := T : R
2
R
2
: T es lineal .
Podemos denir una norma en este espacio: dada T L(R
2
), denimos la
norma de T como
[[T[[ := max
|x|=1
[Tx[,
donde [x[ =
_
x
2
+y
2
es la norma euclidiana usual.
La siguiente proposicion es inmediata de la denicion y expresa las propiedades
de la norma.
Proposicion 2.1.2. [[ [[ es una norma en L(R
2
). Es decir, si S, T L(R
2
) y
k R, entonces:
[[T[[ 0; [[T[[ = 0 T = 0.
[[kT[[ = [k[[[T[[.
[[S +T[[ [[S[[ +[[T[[.
Denicion 2.1.1. Dado un operador lineal T L(R
2
), decimos que una suce-
sion de operadores T
n
L(R
2
) coverge a T si para cada > 0, existe un
N > 0, tal que si n N, entonces
[[T
n
T[[ .
Nuestro objetivo sera demostrar que la sucesion
e
Tt
:=
n

k=0
T
k
t
k
k
converge absoluta y uniformemente en un cierto dominio. Demostremos primero
el siguiente lema.
Lema 2.1.1. Sean S, T L(R
2
) y x R
2
, entonces se satisfacen:
[Tx[ [[T[[[x[.
[[ST[[ [[S[[[[T[[,
[[T
n
[[ [[T[[
n
, para toda n 0.
Demostracion. Para la primer armacion tenemos que si x ,= 0 y denimos
y =
x
|x|
, entonces
[T(y)[ =
[T(x)[
[x[
[[T[[.
Por lo tanto,
[T(x)[ [[T[[[x[.
2.1. SISTEMAS LINEALES PLANOS 31
Para la segunda armacion, si [x[ 1, usando lo anterior tenemos que
[S(T(x))[ [[S[[[T(x)[
[[S[[[[T[[[x[
[[S[[[[T[[.
Podemos concluir que
[[ST[[ [[S[[[[T[[.
La ultima armacion se sigue de manera inductiva de la anterior.

Teorema 2.1.3. Dado un operador lineal T L(R


2
) y t
0
> 0, la serie
n

k=0
T
k
t
k
k!
converge absoluta y uniformemente en el intervalo [t[ t
0
.
Demostracion. Escribamos = [[T[[, por el lema anterior para cada [t[ t
0
se cumple que
[[
T
k
t
k
k!
[[
[[T[[
k
[t[
k
k!


k
t
k
0
k!
.
Como la serie

k=0

k
t
k
0
k!
es convergente en R y de hecho converge a e
t
0
, entonces por el criterio M de
Weierstrass, la serie

k=0
T
k
t
k
k!
converge absoluta y uniformemente para [t[ t
0
.

Denicion 2.1.2. Defnimos la exponencial del operador lineal T L(R


2
) se
dene como la serie
e
T
:=

k=0
T
k
k!
.
Si A es la matriz asociada a T, denimos
e
At
:=

k=0
A
k
t
k
k!
.
Observar que
d
dt
e
At
= lm
h0
e
A(t+h)
e
At
h
= e
At
lm
h0
e
Ah
1
h
= Ae
At
.
Ademas de sus propiedades:
32 CAP

ITULO 2. SISTEMAS LINEALES


Si S = PTP
1
, entonces
e
S
= Pe
T
P
1
.
Si S y T conmutan, entonces
e
S+T
= e
S
e
T
.

(e
T
)
1
= e
T
.
2.1.4. Clasicacion
Consideremos el sistema lineal
X

= AX.
Si A es conjugada de la matriz
B =
_
0
0
_
, ( < 0 < ),
observamos que (0, 0) es punto de equilibrio del sistema; decimos que en este
caso especial 0 es un punto silla del sistema. El retrato fase del sistema original
es equivalente al retrato fase asociado a y

= By.
Si A es conjugada de la matriz
B =
_
0
0
_
, ( 0),
decimos que 0 es un nodo estable del sistema.
Existe una tercer posibilidad, que A sea conjuaga a la matriz
B =
_
1
0
_
, ( 0).
Tambien tenemos el caso de las matrices asociadas a n umeros complejos. Si
A es conjugada de la matriz
B =
_
a b
b a
_
, (a > 0),
decimos que el 0 es un foco inestable del sistema. El sistema original es equiv-
alente a uno con una espiral que se aleja del origen.
Observar que tenemos deniciones analogas para puntos del tipo nodo in-
estable y puntos del tipo foco estable. Cuando a = 0, el origen se dice centro
del sistema y las soluciones son periodicas.
Recordemos que si := det(A) ,= 0, entonces 0 es el unico punto de equilibrio
del sistema lineal X

= AX. Tenemos un analisis del tipo trazadeterminante


para dar una clasicaci on de los sitemas lineales planos.
2.1. SISTEMAS LINEALES PLANOS 33
Teorema 2.1.4. Denotemos por := traza(A) y consideremos el sistema lineal
plano
X

= AX.
(a) Si < 0, entonces 0 es un punto silla del sistema lineal.
(b) Si > 0 y
2
4 0, entonces 0 es un nodo del sistema lineal. El nodo se
llama estable si < 0 e inestable si > 0.
(c) Si > 0 y
2
4 0, con ,= 0, entonces 0 es un foco del sistema lineal.
El foco se llama estable si < 0 e inestable si > 0.
(d) Si > 0 y
2
4 0, con = 0, entonces 0 es un centro del sistema lineal.
34 CAP

ITULO 2. SISTEMAS LINEALES


2.2. Sistemas lineales
Gran parte de las ideas para sistemas en el plano pueden generalizarse a
sistemas del tipo
X

= AX, X(0) = x
0
donde A es una matriz de n n con coecientes reales y x
0
R
n
.
Todo esto queda resumido en el siguiente resultado elemental.
2.2.1. El teorema fundamental para sistemas lineales
Teorema 2.2.1. Sea A una matriz de n n. Entonces, dado x
0
R
n
, el
problema de valor inicial
X

= AX, X(0) = x
0
,
tiene una unica solucion dada por
X(t) = e
At
x
0
.
2.2.2. Valores propios m ultiples
La solucion del sistema lineal
X

= AX,
con condicion inicial X(0) = x
0
, esta dada por
X(t) = e
At
x
0
.
Es muy facil encontrar la matriz e
At
cuando A tiene valores propios distintos.
Hemos visto ya algunos casos en sistemas de dimension dos, conamos en que
el lector podra abstraer y concretar estas generalizaciones.
Denicion 2.2.1. Sea un valor propio de la matriz A de n n, de tal forma
que su multiplicidad es m n. Entonces, para k = 1, . . . , m, cualquier solucion
nocero V de
(AI)
k
V = 0
se llama un vector propio generalizado de A.
Decimos que una matriz N es nilpotente de orden k si N
k1
,= 0 y N
k
= 0.
La demostracion del siguiente resultado puede encontrarse en la bibliografa.
Teorema 2.2.2. Sea A una matriz real de n n con valores propios reales

1
, . . . ,
n
, repetidos de acuerdo a su multiplicidad. Entonces existe una base
de vectores propios generalizados para R
n
.
Si V
1
, . . . , V
n
es cualquier base de vectores propios generalizados para R
n
,
entonces:
2.2. SISTEMAS LINEALES 35
La matriz P = [V
1
, . . . , V
n
] es invertible,
A = S +N, donde P
1
SP = diag[
j
],
N = AS es nilpotente de orden k n y
NS = SN, i.e. las matrices N y S conmutan.
Bajo las mismas hipotesis que en el teorema, el siguiente resultado es inema-
diato.
Corolario 2.2.1. El sistema lineal con condicion inicial X

= AX, X(0) = x
0
,
tiene solucion
X(t) = Pdiag[e

j
t
]P
1
_
I +Nt +
N
2
t
2
2!
+ +
N
k1
t
k1
(k 1)!
_
x
0
.
En el caso especial que el valor propio tenga multiplicidad n, tenemos que
S = diag[]
esto con respecto a la base usual en R
n
. Luego,
N = AS.
Por lo tanto, la solucion del sistema con valor inicial dado x
0
esta dada por
X(t) = e
t
_
I +Nt + +
N
k1
t
k1
(k 1)!
_
x
0
.
Para el caso general determinamos primero una base vectores propios gen-
eralizados para R
n
, entonces calculamos
S = Pdiag[
j
]P
1
, N = AS
y luego resolvemos.
Ejemplo 2.2.1. Resolver el sistema X

= AX, X(0) = x
0
, cuando
A =
_
_
_
_
0 2 1 1
1 2 1 1
0 1 1 0
0 0 0 1
_
_
_
_
.
Es facil calcular que la matriz tiene un valor propio = 1 de multiplicidad
4. Es decir, S = diag[1] = I y
N = AS =
_
_
_
_
1 2 1 1
1 1 1 1
0 1 0 0
0 0 0 0
_
_
_
_
.
De donde calculamos
N
2
=
_
_
_
_
1 1 1 1
0 0 0 0
1 1 1 1
0 0 0 0
_
_
_
_
36 CAP

ITULO 2. SISTEMAS LINEALES


y N
3
= 0.
Por ultimo, la soluci on del sistema con valor inicial esta dada por
X(t) = e
t
(I +N +N
2
t
2
/2),
o bien
X(t) = e
t
_
_
_
_
1 t t
2
/2 2t t
2
/2 t t
2
/2 t t
2
/2
t 1 +t t t
t
2
/2 t +t
2
/2 1 +t
2
/2 t
2
/2
0 0 0 1
_
_
_
_
x
0
.
Ejemplo 2.2.2. Resolver el sistema X

= AX, X(0) = x
0
, cuando
A =
_
_
1 0 0
1 2 0
1 1 2
_
_
.
Calculando los valores propios obtenemos que
1
= 1 es de multiplicidad uno
y
2
= 2 es de multiplicidad dos. Sus vectores propios asociados estan dados
por
V
1
=
_
_
1
1
2
_
_
, V
2
=
_
_
0
0
1
_
_
.
Buscamos un vector propio generalizado V
3
asociado al valor propio
2
; esto es,
resolvemos
(A2I)
2
V =
_
_
1 0 0
1 0 0
2 0 0
_
_
V = 0.
En este caso particular V
3
= (0, 1, 0)
T
.
En consecuencia,
P =
_
_
1 0 0
1 0 1
2 1 0
_
_
y P
1
=
_
_
1 0 0
2 0 1
1 1 0
_
_
.
As que,
S = P
_
_
1 0 0
0 2 0
0 0 2
_
_
P
1
=
_
_
1 0 0
1 2 0
2 0 2
_
_
y
N = AS =
_
_
0 0 0
0 0 0
1 1 0
_
_
.
Notar que N
2
= 0.
Expresamos la solucion como
X(t) = P
_
_
e
t
0 0
0 e
2t
0
0 0 e
2t
_
_
P
1
(I +Nt)x
0
,
2.2. SISTEMAS LINEALES 37
explcitamente
X(t) =
_
_
e
t
0 0
e
t
e
2t
e
2t
0
2e
t
+ (2 t)e
2t
te
2
t e
2t
_
_
x
0
.
En el caso de que la matriz tenga valores propios complejos m ultiples tenemos
el siguiente teorema.
Teorema 2.2.3. Sea A una matriz real de 2n 2n, con valores propios com-
plejos
j
= a
j
+ib
j
, j = 1, . . . , n. Entonces, existen vectores propios complejos
generalizados
W
j
= u
j
+iv
j
(W
j
= u
j
iv
j
),
tales que
u
1
, v
1
, . . . , u
n
, v
n

forman una base de R


2n
.
Ademas, para esta base la matriz P = [v
1
, u
1
, . . . , v
n
, u
n
] es invertible,
A = S +N
donde
P
1
SP = diag
_
a
j
b
j
b
j
a
j
_
,
la matriz N = AS es nilpotente de orden k 2n y S, N conmutan.
Corolario 2.2.2. La solucion del sistema X

= AX, X(0) = x
0
, esta dada por
X(t) = Pdiag
_
e
a
j
t
_
cos(b
j
t) sin(b
j
t)
sin(b
j
t) cos(b
j
t)
__
P
1
_
I +Nt + +
N
k1
t
k1
(k 1)!
_
x
0
.
2.2.3. Formas de Jordan
La forma canonica de Jordan para una matriz A nos dice como obtener la
solucion de su sistema asociado. Ademas de que nos permitira usar resultados
relacionados con las formas de Jordan en estudios posteriores.
Este metodo de solucion de sistemas quizas no es el mas optimo, pues en
ocasiones encontrar una base de vectores propios generalizados para obtener
la forma canonica de Jordan puede ser una tarea complicada. Al contrario, en
la seccion anterior vimos que cualquier base de vectores propios generalizados
funciona para el metodo SemisimpleNilpotente.
El siguiente resultado es muy importante y puede ser consultado en la bib-
liografa.
Teorema 2.2.4 (Formas canonicas de Jordan). Sea A una matriz real de nn,
con valores propios reales

j
, j = 1, . . . , k
y con valores propios complejos
a
j
+ib
j
(a
j
ib
j
) j = k 1, . . . , n.
38 CAP

ITULO 2. SISTEMAS LINEALES


Entonces, exsite una base de vectores propios generalizados
V
1
, . . . , V
k
, W
k+1
, . . . , W
n
,
de tal forma que si
u
j
= Re(W
j
), v
j
= Im(W
j
) j = k + 1, . . . , n
el conjunto
V
1
, . . . , V
k
, v
k+1
, u
k+1
, . . . , v
n
, u
n

forma una base para R


2nk
.
Ademas, la matriz
P = (V
1
, . . . , V
k
, v
k+1
, u
k+1
, . . . , v
n
, u
n
)
es invertible y
P
1
AP =
_
_
B
1
0

0 B
r
_
_
,
donde los bloques elementales de Jordan B
j
, j = 1, . . . , r son de dos formas:

B =
_
_
_
_
_
_
1 0 0
0 1 0

0 0 1
0 0 0
_
_
_
_
_
_
,
para los valores propios reales de A; o bien,

B =
_
_
_
_
_
_
D I 0 0
0 D I 0

0 0 D I
0 0 0 D
_
_
_
_
_
_
; D =
_
a b
b a
_
,
para los valores propios complejos a +ib de A.
La forma canonica de Jordan de una matriz A es unica salvo el orden de
los bloques elementales y/o por el hecho de que los 1 o las matrices I pueden
aparecer por arriba o por debajo de la diagonal. Llamamos al primer caso la
forma canonica superior de Jordan.
A partir de este teorema podemos determinar la solucion del sistema
X

= AX, X(0) = x
0
,
pues de acuerdo con el teorema fundamental para sistemas lineales, la solucion
esta dada por
X(t) = Pdiag(e
B
j
t
)P
1
x
0
.
2.2. SISTEMAS LINEALES 39
Observemos que, una vez que tenemos la descomposicion en bloques de Jor-
dan B
j
es sencillo calcular e
B
j
. Esto es, en el caso en que B sea una matriz de
mm, que se descompone como
B = I +N,
donde N es nilpotente de orden m. De manera similar para el caso complejo.
Veamos ambos casos con detalle:
1. Si B
j
= B es una matriz de mm y es un valor propio de multiplicidad
m de A, tal que B = I +N, donde
N =
_
_
_
_
_
_
0 1 0 0
0 0 1 0

0 0 0 1
0 0 0 0
_
_
_
_
_
_
.
Entonces,
e
Bt
= e
t
e
Nt
= e
t
_
_
_
_
_
_
1 t t
2
/2 t
m1
/(m1)!
0 1 t t
m2
/(m2)!

0 0 1 t
0 0 0 1
_
_
_
_
_
_
.
2. Si en otro caso B es una matriz de 2m2m y = a+ib es un valor propio
complejo de multiplicidad m para A, entonces la matrtiz N tiene la forma
N =
_
_
_
_
_
_
0 I 0 0
0 0 I 0

0 0 0 I
0 0 0 0
_
_
_
_
_
_
,
donde I es la matriz identidad de 2 2.
As que
e
Bt
= e
at
_
_
_
_
_
_
R Rt Rt
2
/2! Rt
m1
/(m1)!
0 R Rt Rt
m2
/(m2)!

0 0 R Rt
0 0 0 R
_
_
_
_
_
_
,
donde R es la matriz de rotacion
R =
_
cos(bt) sin(bt)
sin(bt) cos(bt)
_
.
Corolario 2.2.3. Cada coordenada en la solucion X(t) del sistema con valor
inicial X

= AX, X(0) = x
0
, es una combinacion lineal de las funciones de la
forma
t
k
e
at
cos(bt) o t
k
e
at
sin(bt),
donde = a +ib es un valor propio de la matriz A y 0 k n 1.
40 CAP

ITULO 2. SISTEMAS LINEALES


Por lo tanto, el teorema de la forma canonica de Jordan es de vital impor-
tancia para conocer las soluciones de un sistema de ecuaciones. A continuacion
mostramos como encontrar la forma canonica de Jordan de una matriz, para
ello necesitamos algunas deniciones.
Denicion 2.2.2. Sea un valor propio de multiplicidad n de la matriz A de
n n. Los ndices de deciencia se denen como

k
= dimKer(AI)
k
.
La observacion importante es que los ndices de deciencia pueden calcularse
mediante eliminacion gaussiana; de hecho,
k
es el n umero de las cero en la
forma escalonada de (AI)
k
. Ademas

1

2

n
= n.
Sea
k
el n umero de bloques elementales de Jordan de tama no k k en la
forma canonica de Jordan de A. Entonces, se sigue de lo anterior que

1
=
1
+
2
+
n
,

2
=
1
+ 2
2
+ + 2
n
,

3
=
1
+ 2
2
+ 3
3
+ + 3
n
,

n
=
1
+ 2
2
+ + (n 1)
n1
+n
n
.
Esto es, podemos resolver las ecuaciones para encontrar los n umeros de blo-
ques de Jordan de tama no k k:

1
= 2
1

2
,

2
= 2
2

3

1
,

k
=
k1
+ 2
k

k+1
, 1 k n 1,

n
=
n1
+
n
.
Enunciamos ahora un algoritmo para encontrar una base de vectores propios
generalizados tales que la matriz A de nn con valor propio de multiplicidad
n asume su forma canonica de Jordan J con respecto a esta base:
1. Encontremos una base
v
j

1
j=1
de Ker(AI); es decir, encontrar un conjunto de vectores propios de A
linealmente independientes y con como valor propio.
2.2. SISTEMAS LINEALES 41
2. Si
2
>
1
, escojemos la base V
j
de Ker(A I) de tal forma que las
ecuaciones
(AI)v
(2)
j
= V
j
,
tenga
2

1
soluciones linealmente independientes v
(2)
j
. Es decir,
v
j

2
1
= V
j

1
j=1
v
(2)
j

1
j=1
,
es una base para Ker(AI)
2
.
3. Si
3
>
2
escojemos la base V
(2)
j
de Ker(AI)
2
con
V
(2)
j
v
(2)
j
)

1
j=1
para j = 1, . . . ,
2

1
, tales que
(AI)v
(3)
j
= V
(2)
j
tiene
3

2
soluciones linealmente independientes v
(3)
j
.
Si para j = 1, . . . ,
2

1
,
V
(2)
j
=

i=1
c
i
v
(2)
i
,
escribimos

V
(1)
j
=

i=1
c
i
V
i
para j = 1, . . . ,
2

1
y

V
(1)
j
= V
j
, para j =
2

1
+ 1, . . . ,
1
.
Luego
v
j

3
j=1
=

V
(1)
j

1
j=1
V
(2)
j

1
j=1
v
(3)
j

2
j=1
es una base para Ker(AI)
3
.
4. Seguimos este proceso hasta el paso k cuando
k
= n para obtener una
base v
j
de R
n
. La matriz A tendra la forma canonica de Jordan al ser
conjugada con respecto a esta base.
Al nal, la matriz P = [v
1
, . . . , v
n
] en el teorema anterior que satisface
P
1
AP = J se obtendra ordenando de manera apropiada la base. La regla sera la
siguiente: cada vector propio generalizado v
(i)
j
que satisface (AI)v
(i)
j
= V
i1
j
se acomoda inmediatamente despues que el vector propio generalizado V
(i1)
j
.
42 CAP

ITULO 2. SISTEMAS LINEALES


2.2.4. Estabilidad
Para terminar el estudio de los sistemas lineales hablaremos un poco acerca
de sus subespacios de estabilidad E
s
, inestabilidad E
u
o los llamados subespacios
centro E
c
de un sistema lineal
X

= AX.
Sean W
j
= u
j
+ iv
j
vectores propios generalizados de la matriz real A,
correspondientes a los valores propios
j
= a
j
+ ib
j
. Notar que si b
j
= 0,
entonces v
j
= 0. Consideremos la base
B = u
1
, u
k
, . . . , u
k+1
v
k+1
, . . . , u
m
, v
m

de R
n
(con n = 2mk), donde los primeros k vectores en la base corresponden
a los valores propios reales de A y los restantes 2nk corresponden a las partes
real e imaginaria de los valores propios complejos.
Denicion 2.2.3.
E
s
:= u
j
, v
j
: a
j
< 0),
E
u
:= u
j
, v
j
: a
j
> 0)
y
E
c
:= u
j
, v
j
: a
j
= 0).
El lector interesado puede recuperar los ejemplos que hemos realizado anteri-
ormente y encontrar los subespacios estable, inestable y centro respectivamente.
Observamos que todas las soluciones en E
s
se aproximan al punto de equi-
librio x = 0 cuando t , recprocamente todas las soluciones en E
u
se
aproximan al punto de equilibrio x = 0 cuanto t .
Descrbimos ahora el ujo de un sistema de ecuaciones diferenciales y mostramos
que los espacios estable, inestable y centro son invariantes bajo el ujo.
Por el teorema fundamental para sistemas lineales, las solucion al problema
de valor inicial X

= AX, X(0) = x
0
, esta dada por
X(t) = e
At
x
0
.
Consideramos el campo vectorial
e
At
: R
n
R
n
,
el cual puede ser pensado como la descripcion del movimiento de los puntos
x
0
R
n
a lo largo de las trayectorias del sistema. Llamamos a este campo
vectorial el ujo del sistema lineal.
Denicion 2.2.4. Si todos los valores propios de la matriz A de n n tienen
parte real nocero, entonces el ujo e
At
: R
n
R
n
se llama ujo hiperbolico
y el sistema se llama un sistema hiperbolico lineal
Decimos que un subespacio E R
n
es invariante con respecto al ujo
e
At
: R
n
R
n
si e
At
E E para cada t R.
Demostramos ahora que los espacios estable, inestable y centro son invari-
antes con respecto al ujo e
At
; o bien, que cualquier solucion que comience en
E
s
, E
u
o E
c
en tiempo t = 0, se quedara ah para todo tiempo t R.
2.2. SISTEMAS LINEALES 43
Teorema 2.2.5. Sea A una matriz real de n n, entonces
R
n
= E
s
E
u
E
c
.
Mas a un, E
s
, E
u
y E
c
son invariantes con respecto del ujo e
At
respectivamente.
Demostracion. Como B = u
1
, u
k
, . . . , u
k+1
v
k+1
, . . . , u
m
, v
m
es base de R
n
,
se sigue de las deniciones de los espacios respectivos que
R
n
= E
s
E
u
E
c
.
Si x
0
E
s
, entonces
x
0
=
n
s

j=1
c
j
V
j
,
donde V
j
es igual a v
j
o u
j
y V
j
forma una base del subespacio estable E
s
.
Dada la linealidad del ujo, obtenemos que
e
At
x
0
=
n
s

j=1
c
j
e
At
V
j
.
Para poder continuar usamos el siguiente resultado basico de algebra lineal:
si E es el espacio propio generalizado de A correspondiente al valor propio ,
entonces AE E.
Luego, de la expresion anterior tenemos que
e
At
V
j
= lm
k
_
I +At +
A
k
t
k
k!
_
V
j
E
s
,
pues para cada j = 1, . . . , n
s
por el resultado recien enunciado A
j
V
j
E
s
. Por
lo tanto, para cada t R
e
At
E
s
E
s
.
O bien, E
s
es invariante bajo el ujo e
At
.
De manera similar se puede ver que E
u
y E
c
son tambien invariantes bajo
el ujo e
At
.

Damos ahora una caracterizaci on de los sistemas lineales planos seg un su


estabilidad.
Denicion 2.2.5. Si todos los valores propios de A tienen parte real negativa
(positiva), entonces el origen se llama un pozo (fuente) del sistema lineal X

=
AX.
Teorema 2.2.6. Las siguientes armaciones son equivalentes:
(a) Para todo x
0
R
n
,
lm
t
e
At
x
0
= 0
y
lm
t
[e
At
x
0
[ = .
44 CAP

ITULO 2. SISTEMAS LINEALES


(b) El origen es un pozo para el sistema lineal X

= AX.
(c) Existen constantes positivas a, c, m y M tales que para todo x
0
R
n
[e
At
x
0
[ Me
ct
x
0
, (t 0)
y
[e
At
x
0
[ me
at
x
0
, (t 0).
Demostracion. (a) (b): Si uno de los valores propios = a +ib tiene parte
real a > 0, entonces, por la forma de las soluciones existe x
0
R
n
no cero, tal
que
[e
At
x
0
[ e
at
[x
0
[.
Luego, [e
At
x
0
[ cuando t ; es decir
lm
t
e
At
x
0
,= 0.
Si uno de los valores propios tiene parte real igual a cero, digamos = ib,
entonces existe un x
0
R
n
no cero, tal que al menos una de las componentes
de la solucion es de la forma
ct
k
cos(bt) o ct
k
sin(bt); k > 0.
As que, una vez mas
lm
t
e
At
x
0
,= 0.
Por lo tanto, si no todos los valores priopios de A tienen parte real negativa,
existe x
0
R
n
no cero, tal que e
At
x
0
no converge a cero cuando t . Esto
es, la primer implicacion.
(b) (c): Si todos los valores propios de A tienen parte real negativa,
entonces por el teorema de la forma canonica de Jordan existen constantes
positivas a, c, m y M tales que para todo x
0
R
n
se satisfacen las desigualdades
deseadas.
(c) (a): Por ultimo, si las dos desigualdades se satisfacen para todo
x
0
R
n
, entonces tomando los lmites respectivos tenemos que
lm
t
[e
At
x
0
[ = 0, lm
t
[e
At
x
0
[ = , x
0
,= 0.

Es un ejercicio interesante enunciar y demostrar el resultado analogo para


puntos de equilibrio de tipo fuente.
Corolario 2.2.4. Si x
0
E
s
, entonces e
At
x
0
E
s
para todo t R y
lm
t
e
At
x
0
= 0.
Si x
0
E
u
, entonces e
At
x
0
E
u
para todo t R y
lm
t
e
At
x
0
= 0.
2.2. SISTEMAS LINEALES 45
2.2.5. Sistemas lineales nohomogeneos
En el caso en que tengamos un sistema nohomogeneo del tipo
X

= AX +b(t),
donde A es una matriz de n n y b : R R
n
es una funcion continua.
Denicion 2.2.6. Una solucion matricial fundamental de
X

= AX
es una funcion matricial de n n (t), tal que

(t) = A(t), t R.
De acuerdo con lo que hemos visto (t) := e
At
es una solucion matricial
fundamental que satisface (0) = I la matriz identidad. Mas a un, cualquier
solucion matricial fundamental del sistema esta dada por
(t) = e
At
C,
para alguna matriz nosingular C.
Una vez que hemos encontrado una solucion matricial fundamental, es sen-
cillo resolver el sistema nohomogeneo.
Teorema 2.2.7. Si (t) es una solucion matricial fundamental del sistema
X

= AX, entonces la solucion del sistema nohomogeneo X

= AX +b(t) con
condicion inicial X(0) = x
0
es unica y esta dada por
X(t) = (t)
1
(0)x
0
+
_
t
0
(t)
1
()b()d.
Demostracion. Consideremos la funcion X(t) como antes, entonces
X

(t) =

(t)
1
(0)x
0
+ (t)
1
(t)b(t) +
_
t
0

(t)
1
()b()d.
Como (t) es solucion matricial fundamental del sistema homogeneo, ten-
emos que
X

(t) = A
_
(t)
1
(0)x
0
+
_
t
0
(t)
1
()b()d
_
+b(t),
esto es,
X

(t) = AX(t) +b(t),


para todo t R.

Por lo tanto, con (t) = e


At
, la solucion del sistema lineal nohomogeneo
esta dada por
X(t) = e
At
x
0
+e
At
_
t
0
e
A
b()d.
46 CAP

ITULO 2. SISTEMAS LINEALES


Ejemplo 2.2.3. Resolvamos el problema del oscilador armonico forzado
x

+x = f(t).
Esta ecuacion puede escribirse como un sistema de la forma
x

1
= x
2
x

2
= x
1
+f(t),
o de manera equivalente en la forma X

= AX, donde
A =
_
0 1
1 0
_
y b(t) =
_
0
f(t)
_
.
En este caso,
e
At
=
_
cos(t) sin(t)
sin(t) cos(t)
_
= R(t),
es una matriz de rotacion
e
At
= R(t).
La solucion al sistema con condicion inicial x(0) = x
0
esta dada entonces
por
x(t) = e
At
x
0
+e
At
_
t
0
e
A
b()d
= R(t)x
0
+R(t)
_
t
0
_
f() sin()
f() cos()
_
d.

Вам также может понравиться