Вы находитесь на странице: 1из 128

Apunte de Ecuaciones Diferenciales Ordinarias

Prof. Manuel Del Pino


Juan Pedro Eberhard
marcos Goycoolea
21 de diciembre de 1999
Indice General

1 Ecuaciones Diferenciales de Primer Orden 1


1.1 De nicion de la Ecuacion Diferencial . . . . . . . . . . . . . . . . . . . 1
1.2 Ecuaciones Diferenciales de Variables Separables . . . . . . . . . . . . 3
1.3 Ecuaciones Homogeneas . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Ecuaciones Exactas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.1 Elementos Basicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.2 Familias de Curvas y Ecuaciones Diferenciales . . . . . . . . . 7
1.4.3 Resolucion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.4 Factor Integrante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 Ecuaciones Lineales de Primer Orden . . . . . . . . . . . . . . . . . . . 12
1.6 Ecuaciones Especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7 Existencia y Unicidad Locales . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Ecuaciones Lineales de Segundo Orden 17
2.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 E.D. de Segundo Orden Lineales con Coe cientes Constantes . . . . 25
2.2.1 Metodo de las Integraciones Sucesivas . . . . . . . . . . . . . . 27
2.2.2 Metodo de los Coe cientes Indeterminados . . . . . . . . . . . 29
2.2.3 Metodo de Variacion de Parametros . . . . . . . . . . . . . . . . 29
2.2.4 La Ecuacion de Euler . . . . . . . . . . . . . . . . . . . . . . . . . 35
3 Formas Normales y Teoremas de Comparacion 37
3.1 De nicion de Una Solucion Oscilatoria . . . . . . . . . . . . . . . . . . 37
3.2 Caracterizacion de los ceros de una E.D. Lineal . . . . . . . . . . . . 38
i
ii INDICE GENERAL
3.3 Teorema de Compacion de Sturm . . . . . . . . . . . . . . . . . . . . . 41
3.4 Formas Normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4 Ecuaciones Lineales de Orden n 47
4.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2 E.D. de Segundo Orden Lineales con Coe cientes Constantes . . . . 55
4.2.1 Metodo de las Integraciones Sucesivas . . . . . . . . . . . . . . 56
4.2.2 Metodo de los Coe cientes Indeterminados . . . . . . . . . . . 62
4.2.3 Metodo de Variacion de Parametros . . . . . . . . . . . . . . . . 62
4.2.4 La Ecuacion de Euler . . . . . . . . . . . . . . . . . . . . . . . . . 67
5 Sistemas Lineales de Primer Order 69
5.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.2 Existencia y Unicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.3 Sistemas a Coe cientes Constantes. Caso Diagonalizable . . . . . . . . . . . 76
5.3.1 Valores Propios Complejos . . . . . . . . . . . . . . . . . . . . . . . . 78
5.4 Variacion de Parametros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.4.1 El Sistema de Cauchy-Euler . . . . . . . . . . . . . . . . . . . . . . . 81
5.5 La Matriz Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6 Transformada de Laplace 93
6.1 Conceptos Basicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.2 Transformadas mas Comunes . . . . . . . . . . . . . . . . . . . . . . . . . . 94
6.3 Transformada de una Convolucion de Funciones . . . . . . . . . . . . . . . . 97
6.4 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.4.1 Metodo de la Transformada de Laplace . . . . . . . . . . . . . . . . . 98
6.4.2 Ecuaciones Integrales . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.4.3 Ecuacion de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
7 Series de Potencia 103
7.1 Series de Potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
7.2 Soluciones en series de potencias de ecuaciones diferenciales lineales 106
7.3 Ecuaciones con Coe cientes Analiticos . . . . . . . . . . . . . . . . . . 108
INDICE GENERAL iii
7.4 Metodo de Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
8 Sistemas Autonomos 117
8.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
8.2 Sistemas Autonomos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
8.3 Propiedades de las Trayectorias de un Sistema Autonomo . . . . . . . . . . . 120
8.4 Diagramas de Fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
Captulo 1
Ecuaciones Diferenciales de Primer
Orden
1.1 De nicion de la Ecuacion Diferencial
De nicion 1.1 Una ecuacion diferencial de primer orden es una expresion de la forma
dx(t) = f (t; x) (1.1)
dt
donde f (t; x) esta de nido en alguna region del plano (t; x)  IR .
2

Una solucion de la ecuacion (1.1) en un intervalo I  IR es una funcion derivable en I :


x : I ! IR
t ! x(t)

Que satisface x0(t) = f (t; x(t)). Donde x0(t)  dxdt

Ejemplo 1.1.1 La funcion x(t) = e t es solucion de la ecuacion diferencial :


2

dx = x + e t 2
(1.2)
dt
En efecto:
dx = d(e t) = 2e t = x + e t:
2
2 2

dt dt
Observemos que esta solucion esta de nida en el intervalo I = IR
1
2 CAPITULO 1. ECUACIONES DIFERENCIALES DE PRIMER ORDEN
En general una (misma?) ecuacion diferencial puede tener mas de una solucion. Por ejemplo
en (1.2) se tiene que x(t) = e t + et tambien es solucion. En efecto :
2

dx = 2e t + et = x + e t
2 2

dt
Ms aun, se puede ver que :
x(t) = e t + cet 2
(1.3)
Es solucion de (1.2), para cualquier constante c en los reales.
Es decir, asociada a la ecuacion (1.2) hemos encontrado no solo una solucion, sino que una
familia de soluciones, las cuales dependen de un parametro c. Esta familia de funciones
corresponde a una familia de curvas que recorren cierta region del espacio. Supongamos que
nos interesa determinar si alguna de estas funciones pasa por algun punto en particular de
IR .2

Ejemplo 1.1.2 Buscaremos una solucion de (1.2) que pase por el punto (0; 3). Es decir,
que satisfaga la relacion x(0) = 3.

Sabemos que x(t) = e t + cet es solucion 8c 2 IR: Imponiendo la condicion, obtenemos :


2

x(0) = 3 () 3 = e + ce = 1 + c =) c = 2:
0 0

Sustituyendo c = 2, vemos que x(t) = e t +2et es solucion de (1.2) y pasa por el punto (0; 3).
2

Observemos que la solucion esta de nida para todo t 2 IR.


Notemos que utilizando este mismo procedimiento podemos asociar a cada x 2 IR una 0

solucion x(t) de (1.2) que satisfaga x(0) = x . Mas aun, podemos encontrar una solucion de
(1.2) tal que x(t ) = x 8 (t ; x ) 2 IR .
0
2
0 0 0 0

En efecto, despejando observamos que :


x(t ) = x =) x(t ) = e t + cet =) c = x et e :
t 0
2 0
2 0 0
0 0 0
0

Luego, para cada punto del plano IR hay una funcion de la forma (1.3) que pasa por el.
2

Por otro lado, tambien es facil ver que asociado a cada punto (t ; x ), este elemento de (1.3)
0 0

es unico. Una vez que se especi ca el valor de la solucion en un punto, la solucion queda
univocamente determinada. Entonces (1.3) corresponde a una familia de curvas que no solo
recubren todo IR , sino que ademas no se intersectan entre si (>Por Que?). Por ultimo, cabe
2

preguntarse si hay soluciones de (1.2) que no sean de la forma (1.3). Para poder concluir
(Insertar dibujo)
Esta es una propiedad muy importante de algunas ecuaciones diferenciales, la cual gener-
alizaremos mas adelante. Sin embargo notemos que no siempre es cierta.
1.2. ECUACIONES DIFERENCIALES DE VARIABLES SEPARABLES 3
Ejemplo 1.1.3 La ecuacion diferencial x0 = x = sujeta a la condicion x(0) = 0 tiene mas
1 3

de una solucion asociada.

En efecto : x(t) = 0 8t y x(t) = ( ) =  t = son ambas soluciones.


2
3
3 2 3 2

En este caso no hay unicidad en la solucion. El problema, como estudiaremos mas adelante,
es que x = no es derivable en x = 0. Veremos que si f (x; t) satisface ciertas condiciones, se
1 3

tendra asegurada la existencia y unicidad de soluciones de ecuaciones diferenciales asociadas


a ciertos puntos del espacio.

1.2 Ecuaciones Diferenciales de Variables Separables


De nicion 1.2 Una ecuacion diferencial de variables separables es una ecuacion diferencial
de la forma:
x0 = p(t)h(x) (1.4)

Resolucion :
0
x0(t) = p(t)h(x) =) hx(x((tt))) = p(t) (si h(x) 6= 0)

Integrando, y tomando el cambio de variable u = x(t), obtenemos :


Z x0(t)dt Z du
h(x(t)) = h(u)
Si llamamos H (u) a la primitiva de hu
(
1
)
y P (t) a la primitiva de p(t), vemos que :
H (x(t)) = P (t) + c (1.5)

Observacion 1.2.1 La expresion (1.5) proporciona una relacion implicita entre x y t. Si


bien no siempre sera posible despejar x en funcion de t, permite describir el comportamiento
de x mediante un adecuado analisis de funciones.

Ejemplo 1.2.1 Resolvamos la ecuacion diferencial :


dx = 2t + tx (1.6)
dt x + 1 2

Claramente (1.6) es de variables separables. Basta notar que :


4 CAPITULO 1. ECUACIONES DIFERENCIALES DE PRIMER ORDEN

2t + tx = t  ( 2 + x )
x +1
2
x +1
2

Luego,
Z Z
( x2 ++x1 ) dx = t dt =) x2 ++x1 dx = t dt = t2 + c
2 2 2

Por otro lado,

Z x +1
2 Z x + 2x Z 1 2x Z
2 Z 2x 1
2+x dx = + = xdx
Z 2 + xZ 2x +24+ xZ 5 2+x
= xdx 2+x + 2+x =x 2x + 5 ln j2 + xj 2

Asi, obtenemos la relacion implicita :

x2
2x + 5 ln j2 + xj = t + c 2

Observemos que la solucion esta de nida en el intervalo I = IR

1.3 Ecuaciones Homogeneas


De nicion 1.3 Una funcion f (t; x) se dice homogenea de grado n si se tiene que:
f (kt; kx) = kn  f (t; x) 8k > 0:
De nicion 1.4 Una ecuacion homogenea es una expresion de la forma:
M (t; x)dt + N (t; x)dx = 0
Donde M (t; x) y N (t; x) son homogeneas del mismo grado.
Observacion 1.3.1
M (t; x)dt + N (t; x)dx = 0 () dx = M (t; x) = f (t; x)
dt N (t; x) (1.7)

Observacion 1.3.2 En (1.7), f (t; x) es homogenea de grado cero, pues:


kt; kx) = knN (t; x) = f (t; x) = k  f (t; x)
f (kt; kx) = MN((kt; kx) knM (t; x)
0
1.3. ECUACIONES HOMOGE NEAS 5
Observacion 1.3.3 Si t 6= 0 :
f (t; x) = f ( 1t  t; 1t  x) = f (1; xt ) (1.8)

Resolucion :
6 0 consideramos el cambio de variable z = xt . Entonces : f (t; x) = f (1; z).
Para t =
Por otro lado,
x = tz =) dx
dt = 1  z + t  dz = f (t; x)
dt
Luego,
z + t  dz
dt = f (1; z ) =) dz = f (1; z) z
dt t
Esto corresponde a una ecuacion de variables separables. Luego,
Z dz Z dt x ) = log jtj + c
f (1; z) z = t + c =) H ( t
Ejemplo 1.3.1 Consideramos la ecuacion diferencial :
dx = t + x (1.9)
dt t x
Claramente f (x; t) = tt
+ x
x es homogenea de grado 0, pues :
kt + kx = k(t + x) = t + x = f (x; t)
f (kx; kt) = kt kx k(t x) t x
Para resolver esta ecuacion, consideremos el cambio de variables z = xt . Recordamos que :
dx = d(zt) = z + t  dz
dt dt dt
Por otro lado, para t 6= 0 :
dx = t + x = 1 + x=t = 1 + z
dt t x 1 x=t 1 z
Luego,
t  dz 1+z
z = 1 + z1 zz + z = 11+ zz
2 2

=
dt 1 z
Entonces,
1 z dz = dt =) Z dz Z zdz
1+z 2
t 1+z 1 + z = log jtj + c
2 2
6 CAPITULO 1. ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Obtenemos, entonces, la relacion implicita :

arctan z 1 log(1 + z ) = log jtj + c () arctan x


2
1 log(1 + ( x ) ) = log jtj + c
2

2 t 2 t
Por ultimo, notemos que la solucion esta de nida en el intervalo I = ft 2 IRjt < xg o 1

I = ft 2 IRjt > xg

1.4 Ecuaciones Exactas


1.4.1 Elementos Basicos
Para el estudio de las Ecuaciones Exactas es conveniente recordar algunos conceptos basicos
de calculo en varias variables.

De nicion 1.5 Dada una funcion de dos variables f (t; x) se de ne:


x ! IR
x ! x(t)  f (t; x)
La derivada parcial de f (t; x) con respecto a t esta de nida como la funcion
@f (t; x) = dx (t) = lim x(t + h) x(t) = lim f (t + h; x) f (t; x)
@t dt h! 0 h h! h 0

Ejemplo 1.4.1 La derivada parcial de f (t; x) = t x con respecto a t es:


3 2

@f = 3t x 2 2

@t
Analogamente @f t;x
( )
= 2t x
3
@x

De nicion 1.6 El diferencial total de una funcion de dos variables f (t; x) es:
df (t; x) = @f (@tt; x) dt + @f@x
(t; x) dx

1 Estos intervalos dependen del valor de x, luego deben ser interpretados como IR2 n f(t; x) 2 IR2jt = xg
1.4. ECUACIONES EXACTAS 7
1.4.2 Familias de Curvas y Ecuaciones Diferenciales
Dada una familia de curvas F (x; y) = c, podemos generar una ecuacion diferencial de primer
orden, calculando su diferencial total.

Ejemplo 1.4.2 La familia de circulos concentricos esta representada por


F (x; y) = x + y = c
2 2

Esto de ne la ecuacion diferencial


dF (x; y) = 2xdx + 2ydy = 0 o equivalentemente xdx + ydy = 0
Para ser consistentes con la notacion del texto, en lo que sigue usaremos las variables (t; x),
a pesar de no ser las mas adecuadas para describir curvas.
Nos preguntamos si a partir de una expresion de la forma M (t; x)dt+N (t; x)dx = 0, podemos
obtener una familia de curvas que describa la relacion entre t y x. Es decir, si la expresion
M (t; x)dt + N (t; x)dx = 0 corresponde al diferencial total de algun F (t; x) tal que
dF (t; x) = M (t; x)dt + N (t; x)dx = 0
Esto nos sugiere la siguiente de nicion.
De nicion 1.7
Si 9 F (t; x) : IR
2
! IR
(t; x) ! F (t; x) tal que
@F (t; x) = M (t; x) @F (t; x) = N (t; x)
@t @x
Entonces se dice que la ecuacion:
M (t; x)dt + N (t; x)dx = 0 es exacta (1.10)
Si tenemos una ecuacion del tipo (1.10), entonces podemos escribir su solucion x(t) (si existe)
implicitamente como F (t; x) = c.
Ejemplo 1.4.3 La ecuacion:
xdt + tdx = 0 es exacta (1.11)
En efecto, si de nimos M (t; x) = x y N (t; x) = t, se tiene que:
(1:11) () M (t; x)dt + N (t; x)dx = 0
8 CAPITULO 1. ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Observemos que F (t; x) = t  x satisface:
@F (t; x) = x = M (t; x) @F (t; x) = t = N (t; x)
@t @x
Por lo tanto la ecuacion (1.11) es exacta, dado que representa el diferencial total de F (t; x) =
t  x.
Veamos que efectivamente si Mdt + Ndx = 0 es exacta, entonces la relacion F (t; x(t)) = c
de ne implicitamente la solucion.
En efecto:
Sea g(t) = F (t; x(t)), entonces g(t) = c 8t =) dgdt = 0.
Llamemos x(t + h) x(t) = x, entonces, suponiendo F (t; x) continua

lim g(t + h) g(t) = lim F (t + h; x + x) F (t; x(t))


h! 0 h h! h0

= hlim F ( t + h; x +  x) F (t; x + x) + F (t; x + x) F (t; x)  x


! 0h x h
= hlim F ( t + h; x +  x) F ( t; x + x) + lim F ( t; x +  x) F ( t; x)  lim x
! | 0h h!{z x } | 0 h! h {z } | {z }
0

@F (t;x) @F (t;x) dx
@t @x dt

=) 0 = @F@t
(t; x) + @F (t; x)  dx =) 0 = M (t; x)dt + N (t; x)dx
@x dt (1.12)
| {z } | {z }
M t;x( ) N t;x
( )

Dado que es dificil saber si una ecuacion diferencial proviene de un diferencial total, necesi-
tamos un criterio sencillo que nos permita determinar cuando una ecuacion es exacta.
Lema 1.1 Sea una ecuacion de la forma M (t; x)dt + N (t; x)dx = 0. Ademas se tiene que
M (t; x); N (t; x); @M@tt;x ; @N@xt;x son continuas. Si la ecuacion es exacta
( ) ( )

=) @M (t; x) = @N (t; x) (1.13)


@x @t
Demostracion 1.1 Como M (t; x)dt + N (t; x)dx = 0 es exacta, se tiene que 9F tal que
@F (t; x) = M (t; x) @F (t; x) = N (t; x)
@t @x
entonces por el teorema de Schwartz, se tiene que:
@ F (t; x) = @ F (t; x) o sea @N (t; x) = @M (t; x) 2
2 2

@t@x @x@t @t @x
1.4. ECUACIONES EXACTAS 9
1.4.3 Resolucion
Veamos ahora un metodo para resolver este tipo de ecuaciones. Sea M (t; x)dt+N (t; x)dx = 0.
Supongamos que existe F (t; x) tal que:
@F (t; x) = M (t; x) @F (t; x) = N (t; x)
@t @x
Luego, por teorema fundamental del calculo
Z (t; x) Z
F (t; x) = @F@t dt + g(x) = M (t; x)dt + g(x) (1.14)
Despejando Z @F (t; x) Z
g(x) = F (t; x) @t dt = F (t; x) M (t; x)dt
Pero g(x) es una funcion de x, luego derivando se obtiene que

g0(x) =@F (t; x) @ Z M (t; x)dt = N (t; x) @ Z M (t; x)dt


@x @x @x
Por ultimo, integrando se llega a
Z @ Z M (t; x)dtdx
g(x) = N (t; x) @x
Reemplazando g(x) en la expresion (1.14) se obtiene que
Z Z @ Z 
F (t; x) = M (t; x)dt + N (t; x) @x M (t; x)dt dx (1.15)
La expresion anterior es muy importante, pues relaciona F (t; x) con las funciones M (t; x) y
N (t; x), que son conocidas.
Observemos que F (t; x)cumple que @F@tt;x = M (t; x) y @F@xt;x = N (t; x).
( ) ( )

Observacion 1.4.1 Con el metodo expuesto antes se obtiene la reciproca del lema 1.1, pues
si M (t; x) y N (t; x) cumplen que
@M (t; x) = @N (t; x)
@x @t
Entonces podemos construir F (t; x) como lo indica la ecuacion (1.15) cuyo diferencial total
es
M (t; x)dt + N (t; x)dx = 0
10 CAPITULO 1. ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Ejemplo 1.4.4 Resolvamos la ecuacion diferencial:
(2tx sec t)dt + (t + 2x)dx = 0
2 2

Veamos que cumple con las condiciones de una ecuacion exacta:


@M (t; x) = 2t
@N (t; x) = 2t
@x @t
Como ya vimos que es exacta, encontremos la funcion F (t; x):
@F (t; x) = M (t; x) = 2tx sec t 2

@t
Integrando con respecto a t
Z
F (t; x) = (2tx sec t)dt + g(x) = 2x t2
2
2
tan t + g(x)
Por otro lado, tenemos que

N (t; x) = t + 2x = @F@x
2
(t; x) = @ (t x tan t + g(x)) = t + g0(x)
@x
2 2

Despejamos g 0 (x) para obtener g(x)


Z
t + 2x = t + g0(x) =) 2x = g0(x) =) g(x) = 2xdx
2 2

Por ultimo, como g(x) = x + c entonces se tiene que


2

F (t; x) = xt 2
tan t + x
2

Notemos que :
@F (t; x) = 2tx sec t = M (t; x) @F (t; x) = t + 2x = N (t; x)
2 2

@t @x
La expresion F (t; x) = c caracteriza una familia de curvas que de ne implicitamente la
solucion, en el caso del ejemplo an terior:
t x(t) tan t + x (t) = c
2 2

Notemos que en este caso podemos despejar x(t), obteniendo la solucion


q
t  t + 4( tan(t) + c)
2 4

x(t) = 2
1.4. ECUACIONES EXACTAS 11
1.4.4 Factor Integrante
Supongamos ahora que una ecuacion de la forma:
M (t; x)dt + N (t; x)dx = 0 (1.16)
No cumple con las condiciones (1.13). Entonces es natural preguntarse, si existe alguna
forma de transformarla en una ecuacion exacta. Supongamos que existe un (t; x), que
llamaremos factor integrante, tal que:
M (t; x)dt + N (t; x)dx = 0
es exacta. Para esto debe cumplirse que:
@ (M (t; x)) = @ (N (t; x)) =) @ M (t; x) +  @M = @ N (t; x) +  @N (1.17)
@x @t @x @x @t @t
Notemos que partiendo de una ecuacion diferencial ordinaria hemos llegado a un problema
que contiene derivadas parciales. Ahora bien, no necesitamos una solucion general de (1.17)
si no que cualquier solucion particular nos servira. Supongamos que (1.16) tiene asociado
un factor integrante que solo es funcion de x. Entonces se tiene que @=@x = d=dx y
@=@t = 0 luego podemos reescribir (1.17) como
@M t;x @N t;x
1  d = @y
( )

@x
( )

(1.18)
 dx N (t; x)
que es una ecuacion de variables separables. Resolviendola obtenemos
R @M@yt;x @N@xt;x
( ) ( )

(t; x) = e N t;x( )

Pero este razonamiento es obviamente reversible; si la expresion a la derecha en (1.18) es solo


funcion de x entonces existe un factor integrante (t; x) que solo depende de x y convierte a
(1.16) una ecuacion exacta.
En el ejemplo siguiente veremos otro caso de factor integrante y su forma de calcularlo.
Ejemplo 1.4.5 Resolvamos la ecuacion
xdt + (t x t)dx = 0
2
(1.19)
Solucion Primero veamos si la ecuacion es exacta
@M (t; x) = @x = 1 @N (t; x) = @ (t x t) = 2tx 1
2

@x @x @t @t
12 CAPITULO 1. ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Como ambas expresiones no son iguales, la ecuacion no es exacta. Pero, veamos si podemos
encontrar un factor integrante para la ecuacion (1.19). Calculemos
@M @N
@x @t = 1 (2tx 1) = 2(tx 1) = 2
N (t; x) tx t
2
t(tx 1) x
Que es funcioon solo de t. Por consiguiente
R
(t) = e =t dt = e
(2 ) t =t 2 log( ) 2

Es nuestro candidato a factor integrante. A continuacion, veamos si t es factor integrante


2

de la ecuacion (1.19). Efectivamente


x dt + (t x t) dx = 0
2

t
2
t 2

es exacta, ya que
@ (xt ) = @ ((t x t)t ) = 1
2 2 2

(1.20)
@x @t t
2

A modo de ejercicio, proponemos al lector resolver la ecuacion exacta (1.20).

1.5 Ecuaciones Lineales de Primer Orden


De nicion 1.8 Una ecuacion lineal de primer orden es una expresion de la forma:
dx + P (t)x = Q(t) (1.21)
dt
Donde P (t) y Q(t) son funciones continuas en un intervalo I  IR.
De nicion 1.9 De namos un espacio muy importantes en el estudio de las ecuaciones difer-
enciales.
Sea C (I ) = ff (t) : I ! IR j f 0 (t) es continua g, el espacio de las funciones con derivada
1

continua.
Observacion 1.5.1 Si x(t) es solucion de (1.21) entonces se tiene que x(t) 2 C (I ). 1

Demostracion
Del hecho de que x(t) tenga derivada, se desprende que es continua. Por otro lado, despejando
dx de la ecuacion (1.21) obtenemos que
dt
dx = Q(t) P (t)x(t)
dt
Notemos que el lado derecho de la igualdad es continuo, debido a que Q(t); P (t) y x(t) son
continuas, luego se concluye que la derivada es continua.
1.5. ECUACIONES LINEALES DE PRIMER ORDEN 13
Observacion 1.5.2 Asociada a la ecuacion (1.21) podemos de nir el operador

L : C (I ) ! C (I )
1 1

x(t) ! L(x) = dx
dt + P (t)x(t)
se tiene que L es un operador lineal.en el sentido de que L( x + y) = L(x) + L(y).
Diremos quex(t) es solucion de la ecuacion (1.21) ssi L(x) = Q(t). Debido a lo anterior
decimos que la ecuacion es lineal.
Observacion 1.5.3 La expresion (1.21) es equivalente a :
1 dx = 0
(|P (t) x{z Q(t) )} dt + |{z} (1.22)
M x;t
( )
N x;t
( )

Resolucion :
Notamos que la expresion (1.22) no siempre es exacta. Sin embargo :
@M @N
N = P (t)
@x @t (1.23)
Depende solamente de t. Luego, de (1.18) tenemos que :
R ( @N@t @M
@x )dx
R P t dt
(t) = e M =e ( )
(1.24)
es factor integrante. Multiplicando (1.22) por (t), obtenemos :
R R
e P t dtdx + e P t dt(P (t) x Q(t))dt = 0
( ) ( )
(1.25)
lo cual es una ecuacion exacta.
Para resolver (1.21) procederemos de una manera alternativa. Multiplicando (1.21) directa-
mente por (x) obtenemos :
R P t dt dx R P t dt R P t dt
e ( )

dt + e R P (t)x = eR
( )
Q(t) ( )

(e P t dtx)0 = eZ P t dtQ(t)
( ) ( )

R R
(e P t dtx) = e P t dtQ(t) + C
( ) ( )

Despejando, obtenemos la siguiente expresion explicita para x(t):


R P t dt Z R 
x(t) = e ( )
Q(t)e P t dtdt + C
( )
14 CAPITULO 1. ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Ejemplo 1.5.1 Encontremos la solucion de:
x0 + 2x = 3et (1.26)
R dt
Como P (t) = 2, multiplicamos (1.26) por (t) = e 2
= e t, obteniendo :
2

e tx0 + 2e tx = 3e t () d(edt x) = 3e t
2t
2 2 3 3

Integrando,
Z Z
e2 tx(t) = 3e
3 tdt + C =) x(t) = e t(3
2
e tdt + C ) = et + Ce
3 t
2

Ejemplo 1.5.2 Resolvamos :


1 dx 2x = t cos(t) (1.27)
t dt t 2

x(=2) = 3
Para resolver (1.27) escribimos la expresion de forma estandard :

x0 2tx = t cos(t) 2
(1.28)
R
Como P (t) = t , multiplicamos (1.28) por (t) = e t dt = t , obteniendo :
2
2 2

t  dx
dt 2t x = cos(t)
2 3

(x  t )0 = cos(t)
2

=) x(t) = t sen(t) + ct 2 2

Imponiendo x(=2) = 3 :
     
3 = x(=2) = 2 sen 2 + c 2 = 4 (c + 1) =) c = 12 1
2 2 2

Luego, la solucion de (1.27) es :

x(t) = t sent + ( 12 1) t


2

2
2
1.6. ECUACIONES ESPECIALES 15
1.6 Ecuaciones Especiales
De nicion 1.10 Una ecuacion de Bernoulli es una expresion de la forma
dx + P (t)x = Q(t)xn
dt
Notemos que esta ecuacion no es lineal y por lo tanto no se pueden usar los metodos antes
descritos.
Resolucion:
Tomemos el cambio de variables u(t) = x n (t) para obtener una ecuacion diferencial cono-
1

cida. En efecto:
dx + P (t)x = Q(t)xn =) x n  dx + P (t)x n = Q(t)
1

dt dt
por el cambio de variable u(t) = x n(t) se tiene que u0(t) = (1 n)x n  dx
1

dt
0
Reemplazando: u (t) + P (t)u = Q(t)
1 n
Hemos llegado a una ecuacion lineal que se resuelve con el metodo anterior, luego basta
despejar x(t) para llegar al resultado nal.
Ejemplo 1.6.1 Resolvamos la ecuacion de Bernoulli sujeta a una condicion inicial
t dx
2

dt 2 tx = 3 x con x(1) = 1
4

2 (1.29)
Solucion Primero escribamos la ecuacion (1.29) en su forma estandar
dx 1 x = 3 x 4

dt t t 2

Ahora como hemos reconocido que n = 4, tomemos el cambio de variable u(t) = x n(t) =1

x (t). Luego, la ecuacion se transforma en


3

u0(t) 1 u(t) = 3 () u0(t) + u(t) = 9


3 t t 2
t t 2

Resolviendo esta ecuacion con los metodos vistos en el capitulo e imponiendo la condicion
inicial, obtenemos
x (t) = u(t) = 95 t + 49
3 1

5t
6

Por ultimo despejando x(t) se llega a la solucion nal.


16 CAPITULO 1. ECUACIONES DIFERENCIALES DE PRIMER ORDEN
1.7 Existencia y Unicidad Locales
Como ya se menciono en el principio del capitulo, es necesario saber si la solucion que
hemos encontrado es la unica. Para resolver esta pregunta, el siguiente teorems entrega las
condiciones para asegurar la existencia y unicidad de la solucion.
Teorema 1.1 Sea (t ; x ) un punto@f del plano. Sea I un abierto en IR , que contiene a
2

(t ; x ). Supongamos que f (t; x) y @x (t; x) son continuas en I . Entonces


0 0

0 0

dx = f (t; x) tal que x(t ) = x


dt 0 0

Posee una unica solucion x(t), de nida en un intervalo abierto, que contiene a t .
0

El teorema anterior nos entrega la existencia de la solucion en una region del plano. Esto
motiva la siguiente de nicion.
De nicion 1.11 El abierto de IR mas grande donde existe la solucion x(t) es llamado
2

Region de Existencia.
De nicion 1.12 La solucion de nida sobre la region de existencia, es llamada Solucion
Maximal.
Observacion 1.7.1 Para entender el teorema de existencia y unicidad, pensemos en la
siguiente interpretacion. Sean x(t) e y(t) dos soluciones de la ecuacion diferencial (1.1) y
supongamos que ellas coinciden en un punto x . Aplicando el teorema podemos decir que
x(t)  y(t), es decir, x(t) e y(t) coinciden en todos los puntos.
0

Observacion 1.7.2 Otro aspecto fundamental del teorema de existencia y unicidad, es el


hecho de que a cada punto (t ; x ) de IR le puedo asociar una unica solucion de (??) que
0 0
2

tenga como condicion inicial el punto (t ; x ).


0 0
Captulo 2
Ecuaciones Lineales de Segundo
Orden
2.1 Introduccion
De nicion 2.1 Una ecuacion diferencial lineal de segundo orden es una expresion de la
forma:
x00 + a(t)x0 + b(t)x = f (t) (2.1)
donde a; b; f son funciones continuas en algun intervalo I  IR.

Ejemplo 2.1.1 Un ejemplo de este tipo de ecuaciones es el oscilador armonico, cuya ecuacion
es de la forma :
mx00 = kx x0 + f (t)
En este ecuacion, m representa la masa del cuerpo, k la constante elastica del resorte, la
constante de roce y f (t) es la fuerza externa.

Ejemplo 2.1.2 Una ecuacion sencilla de este tipo, es


x00 = f (t) (2.2)
Para resolver esta ecuacion, basta integrar dos veces, obteniendo
ZZ
x(t) = f (t)dt + c t + c
1 2 (2.3)
Esto corresponde una familia de ecuaciones dependiente de dos parametros.

Observacion 2.1.1 Si x(t) es solucion de (2.1), se tiene que x(t) 2 C (I ).


2

17
18 CAPITULO 2. ECUACIONES LINEALES DE SEGUNDO ORDEN
Demostracion
Dado que x(t) es solucion de (2.1), se tiene que es dos veces derivable. Esto implica que
x(t) 2 C (I ). Por otro lado, despejando, observamos que
1

x00(t) = f (t) a(t)x0 b(t)x


Como x00(t) es suma, y multiplicacion de funciones continuas, se tiene que x00(t) es continua.
Luego x(t) 2 C (I ). 2

Observacion 2.1.2 Asociada a la ecuacion (2.1), podemos de nir el operador


L : C (I ) ! C (I )
2

x(t) ! L(x) = x00 + a(t)x0 + b(t)x


Se tiene que L es un operador lineal, en el sentido que 8 ; 2 IR L( x + x ) = L(x )+
L(x ). Tendremos que x(t) es solucion de (2.1) ssi L(x) = f: Por esto decimos que (2.1)
1 2 1

es una ecuacion lineal.


Veamos que L es continua.
L( x + x ) = 1 2 ( x + x )00 + a(t)( x + x )0 + b(t)( x + x )
1 2 1 2 1 2

= x00 + x00 + a(t)( x0 + x0 ) + b(t)( x + x )


1 2 1 2 1 2

= (x00 + a(t)x0 + b(t)x ) + (x00 + a(t)x0 + b(t)x )


1 1 1 2 2 2

= L(x ) + L(x ) 2
1 2

Observacion 2.1.3 Aunque nuestro proposito es encontrar soluciones reales, es conve-


niente para efectos de calculo considerar esta teoria en los numeros complejos. Es decir,
suponemos que las funciones a; b; f estan de nidas en I sobre CI , y buscamos una solucion
x : I ! CI .
Ejemplo 2.1.3 La ecuacion x00 + x = 0 tiene fsin(t); cos(t)g como soluciones reales.
Notamos que tambien tiene las soluciones complejas, feit ; e itg
Observacion 2.1.4 Sean a(t); b(t) funciones reales, y x(t) una solucion compleja de
x00(t) + a(t)x0(t) + b(t)x(t) = 0 (2.4)
Si x(t) lo podemos escribir como x(t) = x (t) + ix (t), donde x ; x son funciones reales,
1 2 1 2

entonces x ; x son soluciones de (2.4)


1 2

Demostracion Observacion 2.1.4


De niendo L como en la observacion (2.1.2), tendremos que x ; x son soluciones de (2.4),
si L(x ) = L(x ) = 0. Pero,
1 2

1 2

L(x) = L(x + ix ) = L(x ) + iL(x )


1 2 1 2
2.1. INTRODUCCIO N 19
Como x (t); x (t); a(t); b(t) son reales, tenemos que L(x ); L(x ) son reales. Ademas, como
1 2 1 2

x(t) es solucion, tenemos


L(x) = 0 =) L(x ) + iL(x ) = 0
1 2

Por ultimo, igualando parte real e imaginaria a cero, obtenemos


L(x ) = L(x ) = 0 2
1 2

De nicion 2.2 Una ecuacion diferencial lineal de segundo orden homogenea es una expre-
sion de la forma :
x00 + a(t)x0 + b(t)x = 0 (2.5)
Observacion 2.1.5 Toda ecuacion lineal de segundo orden
x00(t) + a(t)x0(t) + b(t)x(t) = f (t)
tiene asociada una ecuacion homogenea.
De nicion 2.3 Dada una ecuacion diferencial lineal de segundo orden
x00(t) + a(t)x0(t) + b(t)x(t) = f (t) (2.6)
Si L es el operador diferencial asociado a (2.6), llamamos H(L) al conjunto de soluciones
de su ecuacion homogenea asociada. Es decir,
H(L) = f x(t) j L(x) = 0g = Ker(L)
Analogamente, llamaremos J (L) al conjunto de soluciones de (2.6). Es decir,
J (L) = f x(t) j L(x) = f g = L (f ) (??) 1

Teorema 2.1 Consideramos la ecuacion diferencial


x00(t) + a(t)x0(t) + b(t)x(t) = f (t) (2.7)
y su ecuacion homogenea asociada,
x00(t) + a(t)x0(t) + b(t)x(t) = 0 (2.8)
Sean xp(t); xq(t) soluciones de (2.7) (Las llamaremos soluciones particulares), y sea xh (t)
solucion de (2.8) (la llamaremos solucion homogenea).
1. xp + xh es solucion de (2.7).
2. xp xq es solucion de (2.8).
20 CAPITULO 2. ECUACIONES LINEALES DE SEGUNDO ORDEN
Demostracion Teorema 2.1
1. Por linealidad de L se tiene que
L(xp + xh) = L(xp) + L(xh ) = f (t) + 0 =) L(xp + xh) = f (t)
luego xp + xh es solucion de (2.7).
2. Sea x(t) = (xp xq)(t). Por linealidad de L se tiene que
L(x) = L(xp xq ) = L(xp) L(xq ) = f (t) f (t) = 0
Luego, x(t) es solucion de (2.8)
Lema 2.1 H(L) es espacio vectorial. Es decir, si x (t); x (t) 2 H(L), se tiene que x (t) +
x (t) 2 H(L):
1 2 1

Demostracion Lema 2.1 Sean x (t); x (t) 2 H(L): Sean ; 2 C. I Veamos que x(t) =
x (t) + x (t) 2 H(L): En efecto,
1 2

1 2

L( x (t) + x (t)) = L(x ) + L(x ) = 0:


1 2 1 2

Observacion 2.1.6 Del Lema (2.1), y de la observacion (2.1.1), tenemos que H(L) es
subespacio vectorial de C (I ). Recordando que C (I ) es de dimension in nita, la pregunta
2 2

natural que sigue, es >Cual es la dimension de H(L)? Antes de respondernos esta pregunta
es importante recordar la nocion de dependencia lineal que se usa sobre los espacios de
funciones.
De nicion 2.4 Dada una familia de funciones ffi(t)gki , se dicen linealmente dependi-
entes si existe una familia de constantes f igki no todas nulas, tales que
=1

=1

X
k
ifi(t) = 0 8t
i =1

En caso contrario ffi (t)gki se dicen linealmente independientes.


=1

Teorema 2.2 H(L) es espacio vectorial de dimension dos.


Esto quiere decir que existe un par de soluciones x (t); x (t) 2 H(L), linealmente inde-
pendientes, tales que para toda funcion x(t) 2 H(L), existen ; 2 CI tales que x(t) =
1 2

x (t) + x (t)
1 2

Antes de poder demostrar esto, sera necesario demostrar algunos resultados previos. Es
importante notar, sin embargo, que el grueso de los resultados que veremos provienen de un
teorema muy importante cuya demostracion, por razones pedagogicas omitiremos Este es 1

el teorema de Existencia y Unicidad para ecuaciones lineales de segundo orden.


1 Los interesados pueden consultar el apendice.
2.1. INTRODUCCIO N 21
Teorema 2.3 (Existencia y Unicidad)
Consideramos la ecuacion diferencial lineal de segundo orden
x00 + a(t)x0 + b(t)x = f (t) (2.9)
Donde f (t); a(t); b(t) 2 C (I ). Dado to 2 I , y dados y ; y 2 IR, existe una unica solucion
x(t) de la ecuacion 2.1 de nida en todo el intervalo I , tal que x(to) = y ,y x0(to ) = y .
0 1

0 1

Observacion 2.1.7 Interpretacion del Teorema de Existencia y Unicidad


1. El Teorema de Existencia y Unicidad nos dice que si dos soluciones x(t); y(t) de (2.9),
son tales que x(t ) = y(t ); x0(t ) = y0 (t ), para algun t 2 I , se tiene que x(t) =
y(t) 8t 2 I . Es decir, si x(t); y(t) coinciden en un punto, y sus derivadas tambien
0 0 0 0 0

coinciden en el mismo punto, entonces x(t) e y(t) coinciden en todos los puntos de I .
2. El Teorema de Existencia y Unicidad asegura que para todo punto (t ; x ) de IR , existe 0 0
2

una solucion de (2.9), cuya trayectoria pasa por (t ; x ). Es decir, existe x(t), tal que
0 0

x(t ) = x .
0 0

Lema 2.2 Sea x(t) una solucion de (2.5). Si existe algun to 2 I tal que x(to) = 0, y
x0(to) = 0, entonces x(t) = 0 8t 2 I .

Demostracion Lema (2.2)


Supongamos que existe x 2 H(L) tal que x(to) = 0, y x0(to) = 0.
Sabemos que la funcion trivial, z(t)  0 es solucion de (2.5). Ademas es evidente que
z(to) = 0, y z0(to) = 0.
Como el Teorema de Existencia y Unicidad nos dice que solo puede haber una solucion de
(2.5) que cumpla con ambas condiciones, sabemos que necesariamente se debe tener que
z(t) = x(t) 8t 2 I . Luego x(t) = 0 8t 2 I 2.

De nicion 2.5 Sean x ; x 2 H(L), de nimos su Wronskiano como la funcion determi-


1 2

nante:
x ( t) x ( t
1)
W (x ; x )(t) = x0 (t) x0 (t) = x (t)x0 (t) x (t)x0 (t)
2
1 2 1 2 2 1
1 2

Observacion 2.1.8 Notemos que si x ; x 2 H(L) son linealmente dependientes, entonces


se tiene que W (x ; x )(t) = 0 8t 2 I . En efecto:
1 2

1 2

Si x ; x son l.d. entonces existen ; no ambos nulos tal que x (t) + x (t) = 0 8t 2 I .
1 2 1 2

Esto implica que necesariamente x0 (t) + x0 (t) = 0 8t 2 I . Es decir,


1 2
22 CAPITULO 2. ECUACIONES LINEALES DE SEGUNDO ORDEN

" #" # " #


x (t) x (t) = 0 8t 2 I
1 2

x0 (t) x0 (t) 0
| {z 1
} 2

MW t ( )

Esto implica que MW (t) es singular ( i.e. Ker(MW (t)) 6= f0g 8t 2 I ), luego det MW (t) =
0 8t 2 I . Como W (x ; x )(t)  det MW (t)8t 2 I , concluimos el resultado.
1 2

Teorema 2.4 Sean x (t); x (t) 2 H(L). Si existe to 2 I tal que W (x ; x )(t ) = 0, entonces
1 2 1 2 0

estas soluciones son linealmente dependientes.


Demostracion Teorema 2.4
Sean x (t); x (t) 2 H(L), y t 2 I tales que
1 2 0


x ( t ) x ( t )
W (x ; x )(t ) = x0 (t ) x0 (t ) = 0
1 0 2 0
1 2 0

| {z } 1 0 2 0

Mw t ( )

Como det(Mw (t)) = 0, sabemos que existen ; , no ambos nulos, tales que
" #" # " #
x (t ) x (t )
1 0 2 0 = 0
x0 (t ) x0 (t )
1 0 2 0 0
Luego
x (to) + x (to) = 0 y x0 (to) + x0 (to) = 0:
1 2 1 2

De niendo x(t) = x (t) + x (t), observamos que :


1 2

1. x(t) 2 H(L), pues H(L) es espacio vectorial cerrado.


2. x(t ) = 0, y x0(t ) = 0.
0 0

Luego del Lema (2.2) tenemos que x(t) = 0 8t 2 I . Como encontramos ; no ambos nulos,
t.q. x (t) + x (t) = 0 8t 2 I , concluimos que x ; x son linealmente dependientes. 2
1 2 1 2

Corolario 2.1 Sean x (t); x (t) 2 H(L).


1 2

1. Si existe to 2 I tal que W (x ; x )(t ) = 0, entonces W (x ; x )(t) = 0 8t 2 I . Luego,


x (t); x (t) son l.d. ssi existe to 2 I tal que W (x ; x )(t ) = 0.
1 2 0 1 2

1 2 1 2 0

2. Si existe to 2 I tal que W (x ; x )(t ) 6= 0, entonces W (x ; x )(t) 6= 0 8t 2 I . Luego,


x (t); x (t) son l.i. ssi existe to 2 I tal que W (x ; x )(t ) 6= 0.
1 2 0 1 2

1 2 1 2 0
2.1. INTRODUCCIO N 23
Teorema 2.5 Existen x (t); x (t) 2 H(L), tales que son linealmente independientes.
1 2

Demostracion del Teorema 2.5


Del Teorema de Existencia y Unicidad, sabemos que existe x (t) solucion de (2.5) tal que 1

x (to) = 1 y x0 (to) = 0. Tambien sabemos que existe x (t) solucion de (2.5) tal que x (to) = 0
1 2 2

y x0 (to) = 1. Para estas dos funciones se tiene que


1


x ( to ) x ( to ) 1 0
W (x ; x )(to) = x0 (t ) x0 (t ) = 0 1 = 1: 1 2

o o
1 2
1 2

Como W (x ; x )(t ) 6= 0, sabemos que x (t) y x (t) son linealmente independientes. 2.


1 2 0 1 2

El ultimo paso en la demostracion que H(L) es un espacio vectorial de dimension dos es el


siguiente.
Teorema 2.6 Sean x ; x 2 H(L) linealmente independientes. Se tiene que para cada x(t)
existen ; constantes tales que x(t) = x (t) + x (t) 8t 2 I .
1 2

1 2

Demostracion Teorema 2.6


Como x (t); x (t) son l.i. en I , sabemos que para t cualquiera en I se tendera que
W (x ; x )(t ) 6= 0. Como la matriz que de ne W (x ; x )(t ) es de determinante no nulo ,
1 2 0
2

sabemos que es invertible. Luego, existen constantes ; 2 IR, no ambas nulas, tales que :
1 2 0 1 2 0

#" # " " #


x (to) x (to) = x(to) 1 2
(2.10)
x0 (to) x0 (to) x0(to)
1 2

Si consideramos y(t) = x (t) + x (t), es claro del Lema (2.1) que y(t) 2 H(L). Por
1 2

otro lado, de (2.10) tenemos y(to) = x(to); y0(to) = x0(to). Como el teorema de existencia
y unicidad asegura que solo puede existir una funcion con esas caracteristicas, tenemos que
necesariamente x  y = x + x 2 1 2

Observacion 2.1.9 De lo anterior es trivial concluir que la dimension de H(L) es dos, pues
de (2.5) sabemos que existe una familia l.i. de dos funciones en H(L) que genera, mediante
combincacion lineal, a todas las otras soluciones.
De nicion 2.6 Decimos que una solucion general de (2.1) es una expresion de la forma
x(t) = xp(t) + c x (t) + c x (t)
1 1 2 2 (2.11)
En que fx (t); x (t)g es una base cualquiera de H(L), y xp(t) es una funcion cualquiera de
J (L). En general, diremos que xp(t) es una solucion particular de (2.1), y que c ; c son los
1 2

1 2

parametros de (2.11).
2 A esta matriz le llamamos A(t0 ) anteriormente.
24 CAPITULO 2. ECUACIONES LINEALES DE SEGUNDO ORDEN
Teorema 2.7 Sea fx (t); x (t)g una base cualquiera de H(L), y xp(t) es una funcion cualquiera
de J (L). Se tiene que para toda solucion x(t) de (2.1), existen constantes c ; c , tal que
1 2

1 2

x(t) = xp(t) + c x (t) + c x (t) 1 1 2 2

Demostracion
Sea x(t) una solucion de (2.1). Por ser fx (t); x (t)g un conjunto linealmente independiente
de soluciones del problema homogeneo, se tiene que W (x ; x )(t) 6= 0 8t 2 I . Luego, para
1 2

a; b 2 IR, se tiene que existen c ; c 2 IR tales que :


1 2

1 2

" #" # " #


x (t) x (t)
1 2 c 1
= ab 8t 2 I
x0 (t) x0 (t)
1 2
c 2

De nimos y(t) = xp(t) + c x (t) + c x (t). Es facil ver que y(t) es solucion de (2.1).
1 1 2 2

Sea t 2 I , y tomemos a = x(t ) xp(t ); b = x0(t ) x0p(t ). Notemos que


0 0 0 0 0

y(t ) = xp(t ) + c x (t ) + c x (t ) = xp(t ) + x(t ) xp(t ) = x(t ).


0 0 1 1 0 2 2 0 0 0 0 0

y0(t ) = x0p(t ) + c x0 (t ) + c x0 (t ) = x0p(t ) + x0(t ) x0p(t ) = x0(t ).


0 0 1 1 0 2 2 0 0 0 0 0

Luego, como y(t); x(t) son soluciones de (2.1). Y como x(t ) = y(t ); x0(t ) = y0(t ), se tiene,
por Teorema de Existencia y Unicidad, que x(t) = y(t) 8t 2 I . Luego,
0 0 0 0

x(t) = xp(t) + c x (t) + c x (t):


1 1 2 2

Con lo que concluimos la demostracion del teorema.


Resolucion
De lo anterior se tiene que para determinar una solucion de
x00 + a(t)x0 + b(t)x = f (t) (2.12)
x(t ) = y ; x0(t ) = y 0 0 0 1 (2.13)
Es necesario seguir los siguientes pasos
1. Encontrar dos soluciones x (t); x (t) , linealmente independientes, de la ecuacion ho-
1 2

mogenea.
2. Encontrar una solucion particular xp(t).
3. Escribir la solucion general x(t) = xp(t) + c x (t) + c x (t) 1 1 2 2

4. Ajustar las constantes c y c para que la solucion general satisfaga las condiciones
1 2

x(t ) = y ; x0(t ) = y .
0 0 0 1
2.2. E.D. DE SEGUNDO ORDEN LINEALES CON COEFICIENTES CONSTANTES25
Ejemplo 2.1.4 Consideremos la ecuacion diferencial lineal de segundo orden :
x00 x = e t 2
(2.14)
Veamos que x (t) = senh(t); x (t) = et son base de soluciones del problema homogeneo
1 2

x00 x = 0 (2.15)
1. x (t) = senh(t) es solucion de (2.14). En efecto,
1

(senh(t))00 senh(t) = senh(t) senh(t) = 0 8t:


2. x (t) = et es solucion de (2.14). En efecto,
2

(et)00 et = et et = 0 8t:
3. x (t) = senh(t); x (t) = et son linealmente independientes. En efecto,

1 2

senh( t) e t
W (x ; x )(t) = cosh(t) et = et(senh(t) cosh(t)) = et( e t) = 1 6= 0 8t:
1 2

Veamos que xp(t) = e t es solucion particular. En efecto,


1
3
2

( 13 e t)00 31 e t = 34 e t 13 e t = e t:
2 2 2 2 2

Luego, una solucion general de (2.15) seria la expresion:


x(t) = 13 e t + c senh(t) + c et
2
1 2

Notemos que esta no es la unica.


Se puede demostrar que los conjuntos fet; e t g y fcosh(t); e tg tambien son base de soluciones
del problema homogegeo.
Lo importante, es que si bien todas las soluciones generales de una ecuacion lineal de segundo
orden son equivalentes, se tiene que hay diferentes formas de representarlas.

2.2 E.D. de Segundo Orden Lineales con Coe cientes


Constantes
Hasta ahora, hemos estudiado las ecuaciones diferenciales de segundo orden en forma ab-
stracta, sin especi car como obtener soluciones particulares y homogeneas.
En esta seccion estudiaremos mas detalladamente un caso particular de ecuaciones difer-
enciales lineales de segundo orden. Para estas ecuaciones, estudiaremos como obtener las
soluciones del problema homogeneo asociado, asi como una forma de obtener una solucion
particular.
26 CAPITULO 2. ECUACIONES LINEALES DE SEGUNDO ORDEN
De nicion 2.7 Una Ecuacion Diferencial Lineal de Segundo Orden a Coe cientes Con-
stantes es una expresion de la forma :
x00(t) + ax0(t) + bx(t) = f (t) (2.16)
Donde a; b son constantes en CI , y f (t) es una funcion continua en I .

Adoptaremos en esta seccion la siguiente notacion:


D x = x
0

D x = x0
D x = x00
2

En que D corresponde al operador que a una funcion le asigna su funcion derivada.


Utilizando esta notacion, podemos escribir la ecuacion 2.16 como :
D x + Dax + bx = (D + Da + b)x = f
2 2
(2.17)

Asociamos al operador diferencial (D + Da + b) el polinomio cuadratico P () =  + a + b.


2 2

Por el Teorema Fundamental del Algebra, si  ;  son las raices P (), sabemos que :
1 2

P () = (  )(  ) 1 2

Lo que no resulta tan evidente es que los polinomios de operadores tambien heredan esta
propiedad.

Propiedad 2.2.1 El operador diferencial D + aD + b se puede escribir como (D  )(D


2
1

 ), donde  ;  son las raices del Polinomio cuadratico asociado al operador diferencial.
2 1 2

Demostracion propiedad 2.2.1


(D  )(D  )x =
1 2 (D  ) [(D  )x]
1 2

= (D  ) [x0  x]
1 2

= [x0  x]0  [x0  x]


2 1 2

= x00  x0  x0 +   x
2 1 1 2

= x00 ( +  )x0 +   x
1 2 1 2

= (D 2
+ aD + b)x
2.2. E.D. DE SEGUNDO ORDEN LINEALES CON COEFICIENTES CONSTANTES27
2.2.1 Metodo de las Integraciones Sucesivas
Volvemos a considerar la ecuacion diferencial 2.16, esta vez escrita de la forma
(D  )(D  )x = f (t) 1 2 (2.18)
Resolucion
Para resolver (4.14) resolvemos las dos siguientes ecuaciones lineales diferenciales de primer
orden :

(D  )y(t) = f (t) 1 (2.19)


(D  )x(t) = y(t) 2 (2.20)
Observemos que (4.17) es equivalente a la ecuacion lineal de primer orden :

y0(t)  y(t) = f (t) 1

Utilizando los metodos vistos en el capitulo 1, es facil veri car que :


Z 
y(t) = e  t  t
e f (t)dt + c 1 1
1

La ecuacion (4.18), luego, es equivalente a :


Z 
x0(t)  x(t) = e t 2
1
e 1 t f (t)dt + c
1

Como esta tambien corresponde a una ecuacion lineal de primer orden, sabemos que :
 Z Z   
x(t) = e2t
e e  t  t 2 t
e f (t)dt + c dt + c 1 1

Z Z 
1 2

Z
= e t e  
2 t  t
e f (t)dt + c e
( 1  t
2)
e   tdt + c e t 1 2 ( 1 2) 2
1 2

Hay dos casos posibles :


1. Si  6=  tenemos que :
1 2

Z e   t = c e t = c~ e t
( 2)
e2t e 2 tdt = c e2t
1
c 1
( 1 )
1
(  ) (  )
1
1
1
1

1 2 1 2

Luego, Z Z 
x(t) = e t 2
e ( 1 2 t )
e 1 t f (t)dt + c e t + c e t:
1
1
2
2
28 CAPITULO 2. ECUACIONES LINEALES DE SEGUNDO ORDEN
2. Si  =  tenemos que :
Z Z
1 2

c 1 e2t e 1 2 tdt = c e2t


( )
1 dt = c e tt: 1
2

Luego, Z Z 
x(t) = e2t e ( 1 2 t
)
e 1 t f (t)dt + c te t + c e t:
1
2
2
2

Teorema 2.8 La base del conjunto de soluciones asociada a la ecuacion


x00(t) + ax0(t) + bx = 0 (2.21)
Es fe t; e tg si  6=  , y es fe t; te tg si  =  , donde  ;  son las raices del
1 2 1 1

polinomio caracteristico asociado.


1 2 1 2 1 2

Demostracion
1. Primero consideramos el caso en que  6=  . 1 2

Si i es raiz del polinomio caracteristico asociado a (2.21) se tiene que :


(eit)00 + a(eit)0 + b(eit) = (i) eit + aieit + beit = eit((i ) + ai + b) = 0
2 2

Luego, eit es solucion.


Por otro lado,
 t  t

e e
W (x ; x )(t) =  e t  e t = (
1 2
 )e  (  t 6= 0
1+ 2 )
8t 2 IR
1 2 1 2 2 1
1 2

Luego fe t; e tg son l.i. y base.


1 2

2. Consideramos el caso en que  =  = . 1 2

De lo anterior es claro que et es solucion.


Por otro lado, tenemos que :
(tet)00 + a(tet)0 + b(tet) = tet( + a + b) + et(2 + a) = et(2 + a) 2

Pero, como sabemos que 2 = a, tenemos que :


et(2 + a) = 0 =) tet es solucion.
Por utlimo :
t
e
W (x ; x )(t) = e tet = e t 6= 0 8t 2 IR

2
1 2 t tet + et

Luego, fet; tetg es base.


2.2. E.D. DE SEGUNDO ORDEN LINEALES CON COEFICIENTES CONSTANTES29
Observacion 2.2.1 Del Teorema anterior observamos que la solucion de (2.16) dada por
el metodo de las integraciones sucesivas es una solucion general.
Ejemplo 2.2.1 Encontremos las soluciones generales de :
1. x00 + 5x0 6x = 0
2. x00 2x0 + x = 0
1. x00 + 5x0 6x = 0 () (D + 5D 6)x = 0 =) P () =  + 5 6 = ( + 6)( 1)
2 2

Luego, la solucion general es x(t) = c e t + c et:


1
6
2

2. x00 2x0 + x = 0 () (D 2D + 1)x ==) P () = 


2 2
2 + 1 = ( 1)( 1)
Luego, la solucion general es x(t) = c et + c tet:
1 2

Observacion 2.2.2 Si a; b son reales, tenemos que si  = + i es raiz compleja,  =


i tambien lo es. Veamos que a partir de las soluciones complejas fe i; e ig podemos
+

construir dos soluciones reales que sean linealmente independientes.


Efectivamente, como e i es solucion, L(e i ) = 0. Luego,
+ +

L(e i) = L(e (cos( t) + isen( t))) = L(e cos( t)) + iL(e sen( t)) = 0
+

Igualando parte real e imaginaria, obtenemos


L(e cos( t)) = 0 L(e sen( t)) = 0
Luego, fe tcos( t); e tsen( t)g son soluciones.
Por otro lado,
W (e tcos( t); e tsen( t))(t) = e t 6= 0
2

luego, son linealmente independientes.


Ejemplo 2.2.2 Ejemplo del pendulo.

2.2.2 Metodo de los Coe cientes Indeterminados


2.2.3 Metodo de Variacion de Parametros
Consideramos una ecuacion diferencial de la forma :

x00(t) + a(t)x0(t) + b(t)x(t) = f (t) (2.22)


30 CAPITULO 2. ECUACIONES LINEALES DE SEGUNDO ORDEN
Donde f (t); a(t); b(t) son continuas, y a(t); b(t) no son necesariamente constantes.
Sean x (t); x t) soluciones linealmente independientes de la ecuacion homogenea
1 (

x00(t) + a(t)x0(t) + b(t)x(t) = 0 (2.23)


asociada a (4.19)
En esta seccion estudiaremos un metodo que nos permitira obtener soluciones particulares
para ecuaciones lineales de segundo orden a partir de x (t); x t). 1 (

El metodo que estudiaremos es muy robusto, en el sentido de que a partir de un conjunto


l.i. x (t); x (t) de soluciones homogeneas, e independiente de la forma de a(t); b(t) siempre
1 2

proporcionara una solucion particular.


Lamentablemente, solo sabemos determinar soluciones para (4.20) en el caso de que a(t); b(t)
sean constantes. Esto constituye una serie limitante para la resolucion de (4.19) utilizando
este metodo.
El metodo que estudiaremos se llama Metodo de Variacion de Parametros, y consiste en
construir una solucion particular de (4.19) que tiene la forma :

xp(t) = u (t)x (t) + u (t)x (t)


1 1 2 2 (2.24)
Resolucion
Suponemos que existe una solucion particular de la forma (4.21), y buscamos condiciones
que nos permitan determinar u (t); u (t). 1 2

Derivando xp(t) en (4.21), obtenemos :


x0p(t) = u0 (t)x (t) + u0 (t)x (t) + u (t)x0 (t) + u (t)x0 (t)
1 1 2 2 1 1 2 2

Imponiendo u0 (t)x (t) + u0 (t)x (t) = 0, obtenemos : x0p(t) = u (t)x0 (t) + u (t)x0 (t)
1 1 2 2 1 1 2 2

Luego, derivando nuevamente obtenemos


x00p (t) = u0 (t)x0 (t) + u0 (t)x0 (t) + u (t)x00(t) + u (t)x00(t)
1 1 2 2 1 1 2 2

Remplazando en (4.19),
f (t) = x00p (t) + a(t)x0p(t) + b(t)xp(t)
= u (t)(x00(t) + a(t)x0 (t) + b(t)x (t)) + u (t)(x00(t) + a(t)x0 (t) + b(t)x (t)) +
1 1 1 1 2 2 2 2

u0 (t)x0 (t) + u0 (t)x0 (t)


1 1 2 2

Notamos que por ser x (t); x (t) soluciones del problema homogeneo :
1 2
2.2. E.D. DE SEGUNDO ORDEN LINEALES CON COEFICIENTES CONSTANTES31
x00(t) + a(t)x0 (t) + b(t)x (t) = 0
1 1 1

x00(t) + a(t)x0 (t) + b(t)x (t) = 0


2 2 2

Luego,

f (t) = u0 (t)x0 (t) + u0 (t)x0 (t)


1 1 2 2

Para que u (t)x (t) + u (t)x (t) sea solucion particular de (4.19), u (t); u (t) deberan satis-
1 1 2 2 1 2

facer las dos condiciones impuestas :

u0 (t)x (t) + u (t)0x (t) = 0


1 1 2 2

u0 (t)x0 (t) + u0 (t)x0 (t) = f (t)


1 1 2 2

Es decir,
" #" # " #
x (t) x (t) u0 (t) = 0)
1 2
(2.25)
x0 (t) x0 (t) u0 (t) f (t)
1

1 2 2

Resolviendo este sistema usando la Regla de Cramer, obtenemos :



0 x (t)
f (t) x0 (t)
2

u0 (t) = = x (t)f (t)


2 2
1
x0 (t) x0 (t) W (x ; x )(t) 1 2

x (t) x (t)
1 2

1 2


x (t) 0
x0 (t) f (t)
1

u0 (t) = 1
= x (t)f (t) 1
2
x0 (t) x0 (t) W (x ; x )(t) 1 2

x (t) x (t)
1 2

1 2

Luego,
Z
u (t) = W (xx (;t)xf )(
1
(t) dt + k
t)
2
1
1 2

Z x (t)f (t)
u (t) = W (x ; x )(t) dt + k
2
1
2
1 2

Como buscamos soluciones particulares, suponemos k = k = 0. Finalmente, remplazando 1 2

en (4.21), obtenemos :
32 CAPITULO 2. ECUACIONES LINEALES DE SEGUNDO ORDEN
xp(t) = x (t) R W xx ;xt f tt dt + x (t) R Wx x t;xf t t
1 (
2( ) ( )
1 2 )( )
2
1( ) ( )
( 1 2 )( )

Ejemplo 2.2.3 Encontremos la solucion general de la ecuacion diferencial :


x00 + x = tan(t)
Notamos que esta ecuacion es de coe cientes constantes, pero que el metodo de los coe cientes
indeterminados no sirve para encontrar una solucion particular.
Consideramos primero la ecuacion homogenea :

x00(t) + x(t) = 0 =) P () =  + 1 = ( i)( + i)


2

Luego la base de H(L) es fcos(t); sen(t)g.


El metodo de variacion de parametros nos dice que existe una solucion particular de la forma:
xp(t) = u (t)cos(t) + u (t)sen(t)
1 2

Donde : Z sen(t)tan(t) Z cos(t)tan(t)


u (t) =
1
W (x ; x )(t) dt u ( t) = W (x ; x )(t) dt
2
1 2 1 2

Como :
cos ( t) sen ( t)
W (cos; sen)(t) = sen(t) cos(t) = cos (t) + sen (t) = 1 2 2

Resolviendo, obtenemos :
Z Z sen (t) Z cos (t) 1
dt = ln(jsec(t) + tan(t)j) + sen(t)
2 2

u (t) =
1 sen(t)tan(t)dt = cos ( t) dt = cos ( t)
Z
u (t) = sen(t)dt = cos(t)
2

Luego la solucion general es :


xg (t) = c cos(t) + c sen(t) ln(jsec(t) + tan(t)j) + sen(t)cos(t) sen(t)cos(t)
1 2

= c cos(t) + c sen(t) ln(jsec(t) + tan(t)j)


1 2

Ejemplo 2.2.4 Consideremos la ecuacion :


x00(t) + a(t)x0(t) + b(t)x(t) = 0 (2.26)
Supongamos que x (t) es una solucion no trivial de (4.23).
1
2.2. E.D. DE SEGUNDO ORDEN LINEALES CON COEFICIENTES CONSTANTES33
Encontremos una segunda solucion, linealmente independiente de x (t) de la forma x (t) = 1 2

v(t)x (t).
1

Solucion
Sea x(t) = v(t)x (t). Tenemos que :
1

x(t) = v(t)x (t) 1

x0(t) = v0(t)x (t) + v(t)x0 (t) 1 1

x00(t) = v00(t)x (t) + v(t)x00(t) + v0(t)x0 (t) + v0(t)x0 (t)


1 1 1 1

Luego, sustituyendo en en (4.23) :


0 = x00(t) + a(t)x0(t) + b(t)x(t)
= v(t)(x00(t) + a(t)x0 (t) + b(t)x (t)) + v0(t)(2x0 (t) + a(t)x (t)) + v00(t)x (t)
1 1 1 1 1 1

= v0(t)(2x0 (t) + a(t)x (t)) + v00(t)x (t)


1 1 1

Luego, v(t) satisface la ecuacion diferencial :


0 0
v00(t) + v (t)(2x (xt) (+t)a(t)x (t)) = 0 1 1

De niendo w(t) = v 0(t), observamos que w(t) debe satisfacer la ecuacion de primer orden :

w0(t) + h(t)w(t) = 0
Resolviendo, obtenemos que
R h t dt Z R h t dt
w(t) = c e 1
( )
=) v(t) = c e 1
( )
dt + c 2

Puesto que nos interesa una solucion particualr cualquiera, imponemos c = 1; c = 0. 1 2

Entonces,
Z R h t dt Z R 0
(2x (t)+a(t)x1 (t))
dt
Z R 0
2x (t)
dt
R a t dt
v(t) = e dt = e dt = e e dt
1 1
( ) x1 (t) x1 (t) ( )

Pero,
R 0 R x0 t
= x 1(t)
2x (t)
dt ( )
ln x1 t
e =e dt = e
1 1
x1 (t) 2
x1 (t) 2 ( ( ))
2
1

Luego,
34 CAPITULO 2. ECUACIONES LINEALES DE SEGUNDO ORDEN

Z e R a t dt Z e R a t dt
x (t) dt =) x (t) = x (t) x (t) dt
( ) ( )

v(t) = 2
2 1
2
1 1

Ejemplo 2.2.5 Resolvamos la ecuacion


tx00 + (1 2t)x0(t) + (t 1)x(t) = tet (2.27)
Primero, resolvamos la ecuacion homogenea.
Es facil ver que x (t) = et resuelve la homogenea. Efectivamente,
1

t(et)00 + (1 2t)(et)0 + (t 1)(et) = et(t + 1 2t + t 1) = 0


Para encontrar una segunda solucion, que sea linealmente independiente a x (t), procedemos 1

como en el ejemplo anerior. Escribimos (4.24) de forma estandard :

x00 + (1 t 2t) x0(t) + (t t 1) x(t) = et


Luego,
Z e R t t dt Z e R t dt R dt
1 2 Z et 1
+ 2 2

x (t) = et t dt = e te t dt = etln(t)
t
2
e t dt = e 2
et 2 2

Dado que tenemos resuelto el problema homogeneo, podemos usar el metodo de variacion de
parametros para resolver (4.24).
Se tiene que
t
W (et; etln(t))(t) = eet etlne (lnt)(+t) et
t
= e t 2

t t
Luego, de niendo :
Z
x (t)f (t) dt = Z etln(t)ett dt = Z ln(t)tdt = t ln(t) + t 2 2

u (t) =
1
W (x ; x )(t)
2

et 22
4
Z x (t)f (t) Z etett Z
1 2

u (t) = W (x ; x )(t) dt = e t = tdt = t2


2
1
2
2
1 2

Obtenemos la solucion general :

c et + c etln(t) + u (t)et + u (t)etln(t) = c et + c etln(t) + t4 et


2

1 2 1 2 1 2
2.2. E.D. DE SEGUNDO ORDEN LINEALES CON COEFICIENTES CONSTANTES35
2.2.4 La Ecuacion de Euler
De nicion 2.8 La Ecuacion de Euler de segundo orden es una expresion de la forma :
t x00(t) + atx0(t) + bx(t) = f (t)
2
(2.28)
Donde a; b son constantes.

Resolucion
Para resolver la Ecuacion de Euler hacemos el cambio de variable t = es, y de nimos v(s) =
x(es). De este modo :

v(s) = x(es)
v0(s) = x0(es)es =) x0(es) = v0(s)e s
v00(s) = x00(es)e s + x0(es)es =) x00(es) = e s(v00(s) v0(s))
2 2

Si x(t) satisface (??), necesariamente v(t) debera satisfacer :

v00(s) + (a 1)v0(s) + bv(s) = f (es ) (2.29)


Para resolver (4.25), basta resolver (4.26), y aplicar la transformada x(t) = v(ln(t)), para
obtener una solucion.

Ejemplo 2.2.6 Resolvamos la ecuacion diferencial :


t x00(t) 2tx0(t) + 2x(t) = t e
2 3 t (2.30)
Consideramos primero el problema homogeneo.
Mediante el cambio de variables v(s) = x(es) obtenemos la expresion :

v00(s) + 3v0(s) + 2v(s) = 0 (2.31)


P () =  3 + 2 = ( 2)( 1).
2

Luego H(L) es generado por las funciones fe s; esg.2

Notamos que como v (s) = e s, y v (s) = es son soluciones de (4.28), entonces x (t) =
2
2
1 2

e ln t = t , y x (t) = eln t = t son soluciones del problema homogeneo asociado a (4.27).


2 ( ) 2
1
( )

Consideramos, ahora, el problema no homogeneo.


36 CAPITULO 2. ECUACIONES LINEALES DE SEGUNDO ORDEN

2 t t
W (t; t )(t) = 1 2t = t
2
2

Luego, de niendo :
x ( t)Zf ( t) Z tte t Z 2 3

u (t) = W (x ; x )(t) dt = 2
dt = t e t dt 3
1
t 2

Z x (t)f (t) Z tte t Z


1 2

u (t) = W (x ; x )(t) dt = t
t = t e dt
1 2
2
2
1 2

Obtenemos la solucion general


Z Z
x(t) = c t + c t + u (t)t + u (t)t = c t + c t
1 2
2
1 2
2
1 2
2
t t e tdt + t t e tdt
3 2 2
Captulo 3
Formas Normales y Teoremas de
Comparacion
3.1 De nicion de Una Solucion Oscilatoria
En este capitulo consideraremos ecuaciones del tipo :

x00 + q(t)x = 0 (3.1)


en el intervalo [1; 1).

De nicion 3.1 Llamaremos cero de una funcion f a todo punto t tal que f (t ) = 0.
0 0

De nicion 3.2 Una solucion x(t) de (3.1) se dice solucion oscilatoria si tiene in nitos
ceros, y el conjunto de ceros es no acotado.

De nicion 3.3 Sean t y t ceros de x(t), diremos que t es el sucesor de t si 8t 2 (t ; t )


se tiene que x(t) 6= 0.
0 1 1 0 0 1

Ademas si t es sucesor de t diremos que son ceros sucesivos.


1 0

Ejemplo 3.1.1 Notemos que x00 + x = 0 tiene como solucion a la funcion x(t) = sen(t).
Esta solucion es claramente oscilatoria, pues su conjunto de ceros es fk gk2 el cual es
in nito, y no acotado (es decir, no existen a; b constantes en los reales tal que k 2 [a; b] 8k ).
IN

37
N
38CAPITULO 3. FORMAS NORMALES Y TEOREMAS DE COMPARACIO
3.2 Caracterizacion de los ceros de una E.D. Lineal
Consideremos la ecuacion :
x00 + a(t)x0 + b(t)x = 0 (3.2)
con a(t); b(t) continuas en un intervalo I . Nos interesa entender el comportamiento de los
ceros de una solucion no-trivial (no-nula) de (3.2) en terminos de las propiedades de los
coe cientes a(t) y b(t).

De nicion 3.4 Sea t un cero de la funcion x(t). Diremos que t es aislado si existe  > 0
tal que 8t 2 ]t ; t + [nft g =) x(t) =
6 0.
0 0

0 0 0

Teorema 3.1 Sea x(t) una solucion no trivial de (3.2). Se tiene que todos los ceros de x
son aislados.

Demostracion 3.1 Supongamos lo contrario, es decir, que existe t un cero no aislado de


una solucion x(t) de (??). Entonces, se tiene que
0

8" > 0; 9 a 2 ]t 0 "; t + "[


0 tal que x(a) = 0
Eligamos una sucesion
t < t < : : : < tn < : : :
1 2 tal que x(ti) = 0 8i y tal que !1 tn
nlim =t 0

Por el Teorema del Valor Medio ( o Teorema de Rolle)


8n 9sn 2 ]tn; tn [ tal que x0(sn) = 0
+1

Como sn ! t , y x0 (t) es continua se tiene que x0(sn) ! x0 (t ) =) x0(t ) = 0.


0 0 0

Luego, hemos encontrado una solucion x(t) de (3.2), tal que x(t ) = 0, y x0 (t ) = 0. Sin
embargo, la solucion trivial x^(t)  0 (es decir, x^(t) constante e igual a cero) tambien es
0 0

solucion de (3.2) con las mismas condiciones iniciales, luego por el Teorema de Existencia y
Unicidad, que nos asegura que solo existe una solucion de la ecuacion diferencial que cumpla
con las condiciones x(t ) = 0 x0(t ) = 0, se tiene que x(t) debe ser la solucion trivial, es
decir, x(t)  x^(t)  0 lo cual contradice las hipotesis del teorema.
0 0

Antes de seguir con el estudio de los ceros de la ecuacion (3.1), veamos una propiedad util
de las soluciones oscilatorias.

Propiedad 3.2.1 Sea x(t) una solucion oscilatoria de (3.1), entonces se tiene que:
3.2. CARACTERIZACIO N DE LOS CEROS DE UNA E.D. LINEAL 39
1. Todos los ceros de x(t) tienen un sucesor (ver de nicion 3.3).
2. La familia de los ceros no tiene puntos de acumulacion.
Demostracion 3.2 1. Sea t un cero de x(t). Por hipotesis, la solucion es oscilatoria
0

entonces tiene in nitos ceros y la familia de ceros es no acotada. Por lo tanto, siempre
puedo encontrar un cero a la derecha de t . De lo anterior, se tiene que la unica 0

posibilidad de que t no tenga sucesor en la familia de los ceros es que


0

8" > 0 9 ^t 2 (t "; t + ") tal que x(t^) = 0 0 0

Es decir, t es un punto de acumulacion en la familia de los ceros. Por lo tanto, basta


0

probar el proximo resultado.


2. Del teorema 3.1 se tiene que los ceros son aislados. Luego si existe un t punto de
acumulacion en el conjunto de los ceros de x(t) tendriamos una contradiccion con el
0

teorema.
Teorema 3.2 (Teorema de los Ceros Alternados)
Sean x (t); x (t) dos soluciones linealmente independientes de (3.2), entonces se tiene :
1 2

1. Los ceros de x y x nunca coinciden


1 2

2. Entre dos ceros de x , existe exactamente un cero de x , y reciprocamente entre dos


1 2

ceros de x , existe un cero de x .


2 1

Demostracion 3.3

1. Sea W (x ; x )(t) el wronksiano de x y x : W (x ; x )(t) = x (t)x0 (t) x0 (t)x (t): Si


t fuese un cero comun de x y x entonces tendriamos que W (x ; x )(t ) = 0 =) x
1 2 1 2 1 2 2 1 1 2

0 1 2 1 2 0 1

y x son l.d. (Contradiccion).


2

2. Observemos que si x (a) = 0 =) x0 (a) 6= 0


1

En efecto, si x (a) = 0 y x0 (a) = 0, aplicando el Teorema de Existencia y Unicidad,


1

se tiene que x (t)  0.


1 1

Tomemos ahora a; b 2 IR ceros consecutivos de x . Sin perdidad de generalidad, pode-


mos suponer que x (t) > 0 8t 2 (a; b). Luego, se cumple que x0 (a) > 0 y x0 (b) < 0.
1

Supongamos que x (t) no se anula en ningun punto de (a; b), y ademas que x (t) > 0
1 1

2 2

en (a; b)
=) W (x ; x )(a) = x (a)x0 (a) x0 (a)x (a) = x0 (a)x (a) < 0
1 2 1 2 1 2 1 2
N
40CAPITULO 3. FORMAS NORMALES Y TEOREMAS DE COMPARACIO
Analogamente
W (x ; x )(b) = x0 (b)x (b) > 0
1 2 1 2

Como W (x ; x )(t) es continuo en [a; b] concluimos que existe un c 2 (a; b) tal que
W (x ; x )(c) = 0 =) x y x son l.d. lo que contradice las hipotesis del teorema.
1 2

1 2 1 2

Ejemplo 3.2.1 Notemos que x (t) = sen(t) y x (t) = cos(t) son dos soluciones linealmente
1 2

independientes de la ecuacion x00 + x = 0. (HACER DIBUJO). Es facil ver del dibujo que
los ceros nunca coinciden, y que van alternando.
Teorema 3.3 Consideremos la ecuacion x00 + Q(t)x = 0 con Q(t) continuo en I .
Si Q(t) < 0 en I , entonces x tiene a lo mas un cero en I .

Demostracion 3.4 Razonemos por contradiccion, es decir, supongamos que existen dos
ceros a; b sucesivos de x en I . Podemos suponer ademas que x(t) > 0 en (a; b).
Por lo visto en el teorema anterior : x0(a) > 0 y x0(b) < 0. Por otro lado se tiene que
x00 = Q(t)x > 0 en (a; b) =) x0 es creciente en (a; b) =) x0(a) < x0(b)
Lo cual es claramente una contradiccion.

Teorema 3.4 Supongamos que x(t) 6= 0 satisface


x00 + Q(t)x = 0 8t 2 [1; 1) con Q(t) > 0 en [1; 1)
R
Si 1 Q(t)dt = +1 entonces x(t) posee in nitos ceros en [1; 1).
1

Ejemplo 3.2.2 Veamos que la condicion R 1 Q(t)dt = +1 es importante


1

x00 + t(t +2 1) x = 0 t  1
2

Esta ecuacion cumple con que Q(t) > 0 8t > 1. Sin embargo, su solucion : x(t) = t t , es
claramente no oscilatoria.
+1

Con esto queda claro que no basta con que Q(t) sea positivo para asegurar la existencia de
soluciones oscilatorias.
Demostracion 3.5 De namos w(t) = x0
x . Se tiene que
00 0 00
w0(t) = x xx x () w0 = xx + w () w0 = Q(t) + w
2

2
2 2
(3.3)
3.3. TEOREMA DE COMPACIO N DE STURM 41
Supongamos que existe r > 0 tal que x(t) no se anula en [r; 1) y x(t) > 0 en [r; 1). De
(3.3) se tiene que
Zt Zt Zt Zt Zt
r
w0du = r
Q(u)du + r
w (u)du =) w(t) = w(r) +
2

r
Q(u)du + r
w (u)d(u)
2

Zt Zt
pero tlim
!1 r
Q(u)du = 1 y r
w (u)du  0
2

Es decir, existe algun t tal que


0

0
w(t) > 0 8t > t =) xx(t()t) > 0 =) x0(t) > 0 =) x0(t) < 0 8t > t
0 0

Por otro lado, analicemos el comportamiento de x(t)


x00 = Q(t)x < 0 en [r; 1) =) x(t) es concavo 8t > t =) x(t)  x(t ) + x0(t )(t t )
0 0 0 0

Como x0(t ) < 0, para t su cientemente grande se tendra x(t) < 0. Pero habiamos supesto
0

que x(t) > 0. Con lo cual llegamos a una contradiccion.(La demostracion es analoga si se
supone x(t) < 0 en [r; 1))

3.3 Teorema de Compacion de Sturm


Teorema 3.5 Sean Q(t) y R(t) continuas en I tales que Q(t) < R(t) en I .
Sean x(t); y(t) soluciones de :
1. x00(t) + Q(t)x(t) = 0
2. y00(t) + R(t)y(t) = 0
entonces entre dos ceros de x(t) debe haber al menos un cero de y(t). Es decir
x(a) = 0 = x(b) =) 9c 2 (a; b) tal que y(c) = 0
.

Demostracion 3.6 Razonemos por contradiccion. Antes de empezar la demostracion, note-


mos que el teorema no especi ca si los ceros son sucesivos, luego basta tomar este caso par-
ticular y llegar a una contradiccion.
Supongamos que a y b son ceros consecutivos de x(t) y que no hay ceros de y(t) en (a; b).
N
42CAPITULO 3. FORMAS NORMALES Y TEOREMAS DE COMPARACIO
Podemos suponer ademas que x(t) > 0 en (a; b) y tambien que y(t) > 0 en (a; b).
De namos w(t) = x(t)y 0(t) x0 (t)y(t), entonces
w0(t) = x0(t)y0(t) + x(t)y00(t) (x00(t)y(t) + x0(t)y0(t)) = x(t)y00(t) x00(t)y(t)
= x(t)R(t)y(t) + x(t)Q(t)y(t) = x(t)y(t)(Q(t) R(t)) < 0
pues x(t)y(t) > 0, Q(t) R(t) < 0 en (a; b)
=) w(t) es estrictamente decreciente en (a; b) =) w(b) < w(a)
pero w(b) = x0 (b)y(b)  0 y w(a) = x0(a)y(a)  0 =) w(a)  w(b)
Con lo cual llegamos a una contradiccion

Ejemplo 3.3.1 Analicemos la ecuacion


x00(t) + Q(t)x(t) = 0 (3.4)
Si suponemos que Q(t) > k k > 0, entonces la distancia entre ceros consecutivos de la
2

solucion x(t) es a lo mas k


En efecto, sea a cualquier cero de x. Debemos probar que existe c 2 (a; a + k ) tal que x(c) = 0
Comparemos las soluciones de (3.4) con las soluciones de la ecuacion
y00(t) + k y(t) = 0
2

Notemos que una solucion de la ecuacion anterior es y(t) = sen(k (x a))(HACER DIBUJO,
MARCOS) que tiene ceros en a y en a+ k , luego usando el Teorema de comparacion de Sturm
y recordando que Q(t) > k , se tiene que x(t) debe tener un cero en algun c 2 (a; a + k ).
2

3.4 Formas Normales


Queremos establecer conclusiones para el problema mas general :
x00 + P (t)x0 + Q(t)x = 0 (3.5)
con P (t) diferenciable.

De nicion 3.5 La Forma Normal de la ecuacion (3.5) es una ecuacion equivalente expre-
sada como
u00 + q(x)u = 0 (3.6)
on 3.4.1 La forma normal es equivalente a la ecuacion (3.5), en el sentido de
Observaci
que puedo obtener x(t) desde u(t) a traves de algun tipo de transformacion. Este proceso se
estudiara a continuacion.
3.4. FORMAS NORMALES 43
Es natural preguntarse si siempre existe la forma normal de una ecuacion del tipo (3.5). A
continuacion veremos como se construye esta ecuacion equivalente. Supongamos que x(t)
puede escribirse como x(t) = v(t)u(t)
=) x0(t) = v0(t)u(t) + v(t)u0(t) =) x00(t) = v00(t)u(t) + v0(t)u0(t) + u0(t)v0(t) + u(t)v00(t)
De donde obtenemos
x00 + P (t)x0 + Q(t)x = vu00 + (2v0 + P (t)v)u0 + (v00 + P (t)v0 + Q(t)v)u = 0
Vamos a imponer que 2v0 + P (t)v = 0 () v0 + P t v = 0 obteniendo ( )

R P t dt2

v(t) = e 1
2
( )
C
A su vez, la ecuacion para u(t) queda :
u00(t) + q(t)u(t) = 0
donde q(t) queda de nido de la siguiente manera :
00 0
q(t) = v (t) + P (t)vv(t) + Q(t)v(t) = Q(t) 14 P (t) 21 P 0(t) 2

Ejemplo 3.4.1 La ecuacion lineal de segundo orden :


t x00 + tx0 + (t
2 2
p )x = 0 t > 0
2
(3.7)
es conocida como la Ecuacion de Bessel . Aunque resolver esta ecuacion no resulta nada
sencillo, veamos que al llevarla a su forma normal y usando los teoremas de Sturm, podemos
estudiar el comportamiento de sus soluciones.
Primero reescribamos (3.7) como
x00 + 1t x0 + (1 pt )x = 0
2

R
2

Para llevarla a su forma normal, impongamos que x(t) = v(t)u(t) con v(t) = e t dt, como
1 1
2

lo vimos en el desarrollo anterior. Luego, se tiene que v(t) = e lnt = t 1


2
1
2

=) x(t) = t u(t) =) x0(t) = 21 t u+t u0 =) x00(t) = 34 t u+ 12 t u0+ 21 t u0+t u00


1
2
3
2
1
2
5
2
3
2
3
2
1
2

=) x00 + 1 x0 + (1 p )x = t u00 + u0(0) + u( 3 t 1 t + (t p )t ) = 0


2
1 5 5 5
2 2

t t 4 2
2 2 2 2
2

00
= u + (4t 3 1
2 t + (t p )t )u = 0
2 2 2 2 2

1+ p
=) u00 +
1 2

t u=04
2
(3.8)
Como tenemos la ecuacion de Bessel en su forma normal, analicemos el comportamiento de
las soluciones u(t), para luego interpretar los resultados en la solucion original x(t).
N
44CAPITULO 3. FORMAS NORMALES Y TEOREMAS DE COMPARACIO
1. Probemos que para todo p la solucion u(t) es oscilatoria. Para esto debemos probar dos
cosas:
(a) Debemos mostrar que Q(t) > 0 (ver teorema 3.4). En este caso basta ver que
Q(t) = 1 + t p > 0 si t es su cientemente grande. En efecto
1 4
4 2
2

s
1 + 1 4t4p > 0 () p 14 < t () p 41 < t
2
2 2 2
2

Observemos que si p < 0 =) 1 4p > 0 luego, la condicion se cumple para


2 1 2

todo t.
4

R
(b) Debemos probar que t1 Q(t)dt = +1, con t tal que Q(t) > 0 8t > t . Pero esta
0 R
condicion se satisface facilmente, pues t 1dt = +1.
1
0 0

Como hemos probado ambas condiciones, se tiene que la ecuacion (3.8) es oscilatoria.
2. Probemos que la distancia entre los ceros sucesivos de una solucion de la ecuacion (3.8)
tiende a  .
Es decir, Si 0 < t < t < t < t < : : : son ceros sucesivos, entonces limn!1 (tn
1 2 3 4

tn ) = .
1

Para probar este resultado usaremos el Terorema de comparacion de Sturm, para lo


cual necesitamos comparar la ecuacion (3.8) con otra adecuada.
Primero notemos que
jQ(t) 1j = j1 + 1 4t4p 1j  j14t 4p j = an
2 2

n2 2
1

Es facil ver que limn!1 an = 0. Ademas


jQ(t) 1j < an () 1 an < Q(t) < an + 1 en [tn ; tn ] 1 +1

Por ultimo comparemos la ecuacion (3.8) con


v00(t) + (1 + an)v(t) = 0
p
Notemos que una solucion de la ecuacion anterior es v(t) = sen 1 + an(t tn ). 1

Aplicando el Teorema de Sturm, se tiene que debe haber al menos un cero de v(t) entre
tn y tn.
=) p  < tn tn
1

1 + an 1

Por ultimo, comparamos la ecuacion (3.8) con


w00(t) + (1 an)w(t) = 0
Con lo cual obtenemos que tn tn < p  an . Teniendo ambas cotas para (tn tn )
1 1

se concluye que la distancia entre los ceros tiende a  .


1
3.4. FORMAS NORMALES 45
Despues de haber analizado la ecuacion (3.8) nos interesa saber si los comportamientos de
u(t) se heredaran a x(t). En efecto, como x(t) = t u(t) se tiene que los propiedades
1
2

oscilatorias de u(t) se traspasan a x(t).


N
46CAPITULO 3. FORMAS NORMALES Y TEOREMAS DE COMPARACIO
Captulo 4
Ecuaciones Lineales de Orden n
4.1 Introduccion
De nicion 4.1 Una ecuacion diferencial lineal de orden n es una expresion de la forma:
xn (t) + a (t)xn (t) + a (t)xn (t) + : : : + an (t)x0(t) + an(t)x(t) = f (t)
1
1
2
2
1 (4.1)
donde a; b; f son funciones continuas en algun intervalo I  IR.

Observacion 4.1.1 Si x(t) es solucion de (4.1), se tiene que x(t) 2 C n (I ).


Demostracion
Dado que x(t) es solucion de (4.1), se tiene que es n-1 veces derivable. Esto implica que
x(t) 2 C (I ). Por otro lado, despejando, observamos que
1

xn = a (t)xn
1
1
a (t)xn
2
2
: : : an (t)x0 an(t)x + f (t)
1

Como xn (t) es suma, y multiplicacion de funciones continuas, se tiene que xn(t) es continua.
Luego x(t) 2 C n (I ).
Observacion 4.1.2 Asociada a la ecuacion (4.1), podemos de nir el operador
L : C n (I ) ! C (I )
x(t) ! L(x) = xn(t) + : : : + an(t)x(t)
Se tiene que L es un operador lineal, en el sentido que 8 ; 2 IR L( x + x ) = L(x )+
L(x ). Tendremos que x(t) es solucion de (4.1) ssi L(x) = f: Por esto decimos que (4.1)
1 2 1

es una ecuacion lineal.


47
48 CAPITULO 4. ECUACIONES LINEALES DE ORDEN N
Observacion 4.1.3 Aunque nuestro proposito es encontrar soluciones reales, es conve-
niente para efectos de calculo considerar esta teoria en los numeros complejos. Es decir,
suponemos que las funciones a; b; f estan de nidas en I sobre CI , y buscamos una solucion
x : I ! CI .
Observacion 4.1.4 Sean a(t); b(t) funciones reales, y x(t) una solucion compleja de
xn(t) + a (t)xn (t) + a (t)xn (t) + : : : + an (t)x0(t) + an(t)x(t)
1
1
2 (4.2) 2
1

Si x(t) lo podemos escribir como x(t) = x (t) + ix (t), donde x ; x son funciones reales, 1 2 1 2

entonces x ; x son soluciones de (4.2)


1 2

Demostracion Observacion 4.1.4


De niendo L como en la observacion (4.1.2), tendremos que x ; x son soluciones de (4.2),
si L(x ) = L(x ) = 0. Pero,
1 2

1 2

L(x) = L(x + ix ) = L(x ) + iL(x ) 1 2 1 2

Como x (t); x (t); a(t); b(t) son reales, tenemos que L(x ); L(x ) son reales. Ademas, como
1 2 1 2

x(t) es solucion, tenemos


L(x) = 0 =) L(x ) + iL(x ) = 0 1 2

Por ultimo, igualando parte real e imaginaria a cero, obtenemos


L(x ) = L(x ) = 0 2 1 2

De nicion 4.2 Una ecuacion diferencial lineal de orden n homogenea es una expresion de
la forma :
xn(t) + a (t)xn (t) + a (t)xn (t) + : : : + an (t)x0(t) + an(t)x(t) = 0
1
1
2
2
1 (4.3)
Observacion 4.1.5 Toda ecuacion lineal de orden n
xn(t) + a (t)xn (t) + a (t)xn (t) + : : : + an (t)x0(t) + an(t)x(t) = f (t)
1
1
2
2
1

tiene asociada una ecuacion homogenea.


De nicion 4.3 Dada una ecuacion diferencial lineal de orden n
xn (t) + a (t)xn (t) + a (t)xn (t) + : : : + an (t)x0(t) + an(t)x(t) = f (t)
1
1
2
2
(4.4) 1

Si L es el operador diferencial asociado a (4.4), llamamos H(L) al conjunto de soluciones


de su ecuacion homogenea asociada. Es decir,
H(L) = f x(t) j L(x) = 0g = Ker(L)
Analogamente, llamaremos J (L) al conjunto de soluciones de (??lin22). Es decir,
J (L) = f x(t) j L(x) = f g = L (f ) (??) 1
4.1. INTRODUCCIO N 49
Teorema 4.1 Consideramos la ecuacion diferencial
xn (t) + a (t)xn (t) + a (t)xn (t) + : : : + an (t)x0(t) + an(t)x(t) = f (t)
1
1
2
2
1 (4.5)
y su ecuacion homogenea asociada,
xn(t) + a (t)xn (t) + a (t)xn (t) + : : : + an (t)x0(t) + an(t)x(t) = 0
1
1
2
2
1 (4.6)
Sean xp(t); xq(t) soluciones de (4.5) (Las llamaremos soluciones particulares), y sea xh (t)
solucion de (4.6) (la llamaremos solucion homogenea).
1. xp + xh es solucion de (4.5).
2. xp xq es solucion de (4.6).

Demostracion Teorema 4.1


1. Por linealidad de L se tiene que
L(xp + xh) = L(xp) + L(xh ) = f (t) + 0 =) L(xp + xh) = f (t)
luego xp + xh es solucion de (4.5).
2. Sea x(t) = (xp xq)(t). Por linealidad de L se tiene que
L(x) = L(xp xq ) = L(xp) L(xq ) = f (t) f (t) = 0
Luego, x(t) es solucion de (4.6)

Lema 4.1 H(L) es espacio vectorial. Es decir, si x (t); x (t) 2 H(L), se tiene que x (t) +
x (t) 2 H(L):
1 2 1

Demostracion Lema 4.1 Sean x (t); x (t) 2 H(L): Sean ; 2 C. I Veamos que x(t) =
x (t) + x (t) 2 H(L): En efecto,
1 2

1 2

L( x (t) + x (t)) = L(x ) + L(x ) = 0:


1 2 1 2

Observacion 4.1.6 Del Lema (4.1), y de la observacion (4.1.1), tenemos que H(L) es
subespacio vectorial de C n (I ). Recordando que C n(I ) es de dimension in nita, la pregunta
natural que sigue, es >Cual es la dimension de H(L)?

Teorema 4.2 H(L) es espacio vectorial de dimension n.


50 CAPITULO 4. ECUACIONES LINEALES DE ORDEN N
Esto quiere decir que existe una familia de soluciones x (t); : : :; xn(t) 2 H(L), linealmente
independientes, tales que para toda funcion x(t) 2 H(L), existen c ; : : :; cn 2 IR tales que
1

x(t) = c x (t) + : : :cn xn(t)


1 1

Antes de poder demostrar esto, sera necesario demostrar algunos resultados previos. Es
importante notar, sin embargo, que el grueso de los resultados que veremos provienen de un
teorema muy importante cuya demostracion, por razones pedagogicas omitiremos Este es 1

el teorema de Existencia y Unicidad para ecuaciones lineales de segundo orden.


Teorema 4.3 (Existencia y Unicidad)
Consideramos la ecuacion diferencial lineal orden n
xn (t) + a (t)xn (t) + a (t)xn (t) + : : : + an (t)x0(t) + an(t)x(t) = f (t)
1
1
2
2
1 (4.7)
Donde f (t); a (t); : : :; an(t) 2 C (I ). Dado to 2 I , y dados y ; : : :; yn 2 IR, existe una unica
solucion x(t) de la ecuacion 4.1 de nida en todo el intervalo I , tal que
1 0

x(to) = y ; x0(to) = y ; : : :; xn(t ) = yn :


0 1 0

Observacion 4.1.7 Sobre el Teorema de Existencia y Unicidad


El Teorema de Existencia y Unicidad nos dice que si dos soluciones x(t); y(t) de (4.7), son
tales que x(t ) = y(t ); x0(t ) = y0 (t ); : : :; xn(t ) = y n(t ), para algun t 2 I , se tiene que
x(t) = y(t) 8t 2 I . Es decir, si x(t); y(t) coinciden en un punto, y sus derivadas tambien
0 0 0 0 0 0 0

coinciden en el mismo punto, entonces x(t) e y(t) coinciden en todos los puntos de I .
Lema 4.2 Sea x(t) una solucion de (4.3). Si existe algun to 2 I tal que x(to) = 0; x0(to) =
0; : : : ; xn(t ) = 0, entonces x(t) = 0 8t 2 I .
0

Demostracion Lema (4.2)


Supongamos que existe x 2 H(L) tal que
x(to) = 0; x0(to) = 0; : : : ; xn(t ) = 0: 0

Sabemos que la funcion trivial, z(t)  0 es solucion de (4.3). Ademas es evidente que
z(to) = 0; z0(to) = 0; : : : ; zn(t ) = 0. 0

Como el Teorema de Existencia y Unicidad nos dice que solo puede haber una solucion de
(4.3) que cumpla con ambas condiciones, sabemos que necesariamente se debe tener que
z(t) = x(t) 8t 2 I . Luego x(t) = 0 8t 2 I 2.
De nicion 4.4 Sean x ; : : : ; xn 2 H(L), de nimos su Wronskiano como la funcion deter-
1

minante:
x0 (t) x0 (t) : : : xn0 (t)
1 2

x (t) x (t) : : : xn(t)


W (x ; : : :; xn)(t) = .. 1
..
2
..
1
. . .
xn(t) xn(t) : : : xnn(t)
1 2

1 Los interesados pueden consultar el apendice.


4.1. INTRODUCCIO N 51
Observacion 4.1.8 Notemos que si fx (t); : : :; xn(t)g 2 H(L) son linealmente dependi-
entes, entonces se tiene que W (x ; : : :; xn)(t) = 0 8t 2 I . En efecto:
1

Si fx (t); : : :; xn(t)g son l.d. entonces existen constantes fc ; : : : ; cn g no todas nulas tales
que c x (t) + : : : + cn xn(t) = 0 8t 2 I .
1 1

1 1

Esto implica que necesariamente c x j (t) + : : : + cn xnj (t) = 0 8t 2 I ; 8j 2 f1; : : : ; ng. Es


1
( )
1
( )

decir,
2 x (t) x (t) : : : x (t) 3 2 c 3 2 0 3
66 x0 (t) x0 (t) : : : xn0n(t) 77 66 c 77 66 0 77
1 2 1

66 .. 1
...
2
... 775 664 ... 775 = 664 ... 775 8t 2 I
2

4 .
| x (t) x (t{z) : : : xn(t) } cn
n n n 0
1 2

MW t ( )

Esto implica que MW (t) es singular ( i.e. Ker(MW (t)) 6= f0g 8t 2 I ), luego det MW (t) =
0 8t 2 I . Como W (x ; : : :; xn)(t)  det MW (t)8t 2 I , concluimos el resultado.
1

Teorema 4.4 Sean fx ; : : : ; xng 2 H(L). Si existe to 2 I tal que W (x ; : : :; xn)(t ) = 0,


1 1 0

entonces estas soluciones son linealmente dependientes.


Demostracion Teorema 4.4
Sean fx ; : : :; xng 2 H(L), y t 2 I tales que
1 0


x0 (t) x0 (t) : : : xn0 (t)
1 2

x (t) x (t) : : : xn(t)


W (x ; : : :; xn)(t ) = .. ... ... = 0
1 2
1
. 0

xn(t) xn(t) : : : xnn(t)


| {z 1
} 2

Mw t( )

Como det(Mw (t)) = 0, sabemos que existen fx ; : : :; xng, no todos nulos, tales que 1

2 x (t) x (t) : : : xn(t) 3 2 c 3 2 0 3


66 x0 (t) x0 (t) : : : x0n(t) 777 666 c 777 666 0 777
1 2 1

66 1
... ...
2
... 75 64 ... 75 = 64 ... 75
2

4
xn(t) xn(t) : : : xnn(t) cn
1 2
0
Luego
c x (t ) + : : : + cnxn (t ) = 0 y c x j (t ) + : : : + cnxnj (t ) = 0 8j 2 f1; : : :; ng:
1 1 0 0 1
( )
1 0
( )
0

De niendo x(t) = c x (t) + : : : + cn xn(t), observamos que :


1 1
52 CAPITULO 4. ECUACIONES LINEALES DE ORDEN N
1. x(t) 2 H(L), pues H(L) es espacio vectorial cerrado.
2. x(t ) = 0; x0(t ) = 0 ; : : :; x n (t ) = 0.
0 0
( )
0

Luego del Lema (4.2) tenemos que x(t) = 0 8t 2 I . Como encontramos fc ; : : :; cng no
todas nulas, t.q. c x (t) + : : : + cn xn(t) = 0 8t 2 I , concluimos que fx (t); : : :; xn(t)g son
1

1 1 1

linealmente dependientes. 2

Corolario 4.1 Sean fx (t); : : :; xn(t)g 2 H(L).


1

1. Si existe to 2 I tal que W (x ; : : : ; xn)(t ) = 0, entonces W (x ; : : :; xn )(t) = 0 8t 2 I .


Luego, fx (t); : : :; xn(t)g son l.d. ssi existe to 2 I tal que W (x ; : : : ; xn)(t ) = 0.
1 0 1

1 1 0

2. Si existe to 2 I tal que W (x ; : : :; xn )(t ) 6= 0, entonces W (x ; : : :; xn)(t)(t) 6= 0 8t 2 I .


Luego, fx ; : : :; xng son l.i. ssi existe to 2 I tal que W (x ; : : : ; xn)(t ) 6= 0.
1 0 1

1 1 0

Teorema 4.5 Existen fx (t); : : :; xn(t)g 2 H(L), tales que son linealmente independientes.
1

Demostracion del Teorema 4.5


Del Teorema de Existencia y Unicidad, sabemos que existe x (t) solucion de (4.3) tal que 1

x (to) = 1; x0 (to) = 0 ; : : : ; x n = 0
1 1
(
1
)

En general, sabemos que existen soluciones de (4.3) fx (t); : : :; xn(t)g, tales que 1

xj (t) = 0; x0j (t) = 0 ; : : :; xjj = 1 ; : : :; xjn = 0 8j 2 f1; : : : ; ng


( ) ( )

Para estas dos funciones se tiene que


x (t ) x (t ) : : : x (t ) 1 0 : : : 0

0 n
x (t ) x0 (t ) : : : x0n(t ) 0 1 : : : 0
1 0 2 0 0

W (x ; : : : ; xn)(t ) = .. ...
1 0

... = ...
2 0 0

... ... = 1:
1
. 0

xn (t ) xn (t ) : : : xnn(t ) 0
1 0 2 0 0 0 ::: 1

Como W (x ; : : :; xn)(t ) 6= 0, sabemos que fx (t); : : :; xn(t)g son linealmente independientes.


1 0 1

2.
El ultimo paso en la demostracion que H(L) es un espacio vectorial de dimension n es el
siguiente.
Teorema 4.6 Sean fx (t); : : :; xn(t)g 2 H(L) linealmente independientes. Se tiene que para
cada x(t) existen constantes fc ; : : : ; cng tales que x(t) = c x (t) + : : : + cnxn (t) 8t 2 I .
1

1 1 1
4.1. INTRODUCCIO N 53
Demostracion Teorema 4.6
Como fx (t); : : :; xn(t)g son l.i. en I , sabemos que para t cualquiera en I se tendera que
6 0. Como la matriz que de ne W (x ; : : : ; xn)(t ) es de determinante no
1 0

W (x ; : : : ; xn)(t ) =
nulo , sabemos que es invertible. Luego, existen constantes fc ; : : :; cn g 2 IR, no todas nulas,
1 0 1 0
2
1

tales que : 2 x (t ) x (t ) : : : x (t ) 3 2 c 3 2 x(t ) 3


66 x0 (t ) x0 (t ) : : : xn0n(t ) 77 66 c 77 66 x0(too) 77
1 0 2 0 0 1

66 .. 1
...
0 2
... 775 664 ... 775 = 664 ... 775
0 0 2
(4.8)
4 .
xn(t ) xn(t ) : : : xnn(t ) cn
1 0 2 0 0 x n (t ) ( )
0

Si consideramos y(t) = c x (t) + : : : + cn xn(t), es claro del Lema (4.1) que y(t) 2 H(L). Por
1 1

otro lado, de (4.8) tenemos


y(to) = x(to); y0(to) = x0(to); : : : ; y n (t ) = x n (t ):
( )
0
( )
0

Como el teorema de existencia y unicidad asegura que solo puede existir una funcion con
esas caracteristicas, tenemos que necesariamente x  y = c x (t) + : : : + cnxn(t) 2
1 1

Observacion 4.1.9 De lo anterior es trivial concluir que la dimension de H(L) es n, pues


de (4.5) sabemos que existe una familia l.i. de n funciones en H(L) que genera, mediante
combincacion lineal, a todas las otras soluciones.

De nicion 4.5 Decimos que una solucion general de (4.1) es una expresion de la forma
x(t) = xp(t) + c x (t) + : : : + cnxn (t)
1 1 (4.9)

En que fx (t); : : :; xn (t)g es una base cualquiera de H(L), y xp(t) es una funcion cualquiera
de J (L). En general, diremos que xp (t) es una solucion particular de (4.1), y que fc ; : : : ; cng
1

son los parametros de (4.9).

Teorema 4.7 Sea fx (t); : : :; xn (t)g una base cualquiera de H(L), y xp(t) es una funcion
cualquiera de J (L). Se tiene que para toda solucion x(t) de (4.1), existen constantes
1

fc ; : : :; cng, tales que


1

x(t) = xp(t) + c x (t) + : : : + cnxn (t)


1 1

Demostracion
Sea x(t) una solucion de (4.1). Por ser fx (t); : : :; xn(t)g un conjunto linealmente indepen-
diente de soluciones del problema homogeneo, se tiene que W (x ; : : :; xn)(t) 6= 0 8t 2 I .
1

Luego, para f ; : : :; ng, se tiene que existen fc ; : : :; cn g 2 IR tales que :


1

1 1

2 A esta matriz le llamamos Mw anteriormente.


54 CAPITULO 4. ECUACIONES LINEALES DE ORDEN N

2 x (t) x (t) : : : xn(t) 3 2 c 3 2 3


66 x0 (t) x0 (t) : : : x0n(t) 777 666 c 777 666
1 2 1 1
77
66 1
... ... ... 75 64 ... 75 = 64 ...
2 2 2
77 8t 2 I
4 5
xn(t) xn(t) : : : xnn(t) cn
1 2
n
De nimos y(t) = xp(t) + c x (t) + : : : + cn xn(t). 1 1 Es facil ver que y(t) es solucion de (4.1).
Sea t 2 I , y tomemos
= x(t ) xp(t )
0

1 0 0

= x0(t ) x0p(t )
...
2 0 0

n = x n (t ) ( )
0 xpn (t )
( )
0

Notemos que

y (t ) 0 = xp(t ) + c x (t ) + : : : + cn xn(t ) = xp(t ) + x(t ) xp(t ) = x(t )


0 1 1 0 0 0 0 0 0

y 0 (t ) = x0p(t ) + c x0 (t ) + : : : + cn x0n(t ) = x0p(t ) + x0(t ) x0p(t ) = x0(t )


...
0 0 1 1 0 0 0 0 0 0

y j (t )
( )
= xpj (t ) + c x j (t ) + : : : + cn xnj (t ) = xpj (t ) + x j (t ) xpj (t ) = x j (t )
( ) ( ) ( ) ( ) ( ) ( ) ( )

...
0 0 1 1 0 0 0 0 0 0

y n (t )
( )
0 = xpn (t ) + c x n (t ) + : : : + cn xnn (t ) = xpn (t ) + x n (t ) xpn (t ) = x n (t )
( )
0 1
(
1
)
0
( )
0
( )
0
( )
0
( )
0
( )
0

Luego, como y(t); x(t) son soluciones de (4.1). Y como,


x(t ) = y(t ); x0(t ) = y0(t ) ; : : : ; x n (t ) = y n (t )
0 0 0 0
( )
0
( )
0

se tiene, por Teorema de Existencia y Unicidad, que x(t) = y(t) 8t 2 I . Luego,


x(t) = xp(t) + c x (t) + : : : + cn xn(t): 1 1

Con lo que concluimos la demostracion del teorema.


Resolucion
De lo anterior se tiene que para determinar una solucion de
xn(t) + a (t)xn (t) + a (t)xn (t) + : : : + an (t)x0(t) + an(t)x(t) = f (t)
1
1
2
2
1 (4.10)
x(t ) = y ; x0(t ) = y ; : : :; xn(t ) = yn
0 0 0 1 0 (4.11)
Es necesario seguir los siguientes pasos
1. Encontrar n soluciones fx (t); : : :; xn(t)g, linealmente independientes, de la ecuacion
1

homogenea.
4.2. E.D. DE SEGUNDO ORDEN LINEALES CON COEFICIENTES CONSTANTES55
2. Encontrar una solucion particular xp(t).
3. Escribir la solucion general x(t) = xp(t) + c x (t) + : : : + cnxn (t)
1 1

4. Ajustar las constantes fc ; : : :; cng para que la solucion general satisfaga las condiciones
1

(4.11).

4.2 E.D. de Segundo Orden Lineales con Coe cientes


Constantes
Hasta ahora, hemos estudiado las ecuaciones diferenciales de segundo orden en forma ab-
stracta, sin especi car como obtener soluciones particulares y homogeneas.
En esta seccion estudiaremos mas detalladamente un caso particular de ecuaciones difer-
enciales lineales de segundo orden. Para estas ecuaciones, estudiaremos como obtener las
soluciones del problema homogeneo asociado, asi como una forma de obtener una solucion
particular.
De nicion 4.6 Una Ecuacion Diferencial Lineal de Orden n a Coe cientes Constantes es
una expresion de la forma :
xn(t) + a xn (t) + a xn (t) + : : : + an x0(t) + an x(t) = f (t)
1
1
2
2
1 (4.12)
Donde fa ; : : :; ang son constantes en IR, y f (t) es una funcion continua en I .
1

Adoptaremos en esta seccion la siguiente notacion:


D x = x 0

D x = x0
D x = x 2 (2)

...
Dn x = x n ( )

En que D corresponde al operador que a una funcion le asigna su funcion derivada.


Utilizando esta notacion, podemos escribir la ecuacion 4.12 como :
Dn x + Dn a x + : : : + Dan x + anx = (Dn + Dn a + : : : + Dan + an)x = f (4.13)
1
1 1
1
1

Asociamos al operador diferencial (Dn + Dn a + : : : + Dan + an) el polinomio P () =


1
1

(n + n a + : : : + an + an).


1
1

Por el Teorema Fundamental del Algebra, si  ;  ; : : :; n son las raices P (), sabemos que
1 2
56 CAPITULO 4. ECUACIONES LINEALES DE ORDEN N

P () = (  )(  ) : : : ( n )
1 2

Lo que no resulta tan evidente es que los polinomios de operadores tambien heredan esta
propiedad.
Propiedad 4.2.1 El operador diferencial (Dn + Dn a + : : : + Dan + an ) se puede escribir
1
1

como la composicion de operadores,


(D  )(D  ) : : : (D n )
1 2

donde  ;  ; : : : ; n son las raices del Polinomio asociado al operador diferencial.


1 2

La demostracion de esta propiedad es analoga a la demostracion de la propiedad (??).

4.2.1 Metodo de las Integraciones Sucesivas


Volvemos a considerar la ecuacion diferencial 4.12, esta vez escrita de la forma
(D  )(D  ) : : : (D n ))x = f (t)
1 2 (4.14)
Resolucion
1. Supongamos que i 6= j si i 6= j .
Veamos que ejt es solucion 8j 2 f1; : : :; ng.
En efecto,
e t es solucion ssi
Dn (e t) + Dn a (e t) + : : : + Dan (e t) + an(e t) = 0
1
1 1

() n (e t) + n a (e t) + : : : + an (e t) + an (e t) = 0
1
1 1

() e t( n + n a + : : : + an + an) = 0
1
1 1

() e tP ( ) = 0
Por otro lado, es facil ver que fe t; : : :; entg es linealmente independiente. En efecto,
1

W (e t; : : : ; ent)(t) =
1

Luego,
fe t; : : : ; entg
1

es conjunto fundamental del problema homogeneo.


4.2. E.D. DE SEGUNDO ORDEN LINEALES CON COEFICIENTES CONSTANTES57
2. Supongamos ahora que tenemos raices repetidas, digamos
 ; : : : ; s s < n
1

raices distintas. De lo anterior, tenemos que necesitamos n s soluciones mas para


completar la base. Supongamos que
P () = (  )m (  )m : : : ( s )ms
1
1
2
2

con m + m + : : : + ms = n.
1 2

Podemos escribir (??) como

(D  )m (D  )m : : : (D s )ms )x = 0
1
1
2
2

Estos factores conmutan. En efecto, podemos escribir (??) como

[(| D  )m :{z: : (D s )ms}](D j )mj x = 0


1
1

sin mj
( )

De este modo, si x satisface (D j )mj x = 0, entonces x es solucion de (??).


Consideremos, entonces, la ecuacion
(D )mx = 0 (4.15)
con  2 CI ; m  1.
Propiedad 4.2.2 Las funciones fet; tet; : : :; tm etg son soluciones de (4.15).
1

Demostracion
Comprobaremos este resultado por induccion.
(a) Si m = 1, claramente se tiene
(D )et = 0:
(b) Supongamos que el resultado es valido para m, y comprobemos que es cierto para
m + 1. En efecto, basta probar que
(D )m tj et = 0 80  j  m
+1

Pero,
(D )m tj et = (D )m[(D )tj et]
+1

= (D )m[D(tj e) tj e]


= (D )m[jtj e) + tj e tj e] 1

= (D )m[jtj e)] 1
58 CAPITULO 4. ECUACIONES LINEALES DE ORDEN N
Pero, por hipotesis inductiva
(D )m [tj e)] = 0
1

Asi, n soluciones se obtienen como :


e t; te t; : : :; tm e t >
9
e t; te t; : : :; tm e t >
1 1 1 1 1

2 2 2 1 2 =
... > n soluciones..
>
ent; tent; : : :; tms est ;
1

Estas n funciones constituyen una base de las soluciones de (4.15). Para comprobar
esto, basta ver que son linealmente independientes.
Demostracion
Para ver si estas soluciones son l.i. debemos ver que si P ; : : :; Pn son polinomios tales
1

que
P (t)e t + P (t)e t + : : : + Ps (t)est ==
1
1
2
2

entonces Pj (t)  0 8j 2 f1; : : :; ng.


Procedemos por induccion en s.
4.2. E.D. DE SEGUNDO ORDEN LINEALES CON COEFICIENTES CONSTANTES59
(a) s = 1
Es facil ver que P (t)e t = 0 =) P (t) = 0.
1
1
1

(b) s = 2 (Suponemos  6=  ). 1 2

Suponemos que
P (t)e t + P (t)e t  0 1
1
2
2
(4.16)
Veamos que P (t)  P (t)  0.
1 2

Claramente (4.16) se puede escribir como


P (t) + P (t)e 
1 2
( 2 1 t)
0
Si d es el grado de P , derivamos d + 1 veces la expresion, obteniendo
1

(P (t)) d
1
( +1)
+ (P (t)e  2
( 2 1 t) d
) ( +1)
= 0 + (P (t)e  2
( 2 1 t ) d
) ( +1)
0
Pero de la propiedad (X), tenemos que,
(P (t)e 
2
( 2 1 t ) d
) ( +1)
 0 =) P (t)  0 2

Luego, (4.16) queda como


P (t)e t  0 =) P (t)  0:
1
1
1

(c) j =) j + 1
Suponemos que
P (t)e t + : : : + Pj (t)ej t  0
1
1
+1
+1

Lo cual es equivalente a,
P (t) + P (t)e 
1 2
( 2 1 t : : : + P
)
j +1 (t)e j ( +1 1 t)
0
Si d es el grado de P (t), derivamos d + 1 veces obteniendo,
1

(P (t)e 
2
( 2 1 t)d
) +1
: : : + (Pj (t)e j +1
( +1 1 t ))d
) +1
0
Como (Pi (t)e ( 2 1 t)d
) +1
= Qi(t)e  ( 2 1 t)
80  i  j , para algun polinomio Qi(t),
tenemos que
Q (t)e   t : : : + Qj (t)e j  t)  0
2
( 2 1)
+1
( +1 1)

Luego, por hipootesis inductiva, tenemos que Qi(t)  0 80  i  j . Entonces,


Qi(t)  0 =) Qi(t)e  ( 2 1 t)
 0 =) (Pi(t)e  ( 2 1 t )d
) +1
 0 =) Pi (t)  0
Con lo que concluimos nuestro resultado.
60 CAPITULO 4. ECUACIONES LINEALES DE ORDEN N
Propiedad 4.2.3 Sea p(t) un polinomio de grado m. 2 CI ; d 2 IN; 0  d  m. Se tiene
que :
(e tp(t)) d  0 =) p(t)  0
( )

Ejemplo 4.2.1 Resolvamos la Ecuacion diferencial


x000(t) + x00(t) x0(t) x(t) = 0
Solucion
El polinomio caracteristico asociado a esta ecuacion es
P () =  +  3 2
 1 = 0:
Inspeccionando nos damos cuenta que  = 1 es raiz. Luego, dividiendo P () obtenemos
 +
3 2
 1 :  1 =  + 2 + 1 2

Es decir,
P () = ( 1)( + 1) : 2

Luego, las soluciones fet; e t; te tg son base del espacio de solucion. Entonces, la solucion
general, queda
x(t) = c et + c e t + c te t
1 2 3

Ejemplo 4.2.2 Resolvamos la ecuacion diferencial


x (t) + 2x (t) + x(t) = 0
(4) (2)

El polinomio caracteristico asociado a la ecuacion es


P () =  + 2 +  = ( + 1) = [( + i)( i)] = ( + i) ( i)
4 2 2 2 2 2 2

Luego, obtenemos la base de soluciones compleja feit; teit; e it; te itg. Para construir una
base de soluciones reales, notamos que
eit = cos(t) + isen(t)
Luego, sen(t); cos(t) son soluciones reales. Por otro lado,
teit = tcos(t) + itsen(t)
Luego, tsen(t); tcos(t) son soluciones reales. Concluimos, entonces, que la solucion general
es :
x(t) = c cos(t) + c sen(t) + c tcos(t) + c tsen(t)
1 2 3 4
4.2. E.D. DE SEGUNDO ORDEN LINEALES CON COEFICIENTES CONSTANTES61
Para resolver (??) resolvemos las n siguientes ecuaciones lineales diferenciales de primer
orden :

(D  )y(t) = f (t)
1 (4.17)
(D  )x(t) = y(t)
2 (4.18)
Observemos que (4.17) es equivalente a la ecuacion lineal de primer orden :

y0(t)  y(t) = f (t) 1

Utilizando los metodos vistos en el capitulo 1, es facil veri car que :


Z 
y(t) = e  t  t
e f (t)dt + c 1 1
1

La ecuacion (4.18), luego, es equivalente a :


Z 
x0(t)  2 x(t) = e1t e 1 t f (t)dt + c
1

Como esta tambien corresponde a una ecuacion lineal de primer orden, sabemos que :
Z   Z  
x(t) = e t 2
e 2 t e t e  tf (t)dt + c dt + c
1 1

Z Z 
1 2

Z
= e t 2
e ( 1  t
2)
e  tf (t)dt + c e t e   tdt + c e t
1
1
2 ( 1 2)
2
2

Hay dos casos posibles :


1. Si  6=  tenemos que :
1 2

Z e   t = c e t = c~ e t
( 2)
e2t e 2 tdt = c e2t
1
c 1
( 1 )
1
(  ) (  )
1
1
1
1

1 2 1 2

Luego, Z Z 
x(t) = e2t e 1 2 t
( )
e 1 t f (t)dt + c e t + c e t:
1
1
2
2

2. Si  =  tenemos que :
Z Z
1 2

c 1 e2t e 1 2 tdt = c e2t


( )
1 dt = c e tt:1
2

Luego, Z Z 
x(t) = e t 2
e ( 1 2 t)
e 1 t f (t)dt + c te t + c e t:
1
2
2
2
62 CAPITULO 4. ECUACIONES LINEALES DE ORDEN N
4.2.2 Metodo de los Coe cientes Indeterminados
4.2.3 Metodo de Variacion de Parametros
Consideramos una ecuacion diferencial de la forma :

x00(t) + a(t)x0(t) + b(t)x(t) = f (t) (4.19)


Donde f (t); a(t); b(t) son continuas, y a(t); b(t) no son necesariamente constantes.
Sean x (t); x t) soluciones linealmente independientes de la ecuacion homogenea
1 (

x00(t) + a(t)x0(t) + b(t)x(t) = 0 (4.20)


asociada a (4.19)
En esta seccion estudiaremos un metodo que nos permitira obtener soluciones particulares
para ecuaciones lineales de segundo orden a partir de x (t); x t). 1 (

El metodo que estudiaremos es muy robusto, en el sentido de que a partir de un conjunto


l.i. x (t); x (t) de soluciones homogeneas, e independiente de la forma de a(t); b(t) siempre
1 2

proporcionara una solucion particular.


Lamentablemente, solo sabemos determinar soluciones para (4.20) en el caso de que a(t); b(t)
sean constantes. Esto constituye una serie limitante para la resolucion de (4.19) utilizando
este metodo.
El metodo que estudiaremos se llama Metodo de Variacion de Parametros, y consiste en
construir una solucion particular de (4.19) que tiene la forma :

xp(t) = u (t)x (t) + u (t)x (t)


1 1 2 2 (4.21)
Resolucion
Suponemos que existe una solucion particular de la forma (4.21), y buscamos condiciones
que nos permitan determinar u (t); u (t). 1 2

Derivando xp(t) en (4.21), obtenemos :


x0p(t) = u0 (t)x (t) + u0 (t)x (t) + u (t)x0 (t) + u (t)x0 (t)
1 1 2 2 1 1 2 2

Imponiendo u0 (t)x (t) + u0 (t)x (t) = 0, obtenemos : x0p(t) = u (t)x0 (t) + u (t)x0 (t)
1 1 2 2 1 1 2 2

Luego, derivando nuevamente obtenemos


x00p (t) = u0 (t)x0 (t) + u0 (t)x0 (t) + u (t)x00(t) + u (t)x00(t)
1 1 2 2 1 1 2 2
4.2. E.D. DE SEGUNDO ORDEN LINEALES CON COEFICIENTES CONSTANTES63
Remplazando en (4.19),
f (t) = x00p (t) + a(t)x0p(t) + b(t)xp(t)
= u (t)(x00(t) + a(t)x0 (t) + b(t)x (t)) + u (t)(x00(t) + a(t)x0 (t) + b(t)x (t)) +
1 1 1 1 2 2 2 2

u0 (t)x0 (t) + u0 (t)x0 (t)


1 1 2 2

Notamos que por ser x (t); x (t) soluciones del problema homogeneo :
1 2

x00(t) + a(t)x0 (t) + b(t)x (t) = 0


1 1 1

x00(t) + a(t)x0 (t) + b(t)x (t) = 0


2 2 2

Luego,

f (t) = u0 (t)x0 (t) + u0 (t)x0 (t)


1 1 2 2

Para que u (t)x (t) + u (t)x (t) sea solucion particular de (4.19), u (t); u (t) deberan satis-
1 1 2 2 1 2

facer las dos condiciones impuestas :

u0 (t)x (t) + u (t)0x (t) = 0


1 1 2 2

u0 (t)x0 (t) + u0 (t)x0 (t) = f (t)


1 1 2 2

Es decir,
" #" # " #
x (t) x (t) u0 (t) = 0)1 2
(4.22)
x0 (t) x0 (t) u0 (t) f (t)
1

1 2 2

Resolviendo este sistema usando la Regla de Cramer, obtenemos :



0 x (t)
f (t) x0 (t)
2

u0 (t) = = x (t)f (t)


2 2

x (t) x (t) W (x ; x )(t)


1
1 2

x0 (t) x0 (t)
1 2

1 2


x (t) 0
x0 (t) f (t)
1

u0 (t) = = x (t)f (t)


1 1

x (t) x (t) W (x ; x )(t)


2
1 2

x0 (t) x0 (t)
1 2

1 2

Luego,
64 CAPITULO 4. ECUACIONES LINEALES DE ORDEN N

Z
u (t) = W (xx (;t)xf )(
1
(t) dt + k
t)
2
1
1 2

Z x (t)f (t)
u (t) = W (x ; x )(t) dt + k
2
1
2
1 2

Como buscamos soluciones particulares, suponemos k = k = 0. Finalmente, remplazando 1 2

en (4.21), obtenemos :
xp(t) = x (t) R W xx ;xt f tt dt + x (t) R Wx x t;xf t t
1
(
2( ) ( )
1 2 )( )
2
(
1( ) ( )
1 2 )( )

Ejemplo 4.2.3 Encontremos la solucion general de la ecuacion diferencial :


x00 + x = tan(t)
Notamos que esta ecuacion es de coe cientes constantes, pero que el metodo de los coe cientes
indeterminados no sirve para encontrar una solucion particular.
Consideramos primero la ecuacion homogenea :

x00(t) + x(t) = 0 =) P () =  + 1 = ( i)( + i) 2

Luego la base de H(L) es fcos(t); sen(t)g.


El metodo de variacion de parametros nos dice que existe una solucion particular de la forma:
xp(t) = u (t)cos(t) + u (t)sen(t)
1 2

Donde : Z sen(t)tan(t) Z cos(t)tan(t)


u (t) = W (x ; x )(t) dt
1 u (t) = W (x ; x )(t) dt 2
1 2 1 2

Como :
cos ( t) sen ( t)
W (cos; sen)(t) = sen(t) cos(t) = cos (t) + sen (t) = 1 2 2

Resolviendo, obtenemos :
Z Z sen (t) Z
= cos (t) 1 dt = ln(jsec(t) + tan(t)j) + sen(t)
2 2

u (t) =
1 sen(t)tan(t)dt = cos(t) dt cos(t)
Z
u (t) =
2 sen(t)dt = cos(t)
Luego la solucion general es :
xg (t) = c cos(t) + c sen(t) ln(jsec(t) + tan(t)j) + sen(t)cos(t) sen(t)cos(t)
1 2

= c cos(t) + c sen(t) ln(jsec(t) + tan(t)j)


1 2
4.2. E.D. DE SEGUNDO ORDEN LINEALES CON COEFICIENTES CONSTANTES65
Ejemplo 4.2.4 Consideremos la ecuacion :
x00(t) + a(t)x0(t) + b(t)x(t) = 0 (4.23)
Supongamos que x (t) es una solucion no trivial de (4.23).
1

Encontremos una segunda solucion, linealmente independiente de x (t) de la forma x (t) = 1 2

v(t)x (t).
1

Solucion
Sea x(t) = v(t)x (t). Tenemos que :
1

x(t) = v(t)x (t) 1

x0(t) = v0(t)x (t) + v(t)x0 (t)


1 1

x00(t) = v00(t)x (t) + v(t)x00(t) + v0(t)x0 (t) + v0(t)x0 (t)


1 1 1 1

Luego, sustituyendo en en (4.23) :


0 = x00(t) + a(t)x0(t) + b(t)x(t)
= v(t)(x00(t) + a(t)x0 (t) + b(t)x (t)) + v0(t)(2x0 (t) + a(t)x (t)) + v00(t)x (t)
1 1 1 1 1 1

= v0(t)(2x0 (t) + a(t)x (t)) + v00(t)x (t)


1 1 1

Luego, v(t) satisface la ecuacion diferencial :


0 0
v00(t) + v (t)(2x (xt) (+t)a(t)x (t)) = 0
1 1

De niendo w(t) = v 0(t), observamos que w(t) debe satisfacer la ecuacion de primer orden :

w0(t) + h(t)w(t) = 0
Resolviendo, obtenemos que
R h t dt Z R h t dt
w(t) = c e 1
( )
=) v(t) = c e 1
( )
dt + c 2

Puesto que nos interesa una solucion particualr cualquiera, imponemos c = 1; c = 0. 1 2

Entonces,
Z R Z R 0
(2x (t)+a(t)x1 (t))
dt
Z R 0
2x (t)
dt
R a t dt
v(t) = e h t dtdt = e dt = e e dt
1 1
( ) x1 (t) x1 (t) ( )

Pero,
66 CAPITULO 4. ECUACIONES LINEALES DE ORDEN N

R 0 R x0 t
= 1
2x (t)

e
1
x1 (t) dt =e 2
1
( )
x1 (t) dt = e ln x1 t
2 ( ( ))

x (t) 2
1

Luego,
Z e R a t dt Z e R a t dt
x (t) dt =) x (t) = x (t) x (t) dt
( ) ( )

v(t) = 2 2 1 2
1 1

Ejemplo 4.2.5 Resolvamos la ecuacion


tx00 + (1 2t)x0(t) + (t 1)x(t) = tet (4.24)
Primero, resolvamos la ecuacion homogenea.
Es facil ver que x (t) = et resuelve la homogenea. Efectivamente,
1

t(et)00 + (1 2t)(et)0 + (t 1)(et) = et(t + 1 2t + t 1) = 0


Para encontrar una segunda solucion, que sea linealmente independiente a x (t), procedemos 1

como en el ejemplo anerior. Escribimos (4.24) de forma estandard :

x00 + (1 t 2t) x0(t) + (t t 1) x(t) = et


Luego,
Z e R t t dt 1Z e R t dt R dt
2 Z et 1
+ 2 2

x (t) = et dt = et dt = e t dt = etln(t)
2
e t 2
e t te t 2 2

Dado que tenemos resuelto el problema homogeneo, podemos usar el metodo de variacion de
parametros para resolver (4.24).
Se tiene que
t
W (et; etln(t))(t) = e etln(t) t = e t 2

et etln(t) + et t
Luego, de niendo :
x ( t) Z
f ( t) Z etln(t)ett Z t ln(t) + t 2 2

u (t) = W (x ; x )(t) dt =
1
2

e t dt = ln ( t) tdt = 2 4 2

Z x (t)f (t) Z etett Z


1 2

u (t) = W (x ; x )(t) dt = e t = tdt = t2


2
1
2
2
1 2

Obtenemos la solucion general :


c et + c etln(t) + u (t)et + u (t)etln(t) = c et + c etln(t) + t4 et
2

1 2 1 2 1 2
4.2. E.D. DE SEGUNDO ORDEN LINEALES CON COEFICIENTES CONSTANTES67
4.2.4 La Ecuacion de Euler
De nicion 4.7 La Ecuacion de Euler de segundo orden es una expresion de la forma :
t x00(t) + atx0(t) + bx(t) = f (t)
2
(4.25)
Donde a; b son constantes.

Resolucion
Para resolver la Ecuacion de Euler hacemos el cambio de variable t = es, y de nimos v(s) =
x(es). De este modo :

v(s) = x(es)
v0(s) = x0(es)es =) x0(es) = v0(s)e s
v00(s) = x00(es)e s + x0(es)es =) x00(es) = e s(v00(s) v0(s))
2 2

Si x(t) satisface (??), necesariamente v(t) debera satisfacer :

v00(s) + (a 1)v0(s) + bv(s) = f (es ) (4.26)


Para resolver (4.25), basta resolver (4.26), y aplicar la transformada x(t) = v(ln(t)), para
obtener una solucion.

Ejemplo 4.2.6 Resolvamos la ecuacion diferencial :


t x00(t) 2tx0(t) + 2x(t) = t e
2 3 t (4.27)
Consideramos primero el problema homogeneo.
Mediante el cambio de variables v(s) = x(es) obtenemos la expresion :

v00(s) + 3v0(s) + 2v(s) = 0 (4.28)


P () =  3 + 2 = ( 2)( 1).
2

Luego H(L) es generado por las funciones fe s; esg.2

Notamos que como v (s) = e s, y v (s) = es son soluciones de (4.28), entonces x (t) =
2
2
1 2

e ln t = t , y x (t) = eln t = t son soluciones del problema homogeneo asociado a (4.27).


2 ( ) 2
1
( )

Consideramos, ahora, el problema no homogeneo.


68 CAPITULO 4. ECUACIONES LINEALES DE ORDEN N

2 t t
W (t; t )(t) = 1 2t = t
2
2

Luego, de niendo :
x ( t) Z
f ( t) Z tte t Z 2 3

u (t) = W (x ; x )(t) dt = 2
dt = t e t dt 3
1
t 2

Z x (t)f (t) Z tte t Z


1 2

u (t) = W (x ; x )(t) dt = t
t = t e dt
1 2
2
2
1 2

Obtenemos la solucion general


Z Z
x(t) = c t + c t + u (t)t + u (t)t = c t + c t
1 2
2
1 2
2
1 2
2
t t e tdt + t t e tdt
3 2 2
Captulo 5
Sistemas Lineales de Primer Order
5.1 Introduccion
Consideraremos el sistema sgte. en las funciones x (t); x (t); : : :; xn(t)
1 2

x0 (t) = a (t)x (t) + a x (t) + : : : + a n(t)xn(t) + b (t)


11 1 12 2 1 1

x0 (t) = a (t)x (t) + a x (t) + : : : + a n(t)xn(t) + b (t)


1

...
2 21 1 22 2 2 2

x0n(t) = an (t)x (t) + an x (t) + : : : + ann(t)xn(t) + bn(t)


1 1 2 2

Este se llama un Sistema Lineal de Primer Orden , y tiene n incognitas, y n ecuaciones.

De namos :
0x (t) 1 0 b (t) 1 0 1 0 x0 (t) 1
BB C B C BB a ..(t) ::: a n(t) C B x0 (t) CC
1 1

x (t) C b (t) C
1

B 11

...
1

... C x~ 0(t) = B
~x(t) = BB@ C
... C ~ B C
b(t) = B .. C A(t) = @ .
2 2

A BB . CC
2

A @ . A an (t) ::: ann (t) @ .. A


xn(t) bn(t) 1
x0 (t)
n
El problema a resolver, queda entonces como :

~x0(t) = A(t)  ~x(t) + ~b(t)

Ejemplo 5.1.1 Reduccion de Orden de Una Ecuacion Lineal


Una ecuacion lineal de orden n :

69
70 CAPITULO 5. SISTEMAS LINEALES DE PRIMER ORDER

xn + a (t)xn + a (t)xn + : : : + an(t)x = f (t)


1
1
2
2

Se puede re-escribir como un sistema de ecuaciones de primer orden.

De namos :
x (t) = x(t)
=) x0 (t) = x0(t) = x (t)
1

x (t) = x0(t)
=) x0 (t) = x00(t) = x (t)
2 2

x (t) = x00(t)
1

..
3 2 3

.
xn (t) = x n (t) =) x0n (t) = x n (t) = xn (t)
1
( 2) ( 2)
1

xn(t) = x n (t)
2
( 1)

Por ultimo,
xn(t) + a (t)xn (t) + a (t)xn (t) + : : : + an(t)x(t) = f (t)
1
1
2
2

implica,
x0n(t) = an(t)x (t) an x (t) : : : a (t)xn(t) + f (t)
1 1 2 1

Luego,
0 1
0 x0 (t) 1 0 1 0 0 : : : 0 C 0 x (t) 1 0 0 1
B
B 0 0 1 0 ::: 0 C
BB CC B BB x (t) CC BB 0 C
.. C
1

x0 (t)
1

BB ... CC B
=B .. C
. C  B
B C
C + BB . C C
. . .. C
2 2

@ A B
B CC @ .. A @ A
x0n(t) @ 0 0 0 0 ::: 1 A xn(t) f (t)
an an 1 an 2 an 3 ::: a 1

Observacion 5.1.1 Con esta misma metodologia un sistema de orden mayor tambien se
puede re-escribir como un sistema de primer orden.

Ejemplo 5.1.2 Considere el sistema de ecuaciones de segundo orden :


x00 = a(t)x + b(t)y
y00 = c(t)x + d(t)y
Hacemos el siguiente cambio de variables:
x = x
x0 =) x0 = x0 = x
1

x =
y =) x0 = x00 = a(t)x + b(t)x
2 2

x
1

=
y0 =) x0 = y0 = x
3 1 3

x
2

4 = 3 4
5.2. EXISTENCIA Y UNICIDAD 71
Por ultimo,
y00 = c(t)x + d(t)y =) x0 = c(t)x + d(t)x
4 1 3

Representando este nuevo sistema matricialmente, obtenemos


0 x0 (t) 1 0 0 1 0 0 1 0 x (t) 1
BB x0 (t) C
1
B a(t) 0 b(t) 0 CC BB x (t) CC
1

B@ x0 (t) C
2
C
A = B
B
@ 0 0 0 1 CA  B@ x (t) CA
2

3
0
x (t) c(t) 0 d(t) x (t)
3

4
0 4

Con lo cual nuestro problema se reduce a un sistema de ecuaciones lineales de primer orden.

5.2 Existencia y Unicidad


Teorema 5.1 Teorema de Existencia y Unicidad
Consideremos:
~x0(t) = A(t)~x(t) + ~b(t) (5.1)

Si A(t) y ~b(t) tienen coe cientes continuas en I . Entonces, dado x~ 2 IR y t 2 I existe n

una unica solucion de 5.1 en I , tal que ~x(t ) = x~ .


0 0

0 0

(La demostracion de este teorema se incluye en los apendices)

Consideraremos a continuacion la ecuacion homogenea :


~x0(t) = A(t)  ~x(t) (5.2)

Buscamos probar que el conjunto de soluciones de (5.2) es un espacio vectorial de dimension


n. Es decir, la solucion de 5.2 siempre puede escribirse como :
~x(t) = c ~x (t) + c ~x (t) + : : : + cn~xn(t)
1 1 2 2

donde c ; : : : ; cn 2 IR y ~x ; : : :;~xn son soluciones linealmente independientes de 5.2


1 1

De nicion 5.1 Las funciones ~x (t); : : :;~xn(t) se dicen linealmente dependientes en I si


1

existen constantes c ; : : : ; cn , no todas nulas, tal que


1

c ~x (t) + c ~x (t) + : : : + cn~xn(t) = 0 8t 2 I


1 1 2 2
72 CAPITULO 5. SISTEMAS LINEALES DE PRIMER ORDER
Ejemplo 5.2.1
80 t 1 0 t 1 0 19
>
<B e 2e >
@0 C ; B
A @ 0 CA ; B@ 1t CA= son l.d.
>
: et 2et 0 ;
>
Demostracion : En efecto :
0 t1 0 t1 0 1 0 1
e 2e t 0
@0C
2B @ 0 CA + 0 B@ 1 CA = B@ 0 CA 8t
A 1B
et 2et 0 0
Ejemplo 5.2.2
( ! !)
et ; tet son l.i.
1 t
Demostracion En efecto :
! ! !
c et + c t et = 00 8t
1
1 1 2

=)
c + c t = 0 8t
1 2

En particular,
(t = 0)(c + c t = 0) =) c = 0
(t = 1)(c + c t = 0) =) c = 0
1 2 1

=) c = c = 0 =) son l.i.
1 2 2

1 2

De nicion 5.2 Sea fx~ ; : : :; x~ng una familia funciones vectoriales. Se de ne su Wron-
1

skiano, como la funcion determinante :


x (t) x (t) : : : x (t)
; 1 1 ; 1 2 ;n
1
;x ( t) x ; ( t) : : : x ;n (t)
W [x~ ; : : :; x~n](t) = det[fx~ ; : : : ; x~ng] = .. 2 1

...
2 2 2

...
1 1
.
xn; (t) xn; (t) : : : xn;n(t)
1 2

Teorema 5.2 Sea fx~ ; : : : ; x~ng un conjunto de soluciones de (5.2). Se tiene que fx~ ; : : :; x~ng
es linealmente independiente en I si y solo si W [x~ ; : : :; x~n](t) =
6 0 8t 2 I .
1 1

Demostracion
Si fx~ ; : : :; x~ng son soluciones linealmente independientes en I del sistema homogeneo (5.2)
1

se puede aplicar el Teorema de Existencia y Unicidad para probar que W [x~ ; : : : ; x~n](t) 1
5.2. EXISTENCIA Y UNICIDAD 73
nunca es cero en I . Supongamos lo contrario.Es decir, suponemos que existe t 2 I , tal que 0

W [x~ ; : : :; x~n](t ) = 0.
1 0

Puesto que W [x~ ; : : :; x~n ](t ) corresponde a un determinante, se debe tener que las columnas
1 0

de la matriz
0 x (t ) x (t ) : : : x (t ) 1
; ; ;n
B
B x ; ( t
1 1

) x ; ( t
0

) : : : x
1 2
C
;n(t ) C
0 1 0

B ... C
@ ...
B ... CA
2 1 0 2 2 0 2 0

xn; (t ) xn; (t ) : : : xn;n(t )


1 0 2 0 0

son linealmente dependientes. Es decir, existen constantes c ; : : :; cn , no todas nulas, tal que 1

c ~x (t ) + : : : + cn~xn(t ) = 0:
1 1 0 0

Como se tiene que c ~x (t) + : : : + cn~xn(t) y el vector cero son soluciones de (5.2), y coinciden
1 1

en el punto t , de acuerdo al Teorema de Existencia y Unicidad, estas soluciones deben ser


identicas en I . Es decir,
0

c ~x (t) + : : : + cn~xn(t) = 0 8t 2 I
1 1

Pero esto contradice la hipotesis de que el conjunto fx~ ; : : :; x~ng es linealmente independiente
en I . Luego W [x~ ; : : : ; x~n](t) 6= 0 8t 2 I .
1

Teorema 5.3 Existe una familia linealmente independiente de soluciones fx~ ; : : :; x~ng de 1

(5.2).

Demostracion
Por el Teorema de Existencia y Unicidad, sabemos que 8i 2 f1 : : : ng existe ~xi(t), solucion
de (5.2), tal que ~xi(t ) = e~i. Ademas, tenemos que :
0

x (t ) x (t ) : : : x (t ) 1 0 : : : 0

; ; ;n
1 : : : 0
1 1 0 1 2 0 1 0

;x ( t ) x ; ( t ) : : : x ;n (t ) 0
W [x~ ; : : : ; x~n](t ) = .. ... ... = ... ... ... = jI j = 1:
2 1 0 2 2 0 2 0

1 0
.
xn; (t ) xn; (t ) : : : xn;n (t ) 0
1 0 2 0 0 0 ::: 1

Del Teorema (5.2), sabemos que es su ciente encontrar un punto en que W [x~ ; : : : ; x~n](t) 6= 0
para asegurar independencia lineal. Como W [x~ ; : : :; x~n](t ) = 1, tenemos que fx~ ; : : :; x~ng
1

1 0 1

es un conjunto linealmente independiente, con lo que concluimos la demostracion del teorema.


74 CAPITULO 5. SISTEMAS LINEALES DE PRIMER ORDER
Teorema 5.4 Sea fx~ ; : : : ; x~ng una familia de soluciones linealmente independiente en I de
1

(5.2). Se tiene que toda solucion ~x(t) de (5.2) puede escribirse de la forma
x(t) = c ~x (t) + : : : + cn~xn(t)
1 1

para alguna familia de constantes fc ; : : :; cng: 1

Demostracion
Sea fx~ ; : : :; x~ng una familia de soluciones linealmente independiente en I de (5.2). Como
6 0, necesariamente se tiene que la matriz
1

W [x~ ; : : :; x~n](t) =
1

0 x (t ) x (t ) : : : x (t ) 1
BB x ;; (t ) x ;; (t ) : : : x ;n;n(t ) CC
1 1 0 1 2 0 1 0

BB . 2 1

...
0 2 2

... C CA
0 2 0

@ ..
xn; (t ) xn; (t ) : : : xn;n(t )
1 0 2 0 0

es invertible, para cada t 2 I . Luego, se tiene que existe una familia de constantes
fc ; : : :; cng: tal que el sistema
0

0 x (t ) x (t ) : : : x (t ) 1 0 c 1 0 x (t ) 1
; ; ;n 1

B
B x ; (t ) x ; (t ) : : : x ;n(t ) C
1 1 0 1 2 0

CC BBB c CCC BBB x (t ) CCC


1 0 1 0

B
2

=
@ ...
B ... ... C A B@ ... CA B@ ... CA
2 1 0 2 2 0 2 0 2 0

xn; (t ) xn; (t ) : : : xn;n (t )


1 0 2 0 cn xn(t ) 0 0

tiene solucion. Es decir, se tiene que existe fc ; : : :; cn g tal que 1

c ~x (t ) + : : : + cn~xn (t ) = ~x(t ):
1 1 0 0 0

Como c ~x (t) + : : : + cn~xn(t) y la funcion ~x(t) son soluciones de (5.2) en I y coinciden en


t , por el Teorema de Existencia y Unicidad, estas dos funciones deben ser identicas en I .
1 1

Luego,

c ~x (t) + : : : + cn~xn(t) = ~x(t) 8t 2 I :


1 1

Con lo que concluimos el teorema.


De nicion 5.3 Un conjunto de soluciones linealmente independiente fx~ ; : : : ; x~ng de (5.2)
en I se llama conjunto fundamental de soluciones de (5.2)
1

De nicion 5.4 Si fx~ ; : : :; x~ng es un conjunto fundamental de soluciones de (5.2), decimos


1

que
x(t) = c ~x (t) + : : : + cn~xn(t)
1 1

es la solucion general que (5.2).


5.2. EXISTENCIA Y UNICIDAD 75
De nicion 5.5 Consideramos una matriz X (t) de la forma
0 x (t) x (t) : : : x (t) 1
; ; ;n
B
B x ; (
1 1

t) x ; ( t
1 2

) : : : x C
;n(t) C
1

B
X (t) = B .. 2 1

...
2 2

... CCA
2

@ .
xn; (t) xn; (t) : : : xn;n(t)
1 2

Si las columnas de X (t) son un conjunto fundamental de (5.2), decimos que X (t) es una
matriz fundamental de (5.2).
Observacion 5.2.1

1. ~x(t) es solucion general ssi existe X (t) matriz fundamental, tal que x(t) = X (t)~c.
2. Si X (t) es matriz fundamental, se tiene que X 0 (t) = A(t)X (t) 8t 2 I .
3. Si X (t) es matriz fundamental, y fx~ ; : : :; x~ng son sus columnas, entonces jX (t)j =
W [x~ ; : : :; x~n](t) 6= 0.
1

Ejemplo 5.2.3 Insertar un ejemplo.


Propiedad 5.2.1 Principio de Superposicion
Sea L(~x) = ~x0 A~x, y sean ~x (t);~x (t) soluciones, respectivamente, de los sistemas no
1 2

homogeneos
L(~x ) = g
1 1 L(~x ) = g
2 2

Entonces c ~x (t) + c ~x (t) es solucion de


1 1 2 2

L(~x) = c g + c g
1 1 2 2

Teorema 5.5 Sea ~xp(t) una solucion particular del sistema no homogeneo
~x0(t) = A(t)~x(t) + f~(t) (5.3)
en el intervalo I , y sea fx~ ; : : : ; x~ng un conjunto fundamental de soluciones en I del sistema
homogeneo correspondiente ~x0(t) = A(t)~x(t). Entonces, toda solucion de (5.3) en I se puede
1

expresar en la forma :
~x(t) = ~xp(t) + c ~x (t) + : : : + cn~xn(t):
1 1

Donde fc ; : : : ; cng es una familia de constantes.


1
76 CAPITULO 5. SISTEMAS LINEALES DE PRIMER ORDER
Demostracion
Claramente se tiene que ~x(t) = ~xp(t) + c ~x (t) + : : : + cn~xn(t) es solucion de (5.3), pues :
1 1

L(~x(t)) = L(~xp(t)) + L(c ~x (t) + : : : + cn~xn(t)) = f + 0 = f


1 1

Por otro lado, consideremos una solucion ~x(t) de (5.3) que satisface x(t ) = ~x , y veamos 0 0

que se puede representar de la forma ~x(t) = ~xp(t) + c ~x (t) + : : : + cn~xn(t): Por Teorema
de Existencia y Unicidad, por ser fx~ ; : : : ; x~ng conjunto fundamental, sabemos que existe
1 1

fc ; : : :; cng tal que c ~x (t ) + : : : + cn~xn(t ) = ~x ~xp(t ). Luego se tiene que


1

1 1 1 0 0 0 0

~xp(t ) + c ~x (t ) + : : : + cn~xn(t ) = ~x(t ):


0 1 1 0 0 0

Como ~xp(t)+ c ~x (t)+ : : : + cn~xn(t) y la funcion ~x(t) son soluciones de (5.2) en I y coinciden
1 1

en t , por el Teorema de Existencia y Unicidad, estas dos funciones deben ser identicas en
I . Luego,
0

~x(t) = ~xp(t) + c ~x (t) + : : : + cn~xn(t) 8t 2 I :


1 1

5.3 Sistemas a Coe cientes Constantes. Caso Diago-


nalizable
En esta seccion estudiaremos la ecuacion
~x0(t) = A~x(t) (5.4)
Donde A es una matriz (real) de n  n constante, y diagonalizable.
Notamos que por ser A una matriz diagonalizable, se tiene que :
A = P T DP
Donde P es una matriz ortonormal (PP T = I ), cuyas columnas corresponen a los vectores
propios, f~v ; : : : ;~vng, de A, y D es una matriz diagonal, cuyas componentes corresponden a
los valores propios, f ; : : :; n g.
1

De nimos ~y(t) = P~x(t), y notamos que


~x0(t) = P T DP~x(t) () P~x0(t) = DP~x(t) () (P~x(t))0 = D(P~x(t)) () ~y0(t) = D~y(t)
Pero
0 y0 (t) 1 0  0 : : : 0 1 0 y (t) 1 y0 (t) =  y (t)
BB y0 (t) C
1

C B
B 0  ::: 0 C
1

CC BBB y (t) CCC


1

y0 (t) =  y (t)
1 1 1

~y0(t) = D~y (t) () B B@ ... C C = B ()


A B @ ... ... ... CA B@ ... CA ...
2 2 2 2 2 2

yn0 (t) 0 0 : : : n yn (t) yn0 (t) = nyn (t)


5.3. SISTEMAS A COEFICIENTES CONSTANTES. CASO DIAGONALIZABLE 77
Como las ecuaciones son independientes unas de otras, tenemos que
y (t) = c e t
1 1
1

y (t) = c e t 2

...
2 2

yn(t) = cn ent
Para calcular ~x(t) recordamos que ~x(t) = P~y(t). Como las columnas de P corresponden a
los vectores f~v ; : : :;~vng,
1

0 c e t 1 1

BB c e t CC 1

~x(t) = P~y(t) = (~v j~v j : : : j~vn) BB@ ... CCA = c e t~v + c e t~v + : : : cn ent~vn
2
2
1 2
1 2 1 1 2 2

cn ent
De la deduccion de ~x(t) se tiene que claramente es solucion de (5.4). El siguiente teorema
con rma que es solucion general.
Teorema 5.6 Sea A una matriz (real) de n  n constante, y diagonalizable. Sea f~v ; : : :;~vng 1

su base de vectores propios, y sea i el valor propio correspondiente a ~vi. Entonces


fe t~v ; : : :; ent~vng
1
1

es un conjunto fundamental de soluciones de (5.4) en ( 1; 1). Por consiguiente, la solu-


cion general de (5.4) es
~x(t) = c e t~v + c e t~v + : : :cn ent~vn
1
1
1 2
2
2

Donde fc ; : : : ; cng son constantes arbitrarias.


1

Demostracion
Veamos que ~x(t) = eit~vi es solucion de (5.4) 8i 2 f1; : : : ; ng. En efecto,

~x0(t) = (eit~vi)0 = i (eit~vi) = eit(i~vi) = eitA~vi = A(eit~vi) = A~x


Veamos que el conjunto fe t~v ; : : : ; ent~vng es linealmente independiente en todo IR. En
1
1

efecto,

W [x~ ; : : : ; x~n](t) = det[e t~v ; : : : ; ent~vn] = e   ::: n tdet[~v ;~v ; : : :;~vn]


1
1
1
( 1+ 2 + + )
1 2

Como f~v ;~v ; : : :;~vng es un conjunto linealmente independiente tenemos que det[~v ;~v ; : : :;~vn] 6=
0 =) W [x~ ; : : : ; x~n](t) 6= 0. Luego fe t~v ; : : :; ent~vng es l.i.
1 2 1 2

1
1 1
78 CAPITULO 5. SISTEMAS LINEALES DE PRIMER ORDER
Corolario 5.1 Si una matriz constante A de nn tiene n valores propios distintos f ; : : :; n g,
1

entonces :
fe t~v ; : : :; ent~vng
1
1

es un conjunto fundamental de soluciones del sistema homogeneo ~x0(t) = A~x(t)

Demostracion
El resultado es directo si recordamos que si una matriz constante A de n  n tiene una familia
de m valores propios distintos f ; : : : ; mg, se tiene que si ~vi es el vector propio correspon-
diente a i, entonces f~v ; : : :;~vng es una familia de vectores linealmente independiente.
1

5.3.1 Valores Propios Complejos


Propiedad 5.3.1 Sea A una matriz constante de n  n, con coe cientes en IR. Si  es un
valor propio complejo de A, se tiene que  (El conjugado de ) tambien es valor propio.
Mas aun, si ~v es el vector propio correspondiente a  se tiene que ~v es el vector propio
correspondiente a .

Dado que este resultado corresponde a un resultado de Algebra Lineal, dejaremos los detalles
de su demostracion al lector.

Propiedad 5.3.2 Si una matriz real A tiene valores propios conjugados  = + i ;  =


i , y si ~v = ~a+i~b, y ~v = ~a i~b son, respectivamente, sus vectores propios correspondientes,
entonces dos soluciones vectoriales de ~x0(t) = A~x(t) linealmente independiente, son :
~x (t) = e tcos( t)~a + e tsen( t)~b
1 ~x (t) = e tcos( t)~a e tsen( t)~b
2

Demostracion
Sabemos que fet~v; et~vg son soluciones de A~x(t) = ~x0(t). Notamos que :
w~ (t) = et~v = e i t(~a + i~b) = e t(cos( t) + isen( t))(~a + i~b)
1
+

= e t(cos( t)~a sen( t)~b) + ie t(sen( t)~a + cos( t)~b)


= ~x (t) + i~x (t)
2 1

Puesto que w~ (t) es solucion de A~x(t) = ~x0(t), entonces


1

~x0 (t) + i~x0 (t) = w~ 0 (t) = A~w (t) = A~x (t) + iA~x (t)
2 1 1 1 2 1

Igualando partes reales e imaginarias, se obtiene :


5.4. VARIACIO N DE PARAMETROS
 79

~x0 (t) = A~x (t)


1 1 ~x0 (t) = A~x (t)
2 2

Por consiguiente, f~x0 (t);~x0 (t)g son soluciones vectoriales reales de A~x(t) = ~x0(t). Puesto
que ~a; ~b no son simultaneamente cero, se puede demostrar que f~x0 (t);~x0 (t)g son linealmente
1 2

independientes en ( 1; +1). La demostracion de esto ultimo se deja al lector.


1 2

5.4 Variacion de Parametros


En el capitulo 2 estudiamos el metodo de variacion de parametros para una ecuacion lineal
de segundo orden. Expuesto en forma sencilla, la idea es que si una solucion general de la
ecuacion homogenea tiene la forma xh(t) = c x (t)+c x (t), donde x (t); x (t), son soluciones
1 1 2 2 1 2

linealmente independientes de la ecuacion homogenea, entonces una solucion particular de


la ecuacion no homogenea tendria la forma xp(t) = u (t)x (t) + u (t)x (t), donde u (t); u (t)
1 1 2 2 1 2

son ciertas funciones de t. Se puede emplear una idea muy similar para los sistemas.
Sea X (t) una matriz fundamental del sistema homogeneo
~x0(t) = A(t)~x(t)
Donde ahora las componentes de A pueden ser funciones continuas arbitrarias de t. Puesto
que una solucion general del problema homogeneo esta dada por la X (t)~c, donde ~c es un
vector constante, se busca una solucion particular del sistema no homogeneo
~x0(t) = A(t)~x(t) + f~(t)
De la forma ~xp(t) = X (t)~u(t): Donde ~u(t) es una funcion vectorial de t por determinar. Para
tener una formula de ~u(t), primero derivamos ~xp(t) obteniendo :
~x0p(t) = X (t)~u0(t) + X 0(t)~u(t) = X (t)~u0(t) + A(t)X (t)~u(t)
Como nos interesa que ~xp(t) sea solucion del problema no homogeneo, imponemos
~x0p = A(t)~xp(t) + f~(t)
Luego,
X (t)~u0(t) + A(t)X (t)~u(t) = A(t)~xp(t) + f~(t) =) X (t)~u0(t) = f~(t)
Como det(X (t)) 6= 0, sabemos que X (t) es invertible, luego
Z
~u (t) = X (t)f (t) =) ~u(t) = X (t)f~(t)dt
0 1 ~ 1

Por consiguiente, una solucion particular del problema no homogeneo es


Z
~xp(t) = X (t) X (t)f~(t)
1
80 CAPITULO 5. SISTEMAS LINEALES DE PRIMER ORDER
Entonces, tenemos que la solucion general esta dada por la expresion
Z
~x(t) = X (t)~c + X (t) X (t)f~(t) 1

Observacion 5.4.1 Dada una condicion inicial ~x(t ) = x~ , despejando ~c se obtiene facilmente
0 0

Zt
~x(t) = X (t)X (t )x~ + X (t)
1
0 0
t0
X (t)f~(t)
1

Observacion 5.4.2 Para aplicar las formulas de variacion de parametros es necesario primer-
amente determinar una matriz fundamental X (t) del sistema homogeneo. En el caso de que
la matriz A es constante, ya se han considerado metodos para encontrar X (t). Sin embar-
go, si las componentes de A dependen de t, la determinacion de X (t) puede ser sumamente
dificil.

Ejemplo 5.4.1 Encontremos la solucion del problema de valor inicial


! ! !
~x0(t) = 2 3 ~x(t) + e t 2

~x(0) = 1
1 2 1 0
Primero consideramos el problema homogeneo.
Sabemos que el polinomio caracteristico asociado a la matriz A esta dado por

p() = 2 1  3 = (2 )( 2 ) + 3 =  1 = ( 1)( + 1)
2 
2

Luego los valores propios asociados a A son f1; 1g.


El vector propio asociado a  = 1 es solucion de la ecuacion :
1

! !
1 3 0
1 3 ~v = 0 1

Analogamente, el vector propio asociado a  = 1 es solucion de la ecuacion :


2

! !
3 3 0
1 1 ~v = 0 2

Luego, se tiene que :


! !
~v = 31
1 ~v = 11
2
5.4. VARIACIO N DE PARAMETROS
 81
y por consiguiente, obtenemos el conjunto fundamental
! !
x~ (t) = 31 et
1 ~x = 11 e
2
t

y la matriz fundamental asociada es


!
X (t) = 3eet ee
t t
t

cuya inversa, corresponde a


e t e t !
X (t) =
1
et
2
3
2
et
2 2

Recordamos que la solucion particular dada por el metodo de variacion de parametros es


Z !Z ! !
x~ p(t) = X (t) X (t)f~(t) = 3eet ee
t t e t e t e t dt
2
1
t et
2
et
3
2

1
2 2

De la observacion (5.4.1) tenemos que la solucion del problema de condicion inicial esta
dada por la expresion

! ! ! !Z t ! !
x(t) = 3et e t 1 1
1 + 3et e t e s e s e s ds
2

et e t 0 et e t es es 1
2 2 2 2
1 3 3

! !Z t !
0
2 2 2 2

3et e t
e 3et t es e s
= et
2
e
2
t + e et t e3s
2

+ 3
2
es ds
t ! t e t ! !
0
2 2 2 2

3et e 3 e et + e t 1
= et
2
e
2
t + et e t 3et e3t
2 2
4

e t + e t +3 !
2 2 2 6 3

9 et 5 4
2

= 2
3et 5
6
e t + e t +2
3
2

2 6 3

5.4.1 El Sistema de Cauchy-Euler


De nicion 5.6 Un sistema de ecuaciones diferenciales de primer orden de Cauchy-Euler
es una expresion de la forma
t~x0(t) = A~x(t) (5.5)
82 CAPITULO 5. SISTEMAS LINEALES DE PRIMER ORDER
En lo que sigue supondremos que la matriz A es constante, y diagonalizable.
Resolucion
Sabemos que A tiene n valores propios f ; : : : ; n g (no necesariamente distintos), y n vec-
tores propios linealmente independiente f~v ; : : :;~vng asociados.
1

Para resolver (5.5) basta encontrar n soluciones linealmente independientes.


Sea ~v un vector propio de A, y sea  su valor propio asociado. Veamos que ~x(t) = t~v es
solucion de (5.5).
En efecto,
t(~x(t))0 = t(t~v)0 = tt ~v = t(~v) = tA~v = A(t~v) = A~x(t)
1

Por otro lado, veamos que el conjunto de soluciones ft ~v ; : : : ; tn~vng es l.i.
1
1

En efecto,
W [x~ ; : : :; x~n](t)(t) = t  ::: n det[~v ; : : :;~v ]
1
1+ 2+ +
1 2

Como f~v ; : : : ;~vng es linealmente independiente, concluimos que


1

W [x~ ; : : :; x~n](t)(t) 6= 0 8t 6= 0
1

Luego
ft ~v ; : : :; tn~vng
1
1

es conjunto fundamental de (5.5) en ( 1; 0) [ (0; +1).


Observacion 5.4.3 Si  = + i es valor propio complejo, notamos que  = i tambien
lo es. Sean ~v = ~a + i~b y ~v = ~a i~b sus vectores propios asociados respectivamente. Para
encontrar dos soluciones l.i. que sean reales, observamos que

t = t + i = t ti = t elnti = t ei lnt = t (cos( lnt) + isen( lnt))


( )

Luego,
t~v = t (cos( lnt) + isen( lnt))(~a + i~b)
= t (cos( lnt)~a sen( lnt)~b) + it (cos( lnt)~b + sen( lnt)~a)
Entonces,
~x (t) = t (cos( lnt)~a sen( lnt)~b)
1 ~x (t) = t (cos( lnt)~b + sen( lnt)~a)
2

Son soluciones de (5.5).

Demostrar que ~x (t);~x (t) son efectivamente linealmente independientes y solucion se de


1 2

dejan como ejercicio al lector.


5.5. LA MATRIZ EXPONENCIAL 83
5.5 La Matriz Exponencial
En esta seccion estudiaremos como resolver el sistema
~x0(t) = A~x(t) (5.6)
Donde A es una matriz (real) de n  n constante, no necesariamente diagonalizable.
Es decir, estudiaremos el caso en que A tiene un numero menor que n de vectores propios
linealmente independientes.

Ejemplo 5.5.1 Estudiemos el sistema lineal ~x0(t) = A~x(t), donde


!
A = 41 1
3

Veamos que A no es diagonalizable. En efecto,



p() = 1 4  1 = (1 )( 3 ) + 4 =  + 2 + 1 = ( + 1) :
3 
2 2

Es decir,  = 1 es valor propio de multiplicidad dos.


Los vectores propios de A satisfacen la ecuacion
! ! ! ! !
1  1 v 1
= 42 1 v 1
= 00
4 3  v 2 4 v 2

Pero, ! ! ! ! * !+
2 1 v = 0 () 2v = v () v 2 1
1 1

4 4 v 2 0 1
v 2
2 2

Como A no tiene dos vectores propios distintos que sean linealmente independientes, no
podemos aplicar los resultados anteriormente vistos para encontrar un conjunto fundamental.

De nicion 5.7 Sea A 2 Mnn (IR). De nimos la matriz exponencial de A en t 2 IR, como
X1 tk Ak
etA  = I + tA + t A + t A + : : :
2 3
2 3

k
=0
k! 2 6

Observacion 5.5.1 Recordemos que en IR, eax = P1k =0


tk ak .
k !
84 CAPITULO 5. SISTEMAS LINEALES DE PRIMER ORDER
Propiedad 5.5.1 Sea D 2 Mnn (IR) una matriz diagonal. Se tiene que
0 0 ::: 0
1 0 e t 0 : : : 0 1
1

BB 0 1

 ::: CC B C
CC =) eDt = BBB 0. e . : : : 0. CCC
0 t
D=B
2

B@ ... ... ...


2

A @ .. .. .. A
0 0 ::: n 0 0 : : : e nt


Demostracion :
Se tiene que
0 k 1 0 tk k 1
0 ::: 0 0 ::: 0
1 B CC
BB 0 C k
BB
1

k : : : X1 tk D k X
1
tk k : : :
!

0 C 0 0 CC
D =B
k
B@ ... ...
2
... C
C =) k! k B
= B@ ... k!
...
2
... CA
A k
0 0 ::: kn
=0 =0

0 0 ::: tk k
k n !

Luego,
0 P1 tk k 1 0 t 1
B k k P 0k ::: 0 e 0 : : :
CC B 0 e t : : : 0 C 0
1

B
=0 1

Xt D B 1
k k  :::
t
!
1 k k
= B
0 k 0 CC = BB . . .
CC 2

. . ... B .. C
=0 2

k! B CA @ .. ..
!

k @ .. .. A
: : : P1k tkk kn 0 0 : : : ent
=0

0 0 =0 !

Propiedad 5.5.2 Sea A 2 Mnn (IR) una matriz diagonalizable. Se tiene que
A = PDP =) eAt = PeDtP 1 1

Demostracion :
A = PDP =) A = PDP PDP = PD P =) Ak = PDk P
1 2 1 1 2 1 1

Luego,
X1 t k Ak X1 tk PDk P 1
X1 tk Dk
eAt = =
k! k k! =P k! P = PeDtP 1 1

k
=0 =0 k
=0

Teorema 5.7 W (t) = eAt es una matriz fundamental del sistema ~x0(t) = A~x(t).
Demostracion :
Para que W (t) sea matriz fundamental basta veri car las siguientes dos propiedades.
5.5. LA MATRIZ EXPONENCIAL 85
1. Cada columna de debe ser solucion de (5.6).
2. El conjunto de columnas debe ser linealmente independiente.
1. Veamos que W (t) veri ca W 0(t) = AW (t). En efecto,

W (t) = eAt = I + tA + t2 A + t6 A + : : :
2 3
2 3

Luego,
!
W 0(t) = d I + tA + t A + t A + : : :
2
2
3
3

dt 2 6 !
0 + A + tA + t2 A + : : :
2

= 2 3

!
= t 2
t
A I + tA + 2 A + 6 A + : : :
2
3
3

= AW (t)
Luego todas las columnas de W (t) son solucion de (5.6).
2. Las columnas de W (t) son linealmente independientes. En efecto, si fw~ (t); : : :; w~ n (t)g 1

son las columnas de W (t), entonces


W [w~ ; : : :; w~n](0) = det(W (0)) = det(I ) = 1 6= 0:
1

Luego, puesto que existe t tal que W [w~ ; : : :; w~n ](t ) 6= 0, concluimos que fw~ ; : : : ; w~ng
0 1 0 1

es un conjunto linealmente independiente.


Propiedad 5.5.3 Propiedades de la Matriz Exponencial
1. eA = I
0

2. eA t = eAteAs
s
( + )

3. e At = (eAt ) 1

4. e A B t = eAteBt (Si AB = BA).


( + )

5. eAt = etet A I ( )

Demostracion
1. Directo.
86 CAPITULO 5. SISTEMAS LINEALES DE PRIMER ORDER
2. Sean W (t) = eAt, H (t) = W (t + s) W (t)W (s).
Se tiene que H (t) satisface las siguientes propiedades :
(a) H (0) = W (s) IW (s) = 0.
(b) H 0(t) = W 0(t + s) W 0(t)W (s) = AW (t + s) AW (t)W (s)0 = AH (t).
Luego, cada columna de H (t) es solucion de (5.6), y coincide con el vector cero en
t = 0. Luego, por teorema de existencia y unicidad se debe tener que cada columna es
identicamente cero, con lo que concluimos
H (t) = 0 8t =) W (t + s) = W (t)W (s)
3. Por el resultado anterior, tenemos que :
e AteAt = eA t eAt = eA t t = eA = I
( ) ( ) 0

Luego, e At = (eAt) . 1

4. Propuesto.
5. Usando la propiedad anterior, se tiene que :

eAt = e A I I t = eItet A I
(( )+ ) ( )

Pero, dado que I es matriz diagonal, se tiene que eIt = Iet, luego

eAt = etet A ( I )

Observacion 5.5.2 A partir de los resultados anteriores, la formula de variacion de parametros


toma una forma mas simple. Mas aun, toma la misma forma que se tiene la solucion de
una ecuacion lineal de primer orden. La solucion de ~x0(t) = A~x(t), sujeto a ~x(t ) = ~x se 0 0

puede expresar como Zt


~x(t) = eA t t ~x + eA t s f~(s)ds
( 0) ( )

t0
0

De nicion 5.8 Se dice que una matriz B 2 Mnn (IR) es nilpotente, si existe m 2 IN; m  0,
tal que B k = 0 8k  m.

Lema 5.1 Si A 2 Mnn (IR) tiene un valor propio  de multiplicidad n, se tiene que : 0

!
eAt = e0t I + (A  I )t + : : : + (A  I )n 1
tn1

:
0 0
(n 1)!
5.5. LA MATRIZ EXPONENCIAL 87
Demostracion :
Si A tiene un valor propio  de multiplicidad n, se tiene que su polinomio caracteristico es
0

p() = (  )n . Recordamos que el teorema de Cayley Hamilton establece que una matriz
siempre satisface su propia ecuacion caracteristica. Luego se tiene que
0

p(A) = 0 () (A  I )n = 0 =) (A  I )k = 0 8k  n:
0 0

Luego, concluimos que :


X1 k nX k X1 k
eAt = e tet A  I = e t t (A k! I ) = e t t (A k! I ) + e t t (A k! I )
k 0
1 k
0
k 0
0 ( 0 ) 0 0 0

k k k n
nX tk (A  I )k
=0 =0 =
!
= e  t 0
1
0  t
+ 0 = e I + (A  I )t + : : : + (A  I )
0 n tn
1
1

k =0
k! 0 0
(n 1)!
De nicion 5.9 Si  es un valor propio de A, decimos que ~v es un vector propio gener-
alizado de A, asociado a , si existe m 2 IN; m  1, tal que (A I )m~v = 0.
Observacion 5.5.3 Los vectores propios de una matriz tambien son vectores propios gen-
eralizados.
Teorema 5.8 Existencia de vectores propios generalizados
Sea A 2 Mnn (IR). Se tiene que :
1. Si  es un valor propio de A de multiplicad m, entonces existen m vectores propios
generalizados, linealmente independientes, asociados a : Mas aun, si f~v ; : : :;~vmg son
estos vectores, se tiene que f~v ; : : :;~vmg  Ker((A I )m ).
1

2. Existen n vectores propios generalizados de A, linealmente independientes, tales que


si  es un valor propio de A de multiplicidad m, entonces hay m, y solo m vectores
propios generalizados asociados a .
La demostracion de este teorema es extensa, y escapa los topicos que pretende cubrir este
texto. Se deja el estudio de este teorema propuesto al lector.
Observacion 5.5.4 Sea A 2 Mnn (IR), y sea  un valor propio de A de multiplicidad m.
Para calcular los vectores propios generalizados asociados a  se procede como sigue :
Se resuelve el sistema (A I )~v = 0. Si el numero de vectores ~v que resuelven dicho sistema
es menor que m, se procede a resolver el sistema (A I ) ~v = 0. Si nuevamente se tiene
2

que el numero de vectores ~v que resuelven dicho sistema es menor que m, seguimos con
(A I ) ~v = 0, hasta llegar al sistema (A I )m~v = 0. Es decir, en a lo mas m iteraciones
3

habremos encontrado m vectores propios generalizados que sean linealmente independientes.


Es importante notar que si ~v es tal que (A I )k~v = 0, entonces se tendra que (A I )l~v =
0 8l  k .
88 CAPITULO 5. SISTEMAS LINEALES DE PRIMER ORDER
Lema 5.2 Sea A 2 Mnn (IR). Sea  un valor propio de A, y sea ~v un vector propio
generalizado de A, asociado a . Se tiene que
!
eAt~v = et I + (A I )t + : : : + (A I )m 1
tm 1

:
(m 1)!
Donde m es la multiplicidad de .
Demostracion :
Recordemos que eAt = etet A ( I )
, luego
X1 tk (A I )k ! X1 tk (A I )k~v !
eAt~v = etet A I
(
~v = et
)

k! ~v = e t
k!
k =0 k =0

Pero (A I )m~v = 0 =) (A I )k~v = 0 8k  m. Entonces,


Xm tk (A I )k~v ! tm ! 1
At
e ~v = et t m
= e I + (A I )t + : : : + (A I ) (m 1)! : 1

k k!
=0

Observacion 5.5.5 El Lema (5.2) es de gran utilidad, pues proporciona un metodo me-
diante el cual se puede calcular eAt~v en un numero nito de pasos, y sin conocimiento de
eAt.
Teorema 5.9 Sea A 2 Mnn (IR), y sea f~v ; : : : ;~vng un conjunto de vectores propios gen-
1

eralizados linealmente independiente de A. Se tiene que


feAt~v ; : : : ; eAt~vng
1

Es conjunto fundamental del problema ~x0 (t) = A~x(t).


Demostracion
Puesto que eAt es matriz fundamental, se tiene que todas sus columnas son solucion de
~x0(t) = A~x(t). Como eAt~v corresponde a una combinacion lineal de columnas de eAt, se
tiene que necesariamente tambien solucion de ~x0(t) = A~x(t) (El espacio de solucion de
~x0(t) = A~x(t) es espacio vectorial).
De namos ~xi(t)  eAt~vi. Para ver que fx~ ; : : :; x~ng es linealmente independiente, basta
1

observar que
W [x~ ; : : :; x~n](t)(t) = det[feAt~v ; : : :; eAt~vng] = det(eAt (~v j~v j : : : j~vn)) = det(eAt)det((~v j~v j : : : j~vn)):
1 1 1 2 1 2

Como f~v ; : : : ;~vng es linealmente independiente, y puesto que eAt es matriz fundamental se
1

tiene que
W [x~ ; : : : ; x~n](t)(t) 6= 0
1

Luego
feAt~v ; : : : ; eAt~vng
1

es un conjunto fundamental de soluciones de ~x0(t) = A~x(t).


5.5. LA MATRIZ EXPONENCIAL 89
Lema 5.3 Sean X (t) y Y (t) dos matrices fundamentales de un mismo sistema ~x0(t) = A~x(t).
Entonces se tiene que existe una matriz constante C tal que Y (t) = X (t)C .

Demostracion
Sean fx~ (t); : : :; x~n(t)g las columnas de X (t), y fy~ (t); : : :; y~n(t)g las columnas de Y (t).
Puesto que ~yj (t) es solucion, y dado que fx~ (t); : : :; x~n(t)g es conjunto fundamental, se tiene
1 1

que existen constantes fc ; : : :; cn g tales que ~yj (t) = c ~x (t) + : : : + cn~xn(t), para cada j .
1

1 1 1

Pero esto es lo mismo que escribir Y (t) = X (t)C .


Lema 5.4 Sea X (t) una matriz fundamental del sistema ~x0(t) = A~x(t). Se tiene que
eAt = X (t)X (0) 1

Demostracion
Dado que X (t) y eAt son matrices fundamentales, se tiene que existe una matriz constante
C tal que eAt = X (t)C . Evaluando en t = 0, y dado que X (t) es invertible para cada t, se
tiene que
I = X (0)C =) C = X (0) =) eAt = X (t)X (0)
1 1

Observacion 5.5.6 Dado que


feAt~v ; : : : ; eAt~vng
1

es un conjunto fundamental de soluciones de ~x0(t) = A~x(t), se tiene que


 
X (t) = ( eAt~v jeAt~v j : : : jeAt~vn )
1 2

es matriz fundamental. Luego, a partir de dicho conjunto fundamental, se tiene que podemos
obtener explicitamente eAt , de la forma
eAt = X (t)X (0) 1

Por n estamos en condiciones de poder dar un metodo de resolucion de un sistema ~x0(t) =


A~x(t) mediante el uso de la matriz exponencial.
Resolucion
Sea A 2 Mnn (IR). Nos interesa resolver el sistema
~x0(t) A~x(t) = f~(t):
Para esto, seguimos los siguientes pasos.
1. Calculamos los valores propios f ; : : : ; mg distintos de A.
1
90 CAPITULO 5. SISTEMAS LINEALES DE PRIMER ORDER
2. Si mi es la multiplicidad de i, determinamos mi vectores propios generalizados asoci-
ados.
3. Utilizamos los n vectores propios generalizados obtenidos para obtener un conjun-
to fundamental de soluciones del sistema homogeneo ~x0(t) = A~x(t), de la forma
feAt~v ; : : :; eAt~vng.
1

4. A partir del conjunto fundamental recien obtenido escribimos la matriz fundamental


 
X (t) = ( eAt~v jeAt~v j : : : jeAt~vn )
1 2

5. Utilizamos la formula de variacion de parametros, para obtener la expresion de la


solucion general : Z
~x(t) = X (t)~c + X (t) X (s)f~(s)ds
1

Observacion 5.5.7 Puede suceder que sea dificil el calculo de X (t), pero que sea sencillo
1

el calculo de X (0). En este caso, calculamos eAt = X (t)X (0). Utilizando la formula de
1 1

variacion de parametros, obtenemos la solucion general


Z
~x(t) = eAt~c + eAt e As f~(s)ds

Ejemplo 5.5.2 Resuelva el sistema


0 1
1 0 0
@ 1 3 0 CA ~x(t)
~x0(t) = B
0 1 1
y encuentre la matriz fundamental eAt.
El polinomio caracteristico de la matriz es,

1  0 0
p() = 1 3  0 = (1 ) (3 ) 2

0 1 1 
Luego sus valores propios son  =  = 1, y  = 3.
1 2 3

Calculemos los vectores propios asociados a  = 1.


0 10 1 0 1
0 0 0 v C B0C
(A I )~v = 0 () @ 1 2 0 A @ v A = @ 0 A () v +v 2v =
B C B 0
1
1 2

0 1 0 v
2

0 = 0 2
3

Pero,
5.5. LA MATRIZ EXPONENCIAL 91

0 1 *0 1+
v
v + 2v = 0 =) v = 0 =) B
1
@2
v CA 2 B@ 00 CA 1

v = 0 2
v 1
1 2

Dado que asociado a  = 1 hay solo un vector propio, le buscamos un vector propio gener-
alizado.
0 10 1 0 1
0 0 0 v 0
(A I ) ~v = 0 () @ 2 4 0 A @ v A = @ 0 C
B C B C B A () v + 2v = 0
1
2
2 1 2

1 2 0 v 0 3

Pero,
0 1 *0 1 0 1+
v 0 2
v + 2v = 0 () @ v A 2 @ 0 A ; @ 1 C
B C B C B 1

1 2 A 2

v 1 0 3

Por otro lado, sabemos que para  = 3 existe un vector propio asociado. Luego,
0 10 1 0 1
2 0 0 v 0 2v = 0
B C B C B C
(A I )~v = 0 () @ 1 0 0 A @ v A = @ 0 A () v = 0
1

2 1
1

0 1 2 v 0 v 2v = 0 3 2 3

Pero,
* 0 1 0 1+
2v = 0 v 0
B C
= 0 =) @ v A 2 B 2C
1 1

v 1 @ 2 A
v 2v = 0
2 v 3 3 1
Luego, obtenemos la base de vectores propios generalizados,
0 1 0 1 0 1
0 2 0
~v = @ 0 A ;~v = @ 1 A ;~v = @ 2 C
1
B C B C B 2A 3

1 0 1
Asociados a  = 1;  = 1;  = 3, respectivamente.
1 2 3

Como sabemos que ~v , y ~v son vectores propios, obtenemos las soluciones,


1 3

0 1 0 1
0 0
x~ (t) = e ~v = e @ 0 C
1
 t t B 1
A 1 ~x (t) = e ~v = e @ 2 C
3
 t t B3
A 3
3

1 1
92 CAPITULO 5. SISTEMAS LINEALES DE PRIMER ORDER
Por otro lado, dado que ~v es un vector propio generalizado de orden dos, obtenemos la
2

solucion,
!
~x (t) = e2t t
I + (A  I )t + (A  I ) 2 ~v 2
2

2 2 2 2

00 1 0 1 0 1 1
1 0 0 0 0 0 t 0 0 0
@B
et B @0 1 0C A ~v + t B@ 1 2 0 CA ~v + 2 B@ 2 0CA ~v CA
2

= 2 2 4 2

0 0 1 0 1 0 1 2 0
00 1 0 10 1 0 1 0 11
2 0 0 0 2 t 0 0 0 2
= t BB C B C B
e @@ 1 A + t @ 1 2 0 A @ 1 A + 2 @ 2C B 2

4 0 A@ 1 C
C B ACA
0 0 1 0 0 1 2 0 0
00 1 0 1 0 11
2 0 t 0
e @@ 1 A + t @ 0 A + 2 @ 0 C
B B C B C B ACA
2

= t
0 1 0
0 1
2
= t B
e@ 1 C A
t
Luego, la solucion general del problema es
0 1 0 1 0 1
0 2 0
1 @ 0 CA + c et B@ 1 CA + c e t B@ 2 CA
~x(t) = c et B 2 3
3

1 t 1
Como fx~ (t); : : :; x~n(t)g es conjunto fundamental, sabemos que
1

0 1
0 2et 0
@ 0 et 2e t CA
X (t) = B 3

et tet e t 3

es matriz fundamental. Luego


0 10 1
0 2et 0 0 2 0 1

eAt = X (t)X (0) 1


@ 0 et 2e t CA B@ 0
= B 3
1 2C A
et tet e t 1 3
0 1
0 10 1
0 2e 0 t 1
1
1

= @ 0 et 2e t C
B A B@ 0 0C A
4 2
3 1

et tet e t 0
2
3 1 1

0 4 2
1
B et 0 0
= @ et + e t
1 1 3
et 3
0 C
A
e tet + e t
t et + e t et
2 2
1 1 3 1 1 3
4 4 2 2
Captulo 6
Transformada de Laplace
6.1 Conceptos Basicos
Antes de empezar con el metodo de resolucion de ecuaciones diferenciales basado en la trans-
formada de Laplace, veamos algunas nociones basicas del operador de Laplace.
Una transformada T (u operador) es una funcion que asocia dos funciones. Es decir
f ! T (f )
Observemos que T (f )(s) representa la funcion T (f ) evaluada en el punto s.
Ejemplo 6.1.1 La derivada es una transformacion. En efecto
D : C [0; 1] ! C [0; 1]
1

f ! D (f ) = f 0
Donde C [0; 1] = ff : [0; 1] ! IR=f 0 es continua g y C [0; 1] = ff : [0; 1] ! IR=f es continua g.
1

Ademas notemos que D es un operador lineal, pues D( f + g) = D(f ) + D(g).


Como ya se introdujo el concepto de operador, veamos la transformada que motiva este
capitulo.
De nicion 6.1 La Transformada de Laplace es un operador denotado por L, de nido
como Z1
L(f (t))(s) = 0
e stf (t)dt s > 0 (6.1)

De nicion 6.2 Diremos que una funcion f es de orden exponencial si existen constantes
M y c tales que
jf (t)j  Mect
93
94 CAPITULO 6. TRANSFORMADA DE LAPLACE
Tomaremos como dominio de L al espacio de funciones f : (0; 1) ! IR tales que
1. f es continua por tramos.
2. f es de orden exponencial.
ObservacioZn 6.1.1 Notemos Zque si f es de ordenZ exponencial, entonces se tiene que
1 1
jf (t)je stdt  Mec  e st  M e s c t dt < +1 si s > c
0 0
( )

R
Entonces la integral impropia L(f )(s) = 1e st f (t)dt es convergente para todo s > 0, o
0

sea la transformada de Laplace de una funcion de orden exponencial esta de nida en un


intervalo de la forma (c; 1). Mas aun
Z1
jL(f )(s)j  e st jf (t)dtj  s M c ! 0 cuando s ! 1
0

Ejemplo 6.1.2 Para familiarizarnos con el concepto de orden exponencial, veamos algunos
casos.

1. Las funciones f (t) = eat ; eat  tn; tn sen(t); : : :,etc. Son funciones de orden exponencial.
2. Las funciones acotadas son de orden exponencial.
3. La funcion f (t) = et no es de orden exponencial, pues no existe c tal que t  ct en
2 2

(0; 1) =)no existe M; c tal que et  Mect en (0:1).


2

Observacion 6.1.2 Notemos que si f y g son de orden exponencial entonces f + g tam-


bien lo es. Ademas como L es lineal (por la linealidad de la integral), se tiene que
L( f + g)(s) = L(f )(s) + L(g)(s)

6.2 Transformadas mas Comunes


Calculemos la transformada de Laplace de las funciones mas conocidas.
Ejemplo 6.2.1 Calculemos L(f (t))(s) cuando f (t) = tn con n 2 IN.
Solucion En este caso usaremos integracion por partes en forma sucesiva. En efecto
??1 Z 1 st
Z1
tne stdt = t es ??? e  ntn dt
n st
L(tn)(s) = 1

n Z1
0

n Z1 s 0
0

= 0 s e sttn dt = s e sttn dt
1 1

0 0

...
Z1
= snn! e stdt = snn! +1
0
 COMUNES
6.2. TRANSFORMADAS MAS 95
Observacion 6.2.1 Si > 0 entonces
L(t )(s) = s L(t )(s)1

En virtud de la linealidad de L y usando el ejemplo anterior, podemos calcular la transfor-


mada de Laplace de un polinomio cualquiera.
Veamos ahora un resumen de las transformadas de Laplace mas usadas.
L(1)(s) = 1s L(tn)(s) = snn+! 1 (6.2)
L(sen(at))(s) = s +a a 2 2
L(cos(at))(s) = s +s a 2 2
(6.3)
L(senh(at))(s) = s a a 2 2
L(cosh(at))(s) = s s a 2 2
(6.4)
L(eat)(s) = s 1 a s > a (6.5)
L(f 0)(s) = sL(f ) f (0) (6.6)
La ultima de las transformadas en la lista es de suma importancia para las ecuaciones
diferenciales, pues "transforma"las derivadas en una expresion polinomial para s. Debido a
lo anterior, revisemos esta transformacion.
Z1 ?1 Z 1
L(f 0)(s) = f 0(t)e stdt = f (t)e st?? 0
f (t)( se st)dt
= f (0) + sL(f )(s)
0 0

Notemos que esta transformada se tiene solo si f (t) y f 0(t) son de orden exponencial.
Suponiendo que se tienen las condiciones anteriores , podemos iterar el proceso y calcu-
lar la transformada de Laplace de derivadas con orden superior (PROPUESTO???). Esto
nos permitira resolver ecuaciones diferenciales desde un punto de vista distinto, aplicando la
transformada al problema diferencial. Este metodo sera estudiado en las proximas secciones.
Prosigamos con el estudio de las propiedades de la transformada.
Propiedad 6.2.1

1. Formula del desplazamiento:


L(eatf (t))(s) = L(f (t))(s a)
2. Formula de la derivada de la transformada:
L(tnf (t))(s) = ( 1)n dsn L(f (t))(s)
n
96 CAPITULO 6. TRANSFORMADA DE LAPLACE
Demostracion 6.1

1. Por de nicion se tiene que


Z1 Z1
L(eatf (t))(s) = 0
e st eatf (t)dt =
0
e ( s a t f (t)dt = L(f (t))(s
)
a)

2. Notemos que
Z1 Z1 d e stf (t)dt = d Z 1e stf (t)dt
L(tf (t))(s) = 0
e st tf (t)dt =
0 ds ds | {z } 0

Lft s
( ( ))( )

Usemos el razonamiento anterior en el caso L(tn f (t))(s). Para esto, observemos que
d
dsn e = ( 1) t e , luego procediendo de manera analoga se concluye el resultado.
n st n n st

Como en la proposicion anterior llegamos a una expresion para la derivada de la transformada


de Laplace, aparece naturalmente la pregunta si existe una formula para la integral del
operador de Laplace.
Propiedad 6.2.2 Formula de la integral de la transformada de Laplace
f ( t) Z1
L( t )(s) = s L(f (t))(s)ds

Demostracion 6.2 Llamemos G(s) = L( f tt )(s). Usando la propiedad anterior obtenemos


( )

que
dG(s) = L(( t) f (t) ) = L(f (t))
ds t
En consecuencia Zp
G(s) = L(f (t))(s)ds
s
Para algun p. Imponiendo la condicion G(s) ! 0 cuando s ! 1 (ver observacion 6.1.1) se
tiene que p = 1 con lo cual obtenemos
Z1
G(s) = L( f (tt) )(s) = L(f (t))(s)ds
p

En adelante diremos transformada inversa de g(s) a la funcion x(t) tal que L(x(t))(s) = g(s)
y se denotara L . Observemos que como L es lineal, se tiene que L tambien lo es.
1 1
 DE FUNCIONES
6.3. TRANSFORMADA DE UNA CONVOLUCION 97
6.3 Transformada de una Convolucion de Funciones
Como vimos en la seccion anterior, es necesario estudiar las propiedades de la transformada
de Laplace para poder utilizar este operador en la resolucion de ecuaciones diferenciales.
En esta seccion analizaremos el comportamiento de la transformada en presencia de una
convolucion de funciones. Previamente, de namos algunos conceptos basicos.
De nicion 6.3 Sean f y g dos funciones de nidas en [0; 1), continuas por trozos. La
convolucion de f y g se de ne como
Zt
(f  g)(t) = f ( )g(1  )d
0

Ejemplo 6.3.1 Calculemos la convolucion entre f (t) = et y g(t) = sen(t).


Solucion Zt
(e  sen(t)) = e sen(1  )d = 21 ( sen(t) cos(t) + et)
t
0

Por ultimo veamos la relacion entre la convolucion y la transformada de Laplace. El teorema


que viene a continuacion, nos permitira determinar el resultado de la transformacion sin tener
que pasar por la de nicion de convolucion y operador de Laplace.
Teorema 6.1 Si f (t) y g(t) de nidas en [0:1) continuas por trozos y de orden exponencial,
se tiene que  
L(f (t)  g(t))(s) = L(f (t))L(g(t)) (s)
Demostracion 6.3 Se tiene que
  Z 1 Z 1 
L(f (t))L(g(t)) = e stf (t)dt e sr g(r)dr
Z 1Z 1 0
Z1 Z1
0

= e s t r f (t)g(r)dtdr = f (t) s
( + ) st r
( + )
g(r)drdt
0 0 0 0

Hagamos el cambio de variable  = t + r y notemos que d = dr. Obtenemos que


Z1 Z1
(L(f (t))L(g(t))) = f (t) e s g( t)ddt
0 0

Intercambiando el orden de integracion resulta que 1

Z1 Z Z1 Z  
(L(f (t))L(g(t))) = e s f (t)g(1 t)dtd = e s f (t)g(1 t)dt d = L(f  g)
0 0 0 0

1 Este cambio es posible, pues f y g son continuas por trozos y de orden exponencial. Ver el teorema de
Fubini en cualquier libro de Calculo.
98 CAPITULO 6. TRANSFORMADA DE LAPLACE
Ejemplo 6.3.2 Calculemos la transformada inversa de s s . 1
2 ( 2 +1)

Solucion Recordemos que L(t)(s) = s y que L(sen(t))(s) =


1
2 S2
1
. Por el teorema de
convolucion se tiene que
+1

L(t  sen(t))(s) = s1  1 +1 s 2 2

En vista de lo anterior, calculemos t  sen(t). Por de nicion se tiene que


Zt Zt Zt
t  sen(t) = (t  )sen( )d = t sen( )d sen( )d
0 0 0

El primer termino no presenta mayores problemas y basta integrar por partes el segundo
termino para obtener
Zt
t  sen(t) = tsen(t) + t ([ cos( )]t 0
cos( )d = tcos(t) + t + tcos(t) sen(t)
0

Concluimos que L ( s 1 1
s
2 (1+ 2 ) ) = t sen(t).

6.4 Aplicaciones
En esta seccion estudiaremos el uso de la transformada de Laplace como metodo de resolucion
de ecuaciones diferenciales ordinarias. Tambien veremos su aplicacion a problemas integro-
diferenciales y la ecuacion de Bessel.

6.4.1 Metodo de la Transformada de Laplace


Supongamos que queremos hallar una solucion particular de la ecuacion diferencial
x00(t) + ax0(t) + bx(t) = f (t) (6.7)
Que satisfaga las condiciones iniciales x(0) = x y x0(0) = x . Apliquemos la transformada
0 1

de Laplace y en virtud de su linealidad, podemos escribir (6.7) como


L(x00(t)) + aL(x0(t)) + bL(x(t)) = Lf (t)
Utilizando las propiedades vistas en la ecuacion (6.6) e imponiendo las condiciones iniciales,
podemos expresar la ecuacion anterior como
s L(x(t)) sx x + asL(x(t)) ax + bL(x(t)) = L(f (t))
2
0 1 0

Por ultimo despejamos L(x(t)) obteniendo


L(x(t)) = L(f (t))s++(sas++a)bx + x
2
0 1
(6.8)
6.4. APLICACIONES 99
Si somos capaces de encontrar (o reconocer) que funcion x(t) cumple con la ecuacion (6.8),
habremos obtenido una solucion a nuestro problema, condiciones iniciales incluidas. Este
procedimiento es particularmente adecuado para resover ecuaciones del tipo (6.7) en las que
la funcion f (t) es continua a trozos, pues los otros metodos expuestos anteriormente no
consideraban este caso.
Observacion 6.4.1 En relidad falta veri car si puedo aplicar la transformada a x(t). Se
puede probar (omitiremos la demostracion) que si f (t) es continua a trozos y de orden expo-
nencial, entonces x(t); x0(t); x00(t) admiten transformada de Laplace.

Ejemplo 6.4.1 Resolvamos una ecuacion diferencial con codicion inicial. Sea
x00(t) + 4x(t) = 4t; con x(0) = 1 x0(0) = 5 (6.9)
Solucion
1. Apliquemos transformada de Laplace a la ecuacion (6.9) y usemos las propiedades
vistas en la ecuacion (6.6) para obtener la siguiente expresion
L(x00(t) + 4x(t))(s) = L(x00(t))(s) + 4L(x0(t))(s) = L(4t)(s)
= s L(x(t)) sx(0) x0(0) + 4L(x(t))(s) = 4L(t)(s)
2

= L(x(t))(s + 4) s 5 = 4
2

s2

Despejando L(x(t)) se obtiene

L(x(t))(s) = (s +4 4)s + s s+ 4 + s 5+ 4 = s1
2 2 2 2 2 2
1 + s + 5
s +4 s +4 s +4
2 2

2. Reconociendo cada termino de la expresion anterior (usando la ecuacion (6.3)), pode-


mos construir una solucion x(t) de (6.9), es decir
L(x(t))(s) = L(t)(s) + 2L(sen(2t))(s) + L(cos(2t))(s)
Concluimos que una solucion es x(t) = t + 2sen(2t) + cos(2t).

6.4.2 Ecuaciones Integrales


Otra aplicacion importante de la transformada de Laplace, es el ambito de las ecuaciones
Integrales e incluso las Integro-Diferenciales. Nuestro interes estara principalmente en los
problemas que contengan una integral tipo convolucion.
100 CAPITULO 6. TRANSFORMADA DE LAPLACE
Ejemplo 6.4.2 Resolvamos la ecuacion
Zt
x(t) = x +
3
sen(t  )x( )d (6.10)
0

Solucion Tomemos transformada de Laplace a la ecuacion (6.10) y utilizemos todos las


propiedades revisadas en los capitulos anteriores, para obtener que
L(x(t)) = L(t ) + L(sen(t)  x(t)) = L(t ) + L(sen(t))L(x(t))
3 3

Recordando las igualdades obtenidas en las ecuaciones (6.2) hasta (6.6) expresamos la ecuacion
anterior como
L(x(t))(s) = s3! + 1 +1 s  L(x(t))
4 2

Despejando L(x(t)) se llega a

L(x(t))(s) = s (16(1++s s ) 1) = 6(s s+ 1) = s6 + s6


2 2

4 2 6 4 6

Ajustando las constantes para reconocer las transformadas inversas, llegamos al resultado
3 5
t
L(x(t))(s) = L(t )(s) + 201 L(t )(s) =) x(t) = t + 20 3
5

En el ejemplo anterior podemos apreciar el uso de la transformada de Laplace en ecuaciones


integrales. En los ejercicios del nal del capitulo se propondra el estudio de ecuaciones
integro-diferenciales como otra aplicacion del operador de Laplace.

6.4.3 Ecuacion de Bessel


En esta seccion desarrollaremos el metodo de resolucion basado en la transformada de
Laplace, aplicado a una ecuacion muy importante llamada Ecuacion de Bessel. Esta
ecuacion aparecio por vez primera en los estudios de las oscilaciones de una cadena colgante.
Mas recientemente, las ecuaciones de Bessel han encontrado diversas aplicaciones en fisica
e ingenieria en relacion con la propagacion de ondas, elasticidad, movimiento de uidos y
especialmente en la teoria del potencial. La ecuacion se formula como
t x00(t) + tx0(t) + (t
2 2
)x(t) = 0
Nosotros desarrollaremos la ecuacion de Bessel de orden = 0.
Ejemplo 6.4.3 Resolvamos con el metodo de la transformada de Laplace la ecuacion
x00(t) + x(tt) + x(t) = 0 () tx00(t) + x0(t) + tx(t) = 0 (6.11)
6.4. APLICACIONES 101
Solucion Apliquemos la transformada a la ecuacion anterior
L(tx00(t)) + L(x0(t)) + L(tx(t)) = 0 =) dsd L(x(t)) + sL(x(t)) x(0) + dsd L(x(t)) = 0
o equivalentemente
d (s L(x(t)) sx(0) x0(0)) + sL(x(t)) x(0) d L(x(t)) = 0
2

ds ds
d
(2sL(x(t)) + s ds L(x(t)) 1) + sL(x(t)) 1 ds
2
d L(x(t)) = 0

(s + 1) dsd L(x(t)) sL(x(t)) = 0 2

De namos w(s) = L(x(t))(s), luego podemos reescribir la ecuacion anterior como


dw(s) = sw(s) () dw(s) = s ds
ds s +1 w(s) s +1 2 2

Resolviendo la ecuacion de variables separables se obtiene que


log w(s) = 21 log(s + 1) + log K K > 0 =) w(s) = (s + 1) = + log K
2 2 1 2

Como ya hemos encontrado w(s) solo nos resta despejar la solucion x(t). Para esto resolva- 2

mos
L ((s + 1) =  K ) = K  L (( s1 + 1) =  1s )
1 2 1 2
(6.12) 1
2
1 2

Recordemos la expansion de Taylor para expresiones del tipo


X1 !
(1 + x) = k x k
k
  ::: k
=0

donde k = ( 1) (

k . Utilizando la expansion en la ecuacion (6.12) obtenemos que


+1)

! !
!

= 1 X
1 1 X
1 1
1 1

(1 + s ) = 2 1 2

k =sk
2

k s
k 2
k s
2
2 +1
=0 k =0

Ahora ajustamos las constantes para obtener una transformada inversa, llegando a
! X !
(1 + s ) = = X1
2
1
1 2
L ( t k ) = L
1 1 t k
1
2 2
1
2 2

k k 2k ! =0 k k 2k ! ==0

Concluimos que el resultado nal es


X1 !
x(t) = K 1 tk 1
2 2

k k 2k ! =0

Imponiendo la condicion inicial x(0) = 1 se tiene que K = 1.


on clasica de la solucion es J0(t), pero para ser consistentes con la notacion del texto, nosotros
2 La notaci
la llameremos x(t)
102 CAPITULO 6. TRANSFORMADA DE LAPLACE
Captulo 7
Series de Potencia
7.1 Series de Potencia
Las ecuaciones diferenciales, tienen a menudo soluciones expresadas en terminos de fun-
ciones elementales tales como polinomios, exponenciales, senos y cosenos . Sin embargo, hay
muchas ecuaciones importantes que no poseen soluciones que puedan expresarse en forma tan
conveniente. En este capitulo nuestro objetivo es obtener una representacion de la solucion
en serie de potencias.
De nicion 7.1 Una Serie de Potencia en torno a un punto t es una expresion de la 0

forma:
X
1
an(t t )n = a + a (t t ) + a (t t ) + ::::
0 0 1 0 2 0
2
(7.1)
n=0

Donde t es una variable y los coe cientes an son constantes.


P Se dice que (7.1) converge en
1
el punto t = r si la serie in nita ( de numeros reales ) n an(r t )n converge; esto es, el
limite de las sumas parciales,
=0 0

X
N
lim
N !1
an(r t )n 0 (7.2)
n
=0

existe (como numero nito). Si este limite no existe, se dice que la serie de potencias diverge
en t = r.
Observese que (7.1) converge en t = t ya que 0

X
1
a n (t 0 t )n = a + 0 + 0 + :::::: = a
0 0 0 (7.3)
n=0

Pero, > que se puede decir acerca de la convergencia para otros valores de t? Como se
establece en el proximo teorema, una serie de potencias de la forma (7.1) converge para todo
103
104 CAPITULO 7. SERIES DE POTENCIA
valor de t perteneciente a un cierto "intervalo"con centro en t y diverge para los valores de t
0

que esten fuera de este intervalo. Ademas, en los puntos


P interiores de dicho intervalo, se dice
que la serie de potencias converge absolutamente si n jan(t t )nj converge. (Recordemos
1
=0 0

que la convergencia absoluta de una serie implica la convergencia ordinaria de la serie).


Teorema 7.1 Para cada serie de potencias de la forma (7.1), existe un numero  con 0 
  1, llamado radio de convergencia de la serie de potencias, tal que (7.1) converge
absolutamente para jt t j <  y diverge para jt t j > . Si la serie (7.1) converge para
todo valor real de t, entonces  = 1. Si la serie converge solamente en t , entonces  = 0.
0 0

Demostracion 7.1 Esta demostracion es mas propia de un curso de calculo, por lo que
dejamos al lector la tarea de estudiarla.
Observese que el teorema anterior resuelve la cuestion de la convergencia, excepto en los
extremos t  . De manera que estos dos puntos requieren de un analisis separado. Para
0

determinar el radio de convergencia , un metodo que a menudo resulta facil de aplicar es


el criterio del cuociente.
Teorema 7.2 Si ?? an ??
n!1 ? a ? = L
lim +1

n
Donde 0  L  1, entonces el radio de convergencia de la serie de potencias es  = 1=L
Demostracion 7.2 Por las mismas razones que el teorema anterior, omitiremos esta de-
mostracion que se encuentra en cualquier texto de calculo.
Observacion Se advierte que si el cuociente jan =an j no existe, entonces se deben emplear
+1

otros metodos distintos del criterio del cuociente (como por ejemplo el criterio de la raiz)
para determinar .
Para cada valor de t para la cual la serie de potencias converge, se obtiene un numero que es
la suma de la serie. Resulta apropiado denotar esta suma con f (t), ya que su valor depende
de la eleccion de t. Dadas dos series de potencias
X
1 X
1
f (t) = an(t t0 )n ; g(t) = bn (t t )n
0

n=0 n =0

con radios de convergencia distinto de cero, se desea obtener representaciones en series de


potencias de la suma, el producto y la division de las funciones f (t) y g(t). La suma se
obtiene por medio de la adicion termino a termino:
X
1
f (t) + g(t) = (an + bn)(t t )n 0

n =0
7.1. SERIES DE POTENCIA 105
Para todo t perteneciente al intervalo de convergencia comun de las series de potencias. La
representacion de la serie del producto entre f (t) y g(t) es:
X
1
f (t)g(t) = cn (t t )n 0

n =0

donde cn = Pnk akbn k El cuociente f (t)=g(t) tambien tendra un desarrollo en serie de


potencias en torno a t siempre que g(t ) 6= 0. Sin embargo, el radio de convergencia de esta
=0

0 0

serie puede resultar menor que el de f (t) o g(t). Desafortunadamente, no existe una formula
comoda para obtener los coe cientes de la serie de potencias.
El siguiente teorema explica, en parte, porque las series de potencias son tan utiles.
Teorema 7.3 Si la serie f (t) = P1n an(t t )n tiene un radio de convergencia positivo ,
=0 0

entonces la derivacion termino a termino da lugar a la serie de potencias de la derivada de


f:
X
1
f 0(t) = nan(t t )n 0
1

n=0

y analogamente con la integracion:


Z X1 a
n
f (t)dx = (t t )n + C +1

n n +
=0
1 0

Demostracion 7.3 Ambos resultados se deben a la linealidad de los operadores derivacion


e integracion. En efecto, al ser lineal la derivada (integral), f 0 (t) coincide con la derivada
termino a termino, luego se concluye el teorema (analogo para la integral).

Notemos que no todas las funciones se pueden expresar como serie de potencias, luego aparece
naturalmente la de nicion:
De nicion 7.2 Se dice que una funcion f es analitica Pen t si, en un intervalo abierto en
0

torno a t , esta funcion es la suma en serie de potencias 1


0 n an (t t ) , que tiene un radio
n
=0 0

de convergencia positivo.
Por ejemplo, una funcion polinomial b + b t + ::: + bntn es analitica para todo t ya que
0 1 0

siempre se puede reescribir en la forma a + a (t t ) + ::: + an(t t )n . Asi tambien, las


0 1 0 0

funciones elementales et, sin t y cos t son analiticas para todo t, mientras que ln t es analitica
para todo t > 0. En efecto, se tienen las representaciones:
t X1 tn
e = (7.4)
n n! =0

X1 ( 1)n
sin t = (2 n + 1)! tn 2 +1
(7.5)
n =0
106 CAPITULO 7. SERIES DE POTENCIA
X1 ( 1)n
cos t = (2 n )! tn 2
(7.6)
n =0

X1 ( 1)n 1

ln t = n (t 1)n (7.7)
n =1

En la expresion de la serie de potencia de ln t es en torno a t = 1, sin embargo se puede


obtener una expresion para todo t > 0.

Observacion 7.1.1 Recordemos que las series tienen una propiedad de unicidad, pues, si
la ecuacion:
X
1 X
1
an(t t )n =
0 bn(t t )n
0

n
=0 n
=0

es valida en algun intervalo abierto en torno a t , entonces an = bn para n = 0; 1; 2; 3; 4; :::.


0

Por tanto, si de alguna manera se puede obtener un desarollo en serie de potencia para una
funcion analitica, entonces esta serie de potencias debe ser su serie de Taylor.

7.2 Soluciones en series de potencias de ecuaciones difer-


enciales lineales
En esta seccion demostraremos un metodo para obtener una solucion en serie de potencia de
una ecuacion diferencial lineal con coe cientes polinomiales. Este metodo a veces proporciona
una expresion precisa del termino general del desarrollo en serie de potencia. El conocer la
forma del termino general, nos permite tambien aplicar algun criterio para obtener el radio
de convergencia de la serie de potencias.
Empezemos escribiendo la ecuacion diferencial lineal:
a (t)x00 + a (t)x0 + a (t)x = 0
2 1 0

en la forma canonica
x00 + p(t)x0 + q(t)x = 0 (7.8)
donde p(t) = a (t)=a (t) y q(t) = a (t)=a (t).
1 2 0 2

De nicion 7.3 Un punto t se llama punto ordinario de la ecuacion (7.8) si p = a =a


y q = a =a son analiticas en t . Si t no es punto ordinario, se le llama punto singular
0 1 2

0 2 0 0

de la ecuacion.
En un punto ordinario t de la ecuacion, las funciones coe cientes p(t) y q(t) son analiticas
0

y, por lo mismo, es de esperar que las soluciones de estas ecuaciones hereden tal propiedad.
Este razonamiento se probara mas adelante, ahora veamos un ejemplo para ilustrar el metodo
de de resolucion.
7.2. SOLUCIONES EN SERIES DE POTENCIAS DE ECUACIONES DIFERENCIALES LIN
Ejemplo 7.2.1 Encuentre una solucion en serie de potencias en torno a t = 0 de:
x0 + 2tx = 0
Solucion El coe ciente de x es el polinomio 2t, que es una funcion analitica en cualquier
parte, y entonces t = 0 es un punto ordinario de la ecuacion. Asi, suponemos que se puede
encontrar una solucion en serie de potencias de la forma:
X
1
x(t) = antn (7.9)
n =0

Ahora nuestra tarea consiste en encontrar los coe cientes an . Para este n se necesita del
desarrollo de x0 (t) proporcionado por la diferenciacion termino a termino de x(t):
X
1
x0(t) = nan tn 1

n
=1

Ahora sustituyendo los desarrollos en serie de x(t) y x0(t), se obtiene:


X
1 X
1
nan tn 1
+ 2t antn = 0
n
=1 n =0

Lo cual se reduce a:
X
1 X
1
nantn + 1
2an tn = 0+1
(7.10)
n =1 n
=0

Para sumar las dos series de potencias presentes en (7.10), sumamos los coe cientes de
potencias iguales de t, obteniendo:
a + (2a + 2a )t + (3a + 2a )t + (4a + 2a )t + ::: = 0
1 2 0 3 1
2
4 2
3
(7.11)
Para que la serie de potencias del primer miembro de la ecuacion (7.11) sea identicamente
cero, se debe veri car que todos los coe cientes sean iguales a cero. De modo que
a =0 1 2a + a = 0
2 0

3a + 2a = 0
3 1 4a + 2a = 0 etc:
4 2

Resolviendo el sistema anterior, resulta


a = 0 a = a a = 32 a = 0
1 2 0 3 1

a = 12 a = 21 ( a ) = 21 a
4 2 2 0

Por tanto la serie de potencia de la solucion adopta la forma


x(t) = a a t + 12 a t + :::
0 0
2
0
4
108 CAPITULO 7. SERIES DE POTENCIA
Usando la ecuacion (7.10) podemos obtener la relacion de recurrencia que se puede usar
para determinar el coe ciente ak en terminos de ak , esto es,
+1 1

ak = k +2 1 ak
+1 1

Luego haciendo k = 1; 2; 3; ::: y utilizando el hecho de que a = 0, resulta que: 1

a = 22 a = a (k = 1); a = 23 a = 0 (k = 2)
2 0 0 3 1

a = 24 a = 21 a (k = 3); a = 52 a = 0 (k = 4)
4 2 0 5 3

Tras una buena inspeccion se observa que:


n
a n = ( n1)! a n = 1; 2; 3; :::
2 0

a n = 0 n = 0; 1; 2; :::
2 +1

Sustituyendo la expresion (7.11), se obtiene la solucion en serie de potencias


X1 n
x(t) = a a t + 21 a t + ::: = a ( n1)! t n
0 0
2
0
4
0 (7.12) 2

n =0

Puesto que el coe ciente a se deja indeterminado, sirve como constante arbitraria y, por
0

lo tanto, la ecuacion (7.12) proporciona la solucion general. Ademas se puede veri car que
dicha expresion converge a:
x(t) = a e t 0
2

Por ultimo, notemos que este metodo sirve tambien para resolver problemas de valor inicial,
ya que basta reemplazar el valor de x(0) en la expresion encontrada para calcular el valor de
a , lo que nos lleva a una solucion unica en serie de potencias del problema de valor inicial.
0

7.3 Ecuaciones con Coe cientes Analiticos


Acabamos de encontrar un metodo para las ecuaciones diferenciales de coe cientes con-
stantes, en torno a un punto ordinario, ahora es interesante ver el caso de coe cientes no
constantes. Primero veamos un teorema de existencia.
Teorema 7.4 Supongase que t es un punto ordinario de la ecuacion
0

x00(t) + p(t)x0(t) + q(t)x(t) = 0 (7.13)


Entonces, (7.13) tiene dos soluciones analiticas linealmente independientes de la forma
X
1
x(t) = an(t t )n 0 (7.14)
n
=0
7.3. ECUACIONES CON COEFICIENTES ANALITICOS 109
Ademas, el radio de convergencia de cualquier solucion en serie de potencias de la forma
(7.14) es por lo menos igual a la distancia de t al punto singular (real o complejo) de la
0

ecuacion (7.13) mas cercano.


Como se vio en la seccion anterior, el metodo de las series de potencias entrega una solucion
general de la misma forma de (7.14), con a y a como constantes arbitrarias (son dos
0 1

constantes pues es de segundo grado). Las dos soluciones mencionadas en el teorema se


pueden obtener tomando a = 1 y a = 0, para la primera y a = 0 y a = 1 para la segunda.
0 1 0 1

Ahora veamos un ejemplo para ilustrar el metodo de resolucion en este caso.


Ejemplo 7.3.1 Encuentre los primeros terminos del desarrollo en serie de potencias en
torno a t = 1 de la solucion general de la ecuacion
2x00 + tx0 + x = 0
Determine tambien el radio de convergencia de la serie.
Solucion Notemos que esta ecuacion no tiene puntos singulares, pues p(t) = t=2 y q(t) = 1=2
son analiticas para todo valor de t. De modo que t = 1 es un punto ordinario, luego la
ecuacion tiene la solucion de la forma
X
1
x(t) = an(t 1)n (7.15)
n
=0

Se pueden simpli car los calculos de los coe cientes an, trasladando el centro del desarrollo
(7.15) de t = 1a r = 0. Esto se lleva a cabo por medio de la sustitucion r = t 1. puesto
0 0

que x(t) = x(r + 1), en virtud de la regla de la cadena, resulta que


dx = dx ; dx=dx
2 2

dt dr dt dr2 2

entonces la ecuacion inicial se transforma en


2 ddrx + (r + 1) dx
2

2
dr + x = 0 (7.16)
Lo que nos lleva a buscar una solucion de la forma
X
1
x(r) = anrn (7.17)
n
=0

donde los coe cientes an de las ecuaciones (7.17)y (7.15) son iguales. Procedindo como de
costumbre, sustituimos al serie de potencias de x(r) en (7.16), deducimos una formula de
recurrencia para los coe cientes y nalmente obtenemos que
x(t) = a (1 41 (t 1) + 24
0
2
1 (t 1) + :::) + a ((t 1) 1 (t 1) 1 (t 1) + :::)
3
1
4 8
2 3

Notemos que si los coe cientes de la ecuacion lineal no son polinomios, pero si son funciones
analiticas, aun se puede encontrar la solucion por el mismo metodo.
110 CAPITULO 7. SERIES DE POTENCIA
7.4 Metodo de Frobenius
Se tiene la ecuacion
at x00(t) + btx0(t) + cx(t) = 0 t > 0
2

o escrita en la forma canonica


x00(t) + p(t)x0(t) + q(t)x(t) = 0 t > 0
con p(t) = p =t y q(t) = q =t (donde p y q son las constantes b=a y c=a, respectivamente).
0 0
2
0 0

Si sustituimos tr en la ultima ecuacion se obtiene


[r(r 1) + p r + q ]tr = 0 0 0
2

de donde resulta la Ecuacion indicial


r(r 1) + p r + q = 0 0 (7.18)
0

Por consiguiente, si r es una raiz de la ecuacion (7.18) entonces tr es una solucion de las
1
1

ecuaciones iniciales. Supongamos ahora de manera mas general que en vez de tener p y q
constantes, se tienen funciones analiticas. Esto es, en un cierto intervalo abierto comun con
0 0

centro en t = 0
X1
tp(t) = p + p t + p t + ::: =
0 1 pn tn 2
2

n =0

X1
t q(t) = q + q t + q t + ::: =
2
0 1 Q ntn 2
2

n
=0

De las ecuaciones anteriores, resulta que:


lim
t!
tp(t) = p 0
0 lim
t!
t q(t) = q
0
2
0

Y por consiguiente, para valores de t cercanos a 0 se tiene que tp(t)  p y t q(t)  q . Por 0
2
0

tanto es razonable suponer que las soluciones de la ecuacion inicial se comportaran (para
t cercano a 0) como las soluciones de la ecuacion de Cauchy-Euler(vistas en capitulos
anteriores)(OJO):
t x00 + p tx0 + q x = 0
2
0 0

De nicion 7.4 Se dice que un punto singular t de 0

x00(t) + p(t)x0(t) + q(t)x(t) = 0 (7.19)


es un punto singular regular si tanto (t t )p(t) como (t t ) q (t) son analitica en t . 2 1

De lo contrario, t se llama punto singular irregular


0 0 0

1 En la terminologia de variable compleja, p tiene un polo de orden a lo sumo 1, y q tiene un polo de orden
a lo sumo 2, en t0.
7.4. ME TODO DE FROBENIUS 111
Supongamos que t = 0 es un punto singular de la ecuacion (7.19) de manera que p(t) y q(t)
satisfacen:
X1 X
1
p(t) = pn t ; q(t) = qntn :
n 1 2

n =0 n =0

La idea del matematico Frobenius fue que, puesto que las ecuaciones de Cauchy-Euler tienen
soluciones de la forma tr , entonces para el punto singular t = 0, debe haber soluciones de
(7.19) de la forma tr, multiplicada por una funcion analitica. En consecuencia, se buscan
soluciones de la forma:
X
1 X
1
w(r; t) = tr antn = antn r ; t > 0
+

n =0 n =0

Sin perdida de generalidad, suponemos que a es una constante arbitraria distinta de cero,
entonces solo resta determinar r y los coe cientes an; n  1. Derivando w(r; t) con repecto
0

a t se obtiene
X
1 X
1
w0(r; t) = (n + r)antn + r 1
=) w00(r; t) = (n + r)(n + r 1)antn + r 2

n=0 n =0

Si se sustituyen los desarrollos anteriores de w(r; t); w0(r; t)w00(r; t); p(t) q(t) en (7.19), se
obtiene
X
1 X
1  X
1 
(n + r)(n + r 1)an tn + r 2
+ pn x n 1
(n + r)an tn + r 1

n=0
 nX
1
=0 n
 X
1
=0

+ qn tn 2
an tn r+
=0
n
=0 n
=0

Realizando las multiplicaciones y agrupando los terminos con potencias iguales de t, em-
pezando por la potencia menor tr . Llegamos a 2

[r(r 1) + p r + q ]a tr + [(r 1)ra + (r + 1)p a + p ra + q a + q a ]tr + : : : = 0


0 0 0
2
1 0 1 1 0 0 1 1 0
1

Como estamos igualando una serie de potencia a 0, se debe tener que cada coe ciente debe
ser cero. Considerando el primer termino, tr , resulta 2

[r(r 1) + p r + q ]a = 0 0 0 0

Como se ha supuesto que a 6= 0, la cantidad incluida dentro del corchete debe ser igual a
0

cero. Esto nos proporciona la ecuacion indicial que es similar a la que se obtuvo para las
ecuaciones de Cauchy-Euler. Esta ecuacion es llamada ecuacion indicial del punto t . 0

Ahora igualemos los coe cientes de tr a cero, tenemos que 1

[(r + 1)r + (r + 1)p + q ]a + (p r + q )a = 0 0 0 1 1 1 0

Dado que a es arbitrario y se conocen los valores de pi; qi y r, podemos despejar a conla
0 1

condicion de que el coe ciente a no sea cero. Haciendo recursivamente este proceso, se
0

pueden despejar los valores de an en funcion de pi ; qi; r; an ; : : :; a 0. 1

Para clari ar el metodo, veamos un ejemplo donde utilizaremos todos los conceptos vistos
anteriormente.
112 CAPITULO 7. SERIES DE POTENCIA
Ejemplo 7.4.1 Encontremos un desarrollo en serie de potencia en torno al punto singular
regular t = 0 de una solucion de
(t + 2)t x00 tx0 + (1 + t)x = 0 t > 0
2

Solucion En este caso p(t) = t (t + 2) y q(t) = t (t + 2) (1 + t), entonces


1 1 2 1

p = lim tp ( t) lim [ ( t + 2) ] = 1 1

t!
0
t!
0
=
2 0

q = lim t q ( t) = lim (2
t + 2) (1 + t) = 1 1

t!
0
0 t! 2 0

Puesto que t = 0 es un punto singular regular, se busca una solucion de la forma


X
1 X
1
w(t; r) = tr antn = antn+ R
n =0 n
=0

Debido al analisis anterior, r debe satisfacer la ecuacion indicial , luego se obtiene que
r(r 1) 12 r + 12 = 0
lo que se reduce a (2r 1)(r 1) = 0. Luego se tiene que r = 1 y r = 1=2 son raices de la
ecuacion indicial.
Utilizando la raiz mas grande, despejamos a ; a ; etc. Para esto sustituimos w(t; 1), w0 (t; 1)
1 2

y w00 (t; 1) en la ecuacion original, resultando


X
1 X
1 X
1
(t + 2)t 2
(n + 1)nantn 1
t (n + 1)antn + (1 + t) an tn = 0
+1

n
=0 n
=0 n
=0

En la expresion anterior, podemos agrupar los terminos en dos sumatorias de tk , es decir


X
1 X
1
[(k 1)(k 2) + 1]ak tk + 2 [2k(k 1) k + 1]ak tk = 0 1

k =2 k =1

Separando el termino correspondiente a k = 1 y agrupando el resto, resulta


X
1
[2(1)(0) 1 + 1]a t + 0 [(k 2
3k + 3)ak + (2k 1)(k 1)ak ]tk = 0
2 1 (7.20)
k =2

Notemos que el primer coe ciente en al ecuacion anterior es cero. Ahora podemos determinar
los ak en terminos de a igualando a cero los coe cientes de tk de la ecuacion(7.20) para
0

k = 2; 3;etc. Esto nos permite llegar a la relacion de recurrencia


(k 2
3k + 3)ak + (2k 1)(k 1)ak = 0
2 1
7.4. ME TODO DE FROBENIUS 113
o equivalentemente
ak = (2kk 1)(
3k + 3 a k2
2

1
k 1) k 2

Finalmente podemos utilizar la relacion de recurrencia para obtener los valores de a ; a ; a ; : : :


1 2 3

y sustituyendo resulta que


w(t; 1) = a t (1 13 t + 10
0
1
1 t 1 t + :::
30
2 3

Donde a es arbitrario. En particular para a = 1, se obtiene la solucion


0 0

x (t) = t 31 t + 10
1
1 t 1 t + :::
2

30
3 4

Para encontrar una segunda solucion, se podria intentar con r = 1=2 y despejar a ; a ; a ; : : :,
1 2 3

para obtener la solucion w(t; 1=2).


114 CAPITULO 7. SERIES DE POTENCIA
Hagamos un resumen del Metodo de Frobenius y repasemos las etapas mas importantes.

Metodo de Frobenius
Para obtener una solucion en serie de potencias en torno al punto singular t de 0

a (t)x00(t) + a (t)x0(t) + a (t)x(t) = 0 t > t


2 1 0 0 (7.21)
Sigamos los siguientes pasos:
1. Sea p(t) := a (t)=a (t),q(t) := a (t)=a (t). Si tanto (t t )p(t) como (t t ) q(t) son
1 2 0 2 0 0
2

analiticas en t , entonces t es un punto singular regular y podemos aplicar los pasos


0 0

restantes.
2. Resolvamos la ecuacion indicial r(r 1) + p r + q = 0, donde p = limt!t (t t )p(t)
y q = limt!t (t t ) q(t). Designando las raices r ; r con la condicion r  r .
0 0 0 0 0
2
0 0 0 1 2 1 2

3. Sea
X
1 X
1
w(t; r) = (t t )r an (t t )n = an(t t )n r
0 0 0
+

n =0 n=0

Derivando termino a termino y sustituyendo w(t; r) en la ecuacion (7.21) se obtiene


una ecuacion de la forma
A (t t )r J + A (t t )r
0 0
+
1 0
+ J +1
+ ::: = 0
4. Igualando a cero los coe cientes A ; A ; A : : : : 0 1 2

5. Utilizando las igualdades anteriores, se debe encontrar una relacion de recurrencia que
incluya los coe cientes a ; a ; a ; : : :
0 1 2

6. Tomemos r = r la raiz m'as grande y usemos la relacion obtenida en el paso anterior


1

para deterninar recursivamente a ; a ; a ; : : : en terminos de a y r .


1 2 3 0 1

7. Por ultimo se tiene que un desarrollo en serie de potencias de una solucion de (7.21) es
X
1
w(t; r ) = (t t )r
1 0
1
an(t t )n t > t
0 0

n
=0

donde a es arbitrario y los valores de los coe cientes an se de nen en terminos de a


0 0

yr.1
7.4. ME TODO DE FROBENIUS 115
Para terminar el capitulo veamos un teorema que nos permite resolver el problema del radio
de convergencia de la serie de potencias,
Teorema 7.5 Si t es un punto singular regular de la ecuacion (7.21), entonces existe por
0

lo menos una solucion en serie de potencias de la forma w(t; r) (vista en el repaso anterior),
con r = r es la raiz mas grande de la ecuacion indicial asociada. Ademas este serie converge
1

para todo valor de t tal que 0 < t t < R, donde R es la distancia de t al punto singular
0

mas cercano.
116 CAPITULO 7. SERIES DE POTENCIA
Captulo 8
Sistemas Autonomos
8.1 Introduccion
Consideremos un sistema de dos ecuaciones diferenciales con dos variables, de la forma
)
x0(t) = f (x; y) (8.1)
y0(t) = g(x; y)
En este caso, notemos que f (x; y) y g(x; y) no dependen de t explicitamente, por lo cual
llamaremos al sistema Autonomo.
Ejemplo 8.1.1 Veamos un caso de un sistema no-autonomo.
x0(t) = ysen(t) + y
y0(t) = y + x + cos(t)
2

Este sistema claramente es no-autonomo, pues f (x; y) = ysen(t)+y y g (x; y) = y +x+cos(t)


2

dependen explicitamente de t.
En lo que sigue, supondremos que f (x; y) y g(x; y) son funciones de IR ! IR de clase C , es
2 1

decir, las derivadas parciales de f (x; y) y g(x; y) son continuas.

De nicion 8.1 Dadas una solucion de (8.1), ~x(t) = (x(t); y(t)), nos interesa describir su
trayectoria, de nida como su recorrido, es decir, el conjunto (curva) de puntos ~x(t); t 2 I .
(HACER DIBUJO)

De nicion 8.2 El conjunto de las trayectorias de (8.1) descritos en el plano, se denominan


Plano de Fase del sistema (8.1).
117
118 CAPITULO 8. SISTEMAS AUTONOMOS

Queremos describir este conjunto geometricamente, es decir, gra car las trayectorias ~x(t) del
sistema (8.1). Para ello, veremos algunas propiedades generales de sistemas. La primera y
fudamental es
Teorema 8.1 (Existencia y Unicidad)
Dado t 2 IR y ~x 2 IR (~x = (x ; y )), existe una unica solucion ~x(t) del sistema
0
2
0 0 0

x0(t) = f (x; y)
y0(t) = g(x; y)
Tal que ~x(t ) = ~x .
0 0

Notemos que x~ (t) esta de nido en un intervalo maximal de existencia I =]a; b[. Si a (o b) es
nito, entonces
lim
t!a |
2
+ y (t))} = +1
(x (t) {z 2

k~x t k2
( )

Ejemplo 8.1.2 Estudiemos el plano de fase del sistema


x0(t) = x 3

y0(t) = y
Solucion Como las ecuaciones no estan ligadas, podemos resolver el sistema componente
por componente. Partamos resolviendo para x(t)
dx = x =) Z dx = Z dt
3

dt x 3

Despejando se llega a
x (t) = 2(t 1 c) () x(t) = q 1
2
;q 1
2(t c) 2(t c)
Analogamente para y(t) se obtiene
y(t) = be t

Por lo tanto, tenemos que las soluciones son


! 0 1 0 1
x(t) = @ p 1

t c A ;@
p t c
1

A
y(t)
2( ) 2( )

be t be t

para cada c 2 IR y b 2 IR. Su intervalo maximal de existencia es I =]c; +1[. Por ultimo
gra quemos las trayectorias
(HACER DIBUJO)
8.2. SISTEMAS AUTO NOMOS 119
8.2 Sistemas Autonomos
En este capitulo estudiaremos el caso de sitemas autonomos. Sin embargo, existe una forma
de transformar un sistema no-autonomo en uno autonomo.(PONER DEM???)
Recordemos el ultimo ejemplo de la seccion anterior y notemos que (0; 0) es un punto singular
del sistema, es decir ~x(t)  (0; 0) es una solucion constante del sistema. Como todas las
trayectorias se acercan a (0; 0) cuando t ! +1, decimos que este punto es asintoticamente
estable. En general
De nicion 8.3 A un punto (x ; y ) se le llamara Punto Singular del Sistema (8.1) si
0 0

f (x ; y ) = 0 y g(x ; y ) = 0. En este caso ~x(t) = (x ; y ) es una solucion constante del


0 0 0 0 0 0

sistema.

De nicion 8.4 Un punto singular de un sistema se dira Asintoticamente Estable si


todas las trayectorias convergen a el, cuando t tiende a in nito.

Veamos algunas propiedades de las trayectorias.


Teorema 8.2 (Propiedad basica de los Sistemas Autonomos)
Si ~x(t) es una solucion del sistema (8.1), entonces w~ (t)  ~x(t + p) donde p 2 IR es tambien
solucion de (8.1). Es decir, el traslado temporal de una solucion sigue siendo solucion.

Demostracion 8.1 De namos


!
F~ (~x) = gf((x;
x; y)
y)
Entonces el sistema se escribe como ~x0 (t) = F~ (~x(t)).
Por otro lado, tenemos que
! !
w~ 0(t) = x(t + p) 0 = x0(t + p)
y (t + p) y 0 (t + p)
!
= f (x(t + p)) = F~ (w~ (t))
g(y(t + p))
Por lo tanto w~ (t) = F~ (w~ (t)), es decir, es solucion del sistema(8.1).

Claramente las trayectorias de ~x(t) y ~x(t + p) coinciden , pues solo cambia el instante de
partida. Esto nos motiva a estudiar las propiedades de las trayectorias
120 CAPITULO 8. SISTEMAS AUTONOMOS

8.3 Propiedades de las Trayectorias de un Sistema Autonomo
Para uni car el vocabulario usado en la teoria de trayectorias, repasemos las siguientes
de niciones.
De nicion 8.5 Llamaremos curva cerrada a aquella que pasa por si misma. En caso con-
trario, diremos que la curva es simple.
Teorema 8.3 (Propiedades Importantes de las Trayectorias de un Sistema Autonomo)
1. Dos trayectorias diferentes no se intersectan.
2. Una trayectoria no pasa por si misma. Si se produce "re-contacto", entonces la curva
es cerrada y la solucion es periodica.
Demostracion 8.2 1. Probemos que si ~x (t) y ~x (t) son dos soluciones cuyas trayecto-
1 2

rias coinciden en un punto, entonces estas trayectorias son la misma.


Como las trayectorias coinciden en un punto, entonces existe t y t tales que ~x (t ) = 1 2 1 1

~x (t ).
2 2

De namos w~ (t) = ~x (t + (t t )), entonces, debido a la propiedad (8.2), w~ (t) tambien


2 2 1

es solucion del sistema (8.1). Ademas por hipotesis se tiene que


w~ (t ) = ~x (t ) = ~x (t )
1 2 2 1 1

Luego, por el teorema de Existencia y Unicidad se debe tener que w~ (t)  ~x (t). Es 1

decir
~x (t) = w~ (t) = ~x (t + (t t )) 8t 2 IR
1 2 2 1

Por lo tanto ~x (t) es un trasladado temporal de ~x (t), lo que concluye el primer punto.
1 2

2. Probemos que si ~x(t) es una solucion tal que ~x(t ) = ~x(t ) con t < t , entonces ~x(t)
es periodica de periodo p = (t t ).
1 2 1 2

Sea I el intervalo maximal de existencia de ~x(t), de modo que t ; t 2 I . De namos


2 1

1 2

w~ (t) = ~x(t + (p)).


Primero veamos que I = IR. En efecto si I =]a; b[, entonces el intervalo maximal de
existencia para w~ (t) es J =]a p; b p[.
Pero t y t estan en I entonces
1 2

a < t < b =) a p < t < b p =) t 2 J


2 1 1

Ademas ~x(t ) = w~ (t ), entonces por el teorema de existencia y unicidad, se tiene que


~x(t) = w~ (t) 8t 2 IR, mas aun como coinciden se obtiene que I = J , es decir
1 1

]a p; b p[ = ]a; b[ =) a = +1 ^ b = 1 =) I = IR
Notemos que tambien hemos probado que ~x(t) = ~x(t + p), luego ~x(t) es periodica y su
trayectoria es una curva cerrada.

8.3. PROPIEDADES DE LAS TRAYECTORIAS DE UN SISTEMA AUTONOMO 121
Teorema 8.4 Sea ~x(t) es una solucion del sistema (8.1), de nida en [t ; 1) y limt!1 ~x(t)  0

~x existe. Entonces se tiene que ~x es punto singular del sistema, es decir, f (x ; y ) =


0 0 0 0

g (x ; y ) = 0
0 0

Demostracion 8.3 Supongamos que


~x(t) = (x(t); y(t)) ! (x ; y ) cuando t ! 1 =) f (x(t); y(t)) ! f (x ; y )
0 0 0 0

Pues f (x; y) es continua. Por otro lado, se tiene que integrando ~x0 (t) resulta que
Zs Zs
~x0(t)dt = f (x(t); y(t))dt = x(s) x(t )
t0 t0
0

Tomando limite
Zs Zs
!1 ~x(s) ~x(t ) = slim
slim !1 f (x(t); y(t))dt =) slim
!1 f (x(t); y(t))dt existe y es nito
| {z } t0 t0
0

~x0
Sea l = f (x ; y ). Notemos que f (x(t); y(t)) ! l cuando t ! 1. Supongamos que l > 0,
0 0

entonces es tiene que


Z1
f (x(t); y(t))dt = +1 =) l no puede ser > 0
t0
Analogamente se prueba que l < 0 no es posible. Por lo tanto, l  0, o sea f (x ; y ) = 0. 0 0

Utilizando el mismo procedimiento se prueba que g (x ; y ) = 0. 0 0

Ejemplo 8.3.1 Ecuacin del pendulo.


m + gsen() = 0 (8.2)
(HACER DIBUJO!!!!)
Donde m es la masa colgando y g la constante de aceleracion de gravedad. Como solo nos
interesa el estudio de la ecuacion diferencial, supondremos que m = 1 y g = 1.
La ecuacion (8.2) se puede escribir como
)
x0(t) = y(t) (8.3)
y0(t) = sen(x(t))
Tomando x =  y y = _. A continuacion estudiemos el sistema (8.3) para dibujar su
diagrama de fase. Se tiene que
dx = y ^ dy = sen(x) =) dx = dt = dy
dt dt y sen(x)
122 CAPITULO 8. SISTEMAS AUTONOMOS

Integrando, se obtiene que
Z Z
sen(x)dx = ydy =) cos(x) = y2 + C
2

Esto nos dice que cada trayectoria del sistema debe estar contenida en una curva de nivel de
la funcion H (x; y) = y cos(x). Dibujemos las curvas de nivel
1
2

(HACER DIBUJO!!!)
2

Es importante entender el diagrama de fase de un sistema que sigue un fenomeno fisico


determinado, y especialmente como se comporta este diagrama en torno a un punto singular.
En el caso del pendulo, los puntos singulares (0; 0) y (; 0) son de naturaleza muy distinta:
1. El punto (0; 0) es estable en el sentido que una solucion que parte cerca del punto,
siempre se mantiene cerca de el.
2. El punto (; 0) es inestable en el sentido que una solucion que parte cerca del punto,
puede irse muy lejos de (; 0).

8.4 Diagramas de Fase


Analizaremos en detalle como se ve el diagrama de fase de un sistema lineal
~x0(t) = A~x(t) (8.4)
donde A 2 Mnn (IR). Supondremos que det(A) 6= 0 lo que implica que
A~x(t) = 0 =) ~x(t) = 0
Es decir, ~x(t) = 0 es el unico punto singular del sistema.
Para hacer el bosquejo de un diagrama de fase, condideremos algunos casos distintos
1. A diagonalizable. Dentro de este caso, veamos los siguientes subcasos
(a) Valores propios reales distintos. Como son distintos, debemos tener en cuenta si
poseen el mismo signo o no.
(b) Valores propios reales iguales.
(c) Valores propios complejos conjugados.
2. A no diagonalizable, es decir, A tiene un valor propio doble.
1 Esto se puede interpretar como un sistema Hamiltoniano que no disipa energia
8.4. DIAGRAMAS DE FASE 123
Veamos el analisis de cada uno de estos casos. Sean  y  los valores propios de A, entonces
se tiene que
Primer caso: Valores Propios Reales, Distintos y con el mismo Signo.
Sin perdida de generalidad  <  < 0. Sean ~ y ~ los vectores propios asociados. Entonces
todo solucion de (8.4) se escribe
~x(t) = c et~u + c et~v () ~x(t) = w(t)~u + z(t)~v
1 2

Asi (w(t); z(t)) constituyen las coordenadas de ~x(t) en la base de IR dada por los vectores
2

~ y ~. Gra quemos ~x(t) en estas coordenadas, es decir


(HACER DIBUJO!!!)

El eje w corresponde a la recta generada por ~u en las coordenadas originales y el eje z a


aquella generada por ~v.
(HACER DIBUJO!!!)
Decimos que ~0 es un nodo estable de dos tangentes. Se dice estable, en el sentido que
las trayectorias se aproximan a ~0 cuando t ! 1.
Si en lugar de  <  tomamos  < , el gra co es el siguiente
(HACER DIBUJO!!!)
Las trayectorias se acercan tangencialmente al eje asociado al valor propio de valor absoluto
menor.
Si ;  > 0, se tiene que w(t) = c et y z(t) = c et. Las trayectorias en este caso se alejan
del origen, es decir, ~0 es un nodo inestable
1 2

(HACER DIBUJO!!!!)

Segundo caso: Valores Propios Iguales.


En este caso  = , con vectores propios ~ y ~ respectivamente. Supongamos  =  > 0,
entonces
w(t) = c et z(t) = c et
1 2

Luego, c et + c et = 0 es una recta que pasa por el origen. Ademas, (w(t); z(t)) ! (0; 0)
cuando t ! 1. Por lo tanto, Las echas "salen"del origen y las trayectorias son todas las
1 2

rectas que pasan por el (0; 0). ~0 es llamado nodo estelar inestable.
(HACER DIBUJO!!!)
Si  =  < 0, el diagrama es el mismo, pero las echas estan orientadas hacia el origen. Por
esto se le llama nodo estelar estable.

Tercer Caso: Valores Propios Reales, Distintos y con signos Distintos.


Supongamos  < 0 < , asi las coordenadas del sistema asociadas a ~4y~, son
w(t) = c et ^ z(t) = c et
1 2

Primero analicemos el caso c > 0 y c = 0, entonces (w(t); z(t)) = (c et; 0) ! (0; 0) cuando
t!1
1 2 1
124 CAPITULO 8. SISTEMAS AUTONOMOS

(HACER DIBUJO!!!)
Analogamente, podemos analizar el caso c = 0 y c 6= 0, obteniendo el mismo diagrama,
1 2

pero con diferencias en el sentido de las echas.


(HACER DIBUJO!!!)
Por ultimo tomemos el caso c ; c > 0. Luego
1 2

! !
z(t)  = et = w(t)  =) z(t) = K (w(t)) 
1 1

c 2 c 1

Como  y  tiene signos opuestos, se tiene que =  < 0


(HACER DIBUJ!!!)
Analogamente, podemos estudiar el caso c ; c < 0, c > 0; c < 0, c < 0; c > 0 y obtenemos
1 2 1 2 1 2

el siguiente diagrama de fase


(HACER DIBUJO!!!!)
Cuarto caso: Valores Propios Complejos.
Sea  = + i y  = i con 6= 0.Sean los vectores propios asociados ~u = ~a + i~b y
~v = ~a i~b. Entonces se tiene que las soluciones complejas linealmente independientes son
e ( + i t(~a + i~b)
)
^ e ( i t(~a )
i~b)
Pero, e i t(~a + i~b) = e t(cos( t)+ isen( t))(~a+ i~b). Gracias a la formula anterior, podemos
( + )

escribir una solucion como


e t(cos( t)~a sen( t)~b) ie t(cos( t)~a + sen( t)~b)
La otra simplemente es su conjugada. Las partes real y compleja son soluciones reales del
sistema y son linealmente independientes. Por lo tanto, son una base de soluciones, es decir
la solucion general es
~x(t) = c e t(cos( t)~a sen( t)~b) + c e t(cos( t)~a + sen( t)~b)
1 2

= |e t[c cos( t){z+ c sen( t)]} ~a + |e t[c cos( t){z c sen( t)]}~b
1 2 2 1

wt
( ) zt
( )

Escribiremos gra camente las coordenadas w(t) y z(t) de las soluciones, respecto a ~a y ~b,
base de IR . 2

(HACER DiBUJO!!!!)

Вам также может понравиться