Вы находитесь на странице: 1из 65

ECUACIONES INTEGRALES DE FREDHOLM:


UNA INTRODUCCION

Trabajo de Graduacion presentado a la Facultad de Ciencias, en cumplimiento parcial de los requisitos exigidos para optar al grado de Licenciado
en Educacion Matematicas y Computacion.

UNIVERSIDAD DE SANTIAGO DE CHILE


SANTIAGO-CHILE
2005

ECUACIONES INTEGRALES DE FREDHOLM:



UNA INTRODUCCION
 CALZADILLAS NIECHI
DANIELA ARAYA BASTIAS - SEBASTIAN

Este trajo de Graduacion fue elaborado bajo la supervision del profesor


gua Dr. Carlos Lizama del Departamento de Matematica y Ciencias de la
Computacion y ha sido aprobado por los miembros de la Comision Cali cadora, de los , candidatos, Sra. Veronica Poblete y Dr. Humberto Prado.

Profesor Informante

Profesor Gua

Profesor Informante

Director

Agradecimientos
Al nalizar esta linda etapa de mi vida, miro hacia atras y veo a todas
las personas que me acompa~naron en este lindo y difcil sendero, personas
que por diferentes motivos no estan a mi lado y personas que siguen a mi
lado, que han tenido paciencia y el amor de ense~narme y soportar mi difcil
caracter, mi familia, mi novio Carlos y mi amigo Sebastian.
Agradezco tambien a todos los profesores que me hicieron clases, ya que cada uno de ellos me ense~no diferentes cosas, en especial al profesor Carlos
Lizama que con su paciencia y consejos nos ayudo a realizar nuestro trabajo.
Tambien agradezco a la familia de Sebastian por los ricos almuerzos y onces
que compartimos juntos. Por ultimo a Dios que me ha dado todo para poder
estar en esta etapa.

Daniela Araya Bastias


Vayan siempre mis in nitas gracias y alabanzas a mi Dios Jehova, el cual
me dio apoyo, sustento y cuidado amoroso durante toda mi vida y en especial en mis a~nos de carrera universitaria.
Mis queridos padres se merecen mas que yo el ttulo que obtengo, fueron
participes activos en mi formacion y en mis valores, los amo a ustedes y a
mis hermanos. Gracias Daniela por dejarme ser tu compa~nero de Trabajo, de
Tesis y mi gran amiga, por darme apoyo y consuelo al momento apropiado.
Profesor Lizama a usted le debemos la realizacion de este escrito, gracias por
darnos el tiempo y de su propio esfuerzo junto con increble paciencia para
que hoy cobre vida.
Gracias, eternamente gracias, a todos.

Sebastian Calzadillas Niechi


Indice general

1. Ecuaciones de Fredholm

1.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2. Nucleos Separables . . . . . . . . . . . . . . . . . . . . . . . . 11


1.2.1. Nucleos Separables . . . . . . . . . . . . . . . . . . . . 11
1.2.2. Nucleo Resolvente . . . . . . . . . . . . . . . . . . . . . 14
1.2.3. Condiciones sobre la Existencia de Soluciones . . . . . 18
1.2.4. Condiciones de Fredholm . . . . . . . . . . . . . . . . . 23
1.3. Nucleos No Separables . . . . . . . . . . . . . . . . . . . . . . 29
1.3.1. Normas . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.3.2. Metodo de Schmidt . . . . . . . . . . . . . . . . . . . . 32
1.3.3. Metodos de aproximacion por Nucleos Separables . . . 33
1.3.4. Iteracion por medio de Series de Neumann . . . . . . . 35
1.3.5. Convergencia Uniforme de la serie de Neumann . . . . 40
1.3.6. Condiciones para la Existencia y Unicidad de la solucion de la ecuacion con Nucleos Peque~nos . . . . . . . . 44

2. Teora de Fredholm en espacios de Lebesgue

48

2.1. Funciones Absolutamente Integrables . . . . . . . . . . . . . . 49


2.2. Funciones de Cuadrado Integrable . . . . . . . . . . . . . . . . 51
4

5
2.2.1. Descomposicion de Nucleos . . . . . . . . . . . . . . . 54
2.3. Funciones Propias . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.4. Teora en Lp . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

Introducci
on
La teora de Ecuaciones Integrales fue ampliamente desarrollada por el
matematico sueco Erik Ivar Fredholm quien desde temprana edad tuvo acceso a una de las mejores escuelas de Estocolmo, donde obtuvo con honores
su Bachillerato el 16 de Mayo de 1885. Despues de un a~no de estudiar en el
Royal Technological Institute ingresa a la Universidad de Uppsala donde obtiene el grado de Magister en Ciencias el 28 de Mayo de 1888. Para obtener el
grado de Doctor en Ciencias trabaja bajo la tutela del profesor Mittag-Leer
de la Universidad de Estocolmo, esto lo logra inscribiendo el Doctorado en
Uppsala, pero realizando sus estudios en Estocolmo. Recibe el grado de Doctor el 31 de Mayo de 1898. Su tesis doctoral abordo el estudio de Ecuaciones
Diferenciales Parciales que fue motivado por un problema de equilibrio en
elasticidad dentro del area de la Fsica. Esto dio origen a una de las investigaciones mas trascendentales para la vida de Fredholm y para la matematica
de la primera cuarta parte del siglo 20, a saber, Ecuaciones Integrales y

la Teora Espectral. Esta
fue utilizada por matematicos de renombre como
Schwarz, Neumann y Poincare. Cabe destacar que Hilbert complemento el
trabajo de Fredholm incluyendo la teora de valores propios para la Ecuacion
Integral de Fredholm.
El presente trabajo de titulacion comprende dos captulos, el primero
se titula Ecuaciones de Fredholm el cual presenta las ecuaciones generales
de Fredholm a resolver y analiza en profundidad la existencia de la(s) solucion(es) segun el tipo de nucleo que la compongan,estos son: nucleos separa-

bles o nucleos no separables.


Las secciones del captulo 1 son:

7
Introduccion; en esta se presentan las Ecuaciones Integrales de primer y

segundo tipo, ademas se de ne el Operador Integral involucrado en las ecuaciones anteriores, as como tambien se da un peque~no ejemplo particular que
ilustra las funciones que pertenecen al rango de este operador.
Caso Nucleos Separables; en esta seccion se estudia los nucleos separables
y de estos se desprende un caso particular: nucleos resolventes. Ademas, se
analizan las condiciones necesarias para la existencia de la(s) solucion(es) de
la ecuacion matricial analoga de la Ecuacion Integral de segundo tipo, esta
herramienta fundamental se encuentra en el Teorema 1.2.9. La seccion naliza con el estudio del Teorema Ecuacion de Fredholm y su contraparte para
la Ecuacion Integral de segundo tipo.
Caso Nucleos no Separables; en esta seccion se de ne la funcion norma que
es una herramienta necesaria para estudiar un nuevo metodo para resolver la
Ecuacion Integral de segundo tipo, cuando esta se compone de un nucleo no
separable. Este metodo recibe el nombre de metodo de Schmidt. Se muestran
tres formas de lograr la descomposicion que propone. El metodo de Schmidt
requiere de la serie de Neumann para encontrar el inverso de un operador
(I

cK0 ), por lo que ademas se estudian condiciones que debe poseer el

operador cK0 para que dicha serie converja. Asimismo, se estudian las condiciones para la existencia y unicidad de las soluciones solo cuando los nucleos
son peque~nos en el sentido de la norma que se considere.
El captulo dos, Teora de Fredholm en espacios de Lebesgue, esta dirigido
al estudio de las condiciones que debe cumplir el nucleo -el cual pertenece
a estos tipos de espacios- que compone la ecuacion Integral de Fredholm de
segundo tipo. Las secciones que componen este captulo son:

8
Funciones absolutamente Integrables; se de ne el espacio de Lebesgue L1 y
las funciones que lo comprenden, ademas buscamos una cota adecuada para

kK uk y lograr as que la serie de Neumann converja.


0

Funciones de Cuadrado Integrable; se realiza un estudio analogo a la seccion anterior para el espacio de Lebesgue L2 . Por otra parte se analizan
caractersticas especiales de este espacio que permiten descomponer nucleos,
as como lo propone el metodo de Schmidt. Se presenta el Teorema de Fischer-

Riesz que permite utilizar la Teora de Fredholm en espacios de vectores de


dimension in nita.
Funciones Propias; en esta seccion se estudia el Teorema 2.3.2 que permite
obtener una base ortonormal completa, de funciones propias, que es util para
la descomposicion de nucleos que propone la seccion anterior.
Teora en Lp ; aqu se entrega una generalizacion de todos los espacios de
Lebesgue cuando 1

 p < 1, y se dan las herramientas generales que per-

miten utilizar Fredholm en estos espacios.


Este trabajo de Titulacion esta escrito de tal manera que no profundiza
en todos los topicos matematicos necesarios para el tema que se presenta,
siguiendo el mismo espritu del libro de Pipkin [5] que fue la base de esta
tesis.

Cap
tulo 1

Ecuaciones de Fredholm

1.1.

Introducci
on

De nimos dos ecuaciones integrales que llamaremos ecuaciones de Fredholm de primer y segundo tipo respectivamente.
Z b
a

k (x; y )u(y ) dy = f (x);

u(x) = f (x) +

Z b
a

k (x; y )u(y ) dy;

x 2 [a; b]

(1.1)

x 2 [a; b]:

(1.2)

A la funcion k la llamamos nucleo y a la funcion f termino no homogeneo,


ambas son funciones dadas. Nuestro objetivo consiste en encontrar una funcion u que satisfaga la correspondiente ecuacion.
De nimos el operador K0 como
(K0 u)(x) =

Z b
a

k (x; y )u(y ) dy:

Entonces (1.1) y (1.2) pueden reescribirse de la siguiente forma

K0 u = f y u = f + K0 u:
9

(1.3)

10

Ejemplo 1.1.1.
Considerar el nucleo k (x; y ) = ex+y y las ecuaciones
Z

ex+y u(y ) dy = x
Z

u(x) = x +

(1.4)

ex+y u(y ) dy:

(1.5)

Observamos que
Z

K0 u(x) =
Z

donde C =

x +y

u(y ) dy = e

ey u(y ) dy = Cex ;

ey u(y )dy . Por lo tanto el rango de K0 consiste en los multiplos

de ex . Concluimos que la funcion f (x) = x en (1.4) no esta en el rango de K0


y por lo tanto la ecuacion (1.4) no tiene solucion. Por otro lado, observamos
que, en contraste, (1.5) tiene solucion. En efecto, si
Z

u(x) = x +
entonces

u0 (x) = 1 + ex

Z
0

ex+y u(y )dy

ey u(y ) dy = 1 + (u(x)

x)

es una ecuacion diferenciable lineal de primer orden, cuya solucion, aplicando


la Formula de Leibnitz, viene dada por

u(x) = x + Cex ;
donde C es una constante arbitraria.

11
1.2.

N
ucleos Separables

Para resolver las ecuaciones propuestas nos dedicaremos al estudio de


ecuaciones con diferentes tipos de nucleo. Revisaremos en primera instancia
ecuaciones donde su operador tiene nucleo separable, posteriormente estudiaremos ecuaciones con operadores peque~nos.

1.2.1. N
ucleos Separables
De nicion 1.2.1. Decimos que un nucleo k(x; y) es separable si este se
puede escribir como

k (x; y ) =

n
X
i=1

Ejemplo 1.2.2. El nucleo k(x; y) =


xn
x

yn
= xn
y
=

n
X
i=1

fi (x)gi (y ):

xn
x

yn
es separable. En efecto,
y

+ xn 2 y + xn 3 y 2 + xn 4 y 3 + ::: + xy n

+ yn

xn i y i 1 :

Supondremos que las funciones fi y gi en la de nicion 1.2.1 son linealmente independientes. As el rango del operador K0 es n-dimensional y consiste en la combinacion lineal de funciones fi . Esta a rmacion se obtiene
como sigue:
(K0 u)(x) =
=
=

Z b
a
Z b
a
n
X
i=1

k (x; y )u(y ) dy
n
X
i=1

fi (x)

fi (x)gi (y ) u(y ) dy
Z b
a

gi (y )u(y ) dy:

12
De niendo los coe cientes ui como los productos internos
Z b

ui := hgi ; ui =

gi (y )u(y ) dy;

obtenemos la combinacion lineal que buscabamos


(K0 u)(x) =

n
X
i=1

fi (x)ui :

(1.6)

Observacion 1.2.3. De acuerdo a lo anterior en la ecuacion del primer tipo,


K0 u = h;

(1.7)

existe una restriccion para la existencia de su solucion, esto es, h(x) debe
ser combinacion lineal de las funciones fi (x); ademas si esto ocurre, existen
in nitas soluciones que satisfacen la ecuacion.
En el caso de la ecuacion de segundo tipo

u(x) = h(x) +

Z b
a

k (x; y )u(y ) dy;

(1.8)

utilizando (1.6), la ecuacion (1.8) tendra solucion


n
X

u(x) = h(x) +

j =1

fj (x)uj ;

(1.9)

donde solo resta encontrar los coe cientes uj . Para esto de nimos

hi := hgi ; hi =

Z b
a

gi (x)h(x) dx;

(1.10)

Kij := hgi ; fj i =

Z b
a

gi (x)fj (x) dx:

Multiplicando (1.9) por gi (x) e integrando en [a; b] obtenemos


Z b
a

gi (x)u(x) dx =

Z b
a

gi (x)h(x) dx +

n Z b
X
j =1

gi (x)fj (x) dx  uj

(1.11)

13
o usando la notacion (1.10) y (1.11):

ui = h i +

n
X
j =1

Kij uj :

(1.12)

Obtenemos as un sistema de ecuaciones algebraicas para los coe cientes ui .


Este sistema lo escribimos como u = h + Ku:
Analogamente, multiplicando (1.7) por gi (x) e integrando en [a; b]; obtenemos
n
X
j =1

Kij uj = hi

(1.13)

que es equivalente a escribir Ku = h.


Lo que hemos hecho muestra que si la ecuacion integral (1.2) tiene solucion el
sistema algebraico (1.12) la tiene. Recprocamente, si (1.12) tiene solucion u
y de nimos u(x) por (1.9) entonces se veri ca que u(x) satisface la ecuacion
integral (1.2).

Ejemplo 1.2.4. Revisemos el siguiente problema


Z

u(x) = 1 +

(1 + x + y + xy )

1=2

u(y ) dy:

Escribimos k (x; y ) como

k (x; y ) = (1 + x)

1=2

1=2

(1 + y )

y de nimos

f1 (x) := (1 + x)

1=2

y g1 (y ) := (1 + y )

1=2

Luego
Z

h1 =

p1

1+x

dx = 2( 2

1) y K11 =

1
dx = ln 2:
1+x

14

As obtenemos

2( 2 1)
:
u1 = h1 + K11 u1 =
(1 2 ln 2)
As, por (1.9) una solucion es

2( 2
u(x) = 1 + p
x + 1(1

1)
:
2 ln 2)

Observacion 1.2.5. El hecho de que las integrales (1.10) y (1.11) existan es


esencial para resolver la ecuacion por nucleos separables. En efecto, veamos
la siguiente ecuacion

u(x) = h(x) +
En este caso la integral

1=2

(xy )

u(y ) dy:

1
dx;
0 x
diverge y no podemos formar u(x) utilizando (1.12). Ahora bien, esto no

K11 =

quiere decir que la ecuacion propuesta no tenga solucion. En efecto, una


solucion de la ecuacion integral es:

u(y ) = y

h(x) = x

para

1=2

Z
0

py dy:

1.2.2. N
ucleo Resolvente
En esta seccion, reemplazaremos el operador K0 por operadores cK0 ,
donde c

2 K, con K cuerpo. Ahora, tenemos que el problema de hallar la

solucion de la ecuacion u = h + cKu, que se puede reescribir como:


(I
De niendo M := I

cK )u = h:

cK , donde I es la matriz identidad, obtenemos de

manera equivalente el problema

Mu = h:

(1.14)

15
Denotaremos por D(c) al determinante de M .En lo que sigue supondremos
que D(c) es distinto de cero, as M sera invertible.
Sea C la matriz de los cofactores de M , ver [2], entonces tenemos que

C t M = MC t = ID(c):
Dado que existe M 1 , si denotamos M 1 := R(c) obtenemos que
R(c)

= C t =D(c);

as la solucion para la ecuacion (1.14) sera u = R(c)h.

Si fRij g son los coe cientes de R(c), la ecuacion u = R(c)h es equivalente al


siguiente sistema algebraico:

uj =

n
X
i=1

Rji hi :

Podemos entonces reescribir la solucion de la ecuacion integral u = h + cK0 u


como sigue:

u(x) = h(x) +
= h(x) +
Ya que por (1.10) hi =

Z b
a

n
X

cfj (x)uj

j =1
"
n
X
j =1

cfj (x)

n
X
i=1

Rji hi :

gi (y )h(y ) dy , se obtiene

u(x) = h(x) +
= h(x) +
= h(x) +

n
X

"

cfj (x)

n
X

j =1
i=1
 Z b
n
n
XX

a
j =1 i=1
"
Z b
n X
n
X
a

j =1 i=1

Rji

Z b
a

gi (y )h(y ) dy


Rji fj (x)gi (y )h(y ) dy


#

Rji fj (x)gi (y ) h(y ) dy:

16

De nicion 1.2.6. Al termino algebraico


R(x; y ; c) :=

n X
n
X
j =1 i=1

Rji (c)fj (x)gi (y ):

lo llamaremos nucleo resolvente. Notemos que este es tambien un nucleo


separable.
As, la solucion para nuestra ecuacion integral (1.2) es

u(x) = h(x) +

Z b
a

cR(x; y ; c)h(y ) dy;

(1.15)

que es analoga al sistema lineal algebraico

u = f + cR(c):

(1.16)

Observacion 1.2.7. Siguiendo la analoga en la notacion utilizada en (1.3)


podemos escribir (1.15) como

u = (I + cR0 )h;
as el operador I + cR0 coincide justamente con el operador inverso de I cK0
ya que u = (I

cK0 ) 1 h.

Ejemplo 1.2.8. Para ilustrar como obtener un nucleo resolvente utilizaremos la siguiente ecuacion
Z

u(x) = h(x) + c
con nucleo separable k (x; y ) = e
x2

Identi camos a f1 (x) = e

x2 y 2

K11 =

(1.17)

x2 e y 2 .

y a g1 (y ) = e

de la matriz K es
Z

u(y ) dy;

2x2

dx =

y2 .

Luego el coe ciente, K11

1p p
2 ;
2

17
y as K =

1p p
2  . Luego
2

M = 1
2

=
y entonces

M
para todo c distinto de

1p p
2 
2 p
p
c 2 
;
2

p2 p ;
c 2 

2= . Por lo tanto el nucleo resolvente de la ecuacion

(1.17) es

pp
c 2 

R(x; y ; c) =

x2

y2

:
2
Ahora bien, si h(x) = x entonces la solucion para la ecuacion (1.17) es de
acuerdo a (1.15) lo siguiente
Z

u(x) = x +

= x+c


= x+c
= x:
Pero >que ocurre si c =

2
2

pp
c 2 

pp
c 2 

pp
c 2 

x2

x2

x2

e
Z

y2

y2

y dy
y dy

0

2= ?. La primera respuesta, aunque obvia, es que

M no posee inversa y por tanto el nucleo resolvente R(x; y ; c) no existe. La


segunda es que no podemos resolver la ecuacion por el metodo de nucleos
separables, puesto que K11 = 1 y u1 = h1 + K11 u1 = 0 + u1 = u1 no
obteniendo resultado alguno. Esto no quiere decir que la ecuacion (1.17)
no tenga solucion. En efecto, para resolver la ecuacion podemos hacer lo
siguiente:

18
Derivando (1.17) con respecto a x, y suponiendo que h es una funcion derivable, se tiene que

u0 (x) = h0 (x)
= h0 (x)

De niendo g (x) := u(x)

x2

2xce

y2

1
h(x)):

2x(u(x)

u(y ) dy

h(x) obtenemos
g 0 (x) = 2xg (x);

cuya solucion viene dada por


Rx

g ( x) = e
= e

2t dt+k

x 2 +k

= Ae

x2

; (A = ek ):

Por lo tanto la solucion general de la ecuacion (1.17) es

u(x) = h(x) + Ae

x2

Tal como en el caso anterior si h(x) = x, obtendremos la solucion

u(x) = x + Ae

x2

1.2.3. Condiciones sobre la Existencia de Soluciones


Hasta el momento hemos estudiado como resolver las ecuaciones integrales (1.1) y (1.2), pero aun no nos hemos detenido en el analisis de la
unicidad de las soluciones para tales ecuaciones. Dada la ecuacion

Ku = f;

19
sin saber si esta tiene alguna solucion o no, especulamos la posibilidad de
que pueda tener dos soluciones distintas u1 y u2 , entonces

Ku1 = f
Ku2 = f:
Restando las ecuaciones se obtiene:

K (u1
De nimos ' := u1

u2 ) = 0:

u2 , obteniendo que la ecuacion K' = 0 tiene solucion

con ' = 0. De manera analoga suponemos dos soluciones distintas para la


ecuacion:

u = f + Ku;
obteniendo as la ecuacion K' = ', lo que equivale a (I K )' = 0. De niendo A := I

K se obtiene
A' = 0;

que es una ecuacion matricial. Luego

A' = A1 '1 + A2 '2 + A3 '3 + : : : + An 'n = 0;

(1.18)

con An matriz, donde la n-esima columna coincide con la n-esima columna


de la matriz A y el resto de las columnas se componen de 0, y 'n es la
componente n-esima del vector '. Luego obtenemos una combinacion lineal
de matrices An .

20

Teorema 1.2.9 (Existencia de Solucion). Sea K una matriz y f un


vector. Si (I

K )' = 0 solo para ' = 0, entonces existe una solucion de la

ecuacion u = f + Ku:

Demostracion. Por hipotesis Ker(I


siones, ver[2], se tiene que (I
de I

K ) = 0. Por el teorema de las dimen-

K ) es sobreyectiva y luego existe la inversa

K , por tanto existe la solucion del sistema matricial (I

K )u = f

que viene dada por

u = (I

K ) 1 f:

De esta manera si la ecuacion integral K0 ' = ' se satisface solo para

' = 0, entonces existe una solucion para la ecuacion integral u = f + K0 u.


El teorema anterior muestra que para las ecuaciones lineales algebraicas o
para las ecuaciones integrales que consideramos anteriormente, podemos demostrar existencia de solucion de una ecuacion probando previamente unicidad para otra.

Ejemplo 1.2.10. Consideremos la ecuacion integral u = f + K0 u con nucleo


k (x; y ) =

X
i

fi (x)fi (y ):

Entonces la ecuacion

K0 ' = '
es igual a:

Z b
a

esto es:

k (x; y )'(y ) dy = '(x)

Z b

fi (x)fi (y ) '(y ) dy = '(x)

(1.19)

21
o

XZ b
a

fi (x)fi (y )'(y ) dy = '(x)

que es equivalente a
X
i

fi (x)

Z b
a

fi (y )'(y ) dy = '(x)

de donde obtenemos
X
i

fi (x)

Z b
a

fi (y )'(y ) dy

'(x) = 0

que es lo mismo que


X
i

f i ( x)

Z b
a

fi (y )'(y ) dy + '(x) = 0:

Multiplicando por ' e integrando se obtiene:


Z bX
a

esto es,

Z bX
a

o

X
i

que es equivalente a

fi (x)hfi ; 'i' dx +

Z b
a

'2 dx = 0

fi (x)'hfi ; 'i dx + h'; 'i = 0

hfi; 'ihfi; 'i + h'; 'i = 0

X
i

hfi; 'i

+ h'; 'i = 0:

Como cada termino del lado izquierdo es positivo, se tiene que estos terminos
deben ser iguales a 0, en particular h'; 'i = 0. Si ' es continua, entonces

' = 0 es la unica solucion de la ecuacion K0 ' = ', por tanto la ecuacion


integral u = f + K0 u con nucleo (1.19) tendra una solucion.

22

Observacion 1.2.11. El producto interno entre vectores u y v 2 Rn sera denotado por el smbolo (u; v ); esto es
(u; v ) =

n
X
i=1

ui vi :

Observacion 1.2.12. Si M es una matriz positiva de nida, esto es


u 6= 0;

(u; Mu) > 0 si

entonces la ecuacion Mu = f posee solucion. En efecto, si M' = 0 entonces


la identidad ('; M') = 0 implica que ' = 0. Ocupando el teorema anterior
obtenemos el resultado.

Ejemplo 1.2.13. Como un caso concreto de la observacion anterior, veamos


el siguiente problema:
Consideremos una matriz M que tiene las componentes Mii = 2; Mi;i1 = 1
y los demas elementos son cero. Demostraremos que (x; Mx) = 0 solo cuando

x = 0 de lo cual se puede inferir que la ecuacion Mu = f posee solucion. En


efecto, primero escribimos (x; Mx) como suma de cuadrados como sigue:
(x; Mx) = x1 (2x1 + x2 ) + x2 (x1 + 2x2 + x3 ) + x3 (x2 + 2x3 + x4 )
+ x4 (x3 + 2x4 + x5 ) + : : :
+ xn 1 ( xn

+ 2 xn

+ xn ) + xn (xn

+ 2xn ) + 2x21 + 2x1 x2

+ 2x22 + 2x2 x3 + 2x23 +


+ : : : + 2xn 1 xn + 2x2n

+ 2x2n

= (2x21 + 2x22 + 2x1 x2 ) + (2x23 + 2x24 + 2x3 x4 ) + : : :


+ (2x2n

+ 2x2n + 2xn 1 xn ) +

+ 2 x2 x 3 + 2 x4 x5 + 2 x6 x7 + : : : + 2 xn 2 xn 1 :

23
Veremos ahora que (x; Mx) = 0 solo cuando x = 0. En efecto, si (x; Mx) = 0
entonces
(x; Mx) = (2x21 + 2x22 + 2x1 x2 ) + (2x23 + 2x24 + 2x3 x4 ) + : : :
+ (2x2n

+ 2x2n + 2xn 1 xn ) + 2x2 x3 + 2x4 x5

+ 2 x6 x7 + : : : + 2 xn 2 x n

=0

= (x21 + 2x1 x2 + x22 ) + (x23 + 2x3 x4 + x24 ) + : : :


+ (x2n

+ 2xn 1 xn + x2n ) + x21 + (x22 + 2x2 x3 + x23 )

+ (x24 + 2x4 x5 + x25 ) + (x26 + 2x6 x7 + x27 ) + : : : +


+ (x2n

+ 2 xn 2 xn

+ x2n 1 ) + x2n = 0

= (x1 + x2 )2 + (x3 + x4 )2 + : : : + (xn

+ xn )2

+ (x2 + x3 )2 + (x4 + x5 )2 + (x6 + x7 )2 + : : :


+ ( xn

+ xn 1 )2 + x21 + x2n = 0:

Esto implica que xi = 0 para todo i = 1; 2; : : : ; n, es decir, x = 0.

1.2.4. Condiciones de Fredholm


Supongamos que M' = 0 tiene solucion con ' =
6 0. Entonces existe al
menos un vector columna de la matriz M , que es linealmente dependiente.
Por simplicidad, supongamos que solo hay un vector ' excepto sus multiplos m'. Por el teorema de la dimension el rango de M , Rang (M ), tiene
dimension n

1. Esto implica que existe un vector

no nulo tal que

M = 0;
es decir,
( ; Mi ) = 0 para cada i = 1; : : : ; n:

24
Como Mi son las las de la matriz M t , lo anterior se puede reescribir como

M t = 0:
En resumen se tiene:

M' = 0 (' 6= 0) si y solo si M t = 0 ( =


6 0):

(1.20)

El resultado es que si M' = 0 tiene solucion distinta de cero entonces

Mu = f puede tener solucion y esta no es unica. De hecho, si hay alguna


solucion u0 , entonces la solucion general es

u = u0 + m'; donde m es una constante arbitraria;


ya que por el teorema de la dimension, Ker(M ) tiene dimension igual a uno.
Si hay muchas soluciones linealmente independientes 'i (i = 1; 2; :::; k )
de la ecuacion M' = 0 entonces hay muchas soluciones linealmente independientes

de la ecuacion M t

= 0. Entonces Mu = f posee solucion si y

solo si f satisface las condiciones de Fredholm:


( i ; f ) = 0:
Si tiene solucion, digamos u0 , entonces la solucion general es:

u = u0 +

k
X
I =1

mi 'i con k < n

donde los coe cientes mi son arbitrarios.

25

Teorema 1.2.14 (Condicion de Fredholm). La ecuacion Mu = f tiene


solucion si y solo si ( ; f ) = 0, para cada

2 Ker(M t):

Demostracion. Supongamos que la ecuacion Mu = f tiene solucion u, entonces


( ; f ) = ( ; Mu) = (M t ; u) = (0; u) = 0:
Recprocamente, supongamos que ( ; f ) = 0 para cada 2 Ker(M t ): Entonces f pertenece Ker(M t )? = Ran(M ). As f pertenece al rango de M ,
es decir, existe un u tal que Mu = f:

Observacion 1.2.15. El teorema (1.2.14) tiene una contraparte inmediata


para la ecuacion integral (1.2) donde

; fi =

Z b

(x)f (x) dx:

De nicion 1.2.16. De nimos el operador integral transpuesto como


t

(K0 u)(x) =

Z b
a

k t (x; y )u(y ) dy:

Observacion 1.2.17. Se tiene que kt (x; y) = k(y; x). En efecto: si hu; K0 vi =

hK t u; vi para cada v, entonces


0

Z b
a

u(x)(K0 v )(x) dx =

Z b
a

(K0t u)(x)v (x) dx:

(1.21)

Ahora bien;
Z b
a

u(x)(K0 v )(x) dx =

Z b
a

u(x)

Z b
a

k (x; y )v (y ) dy dx =

Z bZ b
a

u(x)k (x; y )v (y ) dy dx:

Si intercambiamos las variables x por y, y las variables y por x y aplicando


el teorema de Fubini obtenemos
Z b
a

u(x)(K0 v )(x) dx =

Z bZ b
a

k (y; x)u(y )v (x) dy dx:

26
As, de (1.21) tenemos
Z bZ b
a

k (y; x)u(y )v (x) dy dx =

Z b
a

(K0t u)(x)v (x) dx:

Luego para cada v se tiene que


Z b Z b
a

k (y; x)u(y ) dy

(K0 u)(x) v (x) dx = 0;

de donde se obtiene que


t

(K0 u)(x) =

Z b

k (y; x)u(y ) dy;

es el operador integral K0t con nucleo k t (x; y ) = k (y; x).


Para ilustrar el Teorema (1.2.14) (ver observacion (1.2.15)), consideremos
el siguiente ejemplo.

Ejemplo 1.2.18. Veamos la siguiente ecuacion con nucleo separable:


Z

u(x) = f (x) + 2

(xy )1=2 u(y ) dy:

(1.22)

Ya que la ecuacion es de la forma M0 u = f con M0 = I K0 debemos analizar,


de acuerdo al Teorema 1.2.14, Ker(I

K0t ). Supongamos que (1.22) tiene

dos soluciones y denotemos su diferencia por ', entonces


Z

'(x) = 2

(xy )1=2 '(y )dy

(1.23)

= cx1=2
Z

donde c = 2

y 1=2 '(y ) dy: Esto muestra que existe una solucion distinta de

cero de la ecuacion (I

K0 )u = 0. Notese que lo anterior implica que hay

tambien una solucion distinta a cero para la ecuacion


Z

(x) =

(y )k (x; y ) dy:

27
En efecto:
Z

( x) =

k (x; y ) (y ) dy

k t (x; y ) (y ) dy

(yx)1=2 (y ) dy

k (x; y ) (y ) dy:

Como el operador K0 es simetrico, esto es k (x; y ) = k (y; x), entonces (x) =

x1=2 es tambien solucion de (1.22) (ver (1.19)).


Finalmente concluimos del Teorema 1.2.14 (ver observacion 1.2.15) que la
ecuacion tiene solucion si y solo si ( ; f ) = 0, es decir
Z

f (x) (x) dx = 0 o

f (x)x1=2 dx = 0:

Observacion 1.2.19. Si resolvemos directamente la ecuacion (1.22), podemos ver como se origina la condicion de Fredholm. En efecto, la ecuacion
(1.22) es equivalente a

u(x) f (x)
p
=
2 x

y 1=2 u(y ) dy:

Ahora, derivando
1 1
u0 (x) = f 0 (x) + 2 p
2 x
esto es:

o

1
u0 (x) = f 0 (x) + p
x

u0 (x) = f 0 (x) +

y 1=2 u(y ) dy


u(x) f (x)
p
;
2 x

1
(u(x)
2x

f (x));

28
lo que es equivalente a:

u0 (x)
Sea g (x) = u(x)

1
(u(x)
2x

f 0 (x) =

f (x), entonces se obtiene:


1
g (x)
2x

g 0 ( x) =
de donde

px:

g ( x) =

Luego u(x) =

px + f (x) es candidato a la solucion de (1.21). Ahora, para

que se cumpla la igualdad (1.21) se debe tener

px + f (x) = f (x) + 2 Z

esto es

px + f (x) = f (x) + 2px Z

(xy )1=2 ( y + f (y )) dy

o

f (x)):

y dy +

pyf (y) dy ;

px + f (x) = f (x) + 2px  1 + Z pyf (y) dy


1

lo que es igual a

px = px + 2px Z pyf (y) dy


1

o

Z
p
pyf (y) dy:
0=2 x
1

Esto implica que

Z
0

pyf (y) dy = 0

o equivalentemente
Z

pyf (y) dy = Z

(y )f (y ) dy = ( ; f ) = 0;

de donde se obtiene la condicion de Fredholm.

29
1.3.

N
ucleos No Separables

1.3.1. Normas
De nicion 1.3.1. Si en un espacio vectorial E se puede de nir una funcion

k  k que cumple con las condiciones


1.

kvk > 0 si v 6= 0

2.

kcvk = jcjkvk

3.

ku + vk  kuk + kvk,

para todo u; v
funcion

2E

yc

2 K, entonces el espacio E

k  k la llamamos norma.

se dice normado y la

Para un vector v 2 Rn de nimos la expresion

kvk = miax jvij:


La cual puede veri carse que es una norma, de acuerdo a la de nicion anterior.
Para de nir la norma de una matriz K , realicemos lo siguiente:
Sea B (K ) un numero cualquiera, calculado sobre las componentes de K , tal
que

kKvk  B (K )kvk

para todo v . Llamamos B (K ) un coe ciente de acotamiento o simplemente

cota. La mejor eleccion de B (K ) es que sea lo su cientemente peque~no para


que cumpla con la desigualdad. Llamamos a tal B (K ) la norma de K (de

30
hecho, se puede demostrar que lo es cuando se encuentra una representacion
de este numero) y la denotamos por kK k. Entonces:

kKvk  kK kkvk;
con la igualdad para algun v 6= 0.

Proposicion 1.3.2. La norma de la matriz K es:

kK k = miax

X
j

jKij j:

Demostracion. Usando la desigualdad triangular obtenemos lo siguiente:

j(Kv)ij =



X


Kij vj



j

X
j

jKij jjvj j:

Como kv k es mas grande que cada uno de los valores jvj j, obtenemos

j(Kv)ij  Ri(K )kvk;


donde

Ri (K ) =

X
j

jKij j:

Nos referimos a Ri (K ) como suma absoluta de la la. Entonces

kKvk = max j(Kv)ij  kvk(max Ri):


X

jKij j: Para probar que kK k = max


jKij j
i
i
j
j
necesitamos ver que un vector v cumpla con la igualdad: kKv k = Ri (K )kv k.

Esto prueba que la kK k  max

Sea m el numero de la la con la suma absoluta mas grande. De nimos la


funcion signo por

sgn(x) :=

8
>
>
>
<
>
>
>
:

1;

x > 0;

0;

x = 0;
1; x < 0.

31
Tomando vj = sgn(Kmj ) se tiene kv k = 1 y
(Kv )m =

X
j

jKmj j

entonces kKv k = Rm (K ), y podemos concluir que:

kK k = miax
Observacion 1.3.3. Para cada n

X
j

jKij j:

2 N, kK nk  kK kn.

En efecto: Para

cualquier coe ciente de acotamiento B (K ), se tiene:

kKKvk  B (K )kKvk  B (K )B (K )kvk:


Por otra parte:

kKKvk  B (KK )kvk:


As

kKK k  kK kkK k:
De lo anterior obtenemos, por induccion

kK nk  kK kn:
Observar que en general kK n k es estrictamente mas peque~na que kK kn
como veremos en el ejemplo (1.3.14).

Proposicion 1.3.4. El conjunto de todas las funciones u tales que

kuk = sup ju(x)j < 1;


x

es un espacio normado, con norma kuk.

32

Demostracion. Es claro que kuk > 0 y que kcv k = jcjkv k. Ademas como
sup ju(x) + v (x)j

 sup ju(x)j + sup jv(x)j se obtiene la condicion (3) para

que kuk sea una norma.

De nicion 1.3.5. La norma asociada al operador integral K0 es

kK k = sup
0

Z b

jk(x; y)j dy

El cual es el analogo al maximo absoluto de la la en caso que K0 fuese una


matriz.

1.3.2. Metodo de Schmidt


De nicion 1.3.6. Diremos que el operador K0 de nido en (1.3) es peque~no
si su norma es menor que 1 y, en tal caso al correspondiente nucleo le llamaremos nucleo peque~no.
Supongamos que un nucleo k (x; y ) se puede escribir como

k (x; y ) = s(x; y ) + e(x; y )

(1.24)

donde s es separable y donde e es peque~no, entonces la ecuacion integral de


segundo tipo (1.2) puede ser resuelta como sigue: Siguiendo la analoga en la
notacion (1.3) la ecuacion reescrita es

u = h + S0 u + E0 u
esto es,
(I

E0 )u = h + S0 u:

Asumimos, por el momento, que podemos encontrar el inverso de (I

E0 ) 1 .

Entonces se tiene:

u = h + S0 u

(1.25)

33
donde h = (I

E0 ) 1 h, S0 = (I

E0 ) 1 S0 .

Como s es un nucleo separable, entonces s tiene la siguiente forma:

s(x; y ) =
Luego

n
X
i=1

fi (x)gi (y ):

X
s (x; y ) =
fi (x)gi (y );

donde f  = (I
i

i=1

E ) fi .
1

Por lo tanto, para resolver la ecuacion integral (1.2) inicial, solo tenemos
que resolver la ecuacion separable (1.25).

Observacion 1.3.7. Si kE0 k < 1, entonces la inversa de (I

E0 ) puede

ser calculada formalmente por medio de series. Estas series son las llamadas
series de Neumann :
(I

E0 )

= I + E0 + E02 + E03 + :::

1.3.3. Metodos de aproximaci


on por N
ucleos Separables
Generalmente el nucleo de la ecuacion (1.1) no es un nucleo separable, por
ende esta ecuacion no podra ser resuelta utilizando la Teora de Fredholm.
A continuacion mostraremos, sin ser rigurosos, tres diferentes metodos para
aproximar estos tipos de nucleos por nucleos separables.

Aproximacion por Punto Medio.


Sea [0,1] el intervalo de integracion, y lo dividimos en n partes iguales formando una particion P dada por:


1 m
;
n
n

con m = 1; : : : ; n:

34
De nimos

1
2

km (x) = k x; m
Consideremos la funcion

um (y ) =

8
<
:

1; y 2
0; y 2
=

m 1
n ;
m 1
n ;

1
:
n

m ;
n

m .
n

As, el nucleo k (x; y ) lo aproximamos, puntualmente en su segunda variable

y , por
k (x; y ) =

n
X
m=1

km (x)um (y ) + e(x; y )

que es un nucleo separable mas uno peque^no en algun sentido.


De esta manera la ecuacion de segundo tipo la podemos reescribir como
Z

u(x) = h(x) +
= h(x) +

n
X

m=1

n
X
m=1

km (x)um (y )u(y ) dy

km (x)

Z (m=n)
(m 1)=n

u(y ) dy:

Aproximacion por Coe cientes de Fourier.

Supongamos que k (x; y ) esta de nido en [ ;  ]  [ ;  ] y de namos la


funcion um (y ) = eimy y los coe cientes de Fourier de la funcion y
como

1
km (x) =
2

Z 


k (x; y )e

imy

dy:

Podemos aproximar k (x; y ) por el nucleo separable

k (x; y ) =

n
X
m= n

km (x)um (y ) + e(x; y )

! k(x; y)

35
Notemos que la aproximacion obtenida es diferenciable en y y se tiene que
la ecuacion de segundo tipo se puede escribir como
Z

u(x) = h(x) +
= h(x) +

n
X

kk (x)eimy u(y ) dy

0
n

Z
n
X
1 

2

k (x; s)e

ims

Z

ds

eimy u(y ) dy:

Detalles sobre el sentido formal de la aproximacion indicada anteriormente


se estudiara en el capitulo siguiente.

Aproximacion por Polinomios


Sea k (x; y ) un nucleo continuo y [0; 1] el intervalo de integracion, por el teorema de Stone-Weierstrass existe un polinomio p(x; y ; ") tal que para cualquier
0  x; y

 1 se tiene que jk(x; y)

p(x; y ; ")j < ": Esto es, p es una aproxi-

macion separable para el nucleo k (x; y ), y p tiene la siguiente forma

p(x; y ; ") =

X
n

kn (x; ")y n ;

donde las funciones kn son polinomios.


Luego, podemos escribir la ecuacion de segundo tipo como
Z

u(x) = h(x) +
= h(x) +

X
n

p(x; y ; ")u(y ) dy
Z

kn (x; ")

y n u(y ) dy:

Finalmente, utilizando cualquiera de los metodos u otros, segun sea la


ecuacion integral que se tenga, el problema se reduce a un sistema de ecuaciones algebraicas tal como hemos estudiado anteriormente.

1.3.4. Iteraci
on por medio de Series de Neumann
Sea c

2 C y K una matriz. A n de resolver la ecuacion u = f + cKu

podemos realizar lo siguiente. Se de ne una sucesion (un ) de manera recursiva

36
a traves de la formula

un+1 = f + cKun ;

(1.26)

donde u0 es arbitrario. Por la igualdad (1.26) obtenemos

un = f + cKun

= f + cK (f + cKun 2 ) = f + cKf + c2 k 2 un

= f + cKf + c2 K 2 (f + cKun 3 ) = f + cKf + c2 K 2 f + c3 K 3 un 3 ;


y de forma sucesiva obtenemos:

un = f + cKf + c2 K 2 f + c3 K 3 f + ::: + cn 1 K n 1 f + cn K n u0 :
Lo anterior sugiere que:

u=f+

1
X
n=1

cn K n f:

(1.27)

Observamos que el parametro c puede variar el tama~no de la matriz K .


Nos preguntamos: >Cuan peque~no debe ser c para que la serie anterior sea
convergente?

Proposicion 1.3.8. La serie

1.

Demostracion. Sea SN =

kf k < 1 se tiene
kSM
donde kf k

SN k =
M
X
n=N

1
X
n=0

N
X1
n=0

cn K n f es convergente si kcK k < 1 y kf k <

cn K n f . Como kcK k < 1, con N < M , y



M
X


n n
c K f



n =N

M
X
n=N

jcj kK kkf k 
n

jcjnkK kn ! 0, cuando N

M
X
n=N

jcjnkK knkf k;

y M tienden a in nito. Ya que

(SN ) es una sucesion de Cauchy en el espacio vectorial de la matrices, el


1
X
cual asumimos completo con la norma dada, se obtiene que
cn K n f es
convergente.

n=0

37

De nicion 1.3.9. Llamamos serie de Neumann a la serie obtenida en la


Proposicion 1.3.8.
En la siguiente proposicion demostraremos que
(I

cK ) 1 .

1
X
n=0

cn K n coincide con

Proposicion 1.3.10. Si kcK k < 1 entonces


(I

cK )

1
X
n=0

cn K n =

Demostracion. En efecto
1
X
(I cK )
cn K n =
n=0

1
X

1
X
n=0

cn K n (I

cn K n (I

n=0

c K

n=0

= I+
Analogamente

1
X

1
X
n=1

1
X
n=0

cn K n

cK ) = I:

cn+1 K n+1
1
X
n=0

cn+1 K n+1 = I:

cK ) = I:

Observacion 1.3.11. La Matriz R(c) asociada al operador que posee Nucleo


Resolvente (ver Subseccion 1.2.2) correspondiente a la solucion de la ecuacion
1
X
cn K n . En efecto: De (1.27) obtenemos
u = f + cKu coincide con la serie
n=0

u = f+

1
X
n=1

cn K n f = I +

1
X
n=1

cn K n f

Por otra parte, de (1.16) se tiene que u = (I + cR(c))f , luego cR(c) coincide
1
X
exactamente con la serie
cn K n .
n=1

38

Observacion 1.3.12. La condicion de que jcjkK k < 1 en muchos casos no


se tiene, sin embargo la serie de Neumann aun converge si reemplazamos la
condicion anterior por

jcj kK k < 1:
2

En efecto, como kK k  kK 2 k obtenemos la siguiente desigualdad

1
X
n=1

jcj kK k kf k 
n

1
X
n=1

jcj nkK knkf k:


2

As la serie de la izquierda tambien converge cuando jcj2 kK 2 k < 1:


Lo anterior se resume en la siguiente proposicion.

Proposicion 1.3.13. Para que la serie de Neumann sea convergente es su ciente que

jcjnkK nk < 1 para algun n 2 N:

Demostracion. Es claro que si kcn K n k < 1 para algun n 2 N entonces se tiene


que la serie de Neumann es convergente, solo basta tomar la demostracion
en la observacion anterior y cambiar la potencia de kcK k.

Ejemplo 1.3.14. Analicemos el siguiente ejemplo, dadas las matrices


0

K=@

0
2

1
3

1
A;

K2 = @

6 11

1
A

obtenemos kK k = j 2j + j3j = 5 y kK 2 k = j6j + j11j = 17, si jcjkK k < 1


1
1
entonces jcj < = 0; 2 pero si jcj2 kK 2 k < 1 entonces jcj < p  0; 24:::
5
17
De esto concluimos que si jcj2 kK 2 k < 1 y kK 2 k < kK k2 entonces obtenemos
una mejor cota para c, esto pues

jcjkK k =

2 1 2

< 1:

39

Ejemplo 1.3.15. Analizaremos las condiciones para que la matriz


0

1 1

K=@

0 1

1
A

posea serie de Neumann convergente.


Vemos que

1 n

Kn = @

0 1

1
A

de esto obtenemos por la Proposicion 1.3.10


0

(I

cK )

B
B
B
@

1+

1
X
n=1

1
X

nc
n=1
1
X
cn
1+

1
C
C
C;
A

n=1

siempre que jcj < 12 , luego


0

(I

cK )

B
=@ 1

c (1

c
1

c)2

C
A:

Esto ultimo lo podemos comparar con la condicion su ciente kcn K n k < 1


para que la serie anterior converja. En efecto, usando Proposicion 1.3.2

kcnK nk = jcnjkK nk = jcnj(n + 1) < 1;


entonces

jcj < pn n1+ 1 :

Observar que si n = 1 se tiene jcj < 0; 5 como antes. Ahora, si n = 2 se tiene

jcj < 1=

3  0; 58 que es mejor que la anterior y as sucesivamente.

40

Ejemplo 1.3.16. Se de ne k  k1 de la matriz K como sigue

kK k

1 = max

es facil veri car que

kk

X
i

jKij j;

es norma.

Ahora comparemos las cotas encontradas a traves de suponer que jcjkK k1 < 1
y jcj2 kK 2 k1 < 1. Dada la matriz

K=@

0
2

1
3

1
A;

obtenemos kK k1 = 4 y kK 2 k1 = 14: Entonces se tiene que

jcj < 0; 25 y jcj < 0; 2673 : : : ;


respectivamente. De esto podemos concluir que se obtiene una mejor cota

utilizando la condicion jcj2 kK 2 k1 < 1 ya que el rango de valores de c se


amplia y por ende el radio de convergencia de la serie de Neumann tambien
lo hace.

1.3.5. Convergencia Uniforme de la serie de Neumann


A continuacion estudiaremos la solucion de la ecuacion integral u = f +

cK0 u, donde K0 es el operador de nido en (1.1.3) para tal efecto utilizaremos


las normas de nidas en De niciones 1.3.4 y 1.3.5, llamadas tambien normas
de convergencia uniforme.
Anteriormente observamos que, para que la serie de Neumann converja, es

su ciente que jcjkK k < 1,(ver Proposicion 1.3.8) en tal caso no se ocuparon
las propiedades particulares de la norma asociada a una matriz.

Proposicion 1.3.17. Si la norma de f es nita y ademas jcjkK0 k < 1,


entonces la solucion u de la ecuacion (1.2) existe.

41

Demostracion. De acuerdo a la sucesion de nida en (1.26), con K0 en lugar


de K , tenemos que para cada " > 0; la sucesion un :=

k um

n
X
j =0

cj K j f satisface

un k < ";

para cada m > n: Ya que el espacio vectorial de las funciones con la norma de nida es completo (ver[4]), entonces la serie de Cauchy es una serie
convergente, es decir, existe una funcion u tal que

kun

uk ! 0; cuando n ! 1

en particular esto signi ca que un converge uniformemente a la solucion u.

En particular se tiene el siguiente resultado.

Corolario 1.3.18. Si jcjn kK n k < 1 para algun n


parcial un =

n
X

2 N, entonces la suma

cn K n f converge uniformemente a la solucion lmite u.

k=1

Ejemplo 1.3.19. Para la ecuacion: u(x) = f (x) + c

Z
0

k (x; y )u(y ) dy anali-

zamos dos casos en que la norma del operador asociado a K0 es menor que
1 y, as la serie de Neumann converge uniformemente a la solucion u.
1. k (x; y ) = sin(xy ): Como 0 < x < 1 entonces xy < y de donde sin(xy ) <
sin(y ). De esto se tiene que:

kK k = sup
0

Z
0

j sin(xy)j dy 

Z
0

sin y dy = 1

cos(1) < 1:

Concluimos que la serie de Neumann converge uniformemente a u.

42
2. k (x; y ) = 2jx

y j. En primer lugar calculamos la norma de K0 :


Z

kK k

= sup

2jx

Z

sup 2
x

y j dy
Z

jxj dy +

jyj dy

= sup 2x + 1  3:
x

Ya que la norma no es directamente menor que 1, calcularemos la norma


de K02 :

kK k
2
0

= sup
x

= sup 4
x

0
1

jx

4jx

z jjz

zj

Z z
0

y j dz dy

jz

y j dy +

Z
z

jz

y j dy dz;

donde
Z z
0

jz yj dy +

jz yj dy =

Z z
0

z y dy +

1
z + y dy = z + + z 2 ;
2

por lo tanto:

kK k
2
0

=
=
=
=

jx zj z + 21 + z2
sup 4
x
0




Z z
Z x
1
1
2
2
z + + z dz
(x z )
z + + z dz + (z x)
2
2
x
0
 2

3
4
2
3
4
3x 2x + x
1 2x + 3 x 2x + x
sup 4
+
2
6
x


2
3
4
1 2x + 3 x 2x + x
2
sup 4
= :
6
3
x
1

De lo anterior tenemos que kK02 k < 1 lo que nos asegura la convergencia


uniforme de la serie de Neumann a u.

Ejemplo 1.3.20. Dada la ecuacion


Z

u(x) = f (x) + c

ex y u(y ) dy

43
encontraremos los valores de c para que la serie de Neumann converja. Para
esto resolvemos la ecuacion directamente.
Derivando con respecto a x obtenemos:

u0 (x) = f 0 (x) + cex


De niendo g (x) := u(x)

Z
0

e y u(y ) dy = f 0 (x) + u(x)

f (x):

f (x) obtenemos la ecuacion:


g 0 (x) = g (x):

As la solucion para la ecuacion inicial es u(x) = ex + f (x).


1
X
Comparando esta con la solucion u = f +
cn K0n f; desprendemos que
1

1 = e f (x)

1
X
n=1

cn ;

por tanto para que esta serie converja se debe tener que jcj < 1.
Ahora bien aplicando la de nicion de norma sobre el operador integral K0
se tiene que:

kK k = sup
0

je j dy = sup e [
x y

e ] = sup e
1
0

1
e

1
 0; 3679.
e
Al comparar las dos formas que hemos utilizado para encontrar el valor de c,
As kK0 k < e. Suponiendo jcjkK0 k < 1 se tiene que jcj <

observamos que no hay una diferencia signi cativa para este valor, es decir,

se conserva la condicion de que jcj < 1, para que la ecuacion inicial posea
solucion.

Observacion 1.3.21. .
1. Si f es una funcion continua y K0 u es continua para cualquier u entonces la solucion u es continua.

44
2. Si K0 es un operador continuo y f es un funcion discontinua entonces

f = K0 u es continua, es decir, u tiene las mismas discontinuidades

que f .

Teorema 1.3.22. Si la norma de f es nita y la norma de K0 es menor que


1 entonces la ecuacion integral u = f + K0 u tiene solucion cuya norma es
tambien nita.

Demostracion. Ya que kK0 k < 1, la serie de Neumann de ne el operador


inverso
(I

K0 )

= I + K0 + K02 + K03 + :::

Ahora si la norma de f es nita, la ecuacion u = f + K0 u tiene solucion

u = (I

K0 ) 1 f

donde la norma de u es tambien nita, ya que

kuk  k(I

K0 )

kkf k < 1:

1.3.6. Condiciones para la Existencia y Unicidad de la


soluci
on de la ecuacion con N
ucleos Peque~
nos
La notacion u = (I

K0 ) 1 f pareciera implicar que existe una unica

solucion para la ecuacion u = f + K0 u, pero no necesariamente es el caso.


Recordemos que la ecuacion K' = ' es equivalente a la ecuacion u = f + Ku
que tiene soluciones u1 y u2 con ' = u1

u2 , (u1 6= u2 ). Con respecto a esta

ultima observacion, tenemos el siguiente teorema

45

Teorema 1.3.23. Si la norma del operador K0 es menor que uno y la norma


de ' es nita, entonces la ecuacion u = f + K0 u tiene unica solucion.

Demostracion. Supongamos que la ecuacion u = f + K0 u tiene dos soluciones

digamos u1 , u2 con u1 6= u2 entonces restando, se obtiene la ecuacion

' 6= 0:

K' = ';

Ahora, aplicando la norma a la ecuacion anterior y usando el hecho que

kK k < 1 obtenemos:
0

k'k = kK 'k  kK kk'k < k'k


0

donde se tiene una contradiccion que nace del supuesto u1 6= u2 ; as se tiene
que ' = 0, por tanto u1 = u2 . As, la ecuacion u = f + Ku tiene una unica
solucion.
Veamos el siguiente ejemplo que ilustra la importancia de que la norma
de ' sea nita.
Dado el nucleo

k (x; y ) :=

8
<
:

yx y ; 0  y  x  1
0x<y1

0;

Calculamos la norma de K0 :

kK k
0

= sup
x

= sup
x

Dado que x
por:

Z x
0

jk(x; y)j dy = sup

Z x

yx

jk(x; y)j dy +

Z
x

jk(x; y)j dy

dy:

y  1 con y  0 entonces podemos acotar la integral anterior

kK k  sup
0

Z x
0

y dy =

1
< 1:
2

46
As, kK0 k < 1. Sea '(x) = xx

entonces su norma es

k'k = sup jxx j = 1:


1

Como la norma de ' es divergente la ecuacion u = f + K0 u asociada al


problema posee mas de una solucion, incluso cuando kK0 k < 1.

Anteriormente vimos que si k (x; y ) = s(x; y )+ e(x; y ) donde s(x; y ) es separable y e(x; y ) es peque~no, entonces la ecuacion u = f + K0 u puede ser reducida
a un sistema de ecuaciones lineales algebraicas. De esto se desprende que el
espacio de las funciones con norma nita kuk <

1 son en cierto sentido

`cercanamente'de dimension nita.


A n de precisar como podemos ampliar la clase de nucleos k (x; y ) procederemos como sigue: Escribimos

k (x; y ) = c(x; y ) + e1 (x; y )


donde c(x; y ) es una funcion continua en un conjunto cerrado [a; b]  [a; b].

Teorema 1.3.24. Sea k(x; y) = c(x; y) + e1 (x; y) con c funcion continua


y e1 peque~no, entonces el nucleo anterior se puede escribir como k (x; y ) =

s(x; y ) + e(x; y ) donde s es separable y e es peque~no.


Demostracion. .
Sean K0 (u)(x) =

C0 (u)(x) =

Z b
a

Z b
a

k (x; y )u(y ) dy;

c(x; y )u(y ) dy y E1 (u)(x) =

continua en [a; b]  [a; b]; se tiene que

kC k = sup
0

Z b
a

Z b
a

e1 (x; y )u(y ) dy: Ya que c es

jc(x; y)j dy < 1:

47
Luego:

kK k = kC
0

+ E1 k  kC0 k + kE1 k < 1:

Por otra parte la continuidad de c implica, por el Teorema de aproximacion


de Stone Weierstrass ver [1], que c(x; y ) puede ser aproximada uniformemente
por un polinomio p(x; y ), esto es:

c(x; y ) = p(x; y ) + e2 (x; y )


donde e2 (x; y ) se elige de manera que kE2 k < 1

kE k.
1

Sea e(x; y ) = e1 (x; y ) + e2 (x; y ) entonces podemos escribir

h(x; y ) = c(x; y ) + e1 (x; y )


= p(x; y ) + e1 (x; y ) + e2 (x; y )
= p(x; y ) + e(x; y );
donde kE k = kE1 + E2 k  kE1 k + kE2 k < 1 y p(x; y ) es separable.
El teorema anterior nos sirve para ampliar los nucleos de la forma k =

c + e1 que cumplan con las condiciones de la teora de Fredholm.

Observacion 1.3.25. Existe la posibilidad de que e1 posea in nitas discontinuidades en su dominio, pero aun as kE1 k < 1.

Con respecto a la observacion anterior, veamos el siguiente ejemplo


Sean
y

k (x; y ) = jx
c(x; y ) = (jx

entonces e1 (x; y ) = k (x; y )


dominio, pero kE1 k < 1.

yj

1
2

y j + ")

1
2

c(x; y ) tiene in nitas discontinuidades en su

Cap
tulo 2

Teor
a de Fredholm en espacios
de Lebesgue

Existen funciones y operadores cuyas normas (dadas en Proposicion 1.3.4


y De nicion 1.3.5, respectivamente) divergen, con lo cual los metodos anteriormente presentados no pueden ser utilizados. Es por esto que el presente captulo tendra como motivacion encontrar nuevas normas tales que la
teora de Fredholm siga siendo valida, ampliando la gama de terminos nohomogeneos y nucleos que puedan ser utilizados para resolver una ecuacion
del segundo tipo.
La de nicion de integral que utilizaremos (a menos que se indique lo
contrario) sera la integral de Lebesgue, dada su generalidad y propiedades
que la integral de Riemann no posee.

48

49
2.1.

Funciones Absolutamente Integrables

De nicion 2.1.1. Una funcion u se dice absolutamente integrable en [a; b]


si

kuk

Z b
a

ju(x)j dx < 1:

(2.1)

Observacion 2.1.2. Se veri ca que kuk1 = 0 s y solo s u(x) = 0 para cada

x 2 [a; b] que no este en un conjunto de medida nula.

Se denota por L1 [a; b] al espacio vectorial de todas las funciones que


cumplan con la De nicion 2.1.1, donde u = v s y solo s u(x) = v (x) para
cada x que no este en un conjunto de medida nula.

Proposicion 2.1.3. La funcion k  k1 es una norma.


Demostracion. Para tal efecto se deben cumplir las condiciones de la De nicion 1.3.1.
(1) se obtiene directamente de la observacion (2.1.2), mientras que (2) y (3)
son facilmente veri cables. As, k  k1 es una norma.

En lo que sigue, analizaremos las soluciones para la ecuacion integral

u = f + K0 u cuando f esta en L1 [a; b].

Proposicion 2.1.4. Si y ! k(x; y) es continua, entonces

kK k  sup
0

Z b
a

jk(x; y)j dy:

50

Demostracion. En efecto,

kK uk
0




Z b

j(Ku)(x)jdx =

a
Z bZ b
a a
Z b
a

= sup
y

jk(x; y)jju(y)j dy dx =

ju(y)j sup
Z b
a

ess sup

Z b
a

ju(y)j

jk(x; y)j dx dy

jk(x; y)j dx dy

jk(x; y)j dx kuk :

Observaci
on 2.1.5. Si y
Z
b


Z b Z b



dx
k
(
x;
y
)
u
(
y
)
dy


a
a
Z b
Z b

! k(x; y) no es continua, se tiene que kK k 


0

jk(x; y)j dx, donde ess sup denota supremo esencial (ver [1]).

A n de resolver la ecuacion u = f + cK0 u, basta tener que kcK0 k < 1:


Esto se ha demostrado en la Proposicion 1.3.8 donde solo se utilizaron las
propiedades generales de norma. De esta manera la solucion u es:
1
X
u=f+
cn K0n f:
n=1

A n de probar que esta solucion pertenece al espacio L1 , formamos la sucesion un de la siguiente forma:

un =

n
X
i=0

ci K0i f:

y observamos que (un ) es una sucesion de Cauchy, por lo estudiado en la


Seccion 1.3.5. Como L1 es completo, ver [4], esta sucesion converge a u, la
cual es la solucion para la ecuacion u = f + cK0 u. As, u pertenece a L1 .

Ejemplo 2.1.6. Para ilustrar como esta nueva norma ampla los tipos de
funciones f y k que podemos ocupar, analicemos la siguiente ecuacion

u(x) = x

1=2

(x

1)

1=3

u(y ) dy:

(2.2)

51
En primer lugar observamos que

kf k =

sup jx
x2[0;1]

1=2

j=

1
sup p ;
x2[0;1] x

de donde vemos que kf k diverge, lo mismo ocurre para

kK k =
0

sup j(1
x2[0;1]

x)

1=3

j=

1
sup p
;
3
x
x2[0;1] 1

as la ecuacion (2.2) no tiene solucion utilizando la norma del supremo. Al


contrario si calculamos kf k1 y kK0 k1 obtenemos

kf k

kK k 
0

jx

1=2

sup
y2[0;1]

j dx = 2;
j(1

x)

1=3

j dx = 32 :

Ya que ambas normas son nitas concluimos que la ecuacion (2.2) tiene
solucion y esta pertenece a L1 (0; 1).

2.2.

Funciones de Cuadrado Integrable

De nicion 2.2.1. Una funcion u se dice de cuadrado integrable en [a; b] si

kuk

Z b
a

u (x) dx < 1:
2

(2.3)

Se denota por L2 [a; b] al espacio vectorial de todas las funciones que


cumplan con la De nicion 2.2.1, donde u = v si y solo si u(x) = v (x) para
cada x que no este en un conjunto de medida nula.

Observacion 2.2.2. Otra manera de de nir L2 [a; b] es considerando la clausura


del espacio de las funciones continuas de nidas en el intervalo [a; b] con la
norma

kf k =

Z b
a

jf (x)jdx

1=2

52

Proposicion 2.2.3. La funcion k  k2 es una norma.


Demostracion. Analoga a la proposicion (2.1.3)
Analizaremos las soluciones para la ecuacion integral u = f + K0 u cuando

f esta en L2 [a; b].

Proposicion 2.2.4.

kK k 

Z b Z b

jk(x; y)j

1=2

dydx

Demostracion. Si u esta L2 [a; b] entonces

kK uk
0

2
2

Z b
a
Z b
a

(K0 u) (x) dx =
2

kk(x; )k kuk

ahora si B (K0 ) =
2

2
2

Z b
a

Z b Z b
a

dx = kuk

2
2

kk(x; )k

2
2

2

dx =

k (x; y )u(y ) dy
2
2

Z b
a

kk(x; )k

2
2

Z b
a

hk(x; ); ui dx

dx;

dx entonces

kK uk  B (K )kuk :
0

Observacion 2.2.5. Notemos que B (K0 ) < 1 implica kK0 k < 1, as la
ecuacion u = f + K0 u tiene solucion. Esta solucion se encuentra en L2 [a; b],
puesto que este espacio es completo, ver [4].
Los siguientes teoremas complementan la demostracion del Teorema FischerRiesz que es una herramienta util para construir funciones de cuadrado integrable a partir de vectores de dimension in nita, el cual nos permite llevar
la teora de Fredholm a este tipo de espacios vectoriales.

53

Teorema 2.2.6 (Beppo Levi). Sea (fn (x)) una sucesion de funciones, tal
que

fn (x) es absolutamente convergente, c:t:p:, con lmite f (x), entonces

f (x) es integrable, y
Z

f (x) dx =

XZ

fn (x) dx:

Teorema 2.2.7 (Fatou). Sea (fn (x)) una sucesion de


funciones, tal que
Z

 0 para cada n 2 N y fn(x) ! f (x) c:t:p: con fn(x) dx < b, para


Z
algun b 2 R, entonces f (x) es integrable y f (x) dx < b.

fn (x)

Teorema 2.2.8 (Fischer-Riesz). Si f = (f1 ; f2 ; : : : ) es un vector de dimension in nita con kf k2 =

L2 tal que

1
X
n=1

fn2 < 1 entonces f de ne una funcion g en

g=

1
X
n=1

fn un ;

donde fun g es un sistema ortonormal completo.

Demostracion. Sea Sn (x) la n-esima suma parcial de la serie

1
X
i=0

fi ui (x) y L

la longitud del intervalo sobre el cual se integra. De esta manera

kSm

S n k L1 =


Z X
m



f
u
(
x
)


i i


i=n+1
1=2

= L

= L1=2

donde

n+1
X
i=1

fi2

kSm
m
X

dx 

S n k L2 = L

Z

1=2

m
X

i=n+1 j =n+1

12 dx

m
X
i=n+1

1=2

2
Z X
m

@
fi ui (x)


i=n+1
m
X

fi ui (x);

fi fj hui ; uj i = L1=2

n+1
X
i=1

11=2

j =n+1

dxA

fj uj (x)i

fi2 ;

! 0 cuando n; m ! 1. As, Sn es una sucesion de Cauchy.

Dado que L1 es completo, por Teorema de Beppo Levi, Sn es una sucesion

54
convergente con lmite g en L1 . De esto se tiene que Sn es una suma parcial
acotada, con cota k . Ahora, si hacemos
Z

Sn (x) dx =
2

y como Sn2

n
X
i=1

!2

fi ui

k 2 dx < 1

dx <

! g ; n ! 1 completamos las hipotesis del teorema de Fatou.


2

Por tanto g es una funcion de cuadrado integrable.

2.2.1. Descomposicion de N
ucleos
En el metodo de Schmidt se supone que un nucleo k (x; y ) se puede descomponer como

k (x; y ) = s(x; y ) + e(x; y );

x; y 2 [a; b];

donde s es separable y e es peque~no. En esta seccion veremos como lograr


esta descomposicion en el caso del espacio L2 [a; b], con la unica restriccion
que k (x; y ) sea continua.
La idea es escribir:

k (x; y ) =

jnj<N

kn (x)einy +

jnjN

kn (x)einy ;

1 
donde kn (x) =
k (x; y )e iny dy son los coe cientes de Fourier de la
2 
funcion y ! k (x; y ) con x jo. (ver [1]).
El uso de los coe cientes de Fourier tiene una motivacion especial. Si aproximamos una funcion f , primero por medio de una combinacion lineal arbitraria y luego utilizando coe cientes de Fourier, obtenemos respectivamente:

f ( x) =

N
X
n=1

cn un (x) + E (x);

f (x) =

N
X
n=1

fn un (x) + e(x);

55
donde un es cualquier sistema ortonormal completo. Si hacemos la diferencia
entre los terminos anteriores, encontramos

E (x) =

N
X
n=1

( fn

cn )un (x) + e(x)

que corresponde al tama~no del error. Ahora, si calculamos kE k22 obtenemos

kE k

2
2

=k

N
X
n=1

(fn cn )un +ek = kek +2he;


2
2

2
2

Observemos que e es ortogonal a f


X

=
=
=

N
X

N
X

n=1

n=1

(fn cn )un i+k

(fn cn )un k22 :

fn un ya que

hf
fm um ; (fn cn )un i = hf
fm um ;
fn un
c n un i
X
X
X
X
X
X
hf; fnuni hf; cnuni h fmum; fnuni + h fmum; cnuni
XX
X
X
XX
fm cn hum ; un i
fm fn hum ; un i +
fn hf; un i
cn hf; un i
X

fn hf; un i

m n
X
fn2
n

cn hf; un i

fn cn = 0:

Luego, se tiene que

kE k

2
2

= kek +
2
2

N
X
n=1

(fn

cn )2 :

As, concluimos que el error se minimiza cuando fn = cn . Por lo tanto el utilizar coe cientes de Fourier para aproximar una funcion en L2 [a; b] optimiza
el tama~no del error.

Teorema 2.2.9. Sea un un conjunto ortonormal en L2 [a; b]. Si f es una


funcion en L2 [a; b] entonces f =2
L

X
n2Z

Demostracion. Ver [1], pagina 16.

hf; uniun:

56
El smbolo =2 representa una igualdad con la norma del espacio L2 [a; b],
L

es decir,

n
X
n



f; ui ui

! 0;

n ! 1:

(2.4)

Proposicion 2.2.10. Para cada f

kf k

2 L [a; b] se tiene
2

X
n2Z

jfij ;

(2.5)

que llamamos relacion de completitud.

Demostracion. De (2.4) se obtiene lo siguiente:





f

n
X
n

2

f; ui ui

= hf

n
X

n
X

hf; uiiui; f

hf; uiiuii

que es equivalente a

hf; f i
o

2hf; f

kf k

n
X

n
X

hf; uiiuii + hf

n
X
n

fi +
2

n
X
n

hf; uiiui; f

fi = k f k
2

Haciendo n ! 1 se obtiene la a rmacion.

n
X
n

Proposicion 2.2.11. Para cada f; g 2 L2 [a; b] se tiene

hf; gi =

X
n2Z

fi gi ;

que llamamos identidad de Parseval.

Demostracion. Tenemos que

kf + g k

= kf k2 + 2hf; g i + kg k2 :

n
X
n

fi2 :

hf; uj iuj i

57
Por otro lado ocupando la identidad (2.5) se tiene que

kf + gk

n2Z

lo que implica que

Consideremos y

(fi + gi )2 =

hf; gi =

fi2 + 2

n2Z

X
n2Z

X
n2Z

fi gi +

X
n2Z

gi2

fi gi :

! k(x; y) en L [a; b] con x jo. Empleando el Teorema


2

2.2.9 tenemos que

k (x; y ) =2
L

X
n2Z

kn (x)un (y );

donde kn (x) son los coe cientes de Fourier de k (x; y ). Estos son:

kn (x) = hk (x; ); un i =

Z b
a

k (x; y )un (y ) dy:

De esta manera la funcion k (x; y ) se aproxima por

k (x; y ) =
De niendo sn (x; y ) =
mos

jnj<N

jnj<N

kn (x)un (y ) +

jnj>N

kn (x)un (y ):

kn (x)un (y ) y en (x; y ) =

jnj>N

(2.6)

kn (x)un (y ) obtene-

k (x; y ) = sn (x; y ) + en (x; y ):

Proposicion 2.2.12. Sea (En u)(x) =

Z b
a

en (x; y )u(y ) dy . Entonces existe

N0 2 N tal que kEn k < 1, para cada n  N0 .


Demostracion. .

A rmacion: en ! 0 cuando n ! 1:
En efecto, como k (x; y ) =

X
n2Z

kn (x)un (y ), entonces

en (x; y ) = k (x; y )

jnjN

kn (x)un (y )

58
de donde que

lm ken k = lm kk


n!1

n!1

sn k = 0;

lo que prueba la a rmacion.


Ahora bien; por Proposicion 2.2.4 se tiene

kEnk 

Z bZ b
a

en (x; y )2 dx dy;

y como en ! 0 cuando n ! 1, se obtiene kEn k ! 0.

2.3.

Funciones Propias

En la seccion anterior se observo que para poder aproximar k (x; y ) por

(2.6) se requiere de un sistema ortonormal completo fun g. Para justi car la


existencia de este realizaremos el siguiente analisis.
A continuacion se entregan De niciones y Teoremas que complementan la
Demostracion del Teorema 2.3.4

De nicion 2.3.1. Diremos que una sucesion (an )n2N en un espacio E con
producto interno <; > converge debilmente a un lmite a
cribiremos an ! a, si
w

han; yi ! ha; yi;

2 E , lo cual es-

cuando n ! 1:

para cada y en el espacio.

De nicion 2.3.2. Un conjunto X  E es debilmente compacto si para toda

sucesion un  X existe una subsucesion unk que converge debilmente en X .

Teorema 2.3.3. Sea X

E

un conjunto. Si X es debilmente compacto

entonces X es debilmente cerrado.

59

Demostracion. ver [1] section 13 p.163.

Teorema 2.3.4. Sea K0 el operador integral de la ecuacion (1.2) y supongamos que K0 es simetrico, entonces K0 posee una funcion propia.

Demostracion. Consideremos la funcion Q : L2 [a; b] ! R de nida como


hu; K0ui : Esta funcion se conoce como cociente de Rayleigh.
Q(u) =
kuk22
A rmacion: La funcion Q tiene un maximo.

En efecto, primero observamos que el conjunto A = fx 2 L2 [a; b] : kxk2 = 1g


es debilmente compacto, lo cual se conoce como Teorema de Alaoglu, ver [1].
Por Teorema 2.3.3 existe k 2 R tal que

jkj = sup jQ(u)j:


u2A

Por de nicion de supremo se tiene que existe una sucesion (un )  A tal que
1
n

jkj

 jQ(un)j;

para cada n 2 N: Pero jQ(un )j  jk j: As, se tiene

jkj

1
n

 jQ(un)j  jkj:

Luego, se obtiene jQ(un )j ! jk j cuando n ! 1:


Ahora, ya que A es debilmente compacto, tenemos que existe una sub-

sucesion, (unk ), de la sucesion (un ) tal que unk ! ' para algun ' 2 A.
w

Como u ! jQ(u)j es una funcion continua obtenemos

jQ(unk )j !w jQ(')j; n ! 1:
As, por unicidad de lmite se tiene que:

jQ(')j = jkj:

60
Por tanto, jQ(u)j  jQ(')j para cada u 2 A.
Dado y

2 L [a; b], de namos u := kyyk


2

anterior concluimos que



Q

pero


Q

y
ky k2

y
kyk2

y
y
kyk2 ; K0 kyk2


y 2
ky k2

. Entonces u

2 A y por la parte

 jQ(')j




1
=
h
y; K0 y i = jQ(y )j
2
kyk2

De esto se tiene que jQ(y )j  jQ(')j para todo y 2 L2 [a; b], y as Q posee un
maximo en ', lo cual prueba la a rmacion.

2 L [a; b]: Consideremos la funcion q : R ! R de nida por q(t) =


Q('+ty ): Dado que jQ(m)j  jQ(')j para todo m 2 L [a; b] podemos escoger
Sea y

m como ' + ty y entonces


q (t)  q (0); para cada t 2 R;
puesto que q (0) = Q(').
Luego, q tiene un maximo en 0, y esto implica que q 0 (0) = 0.
Por otra parte, ya que

h' + ty; K (' + ty)i


k' + tyk
h'; K 'i + th'; K yi + thy; K 'i + t hy; K yi :
k'k + 2th'; yi + t kyk

q (t) = Q(' + ty ) =
=

2
2

2
2

2
2

Dado que K0 es un operador simetrico se tiene

q (t) =

h'; K 'i + 2thK '; yi + t hy; K yi


k'k + 2th'; yi + t kyk
0

2
2

2
2

61
Derivando la funcion q obtenemos

q 0 (t) =

(2hK0 '; y i + 2thy; K0 y i)k' + ty k22 h' + ty; K0 (' + ty )i(2h'; y i + 2tky k22 )
(k'k22 + 2th'; y i + t2 ky k22 )2

Evaluando q 0 en t = 0, y como ' 2 A se tiene que

q 0 (0) = 2hK0 '; y i

2h'; K0 'ih'; y i

= 2hK0 '; y i

2h'h'; K0 'i; y i;

concluimos que

hK '
0

para todo y

'h'; K0 'i; y i = 0;

L2 [a; b]. Esto implica que K0 '

'h'; K0 'i = 0 entonces

K0 ' = 'h'; K0 'i donde ' es la funcion propia que buscabamos y h'; K0 'i
es su valor propio.

Observacion 2.3.5. Asumiendo que K0 es simetrico generamos una base


ortonormal por el proceso de ortogonalizacion de Gram-Schmidt a partir de
la funcion propia '. As aseguramos la existencia de una base ortonormal
completa.

2.4.

Teor
a en

Lp

En las secciones anteriores hemos considerado dos espacios de Lebesgue

L1 y L2 . Ahora, si consideramos un numero p

2 R tal que p  1, entonces

podemos de nir el espacio general Lp de Lebesgue como sigue

De nicion 2.4.1. Una funcion u se dice p-integrable en [a; b] si

kukp =

Z b
a

ju(x)j

dx

1=p

< 1;

p  1:

62
Se denota por Lp [a; b] al espacio vectorial de todas las funciones que
cumplan con la De nicion 2.4.1, donde u = v s y solo s u(x) = v (x) para
cada x que no este en un conjunto de medida nula.

Proposicion 2.4.2 (Desigualdad de Holder). Sea u una funcion en


Lp [a; b] y v una funcion en Lq [a; b] tal que
se tiene que
Z b
a

ju(x)v(x)j dx 

Z b
a

ju(x)j

dx

1 1
+ = 1 con p; q
p q

 1, entonces

1=p Z b

1=q

jv(x)j

dx

Observacion 2.4.3. De la desigualdad de Holder se obtiene la generalizacion


de la desigualdad de Schwartz

jhu; vij  kukpkvkq :


Proposicion 2.4.4. Sea u en Lm [a; b] entonces u pertenece a Ln [a; b] para
todo n < m.

Demostracion. Tomando p = m=n y aplicando la desigualdad de Holder con


las funciones u(x)n y v (x)  1, se tiene que
Z b
a

u(x)

 1 dx 
=

Z b

n=m Z b

u(x) dx

a
" Z
b
a

u(x)m dx

2 Lm[a; b] entonces kukm


nito y as u 2 Ln [a; b].
Dado que u

a
1=m #n

<

(b

(m

n)=m

dx

a)m=(m

m=(m n)

n)

1, luego el producto anterior es

Proposicion 2.4.5 (Desigualdad de Minkowski). Sean u y v funciones

en Lp [a; b] (p  1) entonces se tiene que


Z b
a

ju(x) + v(x)j

dx

1=p

Z b
a

ju(x)j

1=p Z b

dx

jv(x)j

dx

1=p

63
Las demostraciones de las Proposiciones 2.4.2 y 2.4.5 se encuentran en
[6].

Proposicion 2.4.6. La funcion k  kp de nida en 2.4.1 es una norma.


Demostracion. Para tal efecto se deben cumplir las condiciones de la De nicion 1.3.1.
(1) se obtiene directamente de la observacion (2.1.2) cambiando el smbolo

kk

por

k  kp

donde corresponda. (2) es facilmente veri cable, mientras

que (3) se obtiene directamente de la Proposicion 2.4.5. As,


norma.

Proposicion 2.4.7.

kK ukp 

Z b

kk(x; )k

p
p dx

1=p

Demostracion. En efecto,

kK ukp


=

Z b

j(K u)(x)j

dx

1=p

a
p
Z b Z b



k (x; y )u(y ) dy

a
a

Z b Z b
a

Z b
a

jk(x; y)u(y)j dy

hk(x; ); ui

dx

1=p

!1=p

dx
p

!1=p

dx

Luego por la desigualdad de Holder, se tiene que

kK ukp 
0

Z b
a

kukq

kk(x; )k kuk


p
p

Z b
a

p
q dx

kk(x; )k

1=p

p
p dx

1=p

k  kp es una

64

Proposicion 2.4.8. Para que el producto de funciones u(x)v(x) pertenezca


a Lp [a; b] para todo u 2 Lp [a; b] se debe tener v 2 Lq [a; b]:

Demostracion. En efecto,
Z b
a

(u(x)v (x)) dx

1=p

Z b

ocupando la desigualdad de Holder se obtiene:


Z b
a

u(x) v (x) dx

1=p

1=p

u(x) v (x) dx

 kupkpkvpkq :

De la observacion 1.3.3 tenemos que kup k  kukp : As,


Z b
a

(u(x)v (x)) dx

1=p

 kukppkvkpq < 1:

Observacion 2.4.9. .
1. De la proposicion anterior se obtiene que el operador K0 u pertenece a

Lp [a; b] para todo u 2 Lp [a; b] si k (x; y ) pertenece a Lq [a; b]:


2. Como kK0 k es menor que
poder resolver la ecuacion (1.2),

1=p
p
; observamos que para
k (x; ) p dx
a
con f (x) en Lp [a; b] y k (x; y ) en Lq [a; b] solo

Z b

k

necesitamos que la cota anterior sea menor que 1.


3.Si u es una funcion continua en Lp [a; b] se tiene que
lm kukp = sup ju(x)j:
x2[a;b]

p!1

Ahora bien, si u no es una funcion continua entonces el lmite anterior sera de


la siguiente forma

lm kukp = ess sup ju(x)j:


x2[a;b]

p!1

Bibliograf
a

[1] J.B. Conway, A Course in Functional Analysis, Graduate texts in


Mathematics 96, Springer-Verlag, New York, Berlin, London, Tokyo,
1990.
[2] S.I. Grossman, Algebra Lineal, McGraw-Hill, Mexico, Buenos Aires,
Madrid, Nueva York, 1996.
[3] E.L. Lima, Curso de Analise Vol.1, Editora Hamburg, Sao Paulo,
1982.
[4] E. Kreizig, Introductory Functional Analysis with Applications, John
Wiley and Sons, New York, Toronto, Singapure, 1978.
[5] A.C. Pipkin,A Course on Integral Equations, Texts in Applied Mathematics 9, Springer Verlag, New York, Berlin, London, Paris, Tokyo,
1991.
[6] W. Rudin, Real and Complex Analysis, McGraw-Hill, New York,
Toronto, London, Sydney, 1966.

65

Вам также может понравиться