Вы находитесь на странице: 1из 57

TRABAJO FIN DE GRADO

Ttulo

El teorema de Perron-Frobenius y su aplicacin en el


algoritmo de bsqueda de Google

Autor/es

Adrin Ins Armas

Director/es

Oscar Ciaurri Ramrez

Facultad

Facultad de Ciencias, Estudios Agroalimentarios e Informtica


Titulacin

Grado en Matemticas

Departamento

Curso Acadmico

2014-2015
El teorema de Perron-Frobenius y su aplicacin en el algoritmo de bsqueda
de Google, trabajo fin de grado
de Adrin Ins Armas, dirigido por Oscar Ciaurri Ramrez (publicado por la Universidad de
La Rioja), se difunde bajo una Licencia
Creative Commons Reconocimiento-NoComercial-SinObraDerivada 3.0 Unported.
Permisos que vayan ms all de lo cubierto por esta licencia pueden solicitarse a los
titulares del copyright.

El autor
Universidad de La Rioja, Servicio de Publicaciones, 2015
publicaciones.unirioja.es
E-mail: publicaciones@unirioja.es
Facultad

Facultad de Ciencias, Estudios Agroalimentarios e Informtica


Titulacin

Grado en Matemticas
Ttulo

El Teorema de Perron-Frobenius y su aplicacin en el algoritmo de


bsqueda de Google
Autor/es

Adrin Ins Armas


Tutor/es

scar Ciaurri Ramrez


Departamento

Departamento de Matemticas y Computacin


Curso acadmico

2014-2015
FACULTAD DE CIENCIAS ESTUDIOS AGROALIMENTARIOS E

INFORMATICA


DEPARTAMENTO DE MATEMATICAS
Y

COMPUTACION


TRABAJO FIN DE GRADO EN MATEMATICAS

EL TEOREMA DE PERRON-FROBENIUS Y
EN EL ALGORITMO DE
SU APLICACION

BUSQUEDA DE GOOGLE

por

Adrian Ines Armas

Dirigido por

Dr. D. Oscar Ciaurri Ramrez
Logro
no, Julio de 2015
Resumen

El objetivo de este trabajo es mostrar como resultados matem aticos pro-


fundamente abstractos y te oricos pueden llegar a tener aplicaciones practicas
realmente sorprendentes. En concreto veremos como el algoritmo de ordenacion
de Google, sin duda uno de los buscadores m as potentes y utilizados que exis-
ten, basa su funcionamiento en el Teorema de Perron-Frobenius, un resultado de
algebra lineal relacionado con matrices irreducibles. La prueba de este teorema

es consecuencia del Teorema del punto jo de Brouwer, que es aparentemente


simple en su enunciado pero cuya demostraci on es realmente compleja.
En el primer captulo de esta memoria enunciaremos y probaremos el Teore-
ma de Perron-Frobenius, en el segundo detallaremos el algoritmo de ordenacion
usado por Google y lo aplicaremos a un ejemplo particular. La u ltima parte
estar
a dedicada a la demostraci on del Teorema del punto jo de Brouwer.

iii
Abstract

The aim of this project is to show how deeply abstract and theoretical mat-
hematical results can have really amazing practical applications. In particular
we will see how the Googles sorting algorithm, undoubtedly one of the most
powerful and popular search engines that exists, bases its working on the Perron
- Frobenius theorem, a result of linear algebra related to irreducible matrices.
The proof of this theorem follows from the Brouwer xed-point theorem , it is
apparently simple in its statement but its proof is really complex.
In the rst chapter of this report we will state and prove the Perron-Frobenius
theorem, in the second chapter we will detail the sorting algorithm used by Goo-
gle and we will apply it to a particular example. The last part will be dedicated
to the proof of Brouwers xed-point theorem.

v
Indice general

Introducci
on 3

1. El Teorema de Perron-Frobenius 5
1.1. El Teorema de Perron-Frobenius . . . . . . . . . . . . . . . . . . 7
1.2. Demostracion del apartado i) . . . . . . . . . . . . . . . . . . . . 8
1.3. Demostracion del apartado ii) . . . . . . . . . . . . . . . . . . . . 16

2. El algoritmo de Google 21
2.1. Planteamiento del modelo . . . . . . . . . . . . . . . . . . . . . . 22
2.2. PageRank y Perron-Frobenius . . . . . . . . . . . . . . . . . . . . 24
2.3. Otro enfoque del vector PageRank . . . . . . . . . . . . . . . . . 29
2.4. Calculo del vector PageRank . . . . . . . . . . . . . . . . . . . . 30
2.5. Ejemplo practico . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3. El Teorema del punto jo 39

Bibliografa 47

1
Introducci
on

En 1909 Oskar Perron dio un resultado sobre matrices no negativas en el


que conclua que siempre exista un autovalor de m odulo maximo que llevaba
asociado un autovector positivo. A nos mas tarde, en 1912, Ferdinand Georg
Frobenius generalizo este resultado a matrices irreducibles, la consecuencia fue el
denominado Teorema de Perron-Frobenius que conocemos hoy en da. En aquel
momento este resultado de algebra lineal sobre matrices irreducibles pareca
algo bastante teorico y abstracto y ninguno de estos dos celebres matem aticos
poda imaginar que a nos mas tarde este teorema se convertira en la base de
innumerables aplicaciones. Hoy en da el Teorema de Perron-Frobenius ha dado
como resultado una importante teora matem atica que lleva su nombre y que
tiene aplicaciones en diversas ramas de la ciencia, desde aplicaciones econ omicas,
hasta el analisis de las caractersticas demogracas de una poblaci on, pasando
por el estudio de la distribuci on de poder en una red social. Pero hay que esperar
casi 90 anos hasta encontrar su aplicaci on mas famosa, el motor de b usqueda
de Google.
Es en 1998 cuando Brin y Page dos estudiantes de doctorado de inform ati-
ca deciden realizar un proyecto que permitiese ordenar el ingente n umero de
paginas web que haba en la epoca y para ello se sustentan en el Teorema de
Perron-Frobenius, un teorema abstracto que haba sido enunciado y demostrado
casi cien a
nos antes. El resultado de este trabajo es por todos conocido, el busca-
dor Google, uno de los mas importantes que existen y que se sigue manteniendo
como referente en la b usqueda de p aginas web en Internet.
En aquella epoca los motores de b usqueda que existan, Yahoo! Excite, Alta-
vista, Hispavista. . ., pese a ligeras diferencias, compartan el mismo criterio a la
hora de ordenar las paginas web que surgan como resultado de una b usqueda,
priorizando aquellas que condensaban un mayor n umero de palabras clave; es
decir, cuantas m as veces guraba una determinada palabra en una web mejor
era la posicion que ocupara en los resultados de b usqueda. Este criterio deno-
minado criterio contextual no ofreca resultados optimos ya que empresas que
conseguan situar sus webs en lo mas alto no necesariamente eran las mas impor-
tantes o relevantes, dando como resultado que un buen n umero de compa nas
modestas pudiesen ocupar el ((top 10)). Brin y Page observaron esta situaci on y
desarrollaron un nuevo algoritmo de b usqueda que evitase ese problema, es el
denominado PageRank. Este algoritmo que comparte nombre con el vector que
resulta de su aplicaci on sigue siendo el metodo utilizado e imitado por la mayora

3
4
INTRODUCCION

de motores de b usqueda de nuestro tiempo y fue una revoluci on tecnologica en


la b usqueda de informaci on en Internet.
Esta situacion es un claro ejemplo de como resultados profundamente teori-
cos y abstractos que en principio parecen no tener aplicaciones directas como
el Teorema de Perron-Frobenius pueden ser, a nos mas tarde, la base de inno-
vaciones importantes, como en este caso el algoritmo de ordenaci on de Google.
A menudo parte de la sociedad cree que los resultados matem aticos son exce-
sivamente te oricos y que no son utiles si no tienen una aplicacion directa, pero
este ejemplo muestra como un resultado abstracto sin demasiadas aplicaciones
puede convertirse con el paso del tiempo en la base de aplicaciones economicas,
fsicas, tecnologicas. . .
Uno de los ingredientes fundamentales de la prueba del Teorema de Perron-
Frobenius es el Teorema del punto jo de Brouwer. Este teorema, que data
tambien de 1910, nos asegura la existencia de un punto jo para una aplicaci on
continua denida en un conjunto compacto. La idea del teorema le vino ingerida
a Brouwer cuando remova una taza de cafe, en la que aparentemente siempre
haba un punto sin movimiento. Este teorema de apariencia simple pero de
difcil demostracion, ha sido la pieza fundamental de la prueba de diferentes
resultados, a parte del Teorema de Perron-Frobenius. Una de las aplicaciones
m as famosas del Teorema del punto jo de Brouwer es la que encontr o el celebre
matem atico John Nash, recientemente fallecido, en su tesis doctoral en 1951. En
ella dene los equilibrios que hoy llevan su nombre y trata de manera general
las estrategias mixtas, demostrando que cualquier juego con un n umero nito
de estrategias tiene al menos un equilibrio de Nash. La prueba de la existencia
de dicho equilibrio es consecuencia del Teorema del punto jo de Brouwer. Los
resultados de su tesis doctoral le valieron a nos mas tarde el Premio Nobel de
Economa por la amplia gama de aplicaciones que tuvo este concepto en diversas
ramas de la ciencia.
En esta memoria presentaremos en el primer captulo una demostracion del
Teorema de Perron-Frobenius. El segundo captulo estar a centrado en el algo-
ritmo de b usqueda de Google y en su relaci on con dicho teorema. Finalmente,
en el u ltimo captulo, daremos una prueba rigurosa del Teorema del punto jo
de Brouwer.
Captulo 1

El Teorema de
Perron-Frobenius

En este captulo vamos a tratar un teorema que debemos a dos grandes


matem aticos alemanes, como son Oskar Perron (a la izquierda en la gura 1.1)
y Ferdinand Georg Frobenius (a la derecha en la gura 1.1).

Figura 1.1: Oskar Perron y Ferdinand Georg Frobenius.

Oskar Perron (Frankenthal 7 de mayo 1880 - Munich 22 de febrero 1975)


estudio matematicas en su tiempo libre antes de entrar en la Universidad de
Munich en 1898, a pesar de que los deseos de su padre era que continuase con
el negocio familiar. Siguiendo la tradicion de la epoca de pasar semestres en
distintas universidades, tambien curso estudios en las universidades de Berlin,

5
6 CAPITULO 1. EL TEOREMA DE PERRON-FROBENIUS

T ubingen y Gottingen.
Perron estuvo muy inuenciado por sus profesores de la Universidad de Mu-
nich. En concreto, las lecciones de Pringsheim le causaron una profunda impre-
sion y su inuencia es palpable en el trabajo de Perron sobre fracciones conti-
nuas1 Die Lehre von den Kettenbr uchen (La teora de las fracciones continuas),
publicado en 1913.
En 1906 fue habilitado como profesor de la Universidad de Munich, tras
presentar su tesis doctoral sobre geometra, dirigida por Lindemann.2 Tras unos
anos en Munich, paso a ser profesor adjunto en Tubingen entre 1910 y 1914 antes
de convertirse en profesor titular de la Universidad de Heidelberg en 1914. Sin
embargo, el estallido de la Primera Guerra Mundial paraliz o su carrera puesto
que fue movilizado. En 1915, en reconocimiento a su labor, se le otorg o la Cruz
de Hierro. Tras la guerra, continuo ensenando en Heidelberg hasta 1922, cuando
le fue concedido un puesto en Munich.
Perron public
o un gran numero de trabajos importantes en diversas ramas de
la matem atica. Trabajo en fracciones continuas, como ya hemos indicado, pero
tambien hizo aportaciones en ecuaciones diferenciales y en algebra, presentando
la base del teorema que vamos a tratar m as adelante. Perron formulo un teorema
sobre matrices positivas que aseguraba la existencia de un autovalor maximal
positivo. Este teorema fue generalizado m as tarde por Frobenius, dando lugar
al teorema que veremos en este captulo.
Perron ademas es muy conocido por la paradoja que lleva su nombre:
Supongamos que el n
umero natural m as grande es N . Entonces si N > 1
tenemos que N 2 > N , entrando en contradicci
on con la premisa. Con lo
cual N = 1.3

Por su parte Ferdinand Georg Frobenius (Berln-Charlottenburg 26 de oc-


tubre 1849 - Berln 3 de agosto 1917) comenz o sus estudios universitarios en la
Universidad de G ottingen en 1867; sin embargo, pronto se traslad o a la Uni-
versidad de Berln, donde siguio cursos impartidos por Kronecker, Kummer y
Weierstrass. Continu o estudiando en Berln hasta recibir su doctorado (premia-
do con distinci
on) en 1870 supervisado por Weierstrass, el cual lo consideraba
uno de sus alumnos m as brillantes. Despues de pasar un a no como profesor
1 Una fracci
on continua es una expresi
on de la forma
1
x = a0 + 1
,
a1 +
a2 + 1
..
.
que surgio como una representaci on de los numeros reales. Ademas nos permite conocer si
un numero es racional o irracional dependiendo de su representaci on en forma de fracci
on
continua.
2 A este c
elebre matem atico alem an le debemos la demostracion de que es un numero
trascendental; es decir, no es raz de ningun polinomio con coecientes racionales.
3 Realmente no es una paradoja, ya que parte de una premisa incorrecta, como que los

numeros naturales estan acotados, lo cual es falso. Realmente se trata de una demostraci on
por reduccion al absurdo de que el conjunto de los n umeros naturales no esta acotado supe-
riormente.
1.1. EL TEOREMA DE PERRON-FROBENIUS 7

adjunto en Berln, estuvo diecisiete anos como profesor principal de la Universi-


dad de Z urich, donde se caso y formo una familia. Tras la muerte de Kronecker,
Frobenius ocupo su lugar en la Universidad de Berln gracias a la insistencia de
Weierstrass.
Las aportaciones de Ferdinand Georg Frobenius a las matematicas fueron
abundantes y en diversas materias. Investigo en teora de grupos y en su trabajo
combin o resultados sobre ecuaciones algebraicas, geometra y teora de n
umeros,
que le condujeron al estudio de los grupos abstractos, publicando su obra Uber
gruppen von vertauschbaren elementen (Sobre los grupos de elementos permuta-
bles) en 1879. En 1896, ya en Berln, public
o Uber die gruppencharactere (Sobre
el car
acter de los grupos), que fue la base de todo su trabajo sobre la teora de
caracteres desarrollada en los a nos posteriores. Tambien construyo un conjunto
completo de representaciones por medio de n umeros complejos de los grupos
nitos, que es de gran aplicacion en fsica cuantica. Pero la aportacion por la
que es mas conocida este matematico es el Teorema de Rouche-Frobenius.4
Ademas generalizo el teorema desarrollado por Perron ocupandose del caso
de matrices no negativas, dando lugar a la versi on del Teorema de Perron-
Frobenius que presentamos a continuacion. Este teorema, que cuenta ya casi con
100 anos, es un ejemplo de c omo un resultado fundamentalmente teorico puede
tener importantes aplicaciones en diversos ambitos de la ciencia y la tecnologa.
Entre otras aplicaciones, ha sido utilizado en el analisis de las caractersticas
demogracas de una poblaci on, en la distribucion del poder en una red social,
o en el desarrollo de motores de b usqueda como Google (que estudiaremos en
este trabajo). La denominada teora de Perron-Frobenius, que tiene como base
el teorema de mismo nombre, ha demostrado tener una multitud de importantes
aplicaciones.

1.1. El Teorema de Perron-Frobenius


Antes de dar el Teorema de Perron-Frobenius vamos a presentar una deni-
ci
on necesaria para establecer el enunciado del mismo.
Denici on 1. Una matriz A de orden n n se dice reducible en uno de los
siguientes casos:
i) A es la matriz cero de orden 1 1.
on5 P tal que
ii) Si n 2 y existe una matriz de permutaci
 
B 0
P AP T = ,
C D
donde B y D son matrices cuadradas y 0 es la matriz cero.
4 Este teorema permite determinar el n umero de soluciones de un sistema de ecuaciones
lineales en funci
on del rango de la matriz de coecientes y del rango de la matriz ampliada
asociadas al sistema.
5 Una matriz P de orden n n se dice matriz de permutaci
on de orden n si puede obtenerse
de la matriz identidad de orden n permutando sus las y columnas.
8 CAPITULO 1. EL TEOREMA DE PERRON-FROBENIUS

Una matriz A se dice irreducible si no es reducible.


Una vez que tenemos el concepto de una matriz irreducible y contando con
unos conocimientos basicos de algebra lineal, podemos presentar sin m
as dilacion
el enunciado del Teorema de Perron-Frobenius.
Teorema 1 (Teorema de Perron-Frobenius). Sea A una matriz cuadrada n n
con entradas no negativas (A 0). Si A es irreducible entonces:
i) Existe un autovalor > 0 tal que Av = v, donde el autovector corres-
pondiente es v > 0. Adem
as:
a) || para cualquier otro autovalor de A.
b) El autovalor tiene multiplicidad algebraica y geometrica uno.
c) Cualquier autovector w 0 no nulo de A es m
ultiplo de v.
ii) Si hay k autovalores de m
odulo m
aximo, entonces son las soluciones de la
on xk k = 0.
ecuaci
Lo que nos dice este teorema, a grandes rasgos, es que una matriz no negati-
va e irreducible siempre tiene un autovalor positivo de m
odulo maximo que lleva
asociado un autovector positivo. Este autovector tendr a un papel muy impor-
tante en el algoritmo de ordenaci on de Google como veremos en el Captulo 2.
Una vez comprendido el enunciado de este teorema, vamos a ir desmenu-
zando la prueba del mismo en las siguientes secciones. Para ello seguiremos una
estructura similar a la que se propone en [7] y ademas utilizaremos algunos de
los lemas propuestos tanto en [1] como en [4].

1.2. on del apartado i)


Demostraci
Antes de comenzar con la prueba del primer apartado del Teorema de Perron-
Frobenius, vamos a introducir una serie de lemas que nos permitiran realizar la
demostracion de manera m as sencilla.
A continuacion presentamos dos lemas relacionados con el concepto de matriz
irreducible. El primero de ellos nos permite identicar una matriz reducible y
es una pieza importante en la demostracion del segundo, en el que se dan varias
caracterizaciones para matrices irreducibles.
Lema 2. Sean A una matriz cuadrada de orden n, con n 2, S un subconjunto
no vaco de {1, 2, . . . , n} y T su complementario. Si aij = 0 cuando i S y
j T , entonces A es reducible.
Demostraci on. Sean S = {i1 , i2 , . . . , ik }, donde sin perdida de generalidad po-
demos considerar i1 < i2 < < ik1 < ik , y T = {j1 , j2 , . . . , jnk }, con
j1 < j2 < < jnk , el complementario de S. Consideramos la permutacion
del conjunto {1, 2, . . . , n}, dada por
 
1 2 ... k k + 1 k + 2 ... n
= .
i1 i 2 . . . i k j1 j2 . . . jnk
DEL APARTADO I)
1.2. DEMOSTRACION 9

Notar que puede ser representado por la matriz de permutacion P = (pij ),


donde prs = 1 si (r) = s. Veamos que
 
T B 0
P AP = ,
C D

donde B es una matriz k k, D una matriz (n k) (n k) y 0 es la matriz cero


de orden k (n k). Consideramos la columna y la la , donde 1 k
y k + 1 n. Con lo cual


n 
n
T
(P AP ) = pi aij pj .
i=1 j=1

Veamos que entonces cada termino del sumatorio es nulo. Supongamos que
pi = pj = 1, por denicion de tenemos () = i y () = j. Ahora bien,
como hemos tomado 1 k y k + 1 n, entonces i S y j T .
As aplicando la hipotesis del lema, tenemos que aij = 0, con lo que acaba la
demostraci on.

Lema 3. Sea A 0 una matriz n n. Entonces son equivalentes

i) A es irreducible.

ii) (I + A)n1 > 0.

iii) Para cualquier (i, j), 1 i, j n, existe un entero m = m(i, j) n para


(m)
el que (Am )ij = aij > 0, donde Am es la potencia m-esima de A.

Demostraci on. Para demostrar este lema vamos a utilizar una demostraci
on
circular de la forma
i) ii) iii) i).
i) ii) : Sea y 0 un vector no nulo en Rn y A una matriz irreducible.
Por ser y un vector no nulo tendr a al menos una coordenada no nula, que
seguira siendo no nula para el vector (I + A)y = y + Ay. De esta forma podemos
armar que (I + A)y tiene menos coordenadas nulas que y (siempre que y tenga
al menos una coordenada nula).
Veamos con un poco mas de detalle esta armacion. Supongamos que es
falsa, entonces (I + A)y tendra las mismas coordenadas nulas que y. Notar que
no puede tener m as coordenadas nulas, ya que A es una matriz no negativa.
Con lo cual si yj = 0, ((I + A)y)j = 0 y tambien (Ay)j = 0.
Sea J = {j : yj > 0}. Entonces para cada j J c , por la observacion anterior,
n
(Ay)j = k=1 ajk yk = 0. Como para cada r J se tiene que los yr > 0, la
identidad anterior implica que ajr = 0 si j J c y r J, lo que nos lleva a una
contradicci on con el lema anterior, pues A es irreducible. De esta forma queda
claro que (I + A)y tiene menos coordenadas nulas que y.
Por denicion y tendra como maximo n 1 coordenadas nulas y por la
armaci on anterior (I + A)y tendra como m aximo n 2 coordenadas nulas.
10 CAPITULO 1. EL TEOREMA DE PERRON-FROBENIUS

Siguiendo con este razonamiento (I + A)2 y tendra a lo sumo n 3 coordenadas


nulas. Y mediante un sencillo ejercicio de induccion podemos concluir que (I +
A)n1 y tendra todas sus coordenadas positivas.
Tomamos ahora y = ei , donde ei representa el i-esimo vector canonico de
Rn . As (I + A)n1 ei , con i = 1, 2, . . . , n, que da como resultado la i-esima
columna de (I + A)n1 , tendr a todas sus componentes positivas y concluimos
que (I + A)n1 > 0 como queramos ver.
ii) iii) : Supongamos (I + A)n1 > 0 y A 0, entonces es claro que A no
es la matriz nula. Ademas como (I +A)n1 > 0, se cumple que A(I +A)n1 > 0.
Si desarrollamos ahora (I + A)n1 mediante el binomio de Newton obtenemos
n 
 
n1 n1
A(I + A) = Ak > 0.
k1
k=1

Con lo que podemos concluir que para cada i, j existe al menos una matriz
A, A2 , . . . , An que tiene su (i, j)-esima coordenada positiva.
iii) i) : Supongamos A reducible, entonces por denicion existe una matriz
de permutaci on P tal que
 
T B1 0
P AP = ,
C1 D1

donde B1 y D1 son matrices cuadradas. De esta forma (P AP T )2 = P AP T P AP T =


P A2 P T , donde  
B2 0
P A2 P T = ,
C2 D2
por ser B1 y D1 matrices cuadradas y, mediante un sencillo proceso de inducci
on
tenemos  
Bm 0
P Am P T = ,
Cm Dm
para cualquier m.
De esta forma (P Am P T ) = 0 para cualquier m = 1, 2, . . ., donde ,
corresponden a las entradas de la submatriz cero de P AP T . Entonces


n 
n
(m)
0 = (P Am P T ) = pk akl pl ,
k=1 l=1

para cualquier m y m as concretamente para m = 1, 2, . . . , n. Ahora tomando


(m)
una pareja k, l para la que pk = 1 = pl , tenemos que akl = 0 para todo m,
lo que entra en contradiccion con la hipotesis. De esta forma concluimos que la
matriz A es irreducible.

Veamos ahora una expresion para la derivada del determinante de una ma-
triz que emplearemos en la prueba de la simplicidad del autovalor maximo del
Teorema de Perron-Frobenius.
DEL APARTADO I)
1.2. DEMOSTRACION 11

Lema 4. Sea X(t) una matriz cuadrada n n cuyas entradas son funciones
diferenciables con respecto a t, entonces


n
(det X(t)) = (1)i+j det(X(t)(i|j))xij (t),
i,j=1

donde X(t)(i|j) es la matriz obtenida al eliminar la la i-esima y la columna


j-esima de la matriz X(t).

Demostracion. Para realizar la demostraci


on de este lema comenzamos recor-
dando la denicion de determinante de una matriz utilizando permutaciones.
Sea n el conjunto de permutaciones de {1, . . . , n} y p n una de es-
tas permutaciones. Si (p) denota 1 elevado al n
umero de inversiones de una
permutacion p, es conocido que

det X(t) = (p)x1p(1) (t)x2p(2) (t) xnp(n) (t).
pn

Con esta denicion de determinante, derivamos con respecto a t y obtenemos


(det X(t)) = (p)x1p(1) (t)x2p(2) (t) xnp(n) (t)
pn

+ (p)x1p(1) (t)x2p(2) (t) xnp(n) (t) +
pn

+ (p)x1p(1) (t)x2p(2) (t) xnp(n) (t)
pn
    
 x11 (t) x12 (t) ...   x11 (t)
x1n (t) x12 (t) ... x1n (t) 
    
 x21 (t) x22 (t) ...   x21 (t)
x2n (t) x22 (t) ... x2n (t)
   
=  .. .. .. +.. .. .. .. .. 
 . . .   . . . . . 
   
 xn1 (t) xn2 (t) . . . xnn (t)   xn1 (t) xn2 (t) ... xnn (t) 
 
 x11 (t) x12 (t) . . . x1n (t) 

 x21 (t) x22 (t) . . . x2n (t) 

+ +  .. .. .. .. .
 . . . . 
 
 xn1 (t) xn2 (t) . . . xnn (t) 
  

Nos jamos ahora en el primer determinante de la suma anterior


  
 x11 (t) x12 (t) ... x1n (t)
 
 x21 (t) x22 (t) ... x2n (t) 
 
 .. .. .. .. ,
 . . . . 
 
 xn1 (t) xn2 (t) ... xnn (t) 
12 CAPITULO 1. EL TEOREMA DE PERRON-FROBENIUS

y desarrollando por la primera la obtenemos


  
 x11 (t) x12 (t) . . . x1n (t) 

 x21 (t) x22 (t) . . . x2n (t)   n

 .. .. .. ..  = (1)j+1 x1j (t) det(X(t)(1|j)).
 . . . . 
  j=1
 xn1 (t) xn2 (t) . . . xnn (t) 

Si realizamos el mismo proceso con los demas determinantes llegamos a



n
(det X(t)) = (1)i+j xij (t) det(X(t)(i|j)),
i,j=1

como queramos demostrar.


Una vez vistos todos los lemas anteriores, podemos comenzar con la prueba
del primer apartado del Teorema de Perron-Frobenius, pero no sin antes pre-
sentar el enunciado del Teorema del punto jo de Brouwer, que es una de las
piezas basicas de la demostracion.
Teorema 5 (Teorema del punto jo de Brouwer). Sea Dn := {x Rn : x
1} el disco unidad cerrado de Rn y f : Dn Dn una aplicaci on continua.
Entonces f tiene un punto jo; es decir, existe x Dn tal que f (x) = x.
Cabe destacar que la propiedad del punto jo es una propiedad topologica,
por lo que si X es homeomorfo a Y y X tiene la propiedad del punto jo,
entonces Y tambien.
Demostracion del apartado i) del Teorema de Perron-Frobenius. Tomamos el si-
guiente conjunto

S = {x = (x1 , x2 , . . . , xn )T : x = 1, xi 0, i = 1, . . . , n}.

on f : S S como
Denimos ahora la aplicaci
Ax
f (x) = .
Ax

Veamos que Ax = 0 para cada x S y de esta forma la aplicaci on f estar


a bien
denida; ya que en ese caso Ax =  0.
Supongamos Ax = 0 para alg un x = 0 y x S. Entonces x Ker(A) y

a11 x1 + a12 x2 + + a1n xn = 0,

.. (1.1)
.

an1 x1 + an2 x2 + + ann xn = 0.

Como aij xj 0 para i, j = 1, . . . n, ya que aij 0 y xj 0, para que se


satisfaga (1.1) se debe cumplir aij xj = 0. Ahora bien, como x = 0, existe al
menos un k {1, . . . n} tal que xk = 0. Entonces aik xk = 0 para i = 1, . . . , n
DEL APARTADO I)
1.2. DEMOSTRACION 13

lo que implica aik = 0; es decir, A tiene una columna de ceros. Pero esto no
es posible por ser A una matriz irreducible. En efecto, si A tiene una columna
entera de ceros

b11 b12 . . . 0 . . . b1n
b21 b22 . . . 0 . . . b2n

.. .. .. ..
. . . .
A+I = bk1 bk2 . . . 1 . . . bkn =


. .. .. ..
.. . . .
bn1 bn2 . . . 0 . . . bnn

c11 c12 ... 0 ... c1n
c21 c22 ... 0 ... c2n

.. .. .. ..
. . . .
(A + I)n1 =
ck1
,
ck2 ... 1 ... ckn
. .. .. ..
.. . . .
cn1 cn2 ... 0 ... cnn
lo que, por ii) del Lema 3, contradice el hecho de que A es irreducible.
Ademas es claro que f es una aplicaci on continua y enva S en S, ya que
Ax 0, y  
 Ax 

f (x) =   = 1.
Ax 
Con lo cual, por ser S homeomorfo a Dn1 , aplicando el Teorema del punto jo
de Brouwer podemos asegurar que existe v S tal que f (v) = v; es decir,

Av
= v Av = Avv.
Av

Si denotamos ahora := Av tenemos el autovalor buscado en i) y, adem


as,
> 0.
Usando que Av = v, veamos que v > 0. Es claro que

(I + A)v = v + Av = v + v = (1 + )v

y, mediante un proceso de induccion,

(I + A)n1 v = (1 + )n1 v. (1.2)

Por ser A irreducible, (I + A)n1 > 0, lo que implica (I + A)n1 v > 0 y por
(1.2) v > 0.
Antes de probar a); es decir, > || para cualquier autovalor de A, vamos
a ver que la matriz traspuesta de A tambien tiene como autovalor maximo a .
Es claro que AT 0 e irreducible, por serlo A. De esta forma, por lo visto
anteriormente existe 1 > 0 tal que AT z = 1 z, con z > 0. Multiplicamos ahora
14 CAPITULO 1. EL TEOREMA DE PERRON-FROBENIUS

ltima igualdad por v T , donde v > 0 es el autovector de A


a izquierda esta u
asociado con ,
1 v T z = v T AT z = (Av)T z = v T z.
Con lo que acabamos de demostrar que 1 = ya que v T z > 0.
Veamos ahora que > || para cualquier autovalor de A. Sea un au-
tovalor real o complejo de A. Dado u = (u1 , u2 , . . . , un )T un autovector de A
asociado a , denimos |u| := (|u1 |, |u2 |, . . . , |un |)T . Sin perdida de generalidad
consideramos |u| S. De esta forma


n n 
 
aij |uj |  aij uj  = |ui | = |||ui |.
j=1 j=1

Con lo que A|u| |||u|. Si z es el autovector de AT asociado con , multipli-


camos a izquierda por z T la anterior desigualdad y obtenemos

z T |u| = (AT z)T |u| = z T A|u| z T |||u| = ||z T |u|,

y como z T |u| > 0, obtenemos ||.


Continuamos la demostraci on con la prueba del apartado b), tiene multi-
plicidad geometrica y algebraica uno.
Comenzamos con la multiplicidad geometrica. Para vericar que es uno de-
bemos ver que cualesquiera dos autovectores asociados a son linealmente de-
pendientes.
Tomemos un vector w no nulo y real tal que Aw = w; es decir, w es
un autovector asociado a . Comprobemos entonces que w y v son linealmente
dependientes. Procedamos por reducci on al absurdo. Supongamos que v y w son
linealmente independientes, entonces existe R tal que (v w) es un vector
no nulo y no negativo, que tiene al menos una componente nula. En efecto, si
w tiene alguna componente positiva podemos tomar = mn{ wvii : wi > 0}, en
otro caso tomamos = max{ wvii : wi < 0}. Pero observamos que (v w) es un
autovector de A asociado a , ya que

A(v w) = Av Aw = v w = (v w),

y como los vectores no negativos asociados a son estrictamente positivos,6


llegamos a un absurdo, puesto que (v w) tena al menos una componente
nula. Podemos proceder de la misma forma si consideramos w complejo. En este
caso, separamos la parte real y la parte compleja y seguimos el procedimiento
anterior, obteniendo que tanto la parte real como la parte compleja son un
6 Este hecho puede probarse facilmente. Ya vimos en la prueba del Lema 3 que si A es
una matriz irreducible e y 0, con alguna coordenada nula, el vector (I + A)y tiene menos
coordenadas nulas que y. Entonces si x 0, x = 0, es un autovector de la matriz irreducible
A asociado al autovalor con alguna coordenada nula se tiene que
(I + A)x = (1 + )x,
luego (I + A)x y x tienen el mismo n
umero de coordenadas nulas, lo que no es posible y, por
tanto, x > 0.
DEL APARTADO I)
1.2. DEMOSTRACION 15

multiplo complejo de v, con lo cual w es un m


ultiplo complejo de v. As acabamos
de probar que tiene multiplicad geometrica uno.
Veamos ahora que tiene multiplicidad algebraica uno ( simple); es decir,
tenemos que ver que es una raz simple del polinomio caracterstico de A.
Si () = det(In A), basta comprobar que  () = 0. Aplicando el Lema
4 y usando la identidad d d
(In A)ij = ij tenemos

d  n
 () = (det(In A)) = det((In A)(i|i)) = tr(adj(In A)),
d i=1

donde tr denota la traza de una matriz y adj su matriz adjunta. De este modo

 () = tr(adj(In A)). (1.3)

Denotamos ahora B() = (adj(In A))T = adj(In AT ). Aplicando que el


producto de una matriz por la traspuesta de su adjunta es la matriz identidad
por el determinante de la matriz7

(In A)B() = In det(In A) = 0, (1.4)

ya que es raz del polinomio caracterstico.


Ademas acabamos de ver que tiene multiplicidad geometrica uno, de este
modo el rango de la matriz In A es n1, de forma que B() = 0. Supongamos
ahora que la columna j-esima de la matriz B() es diferente de cero. Entonces
aplicando (1.4)

(In A)B()(j) = 0 B()(j) = AB()(j) ,

lo que signica que B()(j) es un autovector asociado al autovalor y B()(j)


es un m ultiplo escalar del vector v > 0. As B()(j) > 0 o B()(j) < 0. Esto
signica que toda columna de B() es estrictamente positiva, estrictamente
negativa o cero y al menos una de ellas es distinta de cero.
Ahora aplicando el mismo razonamiento a (B())T = adj(In A) tenemos
que las columnas de (B())T , que son las las de B(), son estrictamente po-
sitivas, estrictamente negativas o cero y con al menos una de ellas distinta de
cero. De esta forma es facil ver que

B() > 0 o B() < 0,

luego por (1.3)


 () = tr(B()) = 0.
Con lo que queda probado que es simple; es decir, que tiene multiplicidad
algebraica uno.
7 Esta armaci
on se deduce f
acilmente de la expresi
on de la matriz inversa, que dice
1
A1 = (adj A)T .
det A
16 CAPITULO 1. EL TEOREMA DE PERRON-FROBENIUS

Concluimos la demostracion del apartado i) del teorema con la prueba de


c), viendo que cualquier autovector w 0 no nulo es m ultiplo de v. Para ello
nos vamos a apoyar en el hecho de que la multiplicidad geometrica del autovalor
maximo es uno, como hemos visto en el punto b).
Suponemos Aw = w para un cierto vector w 0 no nulo. Multiplicamos
a izquierda por v T , con v el autovector positivo asociado al autovalor > 0, y
tendremos
v T w = v T Aw = v T w
y, puesto que v T w > 0 (ya que w 0 y v T > 0), obtenemos que = . De esta
forma tenemos que w es un autovector de A asociado a y como acabamos de
ver que tiene multiplicidad geometrica uno, entonces podemos concluir que w
es un multiplo escalar de v, con lo que queda probado c).

1.3. on del apartado ii)


Demostraci
Concluimos este captulo con la demostracion del u
ltimo apartado del teo-
rema. Para la prueba de este u
ltimo punto vamos a necesitar el lema que enun-
ciamos a continuacion.
Lema 6. Si una matriz compleja C de orden n n est a dominada por una
matriz irreducible A 0 (|C| A) cuyo m aximo autovalor es r, entonces para
cada autovalor s de C tenemos
|s| r.
as la igualdad |s| = r se cumple si y solo si
Adem

C = ei DAD1 ,

donde s = rei y |D| = In .


Demostraci on. Sea Cy = sy para alg un autovalor s con y = 0. Tomamos el
vector |y| y aplicando la desigualdad triangular obtenemos

n 
n n 
 
|cij ||yj | = |cij yj |  cij yj  = |syi | = |s||yi |,
j=1 j=1 j=1

lo que quiere decir |C||y| |s||y|. Ahora bien, como A |C| deducimos que

A|y| |C||y| |s||y|. (1.5)

Sea ahora z el autovector correspondiente al autovalor m aximo de AT , que


existe por la parte i) del Teorema de Perron-Frobenius, entonces de (1.5) se
tiene
rz T |y| = (AT z)T |y| = z T A|y| z T |s||y| = |s|z T |y|, (1.6)
con lo que obtenemos |s| r, por ser z T |y| > 0.
Procedamos a probar la armaci on sobre la igualdad. Sea C = ei DAD1 ,
con |D| = In . Entonces las matrices C y ei A son semejantes, con lo cual si r
DEL APARTADO II)
1.3. DEMOSTRACION 17

es el autovalor maximo de A, rei lo es de ei A y, por consiguiente, de C. De


este modo obtenemos que |s| = r.
Probemos ahora la implicacion en el otro sentido. Supongamos s = rei ; es
decir, |s| = r. Este hecho implica que la desigualdad en (1.6) se convierte en
una igualdad, con lo que
A|y| = |s||y| = r|y|
y, por (1.5),
A|y| = |C||y| = r|y| (A |C|)|y| = 0.
Ademas como |y| 0, por el punto c) del apartado i) sabemos que es m
ultiplo
del autovector maximo de de A y por consiguiente |y| > 0. Recordemos que
A |C| con lo que (A |C|) 0 y entonces

(A |C|)|y| = 0 A = |C|.

Denimos  
y 1 y2 yn
D = diag , ,..., ,
|y1 | |y2 | |yn |
y
G = ei D1 CD. (1.7)
Teniendo en cuenta que D|y| = y, Cy = sy y s = rei obtenemos

CD|y| = Cy = sy = sD|y| = rei D|y|.

De este modo

G|y| = ei D1 CD|y| = ei D1 rei D|y| = r|y| = A|y|. (1.8)

Si tomamos ahora valores absolutos en (1.7)

|G| = |ei D1 CD| = In |C|In = |C|,

y como |C| = A tenemos |G| = A. Por lo tanto |G||y| = A|y| = G|y|, donde
hemos usado (1.8). As
n
(|gij | gij )|yj | = 0,
j=1

y como |yj | > 0, entonces


|gij | gij = 0.
De esta forma G = |G| = A, con lo cual A = ei D1 CD o, lo que es lo mismo,
C = ei DAD1 .

Con este lema que acabamos de ver, ya estamos listos para acometer la
prueba del u
ltimo apartado y concluir as con la demostracion del Teorema de
Perron-Frobenius.
18 CAPITULO 1. EL TEOREMA DE PERRON-FROBENIUS

Demostracion del apartado ii) del Teorema de Perron-Frobenius. Sean r el au-


tovalor positivo de modulo maximo de A y j = reij , j = 1, 2, . . . , k, los k
autovalores de m odulo maximo. Si aplicamos ahora el Lema 6 con C = A y
s = j tenemos

A = eij Dj ADj1 , j = 1, 2, . . . , k, (1.9)

con lo cual A y eij A son matrices semejantes. Por este motivo, como r es un
autovalor simple de A, entonces eij r es un autovalor simple de eij A y por
semejanza tambien de A.
As, aplicando dos veces (1.9) podemos obtener la siguiente igualdad

A = eil Dl (eij Dj ADj1 )Dl1 = ei(l +j ) (Dl Dj )A(Dl Dj )1 .

De este modo A y ei(l +j ) A son semejantes para cualesquiera l y j. Con lo cual


rei(l +j ) es un autovalor de ei(l +j ) A y por semejanza de matrices tambien
de A.
Ahora bien, como A solo tiene k autovalores simples de modulo r (reij
para j = 1, 2, . . . , k) entonces rei(l +j ) tiene que ser uno de estos autovalores;
es decir,
ei(l +j ) = eim , para alg
un m {1, . . . , k}. (1.10)
Por (1.10) hemos probado que el conjunto G = {ei1 , ei2 , . . . , eik } es cerrado
por multiplicacion. Veamos ahora que tiene elemento neutro y que cada elemento
de G tiene inverso.
Comprobemos primero que 1 G. Denotamos ahora zi := eii . Para zi G,
consideramos el conjunto {zin : n N}; puesto que G es cerrado por multi-
on existiran n1 y n2 con n1 > n2 tal que zin1 = zin2 y se deduce que
plicaci
n1 n2
zi = 1. En efecto, supongamos que no se cumple, as zin1 n2 = 1 y entonces
multiplicando por zin2 tenemos

zin2 zin1 n2 = zin2 zin1 = zin2 ,

lo que es absurdo. As, como zin1 n2 G entonces 1 G.


Probemos ahora que cada elemento de G tiene elemento inverso. Sea zi G
entonces
zi G = {zi z1 , . . . , zi zk } = {z1 , . . . , zk } = G.
Puesto que 1 G, existe j tal que zi zj = 1; es decir, zj = zi1 G. De este
modo G es un grupo multiplicativo de orden k y, por tanto, zik = 1. En efecto

zi G = G = {zi z1 , . . . , zi zk } = {z1 , . . . , zk },

con lo cual
zik z1 zk = z1 zk = zik = 1.
De esta forma podemos concluir que G es el conjunto de races de xk 1 = 0 y
odulo maximo (i ) son races de la ecuacion xk k =
as los k autovalores de m
0, concluyendo de este modo la prueba de ii) y del teorema.
DEL APARTADO II)
1.3. DEMOSTRACION 19

As queda demostrado el Teorema de Perron-Frobenius a excepci on de la


prueba detallada del Teorema del punto jo de Brouwer que ya hemos enuncia-
do. Esta prueba es la parte mas abstracta y compleja de la demostraci
on del
Teorema de Perron-Frobenius, debido a esto y a su extension la posponemos
para el tercer captulo.
Captulo 2

El algoritmo de ordenaci
on
de Google

En la actualidad todos utilizamos el buscador de Google varias veces al da.


Es m as, este hecho se ha convertido en algo natural y habitual para nosotros,
pero rara vez nos paramos a pensar que hay detr as de esta sencilla pagina que al
introducir una palabra y hacer un simple clic nos devuelve miles de resultados
en menos de un segundo.
Google Inc. se creo en 1998 como un buscador de paginas web que fuese
r
apido y able y en menos de 20 a nos se ha convertido en una de las empresas
mas importantes del mundo, ampliando su ambito empresarial con todo tipo de
novedades. Esta empresa surgi o como resultado de un trabajo de doctorado en
Informatica de dos estudiantes de la Universidad de Stanford, Lawrence Page (a
la izquierda en la gura 2.1) graduado en Informatica y Sergei Brin (a la derecha
en la gura 2.1) graduado en Matematicas. Brin y Page queran crear un motor
de busqueda que permitiese buscar entre el creciente n umero de paginas web
de aquella epoca (unos 100 millones) y que ademas mostrase los resultados
ordenados seg un su importancia, esto lo consiguieron con ayuda del Teorema
de Perron-Frobenius. Pero Google no est a relacionado con las matematicas solo
por esto, su propio nombre est a estrechamente ligado a las matem aticas, ya
que Brin y Page decidieron poner este nombre a la empresa debido al termino
googol,1 con el que queran reejar la misi on de la compa na de organizar la
inmensa cantidad de informaci on disponible en la web y en el mundo.
El metodo inicial que desarrollaron los fundadores de Google para obtener
un vector de ordenacion (que recibe el mismo nombre que el metodo) de las
paginas web se denomin o PageRank. Este metodo que en un principio calculaba
el vector PageRank en funci on de la estructura de la red y que por consiguiente
1 Este t
ermino fue acu nado en 1938 por Milton Sirotta, un nino de 9 a
nos, sobrino del
matem atico estadounidense Edward Kasner y hace referencia al n umero 10100 . Kasner lo
considero para ilustrar la diferencia entre un n
umero inimaginablemente grande y el innito,
y a veces es usado de esta manera en la ense nanza de las matem
aticas.

21
22 CAPITULO 2. EL ALGORITMO DE GOOGLE

Figura 2.1: Lawrence Page y Sergei Brin

era independiente de la persona que realizase la petici on, ha sido objeto de


continuas modicaciones hasta el punto de tener en cuenta los ((gustos)) de los
usuarios a la hora de hacer esta ordenacion.
Con ayuda de [6] y [3] vamos a ir desgranando en las siguientes secciones
como funciona este algoritmo de una manera muy elemental. Adem as veremos
que relaci
on existe entre este vector de ordenacion, PageRank, y el teorema que
hemos probado en el captulo anterior. Por u ltimo veremos un ejemplo pr actico
de este metodo de ordenaci on aplicandolo a una clasicacion deportiva.

2.1. Planteamiento del modelo


En esta seccion vamos a modelizar de manera sencilla las paginas web que
hay en la red y sus enlaces, con el n de establecer un orden en el que mostrar
las paginas que se obtendran como resultado de una b usqueda realizada por un
usuario.
Esta claro que la relevancia de una p agina en dicha b usqueda dependera de
muchos parametros, como puedan ser el n umero de visitas, la conanza del
sitio al que pertenece, la posicion en la que aparecen los terminos buscados, las
referencias que se realicen ha dicha p agina, . . .; es decir, una innidad de cosas
que como es obvio no podemos tratar aqu en su totalidad.
Para simplicar el modelo, vamos a considerar que la importancia de una
pagina web unicamente depende de las referencias que se hagan a ella; es decir,
de los enlaces que apuntan a dicha p agina.
Si hacemos una representacion graca de la Web en la que suponemos que
cada p agina es un punto y unimos dos de ellas, a y b, mediante una echa si a
enlaza con b, podemos visualizar la Web como un grafo dirigido de dimensiones
2.1. PLANTEAMIENTO DEL MODELO 23

colosales. Recordemos que un grafo viene determinado por dos conjuntos que
denotamos por V , cuyos elementos representan los vertices del grafo, y E, for-
mado por pares de elementos de V , los cuales reciben el nombre de aristas del
grafo.
En nuestro caso como es obvio no vamos a trabajar con la representacion
gr
aca de este grafo, que sera imposible de plasmar en el papel, si no que vamos
a tomar una consideracion m as abstracta de este grafo, utilizando su matriz de
adyacencia.

Denicion 2. Dado un grafo G = (V, E) con V = {v1 , v2 , . . . , vn }, se denomina


matriz de adyacencia a la matriz M = (mij ) de orden n n que verica

mij = 1, si {vi , vj } E,
mij = 0, si {vi , vj }
/ E.

Denotamos por Pi con i = 1, 2, . . . , n, las distintas paginas web y por xi la


importancia de la p agina Pi . Teniendo en cuenta los enlaces entre paginas, po-
demos considerar la red como un grafo dirigido, cuyos vertices ser an las paginas
y las aristas seran los enlaces entre ellas. Es decir, habra una arista de la pagina
Pi a la Pj si en la p agina Pi hay un enlace a la p agina Pj .
As la traspuesta de la matriz de adyacencia del grafo que hemos conside-
rado, que es con la que vamos a trabajar y que por simplicidad continuaremos
denotando por M , tendr a un 1 en la entrada mij si hay un enlace de la pagina
Pj a la pagina Pi y un 0 en caso contrario.
De esta forma la la i-esima de la matriz estara determinada por los enlaces
que hay a la pagina Pi desde los diferentes sitios Pj . Con lo cual para saber
el n
umero de enlaces que hay a cada p agina, servir
a con sumar las entradas
de la la correspondiente. De la misma manera, la columna i-esima representa
los enlaces que tiene la p agina Pi a los diferentes sitios de la red. Con lo cual
tendremos que tener en cuenta que la matriz M que vamos a utilizar no es
simetrica.

Ejemplo 1. Consideramos una peque na Web formada u nicamente por cuatro


p
aginas, que se relacionan como muestra la gura 2.2.

Figura 2.2: Web de cuatro paginas con sus respectivos enlaces

El grafo que corresponde a la web descrita es el que se muestra en la gura 2.3


24 CAPITULO 2. EL ALGORITMO DE GOOGLE

1 2

3 4
Figura 2.3: Web de cuatro paginas con sus respectivos enlaces

De esta manera la matriz asociada a esta Web sera la siguiente



0 0 1 1
1 0 1 1
M = 1
,
1 0 0
0 1 0 0
que obviamente no es simetrica.
En realidad en este captulo no vamos a utilizar exactamente esta matriz,
si no que vamos a utilizar una matriz M muy parecida y facil de construir a

partir de M . Unicamente vamos a dividir cada termino de la columna i por el
umero de unos que haya en dicha columna; es decir, mij = Nijj , donde Nj
m
n
umero de unos de la columna j. As la matriz M que resultara
representa el n
del Ejemplo 1 tendra la siguiente forma.

0 0 12 21
1 0 1 1

M = 21 1 2 2 .
2 2 0 0
0 12 0 0
Observando la matriz M que acabamos de construir podemos ver que cada
entrada es un n umero entre cero y uno y que cada columna suma uno; es decir,
nos encontramos ante una matriz estoc astica. Esta matriz M es la que vamos
a utilizar a partir de ahora como base del modelo.
El motivo para tomar M en vez de M , quedar a claro en la siguiente seccion.

2.2. El algoritmo PageRank y el Teorema de


Perron-Frobenius
Una vez que tenemos la Web modelada, debemos decidir como vamos a
asignar la importancia de cada pagina web para poder ordenarlas. Recordar
2.2. PAGERANK Y PERRON-FROBENIUS 25

que la importancia de la p agina Pi la denotamos por xi .


Como hemos considerado que para este cometido solo vamos a tener en
cuenta los enlaces entre las p aginas, la idea mas intuitiva es que cuantos mas
enlaces haya a una pagina m as importante sera. De esta forma obtendramos la
importancia de cada pagina sumando las entradas de la la correspondiente de
la matriz M . Bajo esta premisa las paginas del Ejemplo 1 se ordenaran a partir
del vector de importancias (2, 3, 2, 1).
Como se puede intuir esta no es la situaci on que queremos, ya que pue-
de haber p aginas que son referenciadas desde paginas muy importantes, pero
que tengan pocas referencias. Para entender mejor este hecho imaginemos la
siguiente situacion. Tenemos una pagina web con un artculo matem atico que
tiene referencias desde www.rsme.es (Real Sociedad Matem atica Espa
nola) y
www.ams.org (American Mathematical Society) y otra pagina distinta con otro
artculo, enlazada desde www.miPaginaWeb.com y www.ejemplo.com, dos pagi-
nas cticias supuestas de poco importancia. Con esta forma de medir la im-
portancia de las paginas, ambas tendran la misma valoracion, pero es obvio
que deberamos darle m as importancia a la primera debido a las paginas que la
enlazan. Por este motivo debemos modicar la forma de asignar la importancia.
As surge la segunda idea, que consiste en que la importancia xi de cada
pagina Pi es directamente proporcional a la suma de las importancias de las
paginas que la enlazan. De esta forma est a claro que evitamos el problema que
mostr abamos anteriormente.
En esta situacion para la web del el Ejemplo 1 tendramos que las impor-
tancias seguiran las siguientes relaciones
x1 = (x3 + x4 ),
x2 = (x1 + x3 + x4 ),
x3 = (x1 + x2 ),
x4 = x2 ,
(notar que todos los terminos estaban divididos por dos, con lo que los hemos
absorbido en ) que representado en forma matricial tendra el siguiente aspecto

x1 0 0 1 1 x1
x2 1 0 1 1 x2
=
x3 1 1 0 0 x3 .
x4 0 1 0 0 x4
Si ahora denotamos por x el vector que contiene las importancias de las paginas
web y llamamos a 1 , tenemos que resolver la siguiente ecuacion
M x = x.
De esta forma llegamos a que el vector de importancias buscado, es un autovector
de la matriz M que, por supuesto, debe tener todas sus entradas positivas.
En este momento es cuando nos damos cuenta de que el Teorema de Perron-
Frobenius que hemos tratado en el Captulo 1 puede tener una gran importancia,
ya que bajo ciertas condiciones nos asegura la existencia del vector buscado.
26 CAPITULO 2. EL ALGORITMO DE GOOGLE

Una vez visto que nos encontramos en una situaci on en la que puede que
nos sea util el Teorema de Perron-Frobenius, es hora de comprobar que real-
mente podemos aplicarlo; es decir, que estamos ante una matriz no negativa e
irreducible.
Que la matriz M es no negativa esta claro, debido a la forma de denirla,
pero que la matriz M es irreducible es algo mas complicado de comprobar. En
el Ejemplo 1 si que nos encontrabamos en una situacion ideal (es facil ver que
la matriz es irreducible), pero se pueden dar casos como los que vamos a ver en
los siguiente ejemplos en los que la matriz no es irreducible.

Ejemplo 2 (P agina no enlazada). Vamos a considerar una Web formada por


cuatro p
aginas de las cuales una de ellas no tenga enlaces salientes ni entrantes.
Es decir, una Web como la que se describe en la gura 2.4.

1 2

3 4
Figura 2.4: Web de cuatro paginas con sus respectivos enlaces

La matriz asociada a este ejemplo sera


1

0 0 2 0
1 1
0
0
M = 2
.
0 1 0 0
0 0 0 0

Como podemos observar la matriz anterior es reducible, ya que cuenta con una
columna, e incluso con una la, de ceros (recordar lo que vimos en la demostra-
ci
on del Teorema de Perron-Frobenius en la seccion 1.2).

Este tipo de paginas web aisladas (no tienen enlaces entrantes ni salientes)
no las vamos a considerar en nuestro modelo, ya que no tienen ning un tipo de
interes.
Otro ejemplo que podemos encontrar es que haya una pagina que no tenga
enlaces salientes, algo habitual por otro lado, lo que hara que la matriz que
estamos considerando no fuese irreducible. Veamos un ejemplo que ilustre esta
situacion.
2.2. PAGERANK Y PERRON-FROBENIUS 27

Ejemplo 3 (P agina web sin enlaces salientes). Tomamos una Web formada por
cuatro p
aginas estructuradas como en la gura 2.5.

1 2

3 4
Figura 2.5: Web de cuatro paginas con sus respectivos enlaces

De esta forma la matriz asociada a este caso ser


a

0 13 12 0
1 0 1 0

M = 21 1 2 .
2 3 0 0
0 13 0 0

Observamos entonces que nos encontramos con una matriz que cuenta con una
columna de ceros, por lo que es reducible.

En la situacion descrita en el ejemplo anterior, podemos encontrarnos en


una pagina que no tiene enlaces salientes; es decir, no podemos desplazarnos a
ninguna otra p agina. Esta claro que esta situacion en la realidad no se da, cuando
nos encontramos en una p agina como esta lo que hacemos es ir a cualquier otra
pagina de la red. Esto podemos trasladarlo a nuestro modelo considerando que
si nos encontramos en una p agina sin enlaces salientes, podremos desplazarnos
a cualquier otra pagina de la red con la misma probabilidad. Para representar
este hecho en la matriz, sustituiremos la columna de ceros por una columna en
la que cada elemento es n1 , donde n es el n umero de nodos de la red. De esta
forma la matriz que resulta es la siguiente

M  = M + vdT .

donde v Rn1 es el vector de probabilidad v = n1 (1, . . . , 1)T y dT R1n se


dene tomando di = 1 si Ni = 0 y di = 0 en otro caso, siendo i la columna con
todas sus entradas nulas.
Por ultimo presentamos el siguiente ejemplo que podemos encontrar al na-
vegar por Internet y que por lo tanto debemos tener en cuenta.
28 CAPITULO 2. EL ALGORITMO DE GOOGLE

1 2

3 4

Figura 2.6: Web de cuatro paginas con sus respectivos enlaces

Ejemplo 4 (Caso reducible). Tomamos ahora una Web con la disposici


on es-
tablecida en la gura 2.6.
La matriz que obtenemos en este caso es

0 12 0 0
1 0 0 0

M  = 31 .
3 0 0 1
1 1
3 2 1 0

Esta situaci
on se puede dar de forma normal en la Web y se observa a simple
vista que esta matriz es reducible, con lo que no se puede aplicar el Teorema de
Perron-Frobenius.
Brin y Page se dieron cuenta de que en la Web aparecan este tipo de situa-
cion con lo que la matriz asociada no sera irreducible. Debido a esto modicaron
un poco mas el modelo creando una matriz M  de la forma

M  = M  + (1 )veT ,

donde es un valor comprendido entre 0 y 1,2 e R1n con eT = (1, . . . , 1) y v


un vector de probabilidad que se suele tomar como en el caso anterior v = n1 e.
As acabamos de conseguir una matriz M  irreducible en todos los casos a
costa de hacerla densa.3 Este nuevo termino que hemos introducido ((1)veT ),
se puede considerar como la probabilidad de que un usuario se canse de navegar
siguiendo los enlaces y salte a una pagina cualquiera. Est
a claro que cuanto mas
2 Al parametro se le denomina damping (amortiguaci on) y se suele tomar = 0.85, que
fue el valor tomado por Brin y Page. Este par ametro es objeto de estudio constante con el n
de mejorar el rendimiento del algoritmo.
3 A esta matriz se le denomina matriz de Google y podemos ver que es una matriz irreducible

y estocastica lo que es fundamental al calcular el vector de importancias.


2.3. OTRO ENFOQUE DEL VECTOR PAGERANK 29

cercano a uno sea el valor de , mas nos acercaremos a la matriz del grafo de
la Web, pero a costa de poder perder la irreducibilidad.
Al construir la matriz de esta forma acabamos de conseguir que la matriz
siempre sea irreducible, con lo que el Teorema de Perron-Frobenius nos asegura
la existencia del vector de ordenacion buscado. Pero como la demostracion de
este teorema no es constructiva, esta claro que no nos ayudara a encontrarlo,
debido a esto deberemos recurrir a otros metodos para encontrar este vector.
Adem as es obvio que no podremos calcular todos los autovectores asociados a
la matriz y quedarnos con el asociado al del autovalor m
aximo, ya que la matriz
es de proporciones gigantescas.

2.3. Otro enfoque del vector PageRank


Acabamos de ver en las secciones anteriores como Google utiliza el vector
PageRank para ordenar las p aginas web que resultan de las busquedas realizada
por un usuario, pero en esta seccion vamos a dar otro enfoque de este vector.
Una de las caractersticas del PageRank es que si una persona navega alea-
toriamente por Internet durante un tiempo suciente, tendr a una gran proba-
bilidad de visitar las paginas de mayor importancia seg un este algoritmo; es
decir, podemos considerar el vector PageRank como un vector cuyas entradas
determinan el tiempo que pasamos en cada pagina. Veamos esta propiedad mas
detenidamente.
Supongamos que somos un sursta que va navegando de unas p aginas a
otras de forma aleatoria; es decir, si nos encontramos en la pagina Pi escogemos
mediante una distribuci on de probabilidad uniforme entre las p
aginas enlazadas.
De esta forma tenemos la misma probabilidad de acceder a cualquiera de los
enlaces de la pagina en la que nos encontramos, esta suposici on es la base del
modelo que Brin y Page dise naron en un primer momento.
As en nuestro primer ejemplo de Web (Ejemplo 1), supongamos que nos
encontramos en la p agina 1, entonces tenemos la misma probabilidad de ir a
la pagina 2 o a la pagina 3. Si en su defecto nos encontramos en la p agina 2,
podremos ir con la misma probabilidad a la pagina 3 o a la 4. De esta manera
la matriz de transicion de saltos que nos dara la probabilidad de saltos entre las
paginas, sera la matriz M construida en la Seccion 2.2.
De esta forma el modelo construido va a ser un modelo probabilstico y no
determinista, ya que sabremos con que probabilidad estaremos en cada pagina
en un instante posterior, pero no en que p agina nos encontraremos exactamente.
Adem as vamos a ver que se trata de un modelo dinamico, puesto que el mismo
razonamiento servira para el segundo instante, para el tercero . . .
Imaginemos que nos encontramos en una pagina Pi y queremos saber con
que probabilidad nos encontraremos en la pagina Pj en el instante siguiente,
para ello unicamente debemos multiplicar la matriz M por el vector ei , que
denota el i-esimo vector canonico de Rn . De la misma manera si deseamos saber
con que probabilidad estaremos en el segundo instante en la pagina Pj , debe-
remos realizar (M )2 ei . Ahora bien si continuamos con estos pasos y hacemos
30 CAPITULO 2. EL ALGORITMO DE GOOGLE

tender el tiempo a innito, llegaremos a lmn (M )n ei . El resultado de este


lmite sera el denominado vector estacionario de la matriz M , que a su vez
coincidir a con el autovector m aximo del Teorema de Perron-Frobenius y, por
tanto, con el vector PageRank.
En nuestro caso (Ejemplo 1) el vector PageRank buscado sera ( 29 , 13 , 18
5 1
, 6)
(0.22, 0.33, 0.28, 0.17), lo que signica que si estamos navegando por la Web de
nuestro ejemplo un tiempo sucientemente largo nos encontraremos en la p agina
1 con una probabilidad de 0.22, en la p agina 2 con otra probabilidad de 0.33,
. . .; o lo que es lo mismo pasaremos el 22 % de nuestro tiempo en la pagina
1, el 33 % en la pagina 2, . . . Observamos entonces que el vector PageRank
tambien nos muestra el porcentaje de tiempo que pasamos en cada p agina, lo
que esta muy relacionado con la forma de ordenar las paginas, ya que cuanto
m as tiempo pasemos en una pagina sera que su contenido nos es mas interesante
y, por tanto, la pagina ocupar a los puestos mas altos de la lista.

2.4. Calculo del vector PageRank


Hasta ahora hemos estado viendo como el Teorema de Perron-Frobenius que
hemos probado en el Captulo 1 nos asegura la existencia del vector PageRank,
que da solucion al problema de ordenacion de las paginas web planteado por Brin
y Page, pero nada hemos visto de como calcular este vector; es decir, sabemos
que existe pero desconocemos un algoritmo para calcularlo de forma eciente.
Al explicar el metodo de ordenacion en este captulo hemos visto que el vector
buscado es el autovector correspondiente al autovalor m aximo, pero esta claro
que no podemos calcular todos los autovectores y autovalores y quedarnos con
el que nos interesa, ya que las proporciones de la matriz de Google son desorbi-
tadas, lo que hace imposible su c alculo.
As para el calculo de este vector se suele utilizar el metodo de la potencia
que explicaremos a continuacion. Para este metodo es importante el hecho de
que el vector buscado es el asociado al autovalor maximo. Supongamos que M
es diagonalizable, entonces los autovectores de la matriz M forman una base de
Rn .4 Ordenamos ahora los autovectores de M de la forma {v1 , . . . vn }, tal que
los autovalores correspondientes esten ordenados como sigue
1 |2 | |n |.
Tomamos un vector v 0 de Rn y como los autovectores de M forman una
base de Rn ponemos el vector v en funci
on de estos autovectores
v = c1 v1 + c2 v2 + + cn vn ,
donde los valores c1 , . . . , cn , que no necesitaremos calcular explcitamente sino
que bastar
a con saber que existen, son las coordenadas del vector v en la base
tomada.
4 En caso de que la matriz no sea diagonalizable procedemos de un modo an alogo pero
considerando una base de Rn obtenida mediante la descomposici
on asegurada por el Teorema
de Cayley-Hamilton.

2.5. EJEMPLO PRACTICO 31

Multiplicamos a izquierda por la matriz M el vector v y como los vectores


{v1 , . . . vn } son autovectores de la matriz M obtenemos

M v = 1 c 1 v 1 + 2 c 2 v 2 + + n c n v n .

Notar que solo necesitamos calcular la parte izquierda de la igualdad y saber que
la parte de la derecha existe. Seguimos multiplicando el vector v por la matriz
M hasta obtener

M k v = k1 c1 v1 + k2 c2 v2 + + kn cn vn .

Suponiendo que c1 = 0 dividimos a ambos lados por la k-esima potencia del


autovalor de modulo m
aximo
 k  k
1 k 2 n
M v = c v
1 1 + c v
2 2 + + cn vn .
k1 1 1
 k
Ademas como 1 es el autovalor de m odulo maximo  1i  < 1 para todo i =
2, . . . , n y de esta forma
1 k k
M v c1 v1 .
k1
As a medida que vamos multiplicando por la matriz M vamos consiguiendo
de manera m as exacta el vector buscado, con una velocidad que depende del
cociente entre los dos primeros autovalores.
Este metodo es conocido como el metodo de la potencia y hay diferentes
variantes que permiten un calculo m as eciente del vector buscado, como los
metodos de la potencia con extrapolacion, el metodo adaptativo. . ., que podemos
encontrar en [3].

2.5. Ejemplo pr
actico
Hasta ahora hemos estado viendo el algoritmo del PageRank a nivel teorico,
pero en esta seccion vamos a ver una aplicacion pr
actica diferente a la de ordenar
las paginas de la red, que es para lo que lo utiliza Google. En nuestro caso lo
vamos a utilizar para crear una clasicaci on deportiva.
Por todos es conocido en mayor o menor medida como funcionan las cla-
sicaciones en las ligas deportivas; si ganas te dan una puntuaci on, si pierdes
otra... Es evidente que en ligas en las que todos los equipos se enfrentan a los
restantes un mismo n umero de veces, la clasicacion nal dependera u nicamen-
te del nivel deportivo de los equipos. Sin embargo, cuando los enfrentamientos
no son simetricos (por ejemplo si la liga esta dividida en varios grupos y cada
equipo se enfrenta con los de su grupo m as veces que con los restantes) esa asi-
metra puede repercutir en los resultados nales. Que ocurrira si pudiesemos
aplicar en esos casos el metodo de ordenaci on que hemos estado estudiando en
este captulo? A continuacion vamos a ver un ejemplo aplicado a la clasicaci on
para los Playos de la liga de baloncesto americana, NBA, m as reciente.
32 CAPITULO 2. EL ALGORITMO DE GOOGLE

El baloncesto y en concreto la NBA es uno de los deportes m as seguidos en


Estados Unidos. Esta competici on que comenzo en 1946 cuenta con 30 equipos
de todos los lugares de Estados Unidos y Canada divididos en dos conferen-
cias, que se enfrentan en 82 partidos de la fase regular. Al nal de esta fase se
determina la clasicacion de la fase regular en funcion de las victorias y derro-
tas cosechadas por cada equipo y los 8 mejores equipos de cada conferencia se
enfrentan entre s por el ttulo de la NBA, en lo que se denomina Playos.
Como acabamos de mencionar compiten 30 equipos de todo el pas (ver
gura 2.7), por lo que los desplazamientos que deben realizar pueden ser muy
largos; adem as juegan una gran cantidad de partidos en poco tiempo, lo que
aumenta aun m as los viajes y el cansancio. Para evitar esto los equipos estan
divididos en dos conferencias, Este y Oeste; y a su vez estas conferencias estan
subdivididas en tres divisiones cada una, dejando seis grupos de cinco equipos
cada uno organizados como podemos ver en las tablas 2.1 y 2.2.

Figura 2.7: Equipos NBA situados en el mapa.

Conferencia Este
Atlantico Central Sureste
Boston Celtics Chicago Bulls Atlanta Hawks
Brooklyn Nets Cleveland Cavaliers Charlotte Hornets
New York Knicks Detroit Pistons Miami Heat
Philadelphia 76ers Indiana Pacers Orlando Magic
Toronto Raptors Milwaukee Bucks Washington Wizards

Tabla 2.1: Conferencia Este

Los enfrentamientos entre estos equipos se realizan de una manera un poco



2.5. EJEMPLO PRACTICO 33

Conferencia Oeste
Noroeste Pacco Suroeste
Denver Nuggets Golden State Warriors Dallas Mavericks
Minnesota Timberwolves Los Angeles Clippers Houston Rockets
Oklahoma City Thunder Lon Angeles Lakers Memphis Grizzlies
Portland Trail Blazers Phoenix Suns New Orleans Pelicans
Utah Jazz Sacramento Kings San Antonio Spurs

Tabla 2.2: Conferencia Oeste

especial para evitar el problema de las largas distancias que hemos comentado.
As, cada equipo se enfrenta:
Cuatro veces a los equipos de su division, dos como local y dos como
visitante (16 partidos).
Tres o cuatro veces al resto de equipos de su conferencia (36 partidos).
Dos veces a los equipos de la otra conferencia, uno como local y otro como
visitante (30 partidos).
Con lo cual podemos observar que no todos los equipos tienen los mismos enfren-
tamientos, de esta forma puede que un equipo tenga un calendario mas sencillo
que otro. As puede ocurrir que los enfrentamientos de los Boston Celtics sean
diferentes a los de los Chicago Bulls y sin embargo contaran igual en la clasi-
caci on del Este, lo que puede llevar a ligeras desventajas. Para ver claro esto
veamos que hubiese ocurrido en la temporada regular de este a no si hubiesemos
utilizado el metodo de PageRank para ordenar la clasicaci on.
Para construir nuestra clasicaci on comenzamos creando la matriz M cu-
yas entradas mij son las victorias que ha obtenido cada equipo dividido por
el numero total de partidos de cada equipo. De esta forma si denotamos por
E1 , E2 , . . . , E30 los 30 equipos de la competicion entonces las entradas de la
matriz M seran
victorias de Ei sobre Ej
mij = .
partidos de Ei
Al igual que en las secciones anteriores asignamos a cada equipo Ei su
((ranking)) o importancia que denotaremos por xi , de forma que la clasicaci on
nal quede determinada por los valores x1 , x2 , . . . , x30 .
Como en la Seccion 2.2 la primera idea es que xi sea proporcional al n umero
de victorias cosechadas por el equipo Ei , notar que as es como funciona la
NBA (y la mayora de deportes), pero nosotros vamos a estudiar una segunda
opcion. Esta segunda opcion consiste en que xi sea proporcional al n umero de
victorias pero teniendo en cuenta la importancia de cada victoria; es decir, no
asignamos la misma importancia ganarle al primero que al u ltimo. De esta forma
el ((ranking)) xi viene determinado por

n
xi = K mij xj .
j=1
34 CAPITULO 2. EL ALGORITMO DE GOOGLE

Lo que nos lleva otra vez al sistema


M x = x
y de nuevo debemos buscar un autovector de M con todas las entradas del
mismo signo.
Para construir la matriz M , nos jamos en los resultados de la fase regular de
la temporada 2014-2015. Debido a las dimensiones de esta matriz, la incluimos
al nal de este captulo en las tablas 2.4 y 2.5.
Con esta matriz que acabamos de construir vamos a calcular la importancia
de cada equipo en funci on de la importancia de las victorias que ha conseguido;
es decir, buscamos un vector x tal que M x = x. Para buscar este autovector
podemos utilizar cualquier programa que nos permita utilizar el metodo de la
potencia o calcular los autovalores de la matriz M . En nuestro caso hemos
realizado un peque no programa en Mathematica para aplicar el metodo de la
potencia y como resultado hemos obtenido el autovector buscado que en este
caso es:
2.13294
1.68012

1.68286

1.53916

1.72056

1.74415

1.48063

1.39654

1.30782

1.1368

1.13963

0.907659

0.828032

0.619581

0.47066

1.86317

1.6474

1.52949

1.41061

1.31555

1.10161

1.13233

1.06406

1.0776

1.004

0.926232

0.980899

0.69527

0.494857
0.47931

2.5. EJEMPLO PRACTICO 35

A la vista del vector anterior la clasicacion de cada conferencia quedara


como muestra la tabla 2.3. Recordar que el vector anterior muestra la importan-
cia de cada equipo en el orden en el que se encuentran en las tablas 2.4 y 2.5. El
orden de estas tablas es el de la clasicacion real de la NBA de la temporada que
estamos estudiando, donde primero se muestran los equipos de la conferencia
Oeste y despues los de la conferencia Este.

Conferencia Oeste Conferencia Este


Pos. Equipo Pos. Equipo
1 Golden State Warriors 1 Atlanta Hawks
2 San Antonio Spurs 2 Cleveland Cavaliers
3 Memphis Grizzlies 3 Chicago Bulls
4 Los Angeles Clippers 4 Toronto Raptors
5 Houston Rockets 5 Washington Wizards
6 Portland Trail Blazers 6 Boston Celtics
7 Dallas Mavericks 7 Milwaukee Bucks
8 New Orleans Pelicans 8 Indiana Pacers
9 Oklahoma City Thunder 9 Brooklyn Nets
10 Utah Jazz 10 Miami Heat
11 Phoenix Suns 11 Detroit Pistons
12 Denver Nuggets 12 Charlotte Hornets
13 Sacramento Kings 13 Orlando Magic
14 Lon Angeles Lakers 14 Philadelphia 76ers
15 Minnesota Timberwolves 15 New York Knicks

Tabla 2.3: Clasicaci


on con nuestro metodo

Figura 2.8: Clasicaci


on 2014-2015

Como podemos ver en la gura 2.8 la clasicaci on se modica levemente.


Apreciamos como en la conferencia Oeste hay varios cambios de posiciones en-
tre los equipos clasicados para los Playos. Por ejemplo los San Antonio Spurs
36 CAPITULO 2. EL ALGORITMO DE GOOGLE

escalan desde la sexta plaza a la segunda, mientras que los Houston Rockets
descienden desde la segunda plaza hasta la quinta, pero ninguno de estos cam-
bios de posicion afectara a los equipos clasicados para los Playos, sino que
u
nicamente cambiaran los enfrentamientos posteriores de estos equipos. Por
otra parte en la conferencia Este hay un cambio signicativo. Si observamos la
clasicaci
on de esta temporada vemos que los Brooklyn Nets, que han quedado
en la octava posicion, se han clasicado para los Playos, mientras que los In-
diana Pacers han quedado novenos y no han conseguido el pase. Sin embargo,
el algoritmo de PageRank que hemos aplicado en este ejemplo invierte sus po-
siciones. Esta observacion permite pensar que el calendario y el grupo de cada
equipo puede llegar a ser un factor determinante para su pase a los Playos.

2.5. EJEMPLO PRACTICO 37

Sacramento

Minnesota
Oklahoma
Memphis
Portland
Warriors

Clippers
Houston

Phoenix
Pelicans

Denver

Lakers
Dallas
Spurs

Utah
2 3 3 1 1 2 3 3 3 3 1 2 3 2
Warriors 41 82 82 41 82 41 82 82 82 82 41 41 82 41
1 1 1 1 3 1 3 3 3 2 3 1 2
Houston 0 41 82 41 82 82 41 82 82 82 41 82 41 41
1 1 3 1 1 1 1 1 2 2 3 3 2 3
Clippers 82 41 82 41 41 41 41 41 41 41 82 82 41 82
1 1 3 1 3 3 3 1 2 1 2 1
Portland 0 41 82 0 82 41 82 82 82 41 41 41 41 41
1 1 1 2 1 3 1 3 3 1 1 3 2 1
Memphis 82 41 41 41 41 82 41 82 82 41 41 82 41 41
1 3 1 1 1 1 1 1 3 1 2 3 1 2
Spurs 41 82 41 82 41 41 82 41 82 82 41 82 41 41
1 1 1 1 1 3 3 1 3 1 3 2 3
Dallas 0 82 82 41 82 41 82 82 82 82 41 82 41 82
1 1 1 1 3 1 3 1 1 1 3 2 2
Pelicans 82 41 82 0 41 82 82 82 41 41 82 82 41 41
1 1 1 1 1 1 1 3 1 3 3 3 2
Oklahoma 82 0 82 82 82 82 82 82 82 41 82 82 82 41
1 1 1 1 3 1 1 1 1 1 2 3
Phoenix 82 82 0 82 0 82 82 82 82 41 41 82 41 82
1 1 1 1 1 1 1 1 1 1 3 1 3
Utah 82 82 0 41 41 41 82 82 41 82 41 82 41 82
1 1 1 1 3 1 1 1 1 3 3
Denver 82 0 82 0 82 0 82 82 82 82 41 41 82 82
1 1 1 1 1 1 3 1 1 3 3
Sacramento 0 0 82 82 82 82 0 82 82 82 82 41 82 82
1 1 1 1 1 1 3
Lakers 82 82 0 0 0 82 0 0 0 0 82 82 82 82
1 1 1 1 1 1
Minnesota 0 0 0 41 82 0 0 0 0 82 82 82 0 82
1 1 1 1 1 1 1 1 1 1 1 1 1 1
Atlanta 82 41 41 41 82 0 41 82 82 41 41 82 41 82 41
1 1 1 1 1 1 1 1 1 1 1 1 1 1
Cavaliers 82 0 41 82 41 82 82 82 82 82 82 82 82 41 41
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
Chicago 82 82 82 82 82 82 82 41 82 82 82 82 82 82 41
1 1 1 1 1 1 1 1 1 1 1
Toronto 0 82 41 0 82 82 0 0 82 82 41 41 41 82 41
1 1 1 1 1 1 1 1 1 1 1
Wizards 0 82 82 82 41 82 0 41 0 0 41 41 82 41 82
1 1 1 1 1 1 1 1 1
Milwaukee 0 0 82 82 82 0 0 0 82 82 0 82 41 82 41
1 1 1 1 1 1 1 1 1
Boston 0 0 0 82 82 0 0 41 0 82 41 41 82 82 82
1 1 1 1 1 1 1 1 1 1
Brooklyn 82 0 82 82 0 82 82 0 41 0 0 41 41 41 82
1 1 1 1 1 1 1
Indiana 82 0 0 0 0 0 41 41 82 0 41 0 0 82 82
1 1 1 1 1 1 1 1 1
Miami 0 0 82 82 0 0 82 0 0 41 82 82 41 41 82
1 1 1 1 1 1
Charlotte 0 0 0 0 0 0 0 82 0 82 82 41 0 82 41
1 1 1 1 1 1 1 1
Detroit 0 82 0 0 82 82 82 0 82 82 0 82 41 0 0
1 1 1 1 1 1 1 1
Orlando 0 82 0 82 0 0 0 82 0 82 82 0 41 82 41
1 1 1 1
Philadelphia 0 0 0 0 0 0 0 82 0 0 0 41 82 0 41
1 1 1 1 1
Knicks 0 0 0 0 0 82 0 82 82 0 0 82 0 41 0

Tabla 2.4: Resultados NBA 2014-2015


38 CAPITULO 2. EL ALGORITMO DE GOOGLE

Philadelphia
Milwaukee

Charlotte
Brooklyn
Cavaliers

Wizards

Orlando
Chicago

Toronto
Atlanta

Indiana

Detroit
Boston

Knicks
Miami
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
Warriors 82 82 82 41 41 41 41 82 82 41 41 41 41 41 41
1 1 1 1 1 1 1 1 1 1 1 1 1 1
Houston 0 41 82 82 82 41 41 41 41 41 41 82 82 41 41
1 1 1 1 1 1 1 1 1 1 1 1
Clippers 0 0 82 0 82 82 41 82 41 82 41 41 41 41 41
1 1 1 1 1 1 1 1 1 1 1 1 1 1
Portland 0 82 82 41 82 82 82 82 41 82 41 41 82 41 41
1 1 1 1 1 1 1 1 1 1 1 1 1
Memphis 82 0 82 82 0 82 82 41 41 41 41 82 41 41 41
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
Spurs 41 82 82 82 82 41 41 82 41 41 41 82 41 41 82
1 1 1 1 1 1 1 1 1 1 1 1 1
Dallas 0 82 82 41 41 41 41 82 0 82 41 82 41 41 41
1 1 1 1 1 1 1 1 1 1 1
Pelicans 82 82 0 41 0 41 0 41 0 41 82 41 82 82 82
1 1 1 1 1 1 1 1 1 1 1 1 1 1
Oklahoma 82 82 82 82 41 82 41 0 82 41 41 82 41 41 82
1 1 1 1 1 1 1 1 1 1 1 1 1
Phoenix 0 82 82 82 41 82 82 41 41 0 82 82 82 41 41
1 1 1 1 1 1 1 1 1 1
Utah 0 82 82 0 0 41 0 41 0 82 82 41 82 41 41
1 1 1 1 1 1 1 1 1
Denver 82 82 82 0 0 82 0 0 41 82 0 82 41 0 82
1 1 1 1 1 1 1 1
Sacramento 0 82 82 0 82 0 82 0 41 0 41 0 0 82 41
1 1 1 1 1 1 1 1 1 1
Lakers 82 0 82 82 0 82 82 0 82 0 82 41 82 41 0
1 1 1 1 1 1 1
Minnesota 0 0 0 0 82 0 82 82 82 82 0 41 0 0 41
3 1 1 3 3 1 2 3 2 1 3 3 3 1
Atlanta 82 41 82 82 82 41 41 82 41 41 82 82 82 41
1 3 3 3 3 1 3 1 1 3 3 3 1 1
Cavaliers 82 82 82 82 82 41 82 41 41 82 82 82 41 41
1 1 2 1 3 3 3 1 1 1 1 1 3 3
Chicago 82 82 41 41 82 82 82 41 41 41 41 41 82 82
3 1 3 1 1 1 3 1 1 1 2 2 3
Toronto 82 82 0 82 41 41 41 82 41 41 41 41 41 82
1 1 1 1 1 1 1 3 1 1 2 3 2
Wizards 82 82 41 0 41 41 41 41 82 41 41 41 82 41
1 1 1 1 1 1 3 1 2 1 3 1 2 2
Milwaukee 82 82 82 82 82 41 82 41 41 82 82 41 41 41
1 1 1 1 1 1 3 3 1 1 1 1 2 3
Boston 82 41 82 41 82 82 82 82 82 41 41 41 41 82
1 1 1 1 1 1 1 1 1 3 3 2
Brooklyn 0 82 82 41 41 82 82 41 0 41 41 82 82 41
1 1 1 1 1 1 3 3 1 3 3 2
Indiana 0 41 41 0 41 41 82 82 82 82 41 82 82 41
1 1 1 1 3 2 1 1 1 3 3 3
Miami 0 41 82 82 82 0 82 41 82 41 82 82 82 82
1 1 1 1 1 1 1 1 1 1 1 1 3
Charlotte 41 0 41 41 41 41 41 82 82 41 41 41 41 82
1 1 1 1 1 1 1 1 1 1 1 3 1 3
Detroit 82 82 41 41 82 82 82 82 41 41 41 82 82 82
1 1 1 1 1 1 1 1 1
Orlando 82 0 41 0 0 41 41 0 0 82 41 82 41 41
1 1 1 1 1 1 1 3 1 1
Philadelphia 82 82 0 0 82 0 0 82 82 82 82 82 82 82
1 1 1 1 1 1 1 3
Knicks 82 82 0 82 0 0 82 0 0 0 82 82 41 82

Tabla 2.5: Resultados NBA 2014-2015


Captulo 3

El Teorema del punto jo


de Brouwer

En este captulo vamos a completar la prueba del Teorema de Perron-


Frobenius que vimos en el Captulo 1 dando una demostraci on detallada del
Teorema del punto jo de Brouwer. Antes de proceder con la prueba vamos a
dar unas pinceladas sobre la vida de su autor.
Luitzen Egbertus Jan Brouwer, a la izquierda en la gura 3.1, (Overschie
27 de febrero 1881 - Blaricum 2 de diciembre 1966) realizo sus estudios preuni-
versitarios en la ciudad de Hoorn, al norte de Amsterdam, obteniendo unos
resultados excepcionales y termin andolos a los catorce a nos. La formaci on de
Brouwer no inclua ni griego ni latn, lo que le llev
o a estar los dos a
nos siguientes
estudiando estas dos lenguas en Harleem, pues eran un requisito indispensable
para poder acceder a la universidad en esa epoca.
En 1897 Brouwer entr o en la universidad de Amsterdam, donde su profesor
Korteweg noto rapidamente que se encontraba ante un excelente estudiante.
Durante sus estudios universitarios ya fue capaz de probar resultados sobre
movimientos continuos en cuatro dimensiones. Korteweg le anim o a presentar
dichas demostraciones y en 1904, el mismo a no en el que se graduo y contrajo
matrimonio con Lize de Holl, la Real Academia de Ciencias de Amsterdam
publico su primer artculo con dichos resultados.
Durante toda su vida Brouwer estuvo muy interesado en la losofa y en los
fundamentos logicos de las matem aticas, pero tambien se intereso fuertemente
por el quinto problema de la lista que Hilbert presento al Congreso Internacio-
nal de Matem aticos de Pars en 1900.1 Cabe destacar que ciertos aspectos de su
tesis doctoral, publicada en 1907, contribuyeron al debate sobre los fundamen-
tos l
ogicos de las matematicas que en aquel momento mantena la comunidad
matem atica.
Anos mas tarde, en 1909, Brouwer mantuvo un encuentro en Pars con Poin-
1 Este problema preguntaba si todos los grupos topol
ogicos localmente euclidianos son
isomorfos a grupos de Lie.

39
40 CAPITULO 3. EL TEOREMA DEL PUNTO FIJO

Figura 3.1: L. E. J. Brouwer a la izquierda y a la derecha primera p


agina de su
trabajo en Mathematische Annalen en el que publico su conocido teorema del
punto jo.

care, Hadamard y Borel que le condujo al estudio de la invariancia de la dimen-


sion. Entre 1909 y 1913 realizo sus primeros estudios de topologa destacando
sus caracterizaciones de las aplicaciones topologicas del plano cartesiano y la de-
mostracion de algunos teoremas de puntos jos. Es precisamente en este periodo
cuando publica en la revista Mathematische Annalen (el artculo apareci o en
1910), el teorema del punto jo que nos ocupa, cuya primera p agina podemos
ver a la derecha en la gura 3.1. Originalmente lo demostro para una esfera de
dos dimensiones pero m as tarde generalizo el resultado a esferas n dimensio-
nales. Parece ser que la idea del teorema le vino a Brouwer mientras remova
una taza de cafe para disolver un terron de azucar y observ o que siempre apa-
reca un punto sin movimiento. El teorema del punto jo de Brouwer fue uno
de los primeros logros de la topologa algebraica y es la base de otros teoremas
de punto jo mas generales que son importantes en an alisis funcional. Aunque
tradicionalmente se atribuye a Brouwer, en 1910 Hadamard tambien dio una de-
mostracion independiente del mismo Teorema del punto jo. Debemos rese nar
que ambas ambas pruebas eran no constructivas.
En 1914 Brouwer fue nombrado miembro del consejo de redaccion de la
revista Mathematische Annalen pero en 1928 Hilbert quiso echarlo del consejo ya
que pensaba que se estaba volviendo demasiado poderoso y, a pesar del respaldo
de personajes como Einstein o Caratheodory, Hilbert se sali o con la suya, lo que
fue devastador mentalmente para Brouwer. A partir de ese momento hasta su
retiro, en 1951, compagino la vida academica con una importante actividad
poltica.
41

Desde 1970, la Sociedad Matematica Holandesa concede cada tres a nos la


Medalla Brouwer. Esta medalla se entrega en el Congreso Matematico de los
Pases Bajos a un matematico de gran relevancia internacional y ha alcanzado
notable prestigio.
A continuacion recordamos el Teorema del punto jo de Brouwer y poste-
riormente veremos su demostracion. Debemos notar que la prueba mas estandar
del Teorema del punto jo de Brouwer se basa en demostrar por argumentos
topol un retracto2 continuo de Dn en S n1 , mientras
ogicos que no existe ning
que la demostraci on que vamos a incluir en este captulo se fundamenta en
un lema que asegura que no existen retractos de clase C 1 (Dn ). Posteriormente
utilizamos el Teorema de aproximaci on de Weierstrass para pasar a funciones
continuas.
La prueba que presentamos est a basada en la dada por J. Milnor en [5] y
que fue simplicada por C. A. Rogers en [2] unos anos mas tarde.
Teorema 7 (Teorema del punto jo de Brouwer). Sea Dn := {x Rn : x
1} el disco unidad cerrado de Rn y f : Dn Dn una aplicaci on continua.
Entonces f tiene un punto jo; es decir, existe x Dn tal que f (x) = x.
Antes comenzar con la prueba del teorema del punto jo de Brouwer, vamos
a enunciar y demostrar el lema auxiliar que contendr
a el paso fundamental de
la demostraci
on.
Lema 8. No existen aplicaciones f : Dn S n1 de clase C 1 (Dn ) tal que
f (x) = x para todo x S n1 .
Demostraci on. Vamos a proceder por reducci on al absurdo, as que supongamos
que existe tal funci on f ; es decir, existe una funcion f : Dn S n1 de clase
C 1 (Dn ) tal que ja todos los puntos de la esfera S n1 .
Para t [0, 1], consideramos la aplicaci on
ft (x) = (1 t)x + tf (x) = x + g(x),
donde g(x) = f (x) x. Notar que ft (x) Dn para todo x Dn . En efecto
ft (x) (1 t)x + tf (x) (1 t) + t = 1,
y, por lo tanto, ft : Dn Dn . Ademas como para todo x S n1 se verica
que f (x) = x, tenemos
ft (x) = (1 t)x + tf (x) = (1 t)x + tx = x
y, de este modo, ft ja todos los puntos de la esfera S n1 .
Veamos ahora que la aplicaci on ft que hemos denido es una aplicacion
biyectiva. Como f es C 1 (Dn ), g tambien lo es y por el teorema del valor medio
existe una constante C tal que, para todo x1 , x2 Dn ,
g(x2 ) g(x1 ) Cx2 x1 . (3.1)
2 En on continua f : X A con A X tal que se
topologa un retracto es una funci
on f |A : A A es la funci
restringe a la identidad en su imagen; es decir, que la aplicaci on
identidad.
42 CAPITULO 3. EL TEOREMA DEL PUNTO FIJO

Demos una prueba mas detallada de esta u ltima armacion. Sea h : G R


una funcion C 1 (G), donde G Rn es un conjunto cerrado y acotado, entonces
por el teorema del valor medio en varias variables y la desigualdad de Cauchy-
Schwartz
|h(x) h(y)| = |h(c) (x y)| h(c)x y,
donde c es un punto intermedio de x e y; es decir, c = (1 )x + y para
un cierto (0, 1). Ademas, como cada x h
i
es continua y est
a denida en un
compacto, se verica que | xi | < Ki . Por tanto, h(c) K y
h

|h(x) h(y)| h(c)x y Kx y.

Sea ahora H : G Rm con G Rn cerrado y acotado. Es claro que



H(x) H(y) = (h1 (x) h1 (y))2 + + (hn (x) hn (y))2

C1 x y2 + + Cn x y2 Cx y,

con lo que queda vista la armaci on.


Supongamos ahora que la aplicacion ft no es inyectiva; es decir, que existen
dos puntos distintos x1 y x2 Dn tal que ft (x1 ) = ft (x2 ). Esto implica que
x2 x1 = t(g(x1 ) g(x2 )) y, usando (3.1),

x2 x1  = tg(x1 ) g(x2 ) Ctx2 x1 .

Como x1 = x2 podemos dividir la desigualdad anterior por x2 x1 , lo que nos


lleva a que Ct 1. As cuando t < C1 llegaremos a un absurdo, lo que implica
que ft : Dn Dn sera inyectiva.
Sea Gt = ft (B n ), la imagen por ft de la bola unidad de Rn . Para cada
on lineal ft (x) : Rn Rn , dada por
x Dn , la derivada de ft es una aplicaci

ft (x) = In + tg  (x),

donde In es la matriz identidad de orden n. As como g es de clase C 1 (Dn )


existe un n umero real t0 tal que det ft (x) > 0 para todo t [0, t0 ].3 De este
modo, por el teorema de la funci on inversa, Gt es un conjunto abierto para todo
t [0, t0 ].4 Y haciendo t0 sucientemente peque no, tambien tendremos que para
todo t [0, t0 ] la funcion ft sera inyectiva.
3 Para on tomamos para cada x D n la funci
comprender mejor esta situaci on

h : [0, 1] R
t h(t) = det(In + tg  (x)).

Observamos que esta funci on es continua en t, de hecho es un polinomio en t. Adem as es obvio


que h(0) = 1 y por conservaci on del signo existe un t0 para el que h(t) > 0 cuando t [0, t0 ].
4 Sabemos que G = f (B n ) y como acabamos de ver que, para todo t [0, t ], det f  (x) = 0,
t t 0 t
podemos aplicar el teorema de la funci on inversa para asegurar la existencia de una funcion h
continua tal que h(Gt ) = B n . As Gt es la preimagen de un conjunto abierto por una funci on
continua con lo que podemos concluir que Gt es un conjunto abierto.
43

Ahora vamos a ver que Gt = ft (B n ) = B n para todo t [0, t0 ]. Asumamos


que es falso, con lo que la frontera Gt intersecar a a la bola abierta B n en alg
un
punto y0 .
Comprobemos este u ltimo hecho mas detenidamente. Hasta ahora sabemos
que ft (Dn ) Dn , que ft ja los puntos de S n1 y es inyectiva para todo
t [0, t0 ]. As es sencillo ver que ft (B n ) B n . Supongamos que no es cierto,
entonces existira x S n1 tal que x ft (B n ), luego existir a y B n tal que
ft (y) = x, pero como ft ja S n1 tenemos que ft (x) = x. As ft (y) = ft (x) lo
que es absurdo ya que ft es una funci on inyectiva. Por tanto si Gt = B n , se
tiene que ft (B )  B . Ahora queremos ver que B n Gt = , para ello vamos
n n

a utilizar el siguiente lema.


Lema 9 (Paso de aduana). Sea X un espacio topol ogico, A X conexo, B X
tal que A B = y A Ext B = , entonces A B = .5
Supongamos que B n Gt = y tomemos en el lema anterior X = Dn ,
A = B n y B = Gt . Sabemos que Gt  B n y, como Gt es abierto, entonces
B n Gt = B n Gt = . Veamos ahora que B n Ext Gt = . Como Gt  B n ,
existe y B n \ Gt , comprobemos que y B n Ext Gt . Supongamos que no es
as, entonces y / Ext Gt = (Gt )c y, por tanto, y Gt . Puesto que y / Gt = Gt ,
concluimos que y Gt , lo que implica que y B Gt , que es absurdo ya
n

que B n Gt = . Pero de esta forma, por el Lema 9, llegamos a B n Gt =


lo que es una contradicci on y podemos concluir que la frontera Gt intersecar aa
la bola abierta B n en alg un punto y0 como queramos ver.
Como y0 Gt existe una sucesi on {x } B n tal que lm ft (x ) = y0 ;
es decir, podemos acercarnos a y0 por una sucesion de puntos de Gt que son
de la forma ft (x ) con x B n . Ahora bien, como Dn es un conjunto compac-
to en un espacio metrico Dn , sera secuencialmente compacto6 y as podremos
tomar una subsucesi on convergente de x ; es decir, una subsucesi on tal que
lmk xk = x0 , para un cierto x0 Dn . Por la continuidad de ft tendremos
que lmk ft (xk ) = ft (x0 ) y entonces ft (x0 ) = y0 . Pero como Gt es un con-
junto abierto y los conjuntos abiertos son disjuntos de su frontera, y0 Gt no
pertenecer a a Gt = ft (B n ). As x0 / B n y de esta forma x0 Dn \B n = S n1 .
Con lo cual para x0 S n1
se cumple que ft (x0 ) = x0 (recordar que ft ja
puntos de S n1 ) y como hemos visto que y0 = ft (x0 ), entonces y0 = x0 lo que
es absurdo ya que x0 S n1 e y0 B n . Por tanto ft (B n ) = B n y as para todo
on ft : Dn Dn es biyectiva.
t [0, t0 ] la aplicaci
Denimos ahora la aplicaci on F : [0, 1] R de la siguiente forma
 

F (t) = det ft (x) dx = det(In + tg  (x)) dx,
Dn Dn

donde dx denota la medida de Lebesgue en Rn . Si nos jamos en la denicion


de esta funci
on podemos observar que F (t) es un polinomio en t. Puesto que
5 Recordar que B denota el conjunto interior de B, que es el mayor abierto contenido en
c
B, mientras que Ext B denota el conjunto exterior de B, que es equivalente a B = (B c ) .
6 Recordar que un espacio (X, d) se dice secuencialmente compacto cuando toda sucesi on
en X posee alguna subsucesion convergente.
44 CAPITULO 3. EL TEOREMA DEL PUNTO FIJO

ft : Dn Dn es una funci on biyectiva para t [0, 1], aplicando el cambio de


variable z = ft (x) (notar que el jacobiano de la transformacion es precisamente
det ft (x)), tenemos que
 
F (t) = det ft (x) dx = dz, t [0, t0 ] ,
Dn ft (D n )

obteniendo que F (t) es el volumen de ft (Dn ) = Dn ; es decir,

F (t) = Volumen(Dn ), para t [0, t0 ] .

Recordemos que si un polinomio es constante en un intervalo, es constante en


todo su dominio, con lo que F (t) = Volumen(Dn ) para todo t [0, 1] y, en
particular, F (1) = Volumen(Dn ) > 0. Puesto que f1 (x) = f (x) S n1 para
todo x Dn , se tiene

f1 (x), f1 (x) = f1 (x)2 = 1.

As para cualquier vector v Rn


 
d  d 
2f1 (x)v, f1 (x) = f1 (x + sv), f1 (x + sv) = 1 = 0.
ds s=0 ds s=0

Esto implica que la imagen de f1 (x) est a contenida en f1 (x) , el complemento

ortogonal de f1 (x). As el rango de f1 (x) es menor o igual que n 1 para todo
x Dn y por lo tanto det f1 (x) = 0 para todo t Dn .7 De este modo, como
det f1 (x) = 0, 
F (1) = det f1 (x) dx = 0,
Dn

lo que entra en contradicci


on con F (1) > 0 que habamos visto antes, terminando
as la demostraci
on.
Una vez concluida la prueba de este lema auxiliar pasamos a la prueba del
Teorema del punto jo de Brouwer.
Demostraci on del Teorema del punto jo de Brouwer. Sea f : Dn Dn una
aplicaci
on continua. Por el Teorema de aproximaci on de Weierstrass para cada
N existe una sucesi on de funciones de clase C 1 (Dn ), p : Dn Rn ,
tales que f (x) p (x)2 1 , para todo x Dn . Es m as, podemos tomar las
funciones p como polinomios. Teniendo en cuenta que p (x)2 f (x)2 +
p (x) f (x)2 1 + 1 , si denimos h = (1 + 1 )1 p tenemos h : Dn Dn
y h converge uniformemente a f .8
7 Para ver que el rango de f  (x) es menor o igual que n 1 procedamos por reducci on al
1
absurdo. Supongamos que el rango de f1 (x) es exactamente n, lo que implica Im f1 (x) = Rn .
Como Im f1 (x) f (x) y f (x) f1 (x) = Rn , se deduce que f1 (x) se reduce al vector nulo,
lo que es absurdo.
8 Notar que

h (x) f (x) 2 h (x) p (x) 2 + p (x) f (x) 2


45

Veamos que cada h tiene un punto jo en Dn . Para comprobar esta ar-


macion supongamos que es falsa. Denimos la aplicacion f : Dn S n1 de
la siguiente forma: para cada x Dn , f (x) es la intersecci
on de S n1 con la
semirrecta que comienza en h (x) y va hacia x (ver la gura 3.2).

h (x)

f (x)

Figura 3.2: Estructura de la aplicaci


on f (x).

Si h no tiene puntos jos la aplicaci on f es de clase C 1 (Dn ) y cumple


f (x) = x para todo x S n1
, entrando en contradiccion con el lema anterior.
Veamos m as detenidamente que realmente esta aplicaci on f es de clase
C 1 (Dn ). Notar que la recta que va de h (x) a x puede describirse como

z1 = (1 t)h,1 (x) + tx1

z = (1 t)h (x) + tx, ..
.

zn = (1 t)h,n (x) + txn
con t 0, y al hacer el corte con S n1 obtenemos

n
z12 + + zn2 = 1 ((1 t)h,i (x) + txi )2 = 1
i=1

n 
n 
n
t2 (xi h,i (x))2 + 2t h,i (x)(xi h,i (x)) + h2,i (x) = 1.
i=1 i=1 i=1

Si denotamos por w el vector que va desde h (x) a x, entonces la ecuaci


on
anterior se transforma en
t2 w2 + 2th , w + h 2 1 = 0.
   
 1 1 1 1 2
p 2 1 + 1+ + = ,
1+   1+  

para todo x D n .
46 CAPITULO 3. EL TEOREMA DEL PUNTO FIJO

Despejando t y teniendo en cuenta que t 0, tenemos que el u nico corte con


S n1 se obtiene tomando el valor

h (x), w2 (h (x)2 1)w2 h (x), w
t0 = .
w2

De este modo es obvio que f (x) es una funcion de clase C 1 (Dn ).


Sea x un punto jo de h ; es decir, h (x ) = x . Como Dn es un conjunto
compacto, del conjunto {x }1 podemos extraer una subsucesion convergente;
es decir, xk x0 para alg
un x0 Dn . Ahora bien, h converge uniformemente
a f y as
f (x0 ) = lm hk (xk ) = lm xk = x0 ,
k k

lo que completa la prueba.


Bibliografa

[1] A. Berman y R. J. Plemmons, Nonnegative Matrices in the Mathematical


Sciences, Classics in Applied Mathematics, Academic Press, 1979.

[2] C. A. Rogers, A less strange version of Milnors proof of Brouwers xed-


point theorem, Amer. Math. Monthly 87 (1980), 525527.
[3] F. Pedroche, Metodos de calculo del vector PageRank, Bol. Soc. Esp. Mat.
Apl. S
eMA, 39 (2007), 730.

[4] H. Minc, Nonnegative Matrices, Wiley-Intersciences Series in Discrete Mat-


hematics and Optimization, John Wiley & Sons, 1988.
[5] J. Milnor, Analytic proofs of the hairy ball theorem and the Brouwer
xed-point theorem, Amer. Math. Monthly 85 (1978), 521524.

[6] P. Fern
andez, El secreto de Google y el Algebra Lineal, Bol. Soc. Esp. Mat.
Apl. S
eMA, 30 (2004), 115141.

[7] R. B. Bapat y T. E. S. Raghavan, Nonnegative Matrices and Applications,


Cambridge University Press, 1997.

47

Вам также может понравиться