Академический Документы
Профессиональный Документы
Культура Документы
Contenido
Prefacio
1 Preliminares
1.1 Motivacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Desigualdades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1
1.3.2
Desigualdad de Jensen . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.3
Desigualdad de Hoeding . . . . . . . . . . . . . . . . . . . . . . . .
10
11
12
2.1.1
Concentracin puntual . . . . . . . . . . . . . . . . . . . . . . . . . .
12
2.1.2
Concentracin de funciones . . . . . . . . . . . . . . . . . . . . . . .
16
18
21
2.3.1
Envolventes convexas . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
2.3.2
Desigualdad de Talagrand . . . . . . . . . . . . . . . . . . . . . . . .
25
29
29
31
A Resultados auxiliares
34
34
35
36
B Demostraciones
38
Prefacio
La concentracin de medida se reere al hecho de que una funcin de un nmero grande de
variables aleatorias tienda a concentrar su valor en un rango relativamente pequeo alrededor
de cierto nmero, esto bajo ciertas condiciones de suavidad de dicha funcin. En esta tesis
las condiciones de suavidad que se les pide a las funciones sern los supuestos de convexidad
y 1-Lipschitz.
El primero y ms comn de los resultados de concentracin es para promedios. ste
establece que El promedio de variables aleatorias independientes acotadas est concentrado alrededor de su esperanza. Escrito de otra forma: Dada una coleccin de variables
n
P
aleatorias independientes y acotadas X1 ; X2 ; : : : ; Xn ; si X = n1
Xi es una nueva variable
i=1
aleatoria con valor esperado E[X]; Cul es la probabilidad de que X se desve considerablemente de su valor esperado?.
El fenmeno de la concentracin de medida fue presentado en los aos setenta por V.
Milman [8]. Es de un gran inters en aplicaciones, en diversas reas, como la geometra,
anlisis funcional e integracin en dimensiones innitas, matemticas discretas y especial-
propiedades macroscpicas de las grandes uniones de estas partculas parecieran ser determinsticas cuando son observadas a nuestras escalas, es precisamente la concentracin de la
medida: pues aunque las propiedades de estas partculas microscpicas son modeladas con
distintas probabilidades, al unir un nmero considerable partculas (al grado de ser visibles)
las probabilidades de estas propiedades tienden a concentrarse.
El principal objetivo de esta tesis es ilustrar el uso de la concentracin de medidas de
probabilidad en la teora de las matrices aleatorias. Las matrices aleatorias son un campo de
estudio de las matemticas, que actualmente est siendo ampliamente investigado, debido a
sus aplicaciones tanto tericas como prcticas.
Nuestro segundo objetivo es exponer algunos resultados de concentracin de medidas de
probabilidad en ciertos espacios de probabilidad.
La organizacin de esta tesis es la siguiente: en el Captulo 1 se exponen algunos resultados bsicos en probabilidad, as como algunas desigualdades que sern tiles para el
desarrollo del mismo, tales como la desigualdad de Markov y la desigualdad de Jensen. En
el Captulo 2 se presentan resultados de concentracin de medida de probabilidad: primero
mostrando la concentracin de medida en el espacio de probabilidad conocido como el cubo
booleano. En este captulo tambin se expone un resultado de concentracin para funciones
1-Lipschitz evaluadas en variables aleatorias independientes, las cuales poseen una distribucin normal estndar. Y para cerrar el Captulo 2 se presenta el teorema nombrado como
desigualdad de concentracin de Talagrand, el cual es uno de los resultados ms importantes
del fenmeno de concentracin de medida. El Captulo 3 contiene aplicaciones de la desigualdad de concentracin de Talagrand en teora de matrices aleatorias, dentro de las cuales se
encuentra una demostracin de la parte de convergencia casi segura en el Teorema de Wigner.
En el Apndice A aparecen algunos resultados importantes de clculo, que son utilizados en
algunas de las demostraciones de esta tesis. Por ltimo en el Apndice B se encuentran
las demostraciones de los lemas, teoremas, corolarios y proposiciones que se enuncian en el
desarrollo de este trabajo.
4
Captulo 1
Preliminares
1.1
Motivacin
En probabilidad, la idea bsica de concentracin de medida se puede observar en el experimento aleatorio ms simple: el lanzamiento de una moneda. Si lanzamos una moneda
(legal) no podemos asegurar qu resultado obtendremos: guila o sol. Sin embargo,
supongamos que lanzamos la misma moneda muchasveces, digamos mil veces. Ahora en
el experimento se torna fuertemente predecible que el nmero de guilas que obtendremos
estar concentrado alrededor de los 500. Veamos esto de manera formal:
Sean X1 ; :::; Xn 2 f0; 1g donde Xi ; 1
n=2j
")
2e
2"2 =n
(1.1)
50j
2 (0:98)100 = 0:270;
10)
5
P (jS500
P (jS1000
250j
500j
2 (0:98)500 = 0:0001;
50)
100)
2 (0:98)1000 = 4:122
10 9 :
(0:1)2 n
Observemos que conforme crece el nmero de lanzamientos de la moneda, la probabilidad de que el nmero de guilas se desve un 10% del valor esperado va disminuyendo
considerablemente.
Con el n de generalizar (1.1) en el tema de concentracin de medida, se requiere un
Pn
cambio de perspectiva: simplemente considerar la variable aleatoria Sn =
i=1 Xi como
una funcin de las variables aleatorias individuales Xi ; i.e. Sn = F (X1 ; :::; Xn ) y buscar qu
condiciones pedirle a F para que se cumplan desigualdades del tipo (1.1).
1.2
En esta seccin se presentan conceptos y resultados bsicos de probabilidad que son necesarios para la lectura de este trabajo. El lector interesado en ahondar en estos temas puede
consultar [2].
Recordemos que un espacio de probabilidad es una terna ( ; F; P) ; donde a
el espacio muestral, F es una -lgebra de subconjuntos de
le llamamos
Denicin 1 A la
X:
(A) = P (X 2 A) :
P (Xn 2 Bn ) :
El siguiente resultado nos ser de gran ayuda en las pruebas de los teoremas importantes
de este trabajo.
7
< 1;
= E (X
M (X))
1=2
P (X
M (X))
1=2:
M (X)) = P(X
Cj como funcin de C:
Proposicin 11 Sea X una variable aleatoria en ( ; F; P) con segundo momento y tal que
P (X
M (X)) = P (X
M (X)) = 21 : Entonces
jM (X)
E (X)j
Var (X):
Xn ) existe y es igual a
E(Xn ):
2
i;
y varianza
N ( i;
n y sean c1 ; : : : ; cn
+ cn Xn = N
n
X
ci i ;
i=1
1.3
n
X
c2i
i=1
2
i
Desigualdades
1.3.1
E(X)
> 0:
y varianza
>0
P (jX
1.3.2
2:
Desigualdad de Jensen
t) x+ty)
(1
t) F (x) + tF (y) :
'
F dP
R y sea ' : I
! R una
' F dP:
! I una funcin
R un intervalo, ' : I
1.3.3
E('(X)):
Desigualdad de Hoeding
2 (b
et
a)2 =8
Teorema 21 (Desigualdad de Hoe ding). Sean X1 ; :::; Xn variables aleatorias independientes y acotadas con ai
Xi
bi : Sea Sn = X1 +
">0
P (Sn
donde D =
Pn
i=1
(bi
ESn
")
2"2 =D
ai )2 :
10
P (Sn
ESn
")
2"2 =D
Captulo 2
Concentracin de medidas de
probabilidad
El objetivo de este captulo es mostrar algunos resultados de la concentracin de medidas
de probabilidad. En la primer seccin se describe al cubo booleano como espacio de probabilidad, adems se prueban dos teoremas que hablan de cmo estn concentrados los puntos
y las funciones 1-Lipschitz en el cubo booleano. En la segunda seccin se presenta la desigualdad de concentracin gaussiana, la cual establece que una funcin 1-Lipschitz cuyas
entradas sean variables aleatorias independientes con distribucin normal estndar se concentra alrededor de su valor esperado. Y por ltimo en la tercera seccin de este captulo se
muestra la desigualdad de concentracin de Talagrand, el cual es uno de los resultados ms
importantes del fenmeno de concentracin de medida. A diferencia de la desigualdad de
concentracin gaussiana, la desigualdad de concentracin de Talagrand no condiciona a que
las variables aleatorias tengan distribucin normal estndar, en lugar de dicha condicin se
pide que las variables aleatorias sean acotadas, adems de pedir que la funcin 1-Lipschitz
sea convexa.
11
2.1
1,
; 8x 2 In . Ntese que si A
= 2n 2
F : In ! R son variables aleatorias ya que todas son medibles, y todas las integrales son
sumas, i.e.
F dPn =
In
2.1.1
1 X
F (x)
2n x2I
n
Concentracin puntual
Ya que tenemos una mtrica denida en el espacio de probabilidad del cubo booleano,
podemos entonces describir cmo es que se concentran los puntos de este conforme la dimensin del espacio va creciendo. Los siguientes resultados nos aclaran este hecho.
Rn se dene como
1
Pn (A)
1 et + e
+
2
4
(2.1)
Demostracin. Sea
c(t) =
1 et + e t
+
:
2
4
Para hacer la demostracin usaremos induccin sobre la dimensin n del cubo. En primer
lugar, si n = 1; tenemos que A puede consistir de uno o dos puntos. Si A tiene 1 punto,
entonces P1 (A) = 1=2 y
Z
1 1
1
etF dP1 = (etF (0) + etF (1) ) = + et
2
2 2
I1
2c(t);
Notemos que In1 e In0 se pueden identicar con el cubo In 1 . Denamos los subconjuntos
A1 ; A0
In
con
A0 = fx 2In
: (x; 0) 2 Ag y A1 = fx 2 In
: (x; 1) 2 Ag:
Pn 1 (A0 ) + Pn 1 (A1 )
:
2
x2In
1 X
expfminftdH (x; A1 ); t + tdH (x; A0 )gg
= n
2
1
x2In
1 X
expfminftdH (x; A0 ); t + tdH (x; A1 )gg
2n
0
x2In
1 X
minfexpftdH (x; A1 ); et expftdH (x; A0 )gg
= n
2
1
x2In
1 X
minfexpftdH (x; A0 )g; et expftdH (x; A1 )gg
n
2
0
x2In
1 1 X
(
minfexpftdH (x; A1 ); et expftdH (x; A0 )gg)
2 2n 1
1
x2In
1 1 X
+ ( n 1
minfexpftdH (x; A0 )g; et expftdH (x; A1 )gg)
2 2
x2In0
Z
Z
1
1
tF1 t tF0
=
minfe ; e e gdPn 1 +
minfetF0 ; et etF1 gdPn 1 :
2 In 1
2 In 1
La integral del mnimo es siempre menor que el mnimo de las integrales. Adems usando la
hiptesis de induccin tenemos que
Z
Z
Z
1
tF1
t
tF
min
e dPn 1 ; e
etF0 dPn 1
e dPn
2
In 1
In 1
In
Z
Z
1
tF0
t
+ min
e dPn 1 ; e
etF1 dPn
2
In 1
In 1
1
cn 1 (t)
cn 1 (t)
1
min
; et
+ min
2
Pn 1 (A1 ) Pn 1 (A0 )
2
n 1
c (t) 1
Pn (A)
Pn (A)
=
min
; et
Pn (A) 2
Pn 1 (A1) Pn 1 (A0 )
Pn (A)
1
Pn (A)
+ min
; et
:
2
Pn 1 (A0 ) Pn 1 (A1 )
14
cn 1 (t)
cn 1 (t)
; et
Pn 1 (A0 ) Pn 1 (A1 )
Escribamos
a0 =
con lo que a0 ; a1
Pn 1 (A0 )
Pn 1 (A1 )
y a1 =
Pn (A)
Pn (A)
1
4
et
4
(2.2)
c(t) si a0 = 2 y a1 = 0 se obtiene el
1
2
1
2
b para algun 0 < b < 1: Entonces a0 1 < et a1 1 ; si a1 1 < et a0 1 el valor de (2.2) sera
1
(1
2
b)
1
+ (1 + b)
2
1
1
b2
2et
2
y a1 =
t
1+e
1 + et
In
1 + et
2
etF dPn
1
2
1 + et
2et
1 et + e
+
2
4
= c(t)
cn 1 (t)
cn (t)
c(t) =
Pn (A)
Pn (A)
Los siguientes dos corolarios son resultados de suma importancia, pues ilustran de una
manera formal el fenmeno de concentracin de medida en el espacio de probabilidad del
cubo booleano.
15
Corolario 24 Sea A
! R; F (x) = dH (x;A):
1
2
et n=4 :
Pn (A)
In
Corolario 25 Sea A
Una ilustracin de lo que dice el corolario anterior es la siguiente: si Pn (A) = 0:01; i.e. A
p
contiene el 1% de los puntos del cubo In ; y escogemos " = 2 ln 10 3:035; segn el corolario
p
e 4 ln 10
Pn (fx 2 In : dH (x; A) 3:035 ng)
= 0:01; con lo que concluimos que el 99% de
0:01
p
los puntos del cubo In estn a una distancia menor que 3:035 n de A: Tomando en cuenta
que max fdH (x; y)j x; y 2 In g = n; resulta sorprendente entonces cmo los resultados arriba
mostrados nos dicen que conforme crece la dimensin del cubo booleano, todos los puntos
de ste estn muy cerca los unos de los otros.
2.1.2
Concentracin de funciones
En nuestro siguiente resultado mostraremos cmo es que al crecer la dimensin del espacio
(en este caso del cubo booleano) ciertas funciones se concentranalrededor de su mediana.
F (y)j
jx
16
yj ;
8x; y 2 Rn ;
Teorema 27 Sea F : In
Pn
p
" n
M (F ) j
4e
"2
M (F )g y A = fx 2 In : F (x)
M (F )g;
p
p
1=2: Sea A+ (") la " n-vecindad de A+ y A (") la " n-
entonces Pn (A+ ); Pn (A )
vecindad de A ; i.e.
p
p
A+ (") = fx 2 In : dH (x; A+ ) < " ng y A (") = fx 2 In : dH (x; A ) < " ng:
Por el Corolario 25
Pn (A+ (")) > 1
2e
"2
y Pn (A (")) > 1
2e
"2
4e
"2
(2.3)
Ahora si x 2 A (") ; entonces x 2 A+ (") \ A ("), entonces como x 2 A+ ("); entonces existe
y1 2 A+ tal que F (y1 )
M (F ) y adems
M (F )
F (x)
F (y1 )
F (x)
p
dH (x; y1 ) < " n;
(2.4)
M (F ) y
p
dH (x; y2 ) < " n;
(2.5)
por lo que por (2.4) y (2.5) concluimos que si x 2 A (") entonces jF (x)
p
M (F ) j < " n,
F (x)
M (F )
F (x)
F (y2 )
x 2In : jF (x)
17
p
M (F ) j < " n ;
p
M (F ) j < " ng
4e
"2
M (F ) j
p
" ng
ln 400
p
2:45 ng
M (F ) j
4e
"2
2:45; entonces
4e
ln 400
= 0:01;
con lo que concluimos que para el 99% de los puntos de In ; la funcin F no se desva de su
p
mediana por ms de 2:45 n:
2.2
En esta seccin se presenta un resultado de concentracin de medida de probabilidad, nombrado como desigualdad de concentracin gaussiana. Este resultado establece que si tenemos
una funcin 1-Lipschitz cuyas entradas sean variables aleatorias independientes con distribucin normal estndar, entonces sta se concentrar alrededor de su esperanza.
Teorema 28 (Desigualdad de concentracin gaussiana). Sea X1 ; : : : ; Xn variables
aleatorias independientes e idnticamente distribuidas, X1
: : : ; Xn ) un vector aleatorio y sea F : Rn
EF (X)j
18
2 exp
exp
(2.6)
) = P ( F (X)
exp
) = P (F (X)
) + P (F (X)
2 exp
(2.7)
1;
para todo x 2 Rn :
Tenemos que, para todo t > 0;
) = P etF (X)
P (F (X)
EetF (X)
;
et
et
EetF (X)
ec0 t ;
(2.8)
para alguna constante c0 > 0 y para todo t > 0: Ya que se tendra que
P (F (X)
cuyo valor mnimo se obtiene en t =
P (F (X)
2c0
ec0 t
lo que da que
exp c0
4c20
2c0
= exp
= exp
19
4c0
c 2 :
Sea Y una copia independiente de X; como EF (Y) = 0; tenemos que por la desigualdad de
Jensen (Corolario 19)
E exp ( tF (Y))
por lo que
E exp (tF (X))
E exp (t (F (X)
F (Y))) :
Y sin +X cos :
d ;
F (Y)))
=2
E exp
t
rF (X ) X0
2
d :
menor o igual
; por lo que
Z =2
2
E exp t rF (X ) X0 d
F (Y)))
2
0
Z =2
1 2 2
2
=
e2 t d
2
= e2
donde c0 =
2 t2
exp
t2
= exp c0 t2 ;
EF (X) :
2.3
2.3.1
Envolventes convexas
combinatoria, adems de presentar un resultado que nos dice que el doble de la distancia
combinatoria de un punto a un conjunto convexo es mayor que la distancia euclideana de
ese punto a dicho conjunto, hecho que servir para simplicar la demostracin del Lema 37.
Rn es convexo si y solo si, para todo x; y 2 A se cumple
Denicin 29 Un conjunto A
que
tx + (1
t)y 2 A;
Rn ; es el conjunto
Si A
W1 ;
W1 ):
( k
X
i wi
i=1
: wi 2 A y
k
X
i=1
=1 ;
para ver la demostracin de este hecho, el lector interesado puede consultar el Corolario 2.3.1
de [10].
Denicin 31 Sea x 2 Rn con x = (x1 ; x2 ; : : : ; xn ), denimos el soporte combinatorio
de un conjunto A
Rn relativo a x como
ng ;
n:
inf
y2VA (x)
jyj :
Rn ; y sea x 2 In ;
R y A un subconjunto convexo de In
entonces
d(x; A)
Axn := fz 2 In
y, xn 2 I: Sea A
: (z; xn ) 2 Ag ; B := fz 2 In
(1
: (z; t) 2 A para
1; se cumple que
(2.9)
1
:
Pn (X 2 A)
(2.10)
Demostracin. Para probar (2.10) es suciente probar, por el Lema 35, que
E exp(cd2c (X; A))
1
;
Pn (X 2 A)
(2.11)
haciendo c = 4c:
Veriquemos primero el caso de dimensin 1. En este caso, dc (X; A) es igual a 1 cuando
X 2
= A y 0 si X 2 A; por lo que dc (X; A)
23
ln
1
Pn (X2A)
1: Fijemos
)2
ecdc (X;AXn )
ecdc (X;B)
j Xn ;
)2
E ecdc (X;AXn ) j Xn
E ecdc (X;B) j Xn
)2
1
Pn 1 (X 2 AXn j Xn ) Pn 1 (X 2 Bj Xn )1
)2
1; por lo que
)2
inf ec(1
1
r;
Pn 1 (X 2 AXn j Xn )
Pn 1 X 2 B
x)
Pn
1; 0
Pn (X 2 A)
Pn 1 X 2 B
x
2
1
X2B
Pn (X 2 A)
Pn 1 X 2 B
2 con x :=
Pn (X2A)
Pn 1 (X2B )
Pn (X 2 A)
Pn 1 X 2 B
24
1;
tenemos
de donde
1
Pn 1 (X 2 B)
Pn (X 2 A)
Pn 1 X 2 B
1
;
Pn (X 2 A)
2.3.2
Desigualdad de Talagrand
En esta seccin se demuestra uno de los resultados ms importantes del fenmeno de concentracin de medida el cual est dado por la desigualdad de Talagrand. Con esta desigualdad
probaremos la concentracin de la norma operador y la convergencia casi segura del Teorema
de Wigner para matrices aleatorias.
Teorema 38 (Desigualdad de concentracin de Talagrand). Sea K > 0, y sean
X1 ; X2 ; : : : ; Xn variables aleatorias independientes con jXi j
F : Rn
K para todo 1
n: Sea
M (F (X))j
K)
C exp
(2.12)
P (jF (X)
E (F (X))j
K)
C exp
(2.13)
A := fz 2 In j F (z)
sea y = x + ;
xg ;
> 0; entonces
A = fz 2 In j F (z) < x + g ;
por lo que
Ac = fz 2 In j F (z)
yg
25
fz 2 In j d(z; A)
g;
) = P cd2 (X; A)
P (d(X; A)
= P ecd
2 (X;A)
ec
P ecd
ec
P (X 2 A)
por lo tanto
P (X 2 A) P (X 2
=A )
x) P (F (X)
y)
(2.14)
M (F (X))) P (F (X)
1
;
2
M (F (X)))
P (F (X)
Consideremos
M (F (X)) + )
M (F (X))
2e
) ; si hacemos x = M (F (X))
M (F (X))
M (F (X))
sustituyendo en (2.14) concluimos que
P (F (X)
M (F (X)) + ) = P (F (X)
M (F (X))
26
2e
F (X)
y y =
donde
1
2
jE (X)
KC
p
:
c
M (X)j
(2.15)
M (X)j = jE (X
M (X))j
E jX M (X)j
Z 1
P (jX M (X)j
=
0
Z 1
c 2
d
exp
C
K2
p0
1
KC
p :
=
2
c
)d
jbj
ja + bj, para
E (F (X))j
jM (F (X))
jF (X)
E (F (X))j
M (F (X))j ;
+ jM (F (X))
E (F (X))j
E (F (X))j)
P (jF (X)
M (F (X))j
);
y por (2.15)
P (jF (X)
E (F (X))j)
P (jF (X)
M (F (X))j
);
E (F (X))j
+ )
C1 e
c1
(2.16)
P (jF (X)
E (F (X))j
)
27
1 = C1 e
c1
C1 e
c1 k1
E (F (X))j
) = P (jF (X)
: Tenemos que si
E (F (X))j
0; por (2.16)
)
C1 exp
c1 b
E (F (X))j
C1 exp
= Ce
28
c 1 k1
;
c1 (
)2 ;
Captulo 3
Aplicaciones en matrices aleatorias
3.1
Una matriz aleatoria es una matriz cuyas componentes son variables aleatorias. Dada una
matriz aleatoria A; existen muchas propiedades de sta que se pueden estudiar, como por
ejemplo, los eigenvalores o valores propios, la traza, el determinante, etc. En este captulo
nos centraremos en estudiar el comportamiento de una propiedad bsica, la norma operador
de la matriz A, la cual se dene como
kAkop :=
sup
x2Rn :jxj=1
jAxj :
Esta cantidad por s sola es interesante, pero adems sirve como una cota bsica de otras
cantidades de inters de la matriz. Por ejemplo los eigenvalores de la matriz tienen tamao a
lo ms kAkop : Con base en lo anterior podemos entonces decir que es importante encontrar
cmo es que se concentran los valores de las normas operador de las matrices aleatorias.
En esta seccin se muestra un resultado que nos dice cmo es que la norma operador, vista
como funcin, se concentra alrededor de su media. Para dicho n utilizaremos el resultado
del Teorema 38, quedando a la vista la utilidad de las desigualdades de concentracin.
29
n donde las entradas Xij son independientes con media cero y acotadas
kAkop
M kAkop
C exp
i;j n
de las variables
v
!2
u n
u X
= t
X1j xj +
j=1
v
!2
u n
n
uX X
= t
Xij xj ;
i=1
n
X
X2j xj
j=1
!2
n
X
Xnj xj
j=1
!2
j=1
j=1
j=1
(3.1)
i=1 j=1
dientes con media cero y acotadas uniformemente por 1: Entonces, por la desigualdad del
tringulo, tenemos que
jF (A)
F (B)j =
=
F (Xij )1
kAkop
i;j n
kBkop
kA Bkop `
v
uX
n
u n X
t
(Xij
i=1 j=1
= jA
F (Yij )1
Bj ;
30
Yij )
i;j n
3.2
El Teorema de Wigner
(3.2)
Teorema 40 (Teorema de Wigner). Sea An una matriz de Wigner tal que Anii son
variables aleatorias independientes e idnticamente distribuidas, 1
1=n, 1
i < j
i
p1 An
n
n; E Anij
converge casi
n;i ;
1
jfi :
n
n;i
x; 1
c:s:
ngj ! F (x) ;
En lo que sigue supondremos, sin prdida de generalidad, que las variables Anij son acotadas y con media igual a cero, el lector interesado en ver a detalle la justicacin de lo que
se acaba de mencionar puede ver [3] pginas de la 15 a la 26. Con estas condiciones se puede
31
seguir la demostracin dada en [4] del Teorema de Wigner, utilizando herramientas de teora
de grcas y combinatoria.
En esta seccin demostraremos que
1
X
1
tr (An )k
n
Var
k=1
< 1;
(3.3)
1
F
L
tr(An )k es L1 -Lipschitz para alguna constante L1 > 0. Ahora, para demostrar (3.3), primero
por denicin tenemos que
Var
1
tr (An )k
n
=E
1
tr (An )k
n
1
tr (An )k
n
1
tr (An )k
n
tr (An )k
p
p
L1
d
!
n d :
Entonces dado que f tambin es convexa, entonces por Lema 4.4.12 de [1], tr(An )k es
convexa, entonces por el Teorema 38 tenemos que existen c > 0 y C > 0 tales que
Z 1
1
C0
n k
Var
tr (A )
C exp
c 2 n2 d = 2 ;
n
L1
n
0
donde C0 es una constante positiva. Por lo anterior obtenemos que
1
X
n=1
Var
1
tr (An )k
n
< 1:
Para el caso de k impar, siguiendo la sugerencia de Tao [13], utilizando el hecho de que
kAn kop
c:s:
una matriz positiva denida, casi seguramente; por lo que utilizando los mismos argumentos
de arriba tenemos que tr(An + cIn )k es L2 -Lipschitz y convexa. Adems de manera similar
a la demostracin de la convergencia en esperanza dada en [4], de la distribucin espectral
emprica a la distribucin del semicrculo se puede demostrar que
1
tr (An + cIn )k
n
E
donde X
! E (X + c)k ;
n!1
F dada en (3.2):
tr (An + cIn )k
E tr (An + cIn )k
>
C exp
L22
n2 d =
L2
n d
C1
;
n2
1
tr (An + cIn )k
n
c:s:
! E (X + c)k ;
n!1
c:s:
! FX+c (x) :
n!1
En virtud de que
FAn +cIn (x) = FAn (x
c)
y FX+c (x) = FX (x
se sigue que
FAn (x)
c:s:
! FX (x) :
n!1
33
c) ;
Apndice A
Resultados auxiliares
En este apndice se muestran unos resultados de clculo que son tiles en algunas de las
demostraciones de esta tesis.
A.1
Lema 41 Sea I
2 R tal que
(x
c) + '(c)
8x 2 I:
Demostracin. Como ' es convexa, sus derivadas unilaterales '0 (c) y '0+ (c) derivada por
derecha y derivada por izquierda respectivamente existen en el punto c 2 I y satisfacen la
siguiente desigualdad:
'0 (c)
Tomemos
'0+ (c):
como cualquier nmero del intervalo '0 (c); '0+ (c) : Tenemos que si x < c;
entonces
'(x)
x
c < 0 nos da que
'0 (c)
'(x)
(x
34
'(c)
;
c
c) + '(c):
'0+ (c)
lo que, multiplicando por x
A.2
'(c)
;
c
(x
c) + '(c):
Obsrvese que x; y 2 In
d(x; y) = fi : xi 6= yi ; i = 1; :::; ng
= jx1
y1 j +
+ jxn
yn j :
Proposicin 42 Sea In = f0; 1gn el cubo booleano. La dupla (In ; d) es un espacio mtrico,
donde d es la distancia de Hamming, la cual se dene como:
d(x; y) = jx1
y1 j +
+ jxn
yn j ;
para x y y en In :
d(x; y) = jx1
y1 j+
+jxn
yn j
y1 j+
+jxn
yn j = 0
lo cual solo pasa cuando xi = yi para toda i = 1; : : : ; n;i.e. solo cuando x = y: Ahora
observemos que
d(x; y) = jx1
y1 j +
+ jxn
yn j
= jy1
x1 j +
+ jyn
xn j
= d(y; x);
35
por lo que solo nos falta demostrar la desigualdad del tringulo para sta mtrica. Tenemos
que
d(x; z) = jx1
z1 j +
= jx1
jx1
+ jxn
zn j
y1 + y1
z1 j +
y1 j + jy1
z1 j
+ jxn
+ jxn
yn + yn
zn j
yn j + jyn
zn j
A.3
Desigualdades elementales
Proposicin 43 Para 0
1; c > 0
inf ec(1
)2
)2
(A.1)
r:
con respecto a
1=2
0, por lo que si 0
r<e
1=2
1:28
1=2
1:4;
= 1 + 2 log r; r 2 e
e1=4(1
1=2
1 2 log r
r;
2 log r) log r =
36
(log r)2
log r
log (2
r) :
(A.2)
F (r) = log (2
Observemos que F 00 (r)
F 0 (e
1=2
)=
0 para r 2 e
1=2
1=2
1=2
0 para todo r 2 e
1=2
; 1 ; lo que quiere
0 para todo
a)2
kx2
(A.3)
b:
k) x2
(2a)x + a2 + b
0;
k > 0 y 4a2
k) a2 + b < 0;
4 (1
de donde se puede ver que existen k y b que cumplan con (A.3). Por ejemplo, si se elige un
k; tal que 0 < k < 1, se debe de buscar un b tal que
a2
<1
a2 + b
lo que cumple cualquier cualquier b >
a2
1 k
a2 .
37
k<1
Apndice B
Demostraciones
En este apndice se encuentran las demostraciones de los teoremas, proposiciones, lemas y
corolarios que se enuncian en el desarrollo de esta tesis.
Demostracin de la Proposicin 5. Por la denicin de probabilidad de un evento tenemos
entonces la siguiente igualdad
Z 1
P (X
0
)d
E1fX g (X) d
Z0 1 Z
1fX g (x) dPX (x) d
=
0
Z 1Z 1
=
dPX (x) d
=
38
M(X)
(x
1
1
(x
M(X)
a partir de aqu demostraremos el caso M(X) < C; para el caso C < M(X) es similar.
39
M(X)
Z 1
dPX (x) + C
M(X)
M(X)
xdPX (x)
xdPX (x) + 2C
1
1
xdPX (x) +
=
= 2
2
Z
1
c
M(X)
dPX (x)
1
1
xdPX (x)
C
dPX (x)
M(X)
1
xdPX (x)
M(X)
Z C
dPX (x)
M(X)
M(X)
xdPX (x)
1
xdPX (x)
M(X)
Z C
xdPX (x) + 2C
M(X)
C
M(X)
(C
x) dPX (x) ;
(C
M(X)
Cj = E jX
M(X)j + 2
x) dPX (x) ;
M(X)
Cj :
M(X)j = jE(X
M(X))j
E jX
M(X)j ;
M(X)j
E jX M(X)j E jX
q
= E (X E (X))2
E(X)j
dPX (x)
exp (tcn Xn )]
= E exp (tc1 Xn )
E exp (tcn Xn ) :
Por lo tanto
E exp (tc1 Xn )
1 c1
n
X
2 2
1 c1 2
i ci
i=1
n
X
i=1
exp
!
2 2
i ci 2
n cn
2 2
n cn 2
Pn
i=1
i ci
y varianza
1(X
X;
)]
E(X)
E [1(X
)]
E(X)
P (X
P (X
E(X)
E(X)
b = sup I;
c=
F dP:
; por lo que
Si b 2 I; entonces F
R
Ahora supongamos que 1 6= a 2
= I: Entonces F > a en todo punto de : Si
F dP = a;
R
entonces de (F a)dP = 0 se tuviera que F = a casi en todas partes en ; lo cual es
R
una contradiccin. Por lo tanto
F dP > a: De manera similar tenemos que si 1 6= b 2
= I,
R
entonces F < b en todo punto de ; por lo que
F dP < b; con lo que queda demostrado
que c 2 I:
'(c) + (t
8t 2 I;
c)
'(c) +
(F (x)
8x 2 ;
c)
= '(c);
con lo que nicamente nos queda por examinar el caso donde c es uno de los extremos de
I; que entonces pertenece a I: Supongamos, sin prdida de generalidad, que c = a; lo cual
implica que F = a casi en todas partes. Se tiene entonces que
Z
Z
(' F ) dP = '(a) dP = '(a) = '(c);
con lo que se concluye la prueba.
Demostracin del Corolario 18. Aplicando el Teorema 17 al espacio de probabilidad ([a; b] ;
B ([a; b]) ; P); donde dP = bdxa :
Demostracin del Lema 20. Si escribimos x = a + (1
etx nos dice que
etx
eta + (1
42
) etb :
) b, 0
1; la convexidad de
Sea
= (b
x) = (b
etx
x ta x
e +
a
b
a tb
e :
a
EX ta EX a tb
e +
e
b a
b a
beta aetb
=
b a
t2 (b a)2 =8
e
:
b
EetX
= e
donde u = t (b
a) y
(u) =
(0) =
(u) =
a) ; entonces
pt(b a)
;
p + peu ) : Dado que
pu + log (1
0
por lo tanto
(u)
a)
a= (b
p+
p
p + (1
p) e
(0) = 0: Ms an
00
(u) =
p (1 p) e u
(p + (1 p) e u )2
a)2
8
43
con z = p (1
2 [0; u]
(0) + u 0 (0) +
u2
8
t2 (b
1
;
4
u2
2
00
( )
p) e
; es 14 : Ahora,
Demostracin del Teorema 21. Solo probaremos la cota inferior (la prueba para la cota superior es similar). Sea Yi = Xi
con media cero y rango [ai
P (Sn
") = P (Y1 +
ESn
EXi ; bi
") = P et(Y1 +
+ Yn
+Yn )
Eet(Y1 +
et"
et"
+Yn )
esto ltimo es por la Desigualdad de Markov (Teorema 14). Por la independencia de los Yi
y usando el Lema 20 para cada Yi ; obtenemos que
P (Sn
ESn
EetY1
")
EetYn
et"
t2 (b1 a1 )2 =8
2 (b
n
et
et"
an )2 =8
")
ESn
2"2 =D
y e
=1
t2
t+
2!
t3
+
3!
entonces
1 et + e
+
2
4
1
1+1
t t
t2 + t2
+(
)+(
)+(
)+
2
4
4
4(2!)
t2
t4
t2k
= 1+ +
+
+
+
4
2(4!)
2(2k)!
t2k
t2
2
1+ +
+ k +
= et =4 ;
4
4 k!
=
p
fx2In :d(x:A) " ng
etd(x;A) dPn
44
p
" n =) td(x; A)
Pn fx 2 In : d(x; A)
p
t" n; de donde
p
p
" nget" n ;
por lo que
Pn fx 2 In : d(x; A)
Como
" ng
p
t" n
etd(x;A) dPn :
In
1
2
et n=4 ;
Pn (A)
etd(x;A) dPn
In
" ng
e t" n t2 n=4
e
:
Pn (A)
p
Haciendo t = 2"= n;
p
2"
(p
)" n
2"
e "
e t" n t2 n=4 e n
(p
)n=4
e
=
e n
;
=
Pn (A)
Pn (A)
Pn (A)
i
i
Demostracin del Lema 35. Supongamos que dc (x; A) = r: Entonces d (VA (x) ; 0) = r;
y como VA (x) es cerrado, entonces existe t = (t1 ; t2 ; : : : ; tn ) 2 VA (x) tal que jtj = r:
Observemos que UA (x)
ahora bien t est en la envolvente convexa de UA (x) por lo que es una combinacin convexa
k
k
P
P
de elementos en UA (x) (i.e. t =
w
;
donde
0;
i i
i
i = 1 y wi 2 UA (x) ). En
i=1
i=1
virtud de que, por denicin de UA (x); para todo wi 2 UA (x) existe zwi 2 A
A
x = f(a1
x1 ; a2
x2 ; : : : ; an
x (donde
sima coordenada de zwi ) es distinta de cero, lo que implica que (wi )j es distinto de cero
tambin. Como A y x viven ambos en [ 1; 1]n ; entonces cada coordenada de cada elemento
45
de A
k
X
i zw i :
i=1
Como A es convexo, A
2 jtj
x: Observemos que, si
2r; y como zt = a
xj
2r:
xjg
Demostracin del Lema 36. Primero observemos que si t 2 UAxn (x), entonces por la denicin de Axn y UAxn (x); tenemos que (t;0) 2 UA (x) y si u 2 UB (x) entonces (u;1) 2 UA (x):
Con lo anterior tenemos que si t 2 VAxn (x) y u 2 VB (x); entonces para todo 0
( (t;0) + (1
) (u; 1)) = ( t+ (1
) u ;1
) 2 VA (x):
(1
)2 + j t + (1
)uj2 ;
(1
)2 + jtj2 + (1
) juj2 ;
por lo tanto
d2c (x; A)
(1
46
1;
Bibliografa
[1] Anderson, G. W., Guionnet, A., Zeitounni, O. (2009). An introduction to random matrices. Cambridge Studies in Advanced Mathematics.
[2] Ash R. B., Dolans-Dade, C. A. (2000). Probability and measure theory. Academic Press.
[3] Bai, Z., Silverstein J. W. (2010). Spectral Analysis of Large Dimensional Random Matrices 2nd edition. Springer.
[4] Domnguez Molina, J. A., Rocha Arteaga, A. (2011). El teorema de Wigner para matrices aleatorias. Miscelnea Matemtica de la Sociedad Mexicana de Matemticas no.
52.
[5] Gromov, M., Milman, V.D. (1983). A topological application of the isoperimetrical inequality. American J. of Math., Vol. 105, N4, 843-854.
[6] Ledoux, M. (2001). The concentration of measure phenomenon. Surveys and Monographs, 89.
[7] Maurey, B. Vase http://65.54.113.26/Author/1011386/bernard-maurey.
[8] Milman, V. D. (1971). A new proof of the theorem of A. Dvoretzky on sections of convex
bodies. Functional Analysis and its Applications, vol. 5, no. 4, 28-37.
[9] Pisier, J. G. G. Vase http://www.gap-system.org/~history/Biographies/Pisier.html.
[10] Rockafellar, R. T. (1970). Convex Analysis. Princeton University Press.
47
[11] Talagrand, M. (1996). A New Look at Independence. The Annals of Probability, Vol.
24.
[12] Talagrand, M. (1995). Concentration of measure and isoperimetric inequalities in product spaces. Publications mathmatiques de lI.H..S., tome 81.
[13] Tao, T. (2012). Topics in Random Matrix Theory. Graduate Studies in Mathematics.
Volume 132, American Mathematical Society.
48