Вы находитесь на странице: 1из 49

Concentracin de medidas de probabilidad

Marco Tulio Gaxiola Leyva


Agosto 2012

Contenido
Prefacio

1 Preliminares

1.1 Motivacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2 Conceptos y resultados bsicos de probabilidad . . . . . . . . . . . . . . . .

1.3 Desigualdades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.3.1

Desigualdades bsicas en probabilidad . . . . . . . . . . . . . . . . .

1.3.2

Desigualdad de Jensen . . . . . . . . . . . . . . . . . . . . . . . . . .

1.3.3

Desigualdad de Hoeding . . . . . . . . . . . . . . . . . . . . . . . .

10

2 Concentracin de medidas de probabilidad


2.1 Concentracin en el cubo booleano . . . . . . . . . . . . . . . . . . . . . . .

11
12

2.1.1

Concentracin puntual . . . . . . . . . . . . . . . . . . . . . . . . . .

12

2.1.2

Concentracin de funciones . . . . . . . . . . . . . . . . . . . . . . .

16

2.2 Desigualdad de concentracin gaussiana . . . . . . . . . . . . . . . . . . . . .

18

2.3 Desigualdad de concentracin de Talagrand . . . . . . . . . . . . . . . . . . .

21

2.3.1

Envolventes convexas . . . . . . . . . . . . . . . . . . . . . . . . . . .

21

2.3.2

Desigualdad de Talagrand . . . . . . . . . . . . . . . . . . . . . . . .

25

3 Aplicaciones en matrices aleatorias

29

3.1 Concentracin de la norma operador . . . . . . . . . . . . . . . . . . . . . .

29

3.2 El Teorema de Wigner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31

A Resultados auxiliares

34

A.1 Recta bsica de la grca de una funcin convexa . . . . . . . . . . . . . . .

34

A.2 El cubo booleano como espacio mtrico. . . . . . . . . . . . . . . . . . . . .

35

A.3 Desigualdades elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . .

36

B Demostraciones

38

Prefacio
La concentracin de medida se reere al hecho de que una funcin de un nmero grande de
variables aleatorias tienda a concentrar su valor en un rango relativamente pequeo alrededor
de cierto nmero, esto bajo ciertas condiciones de suavidad de dicha funcin. En esta tesis
las condiciones de suavidad que se les pide a las funciones sern los supuestos de convexidad
y 1-Lipschitz.
El primero y ms comn de los resultados de concentracin es para promedios. ste
establece que El promedio de variables aleatorias independientes acotadas est concentrado alrededor de su esperanza. Escrito de otra forma: Dada una coleccin de variables
n
P
aleatorias independientes y acotadas X1 ; X2 ; : : : ; Xn ; si X = n1
Xi es una nueva variable
i=1

aleatoria con valor esperado E[X]; Cul es la probabilidad de que X se desve considerablemente de su valor esperado?.
El fenmeno de la concentracin de medida fue presentado en los aos setenta por V.
Milman [8]. Es de un gran inters en aplicaciones, en diversas reas, como la geometra,
anlisis funcional e integracin en dimensiones innitas, matemticas discretas y especial-

mente en teora de probabilidad. El fenmeno de la concentracin de la medida se desarroll


gracias a los trabajos de Milman y Gromov [5], Maurey [7], Pisier [9], Talagrand [11], [12],
Ledoux [6], y otros.
En forma ms compleja, el fenmeno de la concentracin de la medida subyace ampliamente nuestro mundo fsico. Como sabemos, el mundo est hecho de partculas microscpicas que son gobernadas por las leyes de la probabilidad. La razn por la cual las
3

propiedades macroscpicas de las grandes uniones de estas partculas parecieran ser determinsticas cuando son observadas a nuestras escalas, es precisamente la concentracin de la
medida: pues aunque las propiedades de estas partculas microscpicas son modeladas con
distintas probabilidades, al unir un nmero considerable partculas (al grado de ser visibles)
las probabilidades de estas propiedades tienden a concentrarse.
El principal objetivo de esta tesis es ilustrar el uso de la concentracin de medidas de
probabilidad en la teora de las matrices aleatorias. Las matrices aleatorias son un campo de
estudio de las matemticas, que actualmente est siendo ampliamente investigado, debido a
sus aplicaciones tanto tericas como prcticas.
Nuestro segundo objetivo es exponer algunos resultados de concentracin de medidas de
probabilidad en ciertos espacios de probabilidad.
La organizacin de esta tesis es la siguiente: en el Captulo 1 se exponen algunos resultados bsicos en probabilidad, as como algunas desigualdades que sern tiles para el
desarrollo del mismo, tales como la desigualdad de Markov y la desigualdad de Jensen. En
el Captulo 2 se presentan resultados de concentracin de medida de probabilidad: primero
mostrando la concentracin de medida en el espacio de probabilidad conocido como el cubo
booleano. En este captulo tambin se expone un resultado de concentracin para funciones
1-Lipschitz evaluadas en variables aleatorias independientes, las cuales poseen una distribucin normal estndar. Y para cerrar el Captulo 2 se presenta el teorema nombrado como
desigualdad de concentracin de Talagrand, el cual es uno de los resultados ms importantes
del fenmeno de concentracin de medida. El Captulo 3 contiene aplicaciones de la desigualdad de concentracin de Talagrand en teora de matrices aleatorias, dentro de las cuales se
encuentra una demostracin de la parte de convergencia casi segura en el Teorema de Wigner.
En el Apndice A aparecen algunos resultados importantes de clculo, que son utilizados en
algunas de las demostraciones de esta tesis. Por ltimo en el Apndice B se encuentran
las demostraciones de los lemas, teoremas, corolarios y proposiciones que se enuncian en el
desarrollo de este trabajo.
4

Captulo 1
Preliminares
1.1

Motivacin

En probabilidad, la idea bsica de concentracin de medida se puede observar en el experimento aleatorio ms simple: el lanzamiento de una moneda. Si lanzamos una moneda
(legal) no podemos asegurar qu resultado obtendremos: guila o sol. Sin embargo,
supongamos que lanzamos la misma moneda muchasveces, digamos mil veces. Ahora en
el experimento se torna fuertemente predecible que el nmero de guilas que obtendremos
estar concentrado alrededor de los 500. Veamos esto de manera formal:
Sean X1 ; :::; Xn 2 f0; 1g donde Xi ; 1

n representa el i-simo resultado de lanzar

una moneda (0 si obtenemos sol y 1 si obtenemos guila) y supongamos que P (Xi = 0) =


P (Xi = 1) = 1=2. Entonces el nmero de guilas que obtendremos, al lanzar n veces una
moneda, estar representado por Sn = X1 +
P (jSn

+ Xn ; entonces tenemos lo siguiente:

n=2j

")

2e

2"2 =n

(1.1)

vase Teorema 21.


Tomemos " = 0:1n, de acuerdo con la desigualdad (1.1) se tienen los siguientes tres casos
particulares
P (jS100

50j

2 (0:98)100 = 0:270;

10)
5

P (jS500
P (jS1000

250j

500j

2 (0:98)500 = 0:0001;

50)

100)

2 (0:98)1000 = 4:122

La siguiente gura muestra la grca de la funcin p (n) = 2e

10 9 :

(0:1)2 n

Observemos que conforme crece el nmero de lanzamientos de la moneda, la probabilidad de que el nmero de guilas se desve un 10% del valor esperado va disminuyendo
considerablemente.
Con el n de generalizar (1.1) en el tema de concentracin de medida, se requiere un
Pn
cambio de perspectiva: simplemente considerar la variable aleatoria Sn =
i=1 Xi como

una funcin de las variables aleatorias individuales Xi ; i.e. Sn = F (X1 ; :::; Xn ) y buscar qu
condiciones pedirle a F para que se cumplan desigualdades del tipo (1.1).

1.2

Conceptos y resultados bsicos de probabilidad

En esta seccin se presentan conceptos y resultados bsicos de probabilidad que son necesarios para la lectura de este trabajo. El lector interesado en ahondar en estos temas puede
consultar [2].
Recordemos que un espacio de probabilidad es una terna ( ; F; P) ; donde a
el espacio muestral, F es una -lgebra de subconjuntos de

le llamamos

y P es una medida sobre F,

tal que, P ( ) = 1: A P se le llama medida de probabilidad. Como ejemplo de espacio de


probabilidad podemos dar el espacio que corresponde al experimento de sacar una bola al
azar de una caja que contiene n bolas. Empecemos por tomar a

como un conjunto nito

de n puntos, es decir n representa el nmero de bolas que se encuentran dentro de la caja,


F ser la coleccin de todos los subconjuntos de

y P es la medida de probabilidad que

asigna a A 2 F la probabilidad P(A) = k=n; si A tiene exactamente k elementos.


6

Denicin 1 A la

-lgebra ms pequea de subconjuntos de R que contiene a todos los

conjuntos abiertos de R; le llamamos la -lgebra de Borel y la denotamos por B(R): A los


elementos de B(R) le llamamos los borelianos.

Denicin 2 Una variable aleatoria X en ( ; F; P) es una funcin


! R;

X:

medible relativa a las -lgebras F y B(R); es decir, X

(A) 2 F, para todo A 2 B (R) :

Si tenemos X una variable aleatoria en un espacio de probabilidad ( ; F; P) y A 2 F


entonces denimos
PX (A) := P X

(A) = P (X 2 A) :

Denicin 3 Sean X1 ; : : : ; Xn variables aleatorias en ( ; F; P) : Entonces diremos que X1 ;


: : : ; Xn son independientes si y solo si para todo conjunto B1 ; : : : ; Bn 2 B(R); tenemos que
P (X1 2 B1 ; : : : ; Xn 2 Bn ) = P (X1 2 B1 )

P (Xn 2 Bn ) :

Denicin 4 Si X es variable aleatoria en ( ; F; P) ; la esperanza de X se dene como


Z
E(X) =
xdPX (x) ;
siempre que la integral exista.

El siguiente resultado nos ser de gran ayuda en las pruebas de los teoremas importantes
de este trabajo.
7

Proposicin 5 Sea X una variable aleatoria no negativa en ( ; F; P) ; entonces


Z 1
E (X) =
P (X
)d :
0

Denicin 6 Sea X una variable aleatoria en ( ; F; P) : Si k > 0 y si E jXjk

< 1;

entonces a el nmero E(X k ) se le llama el k-simo momento de X; a E jXjk se le llama el


k-simo momento absoluto de X:
E(X))k se le llama el

Denicin 7 Si X es una variable aleatoria en ( ; F; P), a E (X

E(X)jk se le llama el k-simo momento central

k-simo momento central de X; a E jX


absoluto de X:

Denicin 8 Al primer momento (k = 1) E(X) se le llama media de X: El segundo momento central

= E (X

E(X))2 se le llama varianza de X y se denota V ar(X), y a su

raz cuadrada positiva se le llama desviacin estndar.


Denicin 9 Sea X una variable aleatoria en ( ; F; P) ; la mediana M(X) es un nmero
tal que,
P (X

M (X))

1=2

P (X

M (X))

1=2:

La mediana siempre existe.


Una propiedad de la mediana est dada por el siguiente resultado.
Lema 10 Sea X una variable aleatoria en ( ; F; P) tal que P (X
M (X)) = 21 : Entonces la mediana M (X) minimiza E jX

M (X)) = P(X

Cj como funcin de C:

Proposicin 11 Sea X una variable aleatoria en ( ; F; P) con segundo momento y tal que
P (X

M (X)) = P (X

M (X)) = 21 : Entonces
jM (X)

E (X)j

Var (X):

Teorema 12 Sean X1 ; : : : ; Xn variables aleatorias independientes en ( ; F; P) : Si Xi es no


negativa o E(Xi ) existe para toda i = 1; 2; : : : ; n; entonces E (X1
E(X1 )

Xn ) existe y es igual a

E(Xn ):

Lema 13 Sean X1 ; : : : ; Xn variables aleatorias independientes en ( ; F; P) con Xi


2
i );

i.e. Xi tiene distribucin normal con media

2
i;

y varianza

N ( i;

n y sean c1 ; : : : ; cn

constantes reales. Entonces


c1 X1 +

+ cn Xn = N

n
X

ci i ;

i=1

1.3

n
X

c2i

i=1

2
i

Desigualdades

1.3.1

Desigualdades bsicas en probabilidad

Teorema 14 (Desigualdad de Markov). Sea X variable aleatoria no negativa en ( ; F;


P): Entonces
P (X
para todo

E(X)

> 0:

Teorema 15 (Desigualdad de Chebyshev). Si X es una variable aleatoria en ( ; F; P)


con media

y varianza

: Entonces, para todo nmero real

>0

P (jX

1.3.2

2:

Desigualdad de Jensen

Denicin 16 Una funcin F : Rn ! R es convexa si para todo x; y 2 Rn y t 2 [0; 1]; se


tiene que
F ((1

t) x+ty)

(1

t) F (x) + tF (y) :

Teorema 17 (Desigualdad de Jensen). Sea ( ; F; P) un espacio de probabilidad, sea


F una funcin real integrable con valores en un intervalo I
funcin convexa. Entonces

'

F dP

R y sea ' : I

! R una

' F dP:

Corolario 18 Sean a; b nmeros reales con a < b; I = [a; b] ; F : I

! I una funcin

integrable, y sea ' : I ! R una funcin convexa, entonces


Z b
Z b
dx
1
' (F (x)) dx:
F (x)
'
b a
b a a
a
Corolario 19 Sea I

R un intervalo, ' : I

! R una funcin convexa y sea X una

variable aleatoria acotada. Entonces


'(E(X))

1.3.3

E('(X)):

Desigualdad de Hoeding

La desigualdad de Hoeding proporciona una cota superior a la probabilidad de que la suma


de variables aleatorias se desve una cierta cantidad de su valor esperado.
Lema 20 Sea X una variable aleatoria en ([a; b] ; B ([a; b]) ; P) : Si X tiene media 0, entonces
EetX

2 (b

et

a)2 =8

Teorema 21 (Desigualdad de Hoe ding). Sean X1 ; :::; Xn variables aleatorias independientes y acotadas con ai

Xi

bi : Sea Sn = X1 +

+ Xn : Entonces para todo

">0
P (Sn
donde D =

Pn

i=1

(bi

ESn

")

2"2 =D

ai )2 :

10

P (Sn

ESn

")

2"2 =D

Captulo 2
Concentracin de medidas de
probabilidad
El objetivo de este captulo es mostrar algunos resultados de la concentracin de medidas
de probabilidad. En la primer seccin se describe al cubo booleano como espacio de probabilidad, adems se prueban dos teoremas que hablan de cmo estn concentrados los puntos
y las funciones 1-Lipschitz en el cubo booleano. En la segunda seccin se presenta la desigualdad de concentracin gaussiana, la cual establece que una funcin 1-Lipschitz cuyas
entradas sean variables aleatorias independientes con distribucin normal estndar se concentra alrededor de su valor esperado. Y por ltimo en la tercera seccin de este captulo se
muestra la desigualdad de concentracin de Talagrand, el cual es uno de los resultados ms
importantes del fenmeno de concentracin de medida. A diferencia de la desigualdad de
concentracin gaussiana, la desigualdad de concentracin de Talagrand no condiciona a que
las variables aleatorias tengan distribucin normal estndar, en lugar de dicha condicin se
pide que las variables aleatorias sean acotadas, adems de pedir que la funcin 1-Lipschitz
sea convexa.

11

2.1

Concentracin en el cubo booleano

El objetivo de esta seccin es mostrar cmo se presenta el fenmeno de la concentracin de


medida en un espacio de probabilidad en especco. El cubo booleano, In = f0; 1gn ; n

1,

es el conjunto de las 2n sucesiones de longitud n cuyas entradas son 0s y 1s.


Para x; y 2 In donde x = (x1 ; x2 ; : : : ; xn ) y y = (y1 ; y2 ; : : : ; yn ) ; se dene la distancia de Hamming de x a y como
dH (x; y) = jfi : xi 6= yi ; i = 1; :::; ngj ;
donde, para un conjunto nito A; jAj denota la cardinalidad de A (i.e el nmero de elementos
que tiene A).
En la Proposicin 42 se demuestra que d es mtrica.
Observemos que (In ; P(In ); Pn ) es un espacio de probabilidad, donde P(In ) es el conjunto
potencia de In , Pn (fxg) = 2
adems Pn (In ) = jIn j 2

; 8x 2 In . Ntese que si A

= 2n 2

In entonces Pn (A) = jAj2

= 1: En virtud de que In es nito, todas las funciones

F : In ! R son variables aleatorias ya que todas son medibles, y todas las integrales son
sumas, i.e.

F dPn =

In

2.1.1

1 X
F (x)
2n x2I
n

Concentracin puntual

Ya que tenemos una mtrica denida en el espacio de probabilidad del cubo booleano,
podemos entonces describir cmo es que se concentran los puntos de este conforme la dimensin del espacio va creciendo. Los siguientes resultados nos aclaran este hecho.

Denicin 22 La distancia de un punto x 2 Rn a un conjunto A


d(x; A) = inf fd(x; y) : y 2 Ag ;
y2A

donde d ( ; ) es una distancia en Rn :


12

Rn se dene como

Teorema 23 Sea A un subconjunto no vaco de In y sea F : In


Entonces, para todo t > 0; se tiene que
Z
etF dPn
In

1
Pn (A)

1 et + e
+
2
4

! R; F (x) = dH (x; A).

(2.1)

Demostracin. Sea
c(t) =

1 et + e t
+
:
2
4

Para hacer la demostracin usaremos induccin sobre la dimensin n del cubo. En primer
lugar, si n = 1; tenemos que A puede consistir de uno o dos puntos. Si A tiene 1 punto,
entonces P1 (A) = 1=2 y
Z

1 1
1
etF dP1 = (etF (0) + etF (1) ) = + et
2
2 2
I1

2c(t);

con lo que (2.1) se cumple, ahora si A tiene 2 puntos, entonces P1 (A) = 1 y


Z
1
1
etF dP1 = (etF (0) + etF (1) ) = (et(0) + et(0) ) = 1 c(t)
2
2
I1
y se cumple (2.1).
Ahora supongamos que n > 1: Podemos separar el cubo In de la siguiente manera In =
In1 [ In0 donde

In1 = fx 2In : xn = 1g e In0 = fx 2 In : xn = 0g:

Notemos que In1 e In0 se pueden identicar con el cubo In 1 . Denamos los subconjuntos
A1 ; A0

In

con
A0 = fx 2In

: (x; 0) 2 Ag y A1 = fx 2 In

: (x; 1) 2 Ag:

Tenemos que jAj = jA0 j + jA1 j, o en trminos de medida


Pn (A) =
Para un punto x 2 In ; sea x 2 In

Pn 1 (A0 ) + Pn 1 (A1 )
:
2

el punto x pero omitiendo su ltima coordenada. Con

lo anterior se tiene que


dH (x;A) = minfdH (x; A1 ); dH (x; A0 ) + 1g
13

para todo x 2 In1 y


dH (x; A) = minfdH (x;A0 ); dH (x;A1 ) + 1g
para todo x 2 In0 :
Denamos F0 y F1 por F0 (x) = dH (x;A0 ) y F1 (x) = dH (x;A1 ) para x 2 In 1 : Entonces
Z
Z
Z
1 X
1 X
tF
tF
e dPn =
e dPn +
etF dPn = n
expftdH (x; A)g + n
expftdH (x; A)g
2
2
In
In1
In0
1
0
x2In

x2In

1 X
expfminftdH (x; A1 ); t + tdH (x; A0 )gg
= n
2
1
x2In

1 X
expfminftdH (x; A0 ); t + tdH (x; A1 )gg
2n
0
x2In

1 X
minfexpftdH (x; A1 ); et expftdH (x; A0 )gg
= n
2
1
x2In

1 X
minfexpftdH (x; A0 )g; et expftdH (x; A1 )gg
n
2
0
x2In

1 1 X
(
minfexpftdH (x; A1 ); et expftdH (x; A0 )gg)
2 2n 1
1
x2In

1 1 X
+ ( n 1
minfexpftdH (x; A0 )g; et expftdH (x; A1 )gg)
2 2
x2In0
Z
Z
1
1
tF1 t tF0
=
minfe ; e e gdPn 1 +
minfetF0 ; et etF1 gdPn 1 :
2 In 1
2 In 1
La integral del mnimo es siempre menor que el mnimo de las integrales. Adems usando la
hiptesis de induccin tenemos que
Z
Z
Z
1
tF1
t
tF
min
e dPn 1 ; e
etF0 dPn 1
e dPn
2
In 1
In 1
In
Z
Z
1
tF0
t
+ min
e dPn 1 ; e
etF1 dPn
2
In 1
In 1
1
cn 1 (t)
cn 1 (t)
1
min
; et
+ min
2
Pn 1 (A1 ) Pn 1 (A0 )
2
n 1
c (t) 1
Pn (A)
Pn (A)
=
min
; et
Pn (A) 2
Pn 1 (A1) Pn 1 (A0 )
Pn (A)
1
Pn (A)
+ min
; et
:
2
Pn 1 (A0 ) Pn 1 (A1 )
14

cn 1 (t)
cn 1 (t)
; et
Pn 1 (A0 ) Pn 1 (A1 )

Escribamos
a0 =
con lo que a0 ; a1

Pn 1 (A0 )
Pn 1 (A1 )
y a1 =
Pn (A)
Pn (A)

0 y a0 + a1 = 2: Entonces todo se reduce a hacernos la pregunta de cul

es el mximo valor posible de


1
1
min a1 1 ; et a0 1 + minfa0 1 ; et a1 1 g
2
2
Si a0 = 0 y a1 = 2; el valor de (2.2) es

1
4

et
4

(2.2)

c(t) si a0 = 2 y a1 = 0 se obtiene el

mismo valor. Ahora supongamos que a0 ; a1 > 0: Si tuviramos que a0 = a1 = 1 el valor de


(2.2) sera
a1 = 1

1
2

1
2

c(t); entonces, sin prdida de generalidad, supongamos que a0 = 1 + b y

b para algun 0 < b < 1: Entonces a0 1 < et a1 1 ; si a1 1 < et a0 1 el valor de (2.2) sera
1
(1
2

b)

1
+ (1 + b)
2

1
1

b2

si incrementamos el valor de b; estaramos incrementando el valor de (2.2), lo cual es una


contradiccin. Si a1 1 > et a0 1 ; entonces el valor de (2.2) sera
et 1
1 t 1 1 1
e a0 + a0 =
2
2
2 (1 + b)
si disminuimos b; el valor de (2.2) aumentara, lo cual es una contradiccin. Por lo tanto en
el punto mximo tenemos que
a1 1 = et a0 1 ; i.e. a0 =

2et
2
y a1 =
t
1+e
1 + et

con lo que el valor de (2.2) sera


1 1 1 1 1
a + a0 =
2 1
2
2
con lo que tenemos que

In

1 + et
2

etF dPn

1
2

1 + et
2et

1 et + e
+
2
4

= c(t)

cn 1 (t)
cn (t)
c(t) =
Pn (A)
Pn (A)

Los siguientes dos corolarios son resultados de suma importancia, pues ilustran de una
manera formal el fenmeno de concentracin de medida en el espacio de probabilidad del
cubo booleano.
15

Corolario 24 Sea A

In un conjunto no vaco y sea F : In

Entonces para todo t > 0; se tiene que


Z
etF dPn

! R; F (x) = dH (x;A):

1
2
et n=4 :
Pn (A)

In

Corolario 25 Sea A

In un conjunto no vaco. Entonces para cualquier " > 0; tenemos


p
"2
que Pn (fx 2 In : dH (x; A) " ng) Pen (A) :

Una ilustracin de lo que dice el corolario anterior es la siguiente: si Pn (A) = 0:01; i.e. A
p
contiene el 1% de los puntos del cubo In ; y escogemos " = 2 ln 10 3:035; segn el corolario
p
e 4 ln 10
Pn (fx 2 In : dH (x; A) 3:035 ng)
= 0:01; con lo que concluimos que el 99% de
0:01
p
los puntos del cubo In estn a una distancia menor que 3:035 n de A: Tomando en cuenta
que max fdH (x; y)j x; y 2 In g = n; resulta sorprendente entonces cmo los resultados arriba
mostrados nos dicen que conforme crece la dimensin del cubo booleano, todos los puntos
de ste estn muy cerca los unos de los otros.

2.1.2

Concentracin de funciones

En nuestro siguiente resultado mostraremos cmo es que al crecer la dimensin del espacio
(en este caso del cubo booleano) ciertas funciones se concentranalrededor de su mediana.

Denicin 26 Una funcin F : Rn ! R es 1-Lipschitz si


jF (x)

F (y)j

jx

donde usamos la mtrica euclideana sobre Rn :

16

yj ;

8x; y 2 Rn ;

Teorema 27 Sea F : In

! R; una funcin 1-Lipschitz: Sea M (F ) la mediana de F .

Entonces para todo " > 0;


x 2 In : jF (x)

Pn

p
" n

M (F ) j

4e

"2

Demostracin. Consideremos los siguientes dos conjuntos:


A+ = fx 2 In : F (x)

M (F )g y A = fx 2 In : F (x)

M (F )g;

p
p
1=2: Sea A+ (") la " n-vecindad de A+ y A (") la " n-

entonces Pn (A+ ); Pn (A )
vecindad de A ; i.e.

p
p
A+ (") = fx 2 In : dH (x; A+ ) < " ng y A (") = fx 2 In : dH (x; A ) < " ng:
Por el Corolario 25
Pn (A+ (")) > 1

2e

"2

y Pn (A (")) > 1

2e

"2

por lo tanto, para A(") = A+ (") \ A (") tenemos que


Pn (A(")) > 1

4e

"2

(2.3)

Ahora si x 2 A (") ; entonces x 2 A+ (") \ A ("), entonces como x 2 A+ ("); entonces existe
y1 2 A+ tal que F (y1 )

M (F ) y adems

M (F )

F (x)

F (y1 )

F (x)

p
dH (x; y1 ) < " n;

y como x 2 A (") entonces existe y2 2 A tal que F (y2 )

(2.4)

M (F ) y

p
dH (x; y2 ) < " n;

(2.5)

por lo que por (2.4) y (2.5) concluimos que si x 2 A (") entonces jF (x)

p
M (F ) j < " n,

F (x)

M (F )

F (x)

F (y2 )

de donde obtenemos que


A (")

x 2In : jF (x)
17

p
M (F ) j < " n ;

de donde por (2.3) y esta ltima contencin se sigue que


Pn fx 2 In : jF (x)

p
M (F ) j < " ng

4e

"2

con lo que se concluye que


Pn fx 2 In : jF (x)

M (F ) j

Para ejemplicar el resultado anterior, sea " =


Pn fx 2 In : jF (x)

p
" ng

ln 400

p
2:45 ng

M (F ) j

4e

"2

2:45; entonces
4e

ln 400

= 0:01;

con lo que concluimos que para el 99% de los puntos de In ; la funcin F no se desva de su
p
mediana por ms de 2:45 n:

2.2

Desigualdad de concentracin gaussiana

En esta seccin se presenta un resultado de concentracin de medida de probabilidad, nombrado como desigualdad de concentracin gaussiana. Este resultado establece que si tenemos
una funcin 1-Lipschitz cuyas entradas sean variables aleatorias independientes con distribucin normal estndar, entonces sta se concentrar alrededor de su esperanza.
Teorema 28 (Desigualdad de concentracin gaussiana). Sea X1 ; : : : ; Xn variables
aleatorias independientes e idnticamente distribuidas, X1
: : : ; Xn ) un vector aleatorio y sea F : Rn

! R una funcin 1-Lipschitz diferenciable.

Entonces existe una constante positiva c tal que para todo


P (jF (X)

N (0; 1), sea X = (X1 ; X2 ;

EF (X)j

18

2 exp

> 0 tenemos que


c

Demostracin. Supongamos que EF (X) = 0; entonces es suciente probar que


P (F (X)
ya que al ser

exp

(2.6)

F 1-Lipschitz, por (2.6) se tendra que


P (F (X)

) = P ( F (X)

exp

en consecuencia se sigue que


P (jF (X)j

) = P (F (X)

) + P (F (X)

2 exp

La diferenciabilidad de F y la cota de Lipschitz sobre F implica que


jrF (x)j

(2.7)

1;

para todo x 2 Rn :
Tenemos que, para todo t > 0;
) = P etF (X)

P (F (X)

EetF (X)
;
et

et

por la desigualdad de Markov, por lo que es suciente probar que


2

EetF (X)

ec0 t ;

(2.8)

para alguna constante c0 > 0 y para todo t > 0: Ya que se tendra que
P (F (X)
cuyo valor mnimo se obtiene en t =
P (F (X)

2c0

ec0 t

lo que da que
exp c0

4c20

2c0

= exp
= exp

19

4c0
c 2 :

Sea Y una copia independiente de X; como EF (Y) = 0; tenemos que por la desigualdad de
Jensen (Corolario 19)
E exp ( tF (Y))

exp ( tEF (Y)) = 1;

por lo que
E exp (tF (X))

E exp (t (F (X)

F (Y))) :

Luego, gracias al Teorema fundamental del clculo, tenemos que


Z =2
d
F (X) F (Y) =
F (Y cos + X sin ) d :
d
0
Sea X = Y cos + X sin ; observemos que X es un vector aleatorio gaussiano (Lema 13),
lo mismo que su derivada X0 =

Y sin +X cos :

Usando el Corolario 18 de la Desigualdad de Jensen, se sigue que


"Z
#!
=2
t d
d
exp (t [F (X) F (Y)]) = exp
F (X )
2 d
=2
0
Z =2
2
t d
exp
F (X ) d ;
2 d
0
aplicando la regla de la cadena y tomando las esperanzas a ambos lados de la desigualdad:
Z =2
2
t
E exp (t (F (X) F (Y)))
E
exp
rF (X ) X0 d ;
2
0
de donde, aplicando el Teorema Fubini-Tonnelli se tiene que
Z =2
Z =2
t
t
0
E
exp
rF (X ) X d =
E exp
rF (X ) X0
2
2
0
0

d ;

de donde obtenemos que


E exp (t (F (X)

F (Y)))

=2

E exp

t
rF (X ) X0
2

d :

Como ya se haba dicho anteriormente, X0 es un vector aleatorio gaussiano, por lo que,


segn el Lema 13 2 rF (X ) X0 tambin es normal con desviacin estndar
20

menor o igual

jrF (X )j ; y por (2.7), tenemos que


E exp (t (F (X)

; por lo que
Z =2
2
E exp t rF (X ) X0 d
F (Y)))
2
0
Z =2
1 2 2
2
=
e2 t d
2

= e2
donde c0 =

2 t2

exp

t2

= exp c0 t2 ;

=8 de donde obtenemos (2.8).

Por ltimo, si EF (X) 6= 0 denamos la variable aleatoria G (X) = F (X)

EF (X) :

Observemos que G es una funcin 1-Lipschitz diferenciable con EG (X) = 0; de donde


obtenemos el resultado deseado.

2.3

Desigualdad de concentracin de Talagrand

El resultado de concentracin de medida que presentamos en esta seccin es uno de los


resultados ms importantes del fenmeno de la concentracin de medida. A diferencia de
la desigualdad de concentracin gaussiana, en la desigualdad de concentracin de Talagrand
no se pide que las variables aleatorias tengan alguna distribucin en especial, se pide la
condicin adicional de que la funcin 1-Lipschitz sea convexa adems de que las variables
aleatorias sean acotadas. Este resultado fue probado por primera vez por Talagrand [12], y
aqu lo probaremos usando la misma idea de la prueba hecha por l. El resultado se basa en
la hiptesis de que las funciones son convexas, por lo que usaremos varios resultados sobre
envolventes convexas para probar nuestro teorema principal.

2.3.1

Envolventes convexas

En la demostracin de la Desigualdad de concentracin de Talagrand utilizaremos un lema


muy importante: el Lema 37. El cual se demuestra en esta subseccin. Para la demostracin
de este lema utilizaremos algunos resultados previos acerca de envolventes convexas. Por lo
que se presentan primero algunas deniciones referentes a convexidad, como lo es la distancia
21

combinatoria, adems de presentar un resultado que nos dice que el doble de la distancia
combinatoria de un punto a un conjunto convexo es mayor que la distancia euclideana de
ese punto a dicho conjunto, hecho que servir para simplicar la demostracin del Lema 37.
Rn es convexo si y solo si, para todo x; y 2 A se cumple

Denicin 29 Un conjunto A
que

tx + (1

t)y 2 A;

para todo t 2 [0; 1] :


Denicin 30 La envolvente convexa W (A) de un conjunto A

Rn ; es el conjunto

convexo ms pequeo que contiene a A (i.e. si W1 es un conjunto convexo tal que A


entonces W (A)

Si A

W1 ;

W1 ):

Rn es un conjunto nito, y A = fa1 ; a2 ; : : : ; ak g entonces su envolvente convexa

se puede escribir como


W (A) =

( k
X

i wi

i=1

: wi 2 A y

k
X
i=1

=1 ;

para ver la demostracin de este hecho, el lector interesado puede consultar el Corolario 2.3.1
de [10].
Denicin 31 Sea x 2 Rn con x = (x1 ; x2 ; : : : ; xn ), denimos el soporte combinatorio
de un conjunto A

Rn relativo a x como

UA (x) = fw 2 f0; 1gn j 9z 2 A tal que zi = xi si wi = 0; 1

ng ;

donde z = (z1 ; z2 ; : : : ; zn ) y w = (w1 ; w2 ; : : : ; wn ) : Diremos que w soporta a z si zi = xi


cuando wi = 0; para toda i; 1
Denicin 32 Sea A

n:

Rn y sea x 2 Rn entonces se dene la envolvente combinatoria

VA (x) de A relativa a x a la envolvente convexa de UA (x):


22

Proposicin 33 Sea UA (x) como en la Denicin 31, entonces 0 2 UA (x) si y solo si


x 2 A:
Denicin 34 Denimos la distancia combinatoria dc (x; A) como la distancia entre
VA (x) y el origen, es decir,

dc (x; A) = d(0; VA (x)) =


Lema 35 Sea I = [ 1; 1]

inf

y2VA (x)

jyj :
Rn ; y sea x 2 In ;

R y A un subconjunto convexo de In

entonces
d(x; A)

Lema 36 Sea x = (x; xn ) 2 In con x 2 In


subconjuntos de In 1 ;

Axn := fz 2 In

2dc (x; A):

y, xn 2 I: Sea A

: (z; xn ) 2 Ag ; B := fz 2 In

algn t 2 Ig: Entonces tenemos que para cualquier 0


d2c (x; A)

(1

In ; denamos los siguientes


1

: (z; t) 2 A para

1; se cumple que

)2 + d2c (x; Axn ) + (1

)d2c (x; B):

(2.9)

Lema 37 Sea X = (X1 ; X2 ; : : : ; Xn ) un vector aleatorio en (In ; B (In ) ; Pn ) y sea A un


subconjunto convexo de In : Entonces existe c > 0 tal que
E exp(cd2 (X; A))

1
:
Pn (X 2 A)

(2.10)

Demostracin. Para probar (2.10) es suciente probar, por el Lema 35, que
E exp(cd2c (X; A))

1
;
Pn (X 2 A)

(2.11)

haciendo c = 4c:
Veriquemos primero el caso de dimensin 1. En este caso, dc (X; A) es igual a 1 cuando
X 2
= A y 0 si X 2 A; por lo que dc (X; A)

1 por lo que (2.11) se sigue de tomar c =

23

ln

1
Pn (X2A)

: Ahora supongamos que n > 1 y que el resultado funciona para n

1: Fijemos

Xn y tomemos la esperanza condicional


E exp cd2c (X; A) j Xn ;
usando el Lema 36 (para algn

2 (0; 1) dependiendo de Xn ) se tiene que


ec(1

E exp cd2c (X; A)

)2

ecdc (X;AXn )

ecdc (X;B)

j Xn ;

aplicando la desigualdad de Hlder, la parte derecha de la desigualdad anterior es acotada


por
ec(1

)2

E ecdc (X;AXn ) j Xn

E ecdc (X;B) j Xn

y por la hiptesis de induccin podemos acotar lo anterior con


ec(1

)2

1
Pn 1 (X 2 AXn j Xn ) Pn 1 (X 2 Bj Xn )1

lo cual podemos reescribir como (ntese que el evento X 2 B es independiente de Xn )


1
ec(1
Pn 1 (X 2 B)

)2

donde r := Pn 1 (X 2 AXn j Xn )=Pn 1 (X 2 B) . Observemos que 0

1; por lo que

podemos aplicar la desigualdad elemental (ver Proposicin 43)


0

)2

inf ec(1
1

r;

con lo que concluimos que


1
Pn 1 (X 2 B)

E exp cd2c (X; A) j Xn

Pn 1 (X 2 AXn j Xn )
Pn 1 X 2 B

calculando esperanzas con respecto a Xn tenemos que


E exp cd2c (X; A)
usando la desigualdad x(2

x)

Pn
1; 0

Pn (X 2 A)
Pn 1 X 2 B

x
2

1
X2B

Pn (X 2 A)
Pn 1 X 2 B

2 con x :=

Pn (X2A)
Pn 1 (X2B )

Pn (X 2 A)
Pn 1 X 2 B
24

1;

tenemos

de donde
1
Pn 1 (X 2 B)

Pn (X 2 A)
Pn 1 X 2 B

1
;
Pn (X 2 A)

lo que concluye la induccin.

2.3.2

Desigualdad de Talagrand

En esta seccin se demuestra uno de los resultados ms importantes del fenmeno de concentracin de medida el cual est dado por la desigualdad de Talagrand. Con esta desigualdad
probaremos la concentracin de la norma operador y la convergencia casi segura del Teorema
de Wigner para matrices aleatorias.
Teorema 38 (Desigualdad de concentracin de Talagrand). Sea K > 0, y sean
X1 ; X2 ; : : : ; Xn variables aleatorias independientes con jXi j
F : Rn

K para todo 1

n: Sea

! R una funcin 1-Lipschitz convexa. Entonces, existen constantes positivas c y

C tales que para todo

> 0 tenemos que


P (jF (X)

M (F (X))j

K)

C exp

(2.12)

P (jF (X)

E (F (X))j

K)

C exp

(2.13)

donde X = (X1 ; X2 ; : : : ; Xn ) y M (F (X)) es la mediana de F (X) (ver Denicin 9).


Demostracin. Podemos suponer, sin prdida de generalidad, que K = 1. En este caso X
toma valores en el conjunto convexo In

Rn : Para x 2 R; sea el conjunto convexo

A := fz 2 In j F (z)
sea y = x + ;

xg ;

> 0; entonces
A = fz 2 In j F (z) < x + g ;

por lo que
Ac = fz 2 In j F (z)

yg
25

fz 2 In j d(z; A)

g;

Ahora tenemos que


P (X 2
=A )

) = P cd2 (X; A)

P (d(X; A)

= P ecd

2 (X;A)

ec

por la desigualdad de Markov se tiene que


2 (X;A)

P ecd

ec

E exp cd2 (X; A) ;

con lo que, aplicando (2.10)


e

E exp cd2 (X; A)

P (X 2 A)

por lo tanto
P (X 2 A) P (X 2
=A )

si tenemos que x < y; entonces


P (F (X)

x) P (F (X)

y)

(2.14)

hagamos x = M (F (X)) y y = M (F (X)) + ; entonces


P (F (X)
Dado que P (F (X)

M (F (X))) P (F (X)
1
;
2

M (F (X)))
P (F (X)

Consideremos

M (F (X)) + )

M (F (X))

2e

M (F (X)) por lo que P(

) ; si hacemos x = M (F (X))

M (F (X))

M (F (X))
sustituyendo en (2.14) concluimos que
P (F (X)

se sigue entonces que

F (X) ; se cumple que M ( F (X)) =

M (F (X)) + ) = P (F (X)

M (F (X))
26

2e

F (X)
y y =

con lo que (2.12) se cumple.


Antes de demostrar (2.13) observemos que se cumple la siguiente desigualdad entre la media
y la mediana:

donde

1
2

jE (X)
KC
p
:
c

M (X)j

(2.15)

Para ver esto notemos que


jE (X)

M (X)j = jE (X

M (X))j

E jX M (X)j
Z 1
P (jX M (X)j
=
0
Z 1
c 2
d
exp
C
K2
p0
1
KC
p :
=
2
c

)d

Ahora, para demostrar (2.13) observemos que por la desigualdad jaj

jbj

ja + bj, para

todo a; b 2 R; se sigue que


jF (X)

E (F (X))j

jM (F (X))

jF (X)

E (F (X))j

M (F (X))j ;

por lo que tenemos que


P (jF (X)

+ jM (F (X))

E (F (X))j

E (F (X))j)

P (jF (X)

M (F (X))j

);

y por (2.15)
P (jF (X)

E (F (X))j)

P (jF (X)

M (F (X))j

);

adems, gracias a (2.12)


P (jF (X)
Observemos que si

E (F (X))j

+ )

C1 e

c1

(2.16)

< ; hagamos C1 = ec1 ; entonces

P (jF (X)

E (F (X))j

)
27

1 = C1 e

c1

C1 e

c1 k1

por lo que solo nos falta demostrar el caso


P (jF (X)

E (F (X))j

) = P (jF (X)

: Tenemos que si
E (F (X))j

0; por (2.16)
)

C1 exp

c1 b

y por la Proposicin 44, existen k1 > 0 y b 2 R tales que


P (jF (X)

E (F (X))j

C1 exp
= Ce

de donde (2.13) se cumple.

28

c 1 k1
;

c1 (

)2 ;

Captulo 3
Aplicaciones en matrices aleatorias
3.1

Concentracin de la norma operador

Una matriz aleatoria es una matriz cuyas componentes son variables aleatorias. Dada una
matriz aleatoria A; existen muchas propiedades de sta que se pueden estudiar, como por
ejemplo, los eigenvalores o valores propios, la traza, el determinante, etc. En este captulo
nos centraremos en estudiar el comportamiento de una propiedad bsica, la norma operador
de la matriz A, la cual se dene como
kAkop :=

sup
x2Rn :jxj=1

jAxj :

Esta cantidad por s sola es interesante, pero adems sirve como una cota bsica de otras
cantidades de inters de la matriz. Por ejemplo los eigenvalores de la matriz tienen tamao a
lo ms kAkop : Con base en lo anterior podemos entonces decir que es importante encontrar
cmo es que se concentran los valores de las normas operador de las matrices aleatorias.
En esta seccin se muestra un resultado que nos dice cmo es que la norma operador, vista
como funcin, se concentra alrededor de su media. Para dicho n utilizaremos el resultado
del Teorema 38, quedando a la vista la utilidad de las desigualdades de concentracin.

29

Proposicin 39 (Concentracin de la norma operador). Sea A = (Xij ) una matriz


aleatoria de n

n donde las entradas Xij son independientes con media cero y acotadas

uniformemente por 1: Entonces para cualquier


P

kAkop

> 0; tenemos que

M kAkop

C exp

para algunas constantes C; c > 0: El resultado se mantiene si reemplazamos M kAkop por


E kAkop :
Demostracin. Podemos ver a kAkop como una funcin F (Xij )1

i;j n

de las variables

aleatorias independientes Xij ; con lo que F es una funcin de Rn a R: La convexidad de la


norma operador nos muestra que F es convexa.
Ahora observemos que, jAxj esta acotado, por lo que, por la propiedad del supremo, para
algn x 2 Rn
kAkop

v
!2
u n
u X
= t
X1j xj +
j=1

v
!2
u n
n
uX X
= t
Xij xj ;
i=1

n
X

X2j xj

j=1

!2

n
X

Xnj xj

j=1

!2

j=1

por la desigualdad de Cauchy-Schwarz


v
! n
!# v
u n " n
uX
n
X
X
X
u
u n X
2
2
t
Xij
Xij2 :
xj
kAkop
=t
i=1

j=1

Sea B = (Yij ) una matriz aleatoria de n

j=1

(3.1)

i=1 j=1

n con entradas Yij variables aleatorias indepen-

dientes con media cero y acotadas uniformemente por 1: Entonces, por la desigualdad del
tringulo, tenemos que
jF (A)

F (B)j =
=

F (Xij )1
kAkop

i;j n

kBkop

kA Bkop `
v
uX
n
u n X
t
(Xij
i=1 j=1

= jA

F (Yij )1

Bj ;

30

Yij )

i;j n

por lo que F es 1-Lipschitz. Por lo tanto el resultado se sigue de la desigualdad de Talagrand


(Teorema 38).

3.2

El Teorema de Wigner

En esta seccin presentaremos el Teorema de Wigner, el cual es uno de los resultados ms


importantes en la teora de las matrices aleatorias. Este teorema nos dice que la distribucin espectral emprica de una matriz aleatoria hermitiana, cuyas entradas cumplen ciertas
caractersticas, converge a la distribucin del semicrculo. Adems de presentar el teorema,
se expondr de que manera se utiliza la Desigualdad de concentracin de Talagrand en la
demostracin de la convergencia casi segura en el teorema.
Una matriz de Wigner es una matriz aleatoria An de n
complejos tales que Anij ; 1

n con elementos reales o

n son independientes y An es hermitiana, i.e. Anij = Anji :

Sea F (x) la funcin de distribucin del semicrculo, i.e.,


Z x
1p
4 t2 1[ 2;2] (t)dt:
F (x) =
2
1

(3.2)

Teorema 40 (Teorema de Wigner). Sea An una matriz de Wigner tal que Anii son
variables aleatorias independientes e idnticamente distribuidas, 1
1=n, 1

i < j

n: Entonces la distribucin espectral emprica de

i
p1 An
n

n; E Anij

converge casi

seguramente a la distribucin del semicrculo, es decir, para cada x 2 R; cuando n ! 1


FAn (x) :=
donde

n;i ;

1
jfi :
n

n;i

x; 1

c:s:

ngj ! F (x) ;

n; son los valores propios de la matriz An :

En lo que sigue supondremos, sin prdida de generalidad, que las variables Anij son acotadas y con media igual a cero, el lector interesado en ver a detalle la justicacin de lo que
se acaba de mencionar puede ver [3] pginas de la 15 a la 26. Con estas condiciones se puede

31

seguir la demostracin dada en [4] del Teorema de Wigner, utilizando herramientas de teora
de grcas y combinatoria.
En esta seccin demostraremos que
1
X

1
tr (An )k
n

Var

k=1

< 1;

(3.3)

utilizando la concentracin de medida, en lugar de teora de grcas. Con lo anterior,


siguiendo los pasos en [4], quedar demostrada la convergencia casi segura del Teorema 40.
Sea f (x) = xk ; observemos que f restringida a un conjunto compacto es L-Lipschitz en
R; L > 0 (F es L-Lipschitz si y solo si

1
F
L

es 1-Lipschitz) entonces por Lema 2.3.1 de [1]

tr(An )k es L1 -Lipschitz para alguna constante L1 > 0. Ahora, para demostrar (3.3), primero
por denicin tenemos que
Var

1
tr (An )k
n

=E

1
tr (An )k
n

de donde por la Proposicin 5 se tiene que


Z 1
1
1
n k
tr (A )
tr (An )k E
Var
=
P
n
n
0
Z 1
1
P
=
tr (An )k E
L
1
0

1
tr (An )k
n

1
tr (An )k
n
tr (An )k

p
p
L1

d
!

n d :

Entonces dado que f tambin es convexa, entonces por Lema 4.4.12 de [1], tr(An )k es
convexa, entonces por el Teorema 38 tenemos que existen c > 0 y C > 0 tales que
Z 1
1
C0
n k
Var
tr (A )
C exp
c 2 n2 d = 2 ;
n
L1
n
0
donde C0 es una constante positiva. Por lo anterior obtenemos que
1
X
n=1

Var

1
tr (An )k
n

< 1:

Para el caso de k impar, siguiendo la sugerencia de Tao [13], utilizando el hecho de que
kAn kop

c:s:

! 2 (Teorema 2.3.4. [13]), escogemos un c > 2; entonces la matriz An + cIn es


32

una matriz positiva denida, casi seguramente; por lo que utilizando los mismos argumentos
de arriba tenemos que tr(An + cIn )k es L2 -Lipschitz y convexa. Adems de manera similar
a la demostracin de la convergencia en esperanza dada en [4], de la distribucin espectral
emprica a la distribucin del semicrculo se puede demostrar que
1
tr (An + cIn )k
n

E
donde X

! E (X + c)k ;

n!1

F dada en (3.2):

Ahora aplicando la desigualdad de Talagrand (Teorema 38), obtenemos que


p !
Z
1

tr (An + cIn )k

E tr (An + cIn )k

>

C exp

L22

n2 d =

L2

n d

C1
;
n2

donde C1 es una constante positiva. Lo que nos da la convergencia casi segura


E

1
tr (An + cIn )k
n

c:s:

! E (X + c)k ;

n!1

Por lo tanto por el mtodo de momentos (ver [4]) se sigue que


FAn +cIn (x)

c:s:

! FX+c (x) :

n!1

En virtud de que
FAn +cIn (x) = FAn (x

c)

y FX+c (x) = FX (x

se sigue que
FAn (x)

c:s:

! FX (x) :

n!1

33

c) ;

Apndice A
Resultados auxiliares
En este apndice se muestran unos resultados de clculo que son tiles en algunas de las
demostraciones de esta tesis.

A.1

Recta bsica de la grca de una funcin convexa

Lema 41 Sea I

R un intervalo, sea ' : I ! R una funcin convexa y sea c un punto

interior de I: Entonces existe un


'(x)

2 R tal que
(x

c) + '(c)

8x 2 I:

Demostracin. Como ' es convexa, sus derivadas unilaterales '0 (c) y '0+ (c) derivada por
derecha y derivada por izquierda respectivamente existen en el punto c 2 I y satisfacen la
siguiente desigualdad:
'0 (c)
Tomemos

'0+ (c):

como cualquier nmero del intervalo '0 (c); '0+ (c) : Tenemos que si x < c;

entonces
'(x)
x
c < 0 nos da que
'0 (c)

lo cual, multiplicando por x

'(x)

(x
34

'(c)
;
c

c) + '(c):

Ahora, si x > c; entonces


'(x)
x

'0+ (c)
lo que, multiplicando por x

c > 0 nos da que


'(x)

A.2

'(c)
;
c

(x

c) + '(c):

El cubo booleano como espacio mtrico.

Obsrvese que x; y 2 In
d(x; y) = fi : xi 6= yi ; i = 1; :::; ng
= jx1

y1 j +

+ jxn

yn j :

Proposicin 42 Sea In = f0; 1gn el cubo booleano. La dupla (In ; d) es un espacio mtrico,
donde d es la distancia de Hamming, la cual se dene como:
d(x; y) = jx1

y1 j +

+ jxn

yn j ;

para x y y en In :

Demostracin. Sean x; y como arriba y z = (z1 ; z2 ; :::; zn ); x; y; z 2 In , entonces si xi = yi ;


entonces jxi

yi j = 0 y si xi 6= yi tenemos que jxi

d(x; y) = jx1

y1 j+

+jxn

yn j

yi j = 1; de donde obtenemos que

0 y d(x; y) = 0 si y solo si jx1

y1 j+

+jxn

yn j = 0

lo cual solo pasa cuando xi = yi para toda i = 1; : : : ; n;i.e. solo cuando x = y: Ahora
observemos que
d(x; y) = jx1

y1 j +

+ jxn

yn j

= jy1

x1 j +

+ jyn

xn j

= d(y; x);
35

por lo que solo nos falta demostrar la desigualdad del tringulo para sta mtrica. Tenemos
que
d(x; z) = jx1

z1 j +

= jx1
jx1

+ jxn

zn j

y1 + y1

z1 j +

y1 j + jy1

z1 j

+ jxn
+ jxn

yn + yn

zn j

yn j + jyn

zn j

= d(x; y) + d(y; z):

A.3

Desigualdades elementales

Proposicin 43 Para 0

1; c > 0

inf ec(1

Demostracin. Si derivamos ec(1

)2

)2

(A.1)

r:

con respecto a

e igualamos a cero, se tiene que

= 1 + 2 log r es un punto mnimo pues la segunda derivada en


2 (0; 1] y si r
entonces

1=2

entonces tenemos que 1 + 2 log r

es mayor que cero. Si

0, por lo que si 0

r<e

1=2

= 0; de donde, haciendo c = 1=4 , se sigue que


e1=4

1:28

1=2

1:4;

con lo que se cumplira A.1.


Entonces si

= 1 + 2 log r; r 2 e
e1=4(1

1=2

; 1 y c = 1=4; tendremos que

(1+2 log r))2

1 2 log r

r;

lo cual ocurre si y solo si


(log r)2 + ( 1

2 log r) log r =

36

(log r)2

log r

log (2

r) :

(A.2)

Para vericar que A.2 se cumple, sea


r) + log r + (log r)2 :

F (r) = log (2
Observemos que F 00 (r)
F 0 (e

1=2

)=

0 para r 2 e

1=2

; 1 ; por lo que F 0 (r) es creciente, adems como

1:7 y F (1) = 0; entonces F 0 (r)

decir que F es creciente, y como F (e


r2 e

1=2

1=2

0 para todo r 2 e

1=2

; 1 ; lo que quiere

) = 0:08 y F (1) = 0; entonces F (r)

0 para todo

; 1 ; con lo que se cumple A.2, y esto completa la demostracin.

Proposicin 44 Para todo 0 < x 2 R y toda constante a 2 R; existen constantes k > 0 y


b 2 R las cuales cumplen que
(x

a)2

kx2

(A.3)

b:

Demostracin. Para que (A.3) se cumpla se tiene que cumplir que


(1

k) x2

(2a)x + a2 + b

0;

lo que se cumple si y solo si se cumple que


1

k > 0 y 4a2

k) a2 + b < 0;

4 (1

de donde se puede ver que existen k y b que cumplan con (A.3). Por ejemplo, si se elige un
k; tal que 0 < k < 1, se debe de buscar un b tal que
a2
<1
a2 + b
lo que cumple cualquier cualquier b >

a2
1 k

a2 .

37

k<1

Apndice B
Demostraciones
En este apndice se encuentran las demostraciones de los teoremas, proposiciones, lemas y
corolarios que se enuncian en el desarrollo de esta tesis.
Demostracin de la Proposicin 5. Por la denicin de probabilidad de un evento tenemos
entonces la siguiente igualdad
Z 1
P (X
0

)d

E1fX g (X) d
Z0 1 Z
1fX g (x) dPX (x) d
=
0
Z 1Z 1
=
dPX (x) d
=

y por el Teorema de Fubini-Tonelli se sigue que


Z 1
Z 1 Z x
P (X
)d =
d dPX (x)
0
0
0
Z 1
=
xdPX (x)
0
Z
=
XdP
= E (X) :

38

Demostracin de el Lema 10. Observemos que


Z 1
Z 1
E jX Cj E jX M(X)j =
jx Cj dPX (x)
jx M(X)j dPX (x)
1
1
Z 1
Z c
(x C) dPX (x)
(x C) dPX (x) +
=
1

M(X)

(x
1
1

M(X)) dPX (x)

(x

M(X)) dPX (x)


Z c
=
xdPX (x) + C
dPX (x)
1
1
Z 1
Z 1
CdPX (x)
xdPX (x)
+
c
c
Z M(X)
Z M(X)
dPX (x)
xdPX (x) M(X)
+
1
1
Z 1
Z 1
xdPX (x) + M(X)
dPX (x)
M(X)
M(X)
Z c
Z c
=
xdPX (x) + C
dPX (x)
1
1
Z 1
Z 1
CdPX (x)
xdPX (x)
+
c
c
Z 1
Z M(X)
xdPX (x) ;
xdPX (x)
+
M(X)
Z c

M(X)

a partir de aqu demostraremos el caso M(X) < C; para el caso C < M(X) es similar.

39

Entonces sea M(X) < C; de la ltima igualdad tenemos que


Z
Z c
xdPX (x) + C
E jX Cj E jX M(X)j =
1
Z
Z 1
dPX (x) +
+C
C
+

M(X)
Z 1

dPX (x) + C

M(X)
M(X)

xdPX (x)

xdPX (x) + 2C
1
1

xdPX (x) +

=
= 2

2
Z

1
c

M(X)

dPX (x)
1
1

xdPX (x)
C

dPX (x)

M(X)
1

xdPX (x)

M(X)
Z C

dPX (x)

M(X)
M(X)

xdPX (x)
1

xdPX (x)

M(X)
Z C

xdPX (x) + 2C

M(X)
C

M(X)

(C

x) dPX (x) ;

(C

M(X)

por lo que tenemos la siguiente igualdad


E jX

Cj = E jX

M(X)j + 2

x) dPX (x) ;

M(X)

de donde se sigue que C = M(X) minimiza E jX

Cj :

Demostracin de la Proposicin 11. Tenemos que


jE(X)

M(X)j = jE(X

M(X))j

E jX

M(X)j ;

y por el Lema 10, tenemos que


jE(X)

M(X)j

y por el Teorema 17 (la funcin


jE(X)

E jX M(X)j E jX
q
= E (X E (X))2

E(X)j

x es convexa) tenemos que


q
p
M(X)j
E (X E (X))2 = Var (X):
40

dPX (x)

Demostracin del Lema 13 Por la independencia de X1 ; : : : ; Xn tenemos que


E exp [t (c1 X1 + : : : + cn Xn )] = E [exp (tc1 X1 )

exp (tcn Xn )]

= E exp (tc1 Xn )

E exp (tcn Xn ) :

Por lo tanto
E exp (tc1 Xn )

E exp (tcn Xn ) = exp


= exp

1 c1
n
X

2 2
1 c1 2

i ci

i=1

n
X
i=1

exp
!

2 2
i ci 2

n cn

2 2
n cn 2

de donde tenemos que c1 X1 + : : : + cn Xn es Gaussiana con media


Pn
2 2
i=1 i ci :

Pn

i=1

i ci

y varianza

Demostracin del Teorema 14. Tenemos la desigualdad


)

1(X

X;

tomando las esperanzas a ambos lados de la desigualdad tenemos que


E [ 1(X

)]

E(X)

E [1(X

)]

E(X)

P (X

P (X

E(X)
E(X)

Demostracin del Teorema 17. Sean


a = inf I;

b = sup I;

c=

F dP:

Demostremos que c 2 I. Observemos que si (a; b) = ( 1; 1) ; como F es integrable, se


tiene que c 2 I: Ahora si a 2 I; entonces F a en todo punto de
Z
Z
F dP
adP = a:
41

; por lo que

Si b 2 I; entonces F

b en todo punto de ; por lo que


Z
Z
F dP
bdP = b:

R
Ahora supongamos que 1 6= a 2
= I: Entonces F > a en todo punto de : Si
F dP = a;
R
entonces de (F a)dP = 0 se tuviera que F = a casi en todas partes en ; lo cual es
R
una contradiccin. Por lo tanto
F dP > a: De manera similar tenemos que si 1 6= b 2
= I,
R
entonces F < b en todo punto de ; por lo que
F dP < b; con lo que queda demostrado
que c 2 I:

Siguiendo con la demostracin, supongamos que c es un punto interior de I: Sea

'0 (c); '0+ (c) : Entonces, por el lema 41


'(t)

'(c) + (t

8t 2 I;

c)

al sustituir t por F (x) se obtiene


(' F ) (x)

'(c) +

(F (x)

8x 2 ;

c)

lo cual, integrando sobre con respecto de P nos da que


Z
Z
F dP c
(' F ) dP '(c) +

= '(c);

con lo que nicamente nos queda por examinar el caso donde c es uno de los extremos de
I; que entonces pertenece a I: Supongamos, sin prdida de generalidad, que c = a; lo cual
implica que F = a casi en todas partes. Se tiene entonces que
Z
Z
(' F ) dP = '(a) dP = '(a) = '(c);
con lo que se concluye la prueba.
Demostracin del Corolario 18. Aplicando el Teorema 17 al espacio de probabilidad ([a; b] ;
B ([a; b]) ; P); donde dP = bdxa :
Demostracin del Lema 20. Si escribimos x = a + (1
etx nos dice que
etx

eta + (1
42

) etb :

) b, 0

1; la convexidad de

Sea

= (b

x) = (b

a) entonces se sigue que


b
b

etx

x ta x
e +
a
b

a tb
e :
a

Tomando la esperanza en ambos lados de la desigualdad, llegamos a


EetX

EX ta EX a tb
e +
e
b a
b a
beta aetb
=
b a
t2 (b a)2 =8
e
:
b

Esta ltima desigualdad se demostrar a continuacin. Sea p =


beta aetb
b a
= 1 p + pet(b

EetX

= e
donde u = t (b

a) y

(u) =

(0) =

(u) =

a) ; entonces

pt(b a)

;
p + peu ) : Dado que

pu + log (1
0

por lo tanto

(u)

a)

a= (b

p+

p
p + (1

p) e

(0) = 0: Ms an
00

(u) =

p (1 p) e u
(p + (1 p) e u )2

observe que el mximo valor de la funcin z= p + p1 z


por el Teorema de Taylor se tiene que para algn
(u) =

a)2
8

43

con z = p (1

2 [0; u]

(0) + u 0 (0) +
u2
8
t2 (b

1
;
4

u2
2

00

( )

p) e

; es 14 : Ahora,

Demostracin del Teorema 21. Solo probaremos la cota inferior (la prueba para la cota superior es similar). Sea Yi = Xi
con media cero y rango [ai
P (Sn

EXi , entonces las Yi son variables aleatorias independientes.

") = P (Y1 +

ESn

EXi ] : Para cualquier t > 0; se sigue

EXi ; bi

") = P et(Y1 +

+ Yn

+Yn )

Eet(Y1 +
et"

et"

+Yn )

esto ltimo es por la Desigualdad de Markov (Teorema 14). Por la independencia de los Yi
y usando el Lema 20 para cada Yi ; obtenemos que
P (Sn

ESn

EetY1

")

EetYn
et"

t2 (b1 a1 )2 =8

2 (b
n

et

et"

an )2 =8

sea t = 4"=D, se sigue que


P (Sn

")

ESn

2"2 =D

Demostracin del Corolario 24. Tenemos que


t2 t3
e =1+t+ + +
2! 3!
t

y e

=1

t2
t+
2!

t3
+
3!

entonces
1 et + e
+
2
4

1
1+1
t t
t2 + t2
+(
)+(
)+(
)+
2
4
4
4(2!)
t2
t4
t2k
= 1+ +
+
+
+
4
2(4!)
2(2k)!
t2k
t2
2
1+ +
+ k +
= et =4 ;
4
4 k!
=

por lo que el resultado se sigue del Teorema 23.


Demostracin del Corolario 25. Tenemos que d(x; A)
obtenemos lo siguiente
Z
Z
td(x;A)
e
dPn
In

p
fx2In :d(x:A) " ng

etd(x;A) dPn
44

p
" n =) td(x; A)

Pn fx 2 In : d(x; A)

p
t" n; de donde

p
p
" nget" n ;

por lo que
Pn fx 2 In : d(x; A)
Como

" ng

p
t" n

etd(x;A) dPn :

In

1
2
et n=4 ;
Pn (A)

etd(x;A) dPn

In

por el Corolario 24, entonces


Pn fx 2 In : d(x; A)

" ng

e t" n t2 n=4
e
:
Pn (A)

p
Haciendo t = 2"= n;
p
2"
(p
)" n

2"
e "
e t" n t2 n=4 e n
(p
)n=4
e
=
e n
;
=
Pn (A)
Pn (A)
Pn (A)

con lo que queda completa la demostracin.


Demostracin de la Proposicin 33. Primero supongamos que w = 0 2 UA (x) ; lo que
signica que wi = 0 para todo 1
z 2 A; tal que zi = xi para todo 1
entonces wi = 0 para todo 1

i
i

n; entonces por la denicin de UA (x) existe un


n; por lo que x 2 A: Ahora supongamos que x 2 A;

n; por lo que w = 0 2UA (x) :

Demostracin del Lema 35. Supongamos que dc (x; A) = r: Entonces d (VA (x) ; 0) = r;
y como VA (x) es cerrado, entonces existe t = (t1 ; t2 ; : : : ; tn ) 2 VA (x) tal que jtj = r:
Observemos que UA (x)

f0; 1gn entonces UA (x) es nito, supongamos que


UA (x) = fw1 ; w2 ; : : : ; wk g ;

ahora bien t est en la envolvente convexa de UA (x) por lo que es una combinacin convexa
k
k
P
P
de elementos en UA (x) (i.e. t =
w
;
donde
0;
i i
i
i = 1 y wi 2 UA (x) ). En
i=1

i=1

virtud de que, por denicin de UA (x); para todo wi 2 UA (x) existe zwi 2 A
A

x = f(a1

x1 ; a2

x2 ; : : : ; an

x (donde

xn ) : (a1 ; a2 ; : : : ; an ) 2 Ag), tal que (zwi )j (la j-

sima coordenada de zwi ) es distinta de cero, lo que implica que (wi )j es distinto de cero
tambin. Como A y x viven ambos en [ 1; 1]n ; entonces cada coordenada de cada elemento

45

de A

x tiene valor absoluto menor o igual a 2. Por lo tanto (zwi )j

0 entonces (zwi )j tambin es 0; si (wi )j es 1 entonces 2 (wi )j = 2


zt =

k
X

2 (wi )j (si (wi )j es

(zwi )j ). Ahora, sea

i zw i :

i=1

Como A es convexo, A

x es convexo y por lo tanto zt 2 A

zt = (y1 ; y2 ; : : : ; yn ) entonces jyi j


para alguna a 2 A; por lo que ja

2ti ; por lo tanto jzt j

2 jtj

x: Observemos que, si
2r; y como zt = a

2r; de donde se sigue que

xj

d (x;A) = inf fja


a2A

2r:

xjg

Demostracin del Lema 36. Primero observemos que si t 2 UAxn (x), entonces por la denicin de Axn y UAxn (x); tenemos que (t;0) 2 UA (x) y si u 2 UB (x) entonces (u;1) 2 UA (x):
Con lo anterior tenemos que si t 2 VAxn (x) y u 2 VB (x); entonces para todo 0
( (t;0) + (1

) (u; 1)) = ( t+ (1

) u ;1

) 2 VA (x):

Por lo tanto, por la denicin de distancia combinatoria tenemos que


d2c (x; A)

(1

)2 + j t + (1

)uj2 ;

por la convexidad de la funcin cuadrada y la desigualdad del tringulo se sigue que


d2c (x; A)

(1

)2 + jtj2 + (1

) juj2 ;

por lo tanto
d2c (x; A)

(1

)2 + d2c (x; Axn ) + (1

46

)d2c (x; B):

1;

Bibliografa
[1] Anderson, G. W., Guionnet, A., Zeitounni, O. (2009). An introduction to random matrices. Cambridge Studies in Advanced Mathematics.
[2] Ash R. B., Dolans-Dade, C. A. (2000). Probability and measure theory. Academic Press.
[3] Bai, Z., Silverstein J. W. (2010). Spectral Analysis of Large Dimensional Random Matrices 2nd edition. Springer.
[4] Domnguez Molina, J. A., Rocha Arteaga, A. (2011). El teorema de Wigner para matrices aleatorias. Miscelnea Matemtica de la Sociedad Mexicana de Matemticas no.
52.
[5] Gromov, M., Milman, V.D. (1983). A topological application of the isoperimetrical inequality. American J. of Math., Vol. 105, N4, 843-854.
[6] Ledoux, M. (2001). The concentration of measure phenomenon. Surveys and Monographs, 89.
[7] Maurey, B. Vase http://65.54.113.26/Author/1011386/bernard-maurey.
[8] Milman, V. D. (1971). A new proof of the theorem of A. Dvoretzky on sections of convex
bodies. Functional Analysis and its Applications, vol. 5, no. 4, 28-37.
[9] Pisier, J. G. G. Vase http://www.gap-system.org/~history/Biographies/Pisier.html.
[10] Rockafellar, R. T. (1970). Convex Analysis. Princeton University Press.
47

[11] Talagrand, M. (1996). A New Look at Independence. The Annals of Probability, Vol.
24.
[12] Talagrand, M. (1995). Concentration of measure and isoperimetric inequalities in product spaces. Publications mathmatiques de lI.H..S., tome 81.
[13] Tao, T. (2012). Topics in Random Matrix Theory. Graduate Studies in Mathematics.
Volume 132, American Mathematical Society.

48

Вам также может понравиться