Вы находитесь на странице: 1из 5

Convergencia en distribucion

Primero demos unas definiciones preliminares.


Definici
on 1. Dada una variable aleatoria (v. a.) X en un espacio probabilstico (e. p.)
(, F, P), su distribucion es la funcion definida en or(R) (subconjuntos borelianos de
R) por,
(B) = P(X B) = P(X 1 (B)), B or(R)
Si es la distribucion de una variable aleatoria, entonces (R, or(R), ) es un espacio
probabilstico. Algunas veces se escribira como L(X), tambien se suele escribir X
para indicar que es la distribucion de la v. a. X.
Se define a la funcion de distribucion acumulada de una v. a. X por,
FX (x) = P(X x),

x R

FX es continua por la derecha, no decreciente y


lm FX (x) = 1,

x+

lm FX (x) = 0

La cercana de las v. a. puede caracterizarse utilizando los tres tipos de convergencia


(en casi todo punto, en probabilidad y en media), sin embargo para que se den estas
convergencias, las v. a. deben estar definidas en un espacio probabilstico com
un. A
continuacion se daran resultados que nos permiten analizar la cercana de las v. a. que
pueden estar definidas en e. p. diferentes (o puede incluso no conocerse el e. p. en el que
estan definidas) pero que tienen distribuciones similares.
Definici
on 2. Dadas las distribuciones de probabilidad borelianas , 1 , 2 , . . . escribiremos n = y decimos que {n }nN converge debilmente a si,
Z
Z
f dn
f d, cuando n
R

para cualquier funcion acotada y continua1 f : R R.


1

Esto significa que la topologa de R se usa para este resultado y no solamente sus propiedades de
espacio medido.

Teorema 1. Las siguientes afirmaciones son equivalentes:


1. n =
2. n (A) (A) para cualquier A tal que (A) = 0, donde A es la frontera2 de
A.
3. n ((, x]) ((, x]) para todo x R tal que ({x}) = 0.
4. (Teorema de Skorohod) Existen v. a. Y, Y1 , Y2 , . . . definidas en el mismo e. p. con
L(Y ) = y L(Yn ) = n para todo n N, tales que Yn Y casi en todo punto
(con probabilidad 1).
R
R
5. R f dn R f d para toda funcion boreliana f : R R tal que (Df ) = 0,
donde Df es el conjunto de puntos de discontinuidad de f .
Demostracion. Demostremos como cadena de equivalencias.
Es inmediato que (5) = (1) porque es la definicion.
(5) = (2) de sigue de tomar f = 1A , entonces Df = A y (Df ) = (A) = 0.
Por tanto
Z
Z
n (A) = f dn f d = (A).
(2) = (3) es inmediato porque la frontera de (, x] es {x}.
(1) = (3): Sean  > 0 y f la funcion definida por f (t) = 1 si t x, f (t) = 0 si
t x +  y f vara linealmente en (x, x + ).
Entonces f es continua con 1(,x] f 1(,x+] . Por tanto, gracias a que
n =
Z
Z
lm sup n ((, x]) lm sup f dn = f d ((, x + ])
n

es decir,
lm sup n ((, x]) ((, x + ])

(1)

De manera similar se define una funcion g de la forma: g(t) = 1 si t x, g(t) = 0


si t x y g vara linealmente en (x , x). Entonces 1(,x] g 1(,x] y se
tiene que
Z
Z
lm nf n ((, x]) lm nf f dn = f d ((, x ])
n

lm nf n ((, x]) ((, x ])

n
2

(2)

A = {x R :  > 0, A (x , x + ) 6= , Ac (x , x + ) 6= }

Dado que las desigualdades en (1) y (2) se cumplen para cualquier  > 0, concluimos que
lm sup n ((, x]) ((, x))
n

lm nf n ((, x]) ((, x))

Como {x} = 0, entonces ((, x]) = ((, x) y por tanto


lm sup n ((, x]) = lm nf n ((, x]) = ((, x])

como se quera.
(3) = (4): Primero enunciemos un lema3 que sera u
til en la demostracion de este
apartado.
Lema 1. Sea U una v. a. que tiene distribucion uniforme en [0, 1]. Sea F cualquier
funcion de distribucion acumulada y el conjunto (u) = nf{x : F (x) u} para
0 < u < 1. Entonces P((U ) x) = F (z) para cada z R, es decir, la funcion
de distribucion de (U ) es F .
Ahora definimos las funciones de distribucion acumuladas por
Fn (x) = n ((, x]) F (x) = ((, x])
Entonces si (, F, P) es el espacio probabilstico con la medida de Lebesgue en
[0, 1] y tomamos
Yn (w) = nf{x : Fn (x) w} Y (w) = nf{x : F (x) w}
se sigue, por el lema anterior que L(Yn ) = n y L(Y ) = . Notar que si F (z) < a,
entonces Y (u) z; mientras que si F (z) b, entonces Y (b) z.
Por hipotesis, {Fn } F en la mayora de puntos. Notar que Y es no decreciente
y por resultados del Analisis Real, Y tiene a lo mas un conjunto numerable de
discontinuidades.
Como los conjuntos numerables tienen medida de Lebesgue 0, esto implica que
{Yn } Y con probabilidad 1.
En efecto, supongamos que Y es continua en w y sea y = Y (w). Para cualquier
, se tiene que F (y ) < w < F (y + ). Ademas, si F (y ) = w, entonces
tomando w = y  y b = w se tendra que Y (w) y  = Y (w)  lo que es una
contradiccion.
Por otro lado, tampoco se puede tener que F (y + ) = w porque tomando z = y + 
y a = w + se tiene que Y (w + ) y +  = Y (w) + , para todo > 0 lo que
contradice la continuidad de Y en w. Por tanto
F (y ) < w < F (y + ).
3

La demostraci
on de este lema no se detalla aqu pero se la puede encontrar en el libro de J. S.
Rosenthal, A first look at rigorous Probability Theory, en la pagina 74.

Luego, dado  > 0 tomamos 0 tal que 0 < 0 <  y {y 0 } = {y + 0 } = 0.


Entonces Fn (y 0 ) F (y 0 ) y Fn (y + 0 ) F (y + 0 ), por lo tanto
Fn (y 0 ) < w < Fn (y + 0 )
para n suficientemente grande. Ahora tomando z = y 0 y a = w, w = y + 0 y
b = w; se tiene que
y 0 Yn (w) y + 0 |Yn (w) Y (w)| 0 < 
para n suficientemente grande. Por tanto,
Yn (w) Y (w)
(4) = (5): Recordemos que si f es continua en x y {xn } x entonces f (xn )
f (x). Por tanto, si {Yn } Y , entonces f (Yn ) f (Y ).
Se sigue que
P[f (Yn ) f (Y )] P[{Yn } Y 6 Df ]
Pero por hipotesis, P[{Yn } Y ] = 1 y P[Y 6 Df ] = (Dfc ) = 1. Entonces
P[f (Yn ) f (Y )] = 1.
Si f es acotada, entonces por el Teorema de la convergencia dominada,
Z
Z
f dn f d E[f (Yn )] E[f (Y )]
Con esto se termina la demostracion.
Definici
on 3. Sean X, X1 , X2 , . . . v. a. (dadas en general en e.p. diferentes) tales que
L(Xn ) = Fn para cada n N y L(X) = F. Si Fn = F, se dice que Xn converge a X
en distribucion y se escribe Xn = X (sin riesgo de confusion).
d

Tambien se dice que Xn converge debilmente a X y se escribe Xn X


Proposici
on 1. Si {Xn } X en probabilidad, entonces L(Xn ) = L(X).
Demostracion. Sea  > 0, si X > z +  y |Xn X| < , entonces se debe tener que
Xn > z. Es decir,
{X > z + } {|Xn X| < } {Xn > z}
Tomando complementos, {X z + } {|Xn X| } {Xn z}. Entonces, por
propiedades de la probabilidad
P(Xn z) P(X z + ) + P(|Xn X| )

Referencias

Referencias

Como {Xn } X en probabilidad, se tiene que


lm sup P(Xn z) P(X z + )

haciento  0 se tiene que lm sup P(Xn z) P(Z z) Haciendo un razonan


miento similar para el lmite inferior, intercambiamos X y Xn , reemplazamos z con z 
y obtenemos
P(X z ) P(Xn z) + P(|Xn X| )
P(Xn z) P(X z ) P(|X Xn | )
entonces
lm nf P(Xn z) P(X z )

y haciendo  0 lm nf P(Xn z) P(X z).


n

Si P(Xn z) = 0, entonces P(Xn < z) = P(Xn z) por lo que debemos tener,


lm nf P(Xn z) = lm P(Xn z) = P(X z)

de donde
lm L(Xn ) = L(X)

como se quera.

Referencias
[1] BOROVKOV, Alexandr, Probability Theory, Springer, 2013, captulo 6, seccion 6.2
Convergence of distributions.
[2] ROSENTHAL, Jeffrey S. A first look at rigorous Probability Theory, Second Edition,
World Scientific, 2006, captulo 10: Weak Convergence.
Luis, Curso intermedio de Probabilidad, Departamento de Matematicas,
[3] RINCON,
Facultad de Ciencias UNAM, 2007, pp: 294.

Вам также может понравиться