Академический Документы
Профессиональный Документы
Культура Документы
Luis Arenas
February 6, 2011
Chapter 1
Espacios de Probabilidad
Finitos.
Al lanzar una moneda se tienen dos resultados posibles: Cara y Sello. La
pregunta sobre cual es la probabilidad de obtener cara se interpreta en
matematicas como una funcion que asigna a cada elemento del conjunto
= {cara, sello} un n
umero real en el intervalo [0, 1] llamado su probabilidad. En otras palabras, el problema esta totalmente determinado si se
conocen las probabilidades p(cara) y p(sello). Por ejemplo, se dice que la
moneda esta equilibrada si p(cara) = p(sello). Uno asume, de hecho, que
el conjunto contiene todas las posibilidades. En particular, desestimamos
la probabilidad de que la moneda quede parada de canto o un ave la devore mientras esta en el aire. Esto se expresa matematicamente mediante la
ecuacion
p(cara) + p(sello) = 1.
Por cierto podemos, por ejemplo, incluir la tercera probabilidad considerando
un nuevo conjunto A0 = {cara, sello, canto} y asignar a sus elementos probabilidades que satisfagan la ecuacion
p(cara) + p(sello) + p(canto) = 1,
y modelar el hecho de que consideramos la tercera altermativa como extremadamente improbable mediante una condicion del tipo p(canto) << 1.
Mas generalmente, una funcion de probabilidad en el conjunto finito es
una funcion p : [0, 1] que satisface
X
p() = 1.
L. Arenas-Carmona
iI
L. Arenas-Carmona
sera C = {4, 6}. En este caso se tiene P (B) = 1/2 y P (C) = 1/3. En otras
palabras, la probabilidad del evento n
umero par es de 1/2 y la probabilidad
del evento n
umero compuesto es de 1/3. El u
nico elemento de B que no esta
en C es el 2, y de hecho p(2) = 1/6 = P (B) P (C). El evento B C c = {2}
es la interseccion de los eventos B y C c , el complemento de C. Tambien
diremos que corresponde al evento n
umero primo y n
umero par o n
umero
primo y par. Utilizaremos tambien la notacion
P (n
umero primo y par) = 1/6.
Las uniones se trataran de igual modo.
****************************
ejemplo 1.2. Se arroja una moneda dos veces. En este caso hay 4 resultados
posibles (sin considerar caidas de canto o aves tragamonedas):
n
o
= (cara, cara), (cara, sello), (sello, cara), (sello, sello) .
Si la moneda esta equilibrada, es razonable asumir que estas cuatro alternativas son igualmente probables y tiene cada una la probabilidad 1/4. En
este caso la probabilidad de obtener una cara en la primera tirada es la
probabilidad del evento
n
o
B = (cara, cara), (cara, sello) .
De hecho P (B) = 1/2, que es la misma probabilidad que asociamos a la
obtencion de una cara en el lanzamiento de una moneda. Del mismo modo,
la probabilidad de obtener una cara en la segunda tirada es la probabilidad
del evento
n
o
C = (cara, cara), (sello, cara) .
Como antes se tiene P (C) = 1/2. Notese que en particular que
h
i
P {(cara, cara)} = 1/4 = 1/2 1/2.
En otras palabras, para obtener la probabilidad de obtener una cara en cada
lanzamiento, multiplicamos la probabilidad de obtener una cara en el primer
lanzamiento por la probabilidad de obtener una cara en el segundo lanzamiento. Intuitivamente, consideramos que si la probabilidad de obtener una
cara en el segundo lanzamiento es 1/2, la probabilidad de obtener (cara, cara)
es la mitad de la probabilidad de obtener una cara en el primer lanzamiento.
A continuacion formalizaremos este concepto.
L. Arenas-Carmona
definici
on 1.3. Dos eventos B y C se dicen independientes si P (B C) =
P (B)P (C).
ejemplo 1.4. En el caso de la moneda arrojada dos veces, el evento de
obtener cara en la primera tirada es independiente del evento de obtener
cara en la segunda tirada.
definici
on 1.5. Para Dos eventos B y C cualesquiera, tales que P (B) 6= 0,
se define la probabilidad condicionada P (C|B) = P (B C)/P (B). Similarmente, para un elemento B se define p(|B) = p()/P (B), mientras
que p(|B) = 0 si B c . La funcion 7 p(|B) es una funcion de
probabilidad, ya que es positiva y se tiene
X
p(|B) =
p(|B) =
X p()
1 X
P (B)
=
p() =
= 1.
P
(B)
P
(B)
P
(B)
B
B
La probabilidad condicionada es frecuentemente interpretada como la probabilidad a posteriori una vez que se ha establecido que el evento B ocurre.
Se sigue de la definicion que B y C son independientes si y solo si
P (C|B) =
P (C B)
P (C)P (B)
=
= P (C).
P (B)
P (B)
En otras palabras, el conocimiento de que el evento B ocurre no afecta nuestro calculo de la probabilidad del evento C. Intuitivamente, pensamos que
dos eventos son independientes si ninguno de ellos es consecuencia del otro
ni existe una causa com
un a ambos. Por ejemplo, si yo ignoro la hora que
marca mi reloj de pulsera, pero observo que el reloj de la plaza marca las
5, es mucho mas probable que mi reloj marque una hora cercana a las 5
que una hora cercana a la una. Esto se debe a que existe una causa com
un
a ambos fenomenos (ambos relojes marcan la hora). Por otro lado, en el
ejemplo de las monedas, nuestra intuicion nos dice que la primera vez que
tiramos la moneda no afecta la segunda, por lo que ambos eventos deben
ser independientes. Uno espera naturalmente que si no existe relacion causal
alguna entre dos fenomenos, nuestro conocimiento de uno no influya en nuestro conocimiento del otro, de modo que en particular, nuestro calculo de las
probabilidades asociadas al segundo fenomeno no deben ser influenciadas por
nuestro conocimiento del primero. Es esta consecuencia de la nocion intuitiva
de dependencia la que se utiliza como definicion en la teora matematica, a
falta de una manera mas directa de traducir a smbolos la nocion intuitiva
L. Arenas-Carmona
iI
L. Arenas-Carmona
En particular se tiene
P (Ai |B) =
P (BAi )
P (B)
P P (B|Ai )P (Ai )
.
iI P (B|Ai )P (Ai )
(1.2)
X()p() +
L. Arenas-Carmona
Bi
E(X|Bi )P (Bi ).
Bi P
Por cierto, la suma precedente no cambia si se remplaza R(X) por un conjunto mayor. En lo que sigue escribiremos simplemente
X
rP (X = r),
E(X) =
rR
n
X
k=1
E(Xk ) =
n
X
k=1
1/n = 1.
L. Arenas-Carmona
definici
on 1.9. Dos variables aleatorias X y Y se dicen independientes si
para todo par de n
umeros reales r y s los conjuntos Ar (X) y As (Y ) son
independientes. En este caso se tiene
P (X = s|Y = r) = P (X = s)
para cada par de n
umeros reales s y r tales que P (Y = r) 6= 0. Se sigue que
X
X
E(X|Y = r) =
sP (X = s|Y = r) =
sP (X = s) = E(X)
sR
sR
rR(Y )
rE(X|Y = r)P (Y = r) =
rR(Y )
rE(X)P (Y = r) = E(X)E(Y ),
rR(Y )
(1 ,2 )
2 2
!
X
p1 (1 )
1 B1
!
X
p2 (2 )
2 B2
Dado que
(B1 2 ) (1 B2 ) = B1 B2 ,
se tiene que los eventos
B 1 = B1 2 y B 2 = 1 B2
son independientes. En particular, tomando B1 = Ar1 (X1 ) y B1 = Ar1 (X1 )
para variables aleatorias X1 y X2 y n
umeros reales r1 y r2 cualesquiera, se
tiene el siguiente resultado:
L. Arenas-Carmona
Si cada Xi es una variable aleatoria que depende solo de la coordenada i , las variables X1 y X2 son independientes con respecto
a la medida de probabilidad producto.
Por otro lado se tiene que, si X depende solo de 1 , es decir X(1 , 2 ) =
Y (1 ), entonces
X
EP (X) =
X(1 , 2 )p(1 , 2 ) =
(1 ,2 )
X
1 1
Y (1 )p1 (1 )
p2 (2 ) =
2 2
Y (1 )p1 (1 ) = EP1 (Y ).
1 1
En general uno puede identificas una variable aleatoria que depende solo de
la primera variable con una variable aleatoria en el espacio 1 . Del mismo
modo, todo evento de la forma B1 2 se identifica con el evento B1 en 1 .
Todas estas consideraciones se aplican a productos de mas de dos factores.
ejemplo 1.10. La variable aleatoria X : {0, 1} R definida por X() =
recibe el nombre de V.A. de Bernouilli. Supongamos que cada conjunto
i = {0, 1} tiene dada la funcion de probabilidad definida por p(1) = q,
p(0) = 1 q con p y q fijos. Esto induce una probabilidad producto en el
producto cartesiano
n
.
i
i=1
L. Arenas-Carmona
10
Chapter 2
Espacios de Probabilidad
Numerables.
En este captulo extenderemos las definiciones anteriores al caso en el cual el
espacio = {1 , . . .} es numerable. En este caso una funcion de probabilidad
en es una funcion p : [0, 1] tal que
p(i ) = 1,
i=1
donde la suma debe entenderse como una serie convergente, y por lo tanto
absolutamente convergente ya que se trata de una serie de terminos positivos.
En particular, el orden de los terminos es irrelevante y puede escribirse simplemente
X
p() = 1.
Las propiedades 1-6 del captulo anterior se extienden facilmente a este caso.
Por ejemplo se tiene
11
L. Arenas-Carmona
12
Proposici
on 2.1. Si B1 y B2 son subconjuntos de , entonces
P (B1 B2 ) = P (B1 ) + P (B2 ) P (B1 B2 ).
Demostraci
on Sigue inmediatamente de la formula
B1 B2 () = B1 () + B2 () B1 B2 ().
Las restantes propiedades se deducen facilmente de esta o se generalizan
de manera similar. De hecho, la propiedad 5 se generaliza a familias numerables, es decir:
Proposici
on 2.2. Si {Bi }iN
es una familia
numerable de conjuntos disjun
S
P
tos, entonces i=1 P (Bi ) = P
i=1 Bi .
Demostraci
on Enumeremos = {1 , . . . , } como al comienzo y sea
RM = {M , M +1 , . . . , }. Notese que P (RS
M ) 0 cuando M por ser la
cola de una serie convergente. Sea U =
i=1 Bi . Para cada entero positivo
SN
N considerese el conjunto UN = i=1 Bi . Observese que P (UN ) P (U ) por
la propiedad 6. Por otro lado, si N es suficientemente grande todo j con
j < M que esta contenido en alg
un Bi , esta de hecho contenido en un Bi con
i N . Se sigue que el conjunto diferencia U UN esta contenido en RM , de
donde
0 P (U UN ) P (RM ) 0.
Como U = UN (U UN ), se tiene P (UN ) = P (U )P (U UN ) P (U ).
ejemplo 2.3. Se lanza una moneda todas las veces necesarias hasta obtener
una cara por primera vez. En este caso, el conjunto es el conjunto de todas
las secuencias finitas
cara , sello cara , sello sello cara , sello sello sello cara, . . .
Llamaremos i al i-esimo termino de la sucesion precedente. Para una moneda equilibrada se tiene p(i ) = 2i . En este caso, la probabidad de obtener
un n
umero par de lanzamientos es
X
i=1
p(2i ) =
X
i=1
22i = 1/3.
L. Arenas-Carmona
13
p(i ) = 1
i=1
2i = 0.
i=1
En este caso diremos que el evento es improbable. Esto no quiere decir que
sea imposible realizar un n
umero infinito de tiradas, sino que la probabilidad
de que eso ocurra es 0. Esta distincion sera mas clara en el proximo captulo.
La variable aleatoria que cuenta el n
umero de tiradas necesarias hasta obtener
la primera cara recibe el nombre de tiempo de espera asociado al evento cara.
ejemplo 2.4. Si = {1 , 2 , . . .} de modo que p(i ) =
tiene una distribucion de Poisson. Notese que la formula
1++
i
,
i!
se dice que
2
+ . . . = e
2!
.
q (1 q)
=
r!
n
n
r!
r
i=0
La Distribucion de Poisson se utiliza por ejemplo para estimar la probabilidad
de encontrar un n
umero dado n de peces en una peque
na porcion de un
estanque (que hace el papel de caja), asumiendo que la densidad de peces
en el estanque es conocida. Tambien puede utilizarse inversamente, para
conocer la densidad de peces en el estanque observando la distribucion del
n
umero de peces en una region peque
na.
Una variable aleatoria se define como una funcion arbitraria X :
R {}. Diremos que es finita si su imagen esta contenida en R. La
probabilidad P (X = r) se define como antes. En el caso numerable no es
L. Arenas-Carmona
14
Enumeremos los elementos de R(X) = {r1 , . . .}. Existe un N > 0 tal que
N
X
P (X = ri ) > 1 .
i=1
X
E(X) =
X(i )p(i ),
i=1
si esta serie resulta ser absolutamente convergente. En tal caso diremos que
la variable aleatoria X tiene esperanza definida o que es integrable. Si X es
integrable el orden de los sumandos no interesa y puede escribirse
X
E(X) =
X()p().
L. Arenas-Carmona
15
ejemplo 2.7. Notese que resulta muy sencillo definir variables aleatorias
finitas cuya esperanza no converge: Por ejemplo, si se lanza una moneda
simetrica i veces para obtener una cara, se tiene que la variable aleatoria
X(i ) = 2i no tiene esperanza definida, ya que la serie
X(i )p(i ) =
i=1
2i 2i =
i=1
i=1
no converge.
ejemplo 2.8. Si B es un evento, la funcion caracterstica B es una
variable aleatoria. Su esperanza esta dada por
E(B ) =
B (i )p(i ) =
p(i ) = P (B).
i B
i=1
F [X(i )]p(i ),
i=1
|X(i )|p(i ).
i=1
L. Arenas-Carmona
16
X()p() +
Proposici
on 2.11. La funci
on X 7 E(X) es mon
otona, en el sentido de
que si X() < Y () para todo , se tiene E(X) < E(Y ).
Demostraci
on
E(X) =
X()p()
Y ()p() = E(Y ).
ejemplo 2.12. Si K1 < X() < K2 para todo , se tiene K1 < E(X) <
K2 .
ejemplo 2.13. Si X es una variable aleatoria integrable arbitraria se tiene
|X| X |X|, por lo que E(|X|) E(X) E(|X|), es decir |E(X)|
E(|X|).
ejemplo 2.14. Si X es una variable aleatoria finita no negativa, entonces se
tiene XA XB para todo par de subconjuntos A y B de con A B,
por lo que E(XA ) E(XB ). En particular, tomando B = se tiene
E(XA ) E(X).
ejemplo 2.15. Si X es una variable aleatoria integrable, entonces se tiene
para todo subconjunto B de la identidad
X
X
E(XB ) =
X()B ()p() =
X()p(|B)P (B) = E(X|B)P (B).
L. Arenas-Carmona
17
si P = {B1 , . . . , Bn } es una particion finita de . Esta formula puede demostrarse alternativamente utilizando las funciones caractersticas. De hecho, siendo P una particion finita se tiene
n
X
Bi = 1,
i=1
de donde
E(X) = E
n
X
!
Bi
i=1
n
X
i=1
E(XBi ) =
n
X
E(X|Bi )P (Bi ).
i=1
Diremos que una sucesion {Xn }nN de variables aleatorias converge a una
variable aleatoria X si para todo se tiene Xn () X().
Proposici
on 2.16. Supongamos que la sucesi
on {Xn }nN de variables aleatorias acotadas por una misma constante K converge a una variable aleatoria
X. Entonces E(Xn ) converge a E(X).
Demostraci
on Sea > 0. Para cada , sea N = N (, ) el
menor entero tal que |Xn () X()| < para todo n > N . La funcion
7 N (, ) es una variable aleatoria finita (por hipotesis) que denotaremos
N . En particular, P (N > n) 0 cuando n . Ahora bien:
E(|Xn X|) = E |Xn X|N > n P (N > n)+
E |Xn X|N n P (N n) 2KP (N > n) + .
Como > 0 era arbitrario, se concluye E(|Xn X|) 0 cuando n .
Esto implica
0 E(Xn ) E(X) E(|Xn X|) 0,
de donde E(Xn ) E(X).
Proposici
on 2.17. Supongamos que sucesi
on {Xn }nN de variables aleatorias converge uniformemente a una variable aleatoria X. Entonces E(Xn )
converge a E(X).
L. Arenas-Carmona
18
Demostraci
on Basta tomar Yn = Xn X y observar que |Yn | esta
acotado por 1 para n suficientemente grande, por lo que E(Yn ) 0.
Notese que es posible dar una demostracion directa del corolario observando que para n suficientemente grande se tiene X < Xn < X + . Los
detalles se dejan al lector.
Hay un segundo teorema de convergencia mas fuerte que el de convergencia acotada que utilizaremos en lo que sigue. Para ello necesitamos alguna
preparacion.
Proposici
on 2.18. Sea Y una V.A. positiva e integrable. Existe una medida
de probabilidad PY tal que para toda variable aleatoria X se tiene EY (X) =
E(XY )/E(Y ) si alg
un lado de la ecuaci
on converge.
Demostraci
on Para cada se define pY () = Y ()p()/E(Y ).
Dejamos al lector la tarea de comprobar que esta formula define una funcion
de probabilidad. La esperanza de X con respecto a esta medida esta dada
por
X
X
EY (X) =
X()pY () =
X()Y ()p()/E(Y ),
Proposici
on 2.20. Si X es una variable aleatoria y F : R R es una
funcion, entonces toda variable aleatoria Y que es independiente con X es
independiente con F (X).
L. Arenas-Carmona
19
Demostraci
on Sean r, s R. Basta probar que
P F (X) = r, Y = s = P F (X) = r P (Y = s).
Para eso observamos que F (X) = r implica X = t para alg
un t F 1 (r).
Se sigue que
X
P F (X) = r, Y = s =
P (X = t, Y = s)
tF 1 (r)
tF 1 (r)
definici
on 2.21. Una variable aleatoria X : R se dice simple si existe
una particion P = {B1 , . . . , Bn } de tal que X es constante en cada conjunto
Bi . En este caso puede considerarse a X como una funcion definida en P
y el calculo de su esperanza se reduce al calculo de la esperanza de una
variable aleatoria definida en un espacio finito. Utilizaremos a menudo esta
observacion en lo que sigue.
Proposici
on 2.22. Si X e Y son variables aleatorias independientes e integrables y al menos una es simple, se tiene E(XY ) = E(X)E(Y ).
Demostraci
on Suponiendo que Y es simple, se tiene que su rango R(Y )
es finito y se tiene, tal como en el caso finito:
X
E(XY ) =
E(XY |Y = r)P (Y = r)
rR(Y )
E(Xr|Y = r)P (Y = r) =
rR(Y )
rE(X|Y = r)P (Y = r)
rR(X)
rE(X)P (Y = r) = E(X)E(Y ).
rR(Y )
Proposici
on 2.23. Toda variable aleatoria acotada X es lmite uniforme de
variables aleatorias simples que son funciones en X.
L. Arenas-Carmona
20
Demostraci
on Sea X una variable aleatoria tal que para todo
se tiene K X() K. Se define Xn () = nk si nk X() < k+1
es
n
inmediato que para todo n y todo se tiene |Xn () X()| < n1 . El
hecho de que cada Xn es simple sigue si observamos que Xn toma solo valores
de la forma nk con K n1 < nk < K por lo que hay solo una cantidad finita
de valores posibles. Por otro lado, es inmediato que Xn = n1 [nX] donde [a]
denota la funcion parte entera de a.
Proposici
on 2.24. Si X e Y son variables aleatorias independientes e integrables y al menos una es acotada, se tiene E(XY ) = E(X)E(Y ).
Demostraci
on Si K X K escribimos X como un lmite uniforme de variables aleatorias Xn que son tambien independientes de Y .
Como |Y Xn | esta acotada por la V.A. integrable KY , se tiene por un lado
E(Xn Y ) E(XY ) y por otro E(Xn Y ) = E(Xn )E(Y ) E(X)E(Y ).
El resultado anterior es valido bajo la hiptesis de independencia e integridad de ambas variables solamente. A fin de demostrarlo, necesitaremos
un teorema de descomposicion de la esperanza para particiones numerables.
Proposici
on 2.25. Sea X una variable aleatoria integrable. Entonces
E(X|X n)P (X n) 0, cuando n .
Demostraci
on Sea Yn la variable aleatoria que vale 0 si X < n y 1 si
no. Entonces
E(XYn ) = E(XYn |X n)P (X n) + E(XYn |X < n)P (X < n)
= E(X|X n)P (X n).
Se sigue que
E(X|X n)P (X n) = E(XYn ) = EX (Yn )E(X) = PX (X n),
y el resultado sigue de la Proposicion 2.5 que el u
ltimo termino tiende a
cero.
Proposici
on 2.26. Sea X una variable aleatoria integrable. si = {B1 , B2 . . .}
es una particion numerable de , se tiene
X
E(X) =
E(X|Bi )P (Bi ),
i=1
L. Arenas-Carmona
21
Demostraci
on Notese que
E(X|Bi )P (Bi ) E |X|Bi P (Bi ).
Remplazando X por |X| si es necesario podemos asumir que X es positiva.
Sea T una variable aleatoria tal que T () = n si y solo si Bn . Para cada
n
umero natural N la particion
N = {B1 , . . . , BN , CN }
donde CN =
i=N +1
Bi , satisface
E(X) =
N
X
i=1
por lo que basta probar que E(X|CN )P (CN ) converge a 0. Observese que
CN si y solo si T () > N por lo que el resultado sigue de la proposicion
precedente.
En particular, si tomamos la particion formada por los conjuntos
Ar (X) = { |X() = r},
se tiene:
Corolario 2.26.1. Si X una variable aleatoria integrable, entonces
X
E(X) =
rP (X = r),
rR(X)
donde el rango esencial R(X) puede remplazarse por cualquier conjunto mayor.
Tal como en el caso finito, podemos escribir
X
E(X) =
rP (X = r),
rR
L. Arenas-Carmona
22
Proposici
on 2.27. Si X e Y son variables aleatorias independientes e integrables, entonces XY es tambien integrable y se tiene E(XY ) = E(X)E(Y ).
Demostraci
on Supongamos primero que se sabe de antemano que XY
es integrable. Entonces podemos escribir como en el caso finito:
X
X
E(XY ) =
E(XY |Y = r)P (Y = r) =
E(Xr|Y = r)P (Y = r)
rR(Y )
rR(Y )
rE(X|Y = r)P (Y = r) =
rR(Y )
rE(X)P (Y = r) = E(X)E(Y ),
rR(Y )
Chapter 3
Espacios de probabilidad.
La teora desarrollada hasta aqu permite estudiar un gran n
umero de problemas, pero hay situaciones que no nos permite describir. Por ejemplo si
queremos construir un espacio asociado al problema siguiente:
Se arroja una moneda indefinidamente. Cual es la probabilidad
de que el n
umero de caras nunca supere al de sellos durante todo
el proceso?
Nos gustara estudiar este problema definiendo un espacio de probabilidad en
el cual se tuviera un punto por cada posible sucesion (infinita) de resultados
cara o sello. Notese que el conjunto de tales sucesiones no es numerable.
Otro problema de este tipo es el siguiente:
Se escoge un n
umero al azar entre 0 y 1 de modo que para cada
intervalo [a, b] la probabilidad de escoger un elemento de este es
b a.
En este captulo desarrollaremos una teora de probabilidades mas general,
que puede aplicarse a problemas de este tipo. Por simplicidad damos aqui
solamente las definiciones generales, posponiendo los resultados de existencia
(por ejemplo, de los espacios antes mencionados) a un captulo posterior (a
un
no escrito).
-Algebras
Antes de dar la definicion general de espacio de probabilidad, es necesario
hacer una observacion. Hasta aqu la probabilidad era una funcion definida
23
L. Arenas-Carmona
24
iN
definici
on 3.2. Un espacio medible es un par (, ) donde es un conjunto
y es una -algebra en .
ejemplo 3.3. Si es un conjunto arbitrario, la coleccion () de todos los
subconjuntos de es una -algebra. Si es finito o numerable, esta es la
u
nica -algebra que contiene a todos los conjuntos unitarios {}.
ejemplo 3.4. Si es un conjunto arbitrario, la coleccion X de todos los
subconjuntos A de tales que uno de los conjuntos A o Ac es numerable es
una -algebra.
ejemplo 3.5. Si f : es una funcion arbitraria, y si A es un subconjunto de , su pre-imagen f 1 (A) se define por:
f 1 (A) = { |f () A}.
L. Arenas-Carmona
25
iN
L. Arenas-Carmona
26
Medidas de Probabilidad
definici
on 3.9. Sea (, ) un espacio medible. Una medida en este espacio
es una funcion P : [0, ] que satisface las condiciones siguientes:
1. P () = 0.
2. Si {Ai }iN es una familia
S numerable de conjuntos disjuntos en , entonces su union A = iN Ai satisface
P (A) =
P (Ai ).
i=1
L. Arenas-Carmona
27
rQ
Proposici
on 3.18. Si X es una variable aleatoria y G : R R es una
funcion monotona, entonces G(X) = G X es una variable aleatoria.
L. Arenas-Carmona
28
Demostraci
on Basta ver que si G es creciente entonces para todo intervalo I en R, su preimagen G1 (I) es un intervalo, ya que entonces
{ |G[X()] I} = { |X() G1 (I)} .
Si a y b son elementos de G1 (I), entonces para todo c entre a y b el elemento
G(c) debe estar entre G(a) y G(b) por la monotona de G y por lo tanto
G(c) I, de donde c G1 (I).
Corolario 3.18.1. Si X es una variable aleatoria, entonces X tambien lo
es para toda constante . En particular combinaciones lineales de variables
aleatorias son variables aleatorias.
Corolario 3.18.2. Si X es una variable aleatoria y G : R R es una
funcion continua con un n
umero finito de m
aximos o mnimos, entonces
G(X) = G X es una variable aleatoria.
Demostraci
on Supongamos que G es monotona en cada uno de los
intervalos ] , x0 ], [x0 , x1 ], . . . , [xn1 , xn ], [xn , [. Basta escribir
G(x) =
n+1
X
Gi (x),
i=0
0 if
x xi1
G(xi ) G(xi1 ) if
x xi
para 1 i n, y finalmente
Gn+1 (x) =
0 if x xn
G(x) G(xn ) if x xn
Demostraremos al final de este captulo que G(X) es una variable aleatoria para toda funcion continua G.
Proposici
on 3.19. Productos de variables aleatorias son variables aleatorias.
L. Arenas-Carmona
29
Demostraci
on Si b, x, e y son positivos, entonces xy < b es equivalente
a x < r e y < b/r para alg
un racional positivo r, por lo que si X e Y fuesen
variables aleatorias positivas el resultado sigue como en el caso de la suma.
Para el caso general, escribimos X = G1 (X) G2 (X) e Y = G1 (Y ) G2 (Y ),
donde
G1 (t) = 1 + max{0, t},
G2 (t) = 1 + max{0, t},
y observamos que
XY = G1 (X)G1 (Y ) G1 (X)G2 (Y ) G1 (X)G2 (Y ) + G1 (X)G2 (Y ).
definici
on 3.20. Una Variable Aleatoria se dice discreta si su imagen
X() = {X()| }
es numerable. La esperanza de una variable aleatoria discreta X se define
por:
X
X
E(X) =
rP (X = r) =
rP (X = r).
rR
rX()
L. Arenas-Carmona
30
La esperanza condicional en la formula precedente se define como la esperanza con respecto a la probabilidad condicional, la que tambien se interpreta como una probabilidad en el conjunto numerable X . Del mismo
modo se demuestra que si X e Y son variables aleatorias discretas, podemos
considerarlas como variables aleatorias en el conjunto numerable X Y ,
de modo que cualquier combinacion lineal X + Y es discreta y se tiene
E(X + Y ) = E(X) + E(Y ). Asimismo, la definicion de independencia
se extiende facilmente a variables aleatorias discretas. Si X e Y son variables
aleatorias discretas, integrables, e independientes, entonces la esperanza de
XY esta definida y se tiene
E(XY ) = E(X)E(Y ).
definici
on 3.21. Se dice que una variable aleatoria X es integrable si
X
nP X [n, n + 1[
nZ
(3.1)
Sin embargo, las variables aleatorias Xn = n1 [nX] estan definidas y son discretas para toda variable aleatoria X. Se sigue que podemos utilizar la ecuacion
(3.1) para definir la esperanza de una variable aleatoria arbitraria. La desigualdad Xn X1 +1 prueba que cada variable aleatoria Xn tiene esperanza
bien definida y las desigualdades
1
1
Xm X Xm + ,
Xn X Xn + ,
n
m
1 1
implican |Xn Xm | Max{ n , m }, por lo que se tiene
1 1
|E(Xn ) E(Xm )| E|Xn Xm | Min
,
n m
para todo par de enteros m y n. Se sigue que la sucesion {E(Xn )} es de
Cauchy y por lo tanto converge.
Proposici
on 3.22. La esperanza es lineal.
L. Arenas-Carmona
31
Demostraci
on Probaremos primero que E(X) = E(X). Para esto
observamos que si nk x < k+1
entonces k1
< x k
. Se sigue que
n
n
n
para todo , (X)n () es igual a Xn () o a Xn () n1 . En todo
caso
1
(X)n Xn (X)n + ,
n
de donde
1
E(X)n E(X)n E(X)n + ,
n
y el resultado sigue. Supongamos ahora que y son positivos. Se sigue de
la definicion que
X + Y (X + Y )n X + Y +
1
,
n
1
X + Y Xn + Yn X +
n
1
+ Y +
n
,
de donde
1
(X + Y )n (Xn + Yn ) ,
n
n
y la esperanza del termino central converge a E(X +Y )E(X)E(Y ).
El caso general sigue ahora facilmente. Por ejemplo, si es negativo y
positivo, escribimos
E(X + Y ) = E[()(X) + Y ] =
()E(X) + E(Y ) = E(X) + E(Y ).
Proposici
on 3.23. Si X es una variable aleatoria integrable, y si es una
particion numerable arbitraria, entonces
X
E(X) =
E(X|A)P (A).
A
L. Arenas-Carmona
32
Demostraci
on Basta ver que como Xn X Xn + n1 , se tiene
E(Xn ) =
X
A
E(X|A)P (A)
1
E(Xn |A) +
n
P (A) = E(Xn ) +
1
,
n
es decir
E(X|C)P (C) =
E(X|A)P (A).
A
P (A)6=0
AC
B = { |Y () J},
L. Arenas-Carmona
33
Demostraci
on Basta observar que
k
k
k+1
Xn () =
= X() <
,
n
n
n
y del mismo modo
k
k
k+1
Yn () =
= Y () <
,
n
n
n
por lo que estos conjuntos son independientes.
Proposici
on 3.26. Si X e Y son variables aleatorias integrables e independientes, entonces XY es integrable, y se tiene E(XY ) = E(X)E(Y ).
Demostraci
on Para la integrabilidad, remplazando X, Y , y XY por
|X|, |Y |, y |XY |, de ser necesario, podemos suponer que ambas variables
aleatorias son positivas y se tiene
(XY )1 XY (X1 + 1)(Y1 + 1) = X1 Y1 + X1 + Y1 + 1,
y cada una de las variables aleatorias del lado izquierdo es integrable. Como
Xn e Yn son independientes, se tiene E(Xn Yn ) = E(Xn )E(Yn ) E(X)E(Y ),
por otro lado
1
1
1
1
Yn +
= Xn Yn + (Xn + Yn ) + 2 ,
Xn Yn XY Xn +
n
n
n
n
por lo que al tomar esperanzas se tiene
E(Xn Yn ) E(XY ) E(Xn Yn ) +
1
1
[E(Xn ) + E(Yn )] + 2 ,
n
n
y el resultado sigue.
Apendice 1: Tiempos de espera
El teorema de convergencia acotada se extiende al caso general con la misma
demostracion utilizada en el captulo precedente si demostramos que la funcion
n
o
N (, ) = min mn m |X() Xn ()|
L. Arenas-Carmona
34
k1
\
{|Xi () = 0}
i=1
y este u
ltimo conjunto pertenece a la -algebra .
Observese que si X1 , X2 , . . . , Xm es una coleccion finita de variables aleatorias discretas en un espacio medible, estas pueden considerarse variables
aleatorias en un espacio numerable, por lo que cualquier funcion que dependa
de ellas es una variable aleatoria discreta. En particular, Si X1 , X2 , . . . es una
sucesion de variables aleatorias en un espacio medible (, ) tomando valores
0 y 1, podemos definir una nueva sucesion de V.A.s Y1 , Y2 , . . . donde Yi = 1
si y solo si Xi es el n-esimo termino de la sucesion que toma el valor 1. El
tiempo de espera de correspondiente recibe el nombre de tiempo de espera
del n-esimo acierto de la sucesion original.
Del mismo modo es posible definir el tiempo de espera del u
ltimo acierto
(recuerdese que como toda variable aleatoria, un tiempo de espera puede
tomar el valor infinito). Dada una sucesion de variables aleatorias a valores
0 y 1 X1 , X2 , . . ., definimos una segunda sucesion de V.A.s Y1 , Y2 , . . . donde
Yi = 1 si 0 = Xi+1 = Xi+1 = . . .. Cada Yi es una variable aleatoria ya que
{|Yi ) = 1} =
\
j=i+1
{|Xj () = 0}.
L. Arenas-Carmona
35
L. Arenas-Carmona
36
Demostraci
on Basta probar que un conjunto abierto U es la union de
todos los intervalos de extremos racionales ]r, q[ tales que ]r, q[ U , ya que
existe solo una cantidad numerable de tales intervalos. Sin embargo, para
cada elemento x U existe un intervalo ]x , x + [ contenido en U , por
lo que basta encontrar un racional r entre x y x, as como un racional q
entre x y x + .
Corolario 3.30.1. Todo subconjunto abierto de R es un boreliano.
Demostraci
on de la proposici
on. Sea G : R R una funcion continua. Entonces para todo conjunto de la forma I =] , b[ el conjunto
G1 (I) es abierto y por lo tanto boreliano. Se sigue que
{ |G(X)() I} = { |X() G1 (I)} .
Demostraci
on Observemos que P (Y > t) 0 para toda V.A. discreta Y por los resultados del captulo precedente. Por otro lado, para toda
V.A. X se tiene
1
1
[nX] > t
,
0 P (X > t) P
n
n
L. Arenas-Carmona
37
i=1
i=1
E(Y Ai ) =
i=1
PY (Ai )E(Y ).
i=1
rR
rR
Chapter 4
Variables aleatorias
absolutamente continuas.
definici
on 4.1. Sea X una variable aleatoria que satisface
Z b
f (x)dx
P (a X < b) =
a
nZ
nZ
por lo que
FX0 (t)
Proposici
on 4.2. Sea X una variable aleatoria absolutamente continua.
Para todo r R, se tiene P (X = r) = 0.
38
L. Arenas-Carmona
39
Demostraci
on Basta ver que
0 P (X = r) P (r X r + ) < K,
donde K es una cota para f en una vecindad de r.
Proposici
on 4.3. Sea X una variable aleatoria
R absolutamente continua con
funcion de densidad f . entonces E(X) = xf (x) = I. si alg
un lado de
esta identidad esta definido.
Demostraci
on Notese que
E
1
[nX]
n
Z i+1
X
X
n
i
i+1
i
i
=
P
X<
=
P
f (x) dx
i
n
n
n
n
i=
i=
n
Z
1
[nx]f (x) dx.
n
L. Arenas-Carmona
40
Lema 4.7. Si una sucesion de funciones reales {gn }nN definidas en un intervalo I = (a, b), no necesariamente finito, convergen uniformemente a una
Rb
funcion real g, y si f es una funci
on no negativa cuya integral a f converge,
entonces
Z b
Z b
n
gn (x)f (x) dx
g(x)f (x) dx,
a
L. Arenas-Carmona
41
Demostraci
on Sea > 0. Basta ver que para n suficientemente grande
se tiene
g(x) < gn (x) < g(x) + ,
de donde
Z b
Z
[g(x) ]f (x) dx <
es decir
Z
gn (x)f (x) dx <
Z
gf
Z
f<
Z
gn f <
Z
gf
f,
L. Arenas-Carmona
42
Demostraci
on Basta probar que Gtn converge uniformemente a Gt.
Sea > 0. Por el lema anterior, existe > 0 tal que |x y| < implica
|G(x) G(y)| < . Por otro lado, existe un entero N tal que si n > N se
tiene |tn (x) t(x)| < para todo x I, por lo que |G[tn (x)] G[t(x)]| <
para todo x I y el resultado sigue.
Proposici
on 4.10. Sea X una variable aleatoria absolutamente continua y
sea G una funcion continua que se anula fuera de un intervalo de la forma
[N, N ]. Se tiene
Z N
G(x)f (x)dx.
E G(X) =
N
Demostraci
on Observemos que en general
k
X
k+1
k
k+1
E G(X) =
E G(X) X <
X<
P
.
n
n
n
n
k
, se tiene
Si mk y Mk son el maximo y el mnimo de G en el intervalo nk , k+1
n
k
k+1
mk E G(X) X <
Mk ,
n
n
por lo que debe existir un elemento tk,n en este intervalo tal que
k
k+1
.
G(tk,n ) = E G(X) X <
n
n
x < k+1
, se tiene
n
Z N
X
k+1
k
X<
G[tn (x)]f (x)dx,
E G(X) =
G(tk,n )P
=
n
n
N
k
k
n
RN
y esta u
ltima integral converge a N G(x)f (x)dx cuando n por el lema
precedente.
Probaremos ahora que un resultado similar se obtiene sin la hipotesis en
G. Para ello necesitaremos algunos lemas previos.
Lema 4.11. Sea X una variable aleatoria absolutamente continua. Para
toda funcion continua G se tiene
Z N
E G(X)a X b P (a X b) =
G(x)f (x)dx.
N
L. Arenas-Carmona
43
Demostraci
on Definimos una funcion continua H por
0 if
xa
G(a)
a + (r a) if a < x < a
G(x) if
a x b .
H(x) =
G(b)
b + (b r) if b < x < b +
0 if
xb+
Consideremos la descomposicion correspondiente a la particion que define
H, es decir
n
o
= , a , a, b, b + , .
Entonces la esperanza tiene la descomposicion:
E H(X) = E H(X)X a P (X a ) + . . . .
Como H vale 0 en los intervalos extremos y coincide con G en el intervalo
central, se tiene
E H(X) = E H(X)a < X < a P (a < X < a)+
E G(X)|a X b P (a X b)+
E H(X)b < X < b + P (b < X < b + ).
Como H es acotada y las probabilidades de los extremos tienden a 0 cuando
0, se tiene
E H(X) E G(X)|a X b P (a X b),
pero por otro lado,
Z
E H(X) =
H(x)f (x)dx
G(x)f (x)dx.
N
L. Arenas-Carmona
44
Demostraci
on Basta probar que dada cualquier sucesion creciente {Nk }k
de n
umeros reales, se tiene
E G(X)|X| Nk P (|X| Nk ) 0.
Para ello observamos que
E G(X) = E G(X)|X| < N1 P (|X| < N1 )+
X
E G(X)Nk |X| Nk+1 P (Nk |X| Nk+1 ),
k=1
X
E G(X)Nk |X| Nk+1 P (Nk |X| Nk+1 ),
k=t
Demostraci
on Supongamos primero que G(X) es integrable. Basta
ver que
E G(X) = E G(X)|X| < N P (|X| < N )+
E G(X)|X| > N P (|X| > N ) =
Z N
G(x)f (x)dx + E G(X)|X| > N P (|X| > N ),
N
L. Arenas-Carmona
45
X
nP (n |G(X)| < n + 1).
n=0
nN
= E |G(X)||G(X)| < N + 1 P |G(X)| < N + 1 .
H(x)f (x)dx
G(x)f (x)dx,
nP (An )
G(x)f (x)dx
para todo N .
ejemplo 4.14. Sea X una V.A. distribuida uniformemente en [0,R 1], i.e. su
1
funcion de densidad es [0,1] . Entonces su esperanza es E(X) = 0 t dt = 12 .
2
R1
Ademas se tiene E(X 2 ) = 0 t2 dt = 31 . Se concluye que V (X) = 31 12 =
1
.
12
ejemplo 4.15. Sea X una V.A. absolutamente continua
funcion de denR con
t
sidad et [0,) . Entonces
su
esperanza
es
E(X)
=
te
dt
= 1. Ademas
0
R 2 t
2
se tiene E(X ) = 0 t e dt = 2. Se concluye que V (X) = 2 (1)2 = 1.
ejemplo 4.16. Sea X una V.A. absolutamente continua
R con2 funcion de den2
sidad 1 et . Entonces su esperanza es E(X) = 1 tet dt = 0. Ademas
R
2
se tiene E(X 2 ) = 1 t2 et dt = 12 . Se concluye que V (X) = 21 (0)2 = 12 .
Chapter 5
Vectores aleatorios.
En todo este captulo, (, , P ) es un espacio de probabilidad arbitrario.
X () = X1 (), . . . , Xn ()
se denomina un vector aleatorio. Notese que si a1 , . . . , an y b1 , . . . , bn son
n
umeros reales tales que a1 < b1 entonces
{ |a1 Xi () < bi , i = 1, . . . , n} =
n
\
{ |a1 Xi () < bi }
i=1
L. Arenas-Carmona
47
Demostraci
on Basta probarlo para conjuntos abiertos, ya que los cerrados son sus complementos. Afirmamos que todo abierto es union (necesariamente numerable) de rectangulos con extremos racionales. Sea U un
conjunto abierto, y sea x U un elemento arbitrario. Por definicion existe
> 0 tal que la bola B = B(x; ) esta contenida en U , pero entonces existe
un rectangulo R tal que x R B (ver figura).
B
R rx
L. Arenas-Carmona
48
...............................r....................r (b,d)
...
...
B
..
...
A
................................r......................r
...
(a,c)....
D
...
...
...
.
...
C
...
...
....
...
...
...
...
...
...
.
.
P (ai Xi < bi ; i = 1, . . . , n) =
(1)k( c ) F ( c ),
c =(c1 ,...,cn )
donde la suma se extiende sobre todas las n-tuplas c = (c1 , . . . , cn ) tales que
cada ci es ai o bi y k( c ) es el n
umero de as en la tupla.
L. Arenas-Carmona
49
Demostraci
on Basta ver que
n
Y
P (ai Xi < bi ; i = 1, . . . , n) = E
!
{ai Xi <bi }
i=1
=E
!
n
Y
({Xi <bi } {Xi <ai } ) = E
i=1
(1)k( c )
n
Y
k( c )
(1)
!
{Xi <ci }
i=1
c=(c1 ,...,cn )
{Xi <ci }
i=1
c=(c1 ,...,cn )
n
Y
(1)k( c ) F ( c ).
X
c=(c1 ,...,cn )
Proposici
on 5.5. Las V.A.s X1 , . . . , Xn son independientes si y s
olo si
F (b) =
n
Y
FXi (bi )
i=1
n
Y
P (ai Xi < bi ).
i=1
Se sigue que F ( b ) =
X
P (ai Xi < bi ; i = 1, . . . , n) =
(1)k( c ) F ( c ) =
X
c =(c1 ,...,cn )
(1)k( c )
n
Y
i=1
c =(c1 ,...,cn )
n
Y
i=1
FXi (ci ) =
n
Y
i=1
P (ai Xi < bi ).
L. Arenas-Carmona
50
bn
b1
F ( b ) =
X
f (s1 , . . . , sn ) =
X
n
F (s1 , . . . , sn ).
xn x1 X
Proposici
on 5.6. Sea X = (X1 , . . . , Xn ) un vector aleatorio absolutamente
continuo. Las V.A.s X1 , . . . , Xn son independientes si y s
olo si
f ( b ) =
n
Y
fXi (bi )
i=1
Qn
Demostraci
on La independencia equivale a F ( b ) =
i=1 FXi (bi ),
X
pero entonces
!
Z bn
Z b1 Y
n Z bi
n
Y
F ( b ) =
fXi (si ) dsi =
i=1
i=1
L. Arenas-Carmona
51
Proposici
on 5.7. Si X es un vector aleatorio absolutamente continuo con
umeros reales a1 , . . . , an y b1 , . . . , bn
funcion de densidad f , entonces para n
X
tales que ai < bi para i = 1, . . . , n se tiene
Z b1
Z bn
f (s1 , . . . , sn ) ds1 dsn .
P (ai Xi < bi ; i = 1, . . . , n) =
an
a1
Rb
Demostraci
on Basta escribir cada integral de la forma ann h en la
R bn
R an
forma
h
h y razonar como en la demostracion de la Proposicion
5.4.
Proposici
on 5.8. Sea G : Rn R una funci
on continua. Entonces G(X )
es una variable aleatoria.
Demostraci
on Basta ver que
n
o
E G(X ) X A P (X A) =
G( x)f ( x) d x .
A
Demostraci
on Observese que si R es un rectangulo que contiene a A
y = {R1 , . . . , Rn } es una particion de R en rectagulos menores, se tiene
E G(X ) X A P (X A) = E G(X ) A
X
n
X
=
E G(X ) A X Ri P (X Ri ),
X
i=1
t( x) = E G(X ) A X Ri , si x Ri .
X
L. Arenas-Carmona
52
Entonces se tiene
Z
n
Z
X
t( x)f ( x) d x=
E G(X ) A X Ri
X
Ri
i=1
f ( x) d x=
X
n
X
E G(X ) A X Ri P (X Ri ) = E G(X ) X A P (X A).
X
i=1
t( x)f ( x) d x G( x)A ( x)f ( x) d x
X
X
R
n
X
(Mi mi )Area(Ri ),
i=1
trariamente peque
na ya que G( x)A ( x) es Riemann-integrable en R.
ejemplo 5.10. Sea (X, Y ) un vector aleatorio con funcion de densidad
f (x, y) = (x + y)[0,1]2 (x, y). Entonces se tiene
2
P (X + Y 1) =
/2
(x + y) dxdy =
D
2
(r cos + r sen )r drd = ,
3
x(x + y) dxdy =
R
7
.
12
L. Arenas-Carmona
53
f (x, y) dxdy = 0,
1 = P (X ) =
donde es la diagonal.
ejemplo 5.12. Diremos que un vector aleatorio X esta uniformemente distribuido al interior de un conjunto acotado A cuyo borde es una curva derivable a trozos si la funcion de densidad del vector aleatorio esta dada por
A ( t )
f( t ) =
.
Area(A)
Area(A B)
.
P (X B) =
Area(A)
A continuacion removemos la condicion de que A sea acotado.
Proposici
on 5.13. Sea G : Rn R una funci
on continua y sea A un
conjunto cuyo borde es una uni
on finita de curvas diferenciables. Entonces
Z
E G(X ) X A P (X A) =
G( x)f ( x) d x .
A
Demostraci
on Se sigue que para todo real positivo N , si AN = A
B(0; N ), se tiene
Z
E G(X ) X AN P (X AN ) =
G( x)f ( x) d x,
AN
G( x)f ( x) d x
A
L. Arenas-Carmona
54
E G(X ) X A AN P (X A AN ).
Basta por lo tanto probar que el ultimo termino tiende a 0 cuando N .
Esto es inmediato si |G(X )|A (X ) es integrable por el teorema de convergencia dominada. Esto es cierto en particular si G es acotada. El caso general
f (x, y) dx = fY (y).
FY |X (a|x) =
fY |X (y|x) dy,
L. Arenas-Carmona
55
satisface la relacion
Z
y mas generalmente
Z
1
1
b
dx = (b 1) + (2 b) = .
2
2
2
Chapter 6
La ley de los grandes n
umeros.
Sea X una variable aleatoria. Por una muestra de tamao n de la variable
aleatoria X queremos decir una sucesion X1 , . . . , Xn de variables aleatorias
independientes definidas en un mismo espacio muestral , cada una con
la misma funcion de distribucion que X. En este captulo estudiaremos el
comportamiento de la variable aleatoria promedio cuando el tamao de la
muestra tiende a infinito.
Sea X1 , . . . , Xn , . . . es una sucesion de variables aleatorias en un mismo
espacio muestral . Diremos que Xn converge en probabilidad (o en medida)
a una variable aleatoria X, o que X es el lmite en probabilidad (o en medida)
de la sucesion si para cada , > 0 existe un entero N = N () tal que
n > N P (|X Xn | > ) < .
Equivalentemente, para cada > 0, la sucesion de n
umeros reales
P (|X Xn | > )
converge a 0.
Lema 6.1 (Desigualdad de Chevychev). Sea X una variable aleatoria
con esperanza y varianza finitas. Para todo > 0 se tiene
V (X)
.
P X E(X) > <
2
Demostraci
on Sea A el evento |X E(X)| > . En particular, A = 1
si y solo si |X E(X)| > . De aqu se sigue la desigualdad
A |X E(X)|.
56
L. Arenas-Carmona
57
Proposici
on 6.2. Si X1 , . . . , Xn , . . . es una sucesi
on de variables aleatorias tales que V (Xn ) converge a 0 cuando n tiende a infinito, y E(Xn ) converge a alg
un lmite finito a cuando n tiende a infinito, entonces la sucesi
on
X1 , . . . , Xn , . . . converge a la variable aleatoria constante a en probabilidad.
Demostraci
on Se sigue de la desigualdad de Chevychev que
4V (X )
n n
<
0 P Xn E(Xn ) >
0.
2
2
Para n suficientemente grande se tiene |E(Xn ) a| < 2 . En tal caso
|Xn E(Xn ) |Xn a| .
2
Se sigue que
n
0,
0 P Xn a > P Xn E(Xn ) >
2
y el resultado sigue.
Proposici
on 6.3 (Ley debil de los grades n
umeros). Si X1 , . . . , Xn , . . .
es una sucesion de variables aleatorias independientes, cada na con la misma
esperanza
on de promedios
P E, y con varianzas acotadas, entonces la sucesi
Yn = n1 nk=1 Xk converge a E en probabilidad.
Demostraci
on El resultado sigue de la proposicion precedente si demostramos P
que la sucesion Y1 , . . . , Yn , . . . cumple las hipotesis. La esperanza
E(Yn ) = n1 nk=1 E(Xk ) = E converge a E trivialmente. Por otro lado, sea
K una cota para las varianzas. Por ser las variables aleatorias X1 , . . . , Xn , . . .
independientes, se tiene
n
1 X
K n
X(Yn ) = 2
V (Xk )
0,
n k=1
n
y el resultado sigue.
Un refinamiento de nuestro resultado precedente es el siguiente:
L. Arenas-Carmona
58
Proposici
on 6.4. Si X1 , . . . , Xn , . . . es una sucesi
on de variables aleatorias
independientes cuyas esperanzas convergen a un lmite
P E, y con varianzas
acotadas, entonces la sucesion de promedios Yn = n1 nk=1 Xk converge a E
en probabilidad.
Su demostracion es similar a la precedente una vez demostrado el siguiente
lema:
Lema 6.5. Si {an }nPes una sucesi
on de n
umeros reales que converge a un
n
1
lmite L, entonces n k=1 ak converge a L.
Demostraci
on Por definicion de convergencia se tiene que para todo
> 0 existe un entero N tal que n > N implica |an L| < . En particular,
si n > N se tiene
n
n
N
n
1X
X
1
1X
1 X
ak
|ak L| =
|ak L| +
|ak L|.
L
n k=1 n k=1
n k=1
n k=N +1
El primer termino de esta suma converge a 0 si n tiende a infinito y el segundo
< . Se sigue que
esta acotado por nN
n
n
1 X
lim sup L
ak .
n
n
k=1
L. Arenas-Carmona
59
Demostraci
on Sea t un punto de continuidad de FX . Basta probar
que
n
P (Xn < t) P (X < t).
Sea N tal que para n > N se tiene P (|Xn X| > ) < . Entonces para
n > N se tiene
P (Xn < t) P (X < t + ) P (X t + , Xn < t) P (|Xn X| > ) < .
Por otro lado
P (X < t ) P (Xn < t) P (X < t , Xn t) P (|Xn X| > ) < .
De ambas desigualdades se tiene
P (X < t ) P (Xn < t) P (X < t + ) + .
En particular, se tiene
P (X < t) lim inf P (Xn < t) lim sup P (Xn < t) P (X < t+)+.
n
= ,
2
2
L. Arenas-Carmona
60
= .
2
2
Demostraci
on Basta ver que
it(X1 ++Xn )
)=
n
Y
itXk
E(e
)=
k=1
n
Y
GXk (t).
k=1
L. Arenas-Carmona
61
sa
demuestra que
(t)2
iut
u2
2
eati 2
du =
2
e 2 (u+it) du.
(t)2
2
.
R
Ahora probaremos la afirmacion Sea T () = e 2 (u+it) du. Si pudiesemos derivar bajo el signo integral tendramos
Z
12 (u+it)2
0
12 (u+it)2
= 0.
du = it e
(u + it)e
T () = it
Para justificar la derivacion bajo el signo integral escribimos que por teorema
de Fubini
Z
Z
Z
Z
12 (u+it)2
12 (u+it)2
it
(u + it)e
du d =
it
(u + it)e
d du
0
L. Arenas-Carmona
Z
21 (u+it)2
62
Z
e 2 (u+i0 t) du = T () T (0 ),
du
Proposici
on 6.13. Si X1 , X2 , . . . es una sucesi
on de variables aleatorias
independientes y con la misma distribuci
on que X, la cual tiene esperanza y
varianza finitas, y si
Pn
Xk nE(X)
,
Yn = k=1
n
entonces Yn converge
on a una variable aleatoria normal de
p en distribuci
par
ametros 0 y = V (X).
Demostraci
on
n
Y
itE(X) n
GYn (t) = e
k=1
itE(X) n
G Xi (t) = e
n
itE(X) n
n
Y
GX
k=1
GX
=
n
.
E(X 2 ) 2
t + o(t2 ).
2
De aqu se tiene
"
2
#
E(X 2 )
1
t
t
L. Arenas-Carmona
63
"
2
2
#
t
E(X)2
1
E(X 2 )
t
t
itE(X) n + n iE(X)
+
+o
2
2
n
n
n
n
n
V (X)t2
.
2
kP (k X < k + 1)
k=0
L. Arenas-Carmona
64
Pn
P
Demostraci
on Sea Xn =
k=1 Ak y sea Xn =
k=1 Ak . Como
Pn
E(X) = k=1 P (A
Pk ), se sigue del resultado anterior que E(X) es finita (y
de hecho igual a
n=1 P (Ai ) < ). En particular
P A = P (X = ) = 0.
Proposici
on 6.16 (Desigualdad de Kolmogorov). Sean X1 , . . . , Xn vari2
ables aleatorias independientes con E(Xi ) = P
. Sea Yk =
i y V (Xi ) = iP
k
2
X1 + . . . + Xk para k = 1, 2, . . . , n. Sea ak = i=1 i y s = ni=1 i2 . La
probabilidad de que se cumplan simultaneamente las n desigualdades
|Yk ak | < ts,
es al menos 1
k = 1, . . . , n
1
.
t2
Demostraci
on Sea Ak el evento de que la k-esima desigualdad sea la
primera que no se cumpla. Los eventos A1 , . . . , An son disjuntos y queremos
probar que P (A1 An ) t2 . Observemos que Uk = (Yn an ) (Yk ak )
es independiente de Ak (Yk ak ) y de esperanza nula, por lo que esperanza
del termino central al lado derecho de la identidad
Ak (Yn an )2 = Ak (Yk ak )2 2Ak Uk (Yk ak ) + Ak Uk2 ,
es nula. Se sigue que
E Ak (Yk ak )2 E Ak (Yn an )2 .
Notese que por definicion del evento Ak , se tiene
P (Ak )s2 t2 = E(Ak )s2 t2 E Ak (Yk ak )2 E Ak (Yn an )2 .
Sumando sobre k se tiene
!
!
n
n
[
X
P
Ak s2 t2 E
Ak (Yn an )2 E (Yn an )2 = V (Yn ) = s2 .
k=1
k=1
Proposici
on 6.17 (Ley fuerte de los grandes n
umeros). Sean X1 , X2 , . . .
variablesPaleatorias independientes con E(Xi ) = y V (Xi ) K. Sea
Zn = n1 nk=1 Xk . Entonces
n
P Zn = 1.
L. Arenas-Carmona
65
Demostraci
on Basta ver que para cada > 0 la desigualdad |Zn |
puede complirse solo para un n
umero finito de valores de n fuera de un
conjunto de probabilidad nula. Sea A el evento de que se tenga |Zn | ,
o equivalentemente
|X1 + . . . + Xn n| n
para alg
un n entre 21 y 2 . De hecho esto implica que
|X1 + . . . + Xn n| 21
Se sigue de la desigualdad de Kolmogorov que
P (A )
por lo que la suma
=1
12 + . . . + 22
2 K
4K
= 2,
22
2
22
2
2
2
2
P (A ) converge.
Chapter 7
Estimaci
on de par
ametros.
Sea X una variable aleatoria con una distribucion dada FX . Una muestra
aleatoria de tama
no n de X es una sucesion de n variables aleatorias independientes X1 , . . . , Xn cada una con la misma distribucion que X, es decir
FX (t) = FXi (t),
i = 1, . . . , n.
i=1
n
Y
fX (ti ).
i=1
Si X es discretse tiene
P (X1 = t1 , . . . , Xn = tn ) =
n
Y
P (Xi = ti ).
i=1
ejemplo 7.1. Si lanzamos una moneda n veces y Xi es el suceso se obtiene cara en el i-esimo lanzamiento, entonces (X1 , . . . , Xn ) es una muestra
aleatoria de la variable aleatoria de Bernouilli de Parametro p.
66
L. Arenas-Carmona
67
X
= 1
X
Xk ,
n k=1
y la varianza muestral
n
1 X
2.
(Xk X)
s =
n 1 k=1
2
L. Arenas-Carmona
=E
68
2
2
E()
+ E()
E()
2E E()
2
+ E()
.
= V ()
Xk ,
2 = X1 ,
1 =
n k=1
son insesgados, sin embargo
V (X)
,
V (2 ) = V (X),
V (1 ) =
n
por lo que el primer estimador es mucho mejor que el segundo.
ejemplo 7.4. Sea X una variable aleatoria con distribucion exponencial de
t/
parametro 1/, es decir X tiene una funcion de densidad fX (t) = [0,) (t) e .
En este caso E(X) = como en el ejemplo anterior. Definamos
3 = n [MIN(X1 , . . . , Xn )] .
En este caso se tiene
P (3 t) = P
t
X1 , . . . , Xn
n
Se sigue que
1 F3 (t) =
Como FX (t) =
Rt
0
es/
=P
t
X
n
n
.
n
t
1 FX
.
n
ds = 1 et/ , se tiene
n
1 F3 (t) = et/n = et/ .
L. Arenas-Carmona
69
ejemplo 7.5. Probaremos que la varianza muestral s2 es un estimador insesgado de la varianza 2 = V (X). Observemos que
n
X
1
n1
i) = 1
E(X)2 + E(X 2 ),
E(XX
E(Xk Xi ) =
n k=1
n
n
n
1X
n1
1
1
2
2
2
E(X ) =
n
E(X) + E(X )
E(XXk ) =
n k=1
n
n
n
=
1
n1
E(X)2 + E(X 2 ).
n
n
(n 1)E(s ) =
n
X
n
X
2
2 ) 2E(XX
k ) + E(X 2 )]
[E(X
E (X Xi ) =
k
k=1
k=1
n
X
ak Xk ,
k=1
se dice lineal.
Proposici
on 7.6. Sea X una variable aleatoria no constante cuya distribuci
on
depende de un parametro 6= 0, y supongamos que E(X) = . Entonces la
media muestral es el mejor estimador lineal insesgado del par
ametro .
P
Demostraci
on Basta ver que si = nk=1 ak Xk es insesgado, entonces
= E(X) Pn ak = E(X), de donde Pn ak = 1. Se sigue que
E()
k=1
k=1
!
2
n
n
n
X
X
X
1
1
2
V
ak Xk = V (X)
ak = V (X)
ak
+
n
n
k=1
k=1
k=1
n
2V (X) X
1
1
+
ak
+ 2
= V (X)
n
n
n
k=1
k=1
2
n
X
1
1
= V (X)
ak
+ 2,
n
n
k=1
n
X
1
ak
n
2
L. Arenas-Carmona
70
16
+ E()
V ()
2
3
+
=
16
2
3
1
4
1 =
= ,
4
16
4
con lo que el estimador esta mas cerca en promedio al valor real que la
media muestral.
Supongamos ahora que se tiene un estimador n para cada n, donde n es el
tama
no de la muestra. Diremos que la sucesion de estimadores es consistente
si la sucesion {n }n converge a en probabilidad. Como es una constante,
es suficiente probar la convergencia en distribucion. Diremos que la sucesion
de estimadores es asintoticamente insesgada si E(n ) converge a cuando n
tiende a infinito.
Proposici
on 7.7. Toda sucesi
on consistente de estimadores n tales que
n K para alguna constante fija K es asint
oticamente insesgada.
Demostraci
on Basta ver que
|E(n )| E(|n |) P (|n | < ) + KP (|n | )
para todo > 0 y el u
ltimo termino tiende a 0 por definicion de convergencia
en probabilidad.
Sea X una variable aleatoria con una distribucion dada FX (t) = F (t, )
L. Arenas-Carmona
71
Xj
1X j
=
X ,
n k=1 k
converge a F (X ) en probabilidad.
L. Arenas-Carmona
72
Demostraci
on Basta observar que, por definicion de convergencia uniforme, para cada > 0 existe > 0 tal que
| X n X | < |F (X n ) F (X )| < .
En particular se tiene
P | X n X | < P |F (X n ) F (X )| < 1.
Puesto que los extremos de la igualdad anterior convergen a 1 tambien lo
hace el termino central.
ejemplo 7.10. Sea X una variable aleatoria de Bernouilli de parametro p
donde p es desconocido. Como p = E(X), el estimador de momentos de p es
p = X.
ejemplo 7.11. Sea X una variable aleatoria de distribucion exponencial
de parametro . Como E(X) = 1/, el estimador de momentos de es
= 1/X.
E(X 2 ) = 2 + a2 .
2
2 = X 2 X .
En particular
n
n
n
1X
1 X 2 2X X
2
Xk
Xk + X =
(Xk X)2
2 =
n k=1
n k=1
n k=1
no es insesgado.
ejemplo 7.13. Sea X una variable aleatoria binomial de parametros n y p
desconocidos. Las ecuaciones que deben resolverse son
E(X) = pn,
L. Arenas-Carmona
73
E(X) E(X 2 )
,
E(X)
n=
E(X)2
.
E(X) E(X 2 )
X X2
,
p =
X
X
.
n=
X X2
p
3V (X),
b = E(X) +
3V (X).
a
=X
(Xk X) ,
(Xk X)2 .
b=X +t
n k=1
n k=1
Sea X una variable aleatoria con una distribucion dada FX (t) = F (t,
Lt ( ) =
n
Y
k=1
f (tk , ).
L. Arenas-Carmona
74
P lim sup
U (Xn , ) ( ) = 0 = 1.
n
n
k=1
L. Arenas-Carmona
75
Proposici
on 7.17. Sea X una variable aleatoria absolutamente continua
sup
U (Xn , ) ( ) < .
k=1
Entonces se tiene que limn P (An ) = 1 y por lo tanto para todo > 0
se tiene que para todo n suficientemente grande, se tiene P (An ) > 1 .
Observese que por el lema precedente,
E U (X, ) = () > 0
k=1
L ( )
X
L ( 0 )
X
L. Arenas-Carmona
76
ejemplo 7.18. Suponga que el tiempo que tarda una ampolleta en fallar
es una variable aleatoria T con distribucion exponencial de parametro , es
decir fT (t) = e para t 0. Suponga que se toma una muestra (T1 , . . . , Tn )
de T . Entonces la funcion de verosimilitud esta dada por
L = L(T1 ,...,Tn ) () =
n
Y
(eTk ) = n e
Pn
k=1
Tk
k=1
Se sigue que
ln L = n ln()
n
X
Tk .
k=1
Pn
k=1
ejemplo 7.19. Suponga que X es una variable aleatoria distribuida uniformemente en un intervalo (0, ). en particular se tiene fX (t) = 1 para
0 t . Suponga que se toma una muestra (X1 , . . . , Xn ) de X. Entonces
la funcion de verosimilitud esta dada por
L = L(X1 ,...,Xn ) () =
1
, si X1 , . . . , Xn .
n
n+1
0
ejemplo 7.20. Suponga que X es una variable aleatoria con distribucion
normal de parametros a y 2 , es decir
1 ta 2
1
fX (t) = e 2 ( ) .
2
1
n/2 2
Pn
k=1
Xk a
2
L. Arenas-Carmona
77
En particular
n
n
1X
ln(L) = ln(2 2 )
2
2 k=1
Xk a
2
.
= 0,
n
n
1
2 X (Xk a)2
(4)
+
= 0.
2 2 2
2 k=1
3
De la segunda se deduce
De la primera de estas ecuaciones se obtiene a
= X.
2
n =
n
X
(Xk a)2 ,
k=1
1X
2.
(Xk X)
2 =
n k=1
7.0.1
Tests de Hip
otesis estadisticas.
Supondremos ahora que queremos decidir entre dos o mas hipotesis sobre
una variable aleatoria (lo que puede expresarse en terminos del valor de
un parametro). Comenzaremos con un ejemplo: Se tiene un n
umero r de
monedas con dos caras junto a una cantidad m de monedas normales. Se
escoge una de estas monedas al azar. Queremos determinar cuantas caras
es necesario obtener antes de asumir que la moneda escogida tena de hecho
dos caras.
Existen dos alternativas posibles:
1. La moneda tiene dos caras.
2. La moneda tiene una cara.
Exactamente una de estas hipotesis es la real y debemos escoger exactamente
una. Esto define cuatro eventos.
L. Arenas-Carmona
78
i,j
kSi
i,j
Bastara por lo tanto, para cada valor de k minimizar la suma que se encuentra entre parentesis. De hecho, en el caso de que tengamos solamente dos
hipotesis como en el problema de las monedas, escogemos la primera opcion
para una observacion dada Ak si y solo si
C11 P (Ak |H1 )P (H1 ) + C12 P (Ak |H2 )P (H2 ) <
C21 P (Ak |H1 )P (H1 ) + C22 P (Ak |H2 )P (H2 ).
Tras algo de manejo algebraico, esta condicion se traduce a
P (Ak |H2 )
(C21 C11 )P (H1 )
<
.
P (Ak |H1 )
(C12 C22 )P (H2 )
L. Arenas-Carmona
79
<
(C12 C22 )
.
(C21 C11 )
Si suponemos que los costos por equivocarse (o no) en cualquier sentido son
los mismos, debemos escoger n > log2 (r/m).
Veremos ahora que la misma idea se aplica en el caso en que la observacion
C=
Cij fA ( |Hj )P (Hj ) d
Si
i,j
Z
=
Si
i,j
Aqu basta con minimizar la suma entre parentesis, por lo que se tiene, en el
caso de dos hipotesis, que la primera hipotesis se acepta si y solo si:
fA ( |H2 )
fA ( |H1 )
como antes.
<