Академический Документы
Профессиональный Документы
Культура Документы
MATEMÁTICA
Volumen II
Inferencia Estadística
1
()
0 1
INTRODUCCIÓN A LA
ESTADÍSTICA MATEMÁTICA
Volumen II: Inferencia Estadística
No está permitida la reproducción total o parcial de este libro, ni
su tratamiento informático, ni la transmisión de ninguna forma o
por cualquier medio, ya sea electrónico, mecánico, por fotocopia,
por registro u otros métodos, sin permiso previo y por escrito de
los titulares del Copyright.
Lo más valioso
de tu educación
científica es el
desarrollo de la
disciplina
mental
fonemato.com
Inferir. (Del latín infere, llevar a):
Sacar una consecuencia o deducir una cosa de otra Llevar consigo, ocasionar,
conducir a un resultado Tratándose de ofensas, agravios, heridas, etc., produ-
cirlos o causarlos.
Inferencia paramétrica
Como la vida es muy dura, con frecuencia se está analizando una variable
aleatoria "X" asociada a una cierta población (imagina que "X" expresa
la aleatoria altura de los ciudadanos) y se conoce "X" sólo de forma par-
cial, pues aunque se sabe a qué "familia" pertenece "X", se des-
conocen algunos de los parámetros que identifican a "X".
Por ejemplo:
Se sabe que "X" es normal de media 7, pero se desconoce la varianza.
Se sabe que "X" es normal de varianza 13, pero se desconoce la media.
Se sabe que "X" es exponencial, pero se desconoce el parámetro.
Se sabe que "X" es normal, pero se desconocen la media y la varianza.
fonemato.com
tica: la variable aleatoria n-dimensional ( X1 ; .... ; X n ) que expresa los resultados
que pueden presentarse al seleccionar una muestra de tamaño "n"; de ella dire-
mos que es la variable muestral.
El muestreo aleatorio simple considera que las variables X1 , .... , X n que
forman la variable muestral ( X1 ; .... ; X n ) son independientes y tienen la misma
distribución de probabilidad que la variable "X". Por ejemplo, si X N(170 ; )
expresa la aleatoria altura de los ciudadanos y para "decir algo" sobre tomamos
una muestra aleatoria simple de tamaño 3, entonces, siendo X i la variable que
expresa la aleatoria altura del i-ésimo ciudadano seleccionado ( i 1, 2 , 3) , la estre-
lla de la película será la variable muestral ( X1 ; X 2 ; X 3 ) que expresa los resultados
que pueden presentarse, y admitiremos que X1 , X 2 y X 3 son independientes y
todas tienen distribución N(170 ; ) .
A continuación comentamos grosso modo la que se nos viene encima.
Tema 1: Sucesiones de variables aleatorias
Como la estrella de la historia es la variable muestral ( X1 ; .... ; X n ) y "n" puede
ser todo lo grande que queramos, dedicaremos el Tema 1 a estudiar los intríngulis
de una sucesión X1 , X 2 , .... , X n , ...... de infinitas variables aleatorias (indepen-
dientes o no, con la misma distribución de probabilidad o no).
Tema 2: Estadísticos
Para "sacar jugo" a la "información" que sobre el desconocido contienen los
"n" valores observados de la variable "X" utilizaremos estadísticos. Nada de
asustarse, un "estadístico" es una función de la variable muestral ( X1 ; .... ; X n ) , y
por tanto es una variable aleatoria unidimensional corriente y moliente. Los esta-
dísticos más famosos son la media muestral y la varianza muestral:
n
1
T1 . X i aleatoria media muestral
n
i 1
n
T2 1 . ( X i T1 )2 aleatoria varianza muestral
n
i 1
Observa: a cada muestra le corresponde un valor del estadístico. Por ejemplo,
si la muestra seleccionada es la ( 4 ; 6 ; 11) , en ella el estadístico T1 se concreta en
el número 7, y el estadístico T2 se concreta en el número 26/3:
T1 ( 4 6 11)/3 7
c h
T2 ( 4 7)2 ( 6 7)2 (11 7)2 /3 26/3
fonemato.com
rámetro y que para hacer una estimación puntual de se toma una muestra de
tamaño 4 y se obtiene la (5 ; 6 ; 1 ; 6) ; así:
Si como "estimador puntual" del parámetro elegimos el estadístico media
muestral T1 ( X1 X 2 X 3 X 4 )/4 , como el valor que toma T1 en la mues-
tra (5 ; 6 ; 1 ; 6) es 4'5, diremos que la estimación puntual de que para esa
muestra proporciona el estadístico T1 es 4 '5.
Si como "estimador puntual" del parámetro elegimos el estadístico "máximo
muestral" T3 máx.{X1 ; X 2 ; X 3 ; X 4 }, como el valor que toma T3 en la
muestra (5 ; 6 ; 1 ; 6) es 6, diremos que la estimación puntual de que para esa
muestra proporciona el estadístico T3 es 6.
Si como "estimador puntual" del parámetro elegimos el estadístico "mínimo
muestral" T4 mín.{X1 ; X 2 ; X 3 ; X 4 }, como el valor que toma T4 en la
muestra (5 ; 6 ; 1 ; 6) es 1, diremos que la estimación puntual de que para esa
muestra proporciona el estadístico T4 es 1.
Naturalmente, una vez seleccionada la muestra, la "calidad" de la estimación pun-
tual de dependerá de qué estadístico usemos como "estimador puntual"; por
eso se hace necesario establecer características "deseables" (insesgadez, con-
sistencia, eficiencia y suficiencia) que nos permitan decidir si un cierto
estadístico "Pepe" es interesante para hacer una "estimación puntual" del desco-
nocido valor de . La idea es sencilla: cuando el estadístico "Pepe" nos suplique
por sus muertos que lo elijamos a él como "estimador puntual" de , analizare-
mos si "Pepe" posee esas características "deseables" de insesgadez, consistencia,
eficiencia y suficiencia.
fonemato.com
un intervalo en el que con una confianza fijada de antemano está
el desconocido valor del parámetro .
Tema 5: Contraste de hipótesis paramétricas
Por razones de elemental prudencia, una vez se ha estimado (y por tanto se ha
establecido una hipótesis sobre ) , se plantea el problema de contrastar si la
estimación realizada tiene mucho o poco que ver con la realidad. Y de inmediato
se plantea la pregunta del millón:
¿Qué hago para "contrastar" una "hipótesis"
establecida sobre ?
Respuesta:
Lo que haría cualquiera: "observar" el valor que toma "X" en "k" individuos de la
"población" y "sacar jugo" a la "información" que sobre el parámetro contienen
los "k" valores observados de la variable "X"; en concreto, utilizando un estadís-
tico y los "k" números que forman la muestra seleccionada, obtendremos un
número mágico que nos permitirá decidir si nos creemos la hipótesis establecida
o no.
Inferencia no paramétrica
Siempre hay quien lo tiene más jodido: se está analizando una variable
aleatoria "X" asociada a una cierta "población" y no se tiene ni
idea de la distribución de probabilidad de "X".
¡Ni idea!... no sé
¿Qué distribución de si es normal,
probabilidad tiene el exponencial,
aleatorio beneficio uniforme...
diario que obtienes
vendiendo calabazas?
fonemato.com
{X n } {X1 , X 2 , X 3 , .... , X n , .......}
1 X1
2 X2
3 X3
: :
n Xn
: :
fonemato.com
Sea {X n } una sucesión de variables aleatorias definidas sobre el mismo espacio
probabilístico que "U", siendo Fn ( x ) y n ( t ) las respectivas funciones de distri-
bución y generatriz de momentos de la variable X n :
Fn (x) P X n x ; n (t) E et.X n
Convergencia en ley
Diremos que la sucesión {X n } converge en ley a la variable "U", y escribire-
mos {X n } L U , si se satisface cualquiera de las siguientes condiciones, que
son equivalentes:
1) lim . Fn (x) F(x), x tal que F(x) sea continua en "x"
n
2) lim . n (t) (t ), t
n
3 lim . P(a X n b) P(a U b), (a ; b]
n
Propiedades
L U y "C" es una constante, sucede que:
1) Si {X n }
L U C ; {C. X }
{X n C} L C. U
n
L U y "g" es una función continua, sucede que:
2) Si {X n }
L g(U)
{g ( X n )}
Convergencia en probabilidad
Diremos que la sucesión {X n } converge en probabilidad a la variable "U",
P U, si para todo valor positivo de sucede que:
y escribiremos {X n }
c
lim. P X n U 0
n
h
o lo que es igual, pero dando el protagonismo al suceso X n U comple-
mentario del suceso X n U , sucede que:
c
lim. P X n U 1
n
h
Tema 1: Sucesiones de variables aleatorias
© Rafael Cabrejas Hernansanz
Interpretación bidimensional
En la distribución bidimensional de masa de probabilidad correspondiente a la
variable bidimensional ( X n ; U) , la pro-
babilidad del suceso X n U es la lim . P X n U e 1, e 0
n
masa que hay en el "tubo" sombreado
fonemato.com
en la figura. El "eje" de ese "tubo" es la
bisectriz del primer cuadrante, formada x n u e
por los puntos que tienen iguales sus
U
dos coordenadas; obviamente, el "tubo"
es más "delgado" cuanto más próximo
a 0 sea el valor elegido para 0 .
Por tanto, al afirmar que {X n } P U
Xn
se afirma que la sucesión {X n } es tal
xn u e
que, sea cual sea el valor elegido para
0 (o sea, con independencia de la
n 1, 2 , 3, ......
"delgadez" del "tubo" que elijamos), la
masa que hay en el tubo, que es la pro-
babilidad del suceso X n U , se aproxima a 1 tanto como se quiera sin más
que elegir "n" suficientemente grande.
Por ejemplo:
Si 10 100 , la probabilidad del suceso X n U 10 100 se aproxima a 1
tanto como se quiera sin más que elegir "n" suficientemente grande; es decir,
fijada una probabilidad tan próxima a 0 como se quiera, hay un número na-
c h
tural n 0 tal que si n n 0 ocurre que P X n U 10 100 1 .
Si 10 1000000000 , la probabilidad del suceso X n U 10 1000000000 se
aproxima a 1 tanto como se quiera sin más que elegir "n" lo bastante grande;
es decir, fijada una probabilidad tan próxima a 0 como se quiera, hay un na-
c h
tural n1 tal que si n n1 ocurre que P X n U 10 1000000000 1 .
¡Eres un
Pues si el "tubo" pude ser lince!
todo lo "delgado" que se
quiera, al afirmar que
{X n } P U se dice que,
cuando n , la distribu-
ción bidimensional de ma-
sa asociada a la variable
(X n ; U) tiende a concen-
trase en la bisectriz del
primer cuadrante
fonemato.com
segmento de amplitud 2. que une los puntos "M" y "N" de la figura. Así, al de-
cir que {X n } P q se afirma que la
U n 1, 2 , 3, ......
sucesión {X n } es tal que, sea cual sea
el valor elegido para 0 (o sea, con M
independencia de la amplitud del N
segmento MN que elijamos), la masa
que hay en el segmento MN, que es la
probabilidad del suceso X n ,
se aproxima a 1 tanto como se quiera
sin más que elegir "n" bastante grande. Xn
O sea, la distribución bidimensional de
masa asociada a la variable (X n ; U)
tiende a concentrase en el punto ( q ; q ) c h
lim. P X n 1, 0
n
de la bisectriz del primer cuadrante.
Interpretación unidimensional
En la distribución unidimensional de masa de probabilidad asociada a la variable
Zn X n U , la probabilidad del suceso
Z n X n U es la masa que hay Zn X n U
0
en el intervalo [ ; ] , cuya amplitud 2.
es más pequeña cuanto más próximo a 0 n 1, 2 , 3, ......
sea el valor elegido para 0 . Por tanto,
al afirmar que {X n } P U se afirma que la sucesión {X } es tal que, sea cual
n
sea el valor elegido para e 0 (o sea, con independencia de la amplitud del inter-
valo [ ; ] que elijamos), la masa que en la distribución de probabilidad de
Zn X n U hay en [ e ; e ] , que es la probabilidad del suceso Z n , se
aproxima a 1 tanto como se quiera sin más que elegir "n" suficientemente grande.
fonemato.com
n
P 0 .
lo que demuestra que {X n U}
Si {X n U} n
n
c
P 0 es lim. P X U 0 0 , 0 ; así:
h
c
lim. P X n U 0 , 0
n
h
P U .
lo que demuestra que {X n }
P U y "g" es una función continua, entonces {g ( X )}
2) Si {X n } P g (U)
n
3) Estando definidas las sucesiones {X n } y {Tn } sobre el mismo espacio proba-
P U y {T }
bilístico, si {X n } P
n T , entonces:
P U T ; {X . T }
{X n Tn } P
n n U. T
P U/T , siem-
Si la sucesión {X n /Tn } tiene sentido, entonces {X n /Tn }
pre que P( T 0 ) 0.
4) Si todas las variables que forman la sucesión {X n } tienen media finita y
P 0 , pues 0 sucede que
lim. V( X n ) 0 , entonces {X n E( X n )}
n
V(X n )
P X n E(X n ) 0 P X n E(X n )
2
Tchebychef
Así:
n
c
0 lim. P X n E( X n ) 0 lim. h V( X n )
n 2
0
P 0.
lo que demuestra que {X n E( X n )}
5) Si todas las variables que forman la sucesión {X n } tienen la misma media "m"
P m , pues 0 sucede que
finita y lim. V( X n ) 0 , entonces {X n }
n
V(X n )
P X n m P X n E(X n )
2
E( X n ) m Tchebychef
Así:
n
c
0 lim. P X n m lim. h V( X n )
n 2
0
P m.
lo que demuestra que {X n }
fonemato.com
según el teorema de Markov
VENTANA
E (X n C)2 E (X n E(X n )) (E(X n ) C)
2
E X n E(X n ) E(X n ) C 2.(X n E(X n )).(E(X n ) C)
2 2
no aleatorio no aleatorio
E X n E(X n )
2
E(X ) C 2.E X E( X
n
2
n n) .(E( X n ) C)
E X E( X ) V( X )
2
n n n
E X n E( X n ) E( X n ) E E( X n ) E( X n ) E( X n ) 0
V(X n ) E( X n ) C
2
V(X n ) E(X n ) C
2
2
V(X n ) E(X n ) C
2
0 lim . P X n C lim . 0
n n 2
si lim. E(X n ) C y lim. V(X n ) 0
n n
PC
{X n }
Una mierdecilla de masa muy alejada del punto "Pepe" produce mucha
dispersión respecto a "Pepe": si en el origen hay una masa 0'9999999 y la
masa restante, 10 7 , está en el punto 101000 , el momento de orden 2 de
esta distribución respecto al origen (que es una medida de la dispersión de
la distribución respecto al origen) es brutal, nada menos que 10 7 .10 2000 .
fonemato.com
ción de X n U está muy próxima al origen y no hay masas (aunque sean irrele-
vantes) muy alejadas de él.
fonemato.com
Z n 2 . X i 2 .( Media aritmética de X1 , X 2 , .... , X n )
n
i 1
SOLUCIÓN
P a si demostramos que 0 sucede que
Demostraremos que {Z n }
lim . P Zn a e 0
n
Es:
n n n
E(Zn ) E 2 . X i 2 . E(X i ) 2 . a 2 .n. a a
n n n 2 n 2
i 1 i 1 i 1
X i U(0; a) E( X i ) (0 a)/2 a/2
c h c
P Z n a P Z n E( Z n ) h V(Z n )
2
a
2
3. n. 2
Tchebychef
VENTANA
pues X1 , X 2 , .... , X n son independientes
2 n 4 n n
2 2 2
V(Zn ) V . X i 2 . V(X i ) 2 . a 42 .n. a a
4
n n i 1 12 n 12 3.n
i 1 n i 1
X i U(0; a) V( X i ) (a 0)2 /12 a 2 /12
fonemato.com
2) Razónese si la anterior demostración es cierta si sólo exigimos que las variables
de la sucesión {X n } sean incorreladas, no necesariamente igualmente distri-
buidas, aunque todas con la misma media y la misma varianza finitas.
SOLUCIÓN
n
1) Sea Z n 1 . X i Media aritmética de X1 , X 2 , .... , X n .
n
i 1
P si demostramos que 0 sucede que
Demostraremos que {Z n }
c
lim. P Z n 0
n
h
Es:
1 n 1 n
E(Zn ) E . X i . E(X i ) 1 .n.
n n n
i 1 i 1
E( X i ) , i 1, 2, ..... , n
c h c
P Z n P Z n E( Z n ) h V( Z n ) 2
2
n. 2
Techebychef
pues X1 , X 2 , .... , X n son independientes
n n n
V(Zn ) V 1 . X i 12 . V(X i ) 12 . 2 12 .n.2
2
n n
i 1 n i 1 n i 1 n
VENTANA V( X i ) 2 , i 1, 2, ..... , n
Por tanto: c 2 0
0 lim. P Z n lim.
n n n. 2
h
c
lo que demuestra que lim. P Z n 0 .
n
h
2) Si las variables de la sucesión {X n } son incorreladas, aunque no tengan la mis-
ma distribución de probabilidad, si todas tienen la misma media y la misma
varianza 2 (ambas finitas), es:
E( Z n ) ; V( Z n ) 2 /n
pues X1 , X 2 , .... , X n son incorreladas
Por tanto, sigue siendo válida la demostración hecha en 1).
Tema 1: Sucesiones de variables aleatorias
© Rafael Cabrejas Hernansanz
FONEMATO 1.3.3
Sea {X n } una sucesión de variables aleatorias independientes, todas densidad
f ( x ) e ( x ) , x
P , siendo Z mín.{X , X , .... , X }.
Demuéstrese que {Z n } n 1 2 n
fonemato.com
SOLUCIÓN
P demostrando que 0 sucede que
Demostraremos que {Z n }
lim . P Zn 0
n
En efecto:
lim . P Zn
n
lim . P(Zn ) P(Zn )
n
n
lim .
n
P X i n
lim .
n
e ( x ) .dx
n
lim . e( x ) lim . e e n lim . e n. 0
n n n
fonemato.com
SOLUCIÓN
{X n } n
n
c
P 0 si 0 sucede que lim. P X 0 0 .
h
Es:
c h
lim. P X n 0 lim.
n n
bP( X n ) P( X n )g
P( X n ) 0 , pues X n no toma valores negativos
si 1 lim. 1/n 0
lim. P( X n ) n
n
si 1 lim. 0 0
n
1 1/n 1/n VENTANA
1
Xn
0 1
Si 1, la probabilidad del suceso X n es 1/n
Si 1, la probabilidad del suceso X n es 0
V( X n ) E( X n2 ) (E( X n ))2
0 2.P( X n 0) 12.P( X n 1) (1/n)2 (1/n) (1/n)2
R| 0 si x 0
Función de distribución de X n : Fn ( x ) P( X n x ) S1 1/n si 0 x 1
|T 1 si x 1
R| 0 si x 0 U| R|0 si x 0
Por tanto: lim. Fn ( x ) lim. S1 1/n si 0 x 1V S1 si 0 x 1
n | 1
n
T si x 1 |W |T1 si x 1
que es la función de distribución de una variable degenerada que concentra to-
da la masa de probabilidad en el punto x 0.
fonemato.com
SOLUCIÓN
P a si demostramos que 0 sucede que
1) Demostraremos que {X n }
c
lim. P X n a 0
n
h
Es:
lim . P X n a lim . P(X n a ) P(X n a )
n n
P(X n a ) 0, pues la variable X n no toma valores menores que "a"
si n. b lim. 1/n 0
lim. P( X n ) n
n si n. b lim. 0 0
n
1 1/n 1/n VENTANA
n. b
Xn
a a n. b
Si n. b, la probabilidad del suceso X n es 1/n
Si n. b, la probabilidad del suceso X n es 0
P a es sufi-
Observa: sabemos que si "a" es una constante, para que {X n }
ciente que:
lim . E( X n ) a ; lim . V( X n ) 0
n n
La sucesión dada {X n } demuestra que las anteriores condiciones no son ne-
cesarias, pues {X n } P a y sin embargo lim. E( X ) a:
n
n
fonemato.com
n
E(X n ) a b
E(X n2 ) a 2 .P(X n a) (a n.b)2 .P(X n a n.b)
a 2 .(1 1 ) (a n.b)2 . 1 a 2 2.a.b n.b2
n n
lim . a 2 2.a.b n.b2 2.a.(a b) a 2 lim . n.b2
n n
Por tanto, la sucesión {X n } no converge a "a" en media cuadrática.
El asunto de la convergencia en
probabilidad y en media cuadráti-
ca tendrá protagonismo estelar
cuando hablemos de la
consistencia de los estadísticos
fonemato.com
1) Calcúlese la función de distribución de X n . A partir de ella, demuestre que la
sucesión dada converge en ley a cualquier variable aleatoria que tome los valo-
res 1 y 1 de modo equiprobable.
2) Sea "W" la variable aleatoria tal que W RS
1 si 1 Z 0
T
1 si 0 Z 1
L W y que {X }
Pruébese que {X n } 2
n W -
SOLUCIÓN
1) Siendo Z U( 1 ; 1), su función de densidad es
f ( z) 1/2 , 1 z 1
Por tanto:
P( X n 1) P( 1 Z 1/n )
1 z
1/n
f ( z). dz .... ( n 1)/2. n
P( X n 0 ) P( 1/n Z 1/n )
1/n
1/n z f ( z). dz .... 1/n
P( X n 1) P(1/n Z 1)
1
1/n zf ( z). dz .... ( n 1)/2. n
x 1 0 1
P( X n x ) ( n 1)/2. n 1/n ( n 1)/2. n
La función de distribución de X n es:
R| 0 si x 1
( n 1)/2. n si 1 x 0
Fn ( x ) P( X n x ) S
|T( n 11)/2. n si 0 x 1
si x 1
Es:
R| 0 si x 1 U|
0 R| si x 1
( n 1)/2. n si 1 x 0 si 1 x 0
lim. Fn ( x ) lim. S V| S|
1/2
n n |( n 1)/2. n si 0 x 1 1/2 si 0 x 1
T 1 si x 1 1 W T si x 1
que es la función de distribución de una variable aleatoria que toma los valores
1 y 1 de modo equiprobable.
P( W 1) P( 1 Z 0 )
0
1 z
f ( z). dz .... 1/2
2
z
P( W 1) P( 0 Z 1) f ( z). dz .... 1/2
fonemato.com
0
Probaremos que {X n }
2 W probando que lim. E ( X W )2 0 .
n
n
c h
Es:
c h
lim. E ( X n W )2 lim.
n
1 0
n n
VENTANA
c h b g2 b
E ( X n W )2 1 ( 1) . P X n 1 ; W 1 g
W / Xn 1 0 1
1 "W" y X n no son independientes, pues ambas
1 están determinadas por el valor de "Z"
0 1 .P X n 0; W 1 1 ( 1) .P X n 1; W 1
2 2
1 1 .P X n 1; W 1
2
fonemato.com
Demostraremos que {X n }
c
lim. P X n 0 0
n
h
Es: lim . P X n 0 lim . P(X n ) P(X n )
n n
P( X n ) 0, pues X n no toma valores negativos
si n2 lim. 1/n 0
lim. P( X n ) n
n
si n2 lim. 0 0
n
1 1/n 1/n VENTANA
n2
Xn
0 n2
Si n2 , la probabilidad del suceso X n es 1/n
Si n2 , la probabilidad del suceso X n es 0
P C es su-
Observa: sabemos que si "C" es una constante, para que {X n }
ficiente que lim . E(X n ) C y lim . V(X n ) 0.
n n
La sucesión dada {X n } demuestra que las anteriores dos condiciones no son
P 0 y sin embargo lim . E(X ) 0 :
necesarias, pues {X n } n
n
lim . E(X n ) lim . n 0
n n
E(X n ) 0.P( X n 0) n 2 .P(X n n 2 ) n 2 .(1/n) n
fonemato.com
tos" al repetir el experimento "n" veces tiene distribución B( n ; p) , y la variable
Z n Tn /n expresa la frecuencia relativa del suceso "A" al repetir el expe-
rimento "n" veces. Así, siendo 0, es:
Tn B(n ; p) E( Tn ) n.p E(Zn ) E(Tn /n) E(Tn )/n p
V(Zn ) p.(1 p)
P Zn p P Zn E(Zn )
2 n. 2
Tchebychef
Tn B(n ; p) V(Tn ) n.p.(1 p)
V(Zn ) V(Tn /n) V(Tn )/n 2 p.(1 p)/n
p.(1 p)
Por tanto:
n
c
0 lim. P Z n p lim. h
n n. 2
0
P p .
lo que demuestra que {Z n }
fonemato.com
SOLUCIÓN
Llamando "éxito" al suceso "obtener cara", si P( éxito) 0'5, la variable X i
que expresa el número de "éxitos" (0 ó 1) en el i-ésimo lanzamiento tiene dis-
tribución de Bernouilli de parámetro 0'5, y la variable Tn X1 .... X n que
expresa el número de "éxitos" en "n" lanzamientos tiene distribución
B( n ; 0'5), supuesto que X1 , .... , X n son independientes.
Obviamente, la variable Z n Tn /n expresa la frecuencia relativa del suceso
"cara" en "n" lanzamientos de la moneda, y se nos pide que determinemos "n"
de modo que P( 0'45 Z n 0'55) 0'8 ; es:
P(0'45 Zn 0'55) P Zn 0'5 0'05
Tn B(n ;0'5) V(Tn ) 0'52.n V(Zn ) V(Tn /n) V(Tn )/n 2 0'52 /n
0'52 /n 0'52 500
0' 2 n
0'052 0'052.0' 2
Determinemos "n" de modo que P( 0'49 Z n 0'51) 0'9 :
c
P( 0'49 Z n 0'51) P Z n 0'5 0'01 h
0'52 /n
c h
P Z n E( Z n ) 0'01 1
V( Z n )
0'012
1
0'012
0'9
0'52 /n 2
0'1 n 0'5 2500
0'012 0'012 .0'1
fonemato.com
frecuencia relativa de tránsitos y la probabilidad desconocida sea superior a 0'06.
SOLUCIÓN
Llamando "éxito" al suceso de que un pasajero esté en tránsito, si P( éxito) p, la
variable X i que expresa el número de "éxitos" (0 ó 1) con el i-ésimo pasajero tie-
ne distribución de Bernouilli de parámetro "p", y la variable Tn X1 .... X n
que expresa el número de "éxitos" entre "n" pasajeros tiene distribución B( n ; p),
supuesto que X1 , .... , X n son independientes.
Obviamente, la variable Z n Tn /n expresa la frecuencia relativa de pasajeros en
tránsito entre "n" pasajeros, y se nos pide que determinemos "n" de modo que
c h
P Z n p 0'06 0'05
Es:
Tn B(n ; p) E( Tn ) n.p E(Zn ) E(Tn /n) E(Tn )/n p
V(Zn )
P Zn p 0'06 P Zn E(Zn ) 0'06
0'062
Tchebychef
Tn B(n ; p) V(Tn ) n.p.(1 p)
V(Zn ) V(Tn /n) V(Tn )/n 2 p.(1 p)/n
p.(1 p)/n p.(1 p)
0'05 n
0'062 0'062.0'05
como desconocemos "p", no hay más remedio que acotar
el producto p.(1 p) mediante la menor de sus cotas superiores,
que es 1/4, pues p (0;1) es p.(1 p) 1/4 VENTANA
1/4 p.(1 p) p.(1 p)
n n 1389
0'062.0'05 0'062.0'05 0'062.0'05
fonemato.com
Hay que
aprender
a usar las
ventanas
¡Está
loco!
fonemato.com
S1 X1 ; S 2 X1 X 2 ; ..... ; S n X1 X 2 .... X n ; .....
Lindeberg-Levy demostraron que la sucesión {S n } verifica el teorema Central
n s L N( 0 ; 1) , o lo que es igual:
del Límite; es decir: ( S n E( S n ))/ V( S n )
lS n q L N(E(S n ); V( S n ))
Esto significa que cuando "n" es grande ( 30 ) , la distribución de probabilidad
de la variable S n X1 X 2 .... X n puede aproximarse mediante la nor-
mal con media y varianza las de S n , que son:
n n
E(Sn ) E X i n. ; V(Sn ) V X i n.2
i 1 i 1
E(X i ) , i 1, 2, .... ,n V(X i ) 2 , i 1, 2, .... ,n
Por tanto, si "n" es grande ( 30 ) , la distribución de probabilidad de la varia-
ble S n X1 X 2 .... X n puede aproximarse mediante la N( n. ; . n ).
También verifica el teorema Central del Límite la sucesión {X n }, siendo
X n ( X1 X 2 .... X n )/n Media aritmética de X1 , .... , X n
o sea:
X n
L N(E(X );
n V(X n )) N( ; / n )
1 n 1 n
E(X n ) E . X i ; V(X n ) V . X i
2
n n n
i 1 i 1
E(X i ) , i 1, 2, .... ,n V(X i ) 2 , i 1, 2, .... ,n
fonemato.com
SOLUCIÓN
Si X i P( 40 ) expresa el número muertos durante el i-ésimo minuto del día de
Nochebuena, la variable X X1 .... X1440 expresa el número de muertos en
los 1440 minutos de ese día, y X X1 .... X1440 P(57600 ) , pues si las va-
riables independientes X1 , .... ,X k tienen distribución de Poisson de parámetros
respectivos 1 , .... , k , la suma de ellas tiene distribución de Poisson de paráme-
tro 1 + .... k . La función de probabilidad de X P(57600 ) es:
P( X x ) e 57600 .57600 x /x !, x 0 ,1, 2 ......
Así, la probabilidad de que el día de Nochebuena mueran de hambre no menos
de 28800 personas en esa región, es:
28799
e 57600 .57600 x
P(X 28800) 1 P(X 28799) 1 x!
x 0
Naturalmente, se nos le hiela la sangre al pensar en calcular tan espantosa
suma, por ello estamos enormemente agradecidos a Lindeberg-Levy y recitamos
con entusiasmo su dulce latiguillo: como "X" es suma de un elevado núme-
ro de variables aleatorias independientes, todas con la misma distribución
de probabilidad, con la misma media y la misma varianza, podemos
aproximar la distribución de probabilidad de "X" mediante la normal con
media y varianza las de "X", que son E( X ) 57600 y V( X ) 57600 (si
X P( ) es E(X ) V(X ) ) . Así:
P(X 28800) P N(57600; 57600 ) 28799'5 .....
VENTANA
CORRECCIÓN POR CONTINUIDAD
Al aproximar la distribución discreta X P(57600) mediante la
N(57600; 57600 ), consideramos que la "masa puntual" que tiene
X P(57600) en el punto 28800 se corresponde con la "masa continua"
que tiene la N(57600; 57600 ) en el intervalo (28799'5; 28800'5).
Como la probabilidad del suceso X 28800 debe sumarse,
al trabajar con la normal consideramos la masa de
probabilidad que hay a la derecha del punto 28799'5.
Hay que determinar "c" de modo que P( X c ) 0'95:
d i
P( X c ) P N(57600 ; 57600 ) c 0'5
FG IJ
P N( 0 ; 1) c 0'5 57600 0'95 c 0'5 57600 1'645
H 57600 K 57600
Tema 1: Sucesiones de variables aleatorias
© Rafael Cabrejas Hernansanz
FONEMATO 1.6.2
Con independencia unos días de otros, la aleatoria demanda diaria de vino (en li-
tros) en un bar tiene distribución uniforme en el intervalo ( 20 ; 40 ) . Calcúlese la
probabilidad de que en 182 días se vendan más de 6370 litros de vino.
SOLUCIÓN
fonemato.com
Si X i U( 20 ; 40 ) expresa la aleatoria demanda de vino el i-ésimo día, la variable
X X1 X 2 .... X182 expresa la aleatoria venta total durante 182 días.
Se nos pide la probabilidad del suceso X 6370, lo que es bastante imposible
si se desconoce la distribución de probabilidad de "X"... y `por eso firmamos con
gusto para que a Lindeberg-Levy les hagan un monumento precioso en su pueblo
y colgamos en Facebook su lindo latiguillo: como "X" es suma de un eleva-
do número de variables aleatorias independientes, todas con la misma dis-
tribución de probabilidad, con la misma media ( E( X i ) ( 20 40 )/2 30 ) y
la misma varianza ( V( X i ) ( 40 20 )2 /12 100/3), podemos aproximar la
distribución de probabilidad de "X" mediante la normal con media y va-
rianza las de "X", que son:
F 182 I 182
E( X ) EG X i J E( X i ) 182. E( X i ) 5460
H i 1 K i 1
F 182 I 182
V( X ) V G X i J V( X i ) 182. V( X i ) 18200/3
H i 1 K i 1
Así:
P(X 6370) P N(5460; 18200/3 ) 6370
P N(0;1) 6370 5460 ...
18200/3
¡En examen
hay que
dejar escrito
TODO lo
relevante
que pase por
el cerebro!
fonemato.com
La función de probabilidad o cuantía de la variable X i que expresa el resultado
del i-ésimo lanzamiento del dado es:
x 1 2 3 4 5 6
P( X i x ) 1/6 1/6 1/6 1/6 1/6 1/6
Si ganamos 100 $ por punto si sale cara par y perdemos 100 $ por punto si sale
cara impar, siendo Z i la variable que expresa el aleatorio beneficio obtenido en el
i-ésimo lanzamiento, es claro que
Xi 1 2 3 4 5 6
E E E E E E
Zi 100 200 300 400 500 600
Por tanto, la función de cuantía de la variable Z i es:
z 500 300 100 200 400 600
P( Z i z) 1/6 1/6 1/6 1/6 1/6 1/6
Obviamente, el beneficio obtenido tras lanzar el dado 500 veces está expresado
por la variable Z Z1 Z2 .... Z500 .
Se nos pide la probabilidad del suceso Z 23000, lo que es bastante imposible
sin calcular previamente la distribución de probabilidad de la variable "Z". Por
eso, como es de bien nacidos ser agradecidos, postulamos para que Lindeberg-
Levy sean elevados a los altares por ser autores del más delicado latiguillo: co-
mo "Z" es suma de un elevado número de variables aleatorias indepen-
dientes, todas con la misma distribución de probabilidad, con la misma
media y la misma varianza, podemos aproximar la distribución de proba-
bilidad de "Z" mediante la normal con media y varianza las de "Z", que
son:
500 500
E(Z) E Zi E(Zi ) 500.E(Z i ) 25000
i 1 i 1
E(Z i ) 500 300 100 200 400 600 50
6 6 6 6 6 6
500 500
V(Z) V Zi V(Zi ) 500.V(Zi ) 500.149167
i 1 i 1
VENTANA
V(Zi ) E(Z i ) (E(Zi ))2
2 910000 50 2 149167
6
2 2 2 2 2 2
E(Z2i ) 500 300 100 200 400 600 910000/6
6 6 6 6 6 6
fonemato.com
Siendo 22900 y 23100 los valores anterior y posterior a 23000 que
puede tomar "Z", consideramos que la "masa puntual" que tiene
"Z" en el punto 23000 se corresponde con la "masa continua"
que tiene la N(25000; 500.149167 ) en el intervalo (22950; 23050).
Por tanto, como la probabilidad del suceso Z 23000 no debe
sumarse, al trabajar con la normal sólo consideramos la masa de
probabilidad que hay a la izquierda del punto 22950
P N(0;1) 22950 25000 .....
500.149167
¡Apuesto un brazo a
que en este montón
de exámenes casi
nadie me lo explica
todo clarito!
fonemato.com
SOLUCIÓN
Si X i Exp.( 0'05) expresa el aleatorio tiempo de espera del i-ésimo cliente, el
aleatorio tiempo medio de espera de 2 clientes está expresado por la variable
W Z/2 , siendo Z X1 X 2 . Es:
P( W 21) P(Z/2 21) P(Z 42)
0'052
.z 2 1 .e-0'05.z .dz .... 0'3796
42 (2)
Como X1 Exp.(0'05) G(1;0'05) y X 2 Exp.(0'05) G(1;0'05)
son independientes, entonces Z X1 X 2 G(1 1;0'05) G(2;0'05);
2
así, la densidad de "Z" es f(z) 0'05 .z 2 1.e -0'05.z , z 0
(2)
El aleatorio tiempo medio de espera de 100 clientes está expresado por la va-
riable X T/100 , siendo T X1 .... X100 . Es:
fonemato.com
100 días sea superior a 4'5,
SOLUCIÓN
Si X i P( 4 ) expresa el número de casos de corrupción que se descubren el i-
ésimo día, el aleatorio número medio de casos en 2 días está expresado por la
variable W Z/2 , siendo Z X1 X 2 . Es:
P( W 4 '5) P(Z/2 4 '5) P(Z 9)
9
e 8 .8z .... 0' 2834
1 P(Z 9) 1 z!
z0
Como X1 P(4) y X 2 P(4) son independientes, entonces
8 z
Z X1 X 2 P(4 4) P(8); por tanto: P(Z z) e .8 , z 0,1, ....
z!
El número medio de casos en 100 días está expresado por X T/100 , siendo
T X1 .... X100 . Es:
P(X 4 '5) P(T/100 4 '5) P(T 450)
450
400 .400t
1 P(T 450) 1 e inf umable
t!
t 0
400 .400t
T X1 .... X100 P(400); así: P(T t) e , t 0,1, ....
t!
Latiguillo: como "X" es la media aritmética de un elevado número de
variables aleatorias independientes, todas con la misma distribución de
probabilidad, con la misma media y la misma varianza, según Linde-
berg-Levy, podemos aproximar la distribución de probabilidad de "X"
mediante la normal con media y varianza las de "X", que son:
1 100 1 100
. E( X i ) 1 .100.4 4
100 i 100
E(X) E . X
100
i 1 i 1
X i P(4) E(X i ) 4 y V(X i ) 4
1 100 1
100
. V(X i ) 1 2 .100.4 0'04
100 i 100 2
V(X) V . X
i 1 i 1
100
Por tanto:
d i e j
P( X 4 '5) P N( 4 ; 0'04 ) 4 '5 P N( 0 ; 1) 4 '5 4 .....
0'2
fonemato.com
B tiene se distribuye (también minutos) de modo uniforme en el intervalo ( 0 ; 6).
Además, se considera que la duración de cada válvula es independiente de la du-
ración de las demás. Una vez averiada la válvula que hace funcionar la máquina,
ésta es sustituida inmediatamente por otra del mismo tipo modo automático.
¿Cuál es la probabilidad de que la máquina funcione ininterrumpidamente al me-
nos 14'5 horas si trabaja con válvulas de tipo A? ¿Y si trabaja con válvulas tipo B?
SOLUCIÓN
Si hay 220 válvulas del tipo A y X i Exp.( 0'2 ) expresa la duración de la i-
ésima, el tiempo de funcionamiento ininterrumpido de la máquina está expre-
sado por la variable X X1 .... X 220 , siendo:
220 220
E(X) E X i . E( X i ) 220.5 1100
i 1 i 1
X i Exp.P(0' 2) E(X i ) 5 y V(X i ) 25
220 220
V(X) V X i V(X i ) 220.25 5500
i 1 i 1
Si hay 300 válvulas del tipo B y Z k U( 0 ; 6) expresa la duración de la k-ésima,
el tiempo de funcionamiento ininterrumpido de la máquina está expresado por
la variable Z Z1 .... Z300 , siendo:
300 300
E(Z) E Zk E(Zk ) 300.3 900
k 1 k 1
Zk U(0;6) E(Zk ) (0 6)/2 3 y V(Zk ) (6 0)2 /12 3
300 300
V(Z) V Zk V(Zk ) 300.3 900
k 1 k 1
Latiguillo: tanto "X" como "Z" son suma de un elevado número de va-
riables aleatorias independientes, todas con la misma distribución de
probabilidad, con la misma media y la misma varianza; en consecuen-
cia, según Lindeberg-Levy, podemos aproximar la distribución de pro-
babilidad de "X" mediante la normal con media y varianza las de "X",
y la distribución de probabilidad de "Z" podemos aproximarla median-
te la normal con media y varianza las de "Z". Así:
d i
P( X 14 '5 . 60 ) P N(1100 ; 5500 ) 14 '5 . 60 .....
d i
P( Z 14 '5 . 60 ) P N( 900 ; 900 ) 14 '5 . 60 .....
Tema 1: Sucesiones de variables aleatorias
© Rafael Cabrejas Hernansanz
FONEMATO 1.6.7
El tiempo (en horas) que tarda una máquina en realizar un ciclo de trabajo tiene
densidad f ( x ) 2. x , 0 x 1. Calcúlese la probabilidad de que la máquina tarde
más de 40 horas en realizar 45 ciclos.
SOLUCIÓN
fonemato.com
Si X i expresa el tiempo empleado en el i-ésimo ciclo, es:
1 1
E( X i ) x.f(x).dx 2. x 2 .dx 2
0 0 3
4
V(X i ) E(X 2i ) (E(X i ))2 1 1
2 9 18
1 1
E(X 2i ) x 2 .f(x).dx 2. x 3 .dx 1
0 0 2
El tiempo en realizar 45 ciclos está expresado por X X1 .... X 45 , siendo:
F 45 I 45
E( X ) EG X i J . E( X i ) 45 . 2 30
H i 1 K i 1 3
F 45 I 45
V( X ) V G X i J V( X i ) 45 . 1 5
H i 1 K i 1 18 2
suponiendo que X1 , .... ,X 45 son independientes
Latiguillo: como "X" es suma de un elevado número de variables aleato-
rias independientes, todas con la misma distribución de probabilidad, con
la misma media y la misma varianza, según Lindeberg-Levy, podemos
aproximar la distribución de probabilidad de "X" mediante la normal con
media y varianza las de "X". Por tanto:
d i
P( X 40 ) P N( 30 ; 5/2 ) 40 .....
examen
fonemato.com
tal que P( 230 c ) 0'9 es c 40'3.
Si X i 12 y X1 , .... , X 30 son independientes, sabemos que
X X 1 .... X 30 30
2
siendo
E(X) 30 ; V(X) 60 y
pues E( 2n ) n y V( 2n ) 2. n.
Según Lindeberg-Levy, podemos aproximar la distribución de probabili-
dad de X c 230 mediante la normal con media y varianza las de "X".
Por tanto:
P( 30
2 c) P N(30; 60 ) c 0'9
P N(0;1) c 30 0'9
60
c 30 1' 28 c 39'91
60
fonemato.com
obtenido mediante la aproximación de Lindeberg-Levy.
2) Mediante la desigualdad de Tchebychef, determínese la cota que con probabi-
lidad no inferior a 0'75 no es superada por la desviación de la media aritmética
respecto a 75. Compárese el resultado con el obtenido mediante la aproxima-
ción de Lindeberg-Levy.
SOLUCIÓN
1) Siendo X ( X1 .... X100 )/100 , es:
100 100
E(X) E 1 . X i 1 . E(X i ) 1 .100.75 75
100 100 100
i 1 i 1
E(X i ) 75 y V(X i ) 225
100 100
V(X) V 1 . X i 1 2 . V(X i ) 1 2 .100.225 2' 25
100
i 1 100 i 1 100
Según Tchebychef:
c h c V( X )
P X 75 6 P X E( X ) 6 1
6 2 h
1 2'25 0'9375
62
Según Lindeberg-Levy, podemos aproximar la distribución de probabi-
lidad de "X" mediante la normal con media y varianza las de "X". Por
tanto:
c h e j FGH
P X 75 6 P N( 75 ; 2'25 ) 75 6 P N( 0 ; 1) 6
2'25
1
IJ
K
c
2) Debemos determinar "c" de modo que P X 75 c 0'75. h
V( X)
P X 75 c P X E(X) c 1 1 2' 25 0'75 c 3
c2 c2
Tchebychef
Aproximando la distribución de probabilidad de "X" mediante la normal con
media y varianza las de "X":
c h e
P X 75 c P N( 75 ; 2'25 ) 75 c j
FG c IJ FG c I 0'875
J
H
P N( 0 ; 1)
2'25 K H
0'75 P N( 0 ; 1)
2'25 K
c 115 ' c 1'725
2'25
Tema 1: Sucesiones de variables aleatorias
© Rafael Cabrejas Hernansanz
FONEMATO 1.6.10
El número de clientes que entran cada día a la farmacia "A" tiene distribución de
Poisson de parámetro 20, y para la farmacia "B" tiene distribución B( 30 ; 0'7).
1) Calcúlese la probabilidad de que el número medio diario de clientes de "A" du-
rante 100 días se desvíe del número medio diario de clientes de "B" durante
fonemato.com
200 días en menos de dos.
2) ¿Qué cota no superará dicha desviación con probabilidad 0'95?
SOLUCIÓN
1) Si X i P( 20 ) es el número de clientes de "A" el i-ésimo día, el número medio
de clientes diarios durante 100 días lo expresa X ( X1 .... X100 )/100. Su-
puesto que las variables X1 , .... , X100 son independientes, podemos aproxi-
mar (Lindeberg-Levy) la distribución de probabilidad de "X" mediante la nor-
mal con media y varianza las de "X", que son:
E(X) E( X i ) 20 ; V(X) V(X i )/100 0' 2
X i P(20) E( X i ) 20 y V(X i ) 20
Si Z k B( 30 ; 0'7) es el número de clientes de "B" el k-ésimo día, el número
medio de clientes diarios durante 200 días es Z ( Z1 .... Z200 )/200. Su-
puesto que las variables Z1 , .... , Z200 son independientes, podemos aproximar
(Lindeberg-Levy) la distribución de probabilidad de "Z" mediante la normal
con media y varianza las de "Z", que son:
E(Z) E(Zk ) 21 ; V(Z) V(Zk )/200 6'3
Zk B(30;0'7) E(Zk ) 30.0'7 21 y V(Zk ) 30.0'7.0'3 6'3
El número medio diario de clientes de "A" durante 100 días se desviará del
número medio diario de clientes de "B" durante 200 días en menos de dos si
ocurre el suceso X Z 2 , siendo:
VENTANA
P X Z 2 P N( 1; 6'5 ) 2
supuesto que X N(20; 0' 2 ) y Z N(21; 6'3 ) son independientes,
la distibución de probabilidad de X Z es normal, siendo:
E(X Z) E(X) E(Z) 20 21 1
V(X Z) V(X) E(Z) 0' 2 6'3 6'5
2 ( 1) 2 ( 1)
P N(0;1) 2.P N(0;1) 1 ...
6'5 6'5
c
2) Debemos calcular "c" de modo que P X Z c 0'95 : h
c h FGH
P X Z c P N( 0 ; 1)
c ( 1)
6'5
IJ
K
0'95
c ( 1)
6'5
1'96
c 1'96. 6'5 1
fonemato.com
Así, como E( S n ) n. p y V( S n ) n. p. q (siendo q 1 p), la sucesión {Z n } de
variables tipificadas correspondiente a {S n } es tal que Z n ( S n n. p)/ n. p. q ,
y Moivre demostró que {Z n } L N( 0 ; 1) , demostrando que la f.g.m de Z
n
tiende a la f.g.m de la variable N( 0 ; 1). En efecto:
n
t 2 /2 lo que sea lo que sea
lim . ΦZn (t) lim . 1
n n n
n 3/2
n5/2
.... 1
VENTANA
ΦZn (t) E et.Zn E et.(Sn n.p)/ n.p.q
c h
E e Pepe.S n S n ( Pepe )
e t.n.p/ n.p.q .E et.Sn / n.p.q e t.n.p/ n.p.q .ΦSn (t/ n.p.q )
S n B( n ; p) S n ( ) ( q p. e ) n
n
e
e t. n. p/ n. p.q . q p. e t/ n. p.q j
n n
q.e t.p/ n.p.q p.et.(1 p)/ n.p.q q.e t.p/ n.p.q p.et.q/ n.p.q
F F
G q. G 1
t. p ( t. p)2 I F t. q ( t . q )2 II n
H H
n. p. q 2. n. p. q JK GH
.... p. 1
n. p. q 2. n. p. q
....JK JK
F
G1
t 2 /2 lo que sea lo que sea I n
n
c h
lim. ( a n ) b n 1 e n f.g.m. de la variable N(0;1)
fonemato.com
Llamando "éxito" al suceso de que una venta sea al contado, si P( éxito) 0'2 , la
variable X i que expresa el número de "éxitos" (0 ó 1) en la i-ésima venta tiene
distribución de Bernouilli de parámetro 0'2; así, la variable X X1 .... X1000
que expresa el número de "éxitos" en 1000 ventas tiene distribución B(1000 ; 0'2 ),
supuesto que X1 , .... , X1000 son independientes.
La función de cuantía de "X" es:
P( X x ) FH1000I x
x K .0'2 .(1 0'2 )
1000 x , x 0 ,1, .... ,1000
Por tanto:
fonemato.com
SOLUCIÓN
Llamando "éxito" al suceso de que nazca un varón, si P( éxito) 0'48 , la variable
X i que expresa el número de "éxitos" (0 ó 1) en el i-ésimo nacimiento tiene dis-
tribución de Bernouilli de parámetro 0'48; así, la variable X X1 .... X n que
expresa el número de "éxitos" en los "n" nacimientos del año tiene distribución
B( n ; 0'48 ), supuesto que X1 , .... , X n son independientes.
La función de cuantía de "X" es:
n FH IK
P( X x ) x .0'48 x .(1 0'48 )n x , x 0 ,1, .... , n
Para calcular "n" basta exigir que P( X 1000 ) 0'1711, o lo que es igual, exigir
que P( X 1000 ) 0'8289 ; es decir:
999
n .0'48 x.(1 0'48)n x 0'8289
x
x 0
Como se nos hiela el alma al pensar en el petardo de resolver tan espantosa ecua-
ción, glorificamos a Lindeberg-Levy (versión Moivre) recitando su onírico lati-
guillo: como "X" es suma de un elevado número de variables independientes,
todas con igual distribución de probabilidad, igual media e igual varianza, aproxi-
mamos la distribución de probabilidad de "X" mediante la normal de media y va-
rianza las de "X", que son E( X ) 0'48 . n y V( X ) n . 0'48 .(1 0'48 ) 0'2496. n ,
pues si X B( n ; p) es E( X ) n. p y V( X ) n. p.(1 p) .
Por tanto:
Corrección por continuidad: la "masa puntual" que tiene
X B(n ;0'48), en el punto 1000 se corresponde con la "masa continua"
que tiene la N(0'48.n ; 0' 2496.n ) en el intervalo (999'5;1000'5).
Por tanto, como la probabilidad del suceso X 1000 no debe
sumarse, al trabajar con la normal consideramos la masa de
probabilidad que hay a la izquierda del punto 999'5
P(X 1000) P N(0'48.n ; 0' 2496.n ) 999'5 0'8289
P N(0;1) 999'5 0'48.n 0'8289 999'5 0'48.n 0'95 n ....
0' 2496.n 0' 2496.n
fonemato.com
SOLUCIÓN
Llamando "éxito" al suceso de que un día la empresa no obtenga beneficio, es:
b g
P( éxito) P U( 0 ; 2 ) 15
' z
1'5 1
0 2
. dx 0'75
fonemato.com
Llamando "éxito" al suceso de chuparse el dedo, si P( éxito) 0'7, la variable X i
que expresa el número de "éxitos" (0 ó 1) con el i-ésimo estudiante tiene distribu-
ción de Bernouilli de parámetro 0'7, y la variable X X1 .... X 300 que expre-
sa el número de "éxitos" en 300 estudiantes tiene distribución B( 300 ; 0'7), su-
puesto que X1 , .... , X 300 son independientes.
La función de cuantía de "X" es:
fonemato.com
Llamando "éxito" al suceso de que un fusible dure menos de 1790 horas, es:
P(éxito) P N(2000; 200) 1790 P N(0;1) (1790 2000)/200 0'1469
Así, la variable X i que expresa el número de "éxitos" (0 ó 1) con el i-ésimo fusi-
ble es de Bernouilli de parámetro 0'1469 ; por ello, la variable X X1 ... X10
que expresa el número de "éxitos" en un lote de 10 fusibles es B(10 ; 0'1469), su-
puesto que X1 , .... , X10 son independientes. La función de cuantía de "X" es
P(X x) 10
x .0'1469 .(1 0'1469)
x 10 x , x 0,1, .... ,10
Siendo "A" el suceso de que un lote sea defectuoso, es:
P( A ) P( X 2 ) 1 P( X 0 ) P( X 1) .... 0'1238
Llamando ahora "éxito" al suceso de que un lote sea defectuoso (ocurre "A"), si
P( éxito) 0'1238 , la variable Z k que expresa el número de "éxitos" (0 ó 1) con el
k-ésimo lote es de Bernouilli con parámetro 0'1238 , y Z Z1 .... Z1000 que
expresa el número de "éxitos" en 1000 lotes tiene distribución B(1000 ; 0'1238 ),
supuesto que Z1 ,...., Z1000 son independientes. La función de cuantía de "Z" es:
FH IK
1000
P( Z z) z .0'1238 z .(1 0'1238 )1000 z , z 0 ,1, .... ,1000
Siendo "B" el suceso de rechazar el embarque, es:
z
149
1000 .0'1238z.(1 0'1238)1000 z
P(B) 1 P(B) 1 P(Z 150) 1
z 0
Como odiamos las sumas petardas, declamamos el latiguillo de Lindeberg-Levy
(versión Moivre): siendo "Z" la suma de un elevado número de variables inde-
pendientes, todas con la misma distribución de probabilidad, con la misma media
y la misma varianza, podemos aproximar la distribución de probabilidad de "Z"
mediante la normal con media y varianza las de "Z", que son:
E(Z) 1000.0'1238 123'8 ; V(Z) 1000.0'1238.(1 0'1238) 108'47
U B(n ; p) E(U) n.p y V(U) n.p.(1 p)
Así: P(B) 1 P(Z 150) 1 P N(123'8; 108'47 ) 149'5
Corrección por continuidad: como la probabilidad de suceso
Z 150 no debe sumarse, al trabajar con la normal
consideramos la masa de probabilidad a la izquierda de 149'5
1 P N(0;1) (149'5 123'8)/ 108'47 ....
Tema 1: Sucesiones de variables aleatorias
© Rafael Cabrejas Hernansanz