Вы находитесь на странице: 1из 63

1

INTRODUCCION

La teoría de las probabilidades surge en los siglos XVI - XVIII relacionada con problemas d e lo s
juegos de azar, particularmente en Europa; sus principales precursores fueron Pascal, Fe rmat y
otros. Esta teoría continuó desarrollándose vinculada con los nombres de Bernoulli (1654 - 1705)
y posteriormente con Moivre, Laplace, Poisson, Gauss y otros. Un nuevo período de esta te o ría
está vinculado con los nombres de Chebyshev (1821 - 1894) y sus alumnos Markov (1856 -
1922) y Liapunov (1857 - 1918). En su posterior desarrollo, han contribuido en gran medida los
matemáticos Bernshtein, Romanovki, Kolmogorov, Smirnov, Gnedenko y otros. Cualquier
fenómeno del mundo que nos rodea, se halla relacionado directa o indirectamente con un
conjunto infinito de otros hechos que pueden dar lugar a que: dicho fenómeno deba suceder
siempre, es decir, que sea cierto; nunca pueda suceder, es decir, que sea imposible y en último
caso, que pueda o no ocurrir, a lo cual se le denominará como un fenómeno aleatorio. Los
métodos de la teoría de las probabilidades se emplean ampliamente en distintas ramas de las
ciencias naturales y de la técnica sirviendo también como base de la estadística matemática y
aplicada, la cual, a su vez, se emplea en la planificación y organización de la p ro d ucción, p ara
analizar los procesos productivos y tecnológicos, el control de la calidad y muchos otros fines. En
los últimos años, los métodos estadísticos en que se aplica la teoría de las probabilidades,
penetran cada vez más con mayor amplitud en los distintos campos de la ciencia y la técnica,
contribuyendo a su progreso.

2
JUSTIFICACION

Los métodos de la teoría de probabilidades se emplean ampliamente en distintas ramas


de las ciencias naturales y de la técnica sirviendo también como base de la e stad ística
matemática y aplicada, la cual, a su vez, se emplea en la planificación y organización de
la producción, para analizar los procesos productivos y tecnológicos, el control de
calidad y muchos otros fines. En los últimos años, los métodos estadístico s e n q ue se
aplica la teoría de las probabilidades, penetran cada vez más con mayor amplitud en lo s
distintos campos de la ciencia y la técnica, contribuyendo a su progreso. En la actualidad
son muchas las aplicaciones de la probabilidad; por ejemplo: se usa e n lo s jue g o s d e
azar como loterías, casinos, carreras de caballos y deportes; sin embargo, e l uso d e la
probabilidad va más allá de los juegos de azar. En la actualidad, los gobiernos, las
empresas y las organizaciones profesionales utilizan la teoría de la probabilidad en su
cotidiano proceso de toma de decisiones. En cualquier aplicación particular, e l e mp le o
de las probabilidades indica que existe algún elemento aleatorio o de incertidumbre
relacionado con la ocurrencia o no ocurrencia de algún evento futuro. Así, en muchos
casos, puede ser imposible predecir qué pasará, pero es posible deducir lo q ue p od ría
pasar con algún grado de certidumbre.
Existen muchos ejemplos en los negocios y en las actividades del gobierno en lo s q ue
interviene algún elemento aleatorio. Por ejemplo, predecir cuánta demanda tendrá un
producto nuevo en el mercado, estimar el costo de producción, pronosticar las fallas e n
las cosechas, comprar seguros, contratar a un nuevo empleado, presupuestar, pre d e cir
la reacción de los gobiernos extranjeros ante un cambio en la política de defensa,
calcular qué impacto tendrá en la inflación una rebaja en los impuestos, etcétera. Debido
a esto, en la elaboración de la presente monografía nos hemos planteado el siguiente
problema: ¿Cuáles son los conceptos básicos de la probabilidad y cuál es su
importancia en las ciencias?; con la finalidad de definir los conceptos básicos de la
probabilidad matemática, conocer los enfoques del concepto de probabilidad, determinar
la importancia de la teoría de la probabilidad y su aplicación en el estudio de las
ciencias.

3
ÍNDICE
INTRODUCCION....................................................................................................................2
JUSTIFICACION ....................................................................................................................3
I. ALGUNAS DISTRIBUCIONES IMPORTANTES....................................................................6
1.1 Algunas distribuciones importantes de variables aleatorias discretas ..........................6
1.1.1. Distribuciones de Bernoulli ..................................................................................6
1.1.2. Distribución binomial ..........................................................................................8
1.1.3. Distribución geométrica.......................................................................................9
1.1.4. Distribución de pascal o binomial negativa .......................................................... 10
1.1.5. Distribución hipergeometrica ............................................................................. 11
1.1.6. Distribución de poisson ..................................................................................... 12
1.2 Algunas distribuciones importantes de variable aleatoria continuas .......................... 14
1.2.1. Distribución uniforme........................................................................................... 14
1.2.2. La distribución normal....................................................................................... 16
1.2.3. Distribuciones gamma, exponencial, chi-cuadrado ............................................... 19
a) Función gamma ....................................................................................................... 19
b) Distribución gamma ................................................................................................. 20
c) Distribución exponencial........................................................................................... 22
d) Distribución chi-cuadrado ......................................................................................... 22
1.2.4. Distribución t-student........................................................................................ 23
1.2.5. Distribución F ................................................................................................... 24
1.3 Teorema del límite central...................................................................................... 28
1.3.1. Aproximación a la binomial a la normal ............................................................... 31
1.3.2. Aproximación de la hipergeometrica a la normal .................................................. 32
1.3.3. Aproximación de la poisson a la normal .............................................................. 33
1.3.4. Aproximación de la chi –cuadrado a la normal ..................................................... 34
II. DISTRIBUCIONES MUESTRALES................................................................................... 36
2.1 Muestreo aleatorio ................................................................................................ 36
2.1.1. Población y parámetros ..................................................................................... 36
2.1.2. Muestra aleatoria tipos de muestras .................................................................... 37
2.1.3. Estadísticas...................................................................................................... 43
2.2 Distribuciones muestrales ..................................................................................... 44
2.2.1. Distribución muestral de la media ....................................................................... 44
2.2.2. Distribución muestral de la una proporción.......................................................... 45
2.2.3. Distribución muestral de la varianza.................................................................... 48

4
2.3 Distribuciones de una media con varianza poblacional no conocida .......................... 51
2.4 Distribución muestral de la diferencia de dos medias con varianza poblacionales
conocidas....................................................................................................................... 52
2.5 Distribución muestral de la diferencia de dos medias con varianza poblacionales
desconocidas.................................................................................................................. 54
2.5.1. Varianzas poblacionales iguales......................................................................... 57
2.5.2. Varianzas poblacionales diferentes ..................................................................... 57
2.6 Distribucion muestral de diferencia de do proporciones ........................................... 58
2.7 Distribucion muestral de la razón de dos varianzas .................................................. 61
BIBLIOGRAFIA.................................................................................................................... 63

5
I. ALGUNAS DISTRIBUCIONES IMPORTANTES
1.1 Algunas distribuciones importantes de variables aleatorias discretas
1.1.1. Distribuciones de Bernoulli
Se denomina prueba de Bernoulli a toda variable aleatoria discreta que consiste
de dos resultados posibles mutuamente excluyentes:
Exito  1 y Fracaso  0
Si la probabilidad de éxito es p y la fracaso 1  p podemos construir una
función de probabilidad.
P( x)  p x (1  p)1 x x  0,1
El espacio muestral asociado al experimento aleatorio de Bernoulli se puede
escribir como el conjunto:    E , F 

Variable aleatoria X definida en  de manera que atribuye :a E el valo r 1 y a F


el valor 0 se denomina variable aleatoria de Bernoulli.
p  P( x  1) Es la probabilidad de éxito, donde 0   1
q  P( x  0)  1  p , es la probabilidad de fracaso.
Parámetro p, mediante la tabla:

x 0 1
f(x) q p

Por ecuación:

f ( x)  P( X  x)  p q n  x
x

Función probabilidad acumulada:

var( x)  pq

Teorema:

a) E ( x)  p
Prueba

  E ( X )  0 x(1  p)  1  p  p
b) var( x)  pq

6
Prueba
2
  E ( x2 )   2 ((0)2 (1 p ) (1)2 ( p ))  p2  p  p2  pq
Se define las siguientes variables:
n: la cantidad de veces que se hace el experimento
P: la probabilidad de que un experimento arroje éxito.
K: la cantidad de veces que se obtiene éxito en las n veces que se hace
experimento.
EJEMPLO
una persona arroja un dado apostando con otra que saca un 2. Cuando se
lanza un dado se tiene 6 posibles resultados.
Realizando un único experimento la probabilidad de sacar un 2 es igual a:
1
 0.1666
6
Es decir que la probabilidad que tiene de acertar es de 17%
aproximadamente, se considera éxito sacar un 2 y se conside ra fracaso
sacar cualquier otro resultado, por lo tanto, la probabilidad de no sacar un 2
es igual a:
5
 0.8333
6
La variable aleatoria X mide el número de veces que sale un 2 y solo existe n
dos posibles resultados, 0 (que no salga 2) y I (que salga 2). Por lo tanto la
1
variable aleatoria X se distribuye como una Bernoulli de parámetro .
6
La probabilidad de que obtengamos un 2 viene definida como la probabilid ad
de que X sea igual a I.
1 5 1
P( X  1)  f (1)  ( )1 *( ) 0   0.1667
6 6 6
La probabilidad de que no obtengamos un 2 viene definida como la
probabilidad de que X sea igual a 0.
1 5 5
P( X  0)  f (0)  ( )0 *( )   0.8333
6 6 6

7
1.1.2. Distribución binomial
Es una distribución de probabilidades de una variable aleatoria discreta que
puede tomar valores x  0,1, 2,...., n . Este tipo de distribución resulta de

contar número de éxitos al repetir n- veces un experimento que tiene 2


resultados posibles (éxito y fracaso) con probabilidades p y q respectivamente.
Se representa que X sigue una distribución binomial X B(n, p) también
suele escribirse: X B(n, p) . Su función de probabilidad:

n
pk  P  X  k     p k q n  k
k 
por los tanto se caracteriza por qué:
- Las n pruebas son estadísticamente independientes uno no depende del
otro.
- Los resultados de cada prueba son dos mutuamente excluyentes, é xito € y
fracaso (F)
- La probabilidad p de éxito es invariante en cada una de las pruebas.

FORMULA

n nk
P( X  k )   k
 p q
k 

EJEMPLO

La probabilidad de que un estudiante que ingresa a la Universidad se titule de


contador es de 0.65. Encuentra la probabilidad de que entre 12 estudiantes
escogidos al azar:
x : número de alumnos que se titulan de contador binomial
n N: 12 estudiantes
Rx : 0,1,2,3,4,5,6,7,8,9,10,11,12
p =0.65
q =0.35

8
a) Todos se titulen
P( x  12)  C12
12
*(0.65)12 *(0.35)0  0.005688
b) Al menos uno se titule
P( x  1)  1  p( x  1)
 1  p( x  0)

 1  (C012 *(0.65)0 *(0.35)12 )  0.9999966


Es evento seguro por lo menos 1 estudiante se titula.
c) No se titulen más de 10 estudiantes
P( X  10)  1  p( x  10)  1 p( x  11)  p( x  12 )


 1  C1112 *(0.65)11 *(0.35)1  C12
12
*(0.65)12 *(0.35) 0 

 0.95756
1.1.3. Distribución geométrica
Se denomina experimento geométrico a las repeticiones independie nte s d e un
experimento aleatorio de Bernoulli hasta obtener el primer éxito. En cada éxito
de Bernoulli puede ocurrir un éxito E con probabilidad p permanece co nstante
en todos los intentos o un fracaso (F) con probabilidad q  1  p , siendo
0  p 1
Entonces la distribución de probabilidad de la variable aleatoria X (número de la
prueba en la cual ocurre el primer éxito) es la distribución geométrica.
Se cumple las mismas suposiciones de la distribución binomial, exce pto q ue n
no es fijo.

FORMULA

f ( x)  P( X  x)  q x 1 p
P( x, p )  p (1  p ) x 1
EJEMPLO 01
Si la probabilidad de que un tirador experto dé en el blanco es de l 95%.
¿Cuál es la probabilidad de que falle por primera vez en su decimoquinto
disparo?

9
Datos
x  15
p  0.05

P( x, p)  p(1  p) x 1

P( x  15)  0.05(1  0.05)151  0.05(0.95)14


P( X  15)  0.0244
La probabilidad de que falle por primera vez en su decimoquinto disparo
es 2.44%
EJEMPLO 2
En un proceso de manufactura se sabe que la probabilidad de obtener una pieza
defectuosa es de 2%.
¿Cuál es la probabilidad de que la octava pieza inspeccionada sea la primera
defectuosa?
Datos
x  18
p  0.02

P( x, p)  p(1  p) x 1

P( x  8)  0.02(1  0.02)81  0.02(0.98)7


P( X  8)  0.0174
La probabilidad de que la octava pieza inspeccionada sea la primera
defectuosa es de 1.74%

1.1.4. Distribución de pascal o binomial negativa


Se denomina experimento binomial negativo o de pascal a las repeticiones
independientes de un experimento aleatorio de Bernoulli hasta obtene r e l é xito
número r. en cada ensayo de Bernoulli puede ocurrir un éxito con probabilid ad p
o un fracaso con probabilidad q  1  p

FORMULA

f (k )  P(Y  k )  Crk11 p r q k r

10
EJEMPLO
Una cooperativa agrícola afirma que el 90% de las sandias embarcadas están
maduras y listas para comerse. Encuentre la probabilidad de que:
a) La quinta sandia embarcada sea la tercera que esta lista para comerse.
p  0.90
q  0.10
x  5 (5ta sandia embarcada)
r  3 (3ra sandia lista para comerse)
P( x, r )  ( x  1)C (r  1) p r q x r

P( x  5, r  3)  C3511 *(0.90)3 *(0.10)53

P( x  5, r  3)  C24 *(0.90)3 *(0.10)2


P( x, r )  0.04374
1.1.5. Distribución hipergeometrica
Un experimento hipergeometrica consiste en escoger al azar una muestra de
tamaño n, uno a uno sin restitución de N elementos o resultados posibles, donde
r de los cuales pueden clasificarse como éxitos, y los N-r restantes como
fracaso.
FORMULA

Ckr CnNkr
f (k )  P( X  k ) 
CnN
EJEMPLO
Una empresa fabrica computadoras personales en dos fábricas, una en Limay
la otra en Ayacucho. La fábrica de Lima tiene 40 empleados; la fábrica de
Ayacucho tiene 20 empleados. A una muestra aleatoria de 20 empleados se le
pide que llene un cuestionario sobre prestaciones.
DATOS
x  número de empleados
N  60
n  20

11
a) ¿Cuál es la probabilidad de que ninguno de los empleados de la
muestra trabaje en la fábrica de Ayacucho?
C020  C2040
P( x  0)  60
 0.00003288
C20
b) ¿De qué nueve de los empleados de la muestra trabajen en la fábrica
de Lima?
C940  C1120
P( x  9)  60
 0.010956
C20
1.1.6. Distribución de poisson
Es una distribución de probabilidad de una variable aleatoria discreta que nos
proporciona la probabilidad de que ocurra un determinado suceso un numero d e
veces k en un intervalo determinado de tiempo, longitud, área.
La distribución Poisson se aplica a problemas donde la variable ale ato ria e s e l
número de eventos independientes que ocurren en un intervalo de tiempo , o e n
una región plana (con un promedio dado).
FORMULA

e   ( ) 
f ( x)  P( X  x) 
x!
TEOREMA:

a) Media:     
 = número medio de veces que ocurre nuestro suceso en el intervalo de
tiempo, longitud, área.

b) Varianza:  2   2 
REQUISITOS
- Aleatoriedad
- Los sucesos que ocurren en nuestro intervalo deben ser independientes

EJEMPLO 01

En el hospital regional de Ayacucho se está estudiando los nacimientos d e b eb es


varones. Se sabe que en una semana nacen una media de siete varones.

12
Calcular

Datos

X = nacimiento de bebes varón

 = 7 varones a la semana

1. Probabilidad de que nazcan 3 varones en una semana


e 7 7 3
P ( x  3)   0.052 5, 2%
3!
2. Probabilidad de que nazcan menos de 3 varones a la semana
P( x  3)  P( x  0)  P( x  1)  P( x  2)  0.029 2, 9%

e 7 .7 0 e 7 .71 e 7 .7 2
 0.001  0.006  0.022
0! 1! 2!

EJEMPLO 02

Un vendedor de seguros de vida vende en promedio 3 pólizas por semana.

Calcular la probabilidad de:

Datos:

X= venta de pólizas

 = 3 pólizas por semana

1. Que venda algunas pólizas en una semana


P( x  0)  P( x  1)  P( x  2)  ...  P( x  30)  ...

2. Que venda 2 o más pólizas, pero menos de 5 en una semana.


P(2  X  5)  P( x  2)  ( P( x  3)  P( x  4) 

e 3 .32 e 3 .33 e 3 .34


=    0.61611 61.61%
2! 3! 4!

13
3. Suponiendo que hay 5 días de trabajo por semana, ¿Cuál es la
probabilidad de que en un día dado venda una póliza?
3
  0.6 el nuevo valor de la media
5
e 0.6 .0.61
P ( x  1)   0.32929 33%
1!
4. Calcule la media, la varianza y la desviación estándar de la distribución
de probabilidad que se infiere de este problema
E ( x)    3
V ( x)    3
  V ( x)  3
1.2 Algunas distribuciones importantes de variable aleatoria continuas
1.2.1. Distribución uniforme
Se conoce a “X” como variable aleatoria continua, que tiene una distribución
uniforme también conocido como rectangular en el intervalo [a, b], donde a < b, y
se describe por X ~ U[a,b], su función de densidad de probabilidad es:
 1
 , si a  x  b
f  x b  a

 0, en otros casos
Su función de distribución es:
0, si x  a

 x  a
f  x   , si a  x  b
 b  a
1, si x  b


También la distribución o modelo uniforme puede considerarse como


proveniente de un proceso de extracción aleatoria. El planteamiento radica en e l
hecho de que la probabilidad se distribuye uniformemente a lo largo de un
intervalo.
Gráficas:
función de densidad función acumulada

14
NOTA:
Cuando [c,d] [a,b] , la probabilidad de que “X" tome valores en el intervalo [c, d ]
es:
d c
P c  X  d  
ba
Lo cual quiere decir que esta probabilidad dependerá sólo de la longitud del
intervalo [c, d] mas no del intervalo [a, b].

 Se considera variables aleatorias continuas que tienen distribución unifo rme ,


por:

 las coordenadas de un punto que se elige al azar en un intervalo dado.


 Los instantes aleatorios en un periodo de tiempo dado.
 Entre otros

TEOREMA

Si la variable aleatoria X tiene distribución uniforme en el


intervalo [a.b], entonces,
𝑎 +𝑏 (𝑏−𝑎) 2
a) E(X)= 2
b) ar(X)= 12

EJEMPLO DE DISTRIBUCIÓN UNIFORME


La premiación a que un trabajador que llegue a su trabajo en los 10 minutos
después de que llegue el de control de personal se sabe que el ingreso es a
partir de las 7:00 a.m. hasta 8:00 a.m. ¿cuál es la probabilidad de que el
trabajador sea premiado sabiendo que el responsable de control de personal
llega a las 7.30 a.m.?
SOLUCIÓN
“X” sea la variable aleatoria el tiempo de llegada del responsable de contro l d e
personal, quien puede llegar en cualquier instante aleatorio entre las 7 a.m. y las
8 a.m. o entre 0 y 60 minutos.
Entonces, “X” ~ í/ [0,60] cuya función de densidad de probabilidad es:

15
1
 , si 0  x  60
f  x   60

 0, en otros casos
Se sabe el responsable del control personal llega a las 7.30 a.m. o a los 30
minutos pasados de las 7 a.m. y el rango de premiación es de 10 minutos
pasados de su llegada, el trabajador no ganará ningún premio si llega de 7 a.m.
a menos 20 minutos pasados o si llega de después de las 7.40 a.m. entonces, la
probabilidad de que el trabajador no sea premiado es:
P[0  x  20o 40  x  60]
20 60
1 1
 
0
60
dx   dx
40
60
20 20 2
  
60 60 3

1.2.2. La distribución normal


Una variable aleatoria continua “x” que tiene distribución en forma de campana
se llama variable aleatoria normal, que toma los valores reales, - ∞ < x < + ∞,
se distribuye normalmente con parámetros (µ y σ y se describe por X- N(µ.
σ^2), Si su función de densidad es:

1  1     z 
f ( x)   exp      -∞<x<∞
2  2    
Dónde: -∞<µ<∞, σ>0.

Es la distribución continua de probabilidad más importante en el campo de la


estadística. Su gráfica recibe el nombre de curva normal, su forma es la d e una
campana esta distribución normal es el modelo probabilístico que se usa más
frecuentemente y sirve como una buena aproximación de muchas distribuciones
que tienen aplicaciones importantes.

16
1.2.2.1. Propiedades de la distribución normal
A partir de su gráfica y del análisis de su función de densidad, la curva normal
tiene las siguientes propiedades:
a. Es simétrica con respecto al eje vertical X = µ, ya que f(x) sólo depende d e x
mediante la expresión (x-µ), luego, f(µ+x) = f(µ-x)
b. Tiene valor máximo en x-µ (su moda). Este valor máximo es:
1
F ( µ)  
2
c. Tiene al eje X como una asíntota horizontal, ya que

lim f ( x)  0
x 

d. Tiene puntos de inflexión en x = µ-σ, y x = µ+σ. Por tanto, es cóncava hacia


abajo en el intervalo µ-σ<x<µ+σ, y cóncava hacia arriba en cualquier otra parte.
e. El área total que encierra la curva y el eje X es igual a 1

TEOREMA
Si la variable aleatoria X tiene distribución normal
N(µ,σ2 ), Entonces,
a) E(X) = n b) Var(X) = <j2.

Distribución normal estándar y uso de la tabla Norma


Si la variable aleatoria X tiene distribución normal N(µ,σ^2), entonces, la
variable aleatoria estándar z = (x- µ) / σ, tiene distribución normal N (0,1).
En efecto, la variable estándar Z tiene media igual a cero y varianza igual a uno.
E(Z) = 0 y Var(Z) = 1
Cuya función de densidad y la función de distribución acumulada del normal
estándar son respectivamente:

1  2
 ( )  e y
2
 
1 12
 ( )   . e dt
 2

17
Gráfica:

Esta curva permite describir muchos fenómenos que ocurren en la naturaleza, la


industria y la investigación.
EJEMPLO DE LA DISTRIBUCIÓN NORMAL
Suponga que X es la duración de las llantas de un carro que produce una
empresa se distribuye normalmente. Si el 16.61% de las llantas duran menos de
8 meses y el 8.48% duran al menos 13 meses.
a) Calcular la media y la varianza de la duración de las llantas.
b) Hallar el cuartil Q_1 de la distribución.
SOLUCIÓN
Variable aleatoria: X= duración de llantas de carro.
a). Si el 16.61% duran menos de 8 meses, entonces
P[X <8] = 0.1661
0.1661  P    8
 8  
 P Z 
  
8  
  
  

18
Donde:
P    8   0.1661
P  X  13  0.0848
P    13  0.9152
 x   13   
P   0.9152
   
13  
 1.37

También:
 x  8  
P   0.1661
   
 8  
P   0.1661
  
8 
 0.97

Entonces:
  0.97  8
  1.37  13
De donde se obtiene:
  2.14
  10.07
b). el cuartil 1 Q_1, satisface la ecuación P[x≤Q_1]=0.25, entonces:
P     Q1  10  / 2   0.25
Q1  10
 0.67
2
Q1  8.66

1.2.3. Distribuciones gamma, exponencial, chi-cuadrado


a) Función gamma
La función gamma denotada por, Γ, se define por:

Γ  a   x 1.e x .dx
0

Donde α es un número real positivo.


Propiedades.
Si α > 1, entonces, Γ(a)=( α-1) Γ(a-1)

19
Haciendo u = x^(α-1).dv=e^(-x)dx. En la función gamma, e integrando por
partes, se obtiene:

 
    lim   x 1e x     1  x 2e x dx  0    1  x 2e x dx
b

x  0
0 0

Luego:       1    1

2)  1   e x dx  1
0


1
1

3)      x 2 e x  
2 0
4) Si 𝛼 es igual a un número entero es decir que n ≥ 1, entonce s, , Γ(𝑛) =
(𝑛 − 1)! En efecto, aplicando: Γ(𝑛) = (𝑛 − 1)Γ(𝑛 − 1), repetidamente
resulta,
Γ(n)=(n-1)(n-2)(n-3)…Γ(1)

b) Distribución gamma
Este modelo es una generalización del modelo Exponencial ya que, en
ocasiones, se utiliza para modelar variables que describen el tiempo hasta que
se produce n veces un determinado suceso.
Se considera la variable aleatoria continúa a X que tiene distribución gamma,
con parámetros α,β y se representa por X ~ Γ(α,β ), si su función de densid ad
es:
    1   x 
 x e , six  0 
f ( x )      
0, si  0 
 

20
Donde α y β son constantes y positivas
Si x-   ,  

Entonces:

 Media  


 Varianza  
2

2

Propiedades.

Si α>1, entonces, Γ  )    1 , Γ (  1

En efecto, haciendo u=X^((α-1) ).dv=e^(-x).dx, en la función gamma, e


integrando por partes, se obtiene.

 
    lim   x 1e x     1  x 2e x dx  0    1  x 2e x dx
b

x  0
0 0

Luego:       1    1


 1   e x dx  1
0


1
1

     x 2 e x  
2 0

MODELO GAMMA Y POISSON


La distribución gamma describe la función de densidad de
la variable aleatoria que representa el tiempo que
transcurre hasta que ocurra el número específico de
eventos de poisson con promedio ƛ. Este número
específico es el parámetro 𝜶, y 𝜷 = ƛ en la función de
densidad gamma.

21
c) Distribución exponencial
Es una distribución de probabilidad continua con parámetro que cuya función
de densidad es: Su función de distribución acumulada es decir donde se
representa el número.
Se considera X variable aleatoria continua tiene distribución exponencial con
parámetro β(β>0) y se describe x ~ Exp(β) si su función de densidad de la
probabilidad es:
  e  , six  0 
f ( x)   
 , si  0 

La distribución exponencial es un caso particular de la distribución gamma


cuando (α,) = 1. Luego, si la variable aleatoria X tiene distribución exponencial
con parámetro β o X - Γ(α,β ), entonces tiene,
Media: μ 1/β, b) varianza: σ^2=1/β
Por otra parte, su función de distribución acumulada en el intervalo [0, + ∞[ es:

F ( x)  P  X  x     e  dt  1  e  , 0  x  
0

d) Distribución chi-cuadrado
Se dice X la variable aleatoria continua que tiene distribución chi-cuadrado con
r grados de libertad, y se representa por X ~ X^2 (r) , si su función de densidad
es:
  2r r x 
 2 1 

  r  x e , six  0 
2 2

f ( x)    
 
 2 
0, si  0 
 

22
donde “r” es un número entero positivo.

1.2.4. Distribución t-student


Es una distribución de variabilidad que surge del problema de estimar la me d ia
de una población normalmente distribuida cuando el tamaño de la muestra es
pequeño.
En este caso se dice que una variable aleatoria continua T se distribuye según t-
student (más brevemente según t) con r grados de libertad y se representa por T
~ t(r), si su función de densidad es.
 r 1 /2
  r  1 / 2   t 2 
f (t )   1  
 
 r / 2 r    r 

donde “r” es un entero positivo.

Se demuestra, en particular, que;


Si Z y V son dos variables aleatorias independientes tales que Z está
normalmente distribuida con media cero y varianza 1, y V está distribuid a co mo
chi-cuadrado con r grados de libertad, entonces, la variable aleatoria:
𝑍
T=
√𝑉 ⁄𝑟

tiene distribución t-Student con r grados de libertad.

23
Con frecuencia, la distribución t con r grados de libertad es definida como la
distribución de la variable T. La distribución t-Student tiene las siguientes
propiedades:
a) Si X tiene distribución t-Student con r grados de libertad, entonces su me d ia y
su varianza son respectivamente.
m) μ=0, y n) σ^2=r/(r-2),r>2
b) Su gráfica tiene forma de campana de Gauss, simétrica en cero.
c) La varianza de la distribución t es mayor que de la distribució n N (0,1) Pero
cuando r?+?, la varianza de la t tiende a 1.
d) La distribución t se aproxima a una distribución N(0,1), cuando r?+?. La
aproximación es buena, si r?30.
Uso de la tabla t-Student
Si la variable aleatoria T tiene distribución /-Student con r grados de libertad, o
T ~ t(r), en la tabla de probabilidades t-Student se puede encontrar una
probabilidad (1- α) o un valor c = 〖X^2〗_(1-α.r) mediante la relación:

1.2.5. Distribución F
Es una distribución continua de muestreo entre la relación de dos variables
aleatorias independientes con distribuciones de chi-cuadrada, cada una divid ida
entre sus grados de libertad.
Se dice que una variable aleatoria continua X se distribuye según F con r_(1 ) y
r_2 grados de libertad y se representa por F ~ F (r_(1 ) y r_2) , si su función de
densidad es:
r1
 r1  2  r1  r2 
  r 
r1
1

 
2

f ( x)   r2  2 x
,0  x  
 r1  r2 
 r1   r2 
       r1 x  2
 2   2  1  
 r2 

Donde, r_(1 ) y r_2 son números enteros positivos.

24
Se demuestra, en particular, que si U y V son dos variables aleatorias
independientes tales que U~X^2 (r_1) y V~X^2 (r_2) entonces, la variable
aleatoria:
𝑈⁄r1
X=
𝑉 ⁄r2

tiene distribución F con r_(1 ) y r_2 grados de libertad, Con frecuencia la


distribución F(r_(1 ) y r_2), se define como la función de densidad de esta
variable X.

Uso de la tabla F
Si la variable aleatoria X~F(r_(1 ) y r_2), en la tabla de probabilidades F se
puede
encontrar una probabilidad (1- α) o un valor c = 〖X^2〗_(1-α〖.r〗_(1 .) r_2
), mediante la relación: P[X≤C].(1- α)
Para determinar valores de F correspondientes a áreas 1- α = 0.005 , 0.01,
0.025, 0.05. o para determinar probabilidades correspondientes a valores de c <
1 se usa el teorema siguiente:

25
Si X tiene distribución F con grados de libertad r_(1 ) y r_2, entonces, 1/X tiene
distribución F con grados de libertad r_(1 ) y r_2,

EJEMPLO

Un investigador quiere estudiar si hay asociación entre la práctica deportiva y la


sensación de bienestar. Extrae una muestra aleatoria de 100 sujetos. Los d ato s
aparecen a continuación.

Sensación de Práctica deportiva Total


Bienestar
Sí no

Sí 20 25 45

No 10 45 55

Total 30 70 100

Contraste la hipótesis de independencia entre bienestar y práctica de deporte


(alfa = 0,01).
Calculemos la frecuencia esperada:
fi f j
eij 
n

26
Sensación de Práctica deportiva
bienestar
Sí No

Sí (45x30)/100=13,5 (45x70)/100=31,5

No (55x30)/100=16,5 (55x70)/100=38,5

Calculemos chi-cuadrado:

f  eij 
2

 exp   i  j
2 ij

eij

En la siguiente tabla se muestra la diferencia de las frecuencias absolutas y las


frecuencias esperadas:

Sensación Práctica deportiva


de
Sí No
bienestar

Sí 3,1296 1,3413

No 2,5606 1,0974

2
xexp  3.1296  2.3413  2.5606  1.0974  8.13
Tenemos:
 exp
2
 8.13
Se calcula el valor de la tabla chi-cuadrado:
• Grado de libertad:
K=(número de filas -1)*(número de columnas-1)
k   2  1 *  2  1  1
El valor de ∝=0.01
El valor que se busca:
 2g .l .;  1;0,01
2
 6.63

27
EJEMPLO
Un fabricante de focos afirma que su producto durará un promedio de 500 horas
de trabajo. Para conservar este promedio esta persona verifica 25 focos cada
mes. Si el valor y calculado cae en - t 0.05 y t 0.05 se encuentra satisfe cho co n
esta afirmación ¿Qué conclusión deberá sacar de una muestra de 25 foco s q ue
cuya duración fue?

u=500h
n=25
X=505.36
S=12.07
x x
z z
 
Por lo tanto: z=2.22

1.3 Teorema del límite central


La distribución de la media muestral de una población normal es una distribución
normal con la misma media poblacional y con desviación típica el error estándar.
Este hecho nos permite calcular probabilidades cuando tenemos una muestra de
una variable con distribución normal y desviación típica conocida.
Se dice que cada una de las “n” variables aleatorias están identificadamente
distribuidas con media y la varianza, si todas tienen la misma función de
probabilidad en el caso discreto, o la misma función de densidad en el caso
continuo, y si

E ( xi )   , Var ( xi )   2 para i  1, 2,3,..., n


La variable aleatoria suma total:

28
n
yn  x1  x2  x3  ...   x1 , tiene, entonces, las siguientes
i 1

propiedades:

Su medida es E (Yn ) o Yn  n

Var (Yn ) o  Yn  n x1 , x2 ,..., xn


2 2
y su varianza es: sólo si las

son independientes, idénticamente distribuidas de la variable aleatoria estándar:


n

Yn  Yn X i  n
Zn   i 1
, tiende a la distribución normal N (0,1).
Y n
 n
Ejemplo:
Una empresa de mensajería que opera en la ciudad tarda una media de 35 minutos en
llevar un paquete, con una desviación típica de 8 minutos. Supongamos que durante el día
de hoy han repartido doscientos paquetes.
a) ¿Cuál es la probabilidad de que la media de los tiempos de entrega de hoy esté entre 30
y 35 minutos?
b) ¿Cuál es la probabilidad de que, en total, para los doscientos paquetes hayan estado
más de 115 horas?
Consideremos la variable X = “Tiempo de entrega del paquete”. Sabemos que su media es
35 minutos y su desviación típica, 8. Pero fijaos en que no sabemos si esta variable sigue
una distribución normal. Durante el día de hoy se han entregado n = 200 paquetes. Es
decir, tenemos una muestra x1 , x2 , ..., xn de nuestra variable.
Por el teorema del límite central sabemos que la media muestral se comporta como una
normal de esperanza 35 y desviación típica:
Solución:
8
 0,566
200
Si utilizamos esta aproximación, ya podemos contestar a la pregunta a. Debemos calcular:
30  35 X  35 35  35
P(30  X  35)  P(   ) que es
0, 566 0, 566 0, 566
aproximadamente igual a la probabilidad siguiente:
30  35 35  35
P( Z )  P( 8,83  Z  0)  P(Z  0)  P(Z  8,83
0, 566 0, 566

29
 0,5  0  0,5
donde Z es una normal (0,1). Es decir, tenemos una probabilidad aproximada del 0,4616 de
que la media del tiempo de entrega de hoy haya estado entre 30 y 35 minutos. Por lo que
respecta a la segunda pregunta, de entrada debemos pasar las horas a minutos, ya que
ésta es la unidad con la que nos viene dada la variable. Observado que 115 horas por 60
minutos nos dan 6.900 minutos. Se nos pide que calculemos la probabilidad siguiente:
6.900
P( X  )  P ( X  34,5)
200
y como que sabemos que la media se distribuye aproximadamente como una normal de
media 35 y desviación típica 0,566 (supondremos siempre que la distribución de la media
es normal, ya sea porque la variable de interés es normal o porque la muestra es lo
bastante grande), esta probabilidad se puede aproximar por la probabilidad de una
distribución normal estándar Z:
34,5  35
P(Z  )  P(Z  0,88)  1  P(Z...  0,88)
0,566
 1  0,1894  0,8106
NOTAS.
1. La aproximación a la distribución normal es buena si “n” es grande sin importar si la
distribución es discreta o continua o si la distribución es de forma simétrica o asimétrica.
2. Usaremos la siguiente notación de la aplicación del teorema del límite central
n

Yn  Yn X i  n
Zn   i 1
N (0,1) aproximad.
Y n
 n
3. Una consecuencia inmediata del TLC es que cuando n es grande, se tiene que la
variable

Yn (n , n  2 ) aproximad.
4. Si la variable aleatoria total es discreta con valores enteros
consecutivos, entonces, P Yn  k   P  k  0.5  Yn  k  0.5
Si además, queremos obtener resultados con mayor precisión se aplicará

P  a  Yn  b   P  a  0.5  Yn  b  0.5

el ajuste de 0.5 se denomina factor de corrección por continuidad.

30
1.3.1. Aproximación a la binomial a la normal
Teorema de Movire-Laplace: si X es una variable discreta que sigue una
distribución binomial de parámetros n y p, B(n, p) y se cumple que n>10, n· p>5
y n· q>5 resulta una aproximación bastante buena suponer que la variable X’
(recordemos que en la binomial µ=n·p y   npq se aproxima a la variable

normal N(n·p, npq Resulta mucho más sencillo trabajar con la variable normal X’

que con la binomial X, pues recordemos que los valores de la normal están tabulados.
Corrección de continuidad o de Yates: Cuando aproximamos una distribución
binomial mediante una normal, estamos convirtiendo una variable X discreta (toma un
número determinado de valores) en una continua X’ (toma valores en un intervalo).
Los valores de la probabilidad para valores fijos de la variable continua son cero (ya que
sería el área de un punto), y necesitamos definir un intervalo. Para evitar este problema
en la aproximación de los valores fijos estos se corrigen (corrección de continuidad o de
Yates) sustituyéndolos por un intervalo centrado en el punto y de valor unidad.

Sean x1 , x2 ,..., xn , n variables aleatorias independientes e idéntic amente


distribuidas según el modelo de probabilidad Bernoullí de parámetro p. Cada variable
Xi B(1, p), es decir, X i  1 si ocurre E (éxito) con probabilidad p y X i  0 si
ocurre F (fracaso), con probabilidad q  1  p

X  np
Z N (0,1)
npq
Ejemplo:
Un tirador acierta en el blanco el 70% de sus tiros. Si el tirador participa en una
competencia y tira 25 veces.
¿Cuál es la probabilidad de que acierte más de 10 tiros?
Es una distribución binomial de parámetros:
p  0.7 B(25,0.7)

n  25 y q  1  p  q  1  0.7  0.3
Comprobamos que:
n. p  5  25, 0.7  17.5 y n. p  5  25, 0.7  17.5
Calculamos la media y la varianza típica de la distribución normal.

  np    25, 0.7  17.5

  npq  25  0.7  0.3  2.29

31
X es B(25, 0.7)  corrección  X´ es N (17.5, 2, 29)

 Tipificamos  Z es N (0,1)
p(X  10)  p(X  11)  p(X  10.5)

 10.5  17.5 
p z    p( z  3.06)
 2.29 
p( z  3.06)  0.9998
1.3.2. Aproximación de la hipergeometrica a la normal
Es una forma de convertir un experimento de probabilidad variable a probabilidad, s e a
X la variable aleatoria hipergeométrica, esto es, X= Número de éxitos que
ocurren en una muestra de tamaño n escogida al azar una a una sin reposición
de N elementos de los cuales r son clasificados como éxito y el resto N-r co mo
fracaso.
La media y la varianza de la variable X son respectivamente:
N n
  np y  2  npq
N 1
donde, p  r / N, y q  1 p

X  np
Z N (0,1)
cuando n es grande, N n aproximad.
npq 
N 1
Ejemplo:
Los 1200 sacos de quinua de un quintal cada uno, producto de la última cosecha
en Ayacucho, se envían a una empresa exportadora para su posterior ve nta e n
España. La empresa exportará el producto si una muestra aleatoria de 80 sacos,
escogidos del envío uno por uno sin reposición, revela a lo más 12.5% d e cad a
saco que no cumplen las especificaciones, en caso contrario no lo exportará.
Calcule la probabilidad de que la empresa no exporte el producto si realmente el
porcentaje de sacos que no cumple las especificaciones es 10% del total.
Solución:
X: Número de sacos de quinua de un quintal que no cumplen con las
especificaciones en la muestra.
n=80 escogida de la población finita de 500 sacos de los cuales 120 no cumple n
las especificaciones.
Entonces, X tiene distribución hipergeométrica H(N=1200, n=80, r=120).

32
El producto será exportado si el número de sacos que no cumplen las
especificaciones en la muestra es 10 o menos (a lo más el 12.5% de 80).
Luego, la probabilidad de que el producto no sea exportado es:
10
Ck120C801080
P  X  10  1  P  X  10  1   1200
k

k 0 C80
Para calcular la suma, utilizamos la aproximación normal de X, esto es,
120
X  N ( ,  2 ) , donde:   np  80  8 y
1200

N n
  np (1  p ) 
N 1

1200  80
 80  0.1 0.9   2.593
1200  1
X 8
Por el TLC la variable Z  tiene distribución aproximadamente normal
2.593
N(0,1).

Ck120C80
10 1080
 10.5  8 
Por tanto,   P Z 
k

k 0 C801200
 2.593  
 P  Z  0.96  0.8389

P  X  10  1  0.8389  0.1611

1.3.3. Aproximación de la poisson a la normal

Sean x1 , x2 ,..., xn variables aleatorias independientes e independiente


distribuidas como el modelo de probabilidad de Poisson con promedio  en un
intérvalo dado. Es decir en el mismo intérvalo cada X, ocurre con media y

varianza iguales a .
Entonces, por la propiedad reproductiva de la Poisson la variable aleatoria;
n
X   X i tiene distribución de Poisson con media y varianza iguales a
i 1

n .
X  n
En consecuencia si n  30 se tiene que: Z  N (0,1) ap ro ximad .
n

Una condición adicional es que n  5

33
Ejemplo:
El número de accidentes en la carretera panamericana del sur ocurre con un
promedio de 2 accidentes por semana. Calcule la probabilidad de que se
produzca al menos 115 accidentes en un periodo de 40 semanas.
Solución:
Si X 1  Número de accidentes por semana con un promedio de , entonces,

X1 Poisson(  2).
Si X es el número de accidentes durante 50 semanas.
50
X   X1 Poisson(n  100)
i 1

La media (  ) y a varianza ( 2 ) de X son iguales a: n  50  2  100

Dado que n=40 es grande, se tiene que:


X  n X  100
Z  N (0,1) aproximad.
n 10

Por lo tanto, P  X  115  P  X  114.5

P  Z  114.5  0.0735.
1.3.4. Aproximación de la chi –cuadrado a la normal

Si la variable aleatoria X  x 2 (r ) , entonces por el TLC , para r suficienteme nte

grande (r  30), la variable aleatoria 2X tiene aproximadamente

distribución N  
2r  1,1

En consecuencia, la variable estándar, Z  2 X  2r  1 N (0,1)


aproximad.

Y la probabilidad P( X  a)   Z  2 X  2r  1 
Ejemplo:
A) Si X X 2 (200) calcular P 160  X  240

B) Si X X 2 (100) calcular a tal que P  X  a   0.995

Solución:
a) Si X X 2 (200) , entonces, Z  2 X  2  200  1 N (0,1) aproximad.
Luego,

34
P 160  X  240  P  2 160  399  Z  2  240  399 

 P  2.09  Z  1.93

 0.9732  (1  0.9817)  0.9549

b) Si X X 2 (100) , entonces, Z  2 X  2 100  1 N (0,1) aproximad.


Luego, de

0.995  P  X  a   P  Z  2a  2(100)  1   P  Z  2a  14.11

Se obtiene:
2a  14.11  2.575 , de donde resulta, a  139.1

35
II. DISTRIBUCIONES MUESTRALES
2.1 Muestreo aleatorio
2.1.1. Población y parámetros
POBLACION
Se denomina población o universe a la totalidad de personas u objetivos que
tienen una más características medibles o contables de naturaleza cuantitativa.
La característica de medible o contable es una variable estadística cuyo valor.
Numérico o no numérico es una observación.
Si la variable estadística a estudiar es una sola, cada elemento de la población
puede asociarse con una observación. En este sentido, se denomina población
al conjunto de valores posibles de la variable.
Si los elementos de la población se definen en forma aleatoria, entonces la
variable estadística cuantitativa es una variable aleatoria cuyos valores
constituyen la población, en este caso la distribución de la población es la
distribución de la variable aleatoria, por lo tanto, la media y la varianza de la
variable aleatoria viene hacer la media y la varianza de la población.
Si la variable aleatoria X tiene distribución se puede referir a la población.
EJEMPLO

Si X esta normalmente distribuida se dice que la población normal esta


normalmente distribuida o que se tiene una población normal.
Por el número de observaciones la población puede ser finita de tamaño N, o
infinita. Algunas poblaciones finitas son tan grandes que en teorías son
asumidas como poblaciones infinitas.
PARAMETROS
Se denomina parámetro a las medias descriptivas que caracterizan a la
distribución de la población. Entre otros parámetros poblacionales son.

MEDIA :μ

PROPORCION : op
VARIANZA : 2
DESVIACION ESTANDAR : 

36
En diversas aplicaciones estadísticas al estudiar una población, la variable
aleatoria que define puede tener distribución conocida o no. La distribución de la
población es conocida, Si se conocen sus parámetros y su forma, es decir si se
conocen su distribución de la probabilidad.
Si la distribución de la población es desconocida podemos estar interesados en:

Estimar sus parámetros, si se conoce su distribución.


Probar determinada suposición acerca de un valor determinado del
parámetro, o probar la suposición acerca del tipo de distribución de
probabilidades de la población.
Un parámetro es una medida usada para describir alguna característica de una
población, tal como la media aritmética, la mediana o desviación estándar de
una población
2.1.2. Muestra aleatoria tipos de muestras

En vez de examinar la población entera, lo cual puede resultar físicamente


imposible o no practica, puede examinar una muestra de la población con el
propósito de inferir los resultados encontrados.
Una muestra es un subconjunto de la población.
El proceso de selección de una muestra de n elementos de la población se
Llama muestreo. Las ventajas y las razones para el muestreo son diversas.
El proceso que consiste en inferir resultados a la población a partir de la muestra
se denomina inferencia estadística. Las confiabilidades de las conclusiones
extraídas concernientes a una población dependen si la muestra se ha escogid o
apropiadamente de manera que represente bien a la población.
Una técnica para obtener para obtener muestras representativas de la población
es el muestreo aleatorio. Se llama muestreo aleatorio a tod o proceso que
asegure en cualquier momento del mismo igual a la probabilidad de ser incluidos
en la muestra a todos los elementos que pertenezcan a la población en dicho
momento.
La muestra aleatoria es aquel procedimiento de selección de la muestra en el
que todos y cada uno de los elementos de la población tiene una cierta
probabilidad de resultar elegidos. De esta forma, si tenemos una población d e N
elementos y estamos interesados en obtener una muestra de n elementos

37
(muestra de tamaño n), cada subconjunto de n elementos de la población
tendrá también una cierta probabilidad de resultar la muestra elegida.
A las muestras aleatorios se les denomina también muestras probabilísticas las
muestras aleatorias son de 4 tipos: Al azar simple, al azar sistemático,
estratificado y por grupos (o conglomerados).

MUESTRA AL AZAR SIMPLE

Es aquella en la que los elementos se escogen del total de la población en forma


individual con una oportunidad igual e independiente. Por lo general se utiliza
una tabla se utiliza una
Tabla de números aleatorios.
Si la población es infinita el muestreo aleatorio ocurre la extracción de los
elementos de la muestra se hace con o sin reemplazo. Si la población e s finita
de tamaño N, el muestreo aleatorio ocurre también si la extracción es co n o sin
reemplazo. Con reemplazo. Con reemplazo, probabilidad de cada e leme nto d e
ser elegido es I /N. Si es sin reemplazo, la probabilidad de cada elemento de ser
elegido es I/(N-2) en la tercera extracción, es I (N -2) en la tercera extracción,
etc.
Este tipo de muestreo se emplea en casos en los que dispone de poca
información acerca de las características de la población a medir.
EJEMPLO

Seleccionar una muestra al azar simple es similar a la que se realiza en la


extracción aleatoria de números en una lotería.
MUESTRA AL AZAR SISTEMATICA

Una muestra aleatorio sistemática es aquella en que sus elementos se eligen de


la población a intervalos uniformes a partir de un listado ordenado. El K-esimo
elemento de la muestra es K = N/n, donde n es el tamaño de la muestra y N el
tamaño de la población.
El muestreo sistemático suele ser más preciso que el aleatorio simple, ya que
nos recorre la población de un modo más uniforme.
EJEMPLO

38
Al elegir una muestra sistemática de 100 alumnos de EE.GG.CC que tiene 4000
alumnos, K= 4000/100 = 40. El primero se elige en forma aleatoria de los 40
primeros de la lista y los demás sistemáticamente cada 40 alumnos de la lista.

MUESTREO ALEATORIO ESTRATIFICADO

Primero se clasifican a los elementos de la población e n subgrup os sep arad os


de acuerdo con una o más características importantes (estratos). Después se
obtiene por separado una muestra aleatoria simple o sistemática en cada
estrato. El tamaño de cada submuestra debe ser proporcional al tamaño del
estrato para asegurar representatividad.
Intenta asegurar que la muestra presenta la misma distribución que la población
en relación a determinadas variables.
EJEMPLO

Para obtener una muestra aleatoria de 600 electores de una población de


600000 electores de los cuales 300000 son de clase baja .200 000 de clase
media y 1000000 de clase alta. Se deben elegir al azar de 300 de clase baja
,200 de clase media y 100 de clase alta.

MUESTREO ALEATORIO AGRUPADO

Denominado también por conglomerados. Los elementos de la pob lación se


dividen en forma natural en subgrupos. Luego se eligen al azar los subgrupos
que forman la muestra.
EJEMPLO

Al estudiar las pensiones, pero puede obtenerse una lista de los colegios
particulares (grupos), entonces, con esta lista puede obtener una muestra
aleatoria de colegios y así obtener las pensiones que pagan en estos colegios.

39
EL MUESTREO ALEATORIO SIMPLE

Es pues el proceso de selección de una muestra por el cual cada uno de los
elementos de la población tienen una oportunidad igual e independie nte d e se r
incluidos en la muestra. En el muestro aleatorio simple cada variable aleatoria
X  cuyo valor es X  ,tiene la misma distribución de la población de la cual se
obtiene .Por ejemplo, supongamos que una población consiste de 8 fichas , d o s
con el número 2 ,cuatro con el número 5, y dos con el número 7.Si se extrae una
ficha al azar, la ficha puede tomar cualquiera de los tres valores : 2 con
probabilidad 0.25,5 con probabilidad 0.50 y 7 con pro babilidad 0.25 que b ie ne a
ser la misma distribución de la población.

Luego, diremos que los valores x1 , x2 ,..., xn Tomados respectivamente p or las

variables aleatorias x1 , x2 ,..., xn , constituyen una muestra aleatoria simple de

tamaño n de una población f(x) de la variable aleatoria simple de tamaño n de


una población f(x) de la variable aleatoria X, si estas variables aleatorias están
distribuidas en forma idéntica a la distribución de la población y son
independientes .Llamaremos también muestra aleatorias simple a este conjunto
de variables aleatorias .Formalmente definimos una muestra aleatoria simple o
brevemente muestra aleatoria de la forma siguiente:

Definición (muestra aleatoria simple). Dada una población f(x) con media μ y
varianza  2 Se denomina muestra aleatoria de tamaño n de esa población. a un
conjunto de n variables aleatorias x1 , x2 ,..., xn tales que:

1) Son independientes.
2) Cada una de ellas esta distribuida en forma idéntica a f(x)

La condición 1) implica que la distribución de probabilidad conjunta de la


muestra aleatoria x1 , x2 ,..., xn es la expresión :

40
f ( x1 , x2 ,..., xn )  f ( x1 ) f ( x2 )... f ( xn )

La condición 2) significa que:

a) Cada variable aleatoria X  tiene la misma media y varianza de la

distribución de X  ,es decir : E ( X  ) = μ y Var ( X  ) =  2

b) La distribución de probabilidad de cada variable aleatoria X  es la

misma distribución de probabilidad de X  , esto es. f ( x ) = f ( x)

NOTA: El proceso de obtener este tipo de muestra requiere población infinita o


bien población finita, pero con reposición de elementos.
EJEMPLO

Sea x1 , x2 ,..., xn Una muestra aleatoria de tamaño de n de una población

normal N (  ,  2 )

a) Escribir la función de densidad de probabilidad conjunta de la muestra.


b) Si n = 6 ,   20 ,  = 25 calcular la probabilidad de que.

b1) X 1  X 3  X 4  X 6 sea mayor que 62

b2) al menos una de las X  sea menor que 39.8

SOLUCION

a) La función de la densidad conjunta de la muestra aleatoria es

f ( x1 , x2 ,..., xn )  f ( x1 ) f ( x2 )... f ( xn ) =  f ( X n )
n

2
n 1 n  x   
 1 1  x   
2  
 
   n 2 1 

   2  e
2 2

f ( X 1 , X 2 , X 3 ,..., X n )   e 2  
  2 
 

41
b) La media y la varianza de la variable aleatoria Y= X 1  X 3  X 4  X 6 están

dadas respectivamente por:

E(Y )  E( X 1 )  E( X 3 )  E( X 4 )  E( X 6 )  22  22  22  22  44

V (Y )  V ( X 1 )  V ( X 3 )  V ( X 4 )  V ( X 6 )  25  25  25  25  100

Por la propiedad reproductiva de la normal la variable aleatoria y tiene


distribución normal N (44 ,100), luego la variable aleatoria estándar:

y   y  44
Z  , tiene distribucion N (0,1) y
 10

 Y  44 62  44 
P Y  62   P    P  Z  1.2  0.1183
 10 10 

b2) Sea ahora la variable aleatoria

y 1, SI X, <39.8

0, si X,> 39.8

Entonces , y es bernoulle B(1,p),donde p  P Y  1 .La probabilidad del éxito es

igual a :
 X  22 39.8  22 
p  P  X   39.8       P  Z  1.98  0.986
 5 5 
6
En consecuencia, la variable aleatoria : y   y , es binomial B(6,p), esto es,,
 1

p Y  y   CY6 p y 1  p 
6 x
, y = 0,1,2,3,4,5,6

Por tanto ,la probabilidad de que al menos un X  ,sea menor que 39.8 es :

P Y  1  1  P Y  O   1   0.027   1  0.000  1.000


6

42
2.1.3. Estadísticas

Se denomina estadística a cualquier función de las variables aleatorias que


constituyen la muestra.
Una estadística es una variable aleatoria Y  H ( X1 , X 2 ,..., X n ) , cuyo valor es

el número real y  H ( x1 , x2 ,..., xn ) . El termino estadística se usa para referirse

tanto a la función de la muestra, como valor de esta función.


En general para cada parámetro poblacional hay una estadística
correspondiente a calcularse a partir de la muestra. Algunas estadísticas
importantes y sus valores calculados a partir de una muestra aleatoria son:

1 n 1 n
a) La media muestral X   X ,
n i 1
con valor: x   X
n i 1

1 n
b) La varianza S 2  
n i 1
( X  X )2 , con valor:

1 n
s2  
n i 1
( x  x)2

c) La desviación estándar muestral S  S 2

d) La proporción muestral ( porcentaje de éxitos en la muestra ) P o


1 n
P  X donde X  B(1, p) (el parámetro p es el porcentaje de
n  1
éxitos en la población)también,

X
P , donde X  B(n, p)
n

El valor de P(oP ) ,calculada a partir de una muestra ,se denota por

p (o p )

43
2.2 Distribuciones muestrales
Una estadística muestral proveniente de una muestra aleatoria simple tiene un
patrón de comportamiento (predecible) en repetidas muestras. Este patrón es
llamado la distribución muestral de la estadística. Si conocemos la distribución
muestral podemos hacer inferencia. Las distribuciones muestrales adoptan
diferentes formas según las estadísticas investigadas y las características de la
población estudiada.
2.2.1. Distribución muestral de la media
Suponga que se han seleccionado muestras aleatorias de tamaño 20 en una
población grande. Se calcula la media muestral x para cada muestra; la
colección de todas estas medias muestrales recibe el nombre de distribución
muestral de medias, lo que se puede ilustrar en la siguiente figura

POBLACION Distribució n muestral de


medias (x)

El Teorema del Límite Central también nos indica que cuando se extraen muestras de
tamaño mayor a 30 o bien de cualquier tamaño pero provenientes de una población
normal, la distribución muestral de medias tiene un comportamiento aproximadamente
normal, por lo que se puede utilizar la fórmula de la distribución normal con


ux y s
n

Ѕ, es equivalente al error estándar de la media, entonces la fórmula para calcular la


probabilidad del comportamiento del estadístico, en este caso la media de la muestra,
quedaría de la siguiente manera:

44
X 
Z

n

EJEMPLO.

Un auditor toma una muestra aleatoria de tamaño n  120 de un conjunto de 520


cuentas por cobrar. El auditor sabe que las 500 cuentas por cobrar constituyen una
población finita cuya desviación estándar es   175 . ¿Cuál es la probabilidad de que
la media muestral difiera de la media poblacional en más de s/. 28?

Solución.

Sea X la media de la muestra de tamaño n  120 escogida de la 45población finita

de N  520 casos. Entonces, la variable aleatoria X tiene distribución


aproximadamente normal con media  X   y error estándar:

 N n 175 520  120


X    14.025
n N 1 120 520  1

En consecuencia, la variable aleatoria estándar:

X  X X 
Z 
X 14.025

Tiene distribución normal N (0,1) . La probabilidad de que la media muestral difiera de


la media poblacional es mas de s/. 28 es:

 28 
P  X    26  P  Z   P  Z  1.99  0.0233
 14.025 

2.2.2. Distribución muestral de la una proporción

Sea X 1 , , X n una muestra aleatoria de tamaño n extraída de la 45población

de Bernoulli B(1, p), donde p es el porcentaje de éxitos en la población y sea.

X1  X 2   Xn X
P 
n n

45
La proporción de éxitos en la muestra, siendo. X  X 1  X 2   X n Una

variable binomial B(1, p), entonces.

a)  p  E ( P)  E   1
X 1
  E ( X )  (np)  p
n  n n

2 X  1 1 p(1  p)
b)   V ( P)  V    2 V ( X )  2  np(1  p)  
p n  n n n

c) si n es suficiente grande, entonces la variable aleatoria:

P p
Z
p (1  p ) / n

Tiene aproximadamente distribución N (0,1)

NOTAS.

p (1  p )
1. El error estándar de P es:  p 
n

2. si la población es finita de tamaño N y el muestreo es sin reposición el error


estándar de (desviación estándar de la hipergeométrica) es:

X  np X  80(0.3) X  24
Z  
np (1  p )(( N  n) / ( N  1) 80(0.3)(0.7)((800  80) / (800  1) 3.6499

p(1  p) N n
p 
n N 1

Observar de que si es N grande con respecto a n el factor de corrección


N n
se aproxima a la unidad.
N 1

3. si n es suficientemente grande (n  30)

 c p
P  P  C   P Z  
  p 

46
Sin embargo aproximaciones satisfactorias se obtienen si se introduce e l factor
1
de corrección por continuidad luego,
2n

 c  1/ (2n))  p 
P  P  C   P Z  
 p 

4. observar que las dos expresiones de Z.

x  np P p
Z 
np(1  p) p(1  p)

Donde X es binomial y P es el porcentaje de éxitos en la muestra, tienen


distribución N (0,1) .

EJEMPLO.

La probabilidad de que un cliente moroso pague es 0.3. ¿Cuál es la probabilidad de que


en una muestra de 80 clientes morosos seleccionados de una población de 800 que
están en morosidad, más de 20% paguen?

SOLUCION.

Sea P  X / 80 , la proporción de clientes morosos que pagan en la muestra de 80,


donde X, es el número de clientes que pagan en la muestra de 80.

Debido a que el muestreo es sin reposición, X tiene una distribución de probabilidad


hipergeométrica H (800,300,80)

Para calcular P  P  0.30 

X  np X  80(0.3) X  24
Z  
np (1  p )(( N  n) / ( N  1) 80(0.3)(0.7)((800  80) / (800  1) 3.6499

Tiene distribución aproximadamente normal N (0,1)

47
2.2.3. Distribución muestral de la varianza

Si X 1 , X 2 , , X n es una muestra aleatoria escogida de una distribución normal

N (u,  2 ), y si.

(X i  X )2
s2  i 1

Es la varianza muestral, entonces,

n 1 2
a) E ( S 2 )  
n
n

nS 2 (X i  X )2
b)  i 1
tiene distribución X 2 (n  1)
 2
n

PRUEBA.

a) Probaremos primero que:


n n

(X
i 1
i  X ) 2   ( X i   ) 2  n( X   ) 2
i 1

En efecto.
n n

 ( X i  X )2   ( X i      X )2
i 1 i 1

n n
  ( X i   ) 2  2(   X ) ( X i   )  n(   X ) 2
i 1 i 1

n
  ( X i   ) 2  2n(   X ) 2  n(   X ) 2
i 1

n n

 ( X i  X ) 2   ( X i   ) 2  n( X   ) 2 .
i 1 i 1

48
Luego,

1 n  1 n
E   ( X i  X ) 2    E  X i      E  X     
2 2

 n i 1  n i 1    

1 2  2 n 1
E (S 2 )  (n 2 )  2     2.
n n n n

b) Probaremos primero que:

n n

 ( X i   ) 2   ( X i  X ) 2  n( X   ) 2 .
i 1 i 1

En efecto,

n n

(X
i 1
i   )2   ( X i  X  X   )2
i 1

n n
  ( X i   ) 2   ( X i  X ) 2  n( X   ) 2
i 1 i 1

n n

 ( X i   )2   ( X i  X )2  n( X   )2 , ya que
i 1 i 1

n
2( X   ) 2  ( X i  X )  0
i 1

Dividiendo por  2 la identidad probada, resulta,


n

n
 x1   
2 (X i  X )2
( X  )
2

 
i 1   
 i 1

2
n
2

Por otra parte, se sabe que.

49
 x1    Tiene distribución 2
n 2

 
i 1   
x ( n) y

(X  )  X  
2

n   Tiene distribución x (1)


2

 2
 / n 
Utilizando métodos avanzados más allá de este libro, puede demostrarse que
estas dos últimas variables son independientes. Luego, por la propiedad
reproductiva de la distribución chi-cuadrado resulta que:

(X i  X )2
i 1
Tiene distribución x 2 (n  1)
 2

NOTAS.
n

n 2 (X i  X )2
1) Si definimos la varianza, s 2  s  i 1
, entonces,
n 1 n 1

 n 2 n  n  n  1  2
E (s 2 )  E  s  E (s 2 )     
2

 n 1  n 1  n  1  n 

n 2 n
2) En s 2  s , se tiene que  1 , cuando n  
n 1 n 1

(n  1) s 2 (X i  X )2
3)  i 1
tiene distribución x 2 (n  1).
 2
 2

2
 n  n n


i 1
X   X 
 i 1  
i
2
X i
2
 n( x ) 2
4) Se verifica que: s 
2 i 1

n(n  1) n 1

50
Ejemplo.

a) Con n  15 la variable aleatoria 15S 2 /  2 tiene distribución chi-


cuadrado con 14 grados de libertad, entonces,

P(0.3107  S 2 /  2  1.9427)  P(15)(0.3107)  15S 2 /  2  (15)(1.9427)

 P(4.66  X 2 (14)  29.14)  0.99  0.01  0.98.

2.3 Distribuciones de una media con varianza poblacional no conocida

Sea X 1 , X 2 , , X n una muestra aleatoria de tamaño n escogida de una

distribución normal N (  ,  2 ) , donde la varianza poblacional a  2 es


desconocida.
Entonces, la variable aleatoria:
X 
T
S/ n

Tiene distribución t-student con n 1 grados de libertad, o T t (n  1)

En efecto, se ha verificado que:

X  (n  1) s 2
Z N (0.1) y V x 2 (n  1),
/ n  2

Además las variables Z y V son independientes.


Entonces, la variable aleatoria:

Z X 
T 
V / (n  1) S / n

Tiene distribución t-student con n 1 grados de libertad.

NOTA. Observar que.

51
(ns 2 (n  1) s 2
V x 2 (n  1)
 2
 2

Entonces, la variable aleatoria:

Z X 
T 
V / (n  1) S / n  1

Tiene también distribución t-student con n 1 grados de libertad.

EJEMPLO.

Si X es la media y S 2 es la varianza de una muestra aleatoria de tamaño n  9


seleccionada de una población normal con media   80 . Calcular

 X  90 
P 0.2353   1.1183
 S 

SOLUCION.

En este caso, la variable aleatoria:

X   X  90 3( X  90)
Z  
S/ n S/ 9 S

Se distribuye según t-student con 8 grados de libertad, esto es, T t (8) entonces,

 X  90   3( X  90) 
P 0.2353   1.1183  P (3)(0.2353)   (3)(1.1183) 
 S   S 

 P  0.706  t (8)  3.355

 0.995  0.75  0.245

2.4 Distribución muestral de la diferencia de dos medias con varianza


poblacionales conocidas

Sean X 1 y X 2 las medias de dos muestras aleatorias independientes de tamaños


n1 y n2 seleccionadas de dos poblaciones con medias 1 y 2 y varianzas  12 y

 22 respectivamente, supuestas conocidas, entonces, la variable aleatoria X 1  X 2


tiene las siguientes propiedades:

52
a) X 1X 2
 
 E X 1  X 2  E X 1  E X 2  1  2    
 12  22
b)  2
X1X 2  
 V X 1  X 2  V X 1 V X 2      n1

n2
c) Para n1 y n2 suficientemente grandes , la variable aleatoria:

X 1  X 2  ( 1  2 )
Z
 12  22

n1 n2
Tiene aproximadamente distribución normal N(0,1)

NOTA:
La aproximación de Z a la normal es muy buena si n1  30 y n2  30 sin importar
si las poblaciones son discretas o continuas y sin importar sus formas.

Pero, si las dos poblaciones son normales, entonces, la media X 1 es

N (1 , 12 / n1 ) y X 2 es N (2 ,  22 / n2 ) para n1  2 y n2  2 .

Por la propiedad reproductiva de la normal X 1  X 2 es normal con media


 12  22
 1  2 y varianza   .
n1 n2
Luego, la distribución de la variable aleatoria Z:

X 1  X 2  ( 1  2 )
Z
 12  22

n1 n2

Es normal N(0,1) para cualquier valor de y n1  2 y n2  2 .

53
Ejemplo:

Sean X 1 y X 2 las medias de los pesos de las muestras respectivas. Los pesos de
las poblaciones se distribuyen normalmente con medias iguales y varianzas iguales.

Entonces, la diferencia de las dos medias muéstrales X1  X 2 tiene


distribución normal con:

 12  22 18  18 36
Media: 1  2  0, y varianza:   
n1 n2 n n
Luego, la variable

X1  X 2 0
Z Se distribuye como normal N(0,1).
36 / n

P  X 1  X 2  2   0,95 ,
Se debe hallar el valor de n tal que  
entonces,

 20   n n  n
0,95  P  X 1  X 2  2   P  Z    P   3  Z 3   2  3   1
   36 / n     

De donde resulta,

 n  n
2    1  0.95,     0.975
 3   3 
n
 1.96 , n  5.88 , n  34.57  0.975
3

2.5 Distribución muestral de la diferencia de dos medias con varianza


poblacionales desconocidas

En general, las varianzas poblacionales no suelen ser conocidas. Así p ue s, aho ra

se quiere obtener la distribución de la diferencia de medias muestrales X 1  X 2


cuando el muestro se realiza sobre dos poblaciones normales, independientes y
con varianzas desconocidas. En estas situaciones, se debe tomar en cuenta el
tamaño de la muestra.

54
1. Tamaño de las muestras son mayores que 30
Si el tamaño de cada muestra es mayor que 30, la distribución muestral de la
diferencia de medias sigue siendo normal pero sustituyendo

s12 s22
 .s x  
2
x
2
. Es decir, X N (  , s 2x )
n1 n2

Ejemplo: La edad promedio de los estudiantes de la UNSCH es 22 años y la de lo s


estudiantes de la UAP es 24 años.
Dada una muestra aleatoria de 50 estudiantes de la UNSCH se obtuvo que la
varianza era 25, y para 60 estudiantes de la UAP se obtuvo que la varianza e ra d e
16. Si se suponen que las poblaciones son normales.

 ¿Cuál es la distribución muestral de la diferencia de las edades de los


estudiantes de la UNSCH con respecto a los de la UAP?
Sea X 1  La edad promedio de los estudiantes de la UNSCH  X 1  22

Sea X 2  La edad promedio de los estudiantes de la UAP  X 2  24

Como las varianzas poblacionales son desconocidas usamos las varianzas


muestrales, las cuales son S12  25 y S22  16 . Debido a que los tamaños de

muestras seleccionados son mayores que 30(n1  50, n2  60), entonces

X  X1  X 2 N ( ; S 2X ), donde
S12 S22 25 16
  1  2  22  24  2 S 2X      0, 77
n1 n2 50 60

Es decir, X N (2;0,77)

55
 ¿Cuál es la probabilidad de que dicha diferencia sea mayor que 2?

     
 P  P  E P1  P 2  E P1  E P 2  P1  P2
1 2

P1 1  P1  P2 1  P2 
1 2
     
 P2  P  V P1  P 2  V P1  V P 2 
n1

n2
P1  P 2   P1  P2 
Z
 P P
1 2

P1 1  P1  P2 1  P2 
 P P  
1 2
n1 n2

    
P X 1  X 2  2  P X 1  X 2  2  P X 1  X 2  2 

 X   2   2    X   2   2  
 P    P   
 S S
 X 0, 77   X 0, 77 

 P  Z  4,55  P  Z  0   0  0,50  0,50

2. Tamaño de al menos una de las muestras es menor que 30


Cuando las varianzas poblacionales son desconocidas y al menos uno de los
tamaños muestrales es menor que 30, al igual que en el caso de una población, se
tiene que el estadístico

X 
T
S X

Se distribuye t-student con  grados de libertad. Donde los valores de S


depende de si las varianzas poblacionales se consideran iguales o diferentes.

56
2.5.1. Varianzas poblacionales iguales

S 
 n1  1 S12   n2  1 S22 1 1

X
n1  n2  2 n1 n2

  n1  n2  2

2.5.2. Varianzas poblacionales diferentes

S12 S22
S X
 
n1 n2
2
 S12 S 22 
  
  n1 n2 
 1 1   2 2 
2 2 2 2
S / n S / n
n1  1 n2  1

Ejemplo: Se aplicaron dos métodos para enseñar a leer a dos grupos de niños
de primaria que se eligieron en forma aleatoria y se realizó una comparación
con base en una prueba de comparación de lectura al final del período de
enseñanza.

La siguiente tabla resume los valores de las medias muestrales y las varianzas
calculadas con los resultados de la prueba. Si se supone que las puntuaciones
obtenidas por cada método son normales con media 60 y 65 respectivamente y
que las varianzas poblacionales son iguales, calcule la probabilidad d e q ue e l
segundo método de enseñanza asegure

en promedio una mayor puntuación que el primero.

57
Método Método
E
1 2
l
Número
de niños 11 14
s
Media 64 69
e
Varianza 52 71
g
undo método de enseñanza asegure en promedio una mayor puntuació n q ue

el primero, está representado por el evento x1  x2  0 . De esta mane ra se

tiene que   1  2  264  69  5 y

S 
 n1  1 S12   n2  1 S22 1 1

X
n1  n2  2 n1 n2


11  1 52  14  1 71 1 1

11  14  2 11 14
 3,19

2.6 Distribucion muestral de diferencia de do proporciones

Este método se utiliza para comparar las proporciones o porcentajes de dos


distribuciones muestrales distintas y formular una inferencia con respecto a la
diferencia de estas.

Sean X 1 , X 2 ,... X n1 e Y1 , Y2 ,...Yn 2 dos muestras aleatorias independientes de

tamaños n1 y n2 seleccionadas respectivamente de dos poblaciones

independientes de Bernoullí B(1, p1 ) y B(1, p2 ) , donde p1 y p2 son las


proporciones poblaciones de éxito respectivos. Sean las proporciones muéstrales

n1 n2

X i
X
Y i
Y
P1  i 1
 y
P2  i 1

n1 n1 n2 n2

58
Donde X B(n1 , p1 ) y Y B(n2 , p2 )

Entonces, la variable aleatoria P1  P 2 tiene una distribución dc probabilidad cuyas


propiedades son las siguientes:

a)  
 P  P  E P1  P 2  E P1  E P 2  P1  P2
1 2
   
P1 1  P1  P2 1  P2 
b) 1 2

 P2  P  V P1  P 2  V P1  V P 2       n1

n2

c) Para n1 y n2 suficientemente grandes, la variable aleatoria estándar:

P1  P 2   P1  P2 
Z
 P P
1 2

Tiene distribución aproximadamente N(0,1), donde el error estándar  P1  P2 , es

dado por:

P1 1  P1  P2 1  P2 
 P P  
1 2
n1 n2

La distribución muestral de proporciones es el conjunto de todas las muestras


posibles del mismo tamaño extraídas de una población, junto con el conjunto de
todas las proporciones muestrales.

La necesidad de encontrar la proporción, porcentaje o por ciento de una situació n


dada en una población es tarea frecuente en estadística.

Ejemplos:
1. Se quiere probar una terapia de grupo para dejar de fumar. Para ello se toma
una más de 50 fumadores. Se sabe que las personas que llevan al menos 10 año s
fumando tienen más dificultades para dejar de fumar, y que el 38% de los
fumadores llevan al menos 10 años fumando. Por ello, se decide separar uno s d e
otros si entre los fumadores elegidos más de un 19% llevan más de 10 años
fumando. Obtener la probabilidad de que se decida separarlos.
P: Proporción de fumadores con  10 años, en la población.

59
p : Proporción de fumadores con  10 años, en la muestra.

 pq   (0,38)(0, 62) 
p  N  p;    0,38;   N (0,38;0, 068)
 n   50 
p  p p  0,38
Z   N (0;1)
pq 0, 068
n
 p  0,38 0,19  0,38 
P( p  0,19)  P     P( Z  2, 769)
 0, 0686 0, 0686
 
 1  P( Z  2, 769)  1  P( Z  2, 769)  1  0, 0028  0,9972

2. Dos amigos J y R juegan "cara" o "sello" con una moneda. Suponga que en este
juego, cada uno lanza la moneda 20 veces y que uno de ellos gana si obtiene 4
caras más que el otro. Calcular la probabilidad de que R gane el juego.
Solución:
Sea X el número de caras que saca el jugador J en las 20 tiradas y sea Y el número
de caras que saca el jugador R en las 20 tiradas, entonces, cada variable tiene
distribución R(20,0.5), donde p = 0.50 es la probabilidad de obtener cara en cada
tirada de los jugadores.
Sean P1  X / 20 y P 2  Y / 20 las proporciones de caras de los jugadores J y R
respectivamente. El jugador R gana el juego si saca 4 caras más que J o si su
proporción de caras es 4/20 = 0.20 más que A. Luego, la probabilidad de que B
gane el juego es:

P  P1  P 2  0, 20   1  P  P1  P 2  0, 20  0, 0475 ,
donde:
 
 
0, 20  (0,50  0,50)   P  Z  1.27   0.8980
P  P1  P 2  0, 20   P  Z 
  0,50  0,50    0,50  0,50  
 
 20 20 

60
2.7 Distribucion muestral de la razón de dos varianzas

2 2
Si S1 y S2 son las varianzas de dos muestras aleatorias independientes de

tamaños n1 y n2 seleccionadas de dos poblaciones normales N  1 ,  12 

y N  2 ,  22  respectivas, entonces, la variable aleatoria

2
S 1 /  12
F 2
S 2 /  22

Tiene distribución F con grados de libertad n1  1 y n2  1 , esto es,

F F  n1  1, n2  1 .

U   n1  1 S 1 / 12
2
En efecto, la variable aleatoria se distribuye como

Chi 2 con n1  1 grados de libertad y la variable aleatoria

V   n2  1 S 2 /  22
2
se distribuye como Chi 2 con n2  1 grados de libertad .

Además son independientes. Luego la variable:

U /  n1  1 S 1 /  12
2

F 
V /  n2  1 S 22 /  2 ,
2

Se distribuye según F con grados de libertad n1  1 y n2  1

2
Observar que si 12   22 , entonces, F  S 1 /  22 se distribuye según F co n

grados de libertad n1  1 y n2  1 , o F F  n1  1, n2  1 .

61
Ejemplo:

De poblaciones N  1 ,  2  y N  2 ,  2  independientes se extraen dos


muestras de tamaños 12 y 20 respectivamente, hallar el valor de k tal que:

P  S 1  k S 2   0.99 .
2 2
a)
 

P  S 1 / S 2  k   0.05
2 2
b)
 
Solución

P  S 1  k S 2   0.99 , P  F  k   0.99 ,
2 2
a) implica donde
 
2 2
F  S 1 / S 2  F (12, 20) .
Entonces, k=3.23.

P  S 1 / S 2  k   0.05 , implica P  F  k   0.05,


2 2
b)
 
2 2
Donde F  S 1 / S 2  F (12, 20) .

Entonces, k  1/ f0,95.20.12  1/ 2,54  0,394

62
BIBLIOGRAFIA

CORDOVA ZAMORA, Manuel, MOSHERA S.R.L. Estadifica Descriptiva e


Inferencial Aplicaciones. Quinta edición-2014. Pag.252 – 356.

63