Вы находитесь на странице: 1из 58

DISTRIBUCIONES

MUESTRALES
Unidad # 6

Materia: Estadística
Profesora: Gina Verónica Ochoa Jara

FACULTAD DE CIENCIAS
NATURALES Y MATEMÁTICAS
501

Poblaciones y Muestras Aleatorias


• Una muestra para que sea Aleatoria tiene que ser
considerada en dos contextos, primero cuando la población
X de la que se toma la Muestra es finita y de tamaño N y
otro en el que X es infinita.
502

…viene Poblaciones y Muestras Aleatorias


• Las observaciones de una muestra se las denotaba x1,x2,…,xn
y antes de tomar una muestra aleatoria de tamaño n, las
observaciones se modelan como variables aleatorias
X1,X2,…,Xn puesto que en situación pre-experimental están
sujetas a incertidumbre, es decir, no sabemos el valor que
tomará la observación.

• Ejemplo: si la variable es Número de hijos, entonces el valor


de la primera observación seleccionada podría ser x1=1 o x1=2
y muchos otros valores posibles.

• De la situación anterior se tiene que cualquier Estimador media


aritmética, mediana muestral, desviación estándar muestral,
rango muestral, etc., debe verse como una variable aleatoria.
503

Muestras Aleatorias de Poblaciones


Infinitas
• Si la población X es infinita, con Distribución o Densidad
f, una Muestra de tamaño n, X = (X1 X2 … Xn)T es
Aleatoria, si las n variables X1,X2,…,Xn que la constituyen
son Independientes e Idénticamente Distribuidas.

• Lo cual significa que por independencia, la distribución


conjunta fx es:

fx(X) = fx(X1 X2 … Xn) = f1(X1) f2(X2) … fn(Xn)


n

fx(X) = ෑ fi Xi
i=1
504

Muestras Aleatorias de Poblaciones


…viene

Infinitas
• Mientras que por ser Idénticamente Distribuidas, las n
Variables Aleatorias tienen la misma Distribución de
Probabilidades de X o Densidad de X, según que Xi sea
continua o discreta. Esto nos lleva a que:

n
𝑛
fx(X) = ෑ fi Xi = f X
i=1

• Todo esto en situación pre–experimental, esto es, antes


de tomar la muestra.
505

Muestras Aleatorias de Poblaciones


…viene

Infinitas
• Cuando se habla de Poblaciones Infinitas, incluimos en ellas a
todas las Variables Continuas así como a las Discretas con
soporte infinito contable, Poisson o Binomial Negativa.

• Además, se debe tener en cuenta que ser Idénticamente


Distribuidas significa que las n variables tienen la misma
Función Generadora de Momentos, si tal Valor Esperado
existe; mientras que al ser Independientes su distribución
conjunta es igual al producto de sus marginales para todos los
valores en el soporte de X.

• Cuando n variables son Independientes y al mismo tiempo


Idénticamente Distribuidas se las rotula como iid.
506

Muestras Aleatorias de Poblaciones


Finitas
• Una Muestra de tamaño n, tomada de una Población X
que es finita y de tamaño N, que tiene Distribución de
Probabilidades f, es denominada Muestra Aleatoria,
cuando y solo cuando, al tomarla, todo subconjunto de
tamaño n en la Población X, tiene igual probabilidad de
constituir la muestra.

• La probabilidad de que uno de estos subconjuntos de


tamaño n constituya la muestra sabemos que es:
507

Muestras Aleatorias de Poblaciones


…viene

Finitas
• En términos de la Población Objetivo, que está
constituida por N unidades de investigación, deberíamos
decir que la Muestra es Aleatoria si todo subconjunto que
cuenta con n “unidades de investigación”, tienen igual
probabilidad de ser investigado, acerca de la
característica de interés X.
508

Muestras Aleatorias de Poblaciones


…viene

Finitas
• Si el tamaño N de la Población Objetivo es “grande”, digamos
que de varios miles, para determinar qué unidades deben ser
investigadas se necesita, por ejemplo, una representación
simbólica de la Población Objetivo a investigarse, a fin de con
propiedad y “cobertura” pertinente poder identificar y localizar
las unidades de investigación. Esta representación simbólica
de la Población Objetivo se denomina Marco Muestral y
deberá ser exhaustiva y actualizada.

• Por lo general, un Marco Muestral se lo construye; siendo


estos “marcos” registros administrativos, bases de datos, listas
de usuarios, cartografía, etc.
509

Muestras Aleatorias de Poblaciones


…viene

Finitas
•A continuación, utilizando ilustraciones numéricas
queremos introducir una forma particular de presentación
de Variables Aleatorias, que son fundamentales en
Estadística Inferencial. Se trata de Variables Aleatorias
cuyos valores se listan exhaustivamente y a partir de los
cuales se determinan sus Distribuciones y parámetros;
trataremos también de resaltar el efecto que tiene el
tamaño n de la Muestra en las medidas de dispersión de
ciertas funciones derivadas de estas variables.
510

Muestras Aleatorias de Poblaciones


…viene

Finitas
• Ejemplo. Dada una Población X, Uniforme Discreta, de
tamaño N = 6 que se representa como:

• {1; 2; 3; 4; 5; 6}

• f(x) = 1/6
• Sx = {1; 2; 3; 4; 5; 6}

• Determinar la Media y la Varianza.


511

Muestras Aleatorias de Poblaciones


…viene

Finitas
512

Muestras Aleatorias de Poblaciones


…viene

Finitas
513

Muestras Aleatorias de Poblaciones


…viene

Finitas
• Ejemplo 2. Dada una Población X de tamaño N = 6 que
se representa como:

• {1; 2; 3; 4; 5; 6}

• f(x) = 1/6
• Sx = {1; 2; 3; 4; 5; 6}

• Si se toman Muestras de tamaño n = 2, encuentre la


distribución de probabilidad de la variable aleatoria
definida como la media aritmética de cada muestra,
determine además su valor esperado y su varianza.
514

Muestras Aleatorias de Poblaciones


…viene

Finitas Muestras de Media



• Si N = 6 y se toman Tamaño n = 2 Aritmética
Muestras de tamaño n = 2, 1 {1 ; 2} 3/2
el total de muestras es 2 {1 ; 3} 4/2
quince, puesto que:
3 {1 ; 4} 5/2
4 {1 ; 5} 6/2
6 6! 5 {1 ; 6} 7/2
= = 15
2 4! 2! 6 {2 ; 3} 5/2
7 {2 ; 4} 6/2
• Calculamos ahora todas 8 {2 ; 5} 7/2
las muestras de tamaño 2 9 {2 ; 6} 8/2
que se pueden tomar de 10 {3 ; 4} 7/2
una Población de tamaño 11 {3 ; 5} 8/2
N = 6, además del 12 {3 ; 6} 9/2
estimador media aritmética 13 {4 ; 5} 9/2
para cada muestra.
14 {4 ; 6} 10 / 2
15 {5 ; 6} 11 / 2
515

Muestras Aleatorias de Poblaciones


…viene

Finitas
• La media aritmética de cada muestra es una variable aleatoria, y por
lo tanto es posible determinar la Distribución de Probabilidades
(Distribución Muestral) para la media aritmética, cuando se toman
muestras de tamaño n = 2, así encontramos que:
Variable Aleatoria (n = 15 muestras)
Muestras de Media

Tamaño n = 2 Aritmética
1 {1 ; 2} 3/2 1 3 4 10 11
2 {1 ; 3} 4/2 f x (x) = para x = , , ,
3 {1 ; 4} 5/2
15 2 2 2 2
4 {1 ; 5} 6/2
5 {1 ; 6} 7/2
6 {2 ; 3} 5/2 2 5 6 8 9
7 {2 ; 4} 6/2 f x (x) = para x = , , ,
8 {2 ; 5} 7/2 15 2 2 2 2
9 {2 ; 6} 8/2
10 {3 ; 4} 7/2
11 {3 ; 5} 8/2 3 7
12 {3 ; 6} 9/2 f x (x) = para x =
13 {4 ; 5} 9/2 15 2
14 {4 ; 6} 10 / 2
15 {5 ; 6} 11 / 2
516

Muestras Aleatorias de Poblaciones


…viene

Finitas
• Finalmente, la Distribución de Probabilidades para la
media aritmética, cuando se toman muestras de tamaño
n = 2, es:
517

Muestras Aleatorias de Poblaciones


…viene

Finitas
• Nótese que el Soporte Sx de la población X contiene seis
valores,
Sx = {1; 2; 3; 4; 5; 6}

• Mientras que el de 𝑥ҧ contiene nueve, ya que:


3 4 5 6 7 8 9 10 11
𝑆𝑥ҧ = 2; 2; 2; 2; 2; 2; 2; 2 ; 2
518

Muestras Aleatorias de Poblaciones


…viene

Finitas
• El valor esperado de la media aritmética es igual a:
11/2

ҧ 𝑋ത = 𝑥ҧ
𝐸 𝑥ҧ = ෍ 𝑥𝑃
ҧ
𝑥=3/2
519

Muestras Aleatorias de Poblaciones


…viene

Finitas
• La varianza de la media aritmética es igual a:
11/2

𝐸 𝑥ҧ 2 = ෍ 𝑥ҧ 2 𝑃 𝑋ത = 𝑥ҧ
ҧ
𝑥=3/2

2
𝜎2 𝑥ҧ = 𝐸 𝑥ҧ 2 − 𝐸 𝑥ҧ
2
805  7  7
σ 2x = −  = = 1.17
60 2 6
520

Muestras Aleatorias de Poblaciones


…viene

Finitas
• Histograma de la Media Aritmética Muestral
521

Muestras Aleatorias de Poblaciones


…viene

Finitas
Población X:
Distribución de Probabilidades de X

Todas las muestras de Tamaño n


de la Población X:

Distribución de Probabilidades de 𝒙
522

Muestras Aleatorias de Poblaciones


…viene

Finitas
• Cuando tomamos muestras de tamaño n de poblaciones finitas
de tamaño N tenemos que:
• El valor esperado de X es igual al valor esperado de 𝑥.ҧ

• En cambio, es posible probar que si s2 es la varianza de una


población finita X , la medida de la dispersión de 𝑥ҧ es:

, para cualquier N y n>1, n ≤ N

𝑁−𝑛
• Donde se denomina Factor de Corrección para
𝑁−1
Poblaciones Finitas, y es un valor que al crecer N tiende a uno.
523

Muestras Aleatorias de Poblaciones


…viene

Finitas
• Es posible probar que la medida de la dispersión de 𝑥ҧ es
menor o cuando mas igual que la de X.

2
𝜎𝑥2 ≥ 𝜎𝑥ҧ
• Para obtener muestras aleatorias de poblaciones finitas,
debe utilizarse muestreo sin reemplazo, que es también
conocido como Muestreo Aleatorio Simple, MAS. En
este esquema de muestreo, las observaciones que
constituyen la Muestra, no son Estocásticamente
Independientes pero sí son Idénticamente Distribuidas.
524

Estadísticos y Distribuciones Muestrales


• El propósito fundamental de tomar Muestras Aleatorias de
una Población Objetivo es inducir a través de ellas,
alguna o algunas de las propiedades que dicha
Población Objetivo posee; sea el valor de alguno de los
parámetros de sus características o aún para determinar
la Distribución o la Densidad de tales características,
según sea el caso.
525

Estadístico Muestral
• Una función T: Rn → Rp definida en términos de las
variables X1, X2,…, Xn que componen una Muestra
Aleatoria, se denomina Estadístico Muestral, si y solo si
T(x1 x2 … xn)Rp, no depende de alguno de los
parámetros de la Población.

• Es común llamar Estimador Muestral a un Estadístico


Muestral, si la razón para construir dicha función es
estimar un parámetro poblacional de X, también se lo
denomina Estimador de punto o Estimador puntual.
526

Distribución Muestral
• Debido a que la razón para determinar un estadístico
muestral es estimar un parámetro poblacional de X, y
dicha función está en términos de las variables aleatorias
observadas en una muestra, un estadístico muestral
también es una variable aleatoria. En consecuencia, tiene
una distribución de probabilidad, la misma que se
denomina Distribución Muestral.
527

…viene Distribución Muestral


• Sea X una población infinita, Siendo XT = (X1 X2 … Xn)
una Muestra Aleatoria tomada de la Población X,
Estimamos la medida de  de la Población X con la
Media Aritmética Muestral 𝑥,ҧ este estimador muestral es
una función:
𝑥:ҧ Rn → R,
528

…viene Distribución Muestral


• Bajo las condiciones previamente establecidas, tenemos
que:

Las Variables
Aleatorias
X1,X2,…Xn
son idénticamente
distribuidas
529

…viene Distribución Muestral


• En tanto que:

• Se sabe que las n variables aleatorias son


independientes e idénticamente distribuidas, por lo tanto:
530

…viene Distribución Muestral


• La raíz cuadrada positiva de la Varianza de 𝑥ҧ es la
desviación estándar o típica de 𝑥ҧ y es igual a:

• y se denomina Error Estándar de la media aritmética.


• Siendo su estimador:
531

…viene Distribución Muestral


• Otro Estimador relevante es la Varianza Muestral s2, que
estima la Varianza s2 de la población, siendo esta función
definida,
• s2 : R n → R
n


1 2
s (X1 X2 … Xn) =
2
(Xi − x) = s2
n −1
i =1
532

…viene Distribución Muestral


• Determinaremos a continuación el Valor Esperado de la
Varianza Muestral s2. Siendo,

 n
2 
E(s ) = E  n −1  (X i − x)  = n 1−1 (n −1) s = s
1
2 2 2

 i =1 
n  n
E  (Xi − x)  =  E(Xi −  +  − x )
2 2

 i=1  i =1
n 2  s2 
= E  (Xi − )  − nE(x − ) = n s − n 
2 2
 n  = (n − 1) s 2

 i =1   

• Se explica ahora la razón por la que se escoge (n – 1) en el


denominador del Estimador s2 de la Varianza Poblacional s.
533

Teorema del Límite Central (TLC)


• Sea X una Población con Media  y Varianza s2 ambas finitas,
de la que se toma una Muestra Aleatoria XT = (X1 X2 … Xn) de
tamaño n siendo 𝑋ത la Media Aritmética de la Muestra; bajo

𝑋−𝜇
estas condiciones, la Variable Aleatoria 𝑍 = tiende a una
𝜎Τ 𝑛
Variable Normal Estándar, a medida que n tiende a infinito.


𝑋−𝜇
• Cuando se dice que 𝑍 = tiende a una Variable Normal
𝜎Τ 𝑛
Estándar, a medida que n tiende a infinito, lo que realmente

𝑋−𝜇
queremos decir es que 𝑍 = Converge en Distribución a
𝜎Τ 𝑛
una Variable Normal con Media cero y Varianza uno.
534

…viene Teorema del Límite Central (TLC)


• Bajo las condiciones del Teorema del Límite Central:

 σ2 
x  N  μ, 
 n 
535

…viene Teorema del Límite Central (TLC)


• Para aplicar a muestras aleatorias el Teorema del Límite
Central debe cumplirse que:

• La población X de la que se toma la muestra es


cualquiera, no se exige que sea discreta o continua.
• La varianza s2 de la población debe ser conocida.
• El tamaño de la muestra debe ser grande (n  30).
536

…viene Teorema del Límite Central (TLC)


537

…viene Teorema del Límite Central (TLC)


• Ejemplo. Se toma una Muestra Aleatoria de tamaño
n = 40 de una Población que es Uniforme con
parámetros a = 1 y b = 3, X ~ U(1,3). Determinar la
probabilidad de que la Media Aritmética de la
Muestra tome valores entre 1.8 y 2.2.
538

…viene Teorema del Límite Central (TLC)


• Desarrollo. Necesitamos calcular el valor de P(1.8 ≤ 𝑥ҧ ≤ 2.2)
sabiendo que:

• n = 40; n es suficientemente grande para que se aplique el


Teorema del Límite Central.
• La población X de la que se toma la muestra puede ser
continua o discreta.
• Además es posible determinar la varianza de la población X,
pues conocemos que la población de la que se toma la
muestra es Uniforme con a =1 y b=3.

X ~ U(1,3)  f (x) = 1 ; Soporte: SX = (1, 3)


2
539

…viene Teorema del Límite Central (TLC)


X ~ U(1,3)  f (x) = 1 ; Soporte: SX = (1, 3)
2
540

…viene Teorema del Límite Central (TLC)


• Sabemos que bajo las Condiciones del TLC:
 σ2 
x  N  μ, 
 n 

 1 
x N  2, 
 120 

• Por lo que:

1
σx = = 0.09 = Error Estándar de x
120
541

…viene Teorema del Límite Central (TLC)


• Entonces:

 P(1.8  x  2.2) = P ( 1.8 − 2


0.09
Z
2.2 − 2
0.09 )
= P (–2.22 ≤ Z ≤ 2.22)
= F (2.22) – F (–2.22)
= 0.9868 – 0.0132
= 0.9736
542

Sesgo y Eficiencia de un Estimador


Muestral
• Supongamos que  es un parámetro poblacional, uno de
cuyos Estimadores es 𝜃.෠
• Entonces , conjunto este último al que llamaremos
Espacio de Parámetros.
• Por ejemplo, si la población es Normal y  = , entonces
 = R, pero si  = s entonces  = R+.
543

Sesgo y Eficiencia de un Estimador


…viene

Muestral
• Recordar:
• 𝜃෠ es un estimador del parámetro  si y solamente si 𝜃෠
es el valor de una función definida de 𝜃෠ : Rn → R tal que
solo depende de la muestra aleatoria tomada de la
población.
• Un estimador 𝜃෠ es una variable aleatoria por lo tanto
tiene distribución de Probabilidades, tiene media y tiene
varianza.
544

Estimador Insesgado
• Diremos que 𝜃෠ es un Estimador Insesgado de  si y
෠ = .
solamente si E(𝜃)

• De lo que ya hemos visto en clases anteriores, la Media


Aritmética Muestral 𝑥ҧ , es uno de los Estimadores
Insesgados de  así como s2 es un Estimador Insesgado
de s.

• Nótese que decimos “uno de los Estimadores Insesgados


de ”, y es que un mismo parámetro poblacional  puede
tener mas de un Estimador;  por ejemplo, no solo es
estimada por 𝑥ҧ sino que también es estimada por la
Mediana Muestral, por la Media Cortada, la Media
Winsorizada, o por la Media Ponderada.
545

Sesgo de un Estimador
• El Sesgo de un Estimador 𝜃෠ es denotado por B(𝜃)
෠ y se
lo define como,

෠ − 
෠ = E(𝜃)
B(𝜃)
546

Error Cuadrático Medio


• Sea 𝜃෠ un Estimador de un parámetro , se define el Error
Cuadrático Medio de 𝜃෠ como:

෠ = E[(𝜃෠ − )2]
ECM(𝜃)
547

…viene Error Cuadrático Medio


• Es posible probar que:

෠ = E[(𝜃෠ – )2] = Var(𝜃)


ECM(𝜃) ෠ + [B(𝜃)]
෠ 2

෠ de  es insesgado el Sesgo es cero y el


• Si el Estimador θ
Error Cuadrático Medio del estimador es igual a la
Varianza del Estimador.
548

…viene Error Cuadrático Medio


• Relación entre el ECM, Varianza y Sesgo de un
Estimador
549

Estimador más eficiente


• Sea  un parámetro poblacional y sean 𝜃෠1 y 𝜃෠2
Estimadores Insesgados del mismo parámetro ; diremos
que 𝜃෠1 es Más Eficiente como Estimador de  que 𝜃෠2
cuando y solo cuando,

V ar ( ˆ 1 )
 1
V ar ( ˆ 2 )
• Es decir que si existen dos Estimadores Insesgados de
un mismo parámetro, se rotula como Más Eficiente, entre
los dos, al que tenga menor Varianza.
550

Sesgo y Eficiencia de un Estimador


…viene

Muestral
• Ejemplo. Sea XT = (X1 X2 X3 X4 X5) una muestra
aleatoria de tamaño cinco tomada de una población
infinita X con Densidad f, que además tiene Media  y
Varianza finita s2. Se postula como estimadores de  a
los siguientes estadísticos muestrales:

• Verificar cuales de estos Estimadores son Insesgados y


cuáles no. De entre los insesgados identifique al más
eficiente y entre los sesgados calcule el correspondiente
Sesgo.
551

Sesgo y Eficiencia de un Estimador


…viene

Muestral
a) Por ser la Muestra Aleatoria, E(θˆ 1 ) = E(X1 ) =μ , luego θ̂1 es Insesgado y su Varianza es

σ2 2
Var (X1 ) = =σ
1
E(X1 +X2 ) 2μ
b) Para este caso, E(θˆ 2 ) = = = μ . Igualmente es Insesgado y además,
2 2
ˆ s2
Var ( 2 ) =
2
c) En el tercer caso se tiene un Estimador de  que no es Insesgado, puesto que

2  2 4μ
E(θˆ 3 )= E  ( X3 + X5 ) = 2μ = μ
3  3 3
Por lo tanto, el sesgo de θ̂3 es:
4 
B( θˆ 3 ) = E(θˆ 3 ) − 3 = −=
3 3
552

Sesgo y Eficiencia de un Estimador


…viene

Muestral
d) En el cuarto caso E(θˆ 4 ) = E(x) = μ y además

s2
Var (ˆ 4 ) = V ar ( x ) =
5

• Lo cual nos lleva a la conclusión de que no todos los Estimadores


propuestos son Insesgados, solo tres lo son; y finalmente que, el
Estimador Insesgado Más Eficiente de todos los considerados es el
que aparece en el caso d) por ser el de menor Varianza.
553

Distribuciones Muestrales de Poblaciones


Normales
• Sea X = (X1 X2 … Xn)T una Muestra Aleatoria de tamaño n
con Media Aritmética 𝑥ҧ y Varianza s2, que es tomada de
una población X que es Normal, X ~ N(,s2), bajo estas
condiciones,

• Esto nos permite hacer inferencia respecto a la media y a


la varianza de una distribución normal, sin importar el
tamaño de la muestra.
554

Distribuciones Muestrales de
…viene

Poblaciones Normales
• Sea X = (X1 X2 … Xn)T una Muestra Aleatoria de tamaño n
con Media Aritmética 𝑥ҧ y Varianza s2, que es tomada de
una Población Normal, X ~ N(,s2), bajo estas
condiciones la variable,

• Esto permite inferir acerca de la Media Poblacional  sin


tener que conocer la varianza s2 y sin tener el otro
limitante que es el tamaño “grande” de la muestra.
555

Relación entre la variable aleatoria


Normal Estándar y una Ji-Cuadrado
• Es posible relacionar la Variable Z ~ N(0,1) con la  con
un grado de libertad. Tengamos en cuenta que Z2 es
también una Variable Aleatoria que tiene Soporte
S = {zR | z > 0} = R+.

• Calculemos la Función Generadora de Momentos de


Y = Z2.
(z2 t ) yt
1
M Z2 (t) = E[ e ] = E(e ) = 1/2
(1 – 2t)

• Que es la Función Generadora de Momentos de una


Variable Ji–Cuadrado, 2(1), con un grado de libertad.
556

Relación entre la variable aleatoria


…viene

Normal Estándar y una Ji-Cuadrado


• Este último resultado dice que si Z es Normal Estándar
Y = u(z) = Z2 tiene Distribución Ji–Cuadrado con un grado de
libertad; en síntesis:

• Z ~ N(0,1)  Z2 ~ 2(1)

• Entonces es posible probar que si X1, X2, …, Xn son


variables aleatorias independientes e idénticamente
distribuidas (iid) y Xi  2(1), la variable Y = X1 + X2 + … + Xn
tiene distribución Ji–Cuadrado con n grados de libertad.
557

Referencias Bibliográficas
• ZURITA, G. (2010), “Probabilidad y Estadística,
Fundamentos y Aplicaciones”, Segunda Edición,
Ediciones de la Facultad de Ciencias Naturales y
Matemáticas ESPOL, Guayaquil, Ecuador.

Вам также может понравиться