Вы находитесь на странице: 1из 38

Estimación

Estadística
Poblaciones y
Muestras Aleatorias
Conceptos Básicos
• Muestra aleatoria de una población finita:
Sea 𝑋 una población finita y de tamaño 𝑁, que tiene distribución 𝑓; una muestra de tamaño 𝑛, tomada
de 𝑋, es denominada Muestra Aleatoria cuando y solo cuando, al tomarla, todo subconjunto de
tamaño 𝑛 en la Población 𝑋, tiene igual posibilidad de constituirla.

• Poblaciones Infinitas
Cuando se habla de poblaciones infinitas, incluimos en ellas a todas las Variables Continuas así como
las Discretas con Soporte Infinito contable: Poisson o Binomial por ejemplo.

• Marco Muestral
Representación simbólica de la Población Objetivo; deberá ser exhaustiva y actualizada
Muestra Aleatoria
• Una muestra aleatoria puede ser tomada de una población 𝑋 de tamaño 𝑁 o de una población 𝑋
infinita
• En una población finita la muestra es aleatoria si todo subconjunto que cuenta con 𝑛 unidades de
investigación” tienen igual probabilidad de ser investigado.
• Si la población es infinita, con distribución 𝑓, una muestra de tamaño 𝑛 es aleatoria si las 𝑛 variables
que la constituyen son independientes e idénticamente distribuidas.
Muestra Aleatoria
La probabilidad de que un subconjunto de tamaño 𝑛 constituya la muestra es igual a :

1 𝑁 − 𝑛 ! 𝑛!
=
𝑁 𝑁!
𝑛
Cómo tomar muestras aleatorias de
poblaciones finitas
Efectuar la selección aleatoria de unidades “una a una” y sin reemplazo es equivalente a tomar
las 𝑛 unidades de manera simultánea, tenemos
𝑁
El total de las muestras de tamaño 𝑛 es ; por lo que:
𝑛
1
𝑃(𝑠𝑒𝑙𝑒𝑐𝑐𝑖𝑜𝑛𝑎𝑟 𝑢𝑛𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 𝑐𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟𝑎 𝑑𝑒 𝑡𝑎𝑚𝑎ñ𝑜 𝑛) = 𝑁
𝑛
En tanto que si por ejemplo debemos integrar una Muestra Aleatoria con dos unidades sean
estas por ejemplo, 𝑢1 y 𝑢2 de una población de tamaño 𝑁 = 10, tenemos que:
1
𝑃(𝑠𝑒𝑙𝑒𝑐𝑐𝑖𝑜𝑛𝑎𝑟 𝑢1 ) =
10
1
𝑃(𝑠𝑒𝑙𝑒𝑐𝑐𝑖𝑜𝑛𝑎𝑟𝑢2 ห𝑢1 ) =
9
Luego que:
1 1 1
𝑃 𝑠𝑒𝑙𝑒𝑐𝑐𝑖𝑜𝑛𝑎𝑟 𝑝𝑟𝑖𝑚𝑒𝑟𝑜 𝑢1 𝑦 𝑙𝑢𝑒𝑔𝑜𝑢2 = ∙ =
10 9 90
10 10!
Obsérvese que = = 45 lo cual parece coincidir con lo que postulamos en teoría; ya
2 8!2!
que,
1 1
𝑃 𝑢1 y 𝑢2 𝑐𝑜𝑛𝑓𝑜𝑟𝑚𝑒𝑛 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 = 10 =
45
2

Obsérvese también, que la Población Objetivo con 𝑁 = 10 es


𝑢1 ; 𝑢2 ; 𝑢3 ; 𝑢4 ; 𝑢5 ; 𝑢6 ; 𝑢7 ; 𝑢8 ; 𝑢9 ; 𝑢10
1
Por lo que es la probabilidad que ocurra primero 𝑢1 y luego 𝑢2 ; pero no considera que ocurra
90
𝑢2 y luego 𝑢1 ; por tanto existen dos opciones de selección para la misma muestra, lo cual hace
que:
1 1
𝑃 𝑢1 y 𝑢2 𝑖𝑛𝑡𝑒𝑔𝑟𝑒𝑛 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 = 2 ∙ =
90 45
En general si se toman 𝑛 unidades de muestreo tenemos.
1 1 1 𝑁−𝑛 ! 𝑛! 𝑁−𝑛 ! 1
𝑃 𝑛 𝑢𝑛𝑖𝑑𝑎𝑑𝑒𝑠 𝑞𝑢𝑒 𝑖𝑛𝑡𝑒𝑔𝑟𝑒𝑛 𝑙𝑎 𝑀𝑢𝑒𝑠𝑡𝑟𝑎 = ∙ … ∙ = = 𝑁
𝑁 𝑁−1 𝑁− 𝑛+1 𝑁−𝑛 ! 𝑁!
𝑛
1
𝑃 𝑛 𝑢𝑛𝑖𝑑𝑎𝑑𝑒𝑠 𝑞𝑢𝑒 𝑖𝑛𝑡𝑒𝑔𝑟𝑒𝑛 𝑙𝑎 𝑀𝑢𝑒𝑠𝑡𝑟𝑎 = 𝑁
𝑛

Con lo que se verifica la equivalencia entre los eventos: tomar de manera sucesiva 𝑛 unidades
sin reposición, con tomar simultáneamente las 𝑛 unidades
Muestra Aleatoria de Población
Infinita
Por independencia la, distribución conjunta 𝑓𝑥 es:
𝑛

𝑓𝑥 𝑥 = 𝑓𝑥 𝑥1 , 𝑥2 … 𝑥𝑛 = 𝑓1 𝑥1 𝑓2 𝑥2 … 𝑓𝑛 𝑥𝑛 = ෑ 𝑓𝑖 𝑥𝑖
𝑖=1
Por ser idénticamente distribuidas, las 𝑛 Variables Aleatorias tienen la misma Distribución de
Probabilidades de 𝑋 o densidad de 𝑋, según que 𝑥𝑖 sea continua o discreta. Esto nos lleva a que :
𝑛
𝑛
𝑓𝑥 𝑥 = ෑ 𝑓𝑖 𝑥𝑖 = 𝑓(𝑥)
𝑖=1
Todo esto en situación pre-experimental, esto es, antes de tomar la muestra.

Ser Idénticamente Distribuidas significa que las 𝑛 variables tiene la misma Función Generadora de
Momentos, si tal Valor Esperado existe; mientras que al ser Independientes su distribución conjunta es
igual al producto de sus marginales para todos los valores en el soporte de 𝑋
Valor esperado de 𝑥ҧ
Las variables aleatorias 𝑋 y 𝑥ҧ tienen el mismo valor esperado 𝜇𝑥 y 𝜇𝑥ҧ respectivamente
𝐸 𝑋 = 𝐸 𝑥ҧ

La medida de dispersión de 𝑥ҧ es menor o cuando mas igual que la de 𝑋


2
𝜎𝑥 2 ≥ 𝜎𝑥ҧ
Varianza de 𝑥ҧ
En una población 𝑋, donde 𝑋 es finita y de tamaño 𝑁,

2
𝑁 − 𝑛 𝜎2
𝑉𝑎𝑟 𝑥ҧ = 𝜎𝑥ҧ = ∙
𝑁−1 𝑛

𝑁−𝑛
Siendo un valor que al crecer 𝑁 tiende a uno; es decir que para valores grandes de 𝑁 la
𝑁−1
𝜎2
𝑉𝑎𝑟 𝑥ҧ tiende al valor
𝑛
𝑁−𝑛
se denomina Factor de Corrección para Poblaciones Finitas
𝑁−1
Poblaciones y
Muestras Aleatorias
Muestreo con Reposición
Para una Población objetivo de 𝑁 unidades, con muestras 𝑋𝑖 de 𝑁 valores igualmente probables,
donde estos valores pueden ser repetidos
Al tomar la muestra, el valor 𝑋1 que se observa en primer lugar se lo repone a la población y
solo luego de esto se observa 𝑋2 , de tal manera que siguen existiendo los 𝑁 valores originales
por lo que
1
𝑃 𝑋𝑛 = 𝑥𝑛 =
𝑁

Pudiendo ocurrir que los valores 𝑥1 =𝑥2 …=𝑥𝑛

Este esquema de muestreo no puede darnos Muestras Aleatorias ya que la definición de


Muestra Aleatoria de Poblaciones finitas no se cumple.
Muestreo sin Reposición
Dependencia de las observaciones de una muestra aleatoria
𝑃 𝑋2 = 𝑎 𝑋1 = 𝑎 = 0
Esto es verdad en virtud de que el valor, en este caso 𝑎, que se diera en la primera observación
no fue restituido a la población y por lo tanto 𝑋2 no puede adoptarlo.

Para abonar a la dependencia de la distribución de 𝑋2 respecto al valor de 𝑋1 , es cierto que si


𝑎, 𝑏 son valores que puede tomar 𝑋, además 𝑎 ≠ 𝑏, entonces:
1
𝑃 𝑋2 = 𝑏 𝑋1 = 𝑎 =
𝑁−1
Muestreo sin Reposición
En el muestreo sin reposición, aunque no son independientes 𝑋1 , 𝑋2 , … , 𝑋𝑛 , si son Idénticamente
Distribuidas, esto es la Marginal de 𝑿𝒊 , es la misma para todos los los valores de 𝑖. Veamos,
𝑁

𝑃(𝑋2 = 𝑥) = ෍ 𝑃 𝑋2 = 𝑥 𝑋1 = 𝑥𝑖 𝑃(𝑋1 = 𝑥𝑖 )
𝑖=1
Lo cual significa que:
1
𝑃(𝑋1 = 𝑥) = 𝑃(𝑋2 = 𝑥) =
𝑁
1
y en general que 𝑃(𝑋𝑖 = 𝑥) = 𝑁
CONCLUSION: Para obtener muestras aleatorias de poblaciones finitas , debe utilizarse Muestreo sin
Reemplazo, también conocido como Muestreo Aleatorio Simple
Estadísticas y
Distribuciones
Muestrales
Estadístico Muestral
Una función 𝑇: 𝑅 𝑛 → 𝑅 𝑝 definido en términos de las variables 𝑋1 , 𝑋2 , … , 𝑋𝑛 que componen una
Muestra Aleatoria, se denomina Estadístico Muestral, si y solo si 𝑇(𝑋1 𝑋2 … 𝑋𝑛 ) ∈ 𝑅 𝑝 no depende de
algunos de los parámetros de la Población

Estimador Muestral
Se llama Estimador Muestral a un Estadístico Muestral, si la razón para construir dicha función es
estimar un parámetro poblacional
Estadístico Muestral Suma 𝑆𝑛
Sea 𝑋 una población infinita,
𝑆𝑛 : 𝑅𝑛 → 𝑅 𝑡𝑎𝑙 𝑞𝑢𝑒, 𝑆𝑛 𝑋1 𝑋2 … 𝑋𝑛 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛

Varianza de 𝑆𝑛 :
La varianza de la suma 𝑆𝑛 es igual a 𝑛 veces la varianza de la población

𝑉𝑎𝑟 𝑆𝑛 = 𝑛𝜎 2
Media Aritmética Muestral 𝒙

Este estimador muestral es una función 𝑥:ҧ 𝑅 𝑛 → 𝑅. Tal que,
𝑆𝑛
𝑥ҧ 𝑋1 𝑋2 … 𝑋𝑛 =
𝑛

Valor esperado de 𝑥:ҧ


𝐸 𝑥ҧ = 𝜇
Varianza de 𝑥:ҧ
𝜎2
𝑉𝑎𝑟 𝑥ҧ =
𝑛
Error estándar de 𝑥:ҧ
𝜎
𝜎𝑥ҧ =
𝑛
Covarianza entre 𝑋𝑖 y 𝑋𝑗
Para poblaciones finitas de tamaño 𝑁, 𝐸 𝑥ҧ = 𝜇, pero basados en que 𝑋𝑖 no es independiente de 𝑋𝑗 ,
se encuentra que 𝐶𝑜𝑣 𝑋𝑖 ,𝑋𝑗 no es cero, sino que
𝜎2
𝐶𝑜𝑣 𝑋𝑖 ,𝑋𝑗 = −
𝑁−1

ഥ para poblaciones finitas


Varianza de 𝒙
Para 𝑋 finita,
𝑁 − 𝑛 𝜎2
𝑉𝑎𝑟 𝑥ҧ =
𝑁−1 𝑛
Varianza Muestral 𝑆 2

Para 𝑋 finita sea 𝑆 2 una función definida 𝑆 2 : 𝑅𝑛 → 𝑅 tal que,


1
𝑆 2 𝑋1 𝑋2 … 𝑋𝑛 = σ𝑛𝑖=1( 𝑋𝑖 − 𝑥)ҧ 2 = 𝑆 2
𝑛−1

Valor esperado de 𝑆 2
𝑁
𝐸[𝑆 2 ] = 𝜎2
𝑁−1
Sesgo y Eficiencia de
un Estimador
Muestral
Estimador
Estimador Insesgado

Sea 𝜃 un parámetro poblacional, que deseamos estimar utilizando el Estadístico Muestral 𝜃;
diremos que 𝜃መ es un estimador insesgado de 𝜃 si y solamente si E 𝜃መ = 𝜃; esto es, la media 𝜇𝜃෡
de 𝜃መ es igual al valor del parámetro 𝜃 que se está estimando
Un mismo parámetro poblacional 𝜃 puede tener mas de un estimador

Sesgo de un Estimador
El sesgo de un estimador 𝜃መ es denotado por B 𝜃መ y se lo define como, B 𝜃መ = E 𝜃መ − 𝜃
Error Cuadrático Medio
Dado un estimador 𝜃෠ de un parámetro 𝜃 se define el Error Cuadrático Medio de 𝜃෠ como
2
ECM 𝜃෠ = E 𝜃෠ − 𝜃
También,
2 2
ECM 𝜃෠ = E 𝜃෠ − 𝜃 = Var 𝜃෠ + B 𝜃෠

Si el estimador 𝜃෠ de un parámetro 𝜃 es insesgado, 𝐵 𝜃෠ = 0 y el error cuadrático medio del


estimador es igual a su Varianza

Eficiencia
Si 𝜃෠1 es mas eficiente que 𝜃෠2 como estimador de 𝜃 esto significa que 𝜃෠1 hace uso mas eficiente de los
datos contenidos en la muestra que el Estimador 𝜃෠2
Ejercicio
Ejemplo 6.2
Sea 𝑋 𝑇 = 𝑋1 𝑋2 𝑋3 𝑋4 𝑋5 una muestra aleatoria de tamaño cinco tomada de una población
infinita 𝑋 con densidad 𝑓, que además tiene media 𝜇 y varianza finita 𝜎 2 . Se postula
estimadores de 𝜇 a los siguientes estadísticos muestrales:
A) 𝜃መ1 = 𝑋1
𝑋 +𝑋
B) 𝜃መ2 = 1 2
2
2
C) 𝜃መ3 = (𝑋3 + 𝑋5 )
3
D) 𝜃መ4 = 𝑥ҧ
Verificar cuales de estos estimadores de 𝜇 son insesgados y cuales no. De entre los Insesgados
identifique el más Eficiente y entre los sesgados calcule el correspondiente sesgo.
Cota de Rao y Cramér
Teorema
Sea 𝑋 𝑇 = 𝑋1 , 𝑋2 … 𝑋𝑛 una muestra aleatoria de tamaño 𝑛 tomada de una población 𝑋 con
densidad 𝑓𝜃 𝑥 , 𝜃 ∈ Θ siendo Θ = {𝜃ȁ𝛼 < 𝜃 < 𝛽}; 𝛼 y 𝛽 conocidos; sea 𝜃መ un estimador
insesgado de 𝜃, bajo estas condiciones, es verdad que:
1
𝑉𝑎𝑟 𝜃መ ≥ 𝜕 2
𝑛𝐸 𝜕𝜃𝑙𝑜𝑔𝑒 𝑓𝜃 𝑥

Este teorema nos indica que para un determinado valor de 𝑛, cualquier estimador insesgado de
de 𝜃 tiene varianza que no puede ser menor al valor
1
𝜕 2 → Cota de Rao y Cramér
𝑛𝐸 𝜕𝜃
𝑙𝑜𝑔𝑒 𝑓𝜃 𝑥
Eficiencia de un Estimador
La eficiencia de un Estimador insesgado 𝜃መ1 de un parámetro 𝜃 es definida como:

𝑉𝑎𝑟(𝜃)
𝑒𝑓𝑓 𝜃መ1 =
𝑉𝑎𝑟(𝜃መ1 )
siendo 𝜃መ el estimador más eficiente de 𝜃, cuando este existe

Estimador insesgado más eficiente: estimador cuya varianza es igual a la cota de Rao y Cramér
Eficiencia de un Estimador
Ejemplo
Supongamos que 𝑋 T = 𝑋1 , 𝑋2 … 𝑋𝑛 es una muestra aleatoria de
tamaño 𝑛 tomada de una población 𝑋 que es Poisson con
parámetro 𝜆;
a) Obtenga la cota inferior de Rao-Cramér para cualquier
estimador insesgado para 𝜇

b) Use la cota inferior de Rao-Cramér para demostrar que la


media muestral es el
estimador insesgado de varianza mínima (MVUE) para 𝜇
Eficiencia de un Estimador
Ejemplo

Dada una muestra 𝑋 T = 𝑋1 , 𝑋2 … 𝑋𝑛 de la familia de distribuciones exponenciales


con parámetro desconocido 𝜆 > 0:
1 −𝑥
𝑓𝜆 𝑥 = 𝑒𝜆, 𝑥>0
𝜆
Se sabe que el valor esperado de una variable aleatoria con distribución
exponencial es igual a 𝜆 y su varianza es 𝜆2 .

A) Obtenga la cota inferior de Rao-Cramér para cualquier estimador insesgado de 𝜆


B) Use la cota inferior de Rao-Cramér para demostrar que la media muestral es el
estimador insesgado de varianza mínima (MVUE) para 𝜆
Eficiencia de un Estimador
Ejemplo

Dada una muestra aleatoria 𝑋 T = 𝑋1 , 𝑋2 … 𝑋𝑛 de la familia de distribuciones Gamma con parámetro conocido
𝛼 = 2 y parámetro 𝛽 desconocido, 𝛽 > 0:

1 −𝑥ൗ
𝑓𝛽 𝑥 = 2 𝑥 𝑒 𝛽, 𝑥 > 0
𝛽 Γ 2
Se sabe que el valor esperado de una variable aleatoria con distribución Gamma es igual a 𝛼𝛽 y su varianza es 𝛼𝛽 2 .
A) Obtenga la cota inferior de Rao-Cramér para cualquier estimador insesgado de 𝛽

𝑥ҧ
B) Use la cota inferior de Rao-Cramér para demostrar que es el estimador insesgado de varianza mínima (MVUE)
2
para 𝛽
Optimalidad de los Estimadores
Un estimador 𝜃෠ de 𝜃 es óptimo si
el cociente de su Error Cuadrático
Medio para el de cualquier otro
estimador 𝜃෠1 del mismo
parámetro es menor que uno
Dispersión de Estimadores
El parámetro poblacional 𝜎 2 es igual a
2 2 σ𝑛
𝑖=1(𝑥𝑖 −𝜇)
2
𝜎 = 𝐸(𝑥 − 𝜇) = 𝑁
= 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒 𝑋
𝑁
Por lo que si denominamos a 𝑆 2 Cuasivarianza Poblacional y la definimos como 𝑆 2 = 𝜎2
𝑁−1
tendremos que:
𝑁−𝑛 𝑁−1 𝑆 2
𝑉𝑎𝑟 𝑥ҧ = 𝑁−1 𝑁 𝑛
𝑁−𝑛 𝑆 2 𝑛 𝑆2
= 𝑁 𝑛
= 1− 𝑁 𝑛
𝑆2
(1 − 𝑓) 𝑛

𝑛 𝑁
La expresión 𝑓 = 𝑁 se denomina Fracción de Muestreo, en tanto que 𝑛 es la Expansión o Factor de
Inflación
Varianza de 𝑝Ƹ
Si 𝑋 es Bernoulli, 𝑋 ~𝑏(𝑥; 1; 𝑝), sabemos que 𝑉𝑎𝑟 𝑋 = 𝜎𝑥 2 = 𝑝(1 − 𝑝); si utilizando una
Muestra Aleatoria de tamaño 𝑛 > 0 observamos la cantidad 𝑥 de elementos que tiene la
“característica de interés” (suceso), podemos estimar 𝑝 de la siguiente forma
𝑥 𝑥 1 𝑝(1−𝑝)
𝑝Ƹ = ⟹ 𝑉𝑎𝑟 𝑝Ƹ = Var = 𝑛𝑝 1−𝑝 =
𝑛 𝑛 𝑛2 𝑛

Si consideramos el “factor de corrección” para poblaciones finitas, tenemos que:


𝑁−𝑛 𝑝(1−𝑝)
𝑉𝑎𝑟 𝑝Ƹ =
𝑁−1 𝑛
Varianza de 𝑝Ƹ
Si lo que se necesita es estimar el numero 𝐴 de elementos en la población de tamaño 𝑁 que
tiene la “característica de Interés”, 𝐴 = 𝑁𝑝, entonces un Estimador Insesgado de 𝐴 es:
𝐴መ = 𝑁𝑝Ƹ

Y con el mismo razonamiento descrito anteriormente:


𝑉𝑎𝑟 𝐴መ = 𝑉𝑎𝑟 𝑁𝑝Ƹ = 𝑁 2 𝑉𝑎𝑟(𝑝)Ƹ
Ejercicio
A continuación se listan los elementos de una población 𝑋 de tamaño 𝑁 = 4:
𝑋 T = 7, 8, 5, 1
A) Determine la media 𝜇 y la varianza poblacional 𝜎 2
B) Si se toman muestras de tamaño 𝑛 = 2, verifique de manera teórica y de manera empírica
𝑁−1 2
que 𝑆 es un estimador insesgado para 𝜎 2 , donde 𝑆 2 es la varianza muestral
𝑁

C) Si se toman muestras de tamaño 𝑛 = 2, verifique de manera teórica y de manera empírica


𝑆 2 𝑁−𝑛
que es un estimador insesgado para Var(𝑥)ҧ
𝑛 𝑁
Ejercicio
Con el propósito de estimar la media 𝜇 de una población se toma una muestra aleatoria de tamaño
𝑛 = 33 de una población
T
que sigue una distribución Gamma 𝐺(𝛼 = 1, 𝛽 = 10). Si la muestra se
representa como 𝑋 = 𝑋1 , 𝑋2 … 𝑋33 , y se tienen los siguientes estimadores para 𝜇:
A) 𝑋1
2𝑋1 +𝑋3
B) 3
C) 𝑥ҧ
D) 𝑋1 + 𝑋2 − 2
𝑋4 +2𝑋6
E)
2
1) Verificar cuales de estos estimadores de 𝜇 son insesgados y cuales no
2) De entre los Insesgados identifique el más eficiente
3) Entre los estimadores sesgados calcule el correspondiente sesgo
Tamaño De La
Muestra En Muestreo
Aleatorio Simple

Вам также может понравиться