Академический Документы
Профессиональный Документы
Культура Документы
Estadística
Poblaciones y
Muestras Aleatorias
Conceptos Básicos
• Muestra aleatoria de una población finita:
Sea 𝑋 una población finita y de tamaño 𝑁, que tiene distribución 𝑓; una muestra de tamaño 𝑛, tomada
de 𝑋, es denominada Muestra Aleatoria cuando y solo cuando, al tomarla, todo subconjunto de
tamaño 𝑛 en la Población 𝑋, tiene igual posibilidad de constituirla.
• Poblaciones Infinitas
Cuando se habla de poblaciones infinitas, incluimos en ellas a todas las Variables Continuas así como
las Discretas con Soporte Infinito contable: Poisson o Binomial por ejemplo.
• Marco Muestral
Representación simbólica de la Población Objetivo; deberá ser exhaustiva y actualizada
Muestra Aleatoria
• Una muestra aleatoria puede ser tomada de una población 𝑋 de tamaño 𝑁 o de una población 𝑋
infinita
• En una población finita la muestra es aleatoria si todo subconjunto que cuenta con 𝑛 unidades de
investigación” tienen igual probabilidad de ser investigado.
• Si la población es infinita, con distribución 𝑓, una muestra de tamaño 𝑛 es aleatoria si las 𝑛 variables
que la constituyen son independientes e idénticamente distribuidas.
Muestra Aleatoria
La probabilidad de que un subconjunto de tamaño 𝑛 constituya la muestra es igual a :
1 𝑁 − 𝑛 ! 𝑛!
=
𝑁 𝑁!
𝑛
Cómo tomar muestras aleatorias de
poblaciones finitas
Efectuar la selección aleatoria de unidades “una a una” y sin reemplazo es equivalente a tomar
las 𝑛 unidades de manera simultánea, tenemos
𝑁
El total de las muestras de tamaño 𝑛 es ; por lo que:
𝑛
1
𝑃(𝑠𝑒𝑙𝑒𝑐𝑐𝑖𝑜𝑛𝑎𝑟 𝑢𝑛𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 𝑐𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟𝑎 𝑑𝑒 𝑡𝑎𝑚𝑎ñ𝑜 𝑛) = 𝑁
𝑛
En tanto que si por ejemplo debemos integrar una Muestra Aleatoria con dos unidades sean
estas por ejemplo, 𝑢1 y 𝑢2 de una población de tamaño 𝑁 = 10, tenemos que:
1
𝑃(𝑠𝑒𝑙𝑒𝑐𝑐𝑖𝑜𝑛𝑎𝑟 𝑢1 ) =
10
1
𝑃(𝑠𝑒𝑙𝑒𝑐𝑐𝑖𝑜𝑛𝑎𝑟𝑢2 ห𝑢1 ) =
9
Luego que:
1 1 1
𝑃 𝑠𝑒𝑙𝑒𝑐𝑐𝑖𝑜𝑛𝑎𝑟 𝑝𝑟𝑖𝑚𝑒𝑟𝑜 𝑢1 𝑦 𝑙𝑢𝑒𝑔𝑜𝑢2 = ∙ =
10 9 90
10 10!
Obsérvese que = = 45 lo cual parece coincidir con lo que postulamos en teoría; ya
2 8!2!
que,
1 1
𝑃 𝑢1 y 𝑢2 𝑐𝑜𝑛𝑓𝑜𝑟𝑚𝑒𝑛 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 = 10 =
45
2
Con lo que se verifica la equivalencia entre los eventos: tomar de manera sucesiva 𝑛 unidades
sin reposición, con tomar simultáneamente las 𝑛 unidades
Muestra Aleatoria de Población
Infinita
Por independencia la, distribución conjunta 𝑓𝑥 es:
𝑛
𝑓𝑥 𝑥 = 𝑓𝑥 𝑥1 , 𝑥2 … 𝑥𝑛 = 𝑓1 𝑥1 𝑓2 𝑥2 … 𝑓𝑛 𝑥𝑛 = ෑ 𝑓𝑖 𝑥𝑖
𝑖=1
Por ser idénticamente distribuidas, las 𝑛 Variables Aleatorias tienen la misma Distribución de
Probabilidades de 𝑋 o densidad de 𝑋, según que 𝑥𝑖 sea continua o discreta. Esto nos lleva a que :
𝑛
𝑛
𝑓𝑥 𝑥 = ෑ 𝑓𝑖 𝑥𝑖 = 𝑓(𝑥)
𝑖=1
Todo esto en situación pre-experimental, esto es, antes de tomar la muestra.
Ser Idénticamente Distribuidas significa que las 𝑛 variables tiene la misma Función Generadora de
Momentos, si tal Valor Esperado existe; mientras que al ser Independientes su distribución conjunta es
igual al producto de sus marginales para todos los valores en el soporte de 𝑋
Valor esperado de 𝑥ҧ
Las variables aleatorias 𝑋 y 𝑥ҧ tienen el mismo valor esperado 𝜇𝑥 y 𝜇𝑥ҧ respectivamente
𝐸 𝑋 = 𝐸 𝑥ҧ
2
𝑁 − 𝑛 𝜎2
𝑉𝑎𝑟 𝑥ҧ = 𝜎𝑥ҧ = ∙
𝑁−1 𝑛
𝑁−𝑛
Siendo un valor que al crecer 𝑁 tiende a uno; es decir que para valores grandes de 𝑁 la
𝑁−1
𝜎2
𝑉𝑎𝑟 𝑥ҧ tiende al valor
𝑛
𝑁−𝑛
se denomina Factor de Corrección para Poblaciones Finitas
𝑁−1
Poblaciones y
Muestras Aleatorias
Muestreo con Reposición
Para una Población objetivo de 𝑁 unidades, con muestras 𝑋𝑖 de 𝑁 valores igualmente probables,
donde estos valores pueden ser repetidos
Al tomar la muestra, el valor 𝑋1 que se observa en primer lugar se lo repone a la población y
solo luego de esto se observa 𝑋2 , de tal manera que siguen existiendo los 𝑁 valores originales
por lo que
1
𝑃 𝑋𝑛 = 𝑥𝑛 =
𝑁
𝑃(𝑋2 = 𝑥) = 𝑃 𝑋2 = 𝑥 𝑋1 = 𝑥𝑖 𝑃(𝑋1 = 𝑥𝑖 )
𝑖=1
Lo cual significa que:
1
𝑃(𝑋1 = 𝑥) = 𝑃(𝑋2 = 𝑥) =
𝑁
1
y en general que 𝑃(𝑋𝑖 = 𝑥) = 𝑁
CONCLUSION: Para obtener muestras aleatorias de poblaciones finitas , debe utilizarse Muestreo sin
Reemplazo, también conocido como Muestreo Aleatorio Simple
Estadísticas y
Distribuciones
Muestrales
Estadístico Muestral
Una función 𝑇: 𝑅 𝑛 → 𝑅 𝑝 definido en términos de las variables 𝑋1 , 𝑋2 , … , 𝑋𝑛 que componen una
Muestra Aleatoria, se denomina Estadístico Muestral, si y solo si 𝑇(𝑋1 𝑋2 … 𝑋𝑛 ) ∈ 𝑅 𝑝 no depende de
algunos de los parámetros de la Población
Estimador Muestral
Se llama Estimador Muestral a un Estadístico Muestral, si la razón para construir dicha función es
estimar un parámetro poblacional
Estadístico Muestral Suma 𝑆𝑛
Sea 𝑋 una población infinita,
𝑆𝑛 : 𝑅𝑛 → 𝑅 𝑡𝑎𝑙 𝑞𝑢𝑒, 𝑆𝑛 𝑋1 𝑋2 … 𝑋𝑛 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
Varianza de 𝑆𝑛 :
La varianza de la suma 𝑆𝑛 es igual a 𝑛 veces la varianza de la población
𝑉𝑎𝑟 𝑆𝑛 = 𝑛𝜎 2
Media Aritmética Muestral 𝒙
ത
Este estimador muestral es una función 𝑥:ҧ 𝑅 𝑛 → 𝑅. Tal que,
𝑆𝑛
𝑥ҧ 𝑋1 𝑋2 … 𝑋𝑛 =
𝑛
Valor esperado de 𝑆 2
𝑁
𝐸[𝑆 2 ] = 𝜎2
𝑁−1
Sesgo y Eficiencia de
un Estimador
Muestral
Estimador
Estimador Insesgado
መ
Sea 𝜃 un parámetro poblacional, que deseamos estimar utilizando el Estadístico Muestral 𝜃;
diremos que 𝜃መ es un estimador insesgado de 𝜃 si y solamente si E 𝜃መ = 𝜃; esto es, la media 𝜇𝜃
de 𝜃መ es igual al valor del parámetro 𝜃 que se está estimando
Un mismo parámetro poblacional 𝜃 puede tener mas de un estimador
Sesgo de un Estimador
El sesgo de un estimador 𝜃መ es denotado por B 𝜃መ y se lo define como, B 𝜃መ = E 𝜃መ − 𝜃
Error Cuadrático Medio
Dado un estimador 𝜃 de un parámetro 𝜃 se define el Error Cuadrático Medio de 𝜃 como
2
ECM 𝜃 = E 𝜃 − 𝜃
También,
2 2
ECM 𝜃 = E 𝜃 − 𝜃 = Var 𝜃 + B 𝜃
Eficiencia
Si 𝜃1 es mas eficiente que 𝜃2 como estimador de 𝜃 esto significa que 𝜃1 hace uso mas eficiente de los
datos contenidos en la muestra que el Estimador 𝜃2
Ejercicio
Ejemplo 6.2
Sea 𝑋 𝑇 = 𝑋1 𝑋2 𝑋3 𝑋4 𝑋5 una muestra aleatoria de tamaño cinco tomada de una población
infinita 𝑋 con densidad 𝑓, que además tiene media 𝜇 y varianza finita 𝜎 2 . Se postula
estimadores de 𝜇 a los siguientes estadísticos muestrales:
A) 𝜃መ1 = 𝑋1
𝑋 +𝑋
B) 𝜃መ2 = 1 2
2
2
C) 𝜃መ3 = (𝑋3 + 𝑋5 )
3
D) 𝜃መ4 = 𝑥ҧ
Verificar cuales de estos estimadores de 𝜇 son insesgados y cuales no. De entre los Insesgados
identifique el más Eficiente y entre los sesgados calcule el correspondiente sesgo.
Cota de Rao y Cramér
Teorema
Sea 𝑋 𝑇 = 𝑋1 , 𝑋2 … 𝑋𝑛 una muestra aleatoria de tamaño 𝑛 tomada de una población 𝑋 con
densidad 𝑓𝜃 𝑥 , 𝜃 ∈ Θ siendo Θ = {𝜃ȁ𝛼 < 𝜃 < 𝛽}; 𝛼 y 𝛽 conocidos; sea 𝜃መ un estimador
insesgado de 𝜃, bajo estas condiciones, es verdad que:
1
𝑉𝑎𝑟 𝜃መ ≥ 𝜕 2
𝑛𝐸 𝜕𝜃𝑙𝑜𝑔𝑒 𝑓𝜃 𝑥
Este teorema nos indica que para un determinado valor de 𝑛, cualquier estimador insesgado de
de 𝜃 tiene varianza que no puede ser menor al valor
1
𝜕 2 → Cota de Rao y Cramér
𝑛𝐸 𝜕𝜃
𝑙𝑜𝑔𝑒 𝑓𝜃 𝑥
Eficiencia de un Estimador
La eficiencia de un Estimador insesgado 𝜃መ1 de un parámetro 𝜃 es definida como:
መ
𝑉𝑎𝑟(𝜃)
𝑒𝑓𝑓 𝜃መ1 =
𝑉𝑎𝑟(𝜃መ1 )
siendo 𝜃መ el estimador más eficiente de 𝜃, cuando este existe
Estimador insesgado más eficiente: estimador cuya varianza es igual a la cota de Rao y Cramér
Eficiencia de un Estimador
Ejemplo
Supongamos que 𝑋 T = 𝑋1 , 𝑋2 … 𝑋𝑛 es una muestra aleatoria de
tamaño 𝑛 tomada de una población 𝑋 que es Poisson con
parámetro 𝜆;
a) Obtenga la cota inferior de Rao-Cramér para cualquier
estimador insesgado para 𝜇
Dada una muestra aleatoria 𝑋 T = 𝑋1 , 𝑋2 … 𝑋𝑛 de la familia de distribuciones Gamma con parámetro conocido
𝛼 = 2 y parámetro 𝛽 desconocido, 𝛽 > 0:
1 −𝑥ൗ
𝑓𝛽 𝑥 = 2 𝑥 𝑒 𝛽, 𝑥 > 0
𝛽 Γ 2
Se sabe que el valor esperado de una variable aleatoria con distribución Gamma es igual a 𝛼𝛽 y su varianza es 𝛼𝛽 2 .
A) Obtenga la cota inferior de Rao-Cramér para cualquier estimador insesgado de 𝛽
𝑥ҧ
B) Use la cota inferior de Rao-Cramér para demostrar que es el estimador insesgado de varianza mínima (MVUE)
2
para 𝛽
Optimalidad de los Estimadores
Un estimador 𝜃 de 𝜃 es óptimo si
el cociente de su Error Cuadrático
Medio para el de cualquier otro
estimador 𝜃1 del mismo
parámetro es menor que uno
Dispersión de Estimadores
El parámetro poblacional 𝜎 2 es igual a
2 2 σ𝑛
𝑖=1(𝑥𝑖 −𝜇)
2
𝜎 = 𝐸(𝑥 − 𝜇) = 𝑁
= 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒 𝑋
𝑁
Por lo que si denominamos a 𝑆 2 Cuasivarianza Poblacional y la definimos como 𝑆 2 = 𝜎2
𝑁−1
tendremos que:
𝑁−𝑛 𝑁−1 𝑆 2
𝑉𝑎𝑟 𝑥ҧ = 𝑁−1 𝑁 𝑛
𝑁−𝑛 𝑆 2 𝑛 𝑆2
= 𝑁 𝑛
= 1− 𝑁 𝑛
𝑆2
(1 − 𝑓) 𝑛
𝑛 𝑁
La expresión 𝑓 = 𝑁 se denomina Fracción de Muestreo, en tanto que 𝑛 es la Expansión o Factor de
Inflación
Varianza de 𝑝Ƹ
Si 𝑋 es Bernoulli, 𝑋 ~𝑏(𝑥; 1; 𝑝), sabemos que 𝑉𝑎𝑟 𝑋 = 𝜎𝑥 2 = 𝑝(1 − 𝑝); si utilizando una
Muestra Aleatoria de tamaño 𝑛 > 0 observamos la cantidad 𝑥 de elementos que tiene la
“característica de interés” (suceso), podemos estimar 𝑝 de la siguiente forma
𝑥 𝑥 1 𝑝(1−𝑝)
𝑝Ƹ = ⟹ 𝑉𝑎𝑟 𝑝Ƹ = Var = 𝑛𝑝 1−𝑝 =
𝑛 𝑛 𝑛2 𝑛