Вы находитесь на странице: 1из 56

ESTIMACIN

ESTADSTICA
Profesor: Eduardo Villa M.

Introduccin a la Inferencia
Estadstica
PROBLEMA:
En muchos casos no ser posible
determinar el valor de un parmetro
poblacional analizando todos los
valores poblacionales, pues el proceso
a seguir para determinar el valor del
parmetro puede ser destructivo, o
nos puede costar mucho tiempo o
mucho dinero el analizar cada unidad
poblacional.

Introduccin a la Inferencia
Estadstica
PROBLEMA:
En estas situaciones, la nica salida
que tenemos es utilizar la inferencia
estadstica para obtener informacin
sobre los valores de los parmetros
poblacionales, basndonos en la
informacin contenida en una muestra
aleatoria

Introduccin a la Inferencia
Estadstica
Parmetros poblacionales importantes:
La renta media de todas las familias de Lima
Metropolitana.
El tiempo medio de espera en el supermercado
Metro.
La desviacin estndar del error de medida de
un instrumento electrnico.
La proporcin de familias que poseen TV a
color.
La proporcin de automviles que se averan
durante el primer ao de garanta.

Introduccin a la Inferencia
Estadstica
Objetivo Bsico: Hacer inferencias o sacar
conclusiones sobre la poblacin a partir de la
informacin contenida
en una muestra
aleatoria de la poblacin.
Especficamente: Consiste en un proceso de
seleccin y utilizacin de un estadstico
muestral, mediante el cual, utilizando la
informacin que nos proporciona una muestra
aleatoria, nos permite sacar conclusiones
sobre caractersticas poblacionales.

Introduccin a la Inferencia
Estadstica

Poblacin
Espacio Muestral Rn
F(x; ) (X,X2,..,Xn)
Muestreo

Parmetro

=(x1,x2,,xn)

n
(x1,x2,..,xn)

Introduccin a la Inferencia
Estadstica

Poblacin
F(x;2)
Muestreo

Espacio Muestral Rn
(X1,X2,..,Xn)

Parmetro
2
2=s2 =

n
(x1,x2,,xn)
2

Estimador

Introduccin a la Inferencia
Estadstica
Cualquier
inferencia
o
conclusin
obtenida de la poblacin, necesariamente
estar basada en un estadstico
muestral, es decir, en la informacin
proporcionada por la muestra.
El valor verdadero del parmetro ser
desconocido y un objetivo ser estimar su
valor, por lo que tal estadstico se
denomina estimador.

Introduccin a la Inferencia
Estadstica
Las inferencias sobre el valor de un
parmetro poblacional se pueden
obtener bsicamente de dos maneras:
1. Por estimacin
Estimacin puntual
Estimacin por intervalos

2. Por contrastacin de hiptesis

ESTIMACIN PUNTUAL
Definicin: Consiste en obtener un
nico nmero, calculado a partir de las
observaciones muestrales y que es
utilizado como estimacin del valor del
parmetro .
Se le llama estimacin puntual porque
a ese nmero, que se utiliza como
estimacin del parmetro ,
se le
puede asignar un punto sobre la recta
real.

ESTIMACIN PUNTUAL
Poblacin

Espacio Muestral Rn
(X1,X2,..,Xn)

F(x;2)
Muestreo
Parmetro

(x1,x2,.,xn)
=g(x1,x2,,xn)

Inferencia
Estimacin Puntual

ESTIMACIN PUNTUAL
ESTIMADOR
= g(X1,X2,Xn)
ESTIMACIN
= g(x1,x2,,xn)

Parmetros poblacionales,
estimadores y estimaciones
Parmetro
poblacional

Estimador

Media

Varianza

Proporcin P

Estimacin

Ejemplo
Las ventas de una muestra aleatoria
de 10 grandes establecimientos
comerciales de Lima, el da 2 de enero
de 2013 fueron respectivamente : 16,
10, 8, 12, 4, 6, 5, 4, 10, 5 miles de
nuevos soles. Obtener estimaciones
puntuales de la venta media, de la
varianza de las ventas de todos los
establecimientos comerciales y de la
proporcin de stos cuyas ventas

Solucin
puntual de la media
Estimacin

poblacional:

Estimacin puntual de la varianza


poblacional:
=
== 15,8
Estimacin puntual de la proporcin
poblacional:

ERROR CUADRTICO MEDIO


Definicin:

ECM
=+
Donde:
=
=

Ejemplo
Sea
, una muestra aleatoria simple de tamao

3, cuyos valores son siempre positivos y


procedentes de una poblacin con media y
varianza . Consideremos como posibles
estimadores de los estadsticos:

Obtener los errores cuadrticos medios de y


y comparar sus valores para diferentes
valores del parmetro poblacional

Propiedades de los estimadores


puntuales
1.
2.
3.
4.
5.
6.

Insesgadez
Eficiencia
Consistencia
Suficiencia
Invarianza
Robustez

1. INSESGADEZ
Definicin:

El estadstico = g(X1,X2,
Xn)
es un estimador insesgado o centrado
del parmetro si:
E() =
para todos los valores de , y entonces:
sesgo() = b( ) = E() - = 0

1. INSESGADEZ

Casos: b( ) = E() 1. Si b( ) > 0:
de
2. Si b( ) < 0:
de
3. Si b( ) = 0:
nsesgado

sobreestima el valor
subestima el valor
es estimador i
de

Ejemplo
Demostrar

que los estadsticos:


1. es un estimador sesgado de
2. es un estimador insesgado de
3. es un estimador insesgado de
NOTA: La desviacin tpica muestral
NO es un estimador insesgado de la
desviacin tpica poblacional, es decir:

Ejemplo
Sea
una poblacin formada por los
elementos (1,2,3). Obtener y .
1. Construir
todas
las
muestras
posibles de tamao n=2 CON
REEMPLAZAMIENTO.
2. Calcular lo solicitado y comprobar la
propiedad de insesgadez para y S.

Muest
ras
(x1,x2)
(1,1)

0,00

0,00

0,00

(1,2)

1,5

0,50

0,50

0,71

(1,3)

2,00

2,00

1,41

(2,1)

1,5

0,50

0,50

0.71

(2,2)

0,00

0.00

0,00

(2,3)

2,5

0,50

0,50

0,71

(3,1)

2,00

2,00

1,41

(3,2)

2,5

0,50

0,50

0,71

(3,3)

0,00

0,00

0,00

6,00

6,00

5,66

Total

sigue ejemplo
La media de la varianza muestral ser:
==
La varianza poblacional
Por tanto: = y concluimos que
E(S) = = 0,6288 y
Por tanto: E(S) y entonces, S no es un
estimador insesgado de
De otro lado:

Proposicin
Si son dos estimadores insesgados del
parmetro definido como:

es tambin un estimador insesgado del


parmetro

1. INSESGADEZ
Estimador insesgado de varianza mnima

Cuando E() = y ECM() = )


Buscamos el que tenga la menor varianza.
Estimador insesgado uniformemente de mnima varianza
El estimador

es insesgado y uniformemente de mnima varianza

(UMVUE: Uniformly minimum-variance unbiased estimators) para ,


si dado cualquier otro estimador insesgado

de l, se verifica que:

Var (0 ) Var () para todos los valores posibles de .

1. INSESGADEZ
COTA

DE FRECHET-CRAMER-RAO
Sea (X1,X2,..,Xn) una m.a.(n),
obtenida de una poblacin con funcin
de densidad o de cuanta f(x; ),
entonces, la varianza del estimador
est acotada inferiormente:
Var ()

1. INSESGADEZ
NOTA:

La cota o desigualdad de F-C-R nos da un lmite inferior para la


varianza del estimador , pero esto no implica que la varianza de un
estimador UMVUE tenga que ser igual al lmite inferior de la varianza
dada por la cota de F-C-R. Es decir, se puede obtener un estimador
insesgado

que tenga su varianza ms pequea que la de todos los

dems estimadores insesgados de , pero mayor que el lmite inferior


dado por la cota de F-C-R. Un estimador que verifique lo anterior
seguir siendo un estimador UMVUE del parmetro .

2. EFICIENCIA
Estimador
eficiente:

Un estimador
del parmetro
poblacional , es eficiente si es
insesgado y adems su varianza
alcanza la cota de Frechet-Cramer-Rao.
Esto es equivalente a decir que, un
estimador
es eficiente si su varianza
coincide con la cota de F-C-R:
Var () =

2. EFICIENCIA
Eficiencia

de un estimador:
Se define la eficiencia de un estimador
insesgado , del parmetro , como:
eff.( ) =
verificndose que eff.( ) 1.

2. EFICIENCIA
Eficiencia

Relativa:
Dados dos estimadores 1 y 2 de , se
define la eficiencia relativa de 1 a 2
como:
eff.relativa (1 ,

)= =

Proposicin
Dada una poblacin se verifica que
la media muestral es un estimador
eficiente de la media poblacional .
Se demostrar que se cumple la
igualdad de la cota F-C-R, es decir:

Ejemplo
Dada
una poblacin y los estimadores de la

media poblacional para muestras aleatorias


simples de tamao n=3:

Se pide:
1. Comprobar si los estimadores y son o no
insesgados.
2. Calcular la varianza de ambos estimadores.
3. Son ambos estimadores eficientes?

2. EFICIENCIA
Estimador

asintticamente
eficiente:
Diremos que un estimador , del
parmetro , es asintticamente
eficiente si se verifica:
lm
n

=1

3. CONSISTENCIA
consistente:
Estimador

Una sucesin de estimadores es consistente


si la sucesin converge en probabilidad hacia
el parmetro , es decir, si para todo > 0 se
verifica:
lm P( ) = 1
n
y cada elemento de la sucesin se dir que es
un estimador consistente.

3. CONSISTENCIA
en media cuadrtica:
Consistencia

Una sucesin de estimadores es consistente


en media cuadrtica para el parmetro ,
cuando se verifica:
lm E2 = 0
n
y cada elemento de la sucesin se dir que es
un estimador consistente en media cuadrtica.

Teorema
Si un estimador es consistente en
media
cuadrtica,
tambin
es
consistente en probabilidad, pero no
necesariamente se verifica al revs.

3. CONSISTENCIA
casi segura:
Consistencia

Una sucesin de estimadores


es
consistente casi seguro para el parmetro ,
cuando se verifica:
P(lm )= 1
n
y cada elemento de la sucesin se dir que
es un estimador consistente casi seguro.

Ejemplo
Sea

(X1,X2,..,Xn)
una
muestra
aleatoria de tamao n procedente de
una poblacin . Demostrar que la
media muestral y la varianza muestral
son estimadores consistentes de la
media
y
varianza
poblacional,
respectivamente.

4. SUFICIENCIA
Intuitivamente:

Un estadstico es suficiente para un


parmetro
cuando utiliza toda la
informacin relevante contenida en la
muestra aleatoria, con respecto a
y
ningn
otro
estadstico
puede
proporcionar ms informacin adicional
sobre el parmetro poblacional .

4. SUFICIENCIA
Estimador
suficiente:

Sea (X1,.,Xn) una m.a.(n) de una


poblacin cuya distribucin depende de
un parmetro
desconocido. Diremos
que el estadstico o estimador T = T(X 1,
.,Xn) es suficiente para el parmetro ,
si la distribucin condicionada de X 1,
.,Xn dado el valor del estadstico T=t,
no depende del parmetro .

Ejemplo
Sea
una muestra aleatoria (X1,X2,X3) procedente
de una distribucin B(1,p) y sean los estadsticos:

Tales que para la muestra de tamao n=3 toman


los valores =2.
Comprobar que es suficiente y que no es
suficiente.

4. SUFICIENCIA
de Factorizacin de FisherTeorema

Neyman:

Sea (X1,.,Xn) una m.a.(n) de una poblacin con F(x; ) y sea


la funcin de cuanta de la muestra:
P(x1,.,xn; ) = P (X1 = x1,..,Xn=xn), o la funcin de densidad
de la muestra: f (x1,,xn;
Entonces, el estadstico T = T (X1,.,Xn) es suficiente para el
parmetro
si y solamente si podemos descomponer la
funcin de probabilidad o la funcin de densidad de la
muestra como producto de dos factores no negativos:
P (x1,..,xn) = g(T(x1,.,xn); ).h(x1,.,xn)
f (x1,,xn; = g(T(x1,.,xn); ).h(x1,.,xn)

4. SUFICIENCIA
Teorema

de Factorizacin de
Fisher-Neyman:
en donde g(T, ) es una funcin que
depende solamente de
y de la
muestra a travs del estadstico T(X1,
..,Xn) y h(x1,,xn) no depende de .

Ejemplo

Sea una muestra aleatoria (X1, X2,
,Xn) de una distribucin B(1,p).
Comprobar utilizando el teorema de
factorizacin que el estadstico es
suficiente para el parmetro p.

5. INVARIANZA
Estimador

invariante:
Diremos que un estimador es
invariante frente a la transformacin
f(.), si se verifica que el estimador de
esa fuincin del parmetro , es igual al
propio estimador del parmetro, es
decir cuando se verifica que:
(f(X1,.,Xn)) = (X1,.,Xn)

5. INVARIANZA
Tipos
de
invarianzas
o
de
estimadores invariantes:
1. Estimador invariante a cambios de
origen.
2. Estimador invariante a cambios de
escala.
3. Estimador invariante a cambios de
origen y de escala.
4. Estimador invariante a

5. INVARIANZA
invariante a cambio de origen:
Estimador

Dados una m.a.(n) X1,.,Xn y un estimador (X1,


.,Xn) del parmetro , entonces si se realiza
un cambio de origen en los datos de la
muestra, sumando una constante k: (X 1+k,
..,Xn+k), diremos que
es invariante a
cambios de origen o de localizacin si y
solamente si se verifica que:
(X1 + k,..,Xn+k) = (X1,.,Xn) para todo k

Ejemplo
si son o no invariantes frente a
Estudiar

cambios de origen los siguientes estimadores:


1. La media muestral
2. La varianza muestral
3. La desviacin tpica muestral
4. El estimador , donde:

5. El coeficiente de correlacin lineal

5. INVARIANZA
Estimador
invariante
frente
a

cambios de escala:
Si consideramos una constante c, la
muestra se transforma en: (cX1,.,cXn),
entonces es invariante a cambios de
escala si y solamente si se verifica que:
(cX1 ,..,cXn) = (X1,.,Xn) para todo c
, tal que c.

Ejemplo
Comprobar que los estimadores media
y varianza muestral no son invariantes
frente a cambios de escala, y sin
embargo el coeficiente de correlacin
lineal si lo es.

5. INVARIANZA
Estimador

invariante a cambios de
origen y de escala:
es invariante a cambios de origen y
de escala si y solamente si se verifica
que:
(cX1+k ,..,cXn+k) = (X1,.,Xn)
para todo c,k , tal que c.

Ejemplo
Comprobar que el coeficiente de
correlacin lineal
es invariante a
cambios de origen y de escala.

5. INVARIANZA
invariante a
Estimador

permutaciones:
Un estimador es invariante frente a
permutaciones si se verifica que:
(Xi1 ,..,Xin) = (X1,.,Xn)
Para todas las permutaciones ( i 1,.,in) de
1 ,.,n

6. ROBUSTEZ
Estimador robusto:
Diremos que un estimador es robusto
cuando pequeos cambios en las
hiptesis de partida del procedimiento
de
estimacin
considerado
no
producen variaciones significativas en
los resultados obtenidos.

Ejemplo
En
la distribucin al estudiar la distribucin de la
media muestral veamos que si no se conoce la
varianza poblacional recurramos a la distribucin
t-Student mediante el estadstico:
de manera que pequeas variaciones en la
distribucin no produciran cambios sustanciales
en los procedimientos estadsticos basados en el
estadstico t-Student con n-1 grados de libertad,
cuando n es relativamente grande, ya que estos
procedimientos estadsticos son robustos.

Вам также может понравиться