Вы находитесь на странице: 1из 3

Inferencia Estadstica

Gonzalo Nelis S.

Agosto 2017

1. Definiciones
La Inferencia Estadstica es la rama de la estadstica que estudia la forma de estimar
parametros desconocidos de una poblacion a traves del estudio de una muestra. Suponiendo que
nuestra poblacion tiene una distribucion desconocida, es posible estimar parametros puntuales,
es decir, se entrega un solo valor que estima, por ejemplo:

La media,

La Varianza, 2

Parametros de forma (k y si la poblacion se distribuye como una gamma)

Lmites maximos y mnimos, etc.

Esta inferencia se basa en definir un estimador, que es cualquier funcion de los datos de la
muestra. Es decir, si yo quiero estimar cualquier parametro desconocido de la poblacion (desde
ahora, ), es posible estimarlo a traves de cualquier funcion que tome los datos de la muestra,
siempre y cuando esta funcion no tenga como alguno de sus parametros, a nuestro parametro
desconocido. Por ejemplo, si se desea estimar la media de una poblacion , y se tiene una muestra
X1 , ..., XN de N elementos, todos los siguientes son estimadores validos de :

= X1

= (X1 + X2 )/2

= XN2 /4

qQ
N N
= i1 Xi

Ahora bien, si todos estos son estimadores validos, como sabemos que estimadores son buenos
y cuales no lo son? Como sabemos si un estimador es bueno si no sabemos cual es el valor del
parametro desconocido? Para esto, se definiran algunas propiedades del estimador, que nos dan
la idea de que tan bueno es.

2. Caractersticas de Estimadores
2.1. Propiedades Cuantificables
Estas propiedades dan medidas numericas a la performance del estimador. Las principales
son las siguientes:

1
2.1.1. Error de Estimacion de la muestra
Si tenemos una muestra podemos aplicar un estimador y obtener una estimacion del parame-
tro desconocido. Sin embargo, dado que nuestro estimador difcilmente es perfecto, existira una
diferencia entre el valor real del parametro desconocido y nuestro valor estimado,
la cual se conoce como Error de estimacion.
Notar que un mismo estimador puede tener varios errores de estimacion diferentes depen-
diendo de la muestra utilizada. Es decir, este parametro depende de la muestra utilizada, y no
es una propiedad del estimador.

2.1.2. Desviacion de la muestra


Dado que nuestro estimador considera una muestra aleatoria para entregar el valor estimado,
se puede interpretar como una variable aleatoria tambien. En ese sentido, el estimador tiene un
Valor Esperado, que se puede interpretar como el valor promedio que entrega el estimador si
consideramos muchas (infinitas) muestras distintas.
Con esto podemos definir la desviacion de la muestra como la diferencia entre el valor entre-
gado por el estimador considerando una muestra y el valor esperado del estimador: Da una idea
de que tan lejos esta mi estimacion del valor promedio entregado por el estimador. Nuevamente,
es una caracterstica de la muestra, y no del estimador.

2.1.3. Error Cuadratico Medio


Es una medida de la dispersion de mi estimador (la precision) con respecto al valor real
del parametro desconocido. Se calcula como el valor esperado de los errores de estimacion al
cuadrado. A diferencia de las caractersticas anteriores, esta es una caracterstica del estimador,
dado que se consideran todas las muestras posibles al calcular el valor esperado.

2.1.4. Varianza
La varianza es el valor esperado de la desviaciones con respecto al valor esperado del esti-
mador: Es decir, es una medida de precision entre los valores individuales de la estimacion y
el valor esperado del estimador. Es la medida de precision mas utilizada para caracterizar un
estimador.

2.1.5. Sesgo
El sesgo indica si mi estimador tiende a sobreestimar o a subestimar el parametro descono-
cido. Se define como el valor esperado del error de estimacion. Es esperable que cada estimacion
individual tenga un error, pero que este error no sea siempre en una misma direccion (es decir,
que no siempre se entregue un valor mas alto que el real, ni siempre uno mas bajo). Un estimador
que no posee sesgo se dice Insesgado, y es una de las medidas de exactitud mas utilizadas para
los estimadores.

2.2. Caractersticas de Comportamiento


Indican como se comporta el estimador cuando se vara la muestra, o en comparacion a otros
estimadores. Las mas importantes son las siguientes:

2.2.1. Consistencia
Un estimador es consistente si cuando el tamano de la muestra tiene a infinito, el valor
estimado tiene al valor real del parametro desconocido. Da la idea de que el estimador mejora
cuando la muestra es mas grande.

2
2.2.2. Normalidad Asintotica
Un estimador tiene normalidad asintotica, si es consistente y ademas la forma en que se dis-
tribuye alrededor del parametro desconocido tiene forma de una normal, con desviacion estandar
cada vez mas pequena a medida que se aumenta el tamano de la muestra.

2.2.3. Optimalidad o Eficiencia


Se dice que un estimador es eficiente u optimo cuando su Varianza es la menor entre todos
los estimadores dentro del universo conocido. O sea, si yo pudiera plantear todos los infinitos
estimadores para cierto parametro, el estimador optimo es el que tiene menor varianza entre
todos ellos: es decir, es el mas preciso.
Pero si cualquier cosa es un estimador (ver Seccion 1), como puedo asegurarme que encontre
el optimo? tengo que compararlos todos?
R: No, existe una cota inferior para la varianza de un estimador insesgado. Se llama Lmite
de Cramer-Rao y entrega cual es la varianza mnima que se puede tener al plantear un
estimador sobre cierto parametro desconocido. O sea, basta con tomar la varianza del estimador
que encontre, y compararla con la del lmite de Cramer-Rao. Si son iguales, encontre el estimador
optimo, no tengo que seguir buscando.

2.2.4. Suficiencia
Un estimador suficiente es un estimador que no desperdicia informacion a partir de la mues-
tra. En general (no siempre) las combinaciones lineales de los elementos de la muestra son
estimadores suficientes.

En general, se busca que un estimador sea insesgado (maximizando su exactitud)


y optimo (maximizando su precision).

Вам также может понравиться