Вы находитесь на странице: 1из 20

3 INFERENCIA ESTADÍSTICA: ESTIMACIÓN Y CONTRASTES

Hasta ahora se han estudiado modelos teóricos de distribución de probabilidad que describen el com-
portamiento de muchas variables aleatorias.
La inferencia estadística consiste en inducir las características o propiedades de una población a partir
de las de una pequeña parte de la misma llamada muestra.
Forman parte de la inferencia estadística tanto la estimación de la forma y los parámetros del modelo
que sigue la variable aleatoria como el contraste del modelo con la realidad observada.
Así, serán aspectos fundamentales de la inferencia estadística la obtención de la muestra y, a partir de
la información obtenida en el análisis de la misma, las conclusiones sobre el modelo.

3.1 MÉTODOS DE MUESTREO

Para que las conclusiones que se extraigan tengan cierta garantía se debe asegurar la mayor represen-
tatividad de la muestra.
Dependiendo de la información previa que se disponga sobre la población, se puede conseguir una
muestra representativa, eligiéndola al azar, mediante diferentes tipos de muestreo.

ˆ Muestreo aleatorio simple : se aplica sobre poblaciones homogéneas y se basa en que todos los
elementos de la población tienen la misma probabilidad de ser seleccionados.

Si por el contrario, la población es heterogénea se pueden utilizar, entre otros, los siguientes tipos de
muestreo.

ˆ Muestreo estraticado : se utiliza sobre poblaciones divididas en clases o estratos seleccionando


el número de elementos en cada estrato proporcionalmente al tamaño del mismo en la población.

Un ejemplo clásico son las encuestas de opinión, donde los elementos (personas) son heterogéneos en
razón de su sexo, edad, profesión, etc.

ˆ Muestreo por conglomerados : se utiliza cuando los elementos de la población se encuentran de


manera natural contenidos en un número conocido de subgrupos o conglomerados.

Por ejemplo, la población de un país se distribuye en regiones, los habitantes de una ciudad en barrios,
etc.
La regla general que se aplica a todos los tipos de muestreo es que cualquier información previa se
debe utilizar para subdividir la población y asegurar así la mayor representatividad de la muestra.
Una vez que se disponga de subpoblaciones homogéneas, la selección dentro de ellas se debe realizar
por muestreo aleatorio simple.
Para analizar las muestras de una forma teórica se necesita una formulación matemática.

Denición. Se denomina muestra aleatoria simple de tamaño n de la variable aleatoria X a un


conjunto de variables aleatorias (X1 , X2 ,..., Xn ) tales que son independientes entre sí y tienen
la misma distribución que X.
Observación. Una muestra aleatoria simple puede ser considerada también como una variable aleato-
ria n-dimensional.

A partir de ahora se supondrá que las muestras son aleatorias simples, es decir, que provienen de un
muestreo aleatorio simple.

34
3.2 ESTIMADORES. PROPIEDADES. ESTIMACIÓN PUNTUAL

Una vez obtenida la muestra se puede conjeturar la forma del modelo teórico de la distribución de
probabilidad a partir del histograma, si la variable aleatoria es continua, o del diagrama de barras, si
es discreta.
Supuesta la forma del modelo de distribución, la estimación paramétrica consiste en estimar el valor
de los parámetros que determinan dicho modelo.
Las dos formas de estimación paramétrica son: estimación puntual, si se especica un valor concreto
para el parámetro; y estimación por intervalos, si se da un intervalo en el que, con cierta conanza,
se pueda armar que se encuentra el verdadero valor del parámetro.

Estimadores
Denición. Se llama estadístico a cualquier variable aleatoria obtenida como una función de los
elementos de una muestra.
Denición. Se llama estimador de un parámetro θ, y se representa por θ̂, al estadístico utilizado para
estimar el verdadero valor de θ.

Por ejemplo para una muestra en concreto, la media muestral se puede considerar como una estimación
del verdadero valor de la media poblacional, y se escribe µ̂ = x. La variable aleatoria media muestral
que se designa por X , aplicación que a cada muestra le hace corresponder su media, es un estimador
de la esperanza de la población.
Otro ejemplo es la variable aleatoria varianza muestral que se designa por S 2 , aplicación que a cada
muestra le hace corresponder su varianza, que es un estimador de la varianza de la población.

Todo estimador es una variable aleatoria, ya que depende del azar según la
muestra elegida.

Propiedades
Los estimadores son variables aleatorias, por esa razón algunas propiedades deseables para su distribu-
ción teórica de probabilidad son: que su esperanza sea el valor estimado y que su varianza sea lo más
pequeña posible.
Estas ideas se concretan en las siguientes deniciones.

Denición. Se dice que un estimador, θ̂, de un parámetro θ es centrado o insesgado si E(θ̂) = θ.

Así, el estimador proporciona, en promedio, el verdadero valor del parámetro estimado.

Denición. Se dice que un estimador, θ̂, de un parámetro θ es eciente si es el que tiene menor
varianza de todos los estimadores de θ.

La eciencia es un concepto asociado a la varianza y especialmente útil para comparar estimadores


centrados, ya que, entre ellos, se elegirá el más eciente, es decir, el que tenga menor varianza.

Denición. Se dice que un estimador, θ̂, de un parámetro θ es consistente si, sin ser centrado ni
eciente, al aumentar el tamaño de la muestra, el estimador tiende a ser centrado y eciente.

35
Por ejemplo, la media muestral X es un estimador centrado de la media poblacional µ de cualquier
distribución. En efecto,
n
P 
Xi n n
= 1 1X
 i=1  X
E(X) = E 
 n  n E(Xi ) = µ=µ
i=1
n i=1

Un ejemplo de estimador no centrado es la varianza muestral. S 2 no es un estimador centrado de la


varianza poblacional pues se puede demostrar que
n−1 2
E(S 2 ) = σ 6= σ 2
n
pero este estimador es consistente, ya que al aumentar n la esperanza del estimador tiende a la varianza
poblacional.
n
(xi −x)2
P

Sin embargo, si se dene la varianza muestral corregida por ŝ = n−1 , se obtiene que la variable
2 i=1

aleatoria varianza muestral corregida, Ŝ 2 , verica E(Ŝ 2 ) = σ 2 , es decir, es un estimador centrado de


la varianza poblacional.

Estimación puntual
ˆ Un criterio de estimación de los parámetros de una población es el método de los momentos, que
consiste en igualar parámetros muestrales a los parámetros de la variable aleatoria.
Así, para una variable aleatoria y una muestra concretas, una estimación de los parámetros
poblacionales µ y σ 2 resulta ser µ̂ = x y σ̂ 2 = s2 .
La ventaja del método de los momentos es su sencillez, y el inconveniente es que no usa toda la
información que proporciona el conocimiento de la distribución de probabilidad de la muestra,
de modo que se obtienen en general, estimadores no centrados ni ecientes, pero sí consistentes.
ˆ Otro criterio para la obtención de estimadores es el método de máxima verosimilitud, que tiene
mayor complejidad matemática pero mejores propiedades, ya que los estimadores obtenidos son,
en general, asintóticamente centrados y de varianza mínima.
Este método, que sí tiene en cuenta toda la información, se basa en buscar aquél valor del
parámetro que hace más probable, o lo que es lo mismo más verosímil, la aparición de los valores
obtenidos en la muestra.

Los estimadores máximo verosímiles coinciden con los estimadores obtenidos mediante el método de
los momentos para las distribuciones estudiadas en el tema anterior.

3.3 DISTRIBUCIÓN DE LOS ESTIMADORES EN EL MUESTREO

Todo estimador es una variable aleatoria y, por tanto, tiene una determinada distribución de proba-
bilidad. Se estudiarán a continuación los modelos de distribución de probabilidad de los estimadores
más usuales.
Como estos modelos indican la distribución de los posibles valores que toma el estimador al seleccionar
distintas muestras, se denominan distribuciones en el muestreo.

36
3.3.1 Distribución de la media muestral
Si X se distribuye normalmente, se puede demostrar que, al ser X una combinación lineal de variables
normales, las medias muestrales de una población normal se distribuyen también normalmente.
Si se toman muestras de tamaño n de una población N (µ, σ), la variable aleatoria media muestral
verica que  
σ
X∼N µ, √
n
El siguiente gráco representa el comportamiento de la media muestral de una población, en torno a
la esperanza de la población.

Es importante resaltar que, haciendo uso del teorema central del límite, aunque la variable X de la
población de partida no se distribuya como una normal, la distribución de la media muestral X tiende

asintóticamente, si n es sucientemente grande (n ≥ 30), a distribuirse como una normal N µ , √σn ,
siendo µ y σ la media y desviación típica de la distribución de la variable X, respectivamente.
La esperanza de X coincide con la esperanza de X, y la varianza disminuye al aumentar el tamaño
muestral.
Por ejemplo, si X ∼ N (5, 2) entonces el 95%, aproximadamente, de las medias muestrales originadas
al tomar muestras de tamaño 100 se encuentra en el intervalo (4.6 , 5.4), ya que X ∼ N (5, 0.2).

3.3.2 Distribución de la varianza muestral


La distribución de la varianza muestral está relacionada con la distribución chi-cuadrado de Pearson,
χ2 , y es por tanto, más asimétrica que la de la media muestral.
Puesto que la varianza muestral no es un estimador centrado, se suele tomar como estimador de la
varianza poblacional la varianza muestral corregida, Ŝ 2 , que sí lo es.
La distribución de la varianza muestral corregida también está relacionada con la distribución chi-
cuadrado de Pearson con n-1 grados de libertad.
El resultado que relaciona Ŝ 2 con la distribución χ2n−1 es el denominado Teorema de Fisher:
Si (X1 , X2 , ..., Xn ) es una muestra de una variable aleatoria X que se distribuye como una normal
N (µ, σ), entonces

1. Ŝ 2 y X son independientes
(n−1)Ŝ 2
2. σ2 ∼ χ2n−1

Observación. Esto último equivale a decir que nS 2


σ2 ∼ χ2n−1 , ya que nS 2 = (n − 1)Ŝ 2 .

37
3.3.3 Distribución de la proporción muestral
Se considera una población donde se quiere observar en cada elemento la presencia o no de un atributo
o propiedad. Esta situación se modeliza con una binomial.
La variable aleatoria X que expresa si un individuo tiene o no un determinado atributo se puede
considerar una B(1, p), donde p es la probabilidad de que un elemento tenga dicho atributo o, lo que
es lo mismo, p es la proporción de individuos de la población que tienen dicha propiedad.
Cuando X ∼ B(1, p), se sabe que la esperanza y la varianza de X vienen dadas por E(X) = p y
VAR(X) = p(1-p).
Si Pm es la variable aleatoria proporción muestral que hace corresponder a cada muestra de tamaño n
la proporción de elementos con ese atributo, cuando n es grande, entonces
r !
p(1 − p)
Pm ∼ N p,
n

Éste es un caso particular de la distribución de una media muestral, ya que se basa en que para una
muestra concreta, su proporción muestral es pm = x1 +x2 +...+x
n
n
, donde xi toma el valor 1 si el elemento
tiene el atributo y 0 en otro caso; por tanto, la proporción muestral es la media muestral de n variables
de Bernoulli, Xi .
La variable aleatoria proporción muestral, Pm , también se designa por P̂ , es un estimador centrado
para la proporción poblacional p.
Por ejemplo, la probabilidad de que al tirar 100 veces una moneda equilibrada la proporción de caras
esté entre el 0.45 y el 0.55 es igual a 0.683.

3.4 ESTIMACIÓN POR INTERVALOS DE CONFIANZA

La estimación puntual tiene el inconveniente de no aportar ninguna medida del error cometido ya que
toma el valor estimado como el valor del parámetro de la población. Por consiguiente, en algunas
ocasiones, interesa dar un intervalo en el que, con cierta conanza, se pueda armar que se encuentra
el verdadero valor del parámetro que se desea estimar.
La estimación por intervalos de conanza consiste en generar, a partir de diferentes muestras, una
familia de intervalos en la que se encuentre el verdadero valor del parámetro a estimar, con probabilidad
prejada.
La probabilidad prejada vendrá dada por lo que se llama el nivel de conanza del intervalo, y entre
ellos los más usuales son al 90, 95 y 99%.

Denición. Se llama nivel de signicación de referencia, α, a la probabilidad de que el verdadero


valor del parámetro no pertenezca a una familia de intervalos de conanza.

El nivel de signicación de referencia se ja a priori determinando la incertidumbre con que se quiere
dar el intervalo.
A un nivel de signicación α le corresponde un nivel de conanza del (1- α)100%. Así, los niveles de
conanza del intervalo al 90, 95 y 99% corresponden a los valores α de 0.1, 0.05 y 0.01, respectivamente.
La construcción de la familia de intervalos de conanza para un parámetro θ consiste en elegir θ̂,
estimador de θ, con una distribución en el muestreo conocida, y jar el nivel de signicación de

38
referencia, α, de tal forma que la probabilidad de que el parámetro θ pertenezca a la familia de
intervalos de conanza sea 1-α.
Un intervalo de conanza para el parámetro θ de una población es de la forma L1≤ θ ≤L2, donde
θ es el verdadero valor del parámetro desconocido y L1 y L2 son funciones de los valores muestrales,
que únicamente serán números cuando se haya obtenido una muestra y sustituido sus valores en las
funciones L1 y L2.

3.4.1 Intervalos de conanza para la media de una distribución normal


 
Dada X ∼ N (µ, σ), se elige X , como estimador de µ, que se distribuye como una N µ, √σn , y se
ja el nivel de signicación de referencia α, que equivale a jar el nivel de conanza del intervalo, (1-
α)100%.

σ2 conocida

Conocida la varianza poblacional se puede expresar:


X −µ
√ ∼ N (0, 1)
σ/ n

ˆ Si se ja α = 0.05 , se puede armar que


 
X −µ
P −1.96 < √ < 1.96 = 0.95
σ/ n

ya que el 95% de la población de una distribución N(0,1) se encuentra en el intervalo (-1.96 , 1.96).
De donde se deduce que
 
σ σ
P X − 1.96 √ < µ < X + 1.96 √ = 0.95
n n

La familia de intervalos de conanza viene dada por la expresión


 
σ σ
X − 1.96 √ , X + 1.96 √
n n

De modo quepara una determinada muestra,


 X toma un valor concreto x y se obtiene un intervalo
de conanza x − 1.96 √n , x + 1.96 √n .
σ σ

Si se repite muchas veces el procedimiento de tomar una muestra y calcular el intervalo de conanza
correspondiente, se puede armar que, aproximadamente, el 95% de los intervalos obtenidos deberían
contener el verdadero valor µ de la media poblacional.
 
Es decir, para una muestra concreta se puede armar que µ ∈ x − 1.96 √σ
n
, x + 1.96 √σ
n
con una
conanza del 95%.
Consecuentemente, en el 95% de los casos µ está a una distancia menor que 1.96 √σn unidades de la
media muestral, que es el error máximo cometido al tomar xcomo el valor estimado de µ.

ˆ En general, si se quiere construir un intervalo de conanza para la esperanza de una población


normal al (1-α)100%, bastará encontrar un valor de la N(0,1), representado por zα/2 , tal que el
intervalo −zα/2 , zα/2 , deje fuera una probabilidad igual al nivel de signicación de referencia.

39
Es decir  
X −µ
P −zα/2 < √ < zα/2 =1−α
σ/ n

o lo que es lo mismo  
σ σ
P X − zα/2 √ < µ < X + zα/2 √ =1−α
n n
en cuyo caso, se dice que, para una muestra en concreto,
 
σ σ
µ∈ x − zα/2 √ , x + zα/2 √
n n

con una conanza del (1-α)100% o a un nivel de signicación α.


Es decir, si se toman diferentes muestras de tamaño n y se obtienen los intervalos de conanza asociados
a cada una de ellas, el verdadero valor del parámetro µ debería estar en el (1-α)100% de los intervalos
construidos.
El valor central de todos los intervalos es la media de esa muestra, y los extremos equidistan de él un
valor zα/2 √σn llamado error, que es la mitad de la amplitud del intervalo de conanza.
Por ejemplo, si se considera una muestra de tamaño 25 de una población que se distribuye como una
N(µ ,1), cuya media muestral es x = 17.22, se obtiene que µ ∈ (16.83 , 17.61) con un nivel de conanza
del 95%, mientras que al aumentar la conanza al 99% se obtiene que µ ∈ (16.70 , 17.74), resultando
ahora un intervalo de conanza de mayor amplitud.
Así, para una muestra concreta, a mayor conanza se obtiene un intervalo de mayor amplitud, lo que
puede llevar, en algunas ocasiones, a intervalos poco operativos por ser el error demasiado grande.

σ2 desconocida

Cuando se desconoce σ 2 , lo lógico es sustituirla por un estimador; el estimador elegido es Ŝ 2 .

Así, al no poder usar la expresión σ/√ , se utilizará ahora la expresión X−µ


X−µ
n
√ , cuya distribución de
Ŝ/ n
probabilidad es la de una t de Student con n-1 grados de libertad, siendo n el tamaño de la muestra,
ya que
√ √
(X−µ) n
X −µ X −µ n σ Z Z
√ = = =q =  2 1/2 = tn−1
Ŝ/ n Ŝ Ŝ/σ (n−1)Ŝ 2
2
χ n−1
(n−1)σ n−1

40
Z y el denominador son independientes. Consecuentemente
X −µ
√ ∼ tn−1
Ŝ/ n
Fijado el nivel de signicación α, y puesto que la distribucióntn−1 es simétrica, bastará encontrar un
valor, representado por tα/2 , que se obtiene a partir de las tablas de la distribución t de Student, tal
que
!
X −µ
P −tα/2 < √ < tα/2 =1−α
Ŝ/ n

o lo que es lo mismo !
Ŝ Ŝ
P X − tα/2 √ < µ < X + tα/2 √ =1−α
n n

en cuyo caso, para una muestra en concreto,


 
ŝ ŝ
µ∈ x − tα/2 √ , x + tα/2 √
n n
de donde se obtiene un intervalo de conanza al (1-α)100% para la media µ de una población normal
con varianza desconocida.
Sabiendo que t24;0.025 = 2.06, si se consideran los datos del ejemplo anterior, suponiendo que ahora
se desconoce la varianza poblacional y siendo ŝ = 1.1, se obtiene con una conanza del 95%, que
µ ∈ (16.77; 17.67).

Observación. La amplitud de este intervalo será ligeramente superior al obtenido si σ es conocida


debido a que la distribución t tiene mayor varianza que la N(0,1) ; es razonable ya que al descono-
cer la varianza se posee menos información y por lo tanto la estimación será menos precisa. Una
t con 100 grados de libertad o más coincide con la N(0,1) ; por tanto, si se trabaja con muestras
grandes, los resultados con varianza conocida y desconocida coincidirán.

3.4.2 Intervalos de conanza para la varianza de una distribución normal


Al tratar de hacer inferencia sobre la varianza de una población normal, el estimador que se utiliza es
la varianza muestral corregida que, como ya se sabe, verica que
(n − 1)Ŝ 2
∼ χ2n−1
σ2

41
Fijado un nivel de signicación de referencia α, se buscan χ2α2 y χ21− α2 , tales que
!
(n − 1)Ŝ 2
P χ2α2 < < χ21− α2 =1−α
σ2

Como la distribución χ2 no es simétrica, los valores de χ2α2 y χ21− α2 , se seleccionan de manera que
   
P χ2n−1 < χ2α =
2
α
2 y P χ2n−1 < χ21− α = 1 −
2
α
2

Para construir un intervalo de conanza para la varianza de una población normal bastará considerar
que !
(n − 1)Ŝ 2 (n − 1)Ŝ 2
P 2 < σ2 < =1−α
χ1− α χ2α
2 2

en cuyo caso, para una muestra en concreto,


!
2 (n − 1)ŝ2 (n − 1)ŝ2
σ ∈ ,
χ21− α χ2α
2 2

con una conanza del (1- α)100%.


Por ejemplo, sabiendo que χ215;0.025 = 6.26 y χ215;0.975 = 27.5, si se toma una muestra, de una población
normal, de tamaño 16 con ŝ2 = 9.2, se obtiene que σ 2 ∈ (5.02, 22.04), con una conanza del 95%.

3.4.3 Intervalos de conanza para la proporción


Para la construcción de intervalos de conanza se elige el estimador y se ja el nivel de signicación
de referencia α.
En este caso se considera como estimador de la proporción  p la variable aleatoria proporción
 poblacional
q
muestral, Pm , que se distribuye como una normal N p , p(1−p)
n .

Al estimar la varianza, por ser desconocida, se puede escribir


Pm − p
q ∼ N (0, 1)
Pm (1−Pm )
n

42
Fijado α, para construir un intervalo de conanza para la proporción de una población al (1-α)100%,
bastará encontrar un valor, zα/2 , tal que
 
Pm − p
P −zα/2 < q < zα/2  = 1 − α
Pm (1−Pm )
n

o lo que es lo mismo
r r !
Pm (1 − Pm ) Pm (1 − Pm )
P Pm − zα/2 < p < Pm + zα/2 =1−α
n n

en cuyo caso, se dice que, para una muestra en concreto,


r r !
pm (1 − pm ) pm (1 − pm )
p∈ pm − zα/2 , pm + zα/2
n n

con una conanza del (1-α)100%.


Por ejemplo, sabiendo que en una muestra de tamaño 100 se han encontrado 20 piezas defectuosas, se
obtiene que la proporción poblacional de defectuosas p ∈ (0.1216, 0.2784) con una conanza del 95%.

Precisión en las estimaciones


La conanza de un intervalo conviene que sea lo mayor posible, mientras que la amplitud interesa que
sea pequeña. A mayor conanza y menor amplitud se tiene mayor seguridad de que se está cerca del
verdadero valor del parámetro poblacional; es decir, se gana en precisión. En general, al aumentar el
tamaño muestral se consigue mayor precisión.
Para cualquier intervalo de conanza, la semiamplitud del intervalo es el error máximo cometido al
tomar como estimación del parámetro poblacional, si éste pertenece al intervalo, el punto medio del
intervalo de conanza, que coincide con el parámetro muestral.
Si se jan el error máximo y el grado de conanza, se puede determinar el tamaño muestral requerido
igualando la semiamplitud al error jado y despejando n.
Por ejemplo, si en una población que se distribuye como una N(µ,1) se quiere obtener un inter-
valo de conanza al 95% para la media con un error máximo de 0.1, el tamaño muestral debe ser
aproximadamente 384, valor que se obtiene al despejar n de la ecuación 1.96 · √1n = 0.10.

3.5 CONTRASTES DE HIPÓTESIS

Una hipótesis estadística es una armación respecto a una característica de una población, que deter-
mina, parcial o totalmente, la distribución de probabilidad de la variable aleatoria que modeliza dicha
característica.
Contrastar una hipótesis estadísticamente es comparar las predicciones que se deducen de ella con la
realidad que se observa: si hay coincidencia, dentro del margen de error admisible, se mantiene la
hipótesis; en caso contrario, se rechaza.
En todo contraste se plantearán dos hipótesis, la hipótesis nula H0 y la hipótesis alternativa H1 .
La hipótesis nula H0 es aquella hipótesis que se quiere contrastar. Esta hipótesis se aceptará mientras
los datos muestrales no reejen claramente que es más verosímil la otra hipótesis, denominada hipótesis
alternativa H1 .

43
Una vez planteadas la hipótesis nula y la alternativa se ha de determinar el criterio que se va a seguir
para aceptar o rechazar H0 a partir de la información que aporta la muestra.
El objetivo es elegir un estimador y, a través de él, obtener la información que da la muestra. Se trata
de determinar para qué valores del estimador se considera aceptable H0 , zona de aceptación, o para
qué valores se rechaza H0 , zona de rechazo.
La elección de un determinado criterio comporta dos tipos de riesgos o posibles errores:

ˆ Error de tipo I : rechazar H0 siendo cierta.

ˆ Error de tipo II : aceptar H0 siendo falsa.

Para determinar el criterio más apropiado para cada caso es conveniente medir estos riesgos.

1. Probabilidad de cometer un error de tipo I:


P (rechazar H0 /H0 es cierta) = α, que es necesario jar para realizar el contraste y que se ha
denido como nivel de signicación de referencia.
2. Probabilidad de cometer un error del tipo II:
P (aceptar H 0 /H0 es f alsa) = β , valor que se relaciona con el concepto de potencia de un
contraste, una cuestión en la que no se entra en estos apuntes.

El contraste ideal sería aquél en el que ambas probabilidades sean lo más pequeñas posibles. Sin
embargo, si se varía un criterio para disminuir la probabilidad de cometer un error de tipo I, entonces
se aumenta la probabilidad de cometer un error de tipo II, y viceversa. La única forma de disminuir
ambas probabilidades a la vez es aumentando el tamaño de la muestra.
Por último, para realizar un contraste de hipótesis se denirá una medida de discrepancia entre los
valores muestrales y la hipótesis nula, H0 . Así, se denirá el p-valor de un contraste para evaluar el
grado de conanza con el que se acepta o rechaza una hipótesis.
Los contrastes de hipótesis pueden ser paramétricos o no paramétricos, según sean para determinar
la aceptabilidad o no de la hipótesis formulada sobre un parámetro concreto o sobre la forma de una
distribución de probabilidad, respectivamente.

3.6 CONTRASTES PARAMÉTRICOS

A partir de los datos de una muestra se analizará si la hipótesis relativa al valor de un parámetro es
aceptable o no.
Las hipótesis pueden ser simples, si se especica un único valor para el parámetro; y compuestas, si
admiten diversos valores. En estos apuntes se tratarán exclusivamente contrastes con hipótesis nula de
tipo simple (θ = θ0 ), y, según el modo en que se plantee la hipótesis alternativa los contrastes podrán
ser unilaterales o bilaterales:

ˆ Contraste unilateral : aquél en el que H1 es del tipo θ > θ0 o θ < θ0 , que da lugar a una zona de
rechazo formada por un único intervalo de la recta real.
ˆ Contraste bilateral : aquél en el que H1 es del tipo θ 6= θ0 , que da lugar a una zona de rechazo
formada por dos intervalos disjuntos de la recta real.

44
Suponiendo que el contraste de hipótesis es del tipo

H0 : θ = θ 0
H1 : θ 6= θ0

para determinar el criterio para aceptar o rechazar H0 se elige un estimador, θ̂, y se ja el nivel de
signicación de referencia del contraste, α, que representa ahora la probabilidad de que θ̂ no pertenezca
a la zona de aceptación.
Asimismo se determina para qué valores de θ̂ se considera aceptable H0 (zona de aceptación) o para
qué valores se rechaza (zona de rechazo).

3.6.1 Contrastes para la media de una distribución normal


Si X se distribuye como una N (µ, σ), se debe hallar la zona de aceptación para un contraste del tipo

H0 : µ = µ0
H1 : µ 6= µ0

Al tratarse de un contraste para la media de la población, se elige como estimador X y se ja el nivel
de signicación α.

σ2 conocida
 
Si H0 es cierta, entonces X ∼ N µ0 , √σ
n
que, al tipicar, resulta

X − µ0
√ ∼ N (0, 1)
σ/ n
Una vez jado α, se busca el valor zα/2 tal que
 
X − µ0
P −zα/2 < √ < zα/2 = 1 − α
σ/ n
o lo que es lo mismo  
σ σ
P µ0 − zα/2 √ < X < µ0 + zα/2 √ =1−α
n n
La zona de aceptación, conjunto de valores del estimador X para los que se considera aceptable H0
para un nivel α, será  
σ σ
µ0 − zα/2 √ , µ0 + zα/2 √
n n
y, consecuentemente, la de rechazo será
   
σ σ
−∞, µ0 − zα/2 √ ∪ µ0 + zα/2 √ , +∞
n n

Para una muestra concreta, si su media x pertenece a la zona de aceptación entonces se acepta H0
para un nivel de signicación α.
En todos los contrastes interesa evaluar en cierta forma el grado de conanza con el que se acepta o
rechaza una hipótesis. Para ello se dene una medida de discrepancia, que depende de la diferencia
entre el valor del parámetro especicado por H0 y el valor del estimador calculado en la muestra.

45
Denición. Se llama p-valor o valor crítico de un contraste al mínimo nivel de signicación de
referencia para el que con los datos de una muestra concreta se rechaza H0

Si para una muestra en concreto se designa como A el valor √0 ,


x−µ
σ/ n
entonces

p − valor = P (| Z |≥| A |)

El p-valor de un contraste es una probabilidad y se interpreta, en general, de modo que cuanto más
próximo sea a 1, mayor evidencia habró para aceptar H0 ; mientras que cuanto más cercano sea a 0,
con mayor conanza se rechazará H0 .
Una vez calculado el p-valor, se decide el contraste en función del α dado según el siguiente criterio

p-valor > α ==> se acepta H0

p-valor < α ==> se rechaza H0

Al realizar un contraste puede ocurrir que H0 se acepte para un valor de α y se rechace para otro.
Así, aun jado un valor de α, se debe dar el p-valor de manera que la persona que analiza el contraste
pueda tomar una decisión basándose en su propia selección de α.
 un α y para una muestra concreta, el que el p-valor sea mayor que α es equivalente a que
Fijado
x ∈ µ0 − zα/2 √σn , µ0 + zα/2 √σn o lo que es lo mismo A = σ/√ 0 ∈ −zα/2 , zα/2 .
x−µ
n

Se puede observar una estrecha relación con los intervalos de conanza. En concreto, para la misma
muestra, el intervalo de conanza para µ al nivel (1-α)100% representa el conjunto de valores µ0 para
los que se aceptaría H0 con un nivel α.
Es decir,  
σ σ
x ∈ µ0 − zα/2 √ , µ0 + zα/2 √ ≡ Zona de aceptación con nivel α
n n
equivale a
 
σ σ
µ0 ∈ x − zα/2 √ , x + zα/2 √ ≡ I. de conf ianza para µ al (1 − α)100%
n n

ya que, si se cumple la primera pertenencia, se cumple la segunda, y recíprocamente.

46

H0 : µ = 50
Por ejemplo, en una población N(µ,6), al realizar el contraste con un α = 0.05
H1 : µ =6 50
habiéndose elegido una muestra de tamaño 16 con x = 52.4, se acepta H0 ya que x ∈ (47.06,52.94) ≡
Z.A.
En un contraste al 95%, y una vez obtenida la zona de aceptación, si se toman muestras de n datos,
en el 95% de los casos la media de cada una de las muestras pertenecerá a dicha zona, mientras que
en un 5% de las muestras no pertenecerá a dicha zona de aceptación, aproximadamente. Si al hacer
el contraste se elige una de estas últimas muestras, se puede rechazar la hipótesis H0 a pesar de ser
cierta, lo que lleva a cometer un error de tipo I, ya que P(rechazar H0 / H0 cierta) = 0.05.

σ2 desconocida

Para un contraste del tipo 


H0 : µ = µ0
H1 : µ 6= µ0
cuando X se distribuye como una N (µ, σ) con σ 2 desconocida, se sabe que si H0 es cierta, entonces

X − µ0
√ ∼ tn−1
Ŝ/ n

Una vez jado α y buscado el valor tα/2 tal que


!
X − µ0
P −tα/2 < √ < tα/2 =1−α
Ŝ/ n

o lo que es lo mismo !
Ŝ Ŝ
P µ0 − tα/2 √ < X < µ0 + tα/2 √ =1−α
n n
se obtiene como zona de aceptación
!
Ŝ Ŝ
µ0 − tα/2 √ , µ0 + tα/2 √
n n

Si para una muestra en concreto se designa como B el valor, o medida de discrepancia, x−µ√0 ,
ŝ/ n
entonces
el p-valor se puede expresar

p − valor = P (| t |≥| B |)

Una vez calculado el p-valor, se decide el contraste en función del α dado, segón el siguiente criterio

p-valor > α ==> se acepta H0

p-valor < α ==> se rechaza H0

47
Fijado
 un α y para una muestra  concreta, el que el p-valor sea mayor que α es equivalente a que
x ∈ µ0 − tα/2 √n , µ0 + tα/2 √n o lo que es lo mismo B = ŝ/√n ∈ −tα/2 , tα/2 .
ŝ ŝ x−µ 0


Se observa también una estrecha relación con los intervalos de conanza ya que, para la misma muestra,
el intervalo de conanza para µ al nivel (1- α)100% representa el conjunto de valores µ0 para los que
se aceptaría H0 con un nivel α.
En el ejemplo anterior considerando ahora σ 2 desconocida, si se obtiene ŝ = 7.5 y sabiendo que
t15;0.025 = 2.13, entonces se acepta H0 con un α = 0.05, ya que x = 52.4 ∈ (46.01, 53.99) ≡ Z.A.

3.6.2 Contraste para la varianza de una distribución normal


Si X se distribuye como una N (µ, σ), se debe hallar la zona de aceptación para un contraste del tipo
H0 : σ 2 = σ02


H1 : σ 2 6= σ02

Al tratarse de un contraste sobre la varianza de la población, el estimador elegido es la varianza


muestral corregida Ŝ 2 .
Si H0 es cierta, se sabe que
(n − 1)Ŝ 2
∼ χ2n−1
σ02
Fijado el nivel de signicación α, se pueden calcular χ2α2 y χ21− α2 de forma que
!
2 (n − 1)Ŝ 2
P χ α2 < < χ21− α2 =1−α
σ02

o lo que es lo mismo
σ02 2 σ02 2
 
P χ α2 < Ŝ 2 < χ α =1−α
n−1 n − 1 1− 2
de donde la zona de aceptación resulta
σ02 2 σ02 2
 
χ α2 , χ α
n−1 n − 1 1− 2

Para una muestra concreta, si su varianza muestral corregida ŝ2 pertenece a la zona de aceptación
entonces se acepta H0 para un nivel de signicación α.

48
2
Análogamente a como se vio en contrastes para la media, para una muestra en concreto el valor (n−1)ŝ
σ02
llevaría a la obtención del p-valor correspondiente, y el contraste se decidirá comparando este valor
con el del α jado.
Asimismo, el intervalo de conanza para al nivel (1-α)100% representa el conjunto de valores para los
que se aceptaría H0 .
H0 : σ 2 = 36

Por ejemplo, en una población N (µ, σ), al realizar el contraste con un α =
H1 : σ 2 6= 36
0.05, habiéndose elegido una muestra de tamaño 16 con ŝ2 = 56.2 y sabiendo que χ215;0.025 = 6.26 y
χ215;0.975 = 27.5, se acepta H0 ya que ŝ2 ∈ (15.024; 66) ≡ Z.A.
Se puede comprobar que p − valor = 0.15

Observación. En ocasiones interesa realizar contrastes unilaterales para la varianza del tipo

H0 : σ 2 ≤ σ02

H1 : σ 2 > σ02
en cuyo caso si H0 es cierta, jado α, se calcula de forma que
!
(n − 1)Ŝ 2
P 0< < χ21−α =1−α
σ02

o lo que es lo mismo
σ02
 
P 0 < Ŝ 2 < χ2 =1−α
n − 1 1−α
2
σ02
   
dando lugar a 0 , n−1σ0
χ21−α como zona de aceptación y a n−1 χ21−α , +∞ como zona de rechazo
del contraste unilateral.
H0 : σ 2 ≤ 36

En el ejemplo anterior, al realizar el contraste con α = 0.05, habiéndose elegido
H1 : σ 2 > 36
una muestra de tamaño 16 con ŝ2 = 56.2 y sabiendo que χ215;0.95 = 25, se acepta H0 ya que ŝ2 ∈
(0, 60) ≡ Z.A.
Los contrastes unilaterales se pueden generalizar para cualquier parámetro.

3.6.3 Contraste para la proporción


Se debe hallar la zona de aceptación para un contraste del tipo

H0 : p = p0
H1 : p 6= p0

Al tratarse de un contraste sobre p, proporción poblacional, el estimador elegido es la proporción


muestral Pm .
Si H0 es cierta r !
p0 (1 − p0 )
Pm ∼ N p0 ,
n
y tipicando
P − p0
qm ∼ N (0, 1)
p0 (1−p0 )
n

49
Fijado α, bastará encontrar un valor, z?α/2 , tal que
 
Pm − p 0
P −zα/2 <q < zα/2  = 1 − α
p0 (1−p0 )
n

o lo que es lo mismo
r r !
p0 (1 − p0 ) p0 (1 − p0 )
P p0 − zα/2 < Pm < p0 + zα/2 =1−α
n n

La zona de aceptación, conjunto de valores del estimador Pm para los que se considera aceptable H0
a un nivel α, será r r !
p0 (1 − p0 ) p0 (1 − p0 )
p0 − zα/2 , p0 + zα/2
n n

Análogamente, para una muestra concreta, el valor qPm −p0


p0 (1−p0 )
llevaría a la obtención del p-valor co-
n
rrespondiente, decidiéndose el contraste comparando este valor con el α jado.

H0 : p = 0.04
Por ejemplo, al realizar el contraste con α = 0.05 y habiendo observado 15 piezas
H1 : p 6= 0.04
defectuosas en una muestra de tamaño 120, se rechaza H0 ya que pm = 0.125 ∈
/ (0.0049, 0.0751) ≡ Z.A.
Para este parámetro también es habitual plantear contrastes unilaterales.

3.7 CONTRASTES NO PARAMÉTRICOS: AJUSTE DE FORMA

En los contrastes no paramétricos tiene especial interés el ajuste de forma en el que se contrasta si
es aceptable la hipótesis formulada sobre la forma del modelo de distribución para la población en
estudio.
Estos contrastes son de gran importancia en control de calidad, pues hacen posible probar si los datos
relativos a las características de calidad en estudio presentan normalidad, condición muy usual en el
control estadístico de calidad.
En este tipo de contrastes la hipótesis nula es que la variable aleatoria sigue un modelo de distribución
determinado y la hipótesis alternativa es que no sucede esto.
El planteamiento del contraste es

H0 : X sigue el modelo de distribución que se quiere contrastar
H1 : X N O sigue el modelo de distribución que se quiere contrastar

El método general para contrastar la validez de un modelo se basará, jado α, en elegir un estadístico
que mida las diferencias entre los valores obtenidos en una muestra y los valores esperados o teóricos,
suponiendo cierta la hipótesis formulada sobre el modelo que sigue la población.
También se dene el p-valor para contrastes no paramétricos. La denición es la misma, es decir, es
el mínimo nivel de signicación para el que, con los datos obtenidos en la muestra, se tendría que
rechazar H0 .
Algunos de los test utilizados para resolver estos contrastes se estudian a continuación.

50
3.7.1 Test de la χ2
Este test se basa en la comparación de las frecuencias obtenidas en la muestra y las frecuencias
esperadas correspondientes a la distribución teórica a contrastar.
Es válido tanto para variables continuas como discretas. Para continuas, compara el histograma con
la función de densidad; y para discretas, el diagrama de barras con la función de probabilidad.
Para obtener una mayor credibilidad se requiere un tamaño muestral, n, mayor o igual que 30 y se
agrupan los datos en k clases con k ≥ 5 (en el caso de ser la variable discreta, cada clase actúa como
un valor de la variable) y es conveniente que haya al menos tres datos en cada clase.
k
(Oi −Ei )2
Se elige como estadístico D∗ = , que es una medida de las diferencias entre lo observado y
P
Ei
i=1
lo esperado, supuesto como cierto el modelo propuesto, donde Oi representa la frecuencia observada y
Ei la frecuencia esperada en cada clase.
Si H0 es cierta, se puede demostrar que D∗ se distribuye
k 2
X (Oi − Ei )
∼ χ2k−r−1
i=1
Ei

siendo r el número de parámetros que se han tenido que estimar para determinar la distribución de la
variable.
Fijado α, se busca el valor χ2k−r−1,α tal que
P (D∗ < χ2k−r−1,α ) = 1 − α
que da lugar a la zona de aceptación del contraste.
Si para una muestra en concreto se designa como d el valor del estimador D∗, el p-valor se calcula
mediante la expresión
p − valor = P (χ2k−r−1 > d)
Una vez calculado el p-valor, se decide el contraste en función del α dado, según el criterio

p-valor > α ==> se acepta H0

p-valor < α ==> se rechaza H0

En resumen, si el contraste conduce a rechazar H0 , conviene investigar siempre la causa, con el n de


sugerir un modelo alternativo.

51
3.7.2 Test de Kolmogorov-Smirnov
Se basa en la comparación de la función de distribución teórica a contrastar, F(x), y la función de
distribución empírica muestral, Fn (x).
Es válido sólo para variables continuas, tiene la ventaja de que se puede aplicar a muestras más
pequeñas y, en general, es conservador puesto que tiende a aceptar H0 .
Se ordenan en orden creciente los valores de la muestra, x1 ≤ x2 ≤ · · · ≤ xn y se calcula la función de
distribución empírica de la siguiente forma

Se calcula el valor del estadístico


Dn = máx | F n(x) − F (x) |
que, si H0 es cierta, sigue una distribución conocida y está tabulada

Fijado el nivel de signicación α, se busca en las tablas el valor de Dn,α tal que P (Dn > Dn,α ) = α
Se resuelve el contraste mediante el siguiente criterio:
Dn < Dn,α =⇒ se acepta H0

Dn > Dn,α =⇒ se rechaza H0

Este contraste permite construir bandas de conanza en torno a F(x) : si Dn,α es el valor obtenido en
las tablas, si H0 es cierta, se obtiene que
Dn,α ≥ máx | F n(x) − F (x) |

por tanto
Fn (x) ∈ F (x) ± Dn,α
Así, el valor Dn,α dene unas bandas de conanza en torno a F(x) de forma que si Fn (x) se encuentra
entre ellos, se acepta H0 .
También se puede utilizar el criterio del p-valor, aceptando la hipótesis nula al nivel α cuando el p-valor
es mayor que α, y rechazándola en caso contrario.

52
3.7.3 Test de normalidad
Contrastar la normalidad de una variable es de gran importancia ya que se trata de una hipótesis
necesaria en muchos casos; en particular, este test se aplica en control de calidad para contrastar
normalidad en muestras de tamaño muy pequeño.
El planteamiento del contraste es

H0 : X sigue el modelo de distribución normal
H1 : X N O sigue el modelo de distribución normal

El test de normalidad se basa en el ajuste de la muestra a una recta al dibujarla en papel probabilístico
normal. Cuando los puntos así dibujados se separen mucho de una recta, se debe concluir que la muestra
no proviene de una distribución normal. Cuando los puntos centrales aparezcan alineados pero no los
extremos, hay que investigar si existen errores de datos u observaciones atípicas.
Una de las formas de contrastar normalidad, para muestras pequeñas mediante papel probabilístico
normal, es aplicar el test de Shapiro-Wilks, que mide la bondad del ajuste de los datos de la muestra
a la recta; cuanto mayor sea su valor, más credibilidad tiene la hipótesis de normalidad.
El estadístico toma la expresión
 h
2
P
ai,n (xn−i+1 − xi )
i=1
W = n
P 2
(xi − x)
i=1

donde xi es el valor ordenado de la muestra que ocupa el lugar i-ésimo; h es n/2, si n es par, y (n-1)/2,
si es impar; y los valores ai,n están tabulados.
La distribución de W está tabulada y se rechaza la normalidad cuando el valor calculado a partir de la
muestra es menor que el correspondiente valor dado por las tablas. También se puede utilizar el criterio
del p-valor, aceptando la hipótesis nula al nivel α cuando el p-valor es mayor que α, y rechazándola
en caso contrario.

En el gráco se observan dos ejemplos, en el de la izquierda se aceptaría la normalidad de la muestra


y en el de la derecha se rechazaría.

53

Вам также может понравиться