Вы находитесь на странице: 1из 28

La inferencia estadística es el conjunto de métodos que permiten inducir, a través de una

muestra, el comportamiento de una determinada población. La inferencia estadística estudia


entonces, como sacar conclusiones sobre los parámetros de población de datos. De la
misma manera estudia también el grado de fiabilidad de los resultados extraídos del
estudio.
Para entender el concepto es importante entender tres conceptos:

1. Inferencia: Inferir significa, literalmente, extraer juicios o conclusiones a partir de


ciertos supuestos, sean estos generales o particulares.
2. Población: Una población de datos, es el conjunto total de datos que existen sobre
un variable.
3. Muestra estadística: Una muestra es una parte de la población de datos.
Teniendo claro a lo que nos referimos con el concepto de inferir, una de las dudas
fundamentales recae en el hecho de elegir una muestra en lugar de una población.

Normalmente, en estadística, se trabaja con muestras debido a la gran cantidad de datos que
tiene una población. Por ejemplo, si queremos sacar conclusiones, esto es, inferir, los
resultados de las elecciones generales, es imposible preguntar a toda la población del país.
Para solventar ese problema se escoge una muestra variada y representativa. Gracias a la
cual se puedan extraer una estimación del resultado final. Escoger una muestra adecuada
corre a cargo de las distintas técnicas de muestreo.
Métodos de la inferencia estadística

Los métodos y técnicas de la inferencia estadística se pueden dividir en dos: métodos


de estimación de parámetros y métodos de contraste de hipótesis.
 Métodos de estimación de parámetros: Se encarga de asignar un valor al parámetro
o al conjunto de parámetros que caracterizan el campo sujeto a estudio. Claro que al
ser una estimación existe cierto error. Para obtener estimaciones adaptadas a esa
realidad, se crean intervalos de confianza.
 Métodos de contraste de hipótesis: su objetivo es comprobar si una estimación
corresponde con los valores poblacionales. En todo contraste de hipótesis existen
dos supuestos. La hipótesis nula (H0) que recoge la idea de que un valor tiene un
valor predeterminado. Si se rechaza la hipótesis nula (H0), entonces se acepta
la hipótesis alternativa (H1).

1.1 Objetivos de la Inferencia Estadística.

El objetivo de la Estadística es medir y modelar la variabilidad del proceso mediante un


modelo probabilístico.

Para modelar la variabilidad de una variable aleatoria si sólo se dispone del


conocimiento de una muestra de la misma se sigue el siguiente modo de actuación:

1. Planteamiento del problema.


2. Selección de la muestra (Muestreo estadístico), en algunos estudios la muestra se
obtiene por simulación (Simulación Estadística)
3. Estudio descriptivo de la muestra, analítico y gráfico (Estadística Descriptiva).
4. En base al conocimiento de los modelos probabilísticos más utilizados y teniendo
en cuenta el planteamiento del problema y el estudio descriptivo previo, elegir un
modelo de probabilidad (Teoría de la Probabilidad).
5. Estimar los parámetros del modelo supuesto a partir de las observaciones muestrales
utilizando los métodos de Inferencia Estadística: estimación puntual, estimación por
intervalos de confianza y contrastes de hipótesis paramétricos.
6. Chequear que el modelo de probabilidad ajustado a los datos es adecuado y que se
verifican las hipótesis supuestas en el estudio, por ejemplo, que las observaciones
muestrales son independientes, que no existen observaciones erróneas,...,etc. Para
ello se utilizan los métodos de Inferencia no Paramétrica.
7. Si se acepta que el modelo ajustado es adecuado se puede utilizar para obtener
resultados y conclusiones sobre la variable en estudio. En caso contrario, se debe
reformular el modelo de probabilidad y repetir el proceso desde el paso 4.

Si se obtiene más información se puede mejorar el conocimiento de la variabilidad de la


variable de interés. Puede hacerse por los siguientes medios:

Mejorar la estimación de los parámetros del modelo, utilizando métodos estadísticos más
eficaces.

Aumentando el tamaño muestral.

Reducir la variabilidad controlando la variabilidad sistemática que puede ser debida a


factores que influyen en la variable en estudio o controlando otras variables relacionadas
con la variable de interés y que explican en mayor o menor medida su comportamiento.
Para ello es necesario disponer de información adicional a la de la propia variable de
interés, y tener datos de los factores y/o variables explicativas que influyen en ella.

Este texto se estudian los modelos estadísticos que estudian una variable utilizando su
relación con otras variables y/o factores. En particular se estudiarán los dos modelos
estadísticos más importantes y utilizados en la práctica,

El Diseño de Experimentos, que estudia la variabilidad de la variable de interés


controlando los factores que pueden influir en la misma.

Los Modelos de Regresión, que estudian la variabilidad de la variable de interés teniendo


en cuenta la relación funcional de la misma con otras variables explicativas.

1.2 Inferencia Estadística. Conceptos básicos.

Puede definirse la Inferencia Estadística como


“El conjunto de métodos estadísticos que permiten deducir
(inferir) como se distribuye la población en estudio o las relaciones
estocásticas entre varias variables de interés a partir de la información
que proporciona una muestra”.

Para que un método de inferencia estadística proporcione buenos resultados debe de:
Basarse en una técnica estadístico-matemática adecuada al problema y suficientemente
validada.

Utilizar una muestra que realmente sea representativa de la población y de un tamaño


suficiente.

Conceptos básicos que se utilizarán en este texto son los siguientes:

Población: es un conjunto homogéneo de individuos sobre los que se estudia una o varias
características que son, de alguna forma, observables.

Muestra: es un subconjunto de la población. El número de elementos de la muestra se


denomina tamaño muestral.

Muestreo aleatorio simple: es aquel en el que todos los individuos de la población tienen
la misma probabilidad de ser elegidos.

Muestra aleatoria simple, de una variable aleatoria X, con distribución F, de tamaño n, es


un conjunto de n variables aleatorias X1,X2,...,Xn, independientes e igualmente distribuídas
(i.i.d.) con distribución F.

Espacio muestral: es el conjunto de muestras posibles que pueden obtenerse al seleccionar


una muestra aleatoria, de tamaño n, de una cierta población.

Parámetro: es cualquier característica medible de la función de distribución de la variable


en estudio (media, varianza,..).

Estadístico: es una función de la muestra T . Por tanto, es una variable


aleatoria que tiene una función de distribución que se denominadistribución en el
muestreo de T. Los estadísticos independientes del parámetro a estimar se
denominan estimadores.

Propiedades de los estimadores.

Sea n = n un estimador del parámetro . Propiedades del estimador


son las siguientes

1. Estimador centrado o insesgado, tiene sesgo cero,

2. Estimador asintóticamente centrado o insesgado, verifica

3. Error Cuadrático Medio de n, es

4. Estimador consistente en media cuadrática, verifica

por tanto

5. La precisión o eficacia del estimador n es

Si el estimador es insesgado
6. Estimador de la media poblacional, se utiliza la media muestral definida por

(1.
1)

7. Si X sigue una distribución N , se verifica que

(1.
2)

8. Estimador de la varianza poblacional, se utiliza la cuasivarianza


muestral definida por

(1.
3)

9. Si X sigue una distribución N , se verifica que

(1.
4)

10. Dado que normalmente la varianza poblacional se desconoce y es necesario


estimarla, es de interés el siguiente resultado
(1.
5)

11.

1.3 Contraste o test de hipótesis. Definiciones.

1.3.1 Definiciones básicas.

Un contraste o test de hipótesis es una técnica de Inferencia Estadística que permite


comprobar si la información que proporciona una muestra observada concuerda (o no) con
la hipótesis estadística formulada sobre el modelo de probabilidad en estudio y, por tanto,
se puede aceptar (o no) la hipótesis formulada.

Una hipótesis estadística es cualquier conjetura sobre una o varias características de


interés de un modelo de probabilidad.

Una hipótesis estadística puede ser:

Paramétrica: es una afirmación sobre los valores de los parámetros poblacionales


desconocidos. Las hipótesis paramétricas se clasifican en

Simple: si la hipótesis asigna valores únicos a los parámetros ( = 1'5, = 10, X =


Y ,...).

Compuesta: si la hipótesis asigna un rango de valores a los parámetros poblacionales


desconocidos ( > 1'5, 5 < < 10, X < Y ,...).

No Paramétrica: es una afirmación sobre alguna característica estadística de la


población en estudio. Por ejemplo, las observaciones son independientes, la distribución
de la variable en estudio es normal, la distribución es simétrica,...

La hipótesis que se contrasta se denomina hipótesis nula y, normalmente, se denota


por H0. Si se rechaza la hipótesis nula es porque se asume como correcta una hipótesis
complementaria que se denomina hipótesis alternativa y se denota por H1.

1.3.2 Pasos a seguir en la realización de un contraste de hipótesis.

Al realizar cualquier contraste de hipótesis estadístico se deben seguir las siguientes etapas:

1. Plantear el contraste de hipótesis, definiendo la hipótesis nula (H0, hipótesis que se


desea contrastar), y la hipótesis alternativa (H1, cualquier forma de negación de la
hipótesis nula ).
2. Definir una medida de discrepancia entre la información que proporciona la muestra
( ) y la hipótesis H0. Esta medida de discrepancia

(1.6)

3. se denomina estadístico del contraste y será cualquier función de los datos

muestrales y de la información de la hipótesis


nula .
La medida de discrepancia debe seguir una distribución conocida cuando H0 sea
cierta, de forma que se pueda distinguir entre:

una discrepancia grande, la que tiene una probabilidad muy pequeña de ocurrir
cuando H0 es cierto.

una discrepancia pequeña, la que tiene una probabilidad grande de ocurrir cuando H0 es
cierta.

4. Decidir que valores de d se consideran muy grandes, cuando H0 es cierto, para que
sean atribuibles al azar. Ésto es, decidir que discrepancias se consideran
inadmisibles cuando H0 es correcto, lo que equivale a indicar el valor del nivel de
significación, que se denota por .
5. Tomar la muestra ( ), calcular el valor del estadistico asociado a la muestra
(valor crítico del contraste) y analizar:

Si es pequeño (pertenece a la región de aceptación), entonces se acepta la


hipótesis H0.
Si es grande (pertenece a la región de rechazo), entonces se rechaza la
hipótesis H0.

1.3.3 Tipos de Error en un contraste de hipótesis.

Al realizar un contraste se puede cometer uno de los dos errores siguientes:

Error tipo I, se rechaza la hipótesis nula H0 cuando es cierta.

Error tipo II, se acepta la hipótesis nula H0 cuando es falsa.

Situación real:

H0 es cierta H0 es falsa

ACEPTAR H0 CORRECTO ERROR II


Decisión:
RECHAZAR H0 ERROR I CORRECTO

Tabla 1.1: Situaciones posibles en un contraste de hipótesis.

Debe tenerse en cuenta que sólo se puede cometer uno de los dos tipos de error y, en la
mayoría de las situaciones, se desea controlar controlar la probabilidad de cometer un error
de tipo I.

Se denomina nivel de significación de un contraste a la probabilidad de cometer un


error tipo I, se denota por y, por tanto,

(1.7)

Fijar el nivel de significación equivale a decidir de antemano la probabilidad máxima


que se está dispuesto a asumir de rechazar la hipótesis nula cuando es cierta. El nivel de
significación lo elige el experimentador y tiene por ello la ventaja de tomarlo tan pequeño
como desee (normalmente se toma = 0'05, 0'01 o 0'001).

La selección de un nivel de significación conduce a dividir en dos regiones el


conjunto de posibles valores del estadístico de contraste:

La región de Rechazo, con probabilidad , bajo H0.


La región de Aceptación, con probabilidad 1 - ,bajo H0.

0,4

D/H_0
f. densidad de D

0,3 D/H_1

0,2

0,1 E_ii
E_i
0
-4 -2 0 2 4 6
R. Aceptación 1.65 R.Rechazo

Figura 1.1. Tipos de errores. Contraste unilateral, P = 0'05, P = 0'36,

Si el estadístico de contraste toma un valor perteneciente a la región de aceptación,


entonces no existen evidencias suficientes para rechazar la hipótesis nula con un nivel de
significación y el contraste se dice que estadísticamente no es significativo. Si, por el
contrario, el estadístico cae en la región de rechazo entonces se asume que los datos no son
compatibles con la hipótesis nula y se rechaza a un nivel de significación . En este
supuesto se dice que el contraste esestadísticamente significativo.

Por tanto, resolver un contraste estadístico es calcular la región de aceptación y la


región de rechazo y actuar según la siguiente regla de decisión:

Se obtiene la muestra = y se calcula el estadístico del


contraste .

(1.8)

Según la forma de la región de rechazo, un contraste de hipótesis, paramétrico o no, se


denomina
Contraste unilateral o contraste de una cola es el contraste de hipótesis cuya región de
rechazo está formada por una cola de la distribución del estadístico de contraste, bajo
H0.

Contraste bilateral o contraste de dos colas es el contraste de hipótesis cuya región de


rechazo está formada por las dos colas de la distribución del estadístico de contraste,
bajo H0.

Figura 1.2. Contraste bilateral. H0 : = 0, H1 : 0.


Figura 1.3. Contraste unilateral H0 : > 0, H1 : < 0.

Ejemplo 1.1. Test de hipótesis estadística.

“La distribución del tamaño en Kb de los ficheros que resultan al digitalizar imágenes
con un determinado programa puede suponerse normal. El programa ha sido mejorado en
su última versión (versión B) hasta el punto de que quienes lo comercializan garantizan una
disminución en el tamaño medio de los ficheros resultantes superior a 6 Kb con respecto a
la versión anterior (versión A).

La nueva versión B se envió a probar a un centro de investigación privado que utiliza la


versión A. Las últimas 550 imágenes recibidas se digitalizaron con la nueva versión B,
obteniéndose que los tamaños de los ficheros resultantes presentaron una media xB = 63'9 y
una cuasivarianza B2 = 105'063. Cuando se comprobó que las 550 imágenes anteriores a
éstas, digitalizadas con la versión antigua A, habían proporcionado las siguientes
medidas xA = 70'8 y A2 = 96'04, el centro no consideró realista la diferencia anunciada por
el proveedor y devolvieron el producto.

Los proveedores enviaron entonces un representante comercial y éste convenció a los


responsables del centro para la realización de una nueva prueba. Las 25 imágenes que había
en ese momento en el laboratorio se digitalizaron con las dos versiones del programa A y
B. Finalmente se calcularon las diferencias en Kb de los ficheros obtenidos con cada
versión resultando

5'210 9'607 12'442 11'248 9'776


10'785 -2'368 9'762 8'683 10'783

10'830 12'836 11'487 12'964 5'371

7'343 0'615 12'406 6'151 9'917

5'722 4'693 4'048 8'480 8'151

Estos resultados hicieron cambiar de idea a los responsables del centro y adquirieron la
nueva versión B.

Analizar ambas experiencias.

¿Cómo es posible que con tan sólo 25 datos se haya cambiado de opinión si la
experiencia primera se realizó en base a un tamaño de muestra 22 veces superior?”

Solución:

Se siguen los siguientes pasos

Paso 1: Especificar las hipótesis nula (H0) y alternativa (H1).

Sea A la esperanza de la distribución de los tamaños de los ficheros una vez


digitalizadas las imágenes con la versión A del programa y B la correspondiente a
la versión B actualizada. Se desea investigar si es razonable asumir la afirmación
del proveedor. El contraste a realizar es

(1.9)

Se supone que se verifican las siguientes hipótesis:


Las observaciones siguen una distribución normal.

Las observaciones son independientes.

Las dos muestras tienen igual varianza.

Se contrasta la tercera hipótesis de igualdad de las varianzas de las dos muestras.


(1.10)

Fijado = 0'05, se calcula el estadístico del contraste

Este valor 2 no pertenece a la región de rechazo especificada para el contraste de


varianzas de dos muestras independientes que viene dado por

Por tanto se acepta la hipótesis de igualdad de las varianzas de las dos muestras.

4
F_549,549

2 0'95

1
0'025 0'025
0
0,6 0,7
R. Rechazo 0,8
0'83 0,9 1
1'09 1,1 1,2 1,3
1'17 R. Rechazo
R. Aceptación

Figura 1.4. Contraste de igualdad de varianzas.


Paso 2: Se elige un estadístico de contraste apropiado: d1 = d1(H0, ). En este
problema una buena elección es la siguiente.

(1.11)

Si H0 es cierto, entonces

(1.12)

2 2 2 2
T es un estimador del parámetro A = B = , que viene dado por

(1.13)

Paso 3: Se fija el nivel de significación , esto es, la probabilidad de error de tipo I.


En este ejemplo se utiliza = 0'05.

Paso 4: Se calculan las regiones de rechazo y de aceptación del contraste, teniendo


en cuenta si el contraste es unilateral o bilateral.

En el ejemplo el contraste es unilateral y teniendo en cuenta la región de


rechazo para = 0'05 es

(1.14)
0,4

0,3
t_1098
0,2 0'95

0,1
0'05

0
-4 -3 -2 -1 0 1 2 3 4
R. Aceptación 1'48 R. Rechazo
1'64

Figura 1.5. Contraste de igualdad de medias. Primer estudio.

Paso 5: Se obtiene la muestra y utilizando el estadístico de contraste d1 dado


en se obtiene el valor crítico = (X1, ,Xn).

En el ejemplo en estudio, en primer lugar se calcula la estimación de la varianza

Ahora el valor crítico del contraste C1 es

El nivel crítico asociado del contraste es 0'0683 (ver siguiente sección).


Paso 6: Se concluye si el test es estadísticamente significativo o no al nivel de
significación según que el valor crítico pertenezca a la región de rechazo o a la
región de aceptación, respectivamente.

'
Como 1 = 1 488 no pertenece a la región de rechazo dada en se acepta la
hipótesis nula. Por consiguiente los datos muestrales no avalan que el tamaño medio
de los ficheros disminuye en más de 6 Kb como afirman los vendedores del nuevo
programa.

Tal y como se resolvió el problema hay un parámetro que no se controla, el error de tipo II,
ya que se desconoce la probabilidad de aceptar la hipótesis nula cuando es falsa.

Si, simultáneamente, se desea controlar la probabilidad de error de tipo I y la


probabilidad de error de tipo II ( ( 1)) se debe especificar el tamaño muestral que se está
dispuesto a asumir. Ésto es, si se quiere controlar el porcentaje de veces que se detecta la
hipótesis alternativa (que se denota = 1) cuando es cierta, que en términos de
probabilidad se denota por

es necesario calcular el tamaño muestral n adecuado para garantizar que ambas


probabilidades de error sean las fijadas.

Obviamente existe una relación entre los tres parámetros (n, y ( )), conocidos dos
de ellos se puede obtener el tercero:

n, tamaño muestral,

, probabilidad de error de tipo I,

( ), probabilidad de error de tipo II.

En este ejemplo puede suponerse que existe independencia entre las observaciones
muestrales y que no hay relación entre los dos grupos de 550 imágenes digitalizadas por
cada una de las dos versiones del programa. Por tanto se trata de dos muestras
independientes.

En la segunda experiencia que se propone los datos se han tomado apareados ya que se
han ejecutado las dos versiones del programa sobre las mismas imágenes, primero la
versión A y después la B. Por tanto hay independencia entre las observaciones de cada
muestra pero no entre las observaciones de una muestra respecto a la otra. Para resolver el
problema en este segundo contexto y evitar el problema de dependencia, se trabaja con la
variable diferencia del tamaño del fichero al digitalizar la imagen con la versión A del
programa y el tamaño del fichero al utilizar la versión B . Se calculan las
25 diferencias entre los tamaños de los ficheros resultantes y se obtiene una muestra única.
De la que se obtiene

El contraste es ahora

(1.15)

El estadístico del contraste es

(1.16)

Bajo las hipótesis supuestas se verifica que la distribución de d3, cuando H0 es cierta, es una
distribución t

(1.17)

Para = 0'05 se obtiene la siguiente región de rechazo

Utilizando se obtiene el siguiente valor crítico

Este valor 3 pertenece a la región de rechazo y se rechaza H0.

Obsérvese que también se rechazaría H0 con = 0'01 (de hecho el nivel crítico
es 0'003). La decisión de rechazo parece clara y con garantías, en contradicción con la
decisión de la primera experiencia.
0,4
Figura 1.6. Contraste sobre la media. Datos apareados.

¿Por qué esta diferencia en la respuesta?

Viene motivada por la alta variabilidad de las variables del primer


experimento XA y XB. Con el muestreo apareado la variabilidad ha disminuido
considerablemente, la varianza de la variable diferencia Z es considerablemente inferior a la
varianza de XA y XB. La disminución tan fuerte en la variabilidad está motivada en la
existencia de una alta correlación positiva entre las variables XA y XB, ya que las imágenes
que al digitalizarlas con una versión generan ficheros grandes (pequeños) también
producirán ficheros grandes (pequeños) al ser digitalizadas con la otra versión.

1.3.4 Nivel crítico y región crítica.

Si el contraste de hipótesis se va estudiar con una única muestra y no de forma repetida y


sistemática, se puede utilizar una filosofía alternativa y más informativa que se basa en los
conceptos de nivel crítico y región crítica.

Se denomina nivel crítico o p-valor a la probabilidad p de obtener una


discrepancia con H0 mayor o igual que el valor crítico cuando H0 es correcto.

(1.9)

La región crítica es el conjunto de valores para los cuales d es mayor o igual que el
valor crítico d .

Por tanto,

Comentarios:
1. El nivel crítico sólo puede calcularse una vez tomada la muestra, obteniéndose
niveles críticos distintos para cada muestra.
2. El nivel crítico p puede interpretarse como un nivel mínimo de significación en el
sentido de que niveles de significación iguales o superiores al p - valor llevarán
a rechazar la hipótesis nula.

Por tanto, cuanto menor sea el p - valor mayor es el grado de incompatibilidad de


la muestra con H0, lo que lleva a rechazar H0.

3. El cálculo del nivel crítico no proporciona de modo sistemático una decisión


entre H0 y H1.
4. En las Figuras 1.7 (y 1.8) pueden verse representados el nivel crítico y la región
crítica en un contraste unilateral (y bilateral) acerca de la media, bajo la hipótesis
de normalidad.

Figura 1.7. Nivel crítico. Contraste unilateral sobre la media con = 0'84.
0,4
Figura 1.8. Nivel crítico. Contraste bilateral sobre la media con = 0'84.

1.3.5 Potencia de un contraste.

Para medir la bondad de un contraste de hipótesis se utiliza el concepto de potencia del


contraste. Considérese que se está estudiando un contraste de hipótesis acerca del
parámetro , siendo la hipótesis nula

frente a la hipótesis alternativa

Se denomina potencia al nivel del estadístico de contraste d a la función que asigna a


cada valor del parámetro la probabilidad de rechazar H0 cuando es correcto.

Esto es,

donde

(1.10)

Comentarios:

1. Al grafo de la potencia se lo denomina curva de potencia. En algunos textos


se trabaja con la función curva característica de operación definida
por
(1.11)

2. Si denotamos por a la probabilidad de error de tipo I, se verifica


que

Cuanto más lejana se encuentra la alternativa H1 de H0 menor es la


probabilidad de incurrir en un error tipo II ( ) y, por consiguiente, la potencia
tomará valores más próximos a 1.

3. Si la potencia en la hipótesis alternativa es siempre muy próxima a 1 entonces


se dice que el estadístico de contraste es muy potente para contrastar H0ya
que en ese caso las muestras serán, con alta probabilidad, incompatibles
con H0 cuando H1 sea cierta.

Por tanto puede interpretarse la potencia de un contraste como su sensibilidad o


capacidad para detectar una hipótesis alternativa.

1. Fijado un nivel de significación , un contraste d1 se dice más potente


que otro d2 para contrastar la hipótesis nula H0 si

(1.12)

2. En la Figura 1.9. se representa la función de potencia del contraste H0 : =


0 frente a la alternativa H1 : 0 (contraste bilateral), bajo la hipótesis de
normalidad, con = 0'10 y tamaño muestral n = 100.

En la Figura 1.10. se representa la función de potencia del contraste H0 :


< 0 frente a la alternativa H1 : > 0 (contraste unilateral), bajo la hipótesis de
normalidad, con = 0'10 y tamaño muestral n = 100.
Figura 1.9. Función de Potencia. Contraste bilateral acerca de la media.

Figura 1.10. Función de Potencia. Contraste unilateral acerca de la media.


1.3.6 Algunos contrastes paramétricos importantes.

Se exponen en esta sección algunos de los estadísticos de contraste más importantes


para contrastar hipótesis nulas del tipo H0 : = 0, siendo un parámetro
desconocido y de cuyo valor depende la distribución de una variable de interés X.

Contrastes sobre la media. A partir de una muestra extraída de una


población X normal con media y varianza 2 desconocidas, se desea contrastar la
hipótesis nula

El estadístico de contraste es

(1.13)

donde es la desviación típica muestral corregida . Si H0 es cierto

Contrastes sobre la varianza. Sea la muestra aleatoria simple


2
extraída de una población X normal con varianza , se desea contrastar

El estadístico de contraste es

(1.14)

Si H0 es cierto

Contrastes sobre la igualdad de varianzas. Sean dos muestras aleatorias


simples e obtenidas de dos poblaciones X e Y,con
distribuciones respectivas

N yN .

Se desea contrastar
El estadístico de contraste es

(1.15)

Si H0 es cierto

Contrastes sobre la diferencia de medias, muestras independientes e igualdad de


varianzas. Sean dos muestras aleatorias simples e
obtenidas de dos poblaciones X e Y, con distribuciones N yN . Por
tanto se supone que X2 = Y 2 = 2. Se desea contrastar

El estadístico de contraste es

(1.16)

siendo

(1.17)

un estimador insesgado eficiente de la varianza que se calcula a partir de la información


que proporcionan ambas muestras.

Si H0 es cierto se verifica que


Contrastes sobre la diferencia de medias, muestras independientes y
varianzas desiguales. Sean dos muestras aleatorias simples
e obtenidas de dos poblaciones X e Y, con distribuciones
2 2
respectivas N yN ,y se supone que X Y . Se desea contrastar

El estadístico de contraste que se utiliza es

(1.18)

Si H0 es cierto se verifica que

siendo g = n + m - 2 + , con un término de corrección (ver Cao y otros (2001)).


Contrastes sobre la diferencia de medias, muestreo apareado. En este caso las dos
muestras aleatorias simples tienen igual tamaño muestral
e y son obtenidas al realizar dos observaciones Xi e Y i sobre el mismo
individuo, el i-ésimo. Por la naturaleza del muestreo apareado las dos muestras son
dependientes. Para eliminar este problema se estudia la variable diferencia Z = Y - X, por
tanto, a partir de las dos muestras iniciales se calcula la muestra de
diferencias , Zi = Xi - Yi . Para contrastar la hipótesis

Se utiliza el siguiente estadístico de contraste


(1.19)

Si H0 es cierto

Вам также может понравиться