Вы находитесь на странице: 1из 52

La prueba de ji-cuadrado

The chi-square
Fernando Quevedo Ricardi
Artculo
Article
Autores
Historial
Foro (2)
Mtricas
Descargar PDF |

Para Descargar PDF debe Abrir sesin.


Imprimir | A(+) A(-) | Lectura fcil
C o m par ti r 51

Resumen
El estadstico ji-cuadrado (o chi cuadrado), que tiene distribucin de probabilidad del mismo nombre,
sirve para someter a prueba hiptesis referidas a distribuciones de frecuencias. En trminos generales,
esta prueba contrasta frecuencias observadas con las frecuencias esperadas de acuerdo con la hiptesis
nula. En este artculo se describe el uso del estadstico ji-cuadrado para probar la asociacin entre dos
variables utilizando una situacin hipottica y datos simulados. Luego se describe su uso para evaluar
cun buena puede resultar una distribucin terica, cuando pretende representar la distribucin real de los
datos de una muestra determinada. A esto se le llama evaluar la bondad de un ajuste. Probar la bondad de
un ajuste es ver en qu medida se ajustan los datos observados a una distribucin terica o esperada. Para
esto, se utiliza una segunda situacin hipottica y datos simulados.

Del mismo modo que los estadsticos z, con su distribucin normal y t, con su distribucin t de
Student, nos han servido para someter a prueba hiptesis que involucran a promedios y porcentajes, el
estadstico ji-cuadrado (o chi cuadrado), que tiene distribucin de probabilidad del mismo nombre, nos
servir para someter a prueba hiptesis referidas a distribuciones de frecuencias.

En primer lugar usaremos el estadstico ji-cuadrado para probar la asociacin entre dos variables, y luego
lo usaremos para evaluar en qu medida se ajusta la distribucin de frecuencias obtenida con los datos de
una muestra, a una distribucin terica o esperada.

En trminos generales, esta prueba contrasta frecuencias observadas con las frecuencias esperadas de
acuerdo con la hiptesis nula. Al igual que en el caso de las pruebas anteriormente presentadas,
ilustraremos con ejemplos.

Ji- cuadrado como prueba de asociacin

Supongamos que un investigador est interesado en evaluar la asociacin entre uso de cinturn de
seguridad en vehculos particulares y el nivel socioeconmico del conductor del vehculo. Con este objeto
se toma una muestra de conductores a quienes se clasifica en una tabla de asociacin, encontrando los
siguientes resultados:

Uso de Nivel Nivel Nivel TOTAL


cinturn socioeconmico socioeconmico socioeconmico
bajo medio alto
SI 8 15 28 51
NO 13 16 14 43
TOTAL 21 31 42 94

Tabla I. Tabla de asociacin, valores observados.

Permiten estos datos afirmar que el uso del cinturn de seguridad depende del nivel socioeconmico?
Usaremos un nivel de significacin alfa=0,05.

Los pasos del anlisis estadstico en este caso son los siguientes:

1. En primer lugar se debe plantear las hiptesis que someteremos a


prueba

H0: El uso de cinturn de seguridad es independiente del nivel socioeconmico.


H1: El uso de cinturn de seguridad depende del nivel socioeconmico.

En esta prueba estadstica siempre la hiptesis nula plantea que las variables analizadas son
independientes.

2. En segundo lugar, obtener (calcular) las frecuencias esperadas

Estas son las frecuencias que debieran darse si las variables fueran independientes, es decir, si fuera cierta
la hiptesis nula.

Las frecuencias esperadas se obtendrn de la distribucin de frecuencias del total de los casos, 51
personas de un total de 94 usan el cinturn y 43 de 94 no lo usan. Esa misma proporcin se debera dar al
interior de los tres grupos de nivel socioeconmico, de manera que el clculo responde al siguiente
razonamiento: si de 94 personas 51 usan cinturn; de 21 personas, cuntas debieran usarlo?

La respuesta a esta pregunta se obtiene aplicando la regla de tres y es 11,4. Este procedimiento debe
repetirse con todas las frecuencias del interior de la tabla.

El detalle de los clculos es el siguiente:

Nivel bajo: (21x51/94)=11,4-(21x43/94)=9,6


Nivel medio: (31x51/94)=16,8-(31x43/94)=14,2
Nivel alto: (42x51/94)=22,8-(42x43/94)=19,2

Estas son las frecuencias que debieran presentarse si la hiptesis nula fuera verdadera y, por consiguiente,
las variables fueran independientes.

Estos valores los anotamos en una tabla con las mismas celdas que la anterior; as tendremos una tabla
con los valores observados y una tabla con los valores esperados, que anotaremos en cursiva, para
identificarlos bien.

Uso de cinturn Nivel bajo Nivel medio Nivel alto TOTAL


SI 11,4 16,8 22,8 51
NO 9,6 14,2 19,2 43
TOTAL 21 31 42 94

Tabla II. Tabla de asociacin, valores esperados.

3. En tercer lugar se debe calcular el estadstico de prueba


En este caso, el estadstico de prueba es Ji-cuadrado que, como dijimos al comienzo, compara las
frecuencias que entregan los datos de la muestra (frecuencias observadas) con las frecuencias esperadas, y
tiene la siguiente frmula clculo:

donde oi representa a cada frecuencia observada y ei representa a cada frecuencia esperada.

De este modo el valor del estadstico de prueba para este problema ser:

Entonces Este es el valor de nuestro estadstico de prueba que ahora, siguiendo el


procedimiento de problemas anteriores (paso 4), debemos comparar con un valor de la tabla de
probabilidades para ji-cuadrado (x2). Esta tabla es muy parecida a la tabla t de student, pero tiene
slo valores positivos porque ji-cuadrado slo da resultados positivos. Vase grfico 1, que muestra la
forma de la curva, con valores desde 0 hasta infinito.

Grfico 1.

Dado que el estadstico ji cuadrado slo toma valores positivos, la zona de rechazo de la hiptesis nula
siempre estar del lado derecho de la curva.

Uso de tabla ji-cuadrado

La tabla de ji-cuadrado tiene en la primera columna los grados de libertad y en la primera fila la
probabilidad asociada a valores mayores a un determinado valor del estadstico (vase grfico de la tabla
III).
Los grados de libertad dependen del nmero de celdas que tiene la tabla de asociacin donde estn los
datos del problema y su frmula de clculo es muy sencilla:

Grados de libertad (gl)=(n de filas1)x(n de columnas1)

As, en nuestro ejemplo, en que hay 2 filas y 3 columnas, los grados de libertad sern:

gl=(2-1)x(3-1)=2

Ntese que no se consideran la fila ni la columna de los totales.


Tabla III. Tabla de ji-cuadrado.

Al comienzo elegimos un nivel de significacin alfa=0,05. Entonces un valor de tabla para x2 asociado a
2 grados de libertad y alfa 0,05 es 5,99.

Por lo tanto, como en el grfico 2 vemos que 5,23 se encuentra a la izquierda de 5,99, la probabilidad
asociada a valores superiores a 5,23 es mayor que alfa (0,05).

Grfico 2.

Segn esto, debemos aceptar la hiptesis nula que plantea que las variables uso de cinturn de
seguridad y nivel socioeconmico son independientes. Limitacin: como norma general, se exige que
el 80% de las celdas en una tabla de asociacin tengan valores esperados mayores de 5.

Ji-cuadrado como prueba de bondad de ajuste

Tambin se puede usar el estadstico ji-cuadrado para evaluar cun buena puede resultar una distribucin
terica, cuando pretende representar la distribucin real de los datos de una muestra determinada. A esto
se le llama evaluar la bondad de un ajuste. Probar la bondad de un ajuste es ver en qu
medida se ajustan los datos observados a una distribucin terica o esperada.

Tomemos como ejemplo la distribucin esperada para los individuos de una poblacin que son
clasificados segn grupo sanguneo. Segn estudios realizados en poblacin, se espera que dicha
distribucin, en porcentajes, sea la siguiente:

Grupo Frecuencia esperada


AB 2,0%
A 30,5%
B 9,3%
0 58,2%

Tabla IV. Ejemplo de distribucin esperada.

En una muestra de 150 dadores de sangre se encontr la siguiente distribucin:

Grupo Frecuencia observada


AB 4
A 48
B 15
0 83

Tabla V. Ejemplo de distribucin observada.

1. Las hiptesis del problema son:

H0: los datos se ajustan a la distribucin terica.


H1: los datos no se ajustan a la distribucin terica.

2. Siguiendo el esquema general de solucin propuesto para las pruebas de


hiptesis, ahora corresponde elegir un nivel de significacin
Elegimos entonces alfa=0,01. El estadstico de prueba ser ji-cuadrado, cuya frmula es:

Debemos calcular las frecuencias esperadas en nuestro grupo. Si aplicamos los porcentajes esperados a la
muestra de 150 casos podemos obtener las siguientes frecuencias esperadas (ei):

Grupo Frec. oi Frec. ei


AB 4 3,00
A 48 45,75
B 15 13,95
0 83 87,30
Total 150 150,00

Tabla VI. Ejemplo de frecuencias esperadas.

Los grados de libertad de esta tabla se obtienen restando 1 al nmero de filas, en este caso: gl=4-1=3
Recordemos que la fila del total no se considera para los grados de libertad.

Si ya tenemos las frecuencias observadas y esperadas, podemos proceder a evaluar la diferencia entre
ellas utilizando el estadstico ji-cuadrado. Si la diferencia entre frecuencias observadas y esperadas es
grande, significar que la hiptesis nula es falsa, o sea, esta distribucin no se ajusta a la distribucin
terica y si, en cambio, resulta que la diferencia entre frecuencias observadas y esperadas no es muy
grande, significar que la hiptesis nula es verdadera; por lo tanto, la distribucin en la muestra se ajusta a
la distribucin terica y diremos que no hay significacin estadstica.

El valor del estadstico de prueba (x2) es una medida de la diferencia entre frecuencias observadas y
esperadas; por lo tanto, mientras mayor resulte , ms fcil ser rechazar la hiptesis nula.

3. Se calcula el estadstico de prueba con los datos del ejemplo

4. Se compara este valor con el valor de ji-cuadrado de la tabla

El valor de ji-cuadrado lo buscaremos con alfa=0,01 y 3 grados de libertad. Segn tabla, ese valor es
11,34.
Al comparar el valor del estadstico de prueba (0,73) con el valor de tabla (11,34), vemos que 0,73 se
encuentra a la izquierda de 11,34 desplazado hacia el centro de la curva y que, por lo tanto, la
probabilidad de valores mayores a l es muy superior al nivel de significacin alfa=0,01.

5. Conclusin

Dado que la probabilidad de es mayor que alfa, se acepta la hiptesis nula. Esto significa
que los datos observados se ajustan a la distribucin terica, por lo tanto las diferencias observadas no son
estadsticamente significativas.

6. Grfico
Grfico 3. Prueba de bondad de ajuste.

Notas
Declaracin de conflictos de intereses
Objetivos

1. Realizar contrastes de hiptesis paramtricos para la media de una


poblacin normal.
2. Realizar contrastes de hiptesis paramtricos para comparar dos
medias de variables normales en muestras independientes y en
muestras apareadas.
3. Realizar contrastes de hiptesis para comparar dos proporciones.
4. Realizar contrastes de hiptesis no-paramtricos de independencia
para variables cualitativas.
5. Realizar contrastes de hiptesis no-paramtricos de bondad de ajuste
de distribuciones.
6. Realizar contrastes de hiptesis no-paramtricos de aleatoriedad.
7. Realizar contrastes de hiptesis no-paramtricos de dos muestras
independientes y de dos muestras relacionadas.

Conceptos bsicos
Contraste de hiptesis. Un contraste de hiptesis es un proceso estadstico
mediante el cual se investiga si una propiedad que se supone que cumple una
poblacin es compatible con lo observado en una muestra de dicha poblacin.
Es un procedimiento que permite elegir una hiptesis de trabajo de entre dos
posibles y antagnicas.

Hiptesis Estadstica. Todo contraste de hiptesis se basa en la formulacin


de dos hiptesis exhaustivas y mutuamente exclusivas:

1. Hiptesis nula (H0)


2. Hiptesis alternativa (H1 )

La hiptesis H0 es la que se desea contrastar. Consiste generalmente en una


afirmacin concreta sobre la forma de una distribucin de probabilidad o
sobre el valor de alguno de los parmetros de esa distribucin. El nombre de
"nula" significa sin valor, efecto o consecuencia, lo cual sugiere
que H0 debe identificarse con la hiptesis de no cambio (a partir de la opinin
actual); no diferencia, no mejora, etc. H0 representa la hiptesis que
mantendremos a no ser que los datos indiquen su falsedad, y puede
entenderse, por tanto, en el sentido de neutra. La hiptesis H0 nunca se
considera probada, aunque puede ser rechazada por los datos. Por ejemplo,
la hiptesis de que dos poblaciones tienen la misma media puede ser
rechazada fcilmente cuando ambas difieren mucho, analizando muestras
suficientemente grandes de ambas poblaciones, pero no puede
ser "demostrada" mediante muestreo, puesto que siempre cabe la posibilidad
de que las medias difieran en una cantidad lo suficientemente pequea para
que no pueda ser detectada, aunque la muestra sea muy grande. Dado que
descartaremos o no la hiptesis nula a partir de muestras obtenidas (es decir,
no dispondremos de informacin completa sobre la poblacin), no ser
posible garantizar que la decisin tomada sea la correcta.

La hiptesis H1 es la negacin de la nula. Incluye todo lo que H0 excluye.

Qu asignamos como H0 y H1 ?

La hiptesis H0 asigna un valor especfico al parmetro en cuestin y por lo


tanto el igual siempre forma parte de H0.

La idea bsica de la prueba de hiptesis es que los hechos tengan probabilidad


de rechazar H0. La hiptesis H0 es la afirmacin que podra ser rechazada
por los hechos. El inters del investigador se centra, por lo tanto, en la H1.

La regla de decisin. Es el criterio que vamos a utilizar para decidir si la


hiptesis nula planteada debe o no ser rechazada. Este criterio se basa en la
particin de la distribucin muestral del estadstico de contraste en dos
regiones o zonas mutuamente excluyentes: Regin crtica o regin de rechazo
y Regin de no-rechazo.

Regin de no-rechazo. Es el rea de la distribucin muestral que corresponde


a los valores del estadstico de contraste prximos a la afirmacin establecida
enH0. Es decir, los valores del estadstico de contraste que nos conducen a
decidir H0. Es por tanto, el rea correspondiente a los valores del estadstico
de contraste que es probable que ocurran si H0 es verdadera. Su probabilidad
se denomina nivel de confianza y se representa por 1 - .

Regin de rechazo o regin crtica. Es el rea de distribucin muestral que


corresponde a los valores del estadstico de contraste que se encuentran tan
alejados de la afirmacin establecida en H0, que es muy poco probable que
ocurran si H0 es verdadera. Su probabilidad se denomina nivel de
significacin o nivel de riesgo y se representa con la letra .

Ya definidas las dos zonas, la regla de decisin consiste en rechazar H0 si el


estadstico de contraste toma un valor perteneciente a la zona de rechazo, o
mantener H0 si el estadstico de contraste toma un valor perteneciente a la
zona de no-rechazo.

El tamao de las zonas de rechazo y no-rechazo se determina fijando el


valor de , es decir, fijando el nivel de significacin con el que se desea
trabajar. Se suele tomar un 1% o un 5%.
La forma de dividir la distribucin muestral en zona de rechazo y de no-
rechazo depende de si el contraste es bilateral o unilateral. La zona crtica
debe situarse donde puedan aparecer los valores muestrales incompatibles
con H0.

Estadstico de contraste. Un estadstico de contraste es un resultado muestral


que cumple la doble condicin de:

Proporcionar informacin emprica relevante sobre la afirmacin


propuesta en la H0.
Poseer una distribucin muestral conocida

Tipos de contrastes.

Contrastes paramtricos: Conocida una v.a. con una determinada


distribucin, se establecen afirmaciones sobre los parmetros de dicha
distribucin.

Contrastes no paramtricos: Las afirmaciones establecidas no se hacen en


base a la distribucin de las observaciones, que a priori es desconocida .

Tipos de hiptesis del contraste.

Hiptesis simples: La hiptesis asigna un nico valor al parmetro


desconocido, H: = 0

Hiptesis compuestas: La hiptesis asigna varios valores posibles al par


metro desconocido, H: ( 1 , 2 )

H0 = = 0
Simple - Compuesta
H1 = 0

H0 = 0
Compuesta - Compuesta
H1 = > 0

H0 = 0
Compuesta - Compuesta
H1 = < 0

La Reglas de decisin.
a. Contrastes bilaterales: Si la hiptesis alternativa da lugar a una regin
crtica a ambos lados del valor del parmetro, diremos que el test es
bilateral o de dos colas .

Se rechaza H0 si el estadstico de contraste cae en la zona crtica, es decir, si el


estadstico de contraste toma un valor tan grande o tan pequeo que la
probabilidad de obtener un valor tan extremo o ms que el encontrado es
menor que /2.

b. Contraste unilateral: Si la hiptesis alternativa da lugar a una regin


crtica a un solo lado del valor del parmetro, diremos que el test
es unilateral o de una sola cola

Se rechaza H0 si el estadstico de contraste cae en la zona crtica, es decir, si


toma un valor tan grande que la probabilidad de obtener un valor como ese o
mayor es menor que .
Contraste bilateral Contraste unilateral: Cola Contraste unilateral: Cola
a la derecha a la izquierda

H0 = = 0
H0 = 0 H0 = 0
H1 = 0
H1 = > 0 H1 = < 0

La decisin:

Planteada la hiptesis, formulados los supuestos, definido el estadstico de


contraste y su distribucin muestral, y establecida la regla de decisin, el paso
siguiente es obtener una muestra aleatoria de tamao n, calcular el estadstico
de contraste y tomar una decisin:

Si es estadstico de contraste cae en la zona crtica se rechaza H0.


Si es estadstico cae en la zona de no rechazo se mantiene H0.

Si rechazamos Ho afirmamos que la hiptesis es falsa, es decir, que


afirmamos con una probabilidad de equivocarnos, que hemos conseguido
probar que esa hiptesis es falsa. Por el contrario, si no la rechazamos, no
estamos afirmando que la hiptesis sea verdadera. Simplemente que no
tenemos evidencia emprica suficiente para rechazarla y que se considera
compatible con los datos.

Como conclusin, si se mantiene o no se rechaza H0, nunca se puede


afirmar que es verdadera.

Errores de Tipo I y II.

Error de tipo I: Se comete cuando se decide rechazar la hiptesis


nula H0 que en realidad es verdadera. La probabilidad de cometer ese
error es .

P[ Rechazar H0 / H0 es verdadera ] =

Error de tipo II: Se comete cuando se decide no rechazar la hiptesis


nula H0 que en realidad es falsa. La probabilidad de cometer ese error
es .
P[ No rechazar H0 / H0 es falsa ] =

Por tanto,

1 - es la probabilidad de tomar una decisin correcta cuando H0 es


verdadera.
1 - es la probabilidad de tomar una decisin correcta cuando H0 es
falsa.

El siguiente cuadro resume las ideas:

Naturaleza de H0

Falsa
Verdadera

Error de tipo I Decisin correcta


Rechazar H0

Decisin P= P=1-
Decisin correcta Error de tipo II
No rechazar H0
P=1- P=

La dificultad al usar un procedimiento basado en datos muestrales es


que debido a la variabilidad de muestreo, puede resultar una muestra
no representativa, y por tanto, resultara un rechazo errneo de H0.
La probabilidad de cometer un error de tipo I con nuestra decisin es
una probabilidad conocida, pues el valor de lo fija el propio
investigador.
Sin embargo, la probabilidad de cometer un error de tipo II, , es un
valor desconocido que depende de tres factores:
La hiptesis H1 que consideremos verdadera.
El valor de .
El tamao del error tpico (desviacin tpica) de la
distribucin muestral utilizada para efectuar el contraste.
Relaciones entre los errores de Tipo I y II. El estudio de las relaciones entre
los errores lo realizamos mediante el contraste de hiptesis:

Para ello utilizamos la informacin muestral proporcionada por el estadstico


media muestral

Cualquier valor atribuido a 1 en H1 (siempre mayor a 0) generar


distribuciones muestrales distintas para la media muestral. Aunque
todas tendrn la misma forma, unas estarn ms alejadas que otras de
la curva de H0, es decir, unas sern distintas de otras nicamente en el
valor asignado a 1 .

Cuanto ms se aleje el valor 1 de 0 , ms hacia la derecha se desplazar la


curva H1 , y en consecuencia, ms pequea se har el rea . Por lo tanto, el
valor de depende del valor concreto de 1 que consideremos verdadero
dentro de todos los afirmados por H1 .

Cuanto mayor es , menor es . Se relacionan de forma inversa.


Para una distancia dada entre 0 y 1 , el solapamiento entre las curvas
correspondientes a uno y otro parmetro ser tanto mayor cuanto
mayor sea el error tpico de la distribucin muestral representada por
esas curvas (cuanto mayor es el error tpico de una distribucin, ms
ancha es esa distribucin). Y cuanto mayor sea el solapamiento, mayor
ser el valor de .

Relaciones_entre_los_errores_de_tipo_I_y_tipo_II

En lugar de buscar procedimientos libres de error, debemos buscar


procedimientos para los que no sea probable que ocurran ningn tipo de estos
errores. Esto es, un buen procedimiento es aquel para el que es pequea la
probabilidad de cometer cualquier tipo de error. La eleccin de un valor
particular de corte de la regin de rechazo fija las probabilidades de errores
tipo I y tipo II.

Debido a que H0 especifica un valor nico del parmetro, hay un solo valor
de . Sin embargo, hay un valor diferente de por cada valor del
parmetro recogido en H1 .

En general, un buen contraste o buena regla de decisin debe tender


a minimizar los dos tipos de error inherentes a toda decisin. Como
queda fijado por el investigador, trataremos de elegir una regin donde la
probabilidad de cometer el error de tipo II sea la menor .

Usualmente, se disean los contrastes de tal manera que la probabilidad a sea


el 5% (0,05), aunque a veces se usan el 10% (0,1) o 1% (0,01) para adoptar
condiciones ms relajadas o ms estrictas.

Potencia de un contraste. Es la probabilidad de decidir H1 cuando sta es


cierta

P[ decidir H1 / H1 es verdadera ] = 1 -

El concepto de potencia se utiliza para medir la bondad de un contraste de


hiptesis. Cuanto ms lejana se encuentra la hiptesis H1 de H0 menor es la
probabilidad de incurrir en un error tipo II y, por consiguiente, la potencia
tomar valores ms prximos a 1.

Si la potencia en un contraste es siempre muy prxima a 1 entonces se dice


que el estadstico de contraste es muy potente para contrastar H0 ya que en ese
caso las muestras sern, con alta probabilidad, incompatibles
con H0 cuando H1 sea cierta.

Por tanto puede interpretarse la potencia de un contraste como su sensibilidad


o capacidad para detectar una hiptesis alternativa. La potencia de un
contraste cuantifica la capacidad del criterio utilizado para rechazar H0 cuando
esta hiptesis sea falsa

Es deseable en un contraste de hiptesis que las probabilidades de ambos tipos


de error fueran tan pequeas como fuera posible. Sin embargo, con una
muestra de tamao prefijado, disminuir la probabilidad del error de tipo I, ,
conduce a incrementar la probabilidad del error de tipo II, . El recurso para
aumentar la potencia del contraste, esto es, disminuir la probabilidad de error
de tipo II, es aumentar el tamao muestral lo que en la prctica conlleva un
incremento de los costes del estudio que se quiere realizar

El concepto de potencia nos permite valorar cual entre dos contrastes con la
misma probabilidad de error de tipo I, , es preferible. Se trata de escoger
entre todos los contrastes posibles con prefijado aquel que tiene mayor
potencia, esto es, menor probabilidad de incurrir en el error de tipo II. En
este caso elLema de Neyman-Pearson garantiza la existencia de un contraste
de mxima potencia y determina cmo construirlo.

Potencia de un contraste de hiptesis


Contrastes de hiptesis paramtricos
El propsito de los contrastes de hiptesis es determinar si un valor propuesto
(hipottico) para un parmetro u otra caracterstica de la poblacin debe
aceptarse como plausible con base en la evidencia muestral.

Podemos considerar las siguientes etapas en la realizacin de un contraste:

1. El investigador formula una hiptesis sobre un parmetro poblacional,


por ejemplo que toma un determinado valor
2. Selecciona una muestra de la poblacin
3. Comprueba si los datos estn o no de acuerdo con la hiptesis
planteada, es decir, compara la observacin con la teora
a. Si lo observado es incompatible con lo terico entonces el
investigador puede rechazar la hiptesis planteada y proponer
una nueva teora
b. Si lo observado es compatible con lo terico entonces el
investigador puede continuar como si la hiptesis fuera cierta.

Los contrastes de hiptesis que construye SPSS son los proporcionados por
las Pruebas T, estas son de tres tipos: Prueba T para una muestra, Prueba T
para muestras independientes y Prueba T para muestras relacionadas

Contrastes de hiptesis para la media de una poblacin normal

El procedimiento Prueba T para una muestra mediante SPSS contrasta si la


media de una poblacin difiere de una constante especificada. Para obtener
una Prueba T para una muestra se elige, en el men
principal, Analizar/Comparar medias/Prueba T para una muestra...
En la salida correspondiente se selecciona una o ms variables cuantitativas
para contrastarlas con el mismo valor supuesto.

Por ejemplo, en la siguiente salida se muestra un contraste para el caso en que


la media de la variable longitud sea igual a 20 (Valor de prueba: 20)

Pulsando Opciones... se puede elegir el nivel de confianza.

Se pulsa Continuar y Aceptar. Se obtiene un resumen estadstico para la


muestra y la salida del procedimiento.
Esta salida muestra el tamao muestral, la media, la desviacin tpica y error
tpico de la media.

Esta salida muestra los resultados del contraste de la t de Student con un


intervalo de confianza para la diferencia entre el valor observado y el valor
terico (contrastado). Cada una de las columnas de la tabla muestra:

t = 8,878: El valor experimental del estadstico de contraste


gl = 14: Los grados de libertad
Sig.= 0,000: El p-valor o nivel crtico del contraste
Diferencia de medias = 9.31267: Es la diferencia entre la media terica
(20) y la media observada (29.3127)
95% Intervalo de confianza = (7.063, 11.5624): Es el intervalo de
confianza para la diferencia entre la media terica y la media
observada al nivel de confianza del 95%.

Contrastes de hiptesis para dos muestras independientes

De un modo general, dos muestras se dice que son independientes cuando las
observaciones de una de ellas no condicionan para nada a las observaciones de
la otra, siendo dependientes en caso contrario. En realidad, el tipo de
dependencia que se considera a estos efectos es muy especial: cada dato de
una muestra tiene un homnimo en la otra, con el que est relacionada, de ah
el nombre alternativo de muestras apareadas. Por ejemplo, supongamos que
se quiere estudiar el efecto de un medicamento, sobre la hipertensin, a un
grupo de 20 individuos. El experimento se podra planificar de dos formas:

a. Aplicando el medicamento a 10 de estos individuos y dejando sin


tratamiento al resto. Transcurrido un tiempo se miden las presiones
sanguneas de ambos grupos y se contrasta la hiptesis H0: 1 = 2 vs
H1: 1 <>2 para evaluar si las medias son iguales o no. Como las
muestras estn formadas por individuos distintos sin relacin entre s,
se dir que son muestras independientes.
b. Aplicando el medicamento a los 20 individuos disponibles y anotando
su presin sangunea antes y despus de la administracin del mismo.
En este caso los datos vienen dados por parejas, presin antes y
despus y tales datos estn relacionados entre s. Las muestras son
apareadas.

El paquete estadstico SPSS realiza el procedimiento Prueba T para muestras


independientes; en este procedimiento se compara la media de dos
poblaciones normales e independientes. Para realizar dicho contraste los
sujetos deben asignarse aleatoriamente a las dos poblaciones, de forma que
cualquier diferencia en la respuesta sea debida al tratamiento (o falta de
tratamiento) y no a otros factores.

El procedimiento Prueba T para muestras independientes mediante SPSS


contrasta si la diferencia de las medias de dos poblaciones normales e
independientes difiere de una constante especificada. Para obtener una Prueba
T para muestras independiente se selecciona, en el men
principal,Analizar/Comparar medias/Prueba T para muestras
independientes...

Se accede a la siguiente ventana


donde se puede seleccionar una o ms variables cuantitativas y se calcula
una Prueba T diferente para cada variable. Por ejemplo, en esta salida se
selecciona la variable asimetra.

A continuacin se selecciona una sola variable de agrupacin, en nuestro caso,


la variable Parte y se pulsa Definir Grupos para especificar los cdigos de
los grupos que se quieran comparar. Vamos a contrastar la igualdad de medias
de la variable asimetra segn la variable Parte (Canopy, Sprouts)

Pulsando Definir Grupos... se muestra la siguiente pantalla


donde se especifican el nmero de grupos que se quieren comparar.

Se pulsa Continuar y despus Aceptar y se obtienen las siguientes pantallas


que muestran un resumen estadstico para las dos muestras y la salida del
procedimiento.

Para realizar un contraste de diferencia de medias de dos poblaciones


independientes hay que contrastar previamente las varianzas de dichas
poblaciones. Esta salida nos muestra el valor experimental del estadstico de
contraste (Fexp = 2.045), este valor deja a la derecha un rea igual a 0.176
(Sig.= 0.176), por lo tanto no se puede rechazar la hiptesis nula de igualdad
de varianzas.
A continuacin se realiza el contraste para la diferencia de medias suponiendo
que las varianzas son iguales. La tabla nos muestra el valor experimental del
estadstico de contraste (texp = 1.233) y el p-valor = 0.240 (Sig.= 0.240), por lo
tanto no se puede rechazar la hiptesis nula de igualdad de medias. Tambin,
se puede concluir el contraste observando que el intervalo de confianza para la
diferencia de medias (-0.05256, 0.192264) contiene al cero.

Contrastes de hiptesis para muestras apareadas

El paquete estadstico SPSS realiza el procedimiento Prueba T para muestras


apareadas; en este procedimiento se comparan las medias de dos variables de
un solo grupo. Calcula las diferencias entre los valores de cada caso y
contrasta si la media difiere de cero.

Para obtener una Prueba T para muestras relacionadas se elige en los


mens Analizar/Comparar medias/Prueba T para muestras
relacionadas...

Se accede a la siguiente ventana


donde se selecciona un par de variables pulsando en cada una de ellas. La
primera variable aparecer en la seccin Selecciones actuales como Variable
1 y la segunda aparecer como Variable 2. Una vez seleccionado el par de
variables, en nuestro caso Asim95 y Asim97, se pulsa el botn de flecha para
moverlas a la ventana de Variables relacionadas. Se puede realizar el
contraste para ms de una pareja de variables simultneamente.

Al pulsar Continuar y despus Aceptar se obtiene un resumen estadstico


para las dos muestras y la salida del procedimiento.
Para cada variable se presenta la media, tamao de la muestra, desviacin
tpica y error tpico de la media.

Esta salida muestra para cada pareja de variables: el nmero de datos, el


coeficiente de correlacin y el p-valor asociado al contraste H0: r = 0 frente a
H1: r <> 0. El coeficiente de correlacin es igual a -0.681, por lo tanto las
variables estn relacionadas en sentido inverso, cuando una crece la otra
decrece. Observando el p-valor (0.206) deducimos que no se puede rechazar
la hiptesis nula (H0: r = 0) por lo tanto no existe correlacin entre las
variables. (La correlacin no es significativa).

Esta salida muestra el valor experimental del estadstico de contraste (t =


3.908) y el p-valor igual a 0.017, por lo tanto se debe rechazar la hiptesis
nula de igualdad de medias.

Contrastes de hiptesis para dos proporciones independientes. Muestras grandes

El contraste de hiptesis para la comparacin de dos proporciones


independientes se basa en la distribucin aproximada de un estadstico
muestral que requiere muestras grandes. El paquete estadstico SPSS no
incluye el clculo de dicho estadstico pero permite el clculo de otros cuatro
estadsticos para muestras grandes y el estadstico exacto de Fisher para
muestras pequeas.

El contraste de comparacin de dos proporciones es un caso particular del


contraste de homogeneidad de dos muestras de una variable cualitativa cuando
sta slo presenta dos modalidades. Por ello, el procedimiento que vamos a
realizar es el anlisis de una tabla de contingencia 2x2.

Para obtener el procedimiento Tablas de contingencia se elige en los


mens Analizar/Estadsticos descriptivos/Tablas de contingencia...
En la ventana emergente se seleccionan las variables dicotmicas que se van a
contrastar. Por ejemplo, en la siguiente salida se muestra el procedimiento de
Tablas de contingencia en el que se comparan las variables Sexo y Fumador,
para ello se han seleccionado la variable Sexo y mediante el botn de flecha se
ha pasado al campo Filas: y la variable Fumador que se ha pasado al
campo Columnas: (Se desea comparar la proporcin de fumadores en los
grupos (hombres y mujeres)).
Se pulsa el botn Casillas... y se selecciona en Frecuencias (Observadas) y
en Porcentajes (Fila)

Se pulsa Continuar y en la pantalla correspondiente se pulsa el


botn Estadsticos... y se selecciona Chi-cuadrado

Se pulsa Continuar y Aceptar. Se muestran la Tabla de contingencia y los


contrastes Chi-cuadrado
Cada casilla de esta tabla muestra la frecuencia observada y el porcentaje que
sta representa sobre el total de la fila la tabla de contingencia Sexo *
Fumador. Las proporciones muestrales que vamos a comparar son 10/26 y
14/24 . Para ello se realiza un contraste bilateral para evaluar si existen
diferencias significativas entre ambas proporciones muestrales (H0: p1 - p2=0
frente a H1: p1 - p2 <>0)

Esta tabla muestra los resultados de cinco estadsticos para la comparacin de


ambas proporciones. Generalmente, en el caso de muestras grandes se elige el
estadstico Correccin por continuidad. Dicho estadstico calcula el
estadstico Chi-cuadrado con la correccin por continuidad de Yates. En
nuestro caso, el valor de dicho estadstico es 1.259 y el p-valor asociado es
0.262 (Sig. asinttica bilateral) por lo tanto no se debe rechazar la Hiptesis
nula, es decir las diferencias observadas entre las proporciones de fumadores
en los dos grupos no son estadsticamente significativas.

En el caso de muestras pequeas, se decide a partir del Estadstico exacto de


Fisher.
Contrastes de hiptesis no paramtricos
En la sesin anterior hemos estudiado contrastes de hiptesis acerca de
parmetros poblacionales, tales como la media y la varianza, de ah el nombre
de contrastes paramtricos. En estadstica paramtrica se trabaja bajo el
supuesto de que las poblaciones poseen distribuciones conocidas, donde cada
funcin de distribucin terica depende de uno o ms parmetros
poblacionales. Sin embargo, en muchas situaciones, es imposible especificar
la forma de la distribucin poblacional. El proceso de obtener conclusiones
directamente de las observaciones muestrales, sin formar los supuestos con
respecto a la forma matemtica de la distribucin poblacional se llama teora
no paramtrica. En esta sesin vamos a realizar procedimientos que no
exigen ningn supuesto, o muy pocos acerca de la familia de distribuciones a
la que pertenece la poblacin, y cuyas observaciones pueden ser cualitativas o
bien se refieren a alguna caracterstica ordenable. Estos procedimientos
reciben el nombre de Contrastes de hiptesis no paramtricos.

As, uno de los objetivos de esta sesin es el estudio de contrates de hiptesis


para determinar si una poblacin tiene una distribucin terica especfica. La
tcnica que nos introduce a estudiar esas cuestiones se llama Contraste de la
Chi-cuadrado para la Bondad de Ajuste. Una variacin de este contraste se
emplea para resolver los Contrastes de Independencia. Tales contrastes
pueden utilizarse para determinar si dos caractersticas (por ejemplo
preferencia poltica e ingresos) estn relacionadas o son independientes. Y,
por ltimo estudiaremos otra variacin del contraste de la bondad de ajuste
llamado Contraste de Homogeneidad. Tal contraste se utiliza para estudiar si
diferentes poblaciones, son similares (u homogneas) con respecto a alguna
caracterstica. Por ejemplo, queremos saber si las proporciones de votantes
que favorecen al candidato A, al candidato B o los que se abstuvieron son las
mismas en dos ciudades.

El procedimiento Prueba de la Chi-cuadrado

Hemos agrupado los procedimientos en los que el denominador comn a


todos ellos es que su tratamiento estadstico se aborda mediante la
distribucin Chi-cuadrado. El procedimiento Prueba de Chi-cuadrado tabula
una variable en categoras y calcula un estadstico de Chi-cuadrado. Esta
prueba compara las frecuencias observadas y esperadas en cada categora para
contrastar si todas las categoras contienen la misma proporcin de valores o
si cada categora contiene una proporcin de valores especificada por el
usuario.
Para obtener una prueba de Chi-cuadrado se eligen en los
mens Analizar/Pruebas no paramtricas/Cuadros de diologo
antiguos/Chi-cuadrado...

En la salida correspondiente se selecciona una o ms variables de contraste.


Cada variable genera una prueba independiente.
Por ejemplo, en la siguiente salida se muestra una Prueba de Chi-cuadrado en
la que la variable a contrastar es Da de la semana (Se desea saber si el
nmero de altas diarias de un hospital difiere dependiendo del da de la
semana)

Se pulsa Opciones... para obtener estadsticos descriptivos, cuartiles y


controlar el tratamiento de los datos perdidos

Al pulsar Continuar y Aceptar se muestran las siguientes salidas


En esta salida se muestra:

N observado: Muestra la frecuencia observada para cada fila (da). Se


observa, en esta tabla, que el nmero de altas diarias de un total de 589 altas
por semana es: 44 el domingo, 78 el lunes etc.

N esperado: Muestra el valor esperado para cada fila (suma de las frecuencias
observadas dividida por el nmero de filas). En este ejemplo hay 589 altas
observadas por semana, resultando alrededor de 84 altas por da.

Residual: Muestra el residuo (frecuencia observada menos el valor esperado).


La tabla muestra que el domingo hay muchas menos altas de pacientes que el
viernes. De lo que parece deducirse que todos los das de la semana no tienen
la misma proporcin de altas de pacientes.

Por ltimo la siguiente salida muestra el resultado del contraste Chi-cuadrado

El valor experimental del estadstico de contraste de Chi-cuadrado es igual a


29.389 y el p-valor asociado es menor que 0.001 (Sig = 0.000), por lo tanto se
rechaza la hiptesis nula. En consecuencia, el nmero de altas en los pacientes
difiere dependiendo del da de la semana.
Contrastes de Independencia: Procedimiento Tablas de contingencia

El procedimiento Tablas de contingencia proporciona una serie de pruebas y


medidas de asociacin para tablas de doble clasificacin.

Para obtener tablas de contingencia se selecciona, en el men


principal, Analizar/Estadsticos descriptivos/Tablas de contingencia...

En el cuadro de dilogo resultante se especifican las variables que forman la


tabla. Una de las variables se introduce en Filas: y la otra variable se
introduce enColumnas:
En este cuadro de dilogo se pulsa el botn Estadsticos... y se accede a otra
ventana donde se especifican los valores numricos que se desea obtener. Se
selecciona Chi-cuadrado

Se pulsa Continuar y se selecciona Casillas... para obtener frecuencias


observadas y esperadas, porcentajes y residuos
Se pulsa Continuar y se selecciona Formato para especificar el orden de las
categoras (ascendente o descendente)

Se pulsa Continuar y Aceptar. Se muestran las siguientes salidas

donde:

263: Nmero de datos vlidos con los que se trabaja, es el 100% de los
datos
0: nmero de datos no vlidos

La siguiente salida nos muestra la Tabla de Contingencia de las variables


seleccionadas
Por ltimo muestra el resultado del contraste de hiptesis.

El p-valor (Sig = 0.256) indica que no debe rechazarse la hiptesis de


independencia.

Otros contrastes no paramtricos


El procedimiento Prueba binomial

El procedimiento Prueba binomial compara las frecuencias observadas de las


dos categoras de una variable dicotmica con las frecuencias esperadas en
una distribucin binomial con un parmetro de probabilidad especificado. Por
defecto, el parmetro de probabilidad para ambos grupos es 0.5. Se puede
cambiar el parmetro de probabilidad en el primer grupo. Siendo la
probabilidad en el segundo grupo igual a uno menos la probabilidad del
primer grupo.
Si las variables no son dicotmicas se debe especificar un punto de corte.
Mediante el punto de corte se divide la variable en dos grupos, el formado por
los casos mayores o iguales que el punto de corte y el formado por los casos
menores que el punto de corte.

Para obtener una Prueba binomial se selecciona, en el men


principal, Analizar/Pruebas no paramtricas/Binomial...
En la salida correspondiente se selecciona una o ms variables de contraste
numricas.
Se deja la opcin por defecto Contrastar proporcin: 0.50. (Queremos ver si
el porcentaje de mujeres en un determinado estudio es del 50%, es decir,
queremos contrastar H0: p = 0.5 frente a H1: p <> 0.5). En esta ventana se
pulsa el botn Opciones... y se accede a otra ventana para obtener estadsticos
descriptivos, cuartiles y controlar el tratamiento de los datos perdidos.

Se pulsa Aceptar y se muestra la siguiente salida

SPSS realiza un contraste bilateral. De un total de 474 personas se observa


que el 54 % son hombres y el 46% son mujeres. El p-valor del contraste (Sig.
asintt. bilateral) es 0.06, nos indica que no debe rechazarse la hiptesis nula.

Este procedimiento permite dicotomizar una variable continua. Por ejemplo,


queremos saber si el 30% de las personas de un estudio son menores de 25
aos. Para resolverlo, en el campo Definir la dicotoma pondramos en
el Punto de corte: el valor de 25 y en el campo Contrastar proporcin:
pondramos 0.30.

Contraste de aleatoriedad. Test de Rachas

El procedimiento Prueba de Rachas contrasta si es aleatorio el orden de


aparicin de los valores de una variable. Se puede utilizar para determinar si la
muestra fue extrada de manera aleatoria.
Una racha es una secuencia de observaciones similares, una sucesin de
smbolos idnticos consecutivos. Ejemplo: + + - - - + - - + + + + - - - (6
rachas). Una muestra con un nmero excesivamente grande o excesivamente
pequeo de rachas sugiere que la muestra no es aleatoria.

Para obtener una Prueba de Rachas se selecciona, en el men


principal, Analizar/Pruebas no paramtricas/Cuadros de diologo
antiguos/Rachas...
En la salida correspondiente se selecciona una o ms variables de contraste
numricas.

En el campo Punto de corte se especifica un punto de corte para dicotomizar


las variables seleccionadas. Se puede utilizar como punto de corte los valores
observados para la media, la mediana o la moda, o bien un valor especificado.
Los casos con valores menores que el punto de corte se asignarn a un grupo y
los casos con valores mayores o iguales que el punto de corte se asignarn a
otro grupo. Se lleva a cabo una prueba para cada punto de corte seleccionado.
En esta ventana se pulsa el botn Opciones... y se accede a otra ventana para
obtener estadsticos descriptivos, cuartiles y controlar el tratamiento de los
datos perdidos.

Se pulsa Aceptar y se obtiene la salida del procedimiento

En esta salida se muestran los siguientes valores:


Valor de la prueba = 1.58: Es el punto de corte para dicotomizar la
variable seleccionada. En esta tabla el punto de corte es la media
muestral
Casos < Valor de prueba = 21: De los 50 casos contrastados, 21 de
ellos tienen valores menores que la media. Los consideramos los casos
negativos
Casos > Valor de prueba = 29: De los 50 casos contrastados, 29 de
ellos tienen valores mayores que la media. Los consideramos los casos
positivos
Nmero de rachas = 35: Una racha se define como una secuencias de
casos al mismo lado del punto de corte (sucesin de smbolos
idnticos consecutivos)
Z = 2.829: Valor experimental del estadstico de contraste
Sig. Asintt (bilateral) = 0.005: El p-valor o nivel crtico del contraste,
que nos indica el rechazo de la hiptesis de aleatoriedad

Contraste sobre bondad de ajuste: Procedimiento Prueba de


Kolmogorov-Smirnov

El procedimiento Prueba de Kolmogorov-Smirnov para una muestra compara


la funcin de distribucin acumulada observada de una variable con una
distribucin terica determinada, que puede ser la distribucin Normal, la
Uniforme, la de Poisson o la Exponencial. La Z de Kolmogorov-Smirnov se
calcula a partir de la diferencia mayor (en valor absoluto) entre las funciones
de distribucin acumulada terica y observada. Esta prueba de bondad de
ajuste contrasta si las observaciones podran razonablemente proceder de la
distribucin especificada.

Para obtener una Prueba de Kolmogorov-Smirnov se selecciona, en el men


principal, Analizar/Pruebas no paramtricas/Cuadros de dilogo
antiguos/K-S de 1 muestra...
Se muestra la siguiente ventana
En esta salida se puede elegir una o ms variables de contraste numricas,
cada variable genera una prueba independiente. Elegiremos la
variable Crecimiento, una vez seleccionada la variable se pasa al
campo Contrastar variable: mediante el botn de flecha o pulsando dos
veces en la variable

Se selecciona la distribucin a la que queremos ajustar los datos en el


campo Distribucin de contraste. En esta ventana se pulsa el
botn Opciones... y se accede a otra ventana para obtener estadsticos
descriptivos, cuartiles y controlar el tratamiento de los datos perdidos

Se pulsa Aceptar y se obtiene la salida del procedimiento


En esta salida se muestran los siguientes valores:

104: Nmero de observaciones del fichero de datos


3.63: Nmero medio de plantas
1.435: Desviacin tpica del nmero de plantas
0.183: Diferencia mayor encontrada entre el valor terico de la
distribucin normal y el valor observado
0.123: Diferencia positiva mayor encontrada entre la distribucin
terica y la distribucin emprica
-0.183: Diferencia negativa mayor encontrada entre la distribucin
terica y la distribucin emprica
1.871: Valor experimental del estadstico de contraste
0.002: p-valor asociado al contraste

El p-valor (Sig. Asintt (bilateral) = 0.002) indica que debe rechazarse la


hiptesis H0 de normalidad, de forma que no se admite que la distribucin de
los datos sea de tipo Normal.

Pruebas para dos muestras independientes

El procedimiento Pruebas para dos muestras independientes compara dos


grupos de casos existentes en una variable y comprueba si provienen de la
misma poblacin (homogeneidad). Estos contrastes, son la alternativa no
paramtrica de los tests basados en el t de Student, sirven para comparar dos
poblaciones independientes. SPSS dispone de cuatro pruebas para realizar este
contraste.

La prueba U de Mann-Whitney es la ms conocida de la pruebas para dos


muestras independientes. Es equivalente a la prueba de la suma de rangos de
Wilcoxon y a la prueba de Kruskal-Wallis para dos grupos. Requiere que las
dos muestras probadas sean similares en la forma y contrasta si dos
poblaciones muestreadas son equivalentes en su posicin.

La prueba Z de Kolmogorov-Smirnov y la prueba de rachas de Wald-


Wolfowitz son pruebas ms generales que detectan las diferencias entre las
posiciones y las formas de las distribuciones. La prueba de Kolmogorov-
Smirnov se basa en la diferencia mxima absoluta entre las funciones de
distribucin acumulada observadas para ambas muestras. Cuando esta
diferencia es significativamente grande, se consideran diferentes las dos
distribuciones. La prueba de rachas de Wald-Wolfowitz combina y ordena
las observaciones de ambos grupos. Si las dos muestras proceden de una
misma poblacin, los dos grupos deben dispersarse aleatoriamente en la
ordenacin de los rangos.

La prueba de reacciones extremas de Moses presupone que la variable


experimental afectar a algunos sujetos en una direccin y a otros en direccin
opuesta. La prueba contrasta las respuestas extremas comparndolas con un
grupo control.

Para obtener Pruebas para dos muestras independientes se selecciona, en el


men principal, Analizar/Pruebas no paramtricas/Cuadros de dilogo
antiguos/2 muestras independientes...
Se muestra la siguiente ventana
En esta salida se puede elegir una o ms variables de contraste numricas. Se
elige la variable Tiempo, una vez seleccionada la variable se pasa al
campoContrastar variable: mediante el botn de flecha o pulsando dos veces
en la variable. Se selecciona una variable de agrupacin, en nuestro caso la
variable esGrupo (Se desea saber si las persona fumadoras tardan ms tiempo
en dormirse que las no fumadoras)

Se pulsa Definir grupos..., para dividir el archivo en dos grupos o muestras, y


emerge la siguiente ventana
Para segmentar el archivo en dos grupos o muestras se introduce un valor
entero para el Grupo 1 y un valor entero para el Grupo 2. As, en los
campos Grupo 1 y Grupo 2 se ponen los valores con los que estn
codificados Fumador (con 1) y NoFumador (con 2), respectivamente. Como
indica la siguiente salida

Se pulsa Continuar y como est marcado por defecto el test U de Mann-


Whitney se pulsa Aceptar y se obtiene las siguientes salidas

Las observaciones de ambos grupos se combinan para formar una sola


muestra, se ordenan linealmente y se les asigna un rango, asignndose el
rango promedio en caso de producirse empate, conservando su identidad
como grupo. El estadstico W de Wilcoxon (Wm) es la suma de los rangos
asociados con las observaciones que originariamente constituyen la muestra
menor (Fumadores). Se realiza est eleccin ya que se piensa que si la
poblacin de Fumadores est situada por debajo de la poblacin de
NoFumadores, entonces los rangos menores tendern a asociarse con los
valores de los Fumadores. Ello producir un valor pequeo para el
estadstico Wm. Si es cierto lo contrario (la poblacin de Fumadores est
situada por encima de la poblacin de NoFumadores) entonces los rangos
mayores se encontrarn entre los Fumadores, dando lugar a un valor grande
del estadstico Wm. De esta forma, se rechaza H0 si el valor
observadoWm fuera demasiado pequeo o demasiado grande para que se
debiera al azar.
Si las diferencias entre los grupos se deben al azar, el rango promedio de los
dos grupos debera ser aproximadamente igual. En la salida anterior se
observa que hay una diferencia de alrededor de siete minutos (Rango
promedio de Fumadores es 17.67 el de los NoFumadores es 11.07). Siendo
mayor el tiempo que tarda en dormirse los Fumadores.

En la siguiente salida se muestran los valores experimentales de los


estadsticos de contrastes y el p-valor asociado

SPSS calcula dos estadsticos: U de Mann-Whitney y W de Wilcoxon, como


ambos estadsticos son equivalentes SPSS muestra un nico valor de p-valor
(Sig). Adems, en el clculo de dicho p-valor aplica una aproximacin a la
distribucin normal, la cual slo es vlida para muestras grandes.

El estadstico U de Mann-Whitney, como el de W de Wilcoxon, dependen de


las observaciones de los dos grupos linealmente ordenadas. El estadstico U es
el nmero de veces que un valor de los Fumadores precede al de los
NoFumadores. El Estadstico U ser grande si la poblacin de los Fumadores
est situada por encima de la poblacin de los NoFumadores y ser pequeo si
sucede lo contario.

El estadstico de contraste Wm es la suma de los rangos asociados a los


Fumadores. Como sospechamos que los Fumadores tardan ms tiempo en
quedarse dormidos que los NoFumadores, se rechaza la Hiptesis nula de que
no existen diferencias entre los dos grupos si el valor de Wm es demasiado
pequeo para que se deba al azar.

El p-valor asociado al contraste, 0.032, nos conduce a rechazar la hiptesis


nula de que no existe diferencias entre los dos grupos y concluimos que los
Fumadores tienden a tardar ms tiempo en quedarse dormidos que los
NoFumadores.

Procedimiento Pruebas para dos muestras relacionadas


Estas pruebas comparan las distribuciones de dos poblaciones relacionadas. Se
supone que la distribucin de poblacin de las diferencias emparejadas es
simtrica.

SPSS dispone de cuatro pruebas para realizar este contraste, la prueba de


signos, la prueba de Wilcoxon de los rangos con signo, la prueba de
McNemar y la prueba de homogeneidad marginal. La prueba apropiada
depende del tipo de datos:

Datos continuos, se utiliza la prueba de signos o la prueba de


Wilcoxon de los rangos con signo. La prueba de los signos calcula las
diferencias entre las dos variable y clasifica las diferencias como
positivas, negativas o empatadas. Si las dos variables tienen una
distribucin similar, el nmero de diferencias positivas y negativas no
difiere de forma significativa. La prueba de Wilcoxon de los rangos
con signo tiene en cuenta la informacin del signo de las diferencias y
de la magnitud de las diferencias entre los pares. Dado que esta
prueba incorpora ms informacin acerca de los datos, es ms potente
que la prueba de los signos.

Datos binarios, se utiliza la prueba de McNemar, dicha prueba se usa


normalmente cuando las medidas estn repetidas, es decir la
respuesta de cada sujeto se obtiene dos veces, una antes y otra
despus de que ocurra un evento especificado. Esta prueba determina
si la tasa de respuesta inicial (antes del evento) es igual a la tasa de
respuesta final (despus del evento). Es til para detectar cambios en
la respuesta en los diseos del tipo antes-despus.

Datos categricos, se utiliza la prueba de homogeneidad marginal. Es


una extensin de la prueba de McNemar a partir de la respuesta
binaria a la respuesta multinomial. Contrasta los cambios de
respuesta, utilizando la distribucin de Chi-cuadrado y es til para
detectar cambios de respuesta en diseos antes-despus.

Para obtener pruebas para dos muestras relacionadas se selecciona, en el men


principal, Analizar/Pruebas no paramtricas/ Cuadros de dilogo
antiguos/2 muestras relacionadas...
Se muestra la siguiente ventana
En esta salida se puede elegir una o ms variables de contraste numricas.
Para ello, se pulsa en cada una de las variables. La primera de ellas aparecer
en la seccin Selecciones actuales como Variable1, se pulsa en la
variable Crudo; la segunda variable aparecer como Variable2, se pulsa en la
variable Cocido. A continuacin se pulsa en el botn de flecha para incluir las
variables en la campo Contrastar pares: Se pulsa Aceptar y se muestra la
siguiente salida

En el text de Wilcoxon, los rangos estn basados en el valor absoluto de la


diferencia entre las dos variables contrastadas. El signo de la diferencia es
usado para clasificar los casos en uno o tres grupos: diferencia menor que 0
(rangos negativos), mayor que cero (rangos positivos) o igual a cero
(empates). Los casos de empates son ignorados
El p-valor asignado al contraste 0.021 (Sig asinttica bilateral) nos indica que
se debe rechazar la hiptesis nula de que no existen diferencias entre los dos
grupos.

Вам также может понравиться