Вы находитесь на странице: 1из 89

.

~ ,

¡ •.
t ;; !¡¡~
...
\\
Estadística no paramétrica
Métodos basados en rangos
Jirnrny A. Corzo S.

Estadística no paramétrica
Métodos basados en rangos

Universidad Nacional de Colombia


FACULTAD DE CIENCIAS

DEPARTAMENTO DE ESTADíSTICA

BOGOTÁ
© Universidad Nacional de Colombia
Facultad de Ciencias
Departamento de Estadística

© Jimmy Antonio Corzo Salamanca


Profesor asociado, Departamento
de Estadística, Universidad Nacional
de Colombia

Primera edición, 2005


Bogotá, Colombia

Decano: Moisés Wasserman Lemer


Vicedecana Académica: Carolina Spinel
Director de publicaciones: Jorge Brieva

Revisión técnica: Emilse Gómez,


Jorge Eduardo Ortiz Pinilla
Corrección de estilo: Rodrigo Pertuz
Edición y diagramación: Jorge Eduardo Ortiz Pinilla
Preparación de la versión preliminar: Liliana Zambrano

Preparación editorial e impresión


Universidad Nacional de Colombia, Unibiblos
dirunibiblo_bog@unal.edu.co

1S B N 958-701-546-0

Catalogación en la publicación Universidad Nacional de Colombia

Corzo Salamanca, Jimmy Antonio, 1955-


Estadística no paramétrica: métodos basados en rangos / Jimmy A. Corzo S.-
Bogotá: Universidad Nacional de Colombia. Facultad de Ciencias, 2005

88 p.

ISBN: 958-701-546-0

1. Estadística no paramétrica 2. Muestreo (Estadística) 1. Universidad Nacional de


Colombia (Bogotá). Facultad de Ciencias. Departamento de Estadística

CDD-21 519.53 /2005


Contenido

1. Introducción 7
1.1. Un poco de historia . . . . . . . . . . . . . . . 10
1.2. Problemas típicos en estadística no paramétrica 11
1.2.1. Una muestra . 11
1.2.2. Dos muestras .. 11
1.2.3. Independencia 12
1.2.4. Modelos lineales 12
1.3. Escalas de medida . . . 16
1.3.1. Nominal . . . . . 16
1.3.2. Ordinal o de rango 16
1.3.3. Intervalo. 17
1.3.4. Razón . . . . . . . 18

2. Problemas de una muestra 19


2.1. Introducción. . . . . . . . . . . . . . . . 19
2.2. Dos pruebas para bondad de ajuste . . . 19
2.2.1. Prueba de Kolmogorov-Smirnov 19
2.2.2. Distribución asintótica de Dn Y D;; 22
2.2.3. Prueba X2 para bondad de ajuste. . 22
2.3. Pruebas para la hipótesis de aleatoriedad 24
2.3.1. Una prueba de rangos para tendencia 25
2.3.2. Una prueba de rachas para aleatoriedad 26
2.3.3. Distribución exacta del número total de rachas R . 28
2.3.4. Distribución asintótica de R. . . . . . . . . . . 28
2.4. Pruebas de localización para distribuciones continuas 29
2.4.1. La prueba del signo . . . . . . . . . . . . . . . 31
2.4.2. Distribución asintótica de S
y aproximación de la región crítica 33
2.4.3. Potencia de una prueba . . . . . . 34
2.4.4. Potencia de la prueba del signo . . 35
2.5. Pruebas de localización para distribuciones simétricas 35
CONTENIDO

2.5.1. Rangos . . . . . . . . . . . . . . . . . . . 36
2.5.2. La prueba del rango signado de Wilcoxon 37
2.5.3. Distribución asintótica de T
y aproximación de la región crítica 40
2.6. Estimación (método de Hodges-Lehmann) 44
2.6.1. Introducción . . . . . . . . . . . 44
2.6.2. Estimaciones basadas en la
estadística de la prueba del signo 46
2.6.3. Estimadores de Hodges-Lehmann (H-L) 48
2.6.4. Estimación de H-L basada en la
estadística del rango signado de Wilcoxon 50

3. Problemas de dos muestras 53


3.1. Introducción . . . . . . . . 53
3.2. Pruebas para la alternativa general . . . . . . . . . . . . .. 54
3.2.1. La prueba de rachas de Wald-Wolfowitz . . . . . .. 54
3.2.2. Prueba de Kolmogorov-Smirnov para dos muestras. 55
3.3. Una prueba de localización . . . . . . . . . . . 56
3.3.1. Rangos en el problema de dos muestras 58
3.3.2. La estadística de rangos de
Mann-Whitney-Wilcoxon . . . . . 59
3.3.3. Distribución exacta de U . . . . . 60
3.3.4. Distribución asintótica de U y W
y aproximación de la región crítica . . . . . . 61
3.4. Estimaciones basadas en la estadística de Wilcoxon . 62
3.5. Una prueba para la alternativa de escala. 64
3.5.1. Prueba de Mood . . . . . . . . . . . . . . . . 66
3.5.2. Distribución exacta y momentos de MN 66
3.5.3. Distribución asintótica de MN 66

4. Problemas de K muestras: una y dos vías 68


4.1. Introducción . . . . . . . . . . . . . . . . . 68
4.2. Arreglos de una vía y prueba de Kruskal-Wallis . 68
4.2.1. La prueba de Kruskal-Wallis . . . . . 69
4.2.2. Una prueba para detectar las fuentes
de significancia en arreglos de una vía 72
4.2.3. Una prueba para la alternativa ordenada
en arreglos de una vía . . . . . . . . 73
4.3. Arreglos de dos vías y prueba de Friedman 74
4.3.1. La prueba de Friedman . . . . . . . 75
4.3.2. Una prueba para detectar las fuentes
de significancia en arreglos de dos vías . . . . . . . . 76
CONTENIDO

4.3.3. Una prueba para la alternativa


ordenada en arreglos de dos vías 77

5. Asociación y correlación 78
5.1. Coeficiente de correlación por rangos de Spearman 78
5.1.1. Prueba basada en el coeficiente
de correlación de Spearman . . . . . . . . . 80
5.1.2. Distribución exacta de la estadística de prueba 80
5.1.3. Distribución asintótica de rs. . . 81
5.2. Coeficiente de correlación T de Kendall . 82

Bibliografía 84
Capítulo 1

Introd ucción

En términos generales, un procedimiento de inferencia estadística tiene


que ver con la extracción de una muestra aleatoria X de una población
con distribución F, que llamaremos distribución muestreada y suponemos
que depende de uno o varios parámetros desconocidos, acerca de los cuales
queremos:

• Verificar (o rechazar) hipótesis sobre su valor (desconocido). Problema


de prueba de hipótesis.

• Estimar puntualmente o por intervalo su valor (desconocido). Proble-


ma de estimación.

Los métodos utilizados para resolver cualquiera de estos problemas depen-


den estrechamente de los supuestos que se hagan acerca de F, la distribución
de X. En el problema de prueba de hipótesis en los métodos paramétricos
se necesitan supuestos sobre la forma funcional de F para obtener regiones
críticas o de rechazo de la hipótesis nula, que sean óptimas en algún senti-
do (por ejemplo, las pruebas uniformemente más potentes obtenidas para
distribuciones de la familia exponencial). En el problema de estimación,
cuando se conoce la forma funcional de F, pueden obtenerse estimadores
máximo verosímiles. En ambos casos, la obtención de los "resultados ópti-
mos" requiere el conocimiento de la forma de la distribución muestreada.
A los procedimientos que requieren muy pocos o muy débiles supuestos
acerca de las distribuciones muestreadas, como continuidad o simetría de F,
suele llamárseles métodos no paramétricos. Una distinción adicional puede
hacerse para aquellos métodos que, con o sin el supuesto sobre la forma
funcional de la distribución muestreada, para la estimación de parámetros
o para las pruebas de hipótesis, utilizan estadísticas cuyas distribuciones no
dependen de la distribución muestreada. Estos métodos se conocen como

7
8 CAPÍTULO 1. INTRODUCCIÓN

métodos de distribución libre. Como para muchos de los métodos de dis-


tribución libre se requieren muy pocos o muy débiles supuestos acerca de la
distribución muestreada, estos se encuentran frecuentemente en la literatu-
ra como parte de los procedimientos no paramétricos. Debido a que entre
los especialistas no hay acuerdo total con respecto a esta clasificación, en
estas notas se hará referencia a los métodos no paramétricos en general, sin
hacer esta última distinción.
Los métodos no paramétricos son de especial utilidad y tienen ventajas
sobre los métodos paramétricos clásicos cuando:

los datos disponibles se encuentran en escala ordinal o nominal. En


muchos de estos casos no existen pruebas paramétricas.

la distribución muestreada no es exactamente la requerida por un


método paramétrico óptimo para el mismo problema.

los datos tienen problemas con observaciones extremas, porque su


efecto sobre los rangos es menor, es decir, los métodos no paramétricos
son más robustos, en este sentido, que los métodos paramétricos.

los tamaños de las muestras son pequeños; si no se dispone de las


tablas de la distribución de la estadística de prueba, la construcción
de las regiones críticas es relativamente simple.

se tienen muestras grandes, ya que la mayoría de las distribuciones


asintóticas de las estadísticas utilizadas son normales.

Sin embargo, los métodos no paramétricos presentan desventajas cuando:

se satisfacen todos los supuestos requeridos para utilizar métodos


paramétricos óptimos.

se quiere un nivel de significancia dado (digamos del 0,05); en mu-


chos casos no es posible obtenerlo exactamente en la inferencia no
paramétrica, debido a que la mayoría de las estadísticas utilizadas
son discretas.

es necesario calcular la potencia de las pruebas; en general esto es


mucho más complicado para los procedimientos no paramétricos.

las observaciones son multivariadas, porque existen muy pocas posi-


bilidades de utilización de los métodos no paramétricos.

El contenido del curso es lo que, a mi juicio, constituye los resultados teóri-


cos más importantes de los métodos de inferencia estadística basados en
9

rangos para problemas de una, dos y K muestras, y el problema de aso-


ciación y correlación en muestras bivariadas. Se intentó hacer una pre-
sentación lo más sistemática posible, consistente en: decir primero cuál es
el tipo de datos disponibles para cada problema tratado; mostrar el sistema
de hipótesis que se quiere probar, la estadística de prueba, los momentos
y la forma de calcular la distribución exacta de la estadística (cuando es
posible); presentar luego la forma en que se aproxima la región crítica a par-
tir de la distribución asintótica de la estadística de prueba y, finalmente,
introducir las alteraciones que sufren las estadísticas y las regiones críticas
en presencia de empates. En todos los casos, se trató de ilustrar el cálculo
de la estadística con un ejemplo. Por razones de completitud, en el proble-
ma de una muestra se incluyó también la prueba X2 para la bondad del
ajuste, aunque esta no es una prueba de rangos. Naturalmente los métodos
no paramétricos no son sólo los basados en rangos, pero sí son posiblemente
los mejor sustentados teóricamente y los más desarrollados en la actualidad;
por esta razón se incluyen como eje central del curso.
En las secciones 2 y 3 se presentan los fundamentos de las pruebas de
hipótesis y de la estimación puntual y por intervalos a partir de estadísticas
de rangos en problemas de una y dos muestras.
La sección 4 incluye las bases para el manejo de las pruebas de hipótesis
en problemas de clasificación respecto a uno o dos criterios, y en proble-
mas de muestras bivariadas (correlación por rangos). Para cada problema
se indica de manera sistemática el tipo de información requerida para la
prueba (o para la estimación); se establece la región crítica para la prue-
ba de la hipótesis en cuestión y, cuando es posible, se muestra un método
para calcular las distribuciones exactas de las estadísticas de prueba bajo
la hipótesis nula. En la mayoría de los casos se presentan las distribuciones
límite de las estadísticas de prueba bajo la hipótesis nula sin mencionar la
forma teórica de obtener el resultado. Muchas de las situaciones se ilustran
con ejemplos tomados directamente de textos reconocidos en el contexto
de la estadística no paramétrica, como el de Lehmann y Dábrere (1964), el
de Hettmansperger (1984) y el de Bünning y Trenkler (1994), y otras con
ejemplos más reales y adaptados a nuestra cotidianidad.
Para terminar, es conveniente tener en cuenta que estos apuntes son pro-
ducto de la experiencia de haber dictado varias veces el curso de estadística
no paramétrica para la carrera de Estadística en la Universidad Nacional
de Colombia y han sido adaptados de varios textos clásicos sobre el tema,
mencionados en la bibliografía, especialmente del texto de Hettmansperger
(1984), del cual se tomaron el orden de presentación y varios de los ejemplos
y explicaciones gráficas.
Mis especiales agradecimientos a mi alumna Andrea Robles, del curso
de Estadística no paramétrica de la carrera de Estadística, quien con su
10 CAPÍTULO 1. INTRODUCCIÓN

inCISIva forma de preguntar ayudó mucho en la correCClOn de la versión


que entregué en clase y después con su dedicación corrigió personalmente
aspectos sintácticos y semánticos en el texto. También la profesora Emilse
Gómez y el profesor Jorge Ortiz hicieron múltiples sugerencias y críticas
al texto, y en la edición final nuevamente el profesor Ortiz puso todo su
empeño para perfeccionar la versión '!EX que la estudiante Liliana Zambra-
no junto con Andrea transcribieron cuidadosamente desde la versión Word
que yo les había entregado.

1.1. Un pOCO de historia


Uno de los trabajos más antiguos conocidos en estadística no paramétri-
ca data del año 1710 y fue realizado por Arbuthnot. En él se utiliza la
prueba del signo para examinar las proporciones de nacimientos de hom-
bres y mujeres como prueba de la "sabiduría de la Providencia Divina".
Sin embargo, los primeros desarrollos de los métodos no paramétricos se
produjeron a partir de los años treinta con los trabajos de Hottelling &
Papst (1936), Friedman (1937), Kendall (1938), Smirnov (1939) y Wald
& Wolfowitz (1940). Un desarrollo sistemático de la teoría se inició con
los trabajos de Wilcoxon (1945) y Mann & Whitney (1947), seguidos por
los trabajos de Hodges y Lehmann (1956, 1960, 1962, 1963, 1967)1, en los
que descubrieron el "sorprendente resultado de que las pruebas de rangos
pierden muy poca eficiencia cuando se comparan con la prueba t bajo el
modelo de distribución normal, y pueden ser mucho más eficientes que ésta
para modelos de distribuciones con colas alargadas" 2. En la década de los
sesenta Hodges & Lehmann obtuvieron también estimaciones puntuales y
por intervalo de parámetros de localización, basadas en estadísticas de ran-
gos, mostrando además que estos métodos de estimación heredan varias
propiedades de las estadísticas de prueba que los generaron. También en
esta década, Hájek desarrolló una poderosa teoría para obtener las distribu-
ciones asintóticas de las estadísticas de rango, que permitió la construcción
de estadísticas de prueba más generales basadas en rangos.
Las pruebas de rangos para el análisis de diseños de experimentos fueron
introducidas también por Hodges & Lehmann a principios de los años sesen-
ta y posteriormente desarrolladas por Puri & Sen. Las pruebas de rangos
y los métodos de estimación para modelos de regresión simple fueron es-
tudiados por Adichie (1967a, 1967b), y para el modelo lineal general, por
Adichie (1978). La mayor parte de la teoría de distribuciones asintóticas

lToda la bibliografía de este parágrafo se encuentra citada en Hettmansperger (1984)


yen Bünning y Trenkler (1999).
2Hettmansperger (1984), p. vii.
1.2. PROBLEMAS TÍPICOS EN ESTADÍSTICA NO PARAMÉTRICA 11

requerida para el modelo lineal se debe al trabajo de Jureckova (1969). Con


sus resultados es posible desarrollar versiones unificadas basadas en rangos
para el análisis de conjuntos de datos más complejos cuya aplicación, hoy en
día, puede ser implementada en computador a través de paquetes especiales
para esto o programando directamente los procedimientos.
Debido a que los métodos estadísticos no paramétricos son relativamente
nuevos, muchos de ellos son todavía desconocidos entre los investigadores
de las diferentes áreas. Este curso tiene como objetivo dar a conocer al-
gunos de los métodos no paramétricos más importantes y proporcionar un
entrenamiento básico para las aplicaciones.

1.2. Problemas típicos en


estadística no paramétrica
1.2.1. Una muestra
Para este caso, la información se encuentra generalmente disponible a
través de una muestra aleatoria Xl, ... ,Xn de una distribución continua
e
F con mediana y se tiene interés en alguno de los problemas estadísticos
siguientes:

• Estimación de la mediana, o de cualquier otro cuantil de F. Por ejem-


plo, la mediana se puede estimar por (X(%) + X(%+l))/2 cuando n es
par, y por X(nt1) cuando n es impar.

• Pruebas de hipótesis acerca de la mediana o de otros cuantiles. Por


e ° e
ejemplo, Ha : = frente a la alternativa Kl : -1- o.

• Prueba de hipótesis sobre la simetría de la distribución muestreada


e
F. Por ejemplo, para = 0, Ha : F(x) = 1 - F( -x) Vx E R
• Pruebas de bondad de ajuste Ha : F = Fa para algún Fa conocido.
Por ejemplo, si Fa = N(0,O'2), 0'2 conocido, probar Ha : F(x) =
x
J (1/O'V2K) exp( _t 2/20'2) dt.
-00

• Estimación de la distribución muestreada F(x) (este tema no se trata


explícitamente en este curso).

1.2.2. Dos muestras


• La información disponible consiste en una muestra Xl,'" ,Xn de
una distribución F y una segunda muestra X m + l ,··· ,XN, donde
N = m + n, de una distribución G, y se quiere probar la hipótesis
12 CAPÍTULO 1. INTRODUCCIÓN

acerca de la igualdad de las distribuciones Ho : F(x) = G(x), frente


a alguna alternativa general de la forma KI : F(x) i- G(x).

• Como un primer caso especial del anterior problema, la hipótesis


Ho : F(x) = G(x) se contrasta con una alternativa de la forma
KI : F(x) = G(x - e), e i- O. La alternativa KI se denomina al-
ternativa de localización debido a que las dos distribuciones sólo se
diferencian porque la distribución de G de la segunda muestra se
encuentra desplazada por el valor de e hacia la derecha o hacia la
izquierda, según e < o ó e > O. Por lo tanto, el problema puede for-
mularse también como Ho : e = o contra la alternativa KI : e i- O. El
anterior problema se denomina problema de localización. Otras alter-
nativas de localización son: K 2 : e > o y K3 : e < o.

• Un segundo caso especial de la alternativa general se presenta cuando


la hipótesis Ho : F(x) = G(x) se contrasta con una alternativa de la
forma KI : F(x) = G((x - e)/c;) , c; i- 1, en el cual la diferencia entre
las dos distribuciones se debe únicamente a un cambio en la escala,
debido a que el parámetro de localización e se considera conocido y
común a las dos distribuciones. Este problema se llama problema de
escala.

• Aquellas situaciones en las que se observa la misma característica dos


veces en el mismo individuo o en dos individuos "gemelos en algún
sentido" se llaman problemas de muestras pareadas. Estos problemas
también se encuentran en la literatura como problemas de una mues-
tra en los que se analiza la diferencia entre las dos mediciones como
si fuera una muestra de diferencias.

1.2.3. Independencia
La información disponible consta de una muestra aleatoria bivariada
(Xl, YI ),'" , (X n , Yn ) de una distribución F(x, y) y el interés está en la
hipótesis sobre la independencia entre ellas. Por ejemplo, si se denota por p
algún parámetro de asociación entre X y Y, entonces puede ser de interés
el contraste de la hipótesis Ho : p = O frente a la alternativa KI : Pi- o.

1.2.4. Modelos lineales


1.2.4.1. Regresión lineal
El problema consiste en que para las variables Y, Xl, X 2 ,'" ,Xp , se
supone la relación lineal o modelo lineal de la forma:
Y = (30 + (3IX I + (32X2 + .. , + (3pXp + é
1.2. PROBLEMAS TÍPICOS EN ESTADÍSTICA NO PARAMÉTRICA 13

donde E es una variable aleatoria con distribución continua de media cero


y varianza constante (}"2. El interés está en estimar y probar hipótesis sobre
los parámetros desconocidos del modelo: /30,(31 , ... ,/3p, sin hacer supuestos
adicionales sobre la distribución de E.

1.2.4.2. Problemas de K muestras.


Clasificación con respecto a un criterio

En este caso la información puede ,representarse en un arreglo de la


forma:

x = (X ~J.) ' i = 1"


... n··
J '
J. = 1 " ... K

en el cual Xij representa la i-ésima observación de una muestra aleatoria de


una distribución Fj , es decir, la columna con elementos X lj , X 2j, ... , Xnj,j
es una muestra aleatoria de la distribución Fj. Así, las columnas de X
representan K muestras aleatorias independientes entre sí.
Existen tres situaciones típicas que pueden describirse con el arreglo X:
Situación 1: aplicación del tratamiento 1 sobre ni unidades experimen-
tales independientes, el tratamiento 2 sobre n2 unidades experimentales in-
dependientes de las anteriores, y así sucesivamente hasta el tratamiento K
sobre nK unidades experimentales independientes de todas las K - 1 ante-
riores. Así las columnas del arreglo X representan la información obtenida
después de la aplicación de los K tratamientos. Puesto que en general en
esta situación no es posible seleccionar aleatoriamente las unidades expe-
rimentales sobre las que se aplican los tratamientos, las inferencias hechas
en este caso sólo son válidas para el grupo de unidades experimentales.
K
Situación 2: extracción de la muestra aleatoria de tamaño N = L nj
j=l
de alguna distribución desconocida para luego clasificarla en grupos mutua-
mente excluyentes con respecto a alguna característica de interés (por ejem-
plo: género: masculino, femenino; categorías socioprofesionales: obreros,
mandos medios, directivos; estado civil: solteros, casados, divorciados, vi-
udos; nivel educativo: universitario, bachillerato, primaria, sin educación);
en este caso las columnas de X contienen la información de los grupos gene-
rados por el criterio o variable de clasificación. La validez estadística de las
inferencias que se hacen en este caso, por lo general, dependen del diseño
muestral utilizado.
Situación 3: extracción de K muestras aleatorias independientes entre
sí, de K poblaciones de tamaños nl,n2,'" ,nK, respectivamente. En este
caso, la validez estadística de las inferencias también dependen del diseño
muestral.
14 CAPÍTULO 1. INTRODUCCIÓN
-----------

En cualquiera de las situaciones anteriores y con las restricciones men-


cionadas sobre la validez de las inferencias hechas, se supone que la infor-
mación se ajusta al modelo lineal siguiente:

X ij = ej + eij
donde los eij son variables aleatorias independientes con distribución con-
tinua de media cero y varianza constante 1J2 para todo i, j.
Se quiere probar la hipótesis sobre la igualdad de las medianas de las
K muestras:

Ho: el = ... = eK
contra alguna de las alternativas siguientes:

• Alternativa de localización

Hl : ei1 i- ei2 , para al menos un par i l i- i2·


• Alternativa de tendencia

H 1 : el ::; ... ::; eK, con al menos una desigualdad estricta.

En particular cuando K = 2, Hl : el < e2 es una alternativa de


tendencia en un problema de dos muestras.

1.2.4.3. Problemas de K muestras.


Clasificación respecto a dos criterios
La información está contenida en una matriz n x K:

x= (Xij ) i = 1, ... ,n j = 1, ... ,K


donde X ij representa la i-ésima observación de una muestra aleatoria de la
distribución Fij = Fi(x-e j ), de manera que Fi es la distribución de las ob-
servaciones en la i-ésima fila (bloque) ye j es la mediana dentro de la j-ésima
columna. En este modelo, las columnas pueden representar cualesquiera de
las tres situaciones consideradas en el caso de clasificación respecto a un
solo criterio, mientras que las filas generalmente representan un segundo
criterio de clasificación de la información.
Se supone que los X ij se ajustan al modelo:

X ij = ai + e j + eij
donde los eij son variables aleatoria.', independientes con distribución con-
tinua de media cero y varianza constante 1J2 para todo i, j.
1.2. PROBLEMAS TÍPICOS EN ESTADÍSTICA NO PARAMÉTRICA
- - - - - .~~---_
15
... _ - - -

Se quiere probar la hipótesis sobre la igualdad de las medias de las K


muestras:

Ha : (h = ... = (JK

contra alguna de las alternativas siguientes:

• Alternativa de localización

HI : (Ji i- (Jj, para al menos un par i i- j


es decir, al menos un par de muestras se distinguen entre sí.

• Alternativa de tendencia

HI : (JI ~ ... ~ (JK, con al menos una desigualdad estricta.

1.2.4.4. Modelos para establecer la generalidad o la


particularidad de los resultados de los experimentos
Modelo 1: Modelo aleatorizado para comparación de tratamientos
Se dispone de N individuos que se suponen conocidos, que para el caso
de dos tratamientos (o tratamiento versus control) se separan en dos grupos
con m y n individuos respectivamente, y se asignan aleatoriamente, uno
para que reciba el primer tratamiento (o el control) y el otro para que
reciba el otro tratamiento. Los resultados en esta situación son sólo válidos
para los individuos que participan en el experimento.
Modelo 2: Modelo poblacional para la comparación de dos tratamientos
Se selecciona una muestra aleatoria (probabilística) de N individuos de
una población de usuarios potenciales de los tratamientos. Se separan los
N individuos en dos grupos de n y m individuos para que reciban uno y
otro tratamiento (o tratamiento y control), respectivamente. Los resultados
en este caso son válidos para la población muestreada.
Modelo 3: Comparación de dos atributos o subpoblaciones a partir de
una muestra para cada una
Se extrae una muestra de tamaño m de la primera subpoblación o in-
dividuos con el atributo 1 y una muestra de tamaño n de la segunda sub-
población o individuos con el atributo 2 y se comparan las dos muestras
por medio de la característica de interés. Los resultados son válidos para
cada población de atributos.
Ejemplo 1.2.1. Nivel de recordación de marcas de ga..'leosas entre hombres
y mujeres.
Modelo 4: Comparación de dos atributos o subpoblaciones a partir de
una muestra de la población total
16 CAPÍTULO 1. INTRODUCCIÓN

Una muestra de tamaño N se selecciona de la población de interés


y se clasifica por atributo. Se compara la característica estudiada en las
submuestras generadas por los atributos. Los resultados son válidos para
la población total.
Ejemplo 1.2.2. En la banca, la cartera en general puede clasificarse en: al
día, morosa e irrecuperable.
Modelo 5: Modelo para la comparación de dos conjuntos de medidas
Conjuntos independientes de m y n medidas se obtienen de dos fuentes
o mediante dos métodos.

1.3. Escalas de medida


1.3.1. Nominal
También llamada escala de clasificación; por ejemplo: barrios de la ciu-
dad, localidades de Bogotá, división política del país en departamentos.
Clasifica los objetos de acuerdo con reglas previamente definidas. La
caracterización de las clases se hace asignando símbolos o números que no
implican ordenamiento o valores y sólo sirven para clasificar. Esta escala es
invariante ante transformaciones biunívocas o biyectivas; por ejemplo, los
nombres asignados a los 32 departamentos en que se divide políticamente el
país pueden remplazarse por números consecutivos de 1 a 32, sin que estos
números signifiquen nada más que la identificación de los departamentos.

1.3.2. Ordinal o de rango


Se asigna a los individuos un puesto o rango que los ordena. Los obje-
tos se distinguen entre sí por alguna característica que permite ordenarlos.
En sentido matemático, se dice que hay una relación de orden entre las
unidades examinadas que se define a través de la medición de alguna carac-
terística. Se trata de un enfilamiento de las unidades de acuerdo con niveles
de intensidad de una variable; por ejemplo: los puestos ocupados por de-
portistas, el semestre en que se encuentra un estudiante universitario, los
puestos que ocupan los estudiantes de un curso por sus notas o los rangos
de los militares. Las diferencias o cocientes entre datos de escala ordinal no
tienen sentido. Ejemplos de datos en escala ordinal son el Premio Nobel de
Literatura que se concede al mejor escritor, pero no se puede decir "qué tan
mejor" que los otros es el ganador; de la misma manera, no se puede decir
que el mejor estudiante es cinco veces mejor que el quinto o algo así.
Por su capacidad de distingui]! y ordenar, la escala ordinal es sensible
a cambios en escala. Sólo se mantiene estable frente a transformaciones
monótonas estrictamente crecientes. Por ejemplo, el nivel de las clases A, B,
1.3. ESCALAS DE MEDIDA 17

C y D puede establecerse asignando la siguiente transformación monótona


creciente:

A -------+ 1 B -------+ 2 C -------+ 3 D -------+ 4

Los cuantiles o las estadísticas de rangos son invariantes ante transforma-


ciones monótonas crecientes.

1.3.3. Intervalo
En esta escala las distancias entre medidas tienen significado, cosa que
no ocurría con la escala ordinal. Se presenta exclusivamente en números
reales y es cuantitativa, en contraste con las anteriores escalas consideradas.
Por ejemplo, para determinar la velocidad de desplazamiento de un objeto,
se necesita la distancia entre el punto de partida y el de llegada. Esta escala
es invariante ante transformaciones de la forma:

y = ax + b a>O

Por ejemplo, cuando se mide la temperatura en grados Celsius o en grados


Fahrenheit no hay diferencia, debido a que la relación entre las dos es
y = 1,8x + 32, donde y está en grados Fahrenheit y x en grados Celsius. La
escala de intervalo presenta las propiedades siguientes:

• No tiene un cero único (cero grados Fahrenheit no es lo mismo que


cero grados Celsius).

• El cociente de dos diferencias se mantiene para transformaciones


lineales. Es decir, si Yi = aXi + b, i = 1,2,3,4, entonces

YI - Y2 aXI +b- aX2 - b


Y3 - Y4 aX3 + b - aX4 - b

o sea que el cociente de distancias entre las y es igual al cociente de


distancias entre las x.

• El cociente de dos medidas distintas se modifica con cambios en la


escala:
YI = aXI + b i- Xl
Y2 aX2 + b X2

Algunas medidas estadísticas que se dan en escala de intervalo son: la media,


el coeficiente de correlación y la varianza, aunque el cero en la varianza se
interpreta como único en cuanto a que significa ausencia de varianza.
18 CAPÍTULO 1. INTRODUCCIÓN
---.------------_._-- .-_. - - ..- - - --

1.3.4. Razón
Peso, longitud, área, volumen, corriente, temperatura en grados Kelvin
(el cero corresponde a - 273,16 grados centígrados, temperatura en la que
hay ausencia de movimiento de partículas). Se diferencia de la escala de
intervalo en que ésta sí posee un cero fijo que se mantiene estable para
transformaciones de la forma Y = Ax. Para esta transformación, el cociente
entre dos medidas también se mantiene estable:
YI Xl

Y2 x2

El coeficiente de variación y los números índices son ejemplos de indicadores


estadísticos medidos en escala de razón.
Capítulo 2

Problemas de una muestra

2.1. Introducción

En este capítulo se presentan pruebas para tres problemas típicos en


estadística, cuando se trata de analizar información de una sola muestra
proveniente de una distribución arbitraria continua.
Para la bondad de ajuste de los datos a una distribución fija dada, se
presentan 1&'3 pruebas de Kolmogorov-Smirnov y la conocida prueba X2.
Para la aleatoriedad de los datos se introduce la prueba de rachas y,
para la alternativa de localización, se dan dos opciones: la prueba del signo,
para el caso en que la distribución muestreada es una distribución arbitraria
continua, y la prueba del rango signado de Wilcoxon, cuando se supone que
los datos provienen de una distribución simétrica.

2.2. Dos pruebas para bondad de ajuste

Estas pruebas son útiles cuando se quieren validar supuestos acerca


de la distribución muestreada, especialmente en el caso de los métodos
paramétricos clásicos.

2.2.1. Prueba de Kolmogorov-Smirnov

La información disponible para este problema es una muestra aleatoria


que se representa por la sucesión Xl, X 2 ,' .. ,Xn de variables aleatorias
independientes idénticamente distribuidas (v.a. i.i.d.), con función de dis-
tribución continua F. Las hipótesis de interés establecen comparaciones con
una distribución conocida Fo, y son:

19
20 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA

Hipótesis Hipótesis Hipótesis Interpretación de


nula Ho alternativa Kl la alternativa
Igualdad con F(x) = Fo(x) F(x) =1- Fo(x), Las dos distribuciones se
alternativa 't:/x E ffi. para al menos distinguen en al menos
de dos colas Fo conocida un x E ffi. un punto
";:::" con al- F(x) ;::: Fo(x) F(x) < Fo(x), La distribución hipoté-
ternativa de 't:/x E ffi. para al menos tica está por encima de
una cola (1) Fo conocida un x E ffi. la distribución muestrea-
da en al menos un punto
":S;" con al- F(x) :S; Fo(x) F(x) > Fo(x), La distribución hipoté-
ternativa de 't:/x E ffi. para al menos tica está por debajo de
una cola (II) Fo conocida un x E ffi. la distribución muestrea-
da en al menos un punto

La estadística de Kolmogorov-Smirnov utiliza la estimación muestral


natural de la función de distribución, la cual cuenta la proporción de ob-
servaciones menores que o iguales a x, y se define como sigue:

Fn(x) ~ n x ::; X(l)

X(k) ::;
x?: X(n)
X < X(k+l) para k = 1,2,· .. ,n

donde X(l) < X(2) < ... < X(n) son las estadísticas de orden de la muestra.
Las estadísticas utilizadas para las pruebas varían según las alternativas,
como se muestra en la tabla siguiente:

Hipótesis Estadística de prueba Región crítica


Igualdad con alternati- Dn = sup I Fo(x) - Fn(x) I Dn ?: kl-a
xER
va de dos colas
"~" con alternativa de D-;; = sup(Fo(x) - Fn(x)) n >
D+ - k+
l-a
xER
una cola (1) "<"
"~" con alternativa de D;; = sup(Fn(x) - Fo(x)) D;; ?: k 1- a
xER
una cola (II) ">"

donde kl-a es tal que P(Dn ::; k1-oJ = 1 - a, ki-a y k 1- a se definen de


manera análoga y se obtienen de las tablas de valores críticos presentadas,
por ejemplo en Sprent (1989, Tabla A3, p. 234) yen Gibbons (1992, Tabla
F, p. 487).
En algunas tablas se encuentra ka en lugar de k 1 - a , donde ka es tal que
P(Dn ?: ka) = a. Los valores k 1 - a , ki-a' y k 1- a también pueden obtenerse
de la distribución exacta de K n , K:}: Y K;; (Gibbons, 1971, pp. 77 Y ss).
2.2. DOS PRUEBAS PARA BONDAD DE AJUSTE 21

Sorprendentemente, aunque las tres estadísticas dependen de Fo, son


de distribución libre, es decir, su distribución no depende de la distribución
muestreada (Gibbons, 1971, p. 76).
Ejemplo 2.2.1. (Bünning & Trenkler, 1994). Estudio de consumo de gasoli-
na de vehículos particulares. Se dispone de una muestra de 10 vehículos,
para los cuales se hicieron mediciones del consumo en litros por cada 100
km. Se quiere saber si los datos se ajustan a una distribución normal de
media 12 y varianza 1.

Consumo Normal Fn(X(i}) Fn(X(i-l}) D+ D-


n n
x(1) 11,5 0,3085 0,1 0,0 0,2085 0,3085
X(2) 11,8 0,4207 0,2 0,1 0,2207 0,3207
X(3) 12,0 0,5000 0,3 0,2 0,2000 0,3000
X(4) 12,4 0,6554 0,4 0,3 0,2554 0,3554
x(5) 12,5 0,6915 0,5 0,4 0,1915 0,2915
x(6) 12,6 0,7257 0,6 0,5 0,1257 0,2257
X (7) 12,8 0,7881 0,7 0,6 0,0881 0,1881
x(8) 12,9 0,8159 0,8 0,7 0,0159 0,1159
X(9) 13,0 0,8413 0,9 0,8 0,0587 0,0413
x(lO) 13,2 0,8849 1,0 0,9 0,1151 0,0151

En la tabla anterior, Fn(X(i)) es el valor de Fn en XCi) Y Fn(X(i-l)) es el


valor de Fn en X(i-l) con Fn(X(o)) = O. Además,

D:}; = I<I>(X ~ 12) - Fn(X(i)) I Y D;; = IFn(x(i-l)) _ <I>(X ~ 12) I


La diferencia máxima se obtiene para X(4) = 12,4, con un valor de D lO =
0,3554. Como el valor de kO,05 = 0,409 (Tabla F de Gibbons, 1992) es mayor
que el calculado, Ho no se puede rechazar.

Manejo de los empates


Como la función de distribución empírica está definida incluso en el caso
de que ocurran empates, la única modificación en el cálculo de Fn es que
los saltos no son de tamaño 1/n sino del tamaño o longitud del empate.
Por ejemplo, si hay cuatro observaciones empatadas el salto será de 4/n.
Por lo anterior, ni el cálculo de Dn, D:};, y D;; ni la estructura de la prueba
se alteran.
22 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA

2.2.2. Distribución asintótica de Dn Y D;;


Cuando Fo es continua, la distribución de las estadísticas de prueba
puede aproximarse de la manera siguiente:

J~~p (Dn ~ Jn) = Q1(.\) = 1- 2f(_1)k~le~2k2,\2 .\>0


k=l

La región crítica para la alternativa de dos colas es Dn ~ .\~~t, donde,


.\l~a es tal que Q1(.\1~a) = 1 - a. Los valores de .\ para los niveles de
significación más utilizados se encuentran en la tabla F de Gibbons.
La aproximación para la alternativa de un cola (1) es:

lím
n-+oo
P(D;; ~ V
~)
n
= Q2(.\) = 1 - e~2,\2 ,\>0

En este caso se rechaza Ho cuando D:}: ~ ~a, donde .\l~a es tal que
Q2(.\1~a) = 1 - a.
Por ejemplo, para a = 0,01, Q2(.\) = 0,99, implica.\ = 1,5741; entonces
para n = 20, se rechaza la hipótesis nula a favor de la alternativa de una
cola (1), cuando D:}: = 1,5741jV25 = 0,35.

2.2.3. Prueba X2 para bondad de ajuste


De nuevo, la información disponible consiste en una muestra aleatoria
Xl, ... X n , con función de distribución arbitraria F, no necesariamente con-
tinua. Las observaciones se distribuyen en k clases mutuamente excluyentes:

Clases k
Número de observaciones nk

k
donde L nj = n.
j=l
Se quiere probar la hipótesis, llamada de bondad de ajuste de F a Fo;

Ho : F(x) = Fo(x) para todo x E]R, Fo conocida y fija

frente a la alternativa:

K 1 : F (x) i= Fo (x) para por lo menos un x E ]R.

Se construye la estadística de prueba de la manera siguiente: sea Pi


la probabilidad de que la variable aleatoria X tome un valor en la clase
2.2. DOS PRUEBAS PARA BONDAD DE AJUSTE 23

i, bajo Ho; es decir, cuando la función de distribución de la variable X es


Fo(x). Entonces el número de observaciones esperado en la clase i es npi. La
decisión sobre la bondad del ajuste se toma sobre la base de la estadística
propuesta por Pearson (1900):

La hipótesis nula se rechaza cuando X2 2: XI-n,k-I' donde XI-n,


k-I es tal

que p(X2 ~ XLn, k-I) = 1 - Ct.


Al valor XLn k-I se le llama (1 - Ct)-ésimo cuantil de la distribu-
ción xLI' Demostraciones sobre la convergencia de la distribución de la
estadística X2 a la distribución Ji-cuadrado se encuentran, por ejemplo,
en Bünning & Trenkler (1994), basada en la distribución de Poisson; en
Manoukian (1986), basada en el teorema del límite central para vectores
aleatorios yen Gibbons & Chakraborti (1992), basada en la estadística de
la razón de verosimilitud.
La distribución exacta de la estadística X 2 bajo la hipótesis nula se ob-
tiene como sigue: sean NI, N 2 , ... ,Nk variables aleatorias tales que N j es
el número de X de la muestra que caen en la j-ésima categoría. Entonces,
como bajo Ho la distribución Fo(x) es totalmente conocida, es posible cal-
cular la probabilidad PI de que nI observaciones caigan en la categoría 1, la
probabilidad P2 de que n2 observaciones caigan en la categoría 2, y así suce-
sivamente hasta la probabilidad Pk de que nk observaciones caigan en la
k
categoría k, donde ¿ nj = n. Entonces el vector aleatorio (NI, N 2 , .• · , Nk)
j=1
tiene distribución multinomial:

y por lo tanto,

donde ((nI,'" ,nk) : X2 ~ x) significa que la suma se hace sobre todas


aquellas k-tuplas (nI, ... , nk) tales que X 2 ~ x. Como puede verse, los
cálculos de la distribución exacta resultan bastante engorrosos a medida
que aumenta el valor de n. Por esta razón la prueba se utiliza preferible-
mente para valores grandes de n, de manera que la aproximación por la
distribución X2 sea buena.
24 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA

Observaciones sobre las dos pruebas de bondad de ajuste

• La distribución exacta de Dn Y D:}; puede construirse para valores


pequeños de N (N ::; 40), mientras que la prueba x-cuadrado sólo
puede utilizarse para valores grandes de n, debido a que la distribución
de la estadística de prueba es aproximada.

• D:}; Y D;; sirven para probar hipótesis acerca de cuándo la distribu-


ción observada se aleja de la hipotética en una dirección específica,
mientras que la prueba x-cuadrado sólo sirve para distanciamientos
de la distribución observada en ambas direcciones (es una prueba de
dos colas).

• Para la prueba de Kolmogorov-Smirnov se utilizan todas las obser-


vaciones, mientras que para la prueba x-cuadrado las observaciones
deben agruparse en clases, lo cual implica una pérdida de informa-
ción. El problema se presenta por lo arbitrario del número y el ancho
de las clases.

• En estudios sobre la potencia de la prueba, por lo general la prueba de


Kolmogorov-Smirnov resulta ligeramente más potente que la prueba
Ji-cuadrado, pero este argumento tiene poca fuerza si se tiene en
cuenta la generalidad de la hipótesis alternativa.

• La prueba de Kolmogorov-Smirnov sólo puede utilizarse bajo el su-


puesto de que las observaciones vienen de una distribución continua,
mientras que la prueba x-cuadrado puede utilizarse para cualquier
distribución arbitraria.

2.3. Pruebas para la hipótesis de aleatoriedad


Una manera natural de motivar el uso de las pruebas para aleatoriedad
es notar que la mayoría de los métodos estadísticos suponen que los datos
constituyen una muestra aleatoria en cuanto a que son independientes es-
tadísticamente. Esto sugiere que lo primero que habría que verificar en el
trabajo aplicado es el supuesto de aleatoriedad. Además, el objetivo de una
investigación puede ser detectar directamente tendencias o modificaciones
de una característica por medio de varias medidas repetidas de ésta en el
transcurso del tiempo. En tales casos las pruebas de aleatoriedad tienen
utilidad natural.
En un contexto experimental, la aleatoriedad puede verse de la ma-
nera siguiente: supongamos que se quiere medir el efecto de N niveles de
un tratamiento a N unidades experimentales, para lo cual se asignan los
2.3. PRUEBAS PARA LA HIPÓTESIS DE ALEATORIEDAD 25

tratamientos aleatoriamente a las N unidades experimentales. Las observa-


ciones hechas consisten en asignar rangos de 1 a N a las unidades experi-
mentales después de haber aplicado los tratamientos. La situación puede
describirse como sigue (Lehmann 1976):

Niveles de tratamiento
Rango observado

Entonces, si los tratamientos no tienen ningún efecto, a las unidades exper-


imentales les corresponde cualquiera de las permutaciones de los enteros 1 a
N con igual probabilidad. Es decir, bajo la hipótesis de que los tratamientos
no tienen ningún efecto, la probabilidad de que los rangos tomen alguna de
las permutaciones de los primeros N enteros es:

La hipótesis de que los tratamientos no tuvieron ningún efecto también


suele llamarse hipótesis de aleatoriedad.

2.3.1. Una prueba de rangos para tendencia


Una situación común en la que se presentan tendencias ante la hipótesis
de aleatoriedad es cuando el papel de los tratamientos del ejemplo anterior
lo desempeña el tiempo. Por ejemplo, se está observando diariamente la
caída pluviométrica (mm 3 ) en una ciudad durante un mes, y se quiere
saber si al final hubo tendencia a llover más que al principio, es decir, si
hubo una tendencia creciente en la caída pluviométrica. En este caso los
niveles de tratamiento son los días, y los rangos observados son los que se
asignen a los mm 3 de caída pluviométrica.
La hipótesis de aleatoriedad en este caso se contrasta con la alternativa
de tendencia creciente y para su prueba puede usarse la siguiente estadística
propuesta por Spearman:

D' = ¿(j - i)U


ij
i<j

donde

Uij = {1
O
i < j

Nótese que la estadística cuenta el número de pares en los que Ri < Rj y


los pondera por la distancia (j - i) que hay entre ellos, dándole más fuerza
26 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA

a aquellos pares en los que hay tendencia y que se encuentran más lejanos
(o sea que Ri < Rj).
Una expresión más sencilla de D' para los cálculos es (consultar la
demostración en Lehmann, 1976, pp. 296, 297):

N
1 N (2
DI = 6 N -1 ) - 2"1 "6 ( Ri - Z.)2
i=l

En la expresión anterior se observa que como N es fijo, basta utilizar la


estadística:
N
D = ¿ (Ri - i)2
i=l

Para el cálculo de la distribución exacta de D es conveniente verificar que


sus valores siempre son números pares. Esto se demuestra al descomponer
el cuadrado en la suma:
N N N
D = ¿R; - 2¿iRi + ¿i 2

i=l i=l i=l

Entonces, como los Ri son una permutación de los enteros de 1 a N se


obtiene que ¿ R; = ¿ i 2 ; así, como las sumas son enteros, al sumarlos se
obtiene el doble de un entero, o sea un número par. De la misma manera,
el término negativo es un número par. Entonces se obtiene la expresión
siguiente:

N N 1 N
D=2 ¿ i2 - 2 ¿ iRi = 3N(N - 1)(2N + 1) - 2 ¿ iRi
i=l i=l i=l

La distribución de la estadística se obtiene construyendo todas las per-


mutaciones posibles de los enteros 1 a N, calculando los valores de la es-
tadística para cada una de ellas y construyendo la distribución de frecuen-
cias de éstos.
Ejercicio: construir la distribución exacta de la estadística D para ten-
dencia. En Lehmann (1976, p. 433) se encuentra una tabla de valores críticos
de esta estadística.

2.3.2. Una prueba de rachas para aleatoriedad


En términos generales, una racha es una sucesión de símbolos idénticos.
En el caso cotidiano más sencillo, se habla de rachas de buena (mala) suerte,
refiriéndose a la repetición de situaciones en las que las cosas funcionan bien
(mal) durante algún período. En los partidos de las eliminatorias para el
2.3. PRUEBAS PARA LA HIPÓTESIS DE ALEATORIEDAD 27

mundial de fútbol se habla de la racha de buenos juegos de un equipo


cuando gana varios partidos seguidos. También las sucesiones de "alzas" o
"bajas" del dólar diariamente son ejemplos de rachas.
La información disponible es una muestra r¡l, r¡2,'" ,r¡n, cuya distribu-
ción es arbitraria, es decir, pueden estar en escala nominal, pero de tal
manera que los r¡i estén ordenados respecto a algún criterio. Para el caso en
que las observaciones tienen un orden natural, por ejemplo observaciones
hechas en el tiempo, la sucesión observada tiene la forma de una sucesión
de símbolos de dos clases:

0000000000011111111110000011111000011000111010,
donde los unos representan la ocurrencia de un evento A y los ceros repre-
sentan la no ocurrencia de A. Escrito de otra forma:

ocurre el evento A
j = 1,'" ,n
no ocurre el evento A

Esta sucesión se llama sucesión dicotomizada o muestra dicotómica. Cada


grupo de símbolos iguales en la sucesión r¡l, ... , r¡n se llama racha. Una
estadística utili:.mda para la prueba de hipótesis de aleariedad es el número
total de rachas R en la sucesión r¡l, ... ,r¡n'
Si la sucesión observada presenta muchas rachas entonces hay evidencia
de que el evento A tiende a ocurrir y no ocurrir sistemáticamente, mientras
que muy pocas rachas indica que hay agrupamientos en alguno de los ex-
tremos de la sucesión. En los dos casos se apoya la hipótesis de que existe
algún patrón de comportamiento en la sucesión observada. Las hipótesis de
interés y sus regiones de rechazo son:
Hipótesis nula Ho Hipótesis alternativa Región de rechazo
Aleatoriedad: la suce- K 1: no aleatoriedad: en R ::::: r 0:/2 Ó R ~ r~/2
sión Tl1, ... Tln es aleatoria la sucesión Tl1, ... Tln ex-
iste un patrón de compor-
tamiento no especificado
Aleatoriedad: la suce- K 2: agrupamientos: en R::::: ro:
sión Tl1 , ... Tln es aleatoria la sucesión Tl1, ... Tln ex-
iste una tendencia a los
agru pamientos
Aleatoriedad: la suce- K 3 : mezclas: en la suce- R>r'
- Ct

sión 771 , ... 77n es aleatoria sión Tl1, ... Tln existe ten-
dencia a que los ele-
mentos estén sistemática-
mente mezclados

AqUÍ, r a/2 es tal que P(R ::::: r a/2) :S a/2 y P(R ~ r~/2) :S a/2, y el
nivel de significancia de la prueba de dos colas es a. r c; y r~ se definen de
28 r,A PTTTTLO 2. PRORLRMAS DE UNA MUESTRA

manera análoga. Las desigualdades se deben a que la distribución de R es


discreta y por eso, en general, no es posible encontrar valores de r 0/2 y r~/2
que acumulen en las colas de la distribución de R el valor exacto de a.

2.3.3. Distribución exacta del número total de rachas R


La distribución del número total de rachas R formadas por m unos y n
ceros, con m y n fijos en la muestra dicotomizada, es (Wald & Wolfowitz,
1940):

2(~ -1) (~ -1)


2- 1 2- 1
cuando r es par
(m~n)
P(R = r) =
(m- 1) (n - 1) + (m - 1) (n - 1)
r-l
-2-
r-3
-2-
r-3
-2-
r-l
-2-
cuando r es impar
(m~n)
para r = 2,3, ... ,m + n.

E(R) = 1 + 2mn
m+n
Var(R) = 2mn(2mn - m - n)
(m+n)2(m+n-1)
Los valores críticos de la prueba de rachas para aleatoriedad se encuen-
tran en la tabla D en Gibbons & Chakraborti (1992).

2.3.4. Distribución asintótica de R


Wald & Wolfowitz (1940) mostraron en el mismo artículo que si el
tamaño de la muestra N crece de tal manera que m/N --t A Y n/N --t 1 - A,
con O < A < 1, entonces:

lím E ( R)
N-+oo N
= 2A(1 - A) Y lím Var
N-+oo
(~)
VN
= 4A 2(1 _ A)2

y la variable aleatoria:

z= _R_--=2=-N_A-'-.(l_-_A--,-)
2VNA(1 - A)
2.4. PRUEBAS DE LOCALIZACIÓN PARA DISTRIBUCIONES CONTINUAS 29

converge en distribución a la distribución normal estándar cuando N tiende


a infinito. Entonces, para valores grandes de m + n, se rechaza la hipótesis
nula cuando 1z 12 zl-n/2'

Datos en escala de intervalo


Cuando los datos disponibles para el análisis de la aleatoriedad son de
naturaleza continua, se transforman en datos dicotomizados para obtener la
sucesión de unos y ceros que permite utilizar la estadística de rachas. Una
de las maneras de dicotomizar la muestra es la siguiente: sean Xl, ... ,Xr
observaciones ordenadas en el tiempo, provenientes de una distribución
continua F. Entonces, una forma de construir la sucesión dicotomizada es
la siguiente:

j = 2, ... , r
en otro caso
El proceso implica la pérdida de una observación.

2.4. Pruebas de localización para


distribuciones continuas
Sea X una variable aleatoria (v.a.) con función de distribución arbitraria
F(x) = P(X :S x). Se define la mediana de X (o de F) como aquel punto
() tal que:
P(X :S ()) = P(X 2 ()) 2 ~
La igualdad se cumple cuando F es una función de distribución con densi-
dad continua y en este caso la mediana es única.
En las distribuciones discretas no se garantiza la unicidad de la mediana.
La figura siguiente muestra una función de distribución discreta para la cual
todos los () dentro del intervalo [a, b) satisfacen la condición anterior:
30 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA


• --
O
) :::::<L--.r-IP-(X-~-O:-0E-(a-,b-n~-1---'/21

P(X::; O: OE (a,b]) ~ 1/2

a b
1--0---1

Figura 1.
Ejemplo 2.4.1. Considérese la distribución

F(x) ~ o x<l
x = 1, 2, 3, 4, 5, 6

. 2 1
x>6

Entonces, para f) < 3, se tIene que P(X ::; f)) ::; F(2) = 6" < 2; por lo
tanto, se descartan los valores de f) menores que 3.
Además, para f) 2: 4, P(X ::; f)) = F(f), f) 2: 4) 2: ~ > ~; pero P(X 2:
1 1 .,
f)) = 1- F( f)) ::; :3 < 2' luego tamblen se descartan los valores de f) mayores
que 4.
Finalmente, como F(f)) = 1/2 para 3 ::; f) < 4, se concluye que la
mediana de la distribución es un número entre 3 y 4, sin incluir el 4.
Se denotará por 0 0 , el conjunto de las funciones de distribución abso-
lutamente continuas con mediana cero:

00 = {F : F absolutamente continua y F(x) = 1/2 sólo para x = O}


Ejercicio: calcular la mediana de la distribución uniforme (a, b) y de la
distribución exponencial con parámetro A.

Modelo de muestreo
La información disponible para este problema es una muestra aleatoria
F(x - f)), donde F E Oo. Se busca
Xl, ... , X N , con función de distribución
probar la hipótesis:

Ha : f) = O, versus Kl : f) > O, o versus K2 : f) < O, o versus K3 : f) #- O.


2.4. PRUEBAS DE LOCALIZACIÓN PARA DISTRIBUCIONES CONTINUAS 31

Nota:

• Cuando las observaciones no provienen de una distribución en 0 0 ,


sino de alguna distribución absolutamente continua con mediana la e,
prueba de la hipótesis acerca de un valor de e Ha : e = ea con ea cono-
cido, versus la alternativa K 1 : e > ea se reduce a la hipótesis men-
cionada arriba, definiendo Yj = X j - ea, porque entonces Y 1 ,·· . ,YN
es una muestra de F E 0 0 Y la prueba de Ha : e = ea equivale a la
prueba de Ha : e - ea = O. La justificación es que para ~ = e - ea se
cumple:

P(Yj ::; ~) = P(Xj - ea ::; e - ea) = P(Xj ::; e)


1
= "2 = P(Xj 2: e) = P(Yj 2: ~)

es decir, med(Yj) = ~ si y sólo si med(Xj ) = e y, por lo tanto,


Ha : e = ea si y sólo si Ha : ~ = O.

2.4.1. La prueba del signo


La información disponible para realizar la prueba de la hipótesis es
la del modelo de muestreo de la sección anterior. La estadística de prueba
utilizada es el conteo de las observaciones positivas contenidas en la muestra
y se define por:

S = # {Xi> O} = LS(Xi)
i=l

donde

S
( X)
l
= {1O si Xi >
si X 1. <
OO
_

Distribución y momentos de S

Bajo la hipótesis nula Ha : e = O, la estadística S tiene distribución


binomial con parámetros N y p = 1/2. Para mostrarlo, nótese que, siendo
Xi; i = 1,' .. ,N, variables aleatorias independientes, s(Xi ); i = 1,' .. ,N,
también lo son; de manera que S es una suma de variables aleatorias in-
dependientes. Además, p = p(s(Xi ) = 1) = P(Xi > O) = 1/2, bajo la
hipótesis nula.
Con un nivel de significancia CIó E (0,1), la prueba del signo rechaza
Ha: e = O,
32 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA

• en favor de KI : (J > O cuando S 2: k~, donde k~ es tal que

N
PHo(S 2: k~) = L (~) (~)N : :; C\'
J
J=k' 2
"
• en favor de K 2 : (J < O cuando S :::; ka:, donde ka: es tal que

PHo (S :::; ka:) = f;k" (N) (I)N


"2
j :::; C\'

• yen favor de K3 : (J # O cuando S 2: ka:/2 o cuando S 2: k l -a:/2 +1 o


bien S 2: N - ka:/2' donde

PHo(S:::; ka:/2) = f; (N) (1)"2


k"/2
j
N
:::; C\'

El valor de k puede determinarse desde la distribución binomial, sin im-


portar cuál sea la distribución F E no muestreada. En este sentido, se dice
que S es de distribución libre bajo Ho.
Por otra parte, bajo la hipótesis alternativa KI : (J = (J' > O, la distribu-
ción de S sigue siendo binomial, pero con parámetros N y p, donde

p = P(X > O) = 1 - P(X - (J' :::; _(JI) = 1 - F( _(JI)

la cual depende de F y por esto S no es de distribución libre bajo la


alternativa K I I .
Ejemplo 2.4.2. (Tomado de Hettmansperger, 1984, p. 2). En los años cin-
cuenta, Matthews y otros investigadores realizaron un experimento sobre la
forma en que las aves orientan su vuelo. En los entrenamientos de palomas
mensajeras, las aves se entrenan para llegar a casa desde varias distancias
a lo largo de una línea específica de entrenamiento. Para determinar si las
aves encuentran el camino a casa de manera sistemática desde puntos con
los que no están familiarizadas, se realizaron experimentos en los cuales se
tomaron las aves en días soleados y se dejaron en libertad desde puntos
ubicados a 90 y 180 grados de la línea de entrenamiento. Una medida de
interés era el ángulo entre la línea de vuelo de la paloma cuando desaparece
en el horizonte y la línea de entrenamiento. Los ángulos se midieron entre
lSi la distribución de la variable aleatoria X tiene mediana e' > O, entonces Y = x-e
tiene distribución F con mediana igual a cero y, entonces, P(X > O) = 1 - P(X :::; O) =
1 - P(X - e:::; -e) = 1 - F( -e).
2.4. PRUEBAS DE LOCALIZACIÓN PARA DISTRIBUCIONES CONTINUAS 33

oy 180 grados de manera que no se distingue entre ángulos por encima o


e
por debajo de la línea de entrenamiento. Sea la mediana poblacional del
ángulo de error; cuando las palomas no regresan a la casa este ángulo es
e = 90 0 • Una hipótesis de interés consiste en suponer que las aves navegan
e
usando el sol y que esto implica que < 90 0 • Entonces se construye una
e e
prueba para la hipótesis H : = 90 0 contra la alternativa Kl : < 90 0 . Si se
rechaza la hipótesis nula, sólo puede concluirse que las palomas regresarán
a la casa. Los datos son los siguientes:

Ángulos de error de palomas mensajeras liberadas en días soleados


6 7 9 17 18 18 22 28 32 35 36 42 42 42
48 48 51 52 53 55 56 57 58 63 72 83
® @
El valor de la estadística S es 2 porque sólo hay dos observaciones mayores
que 90 0 . Para N = 28 se obtiene P(S ::; 8) = 0,018. Por lo tanto al 5 % se
rechaza Ha.

2.4.2. Distribución asintótica de S


y aproximación de la región crítica
En la discusión siguiente se usa la notación S N para la estadística S
definida en 2.4.1, para resaltar su dependencia del tamaño de muestra.
Bajo cualquiera de las dos hipótesis, Ha o K 1 , la estadística SN es una
suma de variables aleatorias independientes, cada una de las cuales tiene
distribución B(l,p); entonces SN tiene distribución binomial con pará-
metros N y p; por lo tanto, E(SN) = Np y Var(SN) = Np(l - p) < 00,
con p = P(Xi > O). Entonces puede aplicarse el teorema del límite central
para asegurar que
z = SN - E(SN)
JVar(SN)
tiene aproximadamente una distribución normal con media O y varianza 1,
siempre que O < p < 1. Esto significa que:

donde <l> es la función de distribución acumulada normal estándar. Este


hecho también suele llamarse convergencia en distribución y se escribe de
la manera siguiente:
34 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA

Como SN rv B(N,p), entonces


= Np = N(l- F(-e))
E(SN)
Var(SN) = Np(l- p) = N(1- F(-e))F(-e)
Bajo la hipótesis nula Ha : e = o y por lo tanto E(S) = N/2Y Var(S) =
N/4. El valor crítico k puede aproximarse para un a dado, a partir de:

a~ 1-~e;%h2)
y, por lo tanto,
k -N/2
JN/4 ~ Za
es decir,
k ~ N/2 + Za'¡¡:¡ /2
donde Za es tal que a = 1 - <I>(Za) y se llama a-percentil superior de la
distribución normal.
En muchos casos suele ser útil hacer una corrección por continuidad para
aproximar la región crítica. Esto se hace suponiendo que el valor observado
de la estadística, digamos t, es t - 1/2 para hipótesis de colas laterales a la
derecha y t + 1/2 para hipótesis de colas laterales a la izquierda. De esta
manera, la región crítica aproximada para la prueba del signo es:
N 1 VN
k~-+-+Z -
2 2 a 2

2.4.3. Potencia de una prueba


Intuitivamente, la potencia de una prueba de hipótesis es la probabilidad
de rechazar la hipótesis nula cuando es falsa. Es decir, la potencia de una
prueba es algo así como la "capacidad que tiene la prueba para darse cuenta
de que la hipótesis nula es falsa" .
e
Considérese la hipótesis nula Ha : = o y como alternativa Kl : > O. e
Si para la prueba de la hipótesis anterior se utiliza una estadística de prueba
S cuyos valores grandes rechazan Ha, es decir, rechaza Ha cuando S 2: k
para un k dado, entonces puede definirse más formalmente la potencia de
e
la prueba como una función de como sigue:
e> O)
7f(e) = P(S 2: k;
Así, 7f(e) es la probabilidad de rechazar Ho : e = O cuando es falsa.
Además, la probabilidad de rechazar Ha cuando es cierta corresponde
al error de tipo 1 y, por lo tanto, se espera que 7f(0) = a.
Como función de e, la función de potencia 7f( e) es no decreciente, y
cuanto más rápido aumente, mejor será la prueba.
--_
2.5. PRUEBAS DE LOCALIZACIÓN PARA DISTRIBUCIONES SIMÉTRICAS
.. _ - - - - - _ . - - - - - - - -
35

2.4.4. Potencia de la prueba del signo


Se sabe que, para la prueba del signo, S N tiene distribución binomial
con parámetros N y p = 1- F( -O), tanto bajo la hipótesis nula como bajo
la alternativa. Entonces puede determinarse la potencia de la prueba del
signo exactamente como sigue:
N
7r(0) = P(SN 2': k; O> O) = L
J=k
-
(~)~(1 p)N~j
N
= L (~) (1- F(-O))j(F(-O))N~j
j=k J

Con los resultados sobre la distribución asintótica de S, la potencia de la


prueba del signo puede aproximarse con la distribución normal por medio
de:

7r
() ~ p(
P
SN - N p NP)k-
JNp(1 _ p) 2': JNp(1 _ p) ~ 1 - If>
(k - Np )
JNp(1 _ p)

Un estudio comparativo de la potencia de la prueba del signo con re-


specto a la potencia de la prueba t de Student o con respecto a otra prueba
de localización con una muestra, suponiendo que la distribución muestreada
es diferente de la normal, mostrará las ventajas o desventajas de esta prue-
ba frente a sus competidoras en condiciones no normales (véase Randles &
Wolfe, 1979, cap. 4).

2.5. Pruebas de localización


para distribuciones simétricas
Bajo los supuestos hechos al principio de la sección 2.4, la prueba del
signo es uniformemente más potente para la alternativa de una cola, en
condiciones generales (Hettmansperger, 1984, pp. 9 Y ss.).
Para desarrollar un procedimiento similarmente potente pero utilizando
los rangos de las observaciones, es decir, usando más información, se intro-
duce el supuesto de simetría de la distribución muestreada que se expresa
de la manera siguiente:

ns = {F : F E no y F (x) = 1 - F( - x) }

Si F E ns , se dice que F es una distribución simétrica alrededor de cero,


su única mediana, que es al mismo tiempo su media, cuando esta existe.
36 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA

Modelo de muestreo
Muestra aleatoria: Xl,'" , X N , cada v.a. con función de distribución
F(x - e), donde F E ns. Entonces e es la única mediana (y la media,
cuando existe) y se encuentra en el centro de la distribución. Nuevamente
el problema de inferencia es la prueba de la hipótesis:

Ho: e= o versus K l : e> o o versus K 2 : e< o o versus K 3 : e =f o


con FE ns.
Para desarrollar una prueba que utilice la información sobre la simetría
de la distribución muestreada es necesario introducir el concepto de rango
de una observación.

2.5.1. Rangos
Se define el rango Ri de la cantidad Xi, en la sucesión Xl,'" , XN
como el puesto que ocupa Xi en la sucesión ordenada X(1), ... , X(N); esto
significa que Xi = X(R i )' Por ejemplo, en la sucesión

Xl X 2 X3 X4 X 5
23,5 12,6 21,4 32,8 10,4
X(4) X(2) X(3) X(5) X(l)

los rangos de Xl,'" ,X 5 son:

RI R2 R3 R4 R5
4 2 3 5 1

Nótese, por ejemplo, que como RI = 4 entonces X(Rl) = X(4) = Xl = 23,5.


También se define el anti-rango Dj de la j-ésima estadística de orden
X(j) como el subíndice que tiene la observación original de donde proviene
X(j). Esto significa que XD j = X(j). En el ejemplo anterior las estadísticas
de orden son:

X(l) X(2) X(3) X(4) X(5)


10,4 12,6 21,4 23,5 32,8
X 5 X 2 X 3 Xl X4

Y los anti-rangos:

DI D2 D3 D4 D5
5 2 3 1 4

Por ejemplo, como DI = 5 entonces XDl = X(l) = X5 = 10,4. Obsérvese


también que DRi = i.
2.5. PRUEBAS DE LOCALIZACIÓN PARA DISTRIBUCIONES SIMÉTRICAS 37

Se define el rango absoluto Rt de Xi como el rango de 1 Xi en la


1

sucesión ordenada de los valores absolutos 1X 1(1)::::1 X 1(2):::: ... 1X I(N)'


Es decir,
1Xi 1=1 X I(Rt)

El anti-rango de 1X I(j) es el subíndice que tiene la observación de


donde proviene 1X l(j), es decir, 1XDi 1=1 X I(j)'
Se define el rango signado de Xi al producto s(Xd Rt, donde

Es decir, el rango signado de una observación positiva es su rango absoluto,


pero el rango signado de una observación no positiva es cero.

2.5.2. La prueba del rango signado de Wilcoxon


Para la prueba de la hipótesis Ho : () = O versus Ho : () > O, puede
utilizarse la estadística del rango signado de Wilcoxon:
N N
T = ¿RtS(Xi) = ¿iWi
i=l i=l

donde la segunda igualdad se obtiene remplazando i por Di.


La región crítica se obtiene considerando que si muchas observaciones
son positivas y más grandes que los valores absolutos de las negativas, esto
será indicador de que () > O y, por lo tanto, los valores de T tenderán a ser
más grandes. En consecuencia, se rechaza la hipótesis nula Ho : () = O en
favor de la alternativa Kl : () > O cuando

donde ko. se determina de tal manera que, para un nivel de significancia


a E (0,1) dado y fijo, se cumpla P(T 2': ko.) :::: a.

Distribución y momentos de T
Los W i son variables aleatorias independientes y distribuidas B(1,p);
además, bajo H o, E(Wi ) = P(X Dj > O) = p = 1/2 Y Var(Wd = p(1- p) =
1/4. Por lo tanto, también
N
E(T) ¿ iE(Wd = N(N + 1)/4 (Ejercicio)
i=l
Var(T) N(N + 1)(2N + 1)/24 (Ejercicio)
38 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA

Los valores críticos se determinan a partir de la distribución exacta de


T, la cual se calcula construyendo el conjunto de todas las maneras posibles
en que pueden ocurrir observaciones positivas y negativas en la muestra.
Para una muestra de tamaño 4 la distribución exacta de T se obtiene a
partir de su función de probabilidad, como sigue:

Rangos
1 + + + + + + + +
2 + + + + + + + +
3 + + + + + + + +
4 + + + + + + + +
Valor de T 10 9 8 7 7 6 6 5 5 4 4 3 3 2 1 O

entonces la distribución exacta de T es la siguiente:

k O 1 2 3 4 5 6 7 8 9 10
1 2 3 5 7 9 11 13 14 15
P(T:S: k) 1
16 16 16 16 16 16 16 16 16 16
Obsérvese que la distribución de T es simétrica alrededor de 5; en general,
puede demostrarse que la distribución de T es simétrica alrededor de su
valor esperado N(N + 1)/4. Los valores críticos de T se encuentran, por
ejemplo, en Lehmann (1975, tabla H).
Ejemplo 2.5.1. Rosenzweig et al. (1972) reportan experimentos realizados
para determinar la influencia del medio ambiente en la anatomía del cere-
br0 2 . La hipótesis de tal efecto se atribuye a Gaetano Malacarne, anatomista
italiano, alrededor de 1780. En experimentos recientes se han asignado
aleatoriamente tres ratones de cada una de doce camadas para permanecer
en jaulas estándar de laboratorio: una enriquecida con varios juguetes y
otra empobrecida, donde los ratones permanecen aislados. Se hacen obser-
vaciones de medidas, como el peso del cerebro, la actividad enzimática y
el peso de la corteza cerebral. Para este caso se utilizará la medida de la
ganancia en peso de la corteza durante un período específico. Si se comparan
los ratones de un entorno empobrecido con los de un entorno enriquecido
se tiene un experimento pareado, donde los pares se arman de manera na-
tural con ratones que pertenecen a la misma camada y tienen la misma
configuración genética.
Sean X y Y las medidas del peso de la corteza cerebral en el entorno
empobrecido y en el entorno enriquecido, respectivamente. Entonces la va-
riable aleatoria de interés es la diferencia D = Y-X. Bajo la hipótesis
de no diferencia de los efectos de los dos entornos, D tiene distribución
2Tomado de Hettmansperger (1984).
2.5. PRUEBAS DE LOCALIZACIÓN PARA DISTRIBUCIONES SIMÉTRICAS 39

simétrica alrededor de O. Denotando por e el centro de la distribución de


D, el experimento produce 12 observaciones DI,'" ,D 12 , para la prueba
de la hipótesis lIo : O = O versus J{I : e > O. Las observaciones son:

Entorno Enriquecido (Y) Empobrecido (X) Diferencia


1 689 657 32
2 663 646 17
3 653 642 11
4 740 650 90
5 699 698 1
Pares 6 690 621 69
7 685 647 38
8 718 689 29
9 742 652 90
10 651 661 -10
~

11 687 612 75
12 679 678 1
40 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA

Diferencias ordenadas Rangos


1 1,5
1 1,5
10 3
'-v-"
11 4
17 5
29 6
32 7
38 8
69 9
75 10
90 11,5
90 11,5

Como sólo hay una observación negativa ( -10), el valor de la estadística


es la suma de los rangos de las diferencias ordenadas, excluyendo el rango
de la diferencia negativa: T = 75. En la tabla H de Lehmann se lee el valor
crítico 68, para la prueba al nivel a = 0,01 con N = 12, con lo cual se
rechaza la hipótesis nula Ha : e = o. Es decir, el peso de la corteza cerebral
de los ratones criados en un ambiente enriquecido es significativamente
mayor que el de los ratones criados en el ambiente empobrecido.

2.5.3. Distribución asintótica de T


y aproximación de la región crítica

Puede demostrarse que la distribución de la estadística T converge a la


distribución normal (véase Hettmansperger, 1984). Como consecuencia, la
región crítica, a partir de k, puede aproximarse de la manera siguiente:

T - N(N + 1)/4 k - N(N + 1)/4 )


PT>k~P >
( -) ( JN(N + 1)(2N + 1)/24 - JN(N + 1)(2N + 1)/24

k - N(N + 1)/4 )
= 1- <1> ( JN(N + 1)(2N + 1)/24 = a
2.5. PRUEBAS DE LOCALIZACIÓN PARA DISTRIBUCIONES SIMÉTRICAS 41

k - N(N+ 1)/4
y, por lo tanto, para Zl-o = se obtiene:
JN(N + 1)(2N + 1)/24

"-J N(N + 1) JN(N + 1)(2N + 1)


k = 4 + Zl-o 24

o bien, después de la corrección por continuidad:

"-J N(N + 1) J N(N + 1)(2N + 1)


k= 4 + 0,5 + Zl-o 24

Manejo de empates
Por el supuesto de continuidad de la distribución muestreada, en el caso
de las pruebas del signo y del rango signado de Wilcoxon, la probabilidad
de obtener observaciones iguales es cero. Sin embargo, en la práctica es
posible que esto ocurra, debido a la inexactitud en los aparatos de medición
o a errores en el supuesto de continuidad. Para tratar este problema existen
varias alternativas, entre las cuales se mencionan aquí las tres más comunes.

Eliminación de observaciones empatadas


Si el número de observaciones empatadas no es muy grande con respecto
al tamaño total de la muestra (digamos inferior al diez por ciento del total de
datos, aunque en muestras pequeñas este porcentaje debería ser inferior), de
cada grupo de empates se puede dejar una de las observaciones y realizar la
prueba con la misma estadística de prueba sin que los resultados se alteren
de manera considerable.

Asignación aleatoria de los rangos a las observaciones empatadas


Este procedimiento consiste en asignar con algún procedimiento aleato-
rio los rangos que les hubieran correspondido a las observaciones empatadas
en caso de no haber empates. Este procedimiento garantiza que la dis-
tribución de los rangos y, por lo tanto, la distribución de la estadística se
mantienen (Hájek, 1998, p. 131). Por ejemplo, si los datos fueran:

1er grupo de empates 2° grupo de empates 3 er grupo de empates


1 2 34567 8 9 10
2,1 2,1 3,2 3,2 3,2 3,2 3,2 4,1 4,1 4,1

entonces a las dos primeras observaciones se les asigna una de las 2! = 2


permutaciones de los rangos 1 y 2, a las cinco siguientes se les asigna una de
42 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA

las 5! = 120 permutaciones de los rangos 3, 4, 5, 6 Y 7, ya las tres últimas


se les asigna una de las 3! = 6 permutaciones de los rangos 8, 9 Y 10. En
total, se asigna una de las lO! permutaciones de los enteros entre 1 y 10.

Asignación de rangos promedio


El procedimiento consiste en asignar a las observaciones de cada grupo
de empates el promedio de los rangos que les hubieran correspondido en
caso de no haberse presentado empates. Después se calcula la región crítica
usando la distribución de los rangos promedio condicionada al número de
empates y a la longitud de éstos. La forma de hacerlo se ilustra más ade-
lante.

Empates en la prueba del signo


Los empates en este caso ocurren cuando hay observaciones iguales a
cero (caso 1) o iguales entre sí (caso 2).
Caso 1: Sea no el número de observaciones iguales a cero. La manera más
común de tratar el problema, cuando no es pequeño, consiste en eliminar las
observaciones iguales a cero y tratar el problema con la misma estadística
S, pero basada en las n-no observaciones diferentes de cero. La nueva
estadística S también tiene distribución binomial, pero con parámetros n-
no y p = 1/2. En todo caso, no será conveniente utilizar este procedimiento
cuando no sea muy grande con respecto a n.
El caso 2 no altera el cálculo de la estadística de prueba porque para
calcularla sólo se requiere saber si una observación dada es positiva o no.

u sode rangos promedio en la


prueba del rango signado de Wilcoxon
Considérese el conjunto de datos: -2,1; -1,2; -0,5; 1,2; 2,2, en el
cual hay una observación negativa empatada con una positiva. Los valores
absolutos ordenados son: 0,5; 1,2; 1,2; ~; 2,2, donde los datos subrayados
distinguen las observaciones negativas. Para construir la región crítica es
necesario encontrar las probabilidades asociadas a todos los valores posibles
de los rangos promedio. La tabla siguiente muestra los rangos sin empates,
que son los que hubieran correspondido a las observaciones si no hubiera
empates, los datos ordenados, los rangos promedio de las observaciones y
el valor de la estadística de Wilcoxon en presencia de empates:

Rangos sin empates 1 2 3 4 5


Datos ordenados 0,5 1,2 1,2 2,1 2,2
Rangos promedio 1 2,5 2,5 4 5 T= 7,5
2.5. PRUEBAS DE LOCALIZACIÓN PARA DISTRIBUCIONES SIMÉTRICAS 43
---

Para el cálculo de la distribución exacta en presencia de los empates se


procede a construir todos los resultados posibles de un experimento T =
7,5 en el que hay tres observaciones negativas (representadas por las x)
y dos observaciones positivas (representadas por las y), y los valores de la
estadística T de Wilcoxon en presencia de los empates entre una observación
positiva y una negativa. Estos cálculos se muestran en la tabla siguiente:

Rangos promedio
1 2,5 2,5 4 5
Resultados posibles T
x x x y y 9
x x y x y 7,5
x y x x y 7,5
y x x x y 6
x x y y x 6,5
x y x y x 6,5
y x x y x 5
x y y x x 5
y x y x x 3,5
y y x x x 3,5

La distribución exacta de T, condicionada al empate ocurrido en la muestra,


es la siguiente:

t 3,5 5 6 6,5 7,5 9


P(T = t) 2/10 2/10 1/10 2/10 2/10 1/10
P(T :S t) 2/10 4/10 5/10 7/10 9/10 1

Nótese que P(T ::::: 7,5) = 0,3. Para valores grandes de N puede usarse
la aproximación por la distribución normal con:

E(T) = N(N + 1) - bo(bo + 1)


4
1 1
Var(T) = 24 (N(N+1)(2n+1)-b o (b o+1)(2bo+1))- 48 Lbi (b i -1)(bi +1)
~

donde bo es el número de observaciones iguales a cero (o el número de


diferencias iguales a cero en el caso de muestras pareadas). Entonces,

T - E(T)
JVar(T)

tiene distribución normal estándar, con T condicionada por los empates


ocurridos en la muestra.
44 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA

2.6. Estimación (método de Hodges-Lehmann)

2.6.1. Introducción3

En este párrafo se describe un método de estimación puntual y por in-


tervalo para la mediana O de una distribución, a partir de las estadísticas
para las pruebas de hipótesis. Como las estadísticas de prueba de muchos de
los procedimientos no paramétricos pueden escribirse en forma de conteos,
como en el caso de la estadística para la prueba del signo, los resultados
obtenidos en esta sección pueden extenderse fácilmente a esos otros pro-
cedimientos.
Una diferencia considerable entre los métodos de estimación paramétri-
cos y los no paramétricos es que en los métodos paramétricos generalmente
se obtienen primero estimaciones puntuales de los parámetros de interés y
a partir de estos se construyen estadísticas que sirven para los intervalos
de confianza y para las pruebas de hipótesis, mientras que en el contexto
no paramétrico se utilizan las estadísticas de prueba de las hipótesis para
construir los estimadores y los intervalos de confianza de los parámetros.
La metodología no paramétrica para obtener estimaciones puntuales y
de intervalo aprovecha un principio utilizado en el contexto paramétrico
que se introduce a través de la prueba t de Student para una muestra.
Si los valores observados de una muestra aleatoria son Xl,' .. ,X N, puede
definirse la siguiente función lineal de ():

t(O) = v'n(X ~ ()) = _ v'ns () + Vn x


8

donde 8 2 proviene del estimador insesgado usual de la varianza (j2. En la


figura siguiente se muestra t( O), su distribución bajo la hipótesis nula, es
decir, la distribución de t(O) bajo el supuesto de normalidad de los Xi y los
puntos críticos de la prueba de nivelo: para la hipótesis Ho.
Puesto que t(O) > -ta / 2 , se rechaza Ho al nivel de significancia 0:. El
intervalo del (1 - 0:)100% de confianza se obtiene al invertir la región de
aceptación Ho y aparece marcado en el eje O por los valores de {h y Bu.
Entonces:

3Los gráficos y la estructura de presentación de esta sección son tomados o adaptados


de Hettmansperger (1984), pp. 13-17.
2.6. ESTIMACIÓN (MÉTODO DE HODGES-LEHMANN) 45
....:........~~~~-

tce)

tce) = -Vn-
X -
Vn
-e
s s

eL \\
e
\
\
\
\
\
\
\
\
\ I
\
- - - - - - - - - - -\- - - --
\
\

IEl estimador de e es X I
Figura 2.

Pe(é L ::; e ::; éu ) = P(ta/2 ::; t(e) ::; -t a/ 2)


= Pe(lt(e)1 ::; -t a/ 2)
=1-0:

Además, t(e,L ) = -t a / 2 = --eL


Vn' + -
Vn-x
s s
lo cual, teniendo en cuenta que ta/2 = -t 1 - a / 2, implica que:
, s
eL = x- t 1- a/2 Vn
De manera similar, como

se concluye que
46 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA

de modo que [ OL, Ou 1 es el intervalo usual para la media bajo el supuesto


de normalidad. Asimismo, el principio que se usa para estimar O a partir de
t(O) es seleccionar el valor de O que corresponde al punto de simetría de la
distribución de t(O). En una amplia clase de pruebas, tal punto corresponde
a la moda de la distribución nula de la estadística de prueba. En el caso
de la distribución t, la distribución de la estadística t( O) toma su máximo
valor cuando t(O) = O, es decir, cuando iJ = x.

Principio de estimación

El análisis anterior sugiere estimar O con aquel valor que produzca un


valor de la estadística de prueba que esté en el centro de su distribución
nula, es decir, intuitivamente el valor más probable si la distribución de la
estadística de prueba es continua y uno de los valores más probables si es
discreta. Además, los límites del intervalo de confianza se construyen con
las preimágenes de los puntos críticos de la prueba asociada.

2.6.2. Estimaciones basadas en la


estadística de la prueba del signo
Se define 8(0) = 8(Xi - O) = #{Xi > O} = #{Xi - O > O}. Cuando
Dj = i se obtiene 8(0) = #{X(i) > O}, donde X(i) , i = 1, ... , N, es la
i-ésima estadística de orden.

so
N ,t.=..=..t-~o
N - 1 t..=..=..:j - -~
I

N - K -lt----t-~--r-----,o
I
I

N;(2 ,.-------,,0
L-------l1

K+l r---- 0
I
I
2 I
....---11 I
1 II -- o
()
X(1) x(2) X(K+I) X(N/2) X(N/2+1l X(N_IC) xi'" 1) X(N)

Figura 3.
2.6. ESTIMACIÓN (MÉTODO DE HODGES-LEHMANN) 47

En la figura 3, tomada de Hettmansperger (1984), se muestra sobre el


eje vertical para N par la distribución nula de S, binomial de valor esperado
N /2. Como se observa, S( O) es una función escalonada, no creciente, cuyos
saltos ocurren en las estadísticas de orden. Aparte de esto, S(O) es una
función continua por la derecha.

Estimación puntual de la mediana


Al aplicar el principio de estimación de O propuesto arriba, se necesita
un valor de O que produzca un valor de S(O) que esté en el centro de su
distribución nula. En este caso la distribución nula de la variable S( O) es
binomial. Cuando N es par, la distribución binomial, bajo la hipótesis nula,
es simétrica alrededor de N/2, y por lo tanto, cualquier valor fj entre X(N/2)
y X(N/2+1) sirve como estimador de O. Por convención se utilizará:

fj = X(N/2) + X(N/2+l)
2

es decir, la mediana de la muestra. Cuando N es impar, la estimación de


O se obtiene como el valor que se encuentra exactamente en el centro de la
distribución binomial, que coincide con fj = X((N+I)/2)'

Intervalo de confianza para la mediana, basado en la


prueba del signo
Las desigualdades siguientes se deducen de lo anterior y por observación
directa de la gráfica anterior:

X(I) ::; O .;:} S(O)::; N - 1


X (2) ::; O .;:} S(O)::; N - 2
X(k+I) ::; O .;:} S(O)::; N - k - 1

0< x(1) .;:} S(O) = N


O< X(2) .;:} S(O) 2: N - 1
O< X(3) .;:} S(O) 2: N - 2
0< X(N-k) .;:} S(O) 2: N - (N - k - 1) = k + 1

De estas desigualdades se obtienen las siguientes equivalencias de eventos:

X(k+l) ::; O< X(N-k) .;:} K + 1 ::; S(O) ::; N - k - 1


48 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA

y por lo anterior, las igualdades siguientes:

P(X(k+l) ::::: e < X(N-k») = P(K + 1 ::::: S(e) ::::: N - k - 1)


= p(S(e) ::::: N - k - 1) - p(S(e) < k + 1)
= 1 - p(S(e) 2: N - k) - p(S(e) ::::: k)
= 1 - p(S(e) ::::: k) - p(S(e) 2: N - k)
'------~
--.....-----
, 'V'
,
0./2 0./2

bajo H: e = O; por lo tanto, Pe (S(e) ::::: k) = po(S(O) ::::: k). De manera que
al escoger k tal que P(S ::; k) = 0./2 en la distribución binomial, tenemos
que

[X(k+l) , X(N-k»)
es un intervalo del (1 - 0.)100 % de confianza para e, independiente de la
distribución muestreada F E Oo.
Ejemplo 2.6.1. (Continuación ejemplo de las palomas mensajeras, 2.4.2).
Como los datos presentados para ese ejemplo se encuentran ordenados,
basta tomar las observaciones 14 y 15 Y promediarlas, con lo cual se obtiene
que la mediana estimada para el ángulo de error es = 45°. e
Para la construcción de un intervalo de confianza para e
se procede
como sigue: buscar en la tabla de la distribución binomial un valor k tal
que P(S ::::: k) sea lo más cercano posible por debajo a 0,05. De la tabla de la
distribución binomial se encuentra que P(S ::::: k) = 0,045 para k = 9; por lo
tanto, el intervalo del 91 % de confianza para e es: [X(1O)X(19») = [35, 53).
A continuación se presenta una definición formal de un estimador basa-
do en una estadística de prueba propuesto por Hodges & Lehmann (1963).

2.6.3. Estimadores de Hodges-Lehmann (H-L)


Definición 2.6.1. (Estimador de Hodges y Lehmann): Sea Xl,··· ,XN una
muestra aleatoria de la distribución F(x-e), F E Os, Y sea V una estadísti-
ca para la prueba de la hipótesis Ho : e = O. Se define V(e) remplazando
Xi por Xi - e, i = 1,··· ,N.
e
Se supone que V es no creciente en y que la distribución de V bajo
Ho es simétrica alrededor de P,o y no depende de F. Sean:
e* = sup{e : V(e) > p,o}
e** = ínf{e : V(e) < p,o}

Entonces se define la estimación de H-L para e por:


e* + e**
e= -
A

-2 -
2.6. ESTIMACIÓN (MÉTODO DE HODGES-LEHMANN) 49

En la figura siguiente se muestra el gráfico de V (O) no creciente. Se


observa que para todo valor de O:::::; 0* la función V(O) toma valores mayores
o iguales a !-lo, mientras que para valores de O mayores que 0** la función
V(O) está siempre estrictamente por debajo de !-lo, por ser una función
continua por la derecha.

V(B)

I r--- 0

I --o

I --o

I ¡.Lo o

I o

I --o

L-
B
B* B**

Figura 4.

Intervalo de confianza de Hodges-Lehmann para la mediana

El intervalo del (1 - 0:) 100 % de confianza para O obtenido por este


método es [OL,OU], donde OL y 0u se definen como sigue:

(h = ínf{O : V(O) < Cd


Bu = sup{O : V(O) > C2 }

y los valores C l y e 2 son tales que P(V 2:: el) = P(V :::::; C2 ) = 0:/2. En la
figura 5 se muestran los valores de OL y Ou, así como los de el ye2 .
50 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA
- - - . -----.-.-

v(e)
o

e, r~--l-o V(B) > C 2

, ---- I
/-lo V(B) < C l o

C2 ~----+----~---------------------o

----o

B
Bi Bu
{e: v(e) > C 2 }

Figura 5.

2.6.4. Estimación de H-L basada en la


estadística del rango signado de Wilcoxon
En primer lugar, es posible demostrar que T tiene distribución simétrica
alrededor de /-lo (Randles & Wolfe, 1979). Para la construcción del estimador
de Hodges-Lehmann para e, basado en la estadística del rango signado de
Wilcoxon, es necesario expresar T como una función no creciente de e.
Esto puede hacerse por medio de los promedios de Walsh que se definen a
continuación:

Definición 2.6.2. (Promedios de Walsh). Para una muestra Xl, ... ,XN , se
definen los N(N + 1)/2 promedios de Walsh por:

Xi+X j
i -S j
2

Sean Xi!,"" X ip las p observaciones positivas que tiene la muestra.


Entonces, T es la suma de los rangos de estas observaciones en la sucesión
de valores absolutos. Nótese que si X j -S X it , entonces,

Xit +Xj ~ O
2
2.6. ESTIMACIÓN (MÉTODO DE HODGES-LEHMANN) 51
------

es decir, los promedios de Walsh entre una observación positiva y cualquiera


otra observación menor o igual a ella son positivos. Esta situación se ilustra
en la figura siguiente (figura 6).

o
Figura 6.
Entonces, el rango de cualquier observación positiva es:

Rango de Xit = # { Xit +Xj


2 2: O, con X j ::::; Xit } ,para t = 1, ... ,p.

Por lo anterior y como, por definición, T es la suma de los rangos de las


observaciones positivas, se concluye que T es el número de promedios de
Walsh positivos; es decir,

T ~ # { Xi ; X j > O} i <; j

De esta manera, la estadística de Wilcoxon puede escribirse como fun-


ción de (), así:

1'(0) ~ #{ Xi; Xi > O} i <; j

y es una función escalonada, no creciente y tiene saltos en los promedios


de Walsh. Puesto que bajo Ho : () = O la distribución de T es simétrica
alrededor de su valor esperado, puede usarse el método de Hodges-Lehmann
para estimar () (de manera similar que para la prueba del signo), con la
mediana de los promedios de Walsh:

El intervalo del (1 - a)100 % de confianza para () es


[W(a+l) , W(L-a»)

donde

P(T::::; a) = a/2 = P(T 2: L - a) y


L = N(N + 1)
2
Para una ilustración gráfica de esta estimación, pueden remplazarse en la
figura 3 la estadística S por T, N/2 por N(N + 1)/4 y las estadísticas de
orden por los promedios de Walsh ordenados W(l) < ... < W(L) , donde
L = N(N + 1)/2.
52 CAPÍTULO 2. PROBLEMAS DE UNA MUESTRA

Ejemplo 2.6.2. Recordemos que en el experimento de los ratones descrito


en el ejemplo 2.5.1 se rechazó la hipótesis de que la diferencia en el peso de
las cortezas cerebrales de los ratones sometidos a ambientes empobrecidos
y enriquecidos es igual a cero. Para estimar la mediana de la diferencia en
peso se calculan primero los L = (12 x 13)/2 = 78 promedios de Walsh y se
ordenan en forma ascendente. La diferencia mediana estimada es entonces

fj = m<ed(Wij ) = (W(39)
Z_J
+ W(4o))/2 = 36,5
Para calclllar los límites del intervalo de confianza, se encuentra en la tabla
de valores críticos de la estadística de Wilcoxon (tabla H en Gibbons) que
P(T ::; 14) = 0,026 = P(T ::::: 64) y, por lo tanto, el intervalo de confianza
es [W(15), W(64)) = [11,0; 59,5).
Capítulo 3

Problemas de dos muestras

3.1. Introd ucción


En este capítulo se presentan varias pruebas de hipótesis para determi-
nar si las distribuciones muestreadas en un problema de dos muestras se
distinguen en algún sentido (por ejemplo, por su parámetro de localización),
y un método de estimación del parámetro de localización que diferencia las
distribuciones muestreadas.

Modelo de muestreo
El problema general de dos muestras puede formularse de la manera
siguiente: se consideran dos muestras aleatorias independientes entre sí:

• Xl,'" ,Xm , llamada muestra 1, y

• Yl ,'" ,Yn , llamada muestra 2

provenientes de distribuciones absolutamente continuas F y G, respectiva-


mente, donde
F(x) = P (Xi :S x) i = 1,'" ,m
y
G(y) = P (lj :S y) j = 1,'" ,n

53
54 CAPÍTULO 3. PROBLEMAS DE DOS MUESTRAS
~~~~_ ......_ - - - _ . - - - - - _. .

Las hipótesis de interés son:

Descripción de Hipótesis nula Hipótesis alternativa


la alternativa Ha : K :
(1) General F(x) = G(x) 'v'x E IR F(x) i' G(x), al menos unx E IR

(II) Cola izquierda F(x):S G(x) 'v'x E IR F(x) ~ G(x), almenosunx E IR

(III) Cola derecha F(x) ~ G(x) 'v'x E IR F(x) ~ G(x), al menos un x E IR

Si se puede suponer que F y G son distribuciones normales que sólo se


diferencian en su media (en su varianza), entonces la prueba t (la prueba F)
es la mejor para la igualdad de las medias (de las varianzas). Sin embargo, si
por alguna circunstancia no es posible garantizar que las dos distribuciones
son normales, los procedimientos mencionados pueden resultar sensibles a
la violación del supuesto de normalidad ya que las pruebas pierden calidad,
en cuanto a su potencia. En tal caso los métodos no paramétricos son una
alternativa más adecuada.

3.2. Pruebas para la alternativa general


3.2.1. La prueba de rachas de Wald-Wolfowitz
La prueba de rachas de Wald-Wolfowitz (Wald & Wolfowitz, 1940) es
posiblemente la más antigua conocida para el problema de dos muestras con
alternativa general del tipo (1). La estadística para esta prueba se construye
de la manera siguiente: sea Xl,··· ,XN , N = m+n, la muestra combinada
de las observaciones de las dos muestras, donde las primeras m representan
la muestra de las X, es decir, Xi = Xi, i = 1, ... ,m y las segundas n repre-
sentan la muestra de las Y, es decir, Xi = Yi i = m+ 1, ... ,N. Las estadísti-
cas de orden para la muestra combinada se denotan por X(l)'··· ,X(N).
Entonces, se representan las observaciones de la muestra 1, en la sucesión
ordenada de la muestra combinada por unos, y las de la muestra dos por
ceros, de la manera siguiente:

~i ~ {~ si X(j) viene de una observación de la muestra 1


si X(j) viene de una observación de la muestra 2

La sucesión de unos y ceros así construida se llama muestra dicotomizada


y contiene una racha por cada sucesión de observaciones seguidas de la
misma muestra, en la muestra combinada ordenada. Si las dos muestras
vienen de la misma distribución, las rachas de unos y ceros estarán más o
3.2. PRUEBAS PARA LA ALTERNATIVA GENERAL 55

menos bien mezcladas en la muestra dicotomizada y habrá varias rachas en


la sucesión dicotomizada.
Con el argumento anterior, Wald & Wolfowitz utilizaron el número total
de rachas R en la sucesión dicotomizada como estadística de prueba para
la hipótesis con alternativa general, rechazando Ha cuando R toma valores
pequeños. Es decir que se rechaza Ha en favor de la alternativa general K 1
cuando R ::; r a donde rase obtiene de la distribución exacta o asintótica
del número total de rachas, como se mencionó en las secciones 2.2 y 2.2.1
Nótese, sin embargo, que si todas las observaciones de la muestra 1 son
menores que las de la muestra 2, la sucesión dicotomizada será de la forma:

--.....-- --.....--
111···1 000··· O
m-veces n-veces

En tal caso, R = 2 Y significa que los valores de la primera muestra tienen


probabilidades mayores de ser más pequeños que los de la segunda, lo cual es
un indicador de que F(z) 2': G(z). Es decir, valores pequeños de la primera
muestra son "más probables" que valores pequeños de la segunda muestra.
Análogamente, cuando la estructura de la muestra es:

000··· O 111···1
--.....-- --.....--'
n-veces m-veces

también R = 2, pero en este caso es un indicador de F(z) ::; G(z); es decir,


indica lo contrario que en el caso anterior. Entonces, por un lado el valor
pequeño de R es un indicador de que la prueba distingue cuando las dos
distribuciones son diferentes, pero no la dirección de la diferencia.

3.2.2. Prueba de Kolmogorov-Smirnov para dos muestras


La información disponible consta otra vez de dos muestras aleatorias in-
dependientes Xl,'" ,Xm Y Y1 ,'" ,Yn , provenientes de distribuciones con-
tinuas F y G, respectivamente. Como en el caso de una muestra es necesario
definir las distribuciones empíricas de las dos muestras:

z < X(l) z< 1(1)


X(k) ::; z < X(k+1) y Y(k) ::; Z < 1(k+1)
z 2': X(m) z 2': Y(m)

Las estadísticas de prueba y las regiones de rechazo de cada una de las


hipótesis son las siguientes:
56 CAPÍTULO 3. PROBLEMAS DE DOS MUESTRAS
._------,,-

Hipótesis Hipótesis Estadística Región de


nula: Ha: alterna: K l : de prueba rechazo
(1) F(x) = G(x) F(x) =1= G(x) K m.n = Km.n > kl-a.
\Ix E lR. para al menos máx z IFm(Z) - Gn(z)1
un x E lR.

(Ir) F(x) :s; G(x) F(x) ~ G(x) m,n =


K+ K~,n > ki-a.
\Ix E lR. para al menos máx(Fm(z) - Gn(z))
un x E lR.

(III) F(x) 2 G(x) F(x) ~ G(x) m,n =


K+ K;;',n > k 1-a.
\Ix E lR. para al menos máx(Gn(z) - Fm(z))
un x E lR.

La obtención de la distribución exacta de las tres estadísticas de prueba es


bastante engorrosa y no se presentará aquí. Tablas de valores críticos se encuentran
en Gibbons (1992, Tabla 1).

3.2.2.1. Distribución asintótica de Km,n Y K~,n


La distribución asintótica de las estadísticas de prueba coincide (con excepción
de una constante), con la de las estadísticas para las pruebas de bondad del ajuste
estudiadas en la sección anterior.
Bajo la hipótesis nula F(x) = G(x) \Ix E lR., las distribuciones límite de Km,n
y K~,n para todo A > O Y N' = mnl(m + n) son:

m,l~~oo P (Km,n :s; A/vN') = QI(A)


00
~ 22
donde QI(A) = 1- 2 L..,(_1)k-I e -2k.x
k=l

m,l~~oo P (K;;,n :s; A/vN') = Q2 (A)


2
donde Q2(A) = 1 + e- 2 .x

En este caso se rechaza Ha para valores de K~ n 2 AI,¡n en favor de la


alternativa de localización y, análogamente, se rechaza en favor de la alternativa
general para Km,n 2 A/,¡n.

3.3. Una prueba de localización


Acorde con el modelo de muestreo, la información disponible consiste en dos
muestras aleatorias Xl,' .. ,Xm Y YI ," . ,Yn , pero ahora la primera muestra viene
de una distribución F (x - ex) y la segunda, de una distribución F (x - By), con
F E no. La muestra de las X se llama control y la de las Y, tratamiento. Nótese
que F no se supone simétrica pero tiene la misma forma en las dos poblaciones.
3.3. UNA PRUEBA DE LOCALIZACIÓN 57

Sea ~ = Bx - By la diferencia en las medianas de las poblaciones. Entonces, el


problema de inferencia es la prueba de la hipótesis:
Ho: ~ =O versus
Sin pérdida de generalidad puede suponerse que Bx = B y, por lo tanto, que las
distribuciones muestreadas son F(x) y G(x) = F(x - ~), respectivamente, y que
sólo difieren por su parámetro de localización. Entonces, el parámetro de interés
es la diferencia en localizaciones y no los parámetros mismos.
Ejemplo 3.3.1. La situación se ilustrará a partir del llamado modelo de aleato-
rización. Se dispone de N unidades experimentales (unidades producidas por una
misma máquina, animales o plantas de la misma especie, etc.), las cuales se separan
aleatoriamente en un grupo de tamaño m, que servirán de controles, y en otro de
tamaño n, que recibirán un tratamiento, con N = m + n. Representando por X
una medida inicial hecha sobre el grupo control y por Y la misma medida hecha
sobre el grupo tratado, y si el tratamiento actúa como una constante no negativa
~ sobre la medida inicial, entonces al probar la hipótesis Ho : ~ = O, frente a
la alternativa K¡ : ~ > O podrá determinarse si el tratamiento tuvo algún efecto
o no. Como las N unidades experimentales vienen originalmente de la misma
población, el modelo propuesto que especifica la misma distribución muestreada
para tratamiento y control es útil para esta situación experimental.
Nótese que si se comparan atributos a partir de una muestra, naturalmente es
imposible controlar quién posee cuál atributo, es decir, no hay asignación aleatoria
de los atributos a los sujetos observados; el supuesto de que la distribución de los
atributos tiene la misma forma bajo la hipótesis nula no se satisface automática-
mente. Cada atributo puede tener una distribución específica en la población. En
este caso la utilidad de la prueba se limita a que pueda verificarse si los atributos
tienen la misma distribución.
Ejemplo 3.3.2. (Citado en Hettmansperger). Salk (1973) hizo un estudio para
analizar el efecto sosegador de las palpitaciones del corazón de la madre en su re-
cién nacido. Los recién nacidos se pusieron, inmediatamente después del nacimien-
to, durante cuatro días en una sala cuna y se llevaron adonde sus madres sólo a las
horas normales de comida. El grupo tratado formado por 102 bebés fue expuesto
continuamente al sonido de palpitaciones del corazón de un adulto (72 palpita-
ciones por minuto a 80 decibeles). El grupo control se hizo con otros 112 bebés de
la misma sala cuna. Por la forma en que se realiza el experimento es muy difícil
asignar los bebés aleatoriamente a tratamiento y control. Por eso la validez de los
resultados se limita a los bebés del experimento.
D na medida de interés es el cambio de peso en gramos desde el día del nacimien-
to hasta el cuarto día, cambio para el que puede suponerse la misma distribución
para todos los recién nacidos. La expectativa es que el grupo tratado gane más
peso que el grupo control, puesto que al escuchar palpitaciones del corazón hu-
mano, los bebés deberían llorar menos. Si Xl,'" ,Xm son los pesos medidos en
el grupo control y YI ,'" ,Yn , los pesos medidos en el grupo tratado, entonces
X ¡ , . .. ,Xm Y Y¡, . .. ,Yn son muestras aleatorias de F (x) y F (x - ~), F E no,
respectivamente.
Se quiere probar Ho : ~ = O versus la alternativa KI : ~ > O. Por monitoreo
de la sala cuna, se observó que el grupo expuesto a latidos del corazón lloró el 38 %
58 CAPÍTULO 3. PROBLEMAS DE DOS MUESTRAS

del tiempo, mientras que el grupo control lloró el 60 % del tiempo. Además, el 70 %
del grupo expuesto ganó peso, lo cual contrasta con el 33 % que ganó peso en el
grupo control. El grupo expuesto mostró una ganancia mediana de 40 gramos,
mientras que el grupo control mostró una pérdida mediana de 20 gramos.
Una prueba muy común para probar la hipótesis formulada en el problema
anterior es la prueba de Wilcoxon. Antes de presentar la estadística utilizada en la
prueba de Wilcoxon, es necesario introducir los rangos para el caso de dos muestras
y alguna notación y propiedades adicionales de estos.

3.3.1. Rangos en el problema de dos muestras


Nuevamente se utiliza la muestra combinada Xl,'" ,XN , N = m + n, donde
Xi = Xi, i = 1,'" ,m, Y X m+ j = O' j = 1,'" ,no Sean X(1),.·. ,X(N) las
correspondientes estadísticas de orden. El puesto que ocupa Xi en la muestra
combinada, denotado por Qi, se llama rango de Xi. El puesto o rango de una
observación coincide entonces con el número de observaciones menores o iguales a
ella. Es decir:

Xi = X(Q;)

Bajo la hipótesis nula Ha : ~ = O, los Qi tienen las propiedades siguientes:

Propiedades de los rangos


Proposición 3.3.1.
1
P(Qi = s) = N s,i=l,···,N

Demostración. Al fijar un valor de Qi sólo permutan los restantes N -1. Entonces


P (Qi = s) = (N - l)!/N! = l/N.
Ejemplo 3.3.3. Para N =3
Ql Q2 Q3
1 2 3

! 2~
11 3
2 1 3

P( Q2 = 3) = 1/3; pues, de las seis permutaciones, hay dos en que esto ocurre.

1
Propo,idón 3.3.2. l'(Q, ~ s. Qj ~ t) ~ {:(N _1)
s-=f.t
1 <5.i-=f.j<5.N
s = t
3.3. UNA PRUEBA DE LOCALIZACIÓN 59

Demostración. Como arriba, al fijar dos valores Qi y Qj, sólo permutan los restantes
N - 2. Entonces

(N - 2)! 1
P(Qi=S,Qj=t)= N! = N(N-1)

Proposición 3.3.3.
E(Qi) = N: 1, i = 1,"',N
Demostración.

N 1 N N+1
E(Qi) = ¿SP(Qi = s) = N ¿ s = - 2 -
8=1 8=1

Proposición 3.3.4.

N 2 -1
Var(Qi)= 12 ' i = 1,"',N

Demostración.

Var(Qi) = E (Q7) - E2(Qi) = ~ t


8=1
S2 _ (N: 1)2

(N + 1)(2N + 1) (N + 1)2
6 4
Proposición 3.3.5.

Demostración. (Ejercicio) Sugerencia: utilice el hecho de que

y que
N N N N N
2
(¿s)(¿t) = ¿t + ¿¿st
8=1 t=1 t=1 8=1 t=1

3.3.2. La estadística de rangos de


Mann-Whitney-Wilcoxon
Para probar Ha : D. = O versus K 1 : D. > O, Wilcoxon (1945) propuso el
procedimiento siguiente:
1. Ordenar de menor a mayor la muestra combinada X 1, ... , X N .

2. Determinar los rangos correspondientes y luego calcular la suma U de los


rangos de los tratados, o sea, de las observaciones Y.
60 CAPÍTULO 3. PROBLEMAS DE DOS MUESTRAS

3. Rechazar Ha si U ?: k; es decir, si U es muy grande. En otras palabras,


grandes valores de U indican que el grupo tratado ocupó las últimas posi-
ciones en la muestra combinada, o sea que el tratamiento condujo a valores
más grandes de los Y que de los X. Los valores críticos de la prueba pueden
leerse en la tabla B de Lehmann (1975) o pueden obtenerse directamente a
partir de la distribución exacta de U.

3.3.3. Distribución exacta de U

Se construyen todos los (~) arreglos distinguibles de m X y n Y que corre-


sponden a todas las maneras posibles como pueden mezclarse las dos muestras en
orden ascendente en la muestra combinada.
En la tabla siguiente se ilustran estos cálculos para el caso m = 3 y n = 2.

Rangos
1 2 3 4 5 U W
y y x x x 3 O
y x y x x 4 1
y x x y x 5 2
x y y x x 5 2
Arreglos
y x x x y 6 3
x y x y x 6 3
x y x x y 7 4
x x y y x 7 4
x x y x y 8 5
x x x y y 9 6

La columna de W = U ~ n( n 2+ 1) se utiliza más adelante. La distribución


exacta de U se muestra en la tabla siguiente:

U 3 4 5 6 7 8 9
1 1 1 1 1 1 1
P(U = u) 10
10 5 5 5 10 10
1 2 4 6 8 9
P(U :s: u) 10 10 10 10 10 10

Para calcular el valor esperado y la varianza de U se procede como sigue.


Sean R 1 , ... ,Rn los rangos de Y1 , ... ,Yn en la muestra combinada. Entonces, la
estadística de la prueba de Wilcoxon puede escribirse como:
n
U=¿Ri
i=l

La estadística U es la suma de los rangos de las unidades que recibieron tratamiento


en el experimento.
3.3. UNA PRUEBA DE LOCALIZACIÓN 61

Al utilizar las propiedades de los rangos obtenidas en (3.3.1) se obtiene (ejer-


cicio ):

E(U) = n(N + 1) y Var(U) = mn(N + 1)


2 12

Otra expresión de U es la propuesta por Mann & Whitney (1947), que además
será útil en la construcción de un intervalo de confianza para .6.:

n(n + 1)
U=W+--- - (3.1 )
2
donde

W = L. L. <jJ(Y; -
m m
Xi) = #(Y; - Xi > O), con <jJ(x) =
{1
O
x>O
x::;O
,=1 )=1

esta equivalencia se demuestra en la ecuación (3.4).


En la expresión anterior se nota que W cuenta el número de observaciones de
las Y que son mayores que las X. También se deduce de allí que (Ejercicio):

E(W) = rr;n y Var(W) = mn(N + 1)


12
(3.2)

Dada la relación entre U y W, la región crítica de cualquiera de las estadísticas


puede obtenerse a partir de la de la otra.

Nota: Para propósitos de la prueba de hipótesis es más sencillo utilizar U, pero


para construcción del intervalo de confianza de .6. y su estimador puntual es mejor
usar la expresión #(Y - i - X j > O).

3.3.4. Distribución asintótica de U y W


y aproximación de la región crítica
En vista de la equivalencia de las estadísticas U y W, es suficiente analizar
la conducta asintótica de una de ellas; en este caso W. Como W no es una suma
de variables aleatorias independientes, no puede aplicarse directamente el teore-
ma del límite central para aproximar su distribución. El teorema siguiente da las
condiciones en las cuales la estadística W converge a la distribución normal, resul-
tado que permite aproximar la región crítica cuando los tamaños de muestra son
suficientemente grandes y satisfacen las condiciones exigidas por el teorema.

Teorema 3.3.1. Sea W la estadística de Mann-Whitney-Wilcoxon. Si los tamaños


m
de las dos muestras crecen de tal forma que lím - = A, O < A < 1, N = m+n,
ffi,n----+oo n
entonces bajo la hipótesis nula Ha : .6. = O, (W - EW) / JVar(W) converge en
distribución a N(O, 1). Demostración en Hettmansperger (1984, pp. 137-139).
62 CAPÍTULO 3. PROBLEMAS DE DOS MUESTRAS

3.4. Estimaciones basadas en


la estadística de Wilcoxon
Antes de construir el estimador se demuestra la expresión 3.1 que relaciona U
con W:
n
Como U = ¿ R i , conviene la expresión siguiente para R i :
i=l

m n

Ri = #(Xj ~ Y;) + #(lj ~ Y;) = ¿ <,b(Y; - Xj) + ¿ <,b(Y; - lj)


j=l j=l

donde
1 x:::: O
<,b(x)= { O x<O

entonces la suma sobre en la ecuación anterior produce la expresión siguiente


para U:
n n m n n

U = ¿Ri = ¿¿<,b(Y; - Xj) + ¿¿(Y; - lj),


i=l i=l j=l i=l j=l

o bien, al sumar en el orden de las estadísticas de orden de los Y: Y(1),"" Y(n)


en el segundo par de sumas:
n m n n

U = ¿¿<,b(Y; - Xj) + ¿¿<,b(Y(i) - lj) (3.3)


i=l j=l i=l j=l

En la expreSlOn anterior el primer par de sumas indica el número total de


diferencias positivas en la muestra. Para el segundo par de sumas, nótese que
n
¿<,b(Y(i) - lj) = #{lj ~ Y(i)} = i
j=l

y, por lo tanto, para la doble suma vale:


n

J=l )=1
n
¿¿<,b(Y(i) - lj) = f>
j=l
= n(n+ 1)
2
(3.4)

al remplazar este resultado en (3.3) se obtiene


n n
U = ¿¿ <,b(Y; _ Xj) + n(n ~+ 1) = W + n(n + 1)
j=lj=l

El estimador de Hodges Lehmann y el correspondiente intervalo de confianza


para.0. se construyen con la expresión 3.1 para W. Se define W como función de
.0. por:

W(.0.) = #(Y; - X j > .0.), i = 1, ... , n, j = 1, ... , m


3.4. ESTIMACIONES BASADAS EN LA ESTADÍSTICA DE WILCOXON 63

y se observa que W(~) es una función no creciente en ~; además, puede de-


mostrarse que su distribución es simétrica alrededor de su valor esperado mn/2,
supuestos necesarios para el estimador de Hodges- Lehmann. Entonces, el esti-
mador de Hodges -Lehmann para ~ es:

~ = med(Yi - Xj )
',]

Al ordenar las diferencias (Yi - X j ) en la sucesión D(1), ... , D(mn), se construye


el intervalo del (1 - 0') 100 % de confianza para ~:

donde k se escoge de manera que P(W :s; k) = 0'/2 bajo la hipótesis nula.
Mediante la corrección por continuidad puede aproximarse k por la distribución
normal así:

mn Z Jmn(m+n+1)
k = 2" - 0,5 - 0./2 12

Manejo de empates
Aquí, como en el caso de una muestra, los empates se tratan con cualquiera de
los métodos descritos en la sección 2.6; en especial, para el método de asignación
de rangos promedio, se construye la distribución de la estadística de Wilcoxon
condicionada al número y el tamaño de los empates.
Por ejemplo, para m = 3 y n = 2, considérese la muestra: Xl = 2,1, X 2 =
1,2, X 3 = 0,5, Y1 = 1,2, Y2 = 2,2, en la cual hay dos observaciones empatadas.
La muestra combinada y ordenada es: 0,5,1,2,1,2,2,1,2,2.
Entonces se procede a calcular las probabilidades asociadas a todos los valores
posibles de los rangos promedio. Para esto en la siguiente tabla se muestran los
rangos sin empates (que son los rangos que hubieran correspondido a las obser-
vaciones al no haber empates), los datos ordenados, los rangos promedio de las
observacioues y el valor de la estadística de Wilcoxon en presencia de empates:

Rangos sin empates 1 2 3 4 5


Datos ordenados 0,5 1,2 1,2 2,1 2,2 T = 7,5
Rangos promedio 1 2,5 2,5 4 5

Se construyen todas las maneras posibles en que pueden ocurrir las m = 3 y


las n = 2 observaciones de la muestra combinada, ordenadas en forma ascendente.
Para cada arreglo se calcula el valor de la estadística de U de Wilcoxon y su pro-
babilidad asociada (parte A de la tabla siguiente). Después se calculan la función
de probabilidad de la estadística y su función de distribución (parte B de la tabla):
64 CAPÍTULO 3. PROBLEMAS DE DOS MUESTRAS

A
Resultados posibles t P(T = t)
1
Y Y x x x 3,5 10
1
Y y X X x 3,5 10
1 B
x x y x 5
Y 10
1
t P(T = t) s:
P(T t)
X Y Y x x 5 10 5 0,2 0,4
x X 6 1 6,5 0,2 0,7
Y X Y 10
1
7,5 0,2 0,9
x x y y x 6,5 0,1 1
10 9
1
x Y x Y x 6,5 10
1
x X Y X Y 7,5 10
1
X Y x x y 7,5 10
1
X X x Y y 9 10

Nótese que P(T = 7,5) = O,l.

Para m y n grandes, se usa la aproximación normal con


n(N + 1)
E(U) Y
2
r

mn i~ (bf - bi )
mn(N + 1)
Var(U)
12 12N(N - 1)
donde bi es la longitud del 'i-ésimo empate (número de observaciones empatadas
b
en el i-ésimo grupo). Esta aproximación sólo se usa en caso de que. máx ~ sea
,=l,"',r N
acotado lejos de 1, cuando N ---+ oo. Es decir, cuando la longitud del mayor de los
empates no esté muy cerca de N.

3.5. U na prueba para la alternativa de escala


El problema surge en el mismo contexto de dos muestras provenientes de
distribuciones continuas con la misma mediana pero que se distinguen por un
parámetro de escala. Concretamente, sean Xl, ... , X m Y YI , ... , Yn dos muestras
aleatorias, pero ahora la primera muestra viene de una distribución F (:1) y la

segunda de una distribución F (:J, F E no.


También en este caso, como para la alternativa de localización, se construye
la muestra combinada Xl,'" , XN, N = m + n, donde Xi = Xi i = 1,'" , n y
X m +j = Y¡, j = 1,'" , n y se ordenan las observaciones, dando como resultado la
muestra combinada y ordenada X (1), . o. , X (N) .
Cuando el supuesto sobre la igualdad de las medianas no se cumple, es nece-
sario suponer que al menos la diferencia (J = (JI - (J2 entre las medianas de las
3.5. UNA PRUEBA PARA LA ALTERNATIVA DE ESCALA 65

dos poblaciones se conoce. En este caso la transformación X ~ el, ... ,Xm ~ el


garantiza que las dos muestras tienen la misma mediana fh, la cual puede restarse
a las dos sucesiones de datos para que ambas queden con mediana igual a cero.
Por último, si las medianas el y fh de las dos poblaciones son conocidas,
e
entonces las transformaciones X ~ fh, . .. ,Xm ~ (h Y Y ~ 2 , . .. , Yn ~ 2 tienen e
la misma mediana igual a cero.
Al definir el cociente entre los parámetros de escala de las dos muestras por
~ = <;1, el interés se centra en la prueba de la hipótesis que compara los dos
<;2
parámetros de escala, así:

Hipótesis Hipótesis Interpretación de la alternativa


nula alternativa
Ha : ~ = 1 K1 : O< ~ -¡. 1 Las X y las Y difieren por su parámetro de
escala.
Ha : ~ = 1 K2 : ~ >1 La distribución de X presenta mayor disper-
sión que la de Y.
Ha: ~ =1 K3 : O < ~ < 1 La distribución de Y presenta mayor disper-
sión que la de X.

Además, si se supone que Xl, ... ,Xm viene de una distribución F y Y l , ... ,Yn
viene de otra distribución G, entonces para ~ <;1 > O, las hipótesis pueden

formularse también de la manera siguiente:

Hipótesis Hipótesis Interpretación de la alternativa


nula Ha alternativa
G(x) = F(x) Kl : G(x) = F(~x) Las X y las Y difieren por su parámetro
Vx E lR para algún x E lR de escala.
O<~-¡'l

G(x) = F(x) K 2 : G(x) = F(~x) La distribución de X presenta mayor


Vx E lR para algún x E lR dispersión que la de Y.
~ > 1
G(x) = F(x) K;, : G(x) = F(~x) La distribución de Y presenta mayor
Vx E lR para algún x E lR dispersión que la de X.
0<~<1

Es conveniente aclarar que hasta el momento no se ha hecho ningún supuesto


sobre la existencia de las varianzas de las distribuciones muestreadas y, por lo
tanto, las hipótesis que van a probarse no necesariamente son hipótesis sobre tales
varianzas.
66 CAPÍTULO 3. PROBLEMAS DE DOS MUESTRAS

3.5.1. Prueba de Mood


La prueba se basa en los cuadrados de las distancias entre los rangos i de las
observaciones de una de las muestras y su rango medio (N + 1)/2:

(i - N: Ir
Estos desvíos son indicadores de que cuanto más lejos se encuentre el rango de una
observación de su rango medio, más dispersa puede considerarse. La estadística de
prueha es:

{~
N
MN = ¿ (i _ N + 1) 2 Zi
Zi =
si
si
X(i)

X(i)
proviene de la muestra 1
proviene de la muestra 2
,=1 2

Las regiones de rechazo para las hipótesis de interés son las siguientes:

Hipótesis nula Alternativa Región de rechazo


Ho: ~ = 1 K 1 : O< ~ =1 1 MN ::; k a / 2 o MN ;:: k1~a/2
Ho: ~ = 1 K2: ~ >1 MN ;:: k1~a

Ho: ~ = 1 K3 : O< ~ <1 MN ::; ka

3.5.2. Distribución exacta y momentos de MN


Se obtiene a partir de todos los arreglos distinguibles de las dos muestras, como
en el caso de la estadística de Wilcoxon para la alternativa de localización en dos
muestras. El valor esperado y la varianza de la estadística son (véase demostración
en Gibbons, 1984, pp. 265-266):

2 2
E(M ) = m(N - 1) V (M ) _ mn(N + 1)(N - 4)
N 12 Y ar N - ---'------18--'--0~-2

La distribución de MN es simétrica únicamente en el caso en que m = n.

3.5.3. Distribución asintótica de MN


En condiciones relativamente generales puede demostrarse que la distribución
de la estadística de Mood converge a la distribución normal de manera que para
muestras grandes las regiones críticas se construyen a partir de:

z= MN - m(N 2 - 1)/12
-ylr=m=n=7(N=====+=I=)=:=:(N=:=:2::==_==4)=7/=18=0

En tal caso las regiones críticas para la prueha son:


3.5. UNA PRUEBA PARA LA ALTERNATIVA DE ESCALA 67

Ho Alternativa Región crítica

+ 1)(N 2 m(N 2 - 1)
~ = 1
MN
o
<Z
-
Q
2 J mn(N
180
- 4)
- -----'----'-
12
mn(N + 1)(N 2 m(N 2
MN >Z"
- J
"2 180
- 4)
+-----'-
12
- 1)

~ =1 Jmn(N + 1)(N 2 - 4) m(N 2 - 1)


M N >Z
- a 180 + 12

mn(N + 1)(N 2 4) m(N 2 - 1)


~=1
MN <Z
- a J 180
-
- -----'----'-
12
Capítulo 4

Problemas de K muestras:
,
una y dos Vlas

4.1. Introd ucción


En este capítulo se introducen métodos basados en rangos para comparar la
localización de dos o más poblaciones. Se presentan dos modelos: en el primero,
llamado ar-reglo de una vía, se dispone de K muestras independientes. El interés
está en probar que todas las muestras vienen de la misma población. La prueba
más usada en este caso es la de Kruskal Wallis. En el segundo también se comparan
K muestras independientes, pero los datos pueden estar influidos por una segunda
variable y, por lo tanto, pueden clasificarse de dos maneras: la población de donde
vienen y el bloque o categoría de la segunda variable a la que pertenecen. Este
modelo se llama arreglo de dos vías y la prueba más conocida para la comparación
de los parámetros de localización de las K muestras es la prueba de Friedman.

4.2. Arreglos de una vía y


prueba de Kruskal-Wallis
Como se anunció antes, en un arreglo de una vía se dispone de K muestras
independientes para las cuales se quiere probar una hipótesis sobre igualdad de las
distribuciones de donde estas provienen, frente a la alternativa de que estas difieren
en algún sentido. En el caso que se trata aquí, el interés está en las diferencias entre
sus parámetros de localización.

Modelo de muestreo
Se dispone de K muestras

Xl,},'" ,XN ¡,I,X 1,2,'" ,XN2 ,2,'" ,XI,K,'" ,XN¡.;,K

extraídas de las distribuciones F(x-fh), F(x-e 2 ),··· , F(X-eK), respectivamente,


donde F E no y el, ... , eK son las medianas de las K poblaciones. El problema

68
4.2. ARREGLOS DE UNA VÍA Y PRUEBA DE KRUSKAL-WALLIS
._--- . - - - _ . _..._ - - - ---- ---- - -----_. __._--- ._-----
69

de inferencia es la prueba de la hipótesis:

Ho: (h = ... = 8 K versus K l : 8i -# (Jj para algún i -# j con i,j = 1,··· ,K

La hipótesis nula especifica únicamente que las medianas son todas iguales pero
no dice cuál es la mediana común. Otra forma de expresar la hipótesis nula es
definiendo 1).j = (JH1 - (Jj, j = 1,··· , K - 1; así la hipótesis nula es la siguiente:

Ho: 1).1 = ... = 1).K-I =O


Ejemplo 4.2.l. (Tomado de Hettmansperger, 1984). En un estudio sobre la in-
fluencia de la base sanguínea en la conducta, Terkel & Rosenblatt (1968) inducen
conducta materna en ratas vírgenes inyectándolas con plasma sanguíneo de ratas
que acaban de tener un parto. Luego se exponen las ratas vírgenes a la presencia de
crías de rata y se mide el tiempo hasta que comienzan a acariciar a los cachorros.
Acariciar es una conducta maternal que generalmente aparece dentro de las 48
horas siguientes al parto. Se sabe que esta misma conducta se da en ratas vírgenes
cuando se dejan durante cinco días con cachorros. Por lo tanto, se espera que el
plasma maternal reduzca este tiempo en las ratas inyectadas. Para el experimento
se tomaron 32 ratas vírgenes de 60 días de edad y se asignaron aleatoriamente a
los siguientes 4 grupos de 8 ratas:
l. Ratas inyectadas con plasma sanguíneo de ratas que acaban de tener parto.
2. Ratas antes del celo que recibieron sangre de ratas antes del celo.
3. Ratas en celo que recibieron plasma sanguíneo de ratas en celo.
4. Ratas inyectadas con una solución salina (placebo).
Se considera que los datos provienen de poblaciones con funciones de distribu-
ción F(x - (Ji), i = 1,··· ,4, F E Do y se quiere probar Ha : (JI = (h = 83 = 84
versus KI : (Ji -# 8j para algún par i -# j con i, j = 1,··· ,4. En caso de rechaz-
ar Ha, se quiere saber cuáles grupos son significativamente diferentes. En general
los datos pueden visualizarse en un arreglo de K columnas en el que la j-ésima
columna representa la j-ésima muestra y tiene N j filas que corresponden a las N j
ohservaciones de una población con distribución F(x - 8j ), F E Do. La estrategia
de Kruskal Wallis para construir la prueba es calcular los rangos de la muestra
combinada de tamaño N = NI + N 2 + ... + N K Y comparar las sumas (o promedios)
de los rangos por columnas. El procedimiento se discute a continuación.

4.2.1. La prue ha de Kruskal-Wallis


Sea Rij el rango de Xij en la muestra combinada. Se define:

NJ
R.j = LR;j
i=l

K
Los R.j satisfacen ¿ R.j = N(N + 1)/2. La distribución bajo Ho de los Rij
j=1
así como el valor esperado, la varianza y la covarianza son los mismos que en el
70 CAPÍTULO 4. PROBLEMAS DE K MUESTRAS: UNA Y DOS VÍAS

K
caso de dos muestras, pero utilizando N = L Ni. Además,
i=l

E(R ej ) = Nj(N + 1) R ej ) = ~
E(- N
2 2
N(N + 1)
Como la diferencia Rej - J 2 representa la distancia entre la suma de los
rangos de los individuos de la j-ésima muestra y el rango esperado de estos bajo
la hipótesis nula, se espera que grandes valores de estas diferencias acumuladas
apoyen la hipótesis alternativa de no igualdad de las medianas de las distribuciones
muestreadas.
La estadística de KruskalWallis para probar la hipótesis Ho : el = ... = eK ,
es la siguiente:

H = 12
N(N + 1) L
K 1
N (Re j - Nj(N + 1))2
J=l J 2

y puede expresarse también como sigue (ejercicio):

H _ 12 R2 .
- N(N + 1) L ;J - 3(N + 1)
K

J=l J

La distribución exacta de esta estadística puede calcularse construyendo, como en


el caso de dos muestras, todos los N!j(Nl !N2 !···NK !) arreglos de las observa-
ciones combinadas, las cuales son igualmente probables bajo la hipótesis nula. Sin
embargo, este proceso puede resultar tedioso y largo si se tiene en cuenta que hay
que construir una tabla de valores críticos para cada K. Es decir, desde el punto de
vista práctico, esta alternativa no resulta muy útil. Por esta razón, es conveniente
desarrollar la metodología de construcción de la región crítica vía distribución
asintótica de la estadística de prueba. Valores críticos de la estadística para la
prueba de Kruskal Wallis se encuentran en la tabla K de Gibbons (1992, p. 503).
Para otros valores de K y de N j la estadística H se distribuye asintóticamente
como una Xk-l bajo la condición de que:

N
_J ~A
N J
0< Aj < 1 (4.1)

La prueba de Kruskal-Wallis rechaza la hipótesis nula Ho : el = ... = eK al nivel


de significancia aproximado a cuando:
2
H.:? Xl-a;K-l
2
donde Xl-a,K-l es tal que P (2
X
2)_
~ Xl-a;K-l - 1 - a, donde
2,
XK-l es una
variable aleatoria con una distribución Ji-cuadrado con K - 1 grados de libertad.

Manejo de empates
Aunque teóricamente la probabilidad de que se presenten observaciones em-
patadas en la muestra es igual a cero porque las distribuciones muestreadas se
4.2. ARREGLOS DE UNA VÍA Y PRUEBA VE KRUSKAL-WALLIS
---,._----------
71

suponen absolutamente continuas, es inevitable que en la práctica se presenten


observaciones empatadas. En este caso se puede utilizar la siguiente estadística
modificada:
H
H* = -----::c;;---- (4.2)
r b3 - b,
1- ¿ J J
j=l N3 - N

donde r es el número de grupos empatados y bj es el número observado de empates


en el j-ésimo grupo. En el cálculo de r se tiene en cuenta que una observación no
empatada es un grupo de tamaño 1. La hipótesis nula, Ho : fh = ... = (JK, se
rechaza cuando

H*:>
'/
2
Xl-a ,K-l

Ejemplo 4.2.2. (Tomado de Hettmansperger, 1984 p. 187). La característica ob-


servada en el experimento de las ratas es el tiempo que transcurre hasta que
aparece la conducta esperada y la unidad de tiempo es la longitud de una sesión
de observación. Por ejemplo, 0,5 significa que la conducta maternal se inició a la
mitad de la primera sesión de observación. Los datos recolectados se presentan en
la tabla siguiente:

Plasma Plasma Plasma Solución


materno antes del después salina
celo del celo
Obs Rij Obs Rij Obs Rij Obs Rij

0,5 2 1,1 6 0,4 1 0,9 4


0,7 3 1,6 8 1,9 10 2,1 11
1,0 5 3,7 18 2,4 13,5 3,0 16
1,2 7 4,3 20 2,8 15 4,7 21,5
1,7 9 4,7 21,5 3,9 19 6,4 25
2,3 12 5,6 24 5,4 23 6,6 26,5
2,4 13,5 6,6 26,5 11,4 31 8,5 28
3,1 17 8,8 29 20,4 32 10 30
68,5 153 144,5 162
132 132 132 132

El valor de la estadística H* es 7,85, mayor que xLo 05'3 = 7,81; por lo tanto,
se rechaza la hipótesis Ho : (JI = (J2 = (J3 = (J4 a fa~or' de la alternativa KI :
(JI, (J2, (J3, (J4 no son todos iguales.

Empates
En el ejemplo anterior hay 26 empates de tamaño 1 y tres empates de tamaño
2, por lo tanto, bj = 2 en tres de los casos y bj = 1 en los restantes 26 casos.
72 CAPÍTULO 4. PROBLEMAS DE K MUESTRAS: UNA Y DOS VÍAS

Entonces, para el cálculo de H* en (4.2) basta observar que bJ - bj = 6 en tTf~S


r (b 3 - bj )
casos y bJ - bj = O en los restantes 26 casos, de manera que 1 - ¿ J =
j=l N3- N
18
1 - 32736 = 0,99945, lo cual en este ejemplo (por ser tan pocos y tan cortos
los empates) no cambia considerablemente el valor de H ni la decisión sobre la
hipótesis nula.

4.2.2. Una prueba para detectar las fuentes


de significancia en arreglos de una vía
Cuando la prueba de Kruskal- Wallis rechaza la hipótesis nula, sólo puede con-
cluirse que hay diferencias entre las localizaciones de las poblaciones comparadas.
Entonces es necesario hacer todas las K(K - 1)/2 comparaciones posibles por
pares para determinar las responsables de las diferencias. Tales comparaciones se
basan en la diferencia de los rangos promedio por muestras (por columnas). La
estadística utilizada para la prueba es:

D _ 1 -
Z] - v1V(R ej - R ei )
la cual, bajo la hipótesis nula, tiene

E(D ij ) = O Var(D ij ) =
N+1(1
12 N + Ni
1)
j

Bajo el supuesto (3.3.1) se obtiene, después de multiplicar y dividir por N el


denominador de Var(D ij ),

Var(D) ---+ -
1 ( -1 1)
+- N---+oo
Z] 12 Aj Ai
En estas condiciones puede demostrarse que Dij se distribuye asintóticamente
como una normal de media cero y varianza (J
2
= 1(1
12 Aj + Ai1) .
Para hacer la prueba se procede como sigue: sea a el nivel de significancia
global de la prueba y
20'
a' = K(K _ 1) (4.3)

la probabilidad de error tipo I en una de las pruebas. Entonces Ha : ei = e] se


e e
rechazará frente a la alternativa Kl : i =1= j al nivel de significancia a' si

IDij I ~ Z,+ JVar(Dij)

a'
donde Z eL es tal que P( Z ~ Z eL) = -, o bien cuando
2 2 2

- - N(N + 1) (~ + ~)
IRej - Reil ~ z,!/- ,/ 12 N Ni
j
4.2. ARREGLOS DE UNA VÍA Y PRUEBA DE KRUSKAL-WALLIS 73

Observación: nótese que a' ~ P (IDij I ~ Z 4f JVar(D ij )) es la probabilidad de


error tipo 1 en una de las pruebas. Por lo tanto, la probabilidad de incurrir en al
menos un error tipo 1 en todas las pruebas es:

p( U IDijl ~ Z4f Jvar(Di j )) ~ 2:: p(IDijl ~ Z4f JVar(Di j ))


'<J I<J
K(K -1) I
= a =a
2
Por consiguiente, tomar a' = 2a/ K(K - 1) equivale a acotar la probabilidad de
incurrir en al menos un error tipo 1 en todas las K(K - 1) pruebas realizadas.
Ejercicio: Hacer las pruebas comparando por pares para determinar cuáles son
los que presentan diferencias significativas.

4.2.3. Una prueba para la alternativa ordenada


en arreglos de una vía
En algunas ocasiones existe información acerca del orden en que se encuentran
los tratamientos o las muestras. La hipótesis nula, H o : el = ... = eK, se contrasta
con la alternativa, K 1 : el ~ ... ~ eK, donde al menos una desigualdad es estricta.
La prueba de Jonckheere (1954) y Terpstra (1952) utiliza la estadística

J= ¿Wij
i<j
donde
v = 1,··· ,Nj u= 1,··· ,Ni
es el número de observaciones de la muestra j que exceden a las de la muestra i.
La prueba de Jonckheere Terpstra rechaza la hipótesis Ho : el = ... = eK a
favor de la alternativa K 1 : el ~ ... ~ eK cuando

J ~ E( J) + Z", JVar J
donde
N K 2
E(J) = ¿ Ni2N = N ¿--t
j 2
-
i<j j=l
porque
K 2 K
(¿N j ) = ¿NJ +2¿¿NiNj
j=l j=l i<j
y

1 K
Var(J) = 72 (N (2N + 3) - ¿NJ(2N
2
j + 3))
j=l
y Z" el a-ésimo cuantil superior de la distribución normal.
74 CAPÍTULO 4. PROBLEMAS DE K MUESTRAS: UNA Y DOS VÍAS

4.3. Arreglos de dos vías y prueba de Friedman


En los arreglos de una sola vía se comparan K muestras con el objeto de de-
tectar diferencias significantes entre las poblaciones muestreadas. El modelo de
aleatorización consiste en asignar aleatoriamente los N individuos utilizados en el
experimento a los K tratamientos. Sin embargo, una alta variabilidad entre los
sujetos dentro de las muestras puede enmascarar las diferencias existentes entre
los K tratamientos. Para disminuir el efecto de esta variabilidad, en muchos ca-
sos suelen separarse los individuos en subgrupos más homogéneos denominados
bloques y se realizan las comparaciones dentro de los bloques. En la práctica esta
situación se denomina modelo de bloques completos aleatorizados y se presenta en
alguna de las dos situaciones siguientes:

1. Se dispone de N = nk unidades experimentales (individuos, objetos, etc.)


y se separan en n grupos (bloques) con K unidades cada uno, teniendo la
precaución de que los grupos sean homogéneos en el sentido de contener
individuos parecidos entre sÍ. Por ejemplo, si las unidades son variedades
de café, las K unidades de un grupo deben ser de la misma variedad; si
las unidades son personas, entonces deben ser de la misma edad, el mis-
mo género, etc. Después se asignan aleatoriamente K tratamientos a los
K individuos de cada grupo de manera que cada individuo reciba sólo un
tratamiento. Así la información obtenida después de realizar el experimento
puede arreglarse en una tabla de n filas (grupos o bloques) por K columnas
(tratamientos) .

2. Una situación ligeramente diferente pero que puede ser descrita por este
modelo es cuando m jueces (bloques) ordenan K productos (tratamientos).
En este caso no hay independencia entre tratamientos, pues se trata del
mismo juez calificando cada vez un producto diferente.

Las dos situaciones anteriores se describen a continuación:

Modelo de muestreo
Para la primera situación se supone que las observaciones provienen de varia-
bles aleatorias independientes X ij , i = 1, ... , n j = 1, ... , K, de distribuciones
Fi(x-e j ), Fi E 0 0 , i = 1, ... , n. Es decir, Fi es la distribución de las observaciones
e
en el i-ésimo bloque y dentro del i-ésimo bloque j es la mediana del j-ésimo
tratamiento. Para la segunda situación se supone que la observación en el i-ésimo
bloque (X il , ... ,XiK ) proviene de una distribución conjunta F i (X1 - el, ... ,XK -
eK), y que la distribución de cualquier permutación de los tratamientos dentro de
un bloque es la misma. El interés en cualquiera de los dos casos está en contrastar
la hipótesis H o : el = ... = eK con la alternativa K 1: no todos los e SOIl iguales.
Sea Rij el rango de X ij entre X i1 , ... , X iK , que son las observaciones dentro
n
del i-ésimo bloque. Entonces R.j = ¿ Rij es la suma de los rangos del j-ésimo
i=l
tratamiento. Este esquema se muestra en la tabla siguiente:
4.3. ARREGLOS DE DOS VÍAS Y PRUEBA DE FRIEDMAN 75

Tratamientos
Bloques 1 2 K
1 Rll R 12 R 1K
2 R 21 R 22 R 2K

n Rnl R n2 R nK
R. 1 R. 2 R.K

4.3.1. La prueba de Friedman


En 1937, Friedman propuso la estadística:

12 K ( n(K+1))2
nK(K + 1) ~ R.j -
M ( 4.4)
2

12 ~
( nK(K + 1) ~ R.j
2) - 3n(K + 1) (4.5)

donde las constantes se escogen de manera que M tenga distribución asintótica


XtK-I)' La hipótesis nula se rechaza cuando M ~ XI-a;K-I'

Manejo de empates
En este caso los empates representan un problema sólo cuando se encuentran
dentro del mismo bloque. Cuando son pocos, puede usarse el rango promedio en
los bloques que contengan empates. Si son muchos puede corregirse la estadística
de prueba así:

donde Ti es el número de grupos con empates en el i-ésimo bloque i = 1, ... ,n, bij ,
con j = 1,'" ,Ti, es el número de observaciones empatadas en el j-ésimo grupo
de empates del i-ésimo bloque y los R.j se calculan asignando rangos promedios a
los grupos empatados. Bajo la hipótesis nula, la estadística M* tiene distribución
X2 con K- 1 grados de libertad y, por lo tanto, se rechaza Ha : ()¡ = ... = BK
cuando: M* ~ xi-a' K-l'
Ejemplo 4.3.1. (Tomado de Lehmann, 1975, p. 266). Relaciones entre asociación y
memoria. Para estudiar el efecto de las asociaciones emocionales sobre la memoria,
se pidió a 15 sujetos recordar el título de 18 historias que ellos habían escrito antes.
Las historias se clasificaron según el mensaje contenido: positivo (+), neutro (O) y
negativo ( ). Se tienen entonces n = 15 bloques, K = 3 tratamientos con N = 45
76 CAPÍTULO 4. PROBLEMAS DE K MUESTRAS: UNA Y DOS VÍAS
----- ------

datos en total. La tabla siguiente contiene en la parte izquierda el número de


historias olvidadas según el mensaje +, O, , para los 15 individuos del experimento;
yen la parte derecha, para cada individuo, muestra los rangos asignados a los tipos
de historia, de acuerdo eon la cantidad olvidada.

Historias olvidadas Rangos asignados


Individuos Tipo de historia Tipo de historia
1 3 3 4 1,5 1,5 3
2 5 1 3 3 1 2
3 3 O 3 2,5 1 2,5
4 2 4 5 1 2 3
5 1 O 1 2,5 1 2,5
6 1 4 3 1 3 2
7 2 2 3 1,5 1,5 3
8 3 1 5 2 1 3
9 1 4 1 1,5 3 1,5
10 1 5 4 1 3 2
11 3 3 4 1,5 1,5 3
12 2 1 3 2 1 3
13 O 3 2 1 3 2
14 1 1 2 1,5 1,5 3
15 1 3 O 2 3 1
Totales 25,5 28 36,5

Como ejercicio, puede verificarse que el valor de la estadística, corregida por em-
4,43 C
pates, es M* = 0,883 = 5,021. on este valor no se rechaLla Ho al nivel de
significancia del 5 % pues X6.95:2 = 5,8.

4.3.2. Una prueba para detectar las fuentes


de significancia en arreglos de dos vías
Para saber cuáles tratamientos son los que originan las fuentes de significancia,
se hacen pruebas por pares utili7:ando las sumas de los rangos por tratamiento.
Entonces se declara significante la diferencia entre ei y ej si

IR.j - R.il ~ Z", !nK(K + 1)


2 V 6

20'
donde a' = K(K _ 1) y a' = 1
2
-1>(ZD.'.) 2
4.3. ARREGLOS DE DOS VÍAS Y PRUEBA DE FRIEDMAN 77

4.3.3. Una prueba para la alternativa


ordenada en arreglos de dos vías
Para probar la hipótesis nula, Ho : fh = ... = eK, contra la alternativa
e
ordenada, K 1 : el :::;; ... :::;; K, puede utilizarse la estadística propuesta por Page
(1963):

Q = _1 ~
Vn ~
(j _K2+ 1) (R ._n( K2+ 1) )
eJ
j=l

donde E(Q) = O Y

La prueba de Page rechaza la hipótesis nula al nivel de significancia aproximado


a si Q ~ Zay'Var(Q), donde Za es el a-ésimo cuantil superior de la distribución
normal.
Capítulo 5

Asociación y correlación

Las medidas de asociación pueden entenderse como medidas de coincidencia o


de concordancia entre dos variables o entre los rangos que las representan. En esta
sección se introducen algunas medidas de correlación por rangos y de asociación
entre dos variables X y Y Y las pruebas de hipótesis asociadas a ellas.

Modelo de muestreo
Se tiene una muestra aleatoria (Xl, Yd,··· ,(Xn , Yn ) proveniente de una dis-
tribución bivariada continua F( x, y), con distribuciones marginales continuas Fx (x)
y Fy(y). Es decir, los datos corresponden a la observación de dos características
observadas simultáneamente sobre un grupo de n individuos.
Sin perder generalidad, puede suponerse que las parejas de datos se encuentran
ordenadas con respecto a la primera componente del par, es decir que
Xl < X 2 < ... < X n
En este caso, al asignar rangos a las dos características simultáneamente, se obtiene
la sucesión
(1, Sd,·· . ,(n, Sn)
donde SI, ... ,Sn son los rangos de las Y.

5.1. Coeficiente de correlación


por rangos de Spearman
Este coeficiente, propuesto por Spearman en 1904, es una versión del coefi-
ciente de correlación de Pearson, pero calculado sobre la sucesión transformada
(1, Sd,··· ,(n, Sn) de rangos en las dos variables:

f: (i _ n +2 1) (Si _ n +2 1)
2=1
rs
¿n(.z -
n+1)2n(
- ¿ S in+1)2
--
i=l 2 i=l 2

78
5.1. COEFICIENTE DE CORRELACIÓN POR RANGOS DE SPEARMAN 79

el cual, después de algunas manipulaciones algebraicas, puede expresarse como:


6 n
rs = (2 ) '"
1 - nn-1L...- d; (5.1)
i=l
donde di = i - Si.
Demostración: Nótese que (ejercicio):

~(i-n;lr n(n 2 - 1)
12

~ (Si - n; 1 r = ~ (i - n; 1
pues la suma sobre los Si es sólo una permutación de los sumandos de la suma
r
sobre i. Así, el denominador completo es:

n(n 2 - 1)
12
Para el numerador, basta escribirlo como:

t (i -
2=1
n; 1) Si _ t (i _n; 1)n ; 1 t (i _n; 1) Si
2=1
=
,=1

porque ¿n (. n+1)n+1
z- - ...
- - - = O. Entonces (eJerc1clO):
i=l 2 2

f= (i - _n+_1)
i=l 2
Si ¿n .Z Si -
i=l
n(n+1)2
----'----
4
rs = ---:--;:---,--
2 (5.2)
n(n - 1) n(n 2 - 1)
12 12
Finalmente, nótese que (ejercicio):

~ d2 = n(n + 1)(2n + 1) _ 2 ~ iS
L...-' 3 L...- 2
i=l i=l
entonces

~iS= n(n+1)(2n+1) _~~d2


L...- 2 6 2L...-'
i=l i=l
Al remplazar el resultado anterior en 5.1 se obtiene 5.2.
Nótese que por ser rs el coeficiente de correlación aplicado sobre los rangos
satisface:
-1 ( rs ( 1
Para verificar que los extremos sí ocurren, basta tener en cuenta que r s = 1 cuando
las dos variables concuerdan perfectamente, es decir en el caso en que Si = i para
80 CAPÍTULO 5. ASOCIACIÓN Y CORRELACIÓN

2
todo i, porque entonces ¿ d i 2 = O. Además, para que rs = -1, es necesario
i=l
que los rangos de las dos sucesiones vayan en direcciones opuestas, lo cual ocurre
cuando Si = n - i + l. En este caso basta demostrar que (ejercicio):

n n
¿d i
2 = ¿(i _(n _ i + 1))2 = n(n 2
-1)
2=1 i=l

Para la interpretación es suficiente tener en cuenta que los valores cercanos a uno
indican asociación positiva o directa entre las variables (aumento en X implica
aumento en Y, disminución en X implica disminución en Y, y viceversa en ambos
casos). Los valores cercanos a menos uno indican asociación negativa o inversa
entre las variables (aumento en X implica disminución en Y, disminución en X
implica aumento en Y, y viceversa en ambos casos).

5.1.1. Prueba basada en el coeficiente


de correlación de Spearman
El coeficiente de Spearman puede utilizarse como estadística de prueba de
la hipótesis de independencia entre las dos variables en consideración, frente a
alternativas de una y dos colas. Las hipótesis de interés y los valores críticos se
muestran en la tabla siguiente:

Hipótesis nula Alternativas Interpretación Región crítica


X y Y son K 1 : X y Y están X y Y están rs ;? rs,a/2 o
independientes correlacionadas correlacionadas rs :s; rs,1-a/2

K2: X y Y están X I implica Y I y


correlacionadas X 1 implica Y 1 rs ;? rs,l-a
positivamente
K 2 : X y Y están X I implica Y 1 y
correlacionadas X 1 implica Y I rs :s; rs,a

_ _ _ _ _ nega~amen~ L _ _ _ _ _

5.1.2. Distribución exacta de la estadística de prueba


n
Como n es fijo, la distribución de rs sólo depende de ¿ d;' Bajo la hipótesis
i=l
nula las dos variables son independientes y, por lo tanto, todas las n! permutaciones
de los enteros 1,'" ,n, tienen la misma probabilidad de ocurrir. Por lo anterior,
la distribución de rs se obtiene construyendo estas permutaciones. Por ejemplo,
para n = 3 se construyen las 3! = 6 permutaciones de los enteros 1, 2 y 3:
5.l. COEFICIENTE DE CORRELACIÓN POR RANGOS DE SPEARMAN 81

X 1 2 3
n
y SI S2 S3 ¿ iSi Valores de D rs
i=1
1 2 3 14 1,0
1 3 2 13 °2 0,5
2 1 3 13 2 0,5
2 3 1 11 6 -0,5
3 1 2 11 6 -0,5
3 2 1 10 8 -1,0

Así, la distribución exacta de rs es:

Distribución de probabilidades Función de distribución


T -1 -0,5 0,5 1 r -1 -0,5 0,5 1
P(r s = r) 1/6 1/3 1/3 1/6 P(rs ~ r) 1/6 3/6 5/6 1

5.1.3. Distribución asintótica de IS

Los rangos de las observaciones de Y satisfacen las mismas propiedades que


los rangos en el problema de dos muestras, así que:

n 2 -1 n+1
E(Si) = n +1 Var(S) =-- Cov(S2, S) = - -12-
2 2 12 J

y con esto puede demostrarse que

1
Var(r s ) = - -
n-1
Con lo anterior también se demuestra que (véase Hettmansperger, 1984):

tiene distribución normal para valores grandes de n.

Manejo de los empates


Como en la mayoría de estadísticas de rango, la presencia de empates en los
datos se maneja usando los rangos promedio y corrigiendo la estadística por la
ocurrencia de los empates. En este caso el coeficiente de Spearman corregido es el
siguiente:
n
n(n 2 - 1) - 6 ¿ d/ - 6(b x - by)
rE = i=1

s J(n(n 2 - 1) - 12 bx )(n(n 2 - 1) - 12 by)


82 CAPÍTULO 5. ASOCIACIÓN Y CORRELACIÓN

donde di' = Ri - Si, Ri Y Si son los rangos promedio de las X y de las Y en


presencia de empates,

1
= ~
12 ~(.
n
bx = 12 ¿(bj - 1)2bj y bY ~ eJ - 1) 2 ej
j=1 j=1

donde bj es el número de observaciones empatadas en el j-ésimo grupo de empates


de las X, Y ej es el número de observaciones en el j-ésimo grupo de empates de
las Y.

5.2. Coeficiente de correlación T de Kendall


Este coeficiente se basa en el grado de concordancia o discordancia entre pares
de observaciones, las cuales se miden de la manera siguiente:
Los pares (Xi, Yi) y (Xi, Yj ), con i -¡. j, se llaman concordantes si Xi - X j > O
Y Yi - Yj > O o Xi - X j < O Y Yi - Yj < O son discordantes si Xi - X j > O Y
Yi - Yj < O o Xi - X j < O Y Yi - Yj > O.
Las concordancias y discordancias pueden expresarse también como sigue. Sea

~
si x >O
sg(x) = { si x = O
-1 si x <O
Los pares (Xi, Yi) y (Xj , Yj) son concordantes si sg(Xi - Xj) sg(Yi - Yj) = 1 Y
son diseordantes si sg(Xi - X j ) sg(Yi - Yj) = -l.
Si se define P como el número de pares concordantes y Q como el número
de pares discordantes, se calcula el exceso de concordancias sobre el exceso de
discordancias por la diferencia

S = P - Q = ¿¿sg(Xi - Xj) sg(Yi - Yj)


i<j

S varía desde -n(n - 1)/2, valor que toma cuando todos los pares son dis-
cordantes, hasta n(n - 1)/2, cuando todos los pares son concordantes. Entonces,
máx{S} = -n(n - 1)/2. El coeficiente T de Kendall (1938) es:

S 2(P - Q)
T - - - - ---;---..,.-
- máx S - n(n - 1)

El número total de comparaciones posibles de los n pares es n( n -1) /2, número que
coincide con la suma de las concordancias y las discordancias. Es decir, P + Q =
n(n - 1)/2, así que P = n(n - 1)/2 - Q. Al remplazar este valor de P se obtiene
la siguiente expresión más común para T:

T = n(n - 1)/2 - 2Q = 1 _ _ 4.....:Q,--


n(n - 1)/2 n(n - 1)
Como para obtener T se dividió por el máximo, se tiene inmediatamente que:
5.2. COEFICIENTE DE CORRELACIÓN T DE KENDALL 83

-1 <T <1
donde T = 1 cuando todos los pares son concordantes
T = -1 cuando todos los pares son discordantes, y
T = O cuando no hay concordancia ni discordancia dominantes.

Manejo de los empates


Cuando se presentan casos en que no puede calificarse un par de concordante o
discordante y el número de pares en los que ocurre esto es pequeño, puede utilizarse
la misma estadística. Cuando son muchos, debe corregirse de la manera siguiente
(Kendall, 1970, citado por Bünning y Trenkler, 1994):

P-Q
T = -¡==========~-¿===========
jn(n - 1) _ T jn(n - 1) _ T
V 2 xV 2 y

donde

y bj y ej son las longitudes de los empates de las X y las Y, respectivamente.


Bibliografía

Arbuhnot, J. (1710), 'An argument for Divine Providenee, taken from the eonstant
regularity observed in births of both sexes', Phil. Trans. 27, 186 190.
Bünning, H. & Trenkler, G. (1994), Nichtparametrische Statistische Methoden,
Walter de Gruuyter, Berlin. New York.
Conover, W. (1999), Practical Nonparametric Statistics, Wiley, New York.
D'Agostino, R. B. & Stephens, M. A. (1986), Goodness of Fít Techníques, Mareel
Dekker, New York.
Gibbons, J. D. (1971), Nonparametric Statístícal Inference, MeGraw Hill, New
York.
Gibbons, J. D. & Chakraborti, S. (1992), Nonparametríc Statístical Inference, Mar-
eel Dekker, N ew York.
Hettmansperger, T. (1984), Statístícal Inference Based on Ranks, John Wiley &
Sons, New York.
Hájek, J. & Sidák, Z. (1967), Theory of Rank Tests, Aeademie Press, New York.
Hájek, J., Sidák, Z. & Sen, P. (1999), Theory of Rank Tests, John Wiley & Sons,
New York.
Hollander, M. & Wolfe, D. A. (1973), Nonparametric Statistical Methods, John
Wiley & Sons, New York.
Landry, L. & Lepage, Y. (1992), 'Empirieal behaviour ofsome tests for normality',
Comm, Statist. Símul. Computo 21, 971-999.
Lehmann, E. L. (1975), Nonparametrics: Statistical Methods Based on Ranks, Me-
Graw Hill, New York.
Manoukian, E. (1986), Mathematical Nonparametric Statistics, Gordan and Breaeh
Sienee Publishers, New York.
Pearson, K. (1900), 'On the eriterion that a given system from the probable in
the ease of eorrelated system of variables is s11ch that it can be reasonable
supposed to have arisen from random sampling', Phü. Mag. Ser. 5(50), 157-
175.
Randles, R. & Wolfe, D. (1979), Introduction to the Theory of Nonparametric
Statistics, John Wiley & Sons, New York.

84
BIBLIOGRAFÍA 85

Serfting, R. (1980), Approximation Theorems of Mathematical Statistics, John Wi-


ley & Sons, New York.
Siegel, S. (1995), Estadística no pammétrica aplicada a las ciencias de la conducta,
Trillas, Méjico.
Sprent, P. (1989), Applied Nonpammetric Statistical Methods, Chapman & Hall,
New York.
Wald, A. & Wolfowitz, J. (1940), 'On a test whether two samples are from the
same population', Ann. Math. Stat. 11, 147-162.
,
Indice alfabético

Anti-rangos, 36 K muestras
dus factores de clasificación, 74
Distribución exacta, 20 un factor de clasificación, 69
X 2 ,23 dos muestras, 58
coeficiente de Spearman, 80 una muestra, 36
Kolmogorov- Smirnov, 20
dos muestras, 56
Kruskal- Wallis, 70
Mann-Whitney-Wilcoxon, 60
Mood,66
número total de rachas, 28
rango signado de Wilcoxon, 38
con empates, 43

Empates
coeficiente de asociación de Kendall,
83
c:oeficiente de asociación de Spear-
man, 81
Kolmogorov--Smirnov para la prue-
ba de bondad de ajuste, 21
Kruskal-Wallis, 70
manejo de, 41
prueba de Friedman, 75
prueba del signo, 42
rango signado de Wilcoxon, 42
Wilcoxon para dos muestras, 63
Escalas de medida, 16
de intervalo, 17
de razón, 18
nominal, 16
ordinal o de rango, 16

Rachas
aleatoriedad, 27
definición, 26
igualdad de distribuciones, 54
Rangos, 36

86
ESTE LIBRO SE TERMINÓ DE IMPRIMIR
EN EL MES DE AGOSTO DE 2005 EN LA
UNIVERSIDAD NACIONAL DE COLOMBIA
UNIBIBWS dirunibiblo_bog@unal.edu.co
BOGOTÁ, D.C., COLOMBIA
[,1 (',¡lpcClon Not,l" de Cldsf' de 1,1 [,Icultad elE' CI\'11Ci<1'o,('\ Ull l' ¡Jele!"
,lht'lto ,1 los profesores p~¡r,l pllbllCdl su experlenCld dOCl'Iltl',
1I'(Opll,lda en el tiempo el tlaves de notas esc IILIS, Se espel,l C¡IJC la',
'11\I'II,'I,lC1ones autor (olegas y plofc'sores cstuckllltes ')f'dll 1,1 melol
¡lUn rol palcl que ('')\'lS not.1s c,e cjí'puren, el fl!l eje qlW (,n UIl h¡'ul
IlWClldto ,lclqUlt'IClII CHéltuLl cit' texto,

(Ot11I1.· I d,tonal
I acuitad h ( "'Il( 'd';

11 1 1111

Вам также может понравиться