Вы находитесь на странице: 1из 30

Captulo 10

Contraste de Hipotesis
10.1.

Contraste de hipotesis, conceptos basicos

Como ya hemos adelantado en el captulo 9, en muchos problemas de estadstica suponemos, o sospechamos, que una determinada poblacion esta descrita por
una determinada densidad de probabilidad, cuyos parametros podemos o no conocer total o parcialmente. En general se denomina hipotesis a una conjetura sobre
la poblacion, a menudo un modelo sobre la distribucion de probabilidad que sigue
dicha poblacion. Si la conjetura es sobre los valores de los parametros de la distribucion se la llama hipotesis parametrica. Si los parametros estan especificados
la hipotesis se denomina simple. Si por el contrario no lo estan se la llama compuesta. El contraste de hipotesis es un procedimiento para, a partir de una o
varias muestras, concluir sobre la validez o invalidez de una hipotesis.
Es importante no confundir hipotesis valida con hipotesis cierta. Estrictamente nunca podemos probar que una hipotesis cientfica es cierta. Lo que si podemos
es falsearla, es decir, probar que es falsa. Cuando aceptamos una hipotesis como
valida esta implcito que lo que queremos decir es que es consistente con todas
las observaciones hasta el momento, donde la palabra consistente debe ser lo mas
cuantitativa posible. Esto se logra especificando claramente el procedimiento utilizado para establecer la consistencia o falta de ella. Por eso es muy importante
dar no solamente una respuesta, hipotesis aceptada o rechazada, sino tambien el
como, con que procedimiento, la hemos elaborado.
Cuando nos planteamos un problema de contraste de hipotesis, generalmente
existe una hipotesis de partida, basada en la evidencia disponible hasta entonces
o simplemente en las creencias del investigador. A tal hipotesis se la denomina
hipotesis nula y se la suele denotar por H0 . A las hipotesis alternativas, a aque-

195

llas que queremos investigar, se las denomina H1 , H2 , etc. En general la hipotesis


nula es la que se supone valida en principio, a menos que haya una evidencia estadstica de lo contrario. Es decir, lo que se quiere es ver si la hipotesis nula debe
ser reemplazada por una hipotesis alternativa, a la vista de los datos de la muestra.
Si los datos no indican de manera significativa que la hipotesis nula es incorrecta,
dicha hipotesis se da generalmente por valida. Para rechazar la hipotesis nula requerimos en general estar bastante seguros de que no es cierta. Veremos que esta
seguridad se plasma en el nivel de significacion, definido como la probabilidad
de rechazar la hipotesis nula cuando esta es correcta (ver mas abajo). En general se requiere que dicho nivel sea bajo, por ejemplo del 0.05, 0.01 o 0.001.
Para poner un ejemplo sigamos con uno que ya hemos utilizado en la seccion
9.6 del captulo 9, referente a la altura media de los individuos de una poblacion. Supongamos que en una estimacion previa, hecha algun tiempo atras, se
encontro que la altura media era de 170cm con una desviacion tpica de 10cm.
Supongamos ahora que en una muestra de 100 individuos, hecha en la actualidad,
nos encontramos con que la altura media muestral es de 171,5cm. En este caso lo
que queremos investigar es si el hecho de que 171,5cm sea mayor que 170cm es
debido a que la altura media de la poblacion ha aumentado o bien que se trata de
una fluctuacion de dicha cantidad en la muestra que hemos elegido. En este caso la
hipotesis nula es que la altura de la poblacion no ha aumentado significativamente. La hipotesis alternativa, H1 , la que queremos investigar, es que la diferencia de
1,5cm es significativa y que por lo tanto la altura media ha aumentado. Veremos
mas abajo como plantear este problema.
Para cada hipotesis H tendremos una densidad de probabilidad de la variable
x (cuyos valores constituyen la poblacion) que podramos denotar por f (x|H). Si
hacemos un muestreo (x1 , .., xn ) podemos formar un estadstico t(xi , . . . , xn ) el
cual tendra una densidad de probabilidad g(t(x))|H). El contraste de hipotesis se
realizara en general a partir de dicho estadstico, llamado estadstico de test (de
ah la notacion) o estadstico de contraste. Lo ideal sera disponer de un t de manera que las densidades de probabilidad para las distintas hipotesis g(t|H0 ), g(t|H1 ),
etc, fuesen lo mas distintas posibles, tal como se ilustra en la Figura 10.1. La notacion de probabilidad condicional se debe a que g(t(x)|H) depende en general
de la densidad supuesta para las x, es decir de H.
Tanto x como t pueden ser multidimensionales, con lo que tendramos una
funcion ~t(~x). Para simplificar la discusion vamos a considerar por el momento
que ~t consiste en una sola variable numerica t. Mas adelante trataremos el caso
multidimensional.

196

Figura 10.1: La densidad de probabilidad del estadstico t para la hipotesis nula, H0 , y para una
hipotesis alternativa, H1 . La region crtica es el intervalo (tc , ). Si el valor de t pertenece a ese
intervalo entonces se rechaza la hipotesis nula.

En nuestro ejemplo el estadstico de contraste va a ser la variable estandarizada


t=z=

,
/ n

(10.1)

que sabemos esta distribuida de manera normal N (0, 1).

10.1.1.

Region Crtica y Nivel de Significacion

La aceptacion o rechazo de la hipotesis nula se basa en el valor de t para la


muestra. En general se define una region crtica de t de manera que si t tiene
un valor dentro de la region crtica la hipotesis H0 se rechaza, de lo contrario se
acepta. El nivel de significacion o nivel de significancia (significance level, en
ingles) es la probabilidad asociada a la region crtica. En la figura 10.1 la region
crtica es el intervalo (tc , ), y el nivel de significancion viene dado por la integral
Z

g(t|H0 )dt

(10.2)

tc

El significado de es por lo tanto la probabilidad de rechazar H0 cuando


H0 es verdadera. Tambien se habla de como el tamano de la region crtica. Si
se rechaza H0 cuando es verdadera se dice que se comete un error de tipo I. Un
termino apropiado para en muchas situaciones es el de ineficiencia, es decir,
es el porcentaje de errores de tipo I, el porcentaje de rechazos de la hipotesis
197

correcta. En general para esta cantidad se elige un valor pequeno, tal como el 5 %,
el 1 % o el 0.1 %. En este ejemplo aceptaramos la hipotesis H0 si t < tc .
A la region de t fuera de la crtica se la denomina region de aceptancia. Al ser
t una funcion de x, t = t(xi |H), la region crtica en t tambien define una correspondiente region crtica en el espacio de las x de manera implcita por la formula
10.2. La probabilidad asociada a la region de aceptancia recibe el nombre de nivel de confianza (NC), ya que efectivamente coincide con el nivel de confianza
utilizado en el contexto de la estimacion de parametros, como hemos visto en la
seccion 9.5. El nivel de confianza es la probabilidad asociada a la region de confianza, y por lo tanto N C = 1. Esta es la justificacion de la notacion empleada
en el captulo 9, formulas 9.50 y 9.51. Es importante recalcar que , y por lo tanto
el N C, son cantidades que deben ser elegidas a priori, independientemente de la
muestra o muestras que utilicemos para calcular el valor de t.
Continuando con el ejemplo anterior supongamos que para aceptar la hipotesis
exigimos un nivel de significacion del 5 % (o equivalentemente un nivel de confianza del 95 %). Por lo que ya sabemos del ejemplo 2 de la seccion 9.6 (formula
9.52), tc = 1,96. Como 1,5 < 1,96, es decir, t < tc , t esta fuera de la region
crtica lo que nos lleva a la conclusion de que no debemos rechazar la hipotesis
nula, o que no hay evidencia estadstica significativa para aceptar la hipotesis
alternativa al nivel de significacion del 5 %.
Otro ejemplo
Otro ejemplo de un test de hipotesis sera el siguiente: para evaluar la eficacia
de un entrenamiento se selecciona a un grupo de 10 atletas que tengan una puntuacion de 5 puntos en un test (basado en multiples parametros fisiologicos) disenado
para medir la forma fsica. Despues del entrenamiento se avalua de nuevo el estado fsico de los 10 atletas y se encuentra que la puntuacion ha cambiado y tiene
los valores {6, 7, 4, 5, 7, 8, 7, 3, 8, 5}. Se puede aceptar que han mejorado? Para aplicar el test vamos a utilizar la media del estado de forma caracterizado por
los valores numericos anteriores, cuyo promedio es x = 6. A partir de la muestra
tambien podemos calcular la varianza muestral que en este caso nos da = 1,792.
Por el captulo 2 sabemos que la variable
t=

(
x )
,
/ n

(10.3)

sigue una distribucion t de Student con 9 grados de libertad. La hipotesis nula


va a tener como distribucion de probabilidad g(t) la distribucion de Student con
= 5 en la formula anterior. El estadstico de contraste es simplemente la variable
t definida en dicha formula. Como hipotesis alternativa vamos a suponer que los
198

atletas han mejorado su forma, es decir que > 5 con un nivel de significacion
del 5 %. (Consideramos solamente una hipotesis alternativa, la de que los atletas
han mejorado su forma. No consideramos la posibilidad de que ocurriese lo contrario).
La region crtica para aceptar H0 es en este caso la region de t mayor que el
valor tc tal que
Z
fstudent (x; = 5, nd = 9)dx
(10.4)
= 0,05 =
tc

A partir de unas tablas o de un programa se llega a que tc = 1,715. Por otra parte
el valor de t en la formula 10.3 es en nuestro caso 1,764. Ello implica que t esta en
la region crtica de aceptacion de H0 , por lo tanto debemos rechazar la hipotesis
nula, es decir, podemos decir que los atletas han mejorado su forma.

10.1.2.

Errores de tipo II y potencia del test

Cuando se contrasta una hipotesis puede ocurrir que se acepte H0 cuando es


falsa y en este caso se dice que se comete un error de tipo II. La probabilidad de
que esto ocurra depende de la distribucion de probabilidad de la hipotesis alternativa H1 y vendra dada por la integral (ver figura 10.1)
Z

tc

g(t|H1 )dt.

(10.5)

La cantidad es por lo tanto la probabilidad de cometer un error de tipo II, es


decir, de aceptar la hipotesis H0 cuando es falsa, lo cual depende, como vemos,
de la hipotesis alternativa. A la cantidad 1 se la llama potencia del test para
rechazar H1 .
La tabla 10.1 resume las situaciones posibles, junto con las probabilidades
asociadas
Decision / Situacion
Aceptar H0
Rechazar H0

H0 cierta
correcto
Prob. 1
Error tipo I
Prob.

H0 falsa
Error tipo II
Prob.
correcto
Prob. 1

199

Volviendo de nuevo al ejemplo, la hipotesis alternativa es que la media despues del entrenamiento sea mayor que 5. En este caso es simplemente 1 , es
decir, la distribucion del estadstico es la misma, independientemente de cual sea
la media pues en ambos casos es la distribucion de Student con el mismo numero
de grados de libertad. Los casos de contraste de medias de poblaciones utilizando
la distribucion de Student estan explicados en mas detalle en la seccion 10.4.
Hay que destacar que la interpretacion de como la probabilidad de rechazar
H0 cuando H0 es verdadera tiene sentido solamente en la interpretacion frecuentista de probabilidad. Es decir, si hiciesemos el experimento muchas veces (o lo
que es lo mismo, si hiciesemos muchas muestras) nos da el porcentaje de veces
que obtendramos un resultado menos probable que el implicado por el valor de
tc si la hipotesis H0 es correcta. Esta probabilidad no nos dice nada acerca de la
validez de las hipotesis H0 y H1 . Por eso, tal como ya se ha dicho, es importante
establecer claramente los procedimientos que llevan a una afirmacion sobre las
hipotesis utilizadas. Tanto estas como el valor de deben de elegirse antes de
realizar el test.

10.1.3.

Tipos de Contraste

Un caso bastante comun donde se plantea el problema del contraste de hipotesis es en el de clasificacion de un fenomeno, observado repetidamente, en clases. La clasificacion se realiza en base a una cantidad, t, construida a partir de
las senales producidas en nuestro instrumento de observacion. Por ejemplo podemos estar observando las senales que deja una partcula elemental al pasar por
un detector y, a partir de ellas, clasificar la partcula como perteneciente a un tipo
determinado. O podemos estar examinando imagenes de un conjunto de galaxias
obtenidas con un telescopio y, a partir de las mismas, identificar cuales de ellas
son en realidad galaxias y no otros objetos tales como estrellas. H0 podra ser la
hipotesis de que lo que estamos observando es una senal y H1 la hipotesis de que
por el contrario se trata de ruido de fondo. Hagamos H0 S y H1 B. La
distribucion g(t|S) es la distribucion de la cantidad medida (o construida en base
a varias medidas) para la senal y g(t|B) la distribucion de dicha cantidad para el
ruido.
La region de aceptancia en t no fija de manera unvoca la region de aceptancia
en x definida implcitamente por la ecuacion 10.2. Distintas regiones de x pueden
tener el mismo nivel de significacion (ver mas abajo el contraste de una cola y
dos colas, por ejemplo). En este caso el criterio a seguir sera elegir aquella region
de x de manera que la la probabilidad asociada a la hipotesis alternativa, , fuese
mnima. O en otras palabras: elegir la region de x para la cual el test de la hipotesis
200

alternativa tuviese la maxima potencia. Cuando se tiene una sola variable, t, y


estan totalmente correlacionadas, una vez especificadas H0 y H1 y tc . Aumentar el nivel de significacion significa aumentar la region crtica y por lo tanto
la probabilidad de cometer un error de tipo I, disminuyendo al mismo tiempo la
probabilidad de cometer un error de tipo II.
Cuando por el contrario el estadstico t es multidimensional, ~t, la relacion entre y no es tan sencilla. Una vez fijada puede ser que no podamos especificar
de manera unvoca ni la region de ~x ni la del espacio de las ~t que nos produzca tal
valor . Existe sin embargo un teorema, al que se conoce como lema de NeymanPearson, que nos da un criterio para optimizar la eleccion de la region ~t en base a
una sola variable numerica, en el sentido de que, para un nivel de significacion determinado, , la potencia del test con respecto a la hipotesis alternativa H1 , dada
por 1 , sea maxima, es decir, que sea mnima. Al contraste con esta propiedad se le denomina contraste mas robusto. Un contraste con la propiedad de ser
el mas robusto para todas las hipotesis alternativas se le denomina uniformemente mas robusto. El Lema de Neyman-Pearson esta explicado mas adelante en la
seccion 10.6.

Figura 10.2: La region crtica en un test de dos colas.


Un contraste de hipotesis se dice que es unilateral o contraste de una cola, cuando la region crtica esta definida en una de las colas de la distribucion de
g(t|H0 ), como en la figura 10.1. Por el contrario se denomina bilateral, o contraste de dos colas cuando la region crtica se refiere a las dos colas de g(t|H0 ),
como en la figura 10.2. En este caso tc (para una distribucion simetrica) se elige

201

de manera que
Z

g(t|H0 )dt =
tc

(10.6)

Tambien se habla a veces de contraste de una o varias muestras. Varias muestras se refiere en general a casos donde lo que nos interesa es comparar si la diferencia entre las medias de dos poblaciones es o no significativa. Este es un caso
comun en aplicaciones clnicas, donde por ejemplo queremos comparar la eficacia
de un nuevo medicamento suministrandolo a un grupo de pacientes y compararlo
con otro grupo al que se le suministra un placebo, o, de manera mas general a un
grupo determinado y a otro grupo de control.

10.2.

El test de Kolmogorov-Smirnov

Un ejemplo de test de hipotesis no parametrico es el de Kolmogorov-Smirnov


(KS). Los usos mas frecuentes de este test consisten en contrastar si una muestra
ha sido extrada de una poblacion descrita por la hipotesis H0 o bien si dos muestras distintas provienen de la misma distribucion. La hipotesis nula es la que nos
responde positivamente a estas preguntas. El primer caso es esencialmente un test
de bondad de ajuste, que se trata de manera general mas adelante en la seccion
10.3. En ambos casos el test de KS se basa en determinar una distancia entre la
muestra obtenida experimentalmente y la muestra esperada si la hipotesis nula es
correcta.

10.2.1.

El test de Kolmogorov-Smirnov como test de bondad de


ajuste

Empecemos por el primer caso, es decir supongamos que la muestra consiste


en una serie de datos x1 , x2 , . . . xn , los cuales han sido ordenados de menor a
mayor. Para cada uno de ellos se calcula la probabilidad de observar un valor
menor o igual a xi , la cual viene dada por F0 (xi ), donde F0 es la funcion de
distribucion acumulativa de H0 que suponemos conocida y dada por una funcion
continua. Para cada xi tambien se calcula, de la manera explicada mas abajo, un
estimador de esta misma cantidad al que denotamos por Fn (xi ). A las F0 (xi ) se
las llama frecuencias esperadas mientras que a las Fn (xi ) se las llama frecuencias
observadas. Como estadstico de contraste se toma la cantidad
Dn = sup | Fn (xi ) F0 (xi ) |
1in

202

(10.7)

es decir, D es la mayor de las diferencias absolutas entre cada una de las frecuencias acumuladas observadas y esperadas de los n puntos de la muestra (ver figura
10.3). Si los valores observados y esperados son similares, D sera pequena mientras que si hay discrepancias D aumentara. La bondad del ajuste se plasmara en
elegir un nivel de significacion de manera que si Dn < t la hipotesis de que
la muestra proviene de la distribucion H0 se da por valida y en caso contrario se
rechaza. Aqu t estara escogida de manera que la probabilidad de que Dn sea
mayor que t sea menor que , es decir
P (Dn > t ) < .

(10.8)

Figura 10.3: El estadstico para el test de Kolmogorov-Smirnov.


La funcion emprica Fn (x) viene dada por
n

1X
Fn (x) =
I(xi x)
n i=1
donde I(x), es la llamada funcion indicadora, definida por

1 si xi x
I(xi < x) =
0 en caso contrario,

(10.9)

(10.10)

es decir, esta funcion cuenta el numero de xi por debajo de un valor dado. La


funcion emprica (observada) en un punto xk , Fn (xk ), nos da la fraccion de
elementos de la muestra cuyo valor es menor que xk .

203

A la hora de calcular Dn hay una cierta ambiguedad entre si tomar las diferencias Fn (x) F0 (x) en la derecha o la izquierda de los intervalos (xj , xj+1 ) ya
que F es necesariamente discontinua (ver figura 10.4). Por eso se suelen tomar las
diferencias por separado
i
Dn+ = max { F0 (xi )}
(10.11)
1in n
y
i1
}
(10.12)
Dn = max {F0 (xi )
1in
n
y despues
Dn = max{Dn+ , Dn }

(10.13)

Figura 10.4: Diferencias por la izquierda y por la derecha para calcular el estadstico Dn (ver
texto).

La dificultad del test de Kolmogorov-Smirnov esta en la eleccion de t , o mas


precisamente en que significa un valor dado de Dn en terminos de probabilidades.
Para responder a esta pregunta es necesario en principio saber cual es la distribucion de probabilidad de Dn . Una ventaja del test de Kolmogorov-Smirnov es que,
para distribuciones continuas, que es el caso que estamos considerando, la distribucion del supremo de las diferencias, Dn , es independiente de la funcion F0 (x),
siempre que la muestra provenga realmente de la distribucion H0 . En el apendice
II se dan argumentos para demostrar esta propiedad.
Tal como se argumenta en el Apendice II, la distribucion de probabilidad de
las distancias Dn es tal que

2 2
P ( nD t) KS(t) = 1 2
(1)j1 e2j t
(10.14)
j=1

204

donde KS(t) a la funcion de distribucion acumulativa de la distribucion de probabilidad de Kolmogorov-Smirnov.

Por lo dicho la cantidad Dn nD tiende a cero cuando la hipotesis H0 es


correcta. En caso contrario D no converge hacia cero y Dn tendera a infinito como

n. Por eso podemos utilizar Dn como estadstico en el cual cortar. Si el nivel de


significacion que queremos es tendremos que encontrar, bajo la hipotesis nula,
la cantidad t de manera que
= P (Dn t )

(10.15)

con lo cual la hipotesis H0 se da por valida si Dn t .


La probabilidad
P (Dn t)

(10.16)

puede calcularse de varias maneras. Una es implementar una simulacion Monte


Carlo para hacerse una tabla de la distribucion Dn . Si n es grande esta cantidad
puede ser evaluada utilizando la funcion de distribucion de Kolmogorov-Smirnov
escrita antes, ya que por la formula 15.95
P (Dn t) = 1 KS(t)

(10.17)

Por supuesto hoy en da hay maneras de calcular todo esto llamando a algun paquete de programas.

10.2.2.

El test de Kolmogorov-Smirnov para comparar muestras

Al comienzo de esta seccion dijimos que el test de Kolmogorov-Smirnov tambien es popular para evaluar si dos muestras provienen de la misma poblacion,
es decir, para comparar muestras. Supongamos en concreto dos muestras xi de
tamano m e yi de tamano n. La hipotesis nula consiste en suponer que ambas
muestras provienen de la misma distribucion H0 con funcion de distribucion acumulativa F0 . La hipotesis alternativa H1 consiste en suponer que la primera vienen
de la H0 pero la segunda viene de H1 , con funcion de distribucion acumulativa F1 .
En este caso lo que se calcula es el supremo de la diferencia entre las funciones
de distribucion acumulativas empricas F0 y F1 para formar el estadstico
mn
) sup | F0 (x) F1 (y) |
(10.18)
Dmn = (
m + n x,yR
Esta cantidad tiene las mismas propiedades que la Dn considerada antes. El procedimiento a seguir una vez formada Dmn es identico al del caso de una sola
muestra.
205

10.3.

Test de bondad de ajuste. El valor-p

En este tipo de problemas lo que queremos es ver si un modelo estadstico se


ajusta a un conjunto de observaciones, es decir, a una muestra. Lo que se quiere
es pues comparar directamente la distribucion (supuesta) de la poblacion con la
inferida a partir de la muestra, sin especificar ninguna hipotesis alternativa. En
estos casos en general se construye un estadstico, t, a partir de la muestra, cuyo
valor refleje la concordancia con la hipotesis H0 . El procedimiento exacto puede
ser complicado. Un ejemplo es el test de Kolmogorov-Smirnov explicado en la
seccion anterior, cuando se quiere contrastar si una muestra han sido extrada de
una poblacion determinada. Otro caso que veremos mas abajo es el test de Pearson, o test del 2 , en el cual se persigue de nuevo el objetivo anterior. La bondad
de ajuste suele darse a traves del llamado valor-p que se introduce a continuacion
comenzando con un ejemplo sencillo.
Tenemos una moneda que arrojamos 20 veces y que suponemos no trucada
(esta es la hipotesis H0 en este caso). El resultado es que nos sale cara 15 veces.
Es este resultado compatible con la hipotesis de que la moneda no este trucada?
La estadstica a utilizar en este caso es el numero de caras mismo, el cual sabemos
que sigue una distribucion binomial de la forma
n!
f (nc ; n) =
nc !(n nc )!

 nc  nnc
1
1
2
2

(10.19)

Calculemos la probabilidad de obtener una discrepancia igual o mayor que la


diferencia entre nc = 15 y el valor esperado de caras para una moneda no trucada,
el cual es igual a 10. Dicha probabilidad es la suma de los valores de la expresion anterior para nc [15, 20]) y nc [0, 5], con n = 20. Haciendo numeros se
obtiene que dicha probabilidad es 0,041. Si nuestro nivel de significacion es 0,05
rechazaramos la hipotesis, es decir, diramos que la moneda esta trucada.
A la probabilidad anterior se la conoce como el valor-p. La definicion de
valor p es por lo tanto la probabilidad, siendo H0 cierta, de obtener un resultado igual o menos compatible con la hipotesis que el observado. Al valor p
tambien se la conoce como nivel de significacion observado. Si p < se rechaza
la hipotesis nula, en caso contrario se la da por valida. Es importante darse cuenta
de que el valor p es una cantidad distinta al nivel de significacion del test, . El
nivel de significacion es un numero fijado a priori, mientras que el valor p es
una variable aleatoria, ya que su valor depende de la muestra. Es decir, si hiciesemos otra muestra seguramente obtendramos un numero distinto de caras y por lo
206

tanto otro valor-p.


Por lo que acabamos de decir, el valor p podra ser muy cercano a para
una muestra determinada. En este caso es posible, y generalmente deseable, modificar el procedimiento anterior. Ademas de calcular p a partir de la propia muestra
se recurre a la simulacion, por ejemplo con el metodo de Monte Carlo. Lo que
se hace entonces es generar una muestra, mucho mayor que la disponible experimentalmente, con la distribucion de probabilidad dada por H0 , y a partir de ella,
calcular el valor p a partir de tal muestra simulada, tal como esta definido en
los parrafos anteriores. A este valor p se le denomina el valor p esperado. Si
el valor p medido es menor que el esperado, ello podra ser un indicio de que la
hipotesis nula es invalida. Es decir, el resultado observado indica una probabilidad
de discrepancia con la hipotesis nula mayor de la esperada.
Los comentarios sobre el nivel de significacion siguen siendo validos aqu. La
interpretacion frecuentista es que p es la fraccion de las veces que obtendramos
un resultado igual o menos compatible con H0 que el dado (en el ejemplo anterior
una diferencia de 5 o mas con respecto al valor esperado, 10, si repitiesemos el
experimento de la misma manera muchas veces). Pero no es la probabilidad de
que H0 sea falsa. Desde un punto de vista frecuentista no tiene sentido hablar
de dicha probabilidad, H0 es verdadera o falsa. Para poder opinar sobre H0 hay
que recurrir a la interpretacion bayesiana. De esta manera podramos dar a H0 un
valor a priori y, utilizando el teorema de Bayes, modificar dicho valor a partir de
los datos del experimento, es decir, de la muestra. Veremos este procedimiento
mas adelante, en el contexto de estimacion de parametros.

10.3.1.

El test del 2 o de Pearson

Este test suele emplearse cuando tenemos una variable discreta. Un contexto
tpico es el de una variable x para la cual construimos un histograma tal como en
la figura 10.5.
Supongamos N casillas en el histograma de x y llamemos ni al numero de
sucesos en el la casilla i. Supongamos tambien que sabemos el numero de sucesos
esperado para cada bin, al que llamamos i . Esta cantidad i es la que nos da el
modelo que estamos suponiendo valido, es decir, la distribucion H0 . El test consiste en decidir si los valores observados de x son compatibles con proceder de
una tal distribucion, o por el contrario son significativamente distintos, de nuevo
un problema de bondad de ajuste.

207

Figura 10.5: El histograma de la variable x.


La estadstica que vamos a utilizar es la cantidad t calculara a partir de la
muestra, dada por
t=

N
X
(ni i )2
i=1

(10.20)

Puede demostrarse que esta cantidad sigue una distribucion de tipo chi-cuadrado
con N grados de libertad siempre que las ni sean grandes y esten distribuidas de
acuerdo con la distribucion de Poisson (captulo 2). De ah que sea usual la notacion t 2 . En la practica grande suele tomarse como 5 o mayor. Lo importante
es que esta distribucion es de tipo 2 independientemente de cual es la distribucion que sigue la variable x. Podra ser que no conociesemos algun parametro de
la distribucion H0 . Lo que se hace en este caso es utilizar, si ello es posible, el estimador del mismo a partir de la muestra. Si tenemos k parametros desconocidos
entonces la cantidad t seguira una distribucion de tipo 2 , pero con N k grados
de libertad.
El valor-p de este test viene dado por
Z
p=
f (z; N )dz,

(10.21)

donde f(z;N) es la distribucion 2 para N grados de libertad y t es el valor obtenido con la formula 10.20 a partir de la muestra. En lo que sigue llamaremos 2 a
la variable t como es habitual. Una cantidad usada frecuentemente es el cociente
2 /N (el chi cuadrado por grado de libertad). El valor esperado de esta cantidad es 1, pero es necesario calcular p en cada caso. Por ejemplo para 2 = 15
208

y N = 10 p = 0,13 (es decir la probabilidad de obtener un 2 mayor o igual


que 15 para 10 grados de libertad es del 13 %). Pero si 2 = 150 y N = 100, el
valor-p correspondiente es muy pequeno, p = 9 104 , aunque el valor de 2 /N
sea 1.5, como en el primer caso. Para aceptar o rechazar la hipotesis tendramos
que ponernos de acuerdo, antes de realizar el test, de cual sera el valor mnimo
de p que estaramos dispuestos a aceptar para declarar que nuestra hipotesis es
sostenible.

Figura 10.6: Las curvas de 1 F (2 ; n) donde F es la funcion de distribucion para la funcion


2 , para distintos grados de libertad n. Esta cantidad nos da directamente el valor p definido en
el texto.

P
ni se supone
P En el ejemplo anterior n =
P que puede fluctuar en torno a
i . Si este no es el caso, es decir, si n =
ni es fijo, lo que se tiene es una
distribucion multinomial de manera que las probabilidades de los distintos bins
sean pi = ni . En este caso
2 =

N
X
(ni pi n)2
i=1

pi n

(10.22)

sigue una distribucion 2 con N 1 grados de libertad, como ya habamos adelantado.


Ejemplo
209

Figura 10.7: Distribuciones 2 reducidas (es decir, 2 dividido por el numero de grados de
libertad), como funcion de n. Las distintas curvas corresponden a los valores de la probabilidad
indicados en la figura.

Una cadena de supermercados vende dos clases de pan: en barras o en panes


redondos. Se sabe que en el conjunto de todas las muchas tiendas de la cadena se
venden el doble de barras que de panes redondos. Sin embargo en un supermercado determinado se encuentra que en un da determinado se vendieron 90 barras y
60 panes redondos. Determinar el valor-p para la hipotesis no hay una diferencia
significativa entre este supermercado y los demas.
Aqu tenemos un ejemplo de lo que acabamos de mencionar en el parrafo
anterior. Podemos pensar en el histograma del numero de panes de cada clase (90
y 60) cuando la suma es fija (150). Las dos casillas de tal histograma corresponden
a las dos posibilidades de un experimento binomial. Si formamos una cantidad
como la de la formula 10.20 tendremos una cantidad distribuida como 2 con
21 = 1 grados de libertad. La ligadura viene de que el numero total de elementos
de la muestra es fijo (150 en nuestro caso). Tendremos
1 = numero esperado de barras = 100,
2 = numero esperado de panesredondos = 50.

(10.23)
(10.24)

mientras los numeros observados en este caso son 90 y 60. De acuerdo con 10.20

210

tendremos
t=

2
X
(ni i )2
i=1

(90 100)2 (60 50)2


+
= 1 + 2 = 3.
100
50

(10.25)

El valor-p es la probabilidad, suponiendo H0 cierta, de obtener un resultado


igual o menos compatible con la hipotesis que el observado. En nuestro caso
Z
f (z; 1)dz = 1 F2 (3; 1).
(10.26)
p=
3

donde F2 (3; 1) es la funcion de distribucion acumulativa de la 2 con 1 grado de


libertad y evaluada en z = 3. A partir de una tabla o programa calculamos
p = 0,09

(10.27)

Como p es mayor que 0,05 la hipotesis nula se mantiene al 95 % del nivel de


confianza. Una manera de razonar este resultado es decir que la probabilidad de
obtener un numero mas desfavorable de t que el obtenido, t = 3, es mayor del 5 %.
No hay ninguna evidencia de que t = 3 sea anomalo y por lo tanto mantenemos la
hipotesis nula: no hay una diferencia significativa entre este supermercado y los
demas.

10.3.2.

en presencia de ruido
Confirmacion de una senal

Un tema que aparece a menudo en una ciencia experimental es el siguiente.


Tenemos un experimento en el que se observan sucesos de senal, ns , y sucesos de
ruido, nb , los cuales se supone que siguen una distribucion de Poisson con medias
s y b , respectivamente, que suponemos conocidas a priori. El numero total de
sucesos observados, n = ns + nb , seguira una distribucion de Poisson con media
s + b :
f (n; s + b ) =

(s + b )n (s +b )
e
n!

(10.28)

Supongamos que hacemos el experimento y observamos nobs sucesos. Sera esta observacion significativa para decir que hemos encontrado una senal, es decir,
que s es distinto de cero? Para responder a esta pregunta calculemos la probabilidad de encontrar nobs o mas sucesos suponiendo que solo hay ruido:

211

P (n nobs ) =

f (n; s = 0, b )

n=nobs

= 1
= 1

nX
obs 1
n=0
nX
obs 1
n=0

f (n; s = 0, b )
bn b
e
n!

(10.29)

Supongamos una situacion concreta en la que b = 0,5 y en la que observemos nobs = 5. La probabilidad anterior (el valor-p) es en este caso p = 1,7 104 .
Es por lo tanto muy improbable que esta observacion sea debida al ruido. Si la
hipotesis de que las observaciones son debidas al ruido es la correcta y repitiesemos el experimento muchas veces, solamente en una fraccion de 1,7 104 de los
casos observaramos 5 o mas sucesos.
Un error que debe ser evitado es el siguiente. Como la distribucion del numero
de sucesos es la de Poisson, y la varianza de la misma es igual ala media, uno estara tentado a decir que el numero de sucesos observado es 5 5. Substrayendo

el ruido tendramos que el numero de sucesos de senal sera ns = 4,5 5. Visto as, este numero no parece ser muy incompatible con cero. El problema viene
de que esta u ltima cantidad es la probabilidad de que nobs fluctue a nb o menor,
mientras que lo que realmente queremos es la probabilidad de que b fluctue a un
valor nobs o mayor.

10.4.

El test t de Student. Comparacion de medias

Se denomina test-t de Student a cualquier test de hipotesis donde la distribucion del estadstico de test sigue la distribucion t de Student (introducida en el
captulo 2) cuando la hipotesis nula es cierta.
Este test aparece en varias situaciones. La mas comun consiste en comprobar
si la media de una poblacion, que se supone distribuida de manera gausiana, es
consistente con el valor especificado en la hipotesis nula. Un ejemplo es el que vimos con algun detalle en la seccion 10.1 . El mismo tipo de test tambien aparece
en la comparacion de la media de dos muestras distintas de la misma poblacion,
que se suponen normales. Veamos estos casos en detalle.

212

A. Test si una muestra de n valores de una variable procede de una distribucion normal de media conocida
Este es el caso del ejemplo de la seccion 10.1, que utilizamos para introducir el
concepto de contraste de hipotesis. Si tenemos una muestra de tamano n, (x1 , x2 , ..., xn )
extrada de una distribucion gausiana sabemos que la media
n

xn =

1X
xi
n i=1

(10.30)

esta distribuida de manera tambien gausiana con la misma media de la poblacion


y con varianza 2 /n, donde 2 es la varianza de la poblacion. Esta propiedad se
sigue tanto de la propiedad aditiva de la distribucion gausiana como del teorema
central del lmite cuando n es grande. Por lo tanto la variable
z=

xn

/ n

(10.31)

estara distribuida de manera normal. Pero en general no conocemos y como


estimador de la varianza de la poblacion utilizamos la varianza de la muestra
n

s2n

1 X
(xi xn )2 .
=
n 1 i=1

(10.32)

Sabemos (captulo 2) que la cantidad


t=

xn

sn / n

(10.33)

sigue la distribucion de Student con n 1 grados de libertad. La distribucion de


probabilidad de t es
( 1 (r + 1))
t2 r+1
f (t; r) = 2
(1
+
) 2
r
r( 12 r)

(10.34)

donde r n 1 es el numero de grados de libertad. Es de destacar que esta distribucion no depende ni de ni de y de ah su importancia, como vamos a ver.
La deduccion de la distribucion de la probabilidad anterior es laboriosa y utiliza el
hecho que (n1)s2n sigue una distribucion de tipo 2 , con n1 grados de libertad.
Esta curva es simetrica con respecto a cero. Para estimar los lmites t correspondientes a un cierto nivel de confianza requerimos que
Z t

f (t; r)dt = .
(10.35)
2

213

Lo que queremos para aceptar la hipotesis nula, es decir el que la media de la


poblacion es , a un nivel se significacion , es que la diferencia
|t| =

x
.
s/ n

(10.36)

sea menor que t donde t es tal que la probabilidad asociada al intervalo [t , t ]


es
P (t[t , t ]) = 1

(10.37)

Dicha probabilidad puede calcularse, encontrase en unas tablas o en algun programa. Tambien puede calcularse a partir de la funcion de distribucion acumulativa
de la distribucion de Student, Fs , pues se cumple que
P (t < t ) = Fs [t ] =

(10.38)

B. Test de la diferencia entre medias de dos muestras


Supongamos dos muestras distintas 1 y 2 de tamanos n1 y n2 respectivamente. Suponemos que estas muestras provienen de dos poblaciones gausianas N (1 , 1 ) y
N (2 , 2 ) y queremos contrastar si las medias muestrales son compatibles con la
hipotesis de que 1 y 2 son iguales (la hipotesis tomada como nula).
La manera practica de aplicar el test depende de varios factores, tales como
el tamano de las muestras, el que 1 y 2 sean o no iguales o de si son o no
conocidas a priori. Si las varianzas 12 y 22 son conocidas es facil probar, a partir
de la propiedad aditiva de la distribucion normal, que la cantidad
x1 x2 ,

(10.39)

esta distribuida de manera normal con media dicha diferencia y varianza


2 =

12 22
+
n1 n2

(10.40)

Puesto que conocemos la distribucion de la variable a contrastar procederamos


calculando las probabilidades correspondientes y haciendo el corte apropiado para un nivel de significacion especificado.
Si las varianzas 12 y 22 no son conocidas pero las muestras son grandes, entonces calcularamos las varianzas muestrales s21 y s22 y las utilizaramos en vez de
214

las de la poblacion, con lo que la diferencia entre las medias sera tambien aproximadamente gausiana con una varianza como en 10.40 con s1 y s2 en vez de 1
y 2 .
El caso es mas complicado cuando las muestras son pequenas. Consideramos
dos situaciones distintas:
(1) 12 = 22 = 2 . En este caso puede demostrarse que la variable
t=

x1 x2
s

(10.41)

donde
n1 + n2 (n1 1)s21 + (n2 1)s22
n1 n2
n1 + n2 2
n1
X
1
(xi1 x1 )2
=
n1 (n1 1) i=1

s2 =

(10.42)

s21

(10.43)

s22

1
n2 (n2 1)

n2
X
(xi2 x2 )2

(10.44)

i=1

sigue una distribucion de Student con n1 +n2 2 grados de libertad (ver problema
10.1. La aplicacion del test de Student a t permite aceptar o rechazar la hipotesis
de si ambas muestras tienen o no la misma media.
(2) 12 6= 22 . En este caso puede demostrarse (pero la demostracion es mas complicada que la anterior) que la variable
x1 x2
t= p 2
s1 /n1 + s22 /n2

(10.45)

esta distribuida aproximadamente como la distribucion de Student con un numero


de grados de libertad dado por el entero mas cercano a la cantidad
(s2 /n1 + s2 /n2 )
n = { (s21/n )2 (s22 /n )2 2
1
1
+ n2 2 12
n1 1

10.5.

(10.46)

El test-F de Fisher. Comparacion de varianzas

El test-F es un tipo de contraste de hipotesis en el que el estadstico de test


sigue la llamada distribucion F de Fisher cuando la hipotesis nula es valida. El
215

uso mas comun se plantea cuando es necesario comparar las varianzas de dos poblaciones con la misma media, tal como explicamos mas abajo. Pero es tambien
importante en otros tests relacionados con la varianza.
El analisis de varianzas en general es uno de los temas mas importantes de
la estadstica y aparece en muchas situaciones. La varianza es una medida de la
dispersion con respecto a la media. Consideremos el caso particular en el que tomamos dos muestras de distinto tamano de una misma poblacion, descrita por una
densidad de probabilidad con media y varianza dadas. A partir de las muestras
podemos calcular la media y varianza muestrales. Es posible que las medias que
obtengamos sean las mismas pero no as las varianzas. En este caso tenemos que
hacernos la pregunta de si la diferencia entre las varianzas muestrales es consistente o no con el hecho de que las dos muestras tengan un tamano distinto y la
poblacion original tenga una cierta varianza.
Un ejemplo concreto es el que se nos plantea cuando medimos dos muestras
con instrumentos distintos. La varianza de las medidas con uno de los instrumentos sera distinta de la obtenida con el otro. Lo que queremos saber es si la
diferencia es la esperada estadsticamente o si un instrumento es mejor que el otro
(mejor, en el sentido de dar una varianza menor en las medidas). En lugar de la
calidad de un instrumento podramos estar evaluando la efectividad de un determinado medicamento en actuar contra una determinada enfermedad. Es inmediato
establecer un paralelismo entre ambas situaciones.
Para simplificar el tratamiento, supongamos dos poblaciones distribuidas de
manera gausiana y supongamos dos muestras de tamano n1 y n2 respectivamente.
Para cada una de las dos muestras formamos las varianzas muestrales s21 y s22
definidas por
n

s2i

1 X
(xi i )2 .
=
ni 1 i=1

(10.47)

donde 1 y 2 son las medias de las poblaciones 1 y 2. Como ya hemos visto


en el captulo 2 si las xi vienen de una distribucion gausiana con varianza i2 , la
cantidad
2i =

(ni 1)s2i
i2

(10.48)

sigue una distribucion 2 con ni 1 grados de libertad. Para comparar las varianzas
de las muestras calculemos su cociente, llamado F, es decir
216

F =

s21
n2 1 21
m2 21
=
=
s22
n1 1 22
m1 22

(10.49)

donde mi = ni 1.
Si las varianzas muestrales son parecidas, esta cantidad no debera ser muy
distinta a 1. Lo que nos interesa es saber como esta distribuida F y calcular la
probabilidad de que su valor sea mayor o menor que el valor obtenido a partir de
las muestras particulares 1 y 2. Tal como hemos visto en el captulo 5, si tenemos
dos variables z1 y z2 las dos distribuidas de manera 2 con grados de libertad
r1 y r2 , su cociente z = z1 /z2 sigue la distribucion de Fisher con densidad de
probabilidad dada por
2
)
( r1 +r
P (z) = 1 2 1
( 2 r1 )( 2 r2 )

t 2 r1 1 (t + 1) 2 (r1 +r2 ) dt.

(10.50)

m2
Como lo que queremos es la distribucion de F = m
z podemos hacer un
1
simple cambio de variables para obtener la densidad de probabilidad de F la cual
viene dada por

z
m1
P (F ) = P (z)J( ) = P (z)
F
m2
m1
m1 +m2
m1 m1 ( 2 )
F 2 1
2
P (F ) = ( )
.
2)
m2
( m21 )( m22 ) ( m1 F + 1) (m1 +m
2

(10.51)
(10.52)

m2

Esta distribucion es parecida a una 2 (Figura 2.11). Esta definida para valores
positivos de F y se extiende a +, es una funcion tabulada en muchos libros
y disponible en libreras de programas, al igual que su funcion de distribucion
acumulativa. Una vez que la conozcamos podemos determinar la probabilidad de
que F sea mayor que una cierta cantidad f , de manera que la probabilidad
P (F > f ) = .

(10.53)

Si F > f se dice que 12 > 22 al nivel de significacion . En este ejemplo el test es asimetrico, pero en otros casos estamos interesados en saber si F
esta dentro de un intervalo (f1 , f2 ), es decir si
1
1
P (F > f1 ) = y P (F < f2 ) = .
2
2
217

(10.54)

Si estas relaciones se cumplen se dice que 1 = 2 al nivel de sinificacion .


A menudo lo que se especifica es el nivel de significacion y lo que se quiere
es determinar los lmites f1 y f2 correspondientes, que vendran dados por las
integrales
Z
0

10.6.

f1

1
F (t)dt = 1
2

f2

F (t)dt = .

(10.55)

El lema de Neyman-Pearson

Cuando el estadstico de test es una sola variable y quedan fijados una vez
especificado tc y las hipotesis H0 y H1 , tal como hemos mencionado en la seccion
10.1. Lo que pretendemos en general es que, una vez fijada (cuyo significado es
en muchos casos la ineficiencia de observar una senal), la cantidad (en muchos
casos el ruido) fuese mnima, o lo que es lo mismo que la potencia de H1 sea
maxima. Si tc es multidimensional, ~t(~x), puede ser complicado elegir la region
crtica de las variables ~x que nos permita optimizar la distincion entre H0 y H1 . El
lema de Neyman-Pearson facilita esta eleccion en terminos de una sola variable
como vamos a ver.
Consideremos en concreto dos hipotesis simples H0 y H1 y supongamos que
existen dos regiones del espacio de la variable (en general multidimensional) ~x,
Rc1 y Rc2 con la misma probabilidad asociada a la hipotesis H0 (nos limitamos
a dos pero podran ser mas). El lema de Neyman-Pearson nos da un criterio para
elegir entre las dos, en el sentido de que para una de ellas la potencia del contraste
de H1 sera maxima, o, equivalentemente, el parametro asociado a la hipotesis
alternativa H1 sera mnimo. Elegir tal region como la crtica nos proporciona por
lo tanto el test mas robusto para discriminar entre las hipotesis H0 y H1 .
El lema de Neyman-Pearson establece que si existe una cantidad c tal que el
cociente

f (~x|H0 )
c para ~x Rc1
=
(10.56)
rc =
c para ~x 6 Rc1 ,
f (~x|H1 )
la region Rc1 es la que corresponde al test mas robusto. Las expresion f (~x|Hi ) es
la llamada funcion de verosimilitud de la muestra calculada con la distribucion de
probabilidad de la hipotesis Hi que introduciremos en detalle en el captulo 11.
Como veremos all la funcion de verosimilitud es el producto de las probabilidades a posteriori de obtener los elementos de la muestra. La fraccion anterior se
218

denomina cociente de verosimilitud. En la practica el cociente anterior puede calcularse directamente en funcion de las variables ~t(~x) obtenidas de la muestra. El
test basado en el cociente de verosimilitud es similar al test para una sola variable
t, donde en este caso la variable es tc = rc .

Figura 10.8: Representacion de las regiones crticas Rc1 y Rc2 del espacio de las ~x0 s, asociadas a
un mismo valor de .

Para demostrar el teorema consideremos el esquema de la figura 10.8. Rc1 y


Rc2 son las regiones mostradas en la figura, las cuales tienen en comun la region I:
I = Rc1 Rc2 .

(10.57)

Las regiones sombreadas A y B estan definidas por


A I = Rc1
B I = Rc2 .

(10.58)
(10.59)

Puesto que las probabilidades asociadas a Rc1 y Rc2 son iguales y la region I es
comun se tendra que
Z
Z
f (~x|H0 )d~x =
f (~x|H0 )d~x.
(10.60)
A

Si I Rc1 , la igualdad 10.56 nos dice que


Z
Z
f (~x|H0 )d~x c f (~x|H1 )d~x.
A

219

(10.61)

Pero al estar B fuera de Rc1 , B 6 Rc1 , la misma igualdad nos dice que
Z
Z
f (~x|H0 )d~x c f (~x|H1 )d~x.
B

(10.62)

La potencia del test rc con respecto a H1 , 1 1 (donde 1 esta asociado a la


region Rc1 ), viene dada por
Z
Z
Z
1 1 =
f (~x|H1 )d~x =
f (~x|H1 )d~x + f (~x|H1 )d~x (10.63)
Rc1
A
I
Z
Z
1

f (~x|H0 )d~x + f (~x|H1 )d~x


(10.64)
c A
I
Z
Z
1

f (~x|H0 )d~x + f (~x|H1 )d~x.


(10.65)
c B
I
Aplicando la desigualdad anterior se tiene
Z
Z
Z
c
f (~x|H1 )d~x + f (~x|H1 )d~x =
f (~x|H1 )d~x = 1
(10.66)
2
1 1
c B
I
Rc2
1 1 1 2 ,
(10.67)
lo cual prueba el lema.

10.6.1.

El metodo de Fischer

El lema de Neyman-Pearson nos permite calcular una cantidad escalar, rc ,


asociada a una region crtica o ptima, en el sentido de proporcionarnos el contraste mas robusto para discriminar entre las hipotesis H0 y H1 . Pero el calculo de
rc puede ser laborioso. Las densidades de probabilidad del numerador y denominador de 10.56 son densidades de probabilidad conjuntas. Muy a menudo es
necesario simularlas (por ejemplo con el metodo de Monte Carlo) lo cual requiere
un numero de sucesos generados que crece como una potencia de n, la dimensionalidad de ~x. Si por ejemplo simulamos las distribuciones en m intervalos y ~x es
de n dimensiones, el numero de cantidades que hay que simular es mn , por lo que
el numero de sucesos a generar crece enormemente con n. El metodo de la funcion
discriminante de Fisher reduce el problema, en el sentido de que solamente va a
ser necesario conocer la media y covarianzas de las distribuciones de probabilidad
conjuntas f (~x|H0 ) y f (~x|H1 ).
El metodo de Fisher consiste en suponer que t(~x) es una funcion lineal de ~x,
es decir
X
t(~x) =
ai xi = (~a)T (~x)
(10.68)
i

220

donde (~a)T es un vector-fila, cuyas componentes queremos determinar, y ~x es un


vector columna. Lo que queremos es que las ~a hagan maxima la separacion entre
g(~x|H0 ) y g(~x|H1 ). En el metodo de Fisher la separacion va a estar caracterizada
por la diferencia de las medias de t para las dos hipotesis H0 y H1 , dividida por la
suma de sus varianzas, como vamos a ver.
(k)

La media de xi
dada por

(k)

para la hipotesis k = 0, 1, que denotaremos por i , viene


(k)
i

Z
=

xi f (~x|Hk )d~x

k = 0, 1

(10.69)

y la matriz de covarianza
Z
(k)
(k)
(k)
Vij = (x i )i (x j )f (~x|Hk )d~x.

(10.70)

En funcion de estas cantidades podemos calcular el valor esperado y la varianza


de t:
Z
k = tg(t|Hk )dt = (~a)T (~(k)
(10.71)
Z
V [t]k =

(t k )2 g(t|Hk )dt = (~a)T (Vi j)(k) (~a).

(10.72)

donde las igualdades de la derecha son debidas a la linearidad de t en las xi .


Es intuitivo ver que las distribuciones g(t|H0 ) y g(t|H1 ) estaran tanto mas
separadas cuanto mayor sea la diferencia entre 0 y 1 , es decir cuando la cantidad
(0 1 )2 sea maxima. Otra propiedad deseada es que las distribuciones g(t|H0 )
y g(t|H1 ) tengan varianzas pequenas. Una medida de estos dos criterios nos la da
la variable
J(~a) =

(0 1 )2
.
V [t]0 + V [t]1

(10.73)

En esta expresion tanto el numerador como el denominador pueden ser expresados en funcion de ~a. Para el numerador tenemos
(0 1 )2 =
=

n
X
i,j=1
n
X

(0)

(1)

(0)

(1)

ai aj (i i )(j j )

(10.74)

ai aj Bij = (~a)T (B)(~a)

(10.75)

i,j=1

221

donde
Bij = (0 1 )i (0 1 )j ,

(10.76)

y para el denominador tenemos que


V [t]0 + V [t]1 =

n
X

(0)

(1)

ai aj Vij + Vij = (~a)T (Wij )~a

(10.77)

i,j

donde
(0)

(1)

Wij = Vij + Vij .

(10.78)

Por lo tanto la expresion para J(~a) es de la forma

J(~a) =

(~a)T B(~a)
.
(~a)T W (~a)

(10.79)

Para hallar el maximo, tendramos que derivar con respecto a los coeficientes
ai e igualar a cero. El resultado es que los coeficientes ~a quedan determinados
salvo una constante multiplicativa arbitraria.
~a W 1 (~)(0) (~)(1) .

(10.80)

A la estadstica t resultante se la denomina funcion discriminante lineal de


Fisher. Para calcular t solamente se necesitan las medias
~ (k) y las varianzas,
(k)
Vij , en vez de las funciones completas f (~x|H0 ) y f (~x|H1 ).

10.7.

Problemas

10.1 Probar que la variable t definida en la ecuacion 10.41 sigue una distribucion
de Student con n1 + n2 2 grados de libertad.
10.2 Tenemos una muestra de 20 personas de una poblacion normal y obtenemos
que la media y varianza muestrales son x = 25,5 y s2 = 60,5.
(a) Encontrar el intervalo correspondiente a un nivel de confianza del 99 % para la
media de la poblacion.
(b) Es aceptable la hipotesis de que la varianza de la poblacion es 2 = 50?
10.3 En una poblacion el peso de las personas esta distribuido de manera estandar
con = 3.
222

(a) Encontrar un intervalo de confianza correspondiente a un nivel de confianza


del 95 % (ver seccion 9.5).
(b) Como en (a) pero con un nivel de confianza de 90 %, suponiendo ademas que
es desconocida.
(c) Tomamos una muestra de 10 personas y encontramos que sus pesos son (en
kg.) {75, 78, 82, 85, 70, 65, 75, 79, 78, 80}. Basados en esta muestra podemos
suponer que la media del peso de la poblacion es de 75 kg? La hipotesis alternativa es que la media de la poblacion es mayor de 75kg. Calcular la potencia de esta
hipotesis alternativa.
10.4 Las varianzas muestrales de dos poblaciones estandar independientes son
s21 = 20 para una muestra de tamano 50 de la primera poblacion y s2 = 25 para
una muestra de tamano 100 de la segunda poblacion. Es admisible suponer que
las dos poblaciones tienen la misma varianza? Si este es el caso encontrar un intervalo de confianza al 95 % para dicha varianza.
10.5 El numero de coches por minuto que pasa por un determinado punto de una
carretera sigue una distribucion de Poisson. Para determinar el promedio de dicha
distribucion se contabiliza el numero de coches que pasan por dicho punto durante una hora y se encuentra que es de 250. Es admisible la hipotesis de que el
numero de coches por minuto es de 4 vehculos o es mas razonable suponer que
el promedio por minuto es mayor de 4?
10.6 Dos cronometros miden el tiempo con un error cercano a la decima de segundo. Se realiza una prueba de calibracion y se encuentra que los errores de los
cronometros son
Es admisible suponer que los dos tienen la misma precision?

223

...

224