Вы находитесь на странице: 1из 7

DISEÑO EXPERIMENTAL ESPOCH

TEMA: MÉTODOS ANALÍTICOS DE: HARTLETT, LEVENE, BONETT, BARTLEY,


COCHRAN Y FISHER

INTRODUCCIÓN:
Uno de los supuestos que más se requieren en aplicaciones estadísticas populares, tales como el
análisis de varianza, el análisis de regresión, etc., es el de la homogeneidad de varianzas. Este
supuesto es crucial para garantizar la calidad de los procedimientos estadísticos utilizados tanto en
pruebas de hipótesis como en la construcción de intervalos de confianza. Existen muchas pruebas para
verificar si el supuesto de homogeneidad es plausible o no, pero, dada la complejidad del problema, no es
posible realizar estudios comparativos entre ellas que sean exhaustivos, ni de su comportamiento para muestras
pequeñas, ya que muchas de ellas son de carácter asintótico. En este trabajo estudiamos el nivel real de
significancia, el cual es la verdadera probabilidad de rechazar la hipótesis nula cuando es cierta y que en
pruebas no exactas es diferente del nivel nominal, o teórico, de significancia, determinado por el usuario,
usualmente a niveles del 5 % u otros valores péquenos. Además, se estudia la potencia de las pruebas bajo
algunas alternativas abajo enunciadas
OBJETIVOS:
General:
❖ Determinar la potencia de las pruebas de homogeneidad de varianza de los métodos analíticos
de: bartlett, levene, bonett, hartley, cochran y fisher
Específico:
❖ Describir cada uno de los métodos mencionados
MARCO TEÓRICO:
Pruebas de Homogeneidad de Varianzas

Para la validación de supuestos se deben obtener todos los residuales. Para validar la normalidad de
los errores se debe aplicar los procedimientos vistos en el capítulo de estadística básica. Para validar
el supuesto de homogeneidad de varianzas se realiza de manera gráfica un diagrama de dispersión
entre los residuales (eje Y) y las respuestas estimadas . Si se observa algún patrón indica que
posiblemente no se cumple el supuesto de homogeneidad de varianzas. Tambien existen pruebas
objetivas como las que se desarrollan a continuación:

Para la validación de este supuesto se prueban las hipótesis

Si no se rechaza, se comparan las medias mediante la prueba ; si se rechaza se intenta


transformar los datos o aplicar la prueba no paramétrica como la Kruskal-Wallis. Existen diversos
procedimientos, algunos de estos se estudiarán a continuación:
DISEÑO EXPERIMENTAL ESPOCH

• Prueba F-Max de Hartley


• Prueba de Cochran(1941)
• Prueba de Bartlett
• Prueba de Levene
• Prueba de Fisher
• Prueba Bonett

Prueba de Bartlett

La prueba de Bartlett (1937) es quizá la técnica ampliamente usada para probar homogeneidad de
varianza. En esta prueba los ni en cada tratamiento no necesitan ser iguales; sin embargo, se
recomienda que los ni no sean menores que 3 y muchos de los ni deben ser mayores de 5, La
estadística de prueba es

El estadístico de prueba se define como:

donde

Cuando la hipótesis nula es cierta, la estadística tiene distribución aproximadamente χ 2 con k − 1


grados de libertad; cuando el muestreo se realiza en poblaciones normales.
Prueba de Levene
Esta prueba fue propuesta por Levene (1960)
La prueba de Levene rechaza la hipótesis de que las varianzas son iguales con un nivel de
significancia α si W > Fα,k−1,N−k donde Fα,k−1,N−k es el valor crítico superior de la distribución
F con k −1 grados de libertad en el numerador y N −k grados de libertad en el denominador a un nivel
de significancia α. La prueba de Levene ofrece una alternativa más robusta que el procedimiento de
Bartlett, ya que es poco sensible a la desviación de la normalidad. Eso significa que será menos
probable que rechace una verdadera hipótesis de igualdad de varianzas sólo porque las distribuciones
de las poblaciones muestreadas no son normales:
Se define como:
DISEÑO EXPERIMENTAL ESPOCH

donde Zij puede tener una de las siguientes tres definiciones:

Prueba Fmax de Hartley


Para ejecutar esta prueba se requiere que todas las muestras tengan el mismo tamaño, es decir,
n1=n2=…nk .Fue propuesta por Hartley (1940 - 1950). La prueba se basa en la estadística:

donde i = 1, . . . , k, con k igual al numero de muestras


Si la hipótesis nula es cierta la distribución muestral de la estadística distribución muestral del
estadístico Fmax (asumiendo independencia de las muestras aleatorias tomadas de las poblaciones
normales) es FMAX´ con k grados de libertad en el numerador y v = n−1 grados de libertad en el
denominador. En la tabla 1 se proporcionan los valores críticos de la distribucion FMAX´ para α =
0.05.

Se rechaza

PRUEBA DE COCHRAN
Dado k grupos de datos, algunos análisis suponen que las varianzas son iguales para los k grupos. Por
ejemplo, la prueba F usada en el análisis de un factor de varianza puede ser sensible a las varianzas
desiguales en los k niveles del factor. Las pruebas de Levene y Bartlett son ampliamente utilizadas
DISEÑO EXPERIMENTAL ESPOCH
para evaluar la homogeneidad de las varianzas en el caso de un factor (con k niveles). La prueba de
la varianza de Cochran creada por William G. Cochran es otra alternativa para evaluar la
homogeneidad de las varianzas. Aunque la prueba de Cochran tiene un propósito similar a las pruebas
de Levene y Bartlett, tiende a utilizarse en un contexto algo diferente. La prueba de Levene y Bartlett
se utiliza para evaluar la homogeneidad general y se usan típicamente en el contexto de decidir si una

prueba específica (por ejemplo, una prueba F) es apropiada para un conjunto dado de datos. Estas
pruebas no identifican que varianzas son diferentes. Por otro lado, la prueba de la varianza de Cochran
tiende a ser utilizada en el contexto de las pruebas de aptitud. La prueba de Cochran es esencialmente
una prueba atípica. La estadística de prueba original de Cochran se define como:

donde:
• Cj = Estadística C de Cochran para el conjunto de datos j
• Sj = La desviación estándar mayor del conjunto de datos j
• k = Número de grupos de datos que permanecen en el conjunto de datos
• Si = Desviaciones estándar del conjunto de datos i (1 ≤i≤N)
Las hipótesis bajo las cuales trabaja la prueba son:
• H0 : Todas las varianzas son iguales
• H1 : Al menos una varianza es significativamente mayor que las otras.
Valores críticos
La varianza muestral de la serie de datos j se considera un valor atípico al nivel de significancia α, si
Cj excede el valor crítico del límite superior CUL. CUL depende del nivel de significancia dado α, el
número de series de datos N consideradas y del número de puntos de datos (n) por serie de datos. Los
valores para CUL se calculan a partir de:

donde:
• CUL = Valor critico del límite superior para la prueba unilateral en un diseño equilibrado
• α = Nivel de significancia
• n = Numero de datos por conjunto de datos
• Fc = Valor critico de la distribución F de Fisher el cual se puede obtener mediante las tablas
de la distribución o un software especializado.
PRUEBA DE FISHER
Para realizar la prueba exacta de Fisher, elija Estadísticas > Tablas > Tabulación cruzada y Chi-
cuadrada y haga clic en Otras estadísticas.
Utilice la prueba exacta de Fisher para analizar una tabla de contingencia 2x2 y probar si la variable
de fila y la variable de columna son independientes (H0: la variable de fila y la variable de columna
son independientes).
DISEÑO EXPERIMENTAL ESPOCH

El valor p de la prueba exacta de Fisher es exacto para todos los tamaños de muestra, mientras que
los resultados de la prueba de chi-cuadrada que examina las mismas hipótesis pueden ser inexactos
cuando los conteos de celda son pequeños.
Para esta tabla, la prueba exacta de Fisher produce un valor p de 0.263. Puesto que este valor p es
mayor que los niveles comunes de significancia (α), usted no puede rechazar la hipótesis nula. Por lo
tanto, aunque puede parecer que hay una diferencia entre sexo y preferencia de candidato, con estos
datos, no hay evidencia suficiente para indicar que el sexo de un elector afecta su escogencia en las
elecciones. Con una muestra más grande, es probable que pueda demostrar una diferencia.
La prueba exacta de Fisher se basa en la distribución hipergeométrica. Por lo tanto, el valor p es
condicional en los totales marginales de la tabla.
Se aplica en las siguientes situaciones:
1) En la comparación de dos grupos respecto a una variable dicotómica.
2) En la valoración de la relación entre dos variables cualitativas dicotómicas cada una de ellas.
En ambos casos, que son equivalentes (son dos formulaciones distintas de lo mismo), los datos pueden
organizarse en una tabla de contingencias de 2×2 ó mediante dos porcentajes a comparar, uno de cada
grupo.
El primer caso se resuelve habitualmente con un Test de comparación de dos proporciones (Ver
Herbario de técnicas y ver también el Tema dedicado a la comparación de dos poblaciones), el
segundo caso se resuelve con un Test de la ji-cuadrado de tablas de contingencias. El problema que
tienen ambos test es que necesitan de tamaños muestrales relativamente grandes.
El Test de comparación de proporciones, para funcionar bien, requeriría un tamaño muestral mínimo
de 30 por grupo y que el producto del tamaño muestral por el tanto por uno esperado bajo la hipótesis
nula del suceso que se analiza sea superior o igual a 5 en ambas muestras (esto último suele enunciarse
como que el valor esperado por grupo es de 5 observaciones del suceso analizado, como mínimo
PRUEBA DE BONETT

Intervalos de Bonett. En lugar de invertir T2 para obtener el IC, Bonett (2006) invierte el siguiente
estadístico

En consecuencia, el intervalo resultante es simplemente la región de aceptación para la prueba de la

igualdad de varianzas. Esto se debe a que el estimador agrupado de la curtosis (1) solo es
consistente cuando las varianzas son iguales, o equivalentemente cuando la relación hipotética es 1.
El intervalo resultante se especifica en Bonett (2006) como:

Donde
DISEÑO EXPERIMENTAL ESPOCH

La constante c se incluye como un ajuste en muestras pequeñas para mitigar el efecto de las
probabilidades de error de colas desiguales en diseños no balanceados. Esta constante se calcula
como:

La constante desaparece cuando los diseños son balanceados y su efecto se vuelve insignificante con
el aumento de los tamaños de las muestras. La tabla 1 ilustra las consecuencias de interpretar
erróneamente los intervalos anteriores como intervalos de confianza. Estos resultados se basan en un
pequeño estudio de simulación en el que calculamos las probabilidades de cobertura simulada con
base en los intervalos de Bonett (2006). Para los casos de varianzas iguales (columna izquierda),
extraemos dos muestras independientes de la distribución normal estándar. Para los casos de
varianzas desiguales (columna derecha), escalamos las observaciones de la segunda muestra por un
factor constante de 4. Las probabilidades de cobertura estimada se basan en 100,000 réplicas. La
cobertura nominal objetivo es 0.95
Tabla 1Efecto de las varianzas desiguales de la población en los IC alfa=0.05) de Bonett (2006)

Si los intervalos se basaran en un estimador agrupado de la curtosis consistente, entonces se podría


esperar que las probabilidades de cobertura en los dos casos fueran idénticas. Sin embargo, observe
que los intervalos son consistentemente más conservadores cuando las varianzas son desiguales.
Además, las probabilidades de cobertura se acercan a 1 a medida que aumentan los tamaños de las
muestras. Tenga en cuenta que con los IC aproximados de Shoemaker (2003) se obtienen resultados
similares

CONCLUSIONES:
❖ Bratley dice que la aproximación es buena para muestras bastante pequeñas. No requiere que
los tamaños de las muestras sean iguales. Si tenemos evidencia fuerte de que los datos vienen
de hecho de una distribución normal, o casi normal, entonces la prueba de Bartlett tiene un
buen desempeño. Me ayuda a identificar si existe homocedasticidad en un grupo de muestras
diferentes
❖ Existe evidencia de que las pruebas de Hartley, Cochran y Bartlett son sensibles a la violación
del supuesto de normalidad.
❖ Esta prueba de Levene es robusta que el procedimiento de Bartle al supuesto de normalidad.
DISEÑO EXPERIMENTAL ESPOCH
❖ Esta prueba es una alternativa a la prueba de Bartlett. El test de Levene es menos sensible a
la falta de normalidad que el de Bartlett. Sin embargo, si estamos seguros de que los datos
provienen de una distribución normal, entonces el test de Bartlett es el mejor
❖ Esta prueba es muy sensible a alejamientos del supuesto de normalidad y requiere que los
tamaños de muestras sean iguales; si los tamaños de muestras no son iguales, entonces la
prueba ya no tiene soporte teórico fuerte y no es aplicable. Esta prueba es una de las más
fáciles de calcular, aunque requiere el uso de tablas especiales.
❖ Prueba de Cachran Cuando sobre n elementos se observa la serie de respuestas de cada uno
de ellos a k ''tratamientos'' esta prueba permite contrastar la hipótesis nula de que no existe
diferencia significativa entre los k ''tratamientos''. También es posible utilizarla si cada
tratamiento se aplica a uno de los elementos de n grupos de k elementos elegidos de forma
que los elementos de cada grupo se asemejen lo más posible entre ellos. Esta prueba es
adecuada cuando la respuesta a cada tratamiento es una variable dicotómica, siendo X = 1 si
la respuesta es ''éxito'' y X = 0 si es ''no éxito'' Si la respuesta es susceptible de medición en
por lo menos una escala ordinal también es posible dicotomizarla, pero se pierde información
y, por lo tanto, es preferible utilizar la prueba de Friedman
❖ Prueba de Fisher El Test exacto de Fisher es un contraste de hipótesis muy interesante por sus
muchas aplicaciones y porque es un muy útil escenario para aprender la lógica interna de un
contraste de hipótesis.
LINKOGRAFIA:
• https://www.emis.de/journals/RCE/V29/V29_1_57CorreaIral.pdf
• http://168.176.60.11/cursos/ciencias/2000352/html/un2/cont_212-32.html
• http://docplayer.es/48165598-Sobre-el-intervalo-de-confianza-robusto-de-bonett-para-una-
relacion-de-desviaciones-estandar.html

Вам также может понравиться