Вы находитесь на странице: 1из 10

INSTITUTO TECNOLÓGICO SUPERIOR DE

URUAPAN

LICENCIATURA EN
INGENIERÍA INDUSTRIAL

Estadística Inferencial I

UNIDAD 4
PRUEBAS NO PARAMÉTRICAS

P R E S E N T A

Naranjo Montes de Oca Víctor Hugo


Vega Franco Gerardo
NO. CONTROL:
16040141
16040169

PROFESOR:
Gilberto Chavez Esquivel
Instituto Tecnológico Superior de Uruapan

URUAPAN, MICH. Verano 2018


Tabla de contenido

I. Introducción ................................................................................................................... 3
II. 4.2.1 Escala de medición ................................................................................................ 4
III. 4.2.2 Método estadístico paramétrico y no paramétrico ........................................... 5
IV. 4.2.3 Prueba de Kolmogorov-Smirnov ........................................................................ 5
V. 4.2.4 Prueba de Anderson-Darling ................................................................................. 6
VI. 4.2.5 Prueba de Ryan – Jorner..................................................................................... 7
II. 4.2.6 Prueba de Shapiro-Wilk ......................................................................................... 7
III. Conclusión ................................................................................................................... 9
IV. Bibliografía ................................................................................................................. 10

2
I. Introducción

3
II. 4.2.1 Escala de medición

Comenzaremos definiendo el significado de una escala de medición, que según el


sitio de información Wikipedia, es una clasificación acordada con el fin de describir
la naturaleza de la información contenida dentro de los números asignados a los
objetos y, por lo tanto, dentro de una variable.
Es también conocida por “nivel de medida”.
Dentro de las escalas de medición, encontramos las siguientes:
● Nominal
● Ordinal
● Intervalo
● Razón
Las cuales explicaremos brevemente a continuación…
A) Escala Nominal. Usa nombres para establecer categorías. Puede usar números
pero estos son de carácter simbólico.
Ejemplo:

Sano ( 1 )
Enfermo ( 2 )

B) Escala Ordinal. También define categorías, pero establece una relación > o <
qué. Los números asignados si indican jerarquía. No se puede establecer distancia
entre dos puntos.
Ejemplo:

C) Escala de intervalo. Reúne las características anteriores. Registra de manera


numérica la distancia de dos puntos. El cero no significa ausencia de variable y es
arbitrario.
Ejemplo:
Temperatura
Fecha en calendario
Hora GMT

D) Escala de razón. Esta escala es la mas fuerte de todas. En este caso, el cero
indica ausencia de variable. La diferencia entre dos valores es de magnitud
conocida.
Ejemplo:
0 ingresos / mes

4
(Matas, 2000)

III. 4.2.2 Método estadístico paramétrico y no paramétrico


Comenzaremos definiendo los métodos de los que hablaremos;
Las pruebas estadísticas paramétricas y no paramétricas se diferencian por el tipo
de datos que se usan para analizar. Las pruebas paramétricas hacen muchas
suposiciones, la más significativa de las cuales es que los datos se distribuyen
normalmente. Las pruebas no paramétricas hacen menos suposiciones y hacen
frente a los datos que no se distribuyen normalmente. Las pruebas paramétricas
generalmente tienen una mayor potencia estadística.

Distribución de datos
Las pruebas paramétricas hacen la suposición de conocimiento previo de que los
datos se distribuyen normalmente. Varias pruebas pueden llevarse a cabo para
determinar si es o no es una suposición válida. Si los datos no están normalmente
distribuidos, pueden transformarse de diversas maneras para que las pruebas
paramétricas se puedan seguir utilizando. Como alternativa, se pueden utilizar los
análisis no paramétricos. Las pruebas no paramétricas no hacen suposiciones
sobre la distribución de los datos.

Escala de datos
Las pruebas paramétricas hacen la suposición de que los datos se miden en una
escala de intervalo, de modo que el intervalo entre los puntos de datos es
significativo. La altura en pulgadas o el peso en libras son datos de intervalo. Por
el contrario, las pruebas no paramétricas no hacen suposiciones acerca de la
escala de los datos.

Parámetros estadísticos
Las pruebas paramétricas emplean parámetros que se estima que con un conjunto
de datos que se distribuyen normalmente. La media, la varianza, la desviación
estándar y la asimetría son ejemplos. Estos parámetros se utilizan para hacer
inferencias en las pruebas paramétricas. Por el contrario, las pruebas no
paramétricas no hacen uso de estos parámetros estadísticos.

Diferencias en poder estadístico


En general, el poder estadístico es menor en pruebas no paramétricas que en sus
contrapartes paramétricas. El poder estadístico se refiere a la probabilidad de que
la prueba estadística se rechaza la hipótesis nula cuando la hipótesis nula es en
realidad falsa, y por lo tanto debe ser rechazada. En otras palabras, el poder se
refiere a la probabilidad de que la prueba dará lugar a la inferencia correcta acerca
de la población.

IV. 4.2.3 Prueba de Kolmogorov-Smirnov

5
En estadística, la prueba de Kolmogórov-Smirnov (también prueba K-S) es una
prueba no paramétrica que determina la bondad de ajuste de dos distribuciones de
probabilidad entre sí.

En el caso de que queramos verificar la normalidad de una distribución, la prueba


de Lilliefors conlleva algunas mejoras con respecto a la de Kolmogórov-Smirnov;
y, en general, el test de Shapiro–Wilk o la prueba de Anderson-Darling son
alternativas más potentes.

Conviene tener en cuenta que la prueba Kolmogórov-Smirnov es más sensible a


los valores cercanos a la mediana que a los extremos de la distribución. La prueba
de Anderson-Darling proporciona igual sensibilidad con valores extremos.

Estadístico

Para dos colas el estadístico viene dado por

donde F(x) es la distribución presentada como hipótesis.

(Desconocido, Engeneering Statitics Handbook, s.f.)

V. 4.2.4 Prueba de Anderson-Darling


En la estadística, la prueba de Anderson-Darling es una prueba no paramétrica sobre los
datos de una muestra resultante de una distribución específica.
La fórmula para el estadístico A determina si los datos (observar que
los datos se deben ordenar) vienen de una distribución con función acumulativa F.
(Desconocido, Wikipedia, 2013)

¿Qué es el estadístico de Anderson-Darling?


El estadístico Anderson-Darling es usado para medir como siguen los datos a una
distribución específica. Para un conjunto de datos y distribución en particular, mientras
mejor se ajuste la distribución a los datos, menor será este estadístico. Por ejemplo, usted
puede utilizar el estadístico de Anderson-Darling para determinar si los datos cumplen el
supuesto de normalidad para una prueba t.
Las hipótesis para la prueba de Anderson-Darling son:
H0: Los datos siguen una distribución especificada
H1: Los datos no siguen una distribución especificada
Utilizamos el valor p correspondiente para probar si los datos provienen de la distribución
elegida. Si el valor p es menor que un nivel de significancia elegido (por lo general 0.05 o
0.10), entonces rechace la hipótesis nula de que los datos provienen de esa distribución.

6
También se puede utilizar el estadístico de Anderson-Darling para comparar el ajuste de
varias distribuciones con el fin de determinar cuál es la mejor. Sin embargo, para concluir
que una distribución es la mejor, el estadístico de Anderson-Darling debe ser
sustancialmente menor que los demás. Cuando los estadísticos están cercanos entre sí, se
deben usar criterios adicionales, como las gráficas de probabilidad, para elegir entre ellos.
(Desconocido, Soporte de Minitab, 2017)

VI. 4.2.5 Prueba de Ryan – Jorner


La prueba de Ryan-Joiner es usada para probar si una muestra viene de una distribución
específica. Esta prueba es una modificación de la prueba de Kolmogorov-Smirnov donde
se le da más peso a las colas de la distribución que la prueba de Kolmogorov-Smirnov.
En estadística, la prueba de Ryan -Joiner es una prueba no paramétrica sobre si los datos
de una muestra provienen de una distribución específica. La fórmula para el estadístico
determina si los datos (observar que los datos se deben ordenar) vienen de una
distribución con función acumulativa

Fórmula
El coeficiente de correlación se calcula de la siguiente manera:

I. Notación

Término Descripción

Yi observaciones ordenadas

bi puntuaciones normales de los datos ordenados

s2 varianza de la muestra

(Garcia, 2015)

II. 4.2.6 Prueba de Shapiro-Wilk

7
Fue publicado en 1965 por Samuel Shapiro y Martin Wilk. Se considera uno de los
test más potentes para el contraste de normalidad, sobre todo para muestras
pequeñas (n<50).
El objetivo de esta prueba es determinar si una muestra aleatoria presenta
distribución normal.
Pero, veamos en que consiste este test, y es que Wikipedia nos dice que En
estadística, el Test de Shapiro–Wilk se usa para contrastar la normalidad de un
conjunto de datos. Se plantea como hipótesis nula que una muestra x1, ..., xn
proviene de una población normalmente distribuida.
El estadístico del test es:

Donde:
x(i) (con el subíndice i entre paréntesis) es el número que ocupa la i-ésima
posición en la muestra;

= (x1 + ... + xn) / n es la media muestral;


las variables así se calculan

donde

siendo m1, ..., mn son los valores medios del estadístico ordenado, de variables
aleatorias independientes e identicamente distribuidas, muestreadas de
distribuciones normales. V es la matriz de covarianzas de ese estadístico de
orden.
La hipótesis nula se rechazará si W es demasiado pequeño. El valor de W puede
oscilar entre 0 y 1.
Y se interpreta de la siguiente manera:
Siendo la hipótesis nula que la población está distribuida normalmente, si el p-
valor es menor a alfa (nivel de significancia) entonces la hipótesis nula es
rechazada (se concluye que los datos no vienen de una distribución normal). Si el
p-valor es mayor a alfa, no se rechaza la hipótesis y se concluye que los datos
siguen una distribución normal.

La normalidad se verifica confrontando dos estimadores alternativos de la varianza


σ²:
un estimador no paramétrico al numerador, y
un estimador paramétrico (varianza muestral), al denominador.

(Wilk, 1965)

8
III. Conclusión

9
IV. Bibliografía
Desconocido. (19 de Octubre de 2013). Wikipedia. Obtenido de
https://es.wikipedia.org/wiki/Prueba_de_Anderson-Darling
Desconocido. (2017). Soporte de Minitab. Obtenido de https://support.minitab.com/es-
mx/minitab/18/help-and-how-to/statistics/basic-statistics/supporting-
topics/normality/the-anderson-darling-statistic/
Desconocido. (s.f.). Engeneering Statitics Handbook. Obtenido de
https://www.itl.nist.gov/div898/handbook/eda/section3/eda35g.htm
Garcia, J. S. (2015). Scribd. Obtenido de https://es.scribd.com/doc/130225115/Prueba-de-
Ryan
Matas, A. (2000). Análisis de datos I. Sevilla: Kronos.
Wilk, M. B. (1965). An analysis of variance test for normality (complete samples).
Biometrika . Obtenido de
https://es.wikipedia.org/wiki/Test_de_Shapiro%E2%80%93Wilk

10

Вам также может понравиться