Вы находитесь на странице: 1из 51

ESTADÍSTICA INFERENCIAL

PRUEBA DE HIPÓTESIS

Dr. Pedro Huauya Quispe


Ayacucho- Perú
1. ANÁLISIS ESTADÍTICO INFERENCIAL
Para mayor validez y confiabilidad de la investigación científica, no basta la
presentación del análisis e interpretación descriptivo de datos, sino es importante
el análisis inferencial para generalizar los resultados obtenidos en la muestra a la
población. A los resultados de la muestra se le denomina esdígrafos y de la
población parámetro.

Según Hernández, Fernández y Baptista (2014, p. 299):


Con frecuencia, el propósito de la investigación va más allá de
describir las distribuciones de las variables; se pretende probar
hipótesis y generalizar los resultados obtenidos en la muestra a la
población o universo. Los datos casi siempre se recolectan de una
muestra y sus resultados se denominan estadísticos estadígrafos, la
media o la desviación estándar de la distribución de una muestra son
 A las estadísticas de la población se les conoce como
estadígrafos.
parámetros. Éstos no son calculados, porque no se recolectan datos
de toda la población, pero pueden ser inferidos de los estadígrafos,
de ahí el nombre estadística inferencial
Dr. Pedro Huauya Quispe
PARÁMETRO Y ESTADÍGRAFO

POBLACIÓN MUESTRA

Parámetro Estadígrafo

(Los datos no son calculados ni procesados, (Los datos se recolectan y sus


porque no se recoge de la población, sino resultados procesados se
son inferidos a la población) denomina estadígrafos)

POBLACIÓN MUESTRA
N: Tamaño de la población. n: Tamaño de la muestra.
Parámetro  : Media poblacional Estadístico o
x : Media de la muestra.
 2 : Varianza poblacional estadígrafo
P : Proporción poblacional. s 2 : Varianza de la muestra.
p : Proporción.

Dr. Pedro Huauya Quispe


INVESTIGACIÓN CIENTÍFICA
UNIVERSIDAD NACIONAL DE SAN CRSITÓBAL DE HUAMANGA

2. ¿Qué es HIPÓTESIS?
Las hipótesis son posibles respuestas a la interrogante del
problema. Son explicaciones tentativas que constituyen un
nexo entre la teoría científica y la realidad empírica. Es una
afirmación que está sujeta a verificación o comprobación.

Según Sánchez y Reyes (citado por Portillo y Roque, 2003, p. 29),


“la hipótesis es una proposición que anticipa una posible
conclusión a arribar, es decir, anticipa posibles respuestas. Puede
adoptar una forma declarativa o aseverativa ya sea en sentido que
afirma o niega algo”.

Dr. Pedro Huauya Quispe


2.1. CLASES DE HIPÓTESIS

POR SU POR EL Nº DE POR SU


DIMENSIÓN VARIABLES NATURALEZA

H. General H. univariables H. Descriptivas


H. Específica H. bivariables H. Explicativas
H. multivariables H.Correlacionales
H. Experimentales

POR SU
FUNCIÓN

H. DE
H. DE TRABAJO H. CIENTÍFICA
INVESTIGACIÓN

H. Nula (Ho)
H. Estadística
Dr. Pedro Huauya Quispe
H. Alterna (Ha) 5
2.2. ¿EN QUÉ CONSISTE LA PRUEBA DE HIPÓTESIS?
En todo trabajo de investigación es necesario realizar una
prueba confiable de hipótesis que consiste en un procedimiento
de decisión estadística para la aceptación o rechazo de la
hipótesis planteada.
Según Hernández, Fernández y Baptista (2014, p. 299):
La hipótesis en el contexto de la estadística inferencial es una
proposición respecto de uno o varios parámetros, y lo que el
investigador hace por medio de la prueba de hipótesis es determinar
si la hipótesis poblacional es congruente con los datos obtenidos en
la muestra.
Para Córdova (2014, p.31):
En resultados cuantitativos generalmente se tiene que realizar
pruebas de hipótesis para que los conocimientos o teorías
producidas sean científicas.
La prueba de hipótesis es un procedimiento basado en evidencia de
la muestra y la teoría de probabilidades para saber si la hipótesis es
una afirmación razonable
2.3. Error de prueba y nivel de significancia

ERROR TIPO I: Se comete error, cuando se rechaza la hipótesis nula


(Ho) cuando en realidad esta es verdadera.

ERROR TIPO II. Se comete error, cuando se acepta una hipótesis


nula (Ho) que es falsa.

Hipótesis Situación de la
hipótesis VERDAD FALSO
Ho: El entorno familiar no Se rechaza Ho ERROR I () Decisión
contribuye al pensamiento crítico correcta
de los estudiantes (verdad)
Ho: El entorno familiar contribuye No se rechaza Decisión ERROR II
al pensamiento crítico de los Ho correcta ()
estudiantes (falso)
2.4. ETAPAS DE LA PRUEBA DE HIPÓTESIS

2. Elección de nivel
1. Formulación significancia o
de hipótesis margen de error
estadísticas

ETAPAS

3. Elección de la
5. Decisión 4. Lectura de la prueba estadística
estadística y significancia y cálculo
conclusiones calculada

Dr. Pedro Huauya Quispe


PRIMERA ETAPA: FORMULACIÓN DE HIPÓTESIS ESTADÍSTICA

La hipótesis estadística es aquel enunciado que se formula a


partir de la hipótesis de investigación, sea en hipótesis alterna
y nula

Según Córdova (2014, p. 2014), “generalmente la hipótesis


estadística se expresa en forma simbólica. Para ello es necesario
traducir las hipótesis que se encuentra en un lenguaje ordinario
al lenguaje estadístico”

Nula

Dr. Pedro Huauya Quispe


Ejemplo

Hipótesis de investigación
La edad de los docentes influye significativamente en el de
aprendizaje de los estudiantes universitarios de la UNSCH, 2017
SEGUNDA ETAPA: ELECCIÓN DEL NIVEL DE SIGNIFICANCIA
Es la probabilidad de rechazar la hipótesis nula cuando es
verdadera.
Nivel de confianza Nivel de significancia

90% 100%
0%

Nivel de confianza Nivel de significancia

Dr. Pedro Huauya Quispe


CUARTA ETAPA: ELECCIÓN DE la prueba estadística
PASOS 1:
Primero identificamos qué tipo de escala medición corresponden los datos
(Nominal, ordinal intervalo o razón). Si los datos son nominales y ordinales
se realiza a través de la prueba no paramétrica, si es de intervalo y razón
prueba paramétrica, previa verificación de la normalidad.

Dr. Pedro Huauya Quispe


ESCALA DE MEDICIÓN

Dr. Pedro Huauya Quispe


ESCALA DE MEDICIÓN

Dr. Pedro Huauya Quispe


TERCERA ETAPA: ELECCIÓN DE la prueba estadística
PASOS 2:
Se establece los criterios de la prueba (prueba bilateral,
unilateral a la derecha o izquierda)

CASOS (en la hipótesis alterna)


Prueba bilateral o Prueba unilateral a Prueba unilateral a
de dos colas la derecha o de cola la izquierda o de
derecha cola izquierda
> <

Dr. Pedro Huauya Quispe


CRITERIOS DE LA PRUEBA

CASO A: Prueba bilateral (o prueba de dos colas)


Ho :    Hipótesis nula
O

Ha:    Hipótesis alterna


o

1
2 2

Dr. Pedro Huauya Quispe


CRITERIOS DE LA PRUEBA
Ejemplo de caso A

Dr. Pedro Huauya Quispe


CRITERIOS DE LA PRUEBA

CASO B: Prueba unilateral a la derecha (prueba de cola


derecha)
Ho :    O

Ha:    O

1

Importante: En la práctica se divide al resultado entre dos, al


resultado de la prueba bilateral
Dr. Pedro Huauya Quispe
CRITERIOS DE LA PRUEBA
Ejemplo de caso B

Dr. Pedro Huauya Quispe


CRITERIOS DE LA PRUEBA

CASO C: Prueba unilateral a la izquierda (prueba de cola


izquierda)
Ho :    O

Ha:    O

Región de rechazo

1

Dr. Pedro Huauya Quispe


CRITERIOS DE LA PRUEBA

Ejemplo de caso C

Dr. Pedro Huauya Quispe


PASOS 3: Elección de la prueba estadística
Variables Prueba no paramétrica Prueba paramétrica
Nominales
Diseño Grupos Ordinales Numérica
Dicotómica Politómica
T de Student para
Un grupo
una muestra
Estudio transversal,
longitudinales o T de Student para
experimentales Dos grupos U Mann-Withney muestra
(muestras independientes
independientes)
Más de dos Análisis de ANOVA con un
H Kruskal- Wallis
grupos correspondencia factor inter sujetos
T de Student para
Estudios Dos medidas McNemar-Browker Wilconxon muestra
longitudinales o relacionadas
experimentales Más de dos ANOVA para
Q de Cochran Q de Cochran Friedman
medidas muestras repetidas
Asociar o
Correlación de Correlación de
correlacionar dos
Spearman Pearson
Estudios o más grupos
correlaciónales o de Medida de
asociación asociación o Coeficiente R de
Índice Kappa de Cohen Tau b de Kendall
correlación de dos Pearson
o más grupos
CUARTA ETAPA: LECTURA DE SIGNIFICANCIA CALCULADA
En etapa interpretamos la probabilidad de error con que
afirmamos a la hipótesis alterna

QUINTA ETAPA: DECISIÓN ESTADÍSTICA Y CONCLUSIONES

Una vez obtenido el valor calculado de la significancia, se decide


aceptar o rechazar la hipótesis alterna y nula.
Interpretación
Significación Ha H0
 ≤ Se acepta Se rechaza
 >  Se rechaza Se acepta

Donde:
=Nivel de significancia o margen de error asumida.
 = Nivel de significancia o margen calculada.

Dr. Pedro Huauya Quispe


2.4. TIPO DE PRUEBA DE HIPÓTESIS
Existen dos tipos de prueba de hipótesis, paramétrico y no paramétrico
Según Hernández, Fernández y Baptista (2014, p. 304):
Hay dos tipos de análisis estadístico que se pueden realizarse para probar
hipótesis: los análisis paramétricos y los no paramétricos. Cada tipo posee sus
características y presuposiciones que lo sustentan; la elección de qué clase de
análisis efectuar depende de los supuestos. De igual forma, cabe destacar en una
investigación es posible llevar a cabo análisis paramétricos para algunas
hipótesis y variables, y análisis no paramétrico. Asimismo, como vimos, los
análisis a realizar dependen del planteamiento, tipo de hipótesis y el nivel de
medición de las variables que las conforman.

2.4.1. PRUEBAS ESTADÍSTICAS 2.4.2. PRUEBAS ESTADÍSTICAS


NO PARAMÉTRICA PRUEBA PARAMÉTRICA

Prueba estadística Prueba estadística Prueba estadística


no paramétrica de no paramétrica de paramétrica de
escala nominal escala ordinal escala de intervalo
y de razón
Dr. Pedro Huauya Quispe
2.4.1. PRUEBA ESTADÍSTICA NO PARAMÉTRICO
En análisis no paramétrico de datos, no requieren ninguna
prueba de normalidad, bastaría identificar, si es de escala
nominal u ordinal.

PRUEBAS ESTADÍSTICAS NO PRUEBAS ESTADÍSTICAS NO


PARAMÉTRICA DE ESCALA NOMINAL PARAMÉTRICA DE ESCALA ORDINAL
Según Sánchez y Reyes (1984, citado por Ñaupas, 2009, p. 190):
El análisis no paramétrico de datos es una metodología de la estadística
inferencial; y ésta se define como parte de la estadística que ayuda al
investigador a encontrar la significatividad de los resultados; Proporcional
una metodología para inferir las características de un colectivo a partir de
una muestra.
Para Gamarra, Berrospi, Pujay y Cuevas (2008, p. 46):
La estadística ha desarrollado otras técnicas de inferencia que no requieren
suposiciones acerca de los parámetros de la población . Estas son las
técnicas no paramétricas, que independientemente de la forma de
distribución de la población o poblaciones, de las que se obtienen la
muestra o muestras, permiten inferir.
Dr. Pedro Huauya Quispe
2.4.2. PRUEBA ESTADÍSTICA PARAMÉTRICO
En análisis paramétrico de datos, necesariamente requiere que cumpla tres requisitos:
1. Que la variable sea numérica. Que las variables de estudio (dependiente) esté
medida en una escala de intervalo o razón.
2. Que tenga una distribución normalidad. Que los valores de la variable
dependiente sigan una distribución normal; por lo menos, en la población a la que
pertenece la muestra.
Prueba estadística: Kolmogorov Smirnov, Shapiro y Wilks, Anderson- Darling y
Gearly
3. Homocedasticidad: Que las varianzas de la variable dependiente en los grupos
que se comparan sean aproximadamente iguales (También media, mediana y
moda sean iguales).

PRUEBAS ESTADÍSTICAS PARAMÉTRICA DE ESCALA DE INTERVALO O DE RAZÓN


Según Hernández, Fernández y Baptista (2014, p. 304):
Para realizar análisis paramétrico debe partirse de los siguientes supuestos:
• La distribución poblacional de la variable dependiente es normal: el universo
tiene una distribución normal.
• El nivel de medición de las variables es por intervalo o razón.
• Cuando dos o más poblaciones son estudiadas, tienen una varianza homogénea:
las poblaciones en cuestión poseen una dispersión similar en sus distribuciones.
Dr. Pedro Huauya Quispe
OBSERVACIÓN: Para las pruebas paramétricas previamente
los datos deben estar distribuidas normalmente, caso contario
se aplican pruebas no paramétricas

Ho: X es normal (ρ>α)


H1: X no es normal (ρ≤α)

Prueba de normalidad por:


• Kolmogorov-Smirnov (n>50)
• Shapiro y Wilks (n≤50)
• Anderson- Darling
• Gearly
Prueba paramétrica
1. PRUEBA “Z” O DISTRIBUCIÓN NORMAL (n > 30)
•Nivel de significancia
1) Fórmula
Nivel de significancia ()
x   ó Z  ( x1  x2 )  ( 1   2 ) Prueba
0,05 (al 0,01 (al
Zc  5%) 1%)

c
2
1 2


2 Prueba bilateral  1,96  2,58
n1 n2 o dos colas
n Prueba unilateral  1,64  2,33
o una cola
Un grupo Dos grupos
3) Decisión y conclusiones
2) Valor de la tabla (Zt )
Interpretación
•Z para ambas colas y Condición Significación
1 / 2 Ha H0

• Z1 para una sola cola Zc  Zt  ≤ 0,05 Se Se


acepta rechaza
Zc  Zt  > 0,05 Se Se
rechaza acepta
Prueba paramétrica
2.1. DISTRIBUCIÓN t – STUDENT (para un grupo o dependientes)
Condiciones:
 Tamaño de la muestra es pequeño (n ≤ 30).
 La población de donde se obtiene los datos está distribuida normalmente, y
 Se desconoce la desviación estándar de la población (  ), entonces
haremos uso de la distribución de Student.
x
tc 
S
n 1

Para un grupo de muestra pareada (dependientes)


D
tc 
( D ) 2
D  n
2 Xd
ó tc 
n(n  1) Sd / n
Prueba paramétrica
2.3. DISTRIBUCIÓN t – STUDENT (para dos grupos independientes)
Condiciones:
 Tamaño de la muestra es pequeño (n1 y n2 ≤ 30).
 Ambas poblaciones están normalmente distribuida, y
 Se desconoce la desviación estándar de ambas y se conocen la desviación
estándar de las muestras, entonces haremos uso de la distribución de
Student.

a) Si n1  n2
x1  x2 n1n2 n1  n2  2
tc 
n1  1S12  (n2  1)S 2 2 n1  n2

b) Si n1  n2  n
x1  x 2 x1  x 2
tc  tc 
s1  S 2
2 2 2 2
s1 S 2
 n
n n
DISTRIBUCIÓN t – STUDENT (Valor de la tabla)

Valor de la tabla
Valor de la tabla (T )
t
Prueba Para un grupo Para dos grupos
muestral muestrales
Bilateral Tt  T 
Tt  T 
1 ; n 1 1 ;n1  n2  2
2 2
Unilaterales a la derecha
Unilaterales a la izquierda Tt  T1 ;n1 Tt  T1 ;n1 n2 2
n-1; n1+n2-2 grado de libertad
Decisión y conclusiones

Interpretación
Condición Significación Ha H0
Tc  Tt  ≤ 0,05 Se acepta Se rechaza
Tc  Tt  > 0,05 Se rechaza Se acepta
Prueba paramétrica
3. ANÁLISIS DE VARIANZA (ANOVA) Llamado distribución de Fisher
1) Muestras
Muestra 1 Muestra 2 Muestra 3 … Muestra k
Media …
x1 x2 x3 xk
Desviación estándar de
la muestra S1 S2 S3 … Sk
Tamaño de la muestra n1 n2 n3 … nk
 (  x ) 2  (  xt ) 2
2) Fórmula    Varianza entre las
Sb
2

SCe
  n  N muestras
2
Sb k 1 k 1
Fc  Donde
Sw
2  ( x ) 2 
  x  n 
2 Varianza al interior de
SCd   las las muestras
 
2
Sw
N k N k
3) Valor de la tabla
k 1 glb  k  1 y glw  k (n  1)
Grado de libertad del numerador y
Ft  Donde: denominador respectivamente
k (n  1)
Interpretación
4) Decisión y conclusiones Condición Significación
Ha H0
Fc  F  ≤ 0,05 Se acepta Se rechaza
12/12/2017 F
Fc Dr.  Huauya Quispe
Pedro  > 0,05 Se rechaza Se acepta
32
4. Correlaciones bivariadas

CORRELACIÓN ENTRE VARIABLES

El análisis de correlación es un grupo de


técnicas estadísticas que permiten medir la
intensidad de la relación o asociación que puede
existir entre dos variables.
Correlaciones bivariadas

La correlación puede ser:

• De dos variables (dependiente-


independiente).

• o de una variable dependiente y dos


o más variables independientes
( correlación múltiple).
COEFIENTE DE CORRELACIÓN
• El coeficiente de correlación es un valor cuantitativo
de la relación entre dos o más variables.
• El coeficiente de correlación puede variar desde -1
hasta 1.
• La correlación de proporcionalidad directa o positiva
se establece con los valores +1 y de proporcionalidad
inversa o negativa con -1.
• No existe relación entre las variables cuando el
coeficiente es cero (0).
Relación
Relación
No existe directa
inversa
relación perfecta
perfecta

-1 Relación negativa 0 +1
No existe relación Relación positiva
COEFIENTE DE CORRELACIÓN
Es decir:
Relación
Relación
No existe directa
inversa
relación perfecta
perfecta

-1 Relación negativa 0 Relación positiva1


No existe relación

Más específico:

Dr. Pedro Huauya


GRÁFICA DE CORRELACIÓN ENTRE
VARIABLES
330
280 Incorrelación
230
180
130
80
30
140 150 160 170 180 190 200

Incorrelación
100 80

90 Fuerte relación 70 Cierta relación


directa. 60 inversa
80
50
70
40
60 30
50 20
40 10
30 0
140 150 160 170 180 190 200 140 150 160 170 180 190 200

Correlación Correlación
positiva Dr. Pedro Huauya
negativa
CORRELACIÓN DE PEARSON

La fórmula es:
Prueba no paramétrica
1. PRUEBA DE CHI CUADRADO DE PEARSON( X 2 ) Dos o más muestras
independientes (n≥5)

1) Fórmula
(Oi  Ei ) 2
X 2
c  Donde Oi = Número de casos observados
Ei
Ei = Frecuencias esperadas
2) Valor de la tabla
g l= (c-1) (f-1) =grado de libertad (para dos o
X 2
t X 2
( c 1)( f 1),1 Donde más variables)
g l= (c-1) = grado de libertad (para una
variable)
3) Decisión y conclusiones
Interpretación Coeficiente de contingencia
Condición Significación Ha H0
X 2c
C
X 2 c  X 2t  ≤ 0,05 Se
acepta
Se
rechaza X 2c  n

X 2 c  X 2t > 0,05
Se Se
A mayor valor de C, mayor es el grado
rechaza acepta
de asociación entre las variables, que no
es nunca superior a uno
Prueba no paramétrica
2. PRUEBA DE CHI CUADRADO DE PEARSON( X 2 ) Dos o más muestras
independientes (n<5)

1) Fórmula Donde
: Proporción promedio de acontecimiento del suceso
X 2p 
1
 n p  p 2
: Proporción promedio de no acontecimiento del suceso
p.q
p : Proporción observada del suceso
g l= (H-1) número de filas por columnas

3) Decisión y conclusiones
Interpretación
Significación Ha H0
 ≤ 0,05 Se acepta
Se
rechaza

 > 0,05
Se
rechaza
Se acepta
Prueba no paramétrica
3. PRUEBA DE McNEMAR Dos o más muestras
relacionadas

1) Fórmula Donde:
X 2 MN :Valor estadístico de McNemar
( A  D  1) 2
X 2
MN 
A D A: Valor de cambios observados en la medición después
en casilla A
D: Valor de cambios observados en la medición después
en casilla D
3) Decisión y conclusiones
Interpretación
Significación Ha H0
 ≤ 0,05 Se acepta
Se
rechaza

 > 0,05
Se
rechaza
Se acepta
Prueba no paramétrica
4. PRUEBA DE Q DE COCHRAN Tres o más muestras
dependientes

1) Fórmula Donde:

X 2Q 

( K  1) K  G 2 i  ( Gi ) 2  : Total de la i-ésima columna de éxito
k H j   H 2 j : Total de la j-ésima de la fila (sujeto)
K: Número de tratamiento
g.l: (k-1 grado de libertad
3) Decisión y conclusiones
Interpretación
Significación Ha H0
 ≤ 0,05 Se acepta
Se
rechaza

 > 0,05
Se
rechaza
Se acepta
Prueba no paramétrica
Dos muestras independientes
5. PRUEBA DE U DE MANN- WHITNEY
1) Fórmula
Para muestras grandes (n>10)
Para muestras pequeñas (n≤10)

Donde:
U1 y U2 = valores estadísticos de U Mann-
Whitney.
2) Decisión y conclusiones n1 = tamaño de la muestra del grupo 1.
n2 = tamaño de la muestra del grupo 2.
Interpretación
R1 = sumatoria de los rangos del grupo 1.
Significación
Ha H0 R2 = sumatoria de los rangos del grupo 2.
 ≤ 0,05 Se Se
acepta rechaza
 > 0,05 Se Se
rechaza acepta
Prueba no paramétrica
Dos muestras independientes
6. PRUEBA DE la mediana
1) Fórmula
Donde:
a : Valores por encima de la mediana de la primera muestra
N ( ad  bc  1) 2
X 2 ME  b: Valores por encima de la mediana de la segunda muestra
k .l.m.n c : Valores por debajo de la mediana de la primera muestra
d : Valores por debajo de la mediana de la segunda muestra
K= a+b; L = c+d; m= a+c; n=b+d; N=m+n

2) Decisión y conclusiones
Interpretación
Significación
Ha H0

 ≤ 0,05 Se Se
acepta rechaza
 > 0,05 Se Se
rechaza acepta
Prueba no paramétrica

7. PRUEBA DE SIGNO
1) Fórmula
a) Cálculo de media   np y desviación estándar   npq
x
b) Cálculo de probabilidad Z c 

p: máxima variabilidad

2) Decisión y conclusiones
Interpretación
Significación
Ha H0

 ≤ 0,05 Se Se
acepta rechaza
 > 0,05 Se Se
rechaza acepta
Prueba no paramétrica
Dos muestras
8. PRUEBA DE WILCOXON (6<n≤25) dependientes.
Cuando no se cumplen
1) Fórmula los supuestos de la t de
student
T=min [T(+), T(-)]
Donde:
T: Valor estadístico de Wilcoxon
T(+): Suma de rangos correspondientes a diferencias positivas
T(-): Suma de rangos correspondientes a diferencias negativas

2) Decisión y conclusiones
Interpretación
Significación
Ha H0

 ≤ 0,05 Se Se
acepta rechaza
 > 0,05 Se Se
rechaza acepta
Prueba no paramétrica
9. PRUEBA DE WILCOXON, Transformada en Z (n>25)
1) Fórmula
Dónde:
: Valor de Z de la T de Wicoxon
T  xT
ZT 
T T: Valor estadístico de Wicoxon
n(n  1)( 2n  1)
T  = desviación estándar de la T de Wicoxon
24

n(n  1)
XT  = Promedio de la T de Wicoxon
4

n= Tamaño de la muestra

2) Decisión y conclusiones
Interpretación
Significación
Ha H0

 ≤ 0,05 Se Se
acepta rechaza
 > 0,05 Se Se
rechaza acepta
Prueba no paramétrica
10. PRUEBA DE FRIEDMAN Dos o más muestra
independientes
1) Fórmula Dónde:
12 X 2 F : Valor estadístico de Friedman
X 2F 
HK (k  1)
 RC 2  3H ( K  1)
H: Número de filas
K: Número de columnas
 RC : Suma de rangos por columnas al cuadrado
2

2) Decisión y conclusiones
Interpretación
Significación
Ha H0

 ≤ 0,05 Se Se
acepta rechaza
 > 0,05 Se Se
rechaza acepta
COEFICIENTE DE CORRELACIÓN DE
SPEARMAN
n
6d i
2

rs  1  i 1

n  n  1
2

di es la diferencia entre el valor ordinal en X y


el valor ordinal en Y del sujeto i

Para muestras mayores de 10, n2


se prueba con T de student con t  rs
gl=N-2, cuya fórmula es: 1  rs 2
COEFICIENTE DE CORRELACIÓN
de Tau-b de kendall

Donde:
w = coeficiente de correlación de Kendall.
S = suma de los cuadrados de las diferencias observadas con
respecto a un promedio.
n = Tamaño de la muestra en función del número de tripletes,
tetrapletes, quintupletes, etc.
K = número de variables incluidas.
Li = sumatoria de las ligas o empates entre los rangos.
MUCHAS
GRACIAS

Вам также может понравиться