Академический Документы
Профессиональный Документы
Культура Документы
PORTAFOLIO ESTUDIANTIL
Aula: A 207
NRC: 4706
Correlaciones
Son técnicas bi-variadas que se emplean con propiedades del álgebra lineal, que permiten en el
campo multivariado, en situaciones donde el establecer similaridades o disimilaridades entre las
variables e individuos representados en dimensiones de menor valor, generalmente en planos o
cubos (segunda y tercera dimensión) para esclarecer la variabilidad conjunta expresada en factores
ortogonales que permiten tipificar lo que sucede con los datos.
Tiene como objetivo medir la fuerza o grado de asociación entre dos variables aleatorias
cuantitativas que poseen una distribución normal bi-variada conjunta. El coeficiente se define por
la siguiente fórmula:
Cuando ρ=+ la relación es directa entre las variables. Si ρ=- la relación es inversa y si ρ= 0 son
independientes. Dicho coeficiente se puede expresar en términos de su estadístico como:
y i = β o + β1 Xi + εi
Cabe anotar que el coeficiente de correlación de Pearson puede ser empleado utilizando un
factor de ponderación Wi, el cual efectúa un ajuste a la media aritmética y por ende al coeficiente
de asociación. Esta ponderación se debe aplicar, cuando el investigador quiera darle un peso
específico a cada individuo que interviene en el estudio. “El coeficiente de correlación de Pearson
no se debe extrapolar más allá del rango de los valores observados cuando se efectúa inferencia.
Para construir el intervalo de confianza asociado con Pearson, ambas variables se deben distribuir
en forma normal y para predecir se utiliza la técnica propuesta por Rubens.” (Luis F Restrepo,
2015)
Coeficiente de Spearman
No es conveniente identificar correlación con dependencia causal, ya que, si hay una semejanza
formal entre ambos conceptos, no puede deducirse de esto que sean análogos; en efecto es posible
que haya una alta correlación entre dos acontecimientos y que sin embargo, no exista entre ellos
relación de causa o efecto; por ejemplo cuando dos acontecimientos tienen alguna causa común,
pueden resultar altamente asociados y no son el uno causa del otro. Cabe recordar que el
coeficiente fluctúa entre -1 ≤ ρ ≤ 1. Charles Spearman contribuyó al análisis del factor, a la teoría
de la inteligencia, elaboró una prueba de la teoría mental.
2. Los supuestos son menos estrictos. Es robusto a la presencia de outliers (es decir permite
ciertos desvíos del patrón normal).
Indicador de Durbin-Watson
El estadístico que se utiliza para realizar dicho test es el estadístico Durbin-Watson (el cual
obtendremos con ayuda de Minitab). El estadístico DW es un valor comprendido entre 0 y 4. Como
se observa en el siguiente gráfico, para valores de DW “próximos” a 2 no rechazaremos Ho. Por
el contrario, para valores de DW “alejados” de 2, sí rechazaremos Ho (i.e., aceptaremos la
existencia de autocorrelación de tipo AR(1)):
En el gráfico anterior, dL y dU son valores tabulados [ver web de tablas] que dependen del
número de observaciones (n), del n
Añadir, finalmente, que si 0 < DW < 2, el coeficiente φ será positivo (estaremos en el contraste
unilateral (1)), mientras que si 2 < DW < 4, dicho coeficiente φ será negativo (estaremos en el
contraste (2)). Una vez hallado DW, es posible usar su valor para estimar el coeficiente de auto
correlación simple ρ1 mediante la expresión:
Además, sabemos que en un modelo con auto correlación AR(1), los coeficientes de auto
correlación simple vienen dados por: p1 = φ , 2 p2 = φ , ..., s s p = φ , así que una vez estimado el
valor de ρ1 = φ podremos obtener fácilmente estimaciones para los (n-1) coeficientes de auto
correlación simple y representar la correspondiente función de auto correlación simple o ACF.
Coeficiente de Fisher
Esta razón F fue creada por Ronald Fisher (1890-1962). El valor estadístico de prueba resultante
se debe comparar con un valor tabular de F, que indicará el valor máximo del valor estadístico de
prueba que ocurría si H0 fuera verdadera, a un nivel de significación seleccionado. Existe una
distribución F diferente para cada combinación de tamaño de muestra y número de muestras. Por
tanto, existe una distribución F que se aplica cuando se toman cinco muestras de seis observaciones
cada una, al igual que una distribución F diferente para cinco muestras de siete observaciones cada
una.
En Fisher, los valores críticos para los niveles 0,05 y 0,01 generalmente se proporcionan para
determinadas combinaciones de tamaños de muestra y número de muestras. La razón más pequeña
es 0. La razón no puede ser negativa, ya que ambos términos de la razón F están elevados al
cuadrado. Por otra parte, grandes diferencias entre los valores medios de la muestra, acompañadas
de pequeñas variancias muestrales pueden dar como resultado valores extremadamente grandes de
la razón F. Se evalúa con la siguiente fórmula:
Los grados de libertad para el numerador y el denominador de la razón F se basan en los cálculos
necesarios para derivar cada estimación de la variancia de la población. La estimación
intermediante de variancia (numerador) comprende la división de la suma de las diferencias
elevadas al cuadrado entre el número de medias (muestras) menos uno, o bien, k - 1. Así, k - 1 es
el número de grados de libertad para el numerador. En forma semejante, el calcular cada variancia
muestral, la suma de las diferencias elevadas al cuadrado entre el valor medio de la muestra y cada
valor de la misma se divide entre el número de observaciones de la muestra - 1.
Bondad de ajuste r2
Por bondad del ajuste hay que entender el grado de acoplamiento que existe entre los datos
originales y los valores teóricos que se obtienen de la regresión. En cuanto mejor sea el ajuste, más
útil será la regresión a la pretensión de obtener los valores de la variable regresando a partir de la
información sobre la variable regresora. Obtener indicadores de esta bondad de ajuste es
fundamental a la hora de optar por una regresión de un determinado tipo u otro, Puesto que la
media de los residuos se anula, el primer indicador de la bondad del ajuste (no puede ser el error
medio) será el error cuadrático medio, o varianza del residuo, o varianza residual.
Alfa de Cronbach
Se trata de un índice de consistencia interna que toma valores entre 0 y 1 y que sirve para
comprobar si el instrumento que se está evaluando recopila información defectuosa y por tanto nos
llevaría a conclusiones equivocadas o si se trata de un instrumento fiable que hace mediciones
estables y consistentes. Alfa es por tanto un coeficiente de correlación al cuadrado que, a grandes
rasgos, mide la homogeneidad de las preguntas promediando todas las correlaciones entre todos
los ítems para ver que, efectivamente, se parecen. Su interpretación será que, cuanto más se
acerque el índice al extremo 1, mejor es la fiabilidad, considerando una fiabilidad respetable a
partir de 0,80.
“Cuanto más cerca se encuentre el valor del alfa a 1 mayor es la consistencia interna de los
ítems analizados. La fiabilidad de la escala debe obtenerse siempre con los datos de cada muestra
para garantizar la medida fiable del constructo en la muestra concreta de investigación” (George,
2003).
Como criterio general, George y Mallery sugieren las recomendaciones siguientes para evaluar
los coeficientes de alfa de Cronbach:
FÓRMULAS
a) Varianza de los Ítemes (Validación Individual de cada Ítem).
Donde:
Vt = Es la varianza del puntaje total (Sumatoria total de los individuos que respondieron
correctamente a todos los Ítemes).
Donde:
N = Es el número de Ítemes
Pr = Es el promedio de las correlaciones entre ítems (Sumativa general de todas las personas
que respondieron correctamente).
Bibliografía
George, M. y. (9 de Octubre de 2003). Scielo . Obtenido de Scielo:
http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2218-36202016000400008