Вы находитесь на странице: 1из 48

Estadstica aplicada a las Ciencias Sociales

Correlacin y Covarianza
Pedro Morales Vallejo Universidad Pontificia Comillas, Madrid Facultad de Ciencias Humanas y Sociales (ltima revisin, 30 de Octubre de 2007)

ndice
1. Concepto de correlacin y covarianza .................................................................................... 1.1. Relacin y variacin conjunta ......................................................................................... 1.2. Los diagramas de dispersin ............................................................................................ 1.3. Otras maneras de visualizar la correlacin ....................................................................... 1.4. Correlacin, covarianza y dispersin: importancia de las diferencias ............................. 1.5. Tipos de relaciones que cuantificamos mediante el coeficiente r de Pearson .................. 1.6. Tipos de variables con las que se puede utilizar el coeficiente r de Pearson.................... 2. La medida de la relacin ......................................................................................................... 2.1. Cmo cuantificamos o medimos el grado de relacin ...................................................... 2.2. Otras frmulas y procedimientos...................................................................................... 3. Interpretacin del coeficiente de correlacin r de Pearson ..................................................... 3.1. Interpretacin bsica......................................................................................................... 3.2. Correlacin y causalidad .................................................................................................. 3.3. Cmo calcular la media de varios coeficientes de correlacin......................................... 3.4. El coeficiente de determinacin ...................................................................................... 3.5. La significacin estadstica de los coeficientes de correlacin ........................................ 3.5.1. Qu es un coeficiente de correlacin estadsticamente significativo....................... 3.5.2. El modelo terico .................................................................................................... 3.5.3. Interpretacin de una correlacin estadsticamente significativa ............................ 3.5.4. Cmo comprobamos si un coeficiente de correlacin es estadsticamente significativo ................................................................................. a) Con muestras de 100 sujetos o menos .............................................................. b) Con muestras de ms de 100 sujetos ................................................................ c) Cuando de los mismos sujetos tenemos varios coeficientes de correlacin ..... 3.6. Los intervalos de confianza: magnitud de la correlacin en la poblacin ....................... 3.7. Cmo valorar la magnitud de la correlacin .................................................................... 3.7.1. Orientaciones generales ........................................................................................... 3.7.2. Sobre la interpretacin y utilidad de los coeficientes de correlacin bajos ............. 3.7.3. Explicaciones posibles de coeficientes de correlacin muy bajos ........................... a). Poca fiabilidad, o poca precisin, en los instrumentos de medicin................. b). Homogeneidad de la muestra............................................................................. c). Instrumentos poco discriminantes...................................................................... 3.8. Los coeficientes de correlacin cuando unimos o separamos submuestras...................... 3.9. Influjo en la correlacin de las puntuaciones extremas (outliers) .................................... 4. Coeficientes de correlacin corregidos................................................................................... 4.1. Correlacin y fiabilidad: los coeficientes de correlacin corregidos por atenuacin...... 4.1.1. Frmula de correccin por atenuacin..................................................................... 3 3 4 4 5 5 5 6 6 8 8 9 11 12 13 13 13 13 15 16 16 18 17 18 21 21 22 24 24 24 24 25 27 29 29 29

4.1.2. Cundo debe hacerse esta correccin por atenuacin .............................................. 4.1.3. Otras estimaciones de la correlacin modificando la fiabilidad............................... 4.1.4. Relacin entre longitud del test y fiabilidad y longitud del test y correlacin......... 4.2. Los coeficientes de correlacin corregidos por restriccin de la amplitud ..................... 4.3. Correccin de las correlaciones de una parte con el todo ................................................ 5. Correlaciones parciales ............................................................................................................ 5.1. Utilidad de las correlaciones parciales ............................................................................. 5.2. Frmula de las correlaciones parciales de primer orden .................................................. 5.3. Cundo una correlacin parcial es estadsticamente significativa.................................... 6. Cmo simplificar una matriz de correlaciones: el cluster analysis......................................... 7. Coeficientes de correlacin ms importantes.......................................................................... 1. Coeficiente de correlacin r de Pearson........................................................................... 2. Coeficiente de correlacin biserial puntual...................................................................... 3. Coeficiente de correlacin biserial................................................................................... 4. Coeficiente de correlacin tetracrica.............................................................................. 5. Coeficiente de correlacin rho () de Spearman ............................................................. 6. Coeficiente de correlacin tau () de Kendall.................................................................. 7. Coeficiente de correlacin phi ().................................................................................... 8. Coeficiente de correlacin phi () de Cramer .................................................................. 9. Coeficiente de Contingencia (C)...................................................................................... 10. Coeficiente eta ()............................................................................................................ 8. Coeficiente de correlacin: resumen ....................................................................................... 9. Referencias bibliogrficas....................................................................................................... Anexo I: Tablas de la correlacin................................................................................................... Anexo II: La correlacin en Internet ..............................................................................................

30 31 32 32 34 35 35 35 36 37 40 41 42 42 42 42 43 43 43 43 43 43 45 47 48

Correlacin y covarianza

1. Concepto de correlacin y covarianza


1.1. Relacin y variacin conjunta El concepto de relacin en estadstica coincide con lo que se entiende por relacin en el lenguaje habitual: dos variables estn relacionadas si varan conjuntamente. Si los sujetos tienen valores, altos o bajos, simultneamente en dos variables, tenemos una relacin positiva. Por ejemplo peso y altura en una muestra de nios de 5 a 12 aos: los mayores en edad son tambin los ms altos y pesan ms, y los ms jvenes son los que pesan menos y son ms bajos de estatura; decimos que peso y altura son dos variables que estn relacionadas porque los ms altos pesan ms y los ms bajos pesan menos. Si los valores altos en una variable coinciden con valores bajos en otra variable, tenemos una relacin negativa; por ejemplo edad y fuerza fsica en una muestra de adultos de 30 a 80 aos de edad: los mayores en edad son los menores en fuerza fsica; hay una relacin, que puede ser muy grande, pero negativa: segn los sujetos aumentan en una variable (edad) disminuyen en la otra (fuerza fsica). La correlacin se define por lo tanto por la co-variacin (co = con, juntamente: variar a la vez). Correlacin y covarianza son trminos conceptualmente equivalentes, expresan lo mismo. La covarianza es tambin una medida de relacin, lo mismo que el coeficiente de correlacin. Habitualmente se utiliza el coeficiente de correlacin (r de Pearson), pero es til entender simultneamente qu es la covarianza, y entenderlo precisamente en este contexto, el de las medidas de relacin. El concepto de relacin y qu se mide exactamente con estos coeficientes, lo veremos mejor con un ejemplo (tabla 1) donde tenemos los datos de tres situaciones o casos distintos: 1) En cada caso tenemos cuatro sujetos (ejemplo reducido para poder ver todos los datos con facilidad) con puntuaciones en dos variables, X (un test de inteligencia) e Y (una prueba objetiva de rendimiento). 2) Junto a la puntuacin de cada sujeto en las dos variables, X e Y, ponemos su nmero de orden: 1 al que tenga la puntuacin ms alta, 2 al que tenga la siguiente ms alta, etc.:
Caso 1
X
n de orden

Caso 2
n de orden

Caso 3
n de orden

n de orden

n de orden

n de orden

50 49 48 47

1 2 3 4

13 12 11 10

1 2 3 4

50 49 48 47

1 2 3 4

10 11 12 13

4 3 2 1

50 49 48 47

1 2 3 4

12 10 13 11

2 4 1 3

las dos variables: el tener ms de X coincide con tener ms de Y. Entre X e Y existe una relacin positiva.

En el caso 1 los sujetos tienen el mismo orden en

En el caso 2 el orden en corresponde menos de Y. Entre X e Y hay relacin,

las dos variables es inverso: a ms de X pero negativa.

En el caso 3 el orden en puede estar alto en una variable y bajo en la otra, y viceversa; entre X e Y

X no tiene nada que ver con el orden de Y; se

no hay relacin.

Tabla 1 Decimos por lo tanto que existe relacin en la medida en que los sujetos ocupan la misma posicin relativa en las dos variables. En el caso 1 la relacin es positiva; si el orden es inverso, como en el caso 2, tenemos tambin una relacin, pero negativa. Esta variacin conjunta o covariacin, puede ser clara y alta (como en los casos 1 y 2 de la tabla 1), puede ser moderada o baja o puede no haber relacin (como en el caso 3).

Correlacin y covarianza

1.2. Los diagramas de dispersin La representacin grfica de estos pares de puntuaciones se denomina diagrama de dispersin, y tambin nos ayuda a entender el mismo concepto de relacin (ejemplos en la figura 1).
Y X
relacin positiva alta

X
relacin positiva moderada

X
relacin negativa alta

X
ausencia de relacin

Figura 1: diagramas de dispersin Cada punto representa la posicin de un sujeto (donde confluyen sus dos puntuaciones). En la medida en que hay relacin, los puntos tienden a situarse en una recta diagonal; cuando no hay relacin o es muy pequea la nube de puntos aparece sin una direccin clara. 1.3. Otras maneras de visualizar la correlacin Los diagramas de dispersin (como los de la tabla 2) nos permiten ver con facilidad qu entendemos por correlacin (o simplemente relacin), pero otras maneras de presentar los datos tambin son tiles para visualizar y comunicar la relacin entre dos variables. En la tabla 2 tenemos un ejemplo. Los mismos alumnos han respondido a dos series de cinco preguntas: a) cinco preguntas sobre datos dicotmicos (p y q) b) cinco preguntas sobre la interpretacin de los percentiles. En la tabla 2 podemos ver con facilidad que a mayor nmero de respuestas correctas sobre datos dicotmicos corresponde una media ms alta en las preguntas sobre percentiles. Los alumnos que saben ms y menos de ambos temas, tienden a ser los mismos.
media en las preguntas sobre percentiles nmero de respuestas correctas sobre datos dicotmicos
5 4 3 2 1

2 2.5 3 3.5 4 ------------------------------------------3.9 -------------------------------------- 3.7 ----------------------- 2.7 ----------------------- 2.7 ------------ 2.3

Tabla 2 Tambin podemos reducir la informacin a un cuadro de doble entrada, como tenemos en la tabla 3. Tenemos a los mismos alumnos clasificados con estos criterios: a) Nmero de frmulas que recuerdan de memoria sin haberlas estudiado, puestas al final de un examen y sin contar para nota. Los alumnos estn divididos en dos grupos, los que recuerdan 5 6 frmulas y los que recuerdan 4 o menos. b) Nmero de respuestas correctas en el examen de 45 preguntas: 37 o ms y 36 o menos.

Correlacin y covarianza

En la tabla 3 figura el nmero y el tanto por ciento de alumnos en cada clasificacin; el tanto por ciento est referido a los dos totales segn el nmero de frmulas recordadas: el 71% de los que recuerdan 5 6 frmulas tienen 37 o ms respuestas correctas en el examen, frente a slo el 31% de los que tienen 36 o menos respuestas correctas. Es clara la relacin entre frmulas recordadas de memoria y buenos resultados en el examen.

nmero de respuestas correctas en el examen


12-36 37-45 10 (67%) 5 (33%) 15 (100%) 14 16 N = 30

frmulas recordadas de memoria

5-6 0-4

4 (27%) 11 (73%) 15 (100%)

Tabla 3 1.4. Correlacin, covarianza y dispersin: importancia de las diferencias Es importante caer en la cuenta desde el principio de la importancia de las diferencias interindividuales para poder comprobar relaciones: sin diferencias en los sujetos (u objetos) no podemos ver relaciones. Sin diferencias en las dos variables no podemos encontrar variacin conjunta: si todos los sujetos tienen idntica puntuacin en X no podemos ver si los altos en X son tambin altos en Y, porque en X son todos iguales. Si, por ejemplo, queremos comprobar si la altura est relacionada con la capacidad de encestar (jugando al baloncesto) necesitaremos jugadores de distintas alturas, para ver si los ms altos encestan ms y los ms bajos encestan menos. Si todos los jugadores tienen la misma altura, no podemos comprobar esa relacin; no podemos comprobar si las diferencias en altura se corresponden con diferencias en la habilidad de encestar porque todos tienen idntica altura. Y tambin necesitaremos que unos encesten ms y otros menos. Los sujetos deben ser distintos en las dos caractersticas cuya relacin queremos comprobar. La correlacin y la covarianza dicen de dos variables lo mismo que la varianza (o la desviacin tpica) dice de una variable: hasta qu punto los sujetos son distintos simultneamente en las dos variables. De la misma manera que la varianza es una medida de dispersin en una variable, la correlacin (y la covarianza) son tambin medidas de dispersin, pero de dos variables tomadas a la vez. 1.5. Tipos de relaciones que cuantificamos mediante el coeficiente r de Pearson El coeficiente de correlacin comprueba y cuantifica solamente relaciones lineares, como las expresadas en los ejemplos y diagramas de dispersin anteriores. No comprueba por lo tanto relaciones curvilneas, las que expresadas grficamente mostraran una curva. Por ejemplo la relacin entre edad (tomando un espectro amplio de edades) y fuerza fsica sera curvilnea: primero sera positiva (a ms edad mayor fuerza fsica), y luego negativa (a mayor edad, menos fuerza). 1. 6. Tipos de variables con las que se puede utilizar el coeficiente r de Pearson Para poder utilizar el coeficiente de correlacin r de Pearson: las dos variables deben ser: a) Las dos continuas, b) Una continua y otra dicotmica (1 0). c) Las dos dicotmicas (1 0).

Correlacin y covarianza

La correlacin entre una variable continua y otra dicotmica se denomina correlacin biserialpuntual (rbp) pero el clculo y la interpretacin son los mismos que cuando las dos variables son continuas (y podemos utilizar calculadoras y programas que tienen ya programada la correlacin r de Pearson). Cuando las dos variables son dicotmicas no se trata propiamente del coeficiente de Pearson (en principio referido a dos variables continuas) sino del coeficiente (fi); se puede incluir aqu porque realmente equivale al coeficiente de Pearson calculado con datos dicotmicos aunque tambin tiene frmulas especficas1. Tambin tiene sus peculiaridades (el valor mximo no es siempre 1). En un apartado final (ver ndice) explicamos brevemente ste y otros tipos de coeficientes de relacin. 2. La medida de la relacin 2.1. Cmo cuantificamos o medimos el grado de relacin Es sencillo entender cmo podemos cuantificar (medir) esta variacin conjunta y adems ayuda a la comprensin e interpretacin de estas medidas de relacin. Si las dos variables estn relacionadas y esta relacin es positiva Si las dos variables estn relacionadas y esta relacin es negativa Si las dos variables no estn relacionadas

los sujetos tendern a estar por encima o por debajo de la media en las dos variables a la vez los sujetos tendern a estar por encima de la media en una variable y por debajo de la media en la otra el estar por encima o por debajo de la media en una variable es independiente del estar por encima o por debajo de la media en la otra variable

Este estar por encima o por debajo de la media en dos variables simultneamente nos va a permitir cuantificar el grado de relacin, tal como se explica en la tabla 5. Lo explicamos por pasos: 1 La distancia, o diferencia, de un sujeto con respecto a la media podemos expresarla de dos maneras: En puntuaciones directas (restando cada puntuacin de la media) En puntuaciones tpicas (la misma diferencia pero dividida por la desviacin tpica): d = (X- X )

z=

(X X )

Estas diferencias con respecto a la media (puntuaciones diferenciales) (en la figura 3 slo estn puestos): sern positivas si la puntuacin directa (X) es superior a la media ( X ), sern negativas si la puntuacin directa (X) es inferior a la media ( X ) 2 Si a cada sujeto le multiplicamos sus dos puntuaciones diferenciales (dxdy o zxzy) tendremos que unas veces los productos tendrn signo ms y otras signo menos

1Si en una calculadora con programacin estadstica introducimos unos y ceros, el valor de r que nos d es el valor de , por

eso tiene sentido incluir aqu este coeficiente.

Correlacin y covarianza

a) Cuando hay relacin positiva: todos los productos (o la mayora, depender del grado de relacin) sern de idntico signo positivo (ms por ms y menos por menos = ms); b) Cuando hay relacin negativa: los productos sern de idntico signo negativo (ms por menos o menos por ms = menos); c) Cuando no hay relacin: unos productos sern de idntico signo y otros de distinto signo. 3. La suma de los productos cruzados de las puntuaciones diferenciales (directas dxdy tpicas zxzy), ya nos est indicando el grado de relacin; la suma ser mayor (con signo ms o signo menos) cuando haya una mayor relacin. La mera suma de estos productos no nos es muy til porque no podemos compararla con otras sumas, pero si la dividimos por el nmero de sujetos lo que tenemos es una media comparable con cualquier otra media obtenida con un nmero distinto de sujetos (esta explicacin figura en la figura 3).
RELACIN POSITIVA
Puntuaciones directas Puntuaciones tpicas z= (X- X )/ zx zy zxzy

RELACIN NEGATIVA
Puntuaciones directas Puntuaciones tpicas z= (X- X )/ zx zy zxzy

NO HAY RELACIN
Puntuaciones directas Puntuaciones directas z= (X- X )/ zx zy zxzy

d =X- X
dx d y dx d y

d =X- X
dx d y dx d y

d =X- X
dx d y dx d y

+ + -

+ + -

+ + + + dxdy

+ + -

+ - + + + - + zxzy

- + + - + + -

dx dy

- + + - + + -

zxzy

+ + -

+ +

+ + dxdy

+ + -

+ +

+ + zxzy

Cuando hay relacin positiva las dos puntuaciones diferenciales (d y z) tienden a ser del mismo signo; los sujetos tienden a estar a la vez por encima o por debajo de la media en las dos variables (los dos signos son + o son -) y el producto es ms (+). Como los productos son todos del mismo signo, su suma ser grande (se suma y no se resta) y positiva

Cuando hay relacin negativa las dos puntuaciones diferenciales (d y z) tienden a ser de distinto signo; los sujetos tienden a estar por encima de la media en una variable (signo +) y por debajo de la media en la otra (signo -) y los productos tendern a ser del mismo signo (menos en este caso); su suma ser grande y negativa.

Cuando no hay relacin entre las dos variables, las dos puntuaciones diferenciales (d y z) tienden a ser unas veces del mismo signo y otras de distinto signo: los productos sern unas veces positivos y otras veces negativos: cuando los sumamos la suma ser muy pequea o tiende a cero, porque los sumandos se anulan mutuamente en la medida en que no hay relacin.

Figura 3 Si dividimos esta suma por el nmero de sujetos (= media de los productos cruzados) tenemos la frmula de la covarianza (utilizando puntuaciones directas) o de la correlacin (utilizando puntuaciones tpicas). Covarianza: xy =
d x d y N

[1]

Correlacin: rxy =

z x z y N

[2]

Por lo tanto correlacin (smbolo rxy o simplemente r) y covarianza (smbolo xy) expresan lo mismo: cuantifican el grado de covariacin y a ese grado de covariacin le denominamos relacin. Realmente el coeficiente de correlacin no es otra cosa que la covarianza calculada con puntuaciones tpicas.
Correlacin y covarianza se relacionan mediante estas frmulas:

rxy=

xy

x y

[3]

xy= rxyxy

[4]

Correlacin y covarianza

Como medida de relacin se pueden utilizar tanto la covarianza como el coeficiente de correlacin (r de Pearson). El utilizar preferentemente el coeficiente de correlacin se debe a estas razones: 1) El utilizar puntuaciones tpicas permite comparar todo con todo; dos coeficientes de correlacin son comparables entre s cualquiera que sea la magnitud original de las puntuaciones directas. La magnitud de la covarianza va a depender de la unidad utilizada y no se pueden comparar dos covarianzas, para comprobar dnde hay mayor relacin, cuando las unidades son distintas. 2) El coeficiente de correlacin r vara entre 0 (ausencia de relacin) y un valor mximo de 1 (con signo + -). El que los valores extremos sean 0 y 1 facilita el uso y la valoracin de la magnitud de estos coeficientes. La demostracin de que el valor mximo de r es 1 (1) es sencilla: 1 La suma de las puntuaciones tpicas N(X X) 2 (X - X) 2 (X X) 2 z 2 = = = =N elevadas al cuadrado es igual al 2 (X X) 2 /N (X X)2 nmero de sujetos (N): 2 Si se diera una relacin perfecta, tendramos que para cada sujeto zx = zy con lo que zxzy sera igual a z2, y como z2 = N, tendramos que:
2.2. Otras frmulas y procedimientos

r=

z x z y z 2 N = = =1 N N N

Hay muchas frmulas, pero todas equivalen a la frmula bsica (frmula [2]: rxy = (zxzy)/N). Esta frmula bsica es muy laboriosa de clculo. Hay otras frmulas ms sencillas en las que slo se utilizan puntuaciones directas, pero tampoco resultan prcticas, ya que la correlacin puede encontrarse ya programada en muchas calculadoras sencillas (y en hojas de clculo y en programas de ordenador o de Internet). Si se dispone de una calculadora con la desviacin tpica programada, una frmula sencilla es sta: rxy =
2 y - ( 2 + 2 ) x+ x y

2 x y

[5]

Para el clculo disponemos los datos tal como estn en la tabla 4


sujetos a b c

X Y 5 20 3 16 4 17 x y = .816 = 1.69 Tabla 4

X+Y 25 19 21 x+y = 2.494

Se calculan las desviaciones de las dos variables y de la suma de ambas y se aplica la frmula anterior: rxy =
2.492 - (.822 + 1.72 ) (2)(.82)(1.70)

= .96

Esta frmula puede ser la ms cmoda cuando tenemos pocos sujetos; con muestras grandes, o cuando hay calcular varios coeficientes con los mismos datos, hay que acudir a hojas de clculo o a programas de ordenador.

3. Interpretacin del coeficiente de correlacin r de Pearson


En principio la interpretacin del coeficiente de correlacin es sencilla; nos basta mirar los diagramas de dispersin (tabla 2) para caer en la cuenta de qu estamos cuantificando o midiendo: en qu grado ambas varibles varan conjuntamente (es decir, en qu grado estn relacionadas).

Correlacin y covarianza

En este apartado recogemos de manera ms sistemtica todo aquello que nos puede ayudar a interpretar y a aprovechar los coeficientes de correlacin que nos encontremos. Hay informacin que es obvia y viene dada por el mismo coeficiente; otro tipo de informacin adicional podemos extraerlo de los datos que ya tenemos, y por ltimo hay hiptesis y conjeturas razonables que pueden enriquecer la interpretacin o nos pueden poner en la pista para buscar otras cosas. De alguna manera este apartado viene a ser una gua que podemos repasar cuando nos interese, para interpretar y utilizar mejor la informacin que nos aportan los coeficientes de correlacin.
3.1. Interpretacin bsica

a) El coeficiente de correlacin expresa en qu grado los sujetos (u objetos, elementos) estn ordenados de la misma manera en dos variables simultneamente. b) Los valores extremos son 0 (ninguna relacin) y 1 (mxima relacin). Si r = 1, el orden (posicin relativa) de los sujetos es el mismo en las dos variables. Aunque hablaremos despus sobre cmo valorar la magnitud de estos coeficientes, si los valores extremos son 0 y 1 ( -1), ya podemos ver que coeficientes prximos a 0 expresan poca relacin, y los coeficientes cercanos al 1 expresan mucha relacin. c) La magnitud del coeficiente es independiente del signo. r =-.95 expresa ms relacin que r = +.75; el que la relacin sea positiva o negativa es algo distinto de que sea grande o pequea. d) Dos tems (o sujetos, variables, etc.) que tengan entre s una relacin muy alta, pueden ser valorados de manera muy distinta en trminos absolutos. En este punto hay con cierta frecuencia errores de interpretacin. El suponer que una correlacin muy alta entre dos variables quiere decir que las dos tienen una media parecida es un error muy comn; una correlacin alta significa simplemente que los dos elementos son ordenados de manera parecida, pero no que tengan valores absolutos parecidos. Lo vemos con facilidad en un ejemplo ficticio. Supongamos que cuatro sujetos valoran en una escala de 1 (no me gusta nada) a 6 (me gusta mucho) a tres personajes polticos o a tres profesores (y as vemos un ejemplo en el que no hay tests ni exmenes; tabla 5):
Personaje A sujeto 1 sujeto 2 sujeto 3 sujeto 4 6 6 5 5 Personaje B 2 2 1 1 Personaje C 2 6 6 2

Tabla 5 El coeficiente de correlacin entre A y B es exactamente r = 1, la mxima relacin posible; sin embargo sus medias son muy distintas: el personaje A tiene una media de 5.5 (muy alta en una escala de 1 a 6, gusta a todos) y el personaje B muy baja (1.5, no gusta a nadie). Lo que sucede es que los que valoran mejor al personaje A tambin valoran mejor (en trminos relativos) al personaje B y viceversa: los sujetos que valoran menos al personaje A tambin valoran menos al personaje B. El personaje C tiene una media de 4, su relacin con A es r = 0 y su relacin con B es r = 0: cmo valoran los sujetos a los personajes A y B no tiene nada que ver con cmo valoran al personaje C2.

2 Si quisiramos medir la proximidad entre estos personajes, habra que utilizar otra tcnica que se estudia en relacin con el Diferencial Semntico de Osgood, la denominada distancia euclidiana (simbilzcada D). Un coeficiente de correlacin alto

Correlacin y covarianza

10

En la tabla 6 tenemos otro ejemplo de cuatro alumnos con calificaciones en cuatro asignaturas.
Fsica alumno 1 alumno 2 alumno 3 alumno 4 10 10 10 10 Matemticas 10 10 10 10 Historia 10 9 8 7 Lengua 4 3 2 1

Tabla 6 En este ejemplo: Una tentacin es afirmar que entre Fsica y Matemticas hay una relacin muy alta, sin embargo la correlacin entre Fsica y Matemticas es cero; no se puede decir que los alumnos tengan el mismo orden en las dos asignaturas porque no hay orden, no se puede ordenar a los que estn igualados. Necesitaramos calificaciones distintas en las dos asignaturas para verificar si coinciden en ambas asignaturas los que estn mejor o peor. La correlacin entre Historia y Lengua es la mxima posible (r = 1), porque los alumnos tienen el mismo nmero de orden en ambas asignaturas; sin embargo en trminos absolutos las calificaciones no se parecen: son muy altas en Historia y muy bajas en Lengua. e) Un coeficiente de correlacin no equivale a una proporcin. Una correlacin de r =.50 no quiere decir que haya un 50% de variabilidad comn o de varianza comn entre las dos variables. f) No es necesario que las dos variables (X e Y) estn medidas en la misma escala o en las mismas unidades, ya que, como hemos visto, el clculo se hace a partir de puntuaciones tpicas. La correlacin entre edad y peso o entre pluviosidad y altura sobre el nivel del mar (en este caso los sujetos seran comarcas) oscilar entre 0 y 1 aunque todas estas variables se midan con unidades muy diferentes (esto no sucede con la covarianza, en la que mantenemos las unidades originales). De la misma manera podemos calcular la correlacin entre un test de rendimiento de 50 preguntas y la actitud hacia el estudio medida con una sencilla escala, etc. g) En los coeficientes de correlacin no hay unidad en sentido propio. Por esta razn un coeficiente de .50 no expresa el doble de relacin que otro de .25. La distancia en relacin es mayor entre dos coeficientes altos que entre dos coeficientes bajos. Veremos la diferencia entre dos coeficientes con ms exactitud si los elevamos al cuadrado: entre .95 y .90 (coeficientes muy altos, .952 - .902 = .0925) hay una mayor distancia que entre .15 y .10 (coeficientes muy bajos, .152 - .102 = .0125). Este punto lo veremos al hablar del coeficiente de determinacin. h) La correlacin de una variable (como un test de inteligencia) con un criterio (por ejemplo un examen) se denomina frecuentemente coeficiente de validez. El trmino validez aplicado a los tests es mucho ms complejo y tiene ms significados; en este caso se trata de un simple coeficiente de correlacin entre dos variables. i) La correlacin entre dos variables es relativa a los instrumentos utilizados. Cuando decimos que la inteligencia tiene una correlacin determinada con rendimiento acadmico, habra que especificar inteligencia tal como la mide ese test rendimiento tal como lo mide este tipo de examen

indica orden semejante, no medias semejantes.

Correlacin y covarianza

11

No medimos rasgos o caractersticas puras o abstractas, por eso los coeficientes de correlacin hay que interpretarlos teniendo en cuenta cmo han sido medidos esos rasgos. Cuando decimos que el autoconcepto est relacionado con el rendimiento acadmico, hay que sobrentender tal como medimos o expresamos estas variables con estos instrumentos. sta es una razn (entre otras) por la que entre las mismas variables podemos encontrar coeficientes de correlacin muy distintos: a veces (cuando las medimos con instrumentos distintos) no se trata realmente de las mismas variables salvo en un sentido muy genrico.
3.2. Correlacin y causalidad

La causalidad merece un comentario especfico porque en el contexto de la correlacin es fcilmente fuente de errores de interpretacin (al menos es una tentacin el interpretar algunas correlaciones como pruebas de causalidad). El concepto de causa es complejo y el lugar propio para su estudio est ms en la filosofa que en los anlisis estadsticos. En nuestro contexto podemos dar una definicin puramente operacional de causalidad para su uso limitado a la investigacin experimental: establecemos una relacin de causa a efecto cuando podemos mostrar que una variable independiente sistemticamente produce cambios (influye) en una variable dependiente, una vez controlado el influjo de otras variables extraas. Con esta nocin de causalidad s podemos hacer unos comentarios sobre correlacin y causalidad. a) Una correlacin no puede interpretarse como prueba de una relacin causal; el que dos variables covaren, se den juntas, no quiere decir que una sea causa de la otra. Una correlacin s nos puede dar pistas para proponer hiptesis sobre posibles relaciones causales. Aunque hubiera una relacin de causa a efecto, esta relacin no queda demostrada por un coeficiente de relacin. b) Para poder hablar de causalidad, al menos como hiptesis, hay que poder excluir otras explicaciones. Frecuentemente la explicacin de por qu dos variables estn relacionadas entre s es que ambas estn a su vez relacionadas con una tercera variable (que tampoco es necesariamente causa de las otras dos pero s puede ser una buena explicacin). Peso y altura estarn relacionadas en una muestra de nios de 2 a 10 aos porque tanto el peso como la altura estn relacionados con la edad. c) El coeficiente de correlacin trata las dos variables como simtricas: nos da lo mismo calcular la correlacin de A con B que la de B con A. Si furamos a interpretar un coeficiente de correlacin como indicador de una relacin de causa a efecto, no sabramos cul es la causa y cul es el efecto en funcin solamente de ese coeficiente. Si entre fumar y enfermedades coronarias encontramos una relacin alta, podramos concluir que las enfermedades coronarias son la causa del fumar En ejemplos no tan obvios es fcil cometer errores de interpretacin y dar por establecidas relaciones de causa a efecto sin fundamento. d) Para establecer relaciones de causa-efecto, al menos como hiptesis razonable, se requieren cuatro condiciones: 1. Que a un aumento en el predictor (supuesta causa) se siga un aumento en el criterio (supuesto efecto), 2. Que se puedan excluir otras explicaciones plausibles, 3. Que se pueda establecer algn tipo de teora o justificacin que explique la relacin causal; 4. Que se pueda replicar el mismo resultado en otras poblaciones y con otras caractersticas3.

3 Light, Singer y Willett, (1990)

Correlacin y covarianza

12

Por lo general en estos estudios se utilizan diseos experimentales y no simples estudios correlacionales, que por otra parte pueden ser buenos estudios piloto que pueden a su vez orientar otros tipos de investigacin.
3.3. Cmo calcular la media de varios coeficientes de correlacin

Como no hay una unidad en sentido propio no se debera calcular en principio la media aritmtica de varios coeficientes; por otra parte es til la informacin que puede darnos una media de varios coeficientes de correlacin. El mtodo tradicional que se suele proponer en muchos textos para calcular una correlacin media es el siguiente: 1 Se transforma el valor de r en el valor Z de Fisher (el smbolo es zeta mayscula; hay tablas apropiadas); 2 Se opera con estos valores Z (se calcula el valor medio de Z); 3 El valor de Z resultante se reconvierte en un valor de r (con las mismas tablas), que ser en este caso la verdadera correlacin media. Sin embargo esta prctica habitual se puede substituir sin especial problema por el simple clculo de la media aritmtica: si disponemos de varios coeficientes de correlacin calculados en muestras distintas, la mejor estimacin de la correlacin en la poblacin es la media ponderada de los distintos coeficientes: Nr r= [6] N

Tenemos, por ejemplo, estos dos coeficientes de correlacin calculados en las mismas dos variables en dos muestras distintas: En una muestra de N = 60 En una muestra de N = 120 r = .45 r = .30
Correlacin media:

r=

(.45 x 60) + (.30 x120) = .35 60 + 120

Esta media ponderada es de clculo sencillo, de fcil comprensin y no distorsiona ms la verdadera media que lo que la distorsiona la transformacin de Fisher4. Si el nmero de sujetos es el mismo se calcula directamente la media aritmtica. Tambin es frecuente utilizar la mediana en vez de la media (el uso de la mediana es siempre apropiado) cuando se dispone de una serie de coeficientes de correlacin y se quiere indicar una medida de tendencia central. Como siempre que se utiliza la mediana en vez de la media hay que recordar dnde est la diferencia entre ambos estadsticos. Como la mediana es simplemente el valor central que divide a la muestra (de coeficientes en este caso) en dos mitades iguales, no se ve afectada por valores extremos que s se influyen y se notan en la media. Unos pocos coeficientes atpicos (o muy altos o muy bajos), o un solo coeficiente muy atpico, pueden sesgar la media como valor representativo en una direccin. En estos casos puede ser preferible utilizar la mediana, o ambos valores, la media y la mediana.

4 La transformacin de Fisher tiene un sesgo positivo: la media resultante es ligeramente mayor de lo que debera ser. Con la media ponderada por el nmero de sujetos (frmula [6]) la media que resulta es ligeramente menor, pero la desviacin es menor en trminos absolutos que la que provoca la transformacin de Fisher, y con muestras grandes (a partir de N = 40) el margen de error es muy bajo y slo afecta al tercer decimal (Hunter y Schmidt, 1990).

Correlacin y covarianza

13

3.4. El coeficiente de determinacin

El coeficiente de correlacin elevado al cuadrado (r2) se denomina coeficiente de determinacin e indica la proporcin (o porcentaje si multiplicamos por 100) de variabilidad comn: indica la proporcin de varianza de una variable determinada o asociada a la otra variable. En trminos ms simples, r2 indica el tanto por ciento (r2 x 100) de acuerdo, de rea comn o de variabilidad comn entre ambas variables. Un coeficiente de r = .50 indica un 25% de varianza comn entre ambas variables (.502 =.25). Expresado en trminos ms simples: una correlacin de r = .50 entre un test de inteligencia abstracta y rendimiento en matemticas, indica que el 25% de las diferencias en matemticas (propiamente el 25% de la varianza en matemticas) tiene que ver con (depende de) las diferencias en el test de inteligencia abstracta. Un coeficiente de .30 expresa solamente un .302 o un 9% de variabilidad en una variable asociada a la variabilidad o diferencias en la otra variable. Los valores de r2 s pueden compararse entre s directamente; por ejemplo: r = .20 indica un 4% de acuerdo entre las dos variables (.202 =.04); r = .40 indica un 16% de acuerdo entre las dos variables (.402 =.16); r = .60 indica un 36% de acuerdo entre las dos variables (.602 =.36). Se ve con claridad que de r =.60 a r =.40 (del 16% al 36%) hay ms distancia que de r =.40 a r =.20 (del 16% al 4%), aunque aparentemente las diferencias sean idnticas (de .20). El elevar al cuadrado el valor del coeficiente de correlacin ayuda a interpretarlo. Los valores de r bajan drsticamente cuando los trasformamos en r2 y esto puede hacernos pensar que las correlaciones bajas son de menor importancia. Por ejemplo r = .32 significa solamente un 10% (.322) de varianza comn; muy poco, solamente el 10% de la variabilidad (o de los cambios) en una variable est asociado al cambio en otra variable. A pesar de esto no conviene infravalorar la importancia potencial de los coeficientes pequeos pues pueden aportar informacin de mucho inters o decir ms de lo que parece (lo veremos al tratar de la valoracin de la magnitud de estos coeficientes). Aun as y en trminos generales, los coeficientes de .30 o menos suelen tener poco inters prctico.
3.5. La significacin estadstica de los coeficientes de correlacin 3.5.1. Qu es un coeficiente de correlacin estadsticamente significativo

Lo primero en lo que solemos fijarnos es en la magnitud del coeficiente de correlacin. Antes podemos comprobar si el coeficiente es mayor de lo que se puede esperar por puro azar. Entre dos variables obviamente no relacionadas (como da de nacimiento y nmero de plantas que uno tiene en su casa) difcilmente obtendremos r = 0.0000. Por simple casualidad obtendremos algn valor, positivo o negativo, distinto de cero. Con 5 sujetos un valor de r =.30 puede ser casual (una mera coincidencia; un sujeto con muchas ventanas en su casa naci a finales de mes) y en cambio con 100 sujetos es muy improbable obtener r =.20 por casualidad, sin que exista alguna relacin. Ya podemos intuir que con pocos sujetos necesitaremos un valor mayor para poder rechazar la casualidad, y que con muchos sujetos un valor pequeo es muy improbable que sea casual (o explicable por el error muestral, en trminos ms propios).
3.5.2. El modelo terico

Es importante entender el modelo terico en el que nos basamos para llegar a la conclusin de que un coeficiente de correlacin es mayor de lo que podramos esperar por azar y poder afirmar por lo tanto que con toda probabilidad expresa una verdadera relacin (o correlacin estadsticamente significativa). El mismo modelo lo veremos tambin en planteamientos semejantes. Lo exponemos paso a paso, de manera muy sucinta.

Correlacin y covarianza

14

1) Suponemos que calculamos el coeficiente de correlacin entre dos variables que no estn relacionadas (podemos pensar en el ejemplo anterior, da de nacimiento y nmero de plantas que uno tiene en su casa). 2) Suponemos tambin que esta correlacin la calculamos en un nmero muy grande de muestras (realmente no calculamos nada, se trata de un modelo terico). 3) Aunque la correlacin esperada sea igual a cero (estamos suponiendo que no hay relacin) no siempre obtendremos r = 0; por puro azar unas veces tendremos una correlacin distinta de cero y positiva y otras veces tendremos una correlacin distinta de cero y negativa, aunque lo normal es que se trate de valores muy pequeos. 4) Al calcular muchos coeficientes de correlacin entre estas dos variables que no estn relacionadas tendremos una distribucin normal de los coeficientes de correlacin. Esta distribucin tendr su media y su desviacin tpica. Estas distribuciones se denominan distribuciones muestrales (no es la distribucin de unas puntuaciones individuales sino de estadsticos o medidas de muchas muestras hipotticas; tambin hablaremos de la distribucin muestral de la media). 5) La media de esta distribucin ser igual a cero (ste es nuestro supuesto en caso de no relacin); los valores positivos y negativos se anulan mutuamente. 6) La desviacin tpica de esta distribucin no la conocemos pero s podemos estimarla. En estos planteamientos (distribuciones muestrales hipotticas) la desviacin tpica se denomina error tpico. La interpretacin es la misma que hacemos de la desviacin tpica en la distribucin normal, as por ejemplo el 95% de los casos caern entre la media (= 0) ms menos 1.96 errores tpicos, y solamente el 5% de los coeficientes de correlacin se apartar de una media de cero en +1.96 errores tpicos o en 1.96 errores tpicos, tal como aparece en la figura 4. La mayora de los valores estarn en torno a cero.

El 95% de los coeficientes de correlacin caen entre ms menos 1.96 errores tpicos

-1.96 errores tpicos

correlacin media = 0

+1.96 errores tpicos

Figura 4

7) Cuando nos preguntamos si un coeficiente de correlacin es estadsticamente significativo, lo que nos preguntamos es si es probable que ocurra cuando no hay relacin, o, lo que es lo mismo, si es probable que ocurra cuando la media de las posibles correlaciones entre esas dos variables es cero. Si nuestro coeficiente es muy poco probable cuando no hay relacin, es entonces cuando concluiremos que el coeficiente de correlacin es estadsticamente significativo: es demasiado grande como para que sea casual y expresa por lo tanto una verdadera relacin distinta de cero. Dicho de otra manera, no pertenece a la poblacin de coeficientes cuya media es cero. 8) Para decidir si un coeficiente de correlacin es probable o improbable cuando la media de los posibles coeficientes de correlacin es cero, necesitamos un criterio (en qu punto empieza lo improbable). El criterio convencionalmente aceptado es que lo que por azar sucede 5 veces o ms veces de cada 100 est dentro de lo probable, y lo que por azar sucede menos de 5 veces de cada 100 lo

Correlacin y covarianza

15

consideramos ya improbable o fuera de lo normal. A este criterio le denominamos nivel de confianza, y se expresa = .05 cuando consideramos poco probable lo que sucede menos del 5% de las veces (tambin se expresa a veces as: nivel de confianza del 95% que son las probabilidades de no equivocarnos al afirmar la relacin). 9) Ya sabemos que en la distribucin normal el 95% de los casos estn entre la media (que es igual a cero en nuestro modelo de la figura 4) y ms menos 1.96 errores tpicos. Diremos por lo tanto que un coeficiente de correlacin es estadsticamente significativo cuando se aparte de la media cero en ms de 1.96 errores tpicos. Volviendo a la figura 4, un coeficiente de correlacin es estadsticamente significativo si no est en el 95% central de los posibles coeficientes de correlacin. Cuando la probabilidad de que ocurra en el caso de no relacin es inferior al 5% se expresa as: p < .05; si esta probabilidad es superior al 5% lo expresamos as: p > .05. 10) Aunque nuestro nivel de confianza sea .05, tambin es informativo indicar si las probabilidades de que la correlacin son inferiores al 1% (p<.01) o al 1/1000 (p < .001). Lo que se suele recomendar es indicar la probabilidad exacta (por ejemplo p = .02) sin limitarse a poner si es superior o inferior (p<.05 o p.05) a una determinada probabilidad previamente especificada5.
3.5.3. Interpretacin de una correlacin estadsticamente significativo

Es importante entender bien qu significa el decir que una correlacin es o no es estadsticamente significativa. Una correlacin estadsticamente significativa, por ejemplo p < .05, quiere decir que si no hay relacin en la poblacin (es decir, si se da esa condicin importante de ausencia de relacin) la probabilidad de obtener un coeficiente de esa magnitud por puro azar es inferior al 5%. Ya hemos indicado que el poner como lmite el 5% es una convencin aceptada y habitual y que es lo que se denomina nivel de confianza (probabilidades de error al afirmar la correlacin); ya hemos indicado que tambin se expresa a veces en sentido inverso: nivel de confianza del 95%, o probabilidades de acertar al afirmar la relacin. En la prctica, y cuando una correlacin es estadsticamente significativa (porque p <.05 si ,05 es nuestro nivel de confianza): a) Podemos afirmar con mucha seguridad que en la poblacin esa correlacin no es cero: si no hubiera ningn tipo de relacin es muy improbable obtener el coeficiente que hemos obtenido. Lo que no podemos afirmar es que en muestras semejantes (de la misma poblacin) obtendramos coeficientes de magnitud semejante (interpretacin frecuente y errnea). Para hablar de la magnitud de la correlacin en general (en la poblacin) necesitamos acudir a los intervalos de confianza de los que trataremos enseguida.

b)

Cuando una correlacin no es estadsticamente significativa (y, por ejemplo, nuestra conclusin es que p >.05): a) Una correlacin no significativa es una correlacin que no podemos generalizar sin ms. Con los datos que tenemos no podemos afirmar que en la poblacin (en otras muestras semejantes) hay una relacin, aunque sea pequea, y distinta de cero. b) Por otra parte una correlacin no significativa no es prueba de no relacin en la poblacin (podramos encontrarla quizs en muestras mayores, o utilizando otras medidas ms precisas, etc.; no probar que hay relacin no es lo mismo que probar que no hay relacin).

5 Las probabilidades exactas, si no nos las da ya un programa de ordenador, se buscan fcilmente en alguna de las direcciones de Internet puestas en el Anexo II

Correlacin y covarianza

16

Con muestras muy pequeas podemos encontrar coeficientes de correlacin relativamente grandes pero no estadsticamente significativos (el cero es un valor probable; no nos permiten extrapolar el hecho de la relacin a otras muestras de la misma poblacin). Aunque con frecuencia los coeficientes de correlacin no estadsticamente significativos suelen ser pequeos (sobre todo en muestras grandes) cuando el signo de la relacin est en la direccin esperada y la muestra es pequea, es posible que obtengamos una correlacin estadsticamente significativa en muestras mayores (al menos es una hiptesis razonable). Los coeficientes de correlacin estadsticamente significativos pero muy bajos (caso frecuente en muestras relativamente grandes) suelen ser de poca relevancia prctica, aunque no podemos despreciar sin ms los coeficientes pequeos (si son estadsticamente significativos) porque pueden dar buen juego interpretativo desde una perspectiva ms terica o metodolgica, como veremos despus.
3.5.4. Cmo comprobamos si un coeficiente de correlacin es estadsticamente significativo

El primer paso por lo tanto, para interpretar un coeficiente de correlacin, es comprobar si es mayor de lo que podra esperarse por azar, o utilizando la expresin habitual, comprobar si es estadsticamente significativo. Una correlacin estadsticamente significativa es una correlacin muy improbable por azar; la consecuencia es que podemos suponer que en la poblacin (en otras muestras semejantes) seguiremos encontrando una correlacin distinta de cero. Esto lo veremos tambin despus de este otra perspectiva al tratar de los intervalos de confianza de la correlacin. La teora subyacente a esta comprobacin es la misma que la de planteamientos semejantes en estadstica (cundo podemos considerar que una diferencia entre dos medias es mayor de lo puramente casual y aleatorio?). Lo que hacemos es dividir nuestro coeficiente de correlacin (o con ms propiedad r-0, la diferencia entre la correlacin obtenida y una correlacin de cero) por el error tpico de la correlacin (frmulas [9] y [10]) para ver en cuntos errores tpicos se aparta nuestro coeficiente de una correlacin media de cero6. a) Con muestras de 100 sujetos o menos Lo ms prctico es consultar las tablas apropiadas (anexo I)7, en las que se indica la probabilidad de obtener un determinado coeficiente por azar, sin que haya relacin entre las dos variables8. Para consultar las tablas tenemos que tener en cuenta los grados de libertad, que en el caso de la correlacin son N-2. Por ejemplo, con N = 12 los grados de libertad son 10. En las tablas y con 10 grados de libertad vemos: Grados de libertad = N -2 10 .05 .5760 .01 .7079 .001 .8233

Vemos .576 en la columna correspondiente a .05; esto quiere decir que con 12 sujetos (10 grados de libertad) una correlacin tan alta como .576 la obtendramos por azar, sin que hubiera relacin entre las dos variables, 5 veces de cada 100. Debajo de .01 vemos r = .7079, que es el valor de la correlacin que podramos obtener por azar 1 vez cada 100, y debajo de .001 vemos r = .8233, la correlacin que podramos obtener por azar 1 vez cada 1000 veces.

6 Aunque consultemos tablas o vayamos a direcciones de Internet, conviene entender qu estamos haciendo. 7 Tablas semejantes figuran en muchos textos; tambin podemos consultar las direcciones de Internet puestas en el Anexo II.
8 Con muestras pequeas las probabilidades que encontramos en las tablas de la Distribucin Normal no son aplicables.

Correlacin y covarianza

17

Siempre que el valor de nuestra correlacin sea igual o mayor que indicado en la columna .05 (se expresa as: p <.05), podemos concluir que la correlacin es estadsticamente significativa (improbable por azar; la podramos encontrar, sin que se d relacin, 5 veces o menos de cada 100). Si supera los valores de las columnas .01 .001 se indica de esta manera: p< .01 p< .001. Ya hemos indicado en el apartado anterior que este 5% es el lmite convencional y aceptado para rechazar el azar (el error muestral en trminos ms apropiados) como explicacin, por lo que podramos concluir que s hay relacin aunque sta puede ser pequea y de poco valor prctico. Una correlacin estadsticamente significativa no significa una correlacin grande. El poner un 5% de probabilidades de error (para afirmar que s hay relacin) es un criterio usual aunque arbitrario; si uno desea ms seguridad puede poner como lmite un 1% de probabilidad de error; son los dos lmites convencionales ms utilizados. b) Con muestras de ms de 100 sujetos Vemos en cuntas desviaciones tpicas (errores tpicos) se aparta nuestro coeficiente de correlacin de una correlacin media de cero; es decir calculamos la puntuacin tpica (z) correspondiente a nuestro coeficiente de correlacin: z= | r-0| 1 N 1

Lo que tenemos en el denominador es la frmula del error tpico de los coeficientes de correlacin (en muestras grandes). Esta frmula queda simplificada as: z = r N -1 [7]

En la tabla 6 estn los valores crticos para interpretar los resultados.

Probabilidad de que r sea casual (o probabilidad de que sea cero en la poblacin) si z = 1.96 o mayor ..................................... 5% o menos si z = 2.57 o mayor ..................................... 1% o menos si z = 3.30 o mayor ..................................... 1/1000 o menos Tabla 6 (p<.05) (p<.01) (p<.001)

En el numerador de la frmula [7] tenemos la diferencia entre nuestra correlacin y una correlacin media de cero; lo que tenemos en el denominador es el error tpico (o desviacin tpica) de la distribucin de las correlaciones cuando la correlacin media es cero. Lo que hemos hecho es por lo tanto calcular una puntuacin tpica: nos indica, utilizando los trminos convencionales, en cuntas desviaciones tpicas (o errores tpicos) se aparta nuestra correlacin de una correlacin media de cero. Y ya sabemos (por las tablas de la distribucin normal) que un valor que se aparte de la media en ms de 1.96 desviaciones (fijndonos en ambos extremos de la distribucin) slo ocurre por azar 5 veces de cada 100 o menos. Por ejemplo: encontramos una correlacin de r = .14 en una muestra de 275 sujetos; aplicando la frmula [7] tendremos que z = .14 275 1 = 2.32 que supera el valor de z = 1.96 por lo que podemos concluir que una correlacin de r = .14 en esa muestra, en el caso de no relacin, la obtendramos por azar menos de cinco veces de cada 100 (p< .05); nuestra conclusin ser que esa correlacin es estadsticamente significativa.

Correlacin y covarianza

18

c) Cuando de los mismos sujetos tenemos varios coeficientes de correlacin En vez de aplicar la frmula [7] a cada coeficiente, podemos construir nuestras propias tablas, porque el nmero de sujetos es siempre el mismo y lo valores de z de inters tambin son siempre los mismos (tabla 6). En la frmula [7] podemos despejar los valores de r que nos interesan: Si z =

1 r podemos despejar r; r = z 1/ N - 1 N -1
r =

Esta frmula queda simplificada de esta manera:

z N -1

[8]

Por ejemplo, si nuestros sujetos son N = 212, nuestras tablas sern estas9: Para p < .05 Para p < .01 r= r= 1.96 = .135 212 1

2.57 = .177 212 1

Para p < .001

r=

3.30 = .227 212 1

3.6. Los intervalos de confianza: magnitud de la correlacin en la poblacin

Si calculamos el coeficiente de correlacin, por ejemplo, entre una medida de motivacin y otra de rendimiento escolar, encontraremos un valor determinado en nuestra muestra. Puede ser que nuestro inters no est en conocer el grado de relacin entre estas dos variables en una muestra concreta, sino en la poblacin ms general representada por esa muestra10. Si lo que nos interesa es la magnitud de la correlacin en la poblacin (y no solamente en nuestros sujetos), el valor exacto de la correlacin en la poblacin no podemos saberlo, pero s podemos estimar entre qu valores mximo y mnimo se encuentra. Estos valores extremos se denominan, muy apropiadamente, intervalos de confianza. El modelo terico es semejante al visto antes para ver si una correlacin es estadsticamente significativa: Si calculamos el coeficiente de correlacin entre las mismas dos variables en un gran nmero de muestras, tendramos una distribucin normal de los coeficientes de correlacin entre las dos variables. La correlacin calculada en nuestra muestra la tomamos como una estimacin de la media en la poblacin. Esta estimacin ser ms ajustada si la muestra es realmente representativa. El error tpico (desviacin tpica) de esta distribucin lo estimamos a partir de los datos de una muestra concreta y las frmulas son:

9 Dado un nmero determinado de sujetos (N) los valores correspondientes a .05, .01 y .001 nos lo da directamente Department of Obstetrics and Gynaecology, The Chinese University of Hong Kong http://department.obg.cuhk.edu.hk/ResearchSupport/Correlation.asp, buscando minimum r to be significant. Esta direccin tambin est en el Anexo II. 10 En este apartado, lo mismo que en el anterior, no nos limitamos a hablar de la correlacin obtenida en una muestra concreta que describe la relacin entre dos variables en esa muestra, sino que estamos tratando de la correlacin en la poblacin representada por esa muestra. Cuando a partir de los datos obtenidos en una muestra deducimos los valores probables en la poblacin (extrapolamos) estamos ya en estadstica inferencial y no meramente descriptiva.

Correlacin y covarianza

19

para muestras grandes

r = r =

1 N 1

[9]

para muestras pequeas

1 - r2 N -1

[10]

El error tpico, lo mismo que una desviacin tpica, nos indica el margen de variabilidad probable (de oscilacin) de los coeficientes de correlacin si los calculramos en muchas muestras. Como suponemos una distribucin normal, el 95% de los casos de los coeficientes de correlacin caen entre la correlacin obtenida en la muestra (la media de la distribucin) ms 1.96 errores tpicos y correlacin obtenida menos 1.96 errores tpicos. Estos son los intervalos de confianza de la correlacin, como podemos ver representado en la figura 5 (con un nivel de significacin de .05).

Lmite mnimo probable en la poblacin

95% de los coeficientes de correlacin en muestras de la misma poblacin

Lmite mximo probable en la poblacin

-1.96 errores tpicos Correlacin obtenida en la muestra = estimacin de la correlacin en la poblacin

+1.96 errores tpicos

Figura 5 Por ejemplo: en una muestra de 102 sujetos encontramos una correlacin de r = .20; Aplicando la frmula [7] tendramos z = .20 102 1 = 2.01, p< .05 (superamos el lmite de 1.96). La correlacin de .20 en una muestra de 102 sujetos es estadsticamente significativa (no es cero en la poblacin). Si calculamos la correlacin entre las mismas dos variables en una serie indefinida de muestras Entre qu lmites oscilaran los coeficientes de correlacin? El error tpico de los coeficientes de correlacin (con N = 102) sujetos es 1 = .099 102 - 1

Lmite ms bajo de la correlacin en la poblacin: .20 (media) (1.96)(.099) = .005 Lmite ms alto de la correlacin en la poblacin: .20 (media) + (1.96)(.099) = .394 Asumiendo la correlacin que hemos encontrado de r = .20 como una estimacin de la correlacin media, podemos afirmar que el coeficiente de correlacin en la poblacin representada por esta muestra estar entre.005 y .394. Vemos que entre estos lmites extremos probables no se encuentra el cero, por eso la correlacin es estadsticamente significativa (distinta de cero en la poblacin), aunque el lmite inferior es casi cero. Vamos a ver un ejemplo de correlacin no estadsticamente significativa. En una muestra de N = 120 y r = .14 vemos que (frmula [7]) z = .14 120 1 = 1.53 Como no llegamos al valor crtico de 1.96 tenemos que p > .05; la probabilidad de obtener un coeficiente de esa magnitud es superior al 5% Nuestra conclusin ser que esta correlacin no es estadsticamente significativa.

Correlacin y covarianza

20

Calculamos ahora los lmites extremos (intervalos de confianza) de ese coeficiente en la poblacin: Lmite inferior: .14 1.96 ( Lmite superior: .14 + 1.96 ( 1 120 1 1 120 1 ) = .14 - .179 = -.04 ) = .14 + .179 = +.319

En la poblacin esa correlacin estar entre -.04 y + .319; como el lmite inferior es negativo (.04) entre esos intervalos est r = 0, por eso decimos que no es estadsticamente significativa; porque puede ser r = 0 en la poblacin. Cuando un coeficiente de correlacin calculado en una muestra es estadsticamente significativo, la informacin que tenemos sobre la magnitud de la correlacin en la poblacin representada por esa muestra es por lo tanto muy imprecisa, aunque podemos afirmar que no es cero. Para estimar la magnitud de la correlacin en la poblacin con una mayor precisin (entre unos lmites estrechos) nos hacen falta muestras muy grandes porque al aumentar el tamao de la muestra disminuye el error tpico. Podemos verlo de manera ms grfica calculando los intervalos de confianza (lmites mximo y mnimo en la poblacin) de un coeficiente de .20 calculado en muestras de tamao progresivamente mayor (tabla 7).
Error tpico

r = .20
N = 102 N = 230 N = 500 N = 1200

N-1

0 .005

.05

.15 .20 .25 .30

.35 .40 .39

.099 .066 .0447 .028

.07 .11 .14


Lmite mnimo r 1.96 errores tpicos

.33 . .29 .26


Lmite mximo
r + 1.96 errores tpicos

Tabla 7 Un coeficiente de correlacin de r = .20 calculado con una muestra grande nos da una idea ms precisa de dnde se encuentra este valor en la poblacin. Con frecuencia vemos en la literatura experimental resultados conflictivos: correlaciones grandes y positivas en una muestra y bajas o incluso negativas en otras muestras esta conflictividad suele ser aparente como podemos comprobar si calculamos entre qu lmites pueden oscilar estos coeficientes: cualquiera de los dos coeficientes podran caer dentro de los lmites del otro11.
Aqu es oportuno hacer dos observaciones:

1. Cuando calculamos los intervalos de confianza de un coeficiente de correlacin (o de cualquier otro estadstico) estamos comprobando tambin si ese coeficiente de correlacin es estadsticamente significativo (si est dentro de lo probable una correlacin igual a cero en la poblacin).

11 Los intervalos de confianza del coeficiente de correlacin tambin podemos calcularlos en programas de Internet (Anexo II; unoi muy cmodo es el de VassarStats)

Correlacin y covarianza

21

Por ejemplo, con N = 120 obtenemos una correlacin de r = .15. Este coeficiente lo hemos calculado en una muestra concreta y ahora nos preguntamos entre qu lmites se encuentra ese coeficiente de correlacin en la poblacin representada por esa muestra. El error tpico es (frmula [9]) 1 120 1 = .0916, luego los lmites estarn entre .15 (1.96)(.0916); como (1.96)(.0916) = .179, los lmites estarn entre .15 .179:
Lmite mnimo: .15-.179 = -.03 Lmite mximo: ,15 + .179 = .33

En la poblacin esa correlacin de .15, calculada en 120 sujetos, se encuentra entre -.03 y + .33, luego cero es un valor posible; no se trata por lo tanto de una correlacin estadsticamente significativa. Siempre que entre los valores extremos posibles (mximo y mnimo) de la correlacin hay un cambio de signo, entra como posible el valor cero y la correlacin ya no es en ese caso estadsticamente significativa (puede ser cero en la poblacin). 2. Los intervalos de confianza son ms informativos que el decir simplemente si un coeficiente de correlacin es o no es estadsticamente significativo; nos dicen entre qu valores probables puede oscilar ese coeficiente en la poblacin representada por la muestra. Lo que suele recomendarse es aportar tambin los intervalos de confianza.
3.7. Cmo valorar la magnitud de la correlacin

Cundo un coeficiente de correlacin es suficientemente alto? No vamos a tener una respuesta clara y de aplicacin universal, pero s se pueden dar orientaciones para valorar la magnitud de estos coeficientes.
3.7.1. Orientaciones generales

Una vez que hemos comprobado que un coeficiente de correlacin es estadsticamente significativo (= muy improbable por azar y que por lo tanto se puede interpretar como indicador de una verdadera relacin distinta de cero), la cuestin siguiente es valorar la magnitud del coeficiente. Como criterio orientador (sin convertirlo en norma) se suelen sugerir las valoraciones indicadas en la tabla 8.
un valor de r entre: 0 y .20 .............................. .20 y .40 ............................. .40 y .60 ............................. .60 y .80 ............................. .80 y 1 ................................ indica una relacin: muy baja, baja moderada apreciable, ms bien alta alta o muy alta

Tabla 8 Las valoraciones anteriores, y otras semejantes que pueden encontrarse en libros de texto, son orientadoras y hay que interpretarlas con cautela. Estas valoraciones suelen darse teniendo en cuenta la mera magnitud, pero una correlacin baja puede tener inters interpretativo12.

12 Cohen (1988:77-81) establece (y justifica) como criterio orientador (y provisional) estas valoraciones: correlacin pequea r = .10, media r = .30 y grande r = .50. Basa sus valoraciones en que en las ciencias de la conducta las correlaciones suelen ser bajas. Este autor es conocido (y citado) por las valoraciones que hace sobre las magnitudes de determinados estadsticos (son citadas sobre todo sus valoraciones sobre el tamao del efecto). En otro apartado (3.7.3.) damos posibles explicaciones de coeficientes de correlacin bajos.

Correlacin y covarianza

22

a) Una correlacin no significativa o simplemente muy baja, puede ser tan informativa e interesante como una correlacin alta. El descubrir una no relacin puede tener tanto inters como verificar que s existe relacin. Tambin puede suceder que se d una clara relacin, pero no linear sino curvilnea, y esto puede apreciarse en un diagrama de dispersin (el coeficiente eta, , es el apropiado para relaciones curvilneas). b) Un coeficiente de correlacin puede tambin calificarse como alto o bajo aadiendo y matizando en este contexto. Las correlaciones muy bajas a veces se deben no a que las relacin es efectivamente baja, sino a que medimos mal las variables, con instrumentos poco precisos que no detectan bien las diferencias entre los sujetos, etc. En un cuadro general de coeficientes ms bien bajos, obtenidos con instrumentos semejantes y en un mismo planteamiento de investigacin, pueden destacar los coeficientes altos en trminos relativos. c) Para valorar la magnitud de un coeficiente de correlacin, r2 (o coeficiente de determinacin, que expresa la proporcin de variacin conjunta) puede parecer ms til que el valor de r (y as suele a veces indicarse) ya que aparentemente este valor expresa el impacto de una variable sobre la otra variable. Como los valores de r2 son mucho ms bajos que los de r (si r = .30, r2 = .09) el utilizarlos como criterio para valorar la magnitud o la importancia de un coeficiente de correlacin tiene sus riesgos porque los coeficientes bajos pueden ser tambin informativos o sugerir preguntas de inters como indicamos en el apartado siguiente.
3.7.2. Sobre la interpretacin y utilidad de los coeficientes de correlacin bajos

Los coeficientes de correlacin altos o moderadamente altos no ofrecen especiales problemas; en general resultan gratificantes para el investigador. Son los coeficientes bajos, aunque sean estadsticamente significativos, los que a veces nos cuesta interpretar adecuadamente. Por eso les dedicamos una especial atencin. La primera observacin sobre estos coeficientes muy bajos (.30 y ciertamente si son mucho menores), es que simplemente expresan una relacin entre las dos variables (tal como la medimos) que es muy pequea; e incluso casi ni habra que hablar de relacin. Con muestras grandes es normal encontrar correlaciones estadsticamente significativas pero tan pequeas que pueden ser prcticamente irrelevantes. Aun as estos coeficientes pequeos pueden darnos informacin til o buenas pistas para pensar al menos por qu no encontramos una relacin apreciable donde cabra esperarla (este punto lo tratamos en el apartado siguiente). Adems la relacin real puede ser mayor de la que somos capaces de cuantificar. 1 Los coeficientes bajos (por ejemplo de .30) son poco tiles (o intiles) desde una perspectiva prctica; por ejemplo para predecir resultados. Si dos variables estn relacionadas, conociendo la puntuacin de un sujeto en una variable, podemos predecir (o estimar) cul ser su puntuacin en la otra variable. Por eso se habla de la validez predictiva de los tests (admisiones, seleccin, etc.). Aun as tests con baja validez predictiva pueden ser predictores tiles unidos a otros en correlaciones mltiples (que no tratamos ahora), pero esta utilidad habra que comprobarla13. En estos casos (validez predictiva de los tests) tambin hay que tener en cuenta lo que explicamos en el apartado los coeficientes de correlacin corregidos por restriccin de la amplitud. 2 Coeficientes de correlacin muy pequeos, si son significativos (es decir, que probablemente no son cero en la poblacin), pueden estar indicando alguna ley psicolgica14; el que la correlacin sea pequea puede significar no que sea realmente pequea sino que medimos muy pobremente las variables o que esta correlacin est contaminada por otras variables que no tenemos en cuenta; casi nunca medimos variables puras (as la inteligencia, tal como la medimos, puede estar contaminada por niveles de educacin, capacidad lectora, etc.).

13 El tema de la prediccin, obviamente muy relacionado con la correlacin, no lo estamos tratando aqu; puede verse tratado en el documento correlacin y regresin (www.upcomillas.es/personal/peter). 14 Guilford y Fruchter (1973: 92)

Correlacin y covarianza

23

3 Algunos autores15 sealan que una correlacin de .30 (aparentemente baja) viene a indicar el tipo de relacin que un observador puede detectar casualmente; es una relacin detectable a simple vista; por ejemplo, cuando un profesor cae en la cuenta, al cabo de los aos, de que entre los alumnos que se sientan en las ltimas filas y junto a una ventana hay ms suspensos que entre los que se sientan en la primera fila esa relacin observable podra ser del orden de r = .30 y ciertamente relevante. 4 Cuando las dos variables son dicotmicas (una puede ser participar o no participar en una terapia, en un nuevo mtodo, experiencia, etc. y la otra mejorar o no mejorar, sobrevivir o no sobrevivir, etc.) el coeficiente de correlacin es igual al tanto por ciento de xito; as una correlacin de .20 (que indica que solamente hay un 4% de varianza comn) quiere decir que con ese tratamiento han mejorado, sobrevivido, etc., un 20% ms de los que hubieran sobrevivido de no seguir ese tratamiento16. Este es un dato importante para valorar los coeficientes de correlacin, que aunque sean bajos pueden indicar un xito cualitativamente importante (es despreciable un 4% de supervivientes (si r = .04) que de otra manera no hubieran sobrevivido?). Sobre esta ltima valoracin e interpretacin de los coeficientes de correlacin hacemos dos observaciones: 1 Aunque literalmente se refiere a la correlacin entre dos variables dicotmicas (un caso especial de la correlacin de Pearson que en principio requiere que al menos una variable sea continua), esta interpretacin es tambin vlida cuando las variables son continuas (como escalas tipo Likert)17 2 Aunque este tipo de comprobaciones (por ejemplo eficacia de una terapia) las hacemos habitualmente comparando medias (comparando dos grupos, uno experimental y otro de control) los resultados (t de Student) se pueden convertir fcilmente en un coeficiente de correlacin que aade una informacin complementaria que no nos aporta la t de Student, pues nos permite valorar la magnitud (y por lo tanto la importancia) de la diferencia.18 Aunque estos planteamientos no sean los que ms nos interesen ahora mismo al tratar de la correlacin de Pearson, no sobra intuir el valor informativo que puede tener una correlacin pequea. 5 Hay que tener en cuenta la situacin y el uso del coeficiente. Un valor pequeo (por ejemplo de r =.20) puede ser poco til (o nada til) con fines predictivos, y ser sin embargo de inters en una investigacin terica; a veces lo que interesa es constatar si se da alguna relacin. Estas consideraciones sobre los coeficientes pequeos de correlacin hay que complementarlas con otras sobre las posibles causas de estos valores bajos, sobre todo si cabra esperar que fueran mayores. Nos introducen en otras reflexiones tiles para el investigador.
3.7.3. Explicaciones posibles de coeficientes de correlacin muy bajos

Una correlacin baja puede significar simplemente eso, que la relacin entre esas dos variables es pequea. Sin embargo una correlacin baja donde hubiramos esperado un valor mayor nos invita

15 Por ejemplo Cohen P. (1981) y Cohen J. (1988:80), y tambin otros autores hacen la misma observacin. Cohen J. (1988:80) cita coeficientes de correlacin importantes que son de este tipo de magnitud (.30). 16 Esta interpretacin (denominada Binomial Effect Size Display, BESD) elaborada por Rosenthal y Rubin (1979, 1982; Rosenthal, 1987); la recogen tambin otros autores (por ejemplo Hunter y Schmidt, 1990:202; Cohen, 1988:533) que revalorizan la informacin que pueden aportar a veces coeficientes pequeos de correlacin en determinadas situaciones. En los primeros autores citados pueden encontrarse una explicacin ms detallada y tablas que facilitan esta interpretacin. Sobre el Binomial Effect Size Display puede verse en Internet Randolph y Edmondson (2005), que exponen su utilidad y limitaciones y tambin cmo calcular este Binomial Effect Size Display a partir del tamao del efecto (d de Cohen) si se ha hecho un contraste de medias (la t de Student puede transformarse en un coeficiente de correlacin).. 17 Rosenthal (1987: 114-115) 18 Las frmulas para convertir los valores de t en r y viceversa suelen verse tratando del tamao del efecto en el contexto del contraste de medias.

Correlacin y covarianza

24

a preguntarnos el por qu de esa correlacin baja o nula. Puede que sea baja tal como la hemos medido y adems en una determinada muestra, pero que en la realidad, en la vida, la relacin sea mayor y ms clara.
Causas posibles de coeficientes de correlacin bajos.

Las posibles explicaciones (ms que causas) de los coeficientes de correlacin muy bajos pueden ayudarnos en su interpretacin y explicacin.
a). Poca fiabilidad, o poca precisin, en los instrumentos de medicin

Entre dos variables puede haber una verdadera relacin, pero no detectable si medimos con poca precisin, sin diferenciar adecuadamente a unos sujetos de otros. Debemos tener en cuenta que a veces intentamos medir sentimientos profundos, recuerdos del pasado, valoraciones difciles de hacer, etc., con preguntas sencillas19; quizs no tenemos otra manera mejor de hacerlo en un momento dado, pero en cuanto instrumentos de medicin resultan muy pobres (aunque pueden ser muy tiles). Es posible aplicar las frmulas de correccin por atenuacin que dan una estimacin de la correlacin que podramos obtener si la fiabilidad fuera perfecta. De estas frmulas (que suponen una comprensin adecuada de lo que es la fiabilidad) tratamos ms adelante.
b) Homogeneidad de la muestra

La relacin verificada (que es lo que indica el coeficiente de correlacin) supone diferencias entre los sujetos en las variables cuya relacin nos interesa comprobar. Con muestras muy homogneas los coeficientes son bajos; con muestras heterogneas es ms fcil detectar relaciones. Por ejemplo la relacin comprobada mediante el coeficiente r entre inteligencia y rendimiento escolar puede ser muy baja o nula si los alumnos han sido seleccionados precisamente por su inteligencia (no hay diferencias, o muy pequeas, en una de las variables).
c) Instrumentos poco discriminantes

Tambin puede suceder que el poco matiz de algunas medidas no recoge las diferencias que de hecho se dan, e impide encontrar coeficientes de correlacin altos. Se trata en definitiva de limitaciones en el instrumento de medida. Con frecuencia es ste el caso cuando: a) Una de las variables son calificaciones escolares que apenas diferencian a los alumnos, o son notas medias que tienen a parecerse mucho entre s. b) Cuando medimos una variable con unas preguntas que admiten pocas respuestas (como s o no, o poco, algo, mucho, cuando los sujetos podran matizar ms) y que por lo tanto no recogen la diversidad que de hecho puede estar presente en la muestra. La homogeneidad de la muestra puede estar provocada por el mismo instrumento, que no discrimina lo suficiente, y sin diferencias claras en la muestra y en ambas variables no se detectan relaciones. Este punto hay que tenerlo en cuenta en la construccin de instrumentos de medida (tests, escalas, cuestionarios).
3.8. Los coeficientes de correlacin cuando unimos o separamos submuestras

En dos muestras distintas podemos encontrar una correlacin alta entre, por ejemplo, un test de inteligencia y calificaciones en una asignatura, y al unir las dos muestras podemos encontrarnos con que la correlacin baja apreciablemente. Esto puede suceder si las medias en esa asignatura son muy

19 Con las preguntas de muchos cuestionarios lo que hacemos con frecuencia es intentar atrapar sentimientos con un cazamariposas. A veces podemos sospechar que una correlacin muy pequea, sobre todo detectada con instrumentos muy pobres, es simplemente la punta del iceberg; la realidad sumergida (o sugerida como hiptesis) puede ser mucho mayor. Para Cohen (1988:79) muchas de las correlaciones que podemos buscar en las ciencias blandas de la conducta son del orden de .10 ya que en las variables, tal como las operacionalizamos, hay muchos ruidos (falta de fiabilidad o de fidelidad al constructo terico, etc.). El mismo autor cita a Thurstone cuando dice que en psicologa medimos a los hombres por sus sombras.

Correlacin y covarianza

25

distintas en las dos muestras (como puede suceder si se trata de profesores distintos, o con distinto criterio para calificar, etc.) Calculando coeficientes de correlacin uniendo muestras distintas o separndolas podemos hacer que aumenten o disminuyan las diferencias en una o en las dos variables y esto naturalmente afecta a los coeficientes de correlacin. Presentamos algunos casos tpicos que ponen de relieve lo que puede suceder al unir o separar muestras. Cuando una muestra est compuesta por submuestras (ambos sexos, diversas edades, o una muestra subdividible por cualquier otra variable) puede merecer la pena calcular la correlacin dentro de cada submuestra; con frecuencia aparecen correlaciones en subgrupos concretos sin que aparezcan en la muestra general; y al revs, puede no haber una relacin apreciable en una submuestra y aparecen relaciones importantes cuando las unimos en una sola muestra. Los grficos siguientes (diagramas de dispersin) ilustran situaciones que pueden ser frecuentes y en las que los coeficientes de correlacin varan mucho si los calculamos en submuestras distintas o en toda la muestra20.

9 8 7 6 5 4 3 2 1

Caso 1

Subgrupo B, r = 0.00 Subgrupo A, r = 0.00

1 2

Todos, r = 0.82

5 X 6 7 8 9

Figura 6: diagrama I En el diagrama I (figura 6) tenemos que dentro de cada muestra r = 0, en cambio si unimos las dos muestras en una sola, la correlacin pasa a ser muy alta. Una muestra tiene las dos medias ms altas que la otra, y al unirlas en una sola muestra tienden a coincidir los altos y los bajos en las dos variables. Este podra ser el caso de la correlacin entre peso (X) y edad (Y) en un grupo de nios de cinco aos y otro de diez aos. En cada grupo la correlacin es cero; las diferencias en edad (meses, semanas) y en peso son pequeas y sobre todo no son sistemticas (dos meses ms de edad no implica pesar medio kilo ms). En cambio si juntamos los dos grupos y calculamos la correlacin con todos sube a .82 (muy alta): ahora coinciden altos en edad-altos en peso y bajos en edad-bajos en peso. Como ejemplo puede ser irrelevante, pero es claro

20 De hecho un mismo coeficiente de correlacin puede corresponder a diagramas de dispersin muy distintos en los que el mismo coeficiente no se podra interpretar de la misma manera, por eso para interpretar estos coeficientes es muy aconsejable tener a la vista el diagrama de dispersin. Un ejemplo muy ilustrativo son los cuatro diagramas de dispersin que con datos ficticios public Anscombe (1973); los cuatro diagramas de dispersin son muy distintos pero corresponden a un idntico coeficiente de correlacin de .82; estos diagramas los reproducen con su explicacin algunos autores (por ejemplo Fox; 1993:246 y Etxcheberria, 1999:49) y tambin podemos encontrarlos en Internet (Dodson, 2006; Behrens, 1997); tambin en Internet Dallal (2001) reproduce (en correlation coefficients) ocho diagramas muy distintos que correponden a una misma correlacin de .70

Correlacin y covarianza

26

9 8 7 6 Y 5 4 3 2 1

Caso 2

Todos, r = 0.30

Subgrupo A r = 0.84

Subgrupo B r = 0.84

5 7 X Figura 7: diagrama II

En el diagrama II (figura 7) tenemos el caso opuesto: dentro de cada grupo la correlacin es alta, pero baja apreciablemente al unirlos en un solo grupo. Posiblemente ambos grupos proceden de poblaciones distintas por lo que respecta a las medias en Y (y esto podra comprobarse). En el ejemplo del diagrama II la variable Y podra ser un test de inteligencia abstracta, y la variable X notas en matemticas. Las medias en Y (inteligencia) son parecidas, pero las medias en X (matemticas) son claramente diferentes. En ambos casos los ms inteligentes segn ese test son tambin los que mejores notas sacan; en cada clase hay una relacin alta y clara entre el test (Y) y las notas (X), pero esta relacin baja si calculamos la correlacin juntando las dos clases en un mismo grupo.Por qu? En este ejemplo podra tratarse de profesores distintos, uno califica ms bajo y el otro ms alto al juntar a todos se neutralizan las diferencias y queda menos claro lo de altos en las dos o bajos en las dos En un caso como ste se podra calcular la correlacin por separado en cada muestra y luego calcular la correlacin media. Esto es frecuente tambin que suceda cuando una de las variables es la nota media de varias asignaturas; estas notas medias neutralizan las diferencias en rendimiento acadmico. En estos casos puede ser preferible comprobar la correlacin en cada muestra por separado y calcular despus la correlacin media. En el diagrama III (figura 8) tenemos un caso distinto pero frecuente cuando ha habido procesos de seleccin. En toda la muestra la correlacin es muy alta, sin embargo si la calculamos en la submuestra con puntuaciones ms altas en una o las dos variables, la correlacin baja e incluso puede ser negativa.
9 8 7 6 Y 5 4 3 2 1 2
Subgrupo B, r = 0.00 Todos, r = 0.92

Caso 3

Subgrupo A, r = 0.83

4 X

Figura 8: diagrama III Si una variable es un test de inteligencia (X) utilizado para seleccionar candidatos en una universidad, y la otra variable (Y) es rendimiento acadmico, tendramos que dentro los seleccionados

Correlacin y covarianza

27

la correlacin obtenida entre inteligencia y rendimiento es muy baja e incluso puede ser negativa. Con la seleccin eliminamos diferencias en una variable (X), y sin diferencias sistemticas en las dos variables no hay relacin comprobable. ste es un caso tpico cuando se desea ver si los tests utilizados en las pruebas de admisin (o cualquier otro dato de entrada) tiene que ver con el xito posterior. En el caso representado en la figura 6 no han sido admitidos los que no han llegado a 6 en la prueba de admisin (X) con lo que tenemos datos en X de todos (admitidos y no admitidos), pero en Y (xito acadmico) slo tenemos datos de los admitidos. Hemos homogeneizado la muestra y entre los seleccionados no se detecta ninguna relacin entre el test de admisin (X, un presunto predictor) y xito acadmico. Veremos mtodos para calcular una estimacin de la correlacin entre las dos variables en toda la muestra, si disponemos de la correlacin en el grupo seleccionado (en el que tenemos datos de las dos variables) y adems la varianza de toda la muestra en una de las dos variables (en este caso del test de inteligencia utilizado en la seleccin). Estas estimaciones son tiles para poder apreciar y valorar la eficacia de un test supuestamente predictivo, independientemente de las correlaciones (quizs muy bajas) que hayamos obtenido (volvemos a este punto al tratar de los coeficientes de correlacin corregidos por restriccin de la amplitud, n 4.2).
3.9. Influjo en la correlacin de las puntuaciones extremas (outliers)

Una puntuacin extrema o atpica (outlier en ingls) es la que se aparta mucho de las dems. Si una variable es la edad y la muestra es de nios de 12 a 14 aos, si incluimos un sujeto de 40 aos se trata evidentemente de una puntuacin extrema en la variable edad. Estas puntuaciones extremas o atpicas pueden influir mucho en el coeficiente de correlacin. Lo vemos claramente en el diagrama IV de la figura 9.

9 8 7 6 Y 5 4 3 2 1 1

r = .64 2 3 r = .00 4 8 9

5 6 7 X Figura 9: diagrama IV

Si calculamos la correlacin con los sujetos encerrados en el recuadro tenemos r = 0, no hay ninguna relacin como se aprecia a simple vista en el diagrama, pero si aadimos un sujeto ms con puntuaciones muy altas en las dos variables (en trminos comparativos), la correlacin sube a .64. Tambin pueden bajar como podemos ver en el diagrama V de la figura 10.

Correlacin y covarianza

28

9 8 7 6 Y 5 4 3 2 1 1

r = .71 r = .15 2 3 4 X
Figura 10: diagrama V

En los sujetos encerrados en el recuadro vemos una correlacin ms bien alta (r = .71) que baja a .15 si incluimos un solo sujeto con una puntuacin muy alta en una variable (en X) y muy baja en la otra (en Y). El efecto de estas puntuaciones atpicas (outliers) es muy grande en muestras pequeas (como en las de estos ejemplos ficticios); en muestras muy grandes puede ser inapreciable, pero aun as estas puntuaciones que se salen de lo normal pueden distorsionar la informacin de un coeficiente de correlacin. Estas puntuaciones pueden estar indicando a veces respuestas intencionadamente exageradas o simplemente que el sujeto no entendi la pregunta, pero tambin pueden reflejar respuestas sinceras de sujetos realmente atpicos. Con respecto a estas puntuaciones atpicas: a) Puede ser de inters hacer un anlisis cualitativo de los sujetos con este tipo de respuestas Qu caracterstica tienen en comn? Aqu puede haber resultados interpretables. b) Se puede presentar el valor de la correlacin con o sin estos sujetos atpicos; esto puede ser ms aconsejable en muestras pequeas. c) Ciertamente en muchos estudios se prescinde de estos sujetos porque distorsionan el valor de los coeficientes de correlacin y no muestran la relacin entre las variables que podemos esperar en sujetos normales; por alguna razn estas respuestas no son normales y es preferible no contabilizar a esos sujetos. En estos casos conviene indicarlo, lo mismo que el criterio que se ha seguido para identificar los datos atpicos. d) Sobre cundo una puntuacin se aparta realmente de lo normal no hay unanimidad en los criterios, pero una norma aceptable es prescindir de los sujetos que en cualquiera de las variables tengan una puntuacin tpica superior a 3 (positiva o negativa)21.

21 Orientacin de Osborne y Overbay (2004) que recomiendan la exclusin de estas puntuaciones (there are strong arguments for removal or alteration of outliers) y exponen los diversos posibles orgenes de estos outliers. Otra alternativa propuesta por otros autores consiste en recodificar los outliers y sustituir estas puntuaciones por las puntuaciones mxima y mnima presentes en el resto de los datos (truncation). Estas puntuaciones atpicas tambin afectan a la t de Student y al anlisis de varianza.

Correlacin y covarianza

29

4. Coeficientes de correlacin corregidos


Los coeficientes de correlacin pueden resultar a veces de alguna manera deformados (demasiado altos o demasiado bajos) por diversas causas, de manera que no dan una idea clara sobre la verdadera relacin entre dos variables. Tenemos por ejemplo estos tres casos de los que vamos a tratar a continuacin: 1 Una baja relacin donde la esperamos mayor puede deberse a la baja fiabilidad de los instrumentos de medicin, y no tanto a que las variables no estn claramente relacionadas; al menos las correlaciones seran mayores con una fiabilidad mayor en los instrumentos 2 Tambin una baja relacin puede deberse a que la muestra en la que se ha calculado ha sido artificialmente homogeneizada, han disminuido las diferencias en una de las variables y naturalmente bajan los coeficientes de correlacin (es el caso explicado antes a propsito del diagrama III). 3 Cuando calculamos la correlacin entre una parte y el todo (como entre un tem y la puntuacin total de la que forma parte ese tem) en este caso la correlacin sube artificialmente y da una idea incorrecta sobre la verdadera relacin entre esa parte y el todo. Para estas situaciones, que son frecuentes, disponemos de frmulas correctoras que nos dan una estimacin de la verdadera correlacin (o la correlacin exacta como en el caso 3).
4.1. Correlacin y fiabilidad: los coeficientes de correlacin corregidos por atenuacin

Ya hemos indicado antes que la verdadera relacin puede ser mayor que la que muestra un determinado coeficiente, debido a la falta de fiabilidad de los instrumentos de medicin. Si el instrumento (test, escala, etc.) no detecta con precisin las diferencias que hay entre los sujetos, la correlacin calculada puede ser inferior a la real (o superior en el caso de las correlaciones parciales)22. Este apartado, que es importante situarlo en el contexto de los coeficientes de correlacin, supone un estudio previo de lo que son los coeficientes de fiabilidad, pero se puede entender con slo una nocin bsica de lo que es la fiabilidad (precisin en la medida).
4.1.1. Frmula de correccin por atenuacin

Disponemos de unas frmulas que nos permiten estimar cual sera el coeficiente de correlacin si la fiabilidad fuera perfecta. Se denominan frmulas de correccin por atenuacin porque el coeficiente de correlacin est atenuado (disminuido) por la falta de fiabilidad de los instrumentos. La frmula general de la correlacin corregida por atenuacin es:
rxy corregida = rxy rxx ryy

[11]

donde rxx y ryy son los coeficientes de fiabilidad de cada medida; en el denominador puede estar tambin slo la fiabilidad de uno de los instrumentos si la del otro nos es desconocida, como aparece en la frmula [12].

Por ejemplo: tenemos un coeficiente de correlacin entre dos variable de .25; los coeficientes de fiabilidad de los dos instrumentos son .70 uno y .40 (muy bajo) el otro. Podemos preguntarnos Cul es la estimacin de la correlacin entre estas dos variables si las midiramos con una fiabilidad ideal?:

22 Una buena exposicin de los efectos de la baja fiabilidad en los coeficientes de correlacin y de la correccin por atenuacin puede verse en Osborne (2003).

Correlacin y covarianza

30

rxy corregida =

.25 (.70)(.40)

.25 .529

= .47

Para poder aplicar esta frmula con resultados fiables: 1) Los coeficientes de fiabilidad que aparecen en el denominador deben estar calculados en muestras grandes23. 2) Los coeficientes de fiabilidad deben calcularse mediante los procedimientos que dan las mejores estimaciones de la fiabilidad (como las frmulas Kuder-Richardson 20 y el coeficiente de Cronbach). Cuando el coeficiente de fiabilidad es ms bien una estimacin pobre y aproximada, la correlacin corregida por atenuacin puede incluso superar el valor de 1. 3) Los coeficientes de fiabilidad deben calcularse solamente en medidas claramente unidimensionales, es decir, que miden un nico rasgo24.
4.1.2 Cundo debe hacerse esta correccin por atenuacin

1 Cuando interese saber hasta qu punto dos variables estn relacionadas, independientemente de los errores de medicin de los instrumentos utilizados. Esto sucede en muchos planteamiento de investigacin terica. Si por ejemplo calculamos la correlacin entre inteligencia y actitud hacia el estudio, lo que realmente nos interesa conocer es hasta qu punto ambas variables van juntas. Si las medidas que de hecho utilizamos (tests, exmenes, escalas, etc.) tienen una fiabilidad baja (clasifican mal a los sujetos) la correlacin sin corregir puede sugerir que las dos variables estn menos relacionadas que lo que de hecho estn. Estos coeficientes de correlacin corregidos son interesantes para apreciar lo que podemos estimar que es el verdadero valor de una relacin, pero no tienen utilidad prctica (por ejemplo para hacer estudios de prediccin) porque de hecho medimos con los instrumentos que tenemos, con todas sus imperfecciones. 2 Tambin suele aplicarse la frmula de correccin por atenuacin cuando se calcula la correlacin entre dos formas paralelas del mismo test, como una forma de fiabilidad (para comprobar si las dos versiones del mismo test ordenan a los sujetos de manera semejante). En este caso es discutible el calcular el error tpico (que se calcula a partir de los coeficientes de fiabilidad, que en este caso es un coeficiente de correlacin), porque este error (o margen de oscilacin de las puntuaciones individuales si los sujetos respondieran varias veces al mismo test) puede parecer menor de lo que realmente es. En general siempre que de estos clculos se derivan de alguna manera datos que van a influir en decisiones o diagnsticos de sujetos, hay que tener en cuenta los errores de medicin (la falta de fiabilidad de los instrumentos) en vez de suponer que no existen. Para la toma de decisiones tenemos que asumir las limitaciones que nuestros instrumentos tienen de hecho. 3 Otra serie de aplicaciones de la correccin por atenuacin tienen que ver con lo que suele denominarse validez predictiva, o correlacin entre un predictor X y un criterio Y. El predictor puede ser, por ejemplo, un examen o un test de admisin, y el criterio (que se desea predecir) pueden ser calificaciones, un examen final, o cualquier otra medida que refleje xito. En estos casos el problema est en el criterio: la falta de fiabilidad del criterio hace bajar la correlacin entre predictor y criterio, y el test predictor puede parecer menos vlido de lo que realmente es. En estos casos se aplica esta frmula:

23 Segn Nunnally (1978) no deben ser inferiores a N =300 24 Cuando se utiliza esta correccin por atenuacin en medidas que no son unidimensionales, el valor de la fiabilidad puede superar el valor de 1 (Schmitt, 1996).

Correlacin y covarianza

31

rxycorregida =

rxy ryy

[12]

rxy = correlacin calculada entre el predictor (X) y el criterio (Y) ryy = fiabilidad del criterio

Si comparamos esta frmula con la anterior, vemos que hemos suprimido del denominador la fiabilidad del predictor; slo se ha corregido la correlacin por la falta de fiabilidad en el criterio. Lo que nos interesa conocer en estos casos es la correlacin entre el predictor (X, por ejemplo un examen de ingreso), con los errores y la fiabilidad que de hecho tenga, y el criterio (Y) si tuviera la mxima fiabilidad. Esta correlacin nos indicar mejor la calidad del predictor. En los problemas de prediccin, la fiabilidad del predictor impone un lmite en su capacidad de predecir, y con esa limitacin hay que contar. En cambio la falta de fiabilidad del criterio lo que hace es obscurecer la capacidad predictora del test o instrumento utilizado como predictor. Muchos de los llamados coeficientes de validez (que en este caso no son otra cosa que coeficientes de correlacin entre predictor y criterio) aportan de hecho poca informacin o son de interpretacin ambigua porque no se ha tenido en cuenta la fiabilidad del criterio. Un problema que suele encontrarse en estos planteamientos es la dificultad de calcular la fiabilidad del criterio. Frecuentemente todo el inters se centra en el predictor (qu test se utiliza, etc.) y se descuida la calidad y fiabilidad del criterio (o variable que se pretende predecir, por ejemplo notas, xito acadmico, etc.)25.
4.1.3. Otras estimaciones de la correlacin modificando la fiabilidad

Existen otras frmulas para estimar la correlacin que obtendramos entre un predictor (X) y un criterio (Y), no si tuvieran la mxima fiabilidad, sino simplemente una fiabilidad distinta. Por fiabilidad distinta no hay que entender una fiabilidad mayor necesariamente, tambin podra ser menor. Puede suceder que con tests ms breves (y probablemente de una fiabilidad menor pero con el consiguiente ahorro econmico, de tiempo, etc.) obtengamos casi los mismos resultados que con tests ms largos. Este planteamiento puede tener su inters porque la fiabilidad depende (en parte) del nmero de tems (otras frmulas relacionan la longitud del test y fiabilidad). La fiabilidad perfecta no la tenemos nunca, pero s podemos conseguir que aumente mejorando la calidad de los tems y aumentando su nmero. Aunque este tipo de planteamientos se presentan sobre todo cuando interesa predecir el xito (en seleccin de personal, por ejemplo) estas frmulas son aplicables tambin para analizar cualquier coeficiente de correlacin entre dos variables que en un sentido ms propio no puedan calificarse como predictor y criterio. Lo que se plantea con ms frecuencia es estimar la correlacin entre X e Y si aumentamos la fiabilidad de ambos instrumentos (aadiendo ms tems). La frmula aplicable en estos casos es la siguiente: rxycorregida = r xy r' xx r' yy rxx r yy [13] rxy r'xx y r'yy rxx y ryy = correlacin obtenida entre X e Y = coeficientes de fiabilidad distintos (nuevos, deseados) = coeficientes de fiabilidad obtenidos de hecho

25 Cuando se pretende predecir xito acadmico (a partir de un test, de datos previos) el criterio suele ser nota media final

con frecuencia poco fiable o de fiabilidad imposible de calcular. En estos casos (y otros) conviene disponer de varios criterios de xito (nmero de sobresalientes, de suspensos, notas en determinadas asignaturas, etc.)

Correlacin y covarianza

32

Si solamente vamos a modificar el coeficiente de fiabilidad de uno de los dos instrumentos (X en este caso, pero podra ser Y) la frmula es sta: rxycorregida = rxy r' xx rxx [14] rxy = correlacin obtenida entre X e Y r'xx = coeficientes de fiabilidad en X distinto rxx = coeficientes de fiabilidad obtenido en X

El coeficiente de fiabilidad de X distinto puede ser menor, por ejemplo en una versin reducida (y ms econmica o ms cmoda) del mismo test. En este caso (frecuente) podemos suponer que no nos es fcil modificar, e incluso calcular, la fiabilidad del criterio.
4.1.4. Relacin entre longitud del test y fiabilidad y longitud del test y correlacin

Existen otras frmulas que relacionan: a) El nmero de tems y la fiabilidad de cualquier test (al aumentar el nmero de tems la fiabilidad tiende a aumentar); las frmulas que relacionan el nmero de tems y la fiabilidad suelen verse en el contexto de la fiabilidad. b) La correlacin entre X e Y y el nmero de tems (la longitud) de X (X es el test predictor que se controla con ms facilidad). Estas frmulas, y otras (como las que vemos en el apartado siguiente), pueden encontrarse con facilidad en textos de psicometra y de estadstica aplicada a la educacin26. Cuando se trata de aumentar el nmero de tems (para que suban la fiabilidad o un coeficiente de correlacin), se supone que los nuevos tems son del mismo estilo (miden lo mismo, de formulacin parecida,. De semejante dificultad, etc.) que los que ya tenemos; como esto no suele ser as exactamente, habra que hablar de estimaciones de la nueva fiabilidad o correlacin al aumentar el nmero de tems. Estas frmulas son de una utilidad en general muy limitada, pero pueden tener su inters cuando nos interesa construir o modificar un test para que tenga una clara validez predictiva o al menos una mayor validez (es decir, una mayor correlacin entre el predictor y el criterio) que la que disponemos (por ejemplo en procesos de seleccin, admisiones, etc.; buscamos una correlacin clara con criterios definidos); a la vez podemos controlar la fiabilidad del test predictivo aumentando el nmero de tems. Estas frmulas suelen aplicarse: a) En aquellos tests que se pueden manipular con facilidad porque resulta fcil aumentar el nmero de tems, como puede ser un examen objetivo de conocimientos. b) En situaciones en las que es de gran inters la validez predictiva (como en procesos de admisin o seleccin, que por otra parte tampoco suelen limitarse a un test). No es habitual utilizar estas frmulas con otros tipos de tests (por ejemplo en tests de personalidad, inteligencia, etc.,) ya hechos y publicados, y que ya tienen el nmero de tems decidido por el constructor del test.
4.2. Los coeficientes de correlacin corregidos por restriccin de la amplitud

Ya hemos visto que cuando la muestra es ms homognea (los sujetos son muy parecidos unos a otros en las dos o en una de las dos variables) baja el valor del coeficiente de correlacin. No se comprueban relaciones si los sujetos no son distintos en las dos variables. El que los coeficientes de correlacin sean menores cuando la muestra es homognea plantea tambin problemas de validez predictiva en situaciones de seleccin.

26 Las frmulas que relacionan la fiabilidad y el nmero de tems pueden verse en Morales, Urosa y Blanco (2003).

Correlacin y covarianza

33

Vamos a suponer que ponemos un test de seleccin (el test X, el predictor) para admitir a los futuros alumnos de una universidad y nos quedamos con los mejores, los que puntan muy alto en el test X. Entre los alumnos admitidos habr menos diferencias en lo que mida el test X que entre todos los que se presentaron a las pruebas de admisin; hemos homogeneizado la muestra mediante el proceso de seleccin. Posteriormente queremos comprobar la validez del test X, y calculamos la correlacin entre el test X y el criterio Y (por ejemplo calificaciones, o una prueba objetiva de rendimiento). Podemos encontrarnos con que la correlacin es muy pequea y concluir que el test no es vlido (hay una relacin muy pequea entre el predictor y el criterio). Esta conclusin puede ser discutible: la correlacin la hemos calculado solamente con los alumnos admitidos y no con todos los que se presentaron inicialmente y de los que tenemos datos en el test X. La varianza en X de los admitidos es lgicamente ms pequea que la varianza calculada en todos los que se presentaron, admitidos y no admitidos, y una varianza menor (grupo ms homogneo) hace bajar la correlacin entre X e Y. En estas situaciones podemos estimar la correlacin entre X e Y en el caso de que todos hubieran sido admitidos. Esta correlacin (se trata de una estimacin), calculada con todos los presentados, es la que podra darnos una idea mejor sobre la validez predictiva del test X. Esta correlacin estimada se puede calcular mediante esta frmula:
rxy

Rxy =

i s [r ( i )2 ] s
2 xy

[15]

[1 -

2 rxy ] +

Rxy = estimacin de rxy si la calculramos en toda la muestra inicial; rxy = correlacin entre X e Y obtenida en la muestra seleccionada; i = desviacin tpica en X calculada en toda la muestra inicial (admitidos y no admitidos) s = desviacin tpica calculada en X en la muestra seleccionada (admitidos solamente)

sta es la frmula que suele encontrarse en los textos (y por esta razn la ponemos aqu), pero esta otra expresin de la misma frmula puede resultar ms sencilla27: Rxy =
Urxy (U - 1)rxy
2 2

+1

[16]

donde U =

i s

y Rxy y rxy como antes

Por ejemplo: en un test de seleccin para entrar en una universidad encontramos que En la muestra inicial (todos los candidatos que se presentan a la seleccin, incluidos naturalmente los que no admitidos) la desviacin tpica es i = 6 En la muestra seleccionada la desviacin tpica es s = 3. La correlacin entre el test de seleccin y un criterio (por ejemplo, nota media al terminar el primer curso) es de .30; esta correlacin la calculamos solamente en la muestra seleccionada, como es natural. Podemos preguntarnos Cul hubiera sido esta correlacin si la hubiramos podido calcular en toda la muestra que se present al examen de admisiones? Substituyendo tenemos:
(.30 ) 6 3 6 3
2

En la primera frmula [15]:

Rxy =
2

.60 1.4528

= .41

[1- .30 ]+ [.30( ) ]

27 Puede verse comentada en Hunter y Schmidt (1990, pp.125ss); los coeficientes de correlacin corregidos por restriccin de la amplitud estn bien tratados en Guilford y Fruchter (1973)

Correlacin y covarianza

34

En la segunda frmula [16] (U = 6/3 = 2)

Rxy =

2(.30) (2 1).30 +1
2 2

.60 1.442

= .41

El diferente redondeo de los decimales en los diferentes pasos hace que los resultados no sean siempre exactamente iguales, pero la diferencia es pequea. Vemos que la correlacin ha subido de .31 (calculada con los seleccionados) a .41 (una estimacin de la que hubiramos obtenido si todos hubieran sido admitidos).
4.3. Correccin de las correlaciones de una parte con el todo

A veces nos interesa conocer la correlacin entre una parte y un total al que esa parte tambin contribuye. El ejemplo ms comn (no el nico posible) es cuando calculamos la correlacin entre cada uno de los tems de un test o escala y el total del test. Este clculo es interesante: a mayor correlacin entre un tem y el total, ms tiene que ver ese tem con lo que miden los dems tems (son los que discriminan ms, y los que mejor representan el constructo subyacente o rasgo que se desea medir). En la construccin y anlisis de instrumentos de medicin este paso es de mucho inters. El problema surge de que ese tem tambin est sumado en el total, con lo que la correlacin resultante es artificialmente alta. En realidad lo que nos interesa es la correlacin de cada tem con la suma de todos los dems, es decir, con el total menos el tem en cuestin. En algunos programas de ordenador28 ya est programada la correlacin de cada tem con el total menos el tem, pero no siempre disponemos de estos programas. A veces lo ms cmodo (cuando no se dispone de un programa adecuado) es calcular la correlacin de cada tem con el total, sin ms29. En este caso estas correlaciones artificialmente altas podemos dejarlas en su magnitud exacta aplicando despus la frmula [17]. ri(T-i) =

riT t - i

+ - 2riT T i
2 T 2 i

[17]

ri(T-i) = Correlacin entre un tem (o parte de un total) y el total menos ese tem (o correlacin entre un tem y la suma de todos los dems) riT = Correlacin tem-total i y : desviaciones tpicas del tem y del total

Sobre esta correccin: a) Suponemos que la correlacin de cada tem con el total (riT) est calculada con un programa de ordenador, lo mismo que las desviaciones tpicas de los tems y de los totales. Con estos datos es fcil aplicar esta frmula [17] (o programarla). b) Cuando los tems son muchos la diferencia entre riT y ri(T-i) es pequea. c) En estas situaciones y para valorar estos coeficientes, es til estimar cul sera el valor medio de la correlacin de cada tem con el total cuando 1) realmente no hay relacin (correlacin cero entre los tems) y 2) todos los tems o partes tuvieran igual varianza; en este caso la frmula [18] nos da la estimacin de la correlacin de cada tem con el total 30: riT =
1 k [18] donde k es el nmero de tems

28 Como en el SPSS 29 Podemos hacerlo fcilmente con una hoja de clculo tipo EXCEL 30 Guilford y Fruchter, 1973:321

Correlacin y covarianza

35

5. Correlaciones parciales
Una correlacin parcial entre dos variables es una correlacin que anula o neutraliza una tercera variable (o ms variables): es la correlacin entre dos variables igualando a todos los sujetos en otras variables. Aqu tratamos solamente de las correlaciones parciales de primer orden. Se denominan correlaciones parciales de primer orden aquellas en la que neutralizamos (o mantenemos constante) solamente una tercera variable; en las correlaciones parciales de segundo orden neutralizamos dos variables; el procedimiento es similar aunque la frmula es algo ms complicada si no la tenemos ya programada. En cambio las correlaciones parciales de primer orden son sencillas y muy tiles. La correlacin parcial, como todos los coeficientes de correlacin relacionados con el coeficiente r de Pearson, comprueba solamente relaciones rectilneas.
5.1. Utilidad de las correlaciones parciales

La correlacin parcial es til para controlar variables y puede substituir determinados diseos experimentales en los que se pretende no tener en cuenta el influjo de una o dos determinadas variables Los casos en que se utiliza ms son aquellos en los que se pretende controlar variables como la edad y la inteligencia. Por ejemplo la correlacin entre peso y altura en un grupo de nios de distinta edad se ver influida por la edad. Los nios mayores en edad tambin sern de ms peso y de mayor estatura. La misma correlacin entre peso y altura en grupo de nios de la misma edad ser menor. La diversidad en edad hace que la relacin entre peso y altura aumente. Si queremos conocer la relacin entre peso y altura independientemente de la edad, podramos hacer el clculo utilizando una muestra de la misma edad, o comprobando la correlacin por separado en grupos homogneos en edad. Otra manera de calcular la correlacin entre peso y altura prescindiendo de la edad (o suponiendo que todos los sujetos tienen la misma edad) es a travs de las correlaciones parciales.
5.2. Frmula de las correlaciones parciales de primer orden

r12.3 =

r12 - r13 r23 (12 2 r13 )(1 - r 23 )

[19]

r12.3 es la correlacin entre las variables 1 y 2 neutralizando la variable 3 (como si todos los sujetos estuvieran igualados en la variable 3)

Lo veremos en un ejemplo31. En la tabla 9 tenemos las correlaciones entre Ingls, Matemticas (dos exmenes) y dos tests de inteligencia, abstracta y verbal. El nmero de sujetos es de 2172 (datos reales).
1. Ingls 1 .338 .330 .224 2. Matemticas 1 .392 379 3 Intel. verbal 1 .423 4.Intel. abstracta

1. Ingls 2. Matemticas 3. Intel. Verbal 4. Intel. Abstracta

Tabla 9 Entre Ingls y Matemticas tenemos una correlacin de .338. Podemos pensar que en buena medida esta relacin est influida por la inteligencia verbal. Cul sera la correlacin entre Ingls y

31 Tambin podemos calcular las correlaciones parciales en programas de Internet (Anexo II) como VassarStats

Correlacin y covarianza

36

Matemticas si todos los sujetos tuvieran idntica inteligencia verbal (tal como la mide un test determinado)? Aplicamos la frmula anterior; los subndices 1 y 2 corresponden a las variables 1 y 2 (Ingls y Matemticas); la variable 3 es la inteligencia verbal (r12.3: despus del punto se pone el smbolo de la variable anulada) r12.3 =
r12 - r13r23
2 2 (1- r13 )(1 - r23 )

.338 (.330 x.392) (1 .330 2 )(1 392 2 )

= .240

Vemos que la correlacin entre Ingls y Matemticas baja de .338 a .240 cuando neutralizamos las diferencias en inteligencia verbal. Podemos preguntarnos lo mismo con respecto a la inteligencia abstracta, cual ser la relacin entre Ingls y Matemticas suponiendo que todos los sujetos estn igualados en inteligencia abstracta? Utilizamos la misma frmula, pero teniendo en cuenta que el sufijo 3 de la frmula denota ahora la variable 4 que corresponde a la inteligencia abstracta, por lo que en la frmula podemos substituir el 3 por el 4 para evitar confusiones. r12.4 =
r12 - r14 r24 (1 2 r14 )(1 2 - r24

.338 (.224x.379) (1 .224 2 )(1 .379 2 )

= .281

La correlacin entre Ingls y Matemticas tambin baja (de .338 a .281) cuando igualamos a todos los sujetos en inteligencia abstracta, pero menos que cuando los igualamos en inteligencia verbal, ya que el Ingls tiene una mayor relacin con la inteligencia verbal (.330) que con la abstracta (.224). Si quisiramos neutralizar simultneamente las dos variable de inteligencia tendramos que utilizar la frmula de las correlaciones parciales de segundo orden.
5.3. Cundo una correlacin parcial es estadsticamente significativa

Los grados de libertad son en este caso N - m, donde N es el nmero de sujetos y m el nmero de variables. En nuestro ejemplo (cuatro variables) los grados de libertad son N - 4; en este caso 2172 - 3 = 2168. Para verificar si un coeficiente de correlacin parcial es estadsticamente significativo podemos aplicar esta frmula (con ms seguridad cuando N > 100): z= r0 1 Nm [20]
N = nmero de sujetos m = nmero de variables. En las tablas de la distribucin normal vemos:

z > 1.96, p< .05 z > 2.56, p < .01 z > 3.30, p < .001

El denominador de la frmula (1/ N - m ) es el error tpico (desviacin tpica) de la distribucin de correlaciones parciales cuando la media es cero. Tambin podemos calcular directamente el valor necesario de r para unos grados de libertad (N m) determinados, as para p < .05, necesitamos este valor de r: r=
1.96 Nm

[21]

En los ejemplos utilizados, con un nmero tan grande de sujetos, todos los coeficientes son claramente significativos, independientemente de que su magnitud la juzguemos grande o pequea.

Correlacin y covarianza

37

Tambin pueden calcularse correlaciones parciales de segundo orden (y tercer orden, etc.) con las que neutralizamos ms de una variable; las frmulas son parecidas pero algo ms complejas y normalmente se hacen con programas de ordenador.

6. Cmo simplificar una matriz de correlaciones: el cluster analysis32


Qu pretendemos con el cluster analysis: simplemente simplificar la informacin de una matriz de correlaciones, verificando cmo tienden a agruparse las variables. Se trata por lo tanto de reducir la informacin para facilitar la interpretacin. Si las distintas variables se pueden agrupar en unos pocos conjuntos en los que podemos ver un significado comn a un nivel ms genrico, resulta ms fcil la interpretacin, sobre todo cuando hay muchos tems. Al final del proceso vamos a agrupar los tems que tienden a tener correlaciones ms altas entre s que con los dems, dndonos una idea de la estructura subyacente. Hay varios procedimientos para hacer este cluster analysis, algunos ms complicados que el expuesto aqu, pero ste es sencillo y con frecuencia suficientemente orientador. Ya a otro nivel tenemos el anlisis factorial, que podemos hacer con programas de ordenador, pero el cluster analysis que explicamos aqu puede dar una buena idea sobre la estructura de una serie de variables a partir de la matriz de intercorrelaciones. Lo explicamos con un ejemplo. Los datos (tabla 10) corresponden a un cuestionario de comunicacin interpersonal33; los tems son temas posibles de conversacin (puestos aqu de manera abreviada; son temas pretendidamente distintos en niveles de intimidad); una puntuacin alta en un tem es que uno se abre con facilidad en ese mbito temtico.

32 Cluster analysis es obviamente una expresin inglesa; en espaol suele traducirse como anlisis de agrupamientos y quizs ms frecuentemente anlisis de clusters; tambin est aceptado el uso de la expresin inglesa, cluster analysis. 33 El cuestionario es una adaptacin de uno de los que presenta Jourard (1971)

Correlacin y covarianza

38

10

11

12

13

14

15

1. Poltica .392 .371 .291 .256 .105 .211 .234 .193 .316 .222 .190 .335 .297 .282 2. Lo que me gusta de TV. 1 .327 .268 .315 .158 .117 .251 .260 .254 .287 .261 .455 .295 .243 3. Moral sexual .327 1 .673 .466 .355 .391 .337 .426 .348 .384 .359 .469 .243 .401 4. Me gusta en otro Sexo 2268 .673 1 .473 .415 .321 .315 .503 .490 .435 .562 .450 .246 .398 5. Limitac. propias .315 .466 .473 1 .391 .188 .310 .557 .522 .347 .566 .393 .229 .514 6. Limit. en padres .158 .335 .415 .391 1 .237 .334 .409 .333 .328 .368 .374 .478 .304 7. Problemas sexuales .117 .391 .321 .188 .237 1 .261 .312 .300 .156 .346 .170 .290 .313 8. Dinero que dispongo .251 .237 .315 .310 .334 .261 1 .378 .388 .405 .254 .320 .599 .220 9. Mi aspect.fsico .260 .426 .503 .557 .409 .312 .378 1 .487 .333 .437 .359 .291 .475 10. Ms me gusta en m .254 .348 .490 .522 .333 .300 .388 .487 1 .330 .453 .382 .290 .435 11. Plan fut. profesional .287 .384 .435 .347 .328 .156 .405 .333 .330 1 .271 .457 .260 .129 12. Mis depresiones .261 .359 .562 .566 .368 .346 .254 .437 .453 .271 1 .319 .235 .551 13. Divers. favoritas .455 .469 .450 .393 .374 .170 .320 .359 .382 .457 .319 1 .223 .395 14. Econom familiar .295 .243 .246 .229 .478 .290 .599 .291 .290 .260 .235 .223 1 .269 15. Sentim. profundos .243 .401 .398 .514 .304 .313 .220 .475 .435 .129 .551 .395 .269 1 Tabla 10: Matriz de intercorrelaciones (cuestionario de comunicacin N = 158, alumnas de la Univ. Comillas, 1990)

1. Como paso previo se anota cul es la correlacin mayor de cada tem (no es necesario teniendo la matriz a la vista, pero se facilita el proceso). El tener a la vista las segundas correlaciones mayores tambin ayuda. En este caso, las correlaciones mayores de cada tem las tenemos en la tabla 11.

tem n 1 2 3 4 5 6 7 8

Tiene su mayor correlacin con Item n el tem n 2 (.392) 9 13 (.455) 10 4 (.673) 11 3 (.673) 12 12 (.566) 13 14 (.478) 14 3 (.391) 15 14 (.599) Tabla 11

Tiene su mayor correlacin con el tem n 5 (.557) 5 (.522) 13 (.457) 5 (.566) 3 (.469) 8 (.599) 12 (.551)

2. Y uno se pregunta cual es la mayor correlacin de todas?. Y se dibuja a modo de sociograma. En este caso la correlacin mayor est entre el 3 y el 4:

34

Correlacin y covarianza

39

3. Y ahora nos preguntamos: de los tems que quedan hay alguno que tenga su correlacin ms alta con el 3 o con el 4? Pues s, el 7 tiene su correlacin mayor con el 3, y tambin el 13 tiene su mayor relacin con el 3 y adems no la tiene baja con el 4, con lo que el cluster quedara as:

34

13

Aqu tenemos ya un curioso primer cluster provisional que habr que examinar mejor ms adelante, porque el tem n 2 tiene su mayor correlacin con el 13 (atendiendo al contenido el 13 (diversiones) pega ms con el 2). Los tems 3, 4 y 7 son de un contenido ms ntimo. Ya podemos ir intuyendo a dnde nos va a llevar este cluster analysis 4. Ya no queda ningn tem que tenga su mayor relacin con el n 3 o con el n 4. Volvemos a comenzar para localizar un segundo cluster: de las correlaciones mayores de cada tem que nos quedan, cual es la mayor? Es la correlacin entre el 8 y el 14, y ya tenemos el ncleo de un segundo cluster. Y nos preguntamos como antes: de las correlaciones mayores de los tems que nos quedan alguna lo es con el tem 8 o 14? S, el 6, que tiene su mayor relacin con el 14; y tenemos un segundo cluster de tipo familiareconmico.

8 14

8 14

5. Continuamos con nuestra bsqueda y de todas las correlaciones mximas 5 12 de cada tem que nos van quedando observamos que la mayor es la del 5 y 12, y que adems el 9 y el 10 tienen su mayor relacin con el 5, y el 15 la 9 10 15 tiene con el 12, con lo que nos queda un tercer cluster que emerge del yo secreto y confidencial: 6. Vamos a por otro cluster. La correlacin mayor que nos queda es la del tem 2 y 13. Pero resulta que el 13 ya est en el primer cluster. De todas maneras vamos a ver qu pasa con este cluster; el 13 habr que dejarlo en este cluster o en el primero de todos. Los tems que tienen su mayor correlacin con el 2 o con el 13 son el 1 (con el 2), y el 11 (con el 13); adems el 1 no va mal con el 13, tiene ah su tercera mayor correlacin y no muy baja en este contexto. Nos quedara provisionalmente algo as:

2 13

2 13

11

Este cluster tiene coherencia conceptual pues se trata de tems que pertenecen aparentemente al yo abierto. Sin embargo el 13 nos estropea el conjunto porque tambin est en el primer cluster. Dentro de la imprecisin de estos mtodos, una segunda regla para asignar un tem a un cluster es meterlo con el que tenga una correlacin media mayor. Vamos a ver qu pasa con el tem 13: Correlaciones del 13 con el primer cluster: .469 (con el 3) .450 (con el 4) .170 (con el 7) correlacin media = .363

Correlaciones del 13 con el ltimo cluster:

.455 (con el 2) .335 (con el 1) correlacin media = .416 .457 (con el 11)

Decididamente el 13 tiene que ver ms con los tems del ltimo cluster; lo dejamos en ste y lo quitamos del 1 que hemos encontrado. Nos quedan los clusters puestos en la tabla 12; en cada uno se puede calcular la correlacin media (que indica claridad, consistencia inter-tem):

Correlacin y covarianza

40

cluster 1
3 4

cluster 2
8 14

cluster 3
5 12

cluster 4
2 13

10

15

11

correlacin media: r = .462 relacin con el sexo

correlacin media: r = .438 dinero y familia

correlacin media: r = .499 cosas ms personales

correlacin media: r = .358 temas fciles

Tabla 12 El procedimiento es sencillo: 1 Para comenzar en cada tem buscamos con qu otro tem tiene su mayor correlacin (su pareja ms clara; y no viene mal tener presente tambin con qu tem su segunda mayor correlacin) 2 Se localiza la correlacin mayor de todas, y ya tenemos dos tems que sern el ncleo del primer cluster; 3 Se localizan los tems que tienen sus mayores correlaciones con cualquiera de los dos tems localizados en el paso anterior, y ya tenemos el primer cluster 4 Buscamos la correlacin mayor de las que nos quedan, y ya tenemos el ncleo de un segundo cluster, y se sigue el proceso visto en el paso anterior. 5 Los tems dudosos los situamos en el cluster con el que tiene su mayor correlacin media Este mtodo es sencillo pero puede ser un tanto impreciso (depende de los datos). Ahora vendra el anlisis cualitativo (intentando encontrar sentido a los tems que van juntos en el mismo cluster) y anlisis cuantitativos adicionales: 1 Una correlacin media ms alta indica cluster (anlogo a los factores rotados del anlisis factorial) ms claro, ms definido; 2 Las medias de cada cluster (no medias de las correlaciones sino de los tems) daran el nivel de apertura o secretismo de estos clusters; 3 Habra que ver o explorar relaciones inter-cluster. 4 Un estudio ms completo nos llevara a explorar diferencias entre grupos (por ejemplo segn el sexo) en los distintos factores (clusters) o en cada tem; tambin se podran explorar relaciones entre tems o clusters y otras variables conocidas.

7. Coeficientes de correlacin ms importantes


Nos hemos centrado en el coeficiente r de Pearson, pero hay otros muchos coeficientes de relacin o asociacin. En la tabla 13 damos una breve informacin sobre los ms utilizados. Esta informacin puede servir de gua o de referencia rpida, aunque para utilizar algunos de estos coeficientes sea necesario buscar informacin adicional. De estos coeficientes el ms utilizado e importante es el primero, el coeficiente r de Pearson.

Correlacin y covarianza

41

Los coeficientes 2, 3 y 4 podemos decir que pertenecen a la familia de los coeficientes de Pearson; son aplicaciones especiales de este coeficiente. Los coeficientes 5 y el 6 (rho y tau) son apropiados para datos ordinales, cuando el dato que manejamos es el rango o nmero de orden del sujeto (u objeto) y son especialmente tiles con muestras pequeas o muy pequeas34. Los coeficientes 7, 8 y 9 son apropiados para datos nominales (sujetos clasificados en categoras) y estn relacionados con el ji cuadrado, de hecho se utilizan como complemento del ji cuadrado. El coeficiente 7 (phi), para datos genuinamente dicotmicos (1 0) podemos tambin calcularlo con las mismas frmulas que el coeficiente r de Pearson. Tabla 13
coeficiente
1 Coeficiente r de Pearson (producto-momento)

variables
las dos continuas

comentarios
Es el coeficiente mejor en conjunto, el ms estable y el ms utilizado; cuando no se especifica otra cosa se supone que es ste el coeficiente calculado; Supone que la distribucin de las variables es normal (en la poblacin, no en la muestra utilizada; esta suposicin tambin es necesaria en otros coeficientes derivados del de Pearson); Aunque hay varias frmulas para su clculo, ninguna es cmoda; el clculo suele estar programado en calculadoras y programas estadsticos; Existen tablas para comprobar el nivel de significacin en muestras pequeas, o se utiliza la frmula apropiada en muestras grandes; El coeficiente r de Pearson puede transformase en el estadgrafo Z de Fisher (mediante tablas) que permite resolver determinados problemas, como calcular medias de correlaciones (aunque es preferible calcular la media ponderada, multiplicando cada coeficiente por su N) o comprobar si dos coeficientes de correlacin son estadsticamente distintos; Se trata siempre de correlaciones lineares, como todos los dems, excepto el coeficiente (eta) para relaciones curvilneas.

34 Estos coeficientes para datos ordinales suelen venir bien explicados en los textos de mtodos estadsticos no paramtricos, como en los muy conocidos de Siegel (1972) y Siegel y Castellan (1988).

Correlacin y covarianza

42

coeficiente
2 Coeficiente biserial puntual (rbp)

variables
una continua y otra dicotmica

comentarios
Se trata de un caso particular del coeficiente r de Pearson, y aunque hay frmulas especficas y mtodos rpidos mediante grficos (baco de Dingman) se pueden utilizar las frmulas de la r de Pearson y las calculadoras y programas que tienen este coeficiente ya programado; Para comprobar el nivel de significacin se pueden utilizar las mismas frmulas y tablas que con la r de Pearson; Aunque es en todo equivalente al coeficiente r de Pearson, el trmino con que se denomina (biserial-puntual) indica que una de las variables es dicotmica (1 0); Este coeficiente se puede utilizar cuando una variable es genuinamente dicotmica, es decir, no dicotomizada artificialmente (como puede ser clasificar a los sujetos entre apto y no apto); en estos casos el coeficiente apropiado es el biserial; Tenemos variables dicotmicas en sentido propio cuando slo hay dos clasificaciones que se excluyen mutuamente, como varn-mujer, verdadero-falso, acierto-error (en tests objetivos), etc.; tambin pueden tratarse como variables dicotmicas las que tericamente son continuas (como alcohlico-no alcohlico, apto-no apto, bueno-malo) cuando existe un claro punto de inflexin, una distribucin bimodal que permite clasificar a los sujetos en una genuina dicotoma (1 0).

3 Coeficiente de correlacin biserial (rb)

una variable continua, Es una estimacin de la r de Pearson, pero menos fiable que la y otra dicotomizada r o la rpb; para los mismos datos da un coeficiente mayor que artificialmente rpb; (continua pero A veces el coeficiente mximo es mayor que 1 (en dividida en dos distribuciones no normales, bimodales); categoras, como apto y no apto) En general no es aconsejable si hay otras alternativas, y en caso de duda es preferible r o rpb; a veces puede ser til el dicotomizar una variable por falta de datos fiables; en este caso se debe dicotomizar la variable continua por la mediana. las dos variables continuas pero dicotomizadas artificialmente Es una estimacin aproximada del coeficiente r de Pearson y menos fiable; no se debe emplear con pocos casos (200 sujetos o ms); no es fcil comprobar su nivel de significacin; Si se puede, es preferible utilizar otra alternativa (r de Pearson o .) las dos variables Es la mejor alternativa no paramtrica al coeficiente r de continuas pero Pearson; se trata del coeficiente r calculado con los rangos o ordenadas por rangos nmero de orden de cada puntuacin; (el rango o nmero de Da un coeficiente algo inferior a la r de Pearson calculado con orden es el dato que se los mismos datos directos; utiliza) Fcil y rpido de clculo; muy til con datos ordinales y con no ms de 30 sujetos o pares de puntuaciones; Existen tablas y frmulas para comprobar su significacin.

4 Coeficiente de correlacin tetracrica (rt)

5 Coeficiente rho () de Spearman (tambin se utiliza el smbolo sr).

Correlacin y covarianza

43

coeficiente
6 Coeficiente Tau () de Kendall

variables

comentarios

las dos variables No es comparable directamente con el coeficiente r de continuas y ordenadas Pearson; por rangos Fcil y til con muestras muy pequeas (10 sujetos o menos; si son ms es preferible el coeficiente de Spearman); Existen tablas y frmulas para comprobar su significacin; una modalidad es el coeficiente de correlacin parcial con el mismo mtodo.

7 Coeficiente phi ()

las dos variables dicotmicas

Relacionado con el 2; el valor de significacin es el mismo que el de 2; no admite valores negativos; Una limitacin es que el valor mximo no es 1 necesariamente; slo se puede alcanzar cuando la proporcin de unos es idntica en las dos variables; Especialmente til para calcular las correlaciones entre tems dicotmicos (de pruebas objetivas, tests, etc.).

8 Coeficiente phi () de Cramer =

2 N[k 1]

(k = nmero de columnas o filas, el que sea menor)

las dos variables Derivado tambin del 2, el valor de significacin es el mismo categricas pero con que el de 2; es el coeficiente apropiado cuando hay ms de ms de dos criterios de dos filas o columnas. Un coeficiente semejante es el clasificacin en una o coeficiente T de Tschuprow; en las dos variables Vara de 0 a 1 independientemente del tamao de la tabla y por esto es una alternativa preferible al coeficiente C de Contingencia; no admite valores negativos.

9 Coeficiente C de Contingencia C=

2 N + 2

las dos variables Es el coeficiente relacionado con 2 ms utilizado aunque no divididas en dos o ms es siempre el preferible; es significativo si lo es el 2; categoras El valor mximo nunca es 1 y depende del nmero de filas y columnas por lo que slo son comparables los coeficientes que proceden de cuadros con idntico nmero de filas y columnas; no admite valores negativos. las dos variables continuas Es el coeficiente apropiado para relaciones curvilneas; si se calcula el coeficiente r de Pearson cuando hay relacin curvilnea, el valor resultante es ms bajo; El valor de es siempre positivo.

10 Coeficiente eta ()

Tabla 13

8. Coeficiente de correlacin: resumen


1. El coeficiente de correlacin expresa en qu grado los sujetos (u objetos, elementos) estn ordenados de la misma manera en dos variables simultneamente; as en el caso de relacin positiva y alta los sujetos tienen puntuaciones altas o bajas en las dos variable simultneamente. 2. Correlacin y covarianza expresan grado de relacin; su interpretacin es bsicamente la misma; el coeficiente de correlacin se calcula con puntuaciones tpicas y la covarianza con puntuaciones directas. 3. Un coeficiente de correlacin se puede interpretar sin entender por qu o cmo cuantifica el grado de relacin; sin embargo es fcil entenderlo y ayuda a la interpretacin porque pone de relieve la importancia de las diferencias. Podemos cuantificar (medir) el grado de relacin entre dos variables porque:

Correlacin y covarianza

44

a) Si hay relacin positiva 1. Los sujetos tendern a estar o por encima de la media en las dos variables o por debajo de la media en las dos variables; 2. Las diferencias (expresadas en puntuaciones z) con respecto a las dos medias sern del mismo signo, luego el producto de estas diferencias ser positivo y su suma grande (y dividida por N nos da el coeficiente de correlacin) b) Si hay relacin negativa Los sujetos tendern a estar simultneamente por encima de la media en una variable y por debajo de la media en la otra; las diferencias con respecto a la media tendern distinto signo y al multiplicar una por la otra el signo ser negativo (- por +); la suma de estos productos ser grande pero con signo menos. c) si no hay relacin 1. Unos sujetos estarn por encima de la media en las dos variables, otros por debajo de la media en las dos variables, otros por encima de la media en una variable y por debajo de la media en la otra variable 2. Las diferencias (expresadas en puntuaciones z) con respecto a las dos medias sern unas del mismo signo (y su producto positivo) y otras de signos distintos (y su producto negativo). la suma de estos productos tender hacia cero en la medida en que no haya relacin. 4. Los valores extremos posibles son 0 (ausencia de relacin) y 1 (mxima relacin). Si r = 1, el orden (posicin relativa) de los sujetos es el mismo en las dos variables. Como conocemos los valores ms altos y ms bajos posibles, podemos apreciar y valorar la magnitud de la relacin (poca hasta .30, alta a partir de .75). 5. La magnitud del coeficiente es independiente del signo; r =-.95 expresa ms relacin que r = +.75; el que la relacin sea positiva o negativa es algo distinto de que sea grande o pequea. 6. Una correlacin no puede interpretarse como prueba de una relacin causal. 7. Un coeficiente de correlacin estadsticamente significativo quiere decir que es muy improbable si no hay relacin en la poblacin: en muestras semejantes obtendramos un coeficiente de correlacin distinto de cero (pero no necesariamente de magnitud semejante al que hemos obtenido en nuestra muestra). 8. A partir del coeficiente de correlacin obtenido en una muestra y del tamao N de esa muestra, podemos estimar entre qu lmites se encuentra esa correlacin en la poblacin (intervalos de confianza). 9. Un coeficiente de correlacin no significativo no es prueba de que no haya relacin en la poblacin (podramos encontrarla quizs en muestras mayores, o utilizando otras medidas ms precisas, etc.) 10. Los coeficiente de correlacin tienden a bajar cuando: a) Las muestras son homogneas (sin diferencias en ambas variables no se detectan relaciones) b) Los instrumentos de medicin discriminan poco (no establecen bien las diferencias entre los sujetos) c) La fiabilidad de los instrumentos es baja

Correlacin y covarianza

45

9. Referencias bibliogrficas (citadas en notas)


ANSCOMBE F.J. (1973). Graphs in Statistical Analysis. American Statistician, 27 (Feb 1973), 17-21 BEHRENS, JOHN T. (1997). Toward a Theory and Practice of Using Interactive Graphics in Statistics Education. In GARFIEL, J. B. and BURRILL G. (Eds.) Research on the Role of Technology in Teaching and Learning Statistics (pp. 111-121). Voorburg, The Netherlands: Internacional Statistical Institute http://www.stat.auckland.ac.nz/~iase/publications/8/10.Behrens.pdf (consultado 16, 04, 07).
COHEN JACOB (1988). Statistical Power Analysis for the Behavioral Sciences, second edition. Hillsdale, N.J.: Lawrence Erlbaum. COHEN, PETER A. (1981). Student Ratings of Instruction and Student Achievement: A Meta-analysis of Multisection Validity Studies. Review of Educational Research, 51, 281-309

DALLAL, GERARD E. (last revision 2001). The Little Handbook of Statistical Practice (en Frank Anscombe's Regression Examples http://www.StatisticalPractice.com (consultado 16, 04, 07) DODSON, DAVID (2006). Data Graphics. City University, London, http://www.soi.city.ac.uk/~dcd/ig/s2viscom/lb_datg/l03.htm ETXCHEBERRIA, JUAN (1999). Regresin mltiple. Madrid: La Muralla. FOX, JOHN (1993). Regression diagnostics: An Introduction. En LEWIS-BECK, MICHAEL S. (Ed.). Regression Analysis. International Handbooks of Quantitative Applications in the Social Sciences, Volume 2. London: SAGE Publications, 245-334.
GUILFORD, J. P. AND FRUCHTER, B. (1973). Fundamental Statistics in Psychology and Education. New York: McGraw-Hill (en castellano, Estadstica aplicada a la psicologa y la educacin, 1984, Mxico: McGraw-Hill). HUNTER, JOHN E. and SCHMIDT, FRANK L., (1990), Methods of Meta-Analysis, Newbury Park, Sage Publications. JOURARD, SIDNEY M. (1971). Self-Disclosure, An Experimental Analysis of the Transparent Self. New York: Wiley-Interscience. LIGHT, RICHARD J., SINGER, JUDITH D. and WILLETT, JOHN B. (1990). By Design, Planning Research on Higher Education. Cambridge, Mass.: Harvard University Press. MORALES, PEDRO, UROSA, BELN y BLANCO, NGELES (2003). Construccin de escalas de actitudes Tipo Likert. Una gua prctica. Madrid: La Muralla. NUNNALLY, JUM C. (1978). Psychometric Theory. New York: McGraw-Hill. OSBORNE, JASON W. (2003). Effect sizes and the disattenuation of correlation and regression coefficients: lessons from educational psychology. Practical Assessment, Research & Evaluation, 8(11) http://PAREonline.net/getvn.asp?v=8&n=11

OSBORNE, JASON W. & OVERBAY, AMY (2004). The power of outliers (and why researchers should always check for them). Practical Assessment, Research & Evaluation, 9(6). Retrieved August 26, 2007 from http://PAREonline.net/getvn.asp?v=9&n=6
RANDOLPH, JUSTUS J. and EDMONDSON, R. SHAWN (2005). Using the Binomial Effect Size Display (BESD) to Present Magnitude of Effect Sizes to the Evaluation Audience. Practical Assessment, Research & Evaluation, 10 (4), http://pareonline.net/pdf/v10n14.pdf ROSENTHAL, ROBERT (1987). Judgment Studies, Design, analysis and meta-analysis. Cambridge: Cambridge University Press. ROSENTHAL, ROBERT and RUBIN, DONALD B. (1979). A Note on Percent Variance Explained as A Measure of the Importance of Effects. Journal of Applied Social Psychology, 9 (5), 395-396 ROSENTHAL, ROBERT and RUBIN, DONALD B. (1982). A Simple, General Purpose Display of Magnitude of Experimental Effect. Journal of Educational Psychology, 74 (2), 166-269 SCHMITT, NEAL (1996). Uses and abuses of Coefficient Alpha. Psychological Assessment, 8 (4), 350-353 (http://ist-socrates.berkeley.edu/~maccoun/PP279_Schmitt.pdf).

Correlacin y covarianza

46

SIEGEL, SYDNEY (1972). Estadstica no paramtrica. Mxico: Trillas

SIEGEL, SYDNEY and CASTELLAN JR., N. JOHN (1988). Nonparametric Statistics For the Behavioral Sciences. Second edition. New York: McGraw-Hill.

Correlacin y covarianza

47

ANEXO I Tablas del coeficiente de correlacin r de Pearson


Grados de libertad = N-2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 98 100 .05 .9969 .9500 .8783 .8114 .7545 .7067 .6664 .6319 .6021 .5760 .5529 .5324 .5139 .4973 .4821 .4683 .4555 .4438 .4329 .4227 .3809 .3494 .3246 .3044 .2875 .2732 .2609 .2500 .2405 .2319 .2242 .2172 .2108 .2050 .1996 .1986 .1946 .01 .9998 .9900 .9587 .9172 .8745 .8343 .977 .7646 .7348 .7079 .6835 .6614 .6411 .6226 .6055 .5897 .5751 .5614 .5487 .5368 .4869 .4487 .4182 .3932 .3721 .3541 .3386 .3248 .3127 .3017 .2919 .2830 .2748 .2673 .2604 .2591 .2540 .001 .9999 .9990 .9911 .9740 .9507 .9249 .8982 .8721 .8471 .8233 .8010 .7800 .7603 .7420 .7246 .7084 .6932 .6787 .6652 .6523 .5974 .5541 .5189 .4896 .4648 .4433 .4244 .4078 .3931 .3799 .3678 .3568 .3468 .3375 .3291 .3274 .3211

Con muestras grandes: z= r 1/ N-1

y consultar las tablas de la distribucin normal; z >1.96, p<.05 z >2.56, p<.01 z >3.3, p<.001

Correlacin y covarianza

48

ANEXO II: la correlacin en Internet


Estos son algunos de los recursos disponibles en Internet (no todo se refiere a lo expuesto en este documento). Los nmeros entre parntesis corresponden a las direcciones puestas al final. 1. La probabilidad exacta de cualquier valor de r http://graphpad.com/quickcalcs/PValue1.cfm (1) (se introducen el valor de r y los grados de libertad o N-2) http://department.obg.cuhk.edu.hk/ResearchSupport/Correlation_coeff.asp (2) (se introduce el valor de r y el tamao N de la muestra). http://faculty.vassar.edu/lowry/VassarStats.html (3)

2. Valores mnimos de r estadsticamente significativos (p =.05, .01 y .001 para cualquier valor
de N) http://department.obg.cuhk.edu.hk/ResearchSupport/Minimum_correlation.asp (2) 3. Intervalos de confianza (dados r y N) http://faculty.vassar.edu/lowry/VassarStats.html (3) http://glass.ed.asu.edu/stats/analysis/rci.html (6) 4. Correlacin parcial http://faculty.vassar.edu/lowry/par.html (3) (se introducen los coeficientes de correlacin entre tres variables y calcula la correlacin parcial ente dos coeficientes igualando a los sujetos en la tercera variable). http://home.clara.net/sisa/correl.htm (ver help correlation) (4) 5. Correlacin mltiple http://home.clara.net/sisa/correl.htm (ver help correlation) (4) 6. Diferencias estadsticamente significativas entre dos (o ms) coeficientes de correlacin http://department.obg.cuhk.edu.hk/ResearchSupport/HomoCor.asp (2) (calculados en muestras distintas) http://faculty.vassar.edu/lowry/VassarStats.html (3) (calculados en muestras distintas) http://home.clara.net/sisa/correl.htm (ver help correlation) (4) (de la misma muestra o de distintas muestras) 7. Clculo del coeficiente de correlacin http://calculators.stat.ucla.edu/correlation.php (5) http://faculty.vassar.edu/lowry/VassarStats.html (3)
Direcciones originales (Home): (1) GraphPad, Free Online Calculators for Scientists, http://graphpad.com/quickcalcs/index.cfm (2) Department of Obstetrics and Gynaecology, The Chinese University of Hong Kong http://department.obg.cuhk.edu.hk/ResearchSupport/Correlation.asp (3) VassarStats: Wen Site for Statistical Computation, Richard Lowry, Vassar College Poughkeepsie, NY USA http://faculty.vassar.edu/lowry/VassarStats.html (4) SISA, Simple Interactive Statistical Analysis http://home.clara.net/sisa/index.htm#TOP (5) Statistics Calculators, UCLA Department of Statistics, http://calculators.stat.ucla.edu/ (6) Glass, Gene. V., Arizona State University College of Education, Online Analysis of Data http://glass.ed.asu.edu/stats/analysis/

Correlacin y covarianza

Вам также может понравиться