Вы находитесь на странице: 1из 9

ndice de Kappa

Concordancia intra- e interevaluadores


Adalberto Campo-Arias
Edwin Herazo
Rev. Colomb. Psiquiat., vol. 39 / No. 2 / 2010
Grado en el que una La reproducibilidad
variable tiene el mismo (caracterstica importante a
valor cuando se mide varias evaluar en los procesos de
veces en la misma muestra medicin.)

El diseo de estudios de concordancia requiere repetir el


proceso de medicin/clasificacin (inter o intra-observador).

El coeficiente kappa fue propuesto por Cohen (1960) para el caso de


dos evaluadores o dos mtodos, por lo que a menudo se le conoce
como kappa de Cohen.

El coeficiente kappa mide el grado de acuerdo observado en 2 o


ms observadores descontando el acuerdo obtenido por azar.
Intraobservador Interobservadores

Grado de Grado de
coincidencia de un concordancia entre
observador consigo dos o ms
mismo observadores
Observador A
Obs. B Positivo Negativo Total
Positivo a b r
Negativo c d s
Total t u N

P0 - Pe
k=
a+ d 1 - Pe
Po =
N rt + su
Pe = 2
Cohen J. (1960) A coefficient of agreement for nominal scales.
N
Educ Psychol Meas 20:37-46.
Interpretacin k
0 Pe Po 1

Concordancia Concordancia
por azar ms all del azar

0 1
k
Clasificaciones propuestas para la
interpretacin del ndice kappa
Landis and
Koch (1977) Altman (1991) Fleiss (1981) Byrt (1996)
1
Excellent
Almost Very good Excellent
perfect Very good
0.8
Substantial Good Good
0.6 Fair
to
Moderate Moderate good Fair
0.4
Fair Fair Slight
0.2
Slight Poor
0 Poor
Poor
Poor No
agreement

-1.0
Escala de valoracin de k
kappa grado de acuerdo
< 0,00 sin acuerdo
0,00 - 0,20 insignificante
0,21 - 0,40 mediano
0,41 - 0,60 moderado
0,61 - 0,80 sustancial
0,81 - 1,00 casi perfecto

Landis J.R., Koch G.G. (1977).


The measurement of observer agreement for categorical data. Biometrics. 33:159-174.
Generalizaciones

Variables multinomiales

Ponderacin del desacuerdo en clasificaciones ordinales

Mltiples observadores

Distintas definiciones de acuerdo: por parejas o con definicin explcita


de mayora.
Conclusiones

Los estudios de reproducibilidad son frecuentes.

La comparacin de los distintos ndices (ponderado, mayora) permite


identificar fuentes de variabilidad.

Se han implementado las generalizaciones del coeficiente kappa


ponderado para diseos incompletos con distintas definiciones de
acuerdo.

Los estudios de concordancia inter- e intraevaluador son importantes


para medir la confiabilidad o reproducibilidad de las evaluaciones.

Para las evaluaciones con resultados categricos (cualitativos), la


concordancia ms all del azar se estima con el coeficiente de K de
Cohen.

El coeficiente de K se puede encontrar entre cero y uno, y por lo general


se espera entre 0,41 y 0,60 o ms.

Вам также может понравиться