Kappa de Cohen (κ)

Kappa es una medida de concordancia propuesta por Cohen en 1960, que se basa en comparar la concordancia observada en un conjunto de datos, respecto a la que podríaocurrir por mero azar. Es útil para todas las tablas, pero tiene algunas peculiaridades cuando se aplica a tablas de 2*2. Para el caso de más de dos evaluadores, clasificaciones, métodos, etc., Fleiss generalizó el método de Cohen, por lo que a veces se conoce también como Kappa de Fleiss.

Está claro que una medida simple de concordancia, sería la proporción de coincidencias frente al total de sujetos. En la tabla de 2*2, y con la nomenclatura que habitualmente utilizamos sería (a+d) / n. No obstante, aunque no hubiera ninguna relación entre los dos métodos de clasificación o evaluación o entre los observadores, o entre las dos escalas de evaluación, podría haber algún grado de coincidencia por mero azar- Si empleáramos una moneda para clasificar una población asignandole una situación según salga cara o cruz, y volvemos a evaluarlo mediante el lanzamiento de otra moneda, lo más probable es que haya aproximadamente un 50% de coincidencias. Si se quiere eliminar ese sesgo, hay que eliminar de alguna forma la concordancia esperada por azar.

Si denominamos Co a la proporción de la concordancia observada (en tanto por uno), y Ca, a la proporción de concordancia que se esperaría por mero azar, K sería igual a:

K= (Co – Ca) / (1- Ca)

Si K es cero, ello significa que la concordancia observada coincide con la que ocurriría por puro azar. Valores positivos señalan mayor concordancia que la que se esperaría por el puro azar. Si el resultado fuera 1, se trataría de una concordancia perfecta. Si K toma un valor negativo, significa existencia de discordancia, que solamente en la tabla de 2*2, podría llegar hasta -1, lo que señalaría una discordancia total entre las dos clasificaciones o evaluaciones.

Con todo, hay que calcular también el intervalo de confianza en el que se mueve K, ya que, aunque K tenga valores positivos, si el intervalo de confianza es muy amplio, habría que reconsiderar la significación, es decir, si es suficiente para decidir que ambas clasificaciones, observadores, etc. son similares.

Aunque siempre es una escala subjetiva, Landis y Koch propusieron unos límites para el grado de acuerdo estimado con el resultado del cálculo de Kappa:

Kappa Estimación del grado de acuerdo
 <0  No acuerdo
 0.0-0.2  Insignificante
 0.2-0.4  Bajo
 0.4-0.6  Moderado
 0.6-0.8  Bueno
 0.8-1.0  Muy bueno

Por ejemplo, sería el estadístico utilizado para averiguar si dos observadores obtienen resultados similares al evaluar el grado de insuficiencia mitral por ecocardiografía, o si los resultados obtenidos en la determinación de la fracción de eyección del ventrículo izquierdo mediante ecocardiografía concuerdan con los obtenidos mediante ventriculografía. Se utiliza mucho en la literatura médica, tanto por su relativa facilidad de cálculo, aunque el cálculo del intervalo de comfianza es más complejo, como porque su interpretación es relativamente clara. No obstante, solo debe ser aplicada en clasificaciones nominales, es decir, en las que no hay una clara diferencia en el grado de cada una de las categorías, es decir, no está pensada para clasificaciones en que algunas categorías son de distinta importancia que otras, por ejemplo, clasificaciones entre banal, leve, moderado, grave, muy grave, extremadamente grave, en las que no sería lo mismo que la falta de concordancia entre leve y banal, que entre moderado y muy grave. En estos casos, algunos estadísticos asignan un peso a cada una de las diferentes posibilidades de desacuerdo, considerando más importante un desacuerdo entre categorías más distantes que entre las categorías próximas. No obstante, el problema es determinar qué  peso asignar a cada categoría, pues el valor de la concordancia obtenido será diferente con distinta asignación de pesos, y esta siempre tendrá un ciero matiz subjetivo.

Kappa de Cohen

Introduce el valor de la casilla a:
Introduce el valor de la casilla b:
Introduce el valor de la casilla c:
Introduce el valor de la casilla d:



Valor de Kappa

Error Estandar de Kappa

Intervalo Confianza 95% entre y
Intervalo Confianza 99% entre y