Residente: «Dr. Casa – (Dr. House) –, acaba de llegar un niño de 3 años que sospechamos se fracturó la clavícula».
Dr. Casa: «¿De verdad? Se descompuso el aparato de rayos X. ¿Cómo le harás para confirmar el diagnóstico?»
Residente: «Bueno, tal vez un ultrasonido»
Dr. Casa: «Mmm, en base a tu sospecha clínica, ¿cómo crees que saldrá el ultrasonido?»
Residente: «Depende. Si lo hacen en la mañana, saldrá negativo. Si lo hacen en la tarde, saldrá positivo»
< Cualquier parecido con la realidad es mera coincidencia >
El ejemplo clásico de una prueba diagnóstica que depende del operador es el ultrasonido.
Siempre escuchamos que la validez y seguridad de este estudio depende de quién lo haga. Y por supuesto que es cierto. Los estudios diagnósticos necesitan ser «reproducibles», es decir, que siempre que se hagan, por quien quiera que los haga, deberían dar los mismos resultados.
Cuando un radiólogo hace un ultrasonido, puede llegar a la conclusión de que es «positivo» para el diagnóstico de una enfermedad. Si otro radiólogo hace el mismo estudio, y concluye que es «negativo», entonces no hay concordancia entre ellos. Por otro lado, si ambos dicen que es «positivo», no significa que la prueba es muy reproducible. Tal vez podrían estar de acuerdo sólo por azar, o como decimos en México, «de chiripa».
Para evaluar qué tanta concordancia puede haber entre 2 observadores (o 2 personas que realizan una prueba), nos encontramos con el valor kappa. Y para saber qué significa este valor, les recomendamos los tips de McGinn T, publicados hace algunos años en el CMAJ.
Supongamos que le decimos a la trabajadora social que no vino el radiólogo y que necesitamos que ella haga los ultrasonidos. Entonces, la ponemos a hacer los próximos 100. Como no sabe lo que está haciendo, decide que los 100 son negativos. Sin que ella lo sepa, el radiólogo después hace los mismos 100 ultrasonidos, y concluye que hay 4 positivos.
Como vemos en la figura, la trabajadora social y el radiólogo estuvieron de acuerdo en el ¡96% de los estudios! Resulta obvio que esto no habla de una verdadera concordancia de los resultados. Estos 2 personajes estuvieron de acuerdo «de chiripa». El valor kappa sirve para medir el acuerdo que existe más allá del azar.
Veamos. Si tenemos una prueba cuyos resultados pueden ser «positivo» o «negativo», podríamos esperar que 2 personas estuvieran de acuerdo simplemente por azar en un 50% de las veces. Si imaginamos que al final concluyeron lo mismo en el 75% de las veces, entonces hubo un 25% más del esperado por azar. En términos sencillos, el valor kappa se calcula así:
Entre más se acerque a 1 el valor kappa, más acuerdo existe por arriba del azar, y por lo tanto, más concordancia y reproducibilidad tiene la prueba diagnóstica. Si el valor kappa se acerca a 0, existe poca concordancia, y si hay resultados iguales, tal vez sean «por pura chiripa».
Cabe señalar que el acuerdo por azar no siempre es 50%, sino que depende de cada situación clínica. Y por eso, el cálculo del valor kappa es un poco más complejo. Como clínicos, nos importa saber significado/interpretación más que cómo se calcula.
Cross KP y cols. publicaron recientemente un artículo sobre el uso de ultrasonido para el diagnóstico rápido (y obviamente, sin radiación) de las fracturas de clavícula. El valor kappa en este estudio: 0.75. ¿Les gusta?
Giordano Pérez Gaxiola
Departamento de Medicina Basada en la Evidencia
Hospital Pediátrico de Sinaloa
Una explicación sencilla y entendible de un término común en pruebas diagnosticas
una explicación «para dummies», mis felicitaciones.