Tener confianza en los resultados es uno de los pilares de la medicina moderna y de la ciencia en general. La eficiencia de los ensayos de laboratorios es esencial, ya se desde análisis rutinarios de sangre hasta procedimientos más complejos como mamografías o tomografías. A partir de estos ensayos los médicos toman decisiones sobre el diagnóstico, cuando comenzar un tratamiento, que tipo de tratamiento seguir y cuando terminarlo. Lo mismo puede decirse de los controles de calidad de la industria.
Los procedimientos de laboratorio no son perfectos, y de hecho, existen errores. Pero las metodologías se han desarrollado de una manera en que los errores son minimizados, y aún más importante, para que la magnitud del error puede ser cuantificada. Es por eso que los ensayos, así como los equipos de laboratorio, tienen una serie de parámetros ya pre-establecidos de fábrica, donde se declara el grado de confianza, en los términos de sensibilidad y la especificidad. Estos términos son muy populares, pero no bien conocidos por todos.
Ahora vamos a ver que significan esos conceptos enfocados en el área de la ciencia.
Para poder analizar esto, tenemos que considerar cuál es la chance que un determinado test salga bien, y cual es la chance que salga mal.
Antes voy a hacer una aclaración, me voy a referir la capacidad que tiene un test o ensayo al detectar una enfermedad. En realidad, los tests detectan un marcador molecular o bioquímico, que es utilizado para diagnosticar una condición o enfermedad. No detectan directamente la enfermedad. Por ejemplo, el test de embarazo detecta la gonadotropina coriónica, que es utilizada como marcador para determinar un embarazo. Pero por motivos didácticos voy a decir que el test detecta la enfermedad.
Habiendo aclarado esto, vamos a nombrar dos escenarios ideales y dos escenarios malos en los resultados de un test.
Los ideales son: que el resultado me salga positivo cuando efectivamente tengo la enfermedad, y que el resultado me salga negativo cuando no la tenga. Como se nombró, estos son casos ideales y no hay ningún problema, porque así es como tiene que salir.
Los escenarios malos son: Que el resultado del test me salga positivo cuando no tengo la enfermedad. Esta es la primer clase de error que consideraremos, porque es la que se cree que es más dañino. Imaginense que te declaren una enfermedad que uno no tiene. En segundo lugar, hay que contemplar la posibilidad que surge cuando efectivamente estoy enfermo pero el test me sale negativo. En este segundo caso, también es malo, porque voy a privarme de un tratamiento preventivo, y cuando tenga la enfermedad sea más manifiesta voy a perder mucho tiempo precioso.Cuando sucede el primer error, se dice que ocurrió un FALSO POSITIVO, el segundo ERROR se denomina FALSO NEGATIVO. Muchos ya están familiarizados con estos conceptos.
Esto podemos tabularlo en una pequeña tabla, como vemos aquí. Al error denominado Falso positivo se denomina también error tipo alfa. Al falso negativo, se denomina también error tipo beta.
Un falso positivo ocurre es cuando se informa un resultado positivo en una persona sana. En términos estadístico, rechazar una hipótesis nula verdadera. El falso negativo cuando se informa negativo pero la persona está enferma. En términos estadísticos, no rechazar una hipótesis nula falsa. Para entender bien que significan las hipótesis nula y alternativa tendría que dedicar otra microclase, así que vamos a ver los conceptos nomás.
En base a estos errores se pueden describir dos conceptos fundamentales en la precisión de los ensayos. La sensibilidad y la especificidad.
La especificidad es la capacidad de una técnica de detectar correctamente a los individuos sanos. Si la especificidad es de 90%, esto indica que hay una chance del 90% que los individuos sanos sean detectados como sanos, y en este ejemplo habrá un 10% de chance de clasificar un individuo sano como enfermo o falso positivo, es por eso que a mayor especificidad menor número de falsos positivos.
matemáticamente sería algo así, donde VN son los verdaderos negativos, y se dividen por la suma de VN y FP, que serían los verdaderos negativos y falsos positivos. Como ven, el cociente no es nada más y menos que todos los indivuos sanos de la muestra, que proporción de individuos sanos puede la técnica detectar como sanos.
VN/VN+FP
La sensibilidad, por otro lado, es la mayor capacidad de detectar individuos enfermos, o mayor cobertura de una prueba o potencia,donde el ensayo intenta que no se le escape ninguno. Una sensibilidad del 90% nos indica que hay una chance del 90% que los individuos enfermos sean correctamente detectados, y una chance del 10% de ser un falso negativo. Por tanto, a mayor sensibilidad, menor número de falsos negativos.
Matemáticamente sería algo así, donde VP son verdaderos positivos y FP falsos negativos
VP/VP+FN, la proporción que tiene la técnica de detectar positivos en todos los individuos enfermos.
Seguramente pensarán que los dos tipos de errores son malos, y que no es peor uno que otro. Pero los ensayos están realizados para poder minimizarlos y cuantificarlos. No existe tests que sean 100% sensibles y específicos. Es una negociación, sube uno y baja el otro. ¿Porqué es así, porqué no se puede tener una técnica que posea una alta sensibilidad y alta especificidad?. Digamos, por ejemplo, que queremos detectar un virus que se encuentra en cantidades muy pequeñas. Podemos aumentar la sensibilidad de la ténica para detectar cantidades más pequeñas, lo que hacemos es disminuir la aparición de falsos negativos. Pero al aumentar tanto la sensibilidad, el dispositivo se vuelve tan pero tan sensible que el dispositivo comienza a reaccionar inespecíficamente con otras moléculas que no son virus y aparecen los falsos positivos, es decir, baja la especificidad.
Por último quiero aclarar, que en la práctica los diagnósticos no están dados solamente por un test o examen, sino por varios síntomas o signos, y varios ensayos en el tiempo, de modo que los errores se minimizan aún más y los resultados son confiables.
Por ejemplo, si quiero averiguar si padezco de celiaquía, se realiza un análisis de detección de unos anticuerpos denominados Anti-tTG, que son los causantes de la enfermedad.
Se dice que un análisis o dispositivo es más sensible cuando puede detectar los anticuerpos en cantidad pequeñas. Lo que hace el análisis es detectar un patógeno o un marcador bioquímico que causa la enfermedad en cantidades muy bajas. Cuanto más capacidad tenga la técnica en detectar cantidades bajas de anticuerpos, más sensible es. La sensibilidad nunca es del 100%, un test nunca puede detectar TODOS los casos, pero se espera que sea lo más alto posible. Es un término cuantitativo (de cantidad). Si la técnica tiene una sensibilidad de 80%, es porque de 100 individuos con anticuerpos positivos, detecta 80 (y 20% son falsos negativos). En notación probabilística, la sensibilidad se puede expresar como la probabilidad P(T|D), donde T es la probabilidad de que el test sea positivo, dado que se tiene la enfermedad D (en este caso anticuerpos)
La especificidad tiene poco que ver con la sensibilidad. Este termino se utiliza cuando el test o diagnóstico erra "el blanco". Es decir, se "confunde" el marcador con otro, resultando en un "falso positivo". En el peor caso diagnostica una enfermedad cuando no la había, es un término cualitativo. En la notación de probabilidades es P(T|-D), y significa la probabilidad de que el test me salga positivo cuando no existe la probabilidad (-D)
No hay comentarios:
Publicar un comentario