La inteligencia artificial no reconoce el "no", y eso es un gran problema para las aplicaciones médicas

La inteligencia artificial tiene dificultades para reconocer negaciones, un grave problema para los robots médicos. Los diagnósticos malinterpretados podrían dar lugar a graves errores. ¿Cómo podemos resolver este problema?

Inteligencia artificial, medicina, diagnósticos asistidos por IA, médicos, futuro, cuidados
Inteligencia artificial en medicina: diagnósticos asistidos por IA y su papel de apoyo a los médicos, un paso decisivo para el futuro de la atención médica.

En los últimos años, la inteligencia artificial (IA) ha logrado avances impresionantes en el análisis de datos de imágenes y texto, en particular a través de modelos de lenguaje de visión (VLM) que vinculan imágenes y texto.

Estos modelos tienen aplicaciones prometedoras en el campo médico, ya que ayudan a analizar imágenes médicas, como radiografías o resonancias magnéticas, y las combinan con descripciones de texto correspondientes para ayudar al personal médico a realizar diagnósticos.

Sin embargo, una debilidad importante de los sistemas de IA actuales que a menudo se pasa por alto es su incapacidad para detectar correctamente las negaciones.

La importancia de la negación en el diagnóstico médico

En medicina, la distinción precisa entre la presencia y ausencia de síntomas o signos de enfermedad es crucial.

La capacidad de identificar correctamente “no” o “no hay signos de” es esencial en el análisis de imágenes médicas.

Un sistema de inteligencia artificial que interpreta erróneamente una imagen como “signos de enfermedad” cuando en realidad no muestra “ningún signo de enfermedad” podría causar diagnósticos erróneos graves.

Estos errores pueden dar lugar a que los pacientes reciban un tratamiento innecesario o, peor aún, a que se pase por alto una afección real.

Tasa de error en la detección de negación

Los modelos actuales de visión-lenguaje que combinan imágenes y texto tienen dificultades considerables para interpretar correctamente las negaciones.

En pruebas en las que los modelos tuvieron que buscar imágenes en función de la presencia o ausencia de determinados objetos, mostraron una alta precisión a la hora de identificar objetos. Pero cuando se les pidió que buscaran imágenes que no contuvieran un objeto en particular, la precisión disminuyó significativamente.

Esto se debe a que estos modelos suelen centrarse en la confirmación y la afirmación positiva. Esto significa que tienden a confirmar la presencia de algo en lugar de detectar su ausencia, un problema que puede conducir a errores graves, especialmente en el análisis de imágenes médicas.

La dimensión ética y la necesidad de modelos de IA precisos

En la aplicación médica de las tecnologías de IA, es especialmente importante comprender el significado de las negaciones e implementarlas correctamente.

En la práctica clínica, las negaciones pueden marcar la diferencia entre un diagnóstico correcto y uno incorrecto.

Un modelo incapaz de detectar que “no hay signos de neumonía” podría dar un resultado positivo falso, lo que podría conducir a tratamientos innecesarios o incluso a decisiones médicas incorrectas.

Soluciones y mejoras

Ya existen enfoques iniciales para abordar los problemas con la detección de negación. Una posible solución podría ser entrenar específicamente modelos de IA con conjuntos de datos que contengan negaciones.

De esta manera, los modelos podrían aprender a reconocer y procesar correctamente el significado de “no” o “ninguno” en un contexto médico. Sin embargo, este es todavía un primer paso.

Rastreador de salud, IA, seguimiento, datos sanitarios, diagnósticos, toma de decisiones médicas
Rastreadores de salud portátiles e IA: control continuo de los datos sanitarios para facilitar diagnósticos precisos y tomar mejores decisiones médicas.

Es importante que los desarrollos futuros no sólo mejoren la capacidad de la IA para detectar la negación, sino también su capacidad para comprender el contexto de una situación y responder correctamente.

¿Y ahora qué?

La incapacidad de los modelos de IA para interpretar correctamente las negaciones representa un obstáculo importante para el uso generalizado de estas tecnologías en medicina. A pesar de los avances logrados en la mejora de las capacidades de detección negativa, aún queda mucho por hacer.

Sólo de esta manera se podrá utilizar la inteligencia artificial como una herramienta segura y eficaz en el diagnóstico y tratamiento médico.

Referencia de la noticia:

Alhamoud, K., Alshammari, S., Tian, Y., Li, G., Torr, P., Kim, Y., & Ghassemi, M. (2025). Vision-Language Models Do Not Understand Negation. arXiv.