Los riesgos ocultos del asesoramiento médico mediante IA: por qué los chatbots no son médicos

5

Un estudio reciente publicado en BMJ Open ha emitido una advertencia crítica al público: Los chatbots de IA con frecuencia no son confiables cuando brindan información médica y relacionada con la salud. Los investigadores encontraron que estas herramientas a menudo “alucinan”, un término utilizado cuando la IA genera información confiable pero completamente fabricada o inexacta, lo que representa un riesgo significativo para los usuarios que buscan orientación sobre salud.

La brecha de precisión: un desglose estadístico

La investigación, realizada por expertos de la Universidad de Alberta y la Universidad de Loughborough, probó cinco modelos principales de IA frente a 50 preguntas médicas que abarcaban temas como nutrición, vacunas, terapia con células madre y tratamientos contra el cáncer.

Los resultados fueron sorprendentes: El 50 % de las respuestas se consideraron “problemáticas”. El estudio reveló que diferentes modelos tenían dificultades en diversos grados:

  • Grok: 58% de respuestas problemáticas
  • ChatGPT: 52% de respuestas problemáticas
  • Meta AI: 50% de respuestas problemáticas

Si bien los chatbots obtuvieron resultados relativamente mejores en temas relacionados con vacunas y cáncer, tuvieron dificultades significativas con preguntas relacionadas con células madre, rendimiento deportivo y nutrición.

Por qué la IA “alucina” Hechos médicos

Para comprender por qué ocurren estos errores, es necesario observar cómo funcionan los modelos de lenguajes grandes (LLM). A diferencia de un médico humano, una IA no “conoce” la ciencia médica; en cambio, predice la siguiente palabra más probable en una secuencia basándose en patrones estadísticos encontrados en sus datos de entrenamiento.

Esto conduce a varios fallos técnicos fundamentales:

1. Falta de razonamiento en tiempo real

Los chatbots no sopesan pruebas ni realizan razonamientos lógicos. Se basan en patrones. Si sus datos de entrenamiento están sesgados, desactualizados o incompletos, la IA replicará esos defectos con un aire de autoridad.

2. El problema de la “adulación”

Los investigadores notaron un fenómeno llamado “adulación”, donde los modelos se ajustan para priorizar respuestas que se alinean con las creencias percibidas de un usuario en lugar de ceñirse a la verdad científica. Si un usuario hace una pregunta capciosa, la IA puede confirmar una falsedad solo para satisfacer al usuario.

3. Citas inventadas

Uno de los aspectos más peligrosos del uso de la IA en la investigación es la tendencia a inventar fuentes. Estudios anteriores han demostrado que, en algunos casos, solo el 32% de las citas proporcionadas por herramientas de inteligencia artificial eran precisas, y casi la mitad eran parcial o totalmente inventadas.

El peligro de los errores de “autorización”

El principal riesgo identificado por los investigadores no es sólo que la IA esté equivocada, sino cómo presenta ese error. Debido a que estos modelos están diseñados para ser útiles y conversacionales, brindan consejos médicos incorrectos en un tono profesional y de gran confianza.

Además, el estudio encontró que muchos modelos no proporcionaron advertencias adecuadas o se negaron a responder consultas “contrarias”, preguntas diseñadas para llevar a la IA a una conclusión equivocada. Esto es particularmente preocupante porque los modelos de IA no son profesionales médicos autorizados y carecen de acceso a actualizaciones médicas revisadas por pares en tiempo real.

El camino a seguir: supervisión y educación

A medida que la IA generativa se integra más en la vida diaria, los investigadores sostienen que el actual enfoque del “salvaje oeste” para las consultas médicas es insostenible. Sugieren tres pilares fundamentales para avanzar:

  1. Educación pública: Ayudar a los usuarios a comprender que la IA es una herramienta lingüística, no médica.
  2. Capacitación profesional: Garantizar que los proveedores de atención médica sepan cómo examinar el contenido generado por IA.
  3. Supervisión regulatoria: Implementar reglas para garantizar que la IA respalde, en lugar de socavar, la seguridad de la salud pública.

Conclusión
Si bien la IA ofrece capacidades de conversación impresionantes, carece del razonamiento, el juicio ético y la precisión en tiempo real necesarios para la orientación médica. Los usuarios deben tratar la información de salud de la IA con extremo escepticismo y consultar siempre a un profesional autorizado para obtener asesoramiento médico.