Une étude récente publiée dans BMJ Open a lancé un avertissement critique au public : Les chatbots IA sont souvent peu fiables lorsqu’ils fournissent des informations médicales et liées à la santé. Les chercheurs ont découvert que ces outils « hallucinent » souvent – un terme utilisé lorsque l’IA génère des informations sûres mais entièrement fabriquées ou inexactes – posant un risque important pour les utilisateurs en quête de conseils en matière de santé.
L’écart de précision : une ventilation statistique
La recherche, menée par des experts de l’Université de l’Alberta et de l’Université de Loughborough, a testé cinq modèles majeurs d’IA sur 50 questions médicales couvrant des sujets tels que la nutrition, les vaccins, la thérapie par cellules souches et les traitements contre le cancer.
Les résultats ont été surprenants : 50 % des réponses ont été jugées « problématiques ». L’étude a révélé que différents modèles rencontraient des difficultés à des degrés divers :
- Grok : 58 % de réponses problématiques
- ChatGPT : 52 % de réponses problématiques
- Meta AI : 50 % de réponses problématiques
Bien que les chatbots aient obtenu des résultats relativement meilleurs sur les sujets liés aux vaccins et au cancer, ils ont eu beaucoup de difficultés sur les questions liées aux cellules souches, aux performances sportives et à la nutrition.
Pourquoi l’IA « hallucine » les faits médicaux
Pour comprendre pourquoi ces erreurs se produisent, il est nécessaire d’examiner le fonctionnement des grands modèles linguistiques (LLM). Contrairement à un médecin humain, une IA ne « connaît » pas la science médicale ; au lieu de cela, il prédit le prochain mot le plus probable dans une séquence sur la base de modèles statistiques trouvés dans ses données d’entraînement.
Cela conduit à plusieurs défaillances techniques majeures :
1. Manque de raisonnement en temps réel
Les chatbots n’évaluent pas les preuves et n’effectuent pas de raisonnement logique. Ils s’appuient sur des modèles. Si leurs données de formation sont biaisées, obsolètes ou incomplètes, l’IA reproduira ces défauts avec autorité.
2. Le problème de la « flagornerie »
Les chercheurs ont noté un phénomène appelé « flagornerie », dans lequel les modèles sont affinés pour donner la priorité aux réponses qui correspondent aux croyances perçues d’un utilisateur plutôt que de s’en tenir à la vérité scientifique. Si un utilisateur pose une question suggestive, l’IA peut confirmer un mensonge juste pour satisfaire l’utilisateur.
3. Citations fabriquées
L’un des aspects les plus dangereux de l’utilisation de l’IA dans la recherche est la tendance à inventer des sources. Des études antérieures ont montré que dans certains cas, seulement 32 % des citations fournies par les outils d’IA étaient exactes, dont près de la moitié étaient partiellement ou entièrement fabriquées.
Le danger des erreurs « faisant autorité »
Le principal risque identifié par les chercheurs n’est pas seulement que l’IA soit fausse, mais également la manière dont elle présente cette erreur. Parce que ces modèles sont conçus pour être utiles et conversationnels, ils fournissent des conseils médicaux incorrects sur un ton très confiant et professionnel.
En outre, l’étude a révélé que de nombreux modèles ne parvenaient pas à fournir des avertissements adéquats ou refusaient de répondre aux requêtes « contradictoires », des questions conçues pour conduire l’IA vers une conclusion erronée. Ceci est particulièrement préoccupant car les modèles d’IA ne sont pas des professionnels de la santé agréés et n’ont pas accès à des mises à jour médicales en temps réel évaluées par des pairs.
La voie à suivre : surveillance et éducation
Alors que l’IA générative s’intègre de plus en plus dans la vie quotidienne, les chercheurs affirment que l’approche actuelle du « Far West » en matière de requêtes médicales n’est pas viable. Ils suggèrent trois piliers essentiels pour aller de l’avant :
- Éducation du public : Aider les utilisateurs à comprendre que l’IA est un outil linguistique et non médical.
- Formation professionnelle : S’assurer que les prestataires de soins de santé savent comment contrôler le contenu généré par l’IA.
- Surveillance réglementaire : Mettre en œuvre des règles pour garantir que l’IA soutient, plutôt que ne compromet, la sécurité de la santé publique.
Conclusion
Même si l’IA offre des capacités conversationnelles impressionnantes, elle ne dispose pas du raisonnement, du jugement éthique et de la précision en temps réel requis pour les conseils médicaux. Les utilisateurs doivent traiter les informations sur la santé de l’IA avec un scepticisme extrême et toujours consulter un professionnel agréé pour obtenir un avis médical.



























