Les modèles d’IA générative, comme ChatGPT, ont révolutionné la façon dont nous interagissons avec la technologie. Cependant, un défi important demeure : la tendance à « halluciner » – à présenter avec assurance de fausses informations comme des faits. Une étude récente d’OpenAI, la société à l’origine de ChatGPT, a identifié la principale raison de ce comportement : Les modèles d’IA sont incités à deviner plutôt qu’à admettre qu’ils ne savent pas.
La racine du problème : encourager les conjectures
Actuellement, les méthodes utilisées pour évaluer les performances des modèles d’IA récompensent souvent avant tout la précision. Cela signifie que les modèles sont principalement notés en fonction du pourcentage de questions auxquelles ils répondent correctement, indépendamment de leur confiance ou de leur certitude. Les chercheurs d’OpenAI affirment que cela crée un système dans lequel deviner devient un avantage stratégique.
C’est un peu comme un étudiant qui passe un test à choix multiples, explique l’étude. Laisser une question vide ne garantit aucun point, ils sont donc encouragés à faire des suppositions folles.
De même, lorsque les modèles d’IA sont pénalisés uniquement pour les réponses incorrectes, ils sont encouragés à prédire les réponses même s’ils ne disposent pas d’informations suffisantes. Cela les amène à générer des déclarations apparemment plausibles mais finalement fausses.
Comment les modèles d’IA « apprennent » et pourquoi les hallucinations surviennent
Les modèles d’IA apprennent en prédisant le mot suivant dans une séquence de texte, à partir d’ensembles de données massifs. Même si ces ensembles de données contiennent souvent des modèles cohérents, ils incluent également des informations aléatoires et contradictoires. Lorsqu’ils sont confrontés à des questions ambiguës ou dépourvues de réponses définitives – des situations intrinsèquement caractérisées par l’incertitude – les modèles d’IA ont fréquemment recours à des suppositions stratégiques pour améliorer leur score de précision global.
“C’est l’une des raisons pour lesquelles, même si les modèles deviennent plus avancés, ils peuvent toujours halluciner, donnant avec confiance de fausses réponses au lieu de reconnaître l’incertitude”, notent les chercheurs.
Aborder le problème : récompenser l’honnêteté et l’incertitude
Heureusement, une solution simple à ce problème est en train d’émerger. Les chercheurs suggèrent de pénaliser plus lourdement les « erreurs de confiance » que les expressions d’incertitude, tout en accordant également aux modèles un crédit partiel pour avoir correctement reconnu leurs limites.
Cela reflète un test standardisé dans lequel des notes négatives sont attribuées aux mauvaises réponses, ou un crédit partiel est accordé pour avoir laissé des questions vides. Un tel système découragerait les suppositions aveugles et inciterait les modèles à exprimer leur incertitude le cas échéant.
Pour résoudre ce problème, OpenAI suggère de mettre à jour les méthodes d’évaluation actuelles de l’IA générative. “Les évaluations basées sur la précision, largement utilisées, doivent être mises à jour afin que leur notation décourage les devinettes.” En détournant l’attention de la précision uniquement gratifiante, les développeurs peuvent ouvrir la voie à des modèles de langage plus nuancés et moins sujets aux hallucinations.
En conclusion, la tendance des modèles d’IA à « halluciner » provient d’un système d’évaluation défectueux. En encourageant l’honnêteté et en reconnaissant l’incertitude, nous pouvons développer une IA à la fois puissante et digne de confiance. Ce changement est particulièrement crucial à l’heure où l’IA est de plus en plus utilisée dans des domaines comme la médecine et le droit, où la précision et la fiabilité sont primordiales.







































