Generatieve AI-modellen, zoals ChatGPT, hebben een revolutie teweeggebracht in de manier waarop we omgaan met technologie. Er blijft echter een belangrijke uitdaging bestaan: de neiging tot ‘hallucineren’ – het vol vertrouwen presenteren van valse informatie als feit. Een recent onderzoek van OpenAI, het bedrijf achter ChatGPT, heeft de belangrijkste reden voor dit gedrag blootgelegd: AI-modellen worden gestimuleerd om te raden in plaats van toe te geven dat ze het niet weten.
De wortel van het probleem: het stimuleren van giswerk
Momenteel belonen de methoden die worden gebruikt om de prestaties van AI-modellen te evalueren vaak nauwkeurigheid boven alles. Dit betekent dat modellen in de eerste plaats worden beoordeeld op basis van het percentage vragen dat ze correct beantwoorden, ongeacht hun vertrouwen of zekerheid. Onderzoekers van OpenAI beweren dat hierdoor een systeem ontstaat waarin raden een strategisch voordeel wordt.
Het lijkt een beetje op een student die een meerkeuzetoets maakt, legt het onderzoek uit. Als je een vraag blanco laat, krijg je geen punten, dus worden ze aangemoedigd om wilde gissingen te doen.
Op dezelfde manier worden AI-modellen, wanneer ze alleen worden bestraft voor onjuiste antwoorden, aangemoedigd om antwoorden te voorspellen, zelfs als ze niet over voldoende informatie beschikken. Dit leidt ertoe dat ze plausibel klinkende maar uiteindelijk valse uitspraken doen.
Hoe AI-modellen ‘leren’ en waarom hallucinaties ontstaan
AI-modellen leren door het volgende woord in een reeks tekst te voorspellen, op basis van enorme datasets. Hoewel deze datasets vaak consistente patronen bevatten, bevatten ze ook willekeurige en tegenstrijdige informatie. Wanneer ze worden geconfronteerd met vragen die dubbelzinnig zijn of geen definitieve antwoorden hebben – situaties die inherent worden gekenmerkt door onzekerheid – nemen AI-modellen vaak hun toevlucht tot strategische gissingen om hun algehele nauwkeurigheidsscore te verbeteren.
“Dat is een van de redenen waarom modellen, zelfs als ze geavanceerder worden, nog steeds kunnen hallucineren en vol vertrouwen verkeerde antwoorden kunnen geven in plaats van onzekerheid te erkennen”, merken onderzoekers op.
Het probleem aanpakken: eerlijkheid en onzekerheid belonen
Gelukkig is er een eenvoudige oplossing voor dit probleem in opkomst. Onderzoekers suggereren dat ‘zelfverzekerde fouten’ zwaarder moeten worden bestraft dan uitingen van onzekerheid, terwijl ze modellen ook gedeeltelijk de eer geven voor het op passende wijze erkennen van hun beperkingen.
Dit weerspiegelt een gestandaardiseerde test waarbij negatieve cijfers worden toegekend voor foute antwoorden, of gedeeltelijke punten worden toegekend voor het blanco laten van vragen. Een dergelijk systeem zou blind gokken ontmoedigen en modellen stimuleren om onzekerheid uit te drukken wanneer dat nodig is.
Om dit aan te pakken, stelt OpenAI voor om de huidige evaluatiemethoden voor generatieve AI te actualiseren. “De veelgebruikte, op nauwkeurigheid gebaseerde evaluaties moeten worden bijgewerkt, zodat hun score het raden ontmoedigt.” Door de focus te verleggen van uitsluitend het belonen van nauwkeurigheid, kunnen ontwikkelaars de weg vrijmaken voor meer genuanceerde taalmodellen die minder vatbaar zijn voor hallucinaties.
Concluderend kan worden gesteld dat de neiging van AI-modellen om te ‘hallucineren’ voortkomt uit een gebrekkig evaluatiesysteem. Door eerlijkheid te stimuleren en onzekerheid te erkennen, kunnen we AI ontwikkelen die zowel krachtig als betrouwbaar is. Deze verschuiving is vooral van cruciaal belang omdat AI steeds vaker wordt gebruikt op gebieden als de geneeskunde en het recht, waar nauwkeurigheid en betrouwbaarheid van het grootste belang zijn.




































