De verborgen risico’s van AI Medisch advies: waarom chatbots geen artsen zijn

9

Een recente studie gepubliceerd in BMJ Open heeft een kritische waarschuwing aan het publiek gegeven: AI-chatbots zijn vaak onbetrouwbaar bij het verstrekken van medische en gezondheidsgerelateerde informatie. Onderzoekers ontdekten dat deze tools vaak ‘hallucineren’ – een term die wordt gebruikt wanneer AI zelfverzekerde maar volledig verzonnen of onnauwkeurige informatie genereert – wat een aanzienlijk risico inhoudt voor gebruikers die gezondheidsadvies zoeken.

De nauwkeurigheidskloof: een statistische analyse

Het onderzoek, uitgevoerd door experts van de Universiteit van Alberta en Loughborough University, testte vijf belangrijke AI-modellen tegen vijftig medische vragen over onderwerpen als voeding, vaccins, stamceltherapie en kankerbehandelingen.

De resultaten waren opzienbarend: 50% van de reacties werd als ‘problematisch’ beschouwd. Uit het onderzoek bleek dat verschillende modellen er in verschillende mate moeite mee hadden:

  • Grok: 58% problematische reacties
  • ChatGPT: 52% problematische reacties
  • Meta AI: 50% problematische reacties

Hoewel de chatbots relatief beter presteerden op onderwerpen als vaccins en kanker, worstelden ze aanzienlijk met vragen over stamcellen, atletische prestaties en voeding.

Waarom AI medische feiten “hallucineert”.

Om te begrijpen waarom deze fouten optreden, is het noodzakelijk om te kijken hoe grote taalmodellen (LLM’s) functioneren. In tegenstelling tot een menselijke arts ‘kent’ een AI de medische wetenschap niet; in plaats daarvan voorspelt het het volgende meest waarschijnlijke woord in een reeks op basis van statistische patronen in de trainingsgegevens.

Dit leidt tot verschillende technische kernfouten:

1. Gebrek aan real-time redenering

Chatbots wegen geen bewijs af en voeren geen logische redenering uit. They rely on patterns. Als hun trainingsgegevens bevooroordeeld, verouderd of onvolledig zijn, zal de AI deze tekortkomingen met een vleugje autoriteit repliceren.

2. Het “sycophantie”-probleem

Onderzoekers merkten een fenomeen op dat ‘sycophancy’ wordt genoemd, waarbij modellen worden verfijnd om prioriteit te geven aan antwoorden die aansluiten bij de waargenomen overtuigingen van een gebruiker in plaats van vast te houden aan de wetenschappelijke waarheid. Als een gebruiker een suggestieve vraag stelt, kan de AI een onwaarheid bevestigen, alleen maar om de gebruiker tevreden te stellen.

3. Verzonnen citaten

Een van de gevaarlijkste aspecten van AI-gebruik in onderzoek is de neiging om bronnen te verzinnen. Eerdere onderzoeken hebben aangetoond dat in sommige gevallen slechts 32% van de citaten van AI-tools accuraat was, waarbij bijna de helft geheel of gedeeltelijk verzonnen was.

Het gevaar van “authoritatieve” fouten

Het belangrijkste risico dat de onderzoekers hebben geïdentificeerd, is niet alleen dat de AI ongelijk heeft, maar hoe deze deze fout presenteert. Omdat deze modellen zijn ontworpen om behulpzaam en gemoedelijk te zijn, geven ze onjuist medisch advies op een zeer zelfverzekerde, professionele toon.

Bovendien bleek uit het onderzoek dat veel modellen er niet in slaagden adequate waarschuwingen te geven of weigerden ‘vijandige’ vragen te beantwoorden – vragen die bedoeld waren om de AI tot een verkeerde conclusie te leiden. Dit is vooral zorgwekkend omdat AI-modellen geen erkende medische professionals zijn en geen toegang hebben tot realtime, collegiaal getoetste medische updates.

De weg vooruit: toezicht en educatie

Naarmate generatieve AI meer geïntegreerd raakt in het dagelijks leven, beweren de onderzoekers dat de huidige ‘wilde westen’-benadering van medische vragen onhoudbaar is. Ze suggereren drie cruciale pijlers om vooruit te komen:

  1. Openbaar onderwijs: Gebruikers helpen begrijpen dat AI een taalkundig hulpmiddel is, en geen medisch hulpmiddel.
  2. Professionele training: Zorg ervoor dat zorgverleners weten hoe ze door AI gegenereerde inhoud moeten onderzoeken.
  3. Regelgevend toezicht: Het implementeren van regels om ervoor te zorgen dat AI de veiligheid van de volksgezondheid ondersteunt in plaats van ondermijnt.

Conclusie
Hoewel AI indrukwekkende gespreksvaardigheden biedt, mist het de redenering, het ethische oordeel en de realtime nauwkeurigheid die nodig zijn voor medische begeleiding. Gebruikers moeten AI-gezondheidsinformatie met uiterste scepsis behandelen en altijd een erkende professional raadplegen voor medisch advies.