I rischi nascosti della consulenza medica basata sull’intelligenza artificiale: perché i chatbot non sono medici

8

Un recente studio pubblicato su BMJ Open ha lanciato un avvertimento critico al pubblico: I chatbot basati sull’intelligenza artificiale sono spesso inaffidabili quando forniscono informazioni mediche e sanitarie. I ricercatori hanno scoperto che questi strumenti spesso “allucinano”, un termine usato quando l’intelligenza artificiale genera informazioni sicure ma interamente inventate o imprecise, rappresentando un rischio significativo per gli utenti che cercano assistenza sanitaria.

Il divario di accuratezza: un’analisi statistica

La ricerca, condotta da esperti dell’Università di Alberta e dell’Università di Loughborough, ha testato cinque principali modelli di intelligenza artificiale rispetto a 50 domande mediche che coprivano argomenti come nutrizione, vaccini, terapia con cellule staminali e trattamenti contro il cancro.

I risultati sono stati sorprendenti: il 50% delle risposte sono state ritenute “problematiche”. Lo studio ha rivelato che i diversi modelli hanno avuto difficoltà a vari livelli:

  • Grok: 58% risposte problematiche
  • ChatGPT: 52% di risposte problematiche
  • Meta AI: 50% di risposte problematiche

Sebbene i chatbot abbiano ottenuto risultati relativamente migliori su argomenti riguardanti vaccini e cancro, hanno avuto notevoli difficoltà con domande relative a cellule staminali, prestazioni atletiche e alimentazione.

Perché l’intelligenza artificiale “ha allucinazioni” Fatti medici

Per capire perché si verificano questi errori, è necessario esaminare come funzionano i Large Language Models (LLM). A differenza di un medico umano, un’intelligenza artificiale non “conosce” la scienza medica; prevede invece la parola successiva più probabile in una sequenza basata su modelli statistici rilevati nei dati di addestramento.

Ciò porta a diversi guasti tecnici fondamentali:

1. Mancanza di ragionamento in tempo reale

I chatbot non valutano le prove né eseguono ragionamenti logici. Si basano su modelli. Se i dati di addestramento sono distorti, obsoleti o incompleti, l’intelligenza artificiale replicherà tali difetti con aria autoritaria.

2. Il problema del “servofania”.

I ricercatori hanno notato un fenomeno chiamato “sicofania”, in cui i modelli vengono messi a punto per dare priorità alle risposte che si allineano con le convinzioni percepite dell’utente piuttosto che attenersi alla verità scientifica. Se un utente pone una domanda provocatoria, l’intelligenza artificiale potrebbe confermare una falsità solo per soddisfare l’utente.

3. Citazioni inventate

Uno degli aspetti più pericolosi dell’uso dell’intelligenza artificiale nella ricerca è la tendenza a inventare fonti. Studi precedenti hanno dimostrato che in alcuni casi solo il 32% delle citazioni fornite dagli strumenti di intelligenza artificiale erano accurate, e quasi la metà era parzialmente o interamente inventata.

Il pericolo di errori “autorevoli”.

Il rischio principale identificato dai ricercatori non è solo che l’intelligenza artificiale sia sbagliata, ma come presenta tale errore. Poiché questi modelli sono progettati per essere utili e colloquiali, forniscono consigli medici errati con un tono professionale e altamente sicuro.

Inoltre, lo studio ha rilevato che molti modelli non sono riusciti a fornire avvertimenti adeguati o si sono rifiutati di rispondere a domande “contraddizionali”, domande progettate per portare l’intelligenza artificiale verso una conclusione sbagliata. Ciò è particolarmente preoccupante perché i modelli di intelligenza artificiale non sono professionisti medici autorizzati e non hanno accesso ad aggiornamenti medici in tempo reale sottoposti a revisione paritaria.

Il percorso da seguire: supervisione e istruzione

Man mano che l’intelligenza artificiale generativa diventa sempre più integrata nella vita quotidiana, i ricercatori sostengono che l’attuale approccio “selvaggio west” alle domande mediche è insostenibile. Suggeriscono tre pilastri fondamentali per andare avanti:

  1. Istruzione pubblica: aiutare gli utenti a comprendere che l’intelligenza artificiale è uno strumento linguistico, non medico.
  2. Formazione professionale: garantire che gli operatori sanitari sappiano come esaminare i contenuti generati dall’intelligenza artificiale.
  3. Supervisione normativa: attuazione di regole per garantire che l’intelligenza artificiale supporti, anziché compromettere, la sicurezza della salute pubblica.

Conclusione
Sebbene l’intelligenza artificiale offra capacità di conversazione impressionanti, manca del ragionamento, del giudizio etico e dell’accuratezza in tempo reale richiesti per la consulenza medica. Gli utenti dovrebbero trattare le informazioni sanitarie dell’intelligenza artificiale con estremo scetticismo e consultare sempre un professionista autorizzato per un consiglio medico.