додому Різне Perché ai modelli di intelligenza artificiale piace ChatGPT “Hallucinate” e come risolverlo

Perché ai modelli di intelligenza artificiale piace ChatGPT “Hallucinate” e come risolverlo

I modelli di intelligenza artificiale generativa, come ChatGPT, hanno rivoluzionato il modo in cui interagiamo con la tecnologia. Tuttavia, rimane una sfida significativa: la tendenza ad “allucinare”, ovvero a presentare con sicurezza informazioni false come fatti. Un recente studio di OpenAI, la società dietro ChatGPT, ha individuato la ragione principale di questo comportamento: i modelli di intelligenza artificiale sono incentivati a indovinare piuttosto che ammettere di non sapere.

La radice del problema: incentivare le congetture

Attualmente, i metodi utilizzati per valutare le prestazioni dei modelli di intelligenza artificiale spesso premiano soprattutto l’accuratezza. Ciò significa che i modelli vengono valutati principalmente in base alla percentuale di domande a cui rispondono correttamente, indipendentemente dalla loro sicurezza o certezza. I ricercatori di OpenAI sostengono che questo crea un sistema in cui indovinare diventa un vantaggio strategico.

È un po’ come se uno studente facesse un test a scelta multipla, spiega lo studio. Lasciare una domanda in bianco non garantisce punti, quindi sono incoraggiati a fare ipotesi.

Allo stesso modo, quando i modelli di intelligenza artificiale vengono penalizzati solo per risposte errate, sono incoraggiati a prevedere le risposte anche in mancanza di informazioni sufficienti. Ciò li porta a generare affermazioni apparentemente plausibili ma in definitiva false.

Come i modelli di intelligenza artificiale “imparano” e perché si verificano le allucinazioni

I modelli di intelligenza artificiale apprendono prevedendo la parola successiva in una sequenza di testo, attingendo da enormi set di dati. Sebbene questi set di dati contengano spesso modelli coerenti, includono anche informazioni casuali e contraddittorie. Di fronte a domande ambigue o prive di risposte definitive – situazioni intrinsecamente caratterizzate dall’incertezza – i modelli di intelligenza artificiale ricorrono spesso a ipotesi strategiche per migliorare il loro punteggio di accuratezza complessivo.

“Questo è uno dei motivi per cui, anche se i modelli diventano più avanzati, possono ancora avere allucinazioni, dando con sicurezza risposte sbagliate invece di riconoscere l’incertezza,” notano i ricercatori.

Affrontare il problema: premiare l’onestà e l’incertezza

Fortunatamente, sta emergendo una soluzione semplice a questo problema. I ricercatori suggeriscono di penalizzare gli “errori di fiducia” più pesantemente delle espressioni di incertezza, dando allo stesso tempo un credito parziale ai modelli per aver adeguatamente riconosciuto i loro limiti.

Ciò rispecchia un test standardizzato in cui vengono assegnati voti negativi per le risposte errate o viene concesso un credito parziale per aver lasciato le domande in bianco. Un tale sistema scoraggerebbe le ipotesi alla cieca e incentivierebbe i modelli a esprimere l’incertezza quando appropriato.

Per risolvere questo problema, OpenAI suggerisce di aggiornare gli attuali metodi di valutazione per l’IA generativa. “Le valutazioni ampiamente utilizzate e basate sull’accuratezza devono essere aggiornate in modo che il loro punteggio scoraggi le ipotesi.” Spostando l’attenzione dalla semplice gratificazione della precisione, gli sviluppatori possono aprire la strada a modelli linguistici più sfumati e meno inclini alle allucinazioni.

In conclusione, la tendenza dei modelli di intelligenza artificiale ad “allucinare” deriva da un sistema di valutazione imperfetto. Incentivando l’onestà e riconoscendo l’incertezza, possiamo sviluppare un’intelligenza artificiale potente e affidabile. Questo cambiamento è particolarmente critico poiché l’intelligenza artificiale trova un utilizzo crescente in campi come la medicina e il diritto, dove l’accuratezza e l’affidabilità sono fondamentali.

Exit mobile version