Allucinazioni dell’IA: come e perché l’intelligenza artificiale può fallire

Cosa sono le allucinazioni dell’AI?

Le allucinazioni dell’AI si manifestano quando uno strumento di intelligenza artificiale generativa fornisce risposte a domande con affermazioni che risultano essere errate, irrilevanti o completamente inventate.

Ad esempio, un caso emblematico è quello in cui il chatbot Bard di Google ha erroneamente affermato che il Telescopio Spaziale James Webb aveva catturato le prime immagini di un pianeta al di fuori del nostro sistema solare. Tali errori possono avere anche conseguenze legali: due avvocati di New York sono stati sanzionati da un giudice per aver citato sei casi fittizi nei loro documenti redatti con l’assistenza di ChatGPT.

“Anche i modelli più avanzati sono preda di allucinazioni circa il 2,5% delle volte”, afferma Duncan Curtis, Senior Vice President di GenAI e AI Product presso Sama. “Si tratta di un problema così grande che il punto di forza del recente aggiornamento di Claude di Anthropic era che i suoi modelli ora erano due volte più propensi a fornire risposte corrette”. Curtis precisa che, sebbene il 2,5% sembri un rischio contenuto, le cifre sono comunque rilevanti, soprattutto per strumenti di intelligenza artificiale popolari come ChatGPT, che ricevono fino a 10 milioni di domande al giorno. Se consideriamo un tasso di allucinazione del 2,5%, ciò si tradurrebbe in circa 250.000 allucinazioni al giorno o 1,75 milioni alla settimana. Tanto, troppo!

Naturalmente, questa non è necessariamente una frequenza costante: Curtis avverte che “se le allucinazioni dei modelli vengono prese come ‘corrette’, esse perpetueranno tali errori rendendo il sistema meno preciso col passare del tempo”.

Perché avvengono le allucinazioni dell’AI?

Le allucinazioni dell’intelligenza artificiale sono il risultato di meccanismi intrinseci alle modalità con cui i modelli generativi elaborano e generano contenuti.

In termini semplici, l’intelligenza artificiale generativa opera predicendo la parola o la frase successiva basandosi su una vastità di dati preesistenti. Tuttavia, se il modello non comprende appieno le informazioni fornite, può produrre risposte apparentemente valide ma, di fatto, non corrette.

Simona Vasytė, CEO di Perfection42, sottolinea che, nel caso dei modelli visivi, l’AI analizza l’ambiente e “indovina” il pixel più appropriato da inserire. Questa procdura, tuttavia, può portare a risultati errati, generando così allucinazioni. Curtis evidenzia che i modelli di linguaggio di ampie dimensioni (LLM) hanno difficoltà a generalizzare informazioni mai viste o a seguire un processo di auto-supervisione adeguato. È la mancanza di dati di addestramento sufficienti e di un processo di valutazione del modello inadeguato a rappresentare le principali cause di queste disfunzioni.

I modelli possono fare delle assunzioni errate se non hanno accesso a informazioni adeguate, come nel caso in cui debbano determinare i requisiti per l’approvazione di un mutuo. Se il modello non ha abbastanza dati, può erroneamente approvare un candidato non qualificato o negare un prestito a una persona idonea. Senza un’efficace valutazione e un monitoraggio continuo, le allucinazioni si presenteranno con maggiore frequenza durante l’uso reale, afferma Curtis.

Come ridurre e prevenire le allucinazioni nell’AI?

Eliminare completamente le allucinazioni nell’intelligenza artificiale è un obiettivo ambizioso, oggi forse irraggiungibile, ma ridurle significativamente è possibile. La qualità dei dataset utilizzati per l’addestramento è fondamentale: l’utilizzo di dati di alta qualità porta a un minor numero di errori. Investire risorse nel proprio modello di intelligenza artificiale può portare a soluzioni più affidabili e con meno allucinazioni.

Duncan Curtis suggerisce che, sebbene molti dei problemi originari possano sembrare risolvibili solo attraverso l’aumento della dimensione del dataset, è più pratico utilizzare un dataset rappresentativo, accuratamente composto. Combinato con rinforzi, perimetri e valutazioni continue delle prestazioni del modello, un dataset rappresentativo può aiutare a mitigare i rischi di allucinazione.

Un approccio aggiuntivo è l’adozione del recupero della generazione aumentata (RAG), che permette agli strumenti di intelligenza artificiale generativa di filtrare i dati rilevanti per generare una risposta. Questo metodo ha dimostrato di produrre risultati più accurati e affidabili, a condizione che i dati siano adeguatamente verificati e approvati.

Un altro metodo sicuro per catturare e correggere le allucinazioni è quello del controllo da parte di esseri umani. Questo approccio, sebbene efficace, è più reattivo che proattivo, poiché gli errori vengono identificati dopo che il modello ha già fornito una risposta. Per prevenire o ridurre il fenomeno delle allucinazioni, è essenziale formulare l’input con la massima specificità possibile, indirizzando il modello verso risposte più precise e limitando così le possibili interpretazioni errate.

Rimani aggiornato seguendoci su Google News!

Segui
Postato in News

redazione