E07: Che cosa è una allucinazione?

In questo settimo episodio ci occupiamo di errori e allucinazioni del sistema di intelligenza artificiale.

E07: Che cosa è una allucinazione?

Nel settore/campo dell’intelligenza artificiale, un’“allucinazione” si verifica quando un sistema di IA genera informazioni che appaiono plausibili o coerenti ma che, in realtà, sono errate, completamente inventate o, comunque, del tutto infondate

Per spiegare questo fenomeno in maniera elementare, si può tracciare un parallelo tra l’idea di allucinazione nell’IA e la tendenza umana a interpretare, o a fraintendere, la realtà, in particolare quando ci si basa su informazioni incomplete o fuorvianti.

Prendiamo sempre ad esempio il nostro giovane studioso di diritto che tenta di ricostruire un antico manoscritto giuridico andato perduto in molti suoi passaggi, basandosi unicamente su frammenti e riferimenti sparsi. Mancando il testo completo, il giovane giurista prende la decisione di colmare le lacune con interpretazioni plausibili tratte dalla sua conoscenza del diritto. Sebbene la sua ricostruzione possa sembrare credibile, include dettagli, o argomentazioni, che non hanno mai fatto parte del manoscritto originale. In modo simile, quando un’IA ha le allucinazioni, genera informazioni che non sono basate sui dati di addestramento o sulla realtà che intende riflettere. Il sistema non è intenzionalmente (o "dolosamente") portato a ingannare l'interlocutore: sta semplicemente seguendo i modelli che ha appreso, anche quando questi modelli lo portano “fuori strada”.

Un’allucinazione dell’IA spesso si verifica perché il sistema è progettato per prevedere o generare risultati basati su associazioni statistiche, piuttosto che su una reale comprensione di ciò che viene domandato e di ciò che risponde. 

Pensiamo a un caso di un’IA incaricata di rispondere a quesiti legali. Se le viene domandata un'informazione su un caso a lei oscuro, ossia su cui non è stata addestrata, l’IA può costruire e restituire una risposta che sembra convincente mettendo insieme frammenti di informazioni correlate. Il risultato può includere citazioni fittizie, ragionamenti errati o precedenti legali completamente inventati. A un occhio non esperto, questa risposta potrebbe sembrare valida e coerente, ma ad un giurista esperto potrebbe rivelare rapidamente i suoi "difetti" (ma non sempre: spesso le risposte sono assai convincenti...).

Le allucinazioni nell’IA sono interessanti per noi perchè rendono ancora una volta evidente l'importante distinzione tra la generazione del linguaggio e la comprensione del significato

Sebbene un sistema di IA possa oggi produrre un testo che rispecchia in maniera credibile i più importanti criteri della comunicazione umana, non possiede la capacità di operare un ragionamento più profondo e la consapevolezza del contesto, due elementi che impediscono agli esseri umani di commettere simili errori. Un giurista, ad esempio, quando non è sicuro su un caso legale o su un precedente, è solito consultare (si spera...) fonti autorevoli o approfondire la questione in altre forme, per confermare la propria convinzione o preparazione. Un’IA, al contrario, si affida esclusivamente ai modelli dei suoi dati di formazione/addestramento, e non ha la capacità di verificare i propri risultati rispetto alla verità.

Le implicazioni delle allucinazioni nell’IA sono particolarmente significative, come è ovvio, in campi come quello giuridico, dove l’accuratezza e l’affidabilità sono fondamentali. Immaginiamo uno scenario in cui un sistema di IA, che assiste un giurista nelle attività di ricerca giuridica, decide di creare ex novo un caso che non è mai esistito. Se questo caso inventato fosse incluso in un atto processuale o in un discorso/arringa davanti a un giudice, per argomentare un fatto, potrebbe minare la credibilità e la reputazione dell’avvocato e, se non individuato, l’integrità del procedimento. Questo potenziale di errore sottolinea ancora una volta l’importanza della supervisione umana quando si utilizza l’IA in qualsiasi contesto in cui la precisione - meglio, la "verità" - dei dati è fondamentale.

Per un giurista, il concetto di allucinazione nell’IA porta inevitabilmente a riflettere sui limiti e i pericoli di alcuni tipi di intelligenza artificiale. A differenza degli esseri umani, i sistemi di IA non possiedono consapevolezza, capacità di giudizio o intenzione, quindi le loro allucinazioni non sono falsificazioni intenzionali, ma sono sottoprodotti non voluti della loro progettazione. Questo concetto ci dovrebbe sempre far ricordare come l’IA, strumento assai potente, dovrebbe essere usata con discernimento, assicurando che i suoi risultati siano sempre esaminati e convalidati.

Tirando le somme: un’allucinazione IA è un momento di errore in cui la capacità del sistema di generare linguaggio e contenuti supera la sua comprensione della verità. È un riflesso diretto della dipendenza della macchina dai modelli piuttosto che dalla comprensione, e può servire a rammentare il ruolo essenziale che l’esperienza umana deve svolgere nel guidare e interpretare i contributi forniti dall’IA a una eventuale conversazione o dialogo. Per un giurista, questo problema sottolinea l’importanza di un approccio molto critico alle tecnologie emergenti (ora anche "di moda"), assicurando che siano utilizzate in modo molto responsabile e rispettando l'esigenza di verità in processo e nella professione.