AI

Una Generative AI sempre aggiornata e senza allucinazioni? “RAG” è la parola magica

6/6/2023
Read in ENGLISH

Scarsa accuratezza fattuale e difficoltà di aggiornamento dei dati: i limiti della Generative AI

I limiti in termini di accuratezza fattuale e difficoltà di aggiornamento dei dataset sono due temi cruciali per chi si occupa di Generative AI. Come scriviamo in un post dedicato specificamente all’argomento, in Aptus.AI siamo ben consapevoli di come i modelli di Generative AI siano abilissimi nel generare testi linguisticamente corretti e apparentemente attendibili, ma altrettanto inadeguati ad assicurarne la precisione e l’accuratezza da un punto di vista fattuale. Trattandosi, di fatto, di modelli probabilistici molto complessi, essi sono in grado di predire la frase successiva sulla base di un calcolo delle probabilità. La loro sofisticatezza consente ai modelli di Generative AI di restituire risposte di una qualità tale da farle sembrare tutte corrette, ma, come sappiamo, non sempre è così. I modelli linguistici, infatti, generano frasi basate sui dati in loro possesso, ovvero quelli utilizzati per addestrarli. Questo, però, può causare quelle che vengono definite allucinazioni, ovvero risposte apparente vere, magari molto probabili, ma comunque non corrette a livello fattuale o semplicemente non aggiornate rispetto alle ultime novità.

Evitare le allucinazioni dei modelli linguistici e mantenerli aggiornati: ecco perché nasce la RAG

Allucinazioni, dunque, è il termine utilizzato per definire gli errori più evidenti che i modelli linguistici commettono nel restituire risposte fattuali. Questo tema, oggi di estrema attualità, in Aptus.AI è al centro delle attività di ricerca e sviluppo già da diversi anni. Infatti, in tempi non sospetti, scrivevamo di come il vero potere del Natural Language Processing stia nel conoscerne i limiti. D’altro canto, è altrettanto fondamentale conoscere anche tutti gli sviluppi tecnologici che tentano di superare questi limiti, come abbiamo fatto in passato sin dall’introduzione degli AI Transformers e dalla realizzazione di Geppetto, il primo modello di generazione di testo in italiano (basato su GPT-2), sviluppato in collaborazione con la Fondazione Bruno Kessler, l'Università di Groningen e l’ILC-CNR. È per questo che lo scivolone di Google Bard, che ha causato 100 miliardi di dollari di perdite in borsa, e la scarsa accuratezza di Bing AI, la Conversational AI di Microsoft basata su ChatGPT, non ci hanno stupito. Anzi, evidenze del genere ci hanno spinto a studiare sempre più a fondo la Generative AI e le tecniche più innovative per renderli affidabili. Ed è proprio così che abbiamo integrato la Retrieval Augmented Generation nei nostri modelli linguistici, per offrire risposte aggiornate e affidabili agli utenti del nostro SaaS RegTech, tramite Daitomic Chat, un innovativo servizio di Conversational AI dedicato all’analisi normativa.

Entra in lista d’attesa

Alla scoperta della Retrieval Augmented Generation: funzionamento e vantaggi

Fatta questa doverosa introduzione, possiamo finalmente addentrarci nel mondo della Retrieval Augmented Generation. In un articolo presente nella sezione dedicata all’AI del blog di Meta, questa metodologia veniva presentata in maniera chiara ed efficace. La RAG prevede un’architettura che aggiunge un passaggio ulteriore rispetto ai modelli standard di Generative AI, che ricevono come input una sequenza di parole e ne restituiscono un’altra come output. Grazie alla metodologia RAG, l’input viene comunque passato direttamente al generatore di testo, ma anche utilizzato per recuperare un set di documenti rilevanti sul tema da un’ulteriore fonte. Queste due fonti, agendo insieme, si completano, integrando tutte le informazioni e riuscendo a generare risposte corrette anche nei casi in cui queste non si trovano testualmente in nessuno dei documenti. Ma soprattutto i modelli che sfruttano la Retrieval Augmented Generation garantiscono una flessibilità senza precedenti, dato che non occorre addestrarli nuovamente per ottenere risposte aggiornate, ma soltanto sostituire i documenti utilizzati per recuperare le informazioni.

Scegliere quando e quali informazioni recuperare: ecco le ultime frontiere della RAG

Stando a quanto detto, è evidente che la Retrieval Augmented Generation risponde a due necessità cruciali dei modelli di Generative AI: restituire informazioni sia accurate a livello fattuale che aggiornate. I servizi di Conversational AI, dunque, devono riuscire ad accedere a grandi quantità di informazioni, ma soprattutto a quelle corrette. Una via per raggiungere questo obiettivo è stata proposta in un recente studio condotto sulle metodologie di applicazione della RAG, che ha indagato come evitare che i modelli di generazione di testo creino allucinazioni e output non accurati a livello fattuale. Partendo dall’architettura della RAG, è infatti possibile implementare quella che viene definita Active Retrieval Augmented Generation, ovvero una metodologia tramite cui i modelli sarebbero in grado di scegliere quando e quali informazioni recuperare durante la generazione del testo stesso. Una possibilità del genere renderebbe un modello di Conversational AI in grado di lavorare su testi anche più lunghi e su scenari maggiormente complessi. Si tratta di una soluzione ancora da validare e applicare a casi d’uso reali, ma i primi risultati sono già promettenti.

La Retrieval Augmented Generation applicata all’analisi normativa: benvenuto Daitomic Chat!

Arrivati a questo punto, è abbastanza evidente l’importanza della RAG per la realizzazione di modelli Conversational AI veramente efficaci. Sì, perché l’efficacia di strumenti del genere non può prescindere dall’accuratezza e dall’affidabilità fattuale delle risposte restituite agli utenti. In particolare in campi specifici e su materie molto tecniche, proprio come le leggi. Le informazioni legali, per poter essere utilizzate, devono essere certe e aggiornate, dato che ogni novità, anche minima, può modificare l’intero contesto. Proprio per questo la RAG si è rivelata un alleato fondamentale per la crescita di Daitomic, il nostro SaaS RegTech che, da oggi, include anche un servizio di Conversational AI. Il suo nome è Daitomic Chat, una vera e propria chat che consente agli utenti di chiedere direttamente alle norme le informazioni legali di cui hanno bisogno. Ed è proprio la Retrieval Augmented Generation che consente a Daitomic Chat di evitare le allucinazioni ed essere sempre aggiornato in tempo reale. Come? Utilizzando la domanda dell’utente non solo come input per il modello di generazione del testo, ma anche per indicare alla stessa Intelligenza Artificiale quale sia l’articolo di riferimento da cui recuperare le informazioni. Ad esempio, se un utente che sta consultando il GDPR (General Data Protection Regulation, Regolamento UE 2016/679) che chiede a Daitomic Chat “cos’è il diritto all’oblio?”, il modello risponderà dopo aver consultato l’Articolo 17 del documento, in cui il concetto viene definito. Questo, come abbiamo visto, garantisce due vantaggi: evitare le allucinazioni - dunque le risposte errate -, ma anche offrire informazioni aggiornate alle ultime novità normative, semplicemente indicando il documento aggiornato (o la parte di documento) da cui prendere le informazioni. Vuoi toccare con mano le potenzialità di Daitomic Chat? Entra nella lista d’attesa per essere tra i primi a provarlo!

DAITOMICMANIFESTOTEAMCAREERSBLOGCONTATTI
ENG
SEGUICI