RAG
Retrieval Augmented Generation: tecnica che arricchisce le risposte di un LLM recuperando documenti rilevanti da una base di conoscenza aziendale prima di generare una risposta.
Cos'è il RAG
RAG (Retrieval Augmented Generation) è una tecnica che risolve uno dei limiti principali degli LLM: non conoscono i dati della tua azienda. Un modello come Claude o GPT-4 è addestrato su dati pubblici fino a una certa data. Non sa nulla dei tuoi contratti, delle tue procedure interne, dei tuoi prodotti o dei tuoi clienti.
Il RAG colma questo gap: prima di generare una risposta, il sistema recupera (retrieval) i documenti aziendali pertinenti alla domanda e li fornisce al modello come contesto aggiuntivo. Il risultato è una risposta accurata, ancorata ai tuoi dati reali, senza dover addestrare un nuovo modello da zero.
Come funziona
Il processo RAG si divide in due fasi distinte.
Fase 1, Indicizzazione (offline) I documenti aziendali (PDF, Word, pagine web, database) vengono suddivisi in blocchi di testo, convertiti in vettori numerici (embedding) tramite un modello apposito e salvati in un database vettoriale.
Fase 2, Retrieval e generazione (runtime) Quando un utente fa una domanda, il sistema:
- Converte la domanda in un vettore
- Cerca nel database i blocchi di testo semanticamente più vicini
- Inserisce quei blocchi come contesto nel prompt al LLM
- Il LLM genera la risposta basandosi sul contesto recuperato
Perché conta per le aziende
Il RAG permette di costruire assistenti AI che "sanno" quello che sa la tua azienda, senza esporre dati a modelli pubblici e senza costi di fine-tuning:
- Knowledge base interna, un chatbot che risponde su procedure, normative, prodotti
- Supporto clienti, risposte precise basate su documentazione tecnica reale
- Ricerca su contratti e documenti legali, trova clausole specifiche in secondi
- Onboarding, nuovi dipendenti trovano le risposte nelle policy aziendali senza chiedere ai colleghi
Esempio pratico
Uno studio legale con 20 anni di contratti archiviati in PDF usa un sistema RAG. Un avvocato digita "trova clausole di non concorrenza nei contratti con il settore farmaceutico degli ultimi 3 anni". Il sistema recupera i blocchi rilevanti, il LLM li analizza e restituisce un riepilogo strutturato con i riferimenti ai documenti originali, un lavoro che richiederebbe ore di ricerca manuale.
Glossario
Termini correlati
LLM
Large Language Model: modello di intelligenza artificiale addestrato su enormi quantità di testo per comprendere e generare linguaggio naturale.
AI Agent
Programma software autonomo che percepisce il contesto, ragiona su un obiettivo e agisce eseguendo operazioni reali senza intervento umano continuo.
Chatbot
Sistema software che simula una conversazione con un utente tramite testo o voce, automatizzando risposte e interazioni senza intervento umano diretto.
Sydus
Hai un progetto che coinvolge RAG?
Risponderemo entro 24 ore con una valutazione tecnica gratuita.