Parla con un esperto di appalti pubblici

RAG vs ChatGPT negli appalti pubblici

Di:Icela MartinTechnology
RAG vs ChatGPT negli appalti pubblici

L'irruzione dell'Intelligenza Artificiale Generativa ha democratizzato l'accesso a strumenti potenti di redazione. Oggi, qualsiasi tecnico può chiedere a una chat generalista di redigere un'e-mail o riassumere un testo. Tuttavia, quando trasferiamo questa tecnologia al settore degli appalti pubblici, ci troviamo di fronte al fatto che la mancanza di rigore da parte di questo tipo di modelli di IA può compromettere il processo di gara.

In un ambiente regolato dalla Legge sui Contratti del Settore Pubblico (LCSP) e soggetto a fiscalizzazione, un dato inventato non è un aneddoto; è un grave rischio legale.

Per questo, i responsabili della tecnologia (CTO) e della sicurezza (CISO) del settore GovTech stanno puntando su architetture avanzate come RAG (Retrieval-Augmented Generation) rispetto all'uso di modelli generici. Ma cos'è questo esattamente e perché è fondamentale per lavorare con le gare d'appalto?


Il rischio strutturale: perché l'IA generalista inventa dati

I Grandi Modelli Linguistici (LLM) generalisti, come le versioni standard di ChatGPT o Gemini, non sono database di conoscenza verificati; sono motori probabilistici di previsione del testo. Sono stati addestrati con immense quantità di informazioni da internet, ma non "sanno" cosa è vero e cosa è falso; calcolano unicamente quale parola è statisticamente più probabile che segua la precedente per formare una frase coerente.

Il problema critico nel settore legale è che questi modelli sono progettati sotto un imperativo di "rispondere sempre". La loro funzione obiettivo è soddisfare la richiesta dell'utente mantenendo la fluidità della conversazione, non garantire l'esattezza fattuale.

Ciò significa che, di fronte a una lacuna di informazione specifica (ad esempio, il contenuto esatto di un articolo della LCSP o un fascicolo concreto che non era nel suo addestramento), il modello non si ferma. Invece di ammettere ignoranza, il suo algoritmo "riempie" quel vuoto generando informazioni che suonano veritiere e rispettano la struttura del linguaggio giuridico, ma che sono fittizie. A questo fenomeno si dà il nome di "allucinazione": l'IA inventa dati, date, articoli o giurisprudenza con totale sicurezza e coerenza grammaticale, creando una trappola di fiducia perfetta per il tecnico che la utilizza.

Cos'è RAG e come risolve questo?

RAG (Generazione Aumentata dal Recupero) è un'architettura che impedisce all'IA di rispondere "a memoria". Agisce come un modello di IA "esperto", a condizione che disponga delle fonti di informazione corrette.

Il flusso tecnico passo dopo passo:

  1. Retrieval (Ricerca): Quando fai una domanda, il sistema non va al modello linguistico. Prima cerca in un database vettoriale sicuro dove sono indicizzate la LCSP vigente, i capitolati del fascicolo e la giurisprudenza reale.
  2. Filtraggio: Il sistema seleziona solo i paragrafi che contengono la risposta veritiera (es. il testo esatto dell'Art. 204 LCSP).
  3. Generation (Generazione): Ora sì, invia quei paragrafi al modello di IA con un'istruzione rigorosa: "Rispondi all'utente usando SOLO queste informazioni. Se non sono qui, di' che non lo sai".

Tabella comparativa: ChatGPT vs. Architettura RAG (Tendios)

CaratteristicaIA Generica (ChatGPT, ecc.)Architettura RAG (Tendios)
Fonte di conoscenzaMemoria di addestramento (internet passato)Database documentale aggiornato
Risposta al dubbioInventa qualcosa di plausibile ("Allucinazione")"Non ci sono informazioni sufficienti nei documenti"
TracciabilitàScatola nera (senza fonti)Citazioni dirette al BOE/Capitolato con link
AggiornamentoTagli di conoscenza antichiTempo reale (si connette con fonti vive)

Hai bisogno di effettuare qualche consultazione sugli appalti pubblici?

Caso d'uso reale: Validazione di sostenibilità

Per capire l'impatto, vediamo un giorno nella vita di un tecnico di contrattazione che deve validare se un capitolato rispetta i criteri ecologici.

  • Processo manuale (Senza RAG): Scaricare il PDF (150 pagg), cercare "sostenibilità" con Ctrl+F, aprire il BOE per confrontare con la LCSP, consultare la guida agli acquisti ecologici... Tempo stimato: 3 ore.
  • Processo con Tendios (RAG): Carichi il capitolato. Chiedi: "Rispetta i requisiti dell'Art. 201 LCSP?". Il sistema scansiona il documento, incrocia con l'articolo vigente della legge e genera un rapporto di conformità con citazioni. Tempo stimato: 20 minuti.

Quando usare ogni strumento

Non si tratta di demonizzare i modelli generici, ma di usarli per ciò a cui servono.

  • Quando SÌ puoi usare un LLM come ChatGPT:
    • Brainstorming iniziale di idee creative.
    • Redigere e-mail interne non confidenziali.
    • Riassumere notizie generali del settore.
  • Quando DEVI usare un'IA Specializzata (RAG):
    • Redigere Capitolati (PCAP/PPT) con sicurezza giuridica.
    • Effettuare consultazioni legali.
    • Validare la conformità normativa di un fascicolo.

Sei un ente del settore pubblico?

Sei un'azienda privata?

I limiti del RAG

Anche la tecnologia RAG ha dei limiti. La qualità della risposta dipende dalla qualità della fonte (se il database non è aggiornato all'ultimo BOE, la risposta sarà obsoleta) e non sostituisce il criterio giuridico finale del tecnico. In Tendios mitigiamo questo con aggiornamento automatico giornaliero da fonti ufficiali, ma la supervisione umana rimane chiave.


Conclusione: Tecnologia per decisioni critiche

Nel settore pubblico, le decisioni devono essere giustificate. La tecnologia RAG non è solo un miglioramento tecnico; è la differenza tra usare un assistente creativo e usare uno strumento di audit professionale.

Dando priorità alla verificabilità e alla disciplina documentale, convertiamo l'Intelligenza Artificiale in un alleato affidabile per la gestione di fascicoli complessi, eliminando la paura del "dato inventato".

Vuoi provare l'IA specializzata negli appalti pubblici?

Icela Martin

Icela Martin

Copywriter Legale • Appalti Pubblici