Fale com um especialista em contratação pública

RAG vs ChatGPT na contratação pública

Por:Icela MartinTechnology
RAG vs ChatGPT na contratação pública

A irrupção da Inteligência Artificial Generativa democratizou o acesso a ferramentas potentes de redação. Hoje, qualquer técnico pode pedir a um chat generalista que redija um correio ou resuma um texto. No entanto, quando transladamos esta tecnologia para o setor da contratação pública, encontramos que a falta de rigor por parte deste tipo de modelos de IA pode comprometer o processo de licitação.

Num ambiente regido pela Lei de Contratos do Setor Público (LCSP) e sujeito a fiscalização, um dado inventado não é uma anedota; é um risco legal grave.

Por isso, os responsáveis de tecnologia (CTO) e segurança (CISO) do setor GovTech estão a apostar em arquiteturas avançadas como RAG (Retrieval-Augmented Generation) face ao uso de modelos genéricos. Mas, o que é isto exatamente e por que é fundamental para trabalhar com licitações?


O risco estrutural: por que a IA generalista inventa dados

Os Grandes Modelos de Linguagem (LLM) generalistas, como as versões padrão de ChatGPT ou Gemini, não são bases de dados de conhecimento verificadas; são motores probabilísticos de previsão de texto. Foram treinados com imensas quantidades de informação da internet, mas não "sabem" o que é verdade e o que é mentira; unicamente calculam que palavra é estatisticamente mais provável que siga a anterior para formar uma frase coerente.

O problema crítico no setor legal é que estes modelos estão desenhados sob um imperativo de "responder sempre". A sua função objetivo é satisfazer a consulta do utilizador mantendo a fluidez da conversa, não garantir a exatidão factual.

Isto significa que, perante uma lacuna de informação específica (por exemplo, o conteúdo exato de um artigo da LCSP ou um processo concreto que não estava no seu treino), o modelo não para. Em vez de admitir ignorância, o seu algoritmo "preenche" esse vazio gerando informação que soa verídica e respeita a estrutura da linguagem jurídica, mas que é fictícia. A este fenómeno chama-se "alucinação": a IA inventa dados, datas, artigos ou jurisprudência com total segurança e coerência gramatical, criando uma armadilha de confiança perfeita para o técnico que a utiliza.

O que é RAG e como soluciona isto?

RAG (Geração Aumentada por Recuperação) é uma arquitetura que impede que a IA responda "de memória". Atua como um modelo de IA "especialista", sempre que conte com as fontes de informação corretas.

O fluxo técnico passo a passo:

  1. Retrieval (Pesquisa): Quando faz uma pergunta, o sistema não vai ao modelo de linguagem. Primeiro procura numa base de dados vetorial segura onde estão indexadas a LCSP vigente, os cadernos de encargos do processo e a jurisprudência real.
  2. Filtragem: O sistema seleciona apenas os parágrafos que contêm a resposta verídica (ex. o texto exato do Art. 204 LCSP).
  3. Generation (Geração): Agora sim, envia esses parágrafos ao modelo de IA com uma instrução estrita: "Responde ao utilizador usando SÓ esta informação. Se não está aqui, diz que não sabes".

Tabela comparativa: ChatGPT vs. Arquitetura RAG (Tendios)

CaracterísticaIA Genérica (ChatGPT, etc.)Arquitetura RAG (Tendios)
Fonte de conhecimentoMemória de treino (internet passada)Base de dados documental atualizada
Resposta perante dúvidaInventa algo plausível ("Alucinação")"Não há informação suficiente nos documentos"
RastreabilidadeCaixa negra (sem fontes)Citações diretas ao BOE/Caderno de encargos com link
AtualizaçãoCortes de conhecimento antigosTempo real (conecta com fontes vivas)

Necessita de realizar alguma consulta sobre contratação pública?

Caso de uso real: Validação de sustentabilidade

Para entender o impacto, vejamos um dia na vida de um técnico de contratação que deve validar se um caderno de encargos cumpre com os critérios ecológicos.

  • Processo manual (Sem RAG): Descarregar o PDF (150 págs), procurar "sustentabilidade" com Ctrl+F, abrir o BOE para cotejar com a LCSP, consultar o guia de contratação ecológica... Tempo estimado: 3 horas.
  • Processo com Tendios (RAG): Carrega o caderno de encargos. Pergunta: "Cumpre com os requisitos do Art. 201 LCSP?". O sistema digitaliza o documento, cruza com o artigo vigente da lei e gera um relatório de conformidade com citações. Tempo estimado: 20 minutos.

Quando usar cada ferramenta

Não se trata de demonizar os modelos genéricos, mas de usá-los para o que servem.

  • Quando SIM pode usar um LLM como ChatGPT:
    • Brainstorming inicial de ideias criativas.
    • Redigir correios eletrónicos internos não confidenciais.
    • Resumir notícias gerais do setor.
  • Quando DEVE usar uma IA Especializada (RAG):
    • Redigir Cadernos de Encargos (PCAP/PPT) com segurança jurídica.
    • Realizar consultas legais.
    • Validar o cumprimento normativo de um processo.

É uma entidade do setor público?

É uma empresa privada?

Os limites do RAG

Mesmo a tecnologia RAG tem limites. A qualidade da resposta depende da qualidade da fonte (se a base de dados não está atualizada ao último BOE, a resposta será obsoleta) e não substitui o critério jurídico final do técnico. Em Tendios mitigamos isto com atualização automática diária desde fontes oficiais, mas a supervisão humana continua a ser chave.


Conclusão: Tecnologia para decisões críticas

No setor público, as decisões devem justificar-se. A tecnologia RAG não é apenas uma melhoria técnica; é a diferença entre usar um assistente criativo e usar uma ferramenta de auditoria profissional.

Ao priorizar a verificabilidade e a disciplina documental, convertemos a Inteligência Artificial num aliado confiável para a gestão de processos complexos, eliminando o medo ao "dado inventado".

Quer provar a IA especializada em contratação pública?

Icela Martin

Icela Martin

Redatora Jurídica • Contratação Pública

Artigos relacionados