Sprechen Sie mit einem Experten für öffentliche Beschaffung

RAG vs. ChatGPT im öffentlichen Auftragswesen

Von:Icela MartinTechnology
RAG vs. ChatGPT im öffentlichen Auftragswesen

Der Einzug der generativen künstlichen Intelligenz hat den Zugang zu leistungsstarken Schreibwerkzeugen demokratisiert. Heute kann jeder Techniker einen generischen Chat bitten, eine E-Mail zu verfassen oder einen Text zusammenzufassen. Wenn wir diese Technologie jedoch auf den Sektor des öffentlichen Auftragswesens übertragen, stellen wir fest, dass der Mangel an Strenge dieser Art von KI-Modellen das Ausschreibungsverfahren gefährden kann.

In einem Umfeld, das durch das Gesetz über Verträge des öffentlichen Sektors (LCSP) geregelt ist und der Prüfung unterliegt, ist ein erfundener Datenpunkt keine Anekdote; er ist ein ernstes rechtliches Risiko.

Deshalb setzen Technologieverantwortliche (CTO) und Sicherheitsverantwortliche (CISO) des GovTech-Sektors auf fortschrittliche Architekturen wie RAG (Retrieval-Augmented Generation) anstelle der Nutzung generischer Modelle. Aber was ist das genau und warum ist es für die Arbeit mit Ausschreibungen unerlässlich?


Das strukturelle Risiko: Warum generische KI Daten erfindet

Große Sprachmodelle (LLM) wie die Standardversionen von ChatGPT oder Gemini sind keine verifizierten Wissensdatenbanken; sie sind probabilistische Textvorhersagemotoren. Sie wurden mit riesigen Mengen an Informationen aus dem Internet trainiert, "wissen" aber nicht, was wahr und was falsch ist; sie berechnen lediglich, welches Wort statistisch am wahrscheinlichsten auf das vorherige folgt, um einen kohärenten Satz zu bilden.

Das kritische Problem im Rechtssektor ist, dass diese Modelle unter dem Imperativ "immer antworten" entworfen sind. Ihre Zielfunktion ist es, die Anfrage des Nutzers zu befriedigen und dabei den Fluss der Konversation aufrechtzuerhalten, nicht die faktische Genauigkeit zu garantieren.

Das bedeutet, dass das Modell bei einer spezifischen Informationslücke (zum Beispiel der genaue Inhalt eines Artikels des LCSP oder eine konkrete Akte, die nicht in seinem Training war) nicht anhält. Anstatt Unwissenheit zuzugeben, "füllt" sein Algorithmus diese Lücke, indem er Informationen generiert, die wahr klingen und die Struktur der Rechtssprache respektieren, aber fiktiv sind. Dieses Phänomen wird "Halluzination" genannt: Die KI erfindet Daten, Daten, Artikel oder Rechtsprechung mit völliger Sicherheit und grammatikalischer Kohärenz und schafft so eine perfekte Vertrauensfalle für den Techniker, der sie nutzt.

Was ist RAG und wie löst es dies?

RAG (Retrieval-Augmented Generation) ist eine Architektur, die verhindert, dass die KI "aus dem Gedächtnis" antwortet. Sie agiert wie ein "Experten"-KI-Modell, solange sie über die richtigen Informationsquellen verfügt.

Der technische Ablauf Schritt für Schritt:

  1. Retrieval (Suche): Wenn Sie eine Frage stellen, geht das System nicht zum Sprachmodell. Zuerst sucht es in einer sicheren Vektordatenbank, in der das geltende LCSP, die Vergabeunterlagen der Akte und die reale Rechtsprechung indexiert sind.
  2. Filterung: Das System wählt nur die Absätze aus, die die wahrheitsgemäße Antwort enthalten (z. B. der genaue Text von Art. 204 LCSP).
  3. Generation (Generierung): Jetzt sendet es diese Absätze an das KI-Modell mit einer strengen Anweisung: "Antworte dem Benutzer NUR unter Verwendung dieser Informationen. Wenn es nicht hier steht, sage, dass du es nicht weißt".

Vergleichstabelle: ChatGPT vs. RAG-Architektur (Tendios)

MerkmalGenerische KI (ChatGPT, etc.)RAG-Architektur (Tendios)
WissensquelleTrainingsgedächtnis (vergangenes Internet)Aktualisierte Dokumentendatenbank
Antwort bei ZweifelErfindet etwas Plausibles ("Halluzination")"Es gibt nicht genügend Informationen in den Dokumenten"
RückverfolgbarkeitBlack Box (ohne Quellen)Direkte Zitate aus dem BOE/Vergabeunterlagen mit Link
AktualisierungAlte WissensschnitteEchtzeit (verbindet mit lebenden Quellen)

Müssen Sie eine Anfrage zum öffentlichen Auftragswesen stellen?

Realer Anwendungsfall: Validierung der Nachhaltigkeit

Um die Auswirkungen zu verstehen, betrachten wir einen Tag im Leben eines Vergabetechnikers, der validieren muss, ob ein Pflichtenheft die ökologischen Kriterien erfüllt.

  • Manueller Prozess (Ohne RAG): Herunterladen des PDF (150 Seiten), Suche nach "Nachhaltigkeit" mit Strg+F, Öffnen des BOE zum Abgleich mit dem LCSP, Konsultation des Leitfadens für ökologische Beschaffung... Geschätzte Zeit: 3 Stunden.
  • Prozess mit Tendios (RAG): Sie laden das Pflichtenheft hoch. Fragen: "Erfüllt es die Anforderungen von Art. 201 LCSP?". Das System scannt das Dokument, gleicht es mit dem geltenden Artikel des Gesetzes ab und generiert einen Konformitätsbericht mit Zitaten. Geschätzte Zeit: 20 Minuten.

Wann man welches Tool verwendet

Es geht nicht darum, generische Modelle zu verteufeln, sondern sie für das zu nutzen, wofür sie taugen.

  • Wann Sie ein LLM wie ChatGPT nutzen KÖNNEN:
    • Initiales Brainstorming kreativer Ideen.
    • Verfassen interner, nicht vertraulicher E-Mails.
    • Zusammenfassung allgemeiner Branchennachrichten.
  • Wann Sie eine Spezialisierte KI (RAG) nutzen MÜSSEN:
    • Verfassen von Vergabeunterlagen (PCAP/PPT) mit Rechtssicherheit.
    • Durchführung rechtlicher Anfragen.
    • Validierung der normativen Einhaltung einer Akte.

Sind Sie eine Einrichtung des öffentlichen Sektors?

Sind Sie ein privates Unternehmen?

Die Grenzen von RAG

Auch die RAG-Technologie hat Grenzen. Die Qualität der Antwort hängt von der Qualität der Quelle ab (wenn die Datenbank nicht auf das neueste BOE aktualisiert ist, wird die Antwort veraltet sein) und ersetzt nicht das endgültige juristische Urteil des Technikers. Bei Tendios mildern wir dies durch tägliche automatische Aktualisierung aus offiziellen Quellen ab, aber die menschliche Überwachung bleibt der Schlüssel.


Fazit: Technologie für kritische Entscheidungen

Im öffentlichen Sektor müssen Entscheidungen gerechtfertigt werden. Die RAG-Technologie ist nicht nur eine technische Verbesserung; sie ist der Unterschied zwischen der Nutzung eines kreativen Assistenten und eines professionellen Audit-Tools.

Indem wir Überprüfbarkeit und dokumentarische Disziplin priorisieren, verwandeln wir Künstliche Intelligenz in einen zuverlässigen Verbündeten für das Management komplexer Akten und beseitigen die Angst vor "erfundenen Daten".

Möchten Sie die spezialisierte KI im öffentlichen Auftragswesen testen?

Icela Martin

Icela Martin

Rechtsredakteurin • Öffentliches Beschaffungswesen

Verwandte Artikel