Leitplanken für große Sprachmodelle

Wie Retrieval Augmented Generation LLMs unterstützt

Ob Bedienungsanleitungen für Autos oder Rechtstexte - entscheidende Stellen zu finden, kann dauern. Und ob man am Ende auch alle relevanten Einträge gefunden hat? Ein Team am Fraunhofer IWU hilft mit einer KI auf die Sprünge, 'füttert' sie mit umfangreichen Fachtexten und bereitet den externen Input so auf, dass Suchanfragen (Prompts) zu präzisen und erschöpfenden Informationen führen sollen. Retrieval Augmented Generation (RAG) macht es möglich.

Large Language Models (LLM) bzw. große Sprachmodelle liefern in Chatbots auf alltägliche Anfragen häufig gute bis sehr gute Ergebnisse, die oft für eine erste Orientierung mehr als ausreichend sind. Forschende am Fraunhofer IWU geben allerdings zu bedenken, dass Trainingsdatensätze unvollständig oder veraltet sowie einige Informationen unscharf oder gar falsch sein können. Sie raten daher zu einer Überprüfung der erhaltenen Auskünfte. So sollte man sich etwa bei Rechtsfragen nicht 'blind' auf einen Chatbot verlassen. Und was, wenn von den Angaben die Sicherheit von Menschen abhängen kann? Doch wieder selbst eingehend relevante Dokumente studieren?

Fraunhofer-Institut IWU

Dieser Artikel erschien in IT&Production 4 (Mai) 2025 - 09.05.25.
Für weitere Artikel besuchen Sie www.it-production.com