TÜV-Verband mit?Tipps für den sicheren Umgang
ChatGPT & Co: Fast jeder dritte Nutzer findet Fehler
TÜV-Verband-Umfrage: 75 Prozent der KI-Nutzenden sind mit den Ergebnissen zufrieden, aber jede:r Dritte findet Fehler. Kritischer Umgang mit generativer KI notwendig. Hinweise für den Faktencheck: So überprüfen Nutzer:innen die Richtigkeit der Ergebnisse.

Generative Künstliche Intelligenz (KI) wie ChatGPT oder DeepSeek wird immer häufiger genutzt, doch viele Anwender stehen den Ergebnissen kritisch gegenüber. Zwar geben drei von vier (75 Prozent) Nutzerinnen und Nutzern an, mit den Ergebnissen zufrieden zu sein, jedoch überprüfen knapp vier von fünf (78 Prozent) die KI-Inhalte durch eigene Recherchen. Das geht aus einer repräsentativen Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.001 Personen ab 16 Jahren hervor. Um sich abzusichern, fragen 44 Prozent der Nutzer:innen die KI explizit nach Quellenangaben. Des Weiteren empfindet fast jede:r Zweite (48 Prozent) die KI-Antworten als oberflächlich und 43 Prozent kritisieren mangelnde Konkretheit. Jeder dritte KI-Nutzerin (31 Prozent) gibt an, dass die Anwendungen häufig fehlerhafte oder falsche Informationen liefern. „Die Ergebnisse generativer KI-Anwendungen sind in der Regel als Erstaufschlag hilfreich aber alles andere als perfekt“, sagt Patrick Gilroy, Referent für Künstliche Intelligenz und Bildung beim TÜV-Verband.
Herausforderungen generativer KI-Modelle
Die Qualität der KI-Ergebnisse hängt maßgeblich von den zugrundeliegenden Trainingsdaten ab, die lücken- oder fehlerhaft sein können. Die Datenbasis ist aber für die Nutzenden nur selten transparent. Darüber hinaus könnten algorithmische Verzerrungen oder gezielte Manipulationen durch politische oder wirtschaftliche Interessen bereits in der Entwicklung die Ergebnisse beeinflussen, so die Studienautoren. KI-Systeme stehen auch in der Kritik, weil sie immer wieder erfundene (halluzinierte) Informationen ausgeben oder sogar Quellen erfinden, anstatt Nichtwissen einzugestehen. Viele KI-Anbieter bieten verbesserte Deep Research-Funktionen an, die detailliertere Analyseaufgaben mitsamt Internetrecherchen ermöglichen. „Nutzerinnen und Nutzer sollten sich bewusst machen, dass KI-Anwendungen nicht neutral sind, sondern von den verwendeten Trainingsdaten, den zugrundeliegenden Algorithmen und der Zusammensetzung der Entwicklungsteams beeinflusst werden“, sagt Gilroy.
„Damit KI langfristig Vertrauen gewinnt, müssen Transparenz und Verlässlichkeit der Systeme weiter verbessert werden. Und auf Seiten der Nutzerinnen und Nutzer darf zunehmende Vertrautheit mit generativer Ko-Intelligenz nicht das eigene kritische Denken ausschalten.“ Die bald erwarteten Leitlinien für Allzweck-KI (GPAI Codes of Practice) des europäischen KI-Büros, die im Rahmen des EU AI Acts formuliert werden, könnten hier einen Fortschritt bringen.
Um generative KI sinnvoll und sicher einzusetzen, empfiehlt der TÜV-Verband:
Quellen prüfen: Inhalte mit verlässlichen Nachrichtenportalen, wissenschaftlichen Publikationen oder offiziellen Dokumenten abgleichen. Denn KI-Chatbots durchsuchen je nach Anbieter und Modell teils keine externen Quellen in Echtzeit – sie verarbeitet bestehende Daten aus ihrem Training oder vordefinierten Datenquellen.
Faktencheck nutzen: Spezialisierte Websites wie FactCheck.org oder Snopes zur Überprüfung heranziehen. Auch eine herkömmliche Internetsuche kann helfen, Falschinformationen aufzudecken und Fakten zu verifizieren.
Quellen vergleichen: Informationen aus unabhängigen Quellen gegeneinander abwägen, bei Unsicherheiten Expert:innen befragen. Ein breiter Quellensatz verringert das Risiko einseitiger oder verzerrter Darstellungen.
Aktualität sicherstellen: Veröffentlichungsdatum und Relevanz der Informationen überprüfen. Veraltete Daten können zu falschen Schlussfolgerungen führen.
Logik und Konsistenz prüfen: Widersprüche oder nicht plausible Aussagen erkennen. Fehlerhafte oder unschlüssige Inhalte deuten darauf hin, dass eine Information nicht zuverlässig ist.
Bias hinterfragen: Entstehung, Perspektiven und mögliche Verzerrungen der KI-generierten Inhalte bedenken. KI-Chatbots spiegeln oft vorhandene Vorurteile aus Trainingsdaten wider.
TÜV-Verband-Umfrage: 75 Prozent der KI-Nutzenden sind mit den Ergebnissen zufrieden, aber jede:r Dritte findet Fehler. Kritischer Umgang mit generativer KI notwendig. Hinweise für den Faktencheck: So überprüfen Nutzer:innen die Richtigkeit der Ergebnisse.

Generative Künstliche Intelligenz (KI) wie ChatGPT oder DeepSeek wird immer häufiger genutzt, doch viele Anwender stehen den Ergebnissen kritisch gegenüber. Zwar geben drei von vier (75 Prozent) Nutzerinnen und Nutzern an, mit den Ergebnissen zufrieden zu sein, jedoch überprüfen knapp vier von fünf (78 Prozent) die KI-Inhalte durch eigene Recherchen. Das geht aus einer repräsentativen Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.001 Personen ab 16 Jahren hervor. Um sich abzusichern, fragen 44 Prozent der Nutzer:innen die KI explizit nach Quellenangaben. Des Weiteren empfindet fast jede:r Zweite (48 Prozent) die KI-Antworten als oberflächlich und 43 Prozent kritisieren mangelnde Konkretheit. Jeder dritte KI-Nutzerin (31 Prozent) gibt an, dass die Anwendungen häufig fehlerhafte oder falsche Informationen liefern. „Die Ergebnisse generativer KI-Anwendungen sind in der Regel als Erstaufschlag hilfreich aber alles andere als perfekt“, sagt Patrick Gilroy, Referent für Künstliche Intelligenz und Bildung beim TÜV-Verband.
TÜV-Verband e. V.
Dieser Artikel erscheint in www.i40-magazin.de 2025 - 01.12.25.Für weitere Artikel besuchen Sie