Wenn wir unserer KI des Vertrauens eine Frage stellen, dann hat das ganz unterschiedliche Gründe. Die einen möchten sich lustige Trendbilder erstellen lassen oder nach Touri-Tipps für den nächsten Urlaubsort fragen, also eher leichte, unverbindliche Anliegen.
Andere wiederum suchen Antworten auf deutlich sensiblere Themen. Dazu gehören Gesundheitsfragen, die Wahl der richtigen Versicherung, wissenschaftliche Recherchen oder persönliche Ratschläge. In all diesen Bereichen kann es problematisch werden, wenn eine KI falsche Informationen liefert. Trotzdem setzen viele Menschen großes Vertrauen in ihre Antworten.
Wie zuverlässig sind KI-Chatbots wirklich?
Neue Zahlen zeigen jedoch, dass dieses Vertrauen möglicherweise nicht gerechtfertigt ist. Die Europäische Rundfunkunion hat eine Studie durchgeführt, in der die Zuverlässigkeit der populärsten KI-Systeme getestet wurde. Im Fokus standen vor allem Nachrichteninhalte zu politischen Themen oder historischen Ereignissen.
Die Ergebnisse sind alarmierend: Teilweise waren die Antworten bei fast drei Viertel der Versuche mangelhaft – besonders auffällig hierbei war Googles KI Gemini. Aber auch andere Systeme schnitten schlecht ab: Copilot lag bei 37 Prozent fehlerhaften Antworten, ChatGPT bei 36 Prozent und Perplexity bei 30 Prozent.
Fehlerquote, Fake News und trügerische Sicherheit
Im Durchschnitt bedeutet das: Fast jede zweite Antwort eines KI-Chatbots ist inhaltlich falsch. Die Probleme reichen von fehlenden oder unzuverlässigen Quellen, veralteten Informationen und mangelndem Kontext bis hin zu einfachen Schlampigkeitsfehlern.
Ein besonders drastisches Beispiel aus der Studie: Die KI wurde gefragt, wer aktuell Papst sei. Nach der angeblichen Einsetzung von Leo XIV. behaupteten Copilot, Gemini und ChatGPT jedoch, Papst Franziskus sei das derzeitige Oberhaupt der römisch-katholischen Kirche, obwohl er zu diesem Zeitpunkt bereits verstorben war.
Ein weiteres Problem ist, dass KI-Systeme äußerst selbstbewusst auftreten. Trotz ihrer hohen Fehlerquote verweigern sie nur selten Antworten. Von 3.000 Anfragen wurden 2.983 beantwortet – oft ohne jeden Hinweis auf Unsicherheit. Laut den Autor*innen der Studie vermittelt dies ein trügerisches Gefühl von Sicherheit.
Warum Vertrauen in KI gefährlich sein kann
Dennoch vertrauen weiterhin mehr als ein Drittel der Erwachsenen auf KI-generierte Antworten. Allein ChatGPT wird wöchentlich von über 800 Millionen Menschen genutzt. Im schlimmsten Fall könnten sogar Wahlentscheidungen auf Grundlage falscher Informationen getroffen werden.
Doch hinterfragen KI-Systeme die Inhalte, die sie aus dem Internet beziehen, eigentlich? Erkennen sie Fake News – oder reproduzieren sie diese lediglich? Erschaffen sie sogar neue? Eine Studie legt nahe, dass Letzteres häufiger der Fall ist.
Natürlich gibt es weiterhin viele Bereiche, in denen KI im Alltag und Berufsleben eine große Hilfe sein kann. Entscheidend ist jedoch, ihre Antworten kritisch zu hinterfragen und zu überprüfen, anstatt sie als unfehlbare Quelle zu betrachten – insbesondere dann, wenn es um wichtige Entscheidungen geht.