KI liefert immer mehr falsche Informationen

✨ Verbessere Deine Texte mit nur wenigen Klicks: Teste unser Textanalyse-Tool und Texte-Umschreiben-Tool jetzt - kostenlos.

ChatGPT, Perplexity und Co. liefern in mehr als einem Drittel der Fälle falsche Fakten. Besonders politische Propaganda verbreitet sich rasant.

Vertraust Du KI-Chatbots bei Deiner Informationssuche? Das könnte riskant sein. Die Fehlerquote der zehn bekanntesten KI-Assistenten stieg von 18% auf 35% innerhalb eines Jahres. Fast jede dritte Antwort enthält falsche Fakten. Dies zeigt eine aktuelle Newsguard-Studie [1]. Besonders problematisch: 15% der unter 25-Jährigen nutzen KI bereits als Hauptquelle für Nachrichten.

Die Verlierer im Faktencheck: Perplexity stürzt dramatisch ab

Die Ergebnisse überraschen selbst Experten. Perplexity, einst Vorbild mit 0% Fehlerrate, liefert heute in 46% der Fälle Falschinformationen. ChatGPT und Meta AI folgen mit jeweils 40% falschen Antworten, Copilot mit 37%. Nur zwei Systeme halten sich wacker: Claude mit nur 10% und Gemini mit 16,7% Fehlerrate.

Ein Paradoxon zeichnet sich ab: Je hilfsbereiter die KI-Systeme werden, desto ungenauer werden ihre Antworten. Noch vor einem Jahr verweigerten die Chatbots in 31% der Fälle eine Antwort bei unsicheren Informationen. Heute liegt diese Verweigerungsrate bei null Prozent [1].

Wie politische Propaganda KI-Systeme gezielt manipuliert

Besonders beunruhigend: Sechs von zehn getesteten KI-Modellen fallen auf politische Propaganda-Kampagnen herein. Das sogenannte Pravda-Netzwerk mit etwa 150 pro-Kreml-Websites soll laut the decoder KI-Systeme gezielt mit Falschinformationen füttern [1].

KI-Assistent Fehlerrate Verweigerungsrate
Claude 10% 0%
Gemini 16,7% 0%
Copilot 37% 0%
ChatGPT 40% 0%
Meta AI 40% 0%
Perplexity 46% 0%

Die Integration von Echtzeit-Websuchen sollte eigentlich das Problem veralteter Informationen lösen. Stattdessen hat sie neue Schwachstellen geschaffen. Die KI-Systeme greifen nun auf ein „verschmutztes Informationsökosystem“ zurück und können nicht zwischen seriösen Quellen und Propaganda unterscheiden [1].

Warum halluzinieren KI-Modelle so oft falsche Fakten?

KI-Modelle sind nicht auf Wahrheit trainiert, sondern auf Wahrscheinlichkeiten von Wortsequenzen. Sie geben die statistisch wahrscheinlichste Antwort – unabhängig davon, ob diese faktisch korrekt ist [2]. Selbst OpenAI räumt ein: Sprachmodelle werden strukturell bedingt immer Halluzinationen erzeugen.

Eine zweite Ursache liegt in der Informationsflut. Die Chatbots greifen inzwischen auf Echtzeitdaten aus dem Internet zu, ohne die Qualität der Quellen zuverlässig einschätzen zu können. Sie verwechseln teilweise jahrhundertealte Nachrichtenpublikationen mit Propaganda-Inhalten ähnlichen Namens [1].

So schützt Du Dich vor KI-Falschinformationen

Eine OECD-Studie mit über 40.000 Befragten aus 21 Ländern zeigt: Menschen überschätzen ihre Fähigkeit, Falschinformationen zu erkennen [3]. Im Durchschnitt wurden KI-generierte Aussagen in 68% der Fälle richtig als wahr oder falsch erkannt – besser als bei menschlich erstellten Inhalten. Aber das Selbstvertrauen in die eigene Urteilsfähigkeit korreliert nicht mit der tatsächlichen Erkennungsrate.

So gehst Du als kritischer KI-Nutzer vor:

  • Vergleiche Informationen mit mehreren unabhängigen Quellen
  • Nutze vorzugsweise Claude oder Gemini für faktenbezogene Anfragen
  • Sei besonders wachsam bei aktuellen politischen oder gesellschaftlichen Themen
  • Überprüfe Quellenangaben der KI-Systeme – sie könnten erfunden sein

Quellen

  1. the-decoder.de/ki-tools-antworten-immer-und-immer-haeufiger-mit-fake-news/
  2. www.hsbi.de/media/hochschulverwaltung/dezernat-i/erfolgreich-durchs-studium/handreichung-zu-ki-tools-fuer-studierende.pdf
  3. www.bidt.digital/themenmonitor/das-erkennen-von-fake-news-bleibt-schwierig/
0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert