KI liefert immer mehr falsche Informationen
ChatGPT, Perplexity und Co. liefern in mehr als einem Drittel der Fälle falsche Fakten. Besonders politische Propaganda verbreitet sich rasant.
Vertraust Du KI-Chatbots bei Deiner Informationssuche? Das könnte riskant sein. Die Fehlerquote der zehn bekanntesten KI-Assistenten stieg von 18% auf 35% innerhalb eines Jahres. Fast jede dritte Antwort enthält falsche Fakten. Dies zeigt eine aktuelle Newsguard-Studie [1]. Besonders problematisch: 15% der unter 25-Jährigen nutzen KI bereits als Hauptquelle für Nachrichten.
Die Verlierer im Faktencheck: Perplexity stürzt dramatisch ab
Die Ergebnisse überraschen selbst Experten. Perplexity, einst Vorbild mit 0% Fehlerrate, liefert heute in 46% der Fälle Falschinformationen. ChatGPT und Meta AI folgen mit jeweils 40% falschen Antworten, Copilot mit 37%. Nur zwei Systeme halten sich wacker: Claude mit nur 10% und Gemini mit 16,7% Fehlerrate.
Wie politische Propaganda KI-Systeme gezielt manipuliert
Besonders beunruhigend: Sechs von zehn getesteten KI-Modellen fallen auf politische Propaganda-Kampagnen herein. Das sogenannte Pravda-Netzwerk mit etwa 150 pro-Kreml-Websites soll laut the decoder KI-Systeme gezielt mit Falschinformationen füttern [1].
| KI-Assistent | Fehlerrate | Verweigerungsrate |
|---|---|---|
| Claude | 10% | 0% |
| Gemini | 16,7% | 0% |
| Copilot | 37% | 0% |
| ChatGPT | 40% | 0% |
| Meta AI | 40% | 0% |
| Perplexity | 46% | 0% |
Die Integration von Echtzeit-Websuchen sollte eigentlich das Problem veralteter Informationen lösen. Stattdessen hat sie neue Schwachstellen geschaffen. Die KI-Systeme greifen nun auf ein „verschmutztes Informationsökosystem“ zurück und können nicht zwischen seriösen Quellen und Propaganda unterscheiden [1].
Warum halluzinieren KI-Modelle so oft falsche Fakten?
KI-Modelle sind nicht auf Wahrheit trainiert, sondern auf Wahrscheinlichkeiten von Wortsequenzen. Sie geben die statistisch wahrscheinlichste Antwort – unabhängig davon, ob diese faktisch korrekt ist [2]. Selbst OpenAI räumt ein: Sprachmodelle werden strukturell bedingt immer Halluzinationen erzeugen.
So schützt Du Dich vor KI-Falschinformationen
Eine OECD-Studie mit über 40.000 Befragten aus 21 Ländern zeigt: Menschen überschätzen ihre Fähigkeit, Falschinformationen zu erkennen [3]. Im Durchschnitt wurden KI-generierte Aussagen in 68% der Fälle richtig als wahr oder falsch erkannt – besser als bei menschlich erstellten Inhalten. Aber das Selbstvertrauen in die eigene Urteilsfähigkeit korreliert nicht mit der tatsächlichen Erkennungsrate.
So gehst Du als kritischer KI-Nutzer vor:
- Vergleiche Informationen mit mehreren unabhängigen Quellen
- Nutze vorzugsweise Claude oder Gemini für faktenbezogene Anfragen
- Sei besonders wachsam bei aktuellen politischen oder gesellschaftlichen Themen
- Überprüfe Quellenangaben der KI-Systeme – sie könnten erfunden sein




Hinterlasse einen Kommentar
An der Diskussion beteiligen?Hinterlasse uns deinen Kommentar!