Halluzination (KI)

Wenn ein KI-System falsche Informationen überzeugend als Fakten präsentiert. Ein fundamentales Problem großer Sprachmodelle.

Halluzination im KI-Kontext beschreibt das Phänomen, dass KI-Systeme — insbesondere LLMs — falsche Informationen erfinden und überzeugend als Fakten präsentieren.

Warum halluzinieren KIs?

  • LLMs generieren statistische Vorhersagen, keine Fakten
  • Sie haben kein echtes Verständnis von Wahrheit
  • Lücken im Trainingsdatensatz werden mit plausibel klingendem Text gefüllt
  • Bei Unsicherheit raten sie, statt zu sagen „Ich weiß es nicht“
  • Typische Halluzinationen

  • Erfundene Zitate von realen Personen
  • Nicht existierende wissenschaftliche Studien
  • Falsche historische Daten mit korrektem Stil
  • Erfundene Gesetze oder Paragraphen
  • Schutz vor KI-Halluzinationen

  • Jede KI-Aussage mit unabhängigen Quellen überprüfen
  • Besonders kritisch bei Zahlen, Zitaten und Fakten sein
  • KI als Ausgangspunkt nutzen, nicht als finale Quelle
  • Das Wichtigste

    KI-Systeme können überzeugend lügen, ohne es zu wissen — überprüfe jede Aussage.

    Weitere Begriffe entdecken

    Erweitere dein Wissen zur Medienkompetenz mit unserem vollständigen Glossar.

    Alle Begriffe anzeigen