Halluzination (KI)
Wenn ein KI-System falsche Informationen überzeugend als Fakten präsentiert. Ein fundamentales Problem großer Sprachmodelle.
Halluzination im KI-Kontext beschreibt das Phänomen, dass KI-Systeme — insbesondere LLMs — falsche Informationen erfinden und überzeugend als Fakten präsentieren.
Warum halluzinieren KIs?
Typische Halluzinationen
Schutz vor KI-Halluzinationen
Das Wichtigste
KI-Systeme können überzeugend lügen, ohne es zu wissen — überprüfe jede Aussage.
Verwandte Begriffe
Weitere Begriffe entdecken
Erweitere dein Wissen zur Medienkompetenz mit unserem vollständigen Glossar.
Alle Begriffe anzeigen