KI-generierte Bilder

Mit Hilfe von KI-Systemen wie DALL-E oder Midjourney erzeugte Bilder, die fotorealistisch wirken können, aber nie fotografiert wurden.

KI-generierte Bilder werden von Systemen wie DALL-E, Midjourney oder Stable Diffusion erzeugt. Sie können fotorealistisch wirken, ohne je fotografiert worden zu sein.

Wie werden sie erstellt?

Durch sogenannte Diffusionsmodelle oder GANs: Die KI wird auf Millionen von Bildern trainiert und kann neue Bilder auf Basis von Textbeschreibungen (Prompts) erzeugen.

Gefahren für die Medienkompetenz

  • Gefälschte Fotos als Beweise für erfundene Ereignisse
  • Manipulierte Bilder von realen Personen in falschen Situationen
  • Immer schwieriger von echten Fotos zu unterscheiden
  • Vertrauensverlust in visuelle Medien generell
  • Erkennungshinweise

  • Unnatürliche Hände (zu viele oder verdrehte Finger)
  • Inkonsistenter Text im Bild
  • Zu perfekte oder zu glatte Hauttextur
  • Asymmetrien bei Schmuck, Brillen oder Ohren
  • Verschwommener oder widersprüchlicher Hintergrund
  • Das Wichtigste

    Ein Foto ist kein Beweis mehr — KI kann fotorealistische Bilder aus dem Nichts erschaffen.

    Weitere Begriffe entdecken

    Erweitere dein Wissen zur Medienkompetenz mit unserem vollständigen Glossar.

    Alle Begriffe anzeigen