8. März 2026
Digitale Ethik4 Min. Lesezeit+10 XP

Algorithmische Diskriminierung: Wenn KI unfair wird

Wie KI-Systeme bestimmte Gruppen benachteiligen können.

Algorithmische Diskriminierung

Algorithmen und KI-Systeme werden zunehmend für wichtige Entscheidungen eingesetzt — von Bewerbungsverfahren bis zur Kreditvergabe. Doch sie können systematisch unfair sein.

Wie entsteht algorithmische Diskriminierung?

  • Verzerrte Trainingsdaten: Wenn historische Daten Vorurteile enthalten, lernt die KI diese
  • Fehlende Repräsentation: Wenn bestimmte Gruppen in den Daten unterrepräsentiert sind
  • Proxy-Variablen: Die KI nutzt scheinbar neutrale Daten, die indirekt diskriminieren (z.B. Postleitzahl als Proxy für Ethnie)
  • Reale Beispiele

  • Bewerbungs-KI: Amazon musste ein KI-Recruiting-Tool einstellen, weil es Frauen systematisch benachteiligte
  • Gesichtserkennung: Studien zeigten deutlich höhere Fehlerquoten bei dunklen Hauttönen
  • Kreditvergabe: Algorithmen vergaben schlechtere Konditionen an bestimmte ethnische Gruppen
  • Was können wir tun?

  • Transparenz fordern: Wie werden algorithmische Entscheidungen getroffen?
  • Die DSGVO nutzen: Art. 22 gibt dir Rechte bei automatisierten Entscheidungen
  • Kritisch bleiben: Auch technische Systeme können Vorurteile haben
  • Registriere dich und verdiene XP

    Erstelle ein kostenloses Konto, lies Artikel und sammle Erfahrungspunkte auf deinem Weg zur Medienkompetenz.

    Jetzt starten