8. März 2026
Digitale Ethik5 Min. Lesezeit+10 XP

KI und Ethik: Wer entscheidet?

Welche ethischen Fragen entstehen, wenn Maschinen Entscheidungen treffen?

KI und Ethik: Wer entscheidet?

Künstliche Intelligenz trifft immer mehr Entscheidungen, die unser Leben beeinflussen. Doch wer ist verantwortlich, wenn eine KI falsch liegt? Und nach welchen Werten soll sie handeln?

Wo KI heute schon entscheidet

  • Bewerbungen: KI sortiert Lebensläufe vor — und aussortiert
  • Justiz: In einigen Ländern berechnet KI das Rückfallrisiko von Straftätern
  • Medizin: KI erkennt Krankheiten auf Röntgenbildern
  • Sozialleistungen: Algorithmen entscheiden über Anträge
  • Autonomes Fahren: KI muss in Sekundenbruchteilen Entscheidungen treffen
  • Die großen ethischen Fragen

    Fairness

    Wenn eine KI bestimmte Bevölkerungsgruppen benachteiligt — wer trägt die Schuld? Die Entwickler? Die Trainingsdaten? Das Unternehmen?

    Transparenz

    Viele KI-Systeme sind Black Boxes: Niemand kann erklären, warum sie eine bestimmte Entscheidung getroffen haben. Ist das akzeptabel bei Entscheidungen, die Menschen betreffen?

    Verantwortung

    Wenn ein selbstfahrendes Auto einen Unfall verursacht — wer haftet? Der Hersteller? Der Programmierer? Der Fahrzeughalter?

    Was wir fordern sollten

  • Erklärbarkeit: KI-Entscheidungen müssen nachvollziehbar sein
  • Menschliche Kontrolle: Bei wichtigen Entscheidungen muss ein Mensch das letzte Wort haben
  • Regelmäßige Prüfung: KI-Systeme müssen auf Diskriminierung getestet werden
  • Klare Haftung: Es muss definiert sein, wer bei Fehlern verantwortlich ist
  • Was du tun kannst

  • Informiere dich über KI-Systeme, die dich betreffen
  • Hinterfrage automatisierte Entscheidungen
  • Unterstütze Organisationen, die sich für ethische KI einsetzen
  • Fordere Transparenz von Unternehmen und Politik
  • Registriere dich und verdiene XP

    Erstelle ein kostenloses Konto, lies Artikel und sammle Erfahrungspunkte auf deinem Weg zur Medienkompetenz.

    Jetzt starten