Warum Algorithmen Vorurteile verstärken und wie wir dagegen vorgehen können

Künstliche Intelligenz trifft immer häufiger Entscheidungen, sei es im Bewerbungsprozess, in der Justiz oder im Finanzwesen. Doch KI-Systeme sind nicht neutral – sie übernehmen Vorurteile aus den Daten, mit denen sie trainiert wurden. Dies kann dazu führen, dass Frauen seltener Jobangebote erhalten oder Gesichtserkennungssoftware Menschen mit dunkler Hautfarbe schlechter erkennt. Die Frage nach der Fairness von KI betrifft daher die gesamte Gesellschaft.