Warum Algorithmen Vorurteile verstärken und wie wir dagegen vorgehen können

Florian -
Titelbild Alena Darmel

Wie entstehen Vorurteile in Algorithmen?

KI-Systeme lernen aus historischen Daten, die oft bereits diskriminierende Muster enthalten. Fehlen in einer Bilddatenbank diverse Hauttöne, erkennt eine Gesichtserkennungssoftware bestimmte Gruppen schlechter. Auch unbewusste Annahmen der Entwickler beeinflussen das Design von Algorithmen, etwa wenn Sprachmodelle stereotype Geschlechterrollen verstärken. Problematisch sind zudem Feedback-Loops, bei denen Algorithmen bestehende Vorurteile weiter zementieren, etwa indem sie Frauen seltener technische Berufe vorschlagen. Ein besonders gravierendes Beispiel ist das US-Justizsystem COMPAS, das schwarze Angeklagte systematisch als risikoreicher einstufte, obwohl ihre Rückfallquote nicht höher war.

Vorurteilsbehaftete KI-Systeme haben reale Konsequenzen. Im Arbeitsmarkt filtern Bewerbungsalgorithmen Frauen oder ältere Menschen heraus. Diagnose-Tools erkennen Krankheiten bei nicht-weißen Patient:innen seltener, da viele medizinische Daten auf weißen Probanden basieren. Auch in sozialen Medien zeigt sich Diskriminierung, wenn Hate-Speech-Filter bestimmte Dialekte fälschlicherweise als problematisch einstufen. 

Die Vermeidung von KI-Diskriminierung ist eine Aufgabe für alle Beteiligten. Entwickler müssen ihre Algorithmen regelmäßig auf Verzerrungen überprüfen, Unternehmen brauchen transparente Richtlinien und Ethik-Boards. Politische Maßnahmen wie der EU AI Act (https://www.digitalaustria.gv.at/Themen/KI.html) regulieren Hochrisiko-KI-Anwendungen. Auch Nutzer:innen sollten sich der Grenzen automatisierter Entscheidungen bewusst sein. Unternehmen sollten zudem externe Prüfungen durchführen, diverse Teams einbinden und auf Explainable AI (https://de.wikipedia.org/wiki/Explainable_Artificial_Intelligence) setzen, um Entscheidungen nachvollziehbar zu machen.

Mehr Transparenz könnte durch Open-Source-KI erreicht werden, bei der Modelle und Trainingsdaten offengelegt sind. Bias-Bug-Bounties (https://oecd-opsi.org/innovations/algorithmic-bias-bounties/) belohnen das Aufdecken von Vorurteilen in Algorithmen. Die EU entwickelt bereits Ethik-Zertifizierungen (https://op.europa.eu/de/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1), die faire KI-Systeme kennzeichnen. Die Stadt Wien setzt auf diskriminierungsfreie KI in der Verwaltung und schult ihre Mitarbeiter entsprechend.

KI braucht klare Regeln

Algorithmen sind mächtig, aber nicht unfehlbar. Um Diskriminierung zu vermeiden, sind klare Regeln und kontinuierliche Kontrolle nötig. Der EU AI Act ist ein erster Schritt, doch letztlich müssen Entwickler, Unternehmen und die Gesellschaft gemeinsam dafür sorgen, dass KI nicht bestehende Ungleichheiten verstärkt, sondern zu einer faireren Zukunft beiträgt.

Redaktionsbereiche / Schlagworte:

E-LearningInformatikMediendidaktikalle Schulstufen