Bias in KI-Systemen: Warum Algorithmen Vorurteile haben

Ein Leitfaden für Lehrkräfte zur kritischen Reflexion im Unterricht
Oft begegnen wir KI Systemen mit der Annahme, sie seien „objektiv“ oder „neutral“, da sie auf Mathematik und Daten basieren. Doch das ist ein Trugschluss. KI-Systeme können diskriminieren, Stereotype verstärken und unfair entscheiden. In der Fachsprache nennt man dies „Bias“ (dt. Verzerrung oder Voreingenommenheit).
Für Lehrpersonen ist es essenziell, dieses Phänomen zu verstehen, um Schülerinnen und Schüler zu einem mündigen und kritischen Umgang mit Technologie zu erziehen.
Was ist Bias?
Bias in KI-Systemen bezeichnet eine systematische Verzerrung in den Ergebnissen, die dazu führt, dass bestimmte Personengruppen oder Ideen ungerechtfertigt bevorzugt oder benachteiligt werden. Man kann sich Bias wie eine getönte Brille vorstellen, die der Computer trägt. Alles, was er sieht und berechnet, wird durch die Farbe dieser Gläser gefärbt.
Wie entstehen diese Vorurteile?
„Garbage In, Garbage Out“
KI-Systeme werden nicht mit Wissen programmiert, sondern mit Daten trainiert. Die Qualität dieser Daten bestimmt die Qualität der Ergebnisse. Es gibt drei Hauptquellen für Bias:
Historische Vorurteile in Trainingsdaten (Data Bias):
KI lernt aus der Vergangenheit. Wenn eine KI mit Millionen von Texten aus dem Internet trainiert wird, lernt sie auch die dort vorhandenen gesellschaftlichen Stereotypen. Die KI spiegelt dann nicht die Welt wider, wie sie sein sollte, sondern wie sie war (oder ist), inklusive aller Ungerechtigkeiten.
Mangelnde Repräsentation (Selection Bias):
Wenn die Datenbasis nicht vielfältig genug ist, funktioniert das System für bestimmte Gruppen schlechter. Wenn eine Bilderkennungs-KI hauptsächlich mit Fotos von hellhäutigen Männern trainiert wird, wird sie bei Frauen oder Menschen mit dunklerer Hautfarbe häufiger Fehler machen.
Design der Algorithmen:
Auch die Entwicklerteams selbst sind oft nicht divers genug aufgestellt. Unbewusste Annahmen der Programmierenden können so in den Code einfließen.
Praxisbeispiele für den Unterricht
Um das abstrakte Thema für Schülerinnen und Schüler greifbar zu machen, eignen sich folgende Beispiele aus der Realität:
1. Der Bewerbungs-Algorithmus (Gender Bias)
Ein bekanntes Beispiel stammt von dem großen Technologiekonzern (Amazon), der eine KI entwickelte, um Bewerbungen automatisch zu sortieren. Das System lernte aus den Bewerbungen der letzten zehn Jahre, die überwiegend von Männern stammten. Die KI brachte sich selbst bei, dass männliche Bewerber bevorzugt werden sollten. Bewerbungen, die das Wort „Frauen“ enthielten (z. B. „Kapitänin des Frauen-Schachteams“), wurden abgewertet. Das Projekt wurde eingestellt, zeigt aber eindrücklich, wie historische Ungleichheit automatisiert werden kann.
2. Übersetzungsfehler und Stereotype
Lassen Sie Ihre Schülerinnen und Schüler einmal geschlechtsneutrale Sätze aus Sprachen wie Türkisch oder Ungarisch in Google Translate oder ähnliche Tools ins Deutsche oder Englische übersetzen. Oft wird „o bir doktor“ (er/sie ist Arzt/Ärztin) automatisch zu „Er ist Arzt“ übersetzt, während „o bir hemşire“ (er/sie ist Krankenpfleger/in) zu „Sie ist Krankenschwester“ wird. Die KI reproduziert hier klassische Rollenbilder, die sie in den Trainingsdaten (Literatur, Webtexte) milliardenfach gefunden hat.
3. Gesichtserkennung
Studien (z. B. „Gender Shades“ von Joy Buolamwini) haben gezeigt, dass kommerzielle Gesichtserkennungssoftware bei hellhäutigen Männern fast fehlerfrei arbeitet, bei dunkelhäutigen Frauen jedoch Fehlerraten von bis zu 35 % aufwies. Im Unterricht lässt sich diskutieren: Welche Folgen hat das, wenn solche Technik z. B. zur Überwachung oder beim Entsperren von Smartphones eingesetzt wird?
Sensibler Umgang statt Verbot
Das Ziel im Unterricht sollte nicht sein, KI zu verteufeln, sondern sie zu entmystifizieren. Ermutigen Sie Lernende, KI-Ergebnisse nicht als absolute Wahrheit zu akzeptieren. Fragen Sie: „Wer hat diese KI trainiert? Mit welchen Daten? Wen könnte dieses Ergebnis benachteiligen?“
Zeigen Sie auf, dass Technologie nur so gut ist wie die Vielfalt der Menschen, die sie entwickeln.
Nutzen Sie Bias-Beispiele, um über menschliche Vorurteile zu sprechen. Oft zeigt uns die KI nur sehr deutlich, welche Probleme wir in unserer Gesellschaft noch nicht gelöst haben.
Kompetenz im Umgang mit KI (AI Literacy) bedeutet auch zu wissen, wann man dem Computer nicht vertrauen sollte. Ein bias-bewusster Unterricht stärkt die Urteilskraft der Schülerinnen und Schüler in einer zunehmend algorithmischen Welt.
Dieser Artikel wurde mit KI Unterstützung formuliert. (Google Gemini)