Der EU AI Act als Kompass für das Klassenzimmer

Neue KI Werkzeuge wecken Neugier und rechtliche Fragen. Der EU AI Act schafft seit 1. August 2024 einen einheitlichen Rahmen, der Vertrauen in KI stärken soll. Ziel ist verantwortungsvolle Innovation bei gleichzeitigem Schutz von Gesundheit, Sicherheit und Grundrechten. Für Schulen ist die Verordnung kein Bremsklotz, sondern Orientierung für einen sicheren und sinnvollen Einsatz im Unterricht.
Rollen und Verantwortung von Schulen
Der AI Act unterscheidet Anbieter, die Systeme entwickeln, und Betreiber, die sie einsetzen. Schulen und Lehrkräfte handeln im Unterricht als Betreiber. Damit tragen sie Verantwortung für einen sicheren und grundrechtskonformen Einsatz. Bei hochriskanten Systemen kommen Pflichten wie Überwachung, Prüfung und Dokumentation hinzu. Das ist ein deutlicher Wechsel weg von alleiniger Herstellerverantwortung hin zu geteilter Verantwortung.
Zeitplan für die Umsetzung
Die Regeln gelten schrittweise. Seit 2. Februar 2025 sind Systeme mit unzulässigem Risiko verboten. Dazu zählen etwa Emotionserkennung in Bildungseinrichtungen. Ab 2. August 2026 werden die meisten übrigen Vorgaben wirksam, besonders jene für hochriskante Anwendungen.
Vier Risikostufen als Ampel
Inakzeptables Risiko bedeutet Verbot. Dazu zählen Emotionserkennung, Sozialkreditsysteme und manipulative Systeme, die Schutzbedürftigkeit ausnutzen.
Hohes Risiko bedeutet strenge Auflagen. Betroffen sind etwa automatische Leistungsbewertung, Systeme zur Zuteilung von Lernplätzen, adaptive Lernplattformen sowie Prüfaufsicht mit KI. Schulen müssen wirksame menschliche Aufsicht sicherstellen, eine Grundrechte Folgenabschätzung vor Inbetriebnahme vornehmen, die Nutzung an die Anleitungen des Anbieters binden, Eingabedaten sorgfältig wählen und den Betrieb soweit möglich protokollieren.
Begrenztes Risiko erfordert Transparenz. Wer Chatbots einsetzt, muss klar machen, dass es sich um automatisierte Antworten handelt. Künstlich erzeugte oder manipulierte Inhalte, die echt wirken könnten, müssen als solche gekennzeichnet werden.
Minimales Risiko ist weitgehend frei nutzbar. Dazu gehören Spamfilter, Rechtschreibhilfen und einfache Kreativ Werkzeuge. Allgemeiner Datenschutz bleibt zu beachten.
KI Kompetenz als Pflicht der Organisation
Artikel 4 verlangt KI Kompetenz. Gemeint ist Wissen und Können, um KI sachkundig einzusetzen, Chancen und Risiken einzuordnen und praktische Anwendungen souverän zu steuern. Es gibt keine pauschale staatliche Fortbildung für alle. Stattdessen müssen Schulleitungen sicherstellen, dass das Personal passende Kompetenzen erwirbt. Tiefe und Umfang richten sich nach den eingesetzten Systemen. Hochrisiko Anwendungen erfordern intensivere Schulung. Wichtig ist eine nachvollziehbare Dokumentation von Qualifizierungen, etwa schulinterne Fortbildungen, Webinare oder Onlinekurse.
Diese Vorgaben wirken in die Pädagogik hinein. Wirksame menschliche Aufsicht heißt Ergebnisse nicht nur abnicken, sondern prüfen, begründen lassen und den Entstehungsprozess besprechen. Damit rückt der Lernweg mit Reflexion, Kritikfähigkeit und digitaler Mündigkeit stärker in den Mittelpunkt. Schulen tragen zudem Verantwortung, solche Kompetenzen auch bei Schülerinnen und Schülern aufzubauen, etwa zu Bias, Desinformation und Ethik.
Unterstützung in Österreich
Das Bildungsministerium unterstützt Schulen bereits mit passgenauen Angeboten. Der kostenlose KI MOOC der Virtuellen PH hilft Lehrkräften, Kompetenzen gezielt aufzubauen und nachzuweisen. Die Eduthek bündelt geprüfte Materialien zu KI für den Unterricht. Das KI Badge im Netzwerk eEducation motiviert Schulen, eine Strategie zu entwickeln und Fortschritte sichtbar zu machen. Handreichungen zu schriftlichen Arbeiten zeigen, wie Dialog, Prozesssicht und Beurteilung mit menschlicher Aufsicht zusammengehen.
Praktische nächste Schritte für Schulen
- Informieren und Verantwortlichkeiten klären. Ein kleines Team kann als Anlaufstelle dienen.
- Bestandsaufnahme der bereits genutzten KI Werkzeuge und erste Einschätzung der Risikostufen.
- Einfache, klare Schulregeln zum KI Einsatz erstellen, inklusive Kennzeichnung von KI Inhalten und Umgang mit privaten Accounts.
- Fortbildungsplan festlegen, Maßnahmen durchführen und sorgfältig dokumentieren.
- Eltern und Schülerinnen sowie Schüler transparent informieren, Chancen und Grenzen offen ansprechen.
Der AI Act schafft Rechtssicherheit und lenkt den Blick auf verantwortungsvolle Praxis. Entscheidend ist die Rolle der Schule als Betreiber. Wer Pflichten kennt, Kompetenzen aufbaut und Prozesse dokumentiert, nutzt KI zum Vorteil von Lernenden und Lehrenden. Österreichs Angebote liefern dafür eine tragfähige Grundlage. Lehrkräfte bleiben die zentralen Wegbegleiter für kritische KI Kompetenz und geben ihren Klassen den Kompass für eine digitale Zukunft in die Hand.