Ohne Fachwissen hilft auch KI nicht weiter

Florian -
Illustration einer leuchtenden Nervenzelle mit verzweigten Synapsen in Blau- und Violetttönen vor dunklem Hintergrund. Am unteren Bildrand steht in weißer Schrift der Titel „Ohne Fachwissen hilft auch KI nicht weiter". Florian Wanner Canva AI

KI kann Texte zusammenfassen, Aufgaben lösen und komplexe Sachverhalte erklären. Die Versuchung liegt nahe, daraus zu schließen:

Wenn die KI das alles kann, wird Fachwissen weniger wichtig.

Mehrere aktuelle Studien zeigen das Gegenteil.

Forschende der Harvard Business School haben 2025 untersucht, wie gut Fachleute und Fachfremde mit KI-Unterstützung Investment-Artikel verfassen können. In der Planungsphase waren die Ergebnisse aller Gruppen nahezu gleich gut. Die KI half allen, Ideen zu strukturieren und Konzepte zu entwickeln. Beim eigentlichen Schreiben zeigte sich dann, dass fachfremde Personen trotz KI-Zugang rund 13 Prozent schlechter abschnitten als die Fachleute. Die Forschenden nennen das den „GenAI Wall Effect". 

KI liefert die Karte, aber das Gelände begehen muss man selbst.

Link zur Studie

Eine Studie des KI-Unternehmens Anthropic (Shen & Tamkin, 2026) bestätigt diesen Befund aus einem anderen Blickwinkel. 52 Softwareentwickler:innen lernten eine neue Programmierbibliothek. Die Hälfte nutzte einen KI-Assistenten, die andere Hälfte arbeitete ohne. Im anschließenden Wissenstest erzielte die KI-Gruppe 17 Prozentpunkte weniger als die Kontrollgruppe.

Wer die Denkarbeit an die KI delegierte, wurde schneller fertig, verstand aber deutlich weniger.

Link zur Studie

Barbara Geyer, Professorin an der FH Burgenland, prägte für dieses Phänomen den treffenden Begriff KI-Fachkompetenzschwelle. Damit beschreibt sie eine Grenze des Vorwissens, unterhalb derer KI-Nutzung kontraproduktiv wird. Wer zu wenig über ein Thema weiß, kann den KI-Output weder bewerten noch sinnvoll einsetzen. Diese Tatsache wird von den Betroffenen oft nicht einmal bemerkt. Geyer verweist auf das bekannte Beispiel der „Tree Octopus"-Website, einer offensichtlich gefälschten Webseite über einen an Land lebenden Baumoktopus. In einer Studie erkannten nur 2 von 27 Schüler:innen die Fälschung. Was fehlte, war kein kritisches Denken, sondern Wissen über Kraken. KI-generierte Texte sehen im Vergleich zu solchen groben Fälschungen noch wesentlich überzeugender aus.

Zum Artikel über die KI-Fachkompetenzschwelle von Barbara Geyer

Joscha Falck, Lehrer und Bildungsblogger, ordnet das lerntheoretisch ein. Er unterscheidet zwischen „AI Convenience" und „AI Leadership". AI Convenience beschreibt die Haltung, mit dem zufrieden zu sein, was mit minimalem Einsatz aus der KI herauskommt. AI Leadership bedeutet dagegen, KI intentional und reflektiert einzusetzen, den eigenen Lernprozess bewusst zu steuern. Falck warnt vor „Cognitive Offloading":

Wer Denkarbeit dauerhaft auslagert, bildet weniger stabile Gedächtnisspuren und verliert langfristig an Kompetenz.

Zum Blogbeitrag von Joscha Falck

Die Studien liefern ein starkes Argument dafür, fachliche Tiefe weiterhin ernst zu nehmen. KI kann beim Lernen unterstützen, wenn Schüler:innen bereits genug über ein Thema wissen, um die Ergebnisse einzuordnen. Unterhalb dieser Schwelle besteht die Gefahr, dass KI das Lernen ersetzt, statt es zu fördern. Die entscheidende Frage für die Unterrichtsplanung lautet daher:

Haben meine Schüler:innen genug Vorwissen, um die KI-Ausgabe kritisch bewerten zu können? Wenn nicht, ist der Zeitpunkt für den KI-Einsatz noch nicht gekommen.

 

Dieser Artikel wurde mit KI-Unterstützung (Claude) formuliert.

Redaktionsbereiche / Schlagworte:

Künstliche Intelligenze-Learning