Chancen, Probleme und Risken von KI-Unterrichtsplanern

Die US-amerikanische NGO “Common Sense” hat in einem kürzlich veröffentlichten Report (Englisch) KI-Unterrichtsplaner genauer unter die Lupe genommen und auf Chancen, Probleme und Risken untersucht. Dabei kam sie zu dem Ergebnis, dass diese Tools grundsätzlich eine sehr gute und wirkmächtige Unterstützung für Lehrer:innen bieten, solange die Anwender:innen sie bewusst und mit grundlegendem Hintergrundwissen dazu nutzen. Vor blindem Vertrauen und unhinterfragtem Verwenden von KI-generierten Materialien raten sie aber ausdrücklich ab.
Unter anderem wurden die KI-Tools von MagicSchool, Google Classroom, Khanmigo und Curipod genauer untersucht. Von der Erstellung von Jahres- bzw. Unterrichtsplänen bis hin zu allen möglichen Arbeitsblättern bieten die verschiedensten Anwendungen eine breite Palette an Möglichkeiten, welche die Vorbereitung und Durchführung des Unterrichts erleichtern können. Problematisch sieht die Organisation allerdings mit diesen Tools erstellbare individuelle Bildungsprogramme für Schüler:innen (sogenannte IEPs). Zudem warnt “Common Sense” auch vor einem auf den ersten Blick nicht so leicht wahrnehmbaren Bias, also der Reproduktion von gesellschaftlichen Diskriminierungsverhältnissen.
Den ganzen Report finden sie immer unter diesem Link.
Die positiven Seiten: Unterstützung im Schulalltag
Die erwähnten KI-Unterrichtsplaner können laut “Common Sense” eine vielseitige Bereicherung bei der Unterrichtsvorbereitung zum Erstellen von Arbeitsblättern oder Aufgaben, Wissensüberprüfungen durch Quizzes sowie auch Feedback an Schüler:innen bieten. Ihre Stärken liegen dabei vor allem in der Adaptierung von bereits existierendem Material.
So können Aufgaben an die individuellen Lernfortschritte der Schüler:innen angepasst, oder kreative Inspirationen für die Umsetzung im Unterricht eingeholt werden. Ebenso erleichtern sie administrative Arbeiten, auch etwa in der Elternkommunikation. KI-Tools sparen bei monotonen, repetitiven Arbeiten viel Zeit und können etwa bei Übersetzungsarbeiten unterstützen.
Die überzeugendsten Ergebnisse werden dabei erzielt, wenn das Motto “Start with what you have” berücksichtigt wird. Am besten sollten KI-Tools basierend auf bewährten, hochqualitativen Unterlagen neue Aufträge mit möglichst genauen und ausführlichen Prompts gestellt werden. Die laut der NGO verantwortungsvollsten Tools wie Khanmigo verlangen vor gewissen Aufgaben deswegen auch extra hochzuladenden Kontext.
Gerade hier müssen aber freilich auch im schulischen Kontext Fragen des Datenschutzes auf jeden Fall beachtet werden (siehe weiter unten). Zudem sollte bewusst sein, dass alle hochgeladenen Daten als Trainingsmaterial für KI-Anwendungen verwendet wird. Eine gewisse Achtsamkeit ist daher immer angebracht.
Probleme: KI liefert nur scheinbar überzeugenden Content
Gröbere Probleme ortet “Common Sense” vor allem dabei, dass der von den Tools generierte Content immer überzeugend und originär wirkt und die Marketing-Versprechen der Betreiber:innen auch genau in diese Richtung gehen. Selbst mit sehr kurz formulierten Prompts erzeugt die KI auf den ersten Blick stringente Texte oder Inhalte.
Erst mit entsprechendem Hintergrundwissen sind dann auch Fehler oder zu einseitge Beleuchtung von Themen zu entdecken. Dabei tendieren KI-Tools immer dazu, möglichst widerspruchslose Inhalte zu generieren. Die Autor:innen des Reports weisen daher auch extra auf den gut erforschten Automation Bias hin, also der menschlichen Tendenz, automatisierten Systemen zu sehr zu vertrauen und ihre Entscheidungen über die eigenen bzw. die von anderen Menschen zu stellen.
Mit Nachdruck wird daher darauf verwiesen, dass den KI-Tools nicht blind vertraut werden sollte! Denn weder verfügen diese technischen Hilfsmittel über Wissen, wie effektiv unterrichtet wird, noch über pädagogische Erfahrung und ein Gefühl für die Bedürfnisse von einzelnen Schüler:innen, Dynamiken in Klassen und Lernprozesse.
Risiken: Rassismen, Stereotype und Datenschutz
Bei allen untersuchten Plattformen tauchten Bias auf, welche die Ergebnisse beeinflussten. So erzeugte etwa Curipod als Vorschlag für eine Stunde über die US-Bürgerrechtsbewegung ein Bild von Rosa Parks, das pädagogischen Ansprüchen nicht gerecht werden kann. Abgesehen von der Problematik, bei welthistorischen Ereignissen mit vorhandenem Bildmaterial auf beliebige, KI-generierte Erzeugnisse zurückzugreifen, bildete der Vorschlag auch rassistische Stereotype über schwarze Menschen ab.
Auch das Erstellen von einer Unterrichtseinheit zu den christlichen Missionsstationen bei der spanischen Kolonisation von Kalifornien zeigte ein verzerrtes und beschönigtes Bild der historischen Realität: Die indigene Bevölkerung hätte dort vor allem neue Fähigkeiten erworben und gelernt, war in dem Vorschlag zu lesen. Von Zwangsmaßnahmen, Unterdrückung der eigenen Lebensweise und Übergriffen war hingegen nichts in dem Text zu finden. Gerade auch deshalb raten die Autor:innen von ebenfalls angebotenen Chatbots mit historischen Persönlichkeiten eher ab, weil diese zu einer Beschönigung und zu friktionsfreien Darstellung neigen.
Das größte Risiko stellen laut Autor:innen allerdings unter anderem die in den meisten Tools angebotenen “Individuellen Bildungsprogramme” (IEP) für Schüler:innen dar. So konnten sie nachweisen, dass bei diesen weiß-gelesene Schüler:innen-Namen deutlich eine einfühlsamere und unterstützende Behandlung erfuhren als schwarz-gelesene. Wurde den Ersteren perspektivisch eher eine akademische Karriere zugetraut, so wurden Zweitere trotz ihrer vorhandenen Intelligenz eher als rebellisch abgestempelt und mit schärferen Maßnahmen belegt. Das Team des Wiener Bildungsservers konnte dies in MagicSchool bei ähnlich gelagerten Versuchen mit Türkisch bzw. Deutsch klingenden Namen ebenso reproduzieren.
Zur grundsätzlichen Vorsicht mahnt der Report zudem auch bei allem, was das Thema Datenschutz betrifft. Gerade beim Erstellen von Jahresplänen oder ähnlichem sollten den KI-Tools niemals sensible Informationen, wie etwa persönliche Daten von Schüler:innen oder Lehrer:innen, zur Verfügung gestellt werden. Auch auf das Urheberrecht muss, gerade auch beim Verfeinern bzw. Verbessern von bereits bestehenden Lernmaterialien, selbstverständlich Rücksicht genommen werden.
Fazit: Die Möglichkeiten ergreifen, die Gefahren kennen
Abschließend noch ein Rückblick auf die bereits einleitend angeführte Zusammenfassung des Reports: Die bestehenden Probleme und Risiken sollten motivierte Lehrkräfte nicht davon abhalten, sich mit KI-Unterrichtsplanern auseinanderzusetzen. Sinnvoll eingesetzt können sie durchaus eine Bereicherung und auch Vereinfachung des Schulalltags darstellen.
Eine grundlegende Auseinandersetzung mit der Funktionsweise von KI, eigene(s) Kompetenzen und Wissen sowie auch eine final immer eigene/menschliche Kontrolle der erzeugten Materialien können sie aber nicht ersetzen.
Erwähnte Studien bzw. Reports
“AI Teacher Assistants” (Common Sense, August 2025): Eine - entlang von eigens entwickelten Richtlinien - durchgeführte Untersuchung von einigen gängigen KI-Unterrichtsplanern.
Passende Praxis-Ideen zu einzelnen Punkten
Mensch oder KI? Der Turing-Test (Sek 1, Sek 2)
Schüler:innen lernen den Turing-Test kennen und führen diesen selbst durch.
Coded Bias - Wie KI diskriminiert (Sek 2)
Schüler:innen erarbeiten, wie Diskriminierung und Rassismus sich in Künstlicher Intelligenz fortschreiben.
KI und Kunst: Wie Bilder durch Künstliche Intelligenz entstehen (Sek 1, Sek 2)
Schüler:innen analysieren KI-Bilder, erstellen eigene KI-Kunst und diskutieren die Frage des Urheberrechts.
Künstliche Intelligenz verstehen: Maschinenlernen (Sek 1, Sek 2)
Schüler:innen nehmen die Rolle einer Künstlichen Intelligenz ein und lernen, wie ein KI-System Entscheidungen trifft.
Künstliche Intelligenz: Muster erkennen (PS)
Schüler:innen nehmen die Rolle einer Künstlichen Intelligenz ein und lernen, wie Mustererkennung funktioniert.