Foto: Shutterstock/sdecoret

KI in der Schule: Chancen und Risiken – ein Interview mit KI-Expertin Professorin Dr. Ute Schmid

Der Chatbot ChatGPT hat Unruhe in den Bildungsbereich gebracht, ist das Tool doch in der Lage mittels einer Methode Künstlicher Intelligenz (KI) menschenähnliche Texte zu generieren. An die Verunsicherung, wie sich zukünftig Texte von Schüler*innen als Eigenleistung erkennen lassen, schließt sich die Frage an, wie KI-basierte Anwendungen Lehren und Lernen in der Schule verändern, welche Chancen, aber auch Risiken sie bergen. Darüber sprach Einfach.Digital.Lernen. mit KI-Expertin Dr. Ute Schmid. Sie ist Professorin für Kognitive Systeme an der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Universität Bamberg und engagiert sich unter anderem im Bereich der KI-Bildung.

Einfach.Digital.Lernen.: Wie kann Künstliche Intelligenz an Schulen sinnvoll zum Einsatz kommen?
Ute Schmid: In der Künstlichen Intelligenz gibt es zwei große Methodenfamilien – die wissensbasierten symbolischen Ansätze sowie Maschinelles Lernen. Beide Spielarten von KI können einzeln oder in Kombination sinnvoll an Schulen genutzt werden zum. Zum einen können Lehrkräfte zum Beispiel mit Intelligenten Dashboards, zum anderen die Schülerinnen und Schüler selbst etwa mit Intelligenten Tutorsystemen (ITS) unterstützt werden.

EDL: Wie können die KI-Anwendungen Schüler*innen und Lehrkräfte im Schulalltag unterstützen?

Schmid: Intelligente Dashboards können Lehrkräfte beim Unterrichtsmanagement unterstützen. Die dort zur Verfügung gestellten Daten können zum Beispiel für sogenannte predictive analytics genutzt werden. Diese Anwendungen sind meiner Meinung nach aber mit Vorsicht zu betrachten. Hier werden aus möglichst vielen Daten von Schülerinnen und Schülern mit maschinellem Lernen Modelle gelernt, die schulischen Erfolg in einzelnen Fächern vorhersagen sollen. Erhoben werden können Abgabezeiten sowie Korrekturen für Hausaufgaben, Beteiligung an Diskussionsforen, Verweildauern auf digitalen Texten sowie bei entsprechender technischer Ausstattung auch Blickbewegungen und im Extremfall sogar Videoaufnahmen. Probleme, die ich hierbei sehe, sind:


Dr. Ute Schmid ist Professorin für Kognitive Systeme an der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Universität Bamberg. Foto: J. Schabel

  1. Es besteht die Gefahr der Verletzung von Privatsphäre und Datenschutz, insbesondere bei Videoaufnahmen, was aber wohl zumindest in Deutschland ohnehin nicht erlaubt wird.
  2. Es besteht die Gefahr, dass das Primat der Didaktik zugunsten einer unreflektierten Bevorzugung digitaler Medien aufgegeben wird, da Training und Anwendung von Modellen darauf angewiesen sind, dass möglichst viel Information über die Lernenden digital vorliegt.
  3. Mit maschinellem Lernen aus Daten trainierte Modelle sind nicht für Vorhersagen auf individueller Ebene vorgesehen und können entsprechend falsche Vorhersagen machen. So ist es etwa möglich, in einem Krankenhaus vorherzusagen, ob auf einer Station erhöhte Gefahr für einen Krankenhauskeim besteht. Die Vorhersage, ob ein bestimmter Patient infiziert wird, ist dagegen nicht zuverlässig möglich.
  4. Selbst wenn es möglich wäre, mit hoher Genauigkeit vorherzusagen, welche Note ein bestimmter Schüler oder eine bestimmte Schülerin in einem Fach erhalten wird, wäre das problematisch, da Lehrkräfte sich wohl kaum von daraus entstehenden Einschätzungen freimachen könnten und Schülerinnen und Schüler damit einen Stempel aufgedrückt bekämen, der ihre Leistungen beeinflusst, denn wer schlecht eingeschätzt wird, wird auch keine gute Performanz zeigen.

Für Schülerinnen und Schüler werden bereits einfache Lernapps angeboten, die zum Beispiel mit Gamification arbeiten. Häufig steckt in diesen Angeboten wenig KI-Technologie. Eingegebene Lösungen werden schlicht mit einer Datenbank abgeglichen und als richtig oder falsch bewertet. Hier sehe ich die Gefahr eines Rückfalls in den Behaviorismus, also ein rein auf Optimierung des Outputs hin optimiertes Lernen.

Ein Intelligentes Tutorsystem kann bei Fehlern meist zielgenau diagnostizieren, welches Fehlverständnis die Ursache ist.

Deutlich sinnvoller sind sogenannte Intelligente Tutorsysteme (ITS), die als Ergänzung zum Unterricht im Klassenverband individualisiertes Lernen ermöglichen. Ich illustriere das an einem Beispiel: Wenn Kinder in der dritten Klasse den Algorithmus für das schriftliche Subtrahieren lernen, haben einige Kinder Verständnisprobleme, zum Beispiel wie das Entbündeln funktioniert. Eine einfache App oder auch eine überlastete Lehrkraft würde zahleiche Rechenaufgaben stellen und bei fehlerhaften Lösungen schlicht mit „falsch“ oder vielleicht zusätzlich der richtigen Lösung reagieren. Egal, wie viele Aufgaben man gibt, einem Kind mit einem Verständnisproblem wird das nicht helfen. Ein ITS verfügt dagegen über Wissen über den Problembereich und kann bei Fehlern meist zielgenau diagnostizieren, welches Fehlverständnis die Ursache für einen bestimmten Fehler ist. Darauf basierend kann gezielt Feedback gegeben werden. Wir haben ein solches ITS in unserem Team entwickelt. Basierend auf der diagnostizierten Fehlerursache wird ein analoges Beispiel gegeben: „Deine Lösung ist noch nicht ganz richtig, ich zeige Dir an einem ähnlichen Beispiel, wie ich das rechne.“ Dadurch hat das Kind die Möglichkeit, sein Fehlkonzept aufzulösen, es lernt direkt im Problemlösekontext und erlebt Selbstwirksamkeit statt Frustration.

EDL: Welche Risiken bestehen beim Einsatz von KI im Schulalltag?
Schmid: Meine beiden größten Sorgen sind, dass der Zwang zum Datensammeln, um maschinelles Lernen nutzen zu können, wie erwähnt dazu führt, dass nicht mehr die Frage nach dem geeigneten didaktischen Instrument zur Vermittlung eines speziellen Inhalts im Zentrum steht, sondern standardmäßig immer digitale Medien genutzt werden. Häufig werden hier einfache Multiple Choice-Aufgaben zur Wissensdiagnose genutzt. Da die Art, wie ein Inhalt gelernt wird, immer auch davon beeinflusst wird, wie das Wissen abgeprüft wird, besteht das Risiko, dass – noch mehr – bloßes Auswendiglernen im Zentrum steht statt Verständnis und Problemlösekompetenz. Ich möchte auch noch mal darauf hinweisen, dass solche einfachen Aufgaben zur Kontrolle keine KI-Technologie nutzen – hier genügt eine einfache Datenbank.

Wichtig wäre, dass Vermittlung und Prüfung nicht ein bloßes Auswendiglernen abfragen.

EDL: Was müsste im Lehr-Lern-Prozess verändert werden, damit KI sinnvoll eingesetzt werden kann?
Schmid: Meiner Meinung nach ist eine der besten Auswirkungen der Einführung von ChatGPT, dass wir erstmals seit Langem einen breiten öffentlichen Diskurs über das Thema Bildung führen. Bereits seit es Suchmaschinen, Wikipedia, Erklärfilme und andere digitale Angebote gibt, wäre es Zeit gewesen, sich Gedanken zu machen, wie wir diese digitalen Technologien sinnvoll einsetzen können, um Kompetenzen zu erweitern und zu fördern. Natürlich geht es in kaum einem Fach ganz ohne Auswendiglernen: Ohne Vokabeln zu können, kann ich keine Sätze formulieren, ohne das Einmaleins kann ich nicht rechnen und ohne Fakten fehlt mir jede Orientierung – sei es in Geschichte oder in Geografie. Wichtig wäre, dass Vermittlung und Prüfung nicht ein bloßes Auswendiglernen abfragen, sondern den Fokus vor allem auf Zusammenhänge legen. Ich erlebe immer wieder, dass sonst kurzfristig etwas gewusst wird und danach nicht mal mehr, auf welchem Kontinent ein Land liegt, oder geschichtliche Ereignisse nicht auf der Zeitachse eingeordnet werden können.

In allen Fächern gilt: Wir brauchen die Kompetenz, um die Ausgaben von Systemen beurteilen zu können – ob die Rechtschreibkontrolle, ein Computerprogramm, ein Rechenergebnis, die Faktentreue eines Textes oder auch die argumentative Struktur, die Wortwahl oder die grammatische Formulierung korrekt beziehungsweise sinnvoll ist. Das heißt, diese Fertigkeiten müssen weiter vermittelt werden und dazu kommt eine stärkere Betonung von Beurteilung vorliegender Information als Ergänzung zur Fähigkeit, diese selbst zu produzieren.

Da die Art, wie geprüft wird, stark beeinflusst, wie gelernt wird, sollten hier einfache Wissensabfragen mit Lückentexten oder Multiple Choice-Aufgaben, wenn möglich, durch generative Formate ergänzt oder ersetzt werden. Dazu zählen Aufgaben, die Freitextantworten verlangen und die die Schülerinnen und Schüler veranlassen, Zusammenhänge herzustellen, wie beispielsweise Textaufgaben im Bereich Mathematik. Dadurch wird die Beurteilung aber aufwendiger und angreifbarer. Neben mehr Personal werden daher auch Strategien benötigt, die Lehrkräften helfen, dass ihre begründeten Notengebungen akzeptiert werden – bei Multiple Choice ist das einfach, bei komplexeren Aufgaben schwieriger.

Digitale Werkzeuge inklusive KI-Werkzeuge sollten als Erweiterung der didaktischen Möglichkeiten – zum Beispiel Arbeitsblatt plus Intelligentes TutorSystem, Unterrichtsgespräch plus Erklärfilm – und als neue Tools, die Kompetenzen erweitern und fördern – zum Beispiel ChatGPT als Ideengeber, automatische Datenanalyse beziehungsweise maschinelles Lernen als weiterer Zugang in der Mathematik –, verstanden und genutzt werden.