Künstliche Intelligenz ist längst auch in den Klassenzimmern angekommen. Können die Schulen und die Lehrer mit diesem neuen Tool schon umgehen? Wie kann es sinnvoll in den Unterricht eingebunden werden? Was müssen die Kinder im Umgang mit KI lernen? Und welchen Einfluss hat Künstliche Intelligenz auf die Bildungsgerechtigkeit. Ein Gespräch mit Ulrike Cress. Sie ist Direktorin des Leibniz Instituts für Wissensmedien in Tübingen und Professorin für Psychologie an der Universität Tübingen.
LEIBNIZ Frau Cress, Die Schule fängt wieder an und normalerweise soll die natürliche Intelligenz von Schülerinnen und Schülern in der Schule gefördert werden. Aber heute wollen wir uns mit künstlicher Intelligenz in Schulen beschäftigen – schadet oder nutzt sie den Lernenden?
ULRIKE CRESS Es kommt immer darauf an, wie sie eingesetzt wird. So ist es immer im Lernen und bei Medien. Künstliche Intelligenz kann so eingesetzt werden, dass sie Prozesse abnimmt, dass die Kinder Dinge nicht mehr ausführen, keine Texte mehr schreiben, sich nicht mehr selbst anstrengen. Aber sie kann auch so verwendet werden, dass sie den Kindern hilft mehr zum Nachdenken zu kommen, sie kognitiv aktiviert. Diese kognitive Aktivierung ist immer das, was das Lernen fördert.
Und kognitiv aktivieren heißt, dass man sein Gehirn anstrengt?
Genau. Man muss selber nachdenken, das Gehirn muss zu vertiefter Anstrengung gebracht werden. Das heißt nicht, dass Dinge ausgelagert werden, sondern im Gegenteil: Dinge, die einen noch mehr fokussieren und tiefer nachdenken lassen, gelangen in die Aufmerksamkeit.
Und wie kann man dafür sorgen, dass diese positiven Wirkungen von künstlicher Intelligenz in der Schule zum Tragen kommen?
Ich glaube, es ist wichtig, dass diese KI nicht einfach Aufgaben abnimmt. Es geht also zum Beispiel nicht darum, dass dem Kind das Texteschreiben abgenommen wird – sondern darum, dass diese KI ein Tool ist, mit dem das Kind gemeinsam einen Text schreiben muss. Was wichtig ist für die Kinder zu wissen ist: Was kann dieses Tool? Was kann es gut leisten, was kann es schlecht leisten und wie kriege ich dieses Tool dazu, dass es mit mir gemeinsam einen Text erstellt?
Sie würden also gar nicht sagen, dass es so schlimm ist, wenn ich in der Schule ein Referat halten muss und dafür eine KI benutze. Es geht nur darum, dass ich es richtig benutze?
Ja, richtig. Ich glaube, natürlich wird das Kind benutzen, was es findet. Und so wie es bisher Bücher gefunden hat – mal gute und mal schlechte – so wird es jetzt natürlich verschiedene Tools im Internet finden. Und einige dieser Tools können manches und manches können sie eben nicht. Bisher hat man Google benutzt. Dafür hat das Kind Schlagworte in die Suchmaschine eingegeben und Google hat daraufhin Stellen im Internet markiert. Auf diese konnte das Kind gehen und sehen was steht da. Dann musste es entscheiden: Ist das ein guter Text? Ist das ein schlechter Text? Wie gehe ich mit den Informationen um? Kann ich der Quelle vertrauen? Suche ich weiter?
Und jetzt spuckt die KI bereits die vermeintlich fertige Lösung aus.
Genau. Von so einem geschlossenen und scheinbar fertigen Text kann sich das Kind erschlagen fühlen und gleichzeitig auch begeistert sein. Denn da steht eine Lösung, es ist quasi alles fertig. Und jetzt kommt es darauf an, dass dieser Schüler oder diese Schülerin gelernt hat zu wissen, wie dieser Text entsteht. Und sich fragt: Woher kommt dieser Text, was sind die Quellen dieser Informationen? Denn dieses Tool behauptet etwas. Es muss geprüft werden, ob das stimmt. Vielleicht muss ich weiterfragen oder Textzeilen ändern, neu schreiben. Den Umgang und dieses völlig neue Arbeiten mit diesen Tools muss den Kindern beigebracht werden.

Halten wir mal fest: Künstliche Intelligenz ist längst in den Schulen. Also wer jetzt anfängt, sich darüber Gedanken zu machen, ist ein bisschen spät dran. Es kommt gar nicht mehr darauf an, das zu verbieten oder aus der Schule wieder herauszuschieben, sondern es kommt darauf an, richtig damit umzugehen. Können denn die Lehrerinnen und Lehrer damit gut umgehen?
Das ist das Problem. Diese Entwicklung ist dermaßen schnell und dynamisch, dass selbst wir in der Forschung überrascht waren, als im November ein Tool auf den Markt kam, das so extrem gut war. Das Tool hat so gut kommuniziert, dass man das Gefühl bekommt, eine echte Unterhaltung zu führen, die Antworten scheinen wie geschliffen.
Und selbstverständlich wurden auch die Lehrkräfte damit schnell konfrontiert. Bei vielen ging dann zunächst mal der Automatismus los: „Das wollen wir nicht. Das stört unseren Unterricht und zerstört unsere Prüfungen.“ Recht schnell kam dann aber von den meisten Lehrkräften selbst die Erkenntnis: Das sind Tools, die gibt es jetzt. Die Kinder werden sie nutzen und wir müssen für unseren Unterricht lernen, damit umzugehen.
Das heißt, Lehrkräfte haben angefangen zu überlegen: Was heißt das, wenn ich so ein Tool zur Verfügung habe und kann ich damit Unterricht machen? Muss ich die Kinder darauf vorbereiten, was dieses Tool kann und was nicht? Muss ich es allen zur Verfügung stellen? Und diese Tools sind in Mathematik vielleicht anders nutzbar als in Englisch oder in Geschichte. Das heißt, jetzt kommt es darauf an, dass auch für alle Fächer eine Vorstellung entsteht, was solche Tools leisten können. Für die Zukunft ist wichtig, dass Seminare und Fortbildungsangebote für Lehrkräfte entstehen. Es müssen gute Konzepte erstellt und den Lehrkräften vorgestellt und beigebracht werden. In der Phase sind wir, glaube ich, im Moment.
Es ist wichtig, dass die KI nicht einfach Aufgaben abnimmt.
ULRIKE CRESS
Was gilt es für die Lehrkräfte zu lernen und an die Schülerinnen und Schüler weiterzugeben? Ist es die Kunst, die richtigen Fragen zu stellen?
Die richtigen Fragen zu stellen, wäre ein Teil, ja. Ein anderer Teil wäre natürlich, die Antworten zu prüfen, weiter zu fragen, weiter zu suchen. Und ein Teil, und das ist glaube ich das Schwierigste, ist es, mit dem eigenen Wesen zu verknüpfen. Also in dem Augenblick, wo ich als Kind oder als Nutzerin Fragen stelle, lerne ich ja mit.
Und wie schaffen wir eine Situation, in der die Nutzer, egal ob Erwachsene oder Kinder, durch das Interagieren mit dem Tool, etwa durch Fragen stellen eigenes Wissen aufbauen. Das ist, was wir unter Wissenskonstruktion verstehen. Wie können mehrere Personen durch Interaktion gemeinsam neues Wissen erwerben? Und jetzt ist diese Interaktion eben nicht nur zwischen Menschen, sondern da gibt es noch eine Künstliche Intelligenz dazwischen. Und diese KI kann bestimmte Dinge sehr, sehr gut. Zum Beispiel hat sie Zugriff auf alles Wissen im Netz. Aber es gibt andere Dinge, die sie dafür sehr schlecht beherrscht. Das heißt, ich muss als Nutzerin sehr genau wissen: was sind die Tücken dieses Tools, um es angemessen nutzen zu können.
Die Lehrer sagen ja, sie können noch nicht zuverlässig unterscheiden, ob eine Arbeit mit oder von künstlicher Intelligenz gemacht worden ist oder von der natürlichen Intelligenz der Schülerinnen und Schüler. Ist das nicht das Erste, das man lernen muss zu unterscheiden?
Ich glaube, wir kommen da in einen Wettlauf. Es gibt schon die ersten Tools, die prüfen, ob ein Text von einer KI oder von einem Menschen kommt. Und bald wird es Tools geben, die diese Texte so abändern, dass es nicht zu erkennen ist. Ich glaube, damit kommt man nicht weiter. Wir müssen akzeptieren, dass es diese Tools gibt und wir dürfen nicht mehr nur den Text im Ergebnis bewerten. Das heißt, es geht dann nicht mehr nur darum, ob ein Text gut ist oder schlecht. Dafür muss der Prozess der Texterstellung in den Vordergrund rücken. Die Lehrkraft muss nachvollziehen können, wie die Kinder zu diesem Text kommen. Woher kam die Ideen? Wie wurde mit bestimmten Informationen umgegangen, die ein spezielles Tool geliefert hat? Wie wurde mit dem Tool gemeinsam gedacht und wie wurden die Ergebnisse aus dem Tool in den Text integriert?

Wie wird in Zukunft das Abitur aussehen? Da wird doch geprüft, was im Kopf von den Schülerinnen und Schülern ist und nicht was, in der Interaktion zwischen einem Schüler, einer KI und anderen KIs oder anderen Personen entsteht.
Da gehen die Meinungen auseinander. Ein Teil ist sicher, dass wir weiterhin prüfen müssen, was im Kopf einer Person ist, also das Wissen. Das setzt zum Beispiel voraus, dass die Schülerinnen und Schüler überhaupt die Grundkompetenzen haben, um mit einem bestimmten Tool in dem gewissen Fach umzugehen. Aber in einem zweiten Teil wird dann sicher auch geprüft, was jemand mit einem Tool kann. Ein Beispiel dafür ist der Taschenrechner. Vor fünf Jahren kam die Frage auf: Taschenrechner erlaubt oder nicht? Und letztendlich wurde er erlaubt. Aber natürlich frage ich in der Prüfung dann nicht: Was ist zwei plus zwei? Das macht der Taschenrechner. Sondern die Aufgaben wurden deutlich schwieriger, denn mit einem Taschenrechner waren diese schwierigeren Aufgaben plötzlich zu bewältigen. Ähnlich wird es bei Tools mit künstlicher Intelligenz sein. Wir brauchen Aufgaben, die die Fähigkeit des Individuums prüfen, mit diesem Tool weiterzukommen. Eine neue Schwierigkeit wird sein, dass man natürlich immer höhere Kompetenzen fordert und damit vielleicht auch diejenigen verliert, die diese Kompetenzen nicht immer aufbringen können.
Es gibt ja heute schon riesige Unterschiede zwischen guten und schlechten Schülern und Schülerinnen und die Nutzung verschiedener Tools kann diese Unterschiede noch vergrößern. Wie stellt in einer Welt mit immer neuen Tools eine Bildungsgerechtigkeit her?
Also diesen Effekt haben wir in der Bildung fast immer. Man nennt ihn den "Matthäus Effekt“ von der Bibelstelle „Wer hat, dem wird gegeben“ und „Wer nichts hat, dem wird genommen.“ Also dort, wo gute Voraussetzungen da sind – egal ob durch das Elternhaus, schlicht Intelligenz oder einfach gute Fähigkeiten, sich selbst zu organisieren – dort sind Kinder oder Erwachsene besser darin, externe Ressourcen zu nutzen. Sie schaffen es sogar, dass Fernsehen lernförderlich für sich zu nutzen. Der Unterricht muss sicherstellen, dass ein Kind diese Medien und Tools nicht nur ausprobiert und irgendwie nutzt, sondern er muss eine Anleitung liefern, wie eine lernförderliche Nutzung aussehen kann. Es reicht also nicht aus zu sagen: Wir haben diese Tools, nutzt die mal oder probiert die mal aus. Sondern genau das Gegenteil muss passieren. Wir müssen die Nutzung dieser Tools ganz stark im Unterricht verankern und die entsprechenden Kompetenzen dafür aufbauen.
Wie kann KI dabei helfen, eben diese Unterschiede zwischen den Kindern auszugleichen?
Eine KI kann erkennen, was ein Schüler schon kann und was noch nicht. Und daraufhin kann sie das Kind auch adäquat auf dieser Lernstufe begleiten. Das kann und soll die Lehrkraft natürlich auch. Aber eventuell bietet uns die KI diese Möglichkeiten zur Adaption noch besser und ermöglicht es so das Ziel von Bildungsgerechtigkeit zu erreichen. Also ich glaube schon, dass KI letztendlich das Lernen effizienter und besser machen wird. Aber der Weg dahin ist noch weit. Also da spricht man nicht von zwei Jahren, sondern von eher fünf bis zehn Jahren.
TONSPUR WISSEN
Das Gespräch mit Raimund Bleischwitz vom Leibniz-Insitut für Marine Tropenforschung (ZMT) können Sie in voller Länge im Podcast Tonspur Wissen
von Rheinischer Post und der Leibniz-Gemeischaft hören. Für leibniz
haben wir es leicht gekürzt und bearbeitet. Im Podcast widmet sich die Journalistin Ursula Weidenfeld aktuellen Themen und Entwicklungen und spricht darüber mit Wissenschaftlerinnen und Wissenschaftlern aus der Leibniz-Gemeinschaft. Alle Folgen des Podcasts finden Sie hier.