Guter Unterricht: mit Lehrkraft und KI
Neue KI-Technologien zulassen und kritisch reflektieren: Thomas Strasser, Professor für Fremdsprachendidaktik und technologieunterstütztes Lehren und Lernen an der Pädagogischen Hochschule in Wien, im Interview.
DW: Das Thema KI löst bei vielen Menschen Faszination, aber auch Sorgen und Ängste aus. Dein Vortrag hier auf der IDK in Winterthur trägt den Titel „Haltung bewahren, bitte!" und bezieht sich auf den Einsatz von KI-Technologie im Sprachunterricht. Was genau meinst du damit und welche Haltung würdest du Deutschlehrenden empfehlen?
Thomas Strasser: Zusammenfassend geht es darum, vor allem eine Reflexionskompetenz zu entwickeln, im Sinne von: Technologie zulassen, sie kritisch reflektieren und dann möglicherweise für den eigenen Unterricht didaktisieren – oder auch nicht. Das ist mir ganz wichtig, dass Haltung gegenüber Technologie durchaus auch eine kritische und abwehrende sein kann, wenn sie gut begründet ist. Wenn ich jetzt nur sage, ich setze diese Technologie nicht ein, weil ich nicht so der Tekkie bin, dann ist das ein bisschen zu wenig im Kontext von KI. Wenn ich aber sage, hey, das Thema ChatGPT und Datenschutz sehe ich aus einer ethischen Perspektive problematisch, dann muss das möglich sein als Lehrkraft. Dennoch bin ich schwer dafür, dass man mal mit ein paar niederschwelligen KI-Tools anfängt und sie ausprobiert. Zum Beispiel den Bild-Generator Midjourney, der etwa schöne, einfache Sätze wunderbar visualisiert. Das kann man super mit den Sprachlernenden einsetzen, indem man sie kreative Bilder mit verschiedenen Prompts erstellen lässt. Oder auch so was wie My Simpleshow – Erklärvideos, erstellt mit KI.
Kann man der KI in Zukunft denn überhaupt noch entgehen?
Naja, entgehen kann man ihr kaum, weil sie so omnipräsent ist. Es geht vor allem darum, dass man sie minimalinvasiv einsetzt. Es gab ja auch bei den anderen digitalen Tools immer großen Aufruhr. Ich erinnere zum Beispiel daran, wie das erste KI-Tool DeepL rausgekommen ist und jeder gesagt hat: „Um Gottes willen, wir brauchen jetzt überhaupt keine Übersetzungsarbeit mehr machen!" Bis man dann gemerkt hat, dass DeepL zwar grundsätzlich sehr gut übersetzen kann – wenn es aber um kulturelle, transkulturelle oder interkulturelle Kontexte geht, kann das System das noch nicht leisten Was ich damit sagen möchte: Man braucht keine Angst zu haben, dass KI jetzt die Lehrkraft ersetzt. Ich glaube vielmehr, dass man mit der eigenen Haltung – wie man glaubt, dass guter Unterricht funktioniert –, gepaart mit Digitalität, die man nicht einfach komplett ignorieren kann, eigentlich sehr soliden Unterricht machen kann. Es geht vor allem nicht immer um die App-Feuerwerke, sondern eher darum, lieber ein einfaches KI-Tool längerfristig überlegt mit den Sprachlernenden einzusetzen.
Du sprichst im Zusammenhang mit KI auch von einer notwendigen „Entnerdisierung". Was muss passieren, damit Lehrkräfte möglichst schnell fit gemacht werden für den Umgang mit KI?
Mit „Entnerdisierung" meine ich nicht, dass ich etwas gegen Nerds habe. Mir geht es eher darum, dieses Thema ein bisschen weniger Tekkie-mäßig zu gestalten. Wir haben, wenn wir an KI denken, immer noch ein Bild von Robotik, irgendwelchen Hackern, Programmierern vor Augen. Dabei ist das Thema eigentlich ein sehr pädagogisches und didaktisches, weil die KIs mittlerweile schon sehr niederschwellig daherkommen. Wir reden ja gar nicht von den Super-KIs, also den starken KIs, die menschliche Denkprozesse teilweise vollkommen übernehmen werden. Wir sprechen in der Regel von schwachen KIs, also einfachen KI-Tools, die in einer Sache sehr gut sind – wie zum Beispiel automatische Erklärvideos produzieren oder Bilder generieren. Da können wir uns doch auf einer sachlichen, didaktischen und weniger technischen Ebene darüber austauschen, wie man die schön im Deutschunterricht einsetzen kann. Dafür brauche ich kein IT-Experte sein. Ich muss nicht verstehen, wie neuronale Netzwerke funktionieren, ich muss lediglich verstehen, wo meine Daten hingehen und wie ich bestimmte Tools einsetzen kann, weil sie meinem unterrichtlichen Paradigma folgen.
Das klingt jetzt auf den ersten Blick recht einfach. Aber glaubst du nicht, dass Lehrkräfte ein paar ganz neue Kompetenzen in Bezug auf den Umgang mit KI brauchen?
Das glaube ich ganz fix. Ich glaube, die große Herausforderung für den Sprachunterricht wird sein, gewisse KI-Kompetenzen wirklich für das jeweilige Fach, also für die Sprachdidaktik, zu entwickeln. Diese KI-Kompetenzen sind bisher noch nicht wirklich explizit formuliert. Da sind wir gerade dabei, auch gemeinsam mit anderen Expertinnen und Experten, diese zu erarbeiten.
Wie kann man ein Tool wie ChatGPT deiner Meinung nach sinnvoll für den Bereich des Sprachenlernens nutzen? Wenn Lernende ChatGPT nach Grammatikregeln befragen, ohne dass eine Lehrkraft als didaktische Instanz dazwischensteht, ist das vielleicht nicht unbedingt sinnvoll.
Also ich sehe da zwei problematische Dimensionen. Einerseits zu verifizieren, ob es inhaltlich stimmt. Und zweitens, die Lernenden mit dem Tool allein zu lassen. Das ist problematisch, denn es braucht die Didaktisierungskompetenz. Ich als Sprachlehrkraft überlege mir auch für meinen Unterricht, dass ich nicht einfach die Regeln an die Tafel schreibe und sage: „So Kids, das ist der Imperativ." Sondern ich überlege mir, wie ich das angehe. Vielleicht zeige ich ein Video, wo der Imperativ zugegen ist, dann mache ich ein paar Übungen und so weiter. Und das ist die Fähigkeit, die wir auch unseren Lernenden beibringen müssen, dass sie da die richtigen Fragen stellen, also wie zum Beispiel: „Ich bin ein Sprachlernender B1. Ich habe noch nie vom Imperativ gehört. Ich würde gern das Thema Imperativ im Kontext oder in Verbindung mit meinem Hobby Fußballspielen erlernen." Diese Prompts wird es brauchen, und da braucht es die Lehrkräfte, die den Kids das beibringen. Und da sind wir wieder beim Prompt Engineering – solche Prompts sind zu lernen oder zu unterrichten wie Redemittel, Redewendungen, Wörter oder Phrasen.
Was macht gute Prompts denn aus?
Ich glaube, ein guter Prompt besteht aus mehreren Teilen. Das heißt, bis ich zum richtigen Ergebnis komme, brauche ich unterschiedliche Fragen und Prompts. Also, es gibt nicht den tollen Mega-Prompt, indem ich sage, formuliere mir oder schreib mir ein cooles Unterrichtsbeispiel für Zwölfjährige zum Thema Imperativ, in das du das Thema Fußball einbaust. Ja, dann wird was kommen. Aber da muss ich natürlich nachfragen und zum Beispiel sagen: „Okay, aber meine Lernenden mögen Bayern München nicht, lasse das aus." Dann gehe ich weiter. Das ist das Coole an einem Bot. Ich trete in die Interaktion, um ein Resultat zu bekommen. Das ist die wahre Power von ChatGPT. Dass ich mir Texte zusammenfassen oder übersetzen lassen kann, das ist nett, aber die große Power liegt eigentlich in der Interaktion.
Welche ethischen Bedenken hast du in Bezug auf KI und Sprachenlernen?
Ich habe viele ethische Bedenken. Wohin gehen meine Daten? Was passiert mit heiklen Daten? Die gehen irgendwo ins Silicon Valley. Ein zweiter bedenklicher Punkt ist: ungleiche Voraussetzungen. Einerseits kann sich nicht jeder ein KI-Tool leisten. Andererseits hat zum Beispiel ein Kollege aus Uruguay erzählt, dass dort teilweise so etwas wie Google-Suchanfragen und ChatGPT eigentlich gar nicht verwendet werden können, weil es so viel Wasser braucht, die Server zu kühlen, und in Uruguay so viel Wassermangel herrscht. Und dann aber wird das Wasser eher dafür verwendet, dass Google seine Server kühlen kann, als dass die Leute Wasser trinken können. Also, das zieht einen ethisch-moralischen Rattenschwanz hinter sich her, der teilweise noch gar nicht vorstellbar ist. Es gibt diese ethischen Bedenken auch bei ChatGPT, da es sogenannte ChatGPT-Serverfarmen in Afrika gibt, wo Menschen ständig Inhalte reinklopfen, damit der Korpus von ChatGPT größer wird. Es gibt Hinweise, dass diese Menschen ausgebeutet und schlecht bezahlt werden. Das Thema KI hat also auch etwas mit Chancengerechtigkeit und Menschenrechten zu tun, und deshalb ist in meinem Vortrag das Thema Haltung so evident.
Stichwort Korpora: Was liest zum Beispiel ChatGPT, womit wird es trainiert? Und welche Auswirkungen haben die Trainingsdaten auf den Output des Tools?
Das ist ein Riesenproblem: Einerseits werden diese Maschinen trainiert und teilweise mit halbwegs reliablen Daten gefüttert, die das Internet liefert. Aber es gibt mittlerweile ja auch schon sogenannte Bullshit-Farmen, wo Leute aus unterschiedlichen Teilen der Welt ChatGPT bewusst mit Bullshit füttern. Diese sogenannten Trolle machen das so konstant, dass das System quasi mit falschen Informationen gefüttert und es auf gewisse Weise auch ein bisschen gehackt wird. Andererseits bin ich da sehr entspannt, denn das spricht wieder für die seriöse, ausgebildete Sprachlehrkraft, die weiß, wie sie wissenschaftliche Prinzipien mit sprachdidaktischen kombiniert und dann dem Ganzen auch kritisch gegenübersteht.
Du denkst also, dass die Lehrkräfte im Prinzip schon wissen, wie sie mit KI-generierten Inhalten umzugehen haben?
Ja, aber es braucht Fort- und Weiterbildungen zum Thema KI, und es braucht sie auch in der universitären Ausbildung. Und damit meine ich jetzt zum Beispiel gar nicht das Fachdidaktik-Seminar, das vermittelt, wie man mit Bild-Generatoren arbeitet. Wir brauchen die Diskussion auch in der Philosophie-Vorlesung: Was macht KI mit dem Menschen? Wir brauchen sie in der Soziologie-Vorlesung, wir brauchen sie in der Inklusions- und Diversitätsvorlesung. Ich plädiere daher für ein Querschnittsthema der Digitalität, Schrägstrich KI. Da muss ich kein KI-Experte sein, sondern eher jemand, der weiß, wie er das aus einer ethischen Sichtweise für sein jeweiliges Fach reflektiert.
Wie nutzt du selbst KI konkret in deinem Lehralltag?
In meinem Lehralltag setze ich KI sehr oft ein, indem ich mir zum Beispiel auch mal grobe Unterrichtsszenarien vorskizzieren lasse. Ich gebe dann zum Beispiel ein: „Ich habe eine Gruppe von 15 Studierenden zu dem und dem Thema, skizziere mir meinen Unterrichtsablauf." Diesen ersten Entwurf kann ich dann adaptieren. Ich sage ganz ehrlich: für Texte wie etwa Anleitungen zu Prüfungsabläufen oder Anleitungen zu einem Handout oder auch für cold emailing, also für Blablabla-Instruktionen, lasse ich teilweise ChatGPT generische Phrasen formulieren. Oder ich lasse mir, wenn ich mir unterschiedliche Übungen ausdenken will, zum Beispiel von ChatGPT Überblicke über Methoden erstellen. Teilweise ist dann auch mal etwas dabei, das ich nicht so auf dem Radar hatte. Aber letztendlich werde ich als Lehrkraft immer alles genau prüfen und adaptieren. Das ist genau der springende Punkt.
Was kann der Mensch denn weiterhin besser als KI?
Gerade wenn es um interkulturelle, transkulturelle Kontexte geht, wenn Sprache also in einem landes-, kulturspezifischen oder auch situationsspezifischen Kontext funktioniert, kommt KI an ihre Grenzen. So was wie Humor funktioniert nicht. In der Regel kann ChatGPT nicht ergründen, welche bestimmten kulturellen Codes es braucht, damit ein Witz als lustig empfunden wird. Auch andere Dinge sind sehr wichtig: dass die Lehrkraft etwa ihre Schülerinnen, Lernenden gut kennt und adäquat reagieren kann. Das kann KI noch nicht. So etwas wie Empathie und motivationales persönliches Feedback, das gelingt eigentlich nur durch die Lehrkraft. Die Lehrkraft hat zudem die Chronologie der Lernprozesse der Lernenden außerhalb der klassischen digitalen Übungen und Überprüfungen im Blick und erkennt, wie regelmäßig sie sich am Unterrichtsgeschehen beteiligen und in Gruppenübungen interagieren. Sie kann also auch die sozialen Kompetenzen beim Lernen berücksichtigen. Das kann KI nicht. Sehr differenzierte Leistungsbeurteilungen, also vor allem auch formatives Feedback, gelingt mit der Lehrkraft viel besser als mit KI. Wenn es aber um sehr taxatives, summatives Feedback geht, dann kann KI gewisse Dinge erleichtern, klar.
Das Interview führte Inga Opitz.