wissen.de Artikel

Wie ChatGPT Schule und Lernen verändern könnte

ChatGPT macht Furore, denn diese künstliche Intelligenz scheint Wissen, Schreiben und Sprache besser zu beherrschen als mancher Mensch. Die Texte dieses KI-Ssytems sind so überzeugend, dass selbst Fachleute und eigens dafür gedachte Programme Probleme haben, sie als computergeneriert zu erkennen. Damit haben ChatGPT und Co das Potenzial, auch unser Lernen und das Bildungssystem zu verändern. Was bedeutet ChatGPT für Schule und Studium? Ist er eine Gefahr? Oder vielleicht eine Chance?
NPO / TU München, 09.02.2023
Symbolbild ChatBot

jittawit.21, GettyImages

ChatGPT kann Gedichte schreiben, Aufsätze oder Fachartikel und seine Texte sind so überzeugend, dass selbst Fachleute und eigens dafür gedachte Programme Probleme haben, sie als computergeneriert zu erkennen. Seitdem das Unternehmen OpenAI dieses lernfähige KI-System über das Internet zugänglich gemacht hat, sorgt es weltweit für Schlagzeilen und große Neugier. Denn ChatGPT scheint das erste System zu Texterzeugung, das gut genug ist, um menschenähnliche Qualität zu erreichen.

Wie funktioniert ChatGPT?

Doch was steckt dahinter? Wie funktioniert ChatGPT? „Grundlage für ChatGPT ist ein künstliches neuronales Netz, das versucht, menschliche Sprache in einem statistischen Modell abzubilden. Mit diesem Modell wird beschrieben, welche Sätze, Antworten und Aussagen in einem bestimmten Kontext passend sind", erklärt Digitalisierungsexperte Johannes Moskaliuk von der International School of Management (ISM). Das bedeutet: ChatGPT "weiß" eigentlich nichts über das, was er schreibt. Die Inhalte seiner Texte entstehen, weil er gelernt hat, welche Wörter und Sätze am häufigsten "zusammengehören" und aufeinanderfolgen.

Dass seine Texte dennoch inhaltlich meist – aber längst nicht immer – richtig sind, liegt daran, dass das KI-System mit Millionen Texten aus dem Internet und anderen Quellen gefüttert wurde. Durch die Auswertung dieser Quellen hat ChatGPT gelernt, welche Inhalte meist zusammengehören, wie verschiedene Texte sprachlich aufgebaut sind und reproduziert dann diese Muster in seinen Antworten. Damit handelt es sich bei der KI um ein Sprachmodell, und nicht etwa um ein Wissensmodell, wie Moskaliuk betont. Die neue Technik versucht demnach, menschliche Kommunikation zu imitieren, ohne eigene kreative oder intellektuelle Denkleistung.

Im Prinzip ist ChatGPT damit eher ein Nachfolger von der Google-Suche als von Wikipedia oder anderen Lexika. Denn ähnlich wie die Suchalgorithmen berechnet das KI-System aufgrund statistischer Zusammenhänge und Wahrscheinlichkeiten. Anders als die Suchmaschine gibt ChatGPT die Ergebnisse aber nicht als Linkliste aus, sondern erstellt selbst eine präzise erscheinende Antwort. Allerdings: Weil ChatGPT nicht wirklich versteht und er bei seinem Training mit Internetinhalten auch Falschinformationen bekommen hat, müssen seine Texte inhaltlich nicht korrekt sein – der Bot produziert auch überzeugend klingende Fake-News.  „Der Chatbot ist also nur so präzise und korrekt, wie die Textinhalte, mit welchen er gefüttert wurde,“ erklärt der Statistik-Experte Veith Tiemann vom IWS.

Einflüsterung durch Android
Bei ChatGPT wird immer wieder betont, dass ausgegebene Informationen nicht immer der Wahrheit entsprechen. Aber werden diese Warnungen auch ernst genommen?

AndreyPopov, GettyImages

Schreibt die KI jetzt unsere Hausaufgaben?

Doch was bedeutet dies für Schule, Studium und andere Bildungsbereiche? Die Versuchung ist groß, sich bei Hausarbeiten, Referaten und anderen Aufgaben von ChatGPT helfen zu lassen – zumal seine Texte selbst von Experten kaum von menschengemachten Texten zu unterscheiden sind. Bedeutet dies das Ende der klassischen Hausaufgaben und Seminararbeiten? Sind solche Sprachsyteme möglicherweise sogar eine Gefahr für unsere Bildung, weil wir nun nicht mehr selbst recherchieren und denken, sondern einfach nur die KI fragen?

Diese Frage wird zurzeit breit und kontrovers diskutiert – und die Schlussfolgerungen sind sehr unterschiedlich. Einige Bildungsforscher sehen in solchen Chatbots durchaus eine große Gefahr, wenn sich Lernende zu stark auf die KI verlassen. Vor allem, wenn nicht kritisch überprüft wird, ob die Ergebnisse von ChatGPT und Co überhaupt inhaltlich richtig sind. Denn anders als bei einer Suchmaschine ist an den ChatGPT-Texten nicht erkennbar, aus welchen Quellen die KI ihre Informationen generiert hat. Ob die Quellen seriös waren oder nicht, bleibt intransparent.

Das bedeutet: Wenn Lernende sich blind auf das vermeintliche Wissen von ChatGPT verlassen, kann sie dies in die Irre führen. Hinzu kommt:  Um selbstständig und kritisch zu überprüfen, ob der Test überhaupt stimmt, muss man erst einmal gelernt haben, selbst zu recherchieren und verlässliche Quellen zu erkennen. Für Schule und Studium bedeutet dies, dass auch das, was vermittelt wird und wie sich möglicherweise grundlegend anpassen muss.

„ChatGPT kann hilfreich sein“

Wie dies aussehen könnte, haben gut 20 Forschende aus Bildungs-, Sozial-, Computer- und Datenwissenschaften von der Technischen Universität München und der Ludwig-Maximilians-Universität in einem Positionspapier formuliert. Sie sind der Ansicht, dass solche Sprachmodelle auch viele Chancen für die Bildung bieten. Die Koordinatorin Enkelejda Kasneci von der TU München erklärt, wie Lernende profitieren und Lehrkräfte entlastet werden könnten.

Der Schulbezirk New York hat den Einsatz von ChatGPT verboten. Ist das der richtige Weg?

Wir halten das für den falschen und auch einen zu bequemen Weg. Die Entwicklung von Sprachmodellen wie ChatGPT ist ein technologischer Meilenstein, ein Zurück wird es nicht geben. Die Tools sind in der Welt, sie werden besser werden und wir müssen lernen, sie konstruktiv zu nutzen. Wir sind überzeugt, dass sie sehr große Chancen für ein Empowerment von Menschen bieten, die bislang benachteiligt waren. ChatGPT und ähnliche Programme können zu mehr Bildungsgerechtigkeit führen.

Wer könnte von ChatGPT-Anwendungen profitieren?

Zum einen handelt es sich um ein Werkzeug, mit dem in Zukunft alle weltweit lernen können, die einen Internetzugang haben – also unabhängig davon, wie gut das Bildungssystem im jeweiligen Land ist. Zum anderen kann es Menschen helfen, sich in Texten besser auszudrücken, die damit sonst Schwierigkeiten haben, beispielsweise aufgrund einer Behinderung. Das kann ihnen neue Möglichkeiten geben, gesellschaftlich zu partizipieren.

Und im Schulalltag?

Hier sehen wir ein großes Potenzial, mit dem personalisierten Einsatz solcher Tools die individuellen Schwächen jedes einzelnen Kindes zu entschärfen, die Stärken hervorzuheben und zu einem konstruktiven Lernerfolg beizutragen. Wir reden ja über ein KI-basiertes Werkzeug, das unterschiedliche Formen von Texten erkennen und schreiben kann. Schulkinder könnten Vorschläge für sprachliche Verbesserungen und Alternativen für verschiedene Textgestaltungen gezeigt bekommen. Das kann ihnen helfen, ihre Ausdrucksfähigkeit zu verbessern.

Mein Lehrstuhl-Team hat gerade ein Tool entwickelt, das auf Basis von großen Sprachmodellen einen Aufsatz analysieren und Feedback geben kann, etwa „Es wäre besser, eine einheitliche Zeitform zu verwenden“ oder „Du könntest noch mehr auf den Konjunktiv achten.“ Diese Rückmeldungen können an das Alter und das Kompetenzniveau der einzelnen Kinder angepasst werden.

Es herrscht derzeit eher die Sorge, das Lernen von Sprache könnte verkümmern.

Das sehen wir anders. Im Gegenteil, solche Anwendungen können das Sprachverständnis fördern. Aber auch in anderen Fächern können sie hilfreich sein. Sie können beispielsweise Fragen zu einem bestimmten Thema kreieren. Jugendliche könnten sie also zu Hause als Lernbuddy für eine Prüfung nutzen, der auf diejenigen Punkte besonders eingeht, die sie noch nicht so gut beherrschen. Diesen Grad an Individualisierung können die Schulen im Alltag bislang kaum leisten.

Könnte die KI also auch eine Entlastung für die Lehrkräfte sein?

Davon gehen wir aus. Künstliche Intelligenz könnte in Zukunft auch bei der Korrektur von Schularbeiten unterstützen.

… die sich die Schülerinnen und Schüler zuvor haben erstellen lassen, um bessere Noten zu bekommen.

Natürlich kann niemand ausschließen, dass eine Text-Hausaufgabe nicht selbstständig angefertigt wird. Aber die Diskussion erinnert mich stark an die Debatten beim Start von Wikipedia. Damals wurde auch befürchtet, dass ein Großteil der Schularbeiten künftig aus dem Internet kopiert wird. Damals wie heute müssen wir von der Grundschule an die Bedeutung vermitteln, sich nicht auf Angaben eines einzelnen Portals zu verlassen, Informationen zu überprüfen und mit Quellen zu untermauern. Wenn ein Textautomatisierungsprogramm die Prüfungsleistung übernehmen kann, sagt das auch einiges über die Qualität der Prüfung aus. Da müssen wir uns schon fragen, welche Lehrmethoden wir anwenden und inwiefern wir Kompetenzen wie kritisches Denken und Problemlösungskompetenz vermitteln.

Wer muss was machen, damit ChatGPT und ähnliche Modelle tatsächlich gewinnbringend im Unterricht zum Einsatz kommen?

Die Forschung muss stabilere Erkenntnisse gewinnen, welche Effekte die Sprachmodelle beim Lernen haben, wie sie in einem bestimmten Lernkontext eingesetzt werden können und ab wann sie einsatzbereit sind. Es sind zudem ganzheitliche Lehrkonzepte und Weiterbildungsmöglichkeiten für Lehrkräfte notwendig. Alle gemeinsam müssen wir schnell reagieren. Und die Anbieter müssen Fragen rund um Datenschutz, Sicherheit, Voreingenommenheit und Verzerrungen beim maschinellen Lernen, Copyright und Transparenz sehr ernst nehmen.

Wir raten allen Lehrkräften: Probieren Sie die Tools aus! Entdecken Sie sie gemeinsam mit den Schülerinnen und Schülern. Dabei sind der Kreativität keine Grenzen gesetzt, wenn Sie gleichzeitig einen kritischen Blick bewahren.

Mehr Artikel zu diesem Thema

Weitere Artikel aus dem Großes Wörterbuch der deutschen Sprache

Weitere Artikel aus der Wissensbibliothek

Weitere Artikel aus dem Wahrig Synonymwörterbuch

Weitere Artikel aus dem Wahrig Fremdwörterlexikon

Weitere Inhalte auf wissen.de