Die Rolle von Künstlicher Intelligenz im Lernen – Chancen und Risiken

Buchstabe R aus dem „The Cubies’ ABC“

Seit über 100 Jahren wird regelmässig behauptet, neue Technologien würden die #Bildung revolutionieren. Ob Radio, Film und Fernsehen, Taschenrechner, Computer oder E-Learning – jede dieser Innovationen wurde als fundamentaler Umbruch angekündigt. Doch in der Praxis blieben die grossen Umwälzungen aus. Der Unterricht in vielen Klassenzimmern sieht auch heute noch überraschend ähnlich aus wie vor Jahrzehnten. Der Grund dafür ist weniger technischer als vielmehr kognitionspsychologischer Natur: Bildung ist ein sozialer und mental anspruchsvoller Prozess, der sich nicht durch technischen Fortschritt allein verbessern lässt.

In seinem Vortrag What Everyone Gets Wrong About AI and Learning (gehalten an einem Symposium des Perimeter Institute for Theoretical Physics im April 2025) legt der Wissenschaftskommunikator Dr. Derek Muller (bekannt u. a. durch seinen Youtube-Kanal Veritasium) dar, dass auch Künstliche Intelligenz – trotz ihres Potenzials – keine Bildungsrevolution auslösen wird, wenn wir nicht verstehen, wie #Lernen tatsächlich funktioniert. Dabei stützt er sich auf zentrale Erkenntnisse aus der kognitiven Psychologie, insbesondere auf Daniel Kahnemanns Modell der zwei Denksysteme (Schnelles Denken, langsames Denken, 2011).

System 1 und System 2: Wie Denken (nicht) funktioniert

Gemäss Kahnemann operieren wir mit zwei komplementären Denksystemen:

Effektives Lernen erfordert genau dieses System 2: das bewusste, kognitive Ringen mit einem Sachverhalt. Nur durch wiederholte Aktivierung von System 2 können wir neues Wissen stabil im Langzeitgedächtnis verankern – erst dann wird es später für System 1 automatisiert verfügbar. In Mullers Worten: „System 1 kann nur leisten, was System 2 vorher mühsam aufgebaut hat.“

Effizienzgewinn durch unmittelbares Feedback

Ein zentraler Beitrag von #KI zum Lernen liegt in der Fähigkeit, sofortiges und spezifisches Feedback zu geben. Lernprozesse – vornehmlich in den frühen Phasen des Kompetenzerwerbs – profitieren stark von dieser unmittelbaren Rückmeldung. Wer z. B. ein physikalisches Problem löst oder eine Sprache lernt, benötigt nicht nur richtige oder falsche Antworten, sondern Hinweise darauf, warum eine Lösung (nicht) funktioniert. KI kann hier, ähnlich wie ein guter Tutor, zielgerichtet unterstützen und somit eine wesentliche Voraussetzung für tiefes Lernen schaffen.

Darüber hinaus ermöglicht KI eine hohe Frequenz an Übung und Rückmeldung, ohne dass dafür kontinuierlich eine Lehrperson anwesend sein muss. Gerade in stark übungsintensiven Bereichen – etwa beim Erlernen mathematischer Verfahren, grammatischer Strukturen oder beim Trainieren von Entscheidungen in komplexen Situationen, bei denen mehrere Informationen abgewogen werden müssen (z. B. in der Medizin) – kann diese Form der automatisierten Begleitung den Lernprozess beschleunigen und individualisieren. Entscheidend ist jedoch, dass das Feedback nicht rein korrektiv bleibt, sondern kognitive Aktivität anregt – etwa durch gezielte Nachfragen, Erklärungen oder weiterführende Denkanstösse.

Massgeschneiderte Übungssettings und adaptive Systeme

Darüber hinaus kann KI repetitives Üben (Muller nennt dies „Reps“) erleichtern, indem sie Aufgaben passend zum Wissensstand generiert. Dies ermöglicht eine Form der Binnendifferenzierung, die im Klassenunterricht nur schwer realisierbar ist. Aus kognitionspsychologischer Sicht ist dies insbesondere deshalb wertvoll, weil gezieltes, herausforderndes Üben in der „Zone of Proximal Development“ (Lew Wygotski, 1930) als zentral für nachhaltiges Lernen gilt. KI-Systeme könnten hier eine unterstützende Funktion übernehmen, wenn sie sorgfältig gestaltet sind.

Die „Zone of Proximal Development“ (Zone der proximalen Entwicklung) bezeichnet den Bereich zwischen dem, was ein Lernender bereits eigenständig leisten kann, und dem, was er mit Unterstützung durch eine kompetentere Person zu leisten vermag. Wygotski betonte, dass Lernen am effektivsten ist, wenn es in diesem Bereich stattfindet, da hier das grösste Entwicklungspotenzial besteht. Durch gezielte Anleitung und Unterstützung – auch als „Scaffolding“ bezeichnet – können Lernende Aufgaben bewältigen, die sie allein noch nicht meistern würden. Mit zunehmender Kompetenz wird die Unterstützung schrittweise reduziert, bis der Lernende die Aufgabe eigenständig ausführen kann. Diese dynamische Interaktion zwischen Lernendem und Lehrendem ist zentral für den Erwerb neuer Fähigkeiten und die kognitive Entwicklung.

Die grosse Gefahr: kognitive Entlastung am falschen Ort

Gerade weil KI so leistungsfähig ist, birgt sie eine ernsthafte Gefahr: Sie kann dazu verleiten, die kognitive Anstrengung – das gezielte Aktivieren von System 2 – zu umgehen. Wer einen Aufsatz schreiben, ein Argument strukturieren oder ein Problem lösen soll, kann dies heute mit einem KI-Chatbot automatisieren. Doch dadurch entfällt die mentale Arbeit, die zur Verankerung im Langzeitgedächtnis notwendig ist.

Ohne diese Anstrengung entsteht kein Chunking, also keine kognitive Verdichtung komplexer Inhalte zu handhabbaren Einheiten. Expertise – etwa beim Schachspielen, beim Musizieren oder in der Physik – basiert gerade darauf, dass System 1 über ein reichhaltiges, domänenspezifisches Netz an Erfahrungen und Mustern verfügt. Dieses Netz aber lässt sich nicht über KI „importieren“ – es muss aufgebaut werden, durch wiederholte, bewusste Anwendung von System 2.

Buchstabe G aus dem „The Cubies’ ABC“

Der Unterschied zwischen Unterstützung und Ersatz

Ob KI eine sinnvolle Rolle im Lernen einnimmt, hängt entscheidend davon ab, ob sie als Unterstützung oder als Ersatz für Denkprozesse dient. Wird KI eingesetzt, um Lernende zu fordern, anzuleiten und ihnen gezielt Hilfestellungen zu geben, kann sie ein wertvolles Werkzeug sein. Wird sie hingegen genutzt, um Denkarbeit auszulagern, verhindert sie Lernprozesse – selbst wenn das Resultat (z. B. ein gelungener Text) oberflächlich betrachtet korrekt erscheint.

Gerade in diesem Spannungsfeld gewinnt die Rolle der Lehrperson an Bedeutung. Sie ist nicht durch KI ersetzbar, sondern übernimmt eine zentrale Funktion im Lernprozess: Sie motiviert, strukturiert, fordert heraus und sorgt für Verantwortlichkeit. In der Metapher von Muller: Die Lehrperson ist wie ein Personal Trainer. Das Fitnessstudio steht allen offen – aber ohne Anleitung, Rückmeldung und soziale Einbettung bleiben Fortschritte aus.

Didaktische Konsequenzen

Für die Gestaltung von Unterricht bedeutet dies zweierlei: Erstens müssen Unterrichtsformate so gestaltet werden, dass sie aktives, anstrengendes Denken begünstigen – mit gezielter Steuerung des Cognitive Load (John Sweller, 1988), also der mentalen Belastung, die während des Lernens im Arbeitsgedächtnis entsteht. Sweller unterscheidet drei Formen: Die intrinsische kognitive Belastung (intrinsic cognitive load) ergibt sich aus der Komplexität und Neuartigkeit des Lernstoffs. Sie ist grundsätzlich nicht vermeidbar, kann jedoch durch geeignete didaktische Aufbereitung verringert werden – etwa durch die Aktivierung von Vorwissen, die gezielte Sequenzierung von Inhalten oder durch anschauliche Beispiele. Die zusätzliche, nicht-lernbezogene kognitive Belastung (extraneous cognitive load) entsteht durch ablenkende, schlecht strukturierte oder unnötig komplizierte Lernumgebungen. Sie ist überflüssig und sollte möglichst vermieden werden – etwa durch klare Sprache, reduzierte Informationsdichte, verständliche Visualisierungen oder störungsarme Rahmenbedingungen. Die lernbezogene kognitive Belastung (germane cognitive load) schliesslich fördert das Verstehen, indem sie die kognitiven Ressourcen gezielt auf sinnstiftende Verarbeitungsprozesse lenkt – etwa auf das Erkennen von Zusammenhängen, das Bilden mentaler Modelle oder das Reflektieren über den eigenen Denkweg. Erfolgreiche Lehre zielt darauf ab, die extrinsische und – soweit möglich – auch die intrinsische Belastung zu reduzieren und gleichzeitig die lernbezogene Belastung gezielt zu fördern.

Zweitens muss der Einsatz von KI pädagogisch so gerahmt sein, dass sie Denken stimuliert, nicht ersetzt. Dazu gehört auch die Entwicklung von Prüfungsformaten, in denen eigenständiges Denken sichtbar wird – jenseits von automatisierbaren Produkten. Das bedeutet konkret: Lernaufgaben und Prüfungen sollten so gestaltet sein, dass sie nicht lediglich reproduktives Wissen abfragen, sondern Denkprozesse, Argumentationsfähigkeit, Transferleistung oder kreative Problemlösungen erfordern. KI kann dabei als unterstützendes Werkzeug dienen – etwa zur Ideengenerierung, zum Vergleich von Lösungswegen oder zur Reflexion –, darf aber nicht die eigentliche kognitive Leistung ersetzen. Entscheidend ist, dass Lernende aufzeigen, wie sie zu einem Ergebnis gelangt sind – nicht nur, dass sie eines präsentieren.

Fazit

Künstliche Intelligenz kann Lernprozesse sinnvoll bereichern – durch unmittelbares Feedback, individualisierte Übungsangebote und adaptive Unterstützung. Doch genau darin liegt auch ihre Gefahr: Wird die KI nicht als Werkzeug, sondern als Ersatz für Denken genutzt, untergräbt sie den eigentlichen Kern des Lernens. Denn Lernen ist und bleibt ein aktiver, anstrengender, zutiefst individueller Prozess – getragen von Wiederholung, Reflexion und der bewussten Auseinandersetzung mit Unverstandenem. Kein Algorithmus kann diesen mentalen Weg für uns gehen. Nur wer System 2 regelmässig beansprucht, kann dauerhaftes Verstehen aufbauen.

Oder wie Muller es prägnant formuliert: „Der Zugang zu Wissen war nie das Problem. Entscheidend ist, ob wir bereit sind, uns mit diesem Wissen wirklich auseinanderzusetzen – bewusst, systematisch und mit kognitiver Anstrengung.“

Für mich als Erwachsenenbildner bedeutet das: Ich sehe meine Rolle zunehmend als Lernbegleiter und Coach – nicht als Vermittler von Inhalten, sondern als Gestalter von Lernprozessen. Ich möchte meine Studierenden befähigen, KI gezielt und verantwortungsvoll zu nutzen: nicht um das Denken zu umgehen, sondern um es anzuregen, zu strukturieren und zu vertiefen. Denn wer selbständig lernen will, muss nicht nur wissen, was er lernen soll – sondern auch, wie. Und genau hier kann KI, klug eingesetzt, eine wertvolle Partnerin sein.

Endsache aus dem „The Cubies’ ABC“


Bildquellen Die Illustrationen dieses Beitrags stammen aus dem 1913 erschienenen „The Cubies’ ABC“, einem von Mary Mills Lyall (Text) and Earl Harvey Lyall (Illustrationen) herausgegebenen Abc-Buch (Public Domain). Das Buch war eine Satire auf den Kubismus und den Futurismus, die damals noch nicht sehr angesehen waren.

Disclaimer Teile dieses Texts wurden mit Deepl Write (Korrektorat und Lektorat) überarbeitet. Für die Recherche in den erwähnten Werken/Quellen und in meinen Notizen wurde NotebookLM von Google verwendet.

Topic #Erwachsenenbildung


Folge mir auf Mastodon | Pixelfed | Bookwyrm