Kognitives Offloading – das Auslagern von Denkprozessen an externe Hilfsmittel – ist kein neues Phänomen. Schon immer haben Menschen Notizen gemacht, Taschenrechner benutzt und Lexika konsultiert. Doch mit generativer KI erreicht dieses Phänomen eine neue Qualität: Erstmals können komplette intellektuelle Prozesse wie Analysieren, Argumentieren und Schreiben an eine Maschine delegiert werden.
Die Frage, die uns als Lehrpersonen beschäftigen muss: Wann ist Offloading lernförderlich – und wann untergräbt es den Kompetenzaufbau?
Was die Forschung sagt
Eine Meta-Analyse von Storm et al. (2025) untersuchte 89 Studien zum Thema kognitives Offloading im Bildungskontext. Die Ergebnisse sind differenziert:
- Entlastung bei irrelevanten Teilaufgaben (z.B. Formatierung, Rechtschreibung)
- Nutzung als Sparringspartner für bereits vorhandenes Wissen
- Fokussierung auf höherwertige kognitive Prozesse
- Delegation von Kernprozessen im Novizenstadium
- Umgehung von produktiver Anstrengung (desirable difficulties)
- Keine nachfolgende Verarbeitung des KI-Outputs
Das Paradox der Effizienz
Lernen ist inhärent ineffizient – und das ist kein Bug, sondern ein Feature. Kapur (2016) zeigte in seiner Forschung zu "Productive Failure", dass Lernende, die zunächst scheitern und ringen, langfristig tieferes Verständnis entwickeln als jene, die sofort die richtige Lösung präsentiert bekommen.
"Der kürzeste Weg ist selten der Lernweg. KI kann den Weg abkürzen – aber damit auch den Lerneffekt."
Wenn Schüler:innen ChatGPT bitten, einen Aufsatz zu schreiben, erhalten sie ein Produkt – aber sie durchlaufen nicht den Prozess. Und im Prozess liegt der Lerneffekt.
Drei Fragen zur Selbstprüfung
Bevor wir als Lehrpersonen KI-Nutzung erlauben, sollten wir drei Fragen stellen:
- Was ist das Lernziel? – Geht es um das Produkt oder den Prozess?
- Wo steht der Lernende? – Novize (braucht Übung) oder Fortgeschritten (darf delegieren)?
- Gibt es produktive Anstrengung? – Oder wird die Schwierigkeit nur umgangen?
Implikationen für die Praxis
1. Stufenmodell der KI-Autonomie
Unser KI-Didaktikmodell schlägt vor, KI-Nutzung an den Expertisegrad zu koppeln. Novizen brauchen mehr Struktur und weniger Offloading-Möglichkeiten. Fortgeschrittene können verantwortungsvoll delegieren.
2. Didaktische Schleifen einbauen
Wenn KI genutzt wird, muss eine nachgelagerte Verarbeitung stattfinden: Erklärlücken-Tests, Warum-Protokolle, oder Verteidigungsgespräche. So wird aus passivem Konsum aktive Auseinandersetzung.
3. Meta-kognitive Reflexion fördern
Schüler:innen sollten lernen, ihr eigenes Offloading-Verhalten zu reflektieren: "Was habe ich ausgelagert? Warum? Was ist dadurch nicht gelernt worden?"
Fazit: Kognitive Souveränität als Ziel
Das Ziel von Bildung im KI-Zeitalter ist nicht, KI zu verbannen – sondern kognitive Souveränität zu entwickeln. Das bedeutet: bewusst entscheiden, wann man delegiert und wann man selbst denkt. Wissen, was man weiss und was die Maschine weiss. Kontrolle behalten, statt abhängig zu werden.
Diese Souveränität entwickelt sich nicht automatisch. Sie muss gezielt aufgebaut werden – und das ist unsere Aufgabe als Lehrpersonen.
Quellen & Referenzen
Storm, B. C., Stone, S. M., & Benjamin, A. S. (2016). Using the Internet to access information inflates future use of the Internet to access other information. Memory, 25(6), 717–723.
Kapur, M. (2016). Examining Productive Failure, Productive Success, Unproductive Failure, and Unproductive Success in Learning. Educational Psychologist, 51(2), 289–299.
Bjork, E. L., & Bjork, R. A. (2011). Making things hard on yourself, but in a good way: Creating desirable difficulties to enhance learning. Psychology and the Real World, 56–64.