Wann sollte KI im Unterricht verboten werden?
Wenn prüfungsrelevante Kernkompetenzen ohne KI nachweisbar bleiben müssen oder wenn die Aufgabe sonst zur reinen Delegation wird.
Modell A legt fest, wann KI den Kompetenzaufbau stärkt und wann sie Lernprozesse unterläuft. Über Axiome, Koordinatensystem und Entscheidungslogik wird jeder KI-Einsatz didaktisch begründet statt intuitiv entschieden.
9 Axiome, 3D-Koordinatensystem und Entscheidungslogik – die komplette theoretische Grundlage.
Dieses Modell gibt Lehrpersonen eine belastbare Antwort auf die Kernfrage: Wann stärkt KI den Lernprozess und wann unterläuft sie ihn?
Die 9 Axiome definieren, was didaktisch und ethisch nicht verhandelbar ist.
Das Koordinatensystem verortet Aufgaben systematisch statt aus dem Bauchgefühl.
Die Logik führt zu klaren Handlungsmodi: verbieten, begleiten, begrenzen, erlauben.
Die Vertiefung erfolgt über eigenständige Module. Sie sind nicht als Unterebene dieses Modells zu lesen, sondern als anschlussfähige Arbeitspfade für unterschiedliche Entwicklungsziele.
Das unverrückbare Fundament des Modells. Diese Prinzipien sind nicht verhandelbar und leiten jede Entscheidung über KI-Einsatz im Unterricht.
Lernende und Lehrpersonen sind die alleinigen Akteure. KI ist ausschliesslich Werkzeug. Pädagogische Entscheidungen bleiben unter menschlicher Kontrolle.
Tiefes Lernen und Kompetenzaufbau haben Vorrang vor effizienter Aufgabenerledigung. Eine korrekte Antwort durch unproduktive Abkürzungen ist ein pädagogisches Versagen.
Der menschliche Nutzer trägt vollständige Verantwortung für jeden KI-gestützten Output. Diese Verantwortung kann nicht an die Maschine delegiert werden.
Die Nutzung von KI in beurteilten Arbeiten muss explizit offengelegt und nachvollziehbar sein. Verschleierung ist ein Integritätsverstoss.
Kernkompetenzen müssen ohne KI-Assistenz demonstrierbar sein. Prüfungen müssen KI-resistent oder KI-integriert gestaltet sein.
KI-Integration muss aktiv algorithmische Verzerrungen abbauen und chancengerechten Zugang gewährleisten.
Jeder KI-Output ist als Hypothese zu behandeln, bis er kritisch evaluiert und verifiziert wurde. Quellen-Verifizierung ist nicht delegierbar.
Das professionelle Urteil der Lehrperson bleibt unersetzbar und hat stets Vorrang vor KI-Empfehlungen.
Strikte Einhaltung der DSGVO mit Minimierung persönlicher Daten. Datenschutz ist nicht verhandelbar.
Die neun Axiome bilden das unverrückbare Fundament – sie sind nicht verhandelbar. Doch Prinzipien allein genügen nicht. Um sie im Alltag anwendbar zu machen, brauchen wir eine gemeinsame Sprache. Die folgenden Kernbegriffe übersetzen die abstrakten Axiome in konkrete, beobachtbare Konzepte. Sie ermöglichen es uns, über KI-Einsatz im Unterricht präzise zu kommunizieren – unter Kolleg:innen, mit Schüler:innen und gegenüber Eltern.
Die wichtigsten Fachbegriffe des Modells – präzise definiert und beobachtbar.
Bewusste Kontrolle über eigene Denkprozesse, gezielte Entscheidung über KI-Delegation.
Strukturierter, iterativer Prozess: Prompt → KI-Output → Kritik → Verfeinerung → autorisierte Handlung.
Aufgaben, die durch KI-Delegation nicht zufriedenstellend lösbar sind.
Standardisierte Dokumentation der KI-Nutzung (Tools, Art der Interaktion, eigene Beiträge).
Fundament von Kernkompetenzen, die ohne KI beherrscht werden.
Klare Regeln für erlaubten/verbotenen KI-Einsatz bei spezifischen Aufgaben.
Mit den Kernbegriffen haben wir nun eine gemeinsame Sprache. Doch wie entscheiden wir konkret, wann KI erlaubt, begrenzt oder verboten sein sollte? Hier kommt das didaktische Koordinatensystem ins Spiel. Es übersetzt die theoretischen Konzepte in ein praktisches Werkzeug: Drei Achsen, die jede Lernsituation eindeutig verorten. Die Idee: Jede Aufgabe hat einen "Ort" in diesem dreidimensionalen Raum – und dieser Ort bestimmt, welcher KI-Modus angemessen ist.
Verorten Sie jede Lernaufgabe im dreidimensionalen Raum. Das System berechnet automatisch die empfohlene Handlungsweise.
Wie viel Neues entsteht?
Wie kompetent ist der Lernende?
Wofür wird die Leistung genutzt?
Das Koordinatensystem zeigt uns, wo eine Lernsituation steht. Doch wir brauchen noch die Übersetzungslogik: Welche Position führt zu welcher Empfehlung? Die Entscheidungslogik ist das algorithmische Herzstück des Modells. Sie nimmt die drei Koordinaten und leitet daraus eindeutig einen der vier Modi ab: Verbieten, Begleiten, Begrenzen oder Erlauben. Keine Grauzone, keine endlosen Diskussionen – sondern klare, begründbare Entscheidungen auf Basis der Axiome.
Klicken Sie auf die Knoten für Details. Die Entscheidungslogik führt von der Aufgabenanalyse zum passenden KI-Modus.
| Bedingung | Entscheidung | Begründung |
|---|---|---|
| Prüfungsrelevanz = 3 | VERBIETEN | Axiom 5: Verankerte Prüfbarkeit |
| Lernautonomie = 1 | VERBIETEN | Axiom 2: Lerneffektivität |
| Y=2 UND Z=2 | BEGLEITEN | Didaktische Schleife |
| X=1 UND Y>1 | BEGRENZEN | Offloading-Prävention |
| X>1 UND Y=3 UND Z<3< /td> | ERLAUBEN | Kognitive Souveränität |
Die folgenden Hinweise buendeln zentrale Entscheidungsaspekte fuer Schulen.
Wenn prüfungsrelevante Kernkompetenzen ohne KI nachweisbar bleiben müssen oder wenn die Aufgabe sonst zur reinen Delegation wird.
Es macht didaktische Entscheidungen nachvollziehbar, weil Aufgaben systematisch nach Lernziel, Autonomie und Prüfbarkeit eingeordnet werden.
Lernende nutzen KI als Werkzeug, bleiben aber für Verstehen, Bewertung und Verantwortung selbst handlungsfaehig.