9 Axiome, 3D-Koordinatensystem und Entscheidungslogik – die komplette theoretische Grundlage.
Das unverrückbare Fundament des Modells. Diese Prinzipien sind nicht verhandelbar und leiten jede Entscheidung über KI-Einsatz im Unterricht.
Lernende und Lehrpersonen sind die alleinigen Akteure. KI ist ausschliesslich Werkzeug. Pädagogische Entscheidungen bleiben unter menschlicher Kontrolle.
Tiefes Lernen und Kompetenzaufbau haben Vorrang vor effizienter Aufgabenerledigung. Eine korrekte Antwort durch unproduktive Abkürzungen ist ein pädagogisches Versagen.
Der menschliche Nutzer trägt vollständige Verantwortung für jeden KI-gestützten Output. Diese Verantwortung kann nicht an die Maschine delegiert werden.
Die Nutzung von KI in beurteilten Arbeiten muss explizit offengelegt und nachvollziehbar sein. Verschleierung ist ein Integritätsverstoss.
Kernkompetenzen müssen ohne KI-Assistenz demonstrierbar sein. Prüfungen müssen KI-resistent oder KI-integriert gestaltet sein.
KI-Integration muss aktiv algorithmische Verzerrungen abbauen und chancengerechten Zugang gewährleisten.
Jeder KI-Output ist als Hypothese zu behandeln, bis er kritisch evaluiert und verifiziert wurde. Quellen-Verifizierung ist nicht delegierbar.
Das professionelle Urteil der Lehrperson bleibt unersetzbar und hat stets Vorrang vor KI-Empfehlungen.
Strikte Einhaltung der DSGVO mit Minimierung persönlicher Daten. Datenschutz ist nicht verhandelbar.
Die neun Axiome bilden das unverrückbare Fundament – sie sind nicht verhandelbar. Doch Prinzipien allein genügen nicht. Um sie im Alltag anwendbar zu machen, brauchen wir eine gemeinsame Sprache. Die folgenden Kernbegriffe übersetzen die abstrakten Axiome in konkrete, beobachtbare Konzepte. Sie ermöglichen es uns, über KI-Einsatz im Unterricht präzise zu kommunizieren – unter Kolleg:innen, mit Schüler:innen und gegenüber Eltern.
Die wichtigsten Fachbegriffe des Modells – präzise definiert und beobachtbar.
Bewusste Kontrolle über eigene Denkprozesse, gezielte Entscheidung über KI-Delegation.
Strukturierter, iterativer Prozess: Prompt → KI-Output → Kritik → Verfeinerung → autorisierte Handlung.
Aufgaben, die durch KI-Delegation nicht zufriedenstellend lösbar sind.
Standardisierte Dokumentation der KI-Nutzung (Tools, Art der Interaktion, eigene Beiträge).
Fundament von Kernkompetenzen, die ohne KI beherrscht werden.
Klare Regeln für erlaubten/verbotenen KI-Einsatz bei spezifischen Aufgaben.
Mit den Kernbegriffen haben wir nun eine gemeinsame Sprache. Doch wie entscheiden wir konkret, wann KI erlaubt, begrenzt oder verboten sein sollte? Hier kommt das didaktische Koordinatensystem ins Spiel. Es übersetzt die theoretischen Konzepte in ein praktisches Werkzeug: Drei Achsen, die jede Lernsituation eindeutig verorten. Die Idee: Jede Aufgabe hat einen "Ort" in diesem dreidimensionalen Raum – und dieser Ort bestimmt, welcher KI-Modus angemessen ist.
Verorten Sie jede Lernaufgabe im dreidimensionalen Raum. Das System berechnet automatisch die empfohlene Handlungsweise.
Wie viel Neues entsteht?
Wie kompetent ist der Lernende?
Wofür wird die Leistung genutzt?
Das Koordinatensystem zeigt uns, wo eine Lernsituation steht. Doch wir brauchen noch die Übersetzungslogik: Welche Position führt zu welcher Empfehlung? Die Entscheidungslogik ist das algorithmische Herzstück des Modells. Sie nimmt die drei Koordinaten und leitet daraus eindeutig einen der vier Modi ab: Verbieten, Begleiten, Begrenzen oder Erlauben. Keine Grauzone, keine endlosen Diskussionen – sondern klare, begründbare Entscheidungen auf Basis der Axiome.
Klicken Sie auf die Knoten für Details. Die Entscheidungslogik führt von der Aufgabenanalyse zum passenden KI-Modus.
| Bedingung | Entscheidung | Begründung |
|---|---|---|
| Prüfungsrelevanz = 3 | VERBIETEN | Axiom 5: Verankerte Prüfbarkeit |
| Lernautonomie = 1 | VERBIETEN | Axiom 2: Lerneffektivität |
| Y=2 UND Z=2 | BEGLEITEN | Didaktische Schleife |
| X=1 UND Y>1 | BEGRENZEN | Offloading-Prävention |
| X>1 UND Y=3 UND Z<3< /td> | ERLAUBEN | Kognitive Souveränität |