Modell: Didaktik
Das Didaktik-Modell (Modell A) ist das theoretische Fundament für alle pädagogischen Entscheide rund um KI im Unterricht. Es beantwortet drei Kernfragen: Wann soll KI verboten, begleitet, begrenzt oder erlaubt sein? Welche Aufgabenformate bleiben auch in einer KI-gesättigten Welt lernwirksam? Und wie muss sich Bewertung verändern, wenn Produkte von KI erzeugt werden können?
Worum es geht
Modell A beschreibt die didaktische Logik, die hinter einem lernwirksamen KI-Einsatz steht. Es geht davon aus, dass das entscheidende Kriterium nicht die Technologie ist, sondern die kognitive Aktivität der Lernenden: Wird durch den KI-Einsatz echte Denkarbeit ausgelöst, vertieft oder unterstützt — oder wird sie ersetzt? Daraus folgen drei Arbeitsfelder, die im Unterrichtsalltag systematisch bearbeitet werden sollten.
Decision-Mode
Die vier Stufen
Der Decision-Mode unterscheidet vier Haltungen gegenüber KI bei einer konkreten Aufgabe:
Verbieten: Die Aufgabe zielt auf Kernkompetenzen, die ohne KI entwickelt und nachgewiesen werden müssen. Beispiel: die erste eigenständige Argumentationsstruktur in einem Aufsatz, Grundrechenoperationen in der Primarschule, Sprachproduktion im Spracherwerbsstadium.
Begleiten: KI darf genutzt werden, aber die Lehrperson beobachtet den Prozess und macht die KI-Nutzung zum Unterrichtsgegenstand. Lernende dokumentieren ihren Prompt-Dialog und reflektieren, welche Entscheide sie getroffen haben.
Begrenzen: KI ist für definierte Teilschritte erlaubt, für andere nicht. Beispiel: Recherche und Gliederung mit KI, Erstformulierung ohne. Die Grenzen müssen im Voraus klar kommuniziert werden.
Erlauben: KI kann frei eingesetzt werden, weil die eigentliche Kompetenz nicht in der Produktion, sondern in der Evaluation oder im Transfer liegt. Beispiel: Lernende beurteilen einen KI-generierten Text kritisch und überarbeiten ihn.
Der Entscheidungsbaum führt durch die relevanten Fragen und erzeugt eine dokumentierte Empfehlung für die konkrete Unterrichtssituation.
Aufgabenformate
Was bleibt KI-resistent?
Nicht alle Aufgaben sind gleich anfällig für KI-Delegation. Aufgaben, die stark KI-resistent sind, verlangen persönliche Verortung (Was denkst du? Was hast du erlebt?), lokales oder kontextspezifisches Wissen (das kein Trainingskorpus enthält), mündliche Verteidigung oder soziale Interaktion sowie kreative Synthese statt Reproduktion.
Aufgaben, die schwach KI-resistent sind, verlangen standardisierte Textproduktion, Recherche ohne Bewertungsauftrag, oder das Reproduzieren von bekanntem Wissen in einem vorgegebenen Format. Diese Formate müssen nicht verschwinden — aber sie sollten nicht mehr das Hauptbewertungsobjekt sein.
Aufgabenentwicklung
Konkret bedeutet das: Lehrpersonen, die bisher „Schreib einen Bericht über Klimawandel" als Aufgabe gestellt haben, überarbeiten die Aufgabe in Richtung: „Erkläre einer 12-jährigen Person aus deiner Nachbarschaft in einem Brief, was Klimawandel für euren Kanton konkret bedeutet — und zeige, wie du zu dieser Einschätzung gekommen bist." Diese Aufgabe ist nicht KI-proof, aber KI-resistent: Sie fordert lokales Wissen, persönlichen Bezug und Prozess-Transparenz.
Bewertung im KI-Zeitalter
Vom Produkt zum Prozess
Wenn ein Sprachmodell in Sekunden einen grammatikalisch korrekten Aufsatz produzieren kann, verliert das Produkt als Bewertungsgegenstand an Aussagekraft. Das bedeutet nicht, dass Produkte irrelevant werden — aber der Prozess muss stärker gewichtet werden: Entwürfe, Revisionen, Kommentare, mündliche Verteidigung.
Das Assessment-Modul beschreibt das 50/50-Prinzip: Mindestens die Hälfte der Bewertung fliesst in den dokumentierten Lernprozess. Das reduziert den Anreiz zur vollständigen KI-Delegation und gibt Lernenden, die sorgfältig arbeiten, einen fairen Vorteil.
KI-Deklarationspflicht
Lernende sollen deklarieren, ob und wie sie KI genutzt haben — nicht als Geständnis, sondern als Reflexionsleistung. „Ich habe GPT-4o genutzt, um eine erste Gliederung zu erstellen, und sie dann wesentlich überarbeitet" ist eine legitime und lernwirksame Aussage. Die Deklaration zeigt, ob Lernende die eigene KI-Nutzung bewusst steuern können — eine Kernkompetenz für das 21. Jahrhundert.
In der Praxis
Eine Deutschlehrerin an einem Gymnasium überarbeitet eine Interpretationsaufgabe zu einem Kurzroman. Sie entscheidet: Gliederung mit KI erlaubt, Textanalyse begrenzt (KI als Feedback nach dem ersten Entwurf), mündliche Verteidigung ohne KI. Sie kommuniziert diese Entscheide mit einer einfachen Tabelle, die den Decision-Mode für jede Phase der Aufgabe zeigt. Das Ergebnis: weniger Streit über „darf ich das?", mehr Fokus auf die eigentliche Denkarbeit.