Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Grundlagen: Lernen
im KI-Zeitalter verstehen zeigt die Forschung konsistent, dass KI-Effekte stark von
Aufgabenarchitektur, Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu
vertieftem Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische
Rahmung, nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Lernwirksamkeit entsteht nicht durch KI-Nutzung an sich, sondern durch passendes Aufgabendesign und
klare Zieltransparenz.
- Selbstregulation und metakognitive Steuerung sind entscheidende Moderatoren für positive
GenAI-Effekte.
- Produktive Reibung bleibt auch im KI-Zeitalter ein zentraler Mechanismus für tiefes Verstehen und
Transfer.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: Lernprozess-Landkarte erstellen (Zielgruppe:Sek I/II, alle Fächer ,Dauer:25 Min.): Klasse kartiert gemeinsam, an welchen Stellen KI stützt, wo
Eigenleistung unverzichtbar bleibt.
KI-Einsatzregeln aus Lernzielen ableiten (Zielgruppe:Fachteam ,Dauer:40 Min.): Teams definieren pro Kompetenzziel klare Modi: erlauben,
begleiten, begrenzen, verbieten.
Transfer-Check nach KI-Unterstützung (Zielgruppe:Sek II ,Dauer:20 Min.): Lernende lösen Transferaufgaben ohne KI und reflektieren
Unterschiede zur assistierten Bearbeitung.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Tool-Fokus verdrängt Lernziel-Fokus., Effizienz wird mit Lernerfolg verwechselt. und Unklare Rollen zwischen Assistenz und Delegation..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Lernziel und Kompetenzstufe sind vor KI-Einsatz definiert.
- Der gewünschte kognitive Prozess ist explizit benannt.
- KI-Rolle pro Aufgabe ist transparent kommuniziert.
- Transferaufgaben ohne KI sind eingeplant.
- Reflexion über Nutzen und Grenzen ist verpflichtend.
- Ergebnisse sind auf relevante Modellentscheidungen rückgekoppelt.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Kognitive Effekte:
Entlastung oder Abhängigkeit? zeigt die Forschung konsistent, dass KI-Effekte stark von
Aufgabenarchitektur, Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu
vertieftem Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische
Rahmung, nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Offloading ist lernförderlich, wenn es in Strategie- und Reflexionsprozesse eingebettet bleibt.
- Dauerhafte Vollauslagerung kann die Tiefe kognitiver Verarbeitung messbar reduzieren.
- Produktive Reibung bleibt ein Schutzfaktor gegen Kompetenzatrophie.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: Offloading-Audit im Unterricht (Zielgruppe:Sek II ,Dauer:25 Min.): Lernende markieren im Prozess, was delegiert wurde und was
Eigenleistung blieb.
Zwei-Wege-Aufgabe (Zielgruppe:Sek I/II ,Dauer:40 Min.): Aufgabe einmal mit, einmal ohne KI lösen; Ergebnisse und Denkwege
vergleichen.
Kompetenz-Anker-Drill (Zielgruppe:Sek I ,Dauer:20 Min.): Grundoperationen ohne KI trainieren, dann assistiert erweitern.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Pseudo-Verständnis durch generierte Antworten., Abhängigkeit bei schwacher Basiskompetenz. und Überbewertung kurzfristiger Effizienz..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Basiskompetenz ohne KI wurde gesichert.
- Delegation ist begründet und dokumentiert.
- Nachbearbeitung erfordert eigene Erklärung.
- Transfer ohne KI ist Teil der Bewertung.
- KI wird als Werkzeug, nicht als Autor, positioniert.
- Offloading-Muster werden über Zeit reflektiert.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Lernwirksamkeit
von KI-Tools zeigt die Forschung konsistent, dass KI-Effekte stark von Aufgabenarchitektur,
Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu vertieftem
Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische Rahmung,
nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Meta-analysen zu ITS zeigen konsistente, moderate Leistungszuwächse bei strukturierter Einbettung.
- GenAI wirkt vor allem dann stark, wenn Feedback und Lernsteuerung integriert sind.
- Effekte variieren deutlich nach Fach, Altersstufe und Implementierungsqualität.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: Feedback-Zyklus mit KI und Peer (Zielgruppe:Sek I/II ,Dauer:35 Min.): KI liefert Erstfeedback, Peer-Gruppe validiert, Lernende
überarbeiten begründet.
Adaptive Übungsschleife (Zielgruppe:Mathematik/Sprachen ,Dauer:30 Min.): Aufgaben werden nach Fehlermuster differenziert; Lehrperson
steuert Eskalationspunkte.
Formative Mini-Diagnostik (Zielgruppe:alle Fächer ,Dauer:15 Min.): Vorwissen mit KI-gestütztem Kurzcheck erfassen und Unterricht
unmittelbar anpassen.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Unkritische Übernahme von KI-Feedback., Scheingenauigkeit bei Diagnosewerten. und Fehlende Rückkopplung mit Unterrichtsbeobachtung..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Intervention hat klare Zielmetrik (z. B. Verständnis, Transfer).
- Feedback wird nicht nur konsumiert, sondern verarbeitet.
- Lehrperson prüft Fehlklassifikationen aktiv.
- Differenzierung bleibt inklusiv und transparent.
- Wirkung wird über mehrere Lernzyklen beobachtet.
- Dokumentation ist für Teamentscheidungen nutzbar.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Schreiben, Lesen,
Denken mit KI zeigt die Forschung konsistent, dass KI-Effekte stark von Aufgabenarchitektur,
Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu vertieftem
Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische Rahmung,
nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- KI kann Schreibfluss und Revisionsqualität verbessern, wenn Reflexion verpflichtend bleibt.
- Kritisches Denken sinkt bei reiner Ergebnisübernahme ohne argumentative Verteidigung.
- Textkompetenzgewinne sind am stabilsten bei kombinierten Mensch-KI-Feedbackschleifen.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: Argumentations-Defense (Zielgruppe:Sek II Deutsch/Geschichte ,Dauer:30 Min.): Lernende verteidigen KI-überarbeitete Argumente mündlich anhand
von Gegenfragen.
Lesestrategie mit KI-Kontrast (Zielgruppe:Sek I ,Dauer:25 Min.): Originaltext und KI-Zusammenfassung vergleichen; Auslassungen und
Verzerrungen markieren.
Revision in drei Schritten (Zielgruppe:alle Fächer ,Dauer:35 Min.): Entwurf -> KI-Feedback -> Peer-Feedback -> finale
Fassung mit Begründungsprotokoll.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Stilvereinheitlichung und Verlust eigener Stimme., Unsaubere Quellenübernahme. und Argumentative Oberflächlichkeit..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Eigenständige These ist sichtbar.
- Quellen sind nachvollziehbar belegt.
- KI-Änderungen wurden begründet übernommen.
- Mündliche oder schriftliche Verteidigung ist eingeplant.
- Revisionsschritte sind dokumentiert.
- Bewertung umfasst Prozess und Produkt.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Metakognition und
Selbstregulation stärken zeigt die Forschung konsistent, dass KI-Effekte stark von
Aufgabenarchitektur, Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu
vertieftem Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische
Rahmung, nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Metakognitive Prompts erhöhen Qualität von Selbstüberwachung und Selbstevaluation.
- Selbstregulation bricht ein, wenn KI-Nutzung nicht als reflektierter Prozess geführt wird.
- Autonomieorientiertes Design wirkt als Puffer gegen Passivierung.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: Warum-Protokoll 2.0 (Zielgruppe:Sek I/II ,Dauer:20 Min.): Drei-Spalten-Protokoll mit Fokus auf Entscheidungsbegründungen
pro KI-Antwort.
Prompt-Plan-Review (Zielgruppe:Fachschaft ,Dauer:30 Min.): Lernende erstellen vorab Prompt-Strategien und evaluieren deren
Wirkung nach der Aufgabe.
Metakognitiver Exit-Ticket (Zielgruppe:alle Fächer ,Dauer:10 Min.): Am Ende: Was hat KI verbessert, was hat sie geschwächt, was
bleibt offen?
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Reflexion wird zur Formalität ohne Lernfunktion., Übermonitoring senkt Arbeitsfluss. und Schwache Prompt-Kompetenz führt zu Frustration..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Lernziele sind vor Nutzung schriftlich fixiert.
- Promptentscheidungen werden begründet.
- Fehler werden als Lernsignal genutzt.
- Selbstbewertung enthält konkrete Belege.
- Feedback wird in nächste Aufgabe übertragen.
- Lehrkraft gibt Meta-Feedback auf den Prozess.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Motivation und
Emotion im KI-Lernen zeigt die Forschung konsistent, dass KI-Effekte stark von
Aufgabenarchitektur, Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu
vertieftem Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische
Rahmung, nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Autonomie- und Kompetenzerleben sind zentrale Treiber nachhaltiger KI-Nutzung.
- Agentic-AI-Wahrnehmung beeinflusst die Lernmotivation signifikant.
- Motivationseffekte variieren stark mit Lehrkraftunterstützung und Aufgabenqualität.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: Selbstwirksamkeits-Check vor/nach Aufgabe (Zielgruppe:Sek I/II ,Dauer:10 Min.): Kurzskala zur Wahrnehmung eigener Kompetenz mit Reflexion der
KI-Rolle.
Autonomie-Choice-Board (Zielgruppe:alle Fächer ,Dauer:20 Min.): Lernende wählen zwischen KI-unterstützten und KI-freien
Lösungswegen.
Stress-Reduktion durch KI-Vorstufe (Zielgruppe:Prüfungsvorbereitung ,Dauer:25 Min.): KI als strukturierende Vorstufe, finale Argumentation ohne KI.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Motivationsgewinn nur kurzfristig durch Neuheitseffekt., Gefühlte Kompetenz ohne reale Kompetenzzunahme. und Emotionsregulation wird an Tool delegiert..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Aufgabe fördert echte Autonomieentscheidungen.
- Selbstwirksamkeit wird differenziert erhoben.
- Lehrkraftunterstützung ist aktiv geplant.
- KI übernimmt nicht die komplette Problemlösung.
- Reflexion über Belastung und Nutzen ist integriert.
- Folgeschritte zur Kompetenzsicherung sind definiert.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Grenzen und
Risiken zeigt die Forschung konsistent, dass KI-Effekte stark von Aufgabenarchitektur,
Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu vertieftem
Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische Rahmung,
nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Risiken steigen bei fehlender didaktischer Rahmung und unklaren Verantwortlichkeiten.
- Kompetenzverlust ist besonders kritisch bei frühen Lernphasen ohne Basistraining.
- Sicherer Einsatz erfordert technische, pädagogische und rechtliche Gegenmaßnahmen zugleich.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: Risk-Pre-Mortem (Zielgruppe:Steuergruppe ,Dauer:30 Min.): Vor Einführung die wahrscheinlichsten Fehlentwicklungen
systematisch simulieren.
No-KI Benchmark Task (Zielgruppe:Sek I/II ,Dauer:20 Min.): Regelmäßige Referenzaufgaben ohne KI zur Kompetenzkalibrierung.
Risikowechsel-Ampel (Zielgruppe:Schulteam ,Dauer:15 Min.): Frühsignale für Offloading, Bias und Datenschutzprobleme
monatlich bewerten.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Scheinsicherheit durch punktuelle Maßnahmen., Fehlende Eskalationspfade bei Vorfällen. und Nicht adressierte Nebenwirkungen in benachteiligten Gruppen..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Risikokatalog ist für alle Rollen verfügbar.
- Eskalationsprozess ist dokumentiert.
- Regelmäßige Baseline-Aufgaben ohne KI sind eingeplant.
- Risikodaten werden periodisch ausgewertet.
- Gegenmaßnahmen sind vorab definiert.
- Kommunikation bei Vorfällen ist vorbereitet.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Fehler,
Halluzinationen und Wahrheit zeigt die Forschung konsistent, dass KI-Effekte stark von
Aufgabenarchitektur, Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu
vertieftem Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische
Rahmung, nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Halluzinationen sind systemisch und müssen didaktisch antizipiert werden.
- Verifikationskompetenz ist eine Kernkomponente moderner KI-Literacy.
- Deepfake-Interventionen verbessern Urteilssicherheit, wenn sie aktiv übend angelegt sind.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: Hallucination Hunt Pro (Zielgruppe:Sek I/II ,Dauer:45 Min.): Fehlerhafte KI-Ausgaben in Teams prüfen und mit Primärquellen
widerlegen.
Quellen-Triangulation (Zielgruppe:Sek II ,Dauer:30 Min.): Aussagen erst dann akzeptieren, wenn mindestens zwei unabhängige
Quellen übereinstimmen.
Deepfake-Labor (Zielgruppe:Medienbildung ,Dauer:40 Min.): Beispiele klassifizieren, Manipulationsmerkmale identifizieren,
Gegenchecks dokumentieren.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Überforderung bei zu komplexen Verifikationstasks., Schein-Sicherheit durch einzelne Quellen. und Zynismus: „Nichts ist mehr wahr“..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Verifikationsstandard ist für alle Aufgaben klar.
- Quellenqualität wird bewertet, nicht nur Quellenanzahl.
- Unsicherheiten werden explizit markiert.
- Faktencheck ist Teil der Note.
- Desinformationsbeispiele sind altersangemessen.
- Reflexion über Wahrheit und Evidenz ist integriert.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Ethik, Bias und
Fairness zeigt die Forschung konsistent, dass KI-Effekte stark von Aufgabenarchitektur,
Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu vertieftem
Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische Rahmung,
nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Ethische Leitlinien sind dann wirksam, wenn sie in Aufgabenpraxis und Bewertung integriert werden.
- Bias-Risiken entstehen auf Daten-, Modell- und Anwendungsebene.
- Kritische KI-Literacy verbindet technische mit sozial-ethischer Urteilskompetenz.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: Bias-Audit einer KI-Antwort (Zielgruppe:Sek II ,Dauer:30 Min.): Antworten auf Stereotype, Auslassungen und Perspektivenvielfalt
prüfen.
Fairness-Panel im Fachteam (Zielgruppe:Lehrkräfte ,Dauer:45 Min.): Unterrichtsmaterialien auf Repräsentation und sprachliche
Fairness prüfen.
Ethik-Fallkonferenz (Zielgruppe:Sek I/II ,Dauer:35 Min.): Dilemmata zu KI-Entscheiden diskutieren und begründete
Handlungsoptionen entwickeln.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Ethik bleibt abstrakt ohne Unterrichtsbezug., Bias wird nur technisch statt sozial diskutiert. und Verantwortung wird zwischen Rollen verschoben..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Fairnesskriterien sind vorab definiert.
- Bias-Prüfung ist im Arbeitsprozess verankert.
- Perspektivenvielfalt wird aktiv eingefordert.
- Verantwortlichkeiten sind eindeutig verteilt.
- Transparenz gegenüber Lernenden/Eltern ist gewährleistet.
- Ethische Reflexion fließt in die Bewertung ein.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Datenschutz und
Sicherheit zeigt die Forschung konsistent, dass KI-Effekte stark von Aufgabenarchitektur,
Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu vertieftem
Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische Rahmung,
nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Datenschutz ist ein pädagogisches und organisatorisches Qualitätskriterium, nicht nur
Rechtsformalität.
- KI-Modelle und Datenflüsse erfordern klare Verantwortlichkeits- und Prüfprozesse.
- Datensparsamkeit und Transparenz senken Implementierungsrisiken messbar.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: Datenfluss-Canvas im Team (Zielgruppe:Schulleitung/IT ,Dauer:45 Min.): Datenwege pro Tool visualisieren und Risikopunkte markieren.
Prompt-Hygiene-Training (Zielgruppe:Lehrpersonen ,Dauer:20 Min.): No-go-Daten und sichere Formulierungsregeln anhand realer
Beispiele trainieren.
DPIA-Light Sprint (Zielgruppe:Steuergruppe ,Dauer:35 Min.): Schnellprüfung für neue KI-Tools mit Ampelentscheidung.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Nutzung ohne Rechtsgrundlagenprüfung., Intransparente Drittlandübertragungen. und Fehlende Eltern-/Lernendenkommunikation..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Rechtsgrundlage und Zweckbindung sind dokumentiert.
- Personenbezogene Daten werden minimiert.
- Datenflüsse sind transparent und nachvollziehbar.
- Verträge/AVV sind geprüft.
- Lösch- und Auskunftsprozesse sind definiert.
- Kommunikation an Eltern und Lernende ist vorbereitet.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Fachspezifische
Didaktiken zeigt die Forschung konsistent, dass KI-Effekte stark von Aufgabenarchitektur,
Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu vertieftem
Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische Rahmung,
nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Wirksamkeit ist domänenspezifisch: gleiche Tools erzeugen je nach Fach unterschiedliche Lernprofile.
- Fachspezifische Scaffoldings sind relevanter als generische Promptrezepte.
- Transfer steigt, wenn fachliche Denkpraktiken explizit modelliert werden.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: MINT-Fehleranalyse mit KI (Zielgruppe:Mathematik/NW ,Dauer:35 Min.): KI-Lösungen auf Rechenweg, Annahmen und Plausibilität prüfen.
Sprachdidaktik: Register-Training (Zielgruppe:Sprachen ,Dauer:25 Min.): KI-Texte zwischen Registern transformieren und stilistisch
bewerten.
Historische Quellenkritik mit KI (Zielgruppe:Geisteswissenschaften ,Dauer:40 Min.): Narrative Verzerrungen identifizieren und Quellenkontext
rekonstruieren.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Fachlogik wird durch generische Aufgaben verdrängt., Toolkompetenz ersetzt Fachkompetenz. und Bewertung orientiert sich nicht am Fachstandard..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Fachliche Denkoperationen sind definiert.
- KI-Aufgabenformate sind fachdidaktisch begründet.
- Fachspezifische Kriterien stehen im Raster.
- Transferaufgaben spiegeln echte Fachpraxis.
- Lernende begründen fachliche Entscheidungen.
- Teamreview sichert Vergleichbarkeit im Fach.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Differenzierung
und Inklusion zeigt die Forschung konsistent, dass KI-Effekte stark von Aufgabenarchitektur,
Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu vertieftem
Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische Rahmung,
nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Personalisierte KI-Lernpfade können Leistung und Lernzeit steigern.
- Assistive KI stärkt Teilhabe, wenn technische und datenschutzbezogene Qualität gesichert ist.
- Inklusive Wirkung hängt von Zugangsbedingungen und sprachlicher Adaptivität ab.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: Differenzierungs-Matrix mit KI (Zielgruppe:Sek I/II ,Dauer:35 Min.): Aufgaben in drei Niveaustufen plus Unterstützungsoptionen
modellieren.
Assistive Tool-Stationen (Zielgruppe:inklusive Klassen ,Dauer:30 Min.): Sprach-, Lese- und Strukturhilfen als rotierende Lernstationen
einsetzen.
Mehrsprachige Lernbrücke (Zielgruppe:DaZ/Sprachen ,Dauer:25 Min.): KI-Übersetzung mit Fachbegriffen koppeln und inhaltlich
nachprüfen.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Stigmatisierung durch Tool-Zuweisung., Ungleicher Zugang zu Geräten/Accounts. und Bias in Sprach- und Bewertungsmodellen..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Differenzierungsziel ist fachlich klar.
- Zugangsbarrieren sind vorab geprüft.
- Assistive Nutzung erfolgt ohne Stigma.
- Bias-Risiken sind im Material adressiert.
- Datenschutz für vulnerable Gruppen ist geklärt.
- Lernerfolg wird über alle Gruppen hinweg ausgewertet.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Kollaboration und
Kommunikation zeigt die Forschung konsistent, dass KI-Effekte stark von Aufgabenarchitektur,
Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu vertieftem
Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische Rahmung,
nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Kollaborative KI-Settings sind besonders wirksam bei klaren Rollen und geteilten Qualitätsstandards.
- Peer-Feedback gewinnt, wenn KI als Vorschlagsgeber und nicht als Entscheider eingesetzt wird.
- Kommunikationskompetenz steigt durch strukturierte Begründungsdialoge.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: Rollenkarte für KI-Gruppenarbeit (Zielgruppe:Sek I/II ,Dauer:15 Min.): Teamrollen definieren: Prompting, Verifikation, Synthese,
Präsentation.
Peer-Feedback mit KI-Gegencheck (Zielgruppe:Sek II ,Dauer:30 Min.): Peer-Kommentar und KI-Vorschlag kontrastieren, Entscheidung
begründen.
Socratic Debate mit KI (Zielgruppe:Sprachen/Gesellschaft ,Dauer:35 Min.): KI liefert Gegenpositionen, Gruppe trainiert Argumentations- und
Moderationskompetenz.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: KI ersetzt echte Peer-Interaktion., Gruppendynamik kippt zu Arbeitsteilung ohne gemeinsames Denken. und Unklare Verantwortlichkeit bei Fehlern..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Gruppenrollen sind vor Start festgelegt.
- Begründungspflicht gilt für alle Entscheidungen.
- Peer-Feedback hat Vorrang vor KI-Vorschlag.
- Ergebnisse werden gemeinsam validiert.
- Kommunikationsziele sind explizit bewertet.
- Reflexion über Teamprozess ist eingeplant.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Assessment und
Prüfungen neu denken zeigt die Forschung konsistent, dass KI-Effekte stark von
Aufgabenarchitektur, Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu
vertieftem Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische
Rahmung, nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Prozessorientierte Bewertungsmodelle sind robuster gegen KI-bedingte Produkttäuschung.
- Mündliche Verteidigung erhöht Validität von Leistungsnachweisen.
- Kombinierte Mensch-KI-Settings brauchen explizite Transparenzkriterien.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: 50/50-Raster + Verteidigung (Zielgruppe:Sek II ,Dauer:30 Min.): Produktbewertung mit verpflichtender Prozessdokumentation und
kurzer Defense kombinieren.
Authentic Task Redesign (Zielgruppe:Fachschaft ,Dauer:45 Min.): Aufgaben lokal, personalisiert und transferorientiert
formulieren.
KI-Transparenzrubrik (Zielgruppe:alle Fächer ,Dauer:20 Min.): Bewertungskriterium für Offenlegung, Prüfung und Revision der
KI-Nutzung einführen.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Nur KI-Detektor-basierte Integritätsstrategie., Intransparente Bewertungsmaßstäbe. und Zu hoher Dokumentationsaufwand ohne Lernnutzen..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Leistungsziel ist ohne KI nachweisbar formuliert.
- Prozesskriterien sind sichtbar in der Rubrik.
- Offenlegungspflichten sind bekannt.
- Mündliche/performative Elemente sind eingeplant.
- KI-unterstützte und KI-freie Teile sind trennbar.
- Feedback fokussiert auf Denkqualität und Transfer.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Lehrerkompetenzen
für die KI-Ära zeigt die Forschung konsistent, dass KI-Effekte stark von Aufgabenarchitektur,
Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu vertieftem
Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische Rahmung,
nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Professionalisierung wirkt, wenn Fortbildung mit Unterrichtstransfer gekoppelt ist.
- Akzeptanz von KI hängt stark von Selbstwirksamkeit und wahrgenommenem Nutzen ab.
- Kompetenzrahmen helfen, Schulentwicklung und individuelle Fortbildung zu synchronisieren.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: Kompetenz-Selbstcheck im Kollegium (Zielgruppe:Lehrkräfte ,Dauer:30 Min.): UNESCO-Dimensionen als Diagnose und Entwicklungsplanung nutzen.
Lesson Study mit KI (Zielgruppe:Fachteam ,Dauer:60 Min.): Gemeinsame Unterrichtsplanung, Hospitation und datenbasierte
Nachbesprechung.
Transfer-Coaching (Zielgruppe:Einzel/Team ,Dauer:25 Min.): Jede Fortbildung endet mit einem verbindlichen
Unterrichtstransferplan.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Einmalige Inputs ohne nachhaltigen Transfer., Technikkompetenz ohne Didaktikbezug. und Überforderung durch fehlende Priorisierung..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Kompetenzstand ist transparent erhoben.
- Fortbildungsziele sind rollenbezogen.
- Transfer in reale Unterrichtsszenarien ist geplant.
- Peer-Support-Strukturen sind eingerichtet.
- Evaluation misst Praxisveränderung, nicht nur Teilnahme.
- Leitung unterstützt Ressourcen und Zeitfenster.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Schulentwicklung
und Implementation zeigt die Forschung konsistent, dass KI-Effekte stark von
Aufgabenarchitektur, Vorwissen und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu
vertieftem Verständnis oder zu oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische
Rahmung, nicht die Technologie allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Erfolgreiche Rollouts kombinieren pädagogische Leitplanken mit klarer Governance.
- Pilotierung mit iterativem Monitoring reduziert Implementierungsrisiken deutlich.
- Rollenklarheit zwischen Leitung, IT und Pädagogik ist ein Schlüsselprädiktor.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: 90-Tage-Implementierungsplan (Zielgruppe:Schulleitung ,Dauer:60 Min.): Pilotbereich, Rollen, Messpunkte und Kommunikationslinien
festlegen.
Governance-Board einrichten (Zielgruppe:Steuergruppe ,Dauer:45 Min.): Regeltermine für Tool-Freigaben, Evidenzreview und
Eskalationsfälle.
Qualitäts-Review-Loop (Zielgruppe:Schulteam ,Dauer:30 Min. monatlich): Lernwirkungen, Risiken und Datenschutzindikatoren zyklisch
prüfen.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Einführung ohne Zielbild und Metriken., Silo-Entscheidungen ohne Rollenabstimmung. und Kommunikationslücken zu Kollegium und Eltern..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Strategisches Zielbild ist schriftlich fixiert.
- Governance-Rollen sind klar verteilt.
- Pilot und Skalierung sind getrennt geplant.
- Risikomanagement ist operationalisiert.
- Monitoring-KPIs sind definiert.
- Review-Termine und Verantwortliche sind verbindlich.
Was sagt die Forschung?
Evidenzmarkierung: hoch, mittel, begrenzt.
Details und Originalquellen in der Evidenzbibliothek.
Im Themenfeld Future
Trends zeigt die Forschung konsistent, dass KI-Effekte stark von Aufgabenarchitektur, Vorwissen
und Prozesssteuerung abhängen. Ein identisches Tool kann je nach Lernziel zu vertieftem Verständnis oder zu
oberflächlicher Bearbeitung führen. Entscheidend ist deshalb die didaktische Rahmung, nicht die Technologie
allein.
Für die Praxis bedeutet das eine doppelte
Lesart der Evidenz: Erstens, welche Wirkungen sind unter kontrollierten Bedingungen beobachtet; zweitens,
welche Bedingungen lassen sich in Ihrem Unterricht realistisch herstellen. Besonders relevant sind
transparente Zielkriterien, strukturierte Rückmeldung und Verifikationsaufgaben ohne KI-Unterstützung.
Didaktische Übersetzung der Evidenz:
Aussagen werden erst dann handlungsrelevant, wenn Bedingungen, Lerngruppe und Aufgabenformat zusammen
betrachtet werden. Nutzen Sie die Befunde deshalb als Entscheidungsrahmen, nicht als starres Rezept.
Kernaussagen der Forschung
- Multimodale und agentische KI erweitert Lernunterstützung, erhöht aber Governance-Komplexität.
- Zukunftsfähigkeit entsteht durch Szenarioplanung statt Tool-Retrofit.
- Institutionelle Lernfähigkeit ist wichtiger als einzelne Plattformentscheidungen.
Praxis: Unterrichts- und Umsetzungsideen
Die folgenden Ideen sind bewusst modular
aufgebaut. Sie können als Einzelimpuls starten oder als Sequenz kombiniert werden, je nach Fach, Altersstufe
und vorhandener KI-Erfahrung der Lernenden.
Unterrichtspraktische Umsetzung: Trend-Radar pro Semester (Zielgruppe:Schulleitung/IT ,Dauer:45 Min.): Technologietrends nach Bildungsnutzen, Risiko und Umsetzbarkeit
priorisieren.
Zukunftsszenario-Workshop (Zielgruppe:Kollegium ,Dauer:60 Min.): Drei Zukunftsbilder für Unterricht und Assessment entwickeln.
Pilot-Lab mit Exit-Kriterien (Zielgruppe:Steuergruppe ,Dauer:4 Wochen): Neue KI-Funktion im geschützten Rahmen testen und evidenzbasiert
entscheiden.
Risiken und typische Fehlannahmen
Typische Fehlannahmen entstehen selten
durch Technik allein, sondern durch unklare Zielbilder, fehlende Transparenz oder unscharfe
Leistungsanforderungen. Genau dort setzt dieser Risikoblock an.
Zentrale Risiken: Zu beachten sind insbesondere folgende Punkte: Hype-getriebene Schnellentscheidungen., Vendor-Lock-in ohne Exit-Strategie. und Überkomplexität ohne Kompetenzaufbau..
Checkliste für Lehrpersonen
Nutzen Sie die Checkliste als
Mini-Qualitätsschleife vor, während und nach der Durchführung. So wird aus einer guten Idee eine konsistente
Unterrichtspraxis statt eines einmaligen Versuchs.
Die Checkliste gewinnt an Wirkung, wenn sie
nicht nur individuell genutzt, sondern im Team abgestimmt wird. Dadurch entstehen verlässliche Routinen über
Klassen und Fächer hinweg: vergleichbare Standards für Transparenz, konsistente Rückmeldelogik und
nachvollziehbare Entscheidungen bei unterschiedlichen Lernvoraussetzungen.
- Trendbeobachtung ist institutionell verankert.
- Pilotkriterien sind vorab definiert.
- Exit-Strategie pro Tool ist vorhanden.
- Kompetenzaufbau begleitet jede Innovation.
- Ethische und rechtliche Prüfung ist verpflichtend.
- Evaluation trennt Nutzen, Kosten und Risiko sauber.