Beim Hallucination Hunt erhalten Lernende einen KI-generierten Text, der gezielt Faktenfehler enthält — und haben die Aufgabe, so viele davon wie möglich zu finden und mit verlässlichen Quellen zu belegen. Das Wettbewerbs-Element macht Faktenprüfung greifbar und motivierend; der didaktische Kern liegt darin, dass Lernende die Unzuverlässigkeit von KI-Ausgaben nicht nur hören, sondern selbst erleben.
Worum es geht
Die Methode trainiert Methodenkompetenz im Sinne des Lehrplan 21: Lernende lernen, Informationen systematisch zu hinterfragen, Quellen einzusetzen und zwischen verlässlichem und unzuverlässigem Wissen zu unterscheiden. Gleichzeitig stärkt das Spiel die Sachkompetenz im jeweiligen Fach, weil das Auffinden eines Fehlers ein korrektes Fachverständnis voraussetzt. Wer einen Fehler in einem Biologie-Text über Zellmembrane erkennen will, muss die Membranstruktur tatsächlich verstehen — nicht nur kennen.
Lernziele
- Faktenfehler in einem Fachtext identifizieren und mit einer verlässlichen Primär- oder Sekundärquelle widerlegen
- Zwischen offensichtlichen und subtilen Halluzinationen (z. B. erfundene Studienautoren, falsche Jahreszahlen, Pseudo-Zitate) unterscheiden
- Den Qualitätsunterschied zwischen KI-Ausgabe und belegtem Fachwissen begründet formulieren
- Decision-Mode: prohibit — die KI ist Forschungsobjekt, kein Werkzeug während der Aufgabe
Voraussetzungen
- Klassenstufe: Sek I ab 8. Klasse, Sek II, Berufsschulen
- Vorwissen: Grundlegende Quellenkritik (Unterschied Primär-/Sekundärquelle), Vertrautheit mit Bibliothek oder Datenbanken
- Tool-Anforderungen: Lehrperson braucht Zugang zu ChatGPT oder Claude für die Textvorbereitung; Lernende arbeiten während der Einheit ohne KI-Tool
- Datenschutz: Kein Personenbezug nötig; Lehrperson bereitet den Text vorab vor, keine Eingaben durch Lernende erforderlich
Ablauf
-
Textvorbereitung durch die Lehrperson (vor der Stunde, ca. 15 Min.): Einen Fachtext von 300–500 Wörtern mit ChatGPT oder Claude generieren — z. B. „Erkläre die Photosynthese für 14-Jährige" oder „Fasse die Ursachen des Ersten Weltkriegs zusammen". Den Text anschliessend gezielt mit 5–8 Fehlern anreichern: falsche Jahreszahlen, erfundene Studienautoren, inhaltlich plausibel klingende aber falsche Behauptungen. Eine eigene Fehler-Liste anlegen (wird am Ende zur Auflösung genutzt).
-
Einführung (5 Min.): Lehrperson erklärt kurz, was KI-Halluzinationen sind und warum sie auftreten — nicht moralisch, sondern technisch. Dann Aufgabenstellung: „Dieser Text enthält mindestens fünf Fehler. Finden Sie sie — und belegen Sie jeden Fund mit einer Quelle."
-
Jagd-Phase (20 Min.): Lernende arbeiten einzeln oder in Zweiergruppen. Sie erhalten den Text ausgedruckt oder als PDF. Kein Internetzugang für KI-Tools erlaubt; Lehrbücher, Schulbibliothek, zugelassene Datenbanken sind offen. Jeder Verdacht wird im Text markiert und kurz notiert: „Fehler bei X — ich glaube, es stimmt Y wegen Quelle Z."
-
Wettbewerbs-Auswertung (10 Min.): Lehrperson projiziert die Fehler-Liste. Lernende zählen ihre Treffer. Diskussion: Wer hat subtile Fehler gefunden, die andere übersehen haben? Was war besonders überzeugend formuliert, obwohl es falsch war?
-
Reflexion (10 Min.): Gemeinsame Frage: „Welche Textstellen hätten Sie ohne die Aufgabe unhinterfragt akzeptiert?" — Diese Frage zielt auf das Metabewusstsein. Lehrperson benennt die Muster: Halluzinationen sind oft lokal plausibel, global aber widersprüchlich.
Vorlage
| Fund-Nr. | Verdächtige Textstelle | Mein Korrekturvorschlag | Quelle (Autor, Titel, Seite/URL) |
|---|---|---|---|
| 1 | „Photosynthese erzeugt CO₂ und Wasser" | Photosynthese verbraucht CO₂ und erzeugt O₂ | Campbell, Biologie, 10. Aufl., S. 214 |
| 2 | „Die Chlorophyll-Pigmente sitzen in den Mitochondrien" | Chlorophyll befindet sich in den Chloroplasten | Lehrbuch Biologie Sek I, Klett, S. 88 |
Bewertungs-Rubrik
| Stufe | Kriterium | Beobachtbar an |
|---|---|---|
| 1 | Findet offensichtliche Fehler | Markiert 1–2 Faktenfehler ohne Quellenangabe oder mit unzuverlässiger Quelle (Wikipedia ohne Überprüfung) |
| 2 | Belegt Korrekturen mit Quelle | Mindestens 3 Fehler mit verlässlicher Quelle (Lehrbuch, peer-reviewed Artikel, Fachlexikon) |
| 3 | Erkennt subtile Halluzinationen | Findet erfundene Zitate, Pseudo-Studien oder inhaltlich plausible, aber faktisch falsche Behauptungen |
| 4 | Entwickelt eigene Diagnose-Heuristik | Formuliert im Reflexionsteil Regeln, woran KI-Halluzinationen erkennbar sind (z. B. „Jahreszahlen und Eigennamen immer prüfen") |
Variationen
- Mit Sek-I-Klasse (7./8. Klasse): Text auf 150–200 Wörter kürzen, Fehleranzahl auf 3–4 reduzieren, Quellenliste (Lehrbücher, zugelassene Links) vorab bereitstellen.
- Peer-Version: Lernende generieren selbst einen Text zu einem Fachthema (mit KI-Zugang), bauen bewusst 3 Fehler ein und tauschen mit einer anderen Gruppe — Motivation ist höher, weil eigene Fehler verteidigt werden müssen.
- Erweitert für Sek II: Lernende dokumentieren nicht nur Fehler, sondern auch „Beinahe-Fehler" — Stellen, die beim ersten Lesen falsch wirkten, sich aber als korrekt herausstellten. Das trainiert Kalibrierung.
Grenzen
Die Methode funktioniert nur dann gut, wenn die Lehrperson den Text sorgfältig vorbereitet und die Fehler auf unterschiedlichen Schwierigkeitsniveaus eingebaut sind. Zu viele offensichtliche Fehler führen zu falschem Erfolgsgefühl; zu subtile Fehler frustrieren. Ausserdem setzt die Einheit voraus, dass Quellen zugänglich sind — an Schulen mit schlechter Bibliotheksinfrastruktur oder ohne Datenbankzugang muss die Lehrperson das Quellenset vorab zusammenstellen. Die Methode trainiert keine KI-Nutzungskompetenz im engeren Sinn; sie baut Skepsis auf — was als Fundament für alle anderen Interventionen unverzichtbar ist.
Verwandt
- Quellen-Triangulation — baut die Faktenprüfungskompetenz aus, indem mehrere KI-Systeme statt eines einzigen Texts verglichen werden
- Source Tracing — vertieft den Quellencheck spezifisch für KI-generierte Literaturangaben
- Socratic Debias — nutzt ähnliche Kritik-Haltung gegenüber KI, richtet den Fokus aber auf Perspektiven statt auf Fakten