Beim Reverse Prompting wird die übliche Richtung umgekehrt: Nicht der Prompt erzeugt den Output, sondern der Output soll den Prompt enthüllen. Lernende sehen ein KI-Ergebnis — einen Text, ein Bild, ein Codebeispiel — ohne zu wissen, wie es erzeugt wurde, und müssen rekonstruieren, welche Anweisung dahintergesteckt haben könnte. Das Ergebnis dieser Detektivarbeit ist ein tiefes Verständnis dafür, wie Modelle auf Sprache reagieren.
Worum es geht
Die Methode kombiniert Analysekompetenz mit Digitaler Kompetenz: Lernende müssen den Output eines KI-Systems strukturell zerlegen — Ton, Format, Länge, Stilelemente, verwendete Beispiele — und daraus Rückschlüsse auf die Instruktion ziehen. Das schärft das Bewusstsein dafür, dass jeder KI-Output eine menschliche Anweisung widerspiegelt und dass Modelle charakteristische Stileigenschaften haben, die bei der Identifikation helfen. Im Lehrplan-21-Vokabular liegt der Schwerpunkt auf Methodenkompetenz (Analyse, Schlussfolgerung) und Digitaler Kompetenz (Systemverständnis).
Lernziele
- Einen KI-Output auf seine strukturellen Merkmale hin analysieren (Format, Ton, Zielgruppe, Vollständigkeit)
- Einen plausiblen Prompt rekonstruieren, der zu diesem Output geführt haben könnte
- Den rekonstruierten Prompt in das KI-System eingeben und vergleichen, ob ein ähnlicher Output entsteht
- Modell-spezifische Stilmerkmale (ChatGPT vs. Claude vs. Gemini) beschreiben und begründen
- Decision-Mode: limit — gerahmter Einsatz für die Verifikationsphase
Voraussetzungen
- Klassenstufe: Sek I ab 9. Klasse, Sek II, Berufsschulen
- Vorwissen: Grundlegende Vertrautheit mit KI-Tools und dem Konzept Prompt; erste eigene Nutzungserfahrung hilfreich
- Tool-Anforderungen: Lehrperson bereitet 3–5 KI-Outputs vor (aus ChatGPT, Claude oder Gemini, zu unterschiedlichen Themen); Lernende brauchen in der Verifikationsphase Zugang zum entsprechenden Tool
- Datenschutz: Outputs sind von der Lehrperson ausgewählt und fachlich; keine personenbezogenen Daten
Ablauf
-
Outputs auswählen und vorbereiten (vor der Stunde, 15 Min.): Lehrperson generiert 3–5 KI-Outputs zu unterschiedlichen Themen (ein erklärender Text, ein Argumentationstext, ein strukturiertes Listenformat, ein Dialogbeispiel, ein Codebeispiel). Die Outputs werden ohne Prompt-Angabe als Material vorbereitet. Ideal: Outputs von unterschiedlichen Modellen, um Modell-Idiome vergleichbar zu machen.
-
Erstkontakt: Still lesen (5 Min.): Lernende erhalten einen der Outputs (Ausdruck oder Screen). Keine Hinweise, nur die Anweisung: „Was fällt Ihnen auf? Wie liest sich das?"
-
Strukturelle Analyse (10 Min.): Lernende analysieren den Output systematisch:
- Format: Liste, Fliesstext, Tabelle, Dialog?
- Ton: Formal, locker, didaktisch, neutral?
- Zielgruppe: Welche Vorbildung scheint angenommen?
- Vollständigkeit: Vollständige Antwort oder Teilantwort?
- Stilmerkmale: Bullet Points? Aufzählung am Ende? Spezifische Formulierungen?
-
Prompt rekonstruieren (10 Min.): Jede:r Lernende schreibt einen Prompt-Entwurf, der zu diesem Output geführt haben könnte. Prompt muss vollständig sein: Aufgabe, Ton-Anweisung, Format-Anweisung, Zielgruppe.
-
Verifikation (10 Min.): Der rekonstruierte Prompt wird in das entsprechende KI-Tool eingegeben. Lernende vergleichen das neue Ergebnis mit dem Original: Wie ähnlich ist es? Was weicht ab? Was war im Original-Prompt vermutlich anders?
-
Modell-Idiome diskutieren (5 Min.): Wenn Outputs aus verschiedenen Modellen vorliegen: Welche stilistischen Unterschiede sind zwischen ChatGPT und Claude erkennbar? Was verrät der Stil über das Modell?
Vorlage
Bewertungs-Rubrik
| Stufe | Kriterium | Beobachtbar an |
|---|---|---|
| 1 | Oberflächliche Rekonstruktion | Prompt-Entwurf ist sehr allgemein, deckt Inhalt, aber nicht Ton, Format oder Zielgruppe |
| 2 | Strukturelle Merkmale erfasst | Prompt-Entwurf berücksichtigt Format (z. B. „als Liste") und Zielgruppe explizit |
| 3 | Verifikation mit Analyse | Neuer Output wird mit Original verglichen; Abweichungen werden benannt und erklärt |
| 4 | Modell-Idiome erschlossen | Lernende identifizieren modellspezifische Stilmerkmale und können begründen, warum ein Output wahrscheinlich von ChatGPT und nicht von Claude stammt |
Variationen
- Bild-Version: KI-generierte Bilder statt Texte (DALL-E, Midjourney) — Lernende rekonstruieren den Image-Prompt, was visuelle Analyse mit Sprachbewusstsein verbindet.
- Code-Version: KI-generiertes Code-Snippet ohne Kontext — Lernende rekonstruieren die Aufgabenstellung, schärft Lese-Kompetenz für Code.
- Schwieriger für Sek II: Lernende erhalten zwei Outputs zu identischer Aufgabe von zwei verschiedenen Modellen und rekonstruieren beide Prompts — anschliessend Vergleich der Modell-Idiome.
Grenzen
Reverse Prompting funktioniert gut bei Texten mit klarem Stil und Format. Bei sehr generischen Outputs (z. B. eine Liste von Stichworten) gibt es kaum Analyse-Material; die Methode entfaltet ihr Potenzial bei Outputs mit Ton, Struktur und Zielgruppen-Hinweisen. Ausserdem ist die Verifikationsphase ungenau: Dasselbe Modell erzeugt mit demselben Prompt nicht immer dieselbe Antwort (Temperaturfaktor). Lernende müssen verstehen, dass „ungefähr ähnlich" ein valides Ergebnis ist.
Verwandt
- Prompt-Variation — komplementäre Perspektive: vom Prompt zum Output statt vom Output zum Prompt
- Concept Mapping — ähnliche Analyse-Haltung gegenüber KI-Outputs, aber strukturorientiert
- Warum-Protokoll — Bewusstsein für Prompt-Qualität kann durch Reverse Prompting vorab geschärft werden