Modell C · Recht & Regulierung

EU AI Act für Schulen

Stand: April 2026 · nächste kritische Frist: 2. August 2026

Die Verordnung (EU) 2024/1689 – kurz EU AI Act – ist seit August 2024 in Kraft und wird gestaffelt anwendbar: Verbote seit Februar 2025, GPAI-Pflichten seit August 2025, Hochrisiko-Pflichten ab August 2026, vollständige Anwendung ab August 2027. Für Schulen in DE/AT gilt die Verordnung unmittelbar, für Schweizer Schulen indirekt über Anbieterverträge und kantonale Rahmen.

Diese Seite bündelt die für Schulen tragenden Pflichten in sechs Abschnitten: Timeline, verbotene Praktiken, Hochrisiko im Bildungsbereich, Transparenz & GPAI, Schweizer Perspektive, Was Schulen jetzt tun können.

Kernaussage. Der EU AI Act regelt KI nicht nach Produkttyp, sondern nach Risikoklasse. Für Schulen bedeutet das: Entscheidend ist nicht, ob man ChatGPT, Claude oder Gemini nutzt – sondern, wofür. Ein Assistent zur Unterrichtsvorbereitung ist minimales Risiko; das gleiche Modell zur automatisierten Notengebung ist Hochrisiko. Wer diese Unterscheidung intern nicht beherrscht, riskiert ab August 2026 Compliance-Lücken.
1

Timeline: Was wann anwendbar wird

Der AI Act staffelt seine Pflichten nach Risiko – mit fünf Stichtagen, die für Schulen relevant sind.

1. August 2024 – Inkrafttreten
Der AI Act tritt in Kraft. Ab diesem Datum laufen alle Fristen. Keine unmittelbaren Pflichten für Schulen.
2. Februar 2025 – Verbote & KI-Kompetenz
Kapitel II (Art. 5, verbotene Praktiken) und Kapitel III Abschnitt 1 (Art. 4, KI-Kompetenz von Personal) werden anwendbar. Für Schulen besonders relevant: Emotionserkennung in Bildungseinrichtungen ist verboten (mit medizinischen und Sicherheits-Ausnahmen). Außerdem müssen Anbieter und Betreiber sicherstellen, dass Personal ausreichende KI-Kompetenz besitzt.
2. August 2025 – Governance & GPAI
Die Regeln für Governance-Strukturen (AI Office, nationale Behörden) und für General-Purpose-AI-Modelle werden anwendbar. Anbieter von GPAI-Modellen (GPT, Claude, Gemini, Mistral u. a.) müssen technische Dokumentation führen, eine Trainingsdaten-Zusammenfassung veröffentlichen und Urheberrechts-Compliance nachweisen.
2. August 2026 – Hochrisiko-Pflichten (Anhang III)
Die Pflichten für Hochrisiko-KI-Systeme nach Art. 6 und Anhang III werden anwendbar. Für Schulen besonders wichtig: Bildungs-KI für Zulassung, Bewertung, Zuweisung zu Bildungsgängen und Erkennung verbotenen Verhaltens in Prüfungen fällt in diese Kategorie.
2. August 2027 – Vollständige Anwendung
Auch Hochrisiko-Systeme, die Sicherheitsbauteile regulierter Produkte sind (Art. 6 Abs. 1, Anhang I), werden erfasst. GPAI-Anbieter, deren Modelle vor dem 2. August 2025 auf den Markt kamen, müssen spätestens jetzt vollständig konform sein.
2

Verbotene KI-Praktiken (Art. 5)

Acht Praktiken sind seit Februar 2025 EU-weit untersagt. Für Schulen sind vor allem zwei relevant.

Emotionserkennung in der Schule

Art. 5 Abs. 1 lit. f verbietet das Inverkehrbringen oder die Nutzung von KI-Systemen zur Ableitung von Emotionen natürlicher Personen am Arbeitsplatz und in Bildungseinrichtungen. Gemeint sind Systeme, die aus Gesicht, Stimme oder Körpersprache auf emotionale Zustände wie Freude, Angst oder Aufmerksamkeit schließen.

Ausnahme: zugelassen sind medizinische oder sicherheitsrelevante Zwecke (z. B. Müdigkeits­erkennung in Fahrsimulatoren in der Berufsbildung).

Schul-Praxis: Lernanalytik, die "Engagement" aus Webcam-Bildern ableitet, ist untersagt – unabhängig davon, ob sie als EdTech-Feature oder als Forschung auftritt.

Weitere Verbote mit Schulbezug

  • Manipulative Beeinflussung (Art. 5 Abs. 1 lit. a), die Lernende oder Minderjährige unterschwellig zu Handlungen bewegt, die ihnen schaden.
  • Ausnutzung von Vulnerabilität (Art. 5 Abs. 1 lit. b) – u. a. aufgrund von Alter oder Behinderung, was Minderjährige direkt erfasst.
  • Social Scoring durch öffentliche Behörden (Art. 5 Abs. 1 lit. c) – relevant für staatliche Bildungsverwaltung.
  • Biometrische Kategorisierung nach sensiblen Merkmalen (Art. 5 Abs. 1 lit. g).

Die Europäische Kommission hat im Februar 2025 Leitlinien zu verbotenen KI-Praktiken im Bildungsbereich veröffentlicht; sie präzisieren Abgrenzungen und enthalten Fallbeispiele.

3

Hochrisiko-KI im Bildungsbereich (Anhang III Nr. 3)

Anhang III listet Einsatzfelder, in denen KI automatisch als Hochrisiko gilt. Ziffer 3 betrifft "allgemeine und berufliche Bildung" und nennt vier Szenarien:

a) Zugang zu Bildungseinrichtungen
KI zur Feststellung, ob jemand Zugang oder Zulassung zu einer Bildungs- oder Berufsbildungseinrichtung erhält (inkl. Zuweisung zu Einrichtungen).
b) Leistungsbewertung
KI zur Bewertung von Lernergebnissen, auch soweit sie für die Steuerung des weiteren Lernprozesses verwendet wird – zentrale Kategorie für automatisierte Korrektur- und Bewertungssysteme.
c) Zuweisung zu Bildungsniveaus
KI zur Einschätzung des angemessenen Bildungsniveaus, das eine Person erreichen kann oder erhalten sollte – erfasst Adaptive-Learning-Engines mit Pfad-Empfehlung.
d) Überwachung verbotenen Verhaltens in Prüfungen
KI zur Überwachung und Erkennung verbotener Verhaltensweisen von Lernenden während Prüfungen – insbesondere Online-Proctoring-Systeme.
Ausnahme (Art. 6 Abs. 3). Ein System aus Anhang III ist nicht Hochrisiko, wenn es keine wesentlichen Einflüsse auf die Entscheidungsfindung oder deren Ergebnisse hat – etwa, wenn es nur eng begrenzte Aufgaben löst oder die menschliche Entscheidung vorbereitet, ohne sie zu ersetzen. Die Einstufung muss vom Anbieter dokumentiert und den Behörden gemeldet werden.

Pflichten für Schulen als "Betreiber"

Setzt eine Schule ein Hochrisiko-KI-System ein, wird sie zum Deployer im Sinne von Art. 26 und muss insbesondere:

4

Transparenzpflichten & GPAI-Modelle

Art. 50 – Transparenz gegenüber Nutzenden

Seit August 2026 müssen Anbieter KI-Interaktionen für Nutzende klar erkennbar machen, und generierte Bild-/Ton-/Textinhalte als KI-generiert kennzeichnen (mit engen Ausnahmen für erkennbar künstlerische oder satirische Inhalte).

Schul-Praxis: KI-generierte Lernmaterialien, Arbeitsblätter, Bilder – entsprechend kennzeichnen. Die schulische Nutzungsvereinbarung sollte das regeln.

GPAI-Modelle (Kap. V, anwendbar seit 2.8.2025)

Anbieter von General-Purpose-AI-Modellen (OpenAI, Anthropic, Google, Meta, Mistral …) müssen:

  • technische Dokumentation erstellen und an das AI Office liefern,
  • eine öffentliche Trainingsdaten-Zusammenfassung veröffentlichen (EU-Template),
  • Urheberrechts-Policy dokumentieren,
  • bei "systemischem Risiko" zusätzliche Evaluations- und Risikomanagement-Pflichten erfüllen.

Folge für Schulen: Die Dokumentation der Anbieter wird auswertbar. Die Tool-Registry der Schule kann darauf verweisen, statt eigene Recherche zu duplizieren.

Die Kommission hat im Juli 2025 Leitlinien für GPAI-Anbieter und ein Template für die öffentliche Trainingsdaten-Zusammenfassung veröffentlicht.

5

Perspektive Schweiz

Der AI Act ist EU-Recht und gilt in der Schweiz nicht unmittelbar – aber er prägt den Schweizer Markt faktisch.

Direkte Betroffenheit

Nur dann, wenn eine Schweizer Einrichtung KI-Systeme in den EU-Binnenmarkt bringt oder deren Ausgaben in der EU verwendet werden. Für klassische Schulnutzung ist das selten der Fall.

Indirekte Betroffenheit (praxisrelevant)

  • Tool-Anbieter aus der EU liefern AI-Act-konforme Dokumentation, Risikoklassifikation und Transparenzhinweise – Schweizer Schulen erben diese Struktur durch die Vertragsbedingungen.
  • Europäische KI-Konvention des Europarats (von der Schweiz unterzeichnet) enthält eigene, allgemeinere Verpflichtungen und überschneidet sich inhaltlich mit dem AI Act.
  • Kantonale Bildungsgesetze und kantonale Datenschutzgesetze orientieren sich zunehmend an den AI-Act-Kategorien (Hochrisiko, Transparenz).
  • Der Bundesrat hat 2024–2025 verschiedene Varianten einer Schweizer KI-Regulierung geprüft; eine gesetzgeberische Entscheidung wird voraussichtlich 2026/27 fallen.

Praktisch heißt das: Schweizer Schulen gewinnen, wenn sie sich schon heute an den AI-Act-Kategorien orientieren. Das erleichtert die Bewertung von EU-Tools, spart Doppelarbeit und bringt die eigene Governance in Einklang mit dem regulatorischen Umfeld der meisten Anbieter. Details zu kantonalen und nationalen Rahmen: siehe Nationale Rahmen DACH.

6

Was Schulen jetzt konkret tun können

Sieben Schritte, die den Übergang zur August-2026-Konformität strukturieren – unabhängig davon, ob die Schule in DE, AT oder der CH liegt.

  1. Tool-Registry aufbauen. Je Werkzeug: Anbieter, Einsatzzweck, Datenflüsse, Risikoklasse (minimal / begrenzt / Hochrisiko / verboten). Verknüpfen mit der Tool-Registry-Systematik aus Modell C.
  2. Verbote prüfen. Keine Emotionserkennungs-Funktionen einsetzen – auch nicht als versteckter Bestandteil von Proctoring- oder Lernanalytik-Systemen. Vertragsklauseln prüfen.
  3. Hochrisiko-Einsätze kennzeichnen. Wer KI für Bewertung, Zulassung oder Zuweisung einsetzt, dokumentiert das gesondert und prüft die Ausnahme nach Art. 6 Abs. 3.
  4. KI-Kompetenz im Kollegium. Art. 4 verlangt, dass Personal, das KI einsetzt, ausreichende Kompetenz hat. Lernpfade und schulinterne Weiterbildung fokussieren.
  5. Transparenz an Lernende. Kennzeichnung KI-generierter Inhalte, Nutzungsvereinbarung aktualisieren, Zitationsregeln für KI.
  6. Menschliche Aufsicht sichern. Für jedes Hochrisiko-Szenario eine Rolle definieren (RACI), die die KI-Ausgabe prüft, bevor sie Wirkung entfaltet.
  7. Protokolle und Beschwerdekanäle. Nutzungs-Logs aufbewahren; Betroffene (Lernende, Erziehungsberechtigte) müssen eine Erklärung anfordern können, wenn sie von einer KI-Entscheidung betroffen sind.

Häufige Fragen

Ist ChatGPT im Unterricht "Hochrisiko"?

Nein. Ein generisches Sprachmodell, das Lernende als Rechercheassistent oder Schreibhilfe nutzen, ist kein Hochrisiko-System. Sobald dasselbe Modell jedoch automatisiert Lernleistungen bewertet oder Zulassungsentscheidungen trifft, wird der Einsatz zum Hochrisiko-System – unabhängig vom zugrundeliegenden Modell.

Dürfen wir weiter Lernanalytik einsetzen?

Ja, solange keine Emotionsableitung stattfindet und die Analyse nicht unmittelbar über Zulassung, Bewertung oder Zuweisung entscheidet. Reine Fortschritts-Dashboards oder aggregierte Klassenstatistiken sind unproblematisch.

Was gilt für Online-Proctoring?

Proctoring-Systeme, die KI zur Erkennung verbotenen Verhaltens in Prüfungen einsetzen, fallen unter Anhang III Nr. 3 lit. d und sind ab August 2026 Hochrisiko. Schulen, die solche Dienste nutzen, sollten Vertrag, Dokumentation und Aufsicht noch 2026 anpassen.

Wer ist "Anbieter", wer "Betreiber"?

Schulen sind in der Regel Betreiber (Deployer), wenn sie ein Fremdprodukt einsetzen. Sie werden zum Anbieter (Provider), wenn sie ein KI-System unter eigenem Namen in Verkehr bringen oder ein bestehendes Hochrisiko-System substanziell verändern – das ist in Schulen selten, bei großen Trägern aber möglich.

Quellen & Primärtexte

Belege

Weiter mit