VORABDRUCK ZUR BEGUTACHTUNG · Drucken Sie diese Seite über die Druckfunktion Ihres Browsers (Cmd P oder Strg P) und wählen Sie Als PDF speichern für eine saubere Druckdatei. ← zurück zur Ebook-Übersicht
G C

Lead-Magnet · Edition Mai 2026

Die EU-AI-Act-Checkliste für DACH-Unternehmen.

Eine 10-seitige Arbeitsmappe für CFOs, CIOs und Compliance-Verantwortliche in der Schweiz, Deutschland und Österreich.

Gilbert Cesarano

Zug, Mai 2026 · Sprache Deutsch · Stand der Verordnung berücksichtigt bis April 2026

© 2026 TennoTenRyu Inh. Cesarano. Diese Checkliste darf intern unverändert weitergegeben werden. Jede Veröffentlichung, auch auszugsweise, nur mit schriftlicher Zustimmung des Autors.

§ 1

Wozu diese Checkliste dient.

Die Verordnung über künstliche Intelligenz der Europäischen Union, kurz EU AI Act, ist seit dem 1. August 2024 in Kraft und tritt in mehreren Stufen bis 2027 in Anwendung. Für Unternehmen in Deutschland und Österreich gilt sie unmittelbar. Für Unternehmen in der Schweiz gilt sie auf dem Umweg, dass jede Tätigkeit auf dem EU-Binnenmarkt, jede Vermarktung an EU-Kundschaft und jede Lieferantenbeziehung mit EU-Auftraggebern den AI Act faktisch zur Anforderungsbasis macht.

Diese Checkliste fasst die wichtigsten Pflichten in einer Form zusammen, die in einer Vorstands- oder Audit-Sitzung in dreissig Minuten durchgegangen werden kann. Sie ersetzt keine juristische Beratung. Sie liefert die Struktur, in der eine juristische Beratung effizient angefragt werden kann.

Die Checkliste folgt sechs Schritten. Erstens, Geltungsbereich. Zweitens, Risikoklassifikation. Drittens, Pflichten je Klasse. Viertens, Pflichten für Allzweck-KI-Modelle. Fünftens, DACH-spezifische Überlagerungen. Sechstens, Selbstbewertung in fünfundzwanzig Fragen.

§ 2

Geltungsbereich, wer ist betroffen.

Der AI Act unterscheidet fünf Rollen, die jedes betroffene Unternehmen für jedes seiner KI-Systeme klären muss. Die Rolle bestimmt den Pflichtenkatalog, der zur Anwendung kommt.

RolleDefinition in KurzformPflichtschwerpunkt
AnbieterEntwickelt ein KI-System oder lässt es entwickeln und bringt es unter eigenem Namen in Verkehr.Volle Pflichten je Risikoklasse, Konformitätsbewertung, technische Dokumentation.
BetreiberSetzt ein KI-System unter eigener Verantwortung im beruflichen Kontext ein.Sorgfaltspflicht, Monitoring, Schulung der Anwendenden, Meldepflichten bei Vorfällen.
ImporteurBringt ein KI-System aus einem Drittstaat erstmals in der EU in Verkehr.Konformitätsprüfung des Anbieters, Einbehalt von Dokumentation, Meldung bei Aufsicht.
HändlerMacht ein bereits in der EU in Verkehr gebrachtes KI-System auf dem Markt verfügbar, ohne dessen Eigenschaften zu verändern.Prüfung der CE-Kennzeichnung, Weitergabe der Dokumentation, Meldepflichten.
BevollmächtigterIn der EU niedergelassene Person oder Stelle, die einen Anbieter aus einem Drittstaat vertritt.Aufbewahrung der Konformitätsbewertung, Ansprechpartner für die Aufsicht.

Schweiz-Hinweis. Schweizer Unternehmen, die KI-Systeme an EU-Kundschaft verkaufen oder ihren Einsatz in der EU verantworten, gelten als Anbieter oder Betreiber im Sinne des AI Acts und müssen einen in der EU niedergelassenen Bevollmächtigten benennen.

§ 3

Die vier Risikoklassen.

Der AI Act ordnet jedes KI-System einer von vier Risikoklassen zu. Die Klassifizierung ist die wichtigste einzelne Entscheidung im gesamten Compliance-Prozess, weil sie über den Pflichtenkatalog entscheidet.

KlasseWas sie umfasstBeispiele aus DACH-Praxis
UnannehmbarVerboten, weil mit Grundrechten unvereinbar.Social Scoring durch Behörden, manipulative Systeme, ungerichtete Gesichtserkennung im öffentlichen Raum.
HochErhebliche Risiken für Gesundheit, Sicherheit oder Grundrechte.Bonitätsprüfung im Privatkundengeschäft, automatisierte Vorauswahl von Bewerbungen, KI in medizinischen Geräten, KI in kritischer Infrastruktur.
BegrenztTransparenzpflichten, weil Nutzende über die Interaktion mit KI informiert sein müssen.Chatbots im Kundenservice, KI-generierte Inhalte mit Kennzeichnungspflicht, Emotionserkennung in nicht-Hochrisiko-Kontexten.
MinimalKeine spezifischen Pflichten, freiwillige Verhaltenskodizes empfohlen.Spam-Filter, KI in Computerspielen, Empfehlungen in Streaming-Diensten.

§ 4

Pflichten je Risikoklasse, im Überblick.

Verbotene Praktiken (Art. 5 AI Act)

Bestimmte KI-Anwendungen sind seit dem 2. Februar 2025 vollständig untersagt. Dazu gehören manipulative Techniken, Ausnutzung von Schwächen bestimmter Personengruppen, Social Scoring durch Behörden, ungerichtete Gesichtserkennung in öffentlichen Räumen sowie Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen, mit eng definierten Ausnahmen.

Hochrisiko-Pflichten (Art. 8 bis 29 AI Act)

Transparenzpflichten für begrenztes Risiko (Art. 50 AI Act)

§ 5

Allzweck-KI-Modelle (GPAI).

Allzweck-KI-Modelle, im Englischen General Purpose AI, fallen seit dem 2. August 2025 unter eine eigene Pflichtenkategorie. Hierzu gehören grosse Sprachmodelle wie GPT, Claude, Gemini und Llama sowie multimodale Foundation Models. Die Pflichten teilen sich in zwei Stufen.

Pflichten für alle Allzweck-Modelle

Zusatzpflichten für Modelle mit systemischem Risiko

Modelle, deren Trainings-Rechenaufwand einen Schwellenwert überschreitet (aktuell 10 hoch 25 FLOPs), gelten als systemisch und unterliegen zusätzlich Pflichten zur Modellbewertung, zur Risikobewertung und Risikominderung, zur Berichterstattung über schwerwiegende Vorfälle und zur Cybersicherheit.

Praktische Konsequenz für Betreibende. Wer ein GPAI-Modell in eigenen Systemen einsetzt, ist nicht von den Pflichten als Anbieter eines Hochrisiko-Systems entbunden. Ein Chatbot auf Basis eines fremden Sprachmodells, der Bonitätsentscheidungen trifft, bleibt ein Hochrisiko-System des Betreibenden.

§ 6

Zeitplan der Anwendung.

DatumWas tritt in Kraft
1. August 2024Verordnung in Kraft.
2. Februar 2025Verbotene Praktiken (Art. 5) und allgemeine Bestimmungen anwendbar.
2. August 2025Pflichten für Allzweck-KI-Modelle, Sanktionsregeln, nationale Aufsichtsbehörden, Datenschutz-Folgen-abschätzung anwendbar.
2. August 2026Hauptanwendung der Verordnung, einschliesslich der meisten Hochrisiko-Pflichten.
2. August 2027Vollständige Anwendung, einschliesslich Hochrisiko-Pflichten für KI als Sicherheitsbauteil regulierter Produkte.

§ 7

DACH-spezifische Überlagerungen.

Die nationale und sektorale Aufsicht in den drei DACH-Ländern überlagert den AI Act mit zusätzlichen Anforderungen, die in der Praxis oft strenger sind als die EU-Verordnung selbst.

Land / SektorRelevante AufsichtPraktische Wirkung
Schweiz, BankingFINMA, FINMA-Rundschreiben 2023/1 «Operationelle Risiken und Resilienz»Auch ohne formale AI-Act-Pflicht erwartet die FINMA eine vergleichbare Tiefe der Modell-Governance.
Deutschland, BankingBaFin, BAIT und MaRisk AT 4.3.5Erhöhte Anforderungen an Modellrisiko-Management, KI-Einsatz im Eigenhandel besonders im Fokus.
Österreich, BankingFMA, in enger Anlehnung an EBA-LeitlinienModellprüfungen verstärkt, KI-Vorhaben meldepflichtig ab definierter Materialität.
DACH, PharmaSwissmedic, BfArM, AGES, Verweis auf GxP und ICH E6 (R3)KI in klinischen Studien und Pharmakovigilanz erfordert validierte Audit-Trails und Modellversionierung.
DACH, DatenschutzSchweizerischer EDÖB, deutsche Aufsichtsbehörden, österreichische DSBDSGVO und revDSG überlagern den AI Act bei jeder Verarbeitung personenbezogener Daten.

§ 8

Selbstbewertung in 25 Fragen.

Beantworten Sie jede Frage mit Ja, Nein oder Nicht zutreffend. Jedes Nein ist ein konkreter Handlungsanstoss.

A. Geltungsbereich und Inventar

  1. Existiert ein vollständiges Inventar aller im Unternehmen produktiv eingesetzten KI-Systeme?
  2. Ist für jedes System die Rolle des Unternehmens eindeutig dokumentiert (Anbieter, Betreiber, Importeur, Händler)?
  3. Ist für jedes System dokumentiert, ob es auf dem EU-Binnenmarkt zum Einsatz kommt oder dort wirkt?

B. Risikoklassifizierung

  1. Wurde jedes System einer der vier Risikoklassen formell zugeordnet?
  2. Liegt die Begründung der Zuordnung schriftlich vor und ist sie im Audit nachvollziehbar?
  3. Ist sichergestellt, dass keines der eingesetzten Systeme unter Art. 5 (verbotene Praktiken) fällt?

C. Hochrisiko-Pflichten

  1. Existiert ein Risikomanagement-System je Hochrisiko-Anwendung über den gesamten Lebenszyklus?
  2. Sind die Trainingsdaten auf Repräsentativität, Bias und rechtliche Zulässigkeit bewertet?
  3. Liegt eine technische Dokumentation gemäss Anhang IV vor?
  4. Werden Aktivitäten des Systems automatisch protokolliert und revisionssicher aufbewahrt?
  5. Ist die menschliche Aufsicht technisch und organisatorisch implementiert?
  6. Wurde eine Konformitätsbewertung durchgeführt und das System in der EU-Datenbank registriert?

D. Transparenz

  1. Werden Personen, die mit einem KI-System interagieren, darüber informiert?
  2. Werden KI-generierte Inhalte gekennzeichnet, wo erforderlich?
  3. Existiert eine Richtlinie für den Umgang mit Deepfakes und synthetischen Medien?

E. GPAI

  1. Ist für jedes eingesetzte Allzweck-KI-Modell der Anbieter und seine AI-Act-Konformität dokumentiert?
  2. Liegt eine Risikobewertung der eigenen Anwendung vor, unabhängig von den Pflichten des GPAI-Anbieters?
  3. Ist die Frage geklärt, ob durch eigene Anpassungen am Modell eine Anbieter-Rolle entsteht?

F. Governance

  1. Existiert eine benannte Verantwortungsstelle für AI-Compliance auf Geschäftsleitungsebene?
  2. Sind Schulungspflichten für Anwendende dokumentiert und nachweisbar absolviert?
  3. Existiert ein Meldeprozess für schwerwiegende Vorfälle gemäss Art. 73 AI Act?

G. DACH-Überlagerungen

  1. Wurde geprüft, welche sektoralen Aufsichten zusätzlich zum AI Act anwendbar sind?
  2. Ist die Schnittstelle zwischen AI Act und Datenschutz (DSGVO, revDSG) operativ geregelt?
  3. Wurden Verträge mit AI-Lieferanten auf AI-Act-Konformität geprüft und nachverhandelt?
  4. Existiert ein DACH-spezifischer Reporting-Pfad an interne Aufsichtsorgane (Verwaltungsrat, Aufsichtsrat)?

Bewertungsraster. Mehr als zwanzig Ja, Sie sind auf einem belastbaren Stand. Zwischen zehn und zwanzig Ja, klarer Handlungsbedarf, aber kein Notfall. Weniger als zehn Ja, ein strukturiertes Readiness-Programm ist überfällig.

Nächste Schritte

Diese Checkliste ist als Standortbestimmung gedacht. Wer auf dieser Basis ein strukturiertes Readiness-Programm aufbauen möchte, findet in AAIA Trinity STAR · Das Architektur-Handbuch eine Referenzarchitektur, die EU-AI-Act-Pflichten in Architekturentscheidungen übersetzt.

Für ein dreissigminütiges Erstgespräch zur eigenen AI-Act-Position: gilbertcesarano.com/contact.

Frühzugriff auf das Handbuch: gilbertcesarano.com/ebooks/aaia-trinity-star-handbuch.

© 2026 TennoTenRyu Inh. Cesarano · Gilbert Cesarano · Zug, Schweiz · gilbertcesarano.com · Diese Checkliste ersetzt keine juristische Beratung.