Der EU AI Act (Verordnung (EU) 2024/1689) ist am 1. August 2024 in Kraft getreten. Er wirkt gestaffelt. Die Verbote des Art. 5 gelten seit Februar 2025, die GPAI-Pflichten des Art. 53 seit August 2025. Am 2. August 2026 folgt der größte Block: die Anforderungen an Hochrisiko-KI-Systeme nach Art. 6 bis 15. Wer KI-Systeme in den in Anhang III genannten Anwendungsbereichen einsetzt oder bereitstellt, ist ab diesem Datum in der Pflicht.
Vier Monate vor dem Stichtag ist der Handlungsbedarf messbar. In Beratungsprojekten mit mittelständischen Unternehmen zeigt sich eine Bandbreite, die von gut vorbereiteten Organisationen bis zu Häusern reicht, die noch kein KI-Inventar führen. Die Bandbreite ist groß. Die verbleibende Zeit ist knapp.
Die Deadline und was dahintersteht
Art. 113 Abs. 1 lit. b VO (EU) 2024/1689 legt fest, dass die Regelungen für Hochrisiko-KI-Systeme nach Art. 6 in Verbindung mit Anhang III am 2. August 2026 wirksam werden. Anhang III listet acht Anwendungsbereiche. Biometrische Systeme, kritische Infrastrukturen, Bildung und Berufsausbildung, Beschäftigung und Personalmanagement, Zugang zu wesentlichen privaten und öffentlichen Diensten, Strafverfolgung, Migration und Grenzkontrolle sowie Rechtspflege und demokratische Prozesse.
Für Mittelstandsunternehmen besonders relevant ist Nr. 4 in Anhang III. Beschäftigung und Personalmanagement umfasst KI-Systeme für Rekrutierung, Auswahl, Beförderung und Kündigung. Ein KI-gestütztes Bewerbungstool fällt damit regelhaft unter die Hochrisiko-Kategorie. Ebenso Anwendungen im Bereich kritischer Infrastrukturen (Energie, Wasser, Verkehr) und im Bildungsbereich.
Die Pflichten für Betreiber solcher Systeme ergeben sich aus Art. 26 und Art. 27. Anbieter solcher Systeme tragen zusätzlich die umfassenden Pflichten der Art. 9 bis 15 (Risikomanagement, Datenqualität, Dokumentation, Transparenz, menschliche Aufsicht, Genauigkeit und Robustheit).
EU AI Act: Wichtige Stichtage
- 01.08.2024: Inkrafttreten der Verordnung
- 02.02.2025: Art. 5 Verbote wirksam
- 02.08.2025: GPAI-Pflichten nach Art. 53 wirksam
- 02.08.2026: Hochrisiko-KI-Systeme nach Art. 6 und Anhang III
- 02.08.2027: Vollständiger Anwendungsbeginn
Was eu ai act compliance bis August 2026 konkret erfordert
Die Pflichten sind unterschiedlich, je nach Rolle. Anbieter von Hochrisiko-KI-Systemen tragen den größeren Teil der Dokumentationslast. Betreiber, also Unternehmen, die solche Systeme einsetzen, haben eigene Pflichten, die deutlich operativer ausgestaltet sind.
Pflichten für Betreiber nach Art. 26
Betreiber müssen Hochrisiko-KI-Systeme entsprechend der Anbieter-Anweisungen nutzen, menschliche Aufsicht sicherstellen, die Eingabedaten kontrollieren, den Systembetrieb überwachen und Vorfälle dokumentieren. Für Arbeitgeber ergibt sich aus Art. 26 Abs. 7 zusätzlich eine Informationspflicht gegenüber den betroffenen Mitarbeitenden, bevor ein solches System eingeführt wird.
Grundrechte-Folgenabschätzung nach Art. 27
Bestimmte Betreiber sind nach Art. 27 zu einer Grundrechte-Folgenabschätzung verpflichtet. Das gilt insbesondere für öffentliche Stellen und für private Einrichtungen, die Dienste von öffentlichem Interesse erbringen. Die Abschätzung dokumentiert Zweck und Kontext des KI-Einsatzes, betroffene Personen, mögliche Grundrechtseingriffe und vorgesehene Schutzmaßnahmen.
Pflichten für Anbieter nach Art. 9 bis 15
Wer selbst Hochrisiko-KI-Systeme entwickelt oder unter eigenem Namen in Verkehr bringt, unterliegt den vollen Anbieter-Pflichten. Risikomanagementsystem über den gesamten Lebenszyklus (Art. 9), Datenqualitätsanforderungen für Trainings-, Validierungs- und Testdaten (Art. 10), technische Dokumentation (Art. 11), Aufzeichnungspflichten (Art. 12), Transparenz gegenüber Betreibern (Art. 13), menschliche Aufsicht als Designprinzip (Art. 14) und Anforderungen an Genauigkeit, Robustheit und Cybersicherheit (Art. 15).
Vier Monate vor dem Stichtag ist kein guter Zeitpunkt, um mit dem KI-Inventar zu beginnen. Aber ein besserer als sechs Wochen vorher.
Beobachtung aus AIMS-BeratungsprojektenBußgelder und Aufsicht
Art. 99 Abs. 4 VO (EU) 2024/1689 regelt Bußgelder bei Verstößen gegen die Hochrisiko-Anforderungen. Bis zu 15 Mio. EUR oder 3 Prozent des weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist. Für Verstöße gegen die Verbote nach Art. 5 liegt die Obergrenze mit 35 Mio. EUR oder 7 Prozent sogar noch höher (Art. 99 Abs. 3).
Die Aufsichtsstruktur in Deutschland ist im April 2026 noch nicht abschließend konsolidiert. Die Bundesnetzagentur ist als koordinierende Stelle vorgesehen. Die Fachaufsichtsbehörden für bestimmte Sektoren (Finanzen, Gesundheit, Beschäftigung) übernehmen sektorspezifische Rollen. Auf EU-Ebene hat das AI Office bei der Kommission die übergreifende Koordinationsfunktion. Unternehmen, die auf eine fertige Behördenstruktur warten, bevor sie ihre eu ai act compliance-Arbeit beginnen, werden die Deadline nicht halten.
Fünf Arbeitspakete bis zum Stichtag
Die Bandbreite der möglichen Vorbereitung ist groß. Wer heute anfängt, sollte sich auf fünf Arbeitspakete konzentrieren. Alles andere kann nach dem 2. August 2026 nachgezogen werden.
- KI-Inventar erstellen. Eine vollständige Liste aller KI-Systeme im Unternehmen, inklusive eingebetteter Funktionen in Standardsoftware, Cloud-Diensten und APIs. Für jedes System: Zweck, Anbieter, betroffene Personenkategorien, vorläufige Risikoklassifizierung nach EU AI Act.
- Hochrisiko-Systeme identifizieren. Welche Systeme fallen unter Anhang III? Diese Bewertung muss dokumentiert sein und von einer qualifizierten Person (CISO, Compliance, AIMS-Beauftragter) verantwortet werden.
- Betreiber-Pflichten operationalisieren. Für jedes identifizierte Hochrisiko-System definieren, wie die Pflichten nach Art. 26 umgesetzt werden. Menschliche Aufsicht, Log-Auswertung, Vorfallmeldung, Information der Betroffenen.
- Lieferantenverträge prüfen. Art. 25 verpflichtet Betreiber, vertragliche Zusicherungen vom Anbieter zu erhalten. Bestehende Verträge auf EU-AI-Act-Konformität prüfen, bei neuen Verträgen entsprechende Klauseln vorsehen.
- Governance formalisieren. Wer ist verantwortlich? Ein KI-Beauftragter, ein Ausschuss, die Geschäftsführung selbst? Die Rolle muss benannt, dokumentiert und mit Ressourcen ausgestattet sein.
ISO 42001 als strukturelles Fundament
Die Anforderungen der Art. 9 bis 15 lassen sich auffällig gut auf die ISO/IEC 42001:2023 abbilden. Die Norm definiert ein KI-Managementsystem (AIMS) mit genau den Elementen, die der EU AI Act für Hochrisiko-Systeme fordert. Risikomanagement, Datengouvernanz, Lebenszyklus-Management, Dokumentation, Überwachung.
Ein nach ISO 42001 aufgebautes AI Management System ist damit der strukturell sauberste Weg zur eu ai act compliance. Wer bereits ein ISMS nach ISO 27001 betreibt, kann die ISO 42001 als integrierte Erweiterung aufsetzen. Die gemeinsame High Level Structure macht den Aufbau effizient. Details zum Zusammenspiel finden sich in unseren Beiträgen zu ISO 27001 und EU AI Act und zum Vergleich ISO 27001 und ISO 42001.
Was jetzt nicht funktioniert
Drei Muster sind in der Beratungspraxis besonders riskant.
Warten auf vollständige Klarheit. Die Rechtsanwendung des EU AI Act entwickelt sich. Auslegungshilfen, Leitlinien und nationale Umsetzungen werden in den nächsten Monaten konkreter. Wer darauf wartet, bevor er mit der Vorbereitung beginnt, verschenkt die gesamte Vorlaufzeit. Die Kern-Pflichten stehen im Verordnungstext und lassen sich heute umsetzen.
Fokus nur auf selbst entwickelte KI. Viele Unternehmen glauben, nicht betroffen zu sein, weil sie selbst keine KI entwickeln. Tatsächlich betrifft die Betreiber-Pflicht nach Art. 26 jedes Unternehmen, das ein Hochrisiko-KI-System einsetzt, unabhängig davon, ob es selbst Anbieter ist. HR-Screening-Tools, Bewertungssysteme in der Kreditvergabe, biometrische Zugangssysteme. Alles Fälle, in denen eingekaufte KI zum regulierten Sachverhalt wird.
Delegation ohne Governance. Die Verantwortung für EU-AI-Act-Compliance lässt sich nicht vollständig an IT oder Compliance delegieren. Es braucht eine übergeordnete Governance, die Rolle und Verantwortlichkeit klar benennt. Die Geschäftsführung trägt die finale Verantwortung. Eine schriftlich delegierte, dokumentierte Rolle ist belastbarer als ein stillschweigender Konsens.
Handlungsfähigkeit bis zum Stichtag
Unternehmen, die heute beginnen, können bis zum 2. August 2026 ein funktionsfähiges AIMS aufbauen. Wer bereits ein ISMS betreibt, braucht dafür realistisch drei bis fünf Monate. Wer bei null startet, sollte mit sechs bis neun Monaten rechnen. Die Bandbreite ergibt sich aus der Zahl und Komplexität der KI-Systeme sowie aus der Reife der vorhandenen Governance-Strukturen.
Was nicht mehr funktioniert, ist, das Thema auf Ende Juli 2026 zu verschieben. Wer im Juli feststellt, dass drei Hochrisiko-Systeme im Einsatz sind, ohne Dokumentation, ohne Governance, ohne Lieferanten-Nachweise, wird den Stichtag nicht halten können.
QUELLEN
- Verordnung (EU) 2024/1689 (EU AI Act), Art. 5, 6, 9-15, 25, 26, 27, 53, 99, 113 und Anhang III, EUR-Lex
- ISO/IEC 42001:2023 AI Management System, iso.org
- ISO/IEC 27001:2022 Information security management systems, iso.org
- AI Office der Europäischen Kommission, digital-strategy.ec.europa.eu
