Die KI-Verordnung (auch bekannt als AI Act) soll schon vor Wirksamkeit vieler Vorschriften wieder geändert werden. Wir erklären, was es mit der geplanten Reform der KI-Verordnung auf sich hat, welche Konsequenzen die Änderungen für Unternehmen hätten und warum sie sich (noch) nicht auf die neuen Fristen verlassen sollten.
Omnibus IV – die Initiative zur Wettbewerbsfähigkeit im digitalen Bereich
Der digitale Omnibus für KI ist Teil einer Reihe von Änderungsvorhaben zur Reduzierung von Bürokratie. Dadurch sollen insbesondere kleine und mittlere Unternehmen entlastet werden.
Neben der Reform der Datenschutz-Grundverordnung und des Data Acts soll auch die KI-Verordnung geändert werden.
Hinweis: Die Änderungsentwurf der Kommission vom 19. November 2025 wurde im Gesetzgebungsverfahren der Europäischen Union bereits deutlich verändert und befindet sich gerade im EU-Parlament.
Warum soll die KI-Verordnung geändert werden?
Außergewöhnlich ist zunächst, dass die Änderung der KI-Verordnung noch vor der Anwendbarkeit fast aller bestehenden Vorschriften erfolgen soll. Die Initiative zur Änderung erfolgt daher ohne, dass einzelne Fragen gerichtlich geklärt sind oder es praktische Erfahrung in der Umsetzung der Vorschriften oder der Abstimmung mit den Aufsichtsbehörden gibt.
Die Kommission ist gemeinsam mit verschiedenen Mitgliedsstaaten der Überzeugung, dass eine wirtschaftliche Wettbewerbsfähigkeit im KI-Bereich nur herzustellen ist, wenn die regulatorische Handbremse (in Form der KI-Verordnung) erst später angezogen wird – und, dass diese Wettbewerbsfähigkeit noch greifbar ist.
Die meisten Vorschriften der KI-Verordnung sollen dabei nicht geändert werden, sondern deren Anwendbarkeit wird nur zeitlich verschoben. Man glaubt also, dass in den weiteren eineinhalb unregulierten Jahren Unternehmen entstehen oder wachsen, die mit den investitionsschweren (US-)Giganten des Tech-Marktes mithalten können und dann die Compliance-Anforderungen ohne wirtschaftliche Einbußen erfüllen können. Zudem soll bei kleineren Unternehmen das Wachstum durch Compliance-Anforderungen überhaupt nicht behindert werden. Erleichtert werden neben der Schulungspflicht einige Vorgaben für Hochrisiko-KI-Systeme. Ansonsten vereinfacht die Änderung viele Abläufe für Aufsichtsbehörden, die Marktüberwachung und schafft neue Möglichkeiten für KI-Reallabore.
Die geplanten Änderungen an der KI-Verordnung
In der KI-Verordnung werden verschiedenste Vorschriften geändert und hinzugefügt. Zum einen handelt es sich dabei um eine Erweiterung einiger Vorschriften um Unternehmen der Gruppen SME bzw. KMU (micro, small and medium-sized enterprises) und SMC (small mid-cap enterprise). So soll sichergestellt werden, dass aufwendige Compliance-Anforderungen nur von großen Unternehmen umgesetzt werden müssen und dass die wirtschaftliche Entwicklung kleinerer und nun auch mittelgroßer bzw. Midcap-Unternehmen (weniger als 750 Mitarbeiter und ein jährlicher Umsatz von nicht mehr als 150 Mio. Euro.) nicht ausgebremst wird.
Beispielsweise ist geplant, die Vereinfachung technischer Dokumentationen und der Ausgestaltung von Qualitäts-Managementsystemen explizit auf SMC auszuweiten. Für das vereinfachte Qualitätsmanagement soll die Kommission Leitlinien erstellen.
KMU und Midcap-Unternehmen sollen auch bei der Festlegung von Geldbußen berücksichtigt werden. Bußgelder sollen für diese Unternehmen zwischen dem Prozentsatz des Jahresumsatzes und der festen Summen in Art. 99 Abs. 3 bis 5 AI Act (von 7,5 bis 35 Millionen Euro) nicht mehr danach verhängt werden, welcher Betrag höher ist, sondern welcher davon niedriger ist.
Andererseits werden Fristen für die Anwendbarkeit verschiedener Vorschriften um bis zu eineinhalb Jahre nach hinten verschoben.
- Für Hochrisiko-Systeme nach Anhang III (KI für Bewerbungsverfahren, Prüfungen der Kreditwürdigkeit, KI zur Strafverfolgung) wird die Anwendung der Anforderungen vom 2. August 2026 auf den 2. Dezember 2027, also um ca. eineinhalb Jahre verschoben.
- Für Hochrisiko-Systeme nach Anhang I (integrierte KI in bestimmten Produkten wie z.B. Medizinprodukten oder PKW) wird die Anwendung der Anforderungen vom 2. August 2027 auf 2. August 2028, also um ca. ein Jahr verschoben.
Für Hochrisiko-KI-Systeme nach Art. 6 Abs. 1 AI Act und Annex I gälte nach der Reform der neue Art. 60a und auch Art. 111 AI Act.
- Insbesondere Art. 111 AI Act hat enorme Auswirkungen und sorgt dafür, dass solche Systeme, die vor der Anwendbarkeit der Anforderungen in Verkehr gebracht und in Betrieb genommen worden sind, die Anforderungen der KI-Verordnung nur erfüllen müssen, wenn sie nach dem Stichtag erheblich in ihrer Konzeption verändert wurden. Für Behörden, die solche Systeme benutzen, gilt weiterhin die lange Umsetzungsfrist bis zum 2. August 2030.
- Mit dem neuen Art. 60 a dürfen Hochrisiko-KI-Systeme unter bestimmten Bedingungen auch außerhalb von KI-Reallaboren getestet werden. Das richtet sich nach den Vorgaben eines „Real-World Testing Agreement“, welches zwischen Mitgliedsstaaten und der Kommission abgeschlossen wird.
Zudem müssen Anbieter sich nicht mehr registrieren, wenn Sie ein System aus Annex III nicht als Hochrisiko-KI-System einstufen. Die Einstufung ist jedoch nach Art. 6 Abs. 4 des Änderungsvorschlags zu dokumentieren, bevor der Dienst angeboten oder in Betrieb genommen wird.
Anbieter von KI-Systemen, die künstliche Audio-, Bild-, Video- oder Textinhalte generieren können, und die bereits vor dem 2. August 2026 angeboten wurden, müssen die Kennzeichnungspflicht aus Art. 50 Abs. 2 AI Act für KI-generierte Inhalte bis zum 2. November 2026 erfüllen.
Außerdem wird die Pflicht zur Herstellung von KI-Kompetenz gelockert werden (Art. 4 AI Act). Eine solche Kompetenz mittels Maßnahmen wie Schulungen oder Fortbildungen sollen die Anbieter und Betreiber von KI nun nicht mehr sicherstellen („ensure“), sondern deren Verbesserung unterstützen („support the improvement“). Diese Pflicht erstreckt sich außerdem nicht auf die Garantie eines spezifischen Levels an KI-Kompetenz für einzelne Personen. Die Kommission soll für die praktische Umsetzung dieser Pflichten Orientierungshilfen anbieten.
Der neue Art. 4a enthält zum einen den bisherigen Art. 10 Abs. 5 AI Act. Dieser ist eine Ausnahme zur Verarbeitung besonderer Kategorien personenbezogener Daten oder sensibler Daten (Gesundheitsdaten, politische Einstellung, etc.), wenn die Verarbeitung für die Erkennung von Biases bzw. Verzerrungen in KI-Systemen und für deren Korrektur in Hochrisiko-Systemen unbedingt notwendig ist. Es wird damit eine klare Zweckbindung für solche Verarbeitungen eingeführt. Zum anderen wird die Ausnahme in Abs. 2 für Betreiber von Hochrisiko KI-Systemen erweitert, wenn eine Verarbeitung für die Vermeidung von Verzerrungen erforderlich und angemessen ist, soweit diese Verzerrungen sich voraussichtlich auf die Gesundheit oder die Sicherheit von Personen auswirken, negative Auswirkungen auf Grundrechte haben oder zu einer Diskriminierung führen, die das EU-Recht verbietet. Der Vorschlag erweitert die Möglichkeit, besondere Kategorien personenbezogener Daten zur Erkennung und Vermeidung von Verzerrungen in Hochrisiko-KI-Systemen zu verarbeiten. Gleichzeitig wird diese Verarbeitung an strenge Voraussetzungen wie Erforderlichkeit und Zweckbindung geknüpft.
KI-Reallabore, die es ermöglichen, neue KI-Anwendungen bereits während der Entwicklung unter realen Bedingungen zu testen, können nach dem geplanten Art. 57 Abs. 3a auch durch das Büro für künstliche Intelligenz eingerichtet werden. Zudem sollen die Realbedingungen für Tests in einem Dokument festgehalten werden.
Zudem wird die Liste der verbotenen Praktiken im KI-Bereich (Art. 5) erweitert. So werden KI-Systeme verboten, die realistische sexuelle oder intime Videos und Fotos natürlicher Personen ohne Einwilligung generieren können (sog. Deepfakes), sofern keine effektiven Sicherheitsmaßnahmen getroffen wurden, um dies zu verhindern.
Ausblick
Die geplante Reform erleichtert einige Anforderungen der KI-Verordnung und erweitert insbesondere den Kreis der Unternehmen, die diese Anforderungen weniger umfassend umsetzen müssen. Die Änderungen zielen jedoch vor allem darauf ab, Unternehmen mehr Zeit für die Umsetzung der Anforderungen einzuräumen.
Betroffene Unternehmen sollten ihre bestehenden Zeitpläne allerdings erst ändern, wenn eine Reform sicher ist. Die dann verbleibende Zeit sollte genutzt werden, um verlässliche Managementsysteme für künstliche Intelligenz (Stichwort: ISO 42001) zu etablieren.
