Leitfaden zur EU-KI-Verordnung für Unternehmen außerhalb der EU: Pflichten, Risikoklassifizierung und Durchsetzung
Ein praxisorientierter Leitfaden zur Compliance mit der EU-KI-Verordnung (Verordnung (EU) 2024/1689) für Unternehmen außerhalb der EU, die KI-Systeme auf europäischen Märkten einsetzen, betreiben oder vertreiben. Risikoklassifizierung, Pflichten von Anbietern und Betreibern, Konformitätsbewertungen, verbotene Praktiken und Durchsetzung durch das EU-KI-Büro — mit konkreten Handlungsempfehlungen für General Counsel, CTOs und Chief Compliance Officers.
Morvantine Legal Editorial Team
20 October 2025
Leitfaden zur EU-KI-Verordnung für Unternehmen außerhalb der EU: Pflichten, Risikoklassifizierung und Durchsetzung
Die Verordnung (EU) 2024/1689 — die EU-Verordnung über künstliche Intelligenz (EU-KI-VO) — ist am 1. August 2024 in Kraft getreten und wird seitdem schrittweise angewendet. Am 2. Februar 2025 wurden die Verbote für KI-Praktiken mit unannehmbarem Risiko vollstreckbar. Am 2. August 2025 traten der Rechtsrahmen für KI-Modelle für allgemeine Zwecke (GPAI-Modelle) und die institutionelle Struktur des EU-KI-Büros in Kraft. Die Pflichten für Hochrisiko-KI-Systeme gemäß Anhang III wurden ab dem 2. August 2026 anwendbar. Der General Counsel oder Chief Compliance Officer jedes Unternehmens, das KI-Produkte auf EU-Märkten entwickelt, betreibt oder vertreibt, kann die KI-Verordnung nicht länger als künftige Regulierung behandeln. Sie ist geltendes Recht mit aktiven Durchsetzungsmechanismen.
Das bedeutendste strukturelle Merkmal der KI-Verordnung — und das von Unternehmen außerhalb der EU am wenigsten verstandene — ist ihre extraterritoriale Wirkung. Anders als die erste Generation europäischer Produktregulierung, die extraterritoriale Wirkung primär über Marktzugangsbedingungen erzielte, legt die KI-Verordnung ausdrücklich Pflichten für außerhalb der Europäischen Union niedergelassene Einrichtungen fest. Dieser Beitrag liefert eine praxisorientierte Analyse dieser Pflichten, des Risikoklassifizierungssystems, das ihren Anwendungsbereich bestimmt, der unterschiedlichen Compliance-Anforderungen für Anbieter im Vergleich zu Betreibern, des Konformitätsbewertungsverfahrens sowie der nunmehr operativen Durchsetzungsmechanismen des EU-KI-Büros.
Extraterritoriale Wirkung: Wer erfasst wird und warum
Der räumliche Anwendungsbereich der KI-Verordnung wird durch Artikel 2 Absatz 1 definiert, der vier verschiedene Anknüpfungspunkte für die Zuständigkeit festlegt. Die Verordnung gilt für:
(a) Anbieter, die KI-Systeme in der EU in Verkehr bringen oder in Betrieb nehmen, unabhängig davon, ob diese Anbieter in der EU niedergelassen sind;
(b) Anbieter und Betreiber von KI-Systemen mit Niederlassung in der EU;
(c) Anbieter von KI-Systemen mit Niederlassung in einem Drittland, wenn der vom System erzeugte Output in der EU verwendet wird; und
(d) Betreiber von KI-Systemen mit Niederlassung in einem Drittland, wenn der vom System erzeugte Output in der EU verwendet wird.
Die praktischen Konsequenzen sind für ein US-amerikanisches Technologieunternehmen, das eine KI-gestützte Personalauswahlplattform anbietet, einen japanischen Hersteller, der ein bildverarbeitungsbasiertes Qualitätskontrollsystem vertreibt, oder ein kanadisches Fintech-Unternehmen, das europäischen Kreditgebern KI-gestützte Kreditentscheidungen liefert, identisch: Wird der Output des KI-Systems in der EU verwendet, fällt das Unternehmen in den Anwendungsbereich der KI-Verordnung — unabhängig davon, wo es gegründet wurde, wo seine Server stehen oder ob es eine EU-Niederlassung hat.
Diese Struktur ist keine bloße Übernahme des „Ausrichtungskriteriums" aus Artikel 3 Absatz 2 DSGVO. Sie ist in gewisser Hinsicht weiter gefasst: Die KI-Verordnung erfordert keine aktive Ausrichtung auf EU-Nutzer. Das entscheidende Kriterium ist die Verwendung des Outputs in der EU. Ein System, das vollständig in einem Drittland entwickelt und betrieben, an ein in der EU niedergelassenes Unternehmen verkauft wird und dessen Output von EU-Mitarbeitern oder in der EU ansässigen Kunden genutzt wird, löst die Extraterritorialitätsbestimmungen aus — auch wenn der außereuropäische Anbieter die EU nie als Hauptmarkt betrachtet hat.
Der Rahmen des Artikels 2 begründet darüber hinaus Pflichten für Einführer (Artikel 23) — in der EU niedergelassene Einrichtungen, die KI-Systeme, die den Namen oder das Warenzeichen einer außerhalb der EU niedergelassenen Einrichtung tragen, auf dem EU-Markt in Verkehr bringen — sowie für Händler (Artikel 24). Für Anbieter außerhalb der EU übernimmt der Einführer einen wesentlichen Teil der Compliance-Pflichten, die andernfalls dem Anbieter oblägen, darunter die Überprüfung, dass der Anbieter die erforderliche Konformitätsbewertung durchgeführt hat, dass das KI-System gegebenenfalls die CE-Kennzeichnung trägt und dass die nach Artikel 11 erforderliche technische Dokumentation verfügbar ist. Dies schafft eine Compliance-Abhängigkeit in der Lieferkette: Anbieter außerhalb der EU, die ihre EU-Einführer als tragfähige Vertriebspartner erhalten wollen, müssen konforme Systeme und Dokumentation liefern.
Die KI-Verordnung enthält in Artikel 2 Absatz 2 eine begrenzte Ausnahme für KI-Systeme, die ausschließlich für militärische, sicherheitspolitische oder Verteidigungszwecke in Verkehr gebracht, in Betrieb genommen oder verwendet werden. Tätigkeiten der wissenschaftlichen Forschung und Entwicklung sind gemäß Artikel 2 Absatz 6 unter bestimmten Voraussetzungen ebenfalls ausgenommen. Diese Ausnahmen sind eng gefasst und erfordern einen ausdrücklichen Nachweis — sie gelten nicht automatisch für KI-Systeme mit doppeltem Verwendungszweck für zivile und militärische Anwendungen.
Risikobasierte Klassifizierung: Die Architektur der Pflichten
Die Compliance-Pflichten der KI-Verordnung sind nicht einheitlich. Sie sind auf eine vierstufige Risikoklassifizierung abgestimmt, die bestimmt, welche Pflichten mit welcher Intensität und mit welchen Sanktionsfolgen gelten. Die Klassifizierung richtet sich nach dem Verwendungszweck des Systems und dem Einsatzkontext — nicht nach der Technologie selbst oder der Produktbeschreibung.
Das Risikoklassifizierungsrahmen
| Risikoklasse | Regulatorische Behandlung | Beispiele | Hauptanwendbare Bestimmungen |
|---|---|---|---|
| Unannehmbares Risiko (Verboten) | Absolutes Verbot — Inverkehrbringen, Inbetriebnahme und Verwendung sind alle verboten | Biometrische Echtzeit-Fernidentifizierung in öffentlichen Räumen (mit eingeschränkten Ausnahmen); soziales Scoring durch Behörden; unterschwellige Manipulation; Ausnutzung von Schwachstellen bestimmter Gruppen; prädiktives Polizieren ausschließlich auf Basis von Profiling; KI, die sensible Attribute aus biometrischen Daten für Strafverfolgungszwecke ableitet | Artikel 5; Sanktionen bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes |
| Hohes Risiko (Anhang I — Produktsicherheit) | Vollständige Konformitätsbewertung; CE-Kennzeichnung; für bestimmte Kategorien zwingend erforderliche Einbindung einer Benannten Stelle | KI als Sicherheitsbauteil in: Medizinprodukten (Verordnung (EU) 2017/745); In-vitro-Diagnostika (Verordnung (EU) 2017/746); Luftfahrt (Verordnung (EU) 2018/1139); Maschinen (Verordnung (EU) 2023/1230); Kraftfahrzeuge (ECE-Regelungen) | Artikel 8–25; Kapitel I, Titel III; Anhang I |
| Hohes Risiko (Anhang III — Anwendungsfall) | Konformitätsbewertung (überwiegend intern, teilweise durch Dritte); Registrierung in der EU-Datenbank; Marktbeobachtung nach dem Inverkehrbringen | Biometrische Identifizierungssysteme; KI im Management kritischer Infrastrukturen; Bewertung in Bildung und Berufsausbildung; Beschäftigung, Personalwesen und Arbeitnehmerverwaltung; Zugang zu wesentlichen Diensten (Kredit, Versicherung, öffentliche Leistungen); Strafverfolgung; Migration/Asyl/Grenzkontrolle; Justizverwaltung; demokratische Prozesse | Artikel 8–25; Kapitel II, Titel III; Anhang III |
| GPAI-Modelle | Technische Dokumentation; Einhaltung des Urheberrechts; Transparenz; Maßnahmen zu systemischen Risiken für Modelle mit ≥10²⁵ FLOPs | Große Sprachmodelle, multimodale Grundlagenmodelle (GPT-Reihe, Gemini, Claude, Llama, Mistral) | Artikel 51–56; Kapitel II, Titel VIII |
| Begrenztes Risiko (Transparenz) | Nur Offenlegungspflichten | Chatbots; Emotionserkennungssysteme; biometrische Kategorisierung; Deepfakes und synthetische Medien | Artikel 50 |
| Minimales Risiko | Keine zwingenden Pflichten (freiwillige Verhaltenskodizes empfohlen) | KI-gestützte Spam-Filter, KI in Videospielen, einfache Empfehlungssysteme ohne wesentliche Entscheidungsauswirkungen | Artikel 95 (freiwillige Maßnahmen) |
Anhang III: Die Anwendungsfälle, die die meisten Unternehmen außerhalb der EU betreffen
Die Anhang-III-Liste ist der praktische Schwerpunkt für die meisten außereuropäischen Technologieunternehmen. Sie umfasst acht Bereiche, in denen jeweils bestimmte Anwendungsfälle als hochriskant eingestuft werden:
1. Biometrische Identifizierung und Kategorisierung — KI-Systeme, die für die biometrische Fernidentifizierung natürlicher Personen bestimmt sind, ausgenommen die Überprüfung, bei der eine natürliche Person ihre Identität selbst bestätigt. Dies erfasst Gesichtserkennungssysteme für das Kunden-Onboarding, die Identitätsverifizierung in Finanzdienstleistungen und die Zugangskontrolle.
2. Kritische Infrastruktur — KI-Systeme, die als Sicherheitsbauteile im Management oder Betrieb kritischer digitaler Infrastrukturen, des Straßenverkehrs sowie von Energie-, Wasser-, Gas- und Wärmesystemen bestimmt sind. Cloud-Anbieter, die KI-gestützte verwaltete Infrastrukturdienste für EU-Betreiber wesentlicher Dienste erbringen, fallen in diese Kategorie.
3. Allgemeine und berufliche Bildung — KI-Systeme, die für den Zugang zu oder die Zuweisung an Bildungseinrichtungen, die Bewertung von Lernergebnissen und die Überwachung von Lernenden bei Prüfungen verwendet werden. EdTech-Unternehmen mit institutionellen Kunden in der EU müssen ihre Bewertungs- und Prüfungsaufsichts-KI als hochriskant klassifizieren.
4. Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit — KI-Systeme für Personalbeschaffung und -auswahl, Leistungs- und Verhaltensbewertung, Beförderungsentscheidungen sowie Aufgabenzuweisung auf Basis individuellen Verhaltens oder Persönlichkeitsmerkmals. HR-KI-Plattformen — Bewerbermanagementsysteme mit KI-Scoring, Leistungsmanagement-Tools, KI zur Personalplanung — fallen direkt in den Anwendungsbereich. Diese Kategorie erzeugt in 2025–2026 das größte Durchsetzungsinteresse.
5. Zugang zu wesentlichen privaten Diensten und Leistungen — KI-Systeme, die von Kreditinstituten, Versicherungsunternehmen und Behörden für öffentliche Leistungen zur Bewertung von Kreditwürdigkeit, Versicherungsrisiken sowie für die Bestimmung des Zugangs zu öffentlichen Leistungen und Notfalldiensten verwendet werden. KI-Kreditscoring ist die kommerziell bedeutendste Anwendung in dieser Kategorie.
6. Strafverfolgung — KI für individuelle Risikobewertungen, Lügendetektoren, Bewertung der Zuverlässigkeit von Beweisen, Rückfallrisikobeurteilung und Kriminalitätsprofiling. Auf Behörden in den meisten Mitgliedstaaten beschränkt, aber Anbieter solcher Systeme für EU-Strafverfolgungsbehörden unterliegen den Anbieterpflichten.
7. Migration, Asyl und Grenzkontrolle — KI für die Bearbeitung von Migrationsanträgen, die Bewertung von Sicherheits- oder Gesundheitsbedrohungen, automatisierte Entscheidungsfindung bei der Visabearbeitung und Überwachung an EU-Grenzen.
8. Rechtspflege und demokratische Prozesse — KI zur Unterstützung von Gerichten, zur Rechtsanwendung auf Sachverhalte und zur Beeinflussung von Wahlergebnissen. KI-gestützte Recherchetools, die von EU-Gerichten oder in EU-Gerichtsverfahren eingesetzt werden, fallen in den Anwendungsbereich.
Pflichten von Anbietern im Vergleich zu Betreibern: Eine strukturelle Unterscheidung
Die KI-Verordnung trifft eine grundlegende regulatorische Unterscheidung zwischen Anbietern — Einrichtungen, die ein KI-System entwickeln und es in Verkehr bringen oder in Betrieb nehmen — und Betreibern — Einrichtungen, die ein KI-System in eigener Verantwortung zu beruflichen Zwecken nutzen. Für Unternehmen außerhalb der EU ist es unerlässlich zu verstehen, welche Rolle in der jeweiligen Lieferkettenkonfiguration gilt, da die Compliance-Last erheblich asymmetrisch verteilt ist.
Pflichten des Anbieters (Artikel 8–25)
Anbieter von Hochrisiko-KI-Systemen tragen die primären und anspruchsvollsten Pflichten nach der KI-Verordnung. Für Anbieter außerhalb der EU entstehen diese Pflichten kraft Artikel 2 Absatz 1 Buchstaben a und c und können nicht vertraglich auf in der EU niedergelassene Betreiber übertragen werden (obwohl Einführer gemäß Artikel 23 bestimmte Pflichten mitübernehmen).
Die wesentlichen Anbieterpflichten sind:
Risikomanagementsystem (Artikel 9): Ein kontinuierlicher, iterativer Risikomanagementprozess, der vernünftigerweise vorhersehbare Risiken für Gesundheit, Sicherheit und Grundrechte identifiziert, diese Risiken abschätzt und bewertet, Maßnahmen zur Risikominderung trifft und Restrisiken dokumentiert. Es handelt sich nicht um eine einmalige Risikobewertung, sondern um ein operatives System, das während des gesamten Lebenszyklus des KI-Systems aktuell gehalten werden muss.
Daten und Daten-Governance (Artikel 10): Hochrisiko-KI-Systeme, die Trainingsdaten verwenden, müssen mit Daten trainiert, validiert und getestet werden, die Qualitätskriterien hinsichtlich Relevanz, Repräsentativität, Fehlerfreiheit und Vollständigkeit erfüllen. Die Daten-Governance-Anforderungen der KI-Verordnung begründen ausdrückliche Pflichten zur Prüfung von Trainingsdaten auf potenzielle Verzerrungen. Für KI-Systeme, die mit Datensätzen trainiert werden, die personenbezogene Daten von EU-Ansässigen enthalten, erfordert die Überschneidung mit den DSGVO-Anforderungen zur Datenschutz-Folgenabschätzung nach Artikel 35 DSGVO einen koordinierten Compliance-Rahmen.
Technische Dokumentation (Artikel 11 und Anhang IV): Anbieter müssen die technische Dokumentation erstellen und pflegen, bevor ein Hochrisiko-KI-System in Verkehr gebracht wird. Anhang IV legt den obligatorischen Inhalt fest: Systembeschreibung und Verwendungszweck; Elemente und Architektur; Entwicklungsprozess und Trainingsmethoden; Leistungsmetriken und Schwellenwerte; bekannte Risiken; Maßnahmen zur Genauigkeit, Robustheit und Cybersicherheit; Plan zur Überwachung nach dem Inverkehrbringen. Für Anbieter außerhalb der EU, die EU-Einführer beliefern, muss diese Dokumentation den nationalen Marktüberwachungsbehörden und dem EU-KI-Büro auf Anfrage zur Verfügung stehen.
Automatische Protokollierung (Artikel 12): Hochrisiko-KI-Systeme müssen so konzipiert sein, dass sie automatisch Protokolle ihres Betriebs erstellen — mindestens mit Aufzeichnung des Zeitraums jeder Nutzung, der Eingabedaten und jedes Entscheidungs-Outputs — soweit dies technisch machbar ist. Diese Protokolle sind die primäre Prüfspur für die Überwachung nach der Inbetriebnahme und bei Durchsetzungsuntersuchungen.
Transparenz und Information der Betreiber (Artikel 13): Hochrisiko-KI-Systeme müssen so konzipiert sein, dass ihr Betrieb für Betreiber ausreichend transparent ist, um den Output des Systems zu interpretieren und sachgerecht zu nutzen. Die Gebrauchsanleitung — die jedem Hochrisiko-KI-System beizufügen ist — muss spezifische Angaben zum Verwendungszweck, zum Leistungsniveau, zu vorhersehbaren Missbrauchsszenarien, zu den Betreibern verfügbaren technischen Maßnahmen und zu den erforderlichen Maßnahmen zur menschlichen Aufsicht enthalten.
Menschliche Aufsicht (Artikel 14): Hochrisiko-KI-Systeme müssen so konzipiert sein, dass eine wirksame menschliche Aufsicht durch natürliche Personen während der Nutzungsdauer möglich ist. Dies ist eine Designanforderung mit substanziellem Inhalt: Das System muss so konzipiert sein, dass die für die Aufsicht verantwortliche Person die Fähigkeiten und Grenzen des Systems verstehen, Anomalien und Fehlfunktionen erkennen sowie eingreifen kann, um das System zu übersteuern, zu unterbrechen oder anzuhalten. Die Anforderung an die menschliche Aufsicht im Sinne der KI-Verordnung überschneidet sich mit der Anforderung zur menschlichen Einflussnahme bei automatisierten Entscheidungen nach Artikel 22 Absatz 3 DSGVO, ist aber nicht identisch damit — beide müssen gleichzeitig für KI-Systeme erfüllt werden, die rechtliche oder ähnlich bedeutsame Auswirkungen auf natürliche Personen erzeugen.
Genauigkeit, Robustheit und Cybersicherheit (Artikel 15): Hochrisiko-KI-Systeme müssen über ihren gesamten Lebenszyklus angemessene Genauigkeits-, Robustheits- und Cybersicherheitsniveaus erreichen. Genauigkeitsmetriken und -schwellenwerte müssen in der technischen Dokumentation deklariert werden. Die Verordnung verlangt, dass Systeme bei vorhersehbaren Schwankungen der Eingabedaten eine gleichmäßige Leistung aufrechterhalten und gegen gegnerische Angriffe widerstandsfähig sind.
Qualitätsmanagementsystem (Artikel 17): Anbieter müssen ein Qualitätsmanagementsystem einführen, das den gesamten Lebenszyklus ihrer Hochrisiko-KI-Systeme abdeckt: Entwicklung, Tests, Konformitätsbewertung, Marktbeobachtung nach dem Inverkehrbringen und Behandlung von Nichtkonformitäten. Das QMS muss der Größe und Art des Anbieters angemessen sein; für Anbieter mehrerer Hochrisiko-KI-Systeme empfiehlt die Verordnung einen einheitlichen QMS-Rahmen.
Konformitätsbewertung (Artikel 43): Bevor ein Hochrisiko-KI-System auf dem EU-Markt in Verkehr gebracht oder in Betrieb genommen werden kann, muss der Anbieter eine Konformitätsbewertung durchführen, die belegt, dass das System die Anforderungen der Artikel 8–15 erfüllt. Für die meisten Anhang-III-Systeme handelt es sich um eine interne Konformitätsbewertung auf Basis der eigenen Verfahren des Anbieters; eine Drittbewertung durch eine Benannte Stelle ist für biometrische Identifizierungssysteme (mit eingeschränkten Ausnahmen) und KI-Systeme als Sicherheitsbauteile regulierter Produkte nach Anhang-I-Gesetzgebung zwingend. Nach Abschluss muss der Anbieter eine EU-Konformitätserklärung nach Artikel 47 ausstellen und die CE-Kennzeichnung nach Artikel 48 anbringen.
Registrierung in der EU-KI-Datenbank (Artikel 49): Anbieter von Hochrisiko-KI-Systemen gemäß Anhang III müssen das System vor dem Inverkehrbringen in der öffentlichen EU-KI-Datenbank registrieren. Die Datenbank erfasst den Verwendungszweck des Systems, Genauigkeits- und Leistungsmetriken, das verwendete Konformitätsbewertungsverfahren und den Plan zur Marktbeobachtung nach dem Inverkehrbringen.
Pflichten des Betreibers (Artikel 26)
Betreiber von Hochrisiko-KI-Systemen tragen ein materiell geringeres, aber nicht vernachlässigbares Pflichtenprogramm. Für Unternehmen außerhalb der EU, die KI-Systeme für professionelle EU-orientierte Nutzung betreiben — statt entwickeln — definiert Artikel 26 die Compliance-Mindestanforderungen:
- Das KI-System entsprechend der vom Anbieter bereitgestellten Gebrauchsanleitung verwenden (Artikel 26 Absatz 1).
- Sicherstellen, dass die für die menschliche Aufsicht verantwortlichen natürlichen Personen über die Kompetenz, Schulung und Befugnis verfügen, die Aufsicht wirksam ausüben zu können (Artikel 26 Absatz 2).
- Den Betrieb des KI-Systems auf Basis der Gebrauchsanleitung überwachen und schwerwiegende Vorfälle dem Anbieter und der zuständigen nationalen Behörde melden (Artikel 26 Absatz 5).
- Vor dem Einsatz eines Hochrisiko-KI-Systems in Anwendungsfällen der Strafverfolgung, Migration, Justizverwaltung, wesentlichen privaten Dienste und Beschäftigung eine Grundrechte-Folgenabschätzung (GRFA) durchführen (Artikel 27, gilt für öffentlich-rechtliche Einrichtungen und bestimmte private Betreiber).
- Arbeitnehmervertreter und betroffene Arbeitnehmer informieren, bevor KI-Systeme im Beschäftigungs- und Arbeitnehmerverwaltungskontext eingesetzt werden (Artikel 26 Absatz 7).
Die Pflicht des Betreibers zur Meldung schwerwiegender Vorfälle schafft eine wichtige Abhängigkeit in der Lieferkette: Betreiber außerhalb der EU müssen die operative Kapazität aufrechterhalten, Vorfälle mit EU-ansässigen Nutzern oder EU-orientierten Vorgängen zu identifizieren, zu bewerten und innerhalb der von den nationalen zuständigen Behörden der Mitgliedstaaten festgelegten Fristen zu melden.
Wann sich die Grenze zwischen Anbieter und Betreiber verschiebt
Die KI-Verordnung enthält eine zentrale Bestimmung — Artikel 25 Absatz 1 —, nach der ein Betreiber für regulatorische Zwecke zum Anbieter wird, wenn er:
- ein Hochrisiko-KI-System unter eigenem Namen oder eigener Marke in Verkehr bringt;
- ein bestehendes Hochrisiko-KI-System so wesentlich verändert, dass sich dessen Verwendungszweck ändert; oder
- ein nicht als hochriskant eingestuftes KI-System so verändert, dass es hochriskant wird.
Für Unternehmen außerhalb der EU, die KI-Systeme als White-Label vertreiben, Grundlagenmodelle mit proprietären Daten für spezifische EU-orientierte Anwendungsfälle feinabstimmen oder KI-Komponenten in unter eigenem Markennamen in der EU verkaufte Produkte integrieren, stellt Artikel 25 Absatz 1 eine Umklassifizierungsfalle dar. Die Pflichtanalyse folgt nicht der gesellschaftsrechtlichen Struktur der Lieferkette — sie folgt der Frage, wer das KI-System, das den EU-Markt erreicht, substanziell gestaltet.
Konformitätsbewertungen: Verfahren und praktische Implikationen
Das Konformitätsbewertungsverfahren ist das Kernstück der Compliance-Architektur der KI-Verordnung. Sein Zweck ist es, vor der Inbetriebnahme festzustellen, dass ein Hochrisiko-KI-System die materiellen Anforderungen der Artikel 8–15 erfüllt. Das Verfahren unterscheidet sich erheblich, je nachdem ob das KI-System unter Anhang I oder Anhang III fällt.
Anhang-III-Systeme (der Großteil kommerzieller KI): Das Standardkonformitätsbewertungsverfahren ist intern — der Anbieter führt die Bewertung nach eigenen dokumentierten Verfahren durch. Die Rechtsgrundlage ist Artikel 43 Absatz 2 und Anhang VI. Der Anbieter muss: die technische Dokumentation gegen jede Anforderung der Artikel 8–15 prüfen; Methodik und Ergebnis der Bewertung dokumentieren; die EU-Konformitätserklärung ausstellen, in der die geltenden Anforderungen aufgeführt und die Konformität bescheinigt wird; und sowohl die technische Dokumentation als auch die Konformitätsbewertungsunterlagen zehn Jahre ab Inverkehrbringen aufbewahren.
Die Ausnahme vom internen Bewertungsstandard gilt für KI-Systeme zur biometrischen Identifizierung natürlicher Personen. Nach Artikel 43 Absatz 1 und Anhang VII unterliegen diese Systeme einer Drittbewertung durch eine akkreditierte Benannte Stelle. Benannte Stellen im Sinne der KI-Verordnung sind nationale Akkreditierungsstellen, die nach der Verordnung (EG) Nr. 765/2008 benannt werden. Die Europäische Kommission führt die NANDO-Datenbank der Benannten Stellen; Anfang 2026 wird die Infrastruktur der Benannten Stellen für KI-Verordnungszwecke auf nationaler Ebene noch aufgebaut.
Anhang-I-Systeme (KI als Sicherheitsbauteil): Diese KI-Systeme unterliegen den Konformitätsbewertungsverfahren der Produktsicherheitsgesetzgebung, nach der das regulierte Produkt zertifiziert ist. Für ein Medizinprodukt mit einem KI-Diagnosekomponent richtet sich die Konformitätsbewertung nach den Verfahren des Anhangs IX oder Anhangs X der Medizinprodukteverordnung (Verordnung (EU) 2017/745). Die KI-Verordnungsanforderungen werden über die allgemeinen Sicherheits- und Leistungsanforderungen in die bestehende sektorspezifische Konformitätsbewertung einbezogen.
Wesentliche Änderung: Wenn ein Anbieter ein Hochrisiko-KI-System so verändert, dass eine „wesentliche Änderung" im Sinne von Artikel 83 Absatz 5 vorliegt — eine Änderung, die den Verwendungszweck oder die Leistung des Systems in einer Weise beeinflusst, die die Konformität gefährden könnte —, muss die Konformitätsbewertung für das geänderte System wiederholt werden. Dies hat erhebliche Auswirkungen auf KI-Systeme, die durch kontinuierliches Lernen, Feinabstimmung oder Nachtraining aktualisiert werden: Jeder Aktualisierungszyklus muss gegen den Schwellenwert für wesentliche Änderungen bewertet werden.
Für Anbieter außerhalb der EU ohne EU-Personal haben die praktischen Herausforderungen der Verwaltung von Konformitätsbewertungen, der Pflege technischer Dokumentation in EU-zugänglichen Formaten und der Beantwortung von Informationsanfragen nationaler Behörden die meisten Compliance-Berater dazu veranlasst, die Bestellung eines EU-bevollmächtigten Vertreters nach Artikel 22 zu empfehlen. Diese Einrichtung — die in der EU niedergelassen sein, schriftlich beauftragt und neben dem System in der EU-KI-Datenbank registriert sein muss — fungiert als rechtliche Anlaufstelle für nationale zuständige Behörden und das EU-KI-Büro und trägt eine nachrangige Compliance-Haftung, wenn der Anbieter nicht handelt.
Verbotene Praktiken: Die seit Februar 2025 geltenden roten Linien
Artikel 5 der KI-Verordnung legt eine Liste von KI-Praktiken fest, die absolut verboten sind — nicht als hochriskant unter Bedingungen, sondern ausnahmslos verboten. Diese Bestimmungen gelten seit dem 2. Februar 2025 und stellen damit die unmittelbar relevantesten Pflichten für jedes Unternehmen dar, das KI-Systeme aktiv betreibt, die den EU-Markt berühren.
Die verbotenen Praktiken sind:
Unterschwellige Manipulation (Artikel 5 Absatz 1 Buchstabe a): KI-Systeme, die unterschwellige Techniken einsetzen, die dem Bewusstsein einer Person entgehen, oder eindeutig manipulative oder täuschende Techniken, auf eine Weise, die das Verhalten wesentlich verzerrt und dadurch einen Schaden verursacht. Dieses Verbot geht über rein unterschwellige Techniken hinaus und umfasst KI-gestützte Überzeugungsarchitektur, die täuschend ist oder psychologische Schwachstellen ausnutzt.
Ausnutzung von Schwachstellen (Artikel 5 Absatz 1 Buchstabe b): KI-Systeme, die Schwachstellen bestimmter Gruppen ausnutzen — Personen mit Behinderungen, Kinder, ältere Menschen — auf eine Weise, die ihr Verhalten verzerrt und dadurch einen Schaden verursacht. Diese Bestimmung ist unmittelbar relevant für KI-Systeme in sozialen Medien, Gaming, Verbraucherfinanzierung und digitaler Gesundheit, die Personalisierungstechniken und Verhaltens-Nudging gegenüber Nutzern dieser Gruppen einsetzen.
Soziales Scoring (Artikel 5 Absatz 1 Buchstabe c): KI-Systeme, die von Behörden oder in deren Namen zur Bewertung oder Klassifizierung natürlicher Personen über einen Zeitraum anhand ihres sozialen Verhaltens oder ihrer bekannten, abgeleiteten oder vorhergesagten persönlichen oder Persönlichkeitseigenschaften verwendet werden, auf eine Weise, die zu nachteiligen Behandlungen führt, die in keinem Zusammenhang mit dem Kontext stehen, in dem die Daten generiert wurden. Dieses Verbot zielt auf staatliche Scoring-Systeme ab, die im internationalen Menschenrechtsdiskurs Besorgnis erregen, erfasst aber auch private Akteure, die im Auftrag öffentlicher Stellen handeln.
Biometrische Echtzeit-Fernidentifizierung (RTRBI) in öffentlichen Räumen (Artikel 5 Absatz 1 Buchstabe d): Dies ist das Verbot, das kommerzielle Technologieeinsätze am stärksten betrifft. KI-Systeme, die für die biometrische Echtzeit-Fernidentifizierung — primär Gesichtserkennung — in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken verwendet werden, sind verboten, vorbehaltlich drei enger Ausnahmen: Suche nach bestimmten vermissten Personen und Menschenhandelsopfern; Abwehr spezifischer, erheblicher und unmittelbarer Bedrohungen für Leib und Leben; Identifizierung von Tätern schwerwiegender Straftaten. Außerhalb dieser Strafverfolgungsausnahmen ist RTRBI in öffentlichen Räumen verboten. Kommerzielle Einsätze von Gesichtserkennung in öffentlich zugänglichen Einzelhandelsgeschäften, Verkehrsknotenpunkten oder Unterhaltungsveranstaltungsorten fallen voll unter dieses Verbot.
Prädiktives Polizieren ausschließlich auf Basis von Profiling (Artikel 5 Absatz 1 Buchstabe e): KI-Systeme, die von Strafverfolgungsbehörden für individuelle Risikobewertungen mit dem alleinigen Ziel verwendet werden, die Wahrscheinlichkeit vorherzusagen, dass eine Person eine Straftat begeht, auf Basis von Profiling oder Bewertung von Persönlichkeitseigenschaften.
Nicht gezieltes Scraping für Gesichtserkennungsdatenbanken (Artikel 5 Absatz 1 Buchstabe f): KI-Systeme, die Gesichtserkennungsdatenbanken durch nicht gezieltes Scraping von Bildern aus dem Internet oder Videoüberwachungsmaterial erstellen oder erweitern. Diese Bestimmung adressiert direkt das Clearview-AI-Modell des Aufbaus biometrischer Datenbanken aus gescrapten Bildern.
Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen (Artikel 5 Absatz 1 Buchstabe g): KI-Systeme, die zur Ableitung von Emotionen natürlicher Personen am Arbeitsplatz und in Bildungseinrichtungen verwendet werden. Dieses Verbot umfasst KI-gestützte Engagement-Monitoring-Tools, die aus Gesichtsausdrücken, Sprachmustern oder physiologischen Signalen im Beschäftigungs- oder Bildungskontext emotionale Zustände ableiten.
Biometrische Kategorisierung nach sensiblen Attributen (Artikel 5 Absatz 1 Buchstabe h): KI-Systeme, die natürliche Personen individuell auf Basis biometrischer Daten kategorisieren, um Rasse, politische Meinungen, Gewerkschaftsmitgliedschaft, religiöse oder weltanschauliche Überzeugungen, Sexualleben oder sexuelle Orientierung zu inferieren oder abzuleiten. Dieses Verbot gilt für KI-Systeme, die Gesichtsanalyse oder andere biometrische Signale verwenden, um diese Attribute abzuleiten — einschließlich KI-Systeme, die diese Ableitungen als Marketingsignale nutzen.
Jedes KI-System, das unter eines dieser Verbote fällt, muss sofort vom EU-Markt und aus dem EU-orientierten Dienst zurückgezogen werden, unabhängig davon, wann es entwickelt wurde oder zu welchen Bedingungen es an EU-Kunden geliefert wurde. Compliance-Prüfungen, die eine verbotene Praxis identifizieren, müssen zu einer sofortigen Betriebseinstellung führen — nicht zu einem Sanierungszeitplan.
Durchsetzung durch das EU-KI-Büro: Die institutionelle Architektur
Das EU-KI-Büro — durch Beschluss der Kommission (EU) 2024/1143 innerhalb der Europäischen Kommission errichtet — ist die zentrale Durchsetzungsbehörde für Pflichten aus GPAI-Modellen und der Koordinator des breiteren KI-Verordnungs-Durchsetzungsökosystems. Seine Rolle in Bezug auf Hochrisiko-KI-Systeme ist primär aufsichtlicher Natur gegenüber nationalen Behörden und nicht primär auf direkte Durchsetzung ausgerichtet; für Anbieter von GPAI-Modellen ist das KI-Büro jedoch die primäre Regulierungsbehörde.
Marktüberwachungsbehörden (MÜB): Bei Hochrisiko-KI-Systemen liegt die primäre Durchsetzung bei den von jedem Mitgliedstaat nach Artikel 74 benannten nationalen Marktüberwachungsbehörden. Die Mitgliedstaaten hatten bis zum 2. August 2025 Zeit, ihre MÜBs zu benennen. Die meisten großen EU-Volkswirtschaften haben bestehende Regulierungsbehörden benannt: in Deutschland die Bundesnetzagentur und die sektorspezifischen Behörden; in Frankreich teilen die CNIL und die Autorité de la concurrence die MÜB-Aufgaben mit der neu benannten DNUM-Struktur (Direction du numérique); in Irland ist die MÜB-Funktion zwischen ComReg und der KI-spezifischen Benennung im Rahmen des DCCAE aufgeteilt; in Spanien wurde die AESIA (Agencia Española de Supervisión de la Inteligencia Artificial) speziell für die Durchsetzung der KI-Verordnung eingerichtet und ist seit Ende 2024 operativ.
Ermittlungsbefugnisse (Artikel 74 ff.): Nationale MÜBs verfügen über weitreichende Ermittlungsbefugnisse: Zugang zu KI-Systemen, Trainingsdaten, Dokumentation und Quellcode (vorbehaltlich Vertraulichkeitsschutz); Befugnis zur Anforderung von Tests von KI-Systemen und Inspektion der zugrundeliegenden Datensätze; Befugnis zur Anordnung von Korrekturmaßnahmen; und Befugnis zur Verhängung von Bußgeldern.
Sanktionen (Artikel 99): Die Sanktionsstruktur der KI-Verordnung ist abgestuft:
- Verstoß gegen die Verbote des Artikels 5: bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist.
- Verstoß gegen die Pflichten von Anbietern, Einführern, Händlern und Betreibern von Hochrisiko-KI-Systemen nach Artikeln 8–15, 25–27 sowie die Registrierungs- und Dokumentationsanforderungen: bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist.
- Lieferung unrichtiger, unvollständiger oder irreführender Informationen an Benannte Stellen oder zuständige Behörden: bis zu 7,5 Millionen Euro oder 1 % des weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist.
Für KMU und Startups sind Bußgelder auf den niedrigeren der absoluten oder prozentualen Höchstbeträge begrenzt. Für große multinationale Technologieunternehmen wird in der Regel der Prozentsatz maßgeblich sein — und 7 % des weltweiten Jahresumsatzes ist eine höhere Sanktion als das bisher höchste DSGVO-Bußgeld für jedes Unternehmen mit einem Jahresumsatz von mehr als rund 17 Milliarden Euro.
Das KI-Büro hat nach Artikeln 88–94 zusätzliche Durchsetzungszuständigkeit gegenüber Anbietern von GPAI-Modellen, einschließlich der Befugnis zur Durchführung von Modellbewertungen, zum Erlass verbindlicher Korrekturmaßnahmen und zur Verhängung von Bußgeldern von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes bei Nichterfüllung der GPAI-Pflichten.
Praktische Empfehlungen für Unternehmensjuristen
1. Führen Sie unverzüglich eine KI-Systeminventur in Bezug auf die Verbote des Artikels 5 durch — nicht nur in Bezug auf die Hochrisikoeinstufung.
Die verbotenen Praktiken sind seit dem 2. Februar 2025 vollstreckbar. Jedes KI-System in Ihrem Portfolio, das EU-Nutzer berührt, muss vor seinem weiteren Betrieb gegen jedes der acht Verbote des Artikels 5 geprüft werden. Besonderes Augenmerk gilt: Emotionserkennungstools im Personalbereich oder in kundenorientierten Kontexten; Gesichtserkennungs- oder biometrische Kategorisierungssysteme in öffentlich zugänglichen EU-Einzelhandelsgeschäften, Verkehrsknotenpunkten oder Unterhaltungsstätten; und KI-Systeme, die manipulative Designtechniken für gefährdete Gruppen einsetzen. Beauftragen Sie ein funktionsübergreifendes Team (Recht, Technologie, Produkt) mit der Bewertung — die Rechtsanalyse hängt davon ab, zu verstehen, was das KI-System auf technischer Ebene tatsächlich tut, nicht was die Produktbeschreibung besagt.
2. Kartieren Sie Ihre KI-Lieferkette, um festzustellen, ob Sie in jedem EU-orientierten Kontext Anbieter, Betreiber oder beides sind.
Das Pflichtenprogramm unterscheidet sich erheblich zwischen Anbietern und Betreibern und verschiebt sich, wenn die Umklassifizierungstatbestände des Artikels 25 Absatz 1 eingreifen. Für jedes KI-System, das Sie in EU-orientierten Vorgängen entwickeln, liefern oder nutzen, dokumentieren Sie: Wer hat es trainiert und ist Inhaber der technischen Dokumentation; wer bringt es auf dem EU-Markt in Verkehr oder nimmt es in Betrieb; ob Feinabstimmung, Integration oder White-Labeling durch eine Partei der Lieferkette eine wesentliche Änderung dargestellt hat; und wer die Pflichten auf jeder Stufe trägt. Diese Kartierungsübung sollte jedes Mal aktualisiert werden, wenn das System aktualisiert oder das Vertriebsmodell geändert wird.
3. Bestellen Sie einen EU-bevollmächtigten Vertreter, wenn Sie ein Anbieter von Hochrisiko-KI-Systemen außerhalb der EU sind.
Artikel 22 verpflichtet Anbieter von Hochrisiko-KI-Systemen außerhalb der EU, vor dem Inverkehrbringen ihrer Systeme auf dem EU-Markt einen EU-bevollmächtigten Vertreter zu bestellen. Der bevollmächtigte Vertreter muss in der EU niedergelassen, schriftlich beauftragt und in der EU-KI-Datenbank neben dem System registriert sein. Der Vertreter ist neben dem Anbieter gesamtschuldnerisch für die Einhaltung der KI-Verordnung haftbar. Die Auswahl des geeigneten Vertreters — mit der operativen Kapazität, auf Anfragen nationaler Behörden in kurzen Fristen zu reagieren, und dem rechtlichen Fachwissen zur Verwaltung der Konformitätsdokumentation — sollte mit derselben Sorgfalt angegangen werden wie die Beauftragung eines EU-DSGVO-Vertreters.
4. Integrieren Sie die DSGVO- und KI-Verordnungs-Compliance-Überschneidung in einen einzigen integrierten Governance-Rahmen.
Hochrisiko-KI-Systeme, die personenbezogene Daten verarbeiten, unterliegen gleichzeitig der KI-Verordnung und der DSGVO, mit sich überschneidenden, aber nicht identischen Pflichten. Die nach Artikel 35 DSGVO für automatisierte Verarbeitungen mit hohem Risiko erforderliche DSFA muss mit dem Risikomanagementsystem der KI-Verordnung nach Artikel 9, der technischen Dokumentation nach Artikel 11 und — für Betreiber — der Grundrechte-Folgenabschätzung nach Artikel 27 KI-Verordnung koordiniert werden. Diese Übungen getrennt durchzuführen, erzeugt Doppelarbeit und Inkonsistenzrisiken. Rechtsteams sollten ein einheitliches KI-Governance-Protokoll entwerfen, das beide Rahmenwerke abdeckt, mit klar zugewiesener Verantwortung für jede Pflicht und einem gemeinsamen Datenflusskartierungs-Ansatz, der sowohl der DSFA als auch den KI-Verordnungs-Dokumentationsanforderungen dient.
5. Bereiten Sie sich mit einem konkreten Zeitplan und einer Verantwortlichkeitsstruktur auf die Durchsetzungswelle des Anhangs III vom 2. August 2026 vor.
Die Hochrisiko-KI-Pflichten für Anhang-III-Anwendungsfälle gelten ab dem 2. August 2026. Für Organisationen, die noch keine Konformitätsbewertungen abgeschlossen, technische Dokumentation zusammengestellt, Systeme in der EU-KI-Datenbank registriert und das nach Artikel 17 erforderliche Qualitätsmanagementsystem implementiert haben, ist die Dringlichkeit unmittelbar. Benennen Sie einen namentlich benannten Projektverantwortlichen für die KI-Verordnungs-Compliance innerhalb der Rechts- oder Compliance-Funktion, legen Sie einen Zeitplan mit festen Fristen für jedes Deliverable fest und budgetieren Sie angemessen für die externe Prüfung technischer Dokumentation und, wo erforderlich, für die Bewertung durch eine Benannte Stelle. Die Kosten eines konformen Konformitätsbewertungsprogramms sind erheblich geringer als die Kosten einer regulatorischen Untersuchung — und KI-MÜBs in der gesamten EU haben aktive Durchsetzungsabsichten für die Anhang-III-Welle signalisiert.
Fazit
Die KI-Verordnung legt einer jeden Organisation — unabhängig von ihrem Gründungsort — eine umfassende Compliance-Architektur auf, die an der Entwicklung, dem Vertrieb oder dem Einsatz von KI-Systemen beteiligt ist, deren Output den EU-Markt erreicht. Für Unternehmen außerhalb der EU eliminieren die Extraterritorialitätsbestimmungen des Artikels 2 die Möglichkeit regulatorischer Distanz. Die verbotenen Praktiken des Artikels 5 gelten bereits, die GPAI-Pflichten der Artikel 51–56 sind seit August 2025 operativ, und die vollständigen Hochrisiko-KI-System-Pflichten nach Anhang III sind nunmehr vollstreckbar.
Der Compliance-Pfad ist technisch anspruchsvoll, aber strukturell klar: Jedes KI-System anhand der Risikostufen klassifizieren, die Anbieter-/Betreiberrolle innerhalb jeder Vertriebskette bestimmen, die erforderlichen Konformitätsbewertungen vor der Inbetriebnahme abschließen, die technische Dokumentation über den gesamten Systemlebenszyklus pflegen und die Governance-Strukturen — Risikomanagement, Qualitätsmanagement, Marktbeobachtung nach dem Inverkehrbringen — implementieren, die eine laufende Compliance statt einer punktuellen Zertifizierung belegen.
Das EU-KI-Büro und die nationalen Marktüberwachungsbehörden verfügen über die Ermittlungstools, die Rechtsgrundlage und das erklärte institutionelle Commitment, diese Pflichten gegenüber außereuropäischen Einrichtungen durchzusetzen. Die Sanktionsstruktur — kalibriert als Prozentsatz des weltweiten Jahresumsatzes — stellt sicher, dass Größe keine regulatorische Immunität verleiht. Für den General Counsel oder Chief Compliance Officer, der internationale Vorstände berät, ist die KI-Verordnung kein Zukunftsprojekt. Sie ist die heutige Compliance-Pflicht.
Rechtlicher Hinweis: Dieser Beitrag dient ausschließlich zu Informations- und Bildungszwecken. Er stellt keine Rechtsberatung dar und begründet kein Mandatsverhältnis. Die Analyse spiegelt den Text der Verordnung (EU) 2024/1689, Durchführungsmaßnahmen und öffentlich verfügbare Leitlinien zum Zeitpunkt der Veröffentlichung wider. Die Anwendung der KI-Verordnung auf spezifische Sachverhalte und Systeme erfordert qualifizierte Rechtsberatung mit Expertise im EU-KI-Recht. Leser sollten auf Basis dieses Beitrags nicht handeln, ohne unabhängige, auf ihre spezifischen Umstände zugeschnittene Fachberatung eingeholt zu haben.
Benötigen Sie spezialisierte Beratung zur KI-Verordnungs-Compliance für Ihr Unternehmen? Kontaktieren Sie unser Team.
Need expert advice on this topic?
Our team at Morvantine specializes in exactly these issues. Get in touch for a consultation.
Get in Touch