
Stand: 10. November 2025
Die Europäische Union steht vor einer wegweisenden Entscheidung, die die Zukunft der KI-Regulierung weltweit prägen könnte. Unter erheblichem Druck aus den Vereinigten Staaten und von führenden Technologieunternehmen erwägt die EU derzeit, Teile ihres bahnbrechenden KI-Gesetzes vorübergehend zu verschieben oder sogar abzuschwächen. Diese Entwicklung wirft Fragen auf, wie die EU den Spagat zwischen dem Schutz der Bürger und der Förderung von Innovation in einem rasant fortschreitenden Technologiesektor meistern will.
Hintergrund des EU-KI-Gesetzes
Das EU-KI-Gesetz (Verordnung (EU) 2024/1689), das am 1. August 2024 in Kraft trat, gilt als der weltweit erste umfassende Rechtsrahmen für künstliche Intelligenz. Sein primäres Ziel ist es, ein Umfeld für vertrauenswürdige KI in Europa zu schaffen, indem es Risiken adressiert und die Einhaltung von Sicherheit, Grundrechten und einer menschenzentrierten Entwicklung gewährleistet.
Das Gesetz verfolgt einen risikobasierten Ansatz, der KI-Systeme in verschiedene Kategorien einteilt und entsprechende Anforderungen festlegt:
- Unannehmbares Risiko: Diese Systeme sind verboten. Dazu gehören beispielsweise manipulative KI, prädiktive Polizeiarbeit, Social Scoring und die Echtzeit-biometrische Identifizierung in öffentlich zugänglichen Räumen. Die Verbote und Anforderungen an die KI-Kompetenz traten am 2. Februar 2025 in Kraft.
- Hohes Risiko: Systeme in dieser Kategorie unterliegen strengen Anforderungen und Konformitätsbewertungen. Beispiele finden sich in den Bereichen Strafverfolgung, Gesundheitswesen, Bildung und kritische Infrastruktur. Die meisten Verpflichtungen für Hochrisiko-KI-Systeme sollen am 2. August 2026 in Kraft treten, mit einer verlängerten Übergangsfrist bis zum 2. August 2027 für Systeme, die in regulierte Produkte eingebettet sind.
- Geringes Risiko/Transparenzanforderungen: Diese Systeme unterliegen geringeren Verpflichtungen, oft nur Transparenzanforderungen. Die Governance-Regeln und Verpflichtungen für KI-Modelle für allgemeine Zwecke (GPAI-Modelle) wurden am 2. August 2025 anwendbar.
Intensiver Druck aus den USA und der Tech-Branche
Seit der Verabschiedung des KI-Gesetzes hat die EU intensiven Lobbyismus von US-amerikanischen Technologiegiganten wie Meta, Alphabet (Google) und OpenAI sowie von der US-Regierung erfahren. Die Bedenken konzentrieren sich auf die potenziellen Auswirkungen der Regulierung auf Innovation und Wettbewerbsfähigkeit.
Argumente der Tech-Branche
Die Technologieunternehmen äußern eine Reihe von Befürchtungen:
- Innovationshemmnis: Es wird befürchtet, dass die strengen Compliance-Anforderungen die Innovation und Wettbewerbsfähigkeit in Europa ersticken könnten.
- Bürokratischer Aufwand: Selbst für KI-Tools mit geringem Risiko werden die Verpflichtungen als zu aufwendig angesehen.
- Rechtliche Unsicherheiten: Meta hat beispielsweise die Unterzeichnung des Verhaltenskodex für GPAI-Modelle verweigert und „rechtliche Unsicherheiten“ sowie eine Überschreitung des beabsichtigten Umfangs des KI-Gesetzes beklagt.
- Forderung nach Pause: Dutzende europäische Unternehmen, darunter Schwergewichte wie Airbus, Lufthansa und Mercedes-Benz, haben eine zweijährige Pause gefordert, um eine „vernünftige Umsetzung“ und „weitere Vereinfachung“ der Regeln zu ermöglichen.
Argumente der US-Regierung
Auch die US-Regierung hat Bedenken geäußert, die über rein wirtschaftliche Aspekte hinausgehen:
- Handelsspannungen: Die US-Regierung, einschließlich der Trump-Administration, hat vor Maßnahmen gewarnt, die zu Handelsspannungen und Zöllen führen könnten.
- Definition von KI: Die USA schlugen vor, die europäische Definition von KI einzuengen und Ausnahmen für allgemeine maschinelle Lernsysteme zu erweitern.
- Souveränitätsbedenken: Es wird die Sorge geäußert, dass der expansive europäische Jurisdiktionsansatz die souveränen Vorrechte der USA bei der Regulierung ihres eigenen kommerziellen und technologischen Ökosystems untergraben könnte.
- Kooperationsbeschränkung: Die USA befürchten, dass das Gesetz die transatlantische Technologiekooperation einschränken könnte.
Interne EU-Bedenken und mögliche Anpassungen
Neben dem externen Druck gibt es auch interne Bedenken innerhalb der EU. Insbesondere die Verzögerungen bei der Festlegung wesentlicher technischer Standards und Leitlinien für die Compliance haben zu Unsicherheiten geführt. Polen hat Berichten zufolge vorgeschlagen, die Anwendungsdaten aufgrund dieser Unklarheiten zu verschieben.
Die Europäische Kommission hat bestätigt, dass eine „Reflexion“ über mögliche Verzögerungen „noch im Gange“ ist. Diese Überlegungen sind Teil eines „Vereinfachungspakets“ oder „Digitalen Omnibus“, das voraussichtlich um den 19. November 2025 vorgestellt wird.
Konkrete Überlegungen für Verzögerungen und Abschwächungen
Die diskutierten Anpassungen umfassen:
- Eine einjährige „Gnadenfrist“ für Unternehmen, die gegen die Regeln für KI mit höchstem Risiko verstoßen.
- Eine einjährige Pause für Anbieter generativer KI, die Produkte bereits vor dem Inkrafttreten der Regeln auf den Markt gebracht haben.
- Die Verhängung von Bußgeldern für Verstöße gegen die neuen KI-Transparenzregeln könnte bis August 2027 verschoben werden.
- Mehr Flexibilität für Entwickler von Hochrisiko-Systemen bei der Überwachung der Produktleistung, mit weniger präskriptiven Leitlinien.
- Unternehmen könnten von der Registrierung von KI-Systemen in der EU-Datenbank für Hochrisiko-Systeme ausgenommen werden, wenn diese nur für enge oder prozedurale Aufgaben verwendet werden.
- Es werden auch Änderungen an der Datenschutz-Grundverordnung (DSGVO) in Betracht gezogen, um den Regulierungsaufwand für KI-Entwickler zu verringern.
- Die KI-Aufsicht soll teilweise im KI-Büro, das direkt der Kommission unterstellt ist, konsolidiert werden.
Expertenstimmen und Ausblick
Das EU-KI-Gesetz wurde ursprünglich als potenzieller globaler Standard angesehen, ähnlich wie die DSGVO. Mia Hoffman, eine Forschungsstipendiatin am Center for Security and Emerging Technology der Georgetown University, merkte an, dass „das KI-Gesetz viele Einschränkungen oder Anforderungen an Unternehmen stellt“.
Kritiker warnen jedoch, dass die Gewährung von regulatorischem Spielraum für große Technologieunternehmen das Risiko birgt, „die strengen Standards aufzugeben, die einst ihre KI- und Datenschutzrahmen unterschieden haben“. Datenschutzbefürworter wie noyb befürchten, dass die vorgeschlagenen Änderungen „KI-Unternehmen wie Google und OpenAI einen Blankoscheck für das Training von KI-Systemen mit persönlichen Daten von Personen geben“ und den Schutz sensibler Daten unter der DSGVO erheblich einschränken könnten.
Die endgültigen Entscheidungen über die vorgeschlagenen Änderungen werden voraussichtlich am 19. November 2025 bekannt gegeben, müssen aber noch von den EU-Mitgliedstaaten und dem Europäischen Parlament genehmigt werden. Die Entwicklung zeigt einen heiklen Balanceakt der EU zwischen dem Wunsch, vertrauenswürdige KI zu regulieren, und dem Druck, die Wettbewerbsfähigkeit und Innovation in der schnelllebigen KI-Landschaft nicht zu behindern. Die kommenden Wochen werden entscheidend sein, um zu sehen, ob Europa seinen regulatorischen Pioniergeist beibehält oder dem globalen Druck nachgibt.
