Der EU AI Act – Mythen, Fakten und pragmatische Umsetzung

„Großartig! Du hast dein Tagesziel erreicht!“ – so leuchtet es auf gut 50 Prozent¹ der deutschen Smartphones auf, wenn 10.000 Schritte erreicht sind. Doch diese Zahl basiert nicht auf wissenschaftlichen Studien, sondern auf einer Marketingkampagne von 1964 für einen japanischen Schrittzähler. Ein Narrativ, das es bis zur WHO-Empfehlung geschafft hat – ähnlich wie manche Mythen um den AI Act.


„We are losing the battle of the narrative over AI Act“, warnt Carme Artigas, Co-Chair des UN AI Advisory Boards, und ergänzt: „European companies are believing the absolute lie that the EU AI Act is killing innovation.“ Auch dieses Narrativ entspringt einer gut orchestrierten Kampagne – diesmal, um den AI Act zu diskreditieren.
 

Das Ergebnis: 52,3 Prozent der Unternehmen glauben, der AI Act hemme Innovation, 47,2 Prozent fürchten negative Auswirkungen auf ihre eigene KI-Entwicklung². Gleichzeitig ergab eine Bitkom-Studie³, dass erst 3 Prozent der Unternehmen sich intensiv mit dem AI Act beschäftigt haben – ein Fall von „Hörensagen“ mit Folgen: verzögerte KI-Projekte, Abwanderung von Start-ups und Kapital in die USA. Cui bono?

Fakten statt Mythen: Was steckt hinter dem AI Act?
 

Der AI Act schafft erstmals einen einheitlichen Rechtsrahmen für die Entwicklung, den Einsatz und den Handel mit KI-Systemen in der EU. Er soll vertrauenswürdige KI fördern, Grundrechte, Sicherheit und Umwelt schützen, Risiken minimieren und Innovationen unterstützen.
 

Während Kritiker den AI Act als „überreguliert“ bezeichnen, zeigt ein Blick auf die globale Entwicklung das Gegenteil: China, Japan, Indien, das Vereinigte Königreich, Kanada und Australien arbeiten bereits an eigenen KI-Regularien. US-Staaten wie Kalifornien und New York setzen bereits rechtsverbindliche Standards um.
 

Für Unternehmen bedeutet dies einen regulatorischen Flickenteppich. Der AI Act kann mit seinem harmonisierten EU-Rahmen hier Klarheit schaffen – mit der Hoffnung, dass der „Brüssel-Effekt“ einen globalen Goldstandard setzt.
 

Was regelt der AI Act konkret?
 

Der AI Act definiert einheitliche Vorschriften für Entwicklung, Zulassung und Nutzung von KI-Systemen. Er verbietet bestimmte Praktiken, legt spezifische Anforderungen für Hochrisiko-KI fest und regelt Transparenzvorgaben sowie den Einsatz von General-Purpose-KI.
 

Doch Mythen halten sich hartnäckig: So kursierte die Behauptung, Kaffeevollautomaten mit KI-Komponenten würden als Hochrisiko-Systeme eingestuft oder gar in der EU verboten. Fakt ist: Die EU betrachtet die Gefahr, einen Caffè Latte statt eines Cappuccinos zu erhalten, nicht als kritisch. Verboten sind zum Beispiel hingegen KI-Systeme, die manipulative oder subliminale Techniken nutzen, die Verletzlichkeit von Menschen ausnutzen oder Emotionsanalysen in sensiblen Bereichen durchführen.
 

Die Realität hinter Hochrisiko-KI
 

75 Prozent des AI Acts beschäftigen sich mit Hochrisiko-KI, die jedoch nur geschätzte 3 bis 8 Prozent der Anwendungsfälle ausmachen. Das bedeutet: Rund 95 Prozent der KI-Systeme können nach dem Risikobewertungsprozess ohne weitere Anforderungen entwickelt und betrieben werden. Hier gibt es lediglich Empfehlungen im Sinne eines „Code of Conduct“.
 

Eine Ausnahme bilden Transparenzvorschriften für Systeme, die mit Menschen interagieren – etwa Chatbots. Nutzer*innen müssen wissen, dass sie mit einer KI kommunizieren. Dass dies nötig ist, zeigt der D21-Digital-Index 2024/25: Nur 25 Prozent der Befragten erkennen, ob Inhalte von KI oder Menschen erstellt wurden.
 

General-Purpose-KI wird gesondert reguliert – vor allem für Anbieter, nicht Betreiber. Kritikpunkte zur Vagheit der Vorschriften wurden durch den „Code of Practice“ adressiert, der in seiner dritten Version5 vorliegt.
 

Warum der AI Act eine Chance ist – nicht nur eine Vorschrift
 

Auch selten genutzte Hochrisiko-KI erfordert Governance-Strukturen. Verstöße können bis zu 3 Prozent des globalen Umsatzes kosten – ein ernstzunehmendes Risiko.
 

Die gute Nachricht: Nahezu alle Anforderungen verbessern Qualität, Transparenz und die strategische Steuerung von KI in Unternehmen. Gefordert werden ohnehin erforderliche Best Practices wie Risikomanagement, technische Dokumentation, Data Governance, Genauigkeit, Robustheit, Cybersicherheit, Transparenz, menschliche Aufsicht und KI-Kompetenz.
 

Keiner dieser Punkte wird die Innovationsfähigkeit von Unternehmen einschränken, und zu Forschungszwecken sowie in „Sandkästen“ kann nach wie vor frei experimentiert werden. 
 

Allerdings lässt sich das Ziel einer vertrauenswürdigen KI wiederum nur durch diese Forderungen erreichen. Wie relevant dieser Faktor ist, zeigt eine weitere Studie6: Nur 33 Prozent der deutschen Bevölkerung haben Vertrauen in KI, während 85 Prozent der Befragten angeben, dass es für Unternehmen wichtig ist, sich mit KI-Ethik zu befassen7.
 

Ein weiteres Problem ist nach wie vor die hohe Fehlerrate bei der Durchführung von KI-Projekten. Viele Studien schätzen diese bei gut 80 Prozent7 ein und damit doppelt so hoch wie in sonstigen IT-Projekten. Die Ursachenforschung bringt unterschiedliche Aspekte zutage aber in Summe, fehlt es einfach an tragfähigen Strategien, realistischen Erwartungen und robusten Governance Mechanismen. 
 

Gartners Trust, Risk and Security Management (TRiSM) zielt genau in diese Richtung und prognostiziert bei dessen Anwendung eine Steigerung der Nutzerakzeptanz und geschäftlichen Erfolge von KI-Modellen um 50 Prozent. Ferner beschleunigt es die Einführung, verbessert die Governance und reduziert fehlerhafte Daten um 80 Prozent. 
 

Was sollten Sie als Nächstes tun?
 

Genau hier liegt das Potenzial des AI Acts – nicht als regulatorisches Übel, sondern als strategischer Hebel für einen robusten und leistungsfähigen KI-Bereich. 
 

Aus der Praxis zeigt sich, dass Unternehmen bereits in der frühen Umsetzungsphase profitieren. Sollten Sie noch nicht gestartet sein, handeln Sie jetzt – die Fristen sind ambitioniert. Setzen Sie sich mit dem AI Act auseinander, holen Sie sich bei Bedarf eine*n Sparringspartner*in und integrieren Sie die Anforderungen in ein strategisches KI-Operating-Model, das Ihrem Unternehmen hilft, das volle Potenzial zu nutzen. Der AI Act ist kein Hindernis, sondern ihr Werkzeug für höhere Erfolgsquoten in KI-Projekten und mehr Akzeptanz im Unternehmen sowie bei externen Stakeholdern.
 

Und laufen Sie weiterhin 10.000 Schritte – denn dieses Narrativ ist nicht schädlich.

Quellen: 
1www.zdf.de/nachrichten/wissen/gesundheitsdaten-smartphone-100.html
2www2.deloitte.com/content/dam/Deloitte/dl/Documents/legal/Deloitte%20AI%20Act%20Survey_english.pdf
3www.bitkom.org/Presse/Presseinformation/Jedes-vierte-Unternehmen-beschaeftigt-mit-AI-Act
4initiatived21.de/uploads/03_Studien-Publikationen/D21-Digital-Index/2024-25/D21DigitalIndex_2024-2025.pdf
5digital-strategy.ec.europa.eu/en/library/third-draft-general-purpose-ai-code-practice-published-written-independent-experts
6Edelman Trust Barometer 2024
7www.rand.org/pubs/research_reports/RRA2680-1.html
8www.gartner.com/en/newsroom/press-releases/2023-09-27-gartner-says-cisos-need-to-champion-ai-trism-to-improve-ai-results

Zur Person

Marcus Schüler, Head of Responsible AI Services @MHP - A Porsche Company

Marcus Schüler leitet den Beratungsbereich Responsible AI bei MHP – A Porsche Company. In dieser Rolle unterstützt er Unternehmen bei der Entwicklung und Umsetzung von Strategien für Corporate Digital Responsibility, AI Governance und die Einhaltung von Compliance-Anforderungen im Bereich Künstliche Intelligenz.

Seine Expertise umfasst insbesondere die EU-KI-Verordnung, die er als bedeutenden strategischen Hebel und wesentlichen Baustein zur Erreichung von AI Operations Excellence betrachtet. Er publiziert in Fachzeitschriften zu KI-relevanten Themen, hält international Vorträge und führt Seminare durch, um den Dialog über die Potenziale, Herausforderungen und regulatorischen Anforderungen der Technologie zu fördern.

Der studierte Wirtschaftswissenschaftler, Software-Ingenieur und Wirtschaftsethiker verfügt über mehr als 30 Jahre Erfahrung im internationalen IT- und Digitalisierungsumfeld. In seiner beruflichen Laufbahn hatte er Führungspositionen wie CIO und CEO inne und sammelte dabei umfassende Erfahrungen in der Leitung von globalen Projekten und Organisationen. Als Aufsichtsratsmitglied unterstützt er digitale Unternehmen gezielt in Wachstums- und Transformationsphasen und bringt dabei seine Expertise in Strategie, Governance und Digitalisierung ein.