Fakten statt Mythen: Was steckt hinter dem AI Act?
Der AI Act schafft erstmals einen einheitlichen Rechtsrahmen für die Entwicklung, den Einsatz und den Handel mit KI-Systemen in der EU. Er soll vertrauenswürdige KI fördern, Grundrechte, Sicherheit und Umwelt schützen, Risiken minimieren und Innovationen unterstützen.
Während Kritiker den AI Act als „überreguliert“ bezeichnen, zeigt ein Blick auf die globale Entwicklung das Gegenteil: China, Japan, Indien, das Vereinigte Königreich, Kanada und Australien arbeiten bereits an eigenen KI-Regularien. US-Staaten wie Kalifornien und New York setzen bereits rechtsverbindliche Standards um.
Für Unternehmen bedeutet dies einen regulatorischen Flickenteppich. Der AI Act kann mit seinem harmonisierten EU-Rahmen hier Klarheit schaffen – mit der Hoffnung, dass der „Brüssel-Effekt“ einen globalen Goldstandard setzt.
Was regelt der AI Act konkret?
Der AI Act definiert einheitliche Vorschriften für Entwicklung, Zulassung und Nutzung von KI-Systemen. Er verbietet bestimmte Praktiken, legt spezifische Anforderungen für Hochrisiko-KI fest und regelt Transparenzvorgaben sowie den Einsatz von General-Purpose-KI.
Doch Mythen halten sich hartnäckig: So kursierte die Behauptung, Kaffeevollautomaten mit KI-Komponenten würden als Hochrisiko-Systeme eingestuft oder gar in der EU verboten. Fakt ist: Die EU betrachtet die Gefahr, einen Caffè Latte statt eines Cappuccinos zu erhalten, nicht als kritisch. Verboten sind zum Beispiel hingegen KI-Systeme, die manipulative oder subliminale Techniken nutzen, die Verletzlichkeit von Menschen ausnutzen oder Emotionsanalysen in sensiblen Bereichen durchführen.
Die Realität hinter Hochrisiko-KI
75 Prozent des AI Acts beschäftigen sich mit Hochrisiko-KI, die jedoch nur geschätzte 3 bis 8 Prozent der Anwendungsfälle ausmachen. Das bedeutet: Rund 95 Prozent der KI-Systeme können nach dem Risikobewertungsprozess ohne weitere Anforderungen entwickelt und betrieben werden. Hier gibt es lediglich Empfehlungen im Sinne eines „Code of Conduct“.
Eine Ausnahme bilden Transparenzvorschriften für Systeme, die mit Menschen interagieren – etwa Chatbots. Nutzer*innen müssen wissen, dass sie mit einer KI kommunizieren. Dass dies nötig ist, zeigt der D21-Digital-Index 2024/25: Nur 25 Prozent der Befragten erkennen, ob Inhalte von KI oder Menschen erstellt wurden.
General-Purpose-KI wird gesondert reguliert – vor allem für Anbieter, nicht Betreiber. Kritikpunkte zur Vagheit der Vorschriften wurden durch den „Code of Practice“ adressiert, der in seiner dritten Version5 vorliegt.
Warum der AI Act eine Chance ist – nicht nur eine Vorschrift
Auch selten genutzte Hochrisiko-KI erfordert Governance-Strukturen. Verstöße können bis zu 3 Prozent des globalen Umsatzes kosten – ein ernstzunehmendes Risiko.
Die gute Nachricht: Nahezu alle Anforderungen verbessern Qualität, Transparenz und die strategische Steuerung von KI in Unternehmen. Gefordert werden ohnehin erforderliche Best Practices wie Risikomanagement, technische Dokumentation, Data Governance, Genauigkeit, Robustheit, Cybersicherheit, Transparenz, menschliche Aufsicht und KI-Kompetenz.
Keiner dieser Punkte wird die Innovationsfähigkeit von Unternehmen einschränken, und zu Forschungszwecken sowie in „Sandkästen“ kann nach wie vor frei experimentiert werden.
Allerdings lässt sich das Ziel einer vertrauenswürdigen KI wiederum nur durch diese Forderungen erreichen. Wie relevant dieser Faktor ist, zeigt eine weitere Studie6: Nur 33 Prozent der deutschen Bevölkerung haben Vertrauen in KI, während 85 Prozent der Befragten angeben, dass es für Unternehmen wichtig ist, sich mit KI-Ethik zu befassen7.
Ein weiteres Problem ist nach wie vor die hohe Fehlerrate bei der Durchführung von KI-Projekten. Viele Studien schätzen diese bei gut 80 Prozent7 ein und damit doppelt so hoch wie in sonstigen IT-Projekten. Die Ursachenforschung bringt unterschiedliche Aspekte zutage aber in Summe, fehlt es einfach an tragfähigen Strategien, realistischen Erwartungen und robusten Governance Mechanismen.
Gartners Trust, Risk and Security Management (TRiSM) zielt genau in diese Richtung und prognostiziert bei dessen Anwendung eine Steigerung der Nutzerakzeptanz und geschäftlichen Erfolge von KI-Modellen um 50 Prozent. Ferner beschleunigt es die Einführung, verbessert die Governance und reduziert fehlerhafte Daten um 80 Prozent.
Was sollten Sie als Nächstes tun?
Genau hier liegt das Potenzial des AI Acts – nicht als regulatorisches Übel, sondern als strategischer Hebel für einen robusten und leistungsfähigen KI-Bereich.
Aus der Praxis zeigt sich, dass Unternehmen bereits in der frühen Umsetzungsphase profitieren. Sollten Sie noch nicht gestartet sein, handeln Sie jetzt – die Fristen sind ambitioniert. Setzen Sie sich mit dem AI Act auseinander, holen Sie sich bei Bedarf eine*n Sparringspartner*in und integrieren Sie die Anforderungen in ein strategisches KI-Operating-Model, das Ihrem Unternehmen hilft, das volle Potenzial zu nutzen. Der AI Act ist kein Hindernis, sondern ihr Werkzeug für höhere Erfolgsquoten in KI-Projekten und mehr Akzeptanz im Unternehmen sowie bei externen Stakeholdern.
Und laufen Sie weiterhin 10.000 Schritte – denn dieses Narrativ ist nicht schädlich.
Quellen:
1www.zdf.de/nachrichten/wissen/gesundheitsdaten-smartphone-100.html
2www2.deloitte.com/content/dam/Deloitte/dl/Documents/legal/Deloitte%20AI%20Act%20Survey_english.pdf
3www.bitkom.org/Presse/Presseinformation/Jedes-vierte-Unternehmen-beschaeftigt-mit-AI-Act
4initiatived21.de/uploads/03_Studien-Publikationen/D21-Digital-Index/2024-25/D21DigitalIndex_2024-2025.pdf
5digital-strategy.ec.europa.eu/en/library/third-draft-general-purpose-ai-code-practice-published-written-independent-experts
6Edelman Trust Barometer 2024
7www.rand.org/pubs/research_reports/RRA2680-1.html
8www.gartner.com/en/newsroom/press-releases/2023-09-27-gartner-says-cisos-need-to-champion-ai-trism-to-improve-ai-results