
Die EU will KI-einheitlich regulieren, doch die eigentliche Hürde liegt nicht im Gesetz, sondern in seiner Umsetzung. Von Robert Steininger*
Der AI Act gibt den Rahmen vor, aber das Ergebnis liegt im Detail: Ob Produkte funktionieren oder an der Bürokratie scheitern. Zwischen dem Eifer, zu regulieren, und den Zweifeln in der Wirtschaft ist ein Machtfeld entstanden, das über die Zukunft der Technik und der EU bestimmt.
Europa wollte Pionierin sein. Aber die neue KI-Verordnung zeigt an einem anderen Punkt, wie hart um Standards gerungen wird, wenn eine Technik für Chancen, Risiken und Erwartungen sorgt. Der AI Act ist ein historisches Dokument. Doch er wirkt erst richtig, wenn alle Beteiligten dieselben technischen Vorgaben haben. Und genau daran scheitert es zunächst: Unternehmen wollen Klarheit, Behörden wollen Kontrolle. Und dann gibt es Regeln, deren Grundlagen noch nicht einmal definiert sind.
Der Kampf um die Zeit
Der AI Act ist beschlossen. Das Werk ist umfangreich, die Begriffe klar, die Risikoklassen gut unterschieden. Doch im operativen Teil hat die EU, die auf Tempo setzte, das Rennen um eine schnellere Umsetzung verloren. Viele Vorschriften treten erst dann in Kraft, wenn die Normungsorganisationen sie in klare Anforderungen übersetzt haben. Können Hersteller keine entsprechenden Angaben zu ihren Produkten machen, wird es schwierig zu belegen, dass deren Systeme sicher sind. Ein Gesetz lässt sich nicht schneller umsetzen als die Menschen, die es konkretisieren.
Während in Brüssel an den politischen Zielen festgehalten wird, wächst der Druck aus den Reihen jener, die Hochrisiko-Anwendungen entwickeln und/oder betreiben. Manche von ihnen möchten mehr Ermessensspielräume bei der Auslegung, andere wiederum drängen auf klarere Vorgaben. Das Rennen um Markt- und Gesetzgebungspositionen verschiebt sich somit in die Gremien und Häfen der Normung.
Die Diskussion um den Abstand von Hochrisikos
Hochrisiko-KI ist nachvollziehbar definiert: die Anwendung in Bezug auf Bildung, Arbeit, Kreditwürdigkeit, Gesundheit und/oder Sicherheit. Doch in den Details führen diese zu unterschiedlichen Auffassungen. Schon die Frage, ob ein System lediglich unterstützt oder wirklich mitentscheidet, lässt verschiedene Interpretationen zu. Einige EU-Länder wollen daher alle Fälle unter das Regelwerk fallen lassen, in denen ein KI-System auf irgendeine Weise eingreift, andere hingegen wollen allein die unmittelbarsten Folgen für Grundrechte im Fokus haben.
In dieser frühen Phase entsteht Unsicherheit auf allen Seiten. Firmen wollen Investitionen planen und keine Sperre befürchten wollen, während Regulierer verhindern möchten, dass riskante Modelle durch technische Hintertüren entkommen. Der Streit wird schärfer, je mehr Innovation an Tempo gewinnt.
Machtkampf hinter verschlossenen Türen der Normungsgremien
Der politische Rahmen ist öffentlich verhandelt worden, doch die technischen Standards entstehen in geschlossenen Räumen. CEN und CENELEC arbeiten zusammen mit Experten aus Industrie, Wissenschaft und Verwaltung. Der Einfluss verteilt sich ungleich. Wer Personal und Ressourcen hat, bestimmt, wie Anforderungen zu Datenqualität, Modellrobustheit oder Überwachung aussehen.
Diese Gremien entscheiden letztlich darüber, welche Prüfverfahren gelten, welche Dokumente verpflichtend werden und welche Metriken ein KI-Hersteller erfüllen muss. Ein Standard kann ein Geschäftsmodell stärken oder zerstören. Deshalb ringen die Akteure mit harten Bandagen, während die Öffentlichkeit kaum Einblick bekommt.
Unternehmen zwischen Innovationsdruck und Compliance-Furcht
Für Firmen entsteht ein riskanter Zwischenraum. Produkte entwickeln sich schneller als die Regeln, die sie kontrollieren sollen. Viele bauen schon jetzt Compliance-Strukturen auf, obwohl zentrale Standards fehlen. Andere warten ab, weil sie hohe Kosten fürchten. Und manche hoffen, dass spätere Anpassungen die Auflagen glätten.
Je nach Sektor entstehen unterschiedliche Reaktionen. Energieversorger testen Anwendungen zur Netzoptimierung. Banken prüfen Modelle zur Kreditentscheidung. Behörden experimentieren mit Analysewerkzeugen. Doch überall schwingt das Gefühl mit, dass Klarheit fehle. Die Regeln wirken greifbar und zugleich fern.
Abseits der Tech-Debatte zeigt ein Blick in andere regulierte Bereiche, wie stark sich Kontrollmechanismen auf ganze Branchen auswirken können. Das deutsche OASIS-System im Glücksspiel etwa illustriert, wie ein zentrales Sperrregister das Verhalten der Anbieter und die Wahrnehmung von Risiken verändert.
Parallel entstehen jedoch Ausweichbewegungen in digitale Räume, in denen sich Nutzer an Casinos ohne OASIS für Spieler, die keine Sperre befürchten wollen orientieren. Dieses Spannungsfeld macht deutlich, warum die EU bei Hochrisiko-KI versucht, technische Freiheit und regulatorische Durchsetzung gemeinsam zu denken. Wo Regeln greifen, entsteht Vertrauen. Wo Regeln Lücken lassen, entsteht ein Markt, der schneller wächst als die Aufsicht.
Der AI Act will Innovation ermöglichen und gleichzeitig Risiken begrenzen. Doch die Balance entsteht erst, wenn alle wissen, welche Nachweise wirklich zählen.
Foundation-Modelle als politisches Minenfeld
Die Debatte um Foundation-Modelle verschärfte die Spannungen. Diese Modelle bilden die Grundlage unzähliger Anwendungen. Sie lassen sich kaum in enge Kategorien zwängen. Frankreich und Deutschland drängten auf ein industrieoffenes Regime. Das Europäische Parlament pochte auf strikte Vorgaben. Am Ende stand ein Kompromiss, der zwei Klassen unterscheidet: allgemeine Modelle und systemische Modelle mit besonders großem Einfluss.
Diese Unterscheidung hilft nur bedingt. Die technische Entwicklung bewegt sich in Sprüngen. Ein Modell wirkt heute begrenzt und morgen systemisch. Die Politik bleibt reaktiv, während Labore neue Fähigkeiten freisetzen. Diese Asymmetrie schafft Reibung in allen Gremien, die Standards formulieren sollen.
Die Grundrechte-Frage, die Ingenieure nicht lösen können
Sobald es um Diskriminierung, Transparenz oder faire Entscheidungen geht, verlassen technische Normen ihr Heimatfeld. Eine Metrik kann Verzerrungen messen, aber kein technischer Parameter entscheidet darüber, welches Maß an Fairness gesellschaftlich akzeptabel ist. Juristen fordern harte Grenzen, Entwickler warnen vor falscher Präzision.
Die EU versucht, Grundrechte in nachvollziehbare Anforderungen zu übersetzen. Doch diese Übersetzung bleibt politisch. Eine Norm kann Datenqualität definieren, aber keine moralische Bewertung ersetzen. Genau deshalb bleibt die Diskussion offen, unruhig und emotional aufgeladen.
*) Robert Steininger ist Fachautor für u.a. Anlagestrategien und publiziert regelmäßig zu Fachthemen wie Online- und Investment-Strategien, Glücksspielthemen, Krypto und Verhaltensanalyse.
——————-
! NEU ! Die erste BondGuide Jahresausgabe 2025 ist erschienen (12. Jun.): ‚Green & Sustainable Finance 2025‘ kann wie gewohnt kostenlos als e-Magazin oder pdf heruntergeladen werden.
Bitte nutzen Sie für Fragen und Meinungen Twitter – damit die gesamte Community davon profitiert. Verfolgen Sie alle Diskussionen & News zeitnaher auf Twitter@bondguide !


