Von Telekom bis Ubisoft: 100 Unternehmen aus Europa kritisieren AI Act als zu büro­kratisch

Andreas Frischholz
46 Kommentare
Von Telekom bis Ubisoft: 100 Unternehmen aus Europa kritisieren AI Act als zu büro­kratisch
Bild: Bundesministerium für Bildung und Forschung

Mehr als 100 Geschäftsführende europäischer Unternehmen und Einrichtungen fordern in einem offenen Brief, dass die EU beim AI Act nachbessern soll. Vor allem die Vorgaben im Bereich generativer KI wären mit zu viel Bürokratie verbunden, die der europäischen Wirtschaft schaden könnten.

Zu den unterzeichnenden Unternehmen zählen etwa die Deutsche Telekom, Dr. Oetker, Merck, Siemens, TUI, Ubisoft, die Spieleentwicklung mit Hilfe von KI beschleunigen möchten, und Viessmann. Der Brief mit der vollständigen Liste findet sich beim Handelsblatt, das den Brief veröffentlicht hat. Demnach besteht die Sorge, dass das Gesetz in der aktuellen Form „die Wettbewerbsfähigkeit und die technologische Souveränität Europas“ gefährde.

Insbesondere der Abschnitt zur generativen KI steht in der Kritik. Bei diesem sieht der AI Act vor, dass Anbieter ihre Modelle in der EU registrieren müssen, bevor ein Marktstart möglich ist. Weitere Aspekte der Regulierung sind das Bewerten und Minimieren von Risiken, die etwa für die Demokratie, die Umwelt, Gesundheit oder Rechtsstaatlichkeit bestehen. Hinzu kommen Transparenzpflichten bei den verwendeten Trainingsdaten.

Zu viel Bürokratie

Die zentrale These in dem Brief ist: Generative KI – also auf komplexen KI-Modellen basierende Tools wie ChatGPT, Windows Copilot oder der Bildgenerator MidJourney – ist eine Zukunftstechnologie, die etwa als Suchmaschine, digitaler Assistent oder Werkzeug für Unternehmen zum Einsatz kommt. Dementsprechend bedeutend ist diese für Europa, man könne sich nicht leisten, „ins Hintertreffen zu geraten“.

Ausgehend vom AI Act befürchten die Unterzeichner dies aber. So würde die EU nach einer „starren Compliance-Logik“ vorgehen wollen, dieser Ansatz sei sowohl bürokratisch als auch ineffizient. Unternehmen, die mit entsprechenden KI-Technologien arbeiten, wären mit „unverhältnismäßigen Compliance-Kosten und unverhältnismäßigen Haftungsrisiken konfrontiert“.

Eine solche Regulierung wird mit großer Wahrscheinlichkeit dazu führen, dass hochinnovative Unternehmen ihre Aktivitäten ins nicht europäische Ausland verlagern sowie Investoren ihr Kapital aus der Entwicklung europäischer Foundation-Modelle und europäischer KI im Allgemeinen abziehen.

Offener Brief

Risikobasierter Ansatz als Alternative

Dass eine Regulierung erforderlich ist, wird in dem Brief nicht bestritten. Allerdings sollte diese weniger kleinteilig ausfallen, sondern eher allgemeine Grundsätze in Form eines risikobasierten Ansatzes beinhalten. „Transparenz im Prozess der Modellentwicklung, Kennzeichnung von KI-generierten Inhalten und Sicherheitstests vor der Einführung neuer Modelle sind wesentliche Aspekte, die selbstverständlich geprüft werden müssen“, heißt es im Brief. Solche Grundsätze könnten dann gemeinsam mit dem technologischen Fortschritt sukzessive weiterentwickelt werden. Verantwortlich sein soll dafür ein Expertengremium, in dem auch die Wirtschaft vertreten ist.

Für KI-Anwendungen erhält der AI Act bereits einen risikobasierten Ansatz. Je nachdem, in welche der vier Kategorien eine Anwendung eingeordnet ist, desto strikter sind die Auflagen für den Einsatz – oder diese sind komplett verboten. Large Language Models (LLM) als Basismodelle werden aber nochmals separat erfasst.

Unterschrieben wurde der Brief auch von Antonio Krüger, Leiter vom Deutschen Forschungszentrum für KI. Er warnte bereits im Interview mit ComputerBase vor zu komplexen Regeln im Sinne der Branchengrößen wie OpenAI und sprach sich stattdessen für eine Infrastruktur aus, die Open-Source-Entwicklungen fördert.