EU-Parlament beschließt AI Act: Biometrie-Verbote und strikte Regeln für OpenAI und Co.

Andreas Frischholz
39 Kommentare
EU-Parlament beschließt AI Act: Biometrie-Verbote und strikte Regeln für OpenAI und Co.
Bild: Bundesministerium für Bildung und Forschung

Lange wurde debattiert, heute hat sich das EU-Parlament auf eine finale Position zum AI Act verständigt. Wesentliche Merkmale sind: KI-Verbote im Bereich der biometrischen Überwachung, Transparenzpflichten für KI-Chatbots wie ChatGPT und Basismodelle wie GPT-4 müssen in der EU künftig vor dem Marktstart registriert werden.

Bestätigt wurde die Position des EU-Parlaments am Ende mit einer deutlichen Mehrheit von 499 zu 28 Stimmen bei 93 Enthaltungen. „In Zeiten, in denen führende Technologieunternehmen vor den Gefahren ihrer eigenen Schöpfungen warnen, hat Europa die Initiative ergriffen und eine konkrete Lösung für die beginnenden Risiken, die von KI ausgehen, vorgestellt“, sagt der sozialdemokratische Abgeordnete Brando Benifei, der das Werk als Berichterstatter maßgeblich prägte.

Mit der Abstimmung steht nun eine Version, die die Grundlage für die Trilog-Verhandlungen mit EU-Rat und EU-Kommission ist. In diesen müssen sich die EU-Institutionen auf das finale Gesetz verständigen, das vermutlich erst 2026 in Kraft treten wird.

Verbot von Anwendungen mit zu hohem Risiko

Generell soll der AI Act den Einsatz von KI-Systemen umfassend regeln. Wie strikt die Vorgaben sind, hängt von der Gefahr der KI-Anwendung ab. Es handelt sich bei dem Gesetz also um einen risikobasierten Ansatz, bei dem KI-Systeme in vier Klassen eingestuft werden – die Spannweite reicht von unannehmbar bis minimal. Zu den unannehmbaren Risiken zählten in der Vorlage der EU-Kommission bereits Systeme, die etwa menschliches Verhalten manipulieren, um den freien Willen der Nutzer zu umgehen, sowie Social-Scoring-Systeme, die es Behörden ermöglichen, soziales Verhalten zu bewerten.

Das EU-Parlament erweitert nun die Liste. Verbote sollen nach dem Willen der Abgeordneten auch für biometrische Systeme gelten, die Menschen im öffentlichen Raum in Echtzeit identifizieren können. Nachträglich können Zugriffe möglich sein, wenn ein Gerichtsbeschluss vorliegt. Biometrisch kategorisiert werden dürfen Menschen zudem nicht anhand sensibler Merkmale wie etwa Geschlecht, ethnischer Zugehörigkeit oder der politischen Orientierung. Untersagt wird der Einsatz diskriminierender und in die Privatsphäre eingreifender KI-Systeme in weiteren Bereichen wie bei der Polizeiarbeit (Predictive-Policing-Verfahren) oder am Arbeitsplatz und in Bildungsbereichen – hier betrifft es etwa Verfahren, um Emotionen zu erkennen. Nicht willkürlich gesammelt werden dürfen Bilder von Gesichtern aus dem Internet oder von Überwachungsaufnahmen, um eine Gesichtserkennungsdatenbank zu erstellen.

Als Hochrisiko-Anwendung – also die zweithöchste der vier Stufen – sollen KI-Systeme gelten, die die Gesundheit, Sicherheit und Grundrechte von Menschen und der Umwelt erheblich gefährden. Dazu zählen auch Empfehlungssysteme wie die großer Social-Media-Plattformen, die mehr als 45 Millionen Nutzer haben.

Auflagen für allgemeine KI-Systeme wie ChatGPT

Entwickler von Basismodellen – also etwa GPT-4 oder PaLM 2 von Google – sollen künftig Risiken abschätzen, die von den Modellen ausgehen. Das umfasst Bereiche wie Gesundheit, Sicherheit, die Grundrechte von Personen, die Umwelt sowie Demokratie und Rechtsstaatlichkeit. Die Aufgabe ist dann, diese Risiken zu mindern. Zudem müssen Modelle in einer EU-Datenbank registriert werden, bevor diese in der EU auf den Markt kommen.

Auf Basismodellen basierende Anwendungen wie etwa ChatGPT müssen Transparenzanforderungen erfüllen. So müssen KI-generierte Inhalte kenntlich gemacht werden und die Anwendungen dürfen keine rechtswidrigen Inhalte erzeugen. Die Anbieter werden zudem verpflichtet, eine detaillierte Übersicht mit dem urheberrechtlichen Material zu veröffentlichen, das für das Training der Modelle verwendet wurde.

Um die KI-Entwicklung zu fördern und kleine sowie mittlere Unternehmen zu unterstützen, erweitert das EU-Parlament die Ausnahmen für die Forschung und KI-Systeme, die unter einer quellenoffenen Lizenz entwickelt werden.

Kompromisse für Streitpunkte

Die Transparenzpflichten für Trainingsdaten waren einer der Punkte, der in den letzten Wochen besonders heiß diskutiert worden sind. Führende Anbieter wie OpenAI und Google halten entsprechende Angaben mittlerweile geheim, OpenAIs Chefwissenschaftler Ilya Sutskever bezeichnete diese etwa als Geschäftsgeheimnis – es ist ein Mangel an Transparenz, der auch in der KI-Branche kritisch gesehen wird.

Was in den letzten Wochen ebenfalls noch umstritten war, sind die Vorgaben für die biometrische Überwachung im öffentlichen Raum. Konservative Abgeordnete wollten ein Verbot nicht mittragen. Nun steht ein Kompromiss, mit dem auch Bürgerrechtler zufrieden sind. „Dass sich das Europäische Parlament für ein Verbot biometrischer Echtzeit-Massenüberwachung im öffentlichen Raum stark macht, ist ein historischer Erfolg für die Bürgerrechtsbewegung und ein klares Zeichen gegen eine dystopische Zukunft der biometrischen Massenüberwachung nach chinesischem Vorbild in Europa“, sagt der Piraten-Abgeordnete Patrick Breyer.

Weitere Staaten arbeiten an neuen KI-Regeln

Die EU zählt bei der KI-Regulierung zu den Vorreitern, aktiv sind aber auch andere Staaten. Erst Anfang der Woche verkündete Großbritanniens Premierminister Rishi Sunak eine neue Sicherheitsstrategie. Dazu zählt etwa, dass britische Behörden einen frühzeitigen Zugang zu Modellen erhalten sollen, damit sich Risiken frühzeitig bewerten lassen.

Ebenso arbeitet Japan an neuen KI-Regeln. Laut einem Technomancers-Bericht verkündete die japanische Regierung, dass für KI-Trainingsdaten keine urheberrechtlichen Ansprüche gelten. Entwickler dürfen demnach also auch geschützte Inhalte verwenden, um die Modelle zu entwickeln.