AI Act: Verbraucherschützer fordern mehr Rechte für Nutzer bei KI-Systemen

Andreas Frischholz
46 Kommentare
AI Act: Verbraucherschützer fordern mehr Rechte für Nutzer bei KI-Systemen
Bild: Mohamed Hassan | PxHere | CC0 1.0

Kommende Woche starten die sogenannten Trilog-Verhandlungen über den AI Act. EU-Kommission, EU-Rat und EU-Parlament wollen sich also auf das finale Gesetz verständigen, das in der EU künftig den Umgang mit KI-Systemen regelt. Verbraucherschützer fordern nun, dass Nutzerrechte eine entscheidende Rolle spielen müssen.

So würden im bestehenden Gesetz noch Lücken bestehen, kritisiert Ramona Pop, Vorständin vom Verbraucherzentrale Bundesverband (vzbv). Die EU-Institutionen müssten die Chancen ergreifen, um den AI Act „im Sinne der Menschen zu gestalten“, sagte sie dem Spiegel.

Manipulationen strikt unterbinden

Wichtig seien die Entscheidungen jetzt, denn mit dem Regelwerk stelle die EU die Weichen für die kommenden Jahre. Generative KI-Lösungen wie ChatGPT würden aber heute schon zeigen, wie sie Menschen beeinflussen können. Das gelte etwa für Kaufentscheidungen, könne aber auch weitere Bereiche betreffen, in denen Manipulationen möglich sind.

Die EU will solche Einsatzzwecke bereits verbieten, Pop gehen die Verbote aber nicht weit genug. So müssten alle Anwender – und nicht nur besonders gefährdete Gruppen – auch vor „finanziellen Schäden“ geschützt werden und nicht nur vor psychologischen sowie physischen.

KI-Systeme dürften auch nicht ausnutzen, wenn sie erkennen, dass die Nutzer besonders anfällig seien. Als Beispiele werden etwa Spielsucht, Trauer oder Medikamenteneinfluss genannt. Damit Betroffene bei einem Missbrauch auch ihre Rechte durchsetzen können, fordert der vzbv laut dem Spiegel-Bericht ein Verbandsklagerecht. Damit könnten dann auch Verbraucherschutzverbände im Auftrag der Geschädigten für Schadensersatz klagen.

KI-Regelwerk reguliert auch ChatGPT

Auf Entwürfe für den AI Act haben sich die EU-Institutionen im Sommer verständigt. Dieser soll den künftigen Umgang mit KI-Systemen regeln, im Kern handelt es sich um einen risikobasierten Ansatz. Das bedeutet: Umso mehr Risiko von einer KI-Anwendung ausgeht, desto strikter sind die Vorgaben.

Vorgaben für generative KI-Systeme sowie Large Language Models (LLM) wurden auch noch aufgenommen. So müssen die Entwickler Risikoeinschätzungen für Bereiche wie Gesundheit, Sicherheit, Grundrechte und Umwelt abgeben und Transparenzanforderungen erfüllen.

Wie präzise die Regeln ausfallen, ist aber noch umstritten. Zuletzt warnten etwa Vertreter der Bundesregierung vor zu strikten Vorgaben. Innovationen sollten weiterhin möglich sein. Daher soll bei Basismodellen (also LLMs) praktisch eine Selbstverpflichtung ausreichen.