ChatGPT-Entwickler: Bei zu strikten KI-Regeln will OpenAI Europa verlassen

Update Andreas Frischholz
124 Kommentare
ChatGPT-Entwickler: Bei zu strikten KI-Regeln will OpenAI Europa verlassen

OpenAI-Chef Sam Altman ist derzeit auf Welttour und wirbt für KI-Systeme und deren Regulierung. Bei einem Auftritt in London erklärte er nun aber, dass ihm der in der EU geplante AI Act zu weit gehe. Sollten die Regeln zu strikt ausfallen, wäre sogar ein Rückzug von OpenAI aus Europa denkbar.

Der derzeitige Entwurf des KI-Gesetzes der EU wäre eine Überregulierung“, sagte Altman am Mittwoch bei einer Veranstaltung am University College London laut der Nachrichtenagentur Reuters. Seiner Kenntnis nach würden aber noch Gespräche stattfinden und nicht alles wie geplant umgesetzt werden.

Auf alle Fälle will OpenAI versuchen, die Regeln in Europa einzuhalten, wenn diese beschlossen sind. Sollte dies aber nicht möglich sein, könnte die Firma in Erwägung ziehen, sich vollständig aus Europa zurückzuziehen.

Regulierung ja, aber nicht zu strikt

In London wiederholte Altman darüber hinaus seine bereits bekannten Punkte, berichtet The Verge. Menschen sind demnach im Recht, wenn sie angesichts der aktuellen KI-Entwicklung besorgt seien. Nötig sei daher eine Regulierung, diese sollte sich aber „irgendwo zwischen dem traditionellen europäischen Ansatz und dem traditionellen amerikanischen Ansatz“ bewegen. Zu strikte Regeln könnten sonst kleinen Unternehmen und der Open-Source-Bewegung schaden.

OpenAI präzisierte die eigenen Vorstellungen zuletzt in einem Blog-Beitrag. Demnach möchte OpenAI unter anderem hohe Standards für führende Unternehmen und eine globale Aufsichtsbehörde, die die Einhaltung der Regeln überwacht.

EU-Pläne gehen deutlich weiter

Dass ChatGPT zeitweise in Italien gesperrt war, lieferte bereits so etwas wie einen Vorgeschmack auf das europäische Regelwerk. Wegen Datenschutzverstößen musste der Chatdienst angepasst werden. OpenAI zeigt sich aber laut den italienischen Datenschützern kooperativ. Zudem bietet der Dienst nun einige Funktionen wie die Abfrage der gespeicherten persönlichen Daten. In diesem Fall bildet aber noch die Datenschutz-Grundverordnung (DSGVO) die Rechtsgrundlage, auf die die italienischen Behörden verweisen. Ein separates Regelwerk für KI-Systeme steht mit dem AI Act aber noch aus, die Verhandlungen befinden sich derzeit in der finalen Phase.

Im Kern handelt es sich um einen risikobasierten Ansatz, bei dem KI-Systeme in vier Kategorien eingeteilt werden – von „kein Risiko“ bis zu einem nicht akzeptablen Risiko. Zu letzterem gehören etwa Social-Scoring-Anwendungen, die Menschen automatisiert bewerten und damit auch diskriminieren können. Für Hochrisiko-Systeme gelten hingegen verschärfte Transparenzpflichten.

Wie generative KI-Lösungen wie ChatGPT einzustufen sind, steht noch nicht final fest, weil diese als „KI-Systeme mit allgemeinem Verwendungszweck“ nicht adäquat erfasst worden sind. Absehbar sind bereits verschärfte Transparenzpflichten. So sollen die Unternehmen mitteilen, welche Daten und Inhalte für das Training der Modelle verwendet worden sind, hieß es zuletzt aus dem EU-Parlament.

Die Abgeordneten müssen sich aber noch auf den finalen Entwurf verständigen. Danach folgen die Trilog-Verhandlungen mit der EU-Kommission und dem EU-Rat, um die KI-Verordnung fertigzustellen.

Wenn OpenAI neue Regeln möchte, profitiert das Unternehmen auch

Dass mit dem KI Act eine Überregulierung droht, sagen allerdings nicht nur Unternehmer mit Geschäftsinteressen wie Sam Altman. Ähnlich äußerte sich etwa auch die Informatikprofessorin Katharina Zweig vor einigen Wochen im Spiegel. Die Frage ist allerdings, wie eine sinnvolle KI-Regulierung aussehen kann.

Klar ist: Wenn Altman für bestimmte Regeln wirbt, sind die immer auch im Interesse von OpenAI. Wie die New-York-Times-Journalisten Cecilia Kang und Kevin Roose sowie Platformer-Chef Casey Newton anlässlich von Altmans Senatsanhörung im Hard-Fork-Podcast ausführen, sind etwa Lizenzen für besonders leistungsfähige KI-Modelle ein geeignetes Modell, um die Marktführerschaft der derzeitigen Platzhirsche zu zementieren. Der Grund liegt vor allem in der Bürokratie. Lizenzen erfordern in der Regel eine aufwändige Dokumentation, die vor allem Tech-Konzerne mit ihren riesigen Rechtsabteilungen gewährleisten können. Das gilt also für OpenAI mit Microsoft im Rücken, für Google oder auch für Meta. Kleinere Unternehmen und Startups bleiben außen vor – und dementsprechend skeptisch beobachten diese auch Altmans „reguliert-uns-Tour“. So hatte er gestern einen Auftritt an der Technischen Universität München (TMU) und traf sich zudem mit Kanzler Olaf Scholz in Berlin.

Bereitschaft für eine Zusammenarbeit mit der EU signalisiert aber nicht nur Altman, sondern auch Googles CEO Sundar Pichai. Im Gespräch mit EU-Kommissar Thierry Breton verständigte er sich zuletzt darauf, einen „KI-Pakt“ auf freiwilliger Basis ins Leben zu rufen. So will man bereits gewährleisten, dass KI-Produkte sicher und verantwortungsvoll entwickelt werden, bevor es einen rechtlichen Rahmen gibt.

Update

Nachdem die Äußerungen für einiges an Aufsehen sorgten, konkretisierte Altman diese nun nochmal. OpenAI habe demnach keine Pläne, Europa zu verlassen, teilte er etwa auf Twitter mit.

Auch im Interview mit der Zeit bestätigte er, dass man sich an den AI Act halten will. „Aber wenn wir uns nicht an das Gesetz halten können, werden wir es nicht brechen“, so Altman. In diesem Kontext seien auch seine Aussagen zu verstehen.

In dem Zeit-Interview sprach er auch über weitere Aspekte bei der Regulierung wie die Haftung von KI-Entwicklern. Denn eine der Fragen bei den Verhandlungen über den AI Act ist, inwieweit die Hersteller der Large Language Models (LLM) für die Ergebnisse verantwortlich sind. Altman sieht dazu noch Diskussionsbedarf, er selbst nutzt aber einem Vergleich mit Autoherstellern. Demnach müssen diese sicherstellen, dass der Airbag in einem Auto funktioniert. „Aber wenn jemand betrunken mit 250 über die Autobahn rast und gegen eine Wand fährt, ist der Hersteller nicht schuld, sondern der Fahrer“, so der OpenAI-Chef.

Obwohl er weiterhin vor Überregulierung warnt, sind es seinen Aussagen nach Regierungen, die Regeln machen müssen – und nicht OpenAI. Begrüßen würde Altman aber eine internationale Regulierung. Auffällig ist dennoch, wie aufgeschlossen er angesichts europäischer Regulierungspläne wirkt. CNBC spricht mit Blick auf den AI Act sogar von einer 180-Grad-Wende, die in den letzten Tagen zu beobachten gewesen wäre.