Lobby-Arbeit beim AI Act: Wie OpenAI die KI-Regulierung zu seinen Gunsten beeinflusst

Andreas Frischholz
43 Kommentare
Lobby-Arbeit beim AI Act: Wie OpenAI die KI-Regulierung zu seinen Gunsten beeinflusst
Bild: OpenAI

OpenAI hat schon längere Zeit versucht, den europäischen AI Act zu beeinflussen. Dass die Lobby-Arbeit erfolgreich war, ergab eine Recherche des Time-Magazins. Eine zu strikte KI-Regulierung wurde verhindert, stattdessen ist nun ein Regelwerk im Entstehen, von dem die führenden Anbieter sogar profitieren könnten.

Relevant sind in diesem Kontext vor allem die für generative KI wesentlichen Elemente im AI Act. Zu diesen zählen:

  • Registrierung von Basismodellen
  • Risikominimierung in Bereichen wie Demokratie, Rechtsstaatlichkeit, Gesundheit und Umwelt
  • Transparenzpflichten, die insbesondere urheberrechtlich geschütztes Material betreffen

Was zu bedenken ist: Wie eine gute Regulierung ausfällt, bleibt umstritten. Generell profitieren Tech-Konzerne von laxen Vorschriften, weil sich in solchen Fällen die bestehende Marktmacht ausspielen lässt. Ebenso vorteilhaft kann aber auch eine Regulierung sein, die zwar viele Möglichkeiten zulässt, aber mit komplexen Auflagen verbunden ist. So sorgt etwa die DSGVO – trotz aller Vorteile – nicht ausschließlich für mehr Datenschutz bei Firmen, sondern vor allem für mehr Datenschutz-Bürokratie. Benjamin Wolf vom Verein Digitale Gesellschaft spricht gegenüber Netzpolitik.org von einer Compliance-Industrie, die entstanden ist. Wer also mehr Geld für die Rechtsabteilung hat, ist im Vorteil – ideal also für die Big-Tech-Konzerne mit den personellen und finanziellen Ressourcen, die sie zur Verfügung haben. Beim AI Act könnte nun ähnliches drohen.

OpenAI will die passende Regulierung

In diesem Kontext lässt sich auch OpenAIs Lobby-Arbeit verstehen, die nicht erst seit Sam Altmans Welttournee läuft. Bereits im Jahr 2022 warb das Unternehmen wiederholt bei EU-Vertretern, allgemeine KI-Systeme wie das damals aktuelle GPT-3-Sprachmodell sowie den Bildgenerator Dall-E-2 nicht als Hochrisiko-Technologie einzustufen. „Hochrisiko“ bedeutet im AI Act: Deutlich striktere Auflagen, die bei den Trainingsdaten anfangen und bis zur menschlichen Aufsicht reichen. So etwas wollte man vermeiden, stattdessen sollten spezifische Anwendungen reguliert werden. Das geht aus einem siebenseitigen Schreiben hervor, dass die Time via Informationsfreiheits­anfrage erhalten und nun veröffentlicht hat.

Der Aufwand lohnte sich für das Unternehmen, eine von OpenAI beanstandete Klausel wurde etwa gestrichen. Laut dieser wären generative KI-Systeme unter die Hochrisiko-Kategorie gefallen, wenn die generierten Inhalte den Eindruck erwecken könnten, von Menschen zu stammen und damit authentisch zu sein. Die Vorgabe findet sich nicht mehr im Gesetz, stattdessen will die EU eine Kennzeichnungspflicht forcieren – ein Vorschlag, den OpenAI zuvor als Lösungsweg skizziert hatte. „Sie haben bekommen, worum sie gebeten haben“, sagt daher auch Sarah Chander, politische Beraterin bei der Bürgerrechtsorganisation European Digital Rights, der Time.

OpenAI erklärte auf Anfrage des Magazins, man habe der EU letztes Jahr einen Überblick über den eigenen Ansatz gegeben und davon ausgehend den damaligen Entwurf des AI Acts kommentiert. Seitdem hätten sich sowohl die Technologie als auch das Gesetz weiterentwickelt, die Firma wolle daher auch weiterhin mit den politischen Entscheidungsträgern zusammenarbeiten. Wie erfolgreich OpenAI dabei ist, verdeutlichte CEO Sam Altman bei seinem Europa-Besuch. Er traf sowohl Kommissionspräsidentin Ursula von der Leyen als auch Bundeskanzler Olaf Scholz. Und man wollte offenbar auch öffentlich den Druck erhöhen. So kokettierte Altman mit der Aussage, das Unternehmen würde im Zweifel die EU verlassen, wenn es die Regeln nicht einhalten könnte. Generell wurde das als Drohung aufgefasst, später beschwichtigte er: OpenAI habe keine Pläne, die EU zu verlassen.

Generell bemüht sich das Unternehmen aber ohnehin um eine subtilere Strategie. So fordert Altman etwa nicht explizit konkrete Vorgaben, sondern warnte im Frühjahr mehrfach, andere Entwickler von ChatGPT-ähnlichen Tools könnten nicht so auf Sicherheit bedacht sein wie OpenAI. Wir haben es im Griff, aber andere sind eine Gefahr – das ist die Botschaft, die man den Regulierern vermitteln will.

Inwieweit Big Tech profitiert

Statt den strikten Auflagen existieren nun also Anforderungen, um etwa Risiken für die Gesellschaft zu minimieren. Diese besagen unter anderem, dass die Modell-Entwickler die „vernünftigerweise vorhersehbaren Risiken für Gesundheit, Sicherheit, Grundrechte, Umwelt sowie Demokratie und Rechtsstaatlichkeit vor und während der Entwicklung mit geeigneten Methoden“ feststellen müssen. Wie so etwas in der Praxis gelingen kann, wird sich zeigen. Es weckt aber bereits die Sorge, dass es vor allem für Rechtsabteilungen der Tech-Konzerne praktikabel ist, die über enorme Ressourcen verfügen – OpenAI profitiert hier von der engen Partnerschaft mit Microsoft. Denn im Zweifel können diese auch Strafzahlungen in Kauf nehmen, wenn man Vorgaben nicht im ersten Anlauf adäquat umsetzen kann oder die Grenzen ausreizen will.

Eine Analyse von Forschern der University Stanford verdeutlicht bereits, dass bislang kein auf dem Markt verfügbares Modell den im AI Act vorgegebenen Standards entspricht. Das betrifft sowohl Closed-Source-Modelle wie GPT-4 als auch Open-Source-Modelle wie Stable Diffusion. Während bei GPT-4 vor allem die Transparenz-Kriterien bei den Trainingsdaten sowie der Energieverbrauch ein Problem darstellen, ist es bei den Open-Source-Varianten der Umgang mit Risiken, die Evaluation sowie Test-Verfahren – es hakt also eher in den Bereichen, die im Nachklang mehr bürokratischen Aufwand erfordern.

Für Open Source sind im AI Act Ausnahmen vorgesehen, die Frage ist nur, inwieweit die ausreichen, wie aus einer Analyse von Technomancers hervorgeht. Bislang läuft die Entwicklung in der Szene dynamisch, so war Stable Diffusion etwa eines der Modelle, das den Boom bei den Bildgeneratoren befeuerte. Auch Konzerne nutzen Open-Source. Meta mit LlaMA wird in diesem Kontext oft genannt. Erst letzte Woche veröffentlichte Intel ein generatives KI-System als Open-Source-Variante, mit dem sich 3D-Welten modellieren lassen sollen.

Für die Marktführer kann das aber eine Bedrohung darstellen. Schneller, effizienter und preiswerter – so beschrieb ein Google-Mitarbeiter die Open-Source-Entwicklung in einem firmeninternen Memo. Vor allem führende Anbieter wie eben Google oder auch OpenAI würden mit den komplexen Sprachmodellen zu viele Ressourcen verbrauchen und wären schlicht nicht flexibel genug, um perspektivisch mit den kleineren und günstigeren Modellen mitzuhalten, die zudem besser anpassbar sind. Striktere Regeln mit mehr Bürokratie könnten diesen Trend ausbremsen.

Linux-Ökosystem für KI

Dabei bietet ein Open-Source-Ökosystem einiges an Potenzial, erklärt Professor Antonio Krüger, Leiter vom Deutschen Forschungszentrum für KI, im Interview mit ComputerBase. Um die Entwicklung zu erleichtern, würde er ein Linux-Ökosystem für Künstliche Intelligenz begrüßen. In Europa sollte daher ein großes Basismodell entstehen, etwa im Rahmen einer Public-Private-Partnership.

Deswegen bin ich sehr dafür, dass wir schon auch in Europa ein großes Basismodell trainieren und bei den Trainingsdaten völlig transparent sind. Am besten sollte das mit Beteiligung der öffentlichen Hand passieren, damit einzelne Unternehmen sich keine Vorteile verschaffen können. Möglich ist so etwas zum Beispiel in einer Public-Private-Partnership. Neben Transparenz bei den Daten sollte so ein Modell auch möglichst hochqualitative Daten verwenden und Open Source sein, sodass es die europäische Gesellschaft weiterverwenden kann – und zwar auch für die kommerzielle Nutzung. Für so etwas plädiere ich nachdrücklich und unterstütze auch entsprechende Aktionen.

Dafür gibt es den Begriff vom CERN für KI. CERN ist eine europäische Forschungseinrichtung für die Kernphysik, die ein Instrument betreibt, das für alle zugänglich ist, und von den Ergebnissen profitieren alle. So etwas benötigen wir auch für KI-Entwicklung und in Europa könnten wir die dafür erforderlichen Summen auch finanzieren. Geschäfte würden Unternehmen in einem solchen Fall nicht mehr mit dem Basismodell, sondern mit weiteren Trainingsrunden machen – also der Spezialisierung auf bestimmte Disziplinen. Da gibt es noch so viel zu tun und so viele Anwendungen, dass sich die Privatwirtschaft kreativ austoben und auch Geld verdienen kann. Doch im Kern hätten wir ein Basismodell, das transparent oder zumindest so transparent wie möglich entwickelt wurde.

Prof. Krüger im ComputerBase-Interview

Erste Ansätze für diese Idee werden bereits verfolgt. So will Hessian.AI ein entsprechendes KI-Modell bereitstellen. Das hochschul­übergreifende KI-Zentrum hat erst vor kurzem einen neuen Supercomputer eingeweiht und will in der Folge auch selbst entwickelte Large Language Models (LLM) öffentlich verfügbar machen. Details kann ein Sprecher auf Anfrage von ComputerBase aber noch nicht nennen.