Gerichtsverfahren gegen OpenAI: FTC-Ermittlungen und Copy­right-Klagen wegen ChatGPT

Andreas Frischholz
15 Kommentare
Gerichtsverfahren gegen OpenAI: FTC-Ermittlungen und Copy­right-Klagen wegen ChatGPT
Bild: OpenAI

Eingeschränkt werden können OpenAIs KI-Modelle nicht nur durch politische Regulierung, sondern auch durch Ermittlungen und Gerichtsverfahren. Aktuell startet die FTC ein Verfahren, weil ChatGPT falsche Informationen verbreitet. Autoren klagen zudem, weil die Entwickler ihre Werke illegal für das Training verwenden.

Wenn der Chatbot verleumdet

Weil ChatGPT auch falsche Informationen über bestimmte Personen verbreite, prüft die amerikanische Federal Trade Commission (FTC) nun, ob der Chatbot damit die Persönlichkeitsrechte von Betroffenen verletzt. Die Ermittlungen starten zunächst mit einem umfangreichen Fragebogen, berichtet das Wall Street Journal. Die einzelnen Fragen befassen sich etwa mit OpenAIs Maßnahmen zur Datensicherheit und Privatsphäre. Ebenso ist die FTC an dem Sicherheitsvorfall interessiert, durch den einige Nutzer kurzfristig einen Einblick in andere Konten erhalten konnten. Die Ermittlung ähnelt also derzeit den Verfahren, die europäische Datenschutzbehörden im Frühjahr gestartet hatten.

Sollte die FTC OpenAI verurteilen, können neben einer Geldbuße konkrete Auflagen drohen, um Missstände zu beseitigen. Unter der Chefin Lina Khan fährt die Regulierungsbehörde ohnehin einen harten Kurs gegen Tech-Konzerne, zu Strafen kam es aber schon in den Jahren zuvor. Die betrafen etwa Facebook und Twitter. Neben einer Geldbuße mussten die Plattformen zudem bestimmte Auflagen einhalten, um die Privatsphäre der Nutzer zu schützen.

Bei Twitter stammen diese Auflagen aus dem Jahr 2011. Seit der Übernahme von Elon Musk stand aber schon mehrmals die Frage im Raum, ob es nicht zu Verstößen kommt. Aktuell versucht der Konzern, die Auflagen per Gerichtsbeschluss aufheben zu lassen.

Rechtliche Konsequenzen für „halluzinierende“ Sprachmodelle

Dass ChatGPT falsche Informationen über bestimmte Personen produziert, ist seit dem Start des Chatbots bekannt. Besonders problematisch ist es, wenn es sich um Verleumdungen handelt. So klagte etwa der Bürgermeister einer Stadt in Australien im April, weil ChatGPT ihn fälschlicherweise mit einem Betrugsskandal in Verbindung brachte.

Falsche Informationen entstehen durch das sogenannte „Halluzinieren“. Können die komplexen Sprachmodelle etwa aufgrund einer ungenauen Datengrundlage keine konkrete Antwort generieren, tendieren diese dazu, Fakten zu erfinden. Es ist ein Phänomen, das in den Modellen aufgrund der Struktur inhärent angelegt ist. Entwickler versuchen aber, es mit verschiedenen Ansätzen einzudämmen.

Weitere Verfahren wegen Trainingsmaterial

Ermittlungen und Gerichtsverfahren drohen aber nicht nur wegen justiziabler Falschbehaupten des Chatbots. In den USA haben die Autorin und Schauspielerin Sarah Silverman und weitere Künstler eine Klage gegen OpenAI und Meta eingereicht, weil die KI-Modelle mit Werken der Autoren trainiert wurden, ohne dass diese explizit eingewilligt hatten. Es geht also im Kern um die Frage, inwieweit die KI-Firmen das komplette Web abgrasen dürfen. Googles Nutzungsbedingungen sorgten deswegen bereits vor Kurzem für Aufsehen, im Prinzip sind diese aber symptomatisch für das Vorgehen der kompletten Branche.

Die Firmen selbst erklären, sie handeln legal. Öffentlich verfügbare Daten wären für das KI-Training legitim nutzbar – und falls Inhalte rechtlich geschützt seien, würde man diese lizenzieren. OpenAI hat letzte Woche etwa auch eine Vereinbarung mit der Stockfoto-Datenbank Shutterstock abgeschlossen.

Dennoch ist in absehbarer Zeit mit Urteilen zu rechnen, die Klarheit bringen werden. Diverse Klagen wurden bereits eingereicht, zahlreiche weitere werden erwartet, berichtet VentureBeat. Gegen die Datensammlung gehen zudem auch die großen Plattformen wie Twitter und Reddit vor, die den Zugang mittels API-Restriktionen eingeschränkt haben. Maßnahmen, die aber nicht nur KI-Firmen ausschließen, sondern auch zu massiven Verwerfungen in den jeweiligen Ökosystemen führen.

Inwieweit KI-Inhalte legal sind, betrifft nicht nur die Entwickler, sondern auch weitere Plattformen. So hat Steam etwa restriktivere Regeln erlassen, weil urheberrechtliche Fragen bei KI-generierten Spielen nicht klar sind.