AI-Fake-Porn von Taylor Swift: US-Administration will verschärfte Regeln gegen Deepfakes

Andreas Frischholz
135 Kommentare
AI-Fake-Porn von Taylor Swift: US-Administration will verschärfte Regeln gegen Deepfakes
Bild: 12019 | CC0 1.0

Per AI-Bildgeneratoren erstellte Fake-Nacktbilder von der Sängerin Taylor Swift kursierten letzte Woche auf X (ehemals Twitter). Dass solche Inhalte auf Social-Media-Plattformen verbreitet werden, bezeichnet das Weiße Haus als alarmierend. Das gelte sowohl für die Moderation als auch das Erstellen der Inhalte.

Verschärfte Regeln wären daher erforderlich, der Kongress müsse tätig werden, sagte die Sprecherin Karine Jean-Pierre während einer Pressekonferenz. Social-Media-Plattformen hätten eine bedeutende Rolle, indem sie ihre jeweiligen Regelwerke durchsetzen. Werden die Regeln aber durch „lax“ durchgesetzt, betreffe das insbesondere Frauen und Mädchen, die überwiegend die Ziele von Online-Hass und Missbrauch seien.

Ein Problem bestehe aber auch bei den generativen AI-Bildgeneratoren, mit denen sich entsprechende Bilder erstellen lassen. Auch in diesem Bereich arbeite die US-Administration an neuen Regeln. Letztes Jahr hatte Joe Biden bereits eine Executive Order beschlossen, der Kongress müsse aber ebenfalls tätig werden, so die Sprecherin.

Millionen-Reichweite für Fake-Nacktbilder

Die Fake-Nacktbilder von Taylor Swift erreichten letzte Woche große Reichweiten auf X. Laut The Verge kam eines auf über 45 Millionen Ansichten mit 24.000 Reposts und Hunderttausende Likes, dennoch wurde es erst nach rund 17 Stunden von der Plattform entfernt. Zuvor reagierten aber bereits die Fans von Taylor Swift. Diese fluteten die Plattform ebenfalls mit massenhaft Swift-Inhalten, um die Deepfakes aus der Timeline zu spülen.

Wie die Deepfakes entstanden sind, hat 404Media analysiert. Erst verbreiteten diese sich auf 4chan und Telegram, von dort aus gelangten diese dann massenhaft auf X. Bei diesen Fake-Bildern wurde nicht – wie bei solchen Porn-Deepfakes bislang eher üblich – der Kopf von Swift auf ein anderes Bild gesetzt. Stattdessen wurde diese vollständig mit generativen AI-Tools generiert.

Das Tool der Wahl war laut den Recherchen von 404Media Microsoft Designer – ein Grafik-Tool, was vor allem für das Erstellen von Social-Media-Inhalten und Grafiken ausgelegt ist. So wurden auf Telegram etwa Tipps für Prompts geteilt, durch die sich Microsofts bestehende Schutzmechanismen umgehen ließen.

Vorwurf: X versagt – erneut – bei der Moderation

Microsoft brauchte laut den Informationen von 404Media nur wenige Stunden, um die relevanten Eingaben bei Designer zu sperren. Bei X dauerte es deutlich länger, Branchenbeobachter wie Casey Newton beschreiben ein Versagen bei der Moderation, was im Zusammenhang mit den Entlassungswellen bei den entsprechenden Teams stehe.

Wie verzweifelt man bei X nach einer Lösung suchte, machte sich bei den Ansätzen bemerkbar. Denn zeitweise war Taylor Swift über X nicht mehr abrufbar, wie etwa auch das Wall Street Journal berichtete. Wenn man den Namen eingegeben hat, wurden keine Beiträge angezeigt.

Musk steht seit der Übernahme in der Kritik, weil er zunächst die Moderationsvorgaben lockerte und dann das bis dahin existierende „Trust-and-Safety“-Team praktisch vollständig entlassen hatte. Das soll nun aber erneuert werden, wie Bloomberg am Wochenende berichtete. Eine Abteilung mit rund 100 in Vollzeit tätigen Angestellten soll ein Büro in Austin eröffnen. Der Schwerpunkt der Arbeit soll auf Inhalten liegen, die Missbrauchsdarstellungen von Kindern zeigen, bestätigt X auch in einem Blog-Beitrag.