Gegen Deepfakes und Desinformation: Wasserzeichen für KI-Inhalte von Google und OpenAI

Andreas Frischholz
67 Kommentare
Gegen Deepfakes und Desinformation: Wasserzeichen für KI-Inhalte von Google und OpenAI
Bild: 12019 | CC0 1.0

Im Weißen Haus haben sich die führenden KI-Hersteller wie OpenAI und Google mit US-Präsident Joe Biden getroffen und eine freiwillige Selbstverpflichtung verkündete. Eine der Zusagen der Entwickler: KI-Inhalte sollen künftig mit einem Wasserzeichen markiert werden.

Die Biden-Harris-Administration befasst sich schon länger mit dem KI-Bereich. So lässt sich die Selbstverpflichtung der Unternehmen als ersten Schritt zu einer KI-Regulierung verstehen. Zu den KI-Entwickler, die im Weißen Haus vertreten waren, zählen die führenden Anbieter: Amazon, Anthropic, Google, Inflection, Meta, Microsoft und OpenAI. Was eingefordert wird, sind hohe Standards, damit „Innovationen nicht auf Kosten der Rechte und Sicherheit von Amerikanern“ geht.

Wasserzeichen für KI-Inhalte

Insgesamt sind es acht Anforderungen, die das Weiße Haus für die Selbstverpflichtung definiert. Wesentlich ist, dass die Anbieter der Sicherheit einen hohen Stellwert einräumen. Nicht ausreichend getestete Modelle sollen nicht auf den Markt gelangen. Bedeutend ist zudem, dass Anbieter untereinander kooperieren, um Risiken zu minimieren.

Eine wegweisende Anforderung ist allerdings, dass die Firmen Technologien entwickeln sollen, um per KI generierte Inhalte zu markieren. Die Wasserzeichen sollen ein Schutz sein, um Risiken durch Deepfakes, Desinformation und Betrug zu senken. Insbesondere im politischen Bereich gelten Deepfakes als besonders große Gefahr, um etwa Wahlen und politische Prozesse durch gefälschte Inhalte zu manipulieren. Technische Details zu den Wasserzeichen enthält die Mitteilung des Weißen Hauses nicht, ebenso hält sich OpenAI in einem Blog-Beitrag bedeckt und spricht lediglich von „robusten Mechanismen“.

Wie so etwas funktionieren kann, erklärte Prof. Antonio Krüger, Leiter vom Deutschen Forschungszentrum für Künstliche Intelligenz, im Interview mit ComputerBase. Über Einträge in den Metadaten lasse sich demnach festhalten, ob und inwieweit Bilder mit einem der KI-Modelle bearbeitet worden sind. Nicht-manipulierte Bilder könnten dann markiert und als vertrauenswürdig klassifiziert werden.

Spannend wird zudem zu beobachten sein, wie die Firmen die Anforderung umsetzen, öffentlich über Fähigkeiten und Grenzen der Modelle zu berichten. Zudem sollen sie schildern, in welchen Bereichen der Einsatz der Technologie sinnvoll ist – und wo nicht. OpenAI und Google geben sich zunehmend verschlossen, während Meta bei der Veröffentlichung der Llama-2-Sprachmodelle eine Vielzahl von Informationen preisgab – und die Modelle auch als Open Source und zur kommerziellen Nutzung bereitstellt.

Selbstverpflichtung als erster Schritt zu KI-Gesetzen

Die Selbstverpflichtung der Anbieter ist allerdings nur der erste Schritt für die KI-Regulierung in den USA. „Die Biden-Harris-Administration arbeitet derzeit an einer Executive Order und will mit einer parteiübergreifenden Gesetzgebung für den Weg hin zu verantwortungsvollen Innovationen ebenen“, heißt es in der Mitteilung. Der US-Kongress hat sich ebenfalls schon mit KI-Regulierung befasst, bei einer Anhörung befragten die Abgeordneten unter anderem OpenAI-Chef Sam Altman.

Die EU ist auf rechtlicher Ebene weiter, beim AI Act hat sich das EU-Parlament bereits auf einen Entwurf verständigt. Nun stehen die finalen Verhandlungen mit den Mitgliedsstaaten an, um letzte Details festzuzurren. Bis der AI Act in Kraft tritt, wird es aber noch einige Jahre dauern. Daher befindet sich auch die EU-Kommission in Gesprächen mit den Unternehmen.