KI-Manipulationen: Tech-Konzerne wollen die Wahlen in 2024 schützen

Andreas Frischholz
45 Kommentare
KI-Manipulationen: Tech-Konzerne wollen die Wahlen in 2024 schützen
Bild: Mohamed Hassan | PxHere | CC0 1.0

Rund 20 Tech-Konzerne wollen zusammenarbeiten, um in diesem Jahr weltweit die Wahlen vor dem Einfluss von KI-Manipulationen zu schützen. Eine entsprechende Absichtserklärung unterschrieben führende KI-Entwickler wie Microsoft, OpenAI, Google und Adobe auf der Münchner Sicherheitskonferenz.

2024 ist in dieser Hinsicht ohnehin herausragend, es werden mehr Menschen zur Wahl aufgerufen als jemals zuvor in einem Jahr. Insgesamt betrifft es über 4 Milliarden Menschen in mehr als 40 Ländern. Darunter befinden sich die USA, Indien, Russland und Südafrika.

8 Maßnahmen, um KI-Fälschungen zu verhindern

Umso größer sind die Sorgen angesichts der rasanten Entwicklung generativer KI-Systeme, dass Wahlen beeinträchtigt werden können, weil das Erstellen manipulierter Inhalte erleichtert wird. Daher verpflichten sich die an der Erklärung beteiligten Unternehmen, gemeinsam an Tools zu arbeiten, die entsprechende KI-Inhalte erkennen können. Man will also verhindern, dass sich Desinformation über die Online-Kanäle verbreitet.

Konkret verständigten sich die Unternehmen auf acht Punkte. Neben dem Entwickeln der Tools verpflichtet man sich auch, auf den eigenen Plattformen nach betrügerischen KI-Inhalten zu suchen und transparent mit den Erkenntnissen umzugehen. Ebenso wollen die Unternehmen mit Organisationen aus der Zivilgesellschaft und Wissenschaft kooperieren sowie das öffentliche Bewusstsein für das Problem schärfen.

Unterzeichnet wurde der „Tech Accord to Combat Deceptive Use of AI in 2024 Elections“ am Freitag von Adobe, Amazon, Anthropic, Arm, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap Inc., Stability AI, TikTok, Trend Micro, Truepic und X (ehemals Twitter).

KI-Entwickler und Plattformbetreiber müssen kooperieren

Zusätzlich zu den KI-Entwicklern zählen also auch prominente Plattformbetreiber zu den Konzernen, die Manipulationen stoppen wollen. Wie wichtig das ist, verdeutlichte zuletzt der Fall Taylor Swift: Von der amerikanischen Popsängerin wurden Fake-Nacktbilder – vermutlich größtenteils mit dem Microsoft-Tool Designer – generiert, die massenhaft auf X verbreitet wurden. Einzelne Bilder erzielten Reichweiten von über 45 Millionen Ansichten.

Sichtbar werden die zwei zentralen Baustellen: Während X zunächst an der Moderation der Inhalte scheiterte, benötigte Microsoft Zeit, bis man sämtliche Prompt-Eingaben unterdrückte, mit denen sich die Nacktbilder generieren ließen.

Die Entwickler der AI-Tools arbeiten bereits an Schutzmaßnahmen. So verfügen mittlerweile alle Bildgeneratoren über ein Wasserzeichen-System, durch das sich die mit AI erstellten oder veränderten Bilder identifizieren lassen.