ChatGPT und Desinformation: Reddit-Moderatoren beklagen Spam-Welle mit KI-Inhalten

Andreas Frischholz
87 Kommentare
ChatGPT und Desinformation: Reddit-Moderatoren beklagen Spam-Welle mit KI-Inhalten
Bild: Reddit

Experten befürchten angesichts des Hypes rund um generative KI-Lösungen eine Welle an Desinformation und Propaganda. Von ersten Spam-Wellen, deren Inhalte mittels ChatGPT generiert worden sind, berichten nun Reddit-Moderatoren, meldet Vice.

Reddit ist eine der größten sozialen Plattformen der Welt. Als News-Aggregator mit forenhafter Struktur ermöglicht es den Nutzern, Inhalte wie Texte, Bilder, Memes und Videos zu teilen. Strukturiert werden die Inhalte unter anderem durch Up- und Down-Votes der Nutzer. Wie scharf moderiert wird, hängt von den jeweiligen Subreddits – also Unterforen – ab.

KI-Spam wirbt weiterhin für Porno, Glücksspiel und Drogen

Vice bezieht sich bei dem Bericht zunächst auf Erfahrung aus dem AskHistorians-Subreddit mit rund 2 Millionen Mitgliedern. Kurz nach dem Start von ChatGPT im Herbst waren es rund fünf bis zehn KI-Texte, die pro Tag identifiziert worden sind, erklärte die Moderatorin Sarah Gilbert. Das steigerte sich aber, je mehr Menschen den Chatbot nutzten. Im Februar registrierten dann sowohl AskHistorians als auch weitere Subreddit eine Spam-Welle, die als eine Art koordinierter Angriff beschrieben wird.

Identifiziert wurde eine automatisiert arbeitendes Bot-System, das Fragen stellte und Antworten lieferte. Für die Moderatoren waren dabei weniger die Inhalte ein Problem, eher was die Geschwindigkeit, mit der neue Beiträge erstellt worden sind. Bis zu 75 Konten wurden auf dem Höhepunkt der Spam-Welle allein im AskHistorian-Subreddit geblockt, so Gilbert.

Dass der KI-Spam nicht nur einzelne Subreddits betrifft, bestätigte gegenüber Vice ein Moderator, der Kenntnisse über größere Teile des Moderationssystem hat. So berichtet auch ein Moderator aus dem Cybersecurity-Subreddit, dass sich KI-Inhalte leicht erkennen lassen, wenn diese für Marketing verwendet werden. In anderen Bereichen sind diese schwieriger zu identifizieren. Das betrifft vor allem die Up- und Down-Votes von Inhalten – ob diese von einem Chatbot stammen, ist nur schwer zu erkennen.

Eine Erkenntnis ist aber auch: Bislang werden die Bots in der Regel nicht für politische Zwecke wie Manipulation und Propaganda verwendet, sondern schlicht für Werbung. Die richtet sich vor allem an Erwachsene und umfasst das klassische Spam-Arsenal wie Marihuana, Pornografie, Glücksspiel oder betrügerische Waren-Angebote.

Spam-Wellen werden raffinierter

Neu sind solche Spam-Wellen und der Einsatz von Bots und Fake-Konten auf Reddit nicht, die Plattform kämpft seit Jahren mit den Problemen, wie Reddits Transparenzbericht aus dem Jahr 2021 verdeutlicht. Was aber neu ist: Die Qualität der Inhalte. Waren es früher noch einzelne Textkopien, die von diversen Konten geteilt wurde, lassen sich nun per Knopfdruck individuelle Inhalte erstellen.

Die KI-Fakes betreffen nicht nur Texte. So machen bereits die ersten Berichte von Nutzern die Runde, die Nacktfotos einer per KI generierten Frau verkauft haben. Erstellt wurde das Bild mit Stable Diffusion.

Reddit versucht derweil, KI-Texte zu entfernen. Perspektivisch soll ein Tool diese Inhalte identifizieren, noch befindet es sich aber in der Entwicklung. Und die Werkzeuge, die bislang vorhanden sind, scheitern bereits am klassischen Spam-Aufkommen. Solange keine besseren Tools verfügbar sind, bleibt es nun Aufgabe der manuellen Moderation, entsprechende Inhalte eigenständig zu entdecken.

Fake-Videos betreffen bei Weitem nicht nur Reddit. Vor allem auf Twitter kursierten etwa KI-Bilder, die eine Verhaftung von Donald Trump oder eine Fake-Bild des Papstes in weißer Jacke zeigen. Was Reddit aber bereits andeutet, sind kommenden Probleme: Selbst wenn sich KI-Inhalte bei genauerem Hinsehen – noch – erkennen lassen, erschweren individualisierte Inhalte den Umgang. Vor allem auf den ersten Blick sind Täuschungen (zu) leicht möglich.