Sports Illustrated: Magazin veröffentlichte KI-generierte Artikel von Fake-Autoren

Andreas Frischholz
50 Kommentare
Sports Illustrated: Magazin veröffentlichte KI-generierte Artikel von Fake-Autoren
Bild: Mohamed Hassan | CC0 1.0

Das amerikanische Magazin Sports Illustrated hat per KI generierte Artikel veröffentlicht, die von Fake-Autoren stammen, berichtet Futurism. Kenntlich gemacht wurden die synthetischen Inhalte nicht, nach Hinweisen wurden diese kommentarlos gelöscht.

Auffällig waren zunächst bestimmte Profile wie die eines vermeintlichen Autors namens Drew Ortiz. Die Beschreibung klingt normal, es ist ein typischer Text für solche Autorenseiten. Doch das Bild stammt laut Futurism von einer Webseite, die KI-Porträts vertreibt. Und auch ansonsten gebe es keine Hinweise, dass ein Drew Ortiz existiert. Abrufbar ist das mittlerweile gelöschte Profil noch über die Wayback-Machine von Archive.org.

Wie interne Quellen gegenüber Futurism bestätigen, handele es sich um kein echtes Profil. Sports Illustrated soll mehrere solcher Fake-Profile nutzen. Bei manchen würden auch Artikel erscheinen, die mittels KI-generiert worden sind. Gekennzeichnet werden solche Inhalte offenbar nicht.

Angeblich nur Inhalte von Partnern

Die Arena Group, zu der Sports Illustrated zählt, reagierte zunächst nicht auf eine Anfrage von Futurism. Allerdings verschwanden die genannten Profile dann kommentarlos von der Webseite. Später erhielt das Online-Magazin doch eine Stellungnahme von einem Sprecher der Arena Group. Demnach habe man die entsprechenden Inhalte von einem externen Partner erhalten. Die Sports-Illustrated-Reaktion habe keine KI-generierten Artikel erstellt.

Das steht allerdings im Widerspruch zu den Aussagen der Quellen, die mit Futurism gesprochen haben. Ähnliche Vorfälle soll es zudem bei dem Magazin The Street geben, das ebenfalls zur Arena Group zählt.

Moderne KI-Textgeneratoren wie ChatGPT verbreiten sich

Sports Illustrated ist eine populäre Marke in den USA, das Magazin hat in der Vergangenheit eine Vielzahl von Journalistenpreisen gewonnen. Sie sind aber nicht die ersten, bei denen KI-Inhalte entdeckt worden sind. Der erste große ChatGPT-Fall ereignete sich im Januar bei dem Tech-Magazin CNET, das KI-Artikel ohne Kennzeichnung, aber mit inhaltlichen Fehlern veröffentlichte.

Mittlerweile verbreitet sich der Einsatz von Textgeneratoren im Journalismus. Ein Beispiel in Deutschland ist etwa das Boulevardmagazin Kölner Express, das offen damit umgeht. So existiert ein Autorenprofil, in dem KI-Artikel erscheinen. Möglich sind aber noch weitere Anwendungen. Die Frankfurter Allgemeine Zeitung (FAZ) nutzt KI-Tools, um von Menschen erstellte Artikel in Stichpunkten zusammenzufassen.