Kampf gegen Deepfakes: Mozilla-Studie nennt Lösungsansätze, Bildung bleibt Trumpf

Michael Schäfer
57 Kommentare
Kampf gegen Deepfakes: Mozilla-Studie nennt Lösungsansätze, Bildung bleibt Trumpf
Bild: AI_image | gemeinfrei

Deepfakes sind nicht nur im in den USA beginnenden Wahlkampf oder für Taylor Swift (Deepfake-Pornografie) ein Problem, das Gefahrenpotential geht weit darüber hinaus. Eine Studie der Mozilla Foundation nennt nun verschiedene Lösungsansätze, um die Gefahr bezüglich Falschinformationen eindämmen zu können.

KI: Segen und Fluch

Die Qualität mittels Künstlicher Intelligenz erzeugter Bilder, Videos und mittlerweile auch Stimmen nimmt stetig zu. Das kann durchaus positive Ansätze besitzen, etwa wenn längst verstorbene Persönlichkeiten in Filmen oder wie zuletzt die Stimme von Hans Clarin mithilfe Künstlicher Intelligenz für die neue Pumuckl-Serie täuschend echt wieder zum Leben erweckt werden.

Solche Inhalte können aber ebenso eingesetzt werden, um Menschen mit falschen Informationen zu manipulieren und ihnen eine falsche Realität oder falsche Geschehnisse vorzugaukeln. Für Laien wird es dabei immer schwieriger, Wahrheit und Fiktion voneinander zu unterscheiden. Dies kann massive Auswirkungen auf die gesamte Gesellschaft haben.

Studie gibt verschiedene Lösungsansätze

Darüber, wie in Zukunft sicher „Daten oder Informationen, die algorithmisch generiert werden und nicht aus realen Beobachtungen oder Erfahrungen stammen“ von eben realen Informationen unterschieden werden können, wird schon lange diskutiert. Das „Meaningful AI Transparency Research Project“ von Mozilla hat sich in einer Studie (PDF) nun der Problematik angenommen, verschiedene Lösungsansätze gesammelt und diese unter anderem auf ihre Machbarkeit geprüft werden.

Wasserzeichen für die Wahrheit

Die Studie stellt dabei schnell klar, dass es keine universelle Lösung für das Problem geben wird, allein der immer geringer werdende Aufwand zur Generierung entsprechender Inhalte lässt eine Gegenwehr schwierig erscheinen. Nach Ansicht der Autoren sollte das Problem daher von der anderen Seite angegangen werden: Nicht die Falschinformationen als solche entlarven, was eher einem Fass ohne Boden gleichkäme, sondern gesicherte Informationen also solche zu kennzeichnen. Dies kann entweder durch deutlich sichtbare Kennzeichnungen oder durch Wasserzeichen erfolgen. Die Studie hat dabei untersucht, wie sicher und praxistauglich solche Ansätze sind.

Lösungen scheitern nicht selten an der Einordnung

Sichtbare Kennzeichnungen besitzen den Vorteil, dass sie für jeden Nutzer sofort erkennbar sind. Der Nachteil besteht jedoch darin, dass der Betrachter sie für eine Einordnung kennen muss. Er muss ebenso wissen, welche offiziellen Kennzeichnungen es gibt, um diese von unkontrollierten Markierungen unterscheiden zu können.

Diese Problematik ist nicht neu und lässt sich so bereits bei Inhaltsangaben bei Lebensmitteln oder den Energie-Labels beobachten. Eine solche sichtbare Kennung wird bereits von der Coalition for Content Provenance and Authenticity (C2PA) angeboten, der neben bekannten IT-Schwergewichten wie Microsoft, Google, Adobe und Intel auch Medienhäuser wie die BBC angehören. Nur: Nutzer müssen diese Kennzeichnung einordnen und von Fälschungen unterscheiden können.

Als zielführender und sinnvoller stufen die Autoren der Studie dagegen unsichtbare, maschinenlesbare Wasserzeichen ein, die in die jeweiligen Inhalte eingebettet werden. Diese besitzen den Vorteil, dass sie einerseits nur mit größerem Aufwand und daher schwieriger zu manipulieren oder gar zu entfernen sind, andererseits sind diese auch auf zuverlässige Erkennungsmethoden angewiesen – hier sind also die Anbieter gefragt.

Automatismen sollten nicht einzige Lösung sein

Die Macher der Studie weisen zudem darauf hin, dass es selbst bei verlässlichen Mechanismen weiterer Lösungen bedarf, um die Authentizität der Inhalte wirklich überprüfen zu können. Diese beschränken sich nicht nur auf den technischen Bereich, auch Regulierungen müssen überdacht und vor allem in die Bildung und damit die Aufklärung investiert werden. Gerade Letzteres dürfte immer wichtiger werden, da es immer mehr Nutzer über die Auswirkungen und auch Gefahren durch die immer weiter voranschreitende KI-Technologie aufzuklären gilt. Hier sieht die Studie einen der Kernpunkte gegen Desinformation.

Eine Frage der Verantwortung

Gleichermaßen müssen sich auch Entwickler von KI-Systemen ihrer rechtlichen und ethischen Verantwortung bewusst werden und die Software sicher machen. Entsprechende Systeme müssen vor ihrem Einsatz ausgiebig getestet werden, die Studie bringt hier sogenannte Regulatory Sandboxes ins Spiel: isolierte Schutzräume zur gefahrlosen Erprobung und Entwicklung entsprechender Systeme. Diese werden bereits in verschiedenen Ländern und vor allem im Finanzsektor angewendet.

Bildung als Schlüssel

Am Ende der Studie betonen die Autoren noch einmal nachdrücklich die Notwendigkeit der Aufklärung. Viele Nutzer seien sich der Auswirkung von KI-generierten Inhalten auf die Gesellschaft nicht bewusst und verfügen nicht über das nötige Wissen, um entsprechende Inhalte zu erkennen – egal ob mit oder ohne Kennzeichnung oder Wasserzeichen. „Bildung ist der Schlüssel zur Stärkung der Widerstandsfähigkeit der Bürger und ergänzt wirksame Regulierung, anstatt sie zu ersetzen“, so das Schlusswort der Studie.