Interview: Risiken durch generative KI, die heute bereits existieren

 2/3
Andreas Frischholz
141 Kommentare

ComputerBase: Kommen wir zu den Risiken, die heute schon relevant sind. Vorhin sprachen Sie bereits von KI-gesteuerten Hacker-Attacken. Wie wirkt sich die aktuelle Entwicklung auf die IT-Sicherheit aus?

Prof. Antonio Krüger: KI-gesteuerte Hacker-Attacken halte ich für eine Gefahr, vor der man sich schützen muss. Im Endeffekt ist es natürlich etwas, womit wir auch jetzt schon leben, und zwar schon im großen Maßstab. Mit aktuellen KI-Systemen lassen sich diese Attacken aber noch ein bisschen cleverer durchführen. Hilflos ausgeliefert sind wir dem aber nicht. Wir müssen die Schutzmaßnahmen unseres Systems hochfahren – nicht nur gegen KI-Attacken, sondern auch gegen menschliche Attacken. Das machen wir sowieso schon, außerdem können wir die gleichen Techniken in beide Richtungen einsetzen.

So wird am Ende nicht eine Seite komplett die Überhand gewinnen. Einerseits ist das eine schlechte Nachricht, weil man konstant Druck ausgesetzt ist. Andererseits ist es aber auch eine gute, weil die schlechte Seite nicht die Überhand gewinnen wird. Wenn man von der Auslöschung der Menschheit ausgeht, sagt man, es kippt auf eine Seite – das kann ich aber ehrlich gesagt nicht erkennen. Ich bin relativ zuversichtlich, dass man in diesem Bereich auch die Probleme managen kann, die von sehr intelligenten KI-Systemen ausgehen.

ComputerBase: Wir haben auf ComputerBase eine unserer Sonntagsfragen zum Thema KI durchgeführt und dort hat die Mehrheit unserer Mitglieder angegeben, sich am meisten vor Desinformation und Deep Fakes zu sorgen. Wie bewerten Sie diese Risiken?

Prof. Antonio Krüger: Man muss ein wenig unterscheiden. Ehrlicherweise sind wir es seit Photoshop gewöhnt, über die Echtheit von Bildern zu diskutieren. Das erleben wir auch aktuell im Ukraine-Krieg. Im Consumer-Bereich, in dem es etwa um Werbung geht, sind wir es zudem ohnehin zu einem gewissen Grad gewöhnt, nicht alles zu glauben. Wenn Sie aber sowieso an etwas blind glauben wollen, spielt es am Ende keine große Rolle, ob Bilder von einer KI generiert oder anderweitig erstellt worden sind. Was generative KI erleichtert und beschleunigt, ist allerdings das Zusammenstellen einer kompletten Bilder- und Textblase, die ohne technische Hilfsmittel schwer zu enttarnen sein wird.

Was zudem erschwert wird, ist das Überprüfen von Informationen. Als Journalist hat man derzeit eine Chance, falsche Informationen irgendwann zu enttarnen – etwa, weil es über eine vermeintliche Person keine Informationen gibt. Mit den neuen Tools lassen sich aber leicht Fake-Wikipedia-Seiten, Fake-Webseiten und Fake-Kommentare erstellen. So etwas macht die Recherche nochmals schwieriger, was sicherlich dazu führen wird, dass Menschen noch mehr Vertrauen in die Korrektheit von Informationen verlieren. Vernünftig begegnen kann man dem eigentlich nur mit einem Herkunftsnachweis, zum Beispiel mit Wasserzeichen. Wir brauchen an dieser Stelle sichere Methoden, die Herkunftsnachweise garantieren. Die Technologie dafür gibt es. Ich gehe davon aus, dass diese auch eingeführt wird. Vermutlich wird die Industrie sogar schneller sein als die Regulierung.

ComputerBase: Muss man sich das Wasserzeichen bei den Bildern als Eintrag in den Metadaten vorstellen, der anzeigt, dass dieses Bild von Dall-E oder Midjourney generiert wurde?

Prof. Antonio Krüger: Ja, oder direkt in den Daten selber. Von Dall-E bis zu weiteren Angaben wie dem Bildsensor und von welcher Kamera welches Pixel kommt. Das könnte man alles zum Beispiel mit Blockchain-Technologie oder einem anderen Verfahren absichern, damit auch garantiert ist, dass keiner manipulieren kann. Nutzer werden da selbstverständlich nicht immer nachschauen, aber über Browser-Plugins könnte zum Beispiel jedes Bild mit Herkunftsnachweis einen grünen Haken erhalten.

ComputerBase: Dafür müssten Anbieter kooperieren. Angenommen, ich bin ein bösartiger Akteur, der Desinformation betreiben möchte, und ich lasse ein Stable-Diffusion-Modell direkt bei mir auf dem PC laufen. Ich habe selbstverständlich kein Interesse, die Herkunft nachzuweisen. Was ist mit solchen Bildern?

Prof. Antonio Krüger: Sie bekommen keinen grünen Haken, was ein Nachteil ist, zumindest wenn es die Leute interessiert. Sicherlich wird es auch Leute geben, die dem Verfahren nicht trauen, die also glauben, man wolle ihnen was vorgaukeln. Die sagen, die Inhalte mit dem grünen Haken – und damit die aus der sicheren Quelle –, die wären die wahren Fake News. Da ist es wie mit anderen Sicherheitsmechanismen, man muss schon ein gewisses Vertrauen mitbringen. Die Informatik und Mathematik geben es her. Inwieweit es aber bei den Menschen ankommt, ist eher ein Auftrag für die Medienbildung.

ComputerBase: Wie steht es um Detection-Programme, die KI-Inhalte erkennen sollen? Die Erkennungsraten sind bislang nicht so vielversprechend.

Prof. Antonio Krüger: Ganz plumpe Fälschungen lassen sich so auf jeden Fall erkennen, die letzte State-of-the-Art-Fälschung sicherlich nicht. Deswegen kann man sich nicht alleine auf so etwas verlassen, diese Verfahren können als erster grober Filter verwendet werden. Ich glaube, man braucht wirklich harte, beweisbare Kriterien, um zu prüfen, ob ein Bild nicht oder nur moderat manipuliert wurde. So ein bisschen wie der hoffentlich sichere Herkunftsnachweis bei Bio-Produkten.