News Gegen Deepfakes und Desinformation: Wasserzeichen für KI-Inhalte von Google und OpenAI

Ich habe die Befürchtung, dass je mehr Mechanismen zum Schutz eingebaut werden, desto schwieriger wird es den Müll rauszufiltern.

Egal was man in der Digitalen Welt veröffentlicht. ALLES kann gefälscht werden. Die Frage ist niemals "wie", oder "ob", sondern einfach nur "wann".

Das wird noch richtig übel.
 
  • Gefällt mir
Reaktionen: muh0rsen, Bert, ergibt Sinn und 30 andere
Wozu?
 
Direkt einen neuen Markt geschaffen:
KI um KI Wasserzeichen zu entfernen.

...machen die doch nur um Ahnungslose zu besänftigen...
 
  • Gefällt mir
Reaktionen: [ChAoZ], M1812M, lex30 und 33 andere
t3chn0 schrieb:
Ich habe die Befürchtung, dass je mehr Mechanismen zum Schutz eingebaut werden, desto schwieriger wird es den Müll rauszufiltern.

Egal was man in der Digitalen Welt veröffentlicht. ALLES kann gefälscht werden. Die Frage ist niemals "wie", oder "ob", sondern einfach nur "wann".

Das wird noch richtig übel.

Genau darum geht es doch: Fälschungen sollen (und können) damit nicht verhindert werden. Es kann aber zu einer einfacheren Methode zur Erkennung solcher dienen.
 
  • Gefällt mir
Reaktionen: Weyoun und autopilot
MalWiederIch schrieb:
Ich würde sagen damit man im kommenden US Wahlkampf vielleicht ne Chance hat irgendwie gegen die ganzen Fakes von Biden, Trump und co vorzugehen.
Gibt leider genügend Menschen auf beiden Seiten die einfach null Medienkompetenz haben und alles glauben was sie sehen und erst recht dann wenn sie es von Freunden und Verwandten zugesendet bekommen.
 
  • Gefällt mir
Reaktionen: Smartbomb, muh0rsen, lordtofu und 2 andere
Andy schrieb:
[...] Die EU ist auf rechtlicher Ebene weiter, beim AI Act hat sich das EU-Parlament bereits auf einen Entwurf verständigt. [...]
Das markierte "EU" (oder eine andere passende Benennung) fehlt im Fließtext @Andy ;]
 
  • Gefällt mir
Reaktionen: Andy
Wenn man bedenkt wie leicht sich auch ohne KI-Generierte Bilder die Massen (fehl)leiten lassen, ist das leider ein Kampf gegen Windmühlen.
 
  • Gefällt mir
Reaktionen: lex30, muh0rsen, Land_Kind und 11 andere
Insbesondere im politischen Bereich gelten Deepfakes als besonders große Gefahr, um etwa Wahlen und politische Prozesse durch gefälschte Inhalte zu manipulieren.

Bei solchen Aussagen muss ich ja immer schmunzeln, wenn man sich den KI-Losen Wahlkampf der Vergangenheit so anschaut :freak:
 
  • Gefällt mir
Reaktionen: lex30 und Mickey Cohen
"Das muss echt sein, schließlich ist da kein Wasserzeichen".

Ich weiß ja nicht, ob diese Regelung förderlich ist...
 
  • Gefällt mir
Reaktionen: Land_Kind, nyster und 7H0M45
IMG_1336.jpeg
 
  • Gefällt mir
Reaktionen: daivdon
Selbstverpflichtung.
Das liebste Wort der Industrie, um ja nichts machen zu müssen.
 
  • Gefällt mir
Reaktionen: Smartbomb, henpara, Bulletchief und 16 andere
Wird nicht andersrum ein Schuh daraus?
Echte Inhalte müssen erkennbar sein. Es muss eine Chain of Trust erstellt werden, wie bei Zertifikaten für Internetkommunikation.

Wird ein Bild über eine Kamera erzeugt, wird ein Hash erzeugt, der nur über dieses Kameramodul erzeugt werden konnte. Wird das Bild verfremdet / bearbeitet, kann dieser Hash der eine Kamera erzeugt hätte, nicht erneut erzeugt werden. Es kann nur ein neuer Hash generiert werden, welcher die letzte Bearbeitung einwandfrei identifiziert.

Sind also Fake-News / Deepfakes / etc. im Umlauf, kann die Echtheit überprüft werden. Ist hingegen kein Original aufzutreiben, muss davon ausgegangen werden, dass das Bild generiert wurde.

So könnte zumindest die Echtheit bestätigt werden. Nicht aber, ob ein Inhalt eine Kopie ist oder ob es eine Abschrift aus ChatGPT ist.
 
  • Gefällt mir
Reaktionen: Vorgartenzwerg, Smartbomb, piccolo85 und 8 andere
Eigentlich falscher Ansatz. Jede Kamera sollte ein Wasserzeichen in das Bild setzten das nicht dupliziert werden kann. Jedwede Nachbearbeitung sollte das Wasserzeichen ungültig machen. Somit ist jedes Bild oder Film ohne gültiges Wasserzeichen als verdächtig einzustufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Land_Kind, Qyxes, DrSky und 2 andere
Augen1337 schrieb:
Echte Inhalte müssen erkennbar sein. Es muss eine Chain of Trust erstellt werden, wie bei Zertifikaten für Internetkommunikation.
Jau, das läuft dann wie HDCP und ähnlicher Dreck darauf raus, dass nur noch verdongelte proprietäre Systeme zugelassen bzw richtig verwendbar sind ;)

Auch wenn die Idee an sich natürlich nicht verkehrt ist sehe ich da zu viele viel schlimmere Nebenwirkungen in der praktischen Umsetzung...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KingZero, nyster und KlaasKersting
Ein zahnloser Papiertiger und weniger eine Lösung.
 
  • Gefällt mir
Reaktionen: MalWiederIch, Qyxes, FLCL und 5 andere
Unter Deepfake verstehe ich z.B. das schwer zu erkennende Ersetzen von Gesichtern auf Fotos und Videos.

Das funktioniert aber schon seit einigen Jahren sehr überzeugend, und das lange vor dem KI-Hype.

Wenn jetzt jemand mühsam manuell aber überzeugend ein Video manipuliert und veröffentlicht, wird dieses künftig als "echt" markiert, weil ja keine KI dahinter saß? Geil. 🤣
 
  • Gefällt mir
Reaktionen: MalWiederIch, amorosa, Qyxes und 4 andere
Die Wasserzeichen von Code-Segmenten, die die KI erzeugt, kann man entfernen bevor man die Segmente in den Source-Control eincheckt.
Durch solche Code-Segmente sollen sich ca. 50% der Entwickler einsparen lassen.
 
Wie so etwas funktionieren kann, erklärte Prof. Antonio Krüger, Leiter vom Deutschen Forschungszentrum für Künstliche Intelligenz, im Interview mit ComputerBase. Über Einträge in den Metadaten lasse sich demnach festhalten, ob und inwieweit Bilder mit einem der KI-Modelle bearbeitet worden sind. Nicht-manipulierte Bilder könnten dann markiert und als vertrauenswürdig klassifiziert werden.
Was soll denn der Käse bitte bringen? Da mache ich einfach ein Foto des generierten Bildes und das war es. Selbiges bei Video. Da werden heute schon sehr erfolgreich Wasserzeichen entfernt oder sonstige Methoden um z.B. Content-Filter auf Youtube zu umgehen.

Vor allem da wird sich im Weißen Haus getroffen? Das sieht mir mal nach extremer Beschwichtigungstaktik aus, eventuell - wirklich effiziente - Methoden zuvor zu kommen und sie mit billigen Theorie-Krempel zu umgehen.

Marflowah schrieb:
Wenn jetzt jemand mühsam manuell aber überzeugend ein Video manipuliert und veröffentlicht, wird dieses künftig als "echt" markiert, weil ja keine KI dahinter saß? Geil. 🤣
Genau die Befürchtung habe ich auch.... das wird ja noch richtig lustig werden.

"Früher war alles besser" - Ja war es in der Tat, ich würde freiwillig mit Jemanden meines Standes mit wem aus den 1960er tauschen. Das was heute abgeht lohnt den Luxus einfach nicht wert den wir dafür aktuell haben. Einfach als Mönch leben ist auch nicht. Was man einmal erlebt, wird nie vergessen. In einer Welt wo etwas noch gar nicht existiert aufzuwachsen ist daher schon eher das Maß.
 
  • Gefällt mir
Reaktionen: nyster
2030: IHK führt anerkannte Berufsausbildung ein "KI Facility Management"
 
  • Gefällt mir
Reaktionen: lex30 und FLCL
Zurück
Oben