Was ist ein Deepfake?

Meta.Morph

Lieutenant
Registriert
März 2022
Beiträge
548
Aus aktuellem Anlass, werfe ich diese Frage einfach mal in den Raum.
Nach meinem Verständnis ist ein Deepfake ein Medium, welches einer realen Person nachempfunden wurde.
Beispiele: Werbung/Scam oder um den Ruf einer Person zu schädigen.
Hier dürfe die Angelegenheit Recht klar sein. Man Täuscht vor, diese und jene Person zu sein.
Ich würde daher sagen, ein Deepfake ist immer mit einem Täuschungsversuch verbunden.

Denn:
Alleine das Abbild oder der Ton, kann doch niemals zu einer rechtlichen Konsequenz führen?
Ansonsten hätten es Doppelgänger von Personen, die in der Öffentlichkeit stehen, verdammt schwer?

Übertragen auf KI heißt das: ist ein Modell gut und sind die Bilddaten gut, kann ein Bilder generieren, das sehr nah an dem Dran ist, was gefordert wurde. Aber das generierte Bild wird sich immer von der realen Person unterscheiden - wie ein Doppelgänger.

Soll heißen: würde man mich mit Grok in eine Badehose stecken, wäre das Gesicht vielleicht ähnlich aber ich könnte mich vielleicht über einen Sixpack erfreuen, den ich leider nicht habe... (einfach weil es die Silhouette hergeben würde).
 
Ein Deepfake ist ein Deepfake vollkommen unabhängig der Motivation. Wenn du dich durch eine KI etwas aufhübscht bleibt das letztlich ein Deepfake. Es geht gar nicht nur um Personen die in der Öffentlichkeit stehen. Es ist einfach ein verändertes Medium das nicht mehr die Realität abbildet - aber genau diesen Anschein erweckt.
 
  • Gefällt mir
Reaktionen: Otsy, DJMadMax, Tommy64 und 3 andere
Der Doppelgänger-Vergleich hinkt ziemlich mMn. Ein Doppelgänger ist kein Eineiiger-Zwilling einer Person. Du wirst einen Doppelgänger biometrisch immer klar vom Original unterscheiden können. Ein KI-generierte Deepfake einer bestimmten Person wird man aber immer biometrisch dieser Person genau zuordnen können, wenn es nicht wirklich schlecht gemacht ist.
 
Banned schrieb:
Ein KI-generierte Deepfake einer bestimmten Person wird man aber immer biometrisch dieser Person genau zuordnen können, wenn es nicht wirklich schlecht gemacht ist.
Das möchte ich aber auch mal sehen. Das würde bedeuten, das biometrische Scanner, die Bilddaten nutzen, sich täuschen lassen?

Gibt es Beispiele? Ich bin nicht auf X...
 
Das Biometrische Scanner (vor allem venen-, iris-, fingerrabdruck- und Gesichtsscanner) sich recht trivial umgehen lassen ist seit 10-15 Jahren bekannt.

Dein Tippverhalten (wie lange du auf tasten drueckst, wie lange du zwischen tasten brauchst... etc) und wie du doch bewogst (handy aus der tasche ziehst, wie du auftrittst, wie du dich hinsetztz...) so Dinge zeichnet dein Smartphone kontinuierlich auf und es wird zur identifikation genutzt / kann dazu genutzt werden. Und mit sehr wenig Daten ist das schon recht eindeuttig
Meta.Morph schrieb:
Gibt es Beispiele? Ich bin nicht auf X...
fang am anderen ende der Nahrungskette an
https://arxiv.org/pdf/2403.17881
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Banned und Meta.Morph
Die rechtliche Lage ist ganz einfach: Solange du das bei dir zu Hause machst und keinem das Bild zeigst, darfst du das (gibt Ausnahmen zum Beispiel bei Kinderpornographie, wo allein der Besitz zur Strafbarkeit reicht). Sobald du das wo auch immer veröffentlichst, und man findet heraus, das du das warst, folgen rechtliche Konsequenzen.

Zum einen das Kunsturhebergesetz, das das unbefugte Verbreiten eines Bildnisses einer Person unter Strafe stellt. Neben dem Recht am eigenen Bild sind auch Datenschutzrechte betroffen. Hinzu kommt das allgemeine Persönlichkeitsrecht, gerade bei einer ehrverletzenden Darstellung kann auch Beleidigung oder Verleumdung im Raum stehen. Je nach Ausgangsfoto auch Urheberrechtsverstöße.
 
  • Gefällt mir
Reaktionen: Porky Pig und madmax2010
madmax2010 schrieb:
Das Biometrische Scanner (vor allem venen-, iris-, fingerrabdruck- und Gesichtsscanner) sich recht trivial umgehen lassen ist seit 10-15 Jahren bekannt
Ist das so? Wo steht das?
FaceID von Apple lässt sich z.B. nicht austricksen, da Tiefeninformationen vom Gesicht vorhanden sind.
 
Zuletzt bearbeitet:
madmax2010 schrieb:
Dein Tippverhalten (wie lange du auf tasten drueckst, wie lange du zwischen tasten brauchst... etc)
Gruselig...
Ja, ich durfte mich gerade im Jahr 2026 willkommen heißen...

yxcvb schrieb:
Sobald du das wo auch immer veröffentlichst, und man findet heraus, das du das warst, folgen rechtliche Konsequenzen.
Ich hab von mir Lokal ein Fake erstellt. Ja, es ist mir verdammt ähnlich. Wie ein Zwilling. Da ich mich aber jeden Tag am Spiegel sehe, erkenne ich die Unterschiede. Ist das schon ein Deepfake?

Das erstellen war vergleichsweise richtig einfach.
Da darf man sich auf haufenweise Klagen freuen. Weil das, können auch 15 Jährige tun...

---

Frage an die Profis:
Wären Uploadfilter eine Möglichkeit, um nicht immer nur der Technik hinterher zu rennen?
 
Die Frage die ich mir stelle, warum macht man AI-Bilder von sich? Und. Was soll der Sinn deines Threads sein?
 
Meta.Morph schrieb:
Ist das schon ein Deepfake?
Ja, weil Deepfake ziemlich simpel definiert ist. Würdest du es veröffentlichen, müsstest du quasi dazu schreiben, dass das Bild mit KI verändert wurde.
 
  • Gefällt mir
Reaktionen: madmax2010
@Alpirsbacher80 ich denke bei Deepfacke kann man schon von 2D ausgehen. FaceID Gabs zu dem genannten zeitraum noch nicht, aber auch da gibt es angriffe:
https://www.reuters.com/article/tec...er-shows-iphone-x-face-id-hack-idUSKBN1DE22S/
https://www.theverge.com/2017/11/13/16642690/bkav-iphone-x-faceid-mask
https://threatpost.com/researchers-bypass-apple-faceid-using-biometrics-achilles-heel/147109/
https://9to5mac.com/2019/08/08/face-id-bypass-glasses-tape/

ja, die angriffe kommen immer später als die neue Technologiegeneration. Aber all die oberflächlichen Marker sind angreifbar. Das tut ein paar jahre, dann findet man einen Weg sie anzugreifen.

Aber lobend: Was apple da mit coded light baut, ist technisch mit die beste Gesichtserkennung. Die kann man auch noch "strenger" implementieren, aber dann wird sie fuer Kunden weniger angenehm nutzbar.

Bei aktuellen erkennern geht die Forschung gerade Teils auch den Weg, 3D Reproduktion gleich ganz bleiben zu lassen, und die Scanner mit Adveserial Examples anzugreifen. Man muss nicht unbedingt ein Gesicht zeigen, um im Modell eine Kollision zu erzeugen. irgendwas DCGAN basiertes war da, finde es gerade nicht
https://arxiv.org/pdf/2509.20024
Das hier zeigt aber schon worauf ich hinaus will.


Meta.Morph schrieb:
Wären Uploadfilter eine Möglichkeit, um nicht immer nur der Technik hinterher zu rennen?
ich sehe keinen technischen weg Uploadfilter Grundrechtskonform umzusetzen.
Wer entscheidet was gefiltert wird?
Welche Erkennungsmodelle sollen zum Filtern genutzt werden? Wie viele False Positives fallen dabei raus?
Auf welchen Daten werden die Modelle trainiert?
Italien versucht diese woche mal wieder was..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bart0rn
Meta.Morph schrieb:
Instagram aufhübschen.
Wenn das dein Ernst ist,.... arme Welt (in Erweiterung von "armes Deutschland").

Ich kaufe sogar T-Shirts/Hoodies mit Städte/Regionsnamen nur direkt vor Ort. :mussweg:
 
  • Gefällt mir
Reaktionen: Alpirsbacher80
madmax2010 schrieb:
ich sehe keinen technischen weg Uploadfilter Grundrechtskonform umzusetzen.
Und ich sehe nicht, warum man Millionen 15 Jähriger (als Synonym) "dran kriegen" sollte.
Die Hürden sind dann wohl denkbar einfach... wie als würde man etwas in Paint malen...

Jener Uploadfilter könnte Ersteinmal nur prüfen, ob da Menschen sind (egal ab KI oder echt).

Dann dürfen nur noch verifizierte Accouts Medien ins Internet kippen. So in etwa muss das doch gehn?
 
Meta.Morph schrieb:
Jener Uploadfilter könnte Ersteinmal nur prüfen, ob da Menschen sind (egal ab KI oder echt).
im zweifelsfall bekommst du jeden classiefier dazu alles als alles andere zu erkennen. Mit extrem kleinen Markern
recht alt, aber ein sehr simples anschauliches beispiel:
https://spectrum.ieee.org/three-small-stickers-on-road-can-steer-tesla-autopilot-into-oncoming-lane
2-3 kleine weisse punkte auf der Straße, und der Tesla erkennt sie als Zeichen, dass er auf die andere spur fahren muss. Die liegen recht sicher außerhalb der gelabelten Trainingsdatenverteilung und werden als Schild klassifiziert.
Genau so kann man fuer menschen nicht sichtbare marker in bilder hinterlassen, die hunde als katzen und Katzen als menschen klassifiziert werden lassen.
Google, Meta, gefuehtl jede 2. Uni, das BSI und ein haufen Labs forschen in dem bereich und "gut ist das alles nicht" duerfte schon der Konsens sein
 
Meta.Morph schrieb:
Ich war noch nie in New York! 🙃
Instagram aufhübschen.
Und warum macht man das? Gleich vorweg, ist nicht böse gemeint. Was bringt es dir, vorzugaukeln, du wärst in NY gewesen ohne dort zu sein. Ist das fehlendes Selbstbewusstsein oder Neid?

Ich hoffe es kommt für alles einen Klarnamenverpflichtung. In allen Bereichen. Deepfakes sind eine Seuche und können Leben zerstören. KI muss deutlich mehr reglementiert werden und kontrolliert werden.
 
  • Gefällt mir
Reaktionen: madmax2010 und 00Julius
Zurück
Oben