News AI-Fake-Porn von Taylor Swift: US-Administration will verschärfte Regeln gegen Deepfakes

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Blende Up schrieb:
wenn die Aufnahmegeräte, also die Videokammeras ihre erzeugten Inhalte gleich bei der Aufnahme signieren würden, dann könnte man zumindest schon mal sicherstellen, dass das Rohmaterial kein DeepFake ist. Würde der Inhalt verändert, passt die Signierung nicht mehr.
Gibt es schon, wurde geknackt
https://www.heise.de/news/Russen-auf-dem-Mond-Canons-Bildverifikationssystem-geknackt-1145115.html

https://www.heise.de/news/Signierte-Nikon-Bilder-faelschbar-1234220.html
 
Marcel55 schrieb:
Das ist ja alles nix neues, ich verstehe da jetzt irgendwie den Aufschrei nicht.

Diese KI-Generierten Bilder haben mit der Realität ja auch ziemlich wenig zu tun, also was soll's. Als Person des öffentlichen Lebens muss man da einfach drüber stehen, man muss es nicht gut finden aber Menschen sind nunmal so, und in gewisser Weise kann man das ja schon fast als Kompliment ansehen.

Aus meiner Sicht viel Lärm um nichts, diese moderne Art und Weise sich über jeden belanglosen Mist echauffieren zu müssen geht mir gehörig gegen den Strich.
Bearbeitete Bilder/Videos gibt es schon seit Ewigkeiten, dass der kleine Otto jetzt auch ein Nacktbild von Tailor Swift erstellen kann ist doch schön … aber was hier wieder alle für einen Aufriss machen, als ob alle außer ihnen (!!!) kein Hirn hätten :p
 
  • Gefällt mir
Reaktionen: xxlhellknight
RizzoSpacerat schrieb:
Deepfakes werden seit 2 Jahren genutzt, auch um Hetzkampangen und Falschinformationen zu verbreiten, es juckt gefühlt keine Sau.
Man kann es kaum glauben, aber früher konnte man auch nicht jeden Mist glauben, den jemand gefaselt hat. Schon seit Jahrzehnten kann man nicht sicher sein, dass ein Bild nicht verändert wurde.
Warum hat man damals eigentlich nicht das Reden untersagt?
 
  • Gefällt mir
Reaktionen: Schatten123 und xxlhellknight
XCPTNL schrieb:
Meine Glaskugel sagt: AI-Fake-Porn wird schon recht bald eines der eher geringeren Probleme sein, die AI generierte Inhalte und per AI erstellte andere Fakes für alle Arten von Cyberkriminalität etc. verursachen werden.
Ach die haben vorher auch schon jede Möglichkeit genutzt.
Ob der gefälschte Ausweisscan nun aus einer PSD stammt oder aus einer „KI“ …
 
  • Gefällt mir
Reaktionen: Schatten123
Zig Handyprogramme veraendern doch schon seit Jahren Fotos, zu Leuten mit Eselsohren, Katzekoepfen... usw.
...warum mein andere Beitrag immer noch nicht freigegeben wurde ist mir allerdings schleierhaft.
 
  • Gefällt mir
Reaktionen: Schatten123 und MalWiederIch
LuckyMagnum schrieb:
Aber wenn ich mir vorstelle, hunderte Millionen oder sogar Billionen damit zu machen, in der Öffentlichkeit zu sein, würde mich das wohl kaum aufregen.

Vielleicht ärgert solche Leute auch einfach nur, dass sie an diesen Fakes eben nichts verdienen.
 
  • Gefällt mir
Reaktionen: xxlhellknight
ownagi schrieb:
Da fehlt doch noch der Vorwurf, dass es von "Fremdmächten" gesteuert wird.

Oder das KI-Bots "fremdmächtegesteuert" unsere Meinung beeinflussen wollen. "Erkannt" wird diese "KI" daran, dass Kommentare abgesondert werden, die unzufrieden mit der Regierungsarbeit sind. :)

https://www.zdf.de/nachrichten/poli...waertiges-amt-russland-ukraine-krieg-100.html
 
user_zero schrieb:
Mir gefällt Deine Aussage überhaupt nicht. Stell Dir vor, Du kommst ins Büro und alle schauen Dich komisch an. Nach einigem hin- und her stellst Du fest, dass Du selbst Opfer von nem "Porno-Spaß" geworden bist und alle Dich "nackt gesehen" haben. Du siehst die Bilder und stellst fest: Sieht verdächtig echt aus. Na, auf einmal ist es nicht mehr so lustig, oder?

Und jetzt stell Dir vor, Du bist kein gefestigter Erwachsner, der das einordnen kann. Sondern ein Teenager, dem das in der Schule passiert. Das kann verheerende Auswirkungen auf einen jungen Menschen haben.

Übrigens finde ich es auch nicht in Ordnung, wenn jemand sagt: "Die Taylor steckt das schon weg, sie ist ja Promi". Nö. Promis haben auch Persönlichkeitsrechte.

Eine Idee, wie man das regulieren könnte, habe ich natürlich auch nicht. Aber es geht ja damit los, dass es von einer Mehrheit akzeptiert wird...
o.k. ich geb Dir ja Recht !
Nur im Büro schauen mich eh immer alle "komisch" an und nackt haben die mich auch alle schon gesehen (Weihnachtsfeier zur späten Stunde).
Die Porno Branche war schon des Öfteren das Zünglein an der Wage (bzgl. Standard).
Wir sind zwar nicht ganz so verklemmt wie die Amis, aber auch die wissen, ohne Sex = keine Kinder.
 
  • Gefällt mir
Reaktionen: floTTes
u-blog schrieb:
So scheiße Porno-Deepfakes für die Betroffenen sind, die weit größere Gefahr sehe ich bei Deepfakes in der Politik.

Ich habe schon ein paar Videos von "Biden" (100% Fake) gesehen, die erschreckend überzeugend waren. Wenn sowas auf Tiktok rumgeht, kann das schnell zehntausende Menschen überzeugen und Wahlen nachhaltig manipulieren.
Das wird immer gern behauptet, ich halte eine Beeinflussung durch tiktok/fb/telegram für überschaubar…stellt euch selbst die Frage, durch welchen Beitrag/welche Beiträge ihr euer Wahlverhalten geändert habt. Gerade besagte Medien bedienen doch nur die eigene bubble.
 
  • Gefällt mir
Reaktionen: Schatten123 und xxlhellknight
SKu schrieb:
Hier ist halt ein Promi Opfer von Deepfake geworden und das erzeugt natürlich mediales Interesse. Wäre das eine 0815-Frau gewesen, wäre das wahrscheinlich irgendwo einfach im Netz im Nirgendwo versunken und hätte das Leben trotzdem massiv beeinträchtigt.
Sofern das nicht für eine Teenager WhatsApp Gruppe generiert wurde und dort verteilt wird, sondern „im Netz“ landet, frage ich mich ernsthaft, wessen Leben als erwachsene Normalperson das massiv beeinträchtigen soll? Mal angenommen, es wird ein deepporn Vid von dir erstellt und jemand lädt es bei x…hams… hoch. Wer in deinem Bekanntenkreis wird das denn sehen/finden/verteilen? Die Wahrscheinlickeit scheint mir doch sehr sehr gering…
Und selbst angenommen, aus Rache verschickt deine Ex dies anonym an deine info-email deines Arbeitgebers, wer klickt denn sowas an und folgt dem link auf ne pornseite 🤔 - selbst das vorausgesetzt, wer glaubt das dann und verteilt all dies an seine Arbeitskolleginnen?
 
u-blog schrieb:
So scheiße Porno-Deepfakes für die Betroffenen sind, die weit größere Gefahr sehe ich bei Deepfakes in der Politik.

Ich habe schon ein paar Videos von "Biden" (100% Fake) gesehen, die erschreckend überzeugend waren. Wenn sowas auf Tiktok rumgeht, kann das schnell zehntausende Menschen überzeugen und Wahlen nachhaltig manipulieren.

Das wird in jedem Bereich ein Problem werden und wer es am schamlosesten einsetzt, wird der "Gewinner" sein. Bei uns geht es ja vor allem den Grünen so, aber auch der SPD. Komischerweise aber kaum auf der anderen politischen Seite. Warum nur?

Auch dürfen wir uns schon darauf "freuen", dass dann mal alle 12-jährigen gefaked nackt durch die Klassen gehen usw. Hier wird man die Nutzung alsbald einfangen müssen, falls man es überhaupt noch schafft.

Aber ich kann es schon hören, die "Das wird man ja wohl noch.." - "War doch nur ein Spaß.." - "Meinungsfreiheit" und "Was darf Satire." Fraktion.
 
  • Gefällt mir
Reaktionen: floTTes
@Stimpanse
Ich glaube du hast keine Ahnung, durch was die Leute teils ihre Wahlentscheidungen treffen.

»Der ist mir symphatischer.« habe ich mal gehört.
 
Stimpanse schrieb:
Das wird immer gern behauptet, ich halte eine Beeinflussung durch tiktok/fb/telegram für überschaubar

Die direkte Beeinflussung mag überschaubar sein, die indirekte durch Freunde, Familie und Kollegen bzw. soziale Medien selbst aber nicht.

Beispiel:
In den Medien kommt ein vermeintlich harmloses Thema zur Sprache, in den sozialen Netzwerken wird es ausgeschlachtet und maßlos übertrieben dargestellt. Wenn du selbst nicht die entsprechende News dazu kennst, dir aber jemand davon berichtet, nimmst du die übertrieben dargestellten Informationen auf, wenn auch nur unterbewusst. Und unser Hirn hat leider die schlechte Angewohnheit Informationen zu speichern, für gewöhnlich aber nicht deren Herkunft, d.h. nach zwei Wochen hast du Erinnerungen an Inhalte eines TikTok-Videos, weißt aber nicht mehr, dass es ein solches war.

Einfache Lektüre:
https://en.wikipedia.org/wiki/Source_amnesia
"Source amnesia is not a rare phenomenon – everybody experiences it on a near daily basis as, for much of our knowledge, it is important to remember the knowledge itself, rather than its source."

Einfach mal darauf achten wie viele Geschichten man erzählt bekommt und die Menschen nicht mehr wissen woher die Informationen stammen, wenn man nachfragt.
Oder noch besser: Man bekommt Geschichten erzählt, die man selbst erlebt und der Person erzählt hat, oder die über Ecken weitererzählt wurden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes
Das ist bestimmt diese """Meinungsfreiheit""" auf X, von der Musk immer spricht.

Deepfakes gibt es schon seit vielen Jahren. Dass es erst einen der weltweit bekanntesten Promis treffen muss, um auf das Problem aufmerksam zu machen ist weder neu noch überraschend. Während bisher die Deepfakes eher in bestimmten Nischen und Milieus zirkulierten, ist das hier tatsächlich deutlich sichtbarer – vor allem für die breite Masse, von denen viele zuvor noch nicht mit diesem "Phänomen" in Kontakt gekommen sind. Ich denke damit ist eine nicht verkennbare Relevanz erreicht.
 
  • Gefällt mir
Reaktionen: floTTes
Blende Up schrieb:
Naj, nur weil ein Hesrteller eine offensichtlich unzureichende Signierung benutzt hat bedeutet ja nicht, dass der Weg an sich generell unsicher wäre.
Richtig... Wenn man aber nur noch Bildern mit einer Signatur glauben kann, dann wird alles daran gesetzt sie zu fälschen.
Dann hat man signierte gefakte Bilder.
 
H3rby schrieb:
Hier wird man die Nutzung alsbald einfangen müssen, falls man es überhaupt noch schafft.
Erinnert mich an Jurassic Park:

"Your scientist were so preoccupied with whether or not they could, they didn't stop to think if they should."

Wohin Deepfakes im schlimmsten Fall führen:

kevin james deepfake.jpeg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mäxle87, floTTes und H3rby
Photoshop gabs auch schon vor 20 Jahren mit "realistischer Qualität", was genau hat sich jetzt geändert?
 
  • Gefällt mir
Reaktionen: iron_monkey und Schatten123
@aLanaMiau: Für PS braucht man Skill und kann keine Fake-Bilder wie am Fließband produzieren. Gleiches gilt für qualitativ hochwertige gefakte Videos, Audioaufnahmen und erfundene Texte.

Ein Mensch mit einer Pistole ist harmlos, hat jeder unendlich viele Bazookas und das ohne Hintergrundüberprüfungen, dann wirds witzig.
 
  • Gefällt mir
Reaktionen: ThreepQuest64, Rassnahr und floTTes
Arcturus128 schrieb:
@Stimpanse
Ich glaube du hast keine Ahnung, durch was die Leute teils ihre Wahlentscheidungen treffen.

»Der ist mir symphatischer.« habe ich mal gehört.
Behaupte auch gar nicht, dass jeder Wahlprogramme liest und nur rational entscheidet, ganz im Gegenteil. Ich behaupte nur, dass durch paar deepfakes Videos auf tiktok, keiner "von links nach rechts" und umgekehrt wählt.


ownagi schrieb:
Die direkte Beeinflussung mag überschaubar sein, die indirekte durch Freunde, Familie und Kollegen bzw. soziale Medien selbst aber nicht.
Mit Sicherheit - aber wie oben geschrieben, halte ich eine Wahlbeeinflussung durch social media/paar deepfake Vids für nicht relevant. Ich kann mir nicht vorstellen (kA, ob es dazu belastbare Auswertungen gibt), dass Biden-Wähler durch "russische Bots/deepfake Vids" auf social media danach Trump wählen...
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben