News AI-Fake-Porn von Taylor Swift: US-Administration will verschärfte Regeln gegen Deepfakes

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Der Kriminalität sind mit Deepfake Tür und Tor geöffnet. Das ist sehr bedenklich...
 
Moin,

wenn die Aufnahmegeräte, also die Videokammeras ihre erzeugten Inhalte gleich bei der Aufnahme signieren würden, dann könnte man zumindest schon mal sicherstellen, dass das Rohmaterial kein DeepFake ist. Würde der Inhalt verändert, passt die Signierung nicht mehr.

Ob man es schaffen kann, z.B. per Blockchain, das dann weitere Stellen das Rohmaterial weiterverarbeiten können, und es dann neu signieren können, wäre vielleicht möglich. Aber das kann ich nicht beurteilen, da fehlt mir einfach das nötige Wissen.

Eine nachträglich Kennzeichnung von Inhalten als AI halte ich aber für ziemlich aussichtlos, da man ungewünschte Inhalte natürlich sofort als AI generiert darstellen würde.

Ich hab mal gesucht, und tatsächlich eine aktuelle Meldung von Winfuture dazu gefunden.
Die Kamerahersteller denken da, zumindest für Photos, schon mal drüber nach.

https://winfuture.de/news,140390.html

und noch n paar
https://fotopro.world/news/sony-kam...er-mit-digitaler-signatur-gegen-faelschungen/
https://www.golem.de/news/no-fake-n...kameras-mit-c2ps-signatur-an-2401-180715.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes
Och da kollidieren so viele Dinge gleichzeitig.
1. Medienkompetenz ist etwas das gelehrt werden muss. Sowohl im Elternhaus als auch in Schule.
2. Gesetze sollten hier mit Bedacht und Voraussicht erstellt werden. Aber auch nicht Freifahrtsschein sein ein "Wahrheitsministerium" zu erzeugen. Insbesondere bei politischen/wirtschaftlichen Zusammenhängen.
3. X ist nur bedingt "schuldig". X braucht für sowas auch aktuell noch länger, da das früher alles Handarbeit von sehr vielen war. Selbstverständlich gehört das durch Automatismen ersetzt. Wären die Werbefirmen nicht teilweise abgesprungen wären, wäre Twitter inzwischen im Plus. Was zuvor durch die Personalkosten undenkbar schien.

Persönlich denke ich das ein Moderationssystem auf Community-Basis eine elegante Möglichkeit wäre Fakes zu entlarven. Fakes lassen sich so entlarven und sollten schnell handelbar sein.

Wahrheitsfindung bei politischen / wirtschaftlichen Problemen wird man aber bei bsp. X nicht einfach per Gesetz oder Moderation sicherstellen können, abgesehen von vielleicht Extremfällen wie in DE Holocaust-Leugnung. Den da greift auch zusätzlich das X eine weltweite Plattform ist und sich Gesetzen aller Länder beugen muss. Verschiedene Länder könnten verschiedene Wahrheiten oder Narrativa von X moderieren lassen.
 
Früher hat man wenigstens fundierte Photoshop Kenntnisse gebraucht um Fakes halbwegs realistisch darstellen zu können. Jetzt kommt die KI um die Ecke und jeder Trottel kann ohne Wissen Fakes erstellen die unter Umständen hohen Schaden anrichten können. Wenn es nach mir geht kann das Zeug gerne verboten werden.
 
R O G E R schrieb:
Das sind halt die Nachteile der schönen neuen KI Welt.
Da muss man fair sein: Diese Nachteile gibt es, seit es die digitale Bildbearbeitung gibt. Es gibt genug Beispiele bereits seit den 00er Jahren, die manipulierte Bilder zeigen und ohne entsprechende Prüfung durch Forensiker fast nicht zu erkennen sind. Und damit sind wir schon bei einem Kernproblem: Fehlende Medienkompetenz. Jedoch nicht nur die, sondern auch teilweise "politischer" Willen Bilder erst mal als Wahr anzunehmen, wenn sie in den eigenen Kontext passen.
nighteeeeey schrieb:
Ich glaube kurzfristig hat generative AI auf jeden Fall das Potenzial sehr viel mehr Schaden anzurichten
Das wird sie auf jeden Fall haben. Vor allem, weil wir aktuell in einer Gesellschaft leben, die nur so nach Bestätigung der eigenen Ansichten sucht und ist dafür erst mal ein Bild da, dann kann man damit perfekt Ressentiments und Co befeuern.
FR3DI schrieb:
Klar, die schuld bei anderen suchen.
Das ist in diesem Fall etwas komplizierter. Nur weil X die Bilder nicht selbst erstellt hat, haben sie die Bilder verbreitet und genau da liegt das Problem.

Man könnte jetzt anbringen, dass der Bote nichts für die Nachricht kann, gleichzeitig ist das aber immer von der Situation abhängig. Es gibt hier viele potenzielle Beispiele, bei der sich der Bote mitschuldig macht und eigentlich nichts dafür kann.

Das Thema ist komplex.
tomgit schrieb:
Warum hat es jetzt einen Vorfall mit Promis gebraucht, damit die US-Politik auf Bundesebene sieben (!) Jahre später mal endlich aktiv werden mag?
Weil eine Taylor Swift so bekannt ist und viele "hörige" Fans hat, so dass sie auch damit die Wahl dieses Jahr in den USA beeinflussen kann.

Gerade solche Stars mit so einem Personenkult um sich, können hier wirklich Einfluss nehmen.
DennisK. schrieb:
Ein wichtiges Thema, dem sich Regierungen rund um den Globus annehmen müssen. Inwiefern hier aber sinnvoll eingegriffen kann in die Bildgenerierung ist jedoch zweifelhaft.
Eigentlich können Sie gar nicht mehr wirklich eingreifen. Mit Stable Diffussion ist es relativ einfach nun eigene KI-Modelle darauf aufbauend zu trainieren und mit genug Trainingsdaten bekommt das jeder hin.

Man muss an der Stelle aktuell noch schreiben: Zum Glück sind es noch "nur" Pornos.
DennisK. schrieb:
Die Katze ist aus dem Sack, ob man sie wieder hineinbekommt?
Nicht wirklich. Bildmanipulation ist seit der digitalen Bearbeitung von Bildern ein Thema, dass quasi seit dem immer wieder angesprochen wird. Jetzt mit KI benötigt man nicht mal mehr wirklich Fähigkeiten dafür.

Das sind Probleme, die sich die Entwickler vorher hätten stellen müssen, denn im Nachgang lässt sich das nur noch sehr schwer einfangen.
u-blog schrieb:
die weit größere Gefahr sehe ich bei Deepfakes in der Politik.
Hat sie auch. Problem ist nur, dass es da die wenigsten bisher interresiert, weil es "Futter" für die eigenen Argumente ist.
kokiman schrieb:
Wir hatten jetzt schon sehr viele AI-Fakes rund um Politiker, das schien weniger skandalös zu sein, als bei Taylor Swift? Irgendwie irre.
Naja, wenn man sich ansieht, wie gewisse Menschen in politischen Lagern ticken und dass die sogar versuchen mit Fälschungen Menschen zu deskreditieren?
Che-Tah schrieb:
Es ist ein gesellschaftliches Problem wie heute mit Medien umgegangen wird.
Ja, das ist es, aber es gibt leider auch keine Patentlösung dafür. Leider.
 
  • Gefällt mir
Reaktionen: DennisK., floTTes, rosenholz und 3 andere
Wie wollen die das verschärfen?

Sie schaffen es seit 25 Jahren nicht einmal den normalen E-Mailverker inkl. Spam/Phishing zu regulieren.

Und abgesehen von der technischen Seite, sollte man das eher als Kunst betrachten.
 
  • Gefällt mir
Reaktionen: Ganjaware
AlphaKaninchen schrieb:
Man sollte lieber Kindern schon in der Schule zeigen wie man so etwas erstellt, muss ja nicht mit Nacktbildern sein. Das Ziel sollte sein das bei Bildern die eher abwegiges darstellen die Echtheit infrage gestellt wird.
Das wird recht schwierig.
Dazu müssten die Kinder erstmal wissen wie etwas ohne Bild KI ausschaut.
Fängt schon bei Selfies an - manche "Schönheitsfilter" kann man bei gewissen Smartphones gar nicht abstellen.

Ich kenne auch ein paar Kids, die basteln sich mit '"cooler Soundsoftware" voll hippe Musik zusammen (also klingt wirklich ganz ok für so populären Kram).
Nur das halt keiner von denen auch nur vom Quintenzirkel gehört hat oder gar ein Instrument stimmen könnte.
Gesang? ---> Autotune!
Da werden eben paar tausend vorgefertigter Loops und Melos durchgeklickt bis was zusammenpasst - und die Kids fühlen sich als die Oberproduzenten. Bisher händisch - ab gestern auch mit "KI".

Bei Bildern läuft es seit Jahren ebenso.
Lustige Baukasten Malprogramme.
Damit werden dann "voll coole Flyer und Plakate" erstellt. Für den nächsten Event mit den krassen Musikern aus dem vorherigen Absatz. Natûrlich mit Schönheitsfilter. Und gefakter Künstlervita.

Das Kind ist schon längst in den Brunnen gefallen!
Es gibt schon einen nicht zu vernachlässigenden Anteil an jungen Menschen, die es nicht mehr peilen was diesbezüglich abgeht. Das wird gar nicht hinterfragt.
Und das drückt schon auf die Kultur durch. Tagtäglich. Sobald man das Radio einschaltet, Musikclips anschaut oder nur ein Poster irgendwo hängen sieht.
Die schicke, gefakte Konsumwelt eben.

Und Kühe sind lila!
 
  • Gefällt mir
Reaktionen: floTTes und AlphaKaninchen
Ist nun zuspät .. der Geist ist aus der Flasche .. die Software ist verteilt.
Ab jetzt kann man es eh nicht mehr aufhalten.
 
Könnte man den Kram nicht eindämmen indem die Social Media Plattformen nur noch eindeutig signierte Medien beim Upload annehmen (dürfen)? So ähnlich wie diese NFT. Dann ist es natürlich vorbei mit der Anonymität, dämmt aber diese ganze Trash-Posterei ggf. mal ein. Natürlich problematisch in den Fällen wo diese Social Media zum Whistleblowing dienen.
 
  • Gefällt mir
Reaktionen: floTTes
nighteeeeey schrieb:
Ich weiß nicht mehr genau wer es gesagt hat aber als die Möglichkeit von generativer so langsam absehbar wurden letztes Jahr und Adobe vor ein paar Jahren ja auch noch dieses AI Audio Editing Tool vorgestellt hat sagte jemand kürzlich, dass diese Technologie die gesamte westliche Welt ins Chaos (oder in bürgerkriegsähnliche Zustände) stürzen könnte.
Zuerst wollte ich mit "Schwachsinn!" Darauf antworten.
Aber ich denke ein "ich möchte doch vehement widersprechen!" Passt besser zur Diskussionskultur.

Wir haben leider momentan eine Situation wo ein Grossteil der Bevölkerung die Schnauze voll hat von der "Medien Manipulation" einiger reichen Besitzer von Medienhäusern und daher lieber auf "reale" Menschen hören die auf TikTok ihren Schwachsinn verbreiten.

Seit der Mond Landung wird darüber spekuliert ob die Fotos Echt sind oder ob das alles nur gefaked ist.
Eigentlich bereits seit viel früher tauchen Fotos auf von Ufos. Sie existieren Tatsächlich!!!111elf

Aber wenn nun Person X auf Twitter oder TikTok ein Foto postet von Donald Trump der einen Hamburger isst, dann ist das definitiv genau so passiert!

Die AI ist NICHT das Problem hier! Das Problem bestand bereits seit Jahrzehnten. AI hat das Problem nur soweit vergrösster das wir nicht mehr einfach die Augen schliessen können um es zu ignorieren, weil Jedermann ohne Fachwissen oder Aufwand dies erledigen kann.

XCPTNL schrieb:
die AI generierte Inhalte und per AI erstellte andere Fakes für alle Arten von Cyberkriminalität etc. verursachen werden.
Richtig Schlimm wird das ganze nur bei RealTime Anwendungen.
Stell dir vor eine Tochter ruft ihre Grossmutter an und sagt sie Stecke am Bahnhof in X fest und habe keine Geld mehr für ein Taxi. Ob Oma ihr nicht 100.- zusenden könnte.
Oder die ganzen Video Calls.
Als Tech Support bekommst du einen Teams Video Anruf von einem Mitarbeiter aus dem Homeoffice der seinen PC neu aufgesetzt hat und dabei das Passwort vergessen hat. Bitte einmal zurücksetzen.
Wie willst du da wissen ob die Person echt ist oder nicht? Bei einem 3000 Personen unternehmen die sich noch nie persönlich getroffen haben wird das schwer.
Social Engineering wird da richtig gefährlich.


Neodar schrieb:
Warum sollte ich mir irgendwelche Fake Taylor Swift Bildchen/Videos reinziehen, wenn mir eine KI doch theoretisch genau die absolute Frau meiner Träume kreieren kann?
Ja.
Aber das ist dann die Frau DEINER träume.
Taylor Swift ist ein Star. Wenn du sexuelle Handlungen mit einem Star durchführst wirst du selbst wichtiger weil das ja sonst kaum einer hinbekommt. Und wenn man sich sexuelle Handlungen mit einem Star vorstellt helfen Pornos dazu.
Gibt auch die Theorie das man Dinge begehrt die man nicht haben kann. Da hilft Deepfakes dann.
 
So sehr ich hier auch gern wieder das Problem und Versagen bei X suchen würde, wird das der Sache sicherlich nicht gerecht. Mag sein, dass die Plattform bei der Moderation keinen guten Job macht. Ich denke aber nur mit Moderation wirds nicht getan sein. Das Problem ist viel Größer und sitzt viel Tiefer. Das wird bei den zukünftigen Wahlen (bzw. Politik generell, Stichwort Manipulation) wahrscheinlich erst richtig relevant und das auch auf allen Plattformen. Ich bin gespannt wie man dem Herr werden möchte. Das auf ein "kleines" Symptom wie dieses hier zu Fokussieren, ist fast schon eine populistische Vereinfachung des Gesamtbildes. Die nächsten Jahre werden definitiv sehr spannend.
 
  • Gefällt mir
Reaktionen: floTTes
tomgit schrieb:
Ich hab vor bald zwei Jahren meine Masterarbeit zu Deepfakes geschrieben. Fälle, wo Deepfakes verwendet wurden um zumindest den Versuch zu wagen, Menschenleben zu ruinieren, waren da schon umfänglich bekannt.
Ich hoffe einfach mal, dass du in dem Rahmen nicht bei so banalen Sachen wie Pornos hängengeblieben bist. Viel brisanter sind die Möglichkeiten im politischen Bereich und im sogenannten "investigativen" Journalismus ("Geheimtreffen" der AfD, Kriegsverbrechen, etc.).
 
Deepfakes werden seit 2 Jahren genutzt, auch um Hetzkampangen und Falschinformationen zu verbreiten, es juckt gefühlt keine Sau.

Jetzt wo es diese völlig überwertete Countrysängerin erwischt soll plötzlich was passieren? die Pressesprecherin des US Presidenten äußert sich persönlich dazu?

Bin ich im falschen Film oder was? Muss ich erst einer Prominenten das gleiche antun was mir angetan wurde damit sich was tut?????
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
so interessant KI ist und so interessiert ich darauf bin, in welchen Bereichen KI uns sprunghaft nach vorne bringen wird (Medizin etc.) so besorgt kann man auch in Bezug auf diese Themen sein.

Deepfakes, IT Sicherheit sind nur 2 Bsp. dafür - Sicherheitsexperten werden in den nächsten Jahren eine Menge Arbeit vor sich haben.

Gesetzliche Regelungen sind hier unumgänglich aber leider vermute ich, das die Politik hier leider viel zu langsam sein wird um dieser rasanten Entwicklung Herr zu werden.
 
Pff. Manuelle Fotomontagen gibt es schon seit Jahrzehnten und die sind in der Regel glaubwürdiger als KI-Fälschungen.

KI-Fälschungen erkennt man relativ einfach daran, dass sie (quasi ähnlich wie PC-Spiele) unrealistisch wenige Details haben, also bspw. Hautunreinheiten, Leberflecke, Körperbehaarung, kantige Körperpartien usw., die durch die KI aber i.d.R. weich gezeichnet werden (so wie die Filter bei Instagram etc. es tun).
 
  • Gefällt mir
Reaktionen: rosenholz
JensG schrieb:
Ich kenne auch ein paar Kids, die basteln sich mit '"cooler Soundsoftware" voll hippe Musik zusammen (also klingt wirklich ganz ok für so populären Kram).
Nur das halt keiner von denen auch nur vom Quintenzirkel gehört hat oder gar ein Instrument stimmen könnte.
Gesang? ---> Autotune!
Da werden eben paar tausend vorgefertigter Loops und Melos durchgeklickt bis was zusammenpasst - und die Kids fühlen sich als die Oberproduzenten. Bisher händisch - ab gestern auch mit "KI".
Ich bin mir grade nicht ganz sicher ob du auf so etwas wie Magix Music Maker oder diese App wo man Töne auf Knöpfe legen kann hinaus willst, von Musik habe ich wirklich keinen Plan...
 
JensG schrieb:
Und Kühe sind lila!
Wenn man in Darktable am richtigen Regler dreht, oder eine Lila Lampe beim Fotografieren zur Hand hat... das schwierige ist das es richtig aussieht also Farblich in die Lichtsituation passt. Mit KI ist aber auch das kein Ding.

Auf eine gewisse sehr perfide weise finde ich das aber auch gut, bisher hängen an FKK Stränden oder auch in vielen Schwimmbädern Schilder die darüber informieren das Fotografieren verboten ist. Wenn solche Bilder so verbreitet sind das es nur noch ein Ackselzucken hervorruft kann man sich die Schilder sparen.

RizzoSpacerat schrieb:
Bin ich im falschen Film oder was? Muss ich erst einer Prominenten das gleiche antun was mir angetan wurde damit sich was tut?????
Oder einer großen Gruppe von Menschen, aber bei diesem Thema würde es sich dann wahrscheinlich von selbst lösen. Siehe Oben.
 
Zuletzt bearbeitet:
SweetOhm schrieb:
Für Fake Porn fände ich den "AI Krempel" ja noch in "Ordnung" und halbwegs vertretbar,
Mir gefällt Deine Aussage überhaupt nicht. Stell Dir vor, Du kommst ins Büro und alle schauen Dich komisch an. Nach einigem hin- und her stellst Du fest, dass Du selbst Opfer von nem "Porno-Spaß" geworden bist und alle Dich "nackt gesehen" haben. Du siehst die Bilder und stellst fest: Sieht verdächtig echt aus. Na, auf einmal ist es nicht mehr so lustig, oder?

Und jetzt stell Dir vor, Du bist kein gefestigter Erwachsener, der das einordnen kann. Sondern ein Teenager, dem das in der Schule passiert. Das kann verheerende Auswirkungen auf einen jungen Menschen haben.

Übrigens finde ich es auch nicht in Ordnung, wenn jemand sagt: "Die Taylor steckt das schon weg, sie ist ja Promi". Nö. Promis haben auch Persönlichkeitsrechte.

Eine Idee, wie man das regulieren könnte, habe ich natürlich auch nicht. Aber es geht ja damit los, dass es von einer Mehrheit akzeptiert wird...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lordZ und SweetOhm
Besonders problematisch sehe ich mittlerweile bei AI erstellten Dingen das es so viele Leute gibt die nicht glauben können wie gut AI erstellter Inhalt sein kann.^^

Ich glaube vor einem halben Jahr ungefähr gab es einen Stream auf einer Messe wo ein bekannter deutscher Streamer sich mit einem "AI Roboter" unterhalten hatte, da kamen so viele Kommentare in dem seinem Chat das die AI (!) Fake wäre und er in Wirklichkeit mit einem echten Menschen spricht.^^

Es ist eine Sache davon zu wissen, aber eine ganz andere das dann auch wirklich zu glauben, also im umgekehrten Sinne das es Fake ist und nicht echt.^^

Man muss meiner Meinung nach an den Schulen bereits vermitteln das es zum Teil schlicht nicht mehr möglich ist zwischen Fake und echtem Inhalt zu unterscheiden und nicht nur das es Fakes gibt.^^
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben