News AI-Fake-Porn von Taylor Swift: US-Administration will verschärfte Regeln gegen Deepfakes

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
AlphaKaninchen schrieb:
Man sollte lieber Kindern schon in der Schule zeigen wie man so etwas erstellt
Dieses. Medienkompetenz in der Schule Lehren. Verbote haben noch NIE funktioniert und bringen nichts. Aufklärung ist wichtig aber natürlich auch aufwendiger weshalb da noch viele Länder hinterherhinken und sich da gefühlt auch nichts tut. Im Bildungssegment hat man das Neuland eben komplett verschlafen.

Schwarze Schafe wird es aber auch dann immer geben, ist einfach so.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Man wollte doch diese schöne neue Welt. Wer entscheidet demnächst ob wahr oder unwahr, die KI oder doch die Politik? Wird noch spannend.
 
Zuletzt bearbeitet:
Timesless schrieb:
Möglicherweise wird es eine AI zur erkennung von AI generierten Content geben (müssen).

Gibt's doch schon, bei Bildern funktioniert es aber besser als bei Texten.
 
Ja, ich habe zwar noch keine KI Nacktbilder gesehen (gut habe jetzt auch nicht nach gesucht) aber die Bilder, die durch KI erstellt wurden und durch die Presse gegangen sind (z.B. Menschen in Gaza oder irgendwelche Models..) lassen mich schon erahnen was bis jetzt schon möglich ist und vor allem wie es in ein paar Jahren aussieht. Dann glaube ich, wird es nochmals deutlich schwieriger überhaupt den Fake zu erkennen. Ist jetzt noch schwierig aber noch erkennbar.

Da kommen jetzt eine Menge Grundsatzfragen auf die Justiz und auf unsere Gesellschaft zu, die es gilt schnell zu lösen.
 
Fake Nacktbilder gibt es vermutlich so lange wie es P-Seiten und Bildbearbeitungsprogramme gibt. Aller spätestens seit es auf Reddit "Rule 34" gibt.
Ich denke auch nicht das sich ein Verbot oder Limitierung von KI bei der Erstellung solcher Bilder was ändert wird.
Und wenn wir mal ehrlich sind, jeder der ein bisschen Verstand im Hirn hat, wird bei einem Nacktbild oder -Film eines A-Promis relativ schnell erkennen, dass das Fake ist.
Zumal wer weiß wie Männlein und Weiblein nackt aussehen, ist es bei weitem kein Kunststück sich vorzustellen wie ein entsprechender Promi/Superstar oder Personen im allgemeinen nackt aussehen könnten... (was sicherlich auch schon jeder gemacht hat ;) )

Komplexer oder viel mehr eine andere Situation wird es halt bei Politik(er), hier geht es ja nicht (mehr) darum irgendeinen Fetisch zu befriedigen, sondern um politische Einflussnahme. Wie man das in den Griff kriegen könnte fehlen mir effektive Konzepte, die in der Hinsicht helfen...
Verbote lassen sich umgehen bzw. nicht überall auf der Welt durchsetzen und eine Moderation, selbst mit KI-Tool bei der Große von den großen sozialen Plattformen halte ich für nicht möglich oder viel mehr in dem Rahmen möglich in dem man es gerne hätte.
 
DennisK. schrieb:
Offen gestanden keine Ahnung, man kann Regeln da ja nicht durchsetzen. Will man jeden Entwickler verklagen, der eine KI ohne Schutzmechanismen auf GitHub oder Google Drive hochlädt? Bisher ist die Auswahl an großen Modellen für KI-Bildern noch recht übersichtlich, da kann man sicherlich auch Personen zur Verantwortung ziehen, aber aufgrund der freien Verfügbarkeit würde das niemanden davon abhalten, anonym Schutzmechanismen wieder zu entfernen oder einfach den aktuellen Stand zu nehmen und selbst weiterzuentwickeln. Die Technik ist ja schon da – ganz ohne Schutz.
Stable Diffusion XL stellt bereits nur noch schlecht Nacktheit dar und weiß im Vergleich zu 1.5 nicht mehr viel mit Taylor Swift anzufangen. Nun kann man aber so ein Modell selber weiter trainieren oder einfach nur LoRA verwenden.
 
  • Gefällt mir
Reaktionen: DennisK.
Stahlseele schrieb:
Hatte nicht einer von Musks Anwälten schon vor Monaten gesagt, dass man aufgrund von AI Deepfakes alles was "angeblich" von Musk gesagt oder geschrieben worden sein soll nicht mehr als Beweismittel ansehen könnte?
Oh ja, hat man versucht. Ist weil er es tatsächlich Musk war und er es selbst zugegebenermaßen am Ende nicht gerade "erfolgreich" gewesen, versucht hat man es aber... Was ziemlich absurd ist, hier versucht Musk noch aus seinem absoluten Fehlen der Moderation Profit zu schlagen: wenn potentiell alles auf meiner Plattform Fake ist, wie kann ich dann real sein klingt eher nach was, was Will Smiths Sohn sagen würde als ein sinnvolles Argument eines Anwalts :evillol:

Überrascht mich nicht, dass Musk jetzt doch wieder Content Moderatoren einstellt: auf Twitter ist echt "die Sau los" und das Problem dabei dürften über kurz oder lang Klagen werden die aus der Ecke Urheberrecht kommen und direkt danach dann die Regierung, wo Musk es offensichtlich nicht schafft die wenigen existierenden Regulierungen aus dieser Seite umzusetzen.

Wobei "kurz oder lang" vor allem an Elon selbst hängt: wenn er seine Sucht etwas unter Kontrolle bekommt, dürfte er Twitter aus finanziellen Gründen abstellen. Denn seit seiner Übernahme ging es nur nach unten ohne Trend-Wende in Sicht...

Was die Fake-Nackt-Bilder betrifft, so war ja klar, dass es früher oder später Swift in größerem Maßstab treffen würde. Absolut erwartbar. Was am Ende aber auch sehr interessant ist, dass es erst den mit Abstand finanziell erfolgreichsten Musik-Promi treffen musste, bis irgendwer in der Regierung ernsthaft festgestellt hat "oh, man kann Fake-Nakt-Bilder mit KI generieren...?" Willkommen in 2017 oder 2018. Wo darf ich ihren Bong-Cat Umhang ablegen?

Wie diese Regeln am Ende aber wirklich aussehen werden und wie sie überhaupt umgesetzt bzw. erzwungen werden sollen, da dürfte das größte Fragezeichen liegen...
 
  • Gefällt mir
Reaktionen: floTTes
Respekt in die USA. Bei Deepfakes an Personen des Öffentlichen Lebens wird die Politik sofort aktiv.
Aber wenn Menschen bei Amokläufen sterben, juckt das niemanden. Ein Hoch auf die Waffenlobby.

Wirklich alle Plattformen müssen schärfer überwacht werden. Egal ob Deepfakes oder Fakenews.
Da aber bei den Diensten nur noch KI Bots arbeiten, bekommt man ja nichtmal den Content gelöscht.
 
Tja, wer hätte auch ahnen können, dass das instant übertragen von Inhalten wie Bildern oder Ideen, über Plattformen an fast alle Menschen gleichzeitig ein Problem ergeben könnte.
Einmal eine Idee oder anderen Inhalt in einen Kopf eingepflanzt, wird man sie nie wieder los. Alle Zwischenfilter und Sicherheitsmechanismen wurden mittlerweile abgeschafft.

Über so ein Verbreitungssystem träumt jedes Virus, nicht nur Corona.
 
  • Gefällt mir
Reaktionen: floTTes
Als hätte es das nicht auch schon vor 20 Jahren mit Photoshop gegeben.
 
u-blog schrieb:
So scheiße Porno-Deepfakes für die Betroffenen sind, die weit größere Gefahr sehe ich bei Deepfakes in der Politik.

Ich habe schon ein paar Videos von "Biden" (100% Fake) gesehen, die erschreckend überzeugend waren. Wenn sowas auf Tiktok rumgeht, kann das schnell zehntausende Menschen überzeugen und Wahlen nachhaltig manipulieren.
Passiert aber in beide Richtungen außerdem brauch man für Fakenews keine AI und deepfakes. Wer auch jetzt schon denkt dass alles was er liest hört und sieht egal ob im Fernseher, im Internet oder in der Zeitung immer so der Wahrheit entspricht für den ändert sich mit deepfakes nicht groß was…
Halte die Debatte da auch für etwas überzogen. Die Probleme liegen ganz woanders. Manipuliert wird eh..

Schön wäre es wenn nachgewiesene absichtliche desinformation wenigstens folgen hätte. Hat es aber auch nicht. In Politik und Medien hakt eine Krähe der anderen kein Auge aus und wenn alle irgendwo mit drin stecken im gleichen Sumpf wird im Zweifel eh zusammen gehalten. Also wieso die Aufregung. Es wird sich ja nicht groß was ändern.
Ja dann bekomm ich eben gefakte Bilder vom Krieg zu sehen. Vorher Waren es dann welche aus einem ganz anderen Krieg. Geglaubt hab ich aber beides in meiner Naivität und weil es für den Laien ohnehin oft nicht heraus zufinden ist ob er belogen wird oder nicht.

Wenn man ehrlich ist lief es schon immer auf Vertrauen hinaus was Nachrichten betrifft. Die einen vertrauen den einen mehr die anderen den anderen...
Man sollte sich damit abfinden dass bei den meisten Sachen die Wahrheit irgendwo in der Mitte liegt. Mittlerweile ist das ganze gesellschaftlich aber fast schon wie ne Religion geworden. Jeder vertraut da seinem eigenen Gott aka Nachrichtenseiten, und wer etwas in Frage stellt ist ein Ketzer.
Ich finds mittlerweile auch etwas bizarr dass manche denken man müsse bestimmten Nachrichtenquellen (denen den sie vertrauen) auch vertrauen. Vertrauen muss man sich erarbeiten, vertrauen schafft man nicht indem man Druck aufbaut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes, Haldi und Azeron
tomgit schrieb:
Warum hat es jetzt einen Vorfall mit Promis gebraucht, damit die US-Politik auf Bundesebene sieben (!) Jahre später mal endlich aktiv werden mag?
Das ist immer so. Erst wenn ein Thema in den Medien für einen großen Aufreger sorgt, meldet sich auch die Politik zu Wort.
 
R O G E R schrieb:
Das sind halt die Nachteile der schönen neuen KI Welt.
Traue nichts was du nicht selbst gesehen hat, aber das ist ja leider generell schon in anderen Bereichen so.
Mit Deepfake Videos wird es in meinen Augen noch ganz kriminell werden.
Dieser Aspekt der KI wird unseren Gesellschaften das Rückgrat brechen wenn wir nicht höllisch aufpassen. Viele Leute glauben ja jetzt schon jeder Verschwörungstheorie ohne Beweise, wie sieht es da aus wenn man nun noch bequem den gefakten „Beweis“ mit dazu liefert?
Aber vlt. geben die Leute auf gefakte Fakten genauso wenig wie auf echte, dann hätten wir noch ne Chance…
 
  • Gefällt mir
Reaktionen: 3faltigkeit, floTTes und R O G E R
Das Problem ist doch nicht die Technik.... und auch nicht die Gesetze (Ist im Grunde sowieso verboten)...
...sondern die Menschen die sowas erstellen (Jetzt sagt jeder, gut das sind einzelfälle blablabla..).... ...und die überwiegende Anzahl der Menschen die sich das ansehen, obwohl sie wissen dass es Fake und illegal ist.

Es ist ein gesellschaftliches Problem wie heute mit Medien umgegangen wird.


Und ich mein: Irgendein Moderator hat ja auch diesen Beitrag freigeschalten der nach den illegalen Deepfake Nackfotos fragt:
Mäxle87 schrieb:
Wo sind die Bilder dazu?
 
  • Gefällt mir
Reaktionen: floTTes, Haldi, frazzlerunning und eine weitere Person
Die Geister, die ich rief... da sind sie.
 
Seht es mal so, es hätte auch Trump dein können :D Am einfachsten ist es sich dran zu gewöhnen, wird man nicht verhindern können
 
  • Gefällt mir
Reaktionen: xxlhellknight
Videoanruf der "Enkel" bei den Großeltern, doch mal eine größer Summe auf Konto X zu überweisen... sah sehr authentisch aus.
 
KillX schrieb:
Als hätte es das nicht auch schon vor 20 Jahren mit Photoshop gegeben.

Ich habe die Fakes gesehen, teilweise sind sie recht schlecht, teilweise sind sie gut und in wenigen Fällen sind sie RICHTIG gut. Das ist Stand heute, aber was ist morgen?

So RICHTIG gute Fakes mit Photoshop zu machen ist schon extremst aufwändig und daher sehr, sehr selten. Was mit AI möglich ist, das steckt gerade so in den Kinderschuhen und das wird in wenigen Jahren mit 3 Mausklicks in 3 Sekunden erledigt sein, ohne Aufwand und genau DAS ist das Problem. Da kommt gerade ein Tsunami auf uns zu, den keine Regulierung aufhalten kann, denn:

Zum Thema AI ist meine Befürchtung durchaus jene, dass die Büchse der Pandora geöffnet ist und man braucht sich da gar nicht mehr groß mit Regulierungen beschäftigen. So genial die positiven Möglichkeiten mit AI auch sind, so unvorstellbar gigantisch sind auch die negativen Möglichkeiten.

Regulieren kann man ja höchstens die offiziellen Quellen, was von seriösen Firmen auf Basis seriöser Technik geschaffen wird. Ergo dort, wo die großen Probleme ja gar nicht zu erwarten sind, genau dort wird reguliert.

Aber was wird abseits dieser seriösen Firmen passieren, die sich dann brav an die Regeln halten (müssen)?
 
  • Gefällt mir
Reaktionen: Demon_666 und floTTes
wird bald eine cyber polizei geben, natürlich eine AI, die wird dann genau den inhalt prüfen und ob dieser gegen irgendwas verstösst.
X ist echt der letzte Müllberg - bin dafür einfach die ganze Seite vom netz zu nehmen.
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben