News Teenagerinnen verklagen xAI: Bilder von sexu­ellem Kindes­missbrauch durch Grok AI

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Dr. Chaos schrieb:
Nein Grok ist zu 100% Schuld, genau wie die Ersteller!
Wenn ich dich zur Bank fahre, dort Wache schiebe, dir helfe das gestohlene Geld einzuladen, und dann mit dir flüchte, bin ich genau so am Bankraub beteiligt und genau so schuldig.
Sry, aber welcher Vergleich ergibt denn hier keinen Sinn? Grok ist das Werkzeug, was du damit machst ist zuvorderst deine Verantwortung und nicht die von xAi. So widerlich ich das alles finde, so absurd finde ich den Umgang damit. Hier wird wieder gefordert/versucht ein Problem durch Symptombehandlung zu lösen, das löst aber das Problem nicht, birgt aber dafür, wie jede Zensur, massives Missbrauchspotential gegenüber Bürger einer freien Gesellschaft. Und entgegen deiner Behauptung ist Zensur natürlich nicht nur von staatlicher Seite möglich. Daher solltest du dich vllt selbst schlau machen, was Zensur ist!
 
  • Gefällt mir
Reaktionen: ascer, Zhan und aLanaMiau
Für so ne KI ist es ja generell schwierig zu wissen, ob jemand Bilder von anderen ohne dessen Zustimmung nutzt. Selbst wenn die KI sich konsequent weigert Schmutzbildchen zu erstellen (insbesondere von Minderjährigen), fallen mir noch zig andere Möglichkeiten ein, jemanden in einem KI-Bild bloßzustellen und ihn damit praktisch zum Opfer von Cybermobbing werden zu lassen (ganz ohne Sexualisierung des Opfers).

Das Problem ist eigentlich weitgreifender als nur schmutzige Bildchen, auch wenn diese jemanden eventuell am härtesten treffen und damit auch weitgreifender als nur Musk/xAI. Ohne Zustimmung der abgebildeten Person bzw. Eigentümers des Bildes sollten eigentlich gar keine Bilder von einer KI abgeändert werden.

So viel wie hier aber schon wieder polemisch über Musk hergezogen wird (ich mag den Typen ja auch nicht), weiß ich aber, ob es manchen Leuten hier wirklich um das Problem geht, oder man einfach nur den Untergang eines Unternehmens/einer Person will, weil einem dessen politische Einstellung nicht passt.

Ein Abgleich sozialer Netzwerke (zumindest mal öffentlicher Profile) würde da ggf. schon helfen. Evtl. braucht es aber sogar eine Art Bestätigung der eigenen Identität.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Equinaut
@MaverickM das ist aber schon ziemlich naiv zu glauben das jeder immer weiß wie viele Bilder von ihm Existieren.

Konstruiertes Beispiel:
Jane A ist im Cheerleader Team von ihr gibt es bestimmt hunderte Bilder die mehr oder weniger frei in der lokalen Bubble existieren

Jetzt nimmt sich eine Person eines dieser Bilder unlässt den Bildgenerator einen Kompromitierenden Inhalt generieren der dann in der Lokalen Bubble anfängt zu kreisen

Vergiss nicht man braucht nicht viel mehr als ein Gesichtsfoto und das Bild von jemand mit ähnlicher Statur um daraus einen Basis Körper zu generieren der dann den wünschen des Sockenbeschmutzers angepasst werden kann.

Dank "KI" halt auch ohne Fachkenntnisse oder Künstlerisches Talent
Einhändig Schmutz bei Grok einfügen reicht leider
 
  • Gefällt mir
Reaktionen: mischaef und Alphanerd
Ich bin wirklich fassungslos, wie viele hier behaupten, Grok sei „nur ein Tool“ und allein der Prompt‑Ersteller trage Verantwortung.

Bei allem Respekt aber bei dem, was hier passiert ist, kann man nicht einfach die Augen verschließen.

Ich habe den Eindruck, dass einige hier ihren moralischen Kompass überprüfen und sich noch einmal mit den Grundlagen von Moral und Ethik auseinandersetzen sollten.

Wir reden von einem System, das öffentlich zugänglich war und mit dem ohne Einwilligung der Betroffenen sexualisierte, strafrechtlich relevante Deepfakes aus ganz normalen, öffentlich geposteten Fotos erzeugt werden konnten. Wie kann man da ernsthaft sagen, das Tool selbst oder die Plattform hätten keinerlei Verantwortung?

Wenn ein Unternehmen ein solches Werkzeug bereitstellt, ohne moralische oder technische Schutzmechanismen (oder diese mit absicht reduziert hat), dann trägt es selbstverständlich eine Mitverantwortung. Und wenn diese Inhalte anschließend auch noch auf X verbreitet werden konnten, zeigt das ein zweites, schwerwiegendes Versagen.

Was mich besonders erschüttert hat, war die öffentliche Reaktion der Unternehmensführung. Statt klare Worte zu finden, wirkte vieles eher wie eine Verharmlosung. Für die Betroffenen, darunter viele junge Menschen und Minderjährige, ist das ein Schlag ins Gesicht.

Das Internet vergisst nicht. Diese Bilder können sie ein Leben lang verfolgen. Die psychische Belastung, die daraus entstehen kann, ist kaum vorstellbar.

Natürlich trägt der Prompt‑Ersteller die Hauptverantwortung, und es ist richtig, dass er verhaftet wurde. Aber so zu tun, als wäre damit alles erledigt, ist schlicht falsch. Wer ein solches Tool entwickelt, bereitstellt und sogar monetarisiert, ohne ausreichend Schutzmechanismen einzubauen, muss sich ebenfalls kritischen Fragen stellen.

Verantwortung endet nicht beim ersten Täter, sie beginnt dort erst.

Ich hoffe wirklich, dass dieser Fall ein Umdenken auslöst und ein Gericht hier einen Präzedenzfall schafft. Wir brauchen klare Regeln, damit Anbieter solcher Systeme künftig nicht mehr aus der Verantwortung nehmen können, wenn ihre Technologie Menschen schadet. Erst recht, wenn sie ihre Dienste monetarisieren.
 
  • Gefällt mir
Reaktionen: mischaef, Dorimil, Cpt.Willard und 8 andere
Lilz schrieb:
Wie bitte? Erstens kann die KI das, zweitens wäre es nach deiner Definition ja Zensur, wenn künstlerische Werke unterdrückt werden. Worunter Pornos auf jedenfall fallen können.
Was an Zensur ist nicht zu verstehen?
Staatliche oder institutionelle Kontrolle!
Außerdem sind KI Fakes keine Kunst!

Wenn du ein Autor bist und der Staat verbrennt deine Bücher dann ist das Zensur, wenn du dich auf die Straße stellst und rufst "unsere Regierung ist blöd" und du wirst dafür von der Polizei eingesperrt, verprügelt oder sogar getötet dann ist das Zensur! Wenn du hier im Forum dummes Zeugs postest und das wird gelöscht ist das keine Zensur!

Gesetze gegen Beleidigung, Volksverhetzung oder Verleumdung sind keine Zensur, sondern der Schutz der Grundrechte anderer. Meinungsfreiheit gibt dir das Recht, deine Ansicht zu äußern, aber sie gibt dir nicht das Recht, die Würde oder Sicherheit eines anderen zu verletzen.


Bitte, informier dich doch mal richtig statt irgendeinen Unsinn im Internet zu verbreiten!
 
  • Gefällt mir
Reaktionen: mischaef, DickPuschen, Volvo480 und 4 andere
@MaverickM Da schwingt aber im subkontext eine Art von Schuldumkehr mit. Das klingt schon nach „kurzer Rock, selber schuld.“

Im Beitrag steht drin, dass es sich um das Jahrbuch und Fotos vom Prom handelt (beides vermutlich digital). Das sind keine sexualisierten Fotos.

Zudem ist es einfach nicht der Realität entsprechend, wenn man erwartet, dass es keine zumindest einer teilöffentlichkeit zugänglichen Bilder von 18-19 jährigen Menschen gibt.

Das Vergehen ist nicht, dass die Mädchen Fotos von sich im Netz haben!


Eine AI ist kein vollständig passives Werkzeug, sondern in gewisser Hinsicht Akteur der auf Anweisung in einem definierten Rahmen handelt. Für den Rahmen der KI ist der Hersteller verantwortlich.

xAI und Grok haben, auf Wunsch von Musk, bewusst - entgegen Hinweisen von Dritten - die Schutzmechanismen sehr stark zusammengestrichen.
 
  • Gefällt mir
Reaktionen: M@tze, Alphanerd, Leap und 2 andere
Stahlseele schrieb:
Das wird nichts werden.
Sonst hätte es schon erfolgreiche Klagen zum Verbot von Schusswaffen, ....
Ich beziehe mich mal nur auf den ersten Teil:

In den USA ist vor gar nicht allzu langer Zeit der Vater eines Amokläufers verurteilt worden, weil er die Waffe dem Sohn zu einfach zugänglich gemacht hatte und nicht auf die erkennbaren Hinweise zu Fehlverhalten reagiert hatte.

Übertragen wir das Ganze doch einfach mal auf den Fall hier:

Der Vater (XAi) hat die Waffe (Grok) dem Sohn (die Täter im Netzwerk) zu einfach zugänglich gemacht (Entfernung von Sicherheitsmechanismen) und hat nicht auf erkennbare Hinweise zu Fehlverhalten (entsprechende Meldungen) reagiert.

In dieser Übertragung wird die Problematik glaube ich viel klarer.
Und JA, diese Klagen hatten in den USA und auch in Deutschland bereits Erfolg.
Daher dürfte diese Klage durchaus Erfolg haben können (wenn nicht Elon Musk einen entsprechenden Deal macht und genug für das Schweigen der Betroffenen zahlt).
 
  • Gefällt mir
Reaktionen: Volvo480 und Incanus
Equinaut schrieb:
wie jede Zensur, massives Missbrauchspotential gegenüber Bürger einer freien Gesellschaft. Und entgegen deiner Behauptung ist Zensur natürlich nicht nur von staatlicher Seite möglich. Daher solltest du dich vllt selbst schlau machen, was Zensur ist!
ES IST KEINE ZENSUR, wenn man eine KI einschränkt Straftaten zu begehen.
Meine Güte, wie kann es sein das hier die Hälfte der User nicht weiß was Zensur ist. Das ist echt peinlich!

Equinaut schrieb:
Sry, aber welcher Vergleich ergibt denn hier keinen Sinn? Grok ist das Werkzeug, w
Nein Grok ist kein Werkzeug wie ein Hammer oder ein Messer, sondern Grok ist viel mehr.
Ein Hammer vergrößert nur die Kraft deines Armes. Eine KI hingegen erweitert deine kognitiven und kreativen Möglichkeiten und arbeitet in deinem Auftrag.
Wenn du dir einen Handwerker bestellst der dir einen Tisch nach deinen Wünschen herstellt, ist der Handwerker ja auch nicht nur ein Werkzeug.
Die Ki ist kein Werkzeug sondern ein Kollaboratives Medium, daher liegt die Schuld sowohl beim User als auch bei der KI bzw. dem Eigentümer der KI.

Wenn ich zu meinem Nachbar gehe und diesen bitte meine Frau zu töten, und er macht das dann, wer ist dann schuld?
 
  • Gefällt mir
Reaktionen: mischaef
Spriti schrieb:
Nicht gegen die Täter wird geklagt, sondern gegen den Tool-Hersteller.
Warum? Weil es dort natürlich "Millarden" zu holen gibt.
Genau das habe ich mich auch gefragt. Derjenige, der die Prompt geschrieben hat, hat doch die Straftat begangen (wenn es eine ist). Wenn ich ein LLM zum Hacken nutze, dann ist ja auch nicht das LLM schuld sondern ich. Das LLM hat ja keine Tat begangen, dafür fehlt ja auch die Tatmotivation.
 
  • Gefällt mir
Reaktionen: Lilz
Krik schrieb:
Was sollen denn diese Gesetze bringen?
Hast du die Sätze danach bewusst überlesen?
Wie willst du bei einem KI-erstellten Bild von einem Menschen - anders als in diesem Fall, hier wurden bewusst Fotos aus einem Jahrbuch genommen und hochgeladen (wenn ich es richtig verstanden habe) - ohne Vorlage den Unterschied zwischen 17 und 18 festmachen?

Würde mich WIRKLICH interessieren.

CountSero schrieb:
Ich habe den Eindruck, dass einige hier ihren moralischen Kompass überprüfen und sich noch einmal mit den Grundlagen von Moral und Ethik auseinandersetzen sollten.
Natürlich trägt der Prompt‑Ersteller die Hauptverantwortung, und es ist richtig, dass er verhaftet wurde. Aber so zu tun, als wäre damit alles erledigt, ist schlicht falsch. Wer ein solches Tool entwickelt, bereitstellt und sogar monetarisiert, ohne ausreichend Schutzmechanismen einzubauen, muss sich ebenfalls kritischen Fragen stellen.

Es wurden hier Bildbearbeitungstools genannt, diese zählen für dich nicht, weil es nur am Ersteller hängt, richtig?

Wie sieht es dann Offline mit StableDiffusion aus, haftet dann zusätzlich der Coder des Programms, der Trainer des Modells (wo alle Trainingsdaten legal sind) oder doch der Ersteller, welcher in dieses Modell seinen illegalen Input einfügt?
Hier würde ich die Schuld einzig beim Ersteller suchen.

Einen Ansatzpunkt bei Grok würde ich wenn bei den Trainingsdaten sehen (keine Ahnung, ob man da rankommt) und scheinbar wird Grok ja auch auf dem Output der Nutzer weitertrainiert.
Wenn ich das richtig verstehe ist diese Option nur opt-out, wodurch wohl illegale Daten ins System gelangen könnten.
Ist das dein Argument?

Wenn ich einen Denkfehler mache, sag es mir gerne und die Frage oben (an Krik) darfst du auch gerne beantworten.

Und dies ist auch der Grund, weswegen ich eine Gesetzgebung speziell für KI für zwingend notwendig halte, momentan läuft alles aus dem Ruder und es wird munter Catfishing betrieben, gescammt (Verkaufsportale), geklaut (Content jeglicher Art fürs Training) und sogar Kriegspropaganda mit bekannten Marken erstellt (siehe USA).

Ja, viele dieser Taten sind von alten Gesetzen abgedeckt, aber einiges sind eben auch Grenzfälle (siehe Frage oben oder Shrimp Jesus).
 
Piak schrieb:
Ich bin aber der Meinung, wir, die Menschheit hat MachineLearning freigelassen und man wird es nicht einschränken können.

Was ist denn "die Menschheit"? Damit suggerierst du, dass die Mädchen, als Teil der Menschheit, dieses Verhalten/diese Entwicklung selber gefördert haben.

Schlumpfbert schrieb:
Zweifellos ein großer Mist und wirklich shice für die Betroffenen, xAI gehört dafür bestraft..
Aber "Ihr Leben wurde zerstört" ist evt. dann doch etwas übertrieben...?

Das kann man so sehen, spielt hier aber keine Rolle und verharmlost die ganze Sache. Jeder der selber mal Kind war (also alle) oder aktuell Kinder hat, wird nachvollziehen können, dass so etwas extrem große Auswirkung auf die Gegenwart (hänseln, mobben), aber auch auf die Zukunft haben kann (soziale Störungen, Ablehnung in Job Interviews). Und das ist dann auch kein "großer Mist". Wir reden von Minderjährigen, die sexualisiert dargestellt werden, das ist ekelhaft und eine riesen Schande.
 
Wie? das geht immer noch? Dachte das haben die schon damals abgeschaltet. Oder liest sich das nur so?
lol was bin ich froh das es genau 3 Bilder von mit aus 20 Jahren im netz gibt.
Befürchte aber mich will eh niemand im Bikini sehen :cool_alt:
 
Uzer1510 schrieb:
Wieso ist das mit dem Photoshop ein unsinniger Vergleich - AI setzt genauso wie Photoshop nur das um was der Bediener vorgibt - komplett ohne eigene Motive oder zu "verstehen" was die Zahlen die reinkommen oder rausgehen bedeuten - es wird halt die Zahlenreihe xy umgerechnet nach z ob das das Ergebnnis z ein Kipobild ist oder die Bauanleitung für eine Hundehütte oder ein Abwurfplan für Bomben im Iran ist für die AI ohne auch nur irgendeinen Unterschied - das ist alles identisch eben nur die Zahlenreihe.
Also wenn ich mit Gimp ein Bild bearbeite, lege ich neue Ebenen an und ändere das Bild bewusst nach meinen Vorstellungen um.

Bei Grok hat der Ersteller des Bildes aber nicht selbst mit irgendwelchen Ebenen gearbeitet, er hat der KI per Prompt die Anweisung gegeben "Nimm das Social Media Bild XYZ, mach die Kleine nackig und lass sie in einer lasziven Pose dastehen" (oder ähnliches) und die KI hat das umgesetzt. Die KI hat also "verstanden" was der User wollte und hat den Prompt nicht als unethisch abgelehnt, da keine Sperren eingebaut waren, sondern genauso umgesetzt.

Das ist ja der Unterschied zwischen einer normalen SW und einem LLM Modell - es "versteht" was Du willst und versucht es so umzusetzen, aber die Idee was gemacht werden soll, kommt vom User.
 
  • Gefällt mir
Reaktionen: CountSero und Dr. Chaos
ProfessorJump schrieb:
Wie willst du bei einem KI-erstellten Bild von einem Menschen - anders als in diesem Fall, hier wurden bewusst Fotos aus einem Jahrbuch genommen und hochgeladen (wenn ich es richtig verstanden habe) - ohne Vorlage den Unterschied zwischen 17 und 18 festmachen?
Na da macht man das, was man jetzt auch schon macht: Man schätzt ab. Bilder von fiktiven Menschen gibt es nicht erst, seit es generative KI gibt. Wenn die Ausrede ist, dass der Mensch auf dem Bild kein Kind ist und das angezweifelt wird, dann wird ein Gericht einen Gutachter bestellen, der sich das genauer anschaut und bestimmt, welches Alter dargestellt wird.
So wird das mindestens seit dem Bleistift gehandhabt.

Also nochmal: Was sollen zusätzliche Gesetze bewirken? Was willst du überhaupt zusätzlich regulieren? Alles, was man mit generativer KI heutzutage macht, unterliegt den gleichen Gesetzen, denen auch z. B. die klassische Bildkunst unterliegt.
 
CountSero schrieb:
Ich bin wirklich fassungslos, wie viele hier behaupten, Grok sei „nur ein Tool“ und allein der Prompt‑Ersteller trage Verantwortung.

Bei allem Respekt aber bei dem, was hier passiert ist, kann man nicht einfach die Augen verschließen.

Ich habe den Eindruck, dass einige hier ihren moralischen Kompass überprüfen und sich noch einmal mit den Grundlagen von Moral und Ethik auseinandersetzen sollten.
...
Da kannst du noch so auf die Emotions- und Tränendrüse drücken, verantwortlich ist der Ersteller und nicht das Tool, solange es keine echte künstliche Intelligenz gibt.
 
  • Gefällt mir
Reaktionen: Piak
CountSero schrieb:
Ich bin wirklich fassungslos, wie viele hier behaupten, Grok sei „nur ein Tool“ und allein der Prompt‑Ersteller trage Verantwortung.

Wir reden von einem System, das öffentlich zugänglich war und mit dem ohne Einwilligung der Betroffenen
Ja, der Ersteller ist ganz allein schuldig. Oder sind demnächst die Tools Bleistift und Papier schuldig, wenn damit CSAM-Material erstellt wird? Oder ist das Tool des Vergewaltigers mitschuldig (sein Geschlechtsteil, seine Finger oder ein Gegenstand), wenn eine Vergewaltigung stattfindet?
All diese Tools sind übrigens öffentlich zugänglich bzw. werden vom Täter jederzeit mit sich geführt und sind wie die KI sehr einfach zu bedienen.
 
  • Gefällt mir
Reaktionen: Piak
banditone schrieb:
Oder sind demnächst die Tools Bleistift und Papier schuldig, wenn damit CSAM-Material erstellt wird?

Es geht wohl weniger um das Tool, als dessen öffentliche Anbindung.
 
Wird ne aussergerichtliche Einigung die dann in ein paar reichen Teenagerinnen endet - also wie immer. :smokin:
 
  • Gefällt mir
Reaktionen: Odessit
Kadett_Pirx schrieb:
Da kannst du noch so auf die Emotions- und Tränendrüse drücken, verantwortlich ist der Ersteller und nicht das Tool, solange es keine echte künstliche Intelligenz gibt.
banditone schrieb:
Ja, der Ersteller ist ganz allein schuldig. Oder sind demnächst die Tools Bleistift und Papier schuldig, wenn damit CSAM-Material erstellt wird? Oder ist das Tool des Vergewaltigers mitschuldig (sein Geschlechtsteil, seine Finger oder ein Gegenstand), wenn eine Vergewaltigung stattfindet?
All diese Tools sind übrigens öffentlich zugänglich bzw. werden vom Täter jederzeit mit sich geführt und sind wie die KI sehr einfach zu bedienen.
Schaltet dich mal ein wenig den Verstand ein.
Eine "Ki" wie wir es nennen ist kein Werkzeug und auch kein Gegenstand.
Man nimmt ja keinen Stift in die Hand und malt sondern man gibt der "KI" seine Wünsche und Erwartungen vor und die "KI" erfüllt diese nach Möglichkeit.

Die "Ki" ist ein Erfüllungsgehilfe!

Beihilfe (§ 27 StGB): Wer als „Gehilfe“ vorsätzlich einem anderen zu dessen vorsätzlich begangener rechtswidriger Tat Hilfe leistet, wird bestraft.
Die "Ki" selbst kann natürlich nicht bestraft werden, aber eben der Inhaber, weil dieser wusste bereits seit langem das seine "Ki" genutzt wird um illegal Pornos und ähnliche zu erschaffen und hat trotzdem nichts dagegen getan.
 
Zuletzt bearbeitet:
M@tze schrieb:
Sorry, aber was für ein blöder Vergleich. Um bei Deinem Beispiel zu bleiben, wurde dem Hersteller des Hammers mitgeteilt, dass sein Produkt auch für unerwünschte andere "Aktionen" missbraucht wurde und er dies hätte verhindern können bzw. wenigstens jetzt unterbinden solle. Der Hersteller hat aber gemeint "Unsere User wissen es besser, lass sie mal machen - das passt schon so.". 🤷‍♂️

Ich verstehe was du meinst - da hinkt das Beispiel natürlich. Wenn ich einen Hammer so modifizierte, dass ich damit keine Menschen mehr erschlagen kann, dann wird er für seinen bestimmungsgemäßen Gebrauch auch nutzlos.
Das ist bei einem chatbot natürlich anders.
Ich bleibe aber dabei dass das Problem nicht der chatbot, sondern der Benutzer ist. Und jetzt wo wir Menschen nachweislich wieder dümmer werden, werden solche Probleme eher nicht weniger werden. Bis wir dann im Jahr 2500 bei Idiocracy angekommen sind, aber dann stört sich immerhin auch keiner mehr dran :mussweg:
 
  • Gefällt mir
Reaktionen: Brati23
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben