Sry, aber welcher Vergleich ergibt denn hier keinen Sinn? Grok ist das Werkzeug, was du damit machst ist zuvorderst deine Verantwortung und nicht die von xAi. So widerlich ich das alles finde, so absurd finde ich den Umgang damit. Hier wird wieder gefordert/versucht ein Problem durch Symptombehandlung zu lösen, das löst aber das Problem nicht, birgt aber dafür, wie jede Zensur, massives Missbrauchspotential gegenüber Bürger einer freien Gesellschaft. Und entgegen deiner Behauptung ist Zensur natürlich nicht nur von staatlicher Seite möglich. Daher solltest du dich vllt selbst schlau machen, was Zensur ist!Dr. Chaos schrieb:Nein Grok ist zu 100% Schuld, genau wie die Ersteller!
Wenn ich dich zur Bank fahre, dort Wache schiebe, dir helfe das gestohlene Geld einzuladen, und dann mit dir flüchte, bin ich genau so am Bankraub beteiligt und genau so schuldig.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Teenagerinnen verklagen xAI: Bilder von sexuellem Kindesmissbrauch durch Grok AI
- Status
- Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Für so ne KI ist es ja generell schwierig zu wissen, ob jemand Bilder von anderen ohne dessen Zustimmung nutzt. Selbst wenn die KI sich konsequent weigert Schmutzbildchen zu erstellen (insbesondere von Minderjährigen), fallen mir noch zig andere Möglichkeiten ein, jemanden in einem KI-Bild bloßzustellen und ihn damit praktisch zum Opfer von Cybermobbing werden zu lassen (ganz ohne Sexualisierung des Opfers).
Das Problem ist eigentlich weitgreifender als nur schmutzige Bildchen, auch wenn diese jemanden eventuell am härtesten treffen und damit auch weitgreifender als nur Musk/xAI. Ohne Zustimmung der abgebildeten Person bzw. Eigentümers des Bildes sollten eigentlich gar keine Bilder von einer KI abgeändert werden.
So viel wie hier aber schon wieder polemisch über Musk hergezogen wird (ich mag den Typen ja auch nicht), weiß ich aber, ob es manchen Leuten hier wirklich um das Problem geht, oder man einfach nur den Untergang eines Unternehmens/einer Person will, weil einem dessen politische Einstellung nicht passt.
Ein Abgleich sozialer Netzwerke (zumindest mal öffentlicher Profile) würde da ggf. schon helfen. Evtl. braucht es aber sogar eine Art Bestätigung der eigenen Identität.
Das Problem ist eigentlich weitgreifender als nur schmutzige Bildchen, auch wenn diese jemanden eventuell am härtesten treffen und damit auch weitgreifender als nur Musk/xAI. Ohne Zustimmung der abgebildeten Person bzw. Eigentümers des Bildes sollten eigentlich gar keine Bilder von einer KI abgeändert werden.
So viel wie hier aber schon wieder polemisch über Musk hergezogen wird (ich mag den Typen ja auch nicht), weiß ich aber, ob es manchen Leuten hier wirklich um das Problem geht, oder man einfach nur den Untergang eines Unternehmens/einer Person will, weil einem dessen politische Einstellung nicht passt.
Ein Abgleich sozialer Netzwerke (zumindest mal öffentlicher Profile) würde da ggf. schon helfen. Evtl. braucht es aber sogar eine Art Bestätigung der eigenen Identität.
Zuletzt bearbeitet:
DeusExMachina
Lieutenant
- Registriert
- Jan. 2008
- Beiträge
- 606
@MaverickM das ist aber schon ziemlich naiv zu glauben das jeder immer weiß wie viele Bilder von ihm Existieren.
Konstruiertes Beispiel:
Jane A ist im Cheerleader Team von ihr gibt es bestimmt hunderte Bilder die mehr oder weniger frei in der lokalen Bubble existieren
Jetzt nimmt sich eine Person eines dieser Bilder unlässt den Bildgenerator einen Kompromitierenden Inhalt generieren der dann in der Lokalen Bubble anfängt zu kreisen
Vergiss nicht man braucht nicht viel mehr als ein Gesichtsfoto und das Bild von jemand mit ähnlicher Statur um daraus einen Basis Körper zu generieren der dann den wünschen des Sockenbeschmutzers angepasst werden kann.
Dank "KI" halt auch ohne Fachkenntnisse oder Künstlerisches Talent
Einhändig Schmutz bei Grok einfügen reicht leider
Konstruiertes Beispiel:
Jane A ist im Cheerleader Team von ihr gibt es bestimmt hunderte Bilder die mehr oder weniger frei in der lokalen Bubble existieren
Jetzt nimmt sich eine Person eines dieser Bilder unlässt den Bildgenerator einen Kompromitierenden Inhalt generieren der dann in der Lokalen Bubble anfängt zu kreisen
Vergiss nicht man braucht nicht viel mehr als ein Gesichtsfoto und das Bild von jemand mit ähnlicher Statur um daraus einen Basis Körper zu generieren der dann den wünschen des Sockenbeschmutzers angepasst werden kann.
Dank "KI" halt auch ohne Fachkenntnisse oder Künstlerisches Talent
Einhändig Schmutz bei Grok einfügen reicht leider
CountSero
Lieutenant
- Registriert
- Jan. 2020
- Beiträge
- 599
Ich bin wirklich fassungslos, wie viele hier behaupten, Grok sei „nur ein Tool“ und allein der Prompt‑Ersteller trage Verantwortung.
Bei allem Respekt aber bei dem, was hier passiert ist, kann man nicht einfach die Augen verschließen.
Ich habe den Eindruck, dass einige hier ihren moralischen Kompass überprüfen und sich noch einmal mit den Grundlagen von Moral und Ethik auseinandersetzen sollten.
Wir reden von einem System, das öffentlich zugänglich war und mit dem ohne Einwilligung der Betroffenen sexualisierte, strafrechtlich relevante Deepfakes aus ganz normalen, öffentlich geposteten Fotos erzeugt werden konnten. Wie kann man da ernsthaft sagen, das Tool selbst oder die Plattform hätten keinerlei Verantwortung?
Wenn ein Unternehmen ein solches Werkzeug bereitstellt, ohne moralische oder technische Schutzmechanismen (oder diese mit absicht reduziert hat), dann trägt es selbstverständlich eine Mitverantwortung. Und wenn diese Inhalte anschließend auch noch auf X verbreitet werden konnten, zeigt das ein zweites, schwerwiegendes Versagen.
Was mich besonders erschüttert hat, war die öffentliche Reaktion der Unternehmensführung. Statt klare Worte zu finden, wirkte vieles eher wie eine Verharmlosung. Für die Betroffenen, darunter viele junge Menschen und Minderjährige, ist das ein Schlag ins Gesicht.
Das Internet vergisst nicht. Diese Bilder können sie ein Leben lang verfolgen. Die psychische Belastung, die daraus entstehen kann, ist kaum vorstellbar.
Natürlich trägt der Prompt‑Ersteller die Hauptverantwortung, und es ist richtig, dass er verhaftet wurde. Aber so zu tun, als wäre damit alles erledigt, ist schlicht falsch. Wer ein solches Tool entwickelt, bereitstellt und sogar monetarisiert, ohne ausreichend Schutzmechanismen einzubauen, muss sich ebenfalls kritischen Fragen stellen.
Verantwortung endet nicht beim ersten Täter, sie beginnt dort erst.
Ich hoffe wirklich, dass dieser Fall ein Umdenken auslöst und ein Gericht hier einen Präzedenzfall schafft. Wir brauchen klare Regeln, damit Anbieter solcher Systeme künftig nicht mehr aus der Verantwortung nehmen können, wenn ihre Technologie Menschen schadet. Erst recht, wenn sie ihre Dienste monetarisieren.
Bei allem Respekt aber bei dem, was hier passiert ist, kann man nicht einfach die Augen verschließen.
Ich habe den Eindruck, dass einige hier ihren moralischen Kompass überprüfen und sich noch einmal mit den Grundlagen von Moral und Ethik auseinandersetzen sollten.
Wir reden von einem System, das öffentlich zugänglich war und mit dem ohne Einwilligung der Betroffenen sexualisierte, strafrechtlich relevante Deepfakes aus ganz normalen, öffentlich geposteten Fotos erzeugt werden konnten. Wie kann man da ernsthaft sagen, das Tool selbst oder die Plattform hätten keinerlei Verantwortung?
Wenn ein Unternehmen ein solches Werkzeug bereitstellt, ohne moralische oder technische Schutzmechanismen (oder diese mit absicht reduziert hat), dann trägt es selbstverständlich eine Mitverantwortung. Und wenn diese Inhalte anschließend auch noch auf X verbreitet werden konnten, zeigt das ein zweites, schwerwiegendes Versagen.
Was mich besonders erschüttert hat, war die öffentliche Reaktion der Unternehmensführung. Statt klare Worte zu finden, wirkte vieles eher wie eine Verharmlosung. Für die Betroffenen, darunter viele junge Menschen und Minderjährige, ist das ein Schlag ins Gesicht.
Das Internet vergisst nicht. Diese Bilder können sie ein Leben lang verfolgen. Die psychische Belastung, die daraus entstehen kann, ist kaum vorstellbar.
Natürlich trägt der Prompt‑Ersteller die Hauptverantwortung, und es ist richtig, dass er verhaftet wurde. Aber so zu tun, als wäre damit alles erledigt, ist schlicht falsch. Wer ein solches Tool entwickelt, bereitstellt und sogar monetarisiert, ohne ausreichend Schutzmechanismen einzubauen, muss sich ebenfalls kritischen Fragen stellen.
Verantwortung endet nicht beim ersten Täter, sie beginnt dort erst.
Ich hoffe wirklich, dass dieser Fall ein Umdenken auslöst und ein Gericht hier einen Präzedenzfall schafft. Wir brauchen klare Regeln, damit Anbieter solcher Systeme künftig nicht mehr aus der Verantwortung nehmen können, wenn ihre Technologie Menschen schadet. Erst recht, wenn sie ihre Dienste monetarisieren.
Dr. Chaos
Lieutenant
- Registriert
- Okt. 2024
- Beiträge
- 707
Was an Zensur ist nicht zu verstehen?Lilz schrieb:Wie bitte? Erstens kann die KI das, zweitens wäre es nach deiner Definition ja Zensur, wenn künstlerische Werke unterdrückt werden. Worunter Pornos auf jedenfall fallen können.
Staatliche oder institutionelle Kontrolle!
Außerdem sind KI Fakes keine Kunst!
Wenn du ein Autor bist und der Staat verbrennt deine Bücher dann ist das Zensur, wenn du dich auf die Straße stellst und rufst "unsere Regierung ist blöd" und du wirst dafür von der Polizei eingesperrt, verprügelt oder sogar getötet dann ist das Zensur! Wenn du hier im Forum dummes Zeugs postest und das wird gelöscht ist das keine Zensur!
Gesetze gegen Beleidigung, Volksverhetzung oder Verleumdung sind keine Zensur, sondern der Schutz der Grundrechte anderer. Meinungsfreiheit gibt dir das Recht, deine Ansicht zu äußern, aber sie gibt dir nicht das Recht, die Würde oder Sicherheit eines anderen zu verletzen.
Bitte, informier dich doch mal richtig statt irgendeinen Unsinn im Internet zu verbreiten!
@MaverickM Da schwingt aber im subkontext eine Art von Schuldumkehr mit. Das klingt schon nach „kurzer Rock, selber schuld.“
Im Beitrag steht drin, dass es sich um das Jahrbuch und Fotos vom Prom handelt (beides vermutlich digital). Das sind keine sexualisierten Fotos.
Zudem ist es einfach nicht der Realität entsprechend, wenn man erwartet, dass es keine zumindest einer teilöffentlichkeit zugänglichen Bilder von 18-19 jährigen Menschen gibt.
Das Vergehen ist nicht, dass die Mädchen Fotos von sich im Netz haben!
Eine AI ist kein vollständig passives Werkzeug, sondern in gewisser Hinsicht Akteur der auf Anweisung in einem definierten Rahmen handelt. Für den Rahmen der KI ist der Hersteller verantwortlich.
xAI und Grok haben, auf Wunsch von Musk, bewusst - entgegen Hinweisen von Dritten - die Schutzmechanismen sehr stark zusammengestrichen.
Im Beitrag steht drin, dass es sich um das Jahrbuch und Fotos vom Prom handelt (beides vermutlich digital). Das sind keine sexualisierten Fotos.
Zudem ist es einfach nicht der Realität entsprechend, wenn man erwartet, dass es keine zumindest einer teilöffentlichkeit zugänglichen Bilder von 18-19 jährigen Menschen gibt.
Das Vergehen ist nicht, dass die Mädchen Fotos von sich im Netz haben!
Eine AI ist kein vollständig passives Werkzeug, sondern in gewisser Hinsicht Akteur der auf Anweisung in einem definierten Rahmen handelt. Für den Rahmen der KI ist der Hersteller verantwortlich.
xAI und Grok haben, auf Wunsch von Musk, bewusst - entgegen Hinweisen von Dritten - die Schutzmechanismen sehr stark zusammengestrichen.
- Status
- Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Ähnliche Themen
- Antworten
- 217
- Aufrufe
- 16.288