News Teenagerinnen verklagen xAI: Bilder von sexu­ellem Kindes­missbrauch durch Grok AI

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Herrje...was muss man auf diesen Seiten so alles lesen. Gibt einen interessanten Querschnitt, was Lesekompetenz, Empathie, Rechtsverständnis, Ethik u.ä. angeht. Da kann man stellenweise echt nur den Kopf schütteln...

Der Täter ist ermittelt und wird sicherlich verurteilt. Gut so (ich hätte bei solchen "Menschen" andere Formen der Bestrafung bevorzugt...anderes Thema)

Ob nun Grok, xAI oder welches Tool auch immer, das benutzt wird um Persönlichkeitsrechte zu verletzen (und in diesem Falle auch noch von Minderjährigen), einzuschränken und mit möglichst hohen Geldstrafen zu belegen hat meine völlig Zustimmung.
Die bewusste Herabsetzng gewisser Sicherheitsstandards erfüllt bestimmt dien Tatbestand der groben Fahrlässigkeit und damit ist jedes "Tool" auch haftbar.

Leider sind die Vergleiche mit der Büchse der Pandora so was von gerechtfertigt!
 
  • Gefällt mir
Reaktionen: CountSero und Alphanerd
Brati23 schrieb:
Ich war der Meinung, dass die Firma hinter Groks nichts dafür kann wenn jemand die Software missbraucht.

Heute habe ich meinen 13jährigen Sohn nach seiner Meinung gefragt....

Und das ist eigentlich das wirklich traurige an der ganzen Sache.
Selbst dein 13-Jähriger Sohn hat bereits verstanden, welche Macht diese Werkzeuge unreguliert haben und welche Verantwortung Firmen haben sollten, die solche Werkzeuge einbinden.
Nur in unserer Politik (die von 50+ dominiert ist) hat davon noch niemand was gehört, geschweige denn verstanden, wohin die Entwicklung geht.
Und dann gibt es natürlich noch die andere Seite der Medaille. Politiker, denen das alles egal ist, weil "Wachstum über Alles" das Motto der Stunde ist. Da müssen so kleine "Fehler" halt mal vorkommen dürfen.

Leider verhält es sich hier im Forum inzwischen genauso:
Manche haben einen moralischen Kompass, der dem Entwicklungsstand eines 13-Jährigen Kindes um Jahrzehnte hinterherhinkt.
 
  • Gefällt mir
Reaktionen: CountSero
Khaotik schrieb:
Frage: Wenn ich solche Bilder nicht mit einer KI sondern mit Photoshop erstelle: Ist es dann auch legitim, wenn die Betroffenen Adobe verklagen? Letztlich habe ich auch nur mit der Hilfe deren Software dieses Bild erstellt und anschließend verteilt.
Das gleiche Argument kam vorher schon - schlechter Vergleich. Bei PS musst Du die nötigen Fähigkeiten selbst aufbringen, im Fall hier wird einfach ein Bild hochgeladen und die KI macht es selbst. Das ist etwas anderes.
 
  • Gefällt mir
Reaktionen: CountSero
MaverickM schrieb:
Es ist widerlich, was mit xAI hier öffentlich und extrem einfach möglich ist, vor allem auch im Hinblick auf Kinderpornografie. Aber: Ich stelle mir hier trotzdem, unabhängig vom eigentlichen Thema, die Frage, warum überhaupt minderjährige Mädchen (mehrere/viele?) Fotos einfach von sich ins Netz stellen.
Ein Bild war aus einem Jahrbuch.
 
  • Gefällt mir
Reaktionen: MaverickM
Kadett_Pirx schrieb:
Da kannst du noch so auf die Emotions- und Tränendrüse drücken, verantwortlich ist der Ersteller und nicht das Tool, solange es keine echte künstliche Intelligenz gibt.
Wie manche hier aus ihrer persönlichen Einschätzung eine Allgemeingültigkeit machen...
 
  • Gefällt mir
Reaktionen: CountSero
@CountSero
Um das mal ein wenig weiter zu führen: Wenn ein Täter mit einer Waffe einen Anschlag verübt, dann wird, wenn er noch zu fassen ist, nicht nur der eigentliche Täter herangezogen, sondern auch die, die ihm den Zugang zu der illegalen Waffe ermöglicht haben. Und genau so sollte es sich hier darstellen.
 
  • Gefällt mir
Reaktionen: Ironbutt, CountSero und Incanus
Jedem, der meint solche Tools oder deren Gebrauch missbräuchlich (im wahrsten Sinne des Wortes) zu benutzen, sei ja nicht schlimm, empfehle ich die morgen erscheinende Spiegel Titelstory zu lesen. Habe mir das vorhin durchgelesen und was das mit einem Menschen macht kann man da sehr gut erkennen. Klar, noch schlimmer, wenn es der eigene Ehemann/nahe Verwandte sind, aber prinzipiell einfach krass.
 
Brati23 schrieb:
Heute habe ich meinen 13jährigen Sohn nach seiner Meinung gefragt und den Vergleich zu Hammer und Messer gebracht.
Seine Antwort: "Papa sei mal nicht so naiv. Der Hersteller von Hammer und Messer kann nicht verhindern, dass es als Gewalt-Werkzeug Missbraucht wird. Der Entwickler der AI hätte solche Sachen aber verhindern und vorhersehen müssen. Es war doch klar, dass es missbraucht wird UND wäre zu verhindern gewesen."
Der hersteller von Hammer und Messer hätte vorhersehen müssen, dass seine Werkzeuge von bösen menschen missbraucht werden. Von daher ist das Argument nicht ganz schlüssig.
Das einzige was X zuvor tun hätte können war, eine Sicherung einzubauen. Aber wie so oft wird aus Fehlern gelernt. Nachher ist man immer schlauer.
Erinnert mich an das meme
 
Rainbowprincess schrieb:
Das einzige was X zuvor tun hätte können war, eine Sicherung einzubauen. Aber wie so oft wird aus Fehlern gelernt. Nachher ist man immer schlauer.
Was für eine Verharmlosung der Tatsachen. Hier ist nicht zufälligerweise ein Fehler passiert. Die Sexualisierung von Grok war von Elon Musk persönlich in Auftrag gegeben worden und die Regeln für das KI-Training wurden bewußt gelockert. (Quelle)

Besonders verwerflich ist folgender Absatz aus dem Artikel:

Dem Bericht zufolge mussten Mitarbeitende von xAi bereits im Frühjahr 2025 eine Verzichtserklärung unterzeichnen. Darin willigten sie ein, im Rahmen des KI-Trainings mit sensiblen, gewalttätigen, sexuellen und "anderen verstörenden Inhalten" zu arbeiten, die "traumatisierend und psychisch belastend" sein können.

Welche Synapsen müssen falsch verdrahtet sein, um sich so etwas schönzureden und zu verteidigen?! Das ist kranker Sch...
 
  • Gefällt mir
Reaktionen: LadyAlice, CountSero und Alphanerd
Ein öffentliches verfügbares KI Modell, sei es für Bild-, Video- oder Text-Generierung, braucht aus rechtlichen und compliance Gründen immer eine Filter- / Sicherheitsschicht.

Meist sind es auch zwei:

Ein Pre- Filter, der den Prompt / Bild-Input auf illegale Inhalte filtert, und einen Post-Filter, der das gleiche mit dem Output macht. Beides sind meist auch spezialisierte / darauf trainierte KI Modelle…diese sind nicht perfekt, aber man muss als Firma zumindest glaubhaft den Eindruck vermitteln, etwas gegen illegale Inhalte zu unternehmen. Grok / xAI tut das nicht und das ist eigentlich grob fahrlässig….

Die Filter sind meist recht ordentlich, haben aber sowohl false negatives (illegales rutscht durch) als auch false positives (harmloses wird als illegal betrachtet)….was in der Sache liegt, da sowohl text als auch Bild unterschiedlich interpretiert werden können.

Das kann man als Challenge auch selbst ausprobieren. Mit kreativem prompting bekommt man auch von ChatGPT den Kinderbuch-Charakter Conni im Jahr 1933 in einer bestimmten Uniform mit bestimmten Symbolen…

Bei lokalen Modellen geht sowieso praktisch alles….auch wenn es nicht in den Trainingsmaterialien enthalten ist. Die zugrunde liegenden Transformer Modelle generalisieren ihr Wissen und kennen bei reinem Basis Training keine Moral. Die muss auch erst antrainiert werden…andersherum lässt sich aber auch illegales explizit on top auf Basis eines legalen Modells trainieren…

Und auch solches antrainiertes Verhalten lässt sich durch mathematische Analysen und Methoden meist recht einfach rückgängig machen…da merkt man, das KI Modelle in der Basis nur Vektormathematik sind. Stichwort Heretic bei LLMs.

Keine Ahnung, was Leute alles privat mit diesen mächtigen Tools machen…man sollte es halt nicht öffentlich machen und zeigen, dann wird es definitiv strafbar…
 
Viele Beiträge erinnern mich an das Kredo der US-Waffenlobby "Waffen bringen keine Menschen um. Menschen bringen Menschen um."
Die Wahrheit ist "Menschen mit Waffen bringen andere Menschen um"
 
  • Gefällt mir
Reaktionen: CountSero, Ironbutt und Alphanerd
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben