ProfessorJump schrieb:
Es wurden hier Bildbearbeitungstools genannt, diese zählen für dich nicht, weil es nur am Ersteller hängt, richtig?
Wie sieht es dann Offline mit StableDiffusion aus, haftet dann zusätzlich der Coder des Programms, der Trainer des Modells (wo alle Trainingsdaten legal sind) oder doch der Ersteller, welcher in dieses Modell seinen illegalen Input einfügt?
Hier würde ich die Schuld einzig beim Ersteller suchen.
Einen Ansatzpunkt bei Grok würde ich wenn bei den Trainingsdaten sehen (keine Ahnung, ob man da rankommt) und scheinbar wird Grok ja auch auf dem Output der Nutzer weitertrainiert.
Wenn ich das richtig verstehe ist diese Option nur opt-out, wodurch wohl illegale Daten ins System gelangen könnten.
Ist das dein Argument?
Wenn ich einen Denkfehler mache, sag es mir gerne und die Frage oben (an Krik) darfst du auch gerne beantworten.
Und dies ist auch der Grund, weswegen ich eine Gesetzgebung speziell für KI für zwingend notwendig halte, momentan läuft alles aus dem Ruder und es wird munter Catfishing betrieben, gescammt (Verkaufsportale), geklaut (Content jeglicher Art fürs Training) und sogar Kriegspropaganda mit bekannten Marken erstellt (siehe USA).
Ja, viele dieser Taten sind von alten Gesetzen abgedeckt, aber einiges sind eben auch Grenzfälle (siehe Frage oben oder Shrimp Jesus).
Also ich versuche es mal anders zu erklären.
Wenn jemand ein Offline‑Tool verwendet, z. B. Gimp oder ähnliches, dann liegt die Verantwortung ausschließlich beim Ersteller. Ich bezweifle aber stark, dass ein normaler Anwender damit Deepfakes erzeugen kann, die nicht mehr vom Original zu unterscheiden sind. Diese Art von Missbrauch wurde für Laien meiner Meinung nach erst durch generative KI möglich.
Ähnlich sehe ich es bei lokal gehosteten LLMs. Auch hier liegt die Verantwortung beim Ersteller. Wobei ich trotzdem hinterfragen würde, ob es sich um ein selbst erstelltes Modell handelt (was sehr unwahrscheinlich ist) oder um ein Modell aus dem Internet, egal ob kostenlos oder gekauft. Wenn es Modelle im Web gibt, die es ermöglichen, strafrechtlich relevanten Content zu erzeugen, dann sollte man auch hier die Legalität prüfen. Und natürlich unterscheide ich zwischen legalem Erwachsenen Content, der mit Einwilligung erstellt wurde, und Inhalten, die strafrechtlich relevant sind, weil sie ohne Erlaubnis oder sogar mit Minderjährigen erzeugt wurden.
Außerdem sehe ich die Schwelle der Machbarkeit bei lokalen Modellen deutlich höher. Nicht jeder hat die Hardware, die Zeit oder das Know‑how, so etwas selbst zu hosten und korrekt einzurichten.
Wobei ich aber auch der Meinung bin, dass vermutlich 90 % der aktuell frei verfügbaren Modelle mit illegalen Daten trainiert wurden. Deshalb steht für mich die Frage nach Regulierung auch hier im Raum.
Dann kommen wir zur dritten Variante, die hier auf den Artikel zutrifft, denn Grok war meines erachtens ein Sonderfall.
Es war ein öffentlich zugängliches KI‑Modell, das strafrechtlich relevante Inhalte erzeugen konnte. Mit X (Twitter) eine Plattform, die diese Inhalte anschließend verbreitet hat. Ein Unternehmen, das das Feature monetarisiert hat. Und ein Opt‑out‑Training, das sogar illegale Nutzerdaten wieder ins Modell zurückführen konnte.
Das ist meiner Meinung nach eine völlig andere Verantwortungsebene als bei einem Offline‑Tool.
Ich sage nicht, dass der Prompt‑Ersteller keine Hauptverantwortung trägt, im Gegenteil. Aber wenn ein Unternehmen ein solches System bereitstellt, ohne ausreichende Schutzmechanismen, und es jedem ohne Fachwissen ermöglicht, strafbare Inhalte zu erzeugen, dann trägt es ebenfalls Mitverantwortung.
Das ist für mich auch keine Verschiebung von „Verantwortung“ oder „Schuld“, sondern eine Frage von Sorgfaltspflichten, die jedes Unternehmen hat, das solche Systeme der Öffentlichkeit zur Verfügung stellt.
Und wenn diese Sorgfaltspflichten nicht eingehalten werden, trägt das Unternehmen eben eine Mitverantwortung. Das gilt für mich auch für jedes andere Unternehmen, das generative KI anbietet und damit bei einer sehr niedrigen Machbarkeitsschwelle die Erstellung strafrechtlich relevanter Inhalte für jeden ermöglicht.
Genau deshalb brauchen wir meiner Meinung nach dringend klare gesetzliche Rahmenbedingungen für KI.
Da sind wir uns doch hoffentlich einig.
Kadett_Pirx schrieb:
Da kannst du noch so auf die Emotions- und Tränendrüse drücken, verantwortlich ist der Ersteller und nicht das Tool, solange es keine echte künstliche Intelligenz gibt.
Es geht nicht darum, „auf die Tränendrüse zu drücken“, sondern darum, dass Grok nicht einfach ein neutrales Werkzeug wie ein Offline‑Programm ist. Das hat nichts mit „echter KI“ zu tun, sondern mit Sorgfaltspflichten.
Der Ersteller trägt die Hauptverantwortung, da sind wir uns völlig einig. Aber sobald ein Unternehmen ein KI‑System öffentlich bereitstellt, es monetarisiert, weitertrainiert und in eine öffentliche Plattform integriert, entsteht automatisch eine zusätzliche Verantwortungsebene.
Wenn dieses System dann noch strafrechtlich relevante Inhalte erzeugen kann und diese Inhalte anschließend auf derselben Plattform verbreitet werden, dann kann man nicht mehr so tun, als hätte der Betreiber keinerlei Mitverantwortung.
So funktioniert Verantwortung im digitalen Raum einfach nicht. Das ist keine Frage von Emotionen, sondern wie bereits gesagt eine Frage von Sorgfaltspflichten. Wobei ich ehrlich gesagt von manchen Usern hier ein bisschen mehr Empathie erwarten würde, immerhin geht es um reale Menschen, die durch solche Inhalte langfristig geschädigt werden können.
banditone schrieb:
Ja, der Ersteller ist ganz allein schuldig. Oder sind demnächst die Tools Bleistift und Papier schuldig, wenn damit CSAM-Material erstellt wird? Oder ist das Tool des Vergewaltigers mitschuldig (sein Geschlechtsteil, seine Finger oder ein Gegenstand), wenn eine Vergewaltigung stattfindet?
All diese Tools sind übrigens öffentlich zugänglich bzw. werden vom Täter jederzeit mit sich geführt und sind wie die KI sehr einfach zu bedienen.
Der Vergleich mit Bleistift, Papier oder Körperteilen hinkt an allen Ecken. Diese Dinge sind passive Werkzeuge, die keinerlei eigene Funktionalität besitzen, keine Inhalte erzeugen und nicht in eine Plattform eingebettet sind, die diese Inhalte anschließend verbreitet.
Grok war und ist aber kein neutrales Werkzeug, sondern ein öffentlich bereitgestelltes KI‑System, das strafrechtlich relevante Inhalte erzeugen konnte und auch noch monetarisiert wurde bevor man das feature deaktiviert hat. Und das konnte direkt auf der gleichen Social‑Media‑Plattform verbreitet werden.
Das ist eine völlig andere Verantwortungsebene.
Der Prompt‑Ersteller bleibt der Haupttäter, da gibt es keinen Widerspruch.
Aber wenn ein Unternehmen ein System bereitstellt, das ohne ausreichende Schutzmechanismen funktioniert und es jedem ermöglicht, strafbare Inhalte zu erzeugen und zu verbreiten, dann trägt dieses Unternehmen ebenfalls eine Mitverantwortung.
Das hat was mit Sorgfaltspflichten zu tun und diese gelten immer dann, wenn ein Anbieter ein System der Öffentlichkeit zugänglich macht, das Missbrauch in großem Stil ermöglicht.