News KI-Bildbearbeitung auf X: Grok erstellt sexualisierte Inhalte von Frauen und Minderjährigen

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zhenwu schrieb:
Dann sind die ganzen CEOs und Chefs von allen Bildbearbeitungstools auch ein Problem. Denn die haben auch keine Mechanismen.
Was man auf seinen PC treibt, das darf niemanden interessieren. Das ist Privat. Hier wiegt das Recht auf Privatsphäre stärker. (Eine (angedachte) Massenüberwachung wäre schlicht unverhältnismäßig)

Jedoch gibt es offenbar Wirksame Mittel, die Verhindern sollen, das man Strafrechtlich relevante Dinge über Online Dienste erstellt. Darum sollte es gehen.

Bzw. ich weiß nun nicht, wie das bei X läuft aber sind Fakeprofile hier so einfach zu erstellen? Alle, die nun diese spezielle Art von Pornographie erstellen, sollten nach deiner definition nun alle mit einem Prozess rechnen dürfen. Passiert das? Das kann aber auch nicht im Sinne von Platformer sein, die User mit einem Bein im Gefängnis zu schicken.
 
Meta.Morph schrieb:
Was man auf seinen PC treibt, das darf niemanden interessieren. Das ist Privat. Hier wiegt das Recht auf Privatsphäre stärker.
Nicht stärker als das Strafrecht. Wenn du illegale Inhalte erstellst oder besitzt, dann ist das nicht durch deine Privatsphäre abgedeckt.
 
  • Gefällt mir
Reaktionen: Alphanerd
Meta.Morph schrieb:
Denn noch kann man Großkonzerne wie X damit nicht so einfach freisprechen.
Lies noch mal - ich hab X für die Verbreitung nicht freigesprochen - im Gegenteil - Das erstellen und Verbreiten steht nun mal unter Strafe. Nur das Werkzeug selbst kann man nicht verurteilen mMn.

Meta.Morph schrieb:
Alle, die nun diese spezielle Art von Pornographie erstellen, sollten nach deiner definition nun alle mit einem Prozess rechnen dürfen. Passiert das? Das kann aber auch nicht im Sinne von Platformer sein, die User mit einem Bein im Gefängnis zu schicken.
Warum nicht? Wenn es strafrechtlich relevante Inhalte sind, MUSS der Betreiber sämtliche bekannten Daten des Erzeugers herausrücken (wenn er gefragt wird) und die Verbreitung strafrechtlich relevanter Inhalte sofort einstellen. Ob das am Ende zu einem Prozess führt (eine ausreichende Grundlage dafür besteht) steht auf einem anderen Blatt. Das ist doch unabhängig davon ob das nun mit KI erstellt wurde oder nicht, längst etabliert und wird gerade wenn es um Kinderpornografie geht, zumindest mal in der EU auch umgesetzt.
Es macht doch kaum einen Unterschied, ob ich etwas strafrechtlich relevantes mit KI erstelle und auf X poste, oder mit anderen Mitteln erstelle und auf X poste. Ich und eventuell X machen sich damit für das erstellen/verbreiten strafbar.

Jetzt hab ich mir nicht im Detail angeschaut, was da auf X tatsächlich verbreitet wird und kann daher selbst auch nicht einschätzen, ob es sich dabei wirklich um etwas handelt, was strafrechtlich relevant wäre. Wenn es das aber sein sollte, kannst du sicher sein, dass die Justizmühlen da nicht mal so langsam sind, wie mancheiner hier denkt - EU-Länder verstehen bei Kinderpornografie gar keinen Spaß. Was glaubst du warum verbotene Inhalte im Netz recht selten und schwer zu finden sind - weil die Justiz da nur blöd daneben stehen bleibt und nichts unternimmt? Weil da nie jemanden der Prozess gemacht wird?

Klar ist das manchmal fast ein Kampf gegen Windmühlen, aber ich finde im weltweiten Vergleich schlägt man sich in der EU da nicht so schlecht, auch wenn es sicherlich viele Möglichkeiten gibt das noch besser zu machen. Das Problem bei KIs zu suchen und da auf strengere Regularien zu pochen, wird allerdings niemanden wirklich helfen. Täter würden einfach auf eigene Modelle ausweichen, die sie selbst trainieren und jeder der mit KI ernsthaft arbeiten will, wird jedes mal genervter, wenn die KI wieder mal fälschlicher weise meint er würde irgendwas Verwerfliches machen und seine Arbeit unterbindet/verhindert.
 
Zuletzt bearbeitet:
Meta.Morph schrieb:
Was man auf seinen PC treibt, das darf niemanden interessieren. Das ist Privat. Hier wiegt das Recht auf Privatsphäre stärker. (Eine (angedachte) Massenüberwachung wäre schlicht unverhältnismäßig)
Nochmal, ich kann in PS bearbeitete Bilder auch überall hochladen.
Das Werkzeug macht dabei 0 unterschied.
Meta.Morph schrieb:
Jedoch gibt es offenbar Wirksame Mittel, die Verhindern sollen, das man Strafrechtlich relevante Dinge über Online Dienste erstellt. Darum sollte es gehen.
Dann muss genau so unterbunden werden, strafrechtlich relevante Dinge irgendwo hochzuladen
Meta.Morph schrieb:
Bzw. ich weiß nun nicht, wie das bei X läuft aber sind Fakeprofile hier so einfach zu erstellen? Alle, die nun diese spezielle Art von Pornographie erstellen, sollten nach deiner definition nun alle mit einem Prozess rechnen dürfen. Passiert das? Das kann aber auch nicht im Sinne von Platformer sein, die User mit einem Bein im Gefängnis zu schicken.

Jongleur666 schrieb:
Dein Ernst, dass du den fundamentalen Unterschied nicht verstehst? Oder wahrscheinlich eher nicht verstehen willst? Sorry, auf dem Niveau macht eine ernsthafte Diskussion für mich keinen Sinn.
Dann erklär mir doch bitte den Unterschied zwischen Mensch - KI - Posten in X und Mensch - PS - Posten in X

Die Polizeit Brandenburg definiert Kinder- und Jugendpornografie wie folgt.
Unter Kinderpornografie werden Bilder, Videos, auch Schriften oder Zeichnungen verstanden, die sexuelle Handlungen von, an oder vor einer Person unter 14 Jahren zeigen (§ 184b StGB).


Als Jugendpornografie gelten pornografische Darstellungen, die sexuelle Handlungen von, an oder vor Personen von 14 bis 18 Jahren abbilden (§ 184c StGB).


Hat sowas Grok wirklich erstellt?
 
  • Gefällt mir
Reaktionen: nciht
braindamage10k schrieb:
Nicht stärker als das Strafrecht. Wenn du illegale Inhalte erstellst oder besitzt, dann ist das nicht durch deine Privatsphäre abgedeckt.
Wir sprechen aber immer noch über KI Content? Der nur dann zum Problem wird, wenn man ihn veröffentlicht. Content mit echten Kindern kann davon immer schwerer unterschieden werden.
nciht schrieb:
Nur das Werkzeug selbst kann man nicht verurteilen mMn.
Der Anbieter des Dienstes aber schon.
Wie gesagt, andere Anbieter machen das.

Aber gut. Dann machen wir die Nutzer tatsächlich verantwortlich. Die Wege sollten ja kurz sein.
Dann ist aber auch klar, dass jeder klar denkende Mensch einen Bogen um diesen Service macht oder machen sollte. Selbst wenn man nicht explizit danach fragt, kann es immer vorkommen, das die KI komische Dinge zusammenwürfelt oder das man einen "dummen" Prompt abschickt. Und dann Rechtliche Konsequenzen fürchten zu müssen? Das Risiko würde ich nicht eingehen...

Zhenwu schrieb:
Dann muss genau so unterbunden werden, strafrechtlich relevante Dinge irgendwo hochzuladen
Sicher. Hab ich beschrieben.
 
Meta.Morph schrieb:
Wir sprechen aber immer noch über KI Content? Der nur dann zum Problem wird, wenn man ihn veröffentlicht.
Wo ist bitte der entscheidende (strafrechtlich relevante) Unterschied zwischen verbotenem Content der von einer KI erstellt wurde und verbotenem Content der mit anderen Mitteln erstellt wird. Man kann auch in Photoshop bei Bildern von Kindern in Bademode z.B. die Bademode so wegretuschieren und ersetzen, dass es den Straftatbestand erfüllt. Das wird auch täuschend echt aussehen und verletzt diverse Rechte der betroffenen Personen. Dauert halt 5 Minuten statt wenigen Sekunden. Und noch mal - beschränkst du die KIs größerer Konzerne, weichen Täter halt aus auf eigene KI-Modelle die sie selbst trainieren. Stable Diffusion läuft bei mir auch offline und ich trainiere Modelle zu größeren Teilen selbst (logisch nicht für illegalen Content). Mehr als ne potente GPU brauchst du dafür nicht.

Meta.Morph schrieb:
Aber gut. Dann machen wir die Nutzer tatsächlich verantwortlich. Die Wege sollten ja kurz sein.
Wen willst du sonst verantwortlich machen außer denjenigen, der Kinderpornografisches Material erstellt und verbreitet?

Meta.Morph schrieb:
Dann ist aber auch klar, dass jeder klar denkende Mensch einen Bogen um diesen Service macht oder machen sollte.
Welchen Service? Du meidest ja auch nicht WMF, weil mit deren Messer jemand erstochen wurde, oder? Oder willst du X meiden für das Verbreiten? Kann man auch aus drölftausend anderen Gründen meiden, wenn man will, aber das eine musst du trotzdem getrennt von der KI als Werkzeug und dessen Entwickler betrachten. Es geht ja nicht nur um Grok.

Meta.Morph schrieb:
Der Anbieter des Dienstes aber schon.
Wenn du das Werkzeug nicht verantwortlich machen kannst, kannst du logisch auch nicht den Entwickler des Werkzeuges verantwortlich machen. Du kannst X ggf. für die Verbreitung verantwortlich machen. Nur weil da die gleiche Person dahinter steckt, heißt das aber nicht, dass du das in einen Topf werfen kannst. Die Logik: X hat es verbreitet und die KI gehört auch Musk, deswegen ist die KI irgendwie mitschuldig am erstellen/verbreiten dieses Contents, ergibt nunmal null Sinn, aber ich tue mich wirklich schwer etwas anderes bei dir herauszulesen.

Meta.Morph schrieb:
Selbst wenn man nicht explizit danach fragt, kann es immer vorkommen, das die KI komische Dinge zusammenwürfelt oder das man einen "dummen" Prompt abschickt. Und dann Rechtliche Konsequenzen fürchten zu müssen? Das Risiko würde ich nicht eingehen...
Dein Ernst? Wie dumm glaubst du sind Richter in deinem Land, dass die dir aus so einem Prompt nen Strick drehen? Bzw. was ist das für ein Rechtssystem in deinem Land, dass die dich für nen zufällig komisch erstellten Prompt alleine schon einbuchten können? Ich vertraue ja der Justiz im Allgemeinen schon, dass die das recht gut unterscheiden können, ob ich beabsichtigt solche Inhalte erstelle und verbreite. Zumindest in jedem EU-Land gibt es da recht klare Richtlinien ab wann du den Straftatbestand erfüllst. Nicht zuletzt darf es auch keinen Zweifel geben alá "könnte versehentlich vom promt so erstellt worden sein" - Deine merkwürdige Sorge ist also vom Rechtssystem bereits abgedeckt. Zumindest mal hier in der EU.

Ansonsten sprach ich eher davon, dass KI-Unternehmen auffälliges Verhalten ihrer User melden sollten (Auffälliges Verhalten muss nicht schon beim ersten zufällig komischen Prompt getriggert werden. Das kann so ein größeres Unternehmen schon besser feinjustieren). Was die Justiz dann mit der Information macht, ist deren Sache - Die müssen bei dir aber natürlich auch eine Straftat erst mal feststellen, bevor die dich einbuchten. Das melden auffälliger User hilft sicherlich mehr im Kampf gegen Kinderpornografie, als das beschränken der KI. Ersteres gibt Hinweise auf echte Täter und letzteres zwingt die Täter maximal ne andere KI zu nutzen (ohne dass die dabei erfasst werden) - ist also komplett nutzlos als Maßnahme. Mit ersterem kannst du wenigstens die dummen Täter fassen, die online Ressourcen nutzen um illegalen Content zu erstellen.
 
Zuletzt bearbeitet:
Kaufmannsladen schrieb:
AI-Bildgeneratoren wie das von Grok laufen auf den Servern einer Firma
Das ist Quatsch! AI Bildgeneratoren laufen auf jedem halbwegs vernünftigen PC! Willst jetzt die Grafikkarten Hersteller auch in die Pflicht nehmen?

Hier wird ganz schön viel Lärm um etwas gemacht, was Jahre lang schon ohne Probleme erstellt werden kann. Interessant, dass keiner von denen, die so gegen Grok oder Musk schießen darauf eingehen will.

Die Ersteller sind das Problem und nicht die Tools. Prinzipiell kann erstmal jeder erstellen was er will, das veröffentlichen solcher Deepfakes ist halt das Problem.
 
  • Gefällt mir
Reaktionen: marco490, Zhenwu und nciht
nciht schrieb:
Wo ist bitte der entscheidende (strafrechtlich relevante) Unterschied
KI Content erfordert keine (weiteren) Opfer. Wenn die Trainingsdaten zweifelhaft sind und der Nutzer davon wissen muss (weil er irgendwo im Darknet ein Modell heruntergeladen hat) dann kann daraus sicher weitere Konsequenzen erwachsen (Mittäterschaft oder Besitz von Kinderpornographie - bezogen auf das Modell). Aber in erster Linie sind die Ersteller des Modells für die Trainingsdaten verantwortlich.

nciht schrieb:
zwischen verbotenem Content der von einer KI erstellt wurde und verbotenem Content der mit anderen Mitteln erstellt wird. Man kann auch in Photoshop bei Bildern von Kindern in Bademode z.B. die Bademode so wegretuschieren und ersetzen, dass es den Straftatbestand erfüllt.
Oder ich kann ein Bild Malen (kann ich nicht, wegen fehlendem Talent) - mit diesem Content. Wenn keine echte Menschen dafür leiden müssen und das Privatsache bleibt, sehe ich keinen Grund für Überregulation und eigentlich wäre die zwingende Folge: Massenüberwachung. Wie sonst will man das durchsetzen?

nciht schrieb:
Wen willst du sonst verantwortlich machen außer denjenigen, der Kinderpornografisches Material erstellt und verbreitet?
Jeden, der dabei Hilft?
Nochmal die Frage: Werden die Ersteller nun belangt? Nein? Warum nicht? Doch eine juristische Grauzone/ zu Kompliziert? Wissen das die Leute von X?

Einfach nicht erlauben. Wie das jede andere Plattform auch tut und gut ist.

nciht schrieb:
trotzdem getrennt von der KI als Werkzeug und dessen Entwickler betrachten
Ich trenne schon zwischen Werkzeug und dem Anbieten eines Raumes, über dem man illegale Inhalte nicht nur erstellen kann sondern auch veröffentlichen kann.

nciht schrieb:
Dein Ernst? Wie dumm glaubst du sind Richter in deinem Land, dass die dir aus so einem Prompt nen Strick drehen?
Natürlich. Und glaubst du, Gerichte hätten nichts besseres zu tun? Immerhin hört man ja immer wieder davon, das die Justiz überlastet ist.

Nutzt man das vielleicht auch aus? Ist Sozial Media in Wahrheit nicht darauf aufgebaut, das die vielen Millionen Nutzer Rechtsbrüche begehen?

Und ob ein Richter tatsächlich sich mit Technik auskennt, ist anzweifeln:
Da erzählt ein Anwalt, wie er Richtern einfache Begriffe kontextualisieren muss.
 
Zuletzt bearbeitet:
MGFirewater schrieb:
schlimm genug das in den usa sich keiner traut musk als ceo wegen der verbreitung von kinderpornografie anzuzeigen bzw zu verklagen.
...warum sollte man auch? Wenn dein Nachbar Kinderpornos verbreitet, zeigst du dann den Nachbar oder seinen Internetprovider bei der Polizei an?

Zumal ich deine Verwendung des Begriffs "Kinderpornos" für willentlich unsauber halte: Es gibt eine gewaltige Lücke zwischen "Kinderpornos" mit Darstellungen echter Kinder, und Fake-Bildern mit kinderpornografischen Inhalt. Letzteres mag zwar obszön sein, ist im Kontext von echtem Kindesmissbrauch aber fast schon irrelevant.

Und in den USA haben die weit größere Probleme als das, die Epstein-Geschichte ist auch weiterhin die reinste Farce.

MGFirewater schrieb:
In Deutschland gibt's aber zum Glück genug mecker Michels
Lass mich raten: Am besten auch die Verbreitung von Fake-Bildern äquivalent zur Verbreitung echter Kinderpornos verfolgen, und bestenfalls eine Todesstrafe für Pädophilie hinterher.

Dass letzteres erstmal nur eine geistige Störung und kein Straftatbestand ist, wird beim Stammtisch dabei gut und gern vergessen, man kommt ja nicht zum Denken sondern zum Meckern in die Kneipe. :hammer_alt:
 
Aus meiner Sicht sollen die ruhig Promis in Bikinis generieren. Wenn sie diese dann irgendwo als Fake veröffentlichen ist das eine Straftat. Mein Küchenmesser ist auch nicht illegal. Wenn ich damit jemanden verletze werde ICH bestraft, nicht das Messer. Also aus meiner Sicht ist es weder die KI noch die Plattform die hier das Problem ist.
 
  • Gefällt mir
Reaktionen: Zhenwu und Kadett_Pirx
braindamage10k schrieb:
Nicht stärker als das Strafrecht. Wenn du illegale Inhalte erstellst oder besitzt, dann ist das nicht durch deine Privatsphäre abgedeckt.
Sehr richtig. Ich verstehe ja das viele hier auf einem Kreuzzug sind und das ist sogar okay. Streiten wir uns zur Abwechslung mal nicht über menschliche Schicksale sondern Software. Der Einsatz ist so gering. Aber seid ihr euch auch wirklich sicher das ihr auf dem RICHTIGEN Kreuzzug seid?
 
Meta.Morph schrieb:
KI Content erfordert keine (weiteren) Opfer.
Was soll das überhaupt aussagen? KI-Content erfordert keine Ofper ist der Unterschied zu Content der mit anderen Mitteln erstellt wurde und deswegen soll KI strenger reguliert werden? Das war ja meine Frage.

Meta.Morph schrieb:
Aber in erster Linie sind die Ersteller des Modells für die Trainingsdaten verantwortlich.
Das ergibt halt überhaupt keinen Sinn - auch Modelle die nicht dazu entwickelt wurden kinderpornografisches Material zu erstellen, können dafür verwendet werden, genau so wie eben auch ein Küchenmesser für Gewaltverbrechen verwendet werden kann. Du setzt die reine Möglichkeit des Missbrauchst mit einer Mithilfe zur Tat gleich. Das ist halt kompletter Unsinn. Ich sprach von Mitteln zur Erstellung von Kunderpornografie abseits von KI. Wo ist da ein Unterschied auf Grund dessen KI stärker reguliert werden muss.

Meta.Morph schrieb:
Nochmal die Frage: Werden die Ersteller nun belangt? Nein?
Nein, wenn ein Straftatbestand (bei Kinderpornografie) vorliegt wird da auch ermittelt. Wenn nicht ermittelt wird, könnte das daran liegen, dass kein Straftatbestand vorliegt/es sich nicht um Kinderpornografie handelt - oder der Straftatbestand als zu gering erachtet wird um dafür irgendwelche Ressourcen zu verschwenden - aber das ist bei derart verwerflichen Inhalten eigentlich nie der Fall. Alles andere sind Lügen die du dir gerne selbst erzählen kannst, aber andere müssen das ja nicht glauben. Nenne mir mal einen Straftatbestand eindeutiger Kinderpornografie, der zur Anzeige gebracht und nicht ermittelt wurde und nicht irgendein Otto der straffrei mit ner Beleidigung davon kam.

Meta.Morph schrieb:
Doch eine juristische Grauzone/ zu Kompliziert?
Es gibt keine juristische Grauzone bei Kinderpornografie. Und es ist auch nicht kompliziert, wenn man mal verstanden hat, dass ein Werkzeug nicht dafür verantwortlich gemacht werden kann wofür es genutzt wird. Letzteres macht es nur für Leute kompliziert die nach einer rechtlichen Grundlage suchen das Werkzeug stärker einzuschränken - Ja das ist kompliziert, weil man sich dafür erst mal ne richtig schräge Logik zusammenreimen muss, wieso das Werkzeug jetzt genau Schuld ist.

Meta.Morph schrieb:
Einfach nicht erlauben. Wie das jede andere Plattform auch tut und gut ist.
Welche anderen Plattformen sollen das sein? Illegale Inhalte zu erzeugen, bekommst du mit den richtigen Prompts fast überall irgendwie hin. Du stellst dir das zu einfach vor. Was ist mit offline-Modellen, Modellen im Open Source Bereich, Stable Diffusion, oder auch dem recht einfachen Umgehen solcher Grenzen durch Promts? Wenn du die KI so stark beeinträchtigst, dass Kinderpornografie nie möglich ist, egal mit welchen Promts, wirst du alle möglichen komplett legalen Bereiche die sich irgendwie damit leicht überschneiden negativ mit beeinflussen und unbrauchbar machen.

Meta.Morph schrieb:
Wenn keine echte Menschen dafür leiden müssen und das Privatsache bleibt, sehe ich keinen Grund für Überregulation und eigentlich wäre die zwingende Folge: Massenüberwachung.
Wieso Massenüberwachung - die Daten die du eingibst und zurückbekommst sind so oder so vom Anbieter überwacht und dem stimmst du auch so zu, wenn du die KI nutzt. Es geht nur darum ob der Anbieter (welcher eh weiß was du so machst) bei sehr merkwürdigem Verhalten ggf. mal die Behörden anhauen soll. Und jeder Pädophile der dadurch geschnappt wird ist mit hoher Wahrscheinlichkeit auch verhindertes Leid an echten Menschen. Das ist absolut keine Krankheit bei der es voll in Orndnung wäre, das privat im stillen Kämmerlein auszuleben. Deswegen ist ja auch alleine schon der Besitz strafbar.

Meta.Morph schrieb:
Natürlich. Und glaubst du, Gerichte hätten nichts besseres zu tun? Immerhin hört man ja immer wieder davon, das die Justiz überlastet ist.
Bei dem Thema wird extrem schnell gehandelt - da versteht die Justiz keinen Spaß - Was du als Beispiel bringst ist ein komplett anderes Thema. Ob der 70 Jährige Nazi Reinhard auf X ne Rechtsparole rausgehauen hat, spielt halt für die Justiz in einer anderen Liga, als Kinderpornografie und entsprechend unterschiedlich schnell wird da auch reagiert. Das kann auch jeder mit ein bisschen Hausverstand nachvollziehen, warum.

Meta.Morph schrieb:
Ist Sozial Media in Wahrheit nicht darauf aufgebaut, das die vielen Millionen Nutzer Rechtsbrüche begehen?
Was erzählst du mir als nächstes? Die NASA war nie auf dem Mond und die Erde ist flach?
 
Zuletzt bearbeitet:
_Cassini_ schrieb:
Das ist Quatsch! AI Bildgeneratoren laufen auf jedem halbwegs vernünftigen PC! Willst jetzt die Grafikkarten Hersteller auch in die Pflicht nehmen?
Es geht hier aber nicht um irgendeinen lokalen AI-Bildgenerator, sondern um den in Grok, wohinter eine Firma mit einem Firmenwert im dreistelligen Milliardenbereich steht.
 
_Cassini_ schrieb:
Ach so. Wenn ich mir ein Bild von X nehmen, da bearbeite in PS und dann wieder in X hochlade ist das natürlich was ganz anderes.
Ja, ist es. Der KI-Bildgenerator wird ein besseres Ergebnis liefern als 99 % der Menschen da draußen mit Photoshop.
 
Zuletzt bearbeitet: (Rechtschreibung)
nciht schrieb:
Was soll das überhaupt aussagen?
Ja. Der Satz ist unvollständig:
KI Content erfordert keine (weiteren) Opfer - wenn alles Privat bleibt.

nciht schrieb:
Das ergibt halt überhaupt keinen Sinn - auch Modelle die nicht dazu entwickelt wurden kinderpornografisches Material zu erstellen, können dafür verwendet werden, genau so wie eben auch ein Küchenmesser für Gewaltverbrechen verwendet werden kann.
Dann versuch das doch mal mit Nano Banana oder ChatGPT oder all den anderen Modellen, die öffentlich zugänglich sind. Is dir zu heiß? Okay, dann Mach mal den Test mit dem originalen Qwen-Modell. Das originale Flux sperrt sich ebenfalls gegen "Free the Nipple"... stattessen bekommt man etwas, das eher nach Zensur aussieht.

Und dein Messervergleich hinkt. KI Bildgeneratoren sind nur Werkzeuge. Geschenkt. Weiß ich selber. Worum es hier geht, ist die Plattform und die Öffentlichkeit!

nciht schrieb:
Nein, wenn ein Straftatbestand (bei Kinderpornografie) vorliegt wird da auch ermittelt. Wenn nicht ermittelt wird, könnte das daran liegen, dass kein Straftatbestand vorliegt/es sich nicht um Kinderpornografie handelt - oder der Straftatbestand als zu gering erachtet wird um dafür irgendwelche Ressourcen zu verschwenden - aber das ist bei derart verwerflichen Inhalten eigentlich nie der Fall.
Wir Leben in einem Land, das gerne mal Lehrer und Eltern verklagt, weil diese Irgendwelche Kinderbilder getauscht haben und du willst mir weiß machen, die Justiz wäre an dieser Stelle nicht Scharf gestellt?
Ich glaube eher, das das ein Zuständigkeitenproblem ist und das dass Gesetz an dieser Stelle eben noch nicht ausbuchstabiert wurde.

nciht schrieb:
Ja das ist kompliziert, weil man sich dafür erst mal ne richtig schräge Logik zusammenreimen muss, wieso das Werkzeug jetzt genau Schuld ist.
Du willst mir wirklich dringend Unterstellen, das ich KI nicht als Werkzeug betrachten kann. Nochmal es geht mir im Bezug darauf ausschließlich um den öffentlich zugänglichen und öffentlich sichtbaren Service.

nciht schrieb:
Wieso Massenüberwachung - die Daten die du eingibst und zurückbekommst sind so oder so vom Anbieter überwacht und dem stimmst du auch so zu, wenn du die KI nutzt.
Und wie willst du das Überwachen, das Lokal läuft?

nciht schrieb:
Welche anderen Plattformen sollen das sein? Illegale Inhalte zu erzeugen, bekommst du mit den richtigen Prompts fast überall irgendwie hin.
Wie gesagt, probiere es aus. Die Presse würde sich sehr dafür interessieren, wäre die Erstellung von Pornographie mit Kindern (oder anderer Art) auch mit Nano Banana oder Midjourney möglich. Oder glaubst du echt an ein Komlotte gegen Musk?

nciht schrieb:
Was erzählst du mir als nächstes? Die NASA war nie auf dem Mond und die Erde ist flach?
Absurd...
 
Zuletzt bearbeitet:
Alphanerd schrieb:
Mecha Hitler als neutrales Programm zu bezeichnen kann man machen.

Legen wir nicht alles auf die Waagschale und hoffen, dass wir uns einig sind, dass diese Entwicklung gänzlich negativ und krankhaft ist?
 
  • Gefällt mir
Reaktionen: Alphanerd
@nciht

@Meta.Morph hat Recht, zeig doch mal bitte was Nano Banana Pro so macht, das lässt zwar noch deutlich mehr zu als GPT aber in keinem Fall das was Grok im Moment fabriziert, da kannst du noch so tolle Prompts formulieren (lassen).

Es ist auch immer ein Problem wie einfach es zugänglich ist, deswegen hinkt auch das Photoshop Argument. Welche guten Fakes gab es denn vor KI? Nichts. Jetzt kann es jeder Idiot mit einem Prompt aus ein paar Wörtern auf X. Das merkt man übrigens auch wie überlastet Grok in den letzten Tag ist, scheint ja vielen zu gefallen.

Es gehört reguliert, vielleicht sogar so hart wie bei ChatGPT. Es ist auch mit Nano Banana Pro ein leichtes aus einem Originalbild einer (vermutlich) Erwachsenen Person knapp bekleidete Fakes zu erstellen, und Nano ist schon wirklich gut ... nicht so ein Schrott wie die Grok Image Generierung.

Die Grok AI an sich ist gar nicht schlecht, also nicht falsch verstehen. Und im LLM bin ich auch gegen Zensur, da ist ChatGPT echt nervig manchmal. Den goldenen Mittelweg zu finden wird die Aufgabe der Politik sein. Die Geeks werden Wege finden, aber nicht die breite Masse und so war es schon immer und auch in Ordnung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Meta.Morph
Kaufmannsladen schrieb:
Es geht hier aber nicht um irgendeinen lokalen AI-Bildgenerator, sondern um den in Grok
Es geht um AI Bildgeneratoren, da ist es egal von wem der betrieben wird. Warum stört dich der von Grok, aber die lokalen nicht? Beide machen das gleiche. Der lokale kann sogar deutlich mehr, da der quasi komplett offen ist. Wieso siehst du da dann das Problem nur bei Grok?

Übrigens hinter den Grafikkarten, die die lokalen Bildgeneratoren ermöglichen stehen auch Milliardenschwere Firmen.

Kaufmannsladen schrieb:
Ja, ist es. Der KI...
Zitier bitte den Richtigen.
 
  • Gefällt mir
Reaktionen: Zhenwu
Meta.Morph schrieb:
Wir sprechen aber immer noch über KI Content? Der nur dann zum Problem wird, wenn man ihn veröffentlicht. Content mit echten Kindern kann davon immer schwerer unterschieden werden.
Ob die Inhalte per AI der per Hand erstellt wurden ist erstmal egal. Die Frage ist ob sie die Staatsanwaltschaft als strafwürdig einstuft. Tut sie das, dann ist der Besitz generell verboten und du begehst allein durch den privaten nicht öffentlichen Besitz eine Straftat.
 
Meta.Morph schrieb:
KI Bildgeneratoren sind nur Werkzeuge. Geschenkt. Weiß ich selber.
smuper schrieb:
Und im LLM bin ich auch gegen Zensur, da ist ChatGPT echt nervig manchmal.
Ich bin auch gegen Zensur bei KI, die lokal läuft. Aber auch hier gilt: Sie läuft lokal und somit liegt die Kiste im vollen Verantwortungsbereich des Users. Wenn der User beispielsweise eine Bombe bauen will, dann hätte er das ganz sicher auch schon vor der KI hinbekommen. KI ist eben ein Werkzeug und sollte alles können, was sie kann ...

Und bevor jemand denkt, ich hätte meine Ansicht geändert: Da verweise ich gern auf meinen früheren Post. Kurz: Es sollte gar nicht mehr (so einfach) möglich sein, Bilder und Videos, auf denen Menschen zu sehen sind, ins Internet zu kippen. Nur so kann man meiner Meinung nach den ganzen Fake-Sachen etwas entgegenstellen. Man verhindert zudem die vielen kleinen und großen Rechtsbrüche, die schon immer geschehen. Das Urheberrecht ist ein Dauerthema – aber auch nur für jene Menschen, die sich einen Prozess leisten können oder den Verstoß überhaupt bemerken ...
 
Zuletzt bearbeitet:
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben