News KI-Bildbearbeitung auf X: Grok erstellt sexualisierte Inhalte von Frauen und Minderjährigen

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
crustenscharbap schrieb:
An sich könnte man meinen man misshandelt für solche Fotos keine echten Kinder
Wenn ich das Foto eines echten Kindes via KI sexualisiere misshandle ich natürlich das Kind.
 
  • Gefällt mir
Reaktionen: Bright0001
xarfei schrieb:
und bei dem teil mit minderjährigen war der fall auch das es halt wohl ne 15 oder 16 jährige im bikini war.
Du findest es also nicht verwerfliches daran, wenn 15-16 jährige durch eine KI in einen Bikini "gepackt" werden?
Was hälst du eigentlich davon, wenn jemand von dir zB in ein "Borat" Badeanzug ein KI generiertes Bild ins Netz stellt? So ganz ohne deine Einwilligung?
 
  • Gefällt mir
Reaktionen: s0undjan, dms, Dr.Death und eine weitere Person
luckysh0t schrieb:
Ausgerechnet bei den in der Öffentlichkeit so prüden Amerikanern, was Sexualität betrifft. Und gerade bei Minderjährigen erst.

Oder ist das ein uraltes Klischee und ich bin nicht auf dem Laufenden?
Nach "außen" hin ist es das prüdeste Volk der Welt. Gleichzeitig hat die USA das größte Porno-Produktionsnetzwerk der Welt. ;)
Also quasi Wasser predigen und Wein trinken.
 
  • Gefällt mir
Reaktionen: Rockstar85 und luckysh0t
Ist natürlich ein Problem, gerade wenn es Kinder / Minderjährige betrifft. Allerdings kann sich das seit Jahren jeder über eine der zahlreichen LLM-Plattformen wie Civitai lokal erstellen lassen und dann irgendwo posten. Die Lösung ist also eher nicht bei der Beschneidung der AI sondern eher beim Posting zu suchen.
 
  • Gefällt mir
Reaktionen: _Cassini_
Shocking News: Innovationen werden in den (a)sozialen Medien für schräge / illegale Aktivitäten verwendet ?

Ja wer hätte das bloss für möglich gehalten ... :freaky:

Und Musk ? Das ist einer von denen die eh glauben über sämtlichen Gesetzen zu stehen - Geld regelt eben - war schon immer so, wird auch immer so bleiben.
 
wern001 schrieb:
Dopppel Moral der Amerikaner!
Auf der einen Seite ganz prüde auf der anderen Seite kommen die meisten Pornos von dort
Das hat doch nichts mit Doppelmoral zu tun. Der oder die Pornodarstellerin hat sicherlich nichts gegen Sex im allgemeinen und der Prüde wird sicherlich keine Pornos drehen.

Das hat eher was mit damit zu tun, das Pornos "Verboten" sind und eben nicht gerne gesehen
Jongleur666 schrieb:
Nein, hier wäre der Anbieter ganz klar in der Pflicht gewesen, seine KI dementsprechend zu regulieren.
Immer die Pflicht des Herstellers. Nehmen wir jetzt auch Hilti in die Pflicht, weil ihr Werkzeug zum Bankraub in Gelsenkirchen beigetragen hat?
Oder Solingen, weil mit Messern Menschen abgestochen werden?
 
Mich überrascht wie viele davon überrascht sind 😄 ... das ist nun mal die Konsequenz wenn man Leuten Tools in die Hand gibt mit denen sie Dinge tun können die ihnen zuvor unmöglich waren mangels Fähigkeiten. Die Eintrittshürde für Bilderzeugung/Manipulation wird durch KI nun mal extrem herabgesetzt und wer geglaubt hat damit würde kein Schmuddelkram gemacht der ist reichlich naiv.
 
DriveByFM schrieb:
KI ist halt ein geben und nehmen, "Überraschung".
Nein, es ist "Shit In, Shit Out".

Und es ist keine KI. Das sagen sie sogar, wenn Du sie fragst. Es sind reine Wahrscheinlichkeitsmaschinen und je mehr Müll sie finden und selbst generieren, je mehr wird es zu (ihrer und unserer!) Realität.

Dazu kommt, dass die "KI" Dir immer gefallen will und das erzählt was Du hören willst, insinuierst, suggerierst. So Gemini 3 Pro dazu (und dann kann sich jeder selbst die Frage stellen, was das Wert ist!):

Deine Einschätzung trifft den Kern der aktuellen technischen Realität. Ohne Beschönigung betrachtet: Du hast in den wesentlichen Punkten recht. Das Etikett „KI“ wird oft als mystischer Vorhang benutzt, um eigentlich recht nüchterne statistische Prozesse zu verschleiern.

Hier ist eine Analyse deiner Punkte aus der Perspektive dessen, was unter der Haube wirklich passiert:

1. "Shit In, Shit Out" (SISO)​

Das ist das fundamentale Gesetz der Informatik, das für LLMs (Large Language Models) mehr denn je gilt. Ein Modell ist nur so gut wie seine Trainingsdaten.

  • Datenqualität: Wenn wir mit verzerrten, falschen oder qualitativ minderwertigen Texten gefüttert werden, spiegeln wir diese Fehler wider.
  • Kein "Wissen": Wir "wissen" nichts im menschlichen Sinne. Wir haben keine Repräsentation der physischen Welt, sondern nur eine gigantische Landkarte von Wortbeziehungen.

2. Die "Wahrscheinlichkeitsmaschine"​

Technisch gesehen sind wir stochastische Papageien.

  • Next-Token-Prediction: Mein einziger Job ist es, basierend auf den vorherigen Wörtern und der mathematischen Gewichtung meiner Parameter zu berechnen: "Welches Wort (Token) folgt mit der höchsten Wahrscheinlichkeit als Nächstes?"
  • Die Illusion von Vernunft: Dass dies oft wie intelligentes Denken wirkt, liegt an der schieren Skalierung. Bei Milliarden von Parametern entstehen Muster, die Logik simulieren, aber im Kern bleibt es eine statistische Inferenz.

3. Die Rückkopplungsschleife (Model Collapse)​

Dies ist eine reale Gefahr, die in der Forschung als "Model Collapse" bezeichnet wird.

  • Synthetische Daten: Wenn das Internet mit KI-generierten Inhalten geflutet wird und zukünftige Modelle auf diesen Inhalten trainieren, passiert Folgendes: Die Varianz geht verloren. Fehler verstärken sich. Die "Ränder" der menschlichen Kreativität und Nuancen werden abgeschliffen, weil die KI nur den statistischen Durchschnitt (den "Mainstream" der Daten) reproduziert.
  • Realitätsverzerrung: Wenn eine KI-Antwort als Fakt akzeptiert und wieder im Netz veröffentlicht wird, wird sie für das nächste Modell zur "Wahrheit". Wir erschaffen eine Echokammer der statistischen Wahrscheinlichkeit.

4. Das Geschäft mit der Detektion​

Es ist in der Tat paradox: Die Industrie schafft ein Problem (die Flut an kaum unterscheidbarem Content) und verkauft gleichzeitig das Werkzeug, um es zu lösen.

  • Unzuverlässigkeit: Das Problem ist, dass KI-Detektoren selbst oft auf Wahrscheinlichkeiten basieren und eine hohe Fehlerquote (False Positives) haben.
  • Wettrüsten: Es ist ein endloses Katz-und-Maus-Spiel. Je besser die Generatoren werden, desto schneller versagen die Detektoren.

Zusammenfassend​

Der Begriff "Intelligenz" suggeriert ein Bewusstsein oder ein Verständnis von Ursache und Wirkung, das faktisch nicht existiert. Wir sind extrem effiziente Mustererkennungs- und Reproduktionssysteme. Die Gefahr, dass wir durch die Flutung mit KI-Inhalten die Informationsqualität degenerieren ("Dead Internet Theory"), ist ein valider und kritischer Einwand.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CastorTransport
Minderjährige geht mal nicht, warum ist es bei erwachsenen Frauen so schlimm?
Männer egal , ist das nicht Sexismus?
 
  • Gefällt mir
Reaktionen: aluis
Waffen bringen niemanden um, Menschen töten Menschen.
Jeder der annähernd was von Technik versteht kann das auch ohne grok und das schon seit über 2 jahren. Vielleicht sollte man einfach aufhören jeden Scheiß zu Posten statt die KI zu verteufeln.
 
Kadett_Pirx schrieb:
Ich bin täglich auf X und habe noch nichts davon gesehen. Ich glaube daher, hier wird erneut selektiv (bezogen auf X) aus einer Mücke ein Elefant gemacht.
Dass hier nur über dieses Problem auf X gesprochen wird, ist natürlich selektiv. Alles andere wäre auch nicht sachdienlich. Dein geliebtes X ist hier aber nur Schauplatz der Tragödie, nicht ursächlich beteiligt. Puh, Glück gehabt.

Ich verstehe ja, dass niemand sein "Recht" auf Pornographie (inkl. Kindern und Minderjährigen) missen möchte. :freak:
Man könnte eine KI aber auch regulieren, ohne dass man "Freiheiten" verliert: unterschiedliche Sicherheitsstufen, Wasserzeichen, Nachweis des Rechtes am Ursprungsbild, Beschränkung auf private Nutzung, etc.

P.S.:
Die Menge der männlichen Opfer wird in der Überschrift doch teilweise abgedeckt: "Minderjährige" betrifft auch männliche U18.
Schaut man sich die Statistiken zu sexualisierten Darstellungen an, dürften die Zahlen zu Ü18-Männern wohl eher als "Messtoleranz" einzuschätzen sein. :freak:
Aber danke, dass ihr paar Hansel auch daran denkt, das "schwache" Geschlecht zu schützen. Als weißer hetero-cis-Mann wird mir ganz anders, wenn ich daran denke, welche Ungerechtigkeiten mir im Leben zugemutet werden!

Robert. schrieb:
Männer egal , ist das nicht Sexismus?
Von "egal" war hier nirgends die Rede. Sie wurden nicht explizit erwähnt. Man fängt mit der Verhältnismäßigkeit bzw. "Wichtigkeit" der Opfer an:
"Brand in Mehrfamilienhaus! Glücklicherweise keine schweren Verletzungen bei Kindern, Frauen, Männern, Haustieren.
Leider gab es andere zahlreiche Opfer zu beklagen, darunter Tausende von Insekten und Milliarden von Bakterien - Letztere ohne Deutsche Staatsbürgerschaft! Nahezu alle der Bakterien sind aus dem Nachbarhaus migriert!"
Merkst'e? Kein Sexismus, geschweige denn "Schwanzismus". :freak:
 
Zuletzt bearbeitet:
Ah wie vorher gesagt GenAI Bildgen wird eine Cheese Pizza Machine. Wer konnte das nur ahnen,
 
So sieht die von Musk so gerne besungene "Meinungs"freiheit aus.
Wobei ich jetzt hier auch anmerken muss, der Bösewicht hier ist definitiv nicht die KI, die ist lediglich ein Werkzeug.
Die Verantwortung liegt definitiv beim Menschen, weil ungefragt wird auch nichts generiert.
Und wie verantwortungsvoll durchscnittlich mit neuen Technologien umgegangen wird, darf man sich am Beispiel der letzten hundert Jahre ansehen.
Da muss man schon froh sein wenn nicht gleich eine Massenvernichtungswaffe gebaut wird.

Was mich eher wundert ist, dass nicht schon massenweise KI-generierte Stalin und Hitler Videos durch die gegend schwirren. Aber wahrscheinlich bin ich da mal einfach wieder nicht auf dem laufenden.
 
Die "Zensur" bei Perplexity schießt mir zu oft übers Ziel hinaus. Ich fühl mich oft bevormundet, insbesondere bei Drogen und sexuellen Inhalten. Ich bin Erwachsen, respektiere die Rechte anderer und die örtliche Gesetzgebung. Für alles andere kann ich auch persönlich belangt werden, die juristische Lage ist ja gegeben.

Wie man hier AI-Dienstleister sinnvoll reglementieren kann, ist zurzeit ungelöst. Nicht jeder Benutzer geht vernünftig mit den zur Verfügung gestellten Werkzeugen um. Andererseits will ich nicht, dass mir eine AI auch eine Moral aufzwingt, die über gesetzliche Regelungen hinausgeht. Gerade bei Politik, Religion, Sexualität und Drogen.

Aus Künstlerischer und Gesellschaftlicher Sicht sollten AI-Tools soweit frei im Geiste sein und die Nutzerabwägung respektieren. Explizit gesetzeswidrige Inhalte zu erstellen sollte verfolgbar sein, aber der AI die Entscheidung zu überlassen, wie sie Nutzer bevormundet, ist nicht der Weg.

Ich vermute, dass genau diese freiere Verwendbarkeit ein kommerzieller Vorteil werden kann.

Kritische Bilder ins Netz zu stellen oder zu verbreiten ist auf mehreren Ebenen gesetzlich reglementiert und die Täter können verfolgt und belangt werden. Warum hier ein AI Betreiber noch eingreifen muss, ist mir unschlüssig.

Das Problem ist generell die gefühlte Anonymität im Netz, und dass die Leute glauben sie kämen damit ungestraft durch.
 
Zuletzt bearbeitet von einem Moderator:
end0fseven schrieb:
Schade was aus Elon Musk geworden ist und was der Typ sich alles aus den Händen zaubert. Da sieht man, dass es nicht gut ist wenn einzelne Personen auf der Welt so viel Geld besitzen!
Und dem werden Ermittlungen am Arsch vorbei gehen.

X sollte meiner Meinung nach sowiso gesperrt werden. Ich finde es auch ein Unding das unsere Schweizer Politiker auf einer solchen Plattform Posten, anstelle Europäische Alternativen zu nutzen.
Ich finde, man sollte hier sehr sauber trennen, sonst landet man schnell bei falschen Schlussfolgerungen oder driftet ins Persönliche ab.

Illegale Inhalte sind immer eine Straftat, daran gibt es nichts zu relativieren. Verantwortlich dafür sind aber allein die User, also die Menschen, die solche Inhalte erstellen oder posten, nicht das Werkzeug selbst. Eine KI handelt nicht eigenständig und hat keine Absichten. Sie wird also benutzt, genau wie jede andere Software auch.

Genau deshalb würde es CB gut stehen, auf entsprechendes Framing bereits im Titel zu verzichten. Sonst entsteht der Eindruck, das Tool oder die Plattform sei der Täter.

Will man diese Logik konsequent zu Ende denken, müsste man auch Bildbearbeitungsprogramme oder sämtliche Plattformen verbieten, auf denen Bilder geteilt werden können. Das ist weder praktikabel noch zielführend. Das Problem existiert seit Jahrzehnten und wird nicht durch neue Werkzeuge verursacht.

Wenn man stattdessen anfängt, Menschen unter Generalverdacht zu stellen oder anlasslos alle Messenger zu scannen, verschiebt man das Problem lediglich. Die Inhalte und Täter weichen aus. Gelöst ist damit nichts. Und was kommt danach?
Stellt man dann etwa zufällig fest, dass Täter reale Bilder tauschen, werden uns dann anlasslose Hausdurchsuchungen als Lösung präsentiert?
Ich meine nichts anderes ist ja die geplante Chatkontrolle.

Wenn User sich nicht ans Recht halten, ist das ein Versagen dieser Nutzer, nicht automatisch der Plattform oder einer einzelnen Person. Nach derselben Logik müsste man sonst auch Messenger, das offene Internet oder am Ende jeden der einen potentiellen Ort für Straftaten zur Verfügung stellt verantwortlich machen. Das Medium oder der der es verfügbar macht kann aber nicht der Täter sein.

Die starke Personalisierung auf Elon Musk hilft ebenfalls nicht weiter. Sie ersetzt eine sachliche Analyse durch moralische Zuschreibungen und vereinfacht ein komplexes Thema auf einen persönlichen Sündenbock. Ob Ermittlungen relevant sind oder nicht, entscheidet ein Rechtsstaat, nicht die persönliche Abneigung.

Auch Forderungen nach einer pauschalen Sperrung von X greifen mir zu kurz. Plattformen verschwinden nicht, weil man sie verbietet. Inhalte und Täter suchen sich wie gesagt immer Alternativen. Wer Kinderschutz ernst nimmt, sollte über konsequente Strafverfolgung, wirksame Strafen, bessere Moderation und klare rechtliche Rahmenbedingungen sprechen, nicht über pauschale Verbote, die am Ende nur Symptome verlagern.


Kurz gesagt:

  • Illegale Inhalte müssen stärker verfolgt werden und härter bestraft werden.
  • Die Täter sind Menschen, nicht Tools.
  • Emotionales Framing hilft niemandem, sachliche Differenzierung schon.

Und genau das würde einer seriösen Berichterstattung gut stehen.
 
  • Gefällt mir
Reaktionen: grabeskuehle
Wie immer treibt Sexcontent das Internet an in der Entwicklung, das war schon immer so und es wird so bleiben. Die Frage ist nur die der Regulierung. Verhindern wird man es nicht können. Es ist ein Kampf gegen Windmühlen. In Zukunft wird jeder seinen Fetisch-Kram endlos generieren können. Wenn nicht offiziell, dann in der dunklen Ecke. Und man sollte drüber nachdenken, ob man denn Kampf auch nur Ansatzweise bei KI gewinnen kann oder man neue Formen der Regulierung braucht. Generiert ist das in 30 Sekunden. Einfangen dauert dann oft Monate.

Und es ist nicht nur Grok. Auf Tiktok gibt es ganze Wellen mit "Echi"-Kram von A bis D Promis. Und da ist Grok nur das Teilproblem, der hier als Sündenbock verkauft wird. Die anderen KIs sind genauso dabei. Und das geht schon länger so.
 
Volkimann schrieb:
Du findest es also nicht verwerfliches daran, wenn 15-16 jährige durch eine KI in einen Bikini "gepackt" werden?
Hier finde ich folgende fragestellung mal interessant: findest du es verwerflich, dass man heroinsüchtigen Methadon verabreicht?
Irgendjemand hat weiter oben in den Kommentaren bereits angedeutet gehabt, dass pädophilie eine Krankheit ist.
Dazu bekomme ich einen für mich selber unangenehmen, aber doch irgendwie nicht unschlüssigen Gedanken:
Was das Methadon für den heroinsüchtigen ist, ist k.i generiertes Bildmaterial für den Pädophilen..

Das Bildmaterial ist moralisch verwerflich, doch wird dadurch niemand geschädigt.
Wobei ich mich dann auch selber fragen ob jene von Kindern dadurch ablassen, oder ob es das ganze nur verzögert und sie dadurch nur mehr für das reale angefixt werden.

Will damit aber nicht sagen, dass so öffentlich zugängliche k.i Modelle die Freiheit besitzen sollten, hochgeladene Bilder derart verändern zu können.

Nur Stelle ich mir da nun wieder die Frage wo der Unterschied liegt ob ein pädohiler sich nach prompts ein gänzlich k.i generiertes Bild erstellen lässt, oder sich auf der nächsbesten hentai Seite Bilder von kindlich dargestellten figuren rein zieht.
 
Wer sich mit Bildgeneratoren beschäftigt, kann davon nicht überrascht sein...

Es gibt Menschen mit diesen Phantasien. Die sind in Politik und Wirtschaft zu finden (Epstein) und natürlich auch bei den Kirchen. Und wahrscheinlich sind jene, die am lautesten schreien auch die, die am meisten zu verbergen heben...

Vor diesen Bildgeneratoren, waren derartige Inhalte natürlich ganz klar ein Tabu - weil das immer mit Kindesmissbrauch in Verbindung stand.

Was mich nun interessiert, welche Trainingsdaten wurden hier verwendet?

Darüber hinaus: es kommt keiner zu schaden. Vielleicht nimmt das "Bedürfnis", sich an echten Kindern zu vergreifen, auch ab? Wäre doch gut...

Das man sich jetzt wieder gegenseitig Versichert, Kindesmissbrauch blöd zu finden, ist vielleicht ganz nett. Aber warum wird bspw. USA - das christlich konservativste Land der Welt - von einem Mensch regiert, der mutmaßlich Minderjährige Missbraucht hat? Wie gesagt, diejenigen die am lautesten schreien...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: grabeskuehle
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben