News Fehler bei Diversität: Google lässt Gemini vorerst keine Menschen generieren

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Man muss schon sagen, dass es da ein paar drollige Bilder gab - im Chat-GPT Subreddit gibts ein paar lustige Ergebnisse zu sehen.

Ansonsten muss man mal abwarten, inwiefern eine neue Version authentischere Bilder erzeugt.
 
Jap. Definitiv Unstimmigkeiten :D :D :D .
bild.png
 
  • Gefällt mir
Reaktionen: Milkywayne, nyster und Hellyeah
Gibt's nicht schon längst eine Seite "This Person does not exist" (so ähnlich heißt sie glaube ich) ?
 
Ich bin gespannt, ob die historische Darstellung durch die KI nicht nur einseitig angepasst wird.

Ein Filter wäre toll, dem man sagen kann, was nicht dargestellt werden darf!
Bei der Generierung von Bildern geht es Primär um die individuelle Fantasie.

Sobald man Charaktere aus Büchern darstellen möchte, werden oft Menschen oder Tiere "hineingezogen", die darin nichts zu suchen haben. Das habe ich selbst schon mehrere Male erlebt.

Prompts wie "KEINE Menschen abbilden" werden ignoriert.
 
u-blog schrieb:
Ich hab die Nazi-Bilder gesehen, sieben Prompts mit je 4 Bildern, und von 28 Nazis in SS-Uniformen waren nur 2 weiße Männer.

Wäre das "Dritte Reich" so divers gewesen, würde das heute gefeiert werden.
Noch dazu sollten es Soldaten sein, also Wehrmachtsunifomr und nicht SS Uniform. Sprich, es war so ziemlich alles falsch an den Bildern, was man nur falsch machen kann.
 
  • Gefällt mir
Reaktionen: Newbie_9000 und tritratrullala
Na danke, jetzt habe ich meinen Tee auf dem Bildschirm verteilt. :daumen:

Aber konsequent sind sie ja: Wenn Kleopatra schwarz war, wieso nicht auch der Adolf?
 
  • Gefällt mir
Reaktionen: Gigaherz, Milkywayne, F4irPl4y und 9 andere
Es ist und bleibt nunmal eine Technik, die nichts versteht, sondern nur statistisch zusammenstellt.

Es ist wohl in der Natur der Sache, dass lokale und erst recht historische Gesellschaftsstrukturen nur in einem sehr kleinen Anteil in den Trainingsdaten zur Verfügung stehen können, im Gegensatz zum Rest der immensen Gesamtmenge, die durch Social Media und Digitalfotographie in den letzten 10-20 Jahren überall auf der Welt zusammen gekommen ist, und daher automatisch schon sehr divers ist.

Die Welt ist eben mehr als nur das deutsche Hinterland und dass es hier schon wieder Kommentare mit "Umerziehung in den Köpfen der Menschen" gibt, spricht schon wieder Bände - nur weil das Wort "divers" vorkommt, obwohl das eine technisch völlig logische und erwartbare Folge des Prinzips ist.
 
  • Gefällt mir
Reaktionen: Randomcbuser, JaKoH, FeelsGoodManJPG und 4 andere
7H0M45 schrieb:
Allein die Tatsache, dass da dann vermutlich tausende billigstarbeiter damit beauftragt werden die Trainingsdaten für so eine KI aufzuarbeiten die möglichst divers ist zeigt doch wie Paradox das ganze dann wird.
Der Mensch wird doch auch mit kuratierten Daten gefüttert, um gewissen Vorurteile zu stärken oder abzuschwächen. Das kann man mit einer KI auch ruhig machen, statt ihr das halbe Internet zum Fraß vorzusetzen.

Schneeball schrieb:
Prompts wie "KEINE Menschen abbilden" werden ignoriert.
Dann musst du die Priorität deiner Anforderungen der KI genauer mitteilen. (Keine Menschen) erhöht die Priorität. Reicht das nicht, dann packt noch ein paar Klammern mehr darum oder formuliere deine Anfrage anders. Die KIs reagieren oft extrem empfindlich auf Eingaben. Das wird im Artikel ja auch erwähnt.

MR2007 schrieb:
Es ist und bleibt nunmal eine Technik, die nichts versteht, sondern nur statistisch zusammenstellt.
Korrekt! Ich würde sie daher auch nicht KI nennen. Statistik mit Wichtungen (=Prompt) trifft es viel besser.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
MR2007 schrieb:
Es ist und bleibt nunmal eine Technik, die nichts versteht, sondern nur statistisch zusammenstellt.

Es ist wohl in der Natur der Sache, dass lokale und erst recht historische Gesellschaftsstrukturen nur in einem sehr kleinen Anteil in den Trainingsdaten zur Verfügung stehen können, im Gegensatz zum Rest der immensen Gesamtmenge, die durch Social Media und Digitalfotographie in den letzten 10-20 Jahren überall auf der Welt zusammen gekommen ist, und daher automatisch schon sehr divers ist. ...
Du hast den Artikel nicht gelesen.
Die KI hat immense Mengen an Daten und liefert damit auch zutreffende Bilder und Antworten. Das Problem ist, das die Diversitätsfilter eben nicht richtig funktionieren, weil sie nicht in der Lage sind festzustellen wann Diversität eingefügt werden soll und wann nicht. Das führt dann z.B. zu schwarzen Wehrmachtssoldaten.
 
  • Gefällt mir
Reaktionen: Veitograf, nyster, pseudopseudonym und eine weitere Person
MR2007 schrieb:
Es ist und bleibt nunmal eine Technik, die nichts versteht, sondern nur statistisch zusammenstellt.
Du hast aber schon verstanden, dass diese Bilder entstanden sind, weil man in diese Statistik reingepfuscht hat?

MR2007 schrieb:
Die Welt ist eben mehr als nur das deutsche Hinterland und dass es hier schon wieder Kommentare mit "Umerziehung in den Köpfen der Menschen" gibt, spricht schon wieder Bände
Gut, von Umerziehung zu sprechen, ist drüber. Aber es ist schon ziemlich witzig, dass man die Statistik durch sowas beeinflusst:
Was Google versucht, ist, die Vielfalt der Gesellschaft abzubilden. Wie Tests von BR24 ergeben haben, will der Bildgenerator eine möglichst breite Palette an Menschen zeigen – also sowohl beim Geschlecht als auch bei der ethnischen Herkunft. Möglich ist das, indem etwa entsprechende Anweisungen im Chatbot implementiert werden.
und dann an Stellen wie den Uniform-Bildern besonders aufgezeigt bekommt, dass diese Beeinflussung eben nicht unbedingt für realtistische Ergebnisse sorgt.
 
  • Gefällt mir
Reaktionen: mx34 und MegaManX4
mojitomay schrieb:
Ggf. kann man Stereotype auch einfach als solche akzeptieren und aufhören Rassismus hinein zu interpretieren... :)
Wo geht es denn hier um Stereotype? Der Punkt ist, dass eine von westlichen Entwicklern gefertigte KI, die primär mit westlichen Inhalten gefüttert wurde, nun mal einen klaren Bias zeigen wird.

Wenn ich ihr sage "generiere mir einen Anwalt", wird mir in 99% der Fälle ein weißer Mann generiert werden. Architekten können aber genau so afrikanischer, asiatischer oder sonst einer Abstammung sein und es gibt auch mehr als genug Frauen in dem Bereich. Das geben die Trainingsdaten nur meist nicht wieder. Eine weltweit verfügbare KI sollte aber nicht nur in einem Kulturkreis brauchbare Ergebnisse liefern, oder?

Dass man hier übers Ziel hinaus geschossen ist, wird keiner bestreiten, aber ich finde es ziemlich engstirnig wie hier von vielen (höchstwahrscheinlich) männlichen, weißen Personen quasi gesagt wird: "vielleicht sollte die KI ja einfach keine andersfarbigen Menschen generieren, wenn ich sie nicht explizit danach frage." Damit blendet man den Fakt aus, dass "wir" genau so viel oder wenig normal oder der Durchschnitt sind wie alle anderen Menschen auf dem Planeten.
 
  • Gefällt mir
Reaktionen: Randomcbuser, JaKoH, Hygge und 3 andere
Hovac schrieb:
weil sie nicht in der Lage sind festzustellen wann Diversität eingefügt werden soll und wann nicht.
oder aber die Diversität falsch programmiert wurde.
Bei Anfragen zum Generieren von afrikanischen Stämmen (sogar mit der Bitte nach Divers im Promt) oder Samurai kamen ja nur Bilder von dunkelhäutigen Personen, bzw. asiatischen Personen bei raus.
Ich vermute ja eher, dass der Algorhytmus zur Erzeugung von Diversität nicht greift, wenn bereits das Ausgangsmaterial mit dem gelernt wurde als Divers getaggt ist.
 
Fefe hat dazu ja auch ein zwei Texte verfasst. Im Letzten war auch nochmal eine Zusammenfassung verlinkt: Klick

Eigentl. ganz leicht ausschließlich Personen mit weißer Hautfarbe zu bekommen. Einfach nur stereotypische Aktivitäten von Schwarzen als Bild generieren lassen 🤭
 
  • Gefällt mir
Reaktionen: FrischUndKnuspr, rorian, up.whatever und 2 andere
Angst vor Trumpfakes? Scheint wohl so. Aber ohne Menschen ist die KI doch keine richtige KI mehr. Was bringt das wenn wir uns selbst verleugnen. Google sorry aber das ist der letzte Schrott in diesem Zustand. Angst ist nicht der richtige Weg.
 
  • Gefällt mir
Reaktionen: mx34
Aber sind nicht genau solche total realitätsfernen Bilder das was es aus macht?
Ich mein wie viel Shit wir da schon generieren lassen haben und einfach drüber lachen konnten.
Mittlerweile wird leider sehr viel zensiert obwohl es zumindest anhand dem Text den man eingibt keinen Grund dafür gibt.

Abrexxes schrieb:
Eine CPU kennt halt nur 0 oder 1. Das wird ein Problem bleiben denn 0,5 kann eine KI nicht "lernen". 😉

Aber was wenn sich die 0 noch nicht sicher ist ob sie vielleicht doch eine 1 sein will?
Sind das dann diese Quantencomputer von denen alle sprechen? :evillol:
 
  • Gefällt mir
Reaktionen: masterw, mx34 und Abrexxes
Hovac schrieb:
Das Problem ist, das die Diversitätsfilter eben nicht richtig funktionieren
der filter funktioniert hervorragend. das problem ist, dass google bei jeder anfrage ungefragt diversitätskriterien einfügt, bevor das modell für die bilderzeugung den prompt bekommt.

When you submit an image prompt to Gemini Google is taking your prompt and running it through their language model on the backend before it is submitted to the image model. The language model has a set of rules where it is specifically told to edit the prompt you provide to include diversity and various other things that Google wants injected in your prompt. The language model takes your prompt, runs it through these set of rules, and then sends the newly generated woke prompt (which you cannot access or see) to the image generator.
https://thezvi.wordpress.com/2024/02/22/gemini-has-a-problem/
 
  • Gefällt mir
Reaktionen: Milkywayne, FrischUndKnuspr, up.whatever und 3 andere
Warum sperrt man Sowas? Bugs in neuen Programmen gehören nun mal dazu und können auch einfach mal sehr lustig sein oder zu lustigen Ergebnissen führen.
 
Bestätigt meine Meinung zu AI:
Im Grunde nur Suchmaschinen 2.0. Genauso gut (intelligent), wie die Person, die sie nutzt.
 
Irgendwie check ich deren Argument nicht...
Ab wann ist ein Stereotyp ein Stereotyp? Wenn ein generiertes Bild die "Realität" anhand von Echtbildern widerspiegelt, kann doch schlecht von einem Stereotyp gesprochen werden. Es passt anscheinend einigen Gruppen nicht ein Spiegel vorgehalten zu kriegen.
 
  • Gefällt mir
Reaktionen: Obvision, mx34, Hovac und 2 andere
Faszinierend finde ich eher, dass ich vor zehn Jahren noch nicht einmal auf den Gedanken gekommen wäre, dass sowas zur Debatte steht. Ist schon beeindruckend wie schnell sich das gerade entwickelt.
Wie kann eine AI neutral sein, wenn sie praktisch wie ein Mensch "erzogen" wird?
 
  • Gefällt mir
Reaktionen: mx34
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben