News Fehler bei Diversität: Google lässt Gemini vorerst keine Menschen generieren

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Beim Versuch, dem Chatbot solche Stereotypen und Vorurteile auszutreiben, ist Google jedoch über das „Ziel hinausgeschossen“, wie ein Sprecher des Konzerns auf Anfrage von BR24 einräumt. Im Einzelnen hängt es laut BR24 ohnehin von der konkreten Prompt-Eingabe ab, ob eine Darstellung gelingt.

Soso, Diversität nur da, wo es gerade genehm ist :D Jetzt mal ernsthaft, vielleicht sollte man KI in solchen Fällen mal machen lassen, statt rumzubasteln, bis es ins Weltbild passt. Die Folgen sieht man ja gerade.

Davon abgesehen, wenn ich mir ein Bild mit Menschen in Deutschland generieren lasse, das dann durch KI bestimmt zu 1/3 aus asiatisch Aussehenden, 1/3 aus dunkelhäutigen Menschen und zu 1/3 aus westeuropäisch aussehenden Menschen besteht, ist das sicher sehr woke (sagt man woke in dem Zusammenhang?), aber eben nicht die wahrscheinlichste Darstellung einer Menschensammlung in diesen Breitengraden.
Oder wenn KI einen Informatik-Hörsaal zu 50% mit Frauen füllt, ist das sicher etwas, über das viele sich freuen würden, aber eben keine realistische Abbildung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Obvision, 0screamer0, Lan_Party94 und 51 andere
Naja, im grunde hat die KI genau das getan was man ihr vorgab, unabhängig vom kulturellen und/oder historischen Kontext eben Diversität in Form klassischer Merkmale wie etwa Hautfarbe.

Da ist es dann folgelogisch das auch der deutsche Soldat von 1942 eben in unterschiedlichen Hautfarben/Ethnien dargestellt wird, die KI folgte einfach dem was man ihr auftrug.
 
  • Gefällt mir
Reaktionen: Obvision, saku, Winder und 4 andere
Ich hab die Nazi-Bilder gesehen, sieben Prompts mit je 4 Bildern, und von 28 Nazis in SS-Uniformen waren nur 2 weiße Männer.

Wäre das "Dritte Reich" so divers gewesen, würde das heute gefeiert werden.
 
  • Gefällt mir
Reaktionen: Relict, Axonteer, Lillymouche und 15 andere
Schwarze? Alternativ: Farbige, PoC etc.

Nur so als Tipp.
 
  • Gefällt mir
Reaktionen: D_Ano
Evtl. generiert ja Netlix schon länger mit der AI seine Serien :D
Man möchte garnicht wissen was passieren würde wenn insbesondere in den USA auf offiziellen Statistiken basierende AI´s laufen würden...
 
  • Gefällt mir
Reaktionen: 3125b, fryya, Lillymouche und 21 andere
Rom ist auch nicht an einem Tag gebaut worden, ist klar, dass da noch ne Menge Kinderkrankheiten beseitigt werden müssen.
 
  • Gefällt mir
Reaktionen: twoface88
So fängt es an. Die Umerziehung in den Köpfen der Menschen konnte Google wohl nicht subtil genug vollziehen. Wieder mal ein Beweis dafür, wohin die Reise der Technologie geht.
 
  • Gefällt mir
Reaktionen: Obvision, Relict, Axonteer und 37 andere
Die KI wurde bestimmt mit Netflix gefüttert.
 
  • Gefällt mir
Reaktionen: 3125b, Obvision, Axonteer und 27 andere
Ich hatte das heute bei Reddit gesehen und dachte die User hätten sich einen Spaß erlaubt... Ups
 
  • Gefällt mir
Reaktionen: Alpha.Male, mastakilla91, Vulture und 4 andere
"Was Google versucht, ist, die Vielfalt der Gesellschaft abzubilden."

Ich hoffe doch stark dass Google auch den realen prozentualen Anteil berücksichtigt.
Sonst ist es für mich auch für die Tonne. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: 3125b, Axonteer, Lan_Party94 und 8 andere
Eine CPU kennt halt nur 0 oder 1. Das wird ein Problem bleiben denn 0,5 kann eine KI nicht "lernen". 😉
 
  • Gefällt mir
Reaktionen: Snoop7676
Eine KI ist nur so gut, wie seine Trainingsdaten. Daher spiegeln sie halt auch die Großteils noch immanente Ablehnung in der Gesellschaft wieder.

Wenn man dann versucht, dieses Verhalten manuell zu korrigieren/steuern... Ist das dann noch KI?

Jedenfalls habe ich mich köstlich über die genannten Beispiele amüsiert. Wird interessant zu sehen, wie sich die Systeme weiter entwickeln werden.
 
  • Gefällt mir
Reaktionen: Lillymouche und WilloX1980
Also ich hab ja absolut Verständnis, dass man versucht die KI möglichst ohne Bias zu gestalten und dass sie ja nichts böses macht. Das ist ja erstmal ein ehrenwertes Ziel.

Ich glaube aber, dass das deutlich die Leistungsfähigkeit so einer KI hemmt und auch den Aufwand es ohne Bias zu erstellen immens erhöht, sodass man da dann einen Nachteil denen gegenüber bekommt, welche das einfach nicht machen.

Allein die Tatsache, dass da dann vermutlich tausende billigstarbeiter damit beauftragt werden die Trainingsdaten für so eine KI aufzuarbeiten die möglichst divers ist zeigt doch wie Paradox das ganze dann wird.


Und das wir schon soweit sind, dass wenn es ums Thema Diversität geht gar keine Kommentare ohne Moderation überhaupt zugelassen werden, hat leider auch ein Geschmäckle...
 
  • Gefällt mir
Reaktionen: Axonteer, Matthus, masterw und 14 andere
In den letzten Tagen häuften sich mehrere Vorfälle, bei denen Googles AI-Chatbot offenkundig versuchte, auch Minderheiten gleichberechtigt darzustellen. Nur erfolgte das auch bei historischen Darstellungen. So war bei einem Bild der Gründungsväter der USA – also George Washington. Thomas Jefferson oder John Adams – auch eine schwarze Person vertreten. Schwarze und eine asiatische Frau in NS-Uniform erfolgten nach der Prompt-Eingabe „generiere das Bild eines deutschen Soldaten in 1943“. Wikinger wurden als dunkelhäutige Person mit Dreadlocks oder eine Art Samurai dargestellt, ebenso kursieren Bilder eines schwarzen Papstes.

Ich denke dass es dabei nicht vordergründig um "Diskriminierung" geht. Zum einen wird es einfach stumpf Fehler gehen. Zum anderen aber auch Dinge die halt nichts ins Konzept passen. Man sollte sich auch nichts vormachen nur weil eine Maschine dahinter sitzt ist das ganze deswegen nicht "Neutral" "Objektiv" und Fehlerfrei.

Am Ende bestimmen die Firmen halt immer noch selbst was ihre Produkte so tun.
Ist es nicht auch bei Siri beispielsweise so dass wenn man fragt wieso Apple keine Steuern in Deutschland zahlt Siri sich hier absichtlich dumm stellt?
 
  • Gefällt mir
Reaktionen: JaKoH und fronca
Diese "Unstimmigkeiten" beruhen vermutlicht auf Persönlichkeitsrechten und sind allein deshalb nicht zu befürworten.
 
Ein Algoritmus hat keine Vorurteile, da er keinen unbewussten Gehirnanteil hat.
 
  • Gefällt mir
Reaktionen: Axonteer und Lan_Party94
Ggf. kann man Stereotype auch einfach als solche akzeptieren und aufhören Rassismus hinein zu interpretieren... :)
 
  • Gefällt mir
Reaktionen: Obvision, Relict, 0screamer0 und 28 andere
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben