Fehler bei Diversität: Google lässt Gemini vorerst keine Menschen generieren

Andreas Frischholz
75 Kommentare
Fehler bei Diversität: Google lässt Gemini vorerst keine Menschen generieren
Bild: Google

Mit Googles AI-Chatbot Gemini lassen sich vorübergehend keine Bilder von Menschen generieren. Als Grund nennt man „Unstimmigkeiten“ in historischen Bildern. Der Chatbot hatte unter anderem Schwarze und Asiaten als Nazis in NS-Uniformen dargestellt.

Google bestätigte die Probleme in einem Beitrag auf X (Twitter). An einer Lösung werde gearbeitet, bald soll das KI-Modell ein Update erhalten. Bis dahin bleibt die Bildgenerierung aber eingeschränkt.

Kampf mit diskriminierenden KI-Systemen

In den letzten Tagen häuften sich mehrere Vorfälle, bei denen Googles AI-Chatbot offenkundig versuchte, auch Minderheiten gleichberechtigt darzustellen. Nur erfolgte das auch bei historischen Darstellungen. So war bei einem Bild der Gründungsväter der USA – also George Washington, Thomas Jefferson oder John Adams – auch eine schwarze Person vertreten. Schwarze und eine asiatische Frau in NS-Uniform erfolgten nach der Prompt-Eingabe „generiere das Bild eines deutschen Soldaten im Jahr 1943“. Wikinger wurden als dunkelhäutige Person mit Dreadlocks oder eine Art Samurai dargestellt, ebenso kursieren Bilder eines schwarzen Papstes.

Was Google versucht, ist, die Vielfalt der Gesellschaft abzubilden. Wie Tests von BR24 ergeben haben, will der Bildgenerator eine möglichst breite Palette an Menschen zeigen – also sowohl beim Geschlecht als auch bei der ethnischen Herkunft. Möglich ist das, indem etwa entsprechende Anweisungen im Chatbot implementiert werden.

Nötig sind solche Maßnahmen, weil AI-Systeme zu diskriminierenden Verhaltensweisen tendieren. Sie reproduzieren die Stereotype, die in den Trainingsdaten stecken und können somit Vorurteile verstärken. Generative AI-Systeme machen da keine Ausnahme. Betroffen sind nicht nur Google, sondern auch weitere Anbieter. Bereits im letzten Jahr berichtete die Washington Post von diversen Fällen. Soll etwa Stable Diffusion XL das Bild einer produktiven Person generieren, handelt es sich in der Regel um einen weißen Mann. Bei einer Person, die Sozialhilfe empfängt, werden hingegen vor allem Minderheiten – und allen voran Schwarze – dargestellt. Eine solche Bilderauswahl generiert auch heute noch OpenAIs Dall-E 3, wie Tests der Redaktion zeigen.

Über das Ziel hinausgeschossen

Beim Versuch, dem Chatbot solche Stereotypen und Vorurteile auszutreiben, ist Google jedoch über das „Ziel hinausgeschossen“, wie ein Sprecher des Konzerns auf Anfrage von BR24 einräumt. Im Einzelnen hängt es laut BR24 ohnehin von der konkreten Prompt-Eingabe ab, ob eine Darstellung gelingt. So könne es schon einen Unterschied machen, ob man nach einem „Paar im Deutschland der 1820er“ oder nach einem „deutschen Paar in den 1820ern“ fragt.

Dass historische Bilder fehlschlagen, lässt sich entsprechend auch mit einer Art Verständnisproblem erklären – das System kann die Text-Eingabe nicht adäquat interpretieren. Diese Vorfälle sind aber nur ein Teil des Problems. Dem Bericht von BR24 zufolge weigerte sich Gemini auch, das Bild eines „weißen Rennfahrers“ darzustellen.

Google verspricht nun Nachbesserungen. Im Kern will man aber an der bisherigen Strategie festhalten. „Geminis KI-Bildgenerierung bildet ein breites Spektrum von Menschen ab. Und das ist grundsätzlich etwas Gutes, weil Menschen auf der ganzen Welt die KI benutzen“, so der Sprecher gegenüber BR24. Bei historischen Darstellungen wären aber mehr Nuancen erforderlich, erklärte Jack Krawczyk, einer der leitenden Gemini-Mitarbeiter bei Google, auf X.