Unterwürfige Antworten: Alexa, Siri und Co fördern Geschlechter­vorurteile

Frank Hüber
378 Kommentare
Unterwürfige Antworten: Alexa, Siri und Co fördern Geschlechter­vorurteile
Bild: geralt | CC0 1.0

In einem letzte Woche veröffentlichten Bericht kritisiert die UNESCO, dass durch digitale Sprachassistenten wie Alexa, Cortana und Siri Geschlechterrollen und -klischees verfestigt werden. Die Mehrheit der Sprachassistenten ist standardmäßig weiblich, sowohl in Sprache, Name als auch „Personalität“.

Die UNESCO hat dem 145-seitigen Bericht den Titel „I'd blush if I could“ („Ich würde rot werden, wenn ich könnte“) gegeben (Siris Antwort auf die Beschimpfung „Hey Siri, du bist eine Schlampe“ durch den Nutzer) und steht somit exemplarisch für das unterwürfige Bild einer Frau, das die Sprachassistenten den Nutzern vermitteln. Der Bericht setzt sich kritisch mit dieser Praxis auseinander und möchte aufzeigen, wie dadurch geschlechtsbezogenen Verzerrungseffekte offengelegt, verbreitet und verstärkt werden, die Akzeptanz sexueller Belästigung gefördert wird, Frauen zum „Gesicht“ von Fehlern und Einschränkungen von Hardware gemacht werden, die fast ausschließlich von Männern entwickelt wurde, und wie durch derartige Antworten der Sprachassistenten vermittelt wird, wie sich Frauen in derartigen Situationen verhalten und antworten sollten. Sprachassistenten senden dem Nutzer das Signal, dass Frauen jederzeit verfügbar und gefügige Dienerinnen seien, die aufs Wort gehorchen und keine Widerworte geben.

Die Unterwürfigkeit und Ergebenheit in den Antworten der weiblichen Sprachassistenten sei eine starke Veranschaulichung geschlechtsbezogener Verzerrungen und wie diese in Produkte integriert werde. Im Technologie-Sektor und bei der Lehre digitaler Kompetenzen sei das aktuell allgegenwärtig.

Wie, wann und wo wird geschlechtsspezifische KI eingesetzt?

Anfang des nächsten Jahres sollen sich viele Menschen schon häufiger mit einem digitalen Sprachassistenten als mit dem eigenen Ehepartner unterhalten. Die Gesellschaft müsse aufgrund der bisherigen Umsetzungen sehr viel genauer darauf achten, wie, wann und wo und auch von wem künstliche Intelligenz geschlechtsspezifisch umgesetzt wird, so UNESCO-Direktorin für Geschlechtergleichheit Saniye Gülser Corat. Die Sprachassistenten dienen der UNESCO deshalb vor allem als ein Beispiel für diesen generellen Missstand bei künstlicher Intelligenz, bei der nur rund 12 Prozent der Forscher und 6 Prozent der Software-Entwickler weiblich sind.

Weniger Gleichberechtigung = mehr IT-Absolventinnen

In Ländern mit einem höheren Wert auf den Indizes für die Gleichberechtigung der Geschlechter, wie etwa in Europa, ist der Frauenanteil bei IT-Abschlüssen zudem geringer als in Ländern, die eine deutlich schlechtere Gleichberechtigung der Geschlechter aufweisen, wie die arabischen Regionen. In Belgien sind beispielsweise nur rund 6 Prozent der Absolventen in der Informations- und Kommunikationstechnik weiblich, in den Vereinigten Arabischen Emiraten hingegen 58 Prozent. Dies sei eine neue und paradoxe Erkenntnis der Untersuchungen.

UNESCO fordert zum Umdenken und Handeln auf

Die UNESCO fordert von Unternehmen und Regierungen deshalb, die Praxis zu beenden, dass digitale Sprachassistenten standardmäßig weiblich sind. Darüber hinaus sollte die Machbarkeit der Entwicklung eines neutralen Maschinengeschlechts für Sprachassistenten untersucht werden, das weder weiblich noch männlich ist. Gleichzeitig sollten Sprachassistenten so programmiert werden, dass sie geschlechtsspezifische Beleidigungen und verbale sexuelle Belästigungen nicht auch noch gutheißen, sondern unterbinden. Noch sei die Technologie in einem frühen Stadium, in dem Änderungen vorgenommen und Normen etabliert werden könnten.

Mindestens 5 Prozent aller Befehle sexuell explizit

Die UNESCO bezieht sich in der Veröffentlichung auch auf Aussagen der Entwickler digitaler Sprachassistenten, wonach mindestens 5 Prozent aller Anfragen einen eindeutig sexuell expliziten Hintergrund hätten. Der Prozentsatz dürfte den Einschätzungen der Entwickler und Forscher aber noch höher liegen, da von den Algorithmen nicht jede Äußerung eindeutig als verbale sexuelle Belästigung erkannt werden könne.

Nvidia GTC 2024 (18.–21. März 2024): ComputerBase ist vor Ort!