Gefahr für Millionen Kinder: OpenAI-Mitarbeiter sehen Erotik-Modus weiterhin kritisch
Mitarbeiter von OpenAI sehen beim geplanten Erotik-Modus für ChatGPT Kinder weiterhin nicht ausreichend geschützt. Aus ihrer Sicht besteht die berechtigte Gefahr, dass Millionen Minderjährige mit nicht jugendfreien Inhalten konfrontiert werden. Insbesondere die Altersüberprüfung gilt als problematisch.
Angekündigt, bevor Probleme ausgeräumt wurden
Bereits vor rund einem halben Jahr hatte OpenAI-CEO Sam Altman erste Pläne für einen speziellen ChatGPT-Modus für erwachsene Nutzer öffentlich gemacht, der auch eine Erotik-Funktion umfassen sollte. Ursprünglich war ein Start im Dezember des vergangenen Jahres vorgesehen, der jedoch immer wieder verschoben wurde. Offiziell verwies das Unternehmen dabei vor allem auf Schwierigkeiten bei der Altersverifikation. Diese soll in etwa 12 Prozent der Fälle Kinder und Jugendliche fälschlicherweise als Erwachsene eingestuft haben. Angesichts von rund 100 Millionen Nutzer unter 18 Jahren, die ChatGPT wöchentlich verwenden, würde dies im gleichen Zeitraum bedeuten, dass Millionen Minderjährige Zugriff auf ungeeignete Inhalte erhalten könnten. Neue Berichte legen nun nahe, dass dies nur ein Teil der Hintergründe gewesen sein soll.
Experten waren nicht erfreut
Als Altman die neuen Funktionen ankündigte, waren selbst interne Mitarbeiter zuvor nicht über die Veröffentlichung informiert worden. Die Mitteilung traf sowohl die Belegschaft als auch Führungskräfte völlig unvorbereitet, was offenbar auch zum Scheitern des ursprünglich geplanten Starts im Dezember beitrug.
Nachdem sich OpenAI im September des vergangenen Jahres mit dem Vorwurf konfrontiert sah, ChatGPT und andere KI-Assistenten könnten zu Selbstverletzungen oder Suiziden bei Jugendlichen beigetragen haben, wurde ein Expertenrat mit Psychologen und Neurowissenschaftlern ins Leben gerufen. Dieser sollte eine verantwortungsvolle KI-Entwicklung sicherstellen. Von Beginn an sprach sich das Gremium gegen einen Erwachsenen-Modus aus und reagierte entsprechend kritisch darauf, dass das Unternehmen das Vorhaben ungeachtet dieser Bedenken weiter verfolgte.
Große Gefahr der Abhängigkeit
Die größte Sorge der Experten bestand darin, dass Jugendliche eine emotionale Überabhängigkeit vom Chatbot entwickeln könnten. Als Beleg verwiesen sie unter anderem auf Fälle, in denen Nutzer sich nach intensiven Bindungen an eine KI das Leben genommen hatten. In diesem Zusammenhang wurde die Befürchtung geäußert, ChatGPT könnte sich zu einem „sexy Selbstmord-Coach“ entwickeln.
Modus soll eingeschränkt werden
OpenAI hat den Starttermin inzwischen auf unbestimmte Zeit verschoben. Das Unternehmen erklärte, dass zusätzliche Zeit erforderlich sei, um die bestehenden Probleme zu lösen. Auch die geplanten Funktionen wurden nachträglich eingeschränkt: Der Modus soll sich nun ausschließlich auf Text beschränken, während die Generierung erotischer Bilder, Videos oder Stimmen ausgeschlossen wird. Zudem sollen die Modelle gezielt so trainiert werden, dass sie Nutzer davon abhalten, ausschließlich Beziehungen zum Chatbot aufzubauen. Stattdessen sollen sie dazu angehalten und ermutigt werden, zwischenmenschliche Beziehungen in der realen Welt zu pflegen.