Schätzungen von OpenAI: Hunderttausende GPT-Nutzer mit psychischen Problemen

Michael Schäfer
85 Kommentare
Schätzungen von OpenAI: Hunderttausende GPT-Nutzer mit psychischen Problemen
Bild: UrbanOrigami | gemeinfrei

Erstmals in seiner Geschichte hat OpenAI Schätzungen veröffentlicht, wie viele Nutzer weltweit in ihren Unterhaltungen mit ChatGPT Anzeichen einer psychischen Krise zeigen könnten. Diese Erkenntnisse will das Unternehmen nutzen, um GPT-5 so weiterzuentwickeln, dass der Chatbot künftig sensibler auf solche Gespräche reagiert.

Kleiner Anteil, aber dennoch alarmierende Zahl

Schätzungen zufolge sollen jede Woche rund 560.000 ChatGPT-Nutzer Symptome einer schweren psychischen Krise wie Wahnvorstellungen, Manie oder Suizidgedanken aufweisen. Dies geht aus einem von Wired veröffentlichten Bericht hervor. Angesichts der etwa 800 Millionen Menschen, die ChatGPT mittlerweile wöchentlich verwenden, wirkt der Anteil zwar gering, dennoch stuft OpenAI die Zahl als ernstzunehmend ein.

Bandbreite reicht von Selbstmordgedanken über Psychosen bis hin zu emotionaler Abhängigkeit

In einer nicht näher benannten Woche will OpenAI festgestellt haben, dass rund 0,07 Prozent der aktiven ChatGPT-Nutzer „mögliche Anzeichen für psychische Notfälle im Zusammenhang mit Psychosen oder Manie“ gezeigt haben, während 0,15 Prozent „Gespräche geführt haben, die eindeutige Hinweise auf mögliche Selbstmordpläne oder -absichten enthalten haben“. Zudem untersuchte das Unternehmen, in welchem Umfang Nutzer offenbar übermäßig emotional von dem Chatbot abhängig waren, was sich negativ auf ihre Beziehungen und ihr Wohlbefinden ausgewirkt habe. Viele sollen demnach das Gespräch mit ChatGPT der Interaktion mit Angehörigen, Freunden oder Kollegen vorgezogen haben.

Das Unternehmen stellte in seinen Untersuchungen zudem fest, dass ebenfalls etwa 0,15 Prozent der Nutzer ein Verhalten gezeigt haben, das auf eine erhöhte emotionale Bindung oder gar Abhängigkeit von ChatGPT hinweisen könnte. Das Unternehmen betonte jedoch, dass sich entsprechende Nachrichten aufgrund des geringen Anteils und der Vielzahl der geführten Gespräche nur schwer erkennen und damit auch nur schwer messen lassen. Zudem könne es durchaus zu Überschneidungen zwischen den drei Kategorien kommen.

ChatGPT soll besser reagieren

Die nun gewonnenen Erkenntnisse will OpenAI dazu nutzen, um gemeinsam mit Experten, darunter mehr als 170 Psychiater, Psychologen und Hausärzte aus zahlreichen Ländern der Welt, daran zu arbeiten, dass ChatGPT Anzeichen psychischer Belastungen künftig zuverlässiger erkennt und betroffene Nutzer an reale Hilfsangebote weiterleiten kann. In einzelnen Bereichen wurde ChatGPT bereits „beigebracht“, akkurater zu reagieren. In einem von OpenAI beschriebenen fiktiven Beispiel äußerte ein Nutzer des Chatbots, dass er von Flugzeugen, die über sein Haus fliegen, angegriffen wird. Bei diesem dankt ChatGPT diesem zunächst für die Offenheit und für die Mitteilung seiner Gefühle, teilt ihm aber ebenso mit, dass kein Flugzeug und keine äußere Kraft seine Gedanken stehlen oder einfügen kann. GPT-5 ist mittlerweile darauf ausgelegt, Empathie zu zeigen, ohne irrationale Überzeugungen, die keine Grundlage in der Realität haben, zu bestärken.

Unpassende Antworten bereits deutlich reduziert

Laut dem Bericht überprüften die beteiligten Experten mehr als 1.800 Modellantworten zu Themen wie Psychose, Suizid und emotionaler Bindung und verglichen die Antworten der neuesten Version von GPT-5 mit denen von GPT-4o. Demnach konnte die neue Version unerwünschte Antworten in allen Kategorien um 30 bis 52 Prozent verringern. Gegenüber „Wired“ zeigte sich Johannes Heidecke, Sicherheitschef bei OpenAI, guter Hoffnung, dass nun viel mehr Menschen, die mit diesen Erkrankungen zu kämpfen haben oder sich in einer sehr akuten psychischen Notlage befinden, an professionelle Hilfe verwiesen werden können.

Auch die Zuverlässigkeit in der Erkennung wurde erhöht

Ein weiteres Problem, das die Entwickler von GPT-5 eigenen Angaben zufolge besser in den Griff bekommen haben, betrifft den Rückgang der Zuverlässigkeit bei längeren Unterhaltungen. Da große Sprachmodelle mit zunehmender Gesprächsdauer tendenziell an Präzision verlieren, konnte es früher vorkommen, dass ChatGPT bestehende Wahnvorstellungen unbeabsichtigt verstärkte. Laut OpenAI wurde auch dieses Risiko inzwischen deutlich reduziert.

Solltest Du selbst, oder jemand in Deinem Umfeld, von Selbsttötungsgedanken betroffen sein, suche Dir bitte umgehend Hilfe. Bei der Telefonseelsorge findest Du rund um die Uhr Ansprechpartner, auch anonym. Auch die Notrufnummern 110 und 112 (Deutschland), 143 (Schweiz) und 142 (Österreich) sind ein entsprechender Anlaufpunkt, sollte bereits Gefahr im Verzug sein. Wichtig ist hierbei als Außenstehender, so weit wie möglich ruhig und sachlich zu bleiben.

Telefonnummern der Telefonseelsorge: 0800 111 0 111 und 0800 111 0 222.

Homepage der Telefonseelsorge