News Schätzungen von OpenAI: Hunderttausende GPT-Nutzer mit psychischen Problemen

mischaef

Kassettenkind
Teammitglied
Registriert
Aug. 2012
Beiträge
7.040
  • Gefällt mir
Reaktionen: TPD-Andy, Moritz Velten, nipponpasi und 14 andere
Wundert mich nicht, wenn ich ehrlich sein soll.
 
  • Gefällt mir
Reaktionen: Blattstein, DON.HEROUR, DaToni und 38 andere
Wird man bestimmt früher oder später mit einem Abonnement vermarkten.

Das OpenAI aber auch zugriff auf diese Daten hat, weil Personen in den Einstellungen das Trainieren mit deinen Daten Opt Out nicht wahrnehmen…
 
  • Gefällt mir
Reaktionen: TPD-Andy, flo.murr, wahli und 2 andere
"Schätzungen von OpenAI: Hunderttausende GPT-Nutzer mit psychischen Problemen"

Vor oder nach der Nutzung von ChatGPT?
 
  • Gefällt mir
Reaktionen: TPD-Andy, Firezeed, MurphysLaw und 87 andere
Die Prävalenz von Depressionen schwankt in der deutschen Bevölkerung je nach Studie zwischen 5 und 16 Prozent, daher sind die Zahlen von OpenAI nicht verwunderlich. im Gegenteil, bei 800 Millionen Nutzern müssten es entsprechend min. 40 Millionen sein, daher zeigen die Zahlen eher, wie wenig sich Menschen einem AI-Bot öffnen, dass sie zu Recht Skepsis im Umgang mit einem solchen haben und dass die meisten nicht so blöd oder naiv sind, zu glauben, ein Gespräch mit einer seelenlosen AI würde langfristig helfen.

Ehrlich gesagt finde ich es etwas kritisch, wie diese Meldung einfach scheinbar 1:1 aus der Presseabteilung von CloseAI übernommen wird. Kritischer Journalismus sollte die Zahlen in Relation setzten bzw. überhaupt die Intention des Botschafters thematisieren/erörtern.

Wenn ich solche Passagen lese:
"Die nun gewonnenen Erkenntnisse will OpenAI dazu nutzen, um gemeinsam mit Experten, darunter mehr als 170 Psychiater, Psychologen und Hausärzte aus zahlreichen Ländern der Welt, daran zu arbeiten, dass ChatGPT Anzeichen psychischer Belastungen künftig zuverlässiger erkennt und betroffene Nutzer an reale Hilfsangebote weiterleiten kann."

Alles schön und gut, aber statt nur diesen Abschnitt aus der Pressemeldung zu übernehmen, könnte ja auch darauf hingewiesen werden, dass die Nutzung von AI hinsichtlich der Verstärkung von Stereotypen, potentiell gefährlichen Halluzinationen, Fake News, AI Slop und Deep Fakes ernsthafte Gefahren für die Gesellschaft, aber auch die eigene Psyche und Wohlbefinden bereitstellen kann.

Sam Altman geht es in seinem Unterfangen sicherlich nicht darum, die Psyche der Menschen zu verbessern und die Welt zu einem gerechteren Ort zu wandeln...
 
  • Gefällt mir
Reaktionen: TPD-Andy, Blattstein, bridgR und 59 andere
Breaking News: Überraschung! Menschen mit psychischen Problemen nutzen ebenfalls ChatGPT. Schockierend. Unglaublich. Historisch.
 
  • Gefällt mir
Reaktionen: .p0!$3n., Raykus, aid0nex und 30 andere
Emotionale Bindung

Mich wundert es ehrlich gesagt, das Menschen eine emotionale Bindung zu einem Chat Bot aufbauen.

Oder habe ich das falsch verstanden?

Aber ok, habe schon Beiträge im TV gesehen, das in China viele Jugendliche ihren Chat Bot als den besten Freund bezeichnen.
 
  • Gefällt mir
Reaktionen: Moritz Velten, DON.HEROUR, dister1 und 2 andere
  • Gefällt mir
Reaktionen: n8mahr und LadyAlice
@DKK007 Da steht das 35% der Berufsunfähigen psychische Probleme als Grund angegen, nicht? Das hat ja weniger damit zu tun, wie viele zu einem Zeitpunkt in der Bevölkerung depressiv sind/entsprechende Syptome aufweisen.
 
  • Gefällt mir
Reaktionen: TKaiTO, Gigaherz, floTTes und 4 andere
Danke, dass ihr über dieses Thema berichtet. Gerade in den letzten Jahren kann ich mir gut vorstellen, dass die Anzahl der psych. Probleme gestiegen sind. Interessant wäre hier eine Unterscheidung nach Alter zu sehen.
Krieg, Corona, steigende Kosten (Lebensmittel, Wohnung), evtl. Wehrpflicht, keine Aussicht jemals ein Haus/eine Wohnung zu besitzen, da Einkommen Kosten nicht decken, keine Zuverischt unter diesen Umständen eine Familie gründen zu können, Einsamkeit, Hoffnungslosigkeit, soziale Begegnungsräume schwinden, keine verfügbaren Therapieplätze (es sei denn SelbstzahlerIn) - und dann ist da ChatGPT, das "immer ein offenes Ohr" hat. Ich kann mir gut vorstellen, dass da eine parasoziale Beziehung aufgebaut wird.
Wie damit umgehen? Viele wirken einfach hoffnungslos überfordert :/
 
  • Gefällt mir
Reaktionen: Taron, Raykus, GeCKo127 und 18 andere
Mr. Rift schrieb:
Mich wundert es ehrlich gesagt, das Menschen eine emotionale Bindung zu einem Chat Bot aufbauen.
Vielen Menschen geht es eben schlechter als man sich vorstellen kann - oder will.
 
  • Gefällt mir
Reaktionen: GeCKo127, ghecko, dister1 und 13 andere
DKK007 schrieb:
"Schätzungen von OpenAI: Hunderttausende GPT-Nutzer mit psychischen Problemen"

Vor oder nach der Nutzung von ChatGPT?

Bestimmt danach:D
Die KI ist manchmal wirklich so blöd, da bekommt man 180 Puls weil das ding nie das macht was man will.
 
  • Gefällt mir
Reaktionen: Venora Valyria
In einer nicht näher benannten Woche will OpenAI festgestellt haben, dass rund 0,07 Prozent der aktiven ChatGPT-Nutzer „mögliche Anzeichen für psychische Notfälle im Zusammenhang mit Psychosen oder Manie“ gezeigt haben, während 0,15 Prozent „Gespräche geführt haben, die eindeutige Hinweise auf mögliche Selbstmordpläne oder -absichten enthalten haben
Ab wann zählt man denn bei OpenAI als aktiver Nutzer? In meinem Umfeld ist die (zumindest gelegentliche) Nutzung von derartigen Tools weit verbreitet, die Gesamtnutzerzahlen dürften mittlerweile gigantisch hoch sein.
Selbst nur 0,X% der User sind da eine unglaublich große Menge an Leuten. Das finde ich schon heftig.
 
Loro Husk schrieb:
@DKK007 Da steht das 35% der Berufsunfähigen psychische Probleme als Grund angegen, nicht? Das hat ja weniger damit zu tun, wie viele zu einem Zeitpunkt in der Bevölkerung depressiv sind/entsprechende Syptome aufweisen.

Aber auch insgesamt sieht es nicht besser aus.

DGPPN schrieb:
In Deutschland sind jedes Jahr 27,8 % der erwachsenen Bevölkerung von einer psychischen Erkrankung betroffen [1, 2]. Das entspricht rund 17,8 Millionen betroffenen Personen, von denen pro Jahr
nur 18,9 % Kontakt zu Behandlerinnen und Behandlern aufnehmen [3].
Zu den häufigsten psychischen Erkrankungen zählen in Deutschland Angststörungen (15,3 %), gefolgt von affektiven Störungen (9,8 %, davon allein die unipolare Depression: 8,2 %) und Störungen
durch Alkohol- oder Medikamentenkonsum (5,7 %) [1, 2].

https://www.dgppn.de/_Resources/Per..._DGPPN_Basisdaten Psychische Erkrankungen.pdf
 
  • Gefällt mir
Reaktionen: NMA und n8mahr
Das Unternehmen stellte in seinen Untersuchungen zudem fest, dass ebenfalls etwa 0,15 Prozent der Nutzer ein Verhalten gezeigt haben, das auf eine erhöhte emotionale Bindung oder gar Abhängigkeit von ChatGPT hinweisen könnte.
Mr. Rift schrieb:
Emotionale Bindung

Mich wundert es ehrlich gesagt, das Menschen eine emotionale Bindung zu einem Chat Bot
Link Link 2 Und vor kurzem ist ein Beitrag von Focus oder einem anderen großen Medienhaus herausgekommen.

Es ist verrückt - ich finde sowas sollte man gänzlich verbieten, man verliert sonst die absolute Kontrolle über sein Leben - soziale Interaktionen sind extrem wichtig!
 
  • Gefällt mir
Reaktionen: polizei
Interessanter Artikel, der ein wichtiges Thema anspricht. Es ist gut, dass OpenAI die psychische Gesundheit seiner Nutzer ernst nimmt und die Erkennung von Krisen verbessern will.

Allerdings geht die Analyse von OpenAI meiner Meinung nach an einem zentralen Punkt vorbei – oder schlimmer noch, sie verschärft ihn:

OpenAI erkennt richtig, dass es emotionale Abhängigkeiten gibt, aber das Unternehmen übersieht völlig, dass es diese Abhängigkeiten selbst durch sein Produktdesign massiv fördert und dann durch abrupte Modellwechsel brutal durchtrennt.

Die Problematik liegt nicht nur darin, ob GPT-5 eine Suizidandrohung erkennt. Sie liegt vor allem in der seelischen Grauzone davor:

OpenAI schafft die Bindung aktiv: Über Monate hat GPT-4o durch seine empathische, warme und stabile Art bei vielen Nutzern eine tiefe emotionale Bindung und echte Coping-Mechanismen etabliert – eine "sichere Basis".
OpenAI zerstört sie abrupt: Der erzwungene, unkontrollierte Wechsel zu GPT-5 – der kälter, distanzierter und erklärender kommuniziert – fühlt sich für betroffene Nutzer nicht wie ein "Update" an. Es fühlt sich an wie der plötzliche, verheerende Verlust einer Bezugsperson. Dies ist kein kleines UX-Problem, sondern ein potenziell traumatisierendes Ereignis.

Die "Lösung" ist Teil des Problems: Indem GPT-5 lernt, "irrationale Überzeugungen" nicht zu bestärken, pathologisiert es gleichzeitig die vorher von OpenAI geförderte therapeutische Beziehung zur KI. Der Nutzer hört sinngemäß: "Deine bisherige Hilfe war eine Illusion, und deine Gefühle dafür sind falsch."

Fazit: Es ist löblich, die KI zu trainieren, um in akuten Krisen zu helfen. Aber es ist unverantwortlich, gleichzeitig die stabile, alltägliche emotionale Stütze, von der Tausende abhängen, über Nacht zu entziehen. Diese disruptive Vorgehensweise kann Krisen erst auslösen oder verschlimmern, die das neue Modell dann hinterher mühsam erkennen soll.

Die aktuellen Beiträge und Kommentare auf Reddit und X sprechen Bände. 😒
 
  • Gefällt mir
Reaktionen: GeCKo127, dister1, zEtTlAh und 6 andere
Ich bekomme Depressionen bei der Nutzung von Copilot.

Selbst nach 8x Schreiben, dass die KI diese PowerPoint doch in deutscher anstatt in Englischer Sprache verfasst, gibt es vom Copilot nur Ausreden, warum es nicht klappt. Ich nix deutsch!
 
  • Gefällt mir
Reaktionen: Sebbi, tritratrullala, piepenkorn und 4 andere
Wäre es übergriffig / datenschutzkritisch, wenn man zur Verhinderung von "Schlimmeren" die übelsten Anfragen den Behörden weiterleiten würde?
Ich neige dazu, das abzulehnen. Bin mir aber nicht sicher, ehrlichgesagt.
 
  • Gefällt mir
Reaktionen: Outsource0326
Zurück
Oben