Datenleck: ChatGPT zeigt Chat-Verläufe in fremden Konten an

Andreas Frischholz
47 Kommentare
Datenleck: ChatGPT zeigt Chat-Verläufe in fremden Konten an
Bild: pixabay.com / Tumisu

Bei ChatGPT wurden erneut Chat-Verläufe aus fremden Konten angezeigt, berichtet Ars Technica. Entsprechende Hinweise samt Screenshots stammen von einem Leser. Angezeigt wurden in diesen Chatverläufen auch sensible Informationen wie Login-Daten.

Dass ChatGPT fremde Chat-Verläufe anzeigt, ist nicht neu. Ein entsprechendes Datenleck trat bereits im März 2023 auf, OpenAI begründete den Fehler mit einem Bug in einer Open-Source-Bibliothek.

Nun wiederholte sich der Vorfall offenbar. Laut dem Ars-Technica-Bericht waren die Unterhaltungen plötzlich in dem Verlauf des Lesers aufgetaucht. Er selbst beteuert, dass diese nicht von ihm stammten, er habe die Ausgabe auch nicht provoziert. Die zusätzlichen Chat-Verläufe sollen plötzlich aufgetaucht sein.

In diesen Verläufen geht es unter anderem um Forschungsarbeiten sowie die Hilfe bei einer Bewerbung. Besonders auffällig sind jedoch die Inhalte, die offenbar vom Support-System eines Portals für verschreibungspflichtige Medikamente stammen, das Apotheken unterstützen soll. Ein Nutzer dieses Portals beklagt sich in einem Ticket über die Qualität der Software. Besonders pikant an dieser Stelle: Die anzeigten Inhalte umfassen neben dem Namen der App sowie der Nummer des Geschäfts, bei dem die Probleme auftraten, auch die Login-Daten.

Datenschützer raten zur Vorsicht

Dass Dritte einen Einblick in die Chat-Historie erhalten, ist derweil nicht nur über solche Lecks möglich. Passieren kann das auch, wenn das Nutzerkonto kompromittiert wird. Datenschützer und Sicherheitsforscher empfehlen daher, bei sensiblen Informationen den entsprechenden Eintrag zu löschen oder das Speichern der Chat-Verläufe in den Einstellungen direkt zu deaktivieren.

Datenabfluss ist zudem auch möglich, wenn Nutzer die private ChatGPT-Version verwenden, bei der die Eingaben für das Training der Modelle verwendet werden. Konzerne wie Apple, Google oder Samsung begrenzen daher bereits den Zugang zur normalen ChatGPT-Version. Um auf die Probleme zu reagieren, hat OpenAI zudem die Business- und Team-Versionen des Chatbots eingeführt. Verwendet man diese, wird das KI-Modell nicht mit den Eingaben der Nutzer trainiert – und kann diese dementsprechend auch nicht mehr an anderer Stelle ausspucken.

Laufende Ermittlungen seit Frühjahr 2023

Solche Datenlecks haben indes nicht nur Konsequenzen für die jeweiligen Nutzer. Aufgrund von Datenschutzbedenken ließ die italienische Aufsichtsbehörde Garante ChatGPT zeitweise in Italien sperren. Zu den Vorwürfen zählte unter anderem das eingangs beschriebene Datenleck, weitere betrafen die fehlende Rechtsgrundlage beim Training der Modelle sowie Mängel beim Jugendschutz. Erst als OpenAI die Sicherheitslücke schloss und mit zusätzlichen Funktionen die Vorgaben erfüllte, konnte man den Dienst wieder anbieten.

Nun ist die Garante aber erneut tätig. Wie die Behörde gestern mitteilte, wird OpenAI erneut ein Verstoß gegen das Datenschutzrecht vorgeworfen. Das Unternehmen hat nun 30 Tage Zeit, um die Bedenken auszuräumen. Um welchen Verstoß es sich handelt, teilte die Garante jedoch nicht mit.

Verfahren starteten derweil auch von deutschen Datenschutzbehörden. Diese sendeten im letzten Jahr Fragenkataloge an OpenAI, die unter anderem den Umgang mit persönlichen Informationen in Trainingsdaten sowie der bei der Ausgabe von Inhalten betrafen. Der Ausgang des Verfahrens ist noch offen.