Nach Privatsphäre-Anpassungen: ChatGPT in Italien wieder verfügbar

Update Andreas Frischholz
28 Kommentare
Nach Privatsphäre-Anpassungen: ChatGPT in Italien wieder verfügbar
Bild: OpenAI

ChatGPT-Nutzer sollen mehr Kontrolle erhalten. Mit einem Privatsphäre-Modus kann man künftig kontrollieren, ob Suchanfragen im ChatGPT-Verlauf auftauchen sollen. So lässt sich auch steuern, ob OpenAI die Eingaben für das Training der Modelle nutzen darf – ein Aspekt, der für Datenschützer und Unternehmen relevant ist.

Diese Meldung wurde aktualisiert, ein Update findet sich am Ende.

Neue Datenschutzfunktionen

Verfügbar ist die neue Funktion ab sofort, auffindbar ist sie über die Einstellungen. Wer den Verlauf ausschaltet, findet die entsprechenden Einträge nicht mehr in der Seitenleiste. Zudem verwendet OpenAI diese Daten dann nicht, um die Sprachmodelle zu verbessern. Dieser Ansatz soll nun eine leichtere Lösung als das bestehende Opt-Out-Verfahren darstellen, um den Umgang mit eigenen Daten zu verwalten.

Aufbewahrt werden die Chatverläufe für 30 Tage. Das erfolgt aber nur, um sie im Bedarfsfall – etwa bei einem Missbrauch des Systems – überprüfen zu können. Nach diesen 30 Tagen erfolgt dann die endgültige Löschung.

Integriert wurde zudem eine Export-Funktion für persönliche Daten. So können Nutzer leichter an die Informationen kommen, die ChatGPT über die jeweilige Person gespeichert hat.

Mehr Kontrolle für Geschäftskunden

In einem Blog-Beitrag kündigt OpenAI zudem einen Business-Variante von ChatGPT an. Bei einem entsprechenden Abonnement sollen die jeweiligen Firmenkunden noch mehr Kontrolle erhalten, die Vorgaben sollen sich an den API-Regeln orientieren. Die sehen etwa explizit vor, dass Nutzereingaben nicht verwendet werden, um die Modelle zu trainieren.

Für Unternehmen ist das relevant. Anfang April wurde etwa bekannt, dass Samsung-Mitarbeiter die öffentlich zugängliche Version von ChatGPT verwendet haben sollen, um etwa Code für ein streng vertrauliches Projekt zu überprüfen. Die Konsequenz ist aber: Der geheime Samsung-Code wird somit auch verwendet, um OpenAIs Modell zu trainieren. Samsung hat nun strengere Vorgaben erlassen, um solche Datenlecks zu vermeiden.

Mit einer angepassten Version von ChatGPT will OpenAI die Sicherheitsbedenken bei Unternehmen ausräumen. Das Abonnement für Geschäftskunden soll in den kommenden Monaten kommen.

OpenAI reagiert auf Datenschutzbedenken

Offensichtlich ist bei den Ankündigungen, dass OpenAI auf die Bedenken von Datenschützern reagiert. Die anlaufenden Verfahren in einer Vielzahl von Staaten – mit der Sperre in Italien als Höhepunkt – wirken offenkundig wie ein Anlass für die Änderung. Einer der zentralen Vorwürfe war stets, dass für Nutzer nicht klar ist, welche persönliche Daten ChatGPT verarbeitet.

In diesem Fall zählt die Exportfunktion sowie die Kontrolle über den Verlauf zum klassischen DSGVO-Handwerkskasten. Interessant wird, ob die Anpassungen für die italienischen Datenschutzbehörden ausreichen.

Update

Wie erwartet erfolgten die Anpassungen, um die Auflagen italienischer Datenschützer zu erfüllen. OpenAI hatte damit Erfolg, ChatGPT ist in Italien wieder verfügbar. Das bestätigte die Datenschutzbehörde Garante am Freitag.

Zu den Bedingungen zählte, dass Nutzer nun auswählen können, ob ChatGPT-Eingaben der Nutzer für das Training der Modelle verwendet werden dürfen. Eine FAQ-Seite informiert zudem ausführlicher über die Datenverarbeitungen. Exportieren lassen sich nun auch personenbezogene Daten, die ChatGPT von einem Nutzer gespeichert hat.

OpenAI adressierte auch den Jugendschutz, den die Garante ebenfalls bemängelte. Italienische Nutzer müssen nun vor der Nutzung bestätigen, dass sie über 18 Jahre alt sind oder über 13 und die Zustimmung der Eltern haben.

Datenschutzverfahren laufen weiter

Indem OpenAI die Auflagen erfüllt, zeigt das Unternehmen, dass es zu Kooperationen bereit ist. Ein Aspekt, der für Datenschützer besonders relevant ist. Vorbei ist der Streit damit aber nicht, Datenschutzbedenken bestehen weiterhin. Das betrifft etwa den Umgang mit personenbezogenen Daten bei der Text-Ausgabe sowie der Transparenz bei den Datensätzen, die für das Training der Modelle verwendet werden. Interessant bleibt daher, was die weiteren Verfahren ergeben, die in Europa laufen.