News Datenleck: ChatGPT zeigt Chat-Verläufe in fremden Konten an

Weedlord schrieb:
Scheiße, ich hoffe mein super sicheres Passwort "1HansWurst6428943z2" wurde dabei nicht geleaked. ich hab ChatGPT gefragt wie sicher das ist....

Ich weiss, dass das ironisch gemeint sein sollte, aber mehr als 16 Zeichen mit (scheinbar) wahllosen Zahlen und Klein-/Grossbuchstaben sind jetzt gar nicht so schlecht, wie Du damit eigentlich darstellen wolltest. Noch ein paar Sonderzeichen reinmischen und das ist wirklich gut... 😉

KeePass findet das zumindest schon recht brauchbar:

Screenshot 31.01.2024 um 09.43.11 AM.png
 
Bei den vorher zu befürchtenden Sicherheitsmängeln und Datennutzungen und den nun ständig aufploppenden gravierenden Mängeln sollte man den Mist gleich ganz verbieten.
Es bringt einfach nur Ärger.
Aber natürlcih muss man das alles trotzdem erfinden und weitertreiben, nur um es dann wie die Atombombe einsetzen zu können.
Und nachträglich die Schuld von sich weisen, dass es Probleme gibt und Idioten für sich zweckentfremden und missbrauchen.
Würden die Menschen mehr auf Sinn und ZWeck udn Nutzen achten, gäbe es gerade aktuell keine 2 durchgeknallte Vollitioten, die mit Atomraketen usn vor der Nase herumfuchteln und Drohungen aussprechen.
 
"Bullshi* in, Bullshi* out" trifft es hier wieder mal absolut: klar wenn die "KI" von Nutzerdaten lernt, dass sie dann auch solche replizieren kann. Ist halt so und ein Problem des ganzen Systems und lässt sich nur unter sehr hohem Aufwand umgehen, aber nicht vermeiden, da die Daten ja trotzdem in den "KI" geflossen sind...
 
DonDonat schrieb:
"Bullshi* in, Bullshi* out" trifft es hier wieder mal absolut: klar wenn die "KI" von Nutzerdaten lernt, dass sie dann auch solche replizieren kann. Ist halt so und ein Problem des ganzen Systems
Ja. Man hat ja damals auch schon bei Microsofts Chatbot Tay gesehen, was dabei heraus kommen kann. Insofern könnte man ja annehmen, das sie die Problematik mal bis zu den entsprechenden Stellen herumgesprochen hat.

Möglicherweise war hier auch das Problem ein anderes. Mit dem Wissen, das man sich mit user-chat-data die Models versaut, fließen die nicht in die Models ein. Und dann könnte es auch anders passiert sein.

Dann wäre der Normalfall so, das jeder User eine eigene Instanz des Models bekommt und dann würde es auch keine Leaks geben. Allerdings ist eine solche Instanz vergleichsweise teuer. Deshalb kriegen nur zahlende Kunden eine eigene Instanz. Beim Rest wird so herum getrickst, das die nur aus einem Pool von Instanzen bedient werden und sich somit mehrere Benutzer letztlich eine Instanz teilen.
 
Features first, security .... "ach ja, da war ja was". Es geht halt nicht mehr ohne Cloud Dienste - aber man sollte von den Anbietern eigentlich schon erwarten können, dass die das auch sicher aufsetzen. Was aber beim Thema KI halt der Punkt ist: Es ist ja völlig offensichtlich, dass Nutzereingaben Teil der Produktentwicklung sind (ausser man zahlt entsprechend und selbst dann würde ich denen kein Wort glauben). Bis die Wildwest-Stimmung im KI-Bereich sich etwas gelegt hat, fühle ich mich mit meinen Lokal laufenden Modellen für schützenswerte Informationen (z.B. Informationen im Unternehmenskontext) einfach wohler. Muss aber jeder selbst wissen. Eine vertrauensstiftende Maßnahmen sind solche Vorfälle jedenfalls nicht.
 
Zhan schrieb:
Eine vertrauensstiftende Maßnahmen sind solche Vorfälle jedenfalls nicht.
Stimmt. Unglücklicherweise führt das aber bisher nicht im großen Maße zum umdenken. Das Problem der "Datenlecks" bei Cloud-Geschichten beobachten wir ja schon schon eine ganze Weile. Trotzdem hat der Cloud-Kram weiterhin Zulauf.
Interessanterweise ist es ja so, das vor 30 Jahren allein der Umstand von Datenerhebung schon fast skandalös war. Daran sieht man, wie sich das im Verlaufe der Zeit die Dinge geändert haben und eine schleichende Normalisierung stattfand. Es wurde schon damals drauf hingewiesen, das man aufpassen müsse, weil viele kleine und für sich genommen harmlose Schritte dann in der Summe irgendwann mal einen großen Schritt bedeutet. Die wurden dann auch gerne mal als paranoide Spinner bezeichnet.
Da hofft man ja schon ein bisschen mit, das die Leute die damals von Paranoia gefaselt haben heute von dem ein oder anderen Datenleck betroffen sind. :-)
 
M@tze schrieb:
Ich weiss, dass das ironisch gemeint sein sollte, aber mehr als 16 Zeichen mit (scheinbar) wahllosen Zahlen und Klein-/Grossbuchstaben sind jetzt gar nicht so schlecht, wie Du damit eigentlich darstellen wolltest. Noch ein paar Sonderzeichen reinmischen und das ist wirklich gut... 😉

KeePass findet das zumindest schon recht brauchbar:

Anhang anzeigen 1449429
Joa, ich verwende für wichtige accs generell immer recht lange Passwörter, also nicht das in meinem Post, aber an sich sind die immer recht ähnlich lang. Allerdings wohl etwas leichter zu merken und nicht so chaotisch. Ich finde zur Sicherheit gehört irgendwo auch das man selber noch Kontrolle über seine accs hat und nicht gefahr läuft sein Passwort zu vergessen. Aufschreiben tuhe ich die nämlich nicht.
 
Idealerweise erlaubt der entsprechende Dienst/Programm/etc. sehr lange Passwörter. Dann kann man nämlich auch einfach einen Satz als Passwort nehmen. Die Länge kompensiert, das man sich nur aus einem begrenzten Zeichenvorrat bedient. Gleichzeitig ist ein Satz deutlich einprägsamer als eine kurze wilde Mischung aus unterschiedlichen Zeichen.
Man muss nur aufpassen, das der Dienst/Programm/etc auch wirklich alle Stellen als signifikant ansieht und nicht etwa nach 16 Zeichen intern ein truncate macht. Dann wärs natürlich Asche. :-)
 
Zurück
Oben