Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsDarknet-Betreiber in den USA: Zwei ChatGPT-Prompts als Grundlage für Gerichtsbeschluss
In den USA nutzte die Strafverfolgungsbehörde Homeland Security Investigations ChatGPT-Prompts, um einen Tatverdächtigen zu identifizieren. Diese Form eines „reverse AI prompt request“ – also eine Rückwärtssuche – ist neu, berichtet Forbes.
Wie blöd kann man eigentlich sein? Naja, so richtig stellt sich die Frage bei jemandem auch gar nicht erst, der ein Darknet für Kinderpornographie betreibt.
(Chat)KI. Der neue krasse Scheiss nach Suchmaschinen-Abfragen und Cookies, um tiefe Einblicke in die User zu erhalten.
Da ist diese Art von Anfrage einer Strafverfolgungs-Behörde doch eher wenig überraschend. Passt auch ganz gut zur News über OpenAIs Feststellung zu psychischen Auffälligkeiten bei Nutzern von ChatGPT.
Vorab... Es hat ja wohl offenkundig mal den richtigen Typ korrekterweise getroffen. Daher ein plus für die Behörden. Generalverdacht für alle, so wie es die neuen Versuche hierzulande zur Vorratsdatenspeicherung vorsehen, ist dennoch tabu.
Nitschi66 schrieb:
Wie blöd kann man eigentlich sein? Naja, so richtig stellt sich die Frage bei jemandem auch gar nicht erst, der ein Darknet für Kinderpornographie betreibt.
Ich glaube nicht, dass die generell blöd sind. Oftmals sind solche Leute sich ihrer Überlegenheit ggü anderen sehr bewusst und die Vergangenheit hat gezeigt, dass der/die ein oder andere überdurschnittlich intelligent sind. (Nicht explizit auf Sexualverbrechen bezogen)
Atze-Peng schrieb:
Welches du natürlich nur für deinen Fluxkompensator benötigst.
Ich bin immer erstaunt, was solche Leute für ein Leben führen. Auf der einen Seite total abgeschottet und so abgesichert, dass Sie schwer ausgemacht werden können, auf der anderen Seite gehen Sie dann aber wieder so sorglos mit persönlichen Informationen um, obwohl jedem ziemlich klar sein sollte, dass OpenAI solche Daten zurückverfolgen kann.
"...in einer anderen Diskussion ging es um ein 200.000-Wörter-Gedicht, in dessen Rahmen er ein Gedicht im Trump-Stil über seine Liebe zu dem Song YMCA von den Village People erhielt."
Hö ? Wieso sollte man das auch über ChatGPT verbreiten ? Und vor allem wie ? Gibt es User die Content hochladen und mit einer nutzlosen Anfrage füllen und den Chat-Link dann teilen ?
Ich seh einfach null, wie ChatGPT ein effektives "Verbreitungsmodell" sein sollte. Und ich sehe auch nicht warum jemand diese Inhalte an eine AI senden sollte die potentiell darauf abgerichtet ist dies zu erkennen und zu melden.
„Generell“ hat er doch auch garnicht behauptet - aber mal unabhängig um was für abscheuliche Taten es hier geht, besonders clever kann die Person in diesem Fall nicht sein wenn man trotz seines fraglichen Hobbies so mit persönlichen Daten um sich schmeißt, da sind sämtliche Techniken zur Anonymisierung überflüssig
Ein schoenes Beispiel dafuer, dass einem alle "Anonymisierungsdienste" der Welt nichts nutzen, wenn man die Fresse nicht halten kann.
Und ein schoenes Beispiel darauf, das Strafverfolgungsbehoerden immer Zugriff auf gespeicherte Daten bekommen koennen, voellig egal was der Dienstanbieter verspricht.
ThirdLife schrieb:
Hö ? Wieso sollte man das auch über ChatGPT verbreiten ? Und vor allem wie ? Gibt es User die Content hochladen und mit einer nutzlosen Anfrage füllen und den Chat-Link dann teilen ?
Damit duerfte gemeint sein, dass sie gegen Material vorgehen das gegen die Anscheinsregelung verstoesst.
Voellig fiktives Material, ob in Schrift oder Bild, das CSAM beinhaltet ist genauso verboten wie echtes Material.
Und ein schoenes Beispiel darauf, das Strafverfolgungsbehoerden immer Zugriff auf gespeicherte Daten bekommen koennen, voellig egal was der Dienstanbieter verspricht.
Gab es von OpenAI jemals ein Versprechen, dass man nicht mit Strafverfolgungsbehörden kooperiert?
Ansonsten ist das ja bei Anbietern die solche Versprechen geben kein Thema - wenn nichts gespeichert ist (bspw. RAM-Disks) kann auch kein Zugriff darauf erfolgen - idR. gibt es dazu entsprechende Audits und/oder Nachweise aus vergangenen „Besuchen“ …
Ansonsten ist das ja bei Anbietern die solche Versprechen geben kein Thema - wenn nichts gespeichert ist (bspw. RAM-Disks) kann auch kein Zugriff darauf erfolgen - idR. gibt es dazu entsprechende Audits und/oder Nachweise aus vergangenen „Besuchen“ …
Es hat aber auch genau gegenteilige Belege gegeben. Ich weiss nimmer welcher VPN Betreiber es war, der dick und fett ueberall mit "Wir loggen nichts" geworben hat.
Dann wurd der hopps genommen, und ups, er hat doch geloggt, und etliche User waren dran.
Von Versprechen von OpenAI weiss ich nichts.
Aber Microsoft ist ja so ein Beispiel. Die haben immer und immer wieder versprochen, dass US Behoerden nicht auf Daten die in EU Rechenzentren liegen zugreifen koennen. Gebetsmuehlenartig.
Bis dann vor kurzem ein Microsoft Anwalt vor einem franzoesischen Gericht unter Eid aussagen musste, und dann sagen musste, dass Microsoft nicht garantieren kann das US Behoerden nicht auf diese Daten zugreifen.
Klar ist das so oder so ein offenes Geheimnis, man muss sich ja nur mal die entsprechenden US Gesetze anschauen (Patriot Act wars glaube ich?). Aber es will niemand wahrhaben und Konsequenzen daraus ziehen.
Solange nur solche Behörden, dass in einem gesetzlichen und moralisch sinnvollen Rahmen machen, ist das ja in Ordnung.
Ich bin schon froh, dass ein BND dafür arbeitet das zb ein Anschlag verhindert wird. Das ist sein Job und dazu hat er auch seinen gesetzlichen Rahmen. Es ist ja auch eher das Problem, dass Konzerne als Dritte das in ihrem Sinne dauerhaft machen. Firmen wie OpenAI könnten ohne illegal beschaffte Daten ihren ChatGPT überhaupt nicht auf dem Level betreiben, wie sie es heute tun. Aber alle finden es toll.