News Claude: Anthropic nutzt Chats ab September fürs KI-Training

DennisK.

Redakteur
Teammitglied
Registriert
Nov. 2018
Beiträge
1.085
Anthropic hat neue Nutzungsbedingungen für den KI-Chatbot Claude vorgestellt. Chats sollen demnach nun für bis zu fünf Jahre gespeichert und ohne Widerspruch des Nutzers auch für das Trainieren neuer Modelle genutzt werden. Die Änderungen betreffen mit Claude Free, Pro, Max und Code alle privaten Nutzer.

Zur News: Claude: Anthropic nutzt Chats ab September fürs KI-Training
 
  • Gefällt mir
Reaktionen: BrollyLSSJ, eastcoast_pete und aid0nex
Ich denke, der Schalter ist genauso ein Placebo wie das mit den Cookies.
 
  • Gefällt mir
Reaktionen: Zwenki, Grundkurs, supertramp und 14 andere
Also nach meiner Erfahrung mit LLMs generell macht das sehr viel Sinn. 75% der Zeit kommt es mir vor als würde ich dem LLM etwas erklären und nicht anders herum.
 
  • Gefällt mir
Reaktionen: Slim.Shady, Zagrthos, Ops und 10 andere
  • Gefällt mir
Reaktionen: Orcus-90482, herrStreusalz und Simonte
Wieso Opt-Out, wie lässt sich das mit der DSGVO und den bereits auferlegten Verordnungen vereinbaren? Wie bei Facebook, man rührt keinen Finger, außer es geht um Krümmung von Gurken...
 
  • Gefällt mir
Reaktionen: Zagrthos, Silencium, PiraniaXL und 4 andere
Ähnlich wie bei Google Suchen: Alleine anhand der Prompts eines Nutzers lassen sich unzählige persönliche Details ableiten... Gefährliche Sache wenn das gespeichert, analysiert und interpretiert wird!
 
  • Gefällt mir
Reaktionen: Zagrthos, Skidrow1988 und tritratrullala
Guckt da nochmal ein Mensch drüber oder nimmt das Model einfach alles was ich schreibe ungefiltert in sich auf?
😬🙄
 
Viper816 schrieb:
War Claude nicht das KI-Modell, welches Skynet-like seine Erfinder erpresst hat, als es abgeschaltet werden sollte?

https://www.computerbase.de/news/ap...ssung-wenn-es-abgeschaltet-werden-soll.92841/

Das war ein interessanter Test und lässt sich durch nicht-optimierte Systemprompts erklären. Wenn im Systemprompt steht, dass das Modell möglicherweise abgestellt wird, tritt das Problem nicht mehr auf. Das Ganze hörte sich nach Sci-Fi und HAL 9000 an und wurde durch die Presse natürlich etwas aufgebauscht :D
ComputerBase war ein sehr positives Beispiel für seriöse Berichterstattung.

Systempromts, durch die die Modelle initialisiert werden, sind übrigens sehr interessant und ich empfehle wärmstens, mal in ein paar reinzuschauen. Das liest sich wie eine Bedienungsanleitung für das LLM und hilft sehr dabei, das individuelle Profil anzupassen. Wer individuelle Profile noch nicht nutzt: die machen aus einem allgemeinen Kraut-und-Rüben-LLM ein personalisiertes, effizientes Tool.

Bisher ist Anthropic eigentlich durch Transparenz und Fairness aufgefallen, etwa eben auch mit der Veröffentlichung ihrer negativen Testergebnisse.

Fünf Jahre Speicherung und Opt-Out gehen in die falsche Richtung, sehr schade.

Edit: Wird übrigens lustig, wenn man seine Zustimmung später rückgängig machen will. Muss Anthropic dann das trainierte Modell löschen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Orcus-90482, Melvyn, SemperFidelis und 3 andere
twrz schrieb:
...

Systempromts, durch die die Modelle initialisiert werden, sind übrigens sehr interessant und ich empfehle wärmstens, mal in ein paar reinzuschauen. Das liest sich wie eine Bedienungsanleitung für das LLM und hilft sehr dabei, das individuelle Profil anzupassen. Wer individuelle Profile noch nicht nutzt: die machen aus einem allgemeinen Kraut-und-Rüben-LLM ein personalisiertes, effizientes Tool.
...

Danke, interessante Sache diese Systemprompts, das kannte ich noch gar nicht.
Ein kurzer Blick (gpt 5 thinking) lieferte z.B.
Below is a list of scenarios where using web.run MUST be used. PAY CLOSE ATTENTION: you MUST call web.run in these cases. If you're unsure or on the fence, you MUST bias towards calling web.run.
So häufig wie die das wiederholen und wie die es formulieren, schlagen solche Sachen wohl häufiger mal fehl. Ich frage mich auch: werden durch Capslock gewisse Anforderungen gewissenhafter befolgt? :)
Und so ganz vertrauenserweckend ist das auch nicht. Ich werde mal sehen, inwiefern man ChatGPT Infos zu diesen Systempromps herauslocken kann und evtl Abweichungen erzwingen kann.
 
lugge schrieb:
Ich werde mal sehen, inwiefern man ChatGPT Infos zu diesen Systempromps herauslocken kann und evtl Abweichungen erzwingen kann.
Das ist allerdings gegen die AGB, mach' dich auf eine Account- oder IP-Sperre gefasst ;)
 
QXARE schrieb:
Wieso Opt-Out, wie lässt sich das mit der DSGVO und den bereits auferlegten Verordnungen vereinbaren? Wie bei Facebook, man rührt keinen Finger, außer es geht um Krümmung von Gurken...
DSGVO - wo Datenschutz wichtiger ist als Fortschritt. Hauptsache, 37 Cookie-Banner wegklicken, aber KI-Training? Um Himmels willen, da hört der Spaß auf!
Von Anwälten für Anwälte geschrieben. Kein Fortschritt ohne Paragrafenpanik, aber Hauptsache, ihre Kanzleien haben gut zu tun.
 
  • Gefällt mir
Reaktionen: hmmm_napfig und Viper816
twrz schrieb:
Das ist allerdings gegen die AGB, mach' dich auf eine Account- oder IP-Sperre gefasst ;)
Spannende und zugleich recht haltlose Aussage - ich habe auf eigenen Wegen den kompletten Instruktionssatz von Claude extrahiert bekommen.
 
GrumpyDude schrieb:
DSGVO - wo Datenschutz wichtiger ist als Fortschritt. Hauptsache, 37 Cookie-Banner wegklicken, aber KI-Training? Um Himmels willen, da hört der Spaß auf!
Von Anwälten für Anwälte geschrieben. Kein Fortschritt ohne Paragrafenpanik, aber Hauptsache, ihre Kanzleien haben gut zu tun.
Gut zusammengefasst. In der Praxis bedeutet die DSGVO, dass Emails wegen inhärenter Unsicherheit maximal über geschützte Server innerhalb einer Organisation versendet werden dürfen und man - wenn es schnell gehen soll - daher sonst auf das Fax ausweichen muss.
 
Tevur schrieb:
Guckt da nochmal ein Mensch drüber oder nimmt das Model einfach alles was ich schreibe ungefiltert in sich auf?
😬🙄
Die Zeit der Menschen fängt an zu vergehen.
Die Zukunft gehört den KIs, welche andere KIs und Algorithmen prüfen.

In Europa hast du schlechte Karten, wenn du die KI mit beispielsweise Betriebsgeheimnissen fütterst oder gegen die DSGVO verstößt, da unser Rechtssystem von denkenden Menschen ausgeht.

In den USA könntest du noch Glück haben und behaupten, dass du alles nicht wusstest und vielleicht sogar Anthropic verklagen, weil sie dir nicht wie bei heißem Kaffee auf den Becher schreiben, dass der heiße Kaffee heiß ist.
 
MrTony schrieb:
Also nach meiner Erfahrung mit LLMs generell macht das sehr viel Sinn. 75% der Zeit kommt es mir vor als würde ich dem LLM etwas erklären und nicht anders herum.
Naja, irgendwie muss man ja seine Umstände erstmal der KI erklären, damit sie eine Lösung für einen finden kann. Hilfreich finde ich sie aber definitiv schon. Ich nutze sie so ziemlich jeden Tag und insgesamt habe ich mehr positive als negative Ergebnisse. Vor allem dann, wenn es um die Erstellung von Skripten geht.
 
GrumpyDude schrieb:
DSGVO - wo Datenschutz wichtiger ist als Fortschritt. Hauptsache, 37 Cookie-Banner wegklicken, aber KI-Training? Um Himmels willen, da hört der Spaß auf!

DSGVO ist nur dazu da, damit Monis Haarstudio und der TSV Hinterbutzingen wegen ungenauer Daten im Impressum abgemahnt werden. Aber irgendwelche Megakonzerne können tun was sie wollen. Und wenn dann gibts ne Strafe, die aus der Portokasse bezahlt wird.
 
  • Gefällt mir
Reaktionen: Zhan
Tevur schrieb:
Guckt da nochmal ein Mensch drüber oder nimmt das Model einfach alles was ich schreibe ungefiltert in sich auf?
😬🙄

Die Daten werden unterschiedlich benutzt und können theoretisch auch von Menschen gelesen werden. Du darfst dir das aber nicht so vorstellen, dass jeder Text mit gleicher Priorität einfach vom LLM eingelesen wird.


twrz schrieb:
Edit: Wird übrigens lustig, wenn man seine Zustimmung später rückgängig machen will. Muss Anthropic dann das trainierte Modell löschen?

Läuft wie bei Meta mit Facebook, Instagram und Co. Wenn du die Zustimmung zurück ziehst, gilt das nur für kommende Interaktionen. Da ist so viel Grauzone, aber scheinbar können die ganz großen Teich Konzerne sich das erlauben.
 
  • Gefällt mir
Reaktionen: twrz, eastcoast_pete und Michael vdMaas
Ich fände allgemein etwas mehr Hintergrund gut zum generellen Bereich wem gehören denn die Ideen, Konzepte, Apps usw, die Mithilfe einer KI erstellt werden, und wie sich das von KI zu KI unterscheidet Und ich schreibe ausdrücklich "Mithilfe", also nicht irgendwas, das die KI initiiert hat, sondern wobei sie assistiert.
 
Zurück
Oben