News Datenleck bei Anthropic: Teile des Quellcodes von Claude Code veröffentlicht

p-style schrieb:
Hätten sie mal Claude fragen sollen, wie sie ihre Daten besser schützen können :D

Habe sie doch. In den News wird “Claude. Paketiere Claude Code für NPM!” Als menschliches Versagen umschrieben.

Stimm ja? AI Slope ist ein Anwenderfehler und jeder Anwender, ist für die Fehler des LLM verantwortlich.

Nächstes Mal jemand einstellen, der mit NPM umgehen kann? Obwohl. NPM. JavaScript. Lasst mich raten, kein Flatpak, keine Namespace und kein CGroupv2? Wenn es da doch nur teures Personal mit Ahnung von gäbe. Und eine Qualitätssicherung mit Mitarbeiterstab.

PS: Wenn ihr gezwungen seid mit LLMs zu arbeiten, wegen Durchsatz, muss der Chef dafür haften. Selbst schuld, wenn man die Verwendung verlangt und nicht die benötigte Zeit für Lernen und manuelle Tests gibt. LLMs kann man nur verwenden, wenn man ohnehin weiß, was sie tut.
 
Ich glaube es erst wenn es morgen nochmal irgendwo zu lesen ist. Ich hasse das heutige Datum alles muss man immer x mal hinterfragen.
 
rentex schrieb:
Klingt nach einem SuperGAU für Anthropic...
Ist es nicht. Das Model selbst ist "der Schatz", und hier geht es nur um den Käfig drum rum, zu dem es eh schon (auch open source) Alternativen gibt.

Oppenheimer schrieb:
Trotzdem musste das Gehirn (Opus 4.6) für Platz 1 herhalten, damit sollte alles beantwortet sein :D
Schau dir den Screenshot nochmal an.... er hat explizit auf Opus gefiltert, es geht darum welche "Harness" die beste ist. An keiner Stelle geht es um das Model.
 
  • Gefällt mir
Reaktionen: BeBur
Eigentlich ist Claude Code nichts besonders, vom guten MCP-Support durch dritte Parteien mal abgesehen.
In manchen Tests liefern selbst die Claude-Modelle in Cursor bessere Qualität als in Claude Code ab. Absolut nichts besonderes etwa im Vergleich zu OpenCode, und selbst das Copilot Plug-In für VS Code ist wesentlich besser als noch vor Kurzem.

Um so lächerlicher, dass Anthropic so einen Popanz darum machen, ihr vibe-gecodetes Coding-TUI nicht offen zu machen...
 
Ich verwende seit jeher OpenCode, da ich oft Provider wechsle. Auf terminal-bench würd ich nicht zu viel geben. ForgeCode ist da zwar führend, aber der scheint extrem benchmaxed zu sein. Im täglichen Gebrauch ist der bei meinen Szenarien ziemlich unbrauchbar.
 
  • Gefällt mir
Reaktionen: Wedge.
Wenn jemand eine offline-Version für GPT4ALL oder Ollama daraus bastelt, wären wir weiter.
 
@Randnotiz
Ahem, Claude Code wurde geleakt, nicht irgendein Model.
 
Jenergy schrieb:
Auf heise gab's bereits gestern eine kurze News dazu:
Danke, dann wirds wohl stimmen, sorry am 1.4. gehe ich erstmal davon aus das mich alle verkohlen möchten.
 
SheepShaver schrieb:
Claude Code wurde geleakt, nicht irgendein Model.
Unsere beiden Aussagen beißen sich ja nirgends.

Ich finde Claude selbst halt besser, wenn es da ein Modell geben würde, welches ich lokal laufen lassen könnte, würde ich das sehr cool finden.
 
Zurück
Oben