News Datenleck bei Anthropic: Teile des Quellcodes von Claude Code veröffentlicht

Piktogramm schrieb:
Wie soll ein LLM irgendwas "ganzheitlich" können, wenn sie vom Prinzip her keine Abstraktion, Konzepte von Etwas entwickeln können? Es sind Musterreplikatoren, die das Muster von Aufforderungen erkennen und daraufhin Muster erzeugen, die wahrscheinlich passen. Zudem sind die Dinger von den Anbietern im Regelfall darauf ausgelegt, dass sie möglichst positiv antworten sollen.
Entsprechend kommt da keine Rückmeldung, dass es mäßig schlau ist, eine Funktion die so, oder ähnlich bereits 14mal im Code ist nicht nochmals zu implementieren.

Wobei, man könnte damit viele Tokens abrechnen, wenn man die LLMs in eine Richtung trimmt Funktionalitäten zusammen zu fassen. Sowas kommt bestimmt demnächst und wird wahrscheinlich ähnlich schlecht funktionieren wie die Codeerzeugung jetzt schon.



LLMs haben kein Wissen. Sie kennen nur nahezu alle sprachlichen Muster, die zu nahezu allen Themen je von der Menschheit verfasst wurden (Schrift und Ton) und können diese Muster replizieren.
Was für eine gequirlte Ausscheidung. Glaub du bist im falschen Unterforum.
Ergänzung ()

Grestorn schrieb:
@the_IT_Guy Verstehe mich nicht falsch. KIs sind ein echtes Problem, weil sie auch u.a. meinen Job gefährden und vermutlich in ein paar Jahren obsolet machen werden.
Wie viele Fotografen wurden durch Digitalfotografie obsolet? Berufe entwickeln sich weiter, klar werden Leute auf der Strecke bleiben, genau die die sich vehement gegen etwas Unausweichlichem wehren.
Niemand vertraut KI generiertem Code blind und setzt ihn produktiv ein. Und selbst wenn wir irgendwann an den Punkt kommen braucht es Menschen die das konzeptionelle Verständnis davon haben.
 
Zuletzt bearbeitet:
@Snakeeater
Selbst wenn KI die SW-Entwickler nicht völlig obsolet machen und es auch immer Grafiker, Modedesigner, Musiker geben wird, die besser und innovativer als die KI sein werden, so wird die Technologie dennoch massive Umwälzungen haben, die nicht mit der Industrialisierung zu vergleichen sind.

Ich sehe nämlich nicht, wo der Großteil der heute im Büro und am Rechner kreativ und verwaltend arbeitenden Menschen dann noch gebraucht wird. Ein Teil wird gebraucht, sicher, aber nicht die Menge.

Alle die mit ihren Händen was können (Handwerker...) sind dann die Gewinner. Die anderen werden sich erst mal umsehen.

Das lässt sich nicht mehr aufhalten und ich würde zu gern 100 Jahre in die Zukunft schauen, um zu sehen, was da rauskommt. Leider habe ich nur noch 20-30 Jahre, wenns gut geht.
 
Ja gut, ich würde auch gern 100 Jahre in die Zukunft (gen Himmel) schauen, aber aus anderen Gründen.
 
Grestorn schrieb:
Man merkt, dass Du noch nicht mit Claude Code oder ähnlichem gearbeitet hast. Sorry, ich kann es nicht anders sagen.

Das "Wissen" des Menschen ist übrigens genau das gleiche, was Du eben beschrieben hast.

Du hast ganz offensichtlich keine Ahnung wie ein LLM funktioniert

Grestorn schrieb:
Also genau wie 95% aller eingesetzten Software aussieht

Klar weil du 95 % der gesamten weltweiten Softwarelandschaft persönlich analysiert hast. Unfassbare Leistung.

Aber was erwartet man auch in dem Forum. So sind 90 % der Beiträge, voll mit gefährlichem Halbwissen und Geschwurbel.
 
  • Gefällt mir
Reaktionen: Flutefox, trabifant und the_IT_Guy
Oppenheimer schrieb:
Du hast ganz offensichtlich keine Ahnung wie ein LLM funktioniert
Ich hab da jetzt tatsächlich mal Grok zu befragt, die Antwort war überraschend aufschlussreich. Aber die Frage die sich hier stellt, was war @Piktogramm's Intention mit der Aussage
LLMs haben kein Wissen. Sie kennen nur nahezu alle sprachlichen Muster, die zu nahezu allen Themen je von der Menschheit verfasst wurden (Schrift und Ton) und können diese Muster replizieren.
Das war seine Antwort auf, dass KI mehr Wissen hat als ein anderer User von sich selbst behauptet zu besitzen.

Wir befinden uns hier ja augenscheinlich im Programmierkontext, also wo genau hinkt die Aussage jetzt, das KIs mehr Wissen über Programmierung haben als Max Mustercoder? Oder was für eine Rolle spielt der Unterschied in dem Wesen von Wissen einer KI im Bezug auf Programmierung im Vergleich zum Menschen?
 
  • Gefällt mir
Reaktionen: Grestorn
Snakeeater schrieb:
Oder was für eine Rolle spielt der Unterschied in dem Wesen von Wissen einer KI im Bezug auf Programmierung im Vergleich zum Menschen?
LLMs haben kein Wissen, LLMs sind die Tastatur auf deinem Handy, die dir Wörter als nächstes Vorschlägt. Nur in gewaltig groß.
Das ist der Unterschied.
LLMs können nicht programieren, sie probieren so lange rum bis etwas kompiliert.
 
Eine LLM hat kein Wissen über Programmierung, sondern nur die (statischen) Informationen dazu. Und das Sprachmodell versucht immer das nächste beste passende Wort auszugeben.
 
Ist das jetzt euer Ernst? Ich hatte echt gedacht hier kommt evtl. eine sinnvolle Unterhaltung zustande.
Ergänzung ()

the_IT_Guy schrieb:
Programmierer können nicht programieren, sie probieren so lange rum bis etwas kompiliert.
fixed btw
 
Zuletzt bearbeitet:
Snakeeater schrieb:
Ist das jetzt euer Ernst? Ich hatte echt gedacht hier kommt evtl. eine sinnvolle Unterhaltung zustande.
Wie denn? Das hat nichts mit Bashing zu tun, sondern offensichtlich hast du bei LLMs etwas komplett falsch verstanden.
 
  • Gefällt mir
Reaktionen: Oppenheimer und the_IT_Guy
Hier reden jede Menge Leute mit, die offensichtlich keine entsprechenden eigenen Erfahrungen gemacht haben.

Also was soll ich mich darauf einlassen. Probiert es selbst aus. Wenn ihr ein komplexes SW-Projekt habt, versucht mal größere Features oder Refactorings mit Hilfe von CC durchzuführen.

Ich bin gespannt, ob ihr hinterher immer noch diese Reden schwingt.

Und, ich bin wahrlich kein Noob was SW Entwicklung angeht. Ich mach den Job ja nur seit fast 40 Jahren, in großen Teams, in Projekten, die ich alleine gestemmt habe... Ein klein wenig Erfahrung hab ich also schon.
 
Oppenheimer schrieb:
Aber was erwartet man auch in dem Forum. So sind 90 % der Beiträge, voll mit gefährlichem Halbwissen und Geschwurbel.
Keiner zwingt dich, hier zu bleiben ;)
 
  • Gefällt mir
Reaktionen: the_IT_Guy und Grestorn
Snakeeater schrieb:
Ist das jetzt euer Ernst? Ich hatte echt gedacht hier kommt evtl. eine sinnvolle Unterhaltung zustande.

Das ist nun dein Argument?! Danke für den Lacher zum Feierabend :D
Ergänzung ()

Grestorn schrieb:
Ich mach den Job ja nur seit fast 40 Jahren, in großen Teams, in Projekten, die ich alleine gestemmt habe.

Nachdem oder bevor du 95 % der weltweiten Software analysiert hast, um fest zustellen das es auch nur AI slop ist? Du bist eine Maschine, kann man dich Buchen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: the_IT_Guy
the_IT_Guy schrieb:
Ki sichert dir deinen Job, du wirst die nächsten 10 Jahre alles wieder aufräumen müssen, was mit Vibecoding verbastelt wurde.
Als würden Unternehmen großartig darin investieren technische Schulden zu beheben :)

Grestorn schrieb:
Man merkt, dass Du noch nicht mit Claude Code oder ähnlichem gearbeitet hast. Sorry, ich kann es nicht anders sagen.

Das "Wissen" des Menschen ist übrigens genau das gleiche, was Du eben beschrieben hast.
Oida, es geht um ein Codeleak, ich habe mir den scheiß[1] Code unter Schmerzen angesehen und damit eine anteilige Funktionsbeschreibung von dem Ganzen.
[1] Das ist eine rein fachliche Wertung!

Formalisiertes Wissen von Menschen würde ich damit nicht annähernd gleich setzen, auch wenn natürliche Neuronen und neuronale Netzwerke durchaus deutliche Überschneidungen haben. Mit dem Wachstum der neuronalen Netze wird das bestimmt noch spannend.

Snakeeater schrieb:
Wir befinden uns hier ja augenscheinlich im Programmierkontext, also wo genau hinkt die Aussage jetzt, das KIs mehr Wissen über Programmierung haben als Max Mustercoder? Oder was für eine Rolle spielt der Unterschied in dem Wesen von Wissen einer KI im Bezug auf Programmierung im Vergleich zum Menschen?
Skizziere eine CPU[1], kipp die Definition in ein LLM und sieh zu, wie das Ding daran scheitert dafür Code zu erzeugen (ASM). Die Übertragungsleistung der abgebildeten Muster zum neuen Design klappt schlicht nicht. Das schaffen Menschen um Größenordnungen besser. Wissen und die Übertragung dessen auf Neues klappt bei Menschen halt (noch?) besser.

[1] Das Problem ist, dass man an der Stelle eine CPU bauen muss, die nicht in irgendwelchen Abstrakten Lehrbeispielen dran kommt. Sowas wie 7bit Words vom Appollocomputer ist zwar exotisch, aber halt auch erschöpfend erörtert. Ebenso wie Brainfuck Turingmaschinen.

the_IT_Guy schrieb:
LLMs können nicht programieren, sie probieren so lange rum bis etwas kompiliert.

Lustigerweise erzeugt Claude so Json. Das LLM geniert war, schmeißt es gegen einen Json Validator, schmeißt die Fehlermeldungen zurück ans LLM für die nächste Runde. Entweder klappt es oder bricht nach ein paar Iterationen ab.
Dieses Prinzip findet sich aber auch mehrfach wieder, die Ausgabe der großen Modelle validiert zum Beispiel ein kleines Modell. Die beiden Modelle sind nur nicht großartig verknüpft, also so eine Selbstreflektion wie beim Mensch ist es nicht.

Grestorn schrieb:
Hier reden jede Menge Leute mit, die offensichtlich keine entsprechenden eigenen Erfahrungen gemacht haben.

Also was soll ich mich darauf einlassen. Probiert es selbst aus. Wenn ihr ein komplexes SW-Projekt habt, versucht mal größere Features oder Refactorings mit Hilfe von CC durchzuführen.
Ja ist bestenfalls eine mittelprächtige Katastrophe, was man allein am mit mit Claude erzeugtem Code von Claude sieht.

Ich verdamme die LLMs dabei nichtmal. Die sind schon ganz praktisch, aber verlässlich unzuverlässig was Fehlerbehandlung und unzureichende Abdeckung von Zuständen angeht.
 
Piktogramm schrieb:
Als würden Unternehmen großartig darin investieren technische Schulden zu beheben :)
Doch schon, aber immer erst wenn es zu spät ist. 😉
Ergänzung ()

Grestorn schrieb:
Hier reden jede Menge Leute mit, die offensichtlich keine entsprechenden eigenen Erfahrungen gemacht haben.

Also was soll ich mich darauf einlassen. Probiert es selbst aus.
Been There, Done That.
Ich sehe absolut nichts Weltbewegendes, was ich nicht mit einer guten IDE in kürzerer Zeit besser machen könnte.

Richtige gute Leute Fragen die LLMs spezifische Sachen und bekommen spezifische Antworten die dann Denkprozesse anregen und bei weiterer Recherche unterstützen.

Coding Monkeys Promten was und copy pasten die Antwort und sind stolz das sie jetzt "schneller" sind. Management sieht das als Fortschritt, weil "gutes Coding ja möglichst viel Output pro Minute ist"
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alex2005, Oppenheimer und Flutefox
the_IT_Guy schrieb:
Coding Monkeys Promten was und copy pasten die Antwort und sind stolz das sie jetzt "schneller" sind. Management sieht das als Fortschritt, weil "gutes Coding ja möglichst viel Output pro Minute ist"
... was dazu führt dass die Erwartungshaltung vom Management steigt, was wiederum zu mehr Stress führt. Das geht nicht gut.
 
  • Gefällt mir
Reaktionen: the_IT_Guy
the_IT_Guy schrieb:
Been There, Done That.
Ich sehe absolut nichts Weltbewegendes, was ich nicht mit einer guten IDE in kürzerer Zeit besser machen könnte.
Das bezweifle ich stark. Nicht, dass Du es nicht besser machen könntest - das kann ein erfahrener Entwickler sicherlich - aber ganz bestimmt nicht in kürzerer Zeit. No chance in Hell.
 
  • Gefällt mir
Reaktionen: SheepShaver
@Grestorn Ja, sinnlos viele LOC generieren ist das Eine. Ein solides Review, ob der Code das gewünschte tut und keine Definitionslücken hat, dauert dann dummerweise wieder Ewig und ab einer gewissen Komplexität auch deutlich länger als das händige Schreiben (inkl Tests) dauern würde. Oder man schenkt sich das Intensive Review und freut sich über LOC Spam, so wie es Anthropic beim eigenem Code anscheinend getan hat -.-
 
@Piktogramm Ja. Voll die Ahnung und voll die Erfahrung. Merkt man jedem Satz an ... :)

Dass ich jeden Tag damit arbeite, in einem Team in einem durchaus nicht ganz unwichtigen Unternehmen... Was solls. Spielt natürlich keine Rolle.

Passt scho.

P.S.: Das ganze hat sich in den letzten Monaten unfassbar entwickelt. Vor einem halben Jahr... nein, vor 4-5 Monaten hab ich genauso gelabert wie Du jetzt.
 
  • Gefällt mir
Reaktionen: SheepShaver
@Grestorn Da das hier eh im Aquarium landet: bei dem Gebaren bekommt man das Gefühl, dass man im Mikrocontroller Forum unterwegs ist.

Voll super dass du da ganz wichtig bist, aber das trägt genau so wenig zur Diskussion bei wie mein Beitrag hier.
 
Ich habe bereits Code von "nicht ganz unwichtigen Unternehmen" gesehen und zum Review gehabt. "Nicht ganz unwichtiges Unternehmen" ist KEIN Qualitätsmerkmal, die Dienstzeit der Mitarbeiter auch nur sehr begrenzt.

Was ich aber sehe sind Projekte wie Claude selbst, Architektur sowie Code sind da halt übel. Es geht besser, wenn Management, Entwicklung das als Ziel ausgeben, da können LLMs durchaus helfen. Den Projekten die mit LLM Produktivität (massiv) erhöhen sollen sieht man es jedoch an.

An sich würde ich gern auf den Claude Code linken, ich bin mir aber nicht sicher, wie sehr Cbase da als Urheberrechtsverstoß ansieht.
 
  • Gefällt mir
Reaktionen: KitKat::new() und the_IT_Guy
Zurück
Oben