News Datenleck bei Anthropic: Teile des Quellcodes von Claude Code veröffentlicht

Flutefox schrieb:
Voll super dass du da ganz wichtig bist, aber das trägt genau so wenig zur Diskussion bei wie mein Beitrag hier.
Nirgendwo hab ich geschrieben, dass ich wichtig bin. Schieb mir keine Aussagen in die Schuhe.
 
the_IT_Guy schrieb:
Richtige gute Leute Fragen die LLMs spezifische Sachen und bekommen spezifische Antworten die dann Denkprozesse anregen und bei weiterer Recherche unterstützen.

Coding Monkeys Promten was und copy pasten die Antwort und sind stolz das sie jetzt "schneller" sind. Management sieht das als Fortschritt, weil "gutes Coding ja möglichst viel Output pro Minute ist"

Das trifft den Nagel auf dem Kopf!
 
  • Gefällt mir
Reaktionen: the_IT_Guy
@Flut
Flutefox schrieb:
@Grestorn [...]aber das trägt genau so wenig zur Diskussion bei wie mein Beitrag hier.
Harter Take, hast du mal geschaut was du bisher beigetragen hast?

Krass was hier im Unterforum abgeht. Könnte jetzt nicht ganz PO Konforme Rückschlüsse ziehen, aber wieso versucht hier jeder Horst zu behaupten seine bisherige Copypaste Karriere hat mehr Bestand als KI in der Programmierung. Habt ihr so sehr Angst um eure Jobs?
 
  • Gefällt mir
Reaktionen: Grestorn
Ich glaube ich versteh ganz gut wie eine LLM oberflächlich und generell funktioniert. Was ich absolut nicht verstehe, wie man felsenfest behaupten kann eine KI könne nicht programmieren ohne dabei rot anzulaufen. Ich kann nur erahnen was damit gemeint ist, aber wirklich Erklärungen werde ich hier wohl nicht finden.

Außerdem wenn man meine Beiträge mit einigermaßen Aufmerksamkeit liest, sollte offensichtlich sein, dass ich daran interessieren bin zu verstehen was hier vorgetragen wird. Natürlich interessiert dich das nicht, da du entweder empathisch nicht dazu in der Lage bist oder es dir gar nicht um irgend eine Diskussion geht.
 
  • Gefällt mir
Reaktionen: Grestorn
Snakeeater schrieb:
Natürlich interessiert dich das nicht, da du entweder empathisch nicht dazu in der Lage bist oder es dir gar nicht um irgend eine Diskussion geht.

This you? Oder wie sagt man so schön heutzutage.
Snakeeater schrieb:
aber wieso versucht hier jeder Horst zu behaupten seine bisherige Copypaste Karriere hat mehr Bestand als KI in der Programmierung

Snakeeater schrieb:
Was für eine gequirlte Ausscheidung ...

Und du sprichst von Diskussion und Empathie. :freak:

Nein, du bist offensichtlich nicht an einer Diskussion interessiert, wie man sieht. Wie ein beleidigtes Kind, wenn dir eine andere Meinung nicht passt. Von deiner fehlenden Empathie, die du anderen unterstellst, fangen wir gar nicht erst an.

Hast aber auch kein Fettnäpfchen ausgelassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: the_IT_Guy und Piktogramm
KIs können nicht programmieren, haben kein Wissen und jeder Programmierer ist in beiden Bereichen besser. Darf man eigentlich keinem erzählen dass wir uns hier in einem IT Forum befinden.
 
  • Gefällt mir
Reaktionen: Grestorn
Die generelle Ablehnung und Geringschätzigkeit zu KIs im Allgemeinen ist halt weit verbreitet.

Und ich kann es auch wo verstehen.

Es ist nur extrem kurzsichtig. Und hilft niemandem. Man muss der Realität schon ins Auge sehen. Mir ist es am Ende egal, was ihr hier alle denkt. Ich mach mir meine eigenen Gedanken und die basiere ich schon auf konkretes Wissen und Erfahrungen, die ich mir selber aneigne, und nicht auf irgendwelches Hörensagen.
 
Ich muss hier mal @Grestorn zur Seite stehen.
Ich habe exakt die selbe Erfahrung gemacht.
Ich arbeite bei einem grösseren US-SaaS-Anbieter. KI wird hier extremst gepusht. Bis vor 6 Monaten stand ich der ganzen Sache noch extremst skeptisch gegenüber. Mittlerweile bin ich all-in und habe sämtliche Systeme des Softwarelifecycles in meinen agentischen Workflow integriert, vom Ticketsystem bis zur Buildpipeline und Production-Logs.
Die Folge daraus: meine Produktivität ist um ein Vielfaches gestiegen. Das sage ich als jemand, der seit grob 20 Jahren in der Softwareentwicklung tätig ist. Nicht an irgendwelchen simplen Webapps, sondern hochkomplexen verteilten Systemen mit sehr hohen Anforderungen an Stabilität und Verfügbarkeit.
Natürlich könnte ich die selbe Arbeit auch ohne KI machen, aber niemals in dem Tempo.
Ergänzung ()

the_IT_Guy schrieb:
Richtige gute Leute Fragen die LLMs spezifische Sachen und bekommen spezifische Antworten die dann Denkprozesse anregen und bei weiterer Recherche unterstützen.

Coding Monkeys Promten was und copy pasten die Antwort und sind stolz das sie jetzt "schneller" sind. Management sieht das als Fortschritt, weil "gutes Coding ja möglichst viel Output pro Minute ist"
Es tut mir Leid, aber das hat recht wenig mit der Realität zu tun. Mit der Denkweise outet man sich als Ewiggestriger.
Richtig gute Leute nutzen die KI extensiv um Gruntwork zu erledigen, so dass man sich nur noch Highlevel mit der Problemstellung befassen muss. Die KI IST der Coding Monkey, der exakt das tut, was ich ihm auftrage. Die Qualität des Outputs lege ich durch meinen Input fest.
Copy-Pasten tust du im übrigen rein garnichts.
Der Agent hat vollen Zugriff auf alles, erarbeitet einen Plan, den du iterativ so lange anpasst, bis du mit dem Resultat zufrieden bist. Commits mache ich mittlerweile auch direkt von der Agenten-TUI aus.
Und was Qualität angeht: natürlich macht die KI Fehler, wenn Informationen im Kontext fehlen. Das passiert Menschen übrigens auch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kuristina, Snakeeater und Grestorn
Snakeeater schrieb:
Ist das jetzt euer Ernst?
Ja, exakt das sind LLMs.
Und anstatt zu erklären was denn LLMs aus deiner Sicht sind kommt ein
Snakeeater schrieb:
Sich dann noch beschweren, dass ja keine vernünftige Diskusion zustande kommt ist schon wunderbar ironisch.

Und bitte jetzt nicht 5 Seiten LLM Textwand als Antwort, sondern deine Erklärung was denn LLMs sind oder warum sie nicht exakt das sind was ich oben erklärt habe.
Ergänzung ()

SheepShaver schrieb:
Copy-Pasten tust du im übrigen rein garnichts.
Der Agent hat vollen Zugriff
Agenten haben nur den Zwischenschritt des Copy Pasten entfernt, was das das ganze noch gruselliger macht, denn ansonsten ist es exakt das was ich beschrieben habe.

SheepShaver schrieb:
Und was Qualität angeht: natürlich macht die KI Fehler, wenn Informationen im Kontext fehlen. Das passiert Menschen übrigens auch.
Eins der großartigsten Strohmannargumente.
Noch dazu immer diese furchtbare Vermenschlichung.

LLMs spucken nur Kontent aus der eventuell irgendwann das macht was man erhofft hat.

Was auch immer du unter grunt work verstehst, wenn es sich automatisieren lässt, dann gibt es mit großer Wahrscheinlichkeit ein Tool dafür oder man schreibt selbst ein gut dokumentiertes Script dafür. Ein Tool/Script was sauber programmiert wurde und deterministische Ergebnisse liefert.
LLM output basiert auf Zufall. Von jetzt auf gleich kann es sich komplett anders verhalten und dein gesammtes Projekt mitreißen. Es ist eine Blackbox. Man will Blackboxen nicht im Produktivsystem.
 
Zuletzt bearbeitet:
@the_IT_Guy

Wir wissen alle, was ein LLM ist. Du musst nicht denken, dass wir ahnungslos wären.

Und wie gesagt, vor einigen Monaten hätte ich nicht im Traum für möglich gehalten, zu was diese LLMs in der Lage sind, wenn man sie entsprechend optimiert. Da hätte ich dir in allem zugestimmt.

Aber bitte akzeptiere auch, dass es Menschen mit first-hand Experience gibt, die sich eines Besseren belehren lassen mussten. Ich schreib das ja nicht aus Lust und Dollerei oder weil ich recht haben will. Ich habe diese Lernerfahrung einfach selbst gemacht.

Es ist unglaublich, was Opus 4.6 und andere Modelle im Bereich SW-Entwicklung imstande sind, zu leisten. Nein, nicht fehlerfrei; nein, nicht immer optimal. Aber wenn man das Ganze gut einsetzt, mit Agents, die sich auch gegenseitig überwachen und auch Reviews und Tests für den selbst generierten Code erzeugen, dann ist das Ergebnis oft erstaunlich gut, im Schnitt klar besser als von durchschnittlichen und sogar recht guten Entwicklern.

Und vor allem massiv schneller.

Nimm das doch bitte einfach als Erfahrungswert eines Entwicklers, der tagtäglich damit zu tun hat, und nicht als einfach sofort für Dich abzulehnendes. Damit tust Du Dir selbst nur einfach keinen Gefallen.
 
@Oppenheimer war ein Trollaccount? Na wer hätte es gedacht.
 
Grestorn schrieb:
Es ist unglaublich, was Opus 4.6 und andere Modelle im Bereich SW-Entwicklung imstande sind, zu leisten. Nein, nicht fehlerfrei; nein, nicht immer optimal. Aber wenn man das Ganze gut einsetzt, mit Agents, die sich auch gegenseitig überwachen und auch Reviews und Tests für den selbst generierten Code erzeugen, dann ist das Ergebnis oft erstaunlich gut, im Schnitt klar besser als von durchschnittlichen und sogar recht guten Entwicklern.

Und vor allem massiv schneller.
Das klingt alles toll, aber so unglaublich wage.

Butter bei die Fische.
Was habt ihr die letzten 6 Monate genau gemacht, was haben LLMs exakt getan und wie viel hat es euch entlastet? Wie lange hättet ihr ohne LLMs gebraucht?
 
@the_IT_Guy Wir sind ein SW-Team in einem großen deutschen Finanzunternehmen, eines von vielen Teams, die alle auf KI umsteigen (müssen) inzwischen. In meinem Team werden Bestandteile des Vertragsabschlusses für den Vertrieb implementiert.

Das Ganze ist Spring Boot im Backend auf Kubernetes-Servern (mit jeder Menge Security drumherum) und im Frontend Angular.

Das Projekt ist vor 6 Jahren gestartet, und wie es so ist, sind die Anforderungen in eine andere Richtung gewachsen als geplant. Gerade bei agiler Entwicklung wird ja das Konzept, nur die konkreten Anforderungen zu implementieren und später zu refactoren, wenn die Implementierung nicht mehr passt, sehr großgeschrieben, auch wenn ich selbst lieber etwas zukunftssicherer designe.

Einige frühe Entscheidungen in Architektur und Design haben uns irgendwann richtig gebissen. Und deswegen habe ich gerade ein massives Refactoring angeschoben, das nicht nur innerhalb der Komponenten, sondern auch die Aufgaben der Komponenten selbst neu definiert, die Schnittstellen auf eine andere Basis heben usw.

Das Ganze muss kompatibel zu bereits bestehenden Vorgängen bleiben, d.h. entweder migrieren oder für eine Zeit zweigleisig fahren (was in unserem Fall der bessere Weg ist).

Das Ganze ohne Claude-Code zu machen, wäre fast nicht möglich gewesen. Im Planning-Modus mit einer Reihe von gut überlegten Prompts, viel Input und einigen Kurs-Korrekturen hat CC das Refactoring am Ende fast alleine durchgezogen. Klar gab es ein paar Dinge zu korrigieren und einige Entscheidungen musste man revidieren.

Aber im Großen und Ganzen wäre es ohne CC kaum möglich gewesen und schon gar nicht in wenigen Monaten.

Aber nicht nur dafür hat sich CC inzwischen bewährt. Ihm z.B. die Zugriffe auf die Logs mehrerer Komponenten zu geben, um bestimmte, schwer nachvollziehbare Abläufe und Fehlerbilder zu tracken und zu analysieren, führt in wenigen Minuten zu einem Bild, das ein Mensch nach vielen Stunden in der Qualität nicht ermitteln könnte. Trotz Correlation-IDs in Grafana.

Auch komplett neue Features und Anpassungen mache ich inzwischen immer mit CC. Ein guter Prompt und der neue "Superhero" -Modus, in dem sich CC selbst mit getrennten Agents ständig challenged und die eigenen Lösungen hinterfragt und reviewed, führen praktisch immer zu einem Ergebnis, das ich selbst kaum besser hätte machen können (wenn überhaupt) und das in einem Bruchteil der Zeit.

Was das an Tokens kostet, will ich gar nicht wissen. Aber mein Arbeitgeber will das so, als verschwende ich Tokens, wo es nur geht ... :)
 
Zuletzt bearbeitet:
@Grestorn
Danke, aber immer noch viel zu wage. Das klingt wie eine Werbebroschüre.
Zahlen. Daten. Fakten.
Vorher. Nacher.
Was ist jetzt besser?
Ist es auch Nachhaltig besser? Oder seid ihr jetzt abhängig von Claude?
Warum hat es trotzdem Monate gedauert, wenn Claude mit seinen Agenten doch 24/7 den Code bearbeiten könnte?
 
Ich bin kein Werbefuzzi für Anthropic. Entweder Du nimmst meinen Erfahrungsbericht oder Du lässt es.

Dass es 2-3 Monate gedauert hat, inkl. aller Tests und angesichts der Komplexität und das wie gesagt, alte Abläufe noch abschließbar sein mussten (ohne Migration) halte ich für ausgesprochen bemerkenswert.

Darf ich mal zurückfragen, wie viel Erfahrung Du mit professioneller SW-Entwicklung hast?

Und nein, wir sind nicht von Claude abhängig. Im Gegenteil. Selten waren Vorgänge so gut dokumentiert. Wieso sollten wir von Claude abhängig sein?

Bestenfalls unsere Auftraggeber, weil wir sie an die Geschwindigkeit, mit der Dinge umsetzbar sind, gewöhnen.
 
Ohne Vergleichswerte klingt es halt genauso wie die 3 "Schulungen" äh Verkaufsgespräche die ich schon für Github Copilot erleben durfte. 70% mehr Effizienz, jada jada...

17,5 Jahre Softwareentwickler, in der Automobilbranche. Jetzt das 5. Jahr im Konzern. C# und .NET angefangen, aber mittlerweile mehr Java Spring etc. Seit ~6 Jahren Fullstack mit Vaadin und Angular. ~3 Jahre angefangen mit DevOps.
6 Monolithen Betreut, im Moment ein Projekt mit 63 Microservices.
 
... dann wirst Du demnächst auch noch die Erfahrung machen oder zurückbleiben.
 
Drum rum komm ich nicht, ich habe nur ganz andere Erwartungen an das was von LLMs versprochen wird.
 
Ich wäre ja gespannt, wie Deine Meinung ist, nachdem Du 2-3 Monate mit CC gearbeitet hast.
 
Zurück
Oben