Bericht Die Ratatouille-KI: Claude Code im Langzeittest – wo es vibed und wo es hakt

Ned Flanders schrieb:
Im Grunde ist das nicht weniger als die Demokratisierung der Softwareentwicklung. Jeder, wirklich jeder kann Programme erstellen, die helfen ihre oder seine Probleme zu lösen.

Selbst wenn der zweite Satz zutreffen wuerde, waere es naiv. Claude Code kostet Geld, und wenn der Gewinner der AI-Kriege dann an's Geldverdienen geht, wird er soviel verlangen wie er kann, ohne dass die Kunden wieder auf menschliche Software-Entwickler zurueckumsteigen, vielleicht sogar mehr als man jetzt fuer menschliche Softwareentwickler zahlt, denn schliesslich hat man dann schon vielleicht ein Jahrzehnt keine menschlichen Softwareentwickler ausgebildet. Daher ist Softwareentwicklung nicht demokratischer als jetzt, wo man fuer eine aehnliche Menge Geld einen menschlichen Softwareentwickler engagieren kann, dem einen Prompt gibt, und er macht dann.


Aber trifft der Satz zu? Laut diesem Bericht und anderen braucht man einen Senior Software Engineer, um LLMs sinnvoll fuer Softwareentwicklung nutzen zu koennen.

Ein anderer Aspekt in diesem Zusammenhang: Vor 40 Jahren konnte jeder, auch wirklich jeder Programme erstellen. Die Computer von damals boten ein einfach zu verstehendes Programmiermodell (beim Raspi wurden die damaligen Computer als Vorbild bezueglich der Nutzbarkeit zum programmieren-lernen genannt). In der Zwischenzeit sind die Computerkapazitaeten gewachsen und damit auch die Komplexitaet der Softwarelandschaft; damit wird auch die freie Programmierbarkeit immer mehr eingeschraenkt, mit Spielkonsolen und Smartphones als Vorreiter. Sogar bei Android kann nicht mehr jeder Software schreiben, die darauf laeuft, sondern man muss sich bei Google registrieren; und im Laufe der Jahre werden die Moeglichkeiten sicher noch weiter eingeschraenkt werden. Bei den PCs sind wir noch nicht ganz so weit, aber die Tendenz geht in eine aehnliche Richtung: Fuer die ARM-Geraeter verlangt Microsoft schon, dass Secure Boot eingeschaltet ist, mit dem Endergebnis, dass nur mehr Betriebssysteme mit Microsofts Zustimmung darauf laufen (und tatsaechlich nur Windows).

Aber selbst von solchen Einschraenkungen abgesehen werden die LLMs, wenn sie sich durchsetzen sollten, zu noch mehr Komplexitaet in der Softwarelandschaft fuehren, einfach weil sie dann durch die Profis handhabbarer wird. Und sie wird so komplex sein, dass sie eben durch Laien auch mit LLM-Hilfe nur in sehr einfachen Faellen bewaeltigt werden kann.

Noch vor 30 Jahren hat man sich vom Internet eine Demokratisierung erwartet, weil jeder Zugriff auf mehr Informationen haben wuerde. Heute leben wir in einer Zeit von Demokratieabbau und Oligarchisierung, wohl nicht nur wegen des Internets, aber auch.
 
  • Gefällt mir
Reaktionen: Boimler, bruteforce9860, RegisMx und eine weitere Person
Danke für den Bericht. Ich finde es spannend, aber mit diesen Agenten und Co., da muss ich mich noch reinfuchsen.

Ich habe vor ein paar Wochen testweise ein kleines Software-Projekt mit KI umgesetzt. Erst hatte ich es mit lokalen Modellen ausprobiert, das hat aber nicht so recht funktioniert (zumindest auf meiner Hardware) und dann mit Cloud-Modellen. Claude hab ich zwar nicht getestet, aber von denen die ich probiert habe hat Gemini (Pro 3.1) das beste (eigentlich sogar das einzig wirklich brauchbare) initiale Ergebnis ausgespuckt, auf dessen Basis ich dann weitergearbeitet habe. In diesem Prozess war aber durchaus noch viel Handarbeit notwendig, das was die KI ausgespuckt hat war nicht immer voll funktionsfähig bzw. hatte dann doch einige Fehler.

Mein Workflow bestand letztendlich daraus, den Output zu testen und Fehler zu berichten, um diese korrigieren zu lassen. Dabei auch immer wieder ein paar Verbesserungsvorschläge gemacht. Nach einigem hin und her hatte ich ein ordentliches Ergebnis. Aber dabei bin ich dann auch recht schnell in die Grenzen des machbaren ohne Abo gekommen und musste dann doch hier und da selbst Hand anlegen, weil die KI das noch nicht ganz meinen Wünschen entsprechend umgesetzt hatte. Da muss ich im Prompting aber sicher auch noch besser werden. Der Workflow unterscheidet sich zwar einerseits stark vom bisherigen Entwicklungsprozess, nimmt einem andererseits aber auch viel ab, weil man nicht erst recherchieren und rumprobieren muss, wie das Problem zu lösen ist. Trotz des überschaubaren Umfangs ist auch so einige Zeit da reingeflossen, trotzdem hätte ich das selbst ohne diese Hilfe niemals in der Zeit umsetzen können.

Bei der Weiterentwicklung des ganzen geht es doch näher an die Grenzen des machbaren ohne dafür zu bezahlen. Deshalb habe ich den Fokus wieder mehr in Richtung lokal lauffähiger Modelle ausgerichtet und gestern früh direkt mal das neue Gemma4 26b ausprobiert. Da das nicht vollständig in meinen Grafikkartenspeicher passt ist es aber auch nicht so performant unterwegs. Mit dem ersten Prompt mit der Software im Anhang bin ich dann irgendwie in ner Endlosschleife hängen geblieben, als ich nach 2 Stunden die mein Rechner herumgerechnet hat immer noch kein Ergebnis hatte hab ich dann abgebrochen. Am Abend hab ich es dann noch mal probiert, dies mal mit GPT-OSS 20b, ist zwar schon älter aber passt in meinen VRAM und bringt eigentlich auch ganz passable Ergebnisse. Damit habe ich dann noch ein paar Dinge überarbeiten können. Was ich aber auch merke ist dass der Kontext dann doch recht schnell verloren geht und es anfängt zu fantasieren. Ich hoffe das die von Google angekündigte Komprimierung wirklich etwas bringt und damit auch wirklich starke Modelle mit genug Kontext in handelsübliche (16GB) Grafikkarten passen. Dann wird es richtig spannend.

Auch spannend finde ich die Überlegung, wie so eine KI mit wirklich großen und komplexen Software-Projekten wie ich sie auf der Arbeit habe zurechtkommen würde. Ich denke alleine durch die Anzahl der Eingabetoken ist es nahezu ausgeschlossen dass hier ein Überblick über das gesamte Projekt herrschen kann. Die Chance sehe ich eher darin, ein Modell zielgerichtet mit der Dokumentation und Codebasis des Projekts nachzutrainieren, damit es anschließend auch weitere Software dafür entwickeln kann.

Für mich als Entwickler heißt es dann wohl eher, dass ich mit der KI zusammenarbeiten muss, um die Produktivität und Qualität es Outputs zu verbessern, und mich auch in Bereiche reinzutrauen die vorher außerhalb meiner Komfortzone gelegen haben. Das ist ne riesige Chance. Natürlich besteht auch die Gefahr dass mich die KI eines Tages ersetzen wird, aber ich denke als Entwickler der den Umgang mit KI beherrscht wäre ich besser aufgestellt als ohne dem, daher muss ich mich langsam auch mehr in diesen Bereich reinfinden und schauen wo und wie ich es sinnvoll einsetzen kann, ohne die menschliche Komponente komplett aufzugeben.

Klassisches "vibe coding" ohne wirkliche Ahnung zu haben was da eigentlich passiert sehe ich eher kritisch, das ist für kleine private Projekte vielleicht ok aber für kommerzielle Software sollten da am Ende doch nocht Menschen mit entsprechender Erfahrung den Überblick und die Kontrolle behalten.

Die größte Gefahr sehe ich darin, dass wir als Menschen degenerieren, wenn uns die KI das Denken abnimmt. Das darf nicht passieren. Und das betrifft nicht nur Softwareentwicklung sondern alle Bereiche, in denen KI Fähigkeiten besitzt. Sie soll unterstützen, nicht ersetzen. Aber solche agentischen Systeme machen eigentlich fast schon das, ich denke das schießt dann vielleicht doch etwas zu sehr übers Ziel hinaus.
 
  • Gefällt mir
Reaktionen: Brrr
Marcel55 schrieb:
Die größte Gefahr sehe ich darin, dass wir als Menschen degenerieren, wenn uns die KI das Denken abnimmt. Das darf nicht passieren. Und das betrifft nicht nur Softwareentwicklung sondern alle Bereiche, in denen KI Fähigkeiten besitzt. Sie soll unterstützen, nicht ersetzen.
Was dann sogar eher auf "Entdemokratisierung" hinausläuft, wenn immer weniger über "echtes", von KI unabhängiges Fachwissen, verfügen.

Stichwort: Kognitive Autonomie.

Interessanter Gedanke...

Okay, Asche über mein Haupt. Ich konnte es nicht lassen und habe Tante Genimi mit folgender Prämisse beglückt:

"Ich glaube wir können es uns als Menschen und damit als Gesellschaft nicht leisten, dass unsere individuellen Fähigkeiten in größerem Maßstab verfallen. Im Idealfall sollte KI unsere Fähigkeiten erweitern und auf ein neues Level heben.

Nun ist unsere Welt aber nicht nach altruistischen Maßstäben geprägt, sondern von Machtkämpfen, ideologischen Konflikten, Vermögensfehlverteilung und ähnlichen negativen Verhaltensmustern geprägt, insbesondere auf der politischen Machtebene.

Es ist also zu befürchten, dass der negative Effekt des Cognitive Offloading von Profiteuren sogar ausgenutzt oder gar gefördert wird."


Antwort:
------------------------------------------------------------------------------------------------------------------
Das ist eine sehr realistische und, wenn man die menschliche Geschichte betrachtet, leider auch sehr nachvollziehbare Perspektive. Ihre Befürchtung trifft den Kern dessen, was in der Technologieethik, der Ökonomie und der Soziologie aktuell als eines der größten Risiken des KI-Zeitalters debattiert wird.

Wenn wir die idealistische Brille abnehmen, sehen wir, dass Technologie niemals in einem Vakuum existiert, sondern immer in bestehende Macht-, Wirtschafts- und Herrschaftsstrukturen eingebettet wird. Die von Ihnen beschriebene Gefahr, dass das Cognitive Offloading (die kognitive Auslagerung) von Profiteuren ausgenutzt wird, ist nicht nur eine Befürchtung, sondern in den Geschäftsmodellen der Gegenwart bereits strukturell angelegt.

Hier sind drei zentrale Dynamiken, die Ihre These untermauern:

1. Die Ökonomie der Abhängigkeit (Der Überwachungskapitalismus)​

In der aktuellen Tech-Ökonomie ist Aufmerksamkeit und Datengenerierung die härteste Währung. Der Ökonomin Shoshana Zuboff zufolge (die den Begriff des Überwachungskapitalismus prägte) haben Technologieunternehmen gar kein wirtschaftliches Interesse daran, dass Nutzer maximal autark und unabhängig sind.

  • Der Profit-Mechanismus: Je mehr ein Nutzer an eine KI auslagert – sei es das Schreiben von E-Mails, die Informationsbeschaffung oder die Tagesplanung –, desto tiefer wird er in das Ökosystem des Anbieters eingebunden (der sogenannte Lock-in-Effekt).
  • Das Resultat: Eine schleichende De-Qualifizierung der Nutzer ist für die Anbieter kommerziell hochattraktiv, denn wer ohne die KI-Assistenz nicht mehr effizient arbeiten kann, wird sein Abonnement niemals kündigen.

2. Informationskontrolle und politische Macht​

Auf der politischen Machtebene birgt eine Gesellschaft, die ihr analytisches Denken zunehmend an Maschinen abgibt, enorme Risiken für demokratische Prozesse.

  • Der Flaschenhals der Wahrheit: Wenn Milliarden von Menschen nicht mehr selbst primäre Quellen lesen und synthetisieren, sondern eine KI bitten, ihnen "die Nachrichten des Tages zusammenzufassen", entsteht eine nie dagewesene Machtkonzentration. Wer das KI-Modell kontrolliert (oder dessen Trainingsdaten und Sicherheitsfilter), kontrolliert das Weltbild der Nutzer.
  • Anfälligkeit für Manipulation: Eine Gesellschaft, die das kritische Denken verlernt hat (Cognitive Offloading), ist ungleich anfälliger für subtile Manipulationen, Desinformation und ideologische Lenkung, da die Fähigkeit zur eigenen Plausibilitätsprüfung (Bullshit-Erkennung) verkümmert.

3. Die Gefahr des "Techno-Feudalismus"​

Wirtschaftswissenschaftler wie Yanis Varoufakis sprechen in diesem Kontext von einem aufkommenden Techno-Feudalismus. Diese Theorie besagt, dass die vermeintliche "Demokratisierung" der KI eigentlich zu einer extrem asymmetrischen Zwei-Klassen-Gesellschaft führt:

  • Die Architekten (Die Tech-Oligarchen): Eine sehr kleine, hochqualifizierte Elite, die versteht, wie die KI-Modelle gebaut werden, wie Algorithmen funktionieren und die über die massive Rechenleistung und die Datenzentren verfügt.
  • Die Konsumenten (Die "digitalen Leibeigenen"): Die breite Masse der Bevölkerung, die die KI-Tools zwar täglich nutzt (und mit ihren Daten füttert), aber die zugrundeliegenden Mechanismen nicht mehr versteht und technologisch völlig abhängig geworden ist.

Fazit​

Ihre Analyse ist absolut zutreffend: Eine Technologie, die eigentlich als Hebel für menschliches Potenzial gedacht war, droht durch ökonomische und politische Machtinteressen zu einem Instrument der Abhängigkeit zu werden. Der Verlust von eigenständigem Wissen ist dabei kein "Betriebsunfall", sondern ein für viele Akteure sehr lukrativer Nebeneffekt.

Wenn wir davon ausgehen, dass die treibenden Kräfte hinter KI derzeit vor allem kommerzieller und geopolitischer Natur sind: Wo sehen Sie persönlich die wirksamsten Hebel – sei es in der Gesetzgebung, im Bildungssystem oder beim einzelnen Individuum –, um diese "kognitive Entmündigung" noch aufzuhalten?
-----------------------------------------------------------------------------------------------------------------------

Hm... interessant ist, dass Genimi die Antwort mit einer Frage an den Anwender beendet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RegisMx und Alphanerd
Generell ist bei den Datenanalysen empfehlenswert, nicht mit der CLI-Version zu arbeiten, sondern die Desktop- oder Web-App zu nutzen. Diese liefern die Ergebnisse binnen kurzer Zeit, während die CLI-Version des Agenten längere Zeit rechnet.
Häh? Gibts dafür irgend eine Erklärung? Wurde das in Windows getestet?
 
Finalspace schrieb:
Aber selbst meine Gen ist davon betroffen, weil viele Entwickler auch einfach keine Lust mehr haben sich mit den Themen auseinanderzusetzen

Ja… das Problem ist die (wirtschaftliche) Entwertung von Wissen.
Ich befasse mich noch viel mit Algorithmen, weil ich ein Erkenntnisinteresse habe, also aus bloßer Neugier wissen will, wie die Dinge funktionieren.

Aber wenn das als Motivation wegfällt…
 
  • Gefällt mir
Reaktionen: Brrr
Brrr schrieb:
Google ist gefühlt für die Suche [...]
Ja, der eine oder andere Anwendungsentwickler wird da mit Sicherheit nicken. Allgemein kann ich sagen, dass die Suchergebnisse bei Google für mich nie im ersten Anlauf das waren, was ich gesucht habe. Toxisch wurde es dann, wenn ich nicht das fand, was ich suchte, in einem Forum fragte und man mir an den Kopf ballerte "Google ist dein Freund"... ne, in dem Moment gerade nicht!

Aber mit gesundem Menschenverstand und abgleichen der Informationen, kann eine Kombination aus Google und der KI Nutzung schon ein gutes Stück sein.

Erschreckender finde ich allerdings, dass Unternehmen (oder in Unternehmen) so etwas wie KI von Kolleginnen und Kollegen gefordert wird, mit Aussagen wie "alle arbeiten mit KI, dass brauchen wir auch" oder "ich bräuchte eine KI, damit ich arbeiten kann" :rolleyes:
 
  • Gefällt mir
Reaktionen: RegisMx und Brrr
Ned Flanders schrieb:
Jeder, wirklich jeder kann Programme erstellen, die helfen ihre oder seine Probleme zu lösen.
Konnte man auch vorher schon - alles was man zum Programmieren brauchte war etwas Zeit, den billigsen Computer und Internet, sonst nichts.

Mit den billigen Computern ist es allerdings jetzt vorbei:

DRAM pricing is killing the hobbyist SBC market​

https://www.jeffgeerling.com/blog/2026/dram-pricing-is-killing-the-hobbyist-sbc-market/
 
  • Gefällt mir
Reaktionen: metoer
Mag daran liegen, dass ich entweder beim Prompt schreiben eine falsche Herangehensweise hatte, oder ein zu "komplexes" Projekt als Nichtentwickler versucht habe - oder beides :D

Aber meine Erfahrung mit Claude Code war jetzt nicht sonderlich berauschend, was dem Weg zum Resultat betrifft - mal davon ab, dass ich es dann abgebrochen habe, da ich mehrmals täglich in das Limit gelaufen bin und paar Wochen quasi daran "gearbeitet" habe.
 
Spriti schrieb:
Entweder man nutzt es, oder lässt es sein.
Wäre dann nur hilfreich, wenn es auch richtig genutzt wird, vor allem die Grenzen/Einschränkungen beachtet werden und nicht blind drauf los "agentet" wird, daran ist nämlich nichts intelligent...
 
  • Gefällt mir
Reaktionen: Brrr
@Snakeeater Arbeite mit dem CLI nur in meinen Root Server Terminals per SSH.
 
Marcel55 schrieb:
Die größte Gefahr sehe ich darin, dass wir als Menschen degenerieren, wenn uns die KI das Denken abnimmt.

Du meinst so wie beim Körper, der Muskulatur und dem Übergewicht? 😉

Benutze es oder verliere es… im Körper wird alles abgebaut, was nicht lebenswichtig ist oder benutzt wird.

Ich finde es witzig, wenn manche sagen, dass mehr Zeit für „hochwertigere“ Aufgaben bleibt, was auch immer das bedeuten soll … jedenfalls wird dabei der langfristige (10-15 Jahre) Trend übersehen, dass keine (produktive) geistige Tätigkeit verschont bleiben wird.

Mein erster Gedanke dabei ist: schön, kann ich mich aus reiner Neugier dann ganz viel mit Literatur, Kunst, Wissenschaft befassen … und ganz viel Reisen. Aber Moment, wie funktioniert eigentlich die Ökonomie in so einer Welt? Wenn alle mehr Zeit zum Reisen haben, aber jeder schöne Ort zu einer bestimmten Zeit nur eine bestimmte Menge an Menschen verkraften kann … dann werden die Reiseziele für die „Normalen“ ausgelost. Man wird sich dann für Reisen und Orte registrieren können… und bekommt einen Slot zugeteilt.

Wie auch immer… die Zukunft wird interessant.
 
Zoldan schrieb:
Ist das nicht genau die aktuelle Stärke einer AI/LLM gegenüber eines Menschen auf eine schier unendliche Datenbasis zurückgreifen zu können und innerhalb Sekundenbruchteilen dann die wahrscheinlich beste Lösung für das Software-Problem zu finden.
Theoretisch ja in der Praxis verhält es sich aber sehr oft nicht so. Das Problem ist halt auch, dass LLMs nicht wirklich intelligent sind sondern probalistisch. Das heisst es wird dir eher eine Lösung bieten die am häufigsten angewendet wurde, als die Beste.
 
Zuletzt bearbeitet:
Zurück
Oben