Bericht Die Ratatouille-KI: Claude Code im Langzeittest – wo es vibed und wo es hakt

Ned Flanders schrieb:
Im Grunde ist das nicht weniger als die Demokratisierung der Softwareentwicklung. Jeder, wirklich jeder kann Programme erstellen, die helfen ihre oder seine Probleme zu lösen.

Selbst wenn der zweite Satz zutreffen wuerde, waere es naiv. Claude Code kostet Geld, und wenn der Gewinner der AI-Kriege dann an's Geldverdienen geht, wird er soviel verlangen wie er kann, ohne dass die Kunden wieder auf menschliche Software-Entwickler zurueckumsteigen, vielleicht sogar mehr als man jetzt fuer menschliche Softwareentwickler zahlt, denn schliesslich hat man dann schon vielleicht ein Jahrzehnt keine menschlichen Softwareentwickler ausgebildet. Daher ist Softwareentwicklung nicht demokratischer als jetzt, wo man fuer eine aehnliche Menge Geld einen menschlichen Softwareentwickler engagieren kann, dem einen Prompt gibt, und er macht dann.


Aber trifft der Satz zu? Laut diesem Bericht und anderen braucht man einen Senior Software Engineer, um LLMs sinnvoll fuer Softwareentwicklung nutzen zu koennen.

Ein anderer Aspekt in diesem Zusammenhang: Vor 40 Jahren konnte jeder, auch wirklich jeder Programme erstellen. Die Computer von damals boten ein einfach zu verstehendes Programmiermodell (beim Raspi wurden die damaligen Computer als Vorbild bezueglich der Nutzbarkeit zum programmieren-lernen genannt). In der Zwischenzeit sind die Computerkapazitaeten gewachsen und damit auch die Komplexitaet der Softwarelandschaft; damit wird auch die freie Programmierbarkeit immer mehr eingeschraenkt, mit Spielkonsolen und Smartphones als Vorreiter. Sogar bei Android kann nicht mehr jeder Software schreiben, die darauf laeuft, sondern man muss sich bei Google registrieren; und im Laufe der Jahre werden die Moeglichkeiten sicher noch weiter eingeschraenkt werden. Bei den PCs sind wir noch nicht ganz so weit, aber die Tendenz geht in eine aehnliche Richtung: Fuer die ARM-Geraeter verlangt Microsoft schon, dass Secure Boot eingeschaltet ist, mit dem Endergebnis, dass nur mehr Betriebssysteme mit Microsofts Zustimmung darauf laufen (und tatsaechlich nur Windows).

Aber selbst von solchen Einschraenkungen abgesehen werden die LLMs, wenn sie sich durchsetzen sollten, zu noch mehr Komplexitaet in der Softwarelandschaft fuehren, einfach weil sie dann durch die Profis handhabbarer wird. Und sie wird so komplex sein, dass sie eben durch Laien auch mit LLM-Hilfe nur in sehr einfachen Faellen bewaeltigt werden kann.

Noch vor 30 Jahren hat man sich vom Internet eine Demokratisierung erwartet, weil jeder Zugriff auf mehr Informationen haben wuerde. Heute leben wir in einer Zeit von Demokratieabbau und Oligarchisierung, wohl nicht nur wegen des Internets, aber auch.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Boimler, bruteforce9860 und 2 andere
Danke für den Bericht. Ich finde es spannend, aber mit diesen Agenten und Co., da muss ich mich noch reinfuchsen.

Ich habe vor ein paar Wochen testweise ein kleines Software-Projekt mit KI umgesetzt. Erst hatte ich es mit lokalen Modellen ausprobiert, das hat aber nicht so recht funktioniert (zumindest auf meiner Hardware) und dann mit Cloud-Modellen. Claude hab ich zwar nicht getestet, aber von denen die ich probiert habe hat Gemini (Pro 3.1) das beste (eigentlich sogar das einzig wirklich brauchbare) initiale Ergebnis ausgespuckt, auf dessen Basis ich dann weitergearbeitet habe. In diesem Prozess war aber durchaus noch viel Handarbeit notwendig, das was die KI ausgespuckt hat war nicht immer voll funktionsfähig bzw. hatte dann doch einige Fehler.

Mein Workflow bestand letztendlich daraus, den Output zu testen und Fehler zu berichten, um diese korrigieren zu lassen. Dabei auch immer wieder ein paar Verbesserungsvorschläge gemacht. Nach einigem hin und her hatte ich ein ordentliches Ergebnis. Aber dabei bin ich dann auch recht schnell in die Grenzen des machbaren ohne Abo gekommen und musste dann doch hier und da selbst Hand anlegen, weil die KI das noch nicht ganz meinen Wünschen entsprechend umgesetzt hatte. Da muss ich im Prompting aber sicher auch noch besser werden. Der Workflow unterscheidet sich zwar einerseits stark vom bisherigen Entwicklungsprozess, nimmt einem andererseits aber auch viel ab, weil man nicht erst recherchieren und rumprobieren muss, wie das Problem zu lösen ist. Trotz des überschaubaren Umfangs ist auch so einige Zeit da reingeflossen, trotzdem hätte ich das selbst ohne diese Hilfe niemals in der Zeit umsetzen können.

Bei der Weiterentwicklung des ganzen geht es doch näher an die Grenzen des machbaren ohne dafür zu bezahlen. Deshalb habe ich den Fokus wieder mehr in Richtung lokal lauffähiger Modelle ausgerichtet und gestern früh direkt mal das neue Gemma4 26b ausprobiert. Da das nicht vollständig in meinen Grafikkartenspeicher passt ist es aber auch nicht so performant unterwegs. Mit dem ersten Prompt mit der Software im Anhang bin ich dann irgendwie in ner Endlosschleife hängen geblieben, als ich nach 2 Stunden die mein Rechner herumgerechnet hat immer noch kein Ergebnis hatte hab ich dann abgebrochen. Am Abend hab ich es dann noch mal probiert, dies mal mit GPT-OSS 20b, ist zwar schon älter aber passt in meinen VRAM und bringt eigentlich auch ganz passable Ergebnisse. Damit habe ich dann noch ein paar Dinge überarbeiten können. Was ich aber auch merke ist dass der Kontext dann doch recht schnell verloren geht und es anfängt zu fantasieren. Ich hoffe das die von Google angekündigte Komprimierung wirklich etwas bringt und damit auch wirklich starke Modelle mit genug Kontext in handelsübliche (16GB) Grafikkarten passen. Dann wird es richtig spannend.

Auch spannend finde ich die Überlegung, wie so eine KI mit wirklich großen und komplexen Software-Projekten wie ich sie auf der Arbeit habe zurechtkommen würde. Ich denke alleine durch die Anzahl der Eingabetoken ist es nahezu ausgeschlossen dass hier ein Überblick über das gesamte Projekt herrschen kann. Die Chance sehe ich eher darin, ein Modell zielgerichtet mit der Dokumentation und Codebasis des Projekts nachzutrainieren, damit es anschließend auch weitere Software dafür entwickeln kann.

Für mich als Entwickler heißt es dann wohl eher, dass ich mit der KI zusammenarbeiten muss, um die Produktivität und Qualität es Outputs zu verbessern, und mich auch in Bereiche reinzutrauen die vorher außerhalb meiner Komfortzone gelegen haben. Das ist ne riesige Chance. Natürlich besteht auch die Gefahr dass mich die KI eines Tages ersetzen wird, aber ich denke als Entwickler der den Umgang mit KI beherrscht wäre ich besser aufgestellt als ohne dem, daher muss ich mich langsam auch mehr in diesen Bereich reinfinden und schauen wo und wie ich es sinnvoll einsetzen kann, ohne die menschliche Komponente komplett aufzugeben.

Klassisches "vibe coding" ohne wirkliche Ahnung zu haben was da eigentlich passiert sehe ich eher kritisch, das ist für kleine private Projekte vielleicht ok aber für kommerzielle Software sollten da am Ende doch nocht Menschen mit entsprechender Erfahrung den Überblick und die Kontrolle behalten.

Die größte Gefahr sehe ich darin, dass wir als Menschen degenerieren, wenn uns die KI das Denken abnimmt. Das darf nicht passieren. Und das betrifft nicht nur Softwareentwicklung sondern alle Bereiche, in denen KI Fähigkeiten besitzt. Sie soll unterstützen, nicht ersetzen. Aber solche agentischen Systeme machen eigentlich fast schon das, ich denke das schießt dann vielleicht doch etwas zu sehr übers Ziel hinaus.
 
  • Gefällt mir
Reaktionen: Brrr
Marcel55 schrieb:
Die größte Gefahr sehe ich darin, dass wir als Menschen degenerieren, wenn uns die KI das Denken abnimmt. Das darf nicht passieren. Und das betrifft nicht nur Softwareentwicklung sondern alle Bereiche, in denen KI Fähigkeiten besitzt. Sie soll unterstützen, nicht ersetzen.
Was dann sogar eher auf "Entdemokratisierung" hinausläuft, wenn immer weniger über "echtes", von KI unabhängiges Fachwissen, verfügen.

Stichwort: Kognitive Autonomie.

Interessanter Gedanke...

Okay, Asche über mein Haupt. Ich konnte es nicht lassen und habe Tante Genimi mit folgender Prämisse beglückt:

"Ich glaube wir können es uns als Menschen und damit als Gesellschaft nicht leisten, dass unsere individuellen Fähigkeiten in größerem Maßstab verfallen. Im Idealfall sollte KI unsere Fähigkeiten erweitern und auf ein neues Level heben.

Nun ist unsere Welt aber nicht nach altruistischen Maßstäben geprägt, sondern von Machtkämpfen, ideologischen Konflikten, Vermögensfehlverteilung und ähnlichen negativen Verhaltensmustern geprägt, insbesondere auf der politischen Machtebene.

Es ist also zu befürchten, dass der negative Effekt des Cognitive Offloading von Profiteuren sogar ausgenutzt oder gar gefördert wird."


Antwort:
------------------------------------------------------------------------------------------------------------------
Das ist eine sehr realistische und, wenn man die menschliche Geschichte betrachtet, leider auch sehr nachvollziehbare Perspektive. Ihre Befürchtung trifft den Kern dessen, was in der Technologieethik, der Ökonomie und der Soziologie aktuell als eines der größten Risiken des KI-Zeitalters debattiert wird.

Wenn wir die idealistische Brille abnehmen, sehen wir, dass Technologie niemals in einem Vakuum existiert, sondern immer in bestehende Macht-, Wirtschafts- und Herrschaftsstrukturen eingebettet wird. Die von Ihnen beschriebene Gefahr, dass das Cognitive Offloading (die kognitive Auslagerung) von Profiteuren ausgenutzt wird, ist nicht nur eine Befürchtung, sondern in den Geschäftsmodellen der Gegenwart bereits strukturell angelegt.

Hier sind drei zentrale Dynamiken, die Ihre These untermauern:

1. Die Ökonomie der Abhängigkeit (Der Überwachungskapitalismus)​

In der aktuellen Tech-Ökonomie ist Aufmerksamkeit und Datengenerierung die härteste Währung. Der Ökonomin Shoshana Zuboff zufolge (die den Begriff des Überwachungskapitalismus prägte) haben Technologieunternehmen gar kein wirtschaftliches Interesse daran, dass Nutzer maximal autark und unabhängig sind.

  • Der Profit-Mechanismus: Je mehr ein Nutzer an eine KI auslagert – sei es das Schreiben von E-Mails, die Informationsbeschaffung oder die Tagesplanung –, desto tiefer wird er in das Ökosystem des Anbieters eingebunden (der sogenannte Lock-in-Effekt).
  • Das Resultat: Eine schleichende De-Qualifizierung der Nutzer ist für die Anbieter kommerziell hochattraktiv, denn wer ohne die KI-Assistenz nicht mehr effizient arbeiten kann, wird sein Abonnement niemals kündigen.

2. Informationskontrolle und politische Macht​

Auf der politischen Machtebene birgt eine Gesellschaft, die ihr analytisches Denken zunehmend an Maschinen abgibt, enorme Risiken für demokratische Prozesse.

  • Der Flaschenhals der Wahrheit: Wenn Milliarden von Menschen nicht mehr selbst primäre Quellen lesen und synthetisieren, sondern eine KI bitten, ihnen "die Nachrichten des Tages zusammenzufassen", entsteht eine nie dagewesene Machtkonzentration. Wer das KI-Modell kontrolliert (oder dessen Trainingsdaten und Sicherheitsfilter), kontrolliert das Weltbild der Nutzer.
  • Anfälligkeit für Manipulation: Eine Gesellschaft, die das kritische Denken verlernt hat (Cognitive Offloading), ist ungleich anfälliger für subtile Manipulationen, Desinformation und ideologische Lenkung, da die Fähigkeit zur eigenen Plausibilitätsprüfung (Bullshit-Erkennung) verkümmert.

3. Die Gefahr des "Techno-Feudalismus"​

Wirtschaftswissenschaftler wie Yanis Varoufakis sprechen in diesem Kontext von einem aufkommenden Techno-Feudalismus. Diese Theorie besagt, dass die vermeintliche "Demokratisierung" der KI eigentlich zu einer extrem asymmetrischen Zwei-Klassen-Gesellschaft führt:

  • Die Architekten (Die Tech-Oligarchen): Eine sehr kleine, hochqualifizierte Elite, die versteht, wie die KI-Modelle gebaut werden, wie Algorithmen funktionieren und die über die massive Rechenleistung und die Datenzentren verfügt.
  • Die Konsumenten (Die "digitalen Leibeigenen"): Die breite Masse der Bevölkerung, die die KI-Tools zwar täglich nutzt (und mit ihren Daten füttert), aber die zugrundeliegenden Mechanismen nicht mehr versteht und technologisch völlig abhängig geworden ist.

Fazit​

Ihre Analyse ist absolut zutreffend: Eine Technologie, die eigentlich als Hebel für menschliches Potenzial gedacht war, droht durch ökonomische und politische Machtinteressen zu einem Instrument der Abhängigkeit zu werden. Der Verlust von eigenständigem Wissen ist dabei kein "Betriebsunfall", sondern ein für viele Akteure sehr lukrativer Nebeneffekt.

Wenn wir davon ausgehen, dass die treibenden Kräfte hinter KI derzeit vor allem kommerzieller und geopolitischer Natur sind: Wo sehen Sie persönlich die wirksamsten Hebel – sei es in der Gesetzgebung, im Bildungssystem oder beim einzelnen Individuum –, um diese "kognitive Entmündigung" noch aufzuhalten?
-----------------------------------------------------------------------------------------------------------------------

Hm... interessant ist, dass Genimi die Antwort mit einer Frage an den Anwender beendet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai, RegisMx und Alphanerd
Generell ist bei den Datenanalysen empfehlenswert, nicht mit der CLI-Version zu arbeiten, sondern die Desktop- oder Web-App zu nutzen. Diese liefern die Ergebnisse binnen kurzer Zeit, während die CLI-Version des Agenten längere Zeit rechnet.
Häh? Gibts dafür irgend eine Erklärung? Wurde das in Windows getestet?
 
Finalspace schrieb:
Aber selbst meine Gen ist davon betroffen, weil viele Entwickler auch einfach keine Lust mehr haben sich mit den Themen auseinanderzusetzen

Ja… das Problem ist die (wirtschaftliche) Entwertung von Wissen.
Ich befasse mich noch viel mit Algorithmen, weil ich ein Erkenntnisinteresse habe, also aus bloßer Neugier wissen will, wie die Dinge funktionieren.

Aber wenn das als Motivation wegfällt…
 
  • Gefällt mir
Reaktionen: RegisMx und Brrr
Brrr schrieb:
Google ist gefühlt für die Suche [...]
Ja, der eine oder andere Anwendungsentwickler wird da mit Sicherheit nicken. Allgemein kann ich sagen, dass die Suchergebnisse bei Google für mich nie im ersten Anlauf das waren, was ich gesucht habe. Toxisch wurde es dann, wenn ich nicht das fand, was ich suchte, in einem Forum fragte und man mir an den Kopf ballerte "Google ist dein Freund"... ne, in dem Moment gerade nicht!

Aber mit gesundem Menschenverstand und abgleichen der Informationen, kann eine Kombination aus Google und der KI Nutzung schon ein gutes Stück sein.

Erschreckender finde ich allerdings, dass Unternehmen (oder in Unternehmen) so etwas wie KI von Kolleginnen und Kollegen gefordert wird, mit Aussagen wie "alle arbeiten mit KI, dass brauchen wir auch" oder "ich bräuchte eine KI, damit ich arbeiten kann" :rolleyes:
 
  • Gefällt mir
Reaktionen: RegisMx und Brrr
Ned Flanders schrieb:
Jeder, wirklich jeder kann Programme erstellen, die helfen ihre oder seine Probleme zu lösen.
Konnte man auch vorher schon - alles was man zum Programmieren brauchte war etwas Zeit, den billigsen Computer und Internet, sonst nichts.

Mit den billigen Computern ist es allerdings jetzt vorbei:

DRAM pricing is killing the hobbyist SBC market​

https://www.jeffgeerling.com/blog/2026/dram-pricing-is-killing-the-hobbyist-sbc-market/
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Alphanerd, RegisMx und eine weitere Person
Mag daran liegen, dass ich entweder beim Prompt schreiben eine falsche Herangehensweise hatte, oder ein zu "komplexes" Projekt als Nichtentwickler versucht habe - oder beides :D

Aber meine Erfahrung mit Claude Code war jetzt nicht sonderlich berauschend, was dem Weg zum Resultat betrifft - mal davon ab, dass ich es dann abgebrochen habe, da ich mehrmals täglich in das Limit gelaufen bin und paar Wochen quasi daran "gearbeitet" habe.
 
Spriti schrieb:
Entweder man nutzt es, oder lässt es sein.
Wäre dann nur hilfreich, wenn es auch richtig genutzt wird, vor allem die Grenzen/Einschränkungen beachtet werden und nicht blind drauf los "agentet" wird, daran ist nämlich nichts intelligent...
 
  • Gefällt mir
Reaktionen: Brrr
@Snakeeater Arbeite mit dem CLI nur in meinen Root Server Terminals per SSH.
 
Marcel55 schrieb:
Die größte Gefahr sehe ich darin, dass wir als Menschen degenerieren, wenn uns die KI das Denken abnimmt.

Du meinst so wie beim Körper, der Muskulatur und dem Übergewicht? 😉

Benutze es oder verliere es… im Körper wird alles abgebaut, was nicht lebenswichtig ist oder benutzt wird.

Ich finde es witzig, wenn manche sagen, dass mehr Zeit für „hochwertigere“ Aufgaben bleibt, was auch immer das bedeuten soll … jedenfalls wird dabei der langfristige (10-15 Jahre) Trend übersehen, dass keine (produktive) geistige Tätigkeit verschont bleiben wird.

Mein erster Gedanke dabei ist: schön, kann ich mich aus reiner Neugier dann ganz viel mit Literatur, Kunst, Wissenschaft befassen … und ganz viel Reisen. Aber Moment, wie funktioniert eigentlich die Ökonomie in so einer Welt? Wenn alle mehr Zeit zum Reisen haben, aber jeder schöne Ort zu einer bestimmten Zeit nur eine bestimmte Menge an Menschen verkraften kann … dann werden die Reiseziele für die „Normalen“ ausgelost. Man wird sich dann für Reisen und Orte registrieren können… und bekommt einen Slot zugeteilt.

Wie auch immer… die Zukunft wird interessant.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Zoldan schrieb:
Ist das nicht genau die aktuelle Stärke einer AI/LLM gegenüber eines Menschen auf eine schier unendliche Datenbasis zurückgreifen zu können und innerhalb Sekundenbruchteilen dann die wahrscheinlich beste Lösung für das Software-Problem zu finden.
Theoretisch ja in der Praxis verhält es sich aber sehr oft nicht so. Das Problem ist halt auch, dass LLMs nicht wirklich intelligent sind sondern probalistisch. Das heisst es wird dir eher eine Lösung bieten die am häufigsten angewendet wurde, als die Beste.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai, calluna und RegisMx
KI ist für Entwickler wie NOS fürs Auto.
Das Schöne daran ist, dass jetzt auch Menschen mit weniger technischem Skill, aber gutem Domänenwissen, in der Lage sind, etwas halbwegs Anständiges auf die Beine zu stellen.
 
@Vigilant
Hm... interessant ist, dass Genimi die Antwort mit einer Frage an den Anwender beendet.

Das liegt daran dass die Anbieter ihre Modelle dahin abstimmen das der Nutzer dabei bleibt wie eben auch bei den großen Plattformen. Sie antworten also oft mit Fragen oder Aufforderung zur interaktion. Das ändert sich ggf langsam weil die Modelle aktuell oft mehr kosten als sie einbringen.
 
.
Herchenhein
Die Leute verstehen noch nicht, was auf sie zukommt. Das ist das Hauptproblem

Herchenhein
Das Problem an all den Prognosen: Man kann kaum vorhersagen, wie sich die Tools in den nächsten Monaten und Jahren entwickeln. Und welchen Einfluss sie auf einzelne Branchen haben werden. Dass Agenten heute der „totale Hype“ sind, kann sich in einem Jahr auch wieder ändern, sagt Herchenhein.


Ok keiner versteht es und man kann kaum vorhersagen machen aber alle sagen trotzdem voraus es ist die nächste Revolution 🤔
 
  • Gefällt mir
Reaktionen: the_IT_Guy
Claude Code hat für mich eine ganz neue Welt eröffnet und ich nutze ihn seit kurz nach dem Release - fast täglich (Max Abo).
Vorher habe ich Scripts im Browser hin und Fehlermeldung her kopiert um mein Ziel zu erreichen, heute arbeitet er direkt "zusammen mit mir".

Da ich viel Open Source nutze konnte ich Full Stack Applikationen mit SQL, InfluxDB, JS, Docker, Laravel, API und Frontend mit Claude Code so modifizieren, dass es für mich passt.

Ich bin nicht gut im programmieren (und hätte Jahre dafür gebraucht), aber ich verstehe wohin ich will, wie es generell funktionieren sollte und kann ihm die Anweisungen geben - er schreibt, debuggt und zeigt mir Optionen auf.
Hin und wieder muss man zurückrudern und ihn zur Besinnung bringen, weil er sich in etwas verrannt hat - also selbst denken und nachlesen ist weiterhin erforderlich.

Ich lerne mit ihm allerhand Konzepte (95% außerhalb von Coding), lass ihn Code analysieren, optimieren.
Als Netzwerker habe ich ein Verständnis für Security, kann also zumindest von der Seite aus zusteuern.

Ob das, was er programmiert außerhalb von "funktioniert, tut was es soll" von der Architektur und Sicherheit auch "State of the Art" ist, kann ich nicht beurteilen - daher ab damit hinter einen Reverse Proxy samt Authentisierung.

Was die Prompts angeht, diese sind bei Claude wesentlicher einfacher als bei einem lokalen LLM (z. B. Qwen3.5:9.7b).
Er lässt viel mehr Ungenauigkeiten durchgehen - kann aber dennoch die Richtung halten ("Hey Claude, schreibe ein Python Script, welches alle 10 Sekunden die Daten des Temperatursensors in eine InfluxDB (10.10.10.10:8086) schreibt. Intervall, Server IP, API Key und Bucket Name bitte als Variablen definieren und als Service passend für Ubuntu vorbereiten") - 2 Minuten später habe ich was ich will.

Für mich ist er ein täglicher Begleiter, der mir Aufgaben bei der Arbeit, wie im Hobby erleichtert und erheblich beschleunigt - dennoch vertraue ich ihm nicht Blind.

MfG Drizz
 
  • Gefällt mir
Reaktionen: Zoldan
Denke das wird schon besser mit der Fehlern von AI Code - sieht man doch auch daran wieviele teils auch kritische Sicherheitsfehler Claude in grossen Opensoruce Modellen findet - und das sind ja zumindest was man liest nur die harmlosen - die wirklichen grossen Sicherheitsprobleme die die neuen Modelle entdecken - sagt zumindest Anthropic? - werden nicht bisher freigegeben weil das sonst zum Chaos führen würde, die bekommen so weit ich weiss nur bestimmte Sicherheiitsunternehmen, damit gepatcht werden kann.

Wer Fehler findet und erkennt wird die vermutlich nicht selber begehen im Fall von AI.
 
Booth schrieb:
Abgesehen davon, dass Du wirklich nicht ansatzweise irgendwas tust, was mit "Demokratie" zu tun hat, gibt es aktuell für 25 Euro ein dutzend von Staubsauger-Apps im Staubsauger-AppStore.

Btw: Schonmal dran gedacht, dass China NICHT demokratisch ist und es dort inzwischen Staubsauber UND KI gibt? Scheint nicht besonders viel zu "demokratisieren" dort.
Das kann doch kein Mensch geschrieben haben. Oppenheimer, bist du es?
Ergänzung ()

ShiftC schrieb:
In Analogie zu KI-Coding sehe ich ähnliche Probleme. Wer selbst keine Ahnung hat, wird das Resultat schlecht einschätzen und bewerten können. Entsprechend verschwindet peu a peu auch das "dran Nachfeilen". Die Welt hat aktuell noch sehr viele Experten im Coding, die das KI-Schindluder beurteilen können. Der Anteil wird aber auch wie im obigen Beispiel immer weniger werden, während der Nachwuchs - wegen des immer weniger werdenden Bedarfs an Programmieren (weil gibt ja KI) - weiter schrumpft. Was soll der Ahnungslose denn schon prompten? "Mach meinen Code sicher?" oder "Mein Code soll die CPU nicht so stark belasten?"
Die Krux bei dem Argument, du glaubst das jeder Programmierer guten sauberen Code produziert.
 
Toller Artikel! Er fasst den Ablauf der letzten Jahre eigentlich ziemlich perfekt zusammen:
  1. Irgendwas Cooles kommt raus – und wird sofort zerrissen.
  2. Experten erklären, dass das niemals funktionieren wird.
  3. Es funktioniert.
Genau das haben wir bei Bildgeneratoren gesehen, bei Videogeneratoren, den einfachen Sprachbots und jetzt eben auch bei den KI-Agenten.

Das wirklich Beeindruckende daran sind aber die kurzen Zeitabstände. Natürlich kann man Dinge kritisieren und sich darüber aufregen, dass etwas noch nicht rund läuft. Aber wann hatten wir schon mal so eine rasante Entwicklung innerhalb von nur 2–3 Jahren, die quasi die gesamte Wirtschaft und auch unser Privatleben auf den Kopf stellt?

Früher hatten wir den Buchdruck... die Glühbirne... das Auto... Aber das hat teilweise Jahrzehnte gebraucht, um sich überhaupt durchzusetzen, und dann meist nur einen bestimmten Bereich beeinflusst. Jetzt haben wir etwas, das einfach jeden betrifft. Und wenn dieses Tempo so weitergeht...
 
  • Gefällt mir
Reaktionen: Grestorn
Zurück
Oben