Programmieren mit KI

Micha- schrieb:
Aber welches LLM ist das "richtige"?
Fürs Coden ist Claude aktuell sehr beliebt und möglicherweise sogar das beste verfügbare, wenn man dem Tenor glauben darf.

Meine paar kleine Bash-Skripte habe ich bisher alle mit free ChatGPT hinbekommen. Das sind aber auch immer nur 20 Zeilen oder so gewesen, die in 2-3 Sekunden erzeugt wurden. Ich hätte ne Stunde gebraucht, um die nötige Doku zusammenzusuchen.
 
Wundert mich, dass hier noch niemand Cline verwendet hat. Mit den kostenlosen Modellen ist es schon ganz gut, aber mit z. B. Claude Sonnet 4 geht es richtig ab. Da kannst du dich auch in riesigen Repos gut bewegen.
Kiro ist auch gut, wobei ich da eher die CLI-Version nutze und in der IDE Cline.
 
  • Gefällt mir
Reaktionen: madmax2010
oicfar schrieb:
Man muss schon Zeit und auch Geld investieren damit die KI, die ich als ein Werkzeug betrachte, einem helfen kann.

Mit ChatGPT 5.2 Tkinking kannst du schon super Ergebnisse erzielen. Einfach mal für einen Monat die 23€ ausgeben und sich vom Gegenteil überzeugen.
Mag sein, aber ich bin oldschool ;) Eine Firma muss mich überzeugen, Geld für ihr Produkt auszugeben.
Und das hat sie nicht. Erinnert eher an crowdfunding: Du weißt nicht, was du kriegst, aber wir haben auf jeden Fall schon mal dein Geld ...

Und ich auch insofern oldschool, dass ich gerne weiß, was in dem Programm/script geschieht, was da gerade läuft. Ich war noch nie ein "Black box"-User 🤷
 
pseudopseudonym schrieb:
Wundert mich, dass hier noch niemand Cline verwendet hat. Mit den kostenlosen Modellen ist es schon ganz gut, aber mit z. B. Claude Sonnet 4
ich habe mit cline gespielt, aber das war bevor codex und claude-cli gut wurden. Wann immer es geht nutze ich gerne opencode.

Anthropic hat vor ~2 Stunden drittanbieter tools geblockt. GLM 4.7 it is :D

Demon_666 schrieb:
Mag sein, aber ich bin oldschool ;) Eine Firma muss mich überzeugen, Geld für ihr Produkt auszugeben.
Und das hat sie nicht.
ich gehe immer via API.
Keine Abos. 20 cent hier, 5 cent da.
https://openrouter.ai/rankings?category=programming#categories
Ich kann gerade auch Minimax M2.1 sehr empfehlen
https://openrouter.ai/minimax/minimax-m2.1

oicfar schrieb:
Mit ChatGPT 5.2 Tkinking kannst du schon super Ergebnisse erzielen. Einfach mal für einen Monat die 23€ ausgeben und sich vom Gegenteil überzeugen.
selbst das ist im vergleich zu den CLI Tools gruselig schlecht

Die free versionen sind ziemlich useless inzwischen, irgendwie auch schlechter als vor einem Jahr.
 
  • Gefällt mir
Reaktionen: Demon_666
Vibecoding...
Meine aktive Programmierzeit liegt mehr als 20 Jahre zurück. Vieles kann ich einfach nicht mehr, ist leider so. Aber ein paar Basics stecken noch in mir drin, die echt helfen beim coden mit KI. Meine Erfahrung ist, je besser jemand Programmieren kann, umso hilfreicher sind die Modelle.

Sehr hilfreich war für mich z.B. die KI anzuweisen "arbeite mit einem minimalen Softwarestack, arbeite modular und unterfüttere alles mit automatisierten Tests.". Schon witzig, was dann alles geht. Leider neigen alle KIs dazu, schnell zum Ergebnis zu rushen, was ein Softwaredesign mit ihnen fast unmöglich macht.

Es ist erstaunlich, was alles geht und man kann eine Menge lernen. Vorsicht ist aber Mutter der Porzellankiste.
 
  • Gefällt mir
Reaktionen: User38
Eigentlich wollte ich mal, wenn ich Zeit finde, alles zusammenschreiben, was ich nach über 3 Jahren beruflicher und privater Nutzung übers LLM-assistierte Programmieren gelernt habe. Vielleicht als eine Art Leser-Artikel. Online findet man natürlich einige Informationen, die scheinen mir aber oft mangelhaft zu sein.

Was mich abhält: Meine Erfahrungen decken einige Dinge nicht ab und sind naturgemäß subjektiv. Das wäre also ein recht unvollständiger Artikel. Außerdem müssten die Informationen wegen der schnellen Entwicklung der LLMs häufig aktualisiert werden.

Andererseits braucht es ja nicht gleich den ultimativen AI-Coding Artikel. Man könnte sich auf einen Tipps & Tricks Thread beschränken, der gar nicht erst den Anspruch auf Vollständigkeit erhebt. Darin ließen sich die Erfahrungen anderer User strukturiert einarbeiten, nicht nur meine eigenen.

Sorry, wenn das ein bisschen off-topic war aber jedesmal wenn ein Thead wie der des OPs auftaucht, frage ich mich, ob wir nicht von einer zentralen Anlaufstelle proftieren würden.
 
  • Gefällt mir
Reaktionen: Azdak und Micha-
Azdak schrieb:
Leider neigen alle KIs dazu, schnell zum Ergebnis zu rushen
Ja, das fand ich auch nervig. Der wollte immer gleich loslegen, während ich noch dabei war das Konzept zu diskutieren. Wahrscheinlich ist es besser das zu trennen. Erst ein Konzept und ggf. vorbereitende Tests durchführen und sich dann einen Prompt erstellen (lassen) fürs eigentliche Coding.


Schwachkopp schrieb:
Außerdem müssten die Informationen wegen der schnellen Entwicklung der LLMs häufig aktualisiert werden.
Das ist vermutlich das größte Problem, aktuell ändert sich das so schnell. Wo vor 6 Monaten nur Blödsinn raus kam, klappt es nun problemlos.
 
  • Gefällt mir
Reaktionen: Schwachkopp
madmax2010 schrieb:
selbst das ist im vergleich zu den CLI Tools gruselig schlecht
Man muss unterscheiden.

Wenn man von den CLI Tools spricht, dann spricht man von Agenten oder Spec-Driven Development. Und ja, da kann man noch mehr rausholen.
Demon_666 schrieb:
Mag sein, aber ich bin oldschool ;) Eine Firma muss mich überzeugen, Geld für ihr Produkt auszugeben.
Als ich Anfang 2024 damit angefangen habe, habe ich auch anfangs kein Geld ausgegeben. Wenn man sich mit dem Thema tiefer beschäftigt hat und bestimmte Quellen verfolgt, dann braucht man keine spezielle Überzeugung.
Schwachkopp schrieb:
Eigentlich wollte ich mal, wenn ich Zeit finde, alles zusammenschreiben, was ich nach über 3 Jahren beruflicher und privater Nutzung übers LLM-assistierte Programmieren gelernt habe. Vielleicht als eine Art Leser-Artikel. Online findet man natürlich einige Informationen, die scheinen mir aber oft mangelhaft zu sein.
Ein solcher Artikel wäre sehr sehr sehr lang.

Seit ich mich mit KI beschäftige, habe ich mir ein Git Projekt, wo alles, was ich ausprobiert und gelernt habe, drin ist. Die Tools, die ich dann gebaut habe, sind extra.
Micha- schrieb:
Ja, das fand ich auch nervig. Der wollte immer gleich loslegen, während ich noch dabei war das Konzept zu diskutieren. Wahrscheinlich ist es besser das zu trennen. Erst ein Konzept und ggf. vorbereitende Tests durchführen und sich dann einen Prompt erstellen (lassen) fürs eigentliche Coding.
Das ist dann aber Spec-Driven AI/Agent Development. Oder?

1_MUmkmGPcWvbsDsMbTpJ_pA.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: madmax2010
Micha- schrieb:
Das ist vermutlich das größte Problem, aktuell ändert sich das so schnell. Wo vor 6 Monaten nur Blödsinn raus kam, klappt es nun problemlos.
Da hast Du sicher recht. Aber irgendwie reizt es mich trotzdem. Ich hab das Gefühl, dass ich die Möglichkeiten, die sich bieten, noch nicht optimal nutze. Und auch ein mäßig aktueller Thread, ist immer noch besser als keiner oder nicht?

oicfar schrieb:
Ein solcher Artikel wäre sehr sehr sehr lang.

Seit ich mich mit KI beschäftige, habe ich mir ein Git Projekt, wo alles, was ich ausprobiert und gelernt habe, drin ist. Die Tools, die ich dann gebaut habe, sind extra.
Das ist ja erstmal nicht schlimm. So eine ganz genaue Vorstellung, wie so etwas aussehen könnte, habe ich noch nicht. Man könnte mit User-Beiträgen arbeiten und die dann im ersten Beitrag verlinken.
 
madmax2010 schrieb:
Die free versionen sind ziemlich useless inzwischen, irgendwie auch schlechter als vor einem Jahr.
Auf der Arbeit haben wit extrem gutes Zeug und privat hab ich meistens nur das kostenlose Zeug. Das sind brutale Unterschiede!
Muss privat auch mal ein paar Euro in die Hand nehmen.
 
  • Gefällt mir
Reaktionen: madmax2010
Auf der Arbeit haben wir Copilot :kotz:
Die haben das überhaupt noch nicht verstanden

oicfar schrieb:
Das ist dann aber Spec-Driven AI/Agent Development. Oder?
What? Ich programmiere nur hobbymäßig, ich habe das nicht studiert. Ich versteh kein Wort 😂
 
Micha- schrieb:
What? Ich programmiere nur hobbymäßig, ich habe das nicht studiert. Ich versteh kein Wort 😂
;) Man muss dafür nicht studieren.

Understanding Spec-Driven-Development: Kiro, spec-kit, and Tessl
https://martinfowler.com/articles/exploring-gen-ai/sdd-3-tools.html

Kurze Erklärung:
SDD (Spec-Driven Development) ist ein GenAI-Entwicklungsansatz, bei dem du zuerst eine Spezifikation („Spec“) schreibst und erst danach mit KI Code erzeugst – die Spec wird zur Quelle der Wahrheit für Mensch und Agent.
Die Idee dahinter: Statt dass Code das zentrale Artefakt ist, wird die Intent-Ebene (Ziele, Anforderungen, Akzeptanzkriterien) explizit festgehalten und versionierbar gemacht; Code ist dann eher die „letzte Meile“ der Umsetzung.
Für einen DAO-Nutzer ist das ähnlich wie Proposal → Umsetzung: Erst wird klar definiert, was beschlossen/gebaut werden soll, dann wird die Ausführung (Code) daraus abgeleitet.
Der Artikel unterscheidet drei Reifegrade: spec-first (Spec nur für die aktuelle Änderung), spec-anchored (Spec bleibt als lebendes Referenzdokument), und spec-as-source (Menschen editieren nur noch die Spec, Code wird daraus generiert).
SDD verspricht dadurch mehr Nachvollziehbarkeit und Kontrolle, weil Entscheidungen nicht in Chat-History verschwinden, sondern im Repo als überprüfbare Artefakte landen.
Wichtig bleibt aber: Du musst in jeder Phase aktiv reviewen und verfeinern, sonst geben die zusätzlichen Dokumente nur eine trügerische Sicherheit.

Zu dem Thema gibt es viele andere Quellen.
 
Micha- schrieb:
Auf der Arbeit haben wir Copilot :kotz:
Die haben das überhaupt noch nicht verstanden

"Microsoft Copilot" ist nicht dasselbe wie "GitHub Copilot". Letzteres wurde hier empfohlen in Kombination mit Visual Studio Code. Das ist (nach den Web-Chats) wirklich das niederschwelligste Angebot, das man bekommen kann, und auch ein recht günstiges (~8,50€ im Monat mit Zugriff auf viele aktuelle Modelle).

Dein Problem mit dem "direkt loslegen" ist beispielsweise direkt gelöst: Du stellst erst auf "Plan"-Mode, da darf er noch nichts machen. Wenn du dann soweit bist, gibt es einen extra Button "Start implementation", der im Prinzip genau das in den Chat schreibt und dann darf er als "Agent" anfangen. Einfacher kann man es nicht mehr machen.

Ansonsten beachtet er auch das Wording. Wenn ich nichts explizit angebe, hängt es etwas vom Modell ab. Claude wird auf jeden Fall immer Code liefern, bei den GTP-Modellen ist es mal so mal so.
Wenn ich aber hinschreibe "Implement this" o.ä., wird jedes Modell coden.
Wenn ich schreibe "Do not implement yet", dann wird auch nichts gecodet.
 
Ich habe nun eine Erweiterung für mein Skript erstellt. Der KI (Claude Sonnet 4.5) einen ausführlichen Prompt mit klaren Vorgaben und Zielen gegeben. Das hat perfekt geklappt.
 
  • Gefällt mir
Reaktionen: madmax2010
Web. Ich weiß nicht mal was CLI ist. Ah, Command Line Interface? Hört sich unbequem an.
 
oicfar schrieb:
Spec-Driven Development
Deine Zitate klingen für mich erst mal "nur" nach dem klassischen Lastenheft. Ich muss mich später mal genauer damit beschäftigen, vielleicht übersehe ich irgendwo einen wichtigen Punkt.
 
@Krik genau das ist es im Kern.
Gerade die Schritte, aus einem Lastenheft eine Architektur und damit auch einen Softwarestack abzuleiten und diesen dann in Makro-Blöcke (Module/Tools/Schnittstellen/you name it) zu zerlegen, welche wiederum in Mikro-Blöcke zerlegt werden, um letztlich als Code abgearbeitet werden zu können, fehlt.
Von daher ist aus meiner Sicht der Gedanke zwar richtig, über Anforderungen zum Code mithilfe von KI zu kommen, aber es fehlen noch eine Menge Zwischenschritte, derer sich LLMs aktuell meiner Erfahrung nach erfolgreich verweigern. Egal in welcher Phase man ansetzt, nach 4-5 Runden im Gespräch wird einem Code um die Ohren gehauen, obwohl man noch Tage, Wochen oder gar Monate davon entfernt ist, mit dem ersten Codes zu beginnen. Ein simples "Es ist dir verboten, Code zu erzeugen", reicht bei weitem nicht.
 
Zurück
Oben