Programmieren mit KI

Wäre es vielleicht besser, das "deklarative Entwicklung" zu nennen? Im Prinzip gibt man ja vor "wie es sein soll" und nicht "wie es funktionieren soll".
 
Wie sollte man sich das denn konkret vorstellen? Bei meinem letzten Versuch hat das Programm auch nicht sofort funktioniert. Web Scraping ist für mich zumindest experimentell.

Ich fordere dann in Dialog dazu auf den Fehler zu beseitigen.

Bei Spec-Driven AI/Agent Development müsste ich dann aber meine Spec an die neuen Erkenntnisse anpassen und quasi mit diesem Input wieder von vorne starten, bis meine Spec so ausgereift ist, dass sie auf Anhieb ein funktionierendes Programm erzeugt?
 
Ich steh mit KI-unterstützter Programmierung bisher noch ganz am Anfang.

Jetzt wollte ich mal OpenRouter ausprobieren. Hab mich registriert, einen API-Key generiert und in VIM vim-ai installiert.

Als ich dann mal die freien Modelle, mit denen OpenRouter wirbt, testen wollte, bekam ich jedesmal nur:
Insufficient credits. This account never purchased credits. Make sure your key is on the correct account or org, and if so, purchase more at https://openrouter. ai/settings/credits
Das einzige Model, was funktioniert, ist meta-llama/llama-3.2-3b-instruct:free.
 
Pummeluff schrieb:
Insufficient credits. This account never purchased credits.
Das ist das Problem. Du hast keine Kapazitäten gekauft.

LLM-Abfragen kosten tatsächlich einiges an Rechenleistung. Diese Leistung muss man in Form von Credits kaufen. Jede Abfrage zieht dann ein wenig was vom Wallet ab, bis es irgendwann aufgebraucht ist.
Ein paar wenige Models kann man kostenfrei verwenden. Natürlich sind sie nicht so gut wie die kostenpflichtigen.
 
Krik schrieb:
Das ist das Problem. Du hast keine Kapazitäten gekauft.
Ich werf ungern Geld irgendwo ein, wenn ich nicht weiß, was dabei rauskommt. Bisher hab ich noch keine Vorstellung, in welchem Geldrahmen (€) sich das jetzt bewegt, wenn man sich z.B. ein Bash-Skript erstellen lässt.

Krik schrieb:
Ein paar wenige Models kann man kostenfrei verwenden.
Meine VIM-Konfiguration für vim-ai:
Code:
let g:vim_ai_roles_config_file = expand('/var/vim/vim-ai-roles.ini')
let g:vim_ai_chat = {
\  "engine": "chat",
\  "options": {
\    "model": "openrouter/auto",
\    "endpoint_url": "https://openrouter.ai/api/v1/chat/completions",
\    "plugins": [
\      {
\        "id": "auto-router",
\        "allowed_models": ["*:free"],
\      }
\    ]
\  },
\  "retry_strategy": "exponential_backoff",
\  "max_retries": 3,
\  "initial_delay": 1,
\  "headers": {
\    "HTTP-Referer": "https://vim-ai-plugin",
\    "X-Title": "vim-ai-requests",
\  },
\}
"Eigentlich" soll er damit nur freie Models verwenden. Klappt nur irgendwie nicht.
 
Pummeluff schrieb:
Das einzige Model, was funktioniert, ist meta-llama/llama-3.2-3b-instruct:free.
Dieses Modell ist so klein, das du es mit hoher Wahrscheinlichkeit sogar bei dir selbst laufen lassen kannst. Dafür reichen 6GB VRam. Aber ob du mit diesem Modell glücklich wirst, da habe ich erhebliche Zweifel!

Mit Github Copilot bekommst du einiges an freien Token, als Gegenleistung stellst du deinen Code für das Training zur Verfügung.
 
Mal eine Frage in die Runde, weil einige hier von KI-Coding so begeistert sind: Was macht ihr anders als ich?
Ich habe gegensätzliche Erfahrungen gemacht. KIs erzeugen bei mir nur lauffähige Code, wenn sie etwas neues, von der Codebasis unabhängiges erstellen sollen. Wenn ich bereits ein Projekt mit großer Codebasis habe und die KI soll dort etwas integrieren oder updaten, bekomme ich idR. nicht lauffähigen Code und Objekte/Methoden, welche gar nicht existieren. Es wird also sehr viel halluziniert.
 
mit der Bezahlversion?
 
ElliotAlderson schrieb:
Mal eine Frage in die Runde, weil einige hier von KI-Coding so begeistert sind: Was macht ihr anders als ich?
Was für Tooling nutzt du denn? Ich habe z. B. sehr gute Erfahrungen mit Cline+Claude Sonnet oder Opus 4.5 gemacht. Was auch ganz okay ist, ist Kiro.
Mit dem Tooling kann ich auch an sehr großen Projekten arbeiten.

Teilweise sind dann noch passende MCP-Server oder zumindest lokale Rulesets hilfreich.
 
@ElliotAlderson Welches Claude? Z. B. das kostenlose Haiku ist echt schrottig. Mit Gemini hab ich auch nur so lala Erfahrungen gemacht.
ChatGPT ist auch stark modellabhängig.
 
dann ist dein prompt vielleicht unklar?
 
ElliotAlderson schrieb:
bekomme ich idR. nicht lauffähigen Code und Objekte/Methoden, welche gar nicht existieren

Das ist bei mir ausgeschlossen, zumindest bei allem, was man kompilieren kann. Durch die Integration in VS (Code) triggert der Agent am Ende automatisch ein Build und sieht + fixed alle Fehler.
Was nicht heißt, dass es keine Probleme oder Laufzeitfehler gibt, aber oftmals läuft es tatsächlich direkt nach dem ersten Prompt.

Allerdings ist das gar nicht der wichtigste Faktor. Irgendwelche kleinen Fehler kann ich ja schnell fixen. Ich will, dass ich schneller werde, also dass ich Probleme und Lösungen nur noch beschreiben und dann kontrollieren und ggf. etwas anpassen muss. Die AI-Lösung ist quasi NIE direkt perfekt, aber ich bin doppelt so schnell am Ziel als wenn ich alles getippt hätte.
 
  • Gefällt mir
Reaktionen: Kuristina
Ich baue mir einfache kleine Tools/Scripte meist mit Gemini (hab nen Pixel und das Pro Abo kostenlos) die in Colab laufen. Ich habe null programmier Kenntnisse. Meine bisherigen Projekte haben mich jetzt meist ne Stunde arbeit gekostet. Das größte Problem bzw die meisten Fehler beim Testen, war die passende Gemini AI Version einzubinden in das Script.

Bisherige Projekte:
Script das Rezepte von Insta extraiert und mir in eine Docs speichert - da im Google Appstore alles nur mit Abos angeboten wurde.
Script das mir aus Fotos eine Lightroom XMP erstellt und den Look probiert nachzubauen. Ich lege Fotos in ein Drive Ordner und kriege passende XMPs - funktioniert stellenweise sehr gut.
 
ElliotAlderson schrieb:
Wenn ich bereits ein Projekt mit großer Codebasis habe und die KI soll dort etwas integrieren oder updaten, bekomme ich idR. nicht lauffähigen Code und Objekte/Methoden, welche gar nicht existieren. Es wird also sehr viel halluziniert.
Wie groß ist denn die Codebasis genau?
 
Zurück
Oben