welches ki modell für vibe coding? cursor? claude (code)? lm-studio?

Welche Variante?

  • claude ai

    Stimmen: 4 40,0%
  • cursor pro

    Stimmen: 1 10,0%
  • was anderes

    Stimmen: 5 50,0%

  • Umfrageteilnehmer
    10

phatt

Ensign
Registriert
Juni 2010
Beiträge
157
Moin, ich stoße bei cusor und claude.ai regelmäßig an die free-limits :-/
möchte hauptsächlich webseiten damit erstellen.
Mit meinem selbstgebastelten setup (lmstudio + vs code oder zed) erziele ich leider nicht so gute ergebnisse, wie mit cursor, oder claude...
es gibt ja auch teilweise irgendwelche "ki pakete" mit verschiedenen Zugängen...
da sich die veschiedenen modelle irgendwie ständig gegenseitig "überholen" würde ich gerne erst einmal nur einen Monat buchen, wobei claude da gerade 50%off auf die ersten drei monate hat grübel

vielleicht findet sich hier ja aber auch eine ganz andere Lösung für mein Problem...
bin für Vorschläge und Meinungen offen...

edit: für die signaturmuffel mein System: [cpu: AMD 5800X3D] [gpu: AMD RX 6800] [mb: Gigabyte X570 Gaming X] [ram: Corsair Vengeance LPX 64GB] [ssd: Kingston FURY RENEGADE SSD 1TB, Lexar NM790 4TB] [psu: be quiet! Pure Power 11 CM 700W] [case: be quiet! Pure Base 600, schallgedämmt] [OS: ChachyOS + Win11]
 
Zuletzt bearbeitet:
Also da Du eine RX 6800 hast (genau wie ich) kann ich Dir von meinem Setup etwas berichten über lokale Performance. Generell laufen lokale KI's bei mir nur über LM Studio inkl. MCP-Protokolle via npx.

Ich kann gpt-oss 20b (openai/gpt-oss-20b in mxfp4) empfehlen mit den Einstellungen aus dem Screenshot. Das sollte locker 60-80 Tokens/Sek bringen. Die Kontextlänge von 65k Token kann auch noch etwas nach oben gedrückt werden - aber auch so kann ich in VSCode Continue alles an Scripten was ich so brauche erstellen.

Kommen wir zur Qualität - bei gleichen Vorraussetzungen (Systemprompt mit Semantic Anchoring) ist Gemini3, was ich bevorzugt noch nutze, natürlich besser - aber dafür das Gpt-oss ein 20B-Modell ist kannst Du locker ein Script mit GUI erstellen. Die OneShot-Qualität ist auch ziemlich gut - das Modell existiert seit 120 Tagen ca.

Natürlich gäbe es laut Benchmarks (z.b. https://artificialanalysis.ai/ ) noch bessere im Bereich 16B-30B, aber entweder passen sie nicht komplett in den VRAM (Performance-Loss) oder Du musst richtig gute Systemprompts schreiben (Apriel 1.6 - auch für die Agents!)

Kurz um: Ich habe 500GB an KI's getestet die alle zwischen 15-30B-Modelle sind und gpt-oss 20B (in den genannten Einstellungen) ist wirklich der beste Mix aus Performance in Token/s und Ergebnis für lokale KI's.

Wenn ich Cloud-AI nutze, dann Antigravity (Gemini 3) - hab keine Kreditkarte, ansonsten hört man von Claude viel gutes.
 

Anhänge

  • 1769236954917.png
    1769236954917.png
    105,1 KB · Aufrufe: 54
  • Gefällt mir
Reaktionen: Aldjinn und Der_Dicke82
Ich nutze derzeit am liebsten Claude Opus 4.5 oder GPT 5.2.
Ich bin tatsächlich regelmäßig beeindruckt, was sie können.

Beide gibt es im GitHub Copilot. Der kostet 10 Dollar im Monat und der erste Monat ist kostenlos.
Das Limit liegt bei 300 Anfragen für GPT 5.2 bzw. 100 für Opus. Danach gibt es nur noch die kostenlosen Modelle gpt4 und Konsorten.
Mit 300 Anfragen kommt man aber sehr weit.
 
  • Gefällt mir
Reaktionen: marcel. und Mcmeider
hmm bekomme selbst bei sehr simplen promps mit dem gpt-oss-20b die Meldung: "Trying to keep the first 4821 tokens when context the overflows. However, the model is loaded with context length of only 4096 tokens, which is not enough. Try to load the model with a larger context length, or provide a shorter input" :heul:
 
In meinem Screenshot wird ersichtlich wo Du das Kontext-Fenster erhöhen kannst. 4096 Tokens sind auf jeden Fall zuwenig
 
Zurück
Oben