TeamViewer Motive 3

LM Studio: Welches Modell für Refactoring (HTML&Co)

WulfmanGER

Commander
Registriert
Juli 2005
Beiträge
2.421
Hallo in die Runde,

Ich hab LM Studio installiert und eine AMD 7900XT/20GB VRAM, 32GB RAM und nutze die ROCm-Engine

Mein Ziel ist es: für mehrere .tpl-Dateien (Template Smarty/HTML) ein refactorinig des HTML/CSS-Codes zu machen. Leider hat sich hier viel Inline-CSS eingeschlichen der a) den code enorm aufbläht und b) schwer zu warten ist. Ich möchte das CSS im ersten Step erstmal ins <styles> packen (danach in .css). Ich würde das gerne mit einem kompakten Lokalen Modell machen.

Das heißt das Modell prüft:
a) enthält <styles> Leichen?
b) inline css durch klassen ersetzen, in <styles> schieben, inline entfernen.

Mit Gemini hab ich da gute Erfahrung - bin da aber schnell am Limit und mittlerweile kann man ChatGPT und Gemini nicht mehr effektiv für Code in den free modellen nutzen :( (ChatGPT ist ganz schlimm geworden...) - in den Free Modellen bespreche ich nur was wir als nächstes Coden, wenn Thinking wieder verfügbar ist. Klappt super. Aber wie gesagt: für diese Arbeit würde ich gerne auf LOKAL umsteigen.

Welche Modelle könnt ihr dafür empfehlen? Aktuell nutze ich GPT-OSS-20b ... und das dauert ewig (ist ja auch klar - nicht gerade klein das Modell - da schießt man mit Kanonen auf Spatzen). Sollte sicher auch etwas kompakter gehen. Ist ja eigentlich ein relativ simpler Job der hier gemacht werden muss.
 
Die Cloud Modelle sind halt bei weitem besser als lokale Modelle, selbst wenn man ein sehr starkes Cluster hat.

Einfach alles in VSC packen und die Ki mal drüber schauen lassen oder schick es zu Claude Opus das ist schon sehr gut.
 
Für das, was er machen will, braucht es überhaupt keine Cloud. Ich würde auch Qwen 3.6 probieren. Mit seiner Radeon kann er sogar das Dense-Modell nehmen.
 
Scirca schrieb:
Die Cloud Modelle sind halt bei weitem besser als lokale Modelle

Dieses Vorurteil werd ich jetzt wohl 20 Jahre lang in Foren hören ☹️
 
Qwen 3.6 will bei mir nicht klappen :(

Es denkt, denkt, denkt und haut dann \\\\\\\\\\\\\\\\\\\\ raus....

Oder es haut content raus und hängt in einer schleifen ... für ein "Wie mach ich eine "Hello world" in php/smarty" - hat mir qwen 3.6 über 2000 Token rausgehauen - dann hab ich abgebrochen. Hat mir mehrfach geschrieben wie ich smarty mit composer installiere usw. .... GUT vielleicht hätte ich sagen sollen das schon alles installiert ist - mein fehler für die genauigkeit ... aber trotzdem wurde das immer wiederholt :( Auch andere sachen liefen damit halt null. Auch bei 3.5 gab es das problem. 3.0 lief ohne Probleme
 
Ist dein Kontextfenster vielleicht zu klein? In den Einstellungen bei Model Defaults kannst du das anpassen oder einfach auf Model Maximum stellen.
 
Kuristina schrieb:
@aluis Du kannst ja versuchen es zu entkräften. :)
@Scirca Opus 4, irgendwas ist kein Modell, sondern ein Agent. Jeder Prompt bekommt eine eigene Sandbox, worin Befehle/Quelltext getestet werden, bevor sie dem Anwender präsentiert werden. Sowas kann man auch lokal erreichen, zB OpenClaw usw. Ja, die lokalen Modelle waren nicht leistungsfähig, genauso wie die Cloud KI vor einem Jahr. In der "lokalen Modellszene" gibt es in den letzten Wochen krasse Hypes. Einem

https://ollama.com/juilpark/Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled-heretic:q6_k

steht Opus 4.6 nichts nach. Ich finde die Antworten sogar teilweise besser, weil nicht nur Opus 4.6 mit zehntausenden Chats destilliert wurde, sondern auch mit Gemini und ChatGPT.

Ich lasse das Modell mit OpenClaw auf meiner 5090 laufen, was im KI Bereich unterste Hardwareschiene ist. Trotzdem sind die Antworten besser. Ein lokales Modell hat nunmal keine keine Beschränkungen mit Filtern und was noch wichtiger ist, Timeouts. Qwen3.5 ist eigentlich zum Programmieren, kennt aber trotzdem die gesamte Wikipedia (ohne externe Suche). Und was auch nicht zu verachten ist, ein 27b Modell läuft auf einem Highend-Gaming-PC/5090 schneller als in jeder Cloud.
 
  • Gefällt mir
Reaktionen: Kuristina
Zurück
Oben