Ich nutze LLM's jetzt schon seit gut nem Jahr sehr intensiv auf der Arbeit und auch privat.
Auf der Arbeit haben wir kein Claude Code, aber dafür Copilot CLI Business - welches so ziemlich alle Modelle kann und im Kern auch nicht viel anders ist als Claude Code selbst.
Privat allerdings hatte ich bisher immer nur entweder Copilot (Free im Browser) oder lokale Modelle wie qwen 2/3 und auch 3.5 genutzt die in meine 24 GB VRAM passen. Aber damit konnte ich meine wirklichen echten Probleme in meinen Open-Source Projekten nicht lösen - obwohl ich claude über ollama damit direkt nutzen kann.
Habe daher jetzt seit Ende März "Claude Pro" und nutze es intensiv um wirklich heftige Probleme zu lösen die ich in meinen C/C++ Bibliotheken habe oder um mir in meinen .NET / Avalonia Apps Unterstützung zu geben.
Die Ergebnisse sind nicht immer zufriedenstellend, vor allem wenn man nicht das beste Modell nutzt - sondern z.b. nur die mittleren oder sogar nur die kleinen.
Konkret hatte ich zwei Probleme die keine Modelle mir bisher lösen konnten, aber Opus nach einigen Versuchen dann tatsächlich beheben konnte:
- Mein X11 Event Handling war falsch und löste Deadlocks in meinem Gameboy Emulator Projekt aus
- Mein komplexer Multi-Threaded C99 AudioPlayer mit Ring-Buffer Streaming, eigenem Mixer, Resampler, Converter hatte einen Buffer-Overflow drin der erst in bestimmten Szenarien aufgefallen ist
In beiden Fällen konnte Claude mit Opus die Probleme finden und lösen.
Aber im AudioPlayer-Fall ging es nur mit einem Rewrite von einigen Funktionen und es hat eine vollständige Architekturbeschreibung im Markdown-Format gebraucht damit Claude wusste wie alles zusammen hängt - zusätzlich zur CLAUDE.md.
Zusätzlich versagen alle wenn es z.b. darum geht, alten Code in neuen Code umzubauen, z.b. von .NET WPF nach .NET / AvaloniaUI oder der Code ist zu groß (alles über 250 KB).
Claude kann z.b. nicht in meiner +500 KB großen C99 Single-Header-File Bibliothek arbeiten und verschluckt sich ständig. Dazu verschlinkt es tausende Tokens und kommt zu keinem Ziel. Ich muss wohl die Bibliothek aufdrösseln in mehrere einzelne Dateien und die später dann wieder zu einer Single-Header file zusammenschustern oder sowas...
Auch konnte mir Opus nicht erklären warum meine FFT Ansicht in meinem Audio-Player nicht korrekt aussieht, obwohl die Daten korrekt über die Unit-Tests transformiert werden, aber erst die visuelle Ansicht es klar macht - dass es falsch ist. Es ist allerdings auch verdammt komplex und arbeitet über 3 Threads und einem Ring-Buffer mit synchronisierung. Das in einen Unit-Test zu bekommen habe ich noch nicht geschafft, selbst über Claude noch nicht.
Bugfixing und Code-Validierung sind für mich die Anwendungsfälle wo aktuelle KI's sehr gut sein können aktuell. Für reine Code-Generierung allerdings fehlt noch enorm viel und die Qualität ist nicht sehr gut - vor allem für .NET oder C/C++ Projeke.
Allerdings muss ich sagen, der Trend nur noch Vibe-Coding zu machen und dem Ergebnis blind zu vertrauen ist ein fataler Fehler! Dazu wenn man sich Posts in sozialen Medien anschaut (egal welche Platform), dann wird klar dass aber genau das gerade passiert...
Es ist gefährlich wenn man sich kein Wissen mehr aneignet, aber Dinge macht von denen man keinen Plan hat. Das betrifft geradezu die Gen-Z oder und die Generation davor. Aber selbst meine Gen ist davon betroffen, weil viele Entwickler auch einfach keine Lust mehr haben sich mit den Themen auseinanderzusetzen, z.b. wie sicher die Datenverbindungen hat, wie die Authentifizierung funktioniert, wie Algorithmen aufgebaut sind, was im Computer selbst passiert, usw.