News Apple: Entwicklungsumgebung Xcode dockt AI Coding Agents an

DevPandi

Mangoverputzer*in
Teammitglied
Registriert
Juli 2021
Beiträge
3.798
LLMs wie ChatGPT, Llama oder Gemini können bereits selbstständig Code schreiben, mal mehr, mal weniger gut. Die Funktion ist populär. Auch klassische Entwicklungsumgebungen wie Xcode oder IntelliJ IDEA bieten inzwischen KI-Assistenten. Apple vereint in Xcode jetzt beide Welten.

Zur News: Apple: Entwicklungsumgebung Xcode dockt AI Coding Agents an
 
  • Gefällt mir
Reaktionen: M@tze, 12nebur27, ComputerJunge und eine weitere Person
Ach, Apple kommt auch in der Gegenwart an? Endlich!
Als Entwickler hab ich bei Apple oft echt nichts zu lachen, da ist man ganz unten in der Prio-Liste. Xcode kann noch so einige weitere Modernisierungen vertragen.
 
  • Gefällt mir
Reaktionen: Nemesis_x85, ReVan1199, surabchichi und eine weitere Person
@DevPandi Der Krampf zieht sich ja leider durch das ganze Tooling für Devs bei Apple.
 
  • Gefällt mir
Reaktionen: ReVan1199
Jeden den das Thema interessiert nutzt doch eh schon längst Copilot innerhalb von Xcode. Xcode hat ganze andere Baustellen und Nachholbedarf wenns um die Dev-Experience geht. :D
 
Zuletzt bearbeitet:
ich hab schon codex (plus abo, gpt-5-codex high), kurz mal claude console (müsste opus 4.5 gewesen sein, so schnell wie das aufgeladene geld weg war), cline mit qwen3-coder-plus (kostenlos) und jetzt mit z.ai glm-4.7 (erstmal lite zum testen) hier seit einigen monaten ausgiebig getestet. alles in vscode aufm mac, wir benutzen kein xcode. copilot bisher noch nicht getestet, aber sollte ja gpt-5 entsprechen.

insgesamt produziere ich jetzt mehr code, dafür aber schlechteren. ständig gibt es missverständnisse (die natürlich auch an mir liegen), ständig werden regeln gebrochen ("entschuldigung, ich habe schon wieder ungetesteten code auf github gepusht"), ständig wird gelogen ("alle tests erfolgreich" nachdem man die fehlermeldungen nach /dev/null umleitet), ständig werden anforderungen vergessen, oft das jammern, dass die aufgabe ja so komplex ist und viel zeit benötigt... und dann diese nervigen entschuldigungen, wenn man sie auf fehler hinweist.

echt schlimm ist "context poisoning": eine falsche annahme/entscheidung zerstört die ganze session und man muss bei 0 anfangen.
oder 10 jahre alte antworten auf stackoverflow, die auch heute noch die lösung sind, werden in den trainingsdaten wohl als veraltet betrachtet und deshalb ignoriert. also genau die antworten, die als erstes suchergebnis kommen, wenn man den fehler bei einer beliebigen suchmaschine eingibt.

ein passendes video dazu, wie gut diese "phd level" agenten sind, wenn sie mal echte erstsemesteraufgaben kriegen:
 
  • Gefällt mir
Reaktionen: rescuemod, Gamer01, Jan und 3 andere
Claude Code hat das jetzt schon zwei Mal zum Absturz gebracht... Seitdem lieber über das Dateisystem.
 
  • Gefällt mir
Reaktionen: Jan
Man kann auch lokale Modelle einbinden, z.B. via LM-Studio direkt auf dem Mac - entsprechend RAM vorausgesetzt, geht das mehr oder weniger gut.

1770234593354.png

Kurzer Test: Funktioniert auch lokal überraschend gut für solche Kleinigkeiten!

Edit: "LM-Studio" ist hier ein eigener Model-Provider, den ich so genannt habe:
1770235002724.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jan
alyk.brevin schrieb:
kurz mal claude console (müsste opus 4.5 gewesen sein, so schnell wie das aufgeladene geld weg war),
Meinst du Claude Code? Und ja, Opus ist brutal teuer, aber echt gut...
alyk.brevin schrieb:
jetzt mit z.ai glm-4.7 (erstmal lite zum testen) hier seit einigen monaten ausgiebig getestet.
Wie zufrieden warst du mit glm 4.7? Bei mir hat das nur Fehler rausgehauen in js und python. Selbst bei bash hat das die einfachsten Sachen nicht kapiert. War ein einziges Drama. Hab das Modell über OpenRouter bezogen zum Testen.
Also das waren alles Sachen, die ich selbst mit Sonnet dann an einem Nachmittag beheben konnte, aber sonderlich zuverlässig erschien mir glm 4.7 nicht. Daher gerne auch ausführlicher dein Feedback.
alyk.brevin schrieb:
ständig gibt es missverständnisse [...] ständig werden regeln gebrochen [...], ständig wird gelogen ("alle tests erfolgreich" nachdem man die fehlermeldungen nach /dev/null umleitet)
Hattest du das auch mit Opus? Weil bisher finde ich das Modell extrem gut.
alyk.brevin schrieb:
echt schlimm ist "context poisoning": eine falsche annahme/entscheidung zerstört die ganze session und man muss bei 0 anfangen.
Oh man.. .das klingt richtig unglücklich. Für solche Test verwende ich immer gerne erst einen API Client und branche immer wieder den Chat bei wichtigen Entscheidungen und schaue, was besser funktioniert.
 
  • Gefällt mir
Reaktionen: surabchichi
es war console: https://support.claude.com/de/collections/5370014-claude-api-und-console
genau wie codex im terminal statt in einer vscode-erweiterung.
hab ich nur ganz kurz getestet und deshalb zu wenige erfahrungen.

glm teste ich aktuell seit einer woche und macht oft diese oben genannten fehler, genau wie codex, das ich 3 monate lang getestet hab. an qwen kann ich mich gar nicht mehr erinnern, war glaube ich auch schlecht.

müssen wir wohl doch mehr geld investieren für claude oder manuell schneller programmieren.

lokal aufm m4pro mit 64gb ram haben wir auch schon verschiedene modelle (gemma3, deepseek-r1, mixtral etc) mit ollama getestet, aber den ram und ssd-speicher brauch ich halt auch selbst. aber nicht als agent, sondern nur als chatbot.
 
Ok krass. Console ist voll an mir vorbei gegangen.

Lokale Modelle sind schwierig. Ich mein - ich hab nur 16GB vram - da ist die Auswahl eh beschränkt wenn du nicht quantisierte Modelle nimmst.

Schau dir mal Mistral Vibe an mit devstral 2. Das ist gar nicht so schlecht, finde ich
 
Zurück
Oben