Fireplace Motiv 1 Neu
TeamViewer Motive 3

News Coding-Assistent: Codex wächst in zwei Wo­chen um eine Million Nutzer

mischaef

Kassettenkind
Teammitglied
Registriert
Aug. 2012
Beiträge
7.444
OpenAI verzeichnet mit seinem Programmier-Assistenten Codex weiterhin starkes Wachstum und hat die Zahl der wöchentlich aktiven Nutzer von drei auf inzwischen vier Millionen gesteigert. Einen Anteil daran dürfte auch das in der vergangenen Woche veröffentlichte Update haben. Codex Labs soll den Erfolg nun noch weiter steigern.

Zur News: Coding-Assistent: Codex wächst in zwei Wo­chen um eine Million Nutzer
 
  • Gefällt mir
Reaktionen: aid0nex und Trent
Keine Ahnung ob das echt ist, aber es scheint auch eine konträre Bewegung zu geben.

https://x.com/straceX/status/2046322747035296121

1776849553538.png
 
  • Gefällt mir
Reaktionen: aid0nex, HolySkillet, trabifant und eine weitere Person
Es lebe AI slop. Bald auch in Ihrer Nähe!
 
  • Gefällt mir
Reaktionen: flo.murr, IgorGlock, trabifant und eine weitere Person
Ich nutzte Code Claude als Orchestrator und Codex als Sub Agent für Code Review und Zusammenfassung, Gemini CLI zur Planung und zwei lokale Qwen Subagents und Stable Diffusion.
Somit fahre ich gut, habe gerade die Webapp (Planung, Kunden Portal, Buchhaltung inkl. QR Rechnung und Website) für eine Freundin (Yoga Lehrerin) so deployed. Kurz 2h Gespräch bei einem Bier, Anforderung aufnehmen und dann mit einem Promt die Seite/Software erzeugt und und Protoyp ist live. 80-90% der Arbeit ist gemacht. Anpassungen sind minimal und im Detail.
Ergänzung ()

Mondgesang schrieb:
Es lebe AI slop. Bald auch in Ihrer Nähe!
AI ist alles andere als ein Slop.
 
  • Gefällt mir
Reaktionen: Tito_2000, Haxor, boypac007 und 7 andere
AAS schrieb:
Ich nutzte Code Claude als Orchestrator und Codex als Sub Agent für Code Review und Zusammenfassung, Gemini CLI zur Planung und zwei lokale Qwen Subagents und Stable Diffusion.
Endlich mal ein sachlicher Beitrag zum Thema KI. :-)
 
  • Gefällt mir
Reaktionen: aid0nex, HolySkillet, Dark_Soul und 3 andere
Ich frage mich, ob im professionellen Umfeld durch KI-Code-Erzeugung nicht oft mehr arbeit entsteht, weil der Code nicht internen Compliance-Anforderungen genüngt. Ist es z.B. nicht leichter, Sicherheitslücken bei der Erstellung zu vermeiden bzw. in einzelnen Entwicklungsschritten auf diese zu testen, statt einen Code, den man nicht selbst erstellt hat, auf solche Fehler zu prüfen?
(Die Coder reichen dann den Code an die nächste Ebene weiter und die können sich dann mit den Problemen befassen.)

Für den privaten Einsatz wird natürlich vieles einfacher, aber beim kommerziellen Einsatz mag das im Einzelfall anders aussehen.
 
nighteeeeey schrieb:
Keine Ahnung ob das echt ist, aber es scheint auch eine konträre Bewegung zu geben.
Was wohl das "Humor" Tag zu bedeuten hat?

Im Ernst, ein Claude Code Max Plan kostet 90€/Monat. (Team Premium Plan je nach Abrechnungsintervall etwas mehr oder weniger)
Wenn ich einen Entwickler mit 6000€ Brutto habe dann sind das mit Lohnnebenkosten irgendwo oberhalb von 7000€.
Von den 90€ gehen durch Steuerersparnis noch ca 30% weg, macht dann gute 60€ an realen Mehrkosten.

Wenn mir das Abo im ganzen Monat nur 2 Stunden Arbeitszeit spart dann hat es sich bereits gerechnet.
Mittlerweile (seit Claude Code + Opus 4.5) liegt der Produktivitätsgewinn aber viel, viel höher.

Wer Softwareentwickler beschäftigt und denen nicht standardmäßig Claude Code / OpenAI Codex bereitstellt begeht wirtschaftlichen Irrsinn imho.
 
  • Gefällt mir
Reaktionen: aid0nex, Cyrix72, Zockmock und 4 andere
Auch wenn hier viel von Marktanteilen gesprochen wird, ist die Realität eben meistens der Mix aus verschiedenen Modellen. Teils weil die Kontingente der Pläne massivst reduziert wurden, teils sind die einzelnen Modelle in bestimmten Aufgaben besser. Bei mir kommen die Feature Slices über Opus, Orchestration über Sonnet, Umsetzung je nach Einstufung über GPT5.4 High bis Gemma runter. Unit Tests dann wieder über GPT-Haiku. Aber eben so flexibel das die KI selbst entscheidet was am besten für den Fall geeignet ist.
Sitz gerade an etwas komplexen Multi Tennant Lösung mit vererbaren Data Schema + JsonB Indiv bereiche. Da war GPT komischerweise am effizientesten. Es variiert also tatsächlich. Aber für 90% reicht wahrscheinlich mittlerweile auch Gemma aus; GPT ist halt gefühlt am langsamsten, braucht aber am wenigsten Nacharbeiten.

Heute noch über die Sinnhaftigkeit von KI gestützter Programmierung nachzudenken ist imho der falsche Ansatz, die Frage ist eher wo ich das Verfügbare Personal so einsetze um das Optimal zu nutzen. Ohne Menschen gehts auch weiterhin nicht, die deswegen zu Abstempelstationen für Auto Commits aus Tickets zu machen aber auch der falsche Ansatz.
 
  • Gefällt mir
Reaktionen: EJC und AAS
  • Gefällt mir
Reaktionen: Dark_Soul
Codex denn so gut wie Code? Benutze aktuell nur noch Opus 4.7...Die Sachen ändern sich ja teilweise wochenweise...kommt man nicht mehr hinterher.
 
Banned schrieb:
Ich frage mich, ob im professionellen Umfeld durch KI-Code-Erzeugung nicht oft mehr arbeit entsteht
Mal aus eigener Erfahrung im professionellen Umfeld:

Man muss sehr aufpassen dass man Claude Code möglichst optimal einrichtet, das ist nicht mit ein paar Optionen setzen getan, man kann ihm ausführliche Anweisungen (einfach schriftlich, als .md Datei) geben, alles was man einem neuen Entwickler den man in ein Projekt einarbeitet erklären würde, erklärt man auch Claude Code. Wie sieht die Struktur des Projekts aus, welche Richtlinien sind zu befolgen, welche Form nutzen wir... Und für Spezialbereiche legt man dann einzelne Skills an (was ist relevant bei migrations? was ist wichtig bei der Arbeit an der GUI?...).
Wenn Claude dennoch unerwünschte Dinge macht und korrigiert wurde kann er selbst die Anweisungen aus den Learnings optimieren.

Ich kann dann auch definieren dass Claude nach Abschluss einer Aufgabe entsprechende Tests durchführen und verschiedene Reviews (Security...) durchführen muss.

Und dann braucht es halt noch Entwickler die überwachen dass alles in den gewünschten Bahnen verläuft.

Wenn man das alles gut macht ist der Output den Claude Code liefert aber enorm und jeder der das zum ersten Mal erlebt hat erstmal so diesen WOW Moment.

Coenzym schrieb:
Codex denn so gut wie Code?
Schwer zu beurteilen, es gibt wohl Bereiche in denen Codex etwas besser ist und andere in denen Claude Code voraus ist.
 
  • Gefällt mir
Reaktionen: Cyrix72, schneeland, Banned und eine weitere Person
Coenzym schrieb:
Codex denn so gut wie Code? Benutze aktuell nur noch Opus 4.7...Die Sachen ändern sich ja teilweise wochenweise...kommt man nicht mehr hinterher.

Ich persönlich bin auf Codex gewechselt, nicht nur das ich für meine Anwendungsbereiche mehr usage gefühlt rausbekomme, auch haben mich die Ergebnisse bisher mehr überzeugt. Kann natürlich variieren, aber bei den steigenden AI kosten kriegt man mit Codex einfach mehr Nutzung. Was Codex nicht so gut kann wie ich finde, ist UI. Aber Backend ist wirklich gut und am Donnerstag steht auch 5.5 vor der Tür - mal sehen wie das wird :)
 
  • Gefällt mir
Reaktionen: Coenzym
Banned schrieb:
Ich frage mich, ob im professionellen Umfeld durch KI-Code-Erzeugung nicht oft mehr arbeit entsteht, weil der Code nicht internen Compliance-Anforderungen genüngt. Ist es z.B. nicht leichter, Sicherheitslücken bei der Erstellung zu vermeiden bzw. in einzelnen Entwicklungsschritten auf diese zu testen, statt einen Code, den man nicht selbst erstellt hat, auf solche Fehler zu prüfen?
(Die Coder reichen dann den Code an die nächste Ebene weiter und die können sich dann mit den Problemen befassen.)

Für den privaten Einsatz wird natürlich vieles einfacher, aber beim kommerziellen Einsatz mag das im Einzelfall anders aussehen.
Stell dir vor, KI kann viel schneller Code prüfen als Menschen. ;)
Wenn du deinen Code durch 1-2 Modelle Peer Reviewen lässt, machst du schon vieles richtig.
Ergänzung ()

steirerblut schrieb:
Auch wenn hier viel von Marktanteilen gesprochen wird, ist die Realität eben meistens der Mix aus verschiedenen Modellen. Teils weil die Kontingente der Pläne massivst reduziert wurden, teils sind die einzelnen Modelle in bestimmten Aufgaben besser. Bei mir kommen die Feature Slices über Opus, Orchestration über Sonnet, Umsetzung je nach Einstufung über GPT5.4 High bis Gemma runter. Unit Tests dann wieder über GPT-Haiku. Aber eben so flexibel das die KI selbst entscheidet was am besten für den Fall geeignet ist.
Sitz gerade an etwas komplexen Multi Tennant Lösung mit vererbaren Data Schema + JsonB Indiv bereiche. Da war GPT komischerweise am effizientesten. Es variiert also tatsächlich. Aber für 90% reicht wahrscheinlich mittlerweile auch Gemma aus; GPT ist halt gefühlt am langsamsten, braucht aber am wenigsten Nacharbeiten.

Heute noch über die Sinnhaftigkeit von KI gestützter Programmierung nachzudenken ist imho der falsche Ansatz, die Frage ist eher wo ich das Verfügbare Personal so einsetze um das Optimal zu nutzen. Ohne Menschen gehts auch weiterhin nicht, die deswegen zu Abstempelstationen für Auto Commits aus Tickets zu machen aber auch der falsche Ansatz.
100%, den Beiträg sollte man anpinnen unter KI Themen.
 
  • Gefällt mir
Reaktionen: Cyrix72
AAS schrieb:
Stell dir vor, KI kann viel schneller Code prüfen als Menschen. ;)

Schneller ja. Die frage ist, ob auch besser. Es geht mir hier nicht um das Funktionieren des Codes, sondern um Sicherheits- und Impelmentierungs-Aspekte. Code-Generierung und Cyber Security sind schon in gewisser Weise zwei unterschiedliche Paar Schuhe. Ein Code kann gut funktionieren und effizient sein, aber trotzdem massig Sicherheitslücken enthalten oder für die jeweilige Umgebung ungeeignet sein. Wer Experte für Programmierung ist, ist nicht automatisch Experte für Cyber Security; und so wird es sicherlich auch bei KIs sein.

Man muss also seine Anforderungen in kritischen Bereichen sehr genau kennen und diese auch überprüfen (können). Bei Cyber Security sollte man sich nicht auf eine KI verlassen.
 
Banned schrieb:
Schneller ja. Die frage ist, ob auch besser.

Nicht nur. Ich kann jetzt nicht beurteilen wo das aktuelle Fähigkeitslevel von Claude Code / Codex in dem Bereich im Vergleich zu menschlichen Experten liegt. Der Punkt der hier imho aber viel schwerer wiegt ist dass kaum ein Softwareprojekt diese Experten in ausreichender Menge zur Verfügung hat.

Es gibt unmengen kleinerer Projekte die oft gar keine Sicherheitsexperten haben, da schauen halt die normalen Entwickler darauf dass alles nach bestem Wissen passt und es gibt unmengen größerer Projekte die eigentlich Heerscharen an Experten bräuchten um alles zu überblicken und zu prüfen.

KI demokratisiert dieses Thema etwas, so hat jeder, bis runter zum einzelnen Hobbyprogrammiere plötzlich die Möglichkeit komplette Projekte ständig auf Sicherheit zu prüfen. Also auch wenn die KI am Ende weniger fähig wäre als ein Experte, dann wird das in Summe immernoch für viel weniger Sicherheitslücken sorgen.

Dass Claude Mythos auf Anhieb hunderte Sicherheitslücken selbst in großen Opensource Projekten wie Firefox findet zeigt dann auch was KI da zukünftig leisten kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HolySkillet, AAS und Banned
Banned schrieb:
Schneller ja. Die frage ist, ob auch besser. Es geht mir hier nicht um das Funktionieren des Codes, sondern um Sicherheits- und Impelmentierungs-Aspekte. Code-Generierung und Cyber Security sind schon in gewisser Weise zwei unterschiedliche Paar Schuhe. Ein Code kann gut funktionieren und effizient sein, aber trotzdem massig Sicherheitslücken enthalten oder für die jeweilige Umgebung ungeeignet sein. Wer Experte für Programmierung ist, ist nicht automatisch Experte für Cyber Security; und so wird es sicherlich auch bei KIs sein.

Man muss also seine Anforderungen in kritischen Bereichen sehr genau kennen und diese auch überprüfen (können). Bei Cyber Security sollte man sich nicht auf eine KI verlassen.

Den Artikel hast du aber gelesen?
 
Zurück
Oben