News Big Tech setzt auf „Winner takes all“: 650 Mrd. Dollar an Investitionen für KI-Wettrüsten in 2026

hallo7 schrieb:
@Uzer1510 Der Compiler wurde aber nur "so gut" weil er einen vorhandenen Compiler benutzt hat um zu schauen wie der das macht. Ohne diese Möglichkeit zur Prüfung, weiß ich nicht was rausgekommen wäre.
Trotzdem sind die Dinger durchaus nüztlich, nur neue Software ohne Vorlage können sie nicht sonderlich gut entwickeln (Menschen übrigens auch nicht).

Jupp die AI hat auch zur Compilerentwicklung um z.B. Dateien zu speichern vermutlich kein neues Betriebssystem programmiert :D :D Dass man vorhandenes nutzt ist doch ganz normal?

Ja das ist mir doch auch klar, das war noch ein super holperige Umsetzung die noch "Papa" gebraucht hat der das ein wenig an die Hand genommen hat und strampelnd hinter sich hergezogen hat - aber das muss man auch sagen, sie erfolgte ohne Internetzugang, die AI musste alles in sich drin haben. Natürlich ist das NOCH nicht ansatzweise perfekt - nur die Aufgabe ist halt auch fast ein Endgegner im Vergleich zu dem was sonst oft in der Softwarebranche an Tätigkeiten anfällt - vor allem für 2 Wochen.

Wenn eine AI in ein paar Jahren einen Compiler von 0 an "kurz" mal bauen kann,und der Compiler ausreichend sicher und ausreichend "ok" funktioniert - was ja kein ganz unrealistisches Szenario ist - gibt es sicher nur noch wenige Grenzen für den Grossteil der Softwareprojekte.

-----------------

auf golem.de heute

Der Musikstreamingdienst Spotify hat bei der Bekanntgabe seiner Geschäftszahlen für das vierte Quartal einen Wandel in der Softwareentwicklung offengelegt. Nach Aussage von Co-CEO Gustav Söderström schrieben einige der besten Entwickler des Unternehmens seit Dezember 2024 "keine einzige Zeile Code mehr". Stattdessen nutze das Unternehmen generative KI, um die Produktgeschwindigkeit massiv zu erhöhen.

---------------------------------

Und ja das ist "nur" Spotify und wenn man die Aussage liest gibt es sicher noch welche/viele die "händisch" coden - aber die Entwicklung geht schnell voran. Vor allem dass dort nach Aussage des CEOs wohl nicht nur die "niedrigen" Programmierarbeiten ersetzt werdern ist doch bemerkenswert.

Vor ganz wenigen Jahren wurde 0% Softwareentwicklung bei Spotify von AI gemacht :D und jetzt ist die dort wohl schon mit in der Riege der besten "Mitarbeiter" in dem Bereich.

Die nicht unrealistische mittelfristige Aussicht (10 Jahre +) für jedes Softwareunternehmen besteht halt darin unbegrenzten Zugriff auf Mitarbeiter zu haben, die (in Relation) für eine kleine Schüssel Reis im Jahr jede Sekunde arbeiten und mit zu den besten gehören die es weltweit gibt - ich denke schon dass das das AI Compilerprojekt zeigt dass das nicht mehr komplett unrealistische Träumerei ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kuristina
Uzer1510 schrieb:
Jupp die AI hat auch zur Compilerentwicklung um z.B. Dateien zu speichern vermutlich kein neues Betriebssystem programmiert :D :D Dass man vorhandenes nutzt ist doch ganz normal?
Nein, es ist nicht normal das man das angegebene Entwicklungsziel als fertige Lösung zur Verfügung hat und nutzen kann um zu validieren ob die eigene Software Lösung richtig funktioniert. Ich würde das schon als Besonderheit sehen.
 
Hmmm Du meint wenn man in in der klassischen Entwicklung Testsuits oder Bibliotheken / Frameworks genutzt werden um die Software zu validieren muss man die alle selber entwickeln?

Das doch dann aber doch verschenkte Zeit? wenn es da was fertiges gibt?

Wenn das Rad bereis erfunden ist nutzt man das einfach :) ausser die eigen Raderfindung mach Sinn weil das sehr viel besser ist - und slebst dann wird man vieles von dem nutzen was bereits andere entdeckt haben.
 
@Uzer1510 Meine Aufgabe lautet "entwickel Software A die genau X tut". Dann hab ich in der Regel nicht "Software B die genau das gleiche X tut" zur Verfügung um jedes API Interface usw. einerseits anschauen zu können und andererseits verwenden zu können um zu sehen ob mein eigenes Interface das gleiche Ergebnis liefert. Da sind wir uns doch hoffentlich einig?
 
ccc verwendet doch nichts wirklich 1:1 von gcc sonst wären die Unterschiede doch nicht so extrem - der erzeugte code ist doch sehr unterschiedlich?

https://github.com/harshavmb/compare-claude-compiler

Oder was meinst du mit API? dass ccc die gleichen command line parameter hat?

Bei Anthropic zumindest steht "This was a clean-room implementation (Claude did not have internet access at any point during its development); it depends only on the Rust standard library."

Wenn die AI den gcc Sourcede lokal gehabt hätte oder gcc hätte nutzen können hätte die AI doch sicher Optimierungen übernommen statt selber was (laufzeitmässig) schlechteres zu entwickeln?
 
Zuletzt bearbeitet:
Nein du gestehst der AI deutlich mehr Kontextbewusst sein zu als vorhanden ist.

Kurz bissle fies aber fasst das recht gut zusammen



Zu dem Browser den Cursor gebaut hat
Der hat eine 88.9% build fail rate
Und das für nur knapp 16Mio Dollar in 2 wochen
 
Welchen Browser? Es wurde hier ein Compiler gebaut das schion was anderes - der hat 20.000 gekostet

"Over nearly 2,000 Claude Code sessions and $20,000 in API costs, the agent team produced a 100,000-line compiler that can build Linux 6.9 on x86, ARM, and RISC-V."


Das Video ist halt Unsinn weril es so tut, als wäre das Ziel ein verkaufsfähiger oder in der Praxis nutzbarer Compiler - aber das ist ein PoC Projekt - kann AI überhaupt sowas komplexes jetzt schon.

Das ist der Stand wie vor 5-6 Jahren als AI die ersten Bilder erzeugt hat - und Menschen im Normalfall 3 Köpfe,, 12 Finger und Gesichter hatten die im besten Fall aussahen wie mit 200 km/h gegen eine Wand geschleudert.
Und jetzt 5 Jahre später sind AI Bilder - auch von Menschen - fast perfekt - viel länger ist das von PoC mit gruseligen Ergebnissen aber "irgendwas menschenähnliches" zu nahezu perfekt nicht her.

Das ist das was AI schon heute ausmacht - alles was es heute schlecht kann - aber immerhin irgendwie kann - ist morgen bereits meist ein Klacks.

Bei allen Programmiertests steigern sich die AI Versionen von Jahr zu Jahr um Riesenschritte.

Vielleicht wird mit dem neuen Gemini Deepthink wieder ein C Compiler gebaut, der könnte deutlich besser sein als Claude - im Bereich MINT ist das ganz neue DeepThink aktuell wohl der Maßstab, der die Latte wieder ein paar (Zenti-)Meter nach oben gelegt hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fr0ntb0t
Uzer1510 schrieb:
Wenn die AI den gcc Sourcede lokal gehabt hätte oder gcc hätte nutzen können hätte die AI doch sicher Optimierungen übernommen statt selber was (laufzeitmässig) schlechteres zu entwickeln?
Die AI hat gcc genutzt und hätte es ohne auch nicht geschafft. Du hast dir offensichtlich nicht deren Blogpost durchgelesen, was die schwierige Diskussion erklärt. Ich empfehle die Quelle zu lesen ;)

Ich zitiere von Antrophic:

But when agents started to compile the Linux kernel, they got stuck. Unlike a test suite with hundreds of independent tests, compiling the Linux kernel is one giant task. Every agent would hit the same bug, fix that bug, and then overwrite each other's changes. Having 16 agents running didn't help because each was stuck solving the same task.

The fix was to use GCC as an online known-good compiler oracle to compare against. I wrote a new test harness that randomly compiled most of the kernel using GCC, and only the remaining files with Claude's C Compiler. If the kernel worked, then the problem wasn’t in Claude’s subset of the files. If it broke, then it could further refine by re-compiling some of these files with GCC. This let each agent work in parallel, fixing different bugs in different files, until Claude's compiler could eventually compile all files. (After this worked, it was still necessary to apply delta debugging techniques to find pairs of files that failed together but worked independently.)

https://www.anthropic.com/engineering/building-c-compiler
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Das ist doch auch in dem von Dir zitierten Text kein Fehler von der Compiler Implementierung von Claude sondern nur ein Timing Problem dass die Agenten die halt unabhängiog sich gegenseitig überschrieben haben

Da steht doch dass das als man das atomar aufgeteilt hat so dass jeder Agent seine Fehler beheben konnte ohne dass das andere betraf konnte Claude das umsetzen.

Sprich das ist "nur" noch ein Problem der begrenzten Kontextlänge und der Zeit
 
Uzer1510 schrieb:
Der Compiler kann neben dem Kernel für X86 ARM Risc-V auch QEMU, FFmpeg, SQlite, Postgres und Redis kompilieren und hat "eine Erfolgsquote von 99 Prozent bei den meisten Compiler-Testsuiten, einschließlich der GCC-Torture-Testsuite. Außerdem besteht er den ultimativen Lackmustest der Entwickler: Er kann Doom kompilieren und ausführen."
Haste dir auch angesehen, wie Doom läuft? Da gab es nämlich ein Video zu und es lief wie ein Sack schrauben. Selbst mit Optimierungen war der Compiler langsamer als die GNU Variante ohne irgendwelche Optimierungen. Linker und Assembler fehlten völlig bzw. hat Claude nicht hinbekommen. Man sollte schon alles erzählen und nicht nur die Hälfte.
 
@Uzer1510 Das ist eine Interpretation. Womöglich hätten sie es ohne vorhandenem gcc auch gar nicht geschafft. Wenn es wirklich nur ein Zeitproblem war, hätten sie es doch mit 1 Agenten lösen lassen können. Wäre beeindruckender als das was sie gemacht haben.
Womöglich mussten sie es aber genau so machen, weil es sonst nicht weiter ging ;)
 
Ein Agent funktioniert nicht so wirklich

Deswegen gibt es ja hierarchische Schichten
agenten die die anderen agenten davon abhalten in kreis zu laufen

also
PO, PM, DEV Ketten
 
hallo7 schrieb:
@Uzer1510 Das ist eine Interpretation.

Im Text steht doch "If it broke, then it could further refine by re-compiling some of these files with GCC. This let each agent work in parallel, fixing different bugs in different files, until Claude's compiler could eventually compile all files."

Ausreichend atomar aufgeteilt und ja dazu hat man gcc genutzt => die Fixes haben auf dem Level dann selbstständig funktioniert. Dann lass doch mal hören wie Du das übersetzt und interpretierst, wenn Du das anders siehst?

Ja ohne gcc hätte das so nicht funktioniert aber der wurde ja "nur" eingesetzt als "Debugger" im weitesten Sinn und nicht als Codelieferant. Am Ende konnte so CCC alles fixen und dann alles kompilieren ohne gcc.

Dass sequentielle Abarbeitung länger dauert als die Aufgabe in viele parallele Tätigkeiten aufzusplitten die gleichzeitig parallel stattfinden das hat auch nichts mit Interpretation zu tun. Gemini DeepThinking war da schon im Rückspiegel in der AI Branche kann man halt nicht die Arbeitsgeschwindigkeit ein dt Beamten oder des öffentlichen Dienstes an den Tag legen :D

Und das neue Gemini DT hat Claude 4.6 bei AGI-2 doch ganz schön zerlegt.

Die Kontextlänge einer AI Instanz ist nunmal noch sehr endlich und verliert fast allen Detailkontext in der Kompression - das dauert halt vielleicht noch ein paar Jahre bis ein Kontextfenster das gesamte C Compilerprojekt aufnehmen kann. Und erst dann kann die AI natürlich alle Abhängigkeiten erkennen von ich ändere in Datei XY das und das wirkt sich dann evtl so auf den Code in Datei Z aus. Dazu muss halt alles im Kontext sein.

Aber das sind halt jetzt "nur" noch Optimierungen des AI Modells - der gleiche Prozess wie bei der Sprach, Bild, Videogenerierung durch AI - die ist auch von "naja ja da wurde irgendwas erzeugt" recht schnell gut geworden ist und doch jetzt die Shorts auf SocialMedia erfolgreich flutet :D

Agents sind halt noch eine vergleichsweise neue Technologie in dem Ausmass sicher <= 5 Jahre - da wird noch viel in die Synchronisation etc fliessen.

Denke jetzt würde man das nochmal laufen lassen würde man das wofür gcc genutzt durch einen top Level Agent erledigen lassen. wenn das auch sicher komplex wäre dessen Aufgaben sinnvoll zu definieren.
 
Zuletzt bearbeitet:
Agents sind doch nicht neu


MCP ist relativ neu
Aber das ist nur ein communications layer und egal für das was agenten sind

Und warum braucht man für einen c compiler einen anderen c compiler um ihn zu testen?
sollte das der c compiler nicht selber können? ist das nicht der sinn der übung?
 
naja wie gesagt vor 5 Jahren hat Agents doch fast niemand genutzt auf R&D Level in Ansätzen.

gcc war halt die einfachste Möglichkeit ist Abhängigkeiten zu entdecken. damit man rausfindet an welchen Dateien unterschiedliche Agents nicht parallel unabhängig voneinder rumbasteln sollten.

Es ist halt eine praktikable Lösung - denn wie gesagt das Kontextfenster wird aktuell schlicht zu klein sein die Alternative ja dann warten wir halt 3 oder 4 Jahre bis das gross genug ist halt sinnfrei.

Anthropic hatte garantiert nicht erwartet einen C Compiler zu schaffen der beim ersten Versuch auch nur ansatzweise auf gcc level ist. Da ging es nur darum ist das überhaupt aktuell bereits irgendwie möglich.

Der C Compiler ist halt so schlecht wie die ersten AI damals generierten Bilder nur das ist halt egal - weil es nicht darum geht wie gut das Teil heute ist sondern dass man überhaupt eine Basis hat für Optimierungen. und die werden sicher kommen.

Ja kar ist das nicht sinnvoll dass bei sehr komplexern / grossen Projekten aufgrund aktueller Limitierungen externe Tools genutzt werden müssen aber diese Limitierungen sind nur temporär und nicht systembedingt.


Es gibt sicher ein X bei dem eine AI mit X Mio Tokens Kontextfenster alle Abhängigkeiten wohl erkennen könnte - die Frage ist hier nur wann ist die verfügbar vielleicht 2026 oder erst 2028 oder noch später?

Dinge, die man aufgrund wohl nur temporärer Limitierungen aktuell anders mit "Hacks" lösen muss sind doch nicht schlimm. AI wird sicher Ende 2026 viele Grenzen wieder ein Stück verschoben haben die es Ende 2025 noch gab.
 
Zuletzt bearbeitet:
Uzer1510 schrieb:
Ja kar ist das nicht sinnvoll dass bei sehr komplexern / grossen Projekten aufgrund aktueller Limitierungen externe Tools genutzt werden müssen aber diese Limitierungen sind nur temporär und nicht systembedingt.

Doch sie sind System bedingt.
Abgesehen davon bewirbt man etwas nicht als dependency free

Wenn man dann einfach einen externen Compiler einbindet

Und wenn das Tool nicht gut läuft dann rennt man nicht los und blöck stolz in die Welt sehet was für einen großen Haufen ich gemacht habe.

Dann sagt man wir sind 80% des Weges gegangen aber leider hat es nicht gereicht aber wir haben sooooo unglaublich viel gelernt

Dann wissen alle Jupp war nix schauen wir uns den nächsten Versuch an.
 
Eine AI die ein so grosses Kontextfenster hat dass der komplette Kernelsourcecode oder der jerweilige Sourcecode des Projekts und der komnplette compiler im Kontext gehalten wserden kann braucht gcc dann nicht mehr - wüsste nicht wozu?

Wo sollte das denn systembedingt sein das ist lediglich in der aktuellen Umsetzbarkeit der Claude Agenten eine Limitierung.

gcc wurde doch nur genutzt um kontextübergreifende Abhängigkeiten zw Agenten herauszufinden und die dann zu nutzen um das so aufzusplitten dass die Bereiche Agenten unabhängiog voneinander atomar zu handeln sind

Denn das war der einzige Grund für gcc

"While the test harness worked well for independent unit tests, compiling the Linux kernel presented a monolithic challenge. The kernel isn't a collection of independent tests; it's a giant, interconnected project. When the agents attempted to compile it, they would all encounter the first compilation error, and all 16 would try to fix the same bug at the same time, leading to wasted effort and conflicting changes."

Am Ende konnte der alle Dateien des Kernels kompilieren und das war das Ziel - ja man musste gcc nutzen - aber das ist halt ein temporärer Hack.

Die Kontextfenster werden wachsen - die AI Betreiber haben doch genug der globallen RAM Produktion gekauft :D


Und der nächste AI C Compiler könnte jetzt sogar prinzipiell CCC "1.0 " jetzt als Validation tool nutzen zumindest für die Projekte, die sich mit ccc kompilieren lassen.

Ich seh das halt wie der hier https://betterstack.com/community/guides/ai/anthropic-ai-agents-c-compiler/

Ein echt grosser erfolgreicher Schritt Softwareentwickluzng grundlegend zu verändern.
 
Zuletzt bearbeitet:
@Uzer1510 Die Story kauf ich ihnen eben nicht ab. Ich muss ja nicht 16 Agenten das gleiche machen lassen, dann kommen die sich auch nicht in die Quere. Vielleicht ist das aber auch eine super Ausrede dafür, dass man ground truth data reinbringen kann und die Agents vom ground truth lernen können was sie machen müssen.

Ist halt fraglich wie wertvoll das ist. Ist natürlich trotzdem eine schöne Sache, aber für mich stinkt die Sache hier ein bisschen.
 
Häh und wie willst Du das denn verhindern dass die sich in die Quere kommen?

Wie willst Du denn bei aktuell eingeschänktem Kontextfenster verhindern dass sich ein Agent 4 der Code in Datei X verändert das sich nicht auch über 50 Ecken auf das auswirkt was Agent 7 in Code Z ändert?

Und dass wenn das dann an Stelle F beim compilieren in Datei W einen Fehler wirft?

Das würde mich aber jetzt mal interessieren.
 
Zurück
Oben