News Nach Nvidia, Meta & Co: Auch AMD bewirbt nun das 1:1-CPU-GPU-Verhältnis für AI

Faust2011 schrieb:
das ist dann das Inferencing und das läuft auch auf CPUs sehr gut.
Inferenz auf CPU geht, aber alles andere als sehr gut. Die Performance auf der CPU ist nur ein Bruchteil dessen, was auf der GPU erreicht wird.

Agentische Workflows, die immer stärker kommen, bedeuten im Kern nichts anderes, als der massenhafte Einsatz von ganz klassischen Tools und Programmen im Verlauf einer Interaktion. Die verursachen je nach Aufgabe dann halt auch wieder klassisch CPU-Last.
Das ist mein aktueller Verständnisansatz. So ganz verstehe ich es aber auch noch nicht. Viele Tools würde ich halt nicht Server-side ausführen. Aber wenn eh alles eine SaaS nur noch ist....
 
  • Gefällt mir
Reaktionen: franeklevy, nyster, Tritom73 und 2 andere
Krik schrieb:
Bei Bild 8:
Was sind das für Komponenten bei den Griffen? Diese 6 Chips in jeder Ecke?
Vulcano DPUs, für das Scale-Out Netzwerk
 
  • Gefällt mir
Reaktionen: NMA, Tungdil-Tom, nyster und eine weitere Person
MoinWoll schrieb:
Ich vermisse in dem Artikel eine Erklärung, warum CPUs nun auf einmal verstärkt im KI-Bereich eingesetzt werden sollen. Welche Vorteile bietet z. B. ein Verhältnis von 1:1 ggü. 1:4?
Das liegt am verstärkten Aufkommen von "agentic use" in der Nutzung aktueller Modelle.

Bei einem klassischen Chatbot braucht man hauptsächlich die GPUs, weil auf denen das Interferencing läuft, also das relativ simple Generieren einer Antwort auf eine Frage (=den Prompt).

Mit der Nutzung von Agenten plant der Agent aber die Durchführung der Aufgabe vorher in Einzelschritten durch, um dann zwischendrin teils sehr viele API-calls, Python-Scripts oder auch Direktzugriffe auf integrierte Software durchzuführen. Diese Schritte brauchen dann alle CPU-Ressourcen.
 
  • Gefällt mir
Reaktionen: GT200b, NMA, PulsarS und 4 andere
MoinWoll schrieb:
Ich vermisse in dem Artikel eine Erklärung, warum CPUs nun auf einmal verstärkt im KI-Bereich eingesetzt werden sollen. Welche Vorteile bietet z. B. ein Verhältnis von 1:1 ggü. 1:4?
Bild 5/6 zeigen eigentlich ganz schön den Unterschied, fehlt nur die Tonspur als Erklärung:

Chatbot AI bedeutet, jemand schickt eine Frage an den AI-Service was er tun soll, bekommt eine Antwort und führt diese Antwort dann bei sich aus.

Agentic AI bedeutet, dass jemand einen Auftrag an den Agent-AI-Service schickt, der seine AI-Komponente fragt, was er tun soll, und das direkt ausführt.

Es wird also nicht unbedingt viel mehr CPU-Leistung gebraucht, aber es verschiebt sich vom Client auf den Server, wo diese CPU-Leistung gebraucht wird. Das ist jetzt sehr vereinfacht ausgedrückt, aber darum geht es hier letzten Endes.
Ergänzung ()

7H0M45 schrieb:
Und vor allem, warum wird dieser Hintergrund erst jetzt entdeckt, ich hätte gedacht es müsste klar sein welche Art von Hardware man für KI braucht?
Es ist einfach so, dass KI immer besser wird, damit mehr Aufgaben übernehmen kann und andere Aufgaben (sprich: Agents) eben eine andere Balance zwischen CPU/GPU haben.
Ergänzung ()

Faust2011 schrieb:
das ist dann das Inferencing und das läuft auch auf CPUs sehr gut.
Nein, auch das läuft auf GPUs viel besser. Der Unterschied bei AgenticAI ist halt wirklich, dass die AI nicht mehr dem Menschen sagt, was er tun soll, sondern der CPU - also braucht man mehr CPU-Leistung.
Ergänzung ()

@ETI1120 da erinner ich doch wieder an unsere Diskussion hier über Epyc Verona: https://www.computerbase.de/forum/t...d-erst-2027-mit-verano.2269697/#post-31443325

Vielleicht sehen wir mit Verona/MI500 ja genau dieses 1:1 Verhältnis
 
  • Gefällt mir
Reaktionen: NMA, nyster, Zagrthos und 2 andere
Die perfekte Begründung/Rechtfertigung um auch CPU Preise weiter zu erhöhen, nachdem GPUs und seit eher kurzem Speicher in immer höhere Preisregionen vorgestoßen sind.

Es fehlen noch Mainboards, die ohnehin schon teuer genug geworden sind und vermutlich mitziehen dürften (auch angesichts PCIe 6 und später irgendwann DDR6).

(PC) Gaming wird zunehmend zum Luxushobby oder überhaupt PC Eigennutzung immer kostspieliger, aber Hauptsache ein KI Rechenzentrum nach dem nächsten wird (zuvorderst für Sprachmodelle) aus dem Boden gestampft ... verkehrte Welt irgendwie.
 
Zuletzt bearbeitet:
Azdak schrieb:
Agentische Workflows
Ja, vielleicht.

ildottore schrieb:
Aber wenn nicht server-side, warum dann monatliche Gebühren?
Es geht wohl nicht nur darum, dass man für die Anfragen bezahlt, sondern man bezahlt auch die bereits erfolgte Leistung (also das Aufbauen und Trainieren des Modells).

stefan92x schrieb:
dass die AI nicht mehr dem Menschen sagt, was er tun soll, sondern der CPU - also braucht man mehr CPU-Leistung
Beruflich habe ich mit den Agenten inzwischen auch zu tun, aber die Skills, die man denen gibt, ist ja eher trivial wie "lese folgende Datei" oder "ruf jenen REST-Service auf". Dass das letztlich soviel CPU-Last erzeugt, dass man wie hier im Artikel bereits von 1:1 Verhältnis spricht... bemerkenswert.
 
  • Gefällt mir
Reaktionen: Dr.Death
@Volker fehlt der Link zum Blog von AMD? Die Bilder sind ja da
https://www.amd.com/en/blogs/2026/agentic-ai-changes-the-cpu-gpu-equation.html

Der Blog Post von Daniel McNamara erklärt es ganz gut warum sich das Verhältnis von GPU und CPUs wieder verschiebt. Er führt führt auch weiter aus was Lisa Su im Earnings Call gesagt hat, die CPU haben unterschiedliche Rollen. Da die Rollen unterschiedlich sind werden die CPU nicht einfach direkt neben die GPU geklatscht.

Im Grunde hat Daniel McNamara durch die Blume angekündigt dass AMD ein zweites Rack neben Helios vorstellen wird. Reicht es schon für den 22 Juli?

Und noch ein paar Anmerkungen zum 1 zu 4 bei Helios. AMD hat durch die Blume mitgeteilt, dass die 256 Core Variante von Venice in Helios landet. Ist es wirklich sinnvoll die Sockel zu zählen?

Außerdem wie sieht die Rechnung bei NVIDIA aus wenn man ein CPU-Rack neben ein GPU Rack stellt?
stefan92x schrieb:
@ETI1120 da erinner ich doch wieder an unsere Diskussion hier über Epyc Verona: https://www.computerbase.de/forum/t...d-erst-2027-mit-verano.2269697/#post-31443325

Vielleicht sehen wir mit Verona/MI500 ja genau dieses 1:1 Verhältnis
Nachdem ich verstanden habe, dass 8 SOCAMM je CPU möglich sind tendiere ich auf 1:2. Aber wir haben ja auch 256 CPU Kerne je Sockel.
CDLABSRadonP... schrieb:
Ob PCIe x32 irgendwann dann doch mal ernsthaft kommt?
(Spezifiziert ist der sogar als Steckplatz seit Anfang an, wurde aber nur seltener umgesetzt)
Warten wir Mal in Ruhe ab, was aus PCIe wird. CXL wurde AFAIU nicht angenommen NVIDIAs NVLink macht sich im DataCenter breit. Ob UALink was wird bleibt abzuwarten.

Die PCIe SIG macht halt im Schneckentempo weiter und die Rückwärtskompatibilität wird es auch nicht einfacher machen. Die Frage ist, ob die PCIe SIG mit der optischen Datenübertragung noch rechtzeitig kommt.

Die JEDEC hat die Zeichen der Zeit erkannt und kurzfristig die bei DDR die Roadmap geändert um die Anforderungen zu Befriedigen. Und mit LPDDR6 eine zweite Alternative breitgestellt.
 
  • Gefällt mir
Reaktionen: jonny8 und stefan92x
ETI1120 schrieb:
(...)
Warten wir Mal in Ruhe ab, was aus PCIe wird. CXL wurde AFAIU nicht angenommen NVIDIAs NVLink macht sich im DataCenter breit. Ob UALink was wird bleibt abzuwarten.

Die PCIe SIG macht halt im Schneckentempo weiter und die Rückwärtskompatibilität wird es auch nicht einfacher machen. Die Frage ist, ob die PCIe SIG mit der optischen Datenübertragung noch rechtzeitig kommt.

Die JEDEC hat die Zeichen der Zeit erkannt und kurzfristig die bei DDR die Roadmap geändert um die Anforderungen zu Befriedigen. Und mit LPDDR6 eine zweite Alternative breitgestellt.
Die PCI-SIG hat doch in den letzten Jahren stets zuverlässig geliefert...
 
Joshua2go schrieb:
AMD sollte einfach ein Prozessor-Bundle mit 64Gb RAM anbieten. Dann klappt das auch mit dem Nachbarn.... äh Kauf. :evillol:
Was meinst Du warum AMD den Deal mit Samsung abgeschlossen hat?

Ob sie es auch bei Notebooks und Desktops machen weiß ich nicht. Wenn man die Jubelarien von Trend Force über die gestiegen Speicherpreise sieht, würden die Bundles bei den Consumern nicht sonderlich beliebt sein. Das Umsatzwachstum bei Micron, SK Hynix und Samsung findet momentan fast ausschließlich über höhere Preise statt. Die Menge der ausgelieferten Bits ist in den letzten Quatalen nur sehr langsam gestiegen.

Die Interessante Frage ist wie stark ist der Preisanstieg durch Mehrfachkäufe erfolgt. Wenn AMD für die eigenen Server-CPUs die Module kauft und die Serverhersteller haben ebenfalls für ihre eigenen Server Module kauft könnte es sein, dass da Module übrig bleiben.

Auf der anderen Seite ist es schierer Wahnsinn wie viel Speicher in so ein Rack wandert. Bei Helios hat AMD bisher nur erzählt wie viel HBM verbaut ist. Allerdings hat AMD angedeutet, dass je GPU auch noch 24 LPDDR5/5x-Packages verbaut sind. Jetz kann man raten ob es je Package 16, 24, oder gar 32 GByte sind.

Ich habe neulich gelesen dass mit LPDDR6 bis zu 512 GByte je Package möglich werden. Man braucht halt schleunigstens die Fabs, die die erforderlichen Dies ausspucken.
 
  • Gefällt mir
Reaktionen: stefan92x
dhew schrieb:
So ein Quatsch. Genau so entsteht Fortschritt. Und viele unserer Ressourcen sind alles andere als knapp.
Nur blöd wenn niemand dran gedacht hat, den Fortschritt auch sinnvoll, Umwelt und gesellschaftsverträglich einzusetzen.
Fortschritt ist ein ziemlich schwammiges Wort, war jetzt die Atombombe Fortschritt, oder die Kernenergie?
Ist Sprengstoff besser in Steinbrüchen oder Granaten zu verwenden?
Fortschritt ist erstmal nur die Benennung eines Prozesses, wichtig ist, was man damit anfängt.
Der Verbrennungsmotor war ein deutlicher Fortschritt bei Wärmekraftmaschinen, ist es fortschrittlich den noch zu verwenden, obwohl wir schon 50 Jahre wissen, was das Resultat ist?
Der Webstuhl hat eine Zeitenwende eingeläutet, und heute wird das durchschnittliche deutsche Kleidungsstück 2,5 mal getragen.
Fleischkonsum war ein wichtiger Punkt für die Hirnentwicklung unserer Vorfahren, ist es fortschrittlich jährlich Milliarden Tiere nach einem kurzen qualvollen leben zu verwursten obwohl die Wissenschaft (Fortschritt!!) mittlerweile weiß, dass die alle Gefühle und ein Bewusstsein haben, und das, und nebenbei noch riesige Flächen für deren Ernährung auf Generationen zu zerstören, und über den ganzen Prozess 30% der Treibhausgase zu produzieren?
 
  • Gefällt mir
Reaktionen: Alesis, Fallout667, Grimrock und 6 andere
ETI1120 schrieb:
Nachdem ich verstanden habe, dass 8 SOCAMM je CPU möglich sind tendiere ich auf 1:2. Aber wir haben ja auch 256 CPU Kerne je Sockel.
Ich wollte eigentlich drauf hinaus, dass wir diskutiert hatten, ob Verano vielleicht sogar doch eine Variante mit 1 IOD wird. Dann hätte man nämlich 128 Kerne und 1:1 statt 256 Kerne und 1:2. Kommt als Verhältnis CPU/GPU-Leistung aufs gleiche hinaus, aber halte ich nach wie vor für denkbar.
 
stefan92x schrieb:
Ich wollte eigentlich drauf hinaus, dass wir diskutiert hatten, ob Verano vielleicht sogar doch eine Variante mit 1 IOD wird. Dann hätte man nämlich 128 Kerne und 1:1 statt 256 Kerne und 1:2. Kommt als Verhältnis CPU/GPU-Leistung aufs gleiche hinaus, aber halte ich nach wie vor für denkbar.
Sorry, dass ich das so beantwortet habe. Die Idee mit einem IOD hielt ich für stichhaltig, da ich die GTC nicht so richtig verfolgt habe und deshalb all die Bilder mit 8 SOCAMM2 Moduln je CPU nicht gesehen hatte.

Wenn 8 SOCAMM2 je CPU möglich sind, gibt es IMO keinen Grund auf kleinere CPUs zu gehen. Wenn man nur ein IOD hat, hat man auch nur die halbe IO und die halbe Speicherbandbreite. Was ich eigentlich auch erwarte ist dass, AMD bei Verano eine für AI adäquate IO verbaut und keine die so stark gegen die GPU abfällt wie bei Venice.
1778332022209.png



Wie gesagt finde ich es komisch einfach nur CPU-Sockel zu zählen und völlig außer acht zu lassen, welche CPUs da drin stecken.

Schauen wir uns Mal Frontier an:
1778332731519.png

1778332758900.png

Von außen betrachtet 1 CPU und 4 GPUs je Node.

Und was sieht man wenn man sich einen Node genauer anschaut:

1778333958590.png


Die MI250X konnte nicht als 1 GPU agieren sondern war 2 GPUs in einem Package. Wir haben 8 CPU Chiplets und 8 GPU Chiplets. Und jeweils ein CPU-Chiplet war mir einem GPU-Chiplet verknüpft.

Also man kann bei Frontier mit 1:1 argumentieren, 1:4 oder 1:8.
Ergänzung ()

Ach ja auf 1:2 bin ich auch deswegen gekommen, weil ich denke mit SOCAMM bekommt man 2 CPUs so ziemlich auf dieselbe Fläche wie Venice + 16 DIMMs.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nyster und stefan92x
AMD springt medial auf den Zug auf, in dem das 1:1-CPU-GPU-Verhältnis bei AI übernimmt.

Sollte der Satz hinter dem Komma nicht anders weitergehen? Da feht doch mindestens ein Wort hinter "dem". Oder wer "übernimmt" hier was?
 
Zuletzt bearbeitet:
Motorrad schrieb:
Sollte der Satz hinter dem Komma nicht anders weitergehen? Da feht doch mindestens ein Wort hinter "dem". Oder wer "übernimmt" hier was?
Der Satz ist schon so richtig. Aber richtig bedeutet eben nicht immer verständlich.

Das Problem ist in diesem Satz stecken zu viele Aussagen.
  1. Das Verhältnis von CPU zu GPU wird sich wieder in Richtung 1:1 bewegen.
  2. Andere sagen das schon eine Weile
  3. AMD sagt das jetzt auch.
Die 3. Aussage ist so nicht ganz richtig. AMD sagt schon eine Weile, dass CPUs wichtiger werden. Und hat einen Zuwachs für CPUs durch AI prognostiziert.
1778350900271.png



Lisa Su hat jedoch erstmals im Quartal Call Q1 2026 das Verhältnis 1:1 explizit genannt. Und die Rate von 18 % auf 35 % erhöht.
 
Zuletzt bearbeitet:
MoinWoll schrieb:
Ich vermisse in dem Artikel eine Erklärung, warum CPUs nun auf einmal verstärkt im KI-Bereich eingesetzt werden sollen. Welche Vorteile bietet z. B. ein Verhältnis von 1:1 ggü. 1:4?
AFAIK wird mehr CPU Compute pro KI GPU/ASIC v.a. bei agentischen Loads benötigt. Denn wenn dann irgendwas mit der errechneten KI (v.a. Inferenz) gemacht werden soll, ist der Generalist (CPU) gefragt.
Für zB Training von Modellen wird eine CPU eher als Verkehrspolizist (traffic cop) benötigt, der dafür sorgt, daß die Daten dahin kommen, wo sie im Moment hin sollen. Und dafür reicht dann 1 CPU für mehrere GPUs oder ASICs.
Ergänzung ()

foofoobar schrieb:
Dann könnte es sich ja für AMD auszahlen das AMD bereits CPUs und GPUs auf einen Träger integriert hat.
Die Instinct Beschleuniger machen (zumindest im Prinzip) genau das. Im kleinen Rahmen benutzen sowohl die Nvidia Spark als auch die Strix Halos dieses Prinzip, die Strix Halo direkt mit Chiplets auf dem Träger.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Der Satz ist schon so richtig.

Sollte er nicht eher heißen:

AMD springt medial auf den Zug auf, in dem sie das ... Verhältnis ... übernehmen. (so, wie es die anderen jetzt schon tun)

Oder:

AMD springt auf den Zug auf, in dem das ... Verhältnis ... übernommen wird. (also auf den Zug bezogen)

Oder soll es bedeuten, daß dieses neue Verhältnis (jetzt die Vorherrschaft) bei AI übernimmt (und nicht AMD direkt etwas übernimmt, sondern nur auf den entsprechenden Zug mit aufspringt)?
 
Zuletzt bearbeitet:
Sapphire Forum
Zurück
Oben