News AMD Eypc: Genoa-X bringt drei CPUs mit bis zu 1,152 GByte L3-Cache

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.362
  • Gefällt mir
Reaktionen: flo.murr, aid0nex, DirtyHarryOne und 5 andere
Das ist mal ein Ding. Aber auch etwas irreführend, schließlich kann nicht der gesamte Cache einem Kern zugeordnet werden, sondern nur der maximale Cache pro CCD, korrekt?
 
  • Gefällt mir
Reaktionen: aid0nex, Yesman9277 und Northstar2710
Jetzt sind wir schon so weit, dass es CPUs mit mehr Cache gibt als meine erste Festplatte Platz hatte...einfach krank :D

AMD bzw zen/epyc beweisen aber schon knallhart, wie wichtig das Packaging sein kann - sei es 3D-Cache oder das Chiplet-Design.

Eigentlich würde ich so langsam fast befürchten, dass AMD Intel hier zu sehr abhängt und wir in ein anderes Monopol abrutschen, aber 'zum Glück' ist der Servermarkt ja so träge, dass das noch eine Weile dauern dürfte. Und es schadet sicher auf lange Sicht nicht, wenn AMD etwas Kriegskasse aufbauen kann.
 
  • Gefällt mir
Reaktionen: flo.murr, aid0nex, Max0071980 und 2 andere
Marcel55 schrieb:
Das ist mal ein Ding. Aber auch etwas irreführend, schließlich kann nicht der gesamte Cache einem Kern zugeordnet werden, sondern nur der maximale Cache pro CCD, korrekt?
Doch auf Kosten der Latenz.

Und @topic: "VCache nur für Spiele" wird damit wieder einmal wiederlegt. Es gibt andere Anwendungen als Cinebench und Video encoding.
 
  • Gefällt mir
Reaktionen: MarcelGX und Yesman9277
Also technisch gesehen sind es ja nur 1,125 GB Cache (1152 MB/1024). ;)

Würde mich aber mal interessieren, warum man vorerst nur die drei Modelle ins Rennen schickt. 96 Kerne für Prestige und den Rest, der tatsächlich auch gekauft wird?
 
  • Gefällt mir
Reaktionen: jo192
Das ist wirklich Hammer. Was für (spezielle) Anwendungen werden besonders von so einem großen Cache profitieren (können)?
 
Spontan würde ich mal Datenbankserver sagen. Die freuen sich immer über Cache.
 
  • Gefällt mir
Reaktionen: JohnVescoya, MarcelGX, aid0nex und 2 andere
  • Gefällt mir
Reaktionen: MarcelGX und Discovery_1
Hate01 schrieb:
Und @topic: "VCache nur für Spiele" wird damit wieder einmal wiederlegt. Es gibt andere Anwendungen als Cinebench und Video encoding.
OpenFOAM ist da so ein Beispiel. Bei Zen(+?) hat man es relativ leicht geschafft mit 2-3 Kernen (je nach Solver) 1 Speichkanal auszulasten. Wie es mit DDR5 Speicher und Zen 3 steht weiß ich (noch) nicht :D

Das einzige was mich etwas stutzig macht ist das 100x40x40 Mesh bei OpenFOAM. Pro Million an Zellen wird da ca. 1 GB RAM veranschlagt. Bei 160.000 Zellen müsste das eigentlich vollständig im Cache laufen und noch mind. 800MB L3 Cache frei sein.
 
@Discovery_1 @memory_stick

(Digitale-)Schaltungssythese profitiert sehr stark vom großen Cache. Wichtiger als die Bandbreite ist hierbei die sehr kurzen Latenz vom Cache gegenüber DRAM (erst recht gegenüber HBM). Alle Firmen die integrierte Schaltungen Entwerfen und Zeit sparen wollen haben nur die Epyc-X Produkte zur Auswahl. Auch bei der RTL Verifikation beschleunigt der Cache sehr. EDA wird halt (wieder) einer der Hauptkunden sein.

Als Beispielkunde für Microsofts Cloud Instanzen mit Genoa-X wurde STM genannt die dort EDA tools nutzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JohnVescoya und memory_stick
ZFS schrieb:
Spontan würde ich mal Datenbankserver sagen. Die freuen sich immer über Cache.

Eine key-value DB wie Redis könnte meist komplett im Cache laufen, aber typische SAP HANA Server würden nur wenig profitieren weil nur ein Bruchteil der riesigen DB im Cache sein kann. Kommt halt immer auf die Größe der DB und des Aufbaus an.
 
Conqi schrieb:
Also technisch gesehen sind es ja nur 1,125 GB Cache (1152 MB/1024). ;)

Würde mich aber mal interessieren, warum man vorerst nur die drei Modelle ins Rennen schickt. 96 Kerne für Prestige und den Rest, der tatsächlich auch gekauft wird?
Wenn man durch 1024 teilt sind es aber GibiByte, und nicht mehr Gigabyte ;)
 
Conqi schrieb:
Also technisch gesehen sind es ja nur 1,125 GB Cache (1152 MB/1024). ;)
Jetzt da du es ansprichst: sind das wirklich 96 Megabyte Cache, oder doch 96 Mebibyte? Ich kann mich nicht erinnern, je einen Bericht gelesen zu haben, der darauf eingegangen ist. Und logisch wäre es irgendwie schon, wenn das Silizium auf Zweierbasis gegossen ist.
 
  • Gefällt mir
Reaktionen: racer3 und Yesman9277
kramko schrieb:
@Discovery_1 @memory_stick

(Digitale-)Schaltungssythese profitiert sehr stark vom großen Cache. Wichtiger als die Bandbreite ist hierbei die sehr kurzen Latenz vom Cache gegenüber DRAM (erst recht gegenüber HBM). Alle Firmen die integrierte Schaltungen Entwerfen und Zeit sparen wollen haben nur die Epyc-X Produkte zur Auswahl. Auch bei der RTL Verifikation beschleunigt der Cache sehr. EDA wird halt (wieder) einer der Hauptkunden sein.

Als Beispielkunde für Microsofts Cloud Instanzen mit Genoa-X wurde STM genannt die dort EDA tools nutzen.
Lass uns bitte nicht dumm sterben, aber was bitte ist (Digitale)Schaltungssy(n?)these - Und was ist EDA
 
Gufur schrieb:
Nö, im Artikel ist die Rede von GB und nicht GiB, passt also alles ;)
Würde ich grundsätzlich ja zustimmen, aber Computerbase unterscheidet ansonsten auch nicht zwischen 2er und 10er Potenzen in Artikeln. RAM, VRAM etc. wird stets in "GB" angegeben.
 
Novasun schrieb:
Lass uns bitte nicht dumm sterben, aber was bitte ist (Digitale)Schaltungssy(n?)these - Und was ist EDA
Electronic Design Automation: der Entwurf von (digitalen) Schaltungen mittels Software, die die Transistoren semi-automatisch anhand einer Schaltungsbeschreibung platziert und verbindet. Du schreibst in einer Textdatei, was die Schaltung tun soll; Eingänge, Ausgänge und logische Verbindung dazwischen, und die Software klöppelt dir das Schaltungslayout für die Fotomaske hin (stark vereinfacht gesprochen).

(Ich hoffe, ich hab’s noch richtig zusammen bekommen, hatte zuletzt vor 8 Jahren mit der Branche zu tun)
 
  • Gefällt mir
Reaktionen: Starkstrom und Novasun
@Volker

An der Wall Street werden jedoch Partner vor allem für die MI300-Ankündigungen vermisst, während auch bei den CPU-Vorstellungen die Partner die gleichen sind wie bisher, weshalb AMDs Aktie im Nachgang der Präsentation 3,6 Prozent nachgab, Nvidias hingegen um 3,9 Prozent stieg. Es wird definitiv ein „uphill battle“, mit der größten Baustelle der Software.

Software muß man für zwei getrennte Kunden unterschiedlich sehen: Große Firmen wie Meta, Microsoft und Google brauchen keine Software von AMD außer Lauffähige runtimes wie pytorch und tensorflow. Kleinere Kunden mögen Nvidias libraries, aber dort macht auch Nvidia nur einen Bruchteil seines Geldes.

Vorsicht: Hier sind viele junge Erwachsene unterwegs die an der Börse wie Glücksspiel handeln. Wenn hier schon von der Börse und Analysten berichtet wird sollte das auch vollständig und professionell gemacht werden:

1. Nvidia ist gestern vor allem gestiegen weil Oracle vorgestern Abend Quartalszahlen veröffentlicht hat und ne Menge Geld mit Nvidia beschleunigten Servern in ihrer Cloud gemacht haben und machen werden. Hatt recht wenig mit AMD zu tun und bei Eröffnung der Börse Gestern waren beide stark gestiegen (In meinem Portfolio habe ich fast alle großen Hallbleiterfirmen, deshalb live beobachtet)
2. AMD Aktie ist ein sogenannter crowded long mit sehr wenig short interest. Das Handelsvolumen war in den vorigen Tagen und am Dienstag noch vor dem Event sehr hoch, d.h. sehr viel Spekulation am Werk. AMD hatte an den drei vorherien Handelstagen schon 8% dazugewonnen.
3. Was Analysten angeht: Es gab vom 08.06. bis zum 12.06. in Erwartung dieses Events schon vier price target Erhöhungen von Wedbush, UBS, Keybanc und CFRA, teils um 60%. Das hat schon viel für die Börse vorausgenommen. Aber offensichtlich hast du nicht mal geschaut was Analysten machen denn nach dem Event haben bis jetzt fünf weitere Analysten die PTs erhöht: Stifel, DB, Barclays , Wells Fargo und Jeffries, wieder teils über 50%. Der vorbörsliche Kurs ist auch schon deutlich hoch.

Also an alle "junge Erwachsene" die an der Börse Glückspiel betreiben wollen: Immer vorsichtig sein und informiert euch möglichst vollständig und holt euch nicht nur Börsennews und Analysen von tech-webseiten.
Vor dem Livestreams gestern auf Youtube war der chat noch aktiviert und ich war schockiert wie tausende junge Dummköpfe über Optionshandel geredet haben. Die riskieren einen unbegrenten Verlust mit uncovered calls.
 
  • Gefällt mir
Reaktionen: JohnVescoya, sioh und amdfanuwe
Donnerkind schrieb:
Electronic Design Automation: der Entwurf von (digitalen) Schaltungen mittels Software, die die Transistoren semi-automatisch anhand einer Schaltungsbeschreibung platziert und verbindet. Du schreibst in einer Textdatei, was die Schaltung tun soll; Eingänge, Ausgänge und logische Verbindung dazwischen, und die Software klöppelt dir das Schaltungslayout für die Fotomaske hin (stark vereinfacht gesprochen).

(Ich hoffe, ich hab’s noch richtig zusammen bekommen, hatte zuletzt vor 8 Jahren mit der Branche zu tun)
Sprich AMD kann jetzt schneller noch komplizierter CPU`s basteln...
also auch auf Platine mit Leiterbahnenlayout über x Layer hinweg?
 
Termy schrieb:
Jetzt sind wir schon so weit, dass es CPUs mit mehr Cache gibt als meine erste Festplatte Platz hatte...einfach krank :D

AMD bzw zen/epyc beweisen aber schon knallhart, wie wichtig das Packaging sein kann - sei es 3D-Cache oder das Chiplet-Design.

Eigentlich würde ich so langsam fast befürchten, dass AMD Intel hier zu sehr abhängt und wir in ein anderes Monopol abrutschen, aber 'zum Glück' ist der Servermarkt ja so träge, dass das noch eine Weile dauern dürfte. Und es schadet sicher auf lange Sicht nicht, wenn AMD etwas Kriegskasse aufbauen kann.
Ein AMD Monopol ist das beste was uns passieren kann. Dann gehen die Preise endlich runter. Dann wird es eine Radeon 7900 für unter 600€ geben.
 
Zurück
Oben