News Ryzen 9 9950X3D2: Satte 192 MB L3-Cache und 200 Watt für den AM5-Sockel

Deinorius schrieb:
Ich muss zugeben, dass ich Server-CPUs nicht so genau verfolge, aber 3D V-Cache in Epyc wäre mir neu.
Vor ziemlich genau vier Jahren vorgestellt: https://www.computerbase.de/news/pr...t-768-mb-l3-cache-fuer-16-bis-64-kerne.78544/

Und zwei Jahre später mit Zen 4 aktualisiert: https://www.computerbase.de/news/pr...i-cpus-mit-bis-zu-1-152-gbyte-l3-cache.84566/

Der anscheinend größte Kunde dafür (Microsoft Azure) ist aber letztes Jahr vom normalen Epyc auf diesen auf Basis der MI300 gewechselt: https://www.computerbase.de/news/wi...ozessor-mit-128-gb-hbm3-fuer-microsoft.90357/

Es ist gut möglich, dass zumindest Zen 5 mit 3D-Cache dieses Monster auf Zen 4 Basis nicht schlagen kann, in den dafür relevanten Anwendungen.
 
  • Gefällt mir
Reaktionen: Deinorius
RealMax123 schrieb:
Denn nachdem AMD verkündet hat das wahrscheinlich keine Prozessoren mit zwei 3D Caches kommen
Ich verstehe deine Kommentare überhaupt nicht.
Wahrscheinlich ist kein Fakt. Ich kenne kein wahrscheinlich zu Zen 5
RealMax123 schrieb:
wäre ich jetzt schon ziemlich sauer, wenn ihn dann AMD dann nach ein paar Monaten schon wieder vom Thron stösst.
Wenn man Dinge vermenschlicht, sollte man seine Emotionen hinterfragen.
Seit Nov. 2024 gibt es den 9800X3D. Das sind keine paar Monate mehr. Und 7 Monate 9950X3D sind auch keine paar Monate mehr, sondern über ein halbes Jahr. Paar Monate, paar klein geschrieben sind zwischen 3-4 Monate. Zudem wissen wir noch nicht, wann und ob diese Teile kommen werden.
Dieses zusammen phantasieren, man wäre sauer, so wie du es wohl sein wirst, hätte nicht die Verkaufszahlen eines 7800X3D und 9800X3D nach einem 5800X3D generiert. Und ein +400Mhz im Turbo auf einem Kern, wird vielleicht +5% im Durchschnitt bringen.
Ich kann dein Empfinden keinen cm nachvollziehen.
Auch nicht deine Ideen, wie die Konfiguration der Kerne mit Zen 6 im Desktop aussehen wird.
Ryzen 11 10980X3D: 4x Zen6 + 8x Zen6c incl. 3D Cache + 4x Zen6 + 8x Zen6c (24c)
Das Teil wäre in Games langsamer als ein 7800X3D.
 
t3chn0 schrieb:
Mich würde interessieren ob der 9850X3D auch wieder die +200Mhz Boost so easy mitmacht. Dann lägen wir bei 5.8Ghz. Der würde ordentlich abgehen. Bei BF6 merkt man den Unterschied zwischen 5.2 und 5.4Ghz auf jeden Fall. Im Schnitt sind es mit 5.4Ghz ca. 20-30FPS mehr laut Graph.
20-30FPS? Dann gehe ich davon aus, Du meinst von 750 auf 780FPS hoch, denn die 4% mehr Takt können ja unmöglich plötzlich 20% mehr FPS rauskitzeln ;-)
Ergänzung ()

LETNI77 schrieb:
Für alle unterhalb einer RTX 5070 Ti sind die 3D CPUs sinnlos.
Genau. Nette Verallgemeinerung. Insbesondere in Betracht von Framegen...
 
  • Gefällt mir
Reaktionen: scout1337
Retroscorp schrieb:
Der x3d2 wird auch nicht von der Menge ansich profitieren, sondern davon dass alle Cores nun diesen Cache haben. Davon profitieren dann u.a. Spiele die mehr als 8 Cores nutzen können.
Ich hab mich gefragt, wie das logisch aufgebaut sein wird. Kriegen beide Caches den gleichen Datensatz (2x64MB) oder werden die Daten zufällig verteilt (1x128MB)? Da im L3-Cache häufig genutzte Daten liegen, die aber zufällig aufgerufen werden, kann es eigentlich nur so sein, dass es 2x64MB mit gleichem Inhalt sind. Wenn es (logisch) 128MB sind, die zufällig befüllt werden, hat man das Problem wie vorher, weil dann u.U. benötigte Daten im L3 des falschen CCD liegen und die Kerne wieder den RAM ansprechen müssen. Es wäre also eher effizienter aber nicht unbedingt schneller.
 
AnkH schrieb:
20-30FPS? Dann gehe ich davon aus, Du meinst von 750 auf 780FPS hoch, denn die 4% mehr Takt können ja unmöglich plötzlich 20% mehr FPS rauskitzeln ;-)
Ergänzung ()


Genau. Nette Verallgemeinerung. Insbesondere in Betracht von Framegen...
Nee, wenn ich in 2560x1080 und 330Hz spiele, liefert die CPU mit 5.2Ghz ca. 240-250FPS. Mit 5.4Ghz sind es ca. 270-280FPS. Mit FrameGen x2 sind es durchgehend 320 FPS mit Reflex und Gsnyc.
 
LETNI77 schrieb:
Für die Top 3 GPUs sind 3D CPUs sicherlich gute Begleiter.

Für alle unterhalb einer RTX 5070 Ti sind die 3D CPUs sinnlos.
Immer die gleiche falsche Aussage, spiel mal Strategie, Aufbau, Simulation usw. Meine 4090 taktet in Anno 1800 im Lategame in 4k sogar runter weil die 9800x3d CPU bei 30fps herumgurkt... Gleich Cities Skylines, Stellaris, Star Citizen usw
 
  • Gefällt mir
Reaktionen: CadillacFan77
@TheInvisible Immer diese Falschaussagen, die einer Falschaussage bezichtigen. 😁


@AnkH dann halt etwas präziser. ☝️
 
Locutus2002 schrieb:
Heißt das nun, dass beide CCDs je 64 MiB Zusatz-Cache erhalten oder nach wie vor nur einer, dann aber gleich 2 gestapelte 64 MiB-Cache-Bausteine? Letzteres war ja auch in der Gerüchteküche zu lesen.
Vermutlich nur ein Kern. Das hebt sich AMD für die neue Generation auf.
 
Boimler schrieb:
Ich hab mich gefragt, wie das logisch aufgebaut sein wird. Kriegen beide Caches den gleichen Datensatz (2x64MB) oder werden die Daten zufällig verteilt (1x128MB)?

Jeder L3-Cache eines CCX haelt die Daten, auf die Kerne in diesem CCX zugegriffen haben, und die dann nicht rausgeflogen sind, weil a) der Platz fuer andere Daten benoetigt wurde oder b) ein Kern in einem anderen CCX seit dem letzten Zugriff in diesem CCX darauf geschrieben hat. Also im allgemeinen haben die L3-caches verschiedene Daten, es koennen aber schon gemeinsame Daten dabei sein (wenn Cores aus verschiedenen CCXen lesend darauf zugreifen, z.B. Programmcode einer gemeinsam verwendeten Bibliothek). Sonst wuerde das mit 96MB in einem CCX und 32MB im anderen auch gar nicht funktionieren.
 
LETNI77 schrieb:
@TheInvisible Immer diese Falschaussagen, die einer Falschaussage bezichtigen. 😁


@AnkH dann halt etwas präziser. ☝️
Da ist kein einziges Game von meinen aufgezählten Genres dabei. Ist auch immer das Problem bei CPU Tests,
 
  • Gefällt mir
Reaktionen: Botcruscher
t3chn0 schrieb:
Nee, wenn ich in 2560x1080 und 330Hz spiele, liefert die CPU mit 5.2Ghz ca. 240-250FPS. Mit 5.4Ghz sind es ca. 270-280FPS. Mit FrameGen x2 sind es durchgehend 320 FPS mit Reflex und Gsnyc.
Oke, kann ja eigentlich rein rechnerisch gar nicht sein, oder? Wie sollen 3.8% mehr Takt denn mind. 8% mehr FPS rausquetschen? Egal, manchmal sind die Dinge ja nicht linear, hast es ja nachgemessen. Ich lasse den +200MHz PBO Tweak trotzdem weiterhin weg ;-)
 
Das Namensschema mag mir irgendwie gar nicht gefallen. :-/
Das Problem ist, was hätte man sonst machen können?!
9960 etc. geht nicht, weil Bezeichnung gibt es schon beim Threadripper.
 
Pro_Bro schrieb:
Ja oc macht beim 9800x3D wirklich wenig Sinn, zumal die +200 ja schon garnicht effektiv umgesetzt werden, sieht man ja in HW Info - trotzdem der heftige Mehrverbrauch, hab das mal probiert und wieder zurück gestellt. Nur mit UV liegt man aber selbst bei CB Multicore immer unter 105 W TDP, das ist schon nice.

Ja, wenn Du den Prozessor so betreibst, dass der 9800X3D in's power limit laeuft (z.B. CB Multicore), wird der 9850X3D vermutlich keine Mehrleistung bringen. Bei Programmen, die aber nur einige Kerne voll auslasten und damit unterhalb des Power limits bleiben (z.B. viele Spiele), werden die 400MHz mehr sich dann in hoeherer Leistung und hoeherem Verbrauch niederschlagen.

Denke auch entweder der 9850x3D ist jetzt die Brechstange mit schlechter Effizienz

Besser wird die Effizienz sicher nicht, wenn der Takt noch weiter hinaufgeht. Wenn Du mehr Effizienz willst, dreh das Power Limit runter, und, falls es geht, undervolte.

oder man hat da bei der Fertigung tatsächlich nochmal was verbessert.

Die wird im Lauf der Zeit noch ein bisschen verbessert, aber Effizienzverbesserungen daraus kommen bei allen Prozessoren an, ausser wenn da jetzt Binning auf Effizienz gemacht wird.
 
Zuletzt bearbeitet:
Antimttr schrieb:
9960 etc. geht nicht, weil Bezeichnung gibt es schon beim Threadripper.
9951 bis 9959 wären noch frei...
 
TheInvisible schrieb:
Da ist kein einziges Game von meinen aufgezählten Genres dabei. Ist auch immer das Problem bei CPU Tests,
Muss auch nicht, deine Games würden auch mit „normalen“ CPU flüssig laufen.
 
LETNI77 schrieb:
Für alle unterhalb einer RTX 5070 Ti sind die 3D CPUs sinnlos.
Es gibt durchaus Spiele, bei denen die CPU wichtiger ist als die Grafikkarte. Spiele wie Anno 1800, X4: Foundation, Factorio und generell Spiele, bei denen im Hintegrund komplexe Systeme simuliert werden, profitieren auch auf Grafikkarten unterhalb einer RTX 5070 Ti von einem X3D-CPU. Denn diese Spiele sind bei entsprechend fortgeschrittenen Spielständen sehr CPU-lastig.

Für die simple Grafik von Factorio reicht im Prinzip eine iGPU und trotzdem merkt man bei der Performance der eigentlichen Simulation einen Unterschied zwischen einer "normalen" CPU und einer X3D-CPU.

Auch World of Warcraft wäre ein Spiel, das stark von den X3D profitiert. Mit meinem Ryzen 5700X und einer RTX 4070 Ti Super komme ich da irgendwo in der Landschaft auf ~120 FPS, aber sobald ich in die aktuellen Hauptstadt (Dornogal) gehe, sind nur noch ~60 FPS drin. Es werden auch nicht mehr FPS, wenn ich die Grafiksettings auf das Minimum runterdrehe, da schlicht die CPU limitiert. MIt einem X3D dürften es in der Situation 90+ FPS sein.

Und abseits der Durchschnitt-FPS verbessert ein X3D auch die 1%-Lows, sorgt also für weniger starke FPS-Schwankungen nach unten.
 
  • Gefällt mir
Reaktionen: CadillacFan77
Zuletzt bearbeitet:
@Araska Top 3 in der jeweiligen Generation.

Aber +/- 3 - wir sind doch nicht päpstlicher als der Papst. 😁
 
@mae Danke für die Info, das fehlte mir irgendwie. Klingt aber trotzdem nicht besonders effizient im Vergleich zu kommenden Generationen, wo alles auf einem CCD liegen soll. Für Spiele, die viele Kerne auslasten, bringt es dann aber wohl doch Vorteile.
 
Zurück
Oben