Notiz Intel Sapphire Rapids: Next-Gen-Xeon-CPU auch mit HBM auf dem Package

Ich erwarte für Genoa nicht weniger. Ob Saphire Rapids oder Genoa das Rennen machen werden steht noch in den Sternen.

Ich Zweifel weiterhin an den 10nm Yields >4 Kerne. Vielleicht kann man ja mit Tigerlake H mich eines besseren belehren.

Guten Rutsch euch allen!
 
Strahltriebwerk schrieb:
Kenne mich mit diesen Speichern zwar nicht aus, aber mich deucht, dass AMD mit HBM auf der Fury keinen allzu großen Erfolg verbuchen konnte.
HBM hat auf der Fury gezeigt, wie sehr der Flaschenhals CPU <-> Speicher die Architektur limitiert. Problematisch war (und ist), dass einerseits nur 4GB verbaut wurden. Das limitierte, da damals schon Spiele 6GB und mehr (ver-)brauchten, mehr als 4x8GBit-Stapel aber nur zu Mondpreisen realisierbar waren.

Es kommt gegen die Fury zusammen, dass man mit dem HBM-Produkt Neuland betrat und die Software mit DirectX11 dermaßen verkorkst war, dass man "Mantle" entwickeln musste, um zu zeigen, was die GPUs wirklich können. (Und da waren sie dann auch konkurrenzfähig.) - Und eine Architektur, die zwar ausreichend, aber eben nicht umwerfend war.

Letztlich war die Idee der Fury gut. Kurze Karte, rund 15W weniger Verbrauch durch den Wechsel GDDR -> HBM, hohe Bandbreite. Selbst die "Radeon VII" hat nochmal gezeigt, dass "Bandbreite pur" helfen kann. Aber bei einer unterlegenen GPU-Architektur - wie man bei Vergleichen mit RDNA2 sieht - hilft halt am Ende weder Takt noch Bandbreite...

Regards, Bigfoot29
 
  • Gefällt mir
Reaktionen: Strahltriebwerk, v_ossi und konkretor
RDNA3 + HBM ? -> Werde der Erste sein.

Es ist nicht so, dass Ich HBM abfeier Ohne Ende. Wenn in 4 Monaten Panasonic oder Fujitsu oder wer auch immer (NV, Intel, IBM) kommt und sagt "wir haben eine noch Effizientere Lösung als HBM in Konkurrenz zu GDDR" sage ich Her damit.

Immer her mit Verbesserungen!.
Es wird irgendwann sicher etwas kommen.

Aber bis dahin würde ich jederzeit 150€ mehr Bezahlen für als Beispiel "GPU 9000" mit 16GB HBM∆ vs "GPU 9000" mit 16GB GDDRnX

Frohes neues @All.
Auf 2021! :)
 
  • Gefällt mir
Reaktionen: Strahltriebwerk, Bigfoot29 und Floppes
Strahltriebwerk schrieb:
Welche Vorteile hat man als Gamer oder Anwender denn, wenn HBM anstelle von GDDR in der GPU sitzt?
Allgemein kann damit mehr Bandbreite realisiert werden. Für den Consumer Markt aber momentan noch nicht so relevant.

Der Stromverbrauch ist ein recht großes Thema.
Ein breites GDDR6(x) Interface, der Controller und die deutlich höhere Anzahl an Speichermodulen, verbrauchen alle viel Strom.
AMD hat ja diese Gen schon da mit dem Infinity Cache ansetzen müssen.

Dazu spart HBM Fläche auf dem DIE, da Controller und Interface kompakter sind.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Ob es weniger Fläche verbraucht, weiß ich nicht. In jedem Fall sagte AMD damals, dass man so (durch HBM) den Energieverbrauch von Speicherinterface + RAM deutlich drücken konnte.

Regards, Bigfoot29
 
Am Ende ist es, wie immer so, das nur die Anwendungen profitieren, die aktuell nicht an anderer Stelle ausgebremst werden. Ob der Vorteil bei 8x DDR4-4800 so groß ist - und vor allem bei welchen Last-/Anwendungsfällen - wird sich zeigen.
3... 400 Watt sind allerdings keine TDPs die man in seinem Rack Lüftkühlen will.

Die sollen mal lieber erst mal Ice Lake in ausreichenden Mengen in den Markt bringen... DDR5, HBM und PCIe 5 sind für mich auf absehbare Zeit irrelevant (und speziell HBM vermutlich preislich unattraktiv).

Der Infinitiy Cache auf den aktuellen Radeon Karten zeigt übrigens beeindruckend, wie wenig Cache am Ende nötig ist um viel zu bewegen. Mit jedem weiteren Megabyte verringert sich der Effekt.
Da die größten EPYC bereits bis zu 300 MB Cache (in Summe) mitbringen... abwarten.
 
Hayda Ministral schrieb:
HBM spart Fläche auf dem Die? Trotz der enormen Zahl von Datenleitungen?
Jup, da die einzelne Datenleitung bei HBM mit deutlich weniger drumherum im Interface auskommt.
Dazu dann noch der kleinere Controller.

SKHynix hat damals dahingehend sogar extrem viel versprochen.
http://www.3dcenter.org/news/was-man-mit-high-bandwith-memory-hbm-anfangen-kann

In der Praxis schien es dann wohl nicht ganz so beeindruckend zu sein.

"AMD gab PCGH gegenüber ferner an, dass selbst die Chipfläche des 4.096-Bit-Interfaces etwas kleiner ausfalle als bei Hawaiis 512-Bit-Controllern."

https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-X-Test-1162693/

Von Wccftech gab es mal eine DIE comparison zwischen Fiji und Tonga.
https://wccftech.com/amd-fiji-die/

Ein 1024bit HBM(1) Interface ist da leicht größer, als ein 64bit GDDR5 Interface.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Bigfoot29 und Hayda Ministral
Wie sieht's denn bei HBM mit den Latenzen aus? Eher wie gutes "reguläres" RAM, oder eher wie VRAM?
Denn, wenn ich's noch richtig weiß, ist die deutlich größere Latenz von VRAM doch der Hauptgrund warum sich GDDR bei CPUs meistens nicht so auszahlt; ja Durchsatz ist super, viel höher als bei "normalem" RAM, aber die CPU wartet da im Durchschnitt deutlich länger bis das GDDR RAM anfängt zu liefern; bei GPUs ist eher der große Durchsatz wichtig, die Latenzen nicht so sehr.
Wenn HBM/HBM2 hier das Beste beider Welten bietet, macht die Verwendung v.a. in HPC Anwendungen doch sehr viel Sinn.
 
Knuddelbearli schrieb:
... für den Heimuser aber wohl komplett Irrelevant.

Ja, noch, aber es koennte ein Vorbote fuer die Zukunft sein und wie schnell das/HBM (es gibt ja mittlerweile nicht mehr nur teuren HBM-Speicher) vom Server-Bereich in den HEDT- und Mainstream-Bereich durchsickern koennte, muss man natuerlich abwarten, aber damit waere auf jeden Fall ein Anfang gemacht und wenn die Architektur dementsprechend daraus Nutzen zieht (sonst haette es Intel vermutlich nicht gemacht) ;).

Ein wenig wuerde Intel damit AMD/RTG als Mitentwickler von HBM damit sprichwoertlich die Butter vom Brot nehmen, wenn sie das als erste so auf den Markt bringen, aber wieso AMD das bisher noch nicht in Angriff genommen hat, ist fuer mich irgendwie auch ein Raetsel.

Da waere man (aehnlich wie bei Lakefield und Alder Lake) wohl bei Intel wieder ganz vorne was Innovationen angeht, entgegen dem von einigen (hier auf CB) geunkten Untergang von Intel und der X86-Plattform und im Grafikkartenbereich scheint sich ja auch - eben durch Raja Koduri auch als eingekauften, urspruenglichen Ideengeber - ab zu zeichnen, dass Intel dort als erste mit Xe MCM-Desgin Grafikkarten auf den Markt kommen koennten, vermutlich gefolgt von AMD/RTG (fuer den RDNA3 Nachfolger) mit frisch aufgespuertem Patent mit High Bandwith Crosslinks ("High Bandwith" und "Infinity" scheinen wohl gerne genutze Bezeichnungen bzw. schwer in Mode bei AMD zu sein) dazu

1609616407403.png


und gefolgt von nVidia mit (kursierenden Geruechten nach einem "Super" Ampere Refresh und einer dazwischen geschobenen als Lovelace benannten GPU-Generation) Hopper GPUs.

For that purpose alone, NVIDIA could end up featuring 16 GB of GDDR6(X) memory on both, the RTX 3080 SUPER (GDDR6X) & the GeForce 3070 SUPER (GDDR6). As for core configurations, they might also change with the GeForce RTX 3070 SUPER expected to utilize the GA103S GPU while the GeForce RTX 3080 SUPER would retain its GA102 GPU.

However, one critical thing to consider here would be the prices. Whether NVIDIA offers a price cut on existing variants and ends their production to make room for the new cards which is similar to what they did in the last generation or keep the existing cards and offer the SUPER variants with a slight premium, that remains to be seen. Lastly, don't expect the SUPER cards anytime soon as the green team has yet to be done with the original lineup. We can probably expect an announcement around Computex or during Summer which was also the case with the GeForce RTX 20 SUPER line.

Kopite, the leaker that is responsible for the vast majority of Ampere related leaks has also stated that Lovelace will be based on 5nm process. Furthermore, he has also stated that Hopper and NVIDIA's MCM based GPU has been delayed for now. This is a major bummer for tech enthusiasts, because an MCM GPU is required to truly push the boundary of performance.
 
Zuletzt bearbeitet:
@Volker

Im Artikel ist ein Fehler. Die Knights Serie hatte immer! HMC nicht HBM als onpackage Speicher. Der Unterschied zwischen den beiden Interfaces könnte nicht größer sein....
Ergänzung ()

Hayda Ministral schrieb:
HBM spart Fläche auf dem Die? Trotz der enormen Zahl von Datenleitungen?
Ja das Interface ist viel kleiner, weil man nich so starke also große Treiber braucht da. 1. Niedrigere Frequenzen und 2. Weniger load da keine langen Leitungen dran hängen.
 
Zuletzt bearbeitet:
eastcoast_pete schrieb:
Wenn HBM/HBM2 hier das Beste beider Welten bietet, macht die Verwendung v.a. in HPC Anwendungen doch sehr viel Sinn.
vor einiger Zeit habe ich mich mal eingelesen für einen anderen thread, habe nix genaues gefunden aber am Ende war die Tendenz das Latenz und Durchsatz, besser sind als DDR4 und GDDR5.
 
Sind sie auch. Das Problem ist, dass HBM vergleichsweise teuer ist, da die Fertigungsmenge gering ist/es wenig Konkurrenz gibt. Nimmt man den Preis aus der Gleichung, gibt es aktuell nix besseres als HBM (oder gleich SRAM auf dem GPU-Chip).

Aber gut, ließe man überall den Preis aus der Gleichung, dürfte z.B. für die meisten Käufer eine Grafikkarte unterhalb 1000 Euro kaum interessant sein. :D

Regards, Bigfoot29
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Ne die Latenz von HBM ist eher schlechter als von DDR. Der Durchsatz (Bandbreite) aber natürlich besser.
 
  • Gefällt mir
Reaktionen: Hayda Ministral und Bigfoot29
Ich sehe den Vorteil von HBM da eher gering und nur für ganz spezielle Anwendungen. Immerhin kommt dann auch der Sprung auf 8x DDR5, was die Speicherbandbreite deutlich erhöht und wie üblich: Je mehr vorhanden ist, desto weniger bleibt, dass von noch mehr profitiert.

Interessant wird es beim EPYC, was 8x 3200 zu 8x 4800 (ich gehe mal vom untersten Wert aus) bei 64 Kernen bringt.

Theoretisch könnte man durch HBM vielleicht Kanäle wieder einsparen, was man aber nicht will, da damit auch der maximal mögliche Kapazitätsausbau begrenzter wäre.
 
Zurück
Oben