News High Bandwidth Memory (HBM): Samsung bemustert HBM3E in Kürze, bis 2025 kommt HBM4

SaschaHa schrieb:
Neue Technologien wie Ray Tracing, DLSS, KI-Einheiten (Tensor-Cores) und all sowas wird mit Sicherheit stärker in den Fokus rücken, und weitere Technologien werden folgen.
Was ist deine Meinung zu Moores Law?
  1. Ist es nach wie vor uneingeschränkt in Kraft, d.h. die Transistorfunktionen werden im selben Maß billiger wie vor 10, 15 Jahren.
  2. wird es langsamer, d. h. die Transistorfunktionen werden nicht mehr im selben Masse billiger wie noch vor 10, 15 Jahren
  3. es ist Tod, die Transistorfunktionen werden nicht mehr billiger.
Und jetzt kommt die eigentliche Frage, was sind Dir die neuen Technologien wert? Wie viel wirst Du für eine Grafikkarte maximal ausgeben? Wenn man Jensen Huang (Antwort 3) glaubt, gibt es weitere Leistungssteigerungen nur gegen höhere Kosten.

Was man für eine Grafikkarte benötigt, hängt davon ab, welche Art von Games man spielt. Ich habe keine hohen Ansprüche an die Grafik und das was ich spiele läuft locker mit einer RX5500XT auf 3440x1440.

Noch eine Anmerkung zu KI-Einheiten. Es gibt viele Algorithmen die bei der KI eingesetzt werden. Viele profitieren von Tensor bzw. Matrixkernen. Aber eben nicht alle.

AFAIK lastest DLSS die vorhandenen Tensor-Cores nicht aus. Deshalb würden mehr KI-Funktionen in den Spielen erst einmal brachliegende Recheneinheiten auslasten.

andi_sco schrieb:
Da wäre es mal interessant zu wissen, was effektiver ist: ein großer Cache oder z.B. HBM mit 2 - 3 TB/s
Die Frage ist ohne Anwendungsfall nicht zu beantworten.

Wenn dein Anwendungsfall eine hohe Hitrate im Cache hat, kommt die höhere Bandbreite und bessere Effizienz von HBM im Vergleich zu GDDR nur bedingt zu Tragen.

Wenn dein Anwendungsfall eine niedrige Hitrate im Cache hat, dann macht sich die geringere Bandbreite und schlechtere Effizienz von GDDR bemerkbar.

Die Folien die AMD bei der Vorstellung des Inifintity Caches gezeigt hat, zeigen bei Games eine hohe Cache Hitrate. Seither hat AMD die Nutzung des Infinity Caches optimiert. Ich habe keinen Benchmark gesehen, der zeigt, dass Navi 21 oder großen Navi 31 bei 4K in Probleme laufen, weil die Hitrate einbricht.

AMD gibt die Bandbreite zum Inifinty Cache für den Vollausbau der Navi 31 mit 5,3 TB/s an und sagt Navi 31 käme auf 3,5 TB/s effektiv (D. h. bei der durchschnittlichen Cache Hitrate von Games)

Für den Anwendungsfall Games, ist die Frage seit RDNA 2 beantwortet, mehr Cache ist effektiver.
Deshalb kann ich das ständige Fragen nach HBM bei Gaming Grafikkarten nicht nachvollziehen.

Für 2 bis 3 TB/s musst Du momentan 3 HBM3-Stacks verbauen. Ein HBM3-Stack hat eine geringere Bandbreite als die RTX4090. Erst ein HBM3E-Stack wird ein schneller als die RTX4090 sein. Was die Hersteller tatsächlich erreichen bleibt abzuwarten.
 
ETI1120 schrieb:
es ist Tod, die Transistorfunktionen werden nicht mehr billiger
Billiger pro Transistor schon, aber das Gesamtkonstrukt ist ja mittlerweile in Sphären, die man sich nicht vorstellen kann.


ETI1120 schrieb:
Für 2 bis 3 TB/s musst Du momentan 3 HBM3-Stacks verbauen.
Vega und Fury hatten 4, und jetzt? Cache ist nun mal teuer und der lässt sich mittlerweile auch schlechter skalieren als der Rest der Chips. Das heißt, er könnte bei der nächsten Navi und GeForce Generation sogar noch an Platz zulegen, wenn man ihn vergrößert. AMD wird den ja nur aktuell verkleinern können, weil nicht mehr gebraucht wird. Aber was ist mit Navi 4x
 
ETI1120 schrieb:
Was ist deine Meinung zu Moores Law?
Aktuell eindeutig Punkt 2. Die Kosten für Siliziumwafer sind gestiegen, aber nicht in dem Maße wie die Transistoranzahl. Pro Transistor wird es immer noch günstiger, aber eben nicht mehr so schnell wie früher. Das wird noch einige Jahre so weitergehen und langsam abflachen. Natürlich nicht unendlich lange, da dann einfach das physikalische Maximum erreicht ist, aber bis dahin vergehen noch so einige Jahre.
ETI1120 schrieb:
Und jetzt kommt die eigentliche Frage, was sind Dir die neuen Technologien wert?
Die Grafikkartenpreise sind zwar explodiert, aber das nicht zuletzt aufgrund der hohen Nachfrage und TSMC's Quasi-Monopol und nicht nur aufgrund der gestiegenen Kosten. Insgesamt gibt es natürlich eine Tendenz nach oben, aber eben nicht so extrem, wie es den Anschein hat. Nvidia fährt Rekordgewinne ein, und das eben nicht nur durch Quantität, sondern auch aufgrund der abartigen Preispolitik.
ETI1120 schrieb:
Wenn man Jensen Huang (Antwort 3) glaubt, gibt es weitere Leistungssteigerungen nur gegen höhere Kosten.
Dass er sowas sagt, wundert mich kaum. Ist für ihn besser als zuzugeben, dass man seine Kunden bis auf die Knochen ausschlachtet. Die Preise pro Wafer (TSMC) sind ja übrigens bekannt, CB hatte darüber auch mal eine News gebracht. Falls ich nachher dazu komme, suche ich die News mal.

Edit: Ging jetzt doch schneller als gedacht, hier. In der Grafik ist gut zu sehen, dass die Kosten pro Wafer sich von 7 nm zu 3 nm verdoppelt hat. Das ist in etwa äquivalent zum Transistorzuwachs:
Damit hat Jensen zunächst einmal recht, aber: Darin steckt eben auch die aktuelle Monopolstellung von TSMC, die die Preise enorm angezogen haben, sowie die aktuell extrem hohe Inflation. Realistisch gesehen sollten die Preise für ältere Belichtungsverfahren in Zukunft langsam sinken bzw. neue Verfahren preislich nicht mehr so stark ansteigen wie bisher. Die oberen Enden sind aktuell extrem teuer, da es eben kaum Konkurrenz gibt. Samsungs 4 nm-Verfahren ist eher vergleichbar mit TSMC's 7 nm-Verfahren - wenn überhaupt. Auch Intel ist etwa ein bis zwei Jahre hinterher. Aktuell wird alles auf dem Rücken der Kunden ausgetragen, in Zukunft wird sich das aber wieder etwas normalisieren (müssen), zumindest gehe ich sehr stark davon aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai
andi_sco schrieb:
Vega und Fury hatten 4, und jetzt?
Vega hatte 2 und Fury hatte 4.

lt GPU DataBase TPU

Memory BandbreitePerformance
Fury512 GB/s31 %
Vega 64483,8 GB/s45 %
GTX1080320,3 GB/s46%
RX5700XT448 GB/s52 %
RTX2070 super448 GB/s59 %
RX6800XT512 GB/s100%

Was ich zeigen will ist zweierlei:
  1. Die Memorybandbreite von Fury und Vega ist, wenn man sie mit GDDR6 vergleicht eigentlich nichts besonderes mehr.
  2. Fury und Vega 64 haben von ihrer Bandbreite nicht profitiert.
Insgesamt denke ich dass die Performance stärker steigt als der Bedarf an Bandbreite. Aber damit habe ich mich im Detail nicht auseinander gesetzt.

Die RX6800XT profitiert natürlich auch vom Infinity Cache, weshalb die Memory Bandbreite nur die halbe Wahrheit ist.

andi_sco schrieb:
Cache ist nun mal teuer und der lässt sich mittlerweile auch schlechter skalieren als der Rest der Chips.
Dir ist schon klar dass wir beim Cache von MByte reden und beim DRAM von GByte.
Wo ist das Problem wenn ich den Cache in einem billigen Prozess herstellen kann und per Fanout einbinde?
Die IO skaliert übrigens schon länger nicht mehr. Deshalb hat AMD Memory PHY und Infinity Cache auf die MCD ausgelagert.

Und wenn ich es mir so recht anschaue skaliert DRAM auch nicht mehr so toll*). Und dabei ist nicht die Bandbreite das Problem, sondern dass die Maximalgröße der GDDR6-Chips 2 GB ist. Da ein GDDR Chip nun Mal ein Interface mit 32 bit hat, sind mit einem 128 bit mit der Standardbeschaltung 8GByte VRAM möglich. Mehr Speicher treibt die Kosten.

*) Hier ist AFAIK der Kondensator das Problem.

andi_sco schrieb:
AMD wird den ja nur aktuell verkleinern können, weil nicht mehr gebraucht wird. Aber was ist mit Navi 4x
Soll Navi 4 eine Grafikkarte für 8K werden?

Wenn nicht sehe ich keinen Grund warum der bisherige Cache plötzlich nicht reichen sollte. Falls neue Raytracing Funktionen mehr Cache erfordern ist ja noch Luft nach oben. Wenn für die Navi 21 128 MByte machbar waren werden sie auch Navi 4x machbar sein. Angeblich hat das MCD von Navi 3x die Möglichkeit über 3D V-Cache erweitert zu werden.
 
  • Gefällt mir
Reaktionen: Mcr-King und Kitsune-Senpai
Beachte CP2077 und Pathtracing. Nvidia wird das Thema weiter voranbringen wollen. Da ist noch viel Luft nach oben.
 
  • Gefällt mir
Reaktionen: Mcr-King
Auf was ich raus wollte:
Wenn die Kosten je Transistor nicht mehr im selben Maß sinken wie früher, gibt es zwei Optionen:
  1. Sich an den langsamer sinkenden Kosten orientieren, dann geht es eben langsamer voran.
  2. Das Tempo des des Transistorverbrauchs beibehalten, dann steigen eben die Preise
IMO passt in kein Szenario ein deutlich teurer Speicher.

SaschaHa schrieb:
Die Preise pro Wafer (TSMC) sind ja übrigens bekannt, CB hatte darüber auch mal eine News gebracht.
Alles was zu den Waferpreise zirkuliert sind Schätzungen und Annahmen.

Waferpreise sind geheim und von Kunde zu Kunde unterschiedlich. Das einzige was man findet sind Relative Angaben und Trends. Absolute Preise aus erster Hand gibt es nicht.

SaschaHa schrieb:
Edit: Ging jetzt doch schneller als gedacht, hier. In der Grafik ist gut zu sehen, dass die Kosten pro Wafer sich von 7 nm zu 3 nm verdoppelt hat.
Die Zahlen sind von Digitimes. IMO haben sie den Trend aus Veröffentlichungen und haben die Zahlen in USD dazu gewürfelt.

SaschaHa schrieb:
Das ist in etwa äquivalent zum Transistorzuwachs:
Die Zahlen passen nicht zusammen. Die Werte für N3 sind viel zu niedrig.

Die 96,5 MTr/mm² gelten für die N7FF HD Lib. Der Wert stammt von Scotten Jones und ist so wie ich es verstehe ein berechneter Wert. Im selben Artikel gibt er für die N5 HD Lib 173,1 MTr/mm² an. In einem späteren Artikel gibt er andere Werte an: 101,85 für N7FF und 185.46 für N5. Hier hat Scotten Jones für N3 einen Wert von 314,73 MTr/mm² angegeben. Neulich nannte er knapp unter 300 MTr/mm².

Diese Theoretischen Werte werden allerdings für einen gesamten Chip nicht erreicht. Es werden neben den HD Libs auch HP Libs verwendet und es kann sein, dass die Designer die maximale Dichte der Lib gar nicht ausschöpfen. Außerdem hat die IO hat eine deutlich niedrigere Transistor-Dichte.

Navi 21 kommt lt. TPU auf 51,5 MTr/mm² und das GCD von Navi 31 auf 150,2 MTr/mm². Der Anstieg ist so drastisch, weil das GCD von Navi 31 deutlich weniger IO on Die hat.


Dass die steigende Waferkosten die Skalierung der Logik auffressen ist zu pessimistisch.
Richtig gut fasst es eine Folie von Sam Naffziger (AMD) zusammen:

1697308407882.png

Die steigenden kosten sind je mm², aber man bekommt bei Logik auch mehr Transistoren je mm².
Das Diagramm unten rechts prognostiziert das Ergebnis wenn man auf Chiplets verzichtet.

Die Lösung des Dilemmas ist eben, Funktionen die gut skalieren von Funktionen die nicht skalieren zu trennen und die teuren Prozesse hauptsächlich für Logik zu verwenden.

SaschaHa schrieb:
Damit hat Jensen zunächst einmal recht, aber:

Ich gebe Dir recht dass Nvidia die Preise nicht nur wegen der Kosten angezogen hat. Das sieht man an den USD Preisen von 4090 und 4080 ganz eindeutig.

Auf der anderen Seite hilft es aber auch nicht weiter ständig die Preise und Performance-Steigerungen der Vergangenheit zu bemühen, es haben sich eben ein paar Dinge geändert.

Die Grafikkarten-Preise sind in den letzten Jahren allerdings auch gestiegen, weil es die Käufer akzeptiert haben. Es gab hier einige im Forum die laut und heftig die Preispolitik von Nvidia verteidigt haben. Ich habe eben Mal kurz in den Preisvergleich geschaut. Was ich sehe, interpretiere ich so, die Luft über 1000 € ist auch für Nvidia sehr dünn. Allerdings scheinen sich die Preise bei RTX4070TI und kleiner gut zu halten.
SaschaHa schrieb:
Darin steckt eben auch die aktuelle Monopolstellung von TSMC, die die Preise enorm angezogen haben, sowie die aktuell extrem hohe Inflation.

Welche Änderungen hat Nvidia gemacht, die den Frequenzuwachs und die Effizienzsteigerung erklären? Hier liegt wohl ein gewaltiges Verdienst bei TSMC.

TSMC hat eine sehr gute Brutto Marge. Aber Nvidia hat eine noch viel bessere Brutto Marge und die beinhaltet alles was Nvidia an TSMC bezahlt. Angesichts dieser Brutto Marge können die Waferpreise von TSMC nicht das Problem sein. Auch wenn ein ein paar Leute ständig TSMC an den Pranger stellen wollen. Auch AMD hat eine sehr gute Brutto Marge, wenn auch bei weitem keine so gute wie Nvidia.

Warum lässt wohl Intel so gut wie alle Chiplets von Meteor Lake bei TSMC fertigen? Auch in N6? Die Wafer die Intel bei TSMC kauft sind inklusive TSMC-Marge billiger als sie Intel herstellen könnte. Diese Bild ergibt sich auch durch einen Vergleich der Margen von Intel und AMD. Pat Gelsinger hat es mit seinen Aussagen zu 18A indirekt bestätigt.
 
  • Gefällt mir
Reaktionen: SaschaHa
Grundgütiger schrieb:
Pfff, neeee

48gb HBM
16C Zen 4/5
96CU GPU

500Watt für 2000€!

Ich brauche diese Sockel blablabla Geschichte nicht. Mit einer neuen CPU kommt auch meist Board/RAM neu dazu.

64gb HBM (2x32GB, 8Gb/s, 2TB/s, 2048 Bit)
16c/32T Zen5c (32+64MB Cache, 4.0 GHz)
96CU RDNA3.5 ( 12288 Shader/384 TMUs/256 ROPs/256 RT, 2.8 GHz )

Anschlüsse intern:
3x M.2 5.0 x4
1x M.2 WiFi
Anschlüsse extern:
4 USB-A 3.0 10Gbit
4 USB-C 3.0 10Gbit
3 USB-C 4.0 40Gbit mit DP 2.1
1 HDMI 2.1

6+5nm 5 Chiplets 350W TBP
 
  • Gefällt mir
Reaktionen: Grundgütiger
duskstalker schrieb:
AMD hat bei fury und vega HBM auch irgendwie preislich unterbekommen.
Und dann wieder eingestampft weil es unfair Gegenüber Nvidia wäre?
Oder vielleicht doch, weil es einfach zu teuer ist?
Ergänzung ()

andi_sco schrieb:
Vega und Fury hatten 4, und jetzt?
Wenn es so toll und günstig war, warum hat AMD das dann nicht fortgeführt?
andi_sco schrieb:
Cache ist nun mal teuer und der lässt sich mittlerweile auch schlechter skalieren als der Rest der Chips. Das heißt, er könnte bei der nächsten Navi und GeForce Generation sogar noch an Platz zulegen, wenn man ihn vergrößert.
Man muss ihn ja nicht vergrößern. Gibt ja auch mit GDDR7 schnelleren Speicher.
In 2-3 Generation wird man dann bei Chiplets sein und der Cache kommt dann ins Base-Die oder neben dem GPU-Die oder irgendwo drauf. Aber muss eben nicht im neuesten Prozess gefertigt werden.
Es kann aber auch HBM etwas attraktiver werden, wenn eh ein Interposer eingesetzt wird.

Für die nahe Zukunft ist HBM zumindest Quatsch. Allein weil die Nachfrage am advanced Packaging gar nicht bedient werden kann.
 
Zuletzt bearbeitet:
bensen schrieb:
Wenn es so toll und günstig war, warum hat AMD das dann nicht fortgeführt?
Weil GDDR6 doch effizienter war, als gedacht?
Man ging ja auch von den breiten 512 Bit Speicherbusen weg, und erreichte trotzdem ansehnliche Transferraten.
Und ja, Kosten werden bei 512 Bit und auch HBM eine große Rolle gespielt haben.
Ich seh ja im Notebook, was eine extrem kastrierte RTX 3050 gegen Vega ausrichtet. Klar ist die HBM Karte schneller, aber zu welchen Preis?


bensen schrieb:
Es kann aber auch HBM etwas attraktiver werden
Leider sind die Geräte mit der Intel/AMD Hybrid Architektur immer noch so wahnsinnig teuer. Würde das gerne mal testen.
 
  • Gefällt mir
Reaktionen: Mcr-King
bensen schrieb:
Und dann wieder eingestampft weil es unfair Gegenüber Nvidia wäre?
Oder vielleicht doch, weil es einfach zu teuer ist?

was soll denn "zu teuer" bedeuten? Wir bekommen hier das absolut mindeste zum maximalen Preis serviert. Seit 2019 wird nur noch herumstagniert und in erster Linie der Preis angehoben.

würde es AMD und nvidia darum gehen wirklich geile Karten zu bauen, wäre jede Karte mit HBM. weils aber darum geht das letzte bisschen Marge rauszupressen, bekommen wir das billigste, das irgendwie funktioniert. Und das ist nunmal GDDR und nicht HBM.

ist doch überall so. AMD hat seit zen2 die kernzahlen nicht mehr erhöht. Aber nicht weil sie nicht können, sondern weil sie nicht wollen. Das selbe mit pcie lanes. Sie haben uns threadripper weggenommen, weil threadripper pro teurer an Firmen verkauft werden kann.

Es geht NUR ums liebe Geld.
 
  • Gefällt mir
Reaktionen: EntelodonX
das lag aber daran, dass die architekturen nicht gut genug waren. fury X hätte die 980ti schlagen müssen und vega 64 die 1080 ti. beides ist nicht passiert. amd musste die karten 1-2 klassen unter nvidia verkaufen, natürlich wird da die marge eng.

vega 64 vs 1080 ti.
glofo 14nm vs tsmc 16nm
495mm² vs 471mm²
$499 vs $699

vega 64 konnte damals aber nicht einmal die $599 mrsp 1080 mit nur 314mm² knacken - ein 104 chip in einer XX80er karte. das ist so als würde die 6900XT gegen die 3070ti verlieren.

die 4090 kostet heute $1600-2000 und keine $699. da ist genug marge drin.

eine nette anekdote ist aber, dass amd mit grenada & fiji marktanteile gewonnen und mit polaris & vega noch doppelt so viele marktanteile gehalten hat wie heute mit RDNA 2 und 3.

GPU-Add-in-Board-Market-Share-2002-to-Q2-2023.png


marge ist nett - ein kundenstamm aber auch.
 
  • Gefällt mir
Reaktionen: Mcr-King
duskstalker schrieb:
vega 64 konnte damals aber nicht einmal die $599 mrsp 1080 mit nur 314mm² knacken - ein 104 chip in einer XX80er karte. das ist so als würde die 6900XT gegen die 3070ti verlieren.
Und was hat HBM dazu beigetragen?

Ich habe es in diesem Thread schon einmal geschrieben, Vega war ein Schritt in Richtung CDNA. Vega war nie als reine Gaming-Architektur konzipiert. Das war IMO auch der Grund warum AMD HBM beibehalten hat.

Bei der Gaming-Architektur RDNA hat AMD hat die Shader so organisiert, dass sie von Games ausgelastet werden können. Und HBM rausgeschmissen, weil es für Games keinen Nutzen bringt.
duskstalker schrieb:
die 4090 kostet heute $1600-2000 und keine $699. da ist genug marge drin.
Was ist daran so schwer zu verstehen, dass die Karte mit HBM noch teurer würde?

duskstalker schrieb:
eine nette anekdote ist aber, dass amd mit grenada & fiji marktanteile gewonnen und mit polaris & vega noch doppelt so viele marktanteile gehalten hat wie heute mit RDNA 2 und 3.
Wer hat denn die Marktanteilszahlen gewürfelt?

Das Zwischenhoch auf das Du raus willst wurde vom 1. Cryptoboom verursacht. Mit dem Ende des Cryptobooms und dem Release der RTX2000 folgte der Absturz. IIRC war Polaris der Treiber dieses Zwischenhochs und nicht Vega.

Diese Marktanteilszahlen zeigen viel, aber keinen positiven Auswirkungen von HBM.

duskstalker schrieb:
marge ist nett - ein kundenstamm aber auch.
Marge ist für Unternehmen über lebenswichtig.

Einen Kundenstamm bekommt man, wenn man teuren Speicher verbaut, der keinen Einfluss auf die Performance hat?
 
ETI1120 schrieb:
Und was hat HBM dazu beigetragen?

Ich habe es in diesem Thread schon einmal geschrieben, Vega war ein Schritt in Richtung CDNA. Vega war nie als reine Gaming-Architektur konzipiert. Das war IMO auch der Grund warum AMD HBM beibehalten hat.

Bei der Gaming-Architektur RDNA hat AMD hat die Shader so organisiert, dass sie von Games ausgelastet werden können. Und HBM rausgeschmissen, weil es für Games keinen Nutzen bringt.

hbm braucht weniger platz, strom, kühlung, ermöglicht kleinere platinen und hat unmengen an bandbreite. unterm strich ist HBM einfach die bessere speichertechnologie. du diskutierst hier an einem punkt herum, der sich genau so anfühlt, wie damals die diskussion "singlecore vs dualcore - lieber einen schnellen als zwei langsame" - eine fehleinschätzung, die nur monate später böse bestraft wurde. dualcores waren auch "teurer und aufwendiger" als single cores. und nu?

wenn man jetzt anfängt alles so haarklein zu diskutieren, muss mans aber auch gründlich machen und nicht architektur, prozess, speicher und hardware bugs über einen kamm scheren.

seit dem ende der terascale architektur nach der 6000er serie nutzt amd GCN - GCN ist seit jeher eine GPGPU hybrid architektur und keine reine gaming architektur - das selbe gilt übrigens auch u.a. für nvidias lovelace - nvidia fährt seit einer weile auch wieder eine gpgpu hybrid strategie.

mit hawaii vs kepler hat das mit maximal 44CUs noch gut funktionert - GCN hat aber mit unoptimierten gaming workloads ein auslastungsproblem mit einer hohen CU anzahl. sehr gut sichtbar bei fiji, ebenfalls bei vega und der radeon 7 - kleinere GCN karten funktionieren noch gut, siehe polaris oder eben hawaii.
ein weiteres problem ist das verstopfen der GCN renderpipeline mit sub pixel tessellation:

amd tessellation.jpg


generell gilt: je mehr CUs der chip hat, desto schlechter die "auslastung" in nicht low level api spielen. GCN will mit einem taktzyklus so viel wie möglich synchron und parallel abarbeiten, aber das heißt auch, dass ohne entsprechende auslastung takzyklen teilweise leer laufen, was in bestimmten situationen extrem ineffizient sein kann. in gut optimierten low level api spielen kann auch GCN 5 (vega) aber auch sehr gut performen, siehe doom 2016 mit vulkan oder forza horizon mit dx12.
https://www.anandtech.com/show/11717/the-amd-radeon-rx-vega-64-and-56-review/10
https://www.techspot.com/review/1716-forza-horizon-4-gpu-benchmarks/

vega war nicht auf einmal "CDNA" - vega war GCN, genau wie polaris und hawaii vorher. GCN war der aufgabe einfach nicht mehr gewachsen - das lag aber nicht am "compute fokus" der architektur, sondern einfach daran wie GCN generell funktioniert und weil die meisten spieleentwickler nicht für GCN optimiert haben, sondern für nvidia oder garnicht. manche architekturen skalieren einfach schlecht in die eine oder andere richtung und mit 64 CUs war mit GCN im gaming ohne optimierungssonderbehandlung einfach ende - das hätte mit GCN 2 unter hawaii genau so schlecht oder noch schlechter funktioniert als mit GCN 5 bei vega.

hier ein taktbereinigter IPC test vega vs fiji - man stellt fest - hier performen vega und fiji quasi identisch, was dafür spricht, dass GCN5 vs GCN3 in gaming quasi identisch ist - d.h. eine annährung zu CDNA auf kosten der gaming performance hat es nicht gegeben. vega war im gaming genau so GCN wie hawaii, polaris oder fiji:
https://www.gamersnexus.net/guides/2977-vega-fe-vs-fury-x-at-same-clocks-ipc

außerdem gab es auch polarisbasierte pro gpus - ich erwähne das deshalb, weil polaris gerne als die vorzeige gcn gaming karte herausgekramt wird - stimmt ja auch, nur hat polaris nicht mehr oder weniger gpgpu anleihen wie vega oder fiji, ist einfach nur ein kleinerer chip mit weniger CUs, die viel näher am optimum liegen, was man mit GCN für gaming machen kann.
vega hatte aber nicht nur probleme mit der architektur und nicht funktionierenden oder nicht unterstützen oder nutzlosen hardware funktionen wie HBCC, rapid packed math und primitive shaders, sondern auch mit dem fertigungsprozess - 14nm Glofo, der für so high-power prozessoren einfach nicht gut war. bis fury waren alle radeons bei TSMC. mit polaris und vega gabs einen GloFo ausflug - das hat den GPUs auch geschadet - beim verbrauch und dem maximalen takt. man sieht ja hinterher an der radeon 7, wieviel hier alleine durch den wechsel von glofo auf tsmc möglich ist - genau das selbe übrigens auch bei nvidia mit dem wechsel von samsung (ampere) zurück auf tsmc (lovelace).

was hat jetzt HBM für vega getan? ersteinmal den massiven bandbreitenhunger von vega gestillt - in doom 2016 skaliert die performance 1:1 mit dem speichertakt - trotz HBM2. ein ähnliches GDDR5 speicherinterface mit der selben bandreite würde statt 15w grob 50-70w fressen, was direkt vom powerbudget des cores weggeht. grenada und hawaii (GCN 2) hatten jeweils ein 512bit speichersystem - der bandbreitenhunger kommt von GCN. das hat speziell mit vega nichts zu tun - für eine "schnellere" GCN gaming karte, musste einfach enorm viel speicherbandbreite her.
vega hatte eine veraltete architektur mit bugs und nicht funktionellen features, die zu groß ausgelegt wurde, gefertigt auf einem minderwertigen prozess.

ohne HBM wäre vega quasi nicht möglich gewesen, aber der speicher reißt hier halt keine bäume aus. der core hat einfach nicht die nötige leistung gebracht um die 1080ti zu schlagen und somit die karte in einem besseren preissegment platzieren zu können, wo HBM2 preislich auch besser hineinpasst.

ETI1120 schrieb:
Was ist daran so schwer zu verstehen, dass die Karte mit HBM noch teurer würde?

du gehst davon aus, dass der einzige faktor für den endkundenpreis die herstellungskosten sind, aber das ist falsch. der endkundenpreis ist das, was endkunden maximal bereit sind zu zahlen. was glaubst du was amd beim 5600X für 330€ für eine marge hatte? ein 7nm core chiplet kostet grob $15, ein 12nm IOD ca $12 - nimmst noch substrat, ihs, packaging, pins, verpackung dazu. unterm strich kommt da ne cpu raus, die amd in der produktion vielleicht grob $50 kostet. was glaubst du, wieso ein r5 1600AF für $90 MIT boxed kühler existieren kann - genau deshalb. das ist so ziemlich das unterste, was amd für einen 6kerner nehmen sollte - heißt aber auch, dass die differenz zwischen 1600AF und 5600X direkt in die portokasse von amd fließt. kann man sehen wie man will, aber mit 200€ wäre der 5600x auch noch gut bezahlt gewesen. der rest ist mehr oder weniger löcher in die taschen der kundschaft reißen.

genau wie es amd und nvidia bei den grafikkarten machen. was meinst du wo bei nvidia die extreme durchschnittsmarge von >65% herkommt? maximal billig einkaufen, maximal teuer verkaufen. die hersteller könnten bei den heutigen preisen im high end ganz locker HBM absorbieren. das würde sich nur auf die gewinnmarge auswirken, aber ein kostendruck zur preiserhöhung würde dadurch nur entstehen, wenn man keine einschnitte bei den rekordmargen akzeptieren würde. oder meinst du du bekommst mit einer 4080 für 1200€ ne angemessene hardware: 380mm² core, 16gb speicher, 256bit bus? das liest sich für mich wie midrange - ist auch nur der 103 core.

das ist alles strategie - weniger fortschritt + mehr preiserhöhung = mehr gewinn, weniger investitionskosten, weniger risiko.

bei den GPUs haben wir mit der neuen generation 0,0 verbesserung bei der preis/leistung bekommen und nur die zwei schnellsten gpus, die 4090 und 7900XTX, sind überhaupt schnell genug, um das "next gen" zu nennen. 90% vom restlichen produktstack ist genau die gleiche performance fürs selbe geld wie die letzte generation. wir (endkunden) werden nur gemolken.

und wenn man jetzt mal aufhören würde das zu rechtfertigen, oder noch schlimmer, zu beklatschen, könnten die preise auch mal wieder runtergehen und es würde mehr fortschritt geben.


ETI1120 schrieb:
Wer hat denn die Marktanteilszahlen gewürfelt?

Das Zwischenhoch auf das Du raus willst wurde vom 1. Cryptoboom verursacht. Mit dem Ende des Cryptobooms und dem Release der RTX2000 folgte der Absturz. IIRC war Polaris der Treiber dieses Zwischenhochs und nicht Vega.

Diese Marktanteilszahlen zeigen viel, aber keinen positiven Auswirkungen von HBM.

ich dachte das wäre klar - JPR daten in einer grafik zusammengefasst von guru3d. neben dem einen cryptoboom gibts noch einen zweiten, bei dem AMD nicht mehr gut wegkommt, und der marktanteile einbruch kommt mit jedem nvidia release - nur unterschiedlich stark. ganz so einfach ist das dann doch nicht. jedenfalls ist es so, dass nvidia seit rdna1 die marktanteile von amd halbiert hat - crypto oder nicht. hat weniger mit HBM zu tun, als mit der generellen strategie von amd. amd wollte einfach nicht rechtzeitig die preise senken - und jetzt, ein jahr nach rdna3 release, sind immernoch 6800XT auf lager. das sind die karten, die amd marktanteile kosten, weil man nicht bereit war rechtzeitig die preise zu senken.

ETI1120 schrieb:
Marge ist für Unternehmen über lebenswichtig.

Einen Kundenstamm bekommt man, wenn man teuren Speicher verbaut, der keinen Einfluss auf die Performance hat?

einen kundenstamm bekommt man wenn man produkte verkauft, die endkunden gerne kaufen. das sind in der regel produkte, bei denen sich kunden nicht veräppelt vorkommen, produkte die spaß machen, die cool sind, die preiswert (nicht billig, preiswert) sind. nehmen wir doch nur mal zen1 und zen2 - ein riesiger erfolg. wieso? weil die cpus so eine riesige marge hatten? nein - weil die cpus den kunden zu günstigen preisen das geboten haben, was intel nicht angeboten hat: mehr als 4 kerne zu einem vernünftigen preis. threadripper oben drauf war einfach :*

mit zen3 hat amd irgendwie vergessen, was den erfolg von zen ausgemacht hat, und genau an dem punkt konnte intel mit alderlake den siegeszug von ryzen beenden. zen4 auf am5 ist ein gigantischer flop - mindfactory verkauft jetzt noch 40% mehr am4 cpus als am5. wir sind fast am ende vom zen4 produktzyklus, und zen3 dominiert immernoch - "gerade hast du geschrieben, zen3 sei überteuert gewesen" - seit einführung zu heute haben sich die zen3 preise halbiert bis beinahe gedrittelt, so dick ist die marge bei ryzen. überleg mal am3 mit piledriver hätte ein jahr nach zen1 immernoch mehr cpus verkauft - eine katastrophe.

mit den gpus wars ähnlich. rdna1 war zu teuer und hat sich nicht gut verkauft. daher auch der einbruch bei dne marktanteilen - rdna1 auf dem papier war super, aber überteuert. sicherlich war man etwas günstiger als nvidia - aber das ist einfach nicht die richtige strategie. das wird jetzt eben mit 18% marktanteile vs 36% abgestraft.

steam hardware survey: die zwei besten radeon gpus sind immer noch die rx570 und rx580, jeweils vor der 5700xt und 6700xt - und die sind mittlerweile 6 jahre alt. die 4090 ist übrigens auch vor der 5700XT und 6700XT.
https://store.steampowered.com/hwsurvey/videocard/

das ist einfach strategisches versagen, weil sich amd einbildet man verdient mehr als man bekommt. polaris war gut und günstig, eine brot und butter gpu - und der größte verkaufshit von amd - bis heute ungeschlagen. da sollte man sich mal gedanken drüber machen, ob man da vielleicht nicht irgendwo was falsch macht, wenn die marktanteile mit der besten architektur (rdna2) des letzten jahrzehnts einfach nur abstürzen - und nein, es sind nicht immer die dummen konsumenten schuld.

hbm kommt da ins spiel, wo amd bei der pflicht aufhört, wo man eigentlich die kür setzen könnte. bei der effizienz hängt amd hinterher. da kann hbm helfen. SFF karten für SFF builds, ganz einfach per HBM. oder mal ne richtig fette gpu wie die titan V.

ich würde vermuten, dass eine 7990XTX mit 500mm² core mit 140CUs, gestackten MCD chiplets, 32gb HBM2 speicher einige hälse verdrehen würde unter den tech enthusiasten - so eine karte sollte auch die 4090 schlagen und kann dann auch 2000€ kosten.

oder man schaut ob man nicht nochmal sowas wie die radeon 7 bringt, die gerade für einige compute aufgaben extrem gut war - die war mit knapp 700€ auch in einem erträglichen preisbereich für die hardware. es gibt enorm viele content creator, die so eine gpu mit handkuss nehmen würden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: EntelodonX
duskstalker schrieb:
ein ähnliches GDDR5 speicherinterface mit der selben bandreite würde statt 15w grob 50-70w fressen, was direkt vom powerbudget des cores weggeht
Zumindest hier hatte sich gezeigt, das es min. ein Plus von 25% beim Power Target benötigt, um nicht den GPU-Takt zu senken:
FF XVÜbersicht
CPUGPU1920x1080 St1920x1080 Hi2560x1440 St2560x1440 Hi*3840x2160 St3840x2160 Hi2560x1440 Custom3840x2160 Custom
Core i3 10105RX 580 16GB4.8573.5563.2632.6171.7201.4901.9211.154
"Memory @1.750 MHz u. 25% Power Target5.0053.6613.3772.6871.7511.5411.9421.213
%103%103%103%103%102%103%101%105%

Ich hatte leider nicht aufgezeichnet, wie weit die Punktzahl einbricht, sobald nur der RAM Takt angehoben wird und das Power Target bei Standard bleibt.
 
  • Gefällt mir
Reaktionen: duskstalker und SweetOhm
duskstalker schrieb:
du gehst davon aus, dass der einzige faktor für den endkundenpreis die herstellungskosten sind, aber das ist falsch.
Wenn Nvidia höhere Kosten hat und zum selben Preis verkauft, bleibt weniger für Nvidia. Warum sollte Nvidia dies tun?

Raytracing, DSSL etc. haben sich als viel besseres Marketing Instrumente für Nvidia erwiesen als es HBM für AMD war.
 
Artikel-Update: Wie Business Korea berichtet, werden Prototypen von Samsungs HBM3E zu Testzwecken ausgeliefert. Die Chips tragen den Codenamen Shinebolt und sollen einen 50 Prozent höheren Durchsatz als HBM3 bieten. Das würde 9,6 Gbit/s statt 6,4 Gbit/s pro Pin oder 1,228 TB/s statt 0,819 TB/s pro Stack bedeuten. Die von Samsung angepeilten 9,8 Gbit/s würden also noch nicht ganz erreicht.

Der Prototyp soll acht Dies zu je 24 Gbit (3 GByte) stapeln, besitzt also eine Speicherkapazität von 24 GByte. Samsung werde aber bald auch eine Variante mit 36 GByte (12 Layer) fertigstellen.
 
  • Gefällt mir
Reaktionen: SweetOhm
Wo bleibt der AMD Ryzen + iGPU SOC im Stil eines Apple M mit 16, 24 oder gar 36GB Ram on chip ?
 
  • Gefällt mir
Reaktionen: Qyxes
Zurück
Oben