News HBM2E: SK Hynix erhöht auf 460 GB/s und 16 GByte

In nem Technikforum wird Angenommen dass jemand ein Paar dinge zusammenreimen kann.
Schwer Off-Topic...
Bleib beim Thema. Wir können gerne Stundenlang hier faseln, solange es mit dem Thema zutun hat, und für andere Menschen ebenso etwas bringt
 
@-Ps-Y-cO-

Wie ich schon schrieb finde ich HBM ja auch super aber aktuell sehe ich einfach noch nicht DEN Vorteil der für alle etwas bringt. Es hat schon ein Grund warum Nvidia das nur bei den großen Grakas einsetzt. 16 GB bei 460 GB/s ist ja super aber selbst bei 4K bin ich mit meiner 1080 und GDDR5X noch nie an den Punkt angekommen wo ich sage "Ey, der Speicher limitiert". Ja die Zukunft wird HBM gehören keine Frage aber das wird dann auch nur der Fall für den völligen High End werden. Zumal wenn wir wirklich mal 16 GB (Sinnvoll!) brauchen muss an der GPU Leistung einiges passieren damit man das auch flüssig mit min. 60 FPS wiedergeben kann.

Dein Beispiel bzgl. Skalierbarkeit ist auch nur bedingt richtig. Einige Sachen kosten einfach gleich viel weil es einfach Fixkosten gibt, vor allem bei NANDs sieht man das. Da spielt es keine Rolle ob ich nun 2x 1 TB kaufe oder 1x 2 TB. Man könnte nun meinen, dass 1x 2TB ja günstiger sein muss weil man ja weniger Ressourcen brauch dem ist aber nicht der Fall. Der Preis ist auch nur runter gekommen dank neuer Entwicklungen und besserer Fertigungen, da sehe ich für HBM in Zukunft aber kein großen Spielraum. Aber man könnte über Sinn und Unsinn noch Seiten diskutieren ohne wirklich auf ein gleichen Nenner zu kommen ;)
 
  • Gefällt mir
Reaktionen: -Ps-Y-cO-
Eigentlich geht ich in einem Techforum davon aus, daß man sich korrekt ausdrückt.
Aber egal, zurück zum Thema!

HBM wird da von vielen überbewertet, HBM wird die nächsten Jahre etwas für HPC, bzw. den Servermarkt bleiben.
Es ist einfach viel teurer als GDDR und wird auch nie im Preis gleichziehen!
 
  • Gefällt mir
Reaktionen: -Ps-Y-cO-
Tech_Blogger schrieb:
Eigentlich geht ich in einem Techforum davon aus, daß man sich korrekt ausdrückt.

Ach komm sei nicht so ein Korinthenkacker ob 420 oder 450er Wafer ist doch so etwas von egal...
 
Ich wusste aber echt nicht was du meinst, zumal 450mm Wafer sicher noch viele viele Jahre entfernt sind.
Glaub ja nicht, daß man da in den nächsten 10 Jahren noch etwas davon zu sehen bekommen wird.
 
  • Gefällt mir
Reaktionen: bensen
Das war ein knackiger Scherz von Ihm, und ein Fehler von mir btw.

Reden wir einfach von Zoll. 12".
Es kann also mehr Kapazität, mit mehr Leistung aus einem 12 Zoll Wafer geschnitten werden. (für mich effektiv)
Und man braucht bei GDDR sogar noch mehr Chips auf dem PCB. (schonwieder effektiv/Effizienz)
Für mich neuer Industriestandard denn alles wird immer Kompakter, und Schneller, Größer, Höher, Weiter...
 
  • Gefällt mir
Reaktionen: Colindo
Trotzdem wird HBM GDDR nicht ablösen.

Die beiden Standards werden nebeneinander existieren, einfach weil beides Vorteile, aber auch Nachteile hat!
 
Warum war mir nur klar dass das gleich wieder ein eine schwachsinnige HBM2 vs. GDDR6 Speicher Diskussion ausartet bei der man versucht aus dem Kaffeesatz unterschiedlicher GPU Architekturen reale Leistungsunterschiede beim Speicher rauszulesen?

Guten Morgen, versuchts mal mit einer ansatzweise vergleichbaren Architektur damit die Argumentation auch nur irgendetwas wert ist. Geht nicht? so ein Pech aber auch, dann müsst ihr es wohl doch auf die physischen Unterschiede wie den Platzbedarf und den Preis beschränken.
 
  • Gefällt mir
Reaktionen: sikarr
Cool Master schrieb:
Na ja was soll ich da genauer erklären? Wenn HBM(2) zum Einsatz kommt muss die GPU das auch entsprechend hergeben. Genau das war ja das Problem bei AMD, dass sie nicht mal eben sagen konnten "ey, wir setzen nun doch auf GDDR statt HBM". Dafür wäre ein völliger Redesign nötig gewesen. So wird es eben denke ich auch bei Navi sein. Da die aktuellen Navis auf GDDR setzen wird das wohl auch bei Big-Navi der Fall sein. Das gleiche gilt für die R7. Da sie eben auf Vega basiert konnte man nicht mal eben den Typ tauschen.

Wie gesagt versteht mich nicht falsch HBM(2) ist ne feine Sache aber gehört meiner Meinung nach einfach nicht in den Consumer Markt. Genau wie dies bei NVMe SSDs der Fall ist. Der Speicher ist super aber für Spiele einfach völliger overkill.

Sobald AMD es modular macht ist deine ganze Argumentation hinfaellig. Und ich bezweifle sehr, dass das in den naechsten Jahren nicht modular wird. Ob ein komplettes Redesign notwendig ist, ist bis jetzt auch nur Spekulation. Es gab durchaus Geruechte, die den Umgang mit beidem nahelegten.

Wenn du Consumer nur auf den 0815 Gam0r reduzierst, wie gesagt, dem kannst du den letzten Dreck unterjubeln solange du es richtig verkaufst und ueberall Gam0r draufschreibst. Sobald du minimal mehr machen willst, selbst nur als Hobby, dann passt die Argumentation schon wieder nicht. Aber anscheinend ist das einzige was im Forum hier zaehlt Gaming. Ich dachte ja es waere ein Technikforum und kein Gamingforum.

Summerbreeze schrieb:
Jepp.
Das ganze verbunden mit IF und: The Party goes on ;)
Könnte ich mir ganz gut vorstellen.

Da wird die Reise hingehen, weil man damit Designs vereinfachen und Kosten reduzieren kann. Auch wenn das viele als unmoeglich etc. beschreiben.

Cool Master schrieb:
@-Ps-Y-cO-

Wie ich schon schrieb finde ich HBM ja auch super aber aktuell sehe ich einfach noch nicht DEN Vorteil der für alle etwas bringt. Es hat schon ein Grund warum Nvidia das nur bei den großen Grakas einsetzt. 16 GB bei 460 GB/s ist ja super aber selbst bei 4K bin ich mit meiner 1080 und GDDR5X noch nie an den Punkt angekommen wo ich sage "Ey, der Speicher limitiert". Ja die Zukunft wird HBM gehören keine Frage aber das wird dann auch nur der Fall für den völligen High End werden. Zumal wenn wir wirklich mal 16 GB (Sinnvoll!) brauchen muss an der GPU Leistung einiges passieren damit man das auch flüssig mit min. 60 FPS wiedergeben kann.

Dein Beispiel bzgl. Skalierbarkeit ist auch nur bedingt richtig. Einige Sachen kosten einfach gleich viel weil es einfach Fixkosten gibt, vor allem bei NANDs sieht man das. Da spielt es keine Rolle ob ich nun 2x 1 TB kaufe oder 1x 2 TB. Man könnte nun meinen, dass 1x 2TB ja günstiger sein muss weil man ja weniger Ressourcen brauch dem ist aber nicht der Fall. Der Preis ist auch nur runter gekommen dank neuer Entwicklungen und besserer Fertigungen, da sehe ich für HBM in Zukunft aber kein großen Spielraum. Aber man könnte über Sinn und Unsinn noch Seiten diskutieren ohne wirklich auf ein gleichen Nenner zu kommen ;)

Nvidia hat einen gewaltigen Grund kein HBM einzusetzen: Maximales melken. Deren Karten hatten schon immer 1-2 Punkte bei denen man wusste, dass sie bald an die Grenzen stossen und man leider leider eine neue kaufen muss. Die haben das perfektioniert. Das funktioniert im professionellen Bereich nur so halb.

Zum Thema Skalierung: Um den Preis zu senken ist Fertigungsskalierung notwendig. Also genau das, dass auch bei NANDs den Preis gesenkt hat. Von dem her ist dort natuerlich noch Spielraum nach unten. Ich weiss nicht wie du auf den Trichter kommst, dass das nicht mehr moeglich waere.

Tech_Blogger schrieb:
HBM wird da von vielen überbewertet, HBM wird die nächsten Jahre etwas für HPC, bzw. den Servermarkt bleiben.
Es ist einfach viel teurer als GDDR und wird auch nie im Preis gleichziehen!

Und von anderen unterbewertet wie es scheint. Solche Aussagen wie dein letzter Satz koennen nur nach hinten losgehen. Vorallem wenn man bedenkt in welchen Mengen GDDR produziert wird und wie alt die Technik schon ist. Da hat HBM noch massig Potential aufzuholen, wenn nicht sogar zu ueberholen. Aber gut, fuer dich ist die Welt so wie sie gerade ist in Stein gemeiselt.
 
  • Gefällt mir
Reaktionen: Suteki, -Ps-Y-cO- und sikarr
Und von anderen unterbewertet wie es scheint. Solche Aussagen wie dein letzter Satz koennen nur nach hinten losgehen. Vorallem wenn man bedenkt in welchen Mengen GDDR produziert wird und wie alt die Technik schon ist. Da hat HBM noch massig Potential aufzuholen, wenn nicht sogar zu ueberholen. Aber gut, fuer dich ist die Welt so wie sie gerade ist in Stein gemeiselt.
Warum bleibst du nicht sachlich?

Was ich schreibe ist schon korrekt, auch wenn du es nicht wahrhaben willst!
 
  • Gefällt mir
Reaktionen: bensen
Früher oder Später wird sich das Entscheiden.
Eine Wette mit Haus und Hof würde Ich jedoch an deiner Stelle nicht eingehen.
HBM3 ist ebenso schon in Mache.

Du willst auch einiges nicht Wahrhaben.
Warst du damals ein Verteidiger der SDR-VRAMs?
Ich wusste zumindest sofort damals wieso ich 120DM mehr ausgebe und eine GPU mit "neuartigem, dafür teurem" DDR-VRAM nehme.

Geschichte wiederholt sich laufend, und immer wieder in manchen Situationen.
Aber das möchtest du wieder nicht Wahrhaben.
Er ist schon sachlich geblieben.

Ich gehe mit dir Konform, dass HBM und GDDR ko-existieren.
aber auch nurnoch so lange, bis GDDR wirklich den Kürzeren zieht. Dann werden diese Kapazitäten der FABs Frei, und man kann auf den GDDR-Straßen einfach HBM Produzieren, was widerum die Kosten fallen lässt, und GDDR dann komplett obsolet werden lässt.

Thats it.
Man wird Entscheiden was Sinnvoller ist, Abwägen, Kalkulieren, Messen, Bewerten.
Wer da den Kürzeren zieht, ist für mich nur eine Frage der Zeit.
 
GDDR wird es noch eine weile geben, aber eben auf entsprechenden low end karten, weil es eine low-end lösung ist. nvidia macht das, weil nvidia margen will. da geht man den weg des geringsten widerstands.

das ist die selbe diskussion wie sata vs nvme - da wird sich auch mit aller gewalt gegen ssds gewehrt, die für einen geringen mehrpreis um den faktor 7 schneller sind, weil "man" das nicht bräuchte. das einzige, was für gddr spricht, ist der imaginäre niedrigere preis, der sich nicht einmal anhand von realen verkaufspreisen belegen lässt. hier sind die hbm2 karten nachweislich sogar günstiger als die gddr6 karten.

ich würde mal gerne wissen, wie man auf folgende aussagen kommt:

"pcie 3.0 reicht völlig" - dabei ist das die dritte (bzw. 4) generation, und der nachfolger kommt mit jahrelanger verzögerung. und nach 4.0 kommt 5.0.

"sata reicht" - auch wenn die schnittstelle den nand mittlerweile so stark ausbremst, dass man alleine durch die jahrzehnte alte schnittstelle einen großteil der leistung wegwirft.

"20 pcie lanes reichen" - ja, wenn man einen rechner aus dem letzten jahrzehnt hat. 10g lan, wifi 6, nvme ssds, usb 3 - die datenmengen und durchsatz steigen überall dramatisch an, aber hier kocht man lieber weiterhin mit einem holzofen statt induktion - "wird doch auch warm".

und zum schluss:

"ich will gddr statt hbm auf meinen high end karten und amd ist dumm, die speichertechnologie der zukunft zu verwenden - bei nvidia bekommt man den schlechteren speicher für mehr geld, das soll amd auch so machen!"
 
Zuletzt bearbeitet:
-Ps-Y-cO- schrieb:
Wenn NV nächstes Jahr dann HBM liefert wird es abgefeiert ohne ende! Jeder wird es Lieben und Kaufen wie doof.
Der Loorbeereneinsammler.
Nvidia nutzt schon längst HBM. Eben nur da wo es Sinn macht.

duskstalker schrieb:
unterm strich ist der preisvorteil durch GDDR6 hauchdünn und technologisch ist gddr6 einfach abgehängt.

das ganze zeigt sich doch auch am preis. turing ist teuer. navi ist teuer. vega ist billig. und wieviel kosten 16gb vram bei nvidia? ein kleines bisschen mehr als die radeon 7.

ich sehe einfach nicht, wo hbm2 hier die karten "teuer" macht und GDDR6 "billig".
Weil du es nicht sehen willst. Deine Rechnung würde selbst Milchmädchen vor Scham erröten lassen.
Dein Vergleich von Navi und Vega ist komplett unabhängig vom Speicher. Da spielen viele Faktoren rein.
Was glaubst du warum AMD auf GDDR6 setzt? Weil die dumm sind? Nein, weil es günstiger ist. Die haben gemerkt, dass sie sich vergallopiert haben und HBM samt interposer viel langsamer im Preis sinkt als gedacht. Oder GDDR6 doch schneller ist als angenommen.
der speicher von navi lässt sich kaum übertakten und nvidia hatte große probleme mit defekten chips und hitze scheint ein generelles problem von gddr6 zu sein.
Und bei den Super lässt sich der Speicher enorm übertakten. Du suchst dir alle Argumente raus wie sie dir gerade passen.
 
  • Gefällt mir
Reaktionen: KlaraElfer
@bensen

zeig mir mal einen test, in dem sich der gddr 6 von navi gut takten lässt.

wenn du bessere zahlen für hbm2 hast, immer her damit.

amd nimmt für navi 10 GDDR6, weil navi 10 eine midrange karte ist, die polaris ersetzt. dass man für eine 250mm² chip - klasse karte keinen hbm nimmt, ist auch klar. hier gehts um die folgenden high end karten.
 
duskstalker schrieb:
@bensen

zeig mir mal einen test, in dem sich der gddr 6 von navi gut takten lässt.

wenn du bessere zahlen für hbm2 hast, immer her damit.

amd nimmt für navi 10 GDDR6, weil navi 10 eine midrange karte ist, die polaris ersetzt. dass man für eine 250mm² chip - klasse karte keinen hbm nimmt, ist auch klar. hier gehts um die folgenden high end karten.
Wo habe ich geschrieben, dass der bei Navi gut zu übertakten ist? Bei der 2080 Super geht der gut. Also kein Problem des Speichers.

Ob Mainstream oder nicht ist dich völlig uninteressant. Der Chip hat eine höhere Performance und braucht entsprechend Durchsatz. Löst man aber jetzt mit GDDR6.

Wenn HBM nicht viel teurer wäre könnte ich den auch bei kleinen Karten nutzen. Eben etwas schmaler. Macht keiner, weil es zu teuer ist.
Ich habe keine bessere Zahlen für die Speicher, ich Maße mir auch nicht an auch nur halbwegs brauchbare Preise errechnen zu können um damit zu argumentieren. Das ist doch gerade der Punkt.
 
Zuletzt bearbeitet:
-Ps-Y-cO- schrieb:
Früher oder Später wird sich das Entscheiden.
Eine Wette mit Haus und Hof würde Ich jedoch an deiner Stelle nicht eingehen.
HBM3 ist ebenso schon in Mache.

Du willst auch einiges nicht Wahrhaben.
Warst du damals ein Verteidiger der SDR-VRAMs?
Ich wusste zumindest sofort damals wieso ich 120DM mehr ausgebe und eine GPU mit "neuartigem, dafür teurem" DDR-VRAM nehme.
...
Genau, schön mal andere beleidigen!
 
bensen schrieb:
Ich habe keine bessere Zahlen für die Speicher, ich Maße mir auch nicht an auch nur halbwegs brauchbare Preise errechnen zu können um damit zu argumentieren. Das ist doch gerade der Punkt.

woher willst du dann wissen, dass hbm2 so teuer ist?
 
Die Sache ist doch relativ einfach.
HBM2 wird nicht so viel teurer sein als GDDR6 wie einige hier das gern hätten aber es wird zumindest etwas teurer sein und genau das ist auch der Punkt warum er bei Spar Designs nicht zum Einsatz kommt. Wenn es um jeden Euro geht ist er schon allein deshalb aus dem Rennen.
Zudem relativiert sich unterhalb der oberen Leistungsklasse auch relativ schnell der Platzgewinn denn je schmaler das GDDR6 Speicherinterface desto weniger Platz beanspruchen auch die Speicherchips.
Die Zusatzkosten für den Interposer relativieren sich wiederum mit der zunehmenden Anzahl der Stacks denn er wäre so oder so fällig und ja, ein immer breiteres GDDR6 Speicherinterface erfordert auch ein entsprechend komplexes PCB Design, wodurch dieses natürlich ebenfalls im Preis zulegt.

Lässt man sich die Punkte mal durch den Kopf gehen dann wird auch recht schnell klar warum meiner Meinung nach HBM bei klassische Grafikkarten nur bei AMD und nur bei Produkten für das obere Preissegment zum Einsatz kommt. Bei nvidia ist er bei deren Spar Designs so oder so aus dem Rennen und kommt erst da zum Einsatz wo er wegen der erforderlichen Bandbreite praktisch alternativlos ist/war.
AMD rechnet hier offensichtlich anders, spielt den Pionier bei der Einführung und setzt ihn dort ein wo er am sinnvollsten erscheint. Das ist genau dort wo die Chips eines immer breiteren GDDR Speicherinterfaces ganz einfach zu viel Platz auf dem PCB fressen, nimmt den dabei einen relativ geringen anfallenden Aufpreis bei der Produktion in kauf und hat dabei ein unproblematischeres Produkt.
 
  • Gefällt mir
Reaktionen: duskstalker
weil man nicht damit fertig ist die gddr module irgendwie aufs pcb zu kleben, sondern die brauchen alle eigene leitungen für strom und daten. und weil die dinger alle an unterschiedlichen orten sind, kommt das problem mit der leitungslänge dazu bei vmem, vcore und datenleitungen. vcore deshalb, weil die memory ics in der regel da sind, wo eigentlich optimalerweise das vcore vrm ist.

das führt zu künstlich verlängerten traces bei den nahesten ICs und dadurch insgesamt schlechterer speicherperformance für das ganze speichersystem. genau das gleiche auch bei der stromversorgung, die durch leitungslänge einen vdrop erleidet, d.h. das nächste modul bekommt von 1,4v 1,38 und das am anderen ende der karte 1,32 - also spannung so weit anheben, dass das hintere im spec läuft, dann bekommt das nahe halt einen overvolt. dann macht man da noch das vcore vrm dazu und man hat speicher ics auf stromleitungen sitzen - siehe igors lab bezüglich toter 2080 tis.

mit hbm kann man das vcore vrm in L oder U form um den core platzieren mit minimalem vdrop und man braucht die vmem nur in den interposer führen und nicht zu 8 speicher ics.
 
Zurück
Oben