News HBM2E: SK Hynix erhöht auf 460 GB/s und 16 GByte

Du erzählst mir da nicht neues, aber trotzdem wird HBM GDDR nicht ersetzen.
Beides wird noch lange nebeneinander existieren, weil beides Vorteile, aber auch Nachteile hat!
 
Cool Master schrieb:
Na ja das war ja aber auch der Fall bei Vega wo kaum etwas ging.
20% ist kaum was? :freak:
Vielleicht bei der V56, was kaum ein wunder ist angesichts des Preises.
Wenns danach geht taugte Pascal RAM OC auch nichts @1070
 
Zuletzt bearbeitet von einem Moderator:
duskstalker schrieb:
woher willst du dann wissen, dass hbm2 so teuer ist?
Logik.
Du zählst doch die Vorteile auf. Warum wird's dann nicht überall genutzt? Weil die alle dumm sind?
Nein, es ist einfach teuer. Deswegen gibt's das nur in high-end Produkte mit hohem Verkaufspreis, wo die Kosten für Speicher untergehen, oder GDDR keine Alternative ist.
Es ist ja nicht nur der Speicher selber, sondern auch der interposer.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Tech_Blogger
Shrimpy schrieb:
20% ist kaum was? :freak:
Vielleicht bei der V56, was kaum ein wunder ist angesichts des Preises.
Wenns danach geht taugte Pascal RAM OC auch nichts @1070

Was sind denn 20%? 800 auf 960?
Ja das stimmt.

Aber mit 2 Klicks und ein wenig Glück oder Suche (Samsung Speicher)
bekommt man mühelos im Wattmann +43,75% OC hin
800 auf 1150MHz.
Der ist zwar dann nicht ganz Stabil weil er zu heiß wird, aber mit gescheiter Kühlung, machbar.

1115MHz sind dann Stock-Rockstable unter Luft.
und das sind +39,38% was schon Ordentlich ist.

Was "kaum ging" sind Tatsächlich FPS zuwächse dadurch zu bekommen. Bring quasi nix ausser Wärme und Lautstärke. In Compute skaliert er dann schon besser.
 
@bensen

für was argumentierst du eigentlich?

die ursprüngliche aussage, die die diskussion ausgelöst hat, war:

Für den Consumer, seit der ersten AMD Karte nicht wirklich interessant. Man kann nur hoffen, dass Big-Navi nicht darauf setzt.

ich habe widersprochen und gesagt, dass für high end karten hbm die richtige technologie ist. das ging hin und her mit dem hauptargument gddr 6 sei VIEL billiger und daher besser - ich habe abermals widersprochen und die zahlen für hbm2 und gddr 6 genannt - und hier ist einfach offenbar nicht so ein großer unterschied.

jetzt kommst du daher und sagst, dass die genauen kosten irrelevant sind und es reicht, dass man weiß, dass es teuer ist.

eine infineon TDA smart power stage kostet grob auch das 3 fache von bspw. einer vishay power stage. insgesamt sind das aber ~$2 vs ~$6 - wieviel macht das bei einem $400 board noch aus?

es ist eben nicht irrelevant in welchen dimensionen sich das bewegt. und offensichtlich kann man consumer karten sehr wohl mit hbm2 bestücken - vega 56 für 240€ ist viel günstiger als sie aus preis/leistungs sicht sein müsste - und das seit ~8 monaten. wäre der hbm2 tatsächlich so ein herber kostenfaktor, würde man vega nicht so lange so günstig verkaufen sondern nur so günstig wie nötig. v56 sprengt aber sämtliche preis/leistungs metriken.

die frage ist also tatsächlich "wie viel teurer ist hbm2 wirklich?" und es sieht nicht danach aus, als ob der aufpreis so groß wäre. die forderung nach gddr 6 statt hbm2 auf high end karten mutet daher doch schon sehr kurios an. je mehr hbm2 eingesetzt wird, desto günstiger wird der schinken. da kann man sich doch nicht wünschen, dass weniger hbm2 verbaut wird.

die leute haben einfach nur die zahlen vom mining boom im kopf - dann die fudzilla meldung mit den $350 dollar für die radeon 7 mit ihren 16gb - was auch wiederum auf den zahlen aus dem mining boom beruht. nur irgendwie ist das ein umstand, den niemanden interessiert. hier reicht wohl offensichtlich doch die information "hbm2 ist zu teuer".

und das argument von wegen "nvidia nimmt auch nur gddr6" ist wohl das löchlrigste, was ich bisher gesehen habe.

nvidia war auch der meinung, dass man 3,5gb als 4gb verkaufen kann. die 2080 hat nur 8gb speicher. dann gibts noch die 1060 mit ihren 3/6gb speicher. wenn es etwas gibt, an dem nvidia in größeren ausmaßen geizt, dann ist es der speicher. und dann sind das auch immer noch unterschiedliche architekturen. nvidia ist in der speicherfrage absolut kein maßstab. ein weiterer punkt, der dem argument den teppich vollends unter den füßen wegzieht, ist der preis der nvidia karten. denn der ach so billige gddr6 speicher ist zufällig auf den teuersten grafikkarten, die nvidia jemals verkauft hat. hier gehts nur um marge und nvidia hat gerne viel marge.

und navi 10 ist auch ein gutes stück zu teuer. trotz gddr6. bei navi 10 verlangt ja aber auch niemand hbm2 - die ist mit gddr6 gut bedient.

nur zeigt sich auch hier, dass GDDR6 nicht "billig" ist, sondern nur etwas "weniger teuer" - letztendlich bleibt aber hbm2 die bessere speichertechnologie, die offenbar in einem vertretbaren rahmen teurer ist, sodass man oberhalb der mittelklasse sehr gut gaming karten mit diesem speicher anbieten kann und sollte, da sich die mehrkosten durch ein viel besseres board layout wieder reinholen lassen.
 
duskstalker schrieb:
es ist eben nicht irrelevant in welchen dimensionen sich das bewegt. und offensichtlich kann man consumer karten sehr wohl mit hbm2 bestücken - vega 56 für 240€ ist viel günstiger als sie aus preis/leistungs sicht sein müsste - und das seit ~8 monaten. wäre der hbm2 tatsächlich so ein herber kostenfaktor, würde man vega nicht so lange so günstig verkaufen sondern nur so günstig wie nötig. v56 sprengt aber sämtliche preis/leistungs metriken.
Du verstehst nicht, dass der Verkaufspreis nicht viel mit den Herstellungskosten zu tun hat.
Vega ist so billig, weil es sonst keiner kauft. Die ist so günstig wie nötig. Die sind nicht die Wohlfahrt.

Es ist doch vollkommener Unsinn zu argumentieren Vega sei billiger als Navi und Touring und deswegen kann HBM nicht teurer sein. Wir kennen doch die Mathe gar nicht. Jensen würde auch ne Karte mit 2 GB DDR4 Speicher für 1000€ verkaufen, wenn er kann. Genauso verkauft er aber auch eine 8800GT für 200€ wenn er muss. Die Herstellungspreise haben damit nur wenig zu tun.

die frage ist also tatsächlich "wie viel teurer ist hbm2 wirklich?" und es sieht nicht danach aus, als ob der aufpreis so groß wäre.
Wir wissen es nicht. Du meinst nur immer eine Aussage treffen zu können. Es sieht nicht danach aus, als ob der Unterschied nur hauchdünn wäre. Du stellst es nur so dar.

die forderung nach gddr 6 statt hbm2 auf high end karten mutet daher doch schon sehr kurios an. je mehr hbm2 eingesetzt wird, desto günstiger wird der schinken. da kann man sich doch nicht wünschen, dass weniger hbm2 verbaut wird.
Richtig. Genauso kurios ist es HBM zu verlangen. Der Hersteller soll das einsetzen, was vorteilhafter ist. Und das inkludiert den Preis. GDDR irgendwelche generellen Probleme abzudichten ist lächerlich.
und das argument von wegen "nvidia nimmt auch nur gddr6" ist wohl das löchlrigste, was ich bisher gesehen habe.
Weil die nicht ausrechnen können was günstiger ist?

nur zeigt sich auch hier, dass GDDR6 nicht "billig" ist, sondern nur etwas "weniger teuer" - letztendlich bleibt aber hbm2 die bessere speichertechnologie, die offenbar in einem vertretbaren rahmen teurer ist, sodass man oberhalb der mittelklasse sehr gut gaming karten mit diesem speicher anbieten kann und sollte, da sich die mehrkosten durch ein viel besseres board layout wieder reinholen lassen.
Wo ist das offenbar? Außer AMD verkauft das niemand im Consumer Bereich. Und was kostet dieses einfachere Boardlayout weniger? Das ist doch alles phantasiert.
Warum setzen denn die Konsolen nicht auf HBM? Die nehmen lieber ein breites GDDR Interface. Warum nimmt Nvidia nicht HBM beim GT102? Wenn es besser und nicht teurer ist, würde es jeder einsetzen.

Nenn doch jetzt bitte einen einzigen Grund, warum es nicht flächendeckend eingesetzt wird, wenn es erstens GDDR Meilen überlegen ist und zweitens nur minimal mehr kostet.
 
bensen schrieb:
Nenn doch jetzt bitte einen einzigen Grund, warum es nicht flächendeckend eingesetzt wird, wenn es erstens GDDR Meilen überlegen ist und zweitens nur minimal mehr kostet.
GewinnWenn es auch nur ein bisschen günstiger geht bleibt am Ende mehr über.
LagerbeständeHBM kann ich mir nicht auf halde legen. GDDR6 Module schon und dann je nach bedarf auf die Boards löten. HBM ist bereits mit der GPU verbunden kann nicht nachträglich die Bestückung geändert werden
FlexibilitätMan kann die selbe GPU mit verschiedenen Speicherausbaustufen herausbringen, und dies je nach Bedarf. Sollte sich rausstellen das die GPU mit x Gb HBM Speicher ein Ladenhüter ist oder Fehlerhaft so ist das ganze Silizium Schrott.
UnverhältnismäßigkeitNicht alle Karten brauchen HBM, viele GPUs sind so langsam das sie von HBM nicht profitieren würden. Da brät man halt einfach den letzen Schrott der im Lager liegt auf die Karte und kriegt so seine Lager leer.
 
und das argument von wegen "nvidia nimmt auch nur gddr6" ist wohl das löchlrigste, was ich bisher gesehen habe.
->Weil die nicht ausrechnen können was günstiger ist?

Dass Ngutia nur das Beste vom Consumer will (sein Geld), da kommste nicht drauf gelle?

Mühseelige Diskussion.
Das ist eine richtige Tellerrand Diskussion die wir hier Führen.
Flat-Earth-Theorie mäßig. Kommt mir zumindest so Vor.

Ich empfehle euch allen in das Jahr 2000 zurück zu gehen, und die Diskussionen zwischen SDR-RAM und DDR-RAM auf der GeForce 256 zu Lesen.
Da gab es auch ewig gestrige die SDR-RAM auf das übelste Verteidigt haben.
 
-Ps-Y-cO- schrieb:
Ich empfehle euch allen in das Jahr 2000 zurück zu gehen, und die Diskussionen zwischen SDR-RAM und DDR-RAM auf der GeForce 256 zu Lesen.
Da gab es auch ewig gestrige die SDR-RAM auf das übelste Verteidigt haben.
Da hat sich ja bloß die Technologie geändert, die Boardlayouts sind aber relativ gleich geblieben. Da gings eigentlich nur um den Preis weil GDDR teuerer war, das hat sich aber mit der Zeit geändert, desto mehr in Masse gefertigt wurde.

Solange sich die Produktion von GDDR für die Chipproduzenten lohnt, sprich es genügend Aufträge für GDDR gibt wird es auch GDDR weiter geben. Erst wenn die Produzenten sagen es lohnt nicht mehr, wir machen ab jetzt nur noch HBM dann wird sich was diesbezüglich ändern aber vorher nicht.
 
@sikarr
Das ist ja mein Argument. Es ist billiger. Und das nicht nur hauchdünn.
Lagerbestände sehe ich keinen Unterschied. Du kannst dir genauso beides auf Lager legen. Das packaging kommt eben später.
Flexibilität ist meistens unnötig. Es gibt nur wenig sinnvolle Kombinationen. Und du kannst auch einfach einen Stack weglassen oder später einen größeren oder kleineren verbauen. Da gibt's keinen großen Unterschied.

Wer braucht denn HBM? Vega und Fiji hätte man auch mit 384 Bit GDDR versorgen können. Und wenn der Preis hier kaum höher ist, wie hier immer postuliert, was soll dann unverhältnismäßig sein? Gibt ja keine Nachteile.

Der Schluss ist dich ganz einfach, dass die Kosten eben doch nicht so gering sind...


-Ps-Y-cO- schrieb:
Dass Ngutia nur das Beste vom Consumer will (sein Geld), da kommste nicht drauf gelle?
Meinen Post überhaupt gelesen? Oder einfach nicht in der Lage zu verstehen?
Das war genau mein Argument. GDDR6 ist einfach billiger.

Flat-Earth-Theorie mäßig.
Weil man an diese Wunderrechnung beim Preis nicht glaubt ist man Verschwörungstheoretiker? Gelungene Argumentation. Bitte mehr davon.:kotz:
 
  • Gefällt mir
Reaktionen: Tech_Blogger
Glaube du hast den Kontext verloren,
Hier nochmal zur Erinnerung:

nvidia war auch der meinung, dass man 3,5gb als 4gb verkaufen kann. die 2080 hat nur 8gb speicher. dann gibts noch die 1060 mit ihren 3/6gb speicher. wenn es etwas gibt, an dem nvidia in größeren ausmaßen geizt, dann ist es der speicher.
nvidia ist in der speicherfrage absolut kein maßstab. ein weiterer punkt, der dem argument den teppich vollends unter den füßen wegzieht, ist der preis der nvidia karten. denn der ach so billige gddr6 speicher ist zufällig auf den teuersten grafikkarten, die nvidia jemals verkauft hat. hier gehts nur um marge und nvidia hat gerne viel marge.

GDDR ist also nicht nur "billiger"
GDDR ist Gewinnmaximierung für Nvidia und AMD!
Und da wird dann sogar noch Knauserig gegeiert! Und Ihr scheint es zu Feiern!?

Eine GPU kostet angenommen 450€.
Hättet Ihr nun gerne 8GB GDDR6?
Oder 8GB HBM2?

Eine GPU kostet angenommen 200€
Hättet Ihr nun gerne 4GB GDDR6?
oder 4GB HBM2?

Eine GPU kostet angenommen 2300€
Hättet Ihr nun gerne 16GB GDDR6?
oder 16GB HBM2?

Theoretisch müsste ja (nach eurer Meinung)
  • die 450€ Karte mit GDDR6 420€ und mit HBM2 470€ kosten.
  • die 200€ Karte mit GDDR6 150€ und mit HBM2 220€ kosten.
  • die 2300€ Karte mit GDDR6 1800€ und mit HBM2 2500€ kosten.

"Die Geforce GT 1030 (Test) ist prinzipiell eine sehr gute Grafikkarte, da sie auf einer aktuellen Architektur basiert und fair bepreist wird. Nvidia nennt für das Modell eine Speichergeschwindigkeit von 6 GBit/s - das ist aber nicht mehr gültig: Mehrere Partner wie Gigabyte und Palit sowie MSI listen Ableger mit gerade einmal 2,1 GBit/s. Diese Ableger scheinen seit Ende März 2018 aufgeführt zu werden und nutzen DDR4- statt GDDR5-Videospeicher."

Diese GT 1030 mit GDDR5 müsste doch VIEL MEHR kosten als die mit DDR4 oder?
... ;) genauuuu
 
bensen schrieb:
Du kannst dir genauso beides auf Lager legen.
Das geht ja eben nicht so einfach. Die Grafikkarten Hersteller müssten sich schon im Vorfeld entscheiden welche Margen sie von den GPU Herstellern mit welchem Speicherausbau haben wollen. Die werden nicht erst beim Grafikkartenhersteller auf den Interposer gepackt.

Wenn z.B. Asus 10.000 GPUs mit 8Gb HBM ordert und 5.000 mit 4GB HBM, alles die selbe GPU nur unterschiedliche Speichergrößen. Die 8GB Version verkauft sich wie geschnitten Brot, die 4GB Version ist dafür ein Ladenhüter, können die die GPUs wegschmeissen oder nur noch verramschen um sie aus dem Lager zu bekommen. Mit GDDR als Speicher wird die selbe GPU einfach mit mehr Speicher auf dem Boardverlötet und gut.

Hinzu kommen noch die Produktionsschwankungen der Chiphersteller selber, man kann bei Engpässen nicht einfach mal Hynix statt Samsung verlöten. Man ist auf das angewiesen was schon auf dem Interposer klebt.
 
@sikarr
Ok. Ich hatte aus Sicht von AMD geschrieben, denn die treffen ja die Entscheidung welcher Speicher verbaut wird. Ich glaube nicht, dass sie die Lage der Kartenhersteller interessiert. Im Gegenteil, die können Speicher gleich mit verkaufen bei HBM.

Ich weiß auch nicht ob das für den Kartenhersteller relevant ist. Speicherbestückungen sind eh von AMD autorisiert. Wann gab es das zuletzt bei high-end Modellen?
Engpässe hat der Kartenhersteller ja gar nicht mehr, da er keinen Speicher kauft. Das macht AMD und die werden dann schon den Hersteller wechseln, wenn der andere nicht liefern kann. ;)

@-Ps-Y-cO-
Ich glaube du hast den Kontext verloren. Oder wolltest wen anderes zitieren.
Ich feiere überhaupt nichts. Ich schreibe nur warum auf GDDR6 gesetzt wird und nicht auf HBM.
Ich habe selbst geschrieben, dass Nvidia jeden Preis nimmt, den sie bekommen können. Deswegen war dein Post einfach nur komplett unpassend.
Ich schrieb auch, dass Marktpreise komplett unabhängig von den Herstellungskosten sind. Verstehe nicht was du mich zitierst, wenn du den Inhalt meines Posts nicht tangierst. Zitier wen anders, auf den dein Geschreibsel passt.
 
Zuletzt bearbeitet:
HBM bei x86 sehe ich noch nicht.

Die Latenz ist kaum besser als bei DDR4 und der lineare Durchsatz war bisher bei x86 kein Problem.

Kann sein daß sich das bei extremen Mengen an Kernen ändert - eine 250-Kern-CPU hat da sicher höhere Anforderungen - aber bisher hat DDR4-Speicher auch nur 2-6 Kanäle je 64Bit, das ist noch steigerungsfähig. Und das steht sicher nicht morgen an.
 
Bei Milan soll es optional aber 6 HBM2/HBM3-Stacks geben.
Und einfach mehr DDR4-Channel ist keine Lösung, weil das den Verbrauch gewaltig in die Höhe prügelt.

HBM2/HBM3 wird für den Datentransfer viel weniger Energie als DDR4/DDR5 benötigen!

Und aktuell sind es schon bis zu 8 Channel, was bei 64C halt auch schon nciht so viel ist.
IBM behilft sich da mit so Memorybuffern, mit gewaltigem Caches, aber auch das ist halt keine Lösung die man so ewig gebrauchen kann.
 
Tech_Blogger schrieb:
Du erzählst mir da nicht neues, aber trotzdem wird HBM GDDR nicht ersetzen.
Beides wird noch lange nebeneinander existieren, weil beides Vorteile, aber auch Nachteile hat!
Muss er auch nicht denn je schmaler das Speicherinterface desto geringer die Vorteile durch HBM und wo haben wir die schmalen Speicherinterfaces? Da wo es vor allem um Kostenersparnis geht, sei es um sich gegenüber der Konkurrenz mit einem möglichst kleinen Verkaufspreis einen Vorteil zu verschaffen oder einfach nur für die Gewinnmaximierung. Das HBM für nvidia durchaus eine Option ist sieht man ja bei den Volta Modellen nur spielen die in einer komplett anderen Preisliga.
Ergänzung ()

Was hier offenbar einige nur allso gern bei der Speicher Diskussion ignorieren, wie groß ist denn nun der effektive Preisunterschied zwischen Produkten mit GDDR6 und HBM2, welche die gleiche Speicherkapazität und -bandbreite bieten?
Gibt keine Daten dafür? Sowas aber auch......warum dann die nutzlose Diskussion?
 
Hier mal ne ganz andere Preisliga, zum weiter Bashen das HBM ja "nichts ist"

Intel NNP-T: 27Mrd Transistoren + 32GB HBM auf 1200mm². (Volta bekommt Konkurrenz!)

oder Abgespaced und Abgehoben.
Die Wafer Scale Engine von Cerebras.
1,2 Trillion Transistoren, 400.000 Kerne auf 46.225mm² mit HBM Speicher
"...möglichst schnellen Anbindung des Speichers abhängig. Nicht ohne Grund werden hier inzwischen riesige Netzwerke zusammengefasst und der Speicher wandert in Form von HBM immer näher an die eigentlichen Recheneinheiten. "
 
  • Gefällt mir
Reaktionen: s3bish
-Ps-Y-cO- schrieb:
Wenn NV nächstes Jahr dann HBM liefert wird es abgefeiert ohne ende! Jeder wird es Lieben und Kaufen wie doof.
Der Loorbeereneinsammler.
Genau so mache ich das. Mir wäre allerdings wichtiger, dass nvidia in Zukunft bei 8gb anfängt (1060) und die richtigen Karten alle 12 oder 16 GB VRAM bekommen.

Ich dachte, dass eh schon lange klar war, dass HBM die Zukunft ist?
 
Zurück
Oben