News High Bandwidth Memory: HBM2 für Nvidia Pascal von Samsung und SK Hynix

Shad3s schrieb:
HBM2, kleinere Fertigungsgröße, klingt ja alles vielversprechend, aber die Leistungssteigerungen werden meiner Meinung nach nur im Preissegment ab 800 € deutlich spürbar sein.
Die Einschätzung scheint glaubhaft. Nach KitGuru (20.8) unterscheidet der Arctic Islands Relase die Produktserien "Greenland", "Baffin" and "Ellesmere". "Greenland" soll HBM2 verbaut haben. Das Preisschema wird daher wohl nicht grundsätzlich anders ausfallen als gewohnt, vielleicht ein wenig unter dem genannten Betrag. Aber wer weiss?
 
Zuletzt bearbeitet:
acc schrieb:
die gründe dafür, das nvidia noch kein hbm eingesetzt hat (ich perönlich tippe einfach mal auf ein zeitliches problem), kennt keiner von uns.
Doch, nvidia hat bis vor kurzem noch auf Microns HMC setzen wollen, den sie mitentwickelt haben, und ist erst dann auf HBM aufgesprungen, weil diese Technologie günstiger und stromsparenden ist als HMC.

Daher musste nvidia bisher weiter auf GDDR5 setzen, da sie mit HMC aufs falsche Pferd gesetzt haben.
Wenn nvidia gekonnt hätte würden sie die Karten mit HBM verkaufen.
 
Ich bin mal gespannt, was da kommt. Aber einen großen Sprung in Sachen Performance erwarte ich nicht, die Bandbreite des Speichers war eher selten das Problem. Da ist eher die Kapazität des VRAMs oder die Leistung der GPU der Bottleneck. In Sachen Energieeffizienz kann das aber hoffentlich etwas bringen, da haben die Furys ja schon mal gezeigt, dass sie bei gleicher oder niedrigerer Aufnahme als die 390(X) mehr Leistung erzielen können.

Und es wird auch mal Zeit da mehr als 4GB verbauen zu können. Denn egal wie schnell der VRAM ist, wenn mehr als 4GB benötigt werden, dann ist der halt voll und die neuen Daten müssen über andere Kanäle beschafft werden, die dann wiederum den Bottleneck darstellen.

Und weil das Thema vorhin nochmal aufkam:
Über die 970 zu reden ist mühselig. Die Karte ist schnell und effizient, wenn jemand eben Games in FullHD zocken will und mehr nicht. Höhere Auflösungen, Mods, etc, dann bricht sie ein, das stimmt. Wäre allerdings auch die Frage ob die 512MB mehr VRAM da den Bock fett machen würden. Aber klar war das von NV Kundenverarsche hoch 10 und ich hatte kurz bevor das rauskam in einem PC (nicht für mich) eine 970 verbaut, worüber ich mich damals auch ziemlich geärgert habe. Allerdings habe ich bisher auch nicht von Problemen von betreffender Person gehört.
Andererseits wäre es auch mal interessant zu sehen ob eine R9 390 ein gemoddetes Game, das dann mal 7-8GB VRAM belegt, aufgrund der GPU Leistung noch flüssig darstellen kann. Da muss man eben immer ein wenig den Spagat schaffen.

Und über DX12 zu diskutieren ist auch mühselig. Denn jetzt NV vorzuwerfen DX12 nicht zu unterstützen ist zwar nicht falsch, allerdings unterstützen auch die derzeitigen AMD Modelle nicht das komplette Featureset. Und ob AsyncShader jetzt so das Core-Feature wird, das muss man sehen. Die Konsolen können es afaik, deswegen kann das durchaus sein und auch ich gehe davon aus, aber sicher ist es nicht. Desweiteren haben wir bisher einen einzigen Bench gesehen, würde da gerne noch mehr sehen wollen. Auch der von NV versprochene Treiber wird interessant. Danach kann man weiter reden.

Bitte nicht falsch verstehen, ich würde aufgrund dieser Problematiken selbst zögern zu einer NV Karte zu greifen oder zu raten oder eben im Preissegment um 350€ zu einer 970 raten, denn NV hat offensichtlich nicht mit offenen Karten gespielt. Aber zumindest was das Thema DX12 angeht wissen wir noch nichts konkretes und deshalb würde ich da gern mehr Benches sowie den Treiber abwarten.
 
@Chris_S04

Das Problem bei der 970 sind nicht die fehlenden 512MB, den sie sind ja da.
Sondern das sobald sie verwendet werden, die restlichen 3536MB in dem Moment nicht ansprechbar sind.
Die 512MB sind mit 32Bit angebunden, die 3536MB sind mit 224Bit angebunden.
Sobald der letzte Block angesprochen wird hat es sich mit der Performance erledigt. Viele Spiele legen in den VRAM hinein was sie in naher Zukunft benötigen, das gibt keine Probleme. Sobald aber ein Spiel wie bsp. Witcher 3 in FHD Daten speziel in den letzten Block legt die auch verwendet werden, bricht die Karte auf den Punkt genau in sich zusammen.

b2t:
Tja, AMD wieder mal Inovationsträger. Daran werden die noch Pleite gehen.
Jetzt kann NVIDIA sich das ganze Know How einfach bei AMD abkupfern, ohne signifikante Kosten oder 8 Jahren teurer Entwicklungszeit, gut gemacht AMD:freak:
NVIDIA verbaut in aktueller Generation kein HBM weil es sinnfrei ist. Die haben sicher ihre Testsamples mit HBM in Laboren seit einem Jahr herumliegen. Auch mit HBM erwarte ich das beide Hersteller wohl sogar im ersten Jahr direkt 2x "High-End" neu definieren werden.

Meine Befürchtungen:
Erst mal erscheint eine NVIDIA Karte(GTX 1080?) die 20% schneller ist als eine GTX 980 zu "attraktivem" Preis(500€). Sozusagen um erstmal was zu liefern. Da AMD dämlich ist wird NVIDIA zuerst was anbieten und den Markt zuerst zu beliefern. Mitsamt Werbekatastrophe folgt dann kurze Zeit später AMD(Radeon 480X) die dann max. 20% mehr liefert als die von NVIDIA. NVIDIA wird dann zu genau dem Zeitpunkt(+1-2 Wochen) mit großem Werbetamtam eine neue 1080 TI vorstellen die ihrerseits dann 5-20% schneller ist als das AMD Modell für so 750€. Dann wäre die Performance pro € um ca. 10-20% gestiegen und man hätte genug Pulver für die nächsten Jahre übrig. Die gesamte Presse jubelt über die allgemeine Energieeffizienz und geringer Abwärme:freak:
Dank GDDR5X wird es, meiner Vermutung nach, nur im High-End Segment HBM geben. Alle Karten einer Generation damit auszustatten ist ein viel zu großes wirtschaftliches Wagnis bei einer neuen Technologie, auch und vor allem für AMD. Vor allem da HBM im neuen "Niedrigpreissegment" für 200-250€ keine Vorteile bieten dürfte.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
ich wiederhol mich zwar aber... ich tippe auf Pascal >500mm² mit 4-6 Stacks HBM2 für ~Q3 2016, aber nur für TESLA. Q1/Q2 2017 dann als "TITAN" für High End Desktop...

Ich hoffe du irrst dich. Habe allerdings auch gehört dass nVidia leistungstechnisch von oben nach unten releasen will. Ich lasse jetzt extra noch die 670 im PC weil ich auf eine Pascal-karte aus dem oberen Mittelfeld hoffe. Wenn diese Karten erst Ende 2016 bis Mitte 2017 kommen, müsste ich mir doch noch ne 970 als Übergangskarte besorgen :(

pipip schrieb:
Es waren zu mindestens Tape Outs, also Mehrzahl, somit sind es mehrere Chips, nicht nur einer. Weiters hat der CEO gesagt, dass AMD aktuell alles in 14nm FinFet und neue Chips investiert um so schnell wie möglich neue Produkte in 14nm FinFet zu liefern.

Zeitlichen Vorteil könnte es bei AMD nur dann geben, wenn sie früh und als erste Karte eine Mainstream-Karte liefern

Ach, der CEO sagt viel wenn der Tag lang ist. Auf "offizielle Aussagen" die recht unverbindlich formuliert sind verlasse ich mich nicht. Dazu gab es in letzter Zeit zu viele Schwenks in der Ausrichtung. Ich sage nur Seamicro.
Das mit der Mainstreamkarte ist allerdings ein echter Punkt. Mit einer frühen Mainstreamkarte ohne direkte Konkurrenz könnte AMD gut punkten.
 
Zuletzt bearbeitet:
Ich gehe davon aus, dass NV mit Pascal so wie mit Kepler fährt.
Erst kommen die Teslas dran, denn Maxwell war für GPGPU n Griff ins Klo. Später wird dann mit 1080, 1070, 1060 usw. die Reihe für Desktop von oben nach unten vervollständigt.

Bei AMD sehe ich eher, wie mehrfach erwähnt zuerst etwas in Richtung R9 470, vllt R9 480, später dann den Vollausbau und die kleinen Chips.
 
DocWindows schrieb:
Ich hoffe du irrst dich. Habe allerdings auch gehört dass nVidia leistungstechnisch von oben nach unten releasen will. Ich lasse jetzt extra noch die 670 im PC weil ich auf eine Pascal-karte aus dem oberen Mittelfeld hoffe. Wenn diese Karten erst Ende 2016 bis Mitte 2017 kommen, müsste ich mir doch noch ne 970 als Übergangskarte besorgen :(

Für mich ist meine GTX 670 die Übergangskarte ;-)

Kommt aber sicherlich auch auf die Spiele an, die man zocken möchte. Ich verzichte momentan noch auf die absoluten Grafikkracher.
Die heb' ich mir dann für die nächste GPU auf(würde die gern in 4k zocken).

Zocke zur Zeit World of Warships damit in 2880x1620, ohne Probleme. Sieht klasse aus in der Auflösung(FXAA und Texturen hoch) und die 670er packt es ganz leicht(edit:festgetackerte 50FPS durch Framerate Target 50, edit2: Ich übertakte übrigens nie=niedrige Temperaturen) .

Ich freu mich aber schon auf nächstes Jahr(in ein paar Wochen is ja schon 2016 ;-) ), was da alles so rauskommt, mit HBM2.
Irgendwas werd' ich mir da schon rauspicken, als nächste GPU. Vielleicht ne GTX 1070, oder 1080 mit 8GB HBM2 ?

:)
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Doch, nvidia hat bis vor kurzem noch auf Microns HMC setzen wollen, den sie mitentwickelt haben, und ist erst dann auf HBM aufgesprungen, weil diese Technologie günstiger und stromsparenden ist als HMC.

Daher musste nvidia bisher weiter auf GDDR5 setzen, da sie mit HMC aufs falsche Pferd gesetzt haben.
Wenn nvidia gekonnt hätte würden sie die Karten mit HBM verkaufen.

Afaik wollte NV nie HBM1 nutzen und damit waren sie nicht alleine.
 
Wenn es Nvidia nicht wieder verbockt, werde ich mir auch eine Karte aus dieser Generation kaufen.
Die R9 290 von Anfang 2014 tut es zwar noch für FullHD mit hohen bis maximalen Details aber ich würde langsam gerne auf 27", 2560x1440, IPS, 144HZ + Free-/G-Sync umsteigen. (ASUS ROG Swift PG279Q)
Nvidia vermutlich diesmal, weil deren Softwareangebot doch etwas ausgereifter ist:
mit meiner R9 290 geht FreeSync geht auf dem ASUS MG279Q nur bis 90hz, die treiberseitige Max-FPS Einstellung ist nett gedacht, aber warum kann ich nur maximal 90FPS bei meinem 144hz Monitor auswählen?, Downsampling funktioniert auch nur eingeschränkt, PhysX und weitere Nvidia exklusive Features wären auch mal wieder nett zu sehen...
Meine Kriterien sind aber recht hoch: Mindestens 30% (ideal 50%+) mehr Leistung (ohne OC) wie meine R9 290, 6-8GB VRAM (idealerweise HBM), guter und leiser Kühler, voller DX 12 Support und Preis bei etwa 400€ (wie meine R9 290 damals.)
 
Cheetah1337 schrieb:
Puh hoffe dass da endlich mal wieder a signifikanter Leistungssprung rausschaut. Sehe bis dato eigentlich keinen Grund von meiner 660Ti auf a aktuelleres Modell zu wechseln. (Jetzt P/L-Mässig)

same here! (660 ohne Ti)
Ich bin extrem gespannt auf die Midrange, wie auch dieses Jahr...nur dass es für diesen Bereich eine große Enttäuschung war.

Auf 4k taugliche Midrange wird man wohl noch 2-3 Jahre warten müssen =/?
 
C4rp3di3m schrieb:
Hynix baute sehr gute GDDR Chips, aber GDDR5X dass gibt doch nix.

HBM ist klar die Zukunft.

mfg

Bible Black schrieb:
Naja GDDR5(X) wird wohl erst mal günstiger bleiben und man bedient einfach den Low/Mid und ggf. noch nicht High Ende genügen Bereich mit diesen, man kann ja jetzt nicht einfach überall HBM draufklatschen.

Kann BB nur recht geben. Wir haben jetzt nur Highendkarten mit HBM. Jetzt ist erstmal Nvidia dran HBM im Highend, also im bereich 600€+ ein zu führen. In ein andert halb Jahren kommt dann vermutlich wieder etwas von AMD im Preisbereich von 400€ usw usw....

Bis also HBM im 100-200€ Segment auftaucht, vergehen vermutlich noch mal gute 5-6 Jahre, wenn es reicht. Genug zeit GDDR5x rentabel zu verkaufen.
 
Dwyane schrieb:
NVidia`s neues Flaggschiff soll ja angeblich 16 Milliarden Transistoren schwer sein :hammer_alt:

Da kann man froh sein, dass die Transistoren so klein sind, wie sie jetzt sind.
Man stelle sich nur mal vor, wie groß die Grafikkarte sein müsste, hätten die Transistoren noch das Format, wie in den 70er Jahren. :D;)

 
Draco Nobilis schrieb:
Sobald aber ein Spiel wie bsp. Witcher 3 in FHD Daten speziel in den letzten Block legt die auch verwendet werden, bricht die Karte auf den Punkt genau in sich zusammen.

Der Grafiktreiber entscheidet aber, wohin welche Daten gelegt werden. Es hängt also stark vom Memory Management des Treibers ab, wie sich eine Nutzung der letzten 512MB auswirkt.
 
ankabo schrieb:
Welche 2 Debakel?
Und wer hat das mit den RAM bei den 970er in Games gemerkt? Hat sich doch verkauft wie geschnitten Brot.
Debakel finde ich eher die Fury X. Hochgelobt, als Monster betitelt, kommt an Nvidia nicht vorbei, ist sehr teuer und kaum verfügbar. Wenn man nichts verkauft, ist es ein Debakel.

1. gtx 970 vram -> wasn schuss in den ofen -> kenne genug leute, die die zurückgegeben haben und bei ihrer gtx670 oder was auch immer verblieben sind und damit gut gefahren sind - manchmal muss man einfach warten und aushalten

-> und ja, es gibt genug die laufen mit den 3,5 gb ins limit, wo 4,0 gereicht hätten ... immernoch dabei den tellerand zu überwinden wa^^

2. asynchronous shader problematik - welcher ja augenscheinlich unklar ist, jedoch bisher nicht sauber unterstützt wird -> wenn das so bleibt, dann ist maxwell in meinen augen keine gute generation mehr, sondern die der verarsche

bin übrigens selbst maxwell besitzer - den fehler mache ich so schnell nicht nochmal.

des weiteren ist die fury keine schlechte karte, im gegensatz zu den GTX 900er karten ist es eben eine 1. generation mit komplett neuer speichertechnik usw. -> die 2. generation wird sicher deutlich besser.

die gtx900er karten haben schon genug erfahrungen mit der ersten maxwell charge gesammelt und stehen auch nur in DX11 gut da.

warten wir DX12 ab - dauert zwar noch, aber dann werden wir sehen, was passiert.

selbst ich sag, dass sich nV einfach 0 mit ruhm bekleckert hat in letzter zeit und dabei bleib ich.

innovativ waren die jungs schon ewig nimmer. :rolleyes:
 
Demnach planen Samsung und SK Hynix den Start der Massenproduktion der zweiten Generation des HBM-Speichers (HBM2) innerhalb des ersten Quartals 2016. Zu den Abnehmern werde dann unter anderem Nvidia mit der für 2016 angekündigten GPU-Architektur Pascal zählen. Auch AMD plant neue GPUs mit „HBM2“.

Na dann wird das alles ja noch dauern. Bis zur Verfügbarkeit dauert es dann ins Q2/2016.- ich habe es gerade mit einem Skylake i7-6700K mal wieder erlebt. Schlichtweg nicht zu bekommen...Von Produktion Samsung/SK Hynix-> Lieferung zu Auftragsfertiger -> Auslieferung an Kunden ist es ein weiter Weg!
 
Zurück
Oben