AMD wird bei HBM2 bevorzugt

@Zotac2012

Ne neue Titan bzw. Ti mit weniger Speicher als der Vorgänger? ;)
32 für den Profimarkt, 16 für die Titan und 8 für ne Ti klingt doch sehr plausibel.

4K Gaming @60fps für 2016 .. halte ich immer noch für unrealistisch. Wenn NVidia mit ihrem aktuellen Schema in den kommenden Jahren weitermachen wird, werden wir an der Spitze abwechselnd HPC und Gaming-Only Karten sehen. Ich vermute ja, dass NVidia mit GP-100 erst Ende 2016 in den Enthusiastenmarkt einsteigen wird. Letztendlich ist Pascal ja auch nur eine Zwischenlösung und die neuen Fertigungsgrößeren gehen nicht mehr so schnell durch, wie im letzten Jahrzehnt.

@ Haffke

Ob AMD noch 2016 im GPU-Segment kontern können wird, wäre ich mir nicht so sicher. ZEN ist ja ohnehin erst für 2017 geplant (oder?) und Intel hat gerade erst die kommende Generation Cannonlake verschoben. Von daher erwarte ich für 2016 nicht allzuviel, zumindest nicht im HighEnd.

tarpoon schrieb:
Für die zukünftige Mittelklasse kann AMD ja einfach in der nächsten Generation die Fiji-Produktion weiter laufen lassen und die Chips entsprechend kastrieren. Bei der Gelegenheit wird man auch direkt alle Chips los, bei denen es von der Qualität nicht ganz für den Einsatz in der Fury gereicht hat.

Denke nicht, dass sich das rechnet. Fiji ist einfach mal ein riesiger Chip und der würde nach dem Shrink der neuen Produktlinie effizienztechnisch ziemlich lausig aussehen, gerade falls wirklich alle anderen Chips auch mit HBM kommen sollten.
Ergänzung ()

Matzegr schrieb:
Ein 14nm High-End Chip mit 64 CUs (1:2 DP:SP Leistung für FirePro Karten) und verbessertem Front-End mit 4 HBM Stacks als Fiji Nachfolger.
Davon dann exakt die Hälfte als Ersatz für Tonga mit 32 CUs und 2 HBM Stacks.
Davon wieder exakt die Hälfte als Ersatz für Bonaire mit 16 CUs und 1 HBM Stack.

Damit hätte man 3 Chips die von der Leistung besser als der Vorgänger sind und als Pro und XT Version insgesamt 6 Karten zum Start. Reicht völlig.

Klingt mir fast zu einfach. Kann ich aber einfach nicht abschätzen, da diese Skalierung bei den aktuellen Karten ja nicht dem Prinzip folgt. Fiji hat ja auch nicht 2mal die Leistung von Tonga.

Ich nehm mal an, dass der 14/16nm Node ähnliche lange zum Einsatz kommt wie der 28nm Node und somit werden wir am Anfang keinen großen Leistungssprung sehen sondern nur einen großen Effizienzsprung. Die größeren Chips kommen dann in 2 Jahren.

Nehme ich auch so an.

AMD hätte aus technischer Sicht auch ein Fiji mit 6 GB bringen können, nur hätte man dann keinen Vorteil mehr in Sachen Verbrauch gehabt, da man dann mit den 768GB/s Speicherbandbreite genauso viel Strom gebraucht hätte wie mit dem Standard GDDR5 Interface und 8 GB.

Sicher? Hätten sie 6 Stacks verbauen wollen, hätte es definitiv mehrere Probleme gegeben:

1) Hitze
2) größere Interposer - wäre dann mit Mehrfachbelichtung, oder wie sich das nennt, also wieder teurer
3) alternativ hätten keine 4096 Shader draufgepasst.
4) Wozu die unnötige Speicherbandbreite?
5) Die Karte wäre noch teurer geworden, hätte aber keine sinnvolle Mehrleistung bekommen

Das sie das wegen dem Energieverbrauch bei "nur" 4GB belassen haben, habe ich so noch nicht gehört.
 
InteGralFormat schrieb:
Klingt mir fast zu einfach. Kann ich aber einfach nicht abschätzen, da diese Skalierung bei den aktuellen Karten ja nicht dem Prinzip folgt. Fiji hat ja auch nicht 2mal die Leistung von Tonga.

Das Fiji X Back-End verhungert durch das zu kleine Front-End. Das müßte man nur verbessern, dann würde auch die Leistung passen. Sieht man ja im Prinzip am Fiji ohne X. Mit 56 CUs hat man ein doppelten Tonga in Form der 285 mit 28 CUs und wenn man sich den Test auf CB anschaut dann bringt die Fiji auch 198% mehr Leistung als die R9 285 in FullHD und hoher Qualität, das passt ja so weit auch wenn die Fiji 9% höher taktet.

Nvidia hat es ja bei Maxwell ähnlich gemacht. GM206 ist ein halber GM204 (nur mit modernerer Video-Engine). Beim GM200 hat man einen GM204 plus 50% GPCs/L2-Cache/SI.


InteGralFormat schrieb:
Sicher? Hätten sie 6 Stacks verbauen wollen, hätte es definitiv mehrere Probleme gegeben

Sicherlich hätte es mehr Probleme gegeben. Ich hab nur das Beispiel Stromverbrauch gebracht, weil man damit im Vorfeld Werbung gemacht hat. Und es im Prinzip ja auch andere Probleme wie mehr Hitze, sinnlose Speicherbandbreite und höhere Kosten (durch mehr Platzbedarf) mit einschließt.
 
. Das würde bedeuten, dass AMD ein komplett neues Lineup herausbringen muss.
Würde sich zumindest anbieten. Alles neu in 16/14nm. In 28nm hat man da einfach zu wenig Anreize gesehen. Vor allem weil die größten Änderungen eh mit HBM zu tun hatten und weniger in Sachen Architektur wie bei Maxwell.
 
simons700 schrieb:
Keine Vorteile?
Schonmal daran gedacht dass der Fiji Chip ohne HBM eventuell deutlich langsammer sein könnte als die NV Karten und sie nur dank der hohen Speicherbandbreite gleichziehen können?

Das ist eine Vermutung Deinerseits. Und nochmal: HBM-Speicher bringt dem Fiji-Chip keine Vorteile!


InteGralFormat schrieb:
Nun rate mal, wohin die Entwicklung geht.. Hm stimmt - 4K. Aktuell hat AMD das Problem, dass viel zu viele unterschiedliche Designs auf dem Markt sind, sprich kein einheitliches Featurelevel etc.. und es kein Design gibt, was man einfach skalieren kann, wie man es gerade braucht. Da hat NVidia einfach die Nase vorn.

Auch bei 4k hat der Fiji-Chip kein Speicherbandbreitenproblem! AMDs Chips haben auf Speicherseite kein Skalierungsproblem, sondern im Chip selbst: Frontend zu klein, zu wenig Rasterizer, zu wenig Takt, ...
 
Matzegr schrieb:
Das Fiji X Back-End verhungert durch das zu kleine Front-End. Das müßte man nur verbessern, dann würde auch die Leistung passen. Sieht man ja im Prinzip am Fiji ohne X. Mit 56 CUs hat man ein doppelten Tonga in Form der 285 mit 28 CUs und wenn man sich den Test auf CB anschaut dann bringt die Fiji auch 198% mehr Leistung als die R9 285 in FullHD und hoher Qualität, das passt ja so weit auch wenn die Fiji 9% höher taktet.

AMD hat die passende Balance noch nicht gefunden. Weiß aber auch nicht, ob das die Architektur überhaupt hergibt. Zeigt doch Tonga im Endeffekt recht deutlich. Frontend gegenüber Tahiti verbreitert, was man unter 1080p merkt, aber drüber fehlt die Shaderleistung. Um das jetzt mit Maxwell zu vergleichen, oder da stärker in's Detail zu gehen, fehlt mir hier aber eindeutig das Fachwissen.

Kasmopaya schrieb:
Würde sich zumindest anbieten. Alles neu in 16/14nm. In 28nm hat man da einfach zu wenig Anreize gesehen. Vor allem weil die größten Änderungen eh mit HBM zu tun hatten und weniger in Sachen Architektur wie bei Maxwell.

Eigentlich ist es ein Muss, dass eine komplett neue Produktpalette eingeführt wird. Anders sehe ich gar keine Konkurrenzfähigkeit. Und einen besseren Zeitpunkt für eine neue Produktpalette gibt es eigentlich auch nicht. Allein schon, um wieder einheitliche Features zu bekommen. Ist doch für's Marketing mehr als bescheuert, wenn ein neuerer schwacher Chip irgendwas neues kann, was eigentlich der stärkere, ältere bräuchte.

Aber die Architektur muss auch zwingend verbessert werden. Mind. mit HInblick auf die Energieeffizienz. HBM in Fiji ist zwar alles andere als schlecht und man hat gezeigt, dass man unter diesem Aspekt auch zu NVidia aufschließen kann, trotz deutlich geringerem R&D-Budget. Aber NVidia setzt auch auf HBM und nimmt damit den selben Vorteil mit - AMD sieht wieder schlechter aus.

Eigentlich schlimm - mit sinkendem Marktanteil wachsen die Erwartungen an AMD kontinuierlich..
 
InteGralFormat

Gerade bei hohen Auflösungen holt AMD stark ein. Das wurde aber hier schon erklärt wieso.
Und schon mal daran gedacht, dass AMD das Jahr nur eine neue Maske hat fertigen lassen und deshalb kein neues Line Up in 28nm mehr geliefert hat, weil man das Geld in den 14nm FinFet investiert.
Interessant ist ja, dass AMD da von nur 33mio gesprochen hat. Wird wohl an der engen Zusammenarbeit mit Synopsys zu tun haben, die für AMD das Design bis 10nm die Chips anpassen.
Somit spricht nichts dagegen, ein komplettes Line Up in 14nm auf den Markt zu bringen.

Daneben gibt es dann noch eine Maske für Zen und die 7Gen APU wird noch auf einen Carrizo Refresh setzen.
Es ist eben noch unklar ob AMD jetzt seine neuen Grafikkarten bei GF oder TSMC fertigt, aber bei ersteres könnte man technologische, aber auch wirtschaftliche Vorteile haben.
 
Zuletzt bearbeitet:
AMD war doch in den letzten Jahren bei höheren Auflösung sowieso besser aufgestellt, als bei niedrigen. Vom Prinzip macht das die Fury heute aber nur für Leute interessant, die 4K haben und mit den 4GB leben können.

Und schon mal daran gedacht, dass AMD das Jahr nur eine neue Maske hat fertigen lassen und deshalb kein neues Line Up in 28nm mehr geliefert hat, weil man das Geld in den 14nm FinFet investiert.

Hatte ich diesen Gedankengang nicht schon geäußert? Es ist auf alle Fälle meine Hoffnung, dass sie rechtzeitig in ein neues Lineup investiert haben und auch mit Verbesserungen neben HBM und einem zügigem Release nach dieser Durststrecke aufwarten können.

Kannst du das genauer ausführen, was genau die 33 Mio sind? Hab das gerade nicht auf dem Radar.

Ich dachte, ZEN soll sowohl für CPUs, APUs, als auch für LP genutzt werden. Rein für die Desktop bzw. "HPC" CPU würde ich mit mind. 2 Masken rechnen. Dass AMD das so modular hinbekommt, dass sie mit einem Modul alles bedienen können, bezweifle ich irgendwie.
 
Es wäre ja wirklich interessant zu wissen wieviel so HBM(2) Speicher eigentlich kostet.
Wirklich rausreißen könnte er AMDs APUs im mobilen Segment.
Wenn sie plötzlich etwas aufgebohrte APUs mit 8/16GB HBM als Hauptspeicher liefern könnten.
Das spart den kompletten DDR4 RAM bzw. GDDR5 VRAM und Strom. Dazu wird die Platine ungemein klein wenn so 16GB DDR4 nicht mehr Platz finden müssen. Für Notebook Hersteller wäre das ein sehr attraktiver chip selbst wenn die CPUs nicht mit Intel mithalten können.
Wenn sich dies insgesamt relativ (man spart ja auch gewisses Geld) billig realisieren lässt, wäre das ein wenig zurück zu mehr Marktanteil.

Problem ist eben man müsste schon mindestens 8GB RAM verbauen was 1 bis 2 (16GB) HBM2 chips bedeuten würde. Dann braucht man den interposer. Am Ende hat man aber mehr Bandbreite als nötig für eine gute Mittelklasse mobil GPU (m370+) und theoretisch sollte es möglich sein das kleine Paket sehr energieeffizient zu betreiben.

Ich denke in der mobilen Mittelklasse müssten sie diesen Technologievorsprung rasch umsetzen, denn die Menge an 600€+ GPU Käufern ist einfach nicht groß. Im mobilen Bereich bringt der kleine Platzverbrauch am meisten, die Energieeffizienz ist am wichtigsten und selbst DDR4 wird für schnellere mobile APUs eine knappe Sache.
 
Bezüglich Bandbreite und Stromersparnis hab ich ja in nem anderen Thread schonmal meine Bedenken geäußert, dass der MC von Fiji nicht zwingned auf HBM optimiert worden ist.
r4yn3 schrieb:

Würde das Gerücht wirklich so eintreffen wäre man mit GP104 sicherlich dazugezwungen weiter auf GDDR5 zu setzen, wärend AMD hier die Arctic Island Chips noch weiter für HBM optimieren kann.
Vllt hat man auch bewusst das Frontend von Fiji schmäler gemacht, um sich noch etwas Potential von Arctic Island aufzuheben.

@Krautmaster:Welche Grafiken meinst du mit 6 Stacks bei GP100?

@InteGralFormat: Bei KnightsLanding wird HMC von Mircon zum Einsatz kommen.
 
Zuletzt bearbeitet:
Also ich kann mir nicht vorstellen, dass NVidia kein HBM für GP104 bekommen würde, wenn sie es dort verbauen wollen würden.
Wenn eine Nachfrage besteht, warum sollte Hynix dann durch einen Exklusivdeal einen Partner verschmähen, der deutlich größeren Absatz und tiefere Taschen hat?
Und wenn man sich die aktuellen Quartalsberichte von AMD anschaut, dann setzt man doch erst recht nicht nur auf einen Abnehmer. Gut - falls da ein Vertrag existiert - aber wer bitte würde sich selbst so beschränken?

Zumal ich irgendwo gelesen habe, dass man beim kommenden Shrink das SI von GDDR5 nicht wirklich verkleinern kann, sprich auch keine Effizienzverbesserung bekommt. Sollte das so korrekt sein und man würde den Speicher nochmal ein Stück höher takten, würde man sich ja auch hier nochmal in's eigene Fleisch schneiden. Aber wiegesagt - hab ich nur so gelesen.

Das mit KNL war nur darauf bezogen, dass Intel eine vergleichbare Technik derzeit schon hat.

ps: Recht interessanter Gedankengang im Fury X Thread.
 
Naja geht ja nicht um kein HBM für GP104, sondern einfach um zu wenig. Vllt bekommt dann Nvidia nur die Stückzahlen an HBM, die AMD nicht braucht. Das wäre schon heftig. Natürlich nur alles spekulativ.

Bzgl. GDDR5, Samsung bietet ja seit heuer schon 8Gbit/8gbps Chips an, womit man recht simpel die Speicherbandbreite und den Speicherausbau anheben könnte. Effizienzverbesserungen sollten mitn 14/16nm genügen da sein. So könnte man dann auch noch die Effizienzverbesserung durch HBM extra nochmal verkaufen. :D natürlich wieder nur Spekulationen.

Aber ja, lassen wir uns überraschen.
 
Wie ich schon schrieb: Ich kann mir vorstellen, dass GP100 vor GP104 kommt. Und GP100 dürfte zwar von der reinen Menge her einen großen Speicher bekommen, aber in der Stückzahl dürften das vor allem an die Industrie nur kleine Dosen sein, gemessen an projezierten GP104 Stückzahlen. Sogesehen könnte das durchaus sehr gut zu dieser und der anderen Meldung passen, dass GP100 gerade den tapeout hatte. Dann könnt es in den nächsten Monaten den tapeout von GP104 zur Meldung geben und Ende 2016 dann die ersten Karten damit.

Weiß ja nicht, ob für GP104 2 stacks mit je 2 GB bzw. 4 GB funktionieren. Von der Bandbreite dürfte es noch ausreichen. ;)
 
Wenn GP100 früher kommt, dann nur für Tesla/Quadro. Und ob man von Beginn weg hier 32GB HBMv2 anbieten kann halte ich für fraglich. Zumindest bei 4 Stacks.

Wieso sollte es nicht klappen? Mit HBMv2 hättest du mit 2 2-Hi Stacks 4GB Vram und ebenso 512GB/s. Aber ich denke auch, die Ausbaute wird bei 2-Hi Stacks stark zunehmen.
 
Wenn das Stimmt mit HBM2 was macht dann Nvidia wenn es wie jetzt läuft? Es sind noch nicht mal genug HBM1 da für AMD alleine und die Ausbeute bei HBM2 wird nochmals geringer sein.

Nvidia hat sich bei der Industrie ganz schön ins Abseitz gestellt. Ob die Wahl von TSMC gut wahr ist auch noch fraglich. Wenn da Apple oder Huawai oder sonst ein Mobiler kommt der was in 14nm Fertigen will da kann sich Nvidia dann erst mal hinten anstellen.

Nicht umsonst macht CEO von Nvidia bei jeder Gelegenheit Werbung wie gut doch TSMC sei.
 
Zuletzt bearbeitet:
Ich mache mir da überhaupt keine Sorgen über NVidia.
HBM1 links liegen lassen war wohl eine Richtige Entscheidung, weil was nützen Neue Technologien, wenn man die nicht verkaufen kann weil es nicht genug HBM gibt.
Während AMD mit HBM rum gefummelt hat konnte NVidia früher Launchen und auch fleißig verkaufen.

Dann ist ja zumindest für mich noch die Frage offen, ob wir HBM auf GPU's zur Zeit überhaupt brauchen. Limitiert bei der Speicherbandbreite irgendwas? Ich sehe außer etwas weniger Stromverbrauch keinen Vorteil für uns Gamer bei der Nutzung von HBM.
Interessant wäre noch der Preisliche Unterschied zwischen 4GB HBM und 4GB Gdr5.
 
Und du meinst hbm2 wird besser verfügbar sein? Nvidia hat hier alles falsch gemacht indem die sich keinen Zugang zu hbm2 durch hbm1 gesichert haben und damit wahrscheinlich auch die Partner Verärgert haben!

Außerdem sieht es dann nächstes Jahr düster aus für Nvidia. Dann passiert dann das was AMD jetzt passiert ist das der Lunch zu spät war. Nur mit dem kleinen Unterschied das Nvidia nicht sagen kann wir haben auf eine neue Technick gewartet so wie es AMD mit HBM getan hat.

Im übrigen wird AMD mehr Zeit für die Intwicklung von 14nm stecken können als Nvidia. AMD hat praktisch mit Fiji einen GCN refresh gebracht was nicht so Zeitintensive gewesen sein dürfte wie die Entwicklung von Maxwell welcher komplett neue Entworfen wurde. Zudem hat AMD mit dem Jetzigen Projekt auch schon mal HBM vorausentwickeln können und praktisch zwei Fliegen mit einer Klappe geschlagen. Zwar hat es wohl etwas mehr Zeit gekostet HBM zu integrieren. Aber dafür spart man sich nun die Zeit bei 14nm Fertigung. Des weiteren können sie nun effektive Testen wo die Schwachstellen von HBM sind.
 
Zuletzt bearbeitet:
Naja von falsch gemacht würd ich da nicht sprechen. Es liegt halt an der jahrelangen Zusammenarbeit mit SK Hynix. Nvidia hätte ja am Anfang auf Micron und HMC gesetzt, tja, das war wohl nichts.
 
r4yn3 schrieb:
Wenn GP100 früher kommt, dann nur für Tesla/Quadro. Und ob man von Beginn weg hier 32GB HBMv2 anbieten kann halte ich für fraglich. Zumindest bei 4 Stacks.

Genau - das mein ich ja. Erstmal der Profi / Industriemarkt. Denen ist's ja egal, ob das Teil mehrere tausend Euro kostet, solange es ordentlich HPC kann.

Wieso sollte es nicht klappen? Mit HBMv2 hättest du mit 2 2-Hi Stacks 4GB Vram und ebenso 512GB/s. Aber ich denke auch, die Ausbaute wird bei 2-Hi Stacks stark zunehmen.

Ich hab keine Ahnung, wie es von der Ansteuerung aussieht.

ampre schrieb:
Wenn das Stimmt mit HBM2 was macht dann Nvidia wenn es wie jetzt läuft? Es sind noch nicht mal genug HBM1 da für AMD alleine und die Ausbeute bei HBM2 wird nochmals geringer sein.

Nvidia hat sich bei der Industrie ganz schön ins Abseitz gestellt.

Worauf fußen diese Aussagen? Also wieso ist "nicht mal genug HBM1 da für AMD"?

oldmanhunting schrieb:
Dann ist ja zumindest für mich noch die Frage offen, ob wir HBM auf GPU's zur Zeit überhaupt brauchen. Limitiert bei der Speicherbandbreite irgendwas? Ich sehe außer etwas weniger Stromverbrauch keinen Vorteil für uns Gamer bei der Nutzung von HBM.

Nicht für CPUs. Für APUs. Denn dort limitiert gerade die Bandbreite enorm. Weiterhin gehört das mit zum Plan bezüglich HSA.

Interessant wäre noch der Preisliche Unterschied zwischen 4GB HBM und 4GB Gdr5.

Interessant ist auch die Frage, was mit dem GDDR5 Preisen passiert, wenn HBM größere Marktanteile bekommt.

ampre schrieb:
Nvidia hat hier alles falsch gemacht indem die sich keinen Zugang zu hbm2 durch hbm1 gesichert haben und damit wahrscheinlich auch die Partner Verärgert haben!

Auch hier bitte: Worauf basiert diese Annahme?

Ihr glaubt doch nicht, dass NVidia für Maxwell kein HBM eingeplant hat, weil sie es verschlafen haben. Es hat nicht in den Zeitplan reingepasst, wäre für die Mittelklasse noch zu teuer und für HighEnd nicht mit ausreichender Kapazität verfügbar. Was bitte hat NVidia hier also falsch gemacht?

Ich würde sogar wetten, dass Pascal für den Gaming-Sektor auch ohne HBM gut dastehen würde.

Außerdem sieht es dann nächstes Jahr düster aus für Nvidia. Dann passiert dann das was AMD jetzt passiert ist das der Lunch zu spät war. Nur mit dem kleinen Unterschied das Nvidia nicht sagen kann wir haben auf eine neue Technick gewartet so wie es AMD mit HBM getan hat.

Lunch? Ist wohl warm geworden :p

Ich sehe es überhaupt nicht düster werden.

Im übrigen wird AMD mehr Zeit für die Intwicklung von 14nm stecken können als Nvidia.

Was interessiert denn hier die Zeit? Dann steckt NVidia halt das 3fache Bugdet rein und zwack - wieder auf dem neusten Stand. Dass AMD bei 14nm weiter ist als NVidia bezweifle ich irgendwie stark.

AMD hat praktisch mit Fiji einen GCN refresh gebracht was nicht so Zeitintensive gewesen sein dürfte wie die Entwicklung von Maxwell welcher komplett neue Entworfen wurde.

Da hat AMD ja wirklich gut sparen können. Und der Umsatzeinbruch hat sich wirklich gelohnt.

Zudem hat AMD mit dem Jetzigen Projekt auch schon mal HBM vorausentwickeln können und praktisch zwei Fliegen mit einer Klappe geschlagen.

Was nützt AMD eine neue Technik, falls sie morgen weg vom Tisch sind? (sind sie natürlich nicht nicht)
AMD hat es geschafft, sich mit einem einzigen neuen Design, basierend auf alter Architektur, im Spiel bzw. Gespräch zu halten. Ich denke, dass das fast der größte Vorzug von Fury ist.
 
Zurück
Oben