News Vega 10 und Vega 11: AMDs „High-End Architecture“ kommt in zwei Varianten

Mal eine andere Idee, warum entwickelt AMD nicht sowas wie einen Multichip Die und koppelt die beiden GPU Hälften dann mit einem Ringbus, gerne auch auf einen gemeinsamen interposer mit etwas HBM2 memory. Intel baut seit Jahren ihre Xeon e5 xeon EP so auf, wenn auch teilweise noch aus einem einzelnen Stück Silizium. Quasi 2x CPU Die die dann per QPI, Ringbus what Else ever interconnector sowohl zwischen den CPU Sockeln als auch innerhalb des Sockels verbunden sind. Warum nicht sowas auch bei Grafikkarten machen und die beiden Chips dann von außen wie einen großen Core ansprechen. Dann gab es evtl ein paar Latenzverluste aber so könnte aus 2 Teil defekten Chips ein semigroßer Cluster gebaut werden. Incl einem großen SI Interface. Was haltet ihr davon.
 
Bärenmarke schrieb:
Also ich könnte mir gut vorstellen, dass die R490 als Polaris vollausbau mit GDDRX erschein :)
Polaris 10 mit seinen 36CUs wie es bei der RX 480 der Fall ist, ist schon der Vollausbau. Auch mit theoretischen 40CUs und GGDRX5 würde man nicht auf eine 1080 aufschließen können.

Buttermilch schrieb:
Mal eine andere Idee, warum entwickelt AMD nicht sowas wie einen Multichip Die und koppelt die beiden GPU Hälften dann mit einem Ringbus, gerne auch auf einen gemeinsamen interposer mit etwas HBM2 memory. Intel baut seit Jahren ihre Xeon e5 xeon EP so auf...
Das hat man über die Jahre schon so oft gelesen, der Grund bleibt der selbe. CPUs haben 24 Kerne, aktuelle Grafikkarten bereits mehrere Tausend. CPUs sind komplex, hier muss ein Kern mit dem anderen kommunizieren können. Das ist bei einer GPU nicht der Fall. Selbst wenn man es so machen möchte, wäre das Ergebnis nichts anderes als eine Dual GPU Grafikkarte, und eine solche Entwicklung ist meist eine Sackgasse.
Nein, besser ist es immer gleich einen größeren Chip zu machen.
 
smalM schrieb:
Ein Alptraum!
Vielleicht solltest Du noch einmal darüber nachdenken, wieso der RAM-Typ nicht High Speed Memory sondern High Bandwidth Memory heißt.
Die Geschwindigkeit ist mau, die Lantenz ist hoch, die Zen Cores würden in Warteschleifen verkümmern.
Dass ist doch vollkommener Quatsch, den du da von dir gibst! Die "Geschwindigkeit" eines Speichers misst man üblicherweise in GB/s, das Googlen der Geschwindigkeiten von normalem DDR-SDRAM und von HBM überlasse ich dir nun selber. Über die Latenzen (bzw. Zugriffszeiten) von HBM und DDR bin ich jetzt nicht genau informiert, aber auch da sollte HBM alleine durch die direkte Anbindung über den Interposer einen großen Vorteil haben.

Ich gehe sogar soweit und glaube, dass in nicht allzu ferner Zukunft die Caches bei Prozessoren eingespart werden können und durch HBM ersetzt werden, zumindest der L3!

Und @ll mit "220W dafuq? Will keiner, kann keiner, Turbine!" ... was verbruzelt eure aktuelle Grafikkarte so? 275W vielleicht? oder 225W? Man kann 220W locker mit einer ordentlichen Kühllösung wegkühlen, dass zeigen alle aktuellen Grafikkarten. 220W TDP für CPU + GPU + RAM ist doch absolut optimal, man braucht nur einen ordentlichen Kühler und transportiert damit quasi die Abwärme des gesamten Systems weg, kann mir nix besseres vorstellen.
 
Deswegen ja auch die Betonung auf Bandwidth. Die Latenzen sind ähnlich wie DRAM, ~40ns. Wenn überhaupt würde sowas als L4 Cache, so wie es beim eDRAM eines i7-5775C der Fall ist, in Verwendung kommen.
 
Hmm, da bei mir die Anschaffung einer Grafikkarte ansteht, wäre Vega 10 und 11 zeitnah doch nicht so verkehrt. Vega 11 sollte doch dann das 1080-Gegenstück sein und Vega 10 das TI-/Titan-Gegenstück sein.
 
Was mich ein wenig verwundert ist, dass niemand wirklich Bezug darauf nimmt, dass NVIVIA es schafft, mit weniger Features bzw. bewusster Beschneidung der Hardware (DP, VRAM, Speicherinterface, Bandbreitenkomprimierunsgstechniken usw.) mehr FPS bei Spielen auf die Strasse bringt und dadurch wahrscheinlich auch die Effizienz verbessern konnte (bei gleicher Fertigung) und wieder kann. Seit der AMD GCN Gen3 versucht es AMD bewusst auch (DP, Komprimierung) & seit dem shrink auf 14nm verbessert sich auch die Effizienz. Ich spreche das nochmal an, da man aktuell sehen kann, was passiert, wenn zu wenig Arbeit in die Treiberarbeit gesteckt wird oder sich niemand aktiv an andere APIs wagt / beteiligt (Vulkan). Im Netz kursieren sehr lustige Kombinationen von CPU / GPU (egal welcher Hersteller oder Leistungsklasse), welche plötzlich mit Vulkan je nach dem bis zu 50% MEHR Leistung herausholen können (Paradebeispiel Doom) !

Ich fände es für uns Kunden weitaus transparenter und für (zumindest einem Hersteller) die Hersteller wesentlich fairer, wenn nur die Spieleentwickler selbst die API Schnittstellen nutzen würden / dürften um Optimierungen zu gewährleisten.

So wird aktuell jedem Grafikfetischichten (eingeschlossen meiner kranken Seele) u.U. jedes noch so kleine "künstliche" Upgrade schön geredet.


Naja, was solls, back2topic: 😱


Ich hoffe eigentlich, dass AMD mit Vega 10 / 11 (hoffentlich 1. Quartal 2017 die stärkere von beiden) nicht (zu) stark auf Effizienz bedacht ist (schlauer wäre ein anpassbarer & dynamischer FPS limiter je nach Spiel konfigurierbar), sondern auf effizienter Skalierung für Full HD / WQHD / 4K.
Dazu würde es sich mal wieder gehören, OHNE Powertarget künstlich zu beschneiden, gutem OC Potenzial (ich gebe nix um GPU Boost Stufe X), auslesbaren VRAM Temperaturen und (meinetwegen) auch gerne 12 GB HBM2 für ein Flaggschiff, leiser Referenz AIO Wakü und möglichen nachrüstbaren LuftKü, HDR usw.....

Ja ich weiss, aber träumen darf man ja wohl noch (sorry das musste alles mal raus)...:p
 
Zuletzt bearbeitet:
Es ist ruhig um HBM2 geworden. Ich hoffe trotzdem nicht, dass die noch vor Jahresende vermutete AMD Karte eine Dual mit GDDR5 sein wird. Das wäre schade. Eine Dual mit GDDR5 fände ich wenig innovativ und wenig interessant für einen letzten Systemupgrade wegen der Effizienz und auch nicht wirklich interessant für ein neues System.*

*gesagt aus einer Spaßbastlerperspektive - man kann das sicher auch anders sehen
 
Zuletzt bearbeitet:
Nachdem ich mir jetzt doch noch eine Fury Nitro gegönnt habe ist mein Hardware Hunger fürs erste gestillt. Jetzt kann ich in Ruhe abwarten bis AMD und NVIDIA ihr Pulver verschossen haben und dann suche ich mir in Ruhe die für mich beste Grafikkarte (FreeSync Monitor und Vive) heraus. :)
 
HBM 2 kommt wohl bis 4 GB Stacks Q3:

http://www.anandtech.com/show/10527/sk-hynix-adds-hbm2-4-gb-memory-q3

Dann braucht man in jedem Fall 4 davon für eine Vega mit 16GB, denkbar dass man aus Kostengründen auch auf 8GB setzt. Von der Bandbreite und SI her würden auch wegen den Kosten für Interposer usw. wohl 2 Stacks reichen. Die Frage ist wie AMD Vega ausgelegt hat. Denkbar dass der kleinere der Chips auf 2 Stacks, der größere auf 4 ausgelegt ist.

Wenn AMD mit 8 GB Stacks kalkuliert hat verzögert sich die Sache etwas, wobei ich denke dass mindestens 4 davon geplant waren da man im professionellen Umfeld sicher 32 GB anbieten will und dafür ja auch 4x8GB nötig wären.

Ich geh davon aus:
Little Vega: 2x 4GB stacks, 8GB, 2048-bit, 408-512GB/sec
Big Vega: 4x 4GB stacks, 16GB, 4096-bit, 816-1024GB/sec
 
Zuletzt bearbeitet:
Ich glaube irgendwo einen Artikel gelesen zu haben, der Vega auf März 2017 ansetzt. Wenn jetzt HBM 2 für Q3 bestätigt ist und Q1/17 für das Endprodukt zumindest im Bereich des Möglichen liegt, wird interessant zu sehen, wie sich die Chips nach Polaris weiterentwickeln (OC Potential, Effizienz, Multimonitoring, etc.).
 
Zuletzt bearbeitet: (kleine Ergänzung)
Zurück
Oben