News Radeon RX Vega: Varianten XTX, XT und XL bei AMD in der Entwicklung

Krautmaster schrieb:
... man sich schon ernsthaft fragen muss wie genau so ein HBCC funktionieren soll wenn das 2. Tier der normale langsame Arbeitsspeicher über PCIe ist. Für mich ist HBCC stand jetzt eher Marketing Geblubber und dürfte "schlicht" einer Optimierung im VRam Handling entsprechen (Kompression um zB Bandbreite zu sparen), sowie einem größeren virtuellen Adressraum der quasi "unbegrenzten" VRam durch Auslagerung in den Ram zur Verfügung stellt (meine das geht bei Cuda auch). Mag aber auch sein dass HBM kleinere Blöcke adressiert und so vielleicht effizienter gefüllt und gelesen werden kann .. aber 4GB würden sich Marketing technisch nicht sonderlich gut machen. Imho bieten AMDs 200€ Karten schon 8GB.
Auch denk ich wie gesagt weniger dass AMD ie kleine Vega direkt ab Launch noch weiter differenzieren muss als über die Shader. Auch wegen dem recht statischen VRam Interposer Chip Konstrukt ... Fiji ist da wenig qualifiziert und Vega FE auch - was wiederum wenig für deutlich bessere VRam Latenzen spricht. In der Theorie soll HBM diese haben ja. Deswegen meinte ich auch dass sich AMD nun mit HBM beweisen muss.
Eventuell bekommen wir ja an diesem ersten Vega Tour Termin am 18. einen Vorgeschmack.
Eventuell agiert der HBCC also erst dann als Cache wenn mehr VRam verlangt wird als dass der Cache bereitstellen kann ... gibt eine "Fake" Textur aus (zb transparent) bis die eigentliche Textur aus dem 2. Tier, dem Ram, ins HBM verlagert wurde. Wenn man also das HBCC zb rein auf Texturen angewendet sieht fackelt man den Cache Miss kontrolliert ab indem man da, um Ruckler und Wartezeiten zu vermeiden, erst einen "Dummy" zurück gibt und parallel dazu die Textur in den Cache zieht + eine andere Textur verwirft.

Das wissen wohl nur AMD/RTG (vielleicht noch SK Hynix), so gesehen kann man nur über HBM2+HBCC spekulieren, was Du ja auch vorbildlich getan hast :).

Gehen wir 'mal von einer 4GB HBM2 Einsteigerversion von RX Vega XL aus, wen würde die Karte denn ansprechen/abfangen? Nun, das dürften in erster Linie Leute im Full-HD bis WQHD Segment sein, die viel Wert auf Rohleistung legen (bspw. in Ego-Shootern wo es primär auf fps und nicht die hübscheste Grafik ankommt ... es ginge also in die Richtung der Viewsonic 240Hz Full-HD-Monitor-Klientel).

Wenn die 8GB GDDR5 Leistung bei min. fps wirklich stehen sollten (FreeSync nimmt da evt. auch eine Kernrolle ein), sähe ich auch keinen Grund solch eine Karte bei niedrigerem Preis und höherer Rohleistung nicht einer angestaubten GTX 1070 vor zu ziehen.

Das kann im einzelnen schon vom Budget des Interessenten/potentiellen Käufers abhängen und noch würde ich mich nicht nur an die physische Größe der Speichermenge klammern wollen, wenn die Verlagerung/Adressierung im virtuellen Bereich (ich denke das ist die Essenz bei HBCC) so klappt wie beworben.

Wo ist denn derzeit eine GTX 1060 angesiedelt und wieviel Speicher bietet diese maximal und darüber beschweren sich aktuell auch noch die wenigsten. Also eine 4GB RX Vega XL sollte mindestens auf dem Speicher-Niveau bei avg. Frames einer GTX 1060 liegen und letztere ist die mit Abstand populärste/meistverkaufte nVidia GPU derzeit (laut Steam-Statistiken) und die Mehrzahl der Spiele benötigt aktuell nicht mehr als 6 GB.

Es gibt etwas mehr als eine Hand voll Spiele die mehr als 6 GB benötigen bei maximierten Details auf ultra/hyper Einstellungen in gewissen Auflösungen für beste Texturqualität, aber momentan ist das noch Nische und wieso soll so eine kleine (4GB HBM2+HBCC) XL Version nicht für mindestens 2 Jahre gut sein was den Speicher angeht oder gar fast äquivalent zur aktuellen nVidia Oberklasse (Karten mit GP104 Chips) bei geringfügig kürzerer Langlebigkeit aber besser Rohleistung zum geringeren Preis?

Ist die Frage wie AMDs 200+Euro GPUs im Vergleich zu einer vielleicht 100 Euro teureren 4GB HBM2+HBCC RX Vega XL aussehen bzgl. effizienter Speichernutzung und -Adressierung? Vega ist kein Polaris Refresh oder eine normale GCN-Iteration, sondern im großen Rahmen überholt und ich würde schon eher von einer fast komplett neuen GPU-Architektur sprechen als einem Refresh oder standardmäßigen Weiterentwicklung der vorherigen GPU-Halbgeneration.

Das steht im Gegensatz zu dem was bei nVidia derzeit läuft, da wird zu Tode optimiert und das letzte herausgequetscht, weil es gewinnbringender ist und weniger riskant als einen großen Schnitt zu machen und "Experimente" einzugehen und vermutlich wird Volta auch nur eine leicht aufgebrezelte Version von Pascal in 12nm TSMC Fertigung, auch wenn ich persönlich mehr/besseres/innovativeres von nVidia erwarte als ein weiterer getunter Maxwell/Pascal Shrink.

Dass HBM Speicher besser/kompletter/detaillierter adressierbar sein soll, geistert ja schon seit Fiji umher und dem reinen Marketing-Geblubber stehen eben die Demos von Koduri (bspw. bei Deus Ex Mankind Divided) entgegen; bestätigen/beleuchten werden HBCC und evt. deutlich bessere Frametimes (geringere Latenzen als bei GDDR5(X)) aber erst Tests können und ich hoffe, dass Wolfgang und Volker gerade darauf ein besonderes Augenmerk haben werden.

Ich hoffe nur, das AMD den RX Vega Gaming Treiber vorher ausreichend optimiert bekommt für den Marktstart, zumal damit wohl auch ältere Titel gestestet werden dürften und nicht nur die aktuellesten AAA Spiele. Natürlich ergibt sich bei älteren Spielen aber auch kein so großer Speicherhunger, so das HBCC eigentlich erst ab 3GB Speicherhunger und darüber für eine 4 GB HBM2 Version aktiviert werden dürfte.

Ob das nun über einen von Dir spekulierten Platzhalter/"Dummy" passiert, der vortäuscht/doppelt(ähnlich wie eine Sync-Technik bei Monitoren)/Zeit gewinnt, oder auch ohne Attrappe durch VMA gezielt größere Speicherbrocken cached und in RAM verlagert, der Fokus auf sortieren und adressieren liegt, ist schwer einzuschätzen, denn wirkliche Indizien oder Leaks gibt es dazu derzeit nicht.

Hoffentlich wird die HBCC "Black Box" von AMD oder Testern ein wenig gelüftet, auch wenn AMD da vermutlich eher still bleiben wird und nVidia an der Arbeit eines Pendants keine Hilfestellung bieten wollen wird.

Überfällig ist so eine Lösung (die Speichervolumen eindämmt, mehr Platz für andere Architektur schafft und ständig steigende Speicherkosten limitiert) allemal beim immer größer ausartenden (und größtenteils ungerechtfertigten/ohne großen Mehrwert verbundenen) Speicherhunger von Entwicklern und den mittlerweile exorbitanten Speicherpreisen (in Relation zu anderen Hardwarekomponenten).

P.S.: Zu große Hoffnung darauf, dass AMD die Katze vorzeitig aus dem Sack lässt während der Tour würde ich mir nicht machen ;). Das wird vermutlich nur reines Marketing Getrommel sein, evt. mit optimierter Demo-Leistung aber insgesamt vermutlich so ausgelotet, dass man nicht wirklich viel daraus sich wird zusammen reimen können vor der Siggraph 2017 Präsentation.

P.P.S.:

Zu Frametimes habe ich folgende SK Hynix Aussage (in diesem schon etwas älteren, aber dennoch informativen HBM2 Artikel auf Anandtech) gefunden:

SK Hynix says that the Pseudo Channel mode optimizes memory accesses and lowers latency, which results in higher effective bandwidth.
While memory makers expect HBM2 to deliver higher effective bandwidth than predecessors, it depends on developers of memory controllers how efficient next-generation memory sub-systems will be.

Das sagt natürlich nichts gegenüber GDDR5(X) im direkten Vergleich aus, aber in gleicher Weise wird in diesem älteren ComputerPowerUser Artikel die JEDEC zitiert und HBM2 gegenüber HBM1 hervorgehoben was erhöhte Bandbreite und reduzierte Latenz angeht:

A big upgrade, according to the JEDEC, is HBM2’s “pseudo-channel” architecture, which is a technology that helps to maximize memory bandwidth. “Pseudo-channel architecture is an optional component of the HBM2 specification that subdivides certain aspects of the communication channels within the memory,” says Hallock. “This can reduce latency and increase higher effective bandwidth in some configurations.” The pseudo-channel is similar in function to Intel’s Hyper-Threading technology for processors, as it splits a memory channel into two sub-channels that can individually decode and execute commands.

Das liest sich schon verdammt potent (dagegen ist GDDR5(X) altbacken von der Architektur her), wenn AMD das Zusammenspiel von HBM2 und HBCC gut hinbekommen sollte ;). Zudem könnte dadurch die effizientere Speichernutzung, -adressierung und -auslastung durch HBCC z.T. erklärt werden.
 
Zuletzt bearbeitet:
Eine RX Vega mit so einer AiO(Frontier Edition) im schwarz/rot Farbstil und die Leistung in 1440p stimmt würde ich auf jeden Fall kaufen.
Aber erst mal Tests abwarten und schauen was wirklich auf den Markt kommt.
 
Haben wir die angebliche Bench Info schon ?:
https://www.hartware.de/2017/07/07/benchmarks-der-amd-radeon-rx-vega/
Quelle: videocardz.com

Radeon-RX-Vega-Benchmarks-3DMark11.png
 
Zuletzt bearbeitet:
Mir würde es reichen wenn die Vega XTX an die Leistung der 1080 Ti rankommt , fahre seit Jahren mit vorher ATI ( ach die gute alte XTX1950 ) dann AMD und bereue bisher keine kauf .
Finde Preis /Leistung passte immer bei den Karten die ich gekauft hatte .

MFG : Danger
 
Wenn man die Leistung einer GTX 1080 erreicht ist das gut. Die meisten Leute investieren nunmahl keine 800 € in eine Grafikkarte. Viel wichtiger wäre es eher etwas im 350 €-Bereich zu bieten. Die GTX 1070 fängt ja erst bei 400 € an.

Aber mal abwarten in knapp 1 1/2 Wochen wissen wir mehr.
 
Ka was daran gut sein soll. Ueber ein Jahr zu spaet. Bestenfalls kann man den preis noch ein bischen druecken das wars.
 
Zurück
Oben