News High-End-GPU: AMD Vega 10 mit 16 GB und 1.600 MHz gesichtet

Naja die Frage ist schon ob es sowas wie einen Exklusiv Vertrag gibt. NVIDIA wartet bei den V100 und P100 GPU auf 8Hi Stacks um die geplanten 32GB Karten mit 4 Stacks zu realisieren, dabei kann da Hynix vermutlich Preise verlangen die bei Consumer Produkten unmöglich wären. Würde man sich das entgehen lassen? Ka. Ich denke eher dass AMD VEGA wie Fiji vielleicht auch mit 4Stacks betreiben kann wie bei allen Präsentationen dargestellt. Selbst 16GB wären im Profi Segment eher wenig.
 
Ich hoffe schon des es auch eine "Gamer" Karte mit 16GB geben wird. AMD muss auch etwas klotzen ;)

Wer sich mit 8GB zufrieden gibt kann ja diese Version kaufen. Wäre schade wenn man durch HBM wieder weniger Speicher hätte ... Ich persönlich finde Ram immer gut :)
 
Krautmaster schrieb:
... Frage ist schon ob es sowas wie einen Exklusiv Vertrag gibt. NVIDIA wartet bei den V100 und P100 GPU auf 8Hi Stacks um die geplanten 32GB Karten mit 4 Stacks zu realisieren, dabei kann da Hynix vermutlich Preise verlangen die bei Consumer Produkten unmöglich wären. Würde man sich das entgehen lassen? Ka. Ich denke eher dass AMD VEGA wie Fiji vielleicht auch mit 4Stacks betreiben kann wie bei allen Präsentationen dargestellt. Selbst 16GB wären im Profi Segment eher wenig.

Bisher gibt es ja nur das Design für die Instinct MI 25 Profikarten mit 4 Stacks, ich kann mir kostentechnisch nicht vorstellen, dass bei AMD für eine einzelne GPU (bisher unter Verschluss gehalten) im weitaus weniger profitgebendem Konsumentenmarkt nun noch ein 4 Stack Design existiert und man um 8-High Stacks herum kommen wird, wenn man 16 GB HBM2 verbaut haben will (Dual-GPU-Ausführungen natürlich nicht einbezogen).

Bisher hat nVidia doch komplett den HBM2-Speicher von Samsung bezogen und noch gar nicht von SK Hynix und ist angeblich nur wegen GDDR6 mit SK Hynix auch im Gespräch bzw. versucht sich jetzt dort als Geschäftspartner anzunähern/ins Spiel zu bringen/Trittbrett zu fahren.

Somit wäre es schon denkbar, dass das 8-High Stack-Design vom Mitentwickler der HBM-Technologie, SK Hynix, vorerst exklusiv (nur für den anderen Mitentwickler AMD) verfügbar ist bis Samsung da irgendwann nachzieht bzw. die Lizenz dafür erhält, aber das werden wir u.U. nie erfahren (genauso wie die Preisrelationen zwischen GDDR- und HBM-Speicher unterschiedlicher Typen, auch wenn das sehr interessant wäre) ;).

Also ich gehe schon von einem Mitentwickler (Preis- und Verfügbarkeits-)Bonus aus, was ja auch nur fair wäre und solange AMD die Kapazitäten bei SK Hynix voll auslasten würde (für 2.0 Gbps und 8-High Stack Speichertypen) und nicht alle Produkte offiziell gelistet werden, muss nVidia vorerst mit Samsung als Lizenznehmer Vorlieb nehmen oder evt. irgendwann den öffentlich gehandelten Produkten.

Scheinbar ist Samsung noch nicht so weit gewesen oder hatte keine Lizenz um 8-High Stacks für kommende V100 anzubieten oder aber nVidia war zu knausrig, auch wenn das bei den Preisen - die im Profimarkt genommen werden - eher unwahrscheinlich ist, weil es da eher um Marktanteile als kleine Einsparungen geht und man mit halbem Speicher (also 16 GB HBM2 bei der V100 anstelle von 32 GB HBM, die ich für den Instinct MI 25 Nachfolger erwarte) wohl auch einen deutlichen Nachteil zur Konkurrenz haben könnte.

Lassen wir uns überraschen, auch wenn ich nicht glaube, das wir dazu heute schon etwas erfahren werden, sondern vermutlich erst in 14/15 Tagen bei der offiziellen RX Vega Vorstellung zur Computex.

P.S.: Ich fände ein 3 Stack RX Vega Design für 12 GB HBM2 im Spitzen-Modell der Single GPUs übrigens sehr gut/optimal positioniert für den (Einstiegs-)Enthusiasten-Markt, weil man damit speichermengenmäßig auf derzeitigem Titan Xp Level läge und leicht oberhalb einer GTX 1080Ti, zudem noch vom HBCC Bonus zehren könnte wenn nötig und man weniger Platz und Leistung an Stacks abgeben müsste und preislich weniger Aufpreis verlangen müsste und attraktiver wäre.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
heut Abend 22 Uhr wissen wir hoffentlich mehr.

Ich denke aber, nicht allzu viel.
Ich erwarte eigentlich nur ein Datum und die Aussage, dass auf der Computex dann wirklich alle Hüllen fallen.
 
Turrican101 schrieb:
Das ist ja das Problem, auf dem Papier müsste die RX480/580 ne 1060 eigentlich weghauen, in der Realität liegen sie aber höchstens gleich auf... Ich befürchte auch, dass AMD mit Vega nur zur 1080 aufholen wird und sobald Volta raus ist, hinkt AMD wieder ein Jahr hinterher.
Wie ich bereits in dem von dir zitierten Beitrag schrieb, gibt es neben der Rohleistung der Shader (TFlop/s) noch weitere wichtige Eckdaten für die Leistung einer Grafikkarte.

Zum Beispiel die Texelfüllrate und die Pixelfüllrate. Bei ersterem ist die RX480 der GTX1060 um ca. 33% (182,3 zu 136,6 GTexel/s) bei letzterem ist die GTX1060 um fast 70% voraus (40,5 zu 68,3GPixel/s).

Und genau ein ähnliches Problem hatte ja auch bereits Fiji. Im Endeffekt passt das Verhältnis ROPs zu Shadern und TAUs und TMUs nicht wirklich.
 
Chismon schrieb:
Ja, stimmt natürlich auch wenn zu einem Großteil NCU natürlich noch auf GCN basiert.

Danke für die Korrektur, das war wohl die Macht der Gewohnheit ;)

Ja die Gewohnheit. Die schlägt bei einigen hier im Forum zu.

Hm, wenn ich mir ansehe was AMD alles geschraubt hat ggü. CGN und mit dem Vergleiche was nVidia bei Volta ggü. Pascal ebenfalls als "neue Architektur" bezeichnet, dann behaupte ich bei AMD hat sich wesentlich mehr getan. Die haben weit weniger von GCN übrig gelassen als nVidia bei Volta.
 
Chismon schrieb:
Bisher gibt es ja nur das Design für die Instinct MI 25 Profikarten mit 4 Stacks, ich kann mir kostentechnisch nicht vorstellen, dass bei AMD für eine einzelne GPU (bisher unter Verschluss gehalten) im weitaus weniger profitgebendem Konsumentenmarkt nun noch ein 4 Stack Design existiert und man um 8-High Stacks herum kommen wird, wenn man 16 GB HBM2 verbaut haben will (Dual-GPU-Ausführungen natürlich nicht einbezogen).

braucht es dafür ein eigenes Design? Ich mein groß ist der Chip auch so schon, warum also nicht ein potentielles 800 GB/s- 1000GB/s Si integrieren auf Basis Fiji einfach mit mehr Bandbreite. Davon kann man im HPC nicht genug haben - und dasselbe Chipdesign kann ja im Desktop mit lediglich 2 Stacks abgesprochen werden.

Maske braucht es dafür keine weitere. Der Vega Chip ist ja nicht allzuweit vom P100, der auch 4 Stacks hat. Und das HBM SI is klein. Bei Fiji gings ja auch.

Potentielle 4 Stacks würden einen generell flexibler aufstellen. Man könnte 4-HI Stacks zu 16GB oder mit 2 Stacks 8 GB verbauen, im HPC bis 32 GB bieten - bei lediglich anderem Interposer.

AMD spricht ja auch von 2x IPC auf dem Chip. Da wären 400-500 GB/s direkt wenig Bandbreite bei 2 Stacks.
Ergänzung ()

Ap2000 schrieb:
Ich denke aber, nicht allzu viel.
Ich erwarte eigentlich nur ein Datum und die Aussage, dass auf der Computex dann wirklich alle Hüllen fallen.

joa ich nehme an dass vielleicht Modelle und Namen genannt werden , mit Glück auch etwas die direkten Konkurrenzprodukte. Zb Vega auf Höhe Titan Xp oÄ.
 
Zuletzt bearbeitet:
nospherato schrieb:
Jaja, die guten alten TFLOLPS :D

Das sind die LOL Flops neuer Standart AMD bringt da biscchen Happynes mit rein :p Weil wenn du oder ich dann ein Aktuellen Titel Spielen wollen auf Extrem Settings in 8K läuft das bei 1337 FPS! :D
 
IronAngel schrieb:
Was soll man denn zwischenspeichern oder cachen ? Für was hat man Arbeitsspeicher oder das Spiel kann auch auf einer SSD liegen, also wäre ein zwischenspeichern auf der Hauptplatte sinnlos.

Für die Anwendung ist das transparent,
Ergänzung ()

Mustis schrieb:
@foofoobar
Zudem hat AMD höchst selbst bestätigt, dass die Algorithmen manuell an die Spiele angepasst werden müssen, ob die beworbenen Effekte zu haben....

Anpassen oder optimieren? Gibt es einen Link auf die Quelle?
 
foofoobar schrieb:
Anpassen oder optimieren? Gibt es einen Link auf die Quelle?
Die Engine muss darauf angepasst werden.

Als ein Einsatzszenario für den High Bandwith Cache Controller nennt AMD allerdings auch den Speicherverbrauch in Spielen. Auch Spiele adressieren teils deutlich mehr Speicher als eigentlich benötigt wird. Durch den neuen Controller soll es für den Entwickler einfacher werden, wirklich nur den Speicher zu belegen, der gerade benötigt wird. Allerdings muss die Engine darauf angepasst werden.
https://www.computerbase.de/2017-01...schnitt_hbm2_und_eine_neue_speicherhierarchie
 
Unnu schrieb:
Ja die Gewohnheit. Die schlägt bei einigen hier im Forum zu.

Hm, wenn ich mir ansehe was AMD alles geschraubt hat ggü. CGN und mit dem Vergleiche was nVidia bei Volta ggü. Pascal ebenfalls als "neue Architektur" bezeichnet, dann behaupte ich bei AMD hat sich wesentlich mehr getan. Die haben weit weniger von GCN übrig gelassen als nVidia bei Volta.

das wird man sehen. Diese Tensor Cores bei Nvidia sind schon auch eine kleine Revolution, weniger für uns, wohl aber für AI. Google wird wohl auch den ASIC Tensor CPU den sie entwickelt haben aufblasen - oder Nvidia in Betracht ziehen. Und Google hat gut Asche und eine GPU+Tensor "ASCI" Kombination hat vielleicht auch Vorteile die über uns hier rausgehen.

Dieser ASIC ist wie die Tensor Kerne deutlich schneller und effizienter in der Lage die Matrizenrechnung bei Deep Learning zu lösen. Hab mir die Tage paar Videos angesehen, ist schon cool im Vergleich zu klassischer Informatik. zB: TensorFlow Einführung
Wenige Zeilen Code und man hat eine erstaunlich präzise Erkennung von handgeschriebenen Zahlen. Mit dem Unterschied dass man dem PC das über Training, weniger Coden beibringen muss.

But guess what - und da bin ich bei dir... Tensor wird wie FP64 sicher für einen Desktop Ableger gestrichen (zumindest weitestgehend). Also ja, Volta @ Desktop wird sicher nicht viel mehr als ein größerer Pascal, aber das hat Nvidia meistens gereicht da AMD versucht hat beide Märkte mit einem Chip zu bedienen, was meist mangels Optimierung auf Gaming dann Nachteile in Effizienz und Marge brachte.

Nachdem was ich zu Deep Learning gesehen hab ist es gut möglich dass das die Zukunft ist. Alexa, Siri, optische Erkennung, automatisches Optimieren usw... findet man eig überall Anwendungen für diese Neuralen Netzwerke. Ich denke auch fast mehr als im klassischen HPC Markt.
 
Zuletzt bearbeitet:
So wie es aussieht, ist die vermutlich interessanteste GPU der RX 500 (Polaris Refresh) Serie von AMD endlich auch da, die RX 560 mit Polaris 11 Vollausbau:

AMD-Radeon-RX-560-Hero-1000x462.jpg

AMD-Radeon-RX-560-vs-360.png

Zudem ist wohl auch der Grafik-Deal zwischen AMD und Intel bestätigt, aber angeblich nicht nur - wie wohl beim vorherigen Deal mit nVidia - als Patentschutz, so mutmaßt WccfTech.

Unnu schrieb:
Hm, wenn ich mir ansehe was AMD alles geschraubt hat ggü. CGN und mit dem Vergleiche was nVidia bei Volta ggü. Pascal ebenfalls als "neue Architektur" bezeichnet, dann behaupte ich bei AMD hat sich wesentlich mehr getan. Die haben weit weniger von GCN übrig gelassen als nVidia bei Volta.

Ja, inwieweit "Abwärtskompatibilität" bestehen bleiben wird spannend zu beobachten sein.

Wenn AMD/RTG so viele Ressourcen seit Anfang des Jahres/Verfügbarkeit des ersten Vega-Prototyps in die Treibererstellung und -optimierung verlegt hat, dann kann man schon davon ausgehen, dass sich da einiges geändert hat, auch wenn der Prototyp für die ersten Demos (Star Wars Battlefront 1 und Doom (4)) wohl noch auf einem leicht modifizierten Fiji GPU Treiber lief.

Also wenn nVidias Volta Gaming GPUs nicht viel anders ausfallen als die V100 für den Profimarkt ausfallen (danach sieht es momentan nicht aus) dann kann man wohl auch nicht mit einer großartig überarbeiteten/vollwertigen 14/16nm Architektur rechnen (gehandelt wird derzeit eine Maximalgröße von 600 mm² und ein Leistungszuwachs von 40%, der aber bei Optimierung auf Gaming im Verhältnis zur Pascal Generation wohl größer ausfallen dürfte), sondern wieder nur mit weiterem Tuning/Optimierung der Maxwell-Architektur, da man sich wohl noch auf den Lorbeeren/der Marktführerschaft ausruhen kann.

Spätestens nach Volta im Duell gegen Navi wird nVidia meiner Einschätzung nach einen Schnitt machen müssen und die Architektur stark überarbeiten/anpassen müssen um bei Low Level APIs und anderen sich etablierenden Technikinnovationen nicht in den Schatten gestellt zu werden.

Krautmaster schrieb:
Maske braucht es dafür keine weitere. Der Vega Chip ist ja nicht allzuweit vom P100, der auch 4 Stacks hat. Und das HBM SI is klein. Bei Fiji gings ja auch.Potentielle 4 Stacks würden einen generell flexibler aufstellen. Man könnte 4-HI Stacks zu 16GB oder mit 2 Stacks 8 GB verbauen, im HPC bis 32 GB bieten - bei lediglich anderem Interposer. AMD spricht ja auch von 2x IPC auf dem Chip. Da wären 400-500 GB/s direkt wenig Bandbreite bei 2 Stacks.

Das wäre natürlich fein, aber vielleicht sind die RX Vega GPUs dieses Mal mehr auf Gaming optimiert im Vergleich zu den Profimarktkarten, als das etwa bei Fiji GPUs der Fall war und das Interposerdesign für HBM1 wird evt. nicht mit dem von HBM2 kompatibel sein. Letzteres wäre zwar alleine keine Erklärung, denn bei der Instinct MI25 gibt es den ja auch für 4 Stacks, aber die GPU dürfte eben spezieller auf HPC ausgerichtet und nicht auf den Konsumenten-/Gaming-Markt.

Natürlich macht Dein Einwand Sinn und natürlich böte ein 4 Stack Design etliche Vorteil bzgl. flexiblerer Bestückung (etwa von 4x 1GB oder 2 x 2GB über 4 x 2GB und 4x 4GB zu 4x 8GB) nur mit dem Nachteil vermutlich teurer in der Produktion zu sein und eben mehr Platz/Leistung zu benötigen (irgendwo wird man da schon Abstriche machen müssen).

Nur gehe ich momentan noch nicht davon aus und halte die im Linux Treiber aufgetauchten 16 GB HBM2 in AMDs Tradition wahrscheinlicher für eine Dual-GPU Variante, zumal es auch nicht wirklich Sinn gemacht hätte, dass man nicht ein mit 16 GB HBM2 bestücktes Engineering Sample mit 4 Stacks auf den bisherigen RX Vega Demo-Veranstaltungen gezeigt hätte, wenn ein solches existiert (es sei denn man wollte absichtlich/künstlich den Hype/Wow-Faktor niedrig halten, was nicht wirklich Sinn auf Demo-/PR-Veranstaltungen machen würde).

Allerdings hätten etwa 8-High Stacks damals noch nicht fertig sein können oder man wollte noch nicht die Verfügbarkeit der Konkurrenz vorzeitig gegenüber lüften (sich somit einen Wettbewerbsvorteil sichern), da nVidia nun im V100 auch evt. deswegen keine 32 GB HBM2 einplanen konnte.
 
Zuletzt bearbeitet:
angesichts der Tatsache dass das HBM SI auf dem Chip selbst aber noch deutlich kleiner sein sollte als zb das 384 Bit SI des GP102 (was selbst vllt 10% der DIE braucht) - wäre die Lösung mit 4 HBM Stacks, sofern das Design universell (Gaming+ HPC) ist, vielleicht die bessere Lösung - und auch wirtschaftlicher.

Wenn ein eigenes HPC Design für AMD Sinn macht dann eher wirklich abgegrenzt, was dann bei einm 500mm² Chip schon eher in Volta / Polaris P100 / V100 Niveau reichen müsste. Also zb 700mm² mit 4 Stacks, dann okay.

Ich denke wenn AMD einen extra "Consumer" Ableger bringen würde, dann hätte man auf HBM vielleicht verzichtet und ggf wieder auf 512 Bit + GDDR wie bei Hawaii gesetzt. Auch da braucht das SI im Vergleich zu Hawaii nurmehr die halbe Fläche und sind technisch auch bei Karten um 200€ kaum ne wirtschaftliche Hürde.

Edit:
Mag aber sein dass AMD felsenfest mit 8-HI Stacks gerechnet hat und dann auf 2 HBM SIs statt 4 gesetzt hat. Auch wenn man damit sicher nur wenig an Die Fläche spart...
Dann hätte man aber auch irgendwie 0 aus der Fiji gelernt, die selbst mit 4 Stacks eher zu wenig VRam hatte. Und mit 2x Vega 10 und 2x8 GByte als Dual-GPU gewinnt man im HPC auch deutlich weniger als mit 5% größer DIE und dafür doppelten VRam. Je mehr man drüber nachdenkt macht ein 500mm² 2-Stack HBM 2 Design irgendwie kaum Sinn.
Ergänzung ()

P.S.:

http://webcastevents.com/events/amd/analystday/live/player.htm
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Mag aber sein dass AMD felsenfest mit 8-HI Stacks gerechnet hat und dann auf 2 HBM SIs statt 4 gesetzt hat. Auch wenn man damit sicher nur wenig an Die Fläche spart... Dann hätte man aber auch irgendwie 0 aus der Fiji gelernt, die selbst mit 4 Stacks eher zu wenig VRam hatte. Und mit 2x Vega 10 und 2x8 GByte als Dual-GPU gewinnt man im HPC auch deutlich weniger als mit 5% größer DIE und dafür doppelten VRam. Je mehr man drüber nachdenkt macht ein 500mm² 2-Stack HBM 2 Design irgendwie kaum Sinn.

Gelernt hat man bei AMD von Fiji/HBM1 in jedem Fall, denn m.E. ist HBCC klar eine aus dieser Limitierung und Fehlplanung entstandene positive Entwicklung ;).

Wenn man wirklich auf 2x 8GB als maximale Ausbaustufe fixiert ist/war bei AMD, dann hat man auch Speicher satt eingeplant bis zu den Navi GPUS, die dann vermutlich Mitte 2019 (erst) aufschlagen (auch wenn Navi in der ursprünglichen Roadmap noch für 2018 angezeigt wurde).

Nur hätte ich mir ein 3 Stack Design gewünscht um 12 GB HBM2 Ausbau realisieren zu können, denn der Schritt ist schon ein gewaltiger von 8 auf 16 GB HBM2 (auch im Hinblick auf HBCC) und vermutlich auch der Aufpreis (am Anfang).

Gut möglich, dass ich mich irre bzgl. der Roadmap und Navi doch 2018 kommt, aber dazu hören/sehen wir ja hoffentlich in Kürze etwas.

Wenn HBCC (in Treiber & Engines) ausreichend implementiert wird und so funktioniert wie angedeutet, werden die wenigstens in den kommenden Jahren 16 GB überhaupt ausreizen können und die meisten selbst in 4K/UHD nicht mehr als die 8GB HBM2 der Normalversion benötigen, es sei denn HardCore-Enthusiasten, die jetzt auf 8K/UHD2 umsteigen und den ersten entsprechenden Monitor von Dell im Auge haben, aber dafür werden bestimmt mindestens 2 RX-Vega ("Super"-Novas) nötig, um das leistungstechnisch einigermaßen stemmen zu können.

Das ist dann auch eher die Klientel, die gleich eine (oder gar zwar) Radeon RX Pro Duo anpeilt, wodurch eigentlich noch keine Notwendigkeit für 4 Stacks bestünde. Insgesamt ist das zum jetzigen Zeitpunkt schwer zu bewerten und wenn die 8GB HBM2 (max. 16 GB HBM2 durch HBCC) nicht ausgereizt werden in den kommenden 4+ Jahren unter 4K/UHD (und die wenigstens echten Enthusiasten/Early Adopter halten eine solche Karte so lange, da Geld dort meistens eine untergeordnete Rolle spielt), hat AMD alles richtig (für diese Klientel) gemacht.

Die Leute die - wie meiner einer - (untere) Oberklasse kaufen halten zwar evt. die GPUs länger als Enthusiasten/Early Adopter, aber sind i.d.R. auch zufrieden, wenn die Karten 4+ Jahre speichertechnisch für WQHD reicht und davon gehe ich bei 8 GB + HBCC eigentlich aus. Wie gesagt, HBCC ist der springende Punkt und sollte bewiesenermaßen funktionieren, sonst wird es ein Deal Breaker für einige.
 
Zuletzt bearbeitet:
gern geschehen ;)

@Chismon

was wurde zu HBCC denn genau angekündigt?

Meine Vorstellung zu einem hochperformanten "Cache" wird in erster Linie durch dessen Bandbreite am Chip definiert. Und da hat der HBM 2 eher gar weniger als noch bei Fiji und das PCIe ist dasselbe.

Mein Eindruck von HBCC wäre ein anderer wenn es zb 4 Stacks mit zusammen ~1000GB/s wären + zb nur 4GB. Dann könnte man meinen "ja doch, da muss was anders laufen".

Was man zu HBCC Stand jetzt aber hört klingt eher nach Buzzwordbingo um den vergleichsweise kleinen VRam marketingtechnisch zu kompensieren. HBCC kam erst auf als man mit max 8 GB Vega Karten gerechnet hat. Als 16Gb im Raum standen war davon nie die rede, im gegenteil, da hat man Bandbreite über den Klee gelobt.

Aber naja, ich lass mich gern positiv überraschen :) ich will gern auch ne Vega verbauen.

Edit. Dauert wohl nochmal 1,5h bis Vega ^^

Edit: Ich warte auf den Tag an dem Lisa mit ala grünem Verschnitt in ner lässigen Lederjacke reinmarschiert ;)
 
Zuletzt bearbeitet:
Zurück
Oben