News AMD Vega: Radeon Vega kommt Ende Juni, aber nicht für Spieler

Sorry wahrscheinlich falsch ausgedrückt was ich Meinte NV wird halt immer im Blöd Markt und co angepriesen.
Wir informierten in Forums sind recht wenig Leute, denn die meisten haben nicht soviel Ahnung und verlassen sich dann auf due Verkäufer. Genau da ist dass Problem für AMD sei es bei CPU oder GPU. AMD kann noch so gute CPUs oder GPUs bringen ohne OEM oder richtige Verkäufer vor Ort bringt dass nicht soviel. So lange ei MM-Verkäufer einen i7 für Büroarbeiten oder als Schul Lappi empfiehlt oder sagt da ist NV drin damit kann man spielen. Genauso lange wird sich nichts ändern für AMD im Prinzip müssten die Leute for Ort schicken.

So genügend dazu jetzt, aber dass meinte ich mit Dumm also mehr un informiert okay.
 
@Iscaran

Naja die Flächezunahne bei Volta kommen auch durch die vielen FP64 und neuen Tensor Kerne.
Ein GP102 zu GV102 wird recht gut skalieren, über proportional da das SI gleich groß bleibt und fast jeder Flächenzuwachs in Shader gehen wird. Da sind bei 600mm2 schon recht deutliche Zuwächse drin, da wird man nich auf 800mm2 gehen.

Die Tesla Volta kann man schlecht dafür hernehmen. Volta GeForce wird nicht mehr sein als nen etwas größerer Pascal aber das reicht wohl auch.
 
Bezweifel ich zwar alles etwas gerade. Aber man wird es sehen. Wie man es auch bei Vega sehen wird, in welchem Leistungsbereich er einschlägt. In 9-13 Tagen ist es ja soweit für zumindest Vega. ;)
 
@Iscaran
Wenn 7 NM läuft dürfte es fast schon 2019 sein.
Und die kleinen gaming Voltas (also GV104 und GV106) dürften auch nicht vor Q1 2018 kommen, wenn GV100 zum Jahreswechsel erscheinen soll.

GV102 erwarte ich in nem Jahr. Bis dahin hat Vega wohl einiges zu bieten.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@Iscaran

Naja die Flächezunahme bei Volta kommen auch durch die vielen FP64 und neuen Tensor Kerne.

Das glaub ich bei Pascal zu Volta eben nicht dass die Tensor Cores hier viel Fläche nutzen. Ich denke die Tensor Cores sind hier "anders" realisiert quasi eine Art Querverschaltung von jeweils 8 Shadern mit ein bisschen extra zu einem TC.

Denn die Packdichte des Chips ist quasi identisch....wenn sie also die Shader nicht "komprimiert" haben ? Dann sind die zusätzlichen Flächen wohl doch im wesentlichen die neuen zusätzlichen Shader.

Ein Shadercore = 2 FP32 ALUs, jeweils eine ADD und eine MUL ALU.
Ein Tensorcore = 16 FP16 MUL-ALUs + 16 FP32 ADD-ALUs

Ich stelle mir dazu folgendes vor:
Also könnte man die TCs eventuell so realisieren dass man die Existierenden FP32-ALUS anders in 8er "Gruppen" gruppiert und zusätzlich verschaltet.
So dass man dann das ganze z.B. entweder als TC oder klassischen SC nutzt.

1TC (16FP16 MUL + 16FP32 ADD) wäre dann sowas wie 8x SC = 8x2 FP32 +8 FP32 Add + 8xFP32 Mul
(FP16 einheiten lassen sich aus den FP32 heraus direkt "generieren" weswegem 16+16 gut passen würde)

Es ist bestimmt KEIN Zufall dass 8x640 = 5120 ist...bei 5376 Shadercores....die restlichen 256 werden also entweder nicht zu Tensor-Cores gekoppelt oder erfüllen dann andere Aufgaben (MUL/ADD ?)
=> Damit ergäbe sich dann auch kaum ein Mehrbedarf an Platz für die Tensorcores...die sind dann eigentlich "Teil" der Shader...(Bzw. umgekehrt)

Ansonsten hast du Recht die Tensor Cores wären sonst ein IMMENSER Platzfresser denn ein TC dürfte ca 8 die Größe eines Shader-Cores haben. Wie soll das denn bei GV100 realisiert sein wenn sich die Packdichte quasi NICHT erhöht hat, aber trotzdem 34% Mehr Shader mit an Board sind + 640 TCs die nochmal in etwa die Hälfte der ShaderCorefläche des Chips fressen würden.

Die einzig logische Erklärung ist das die TCs kaum "zusatzfläche" benötigen. Der Grund dafür wäre das sie eine Umwidmung/bessere Nutzung der vorhandenen SCs darstellen mit ein paar extra Transistoren drumherum. GV100 wäre dann sowas wie ein 640TC-Blöcke-Chip wo jeder der 640TCs alternativ als 8x SCs fungiert.

Ein GP102 zu GV102 wird recht gut skalieren, über proportional da das SI gleich groß bleibt und fast jeder Flächenzuwachs in Shader gehen wird. Da sind bei 600mm2 schon recht deutliche Zuwächse drin, da wird man nich auf 800mm2 gehen.

Ja hab ich ja oben auch geschrieben wenn man den Chip um 30% aufbläst dann werden da auch wie beim GV100 30% Shader mehr reinpassen mit vielleicht +40% Performance...die Frage ist halt ob nVidia wirklich wieder wie bei Kepler auf einen derart Großen (~610mm^2) Chip setzen will nur um nochmal +40% auf eine 1080 Ti draufzupacken...
 
Zuletzt bearbeitet:
Iscaran schrieb:
Das glaub ich bei Pascal zu Volta eben nicht dass die Tensor Cores hier viel Fläche nutzen. Ich denke die Tensor Cores sind hier "anders" realisiert quasi eine Art Querverschaltung von jeweils 8 Shadern mit ein bisschen extra zu einem TC.

Denn die Packdichte des Chips ist quasi identisch....wenn sie also die Shader nicht "komprimiert" haben ? Dann sind die zusätzlichen Flächen wohl doch im wesentlichen die neuen zusätzlichen Shader.

wieviel Tensor ausmacht kann man schwer sagen. Die Packagedichte ist natürlich nicht groß verändert, aber das hat mit den Kernen ja auch 0 zu tun.
Tensor = einfach zusätzlicher GPGPU "Ballast" das von Pascal zu Volta hinzukommt. Wieviel GPU Ballast schon in der GPU mit drin steckt zeigt ja P100, der deutlich größer ist als GP102 trotz platzsparendem HBM SI.
470 -> 610mm² sind immerhin ~30%. Bei Volta ist es dasselbe oder mehr. Also wäre ein GV102, also der Desktop Vollausbau mit 384 Bit GDDR6 wohl etwa 815/1,3 = ~625mm² groß. Da aber auch Tensor sicher etwas Platz braucht gehe ich eher von etwa 600mm² aus. Eben etwa so groß wie auch der GM200 (601mm²).

Den dürfte Nvidia auch schon länger fertig haben, vielleicht auch mit GDDR5X und 384 Bit / 5120 Shader im Herbst als TITAN bringen. Oder eben, sofern wirklich kein bedarf da ist da keine Konkurrenz, dann auch erst Q1 2018 obwohl der Chip schon fertig ist - wovon man ausgehen kann. GP102 war auch quasi zeitgleich mit P100 fertig.

Fertig sein und wirtschaftlich sein sind eben 2 paar Stiefel und Nvidia wird einen GV102 mit 600mm² erst dann bringen wenn er sich wirtschaftlich lohnt. Auch da verkauft man lieber erst den teuren V100, imho reicht GP102 im Desktop noch locker aus.
Ergänzung ()

Iscaran schrieb:
Ansonsten hast du Recht die Tensor Cores wären sonst ein IMMENSER Platzfresser denn ein TC dürfte ca 8 die Größe eines Shader-Cores haben. Wie soll das denn bei GV100 realisiert sein wenn sich die Packdichte quasi NICHT erhöht hat, aber trotzdem 34% Mehr Shader mit an Board sind + 640 TCs die nochmal in etwa die Hälfte der ShaderCorefläche des Chips fressen würden.

Die einzig logische Erklärung ist das die TCs kaum "zusatzfläche" benötigen. Der Grund dafür wäre das sie eine Umwidmung/bessere Nutzung der vorhandenen SCs darstellen mit ein paar extra Transistoren drumherum. GV100 wäre dann sowas wie ein 640TC-Blöcke-Chip wo jeder der 640TCs alternativ als 8x SCs fungiert.

naja, schau dir den Die-Shot an. Die Shader machen ja nicht 100% aus. Am "Drumrum" hat sich wenig geändert, SI, Frontend usw sind weitestgehend gleich. Der prozentuale Anteil der Shaderfläche ink. Tensor Kerne wird tendenziell größer sein als bei P100. Ich denke auch nicht das Tensor viel Fläche brauchen wird, aber zumindest nicht weniger oder gleich viel. Da bin ich bei dir.

Wenn die Shader bei P100 sagen wir 70% der Die Fläche ausmachen käme der Rest auf 30% von 610mm². Also übern Daumen 200mm² + 410mm² Shader. Beim V100 haste bei gleicher Package Dichte und unverändertem "DrumRrum" also statt 410mm² für Shader schon 615mm², ergo 50% mehr.

Jedenfalls mehr als die reine Chipgröße zunehmen würde.

Edit. Das Verhältnis werden vielleicht nicht ganz 70/30 sein, aber vielleicht 80/20 bei P100 und vielleicht 85/15 beim V100. So oder so wird prozentual mehr Fläche für Shader zur Verfügung stehen.

NVIDIA-GP100-Pascal-GPU.png


Edit:

Beim GP102 -> GV102 wird das Verhältnis noch größer sein da GDDR SI. Ergo wächst da die Shaderfläche prozentual zur Die noch deutlich mehr.
 
Zuletzt bearbeitet:
Q4 2017 Vega 2? Wozu dann überhaupt noch Vega bringen. Gut, dann müsste Vega (1) extrem verspätet sein.

2015 wurde Zen + Vega auch für 2016 angekündigt.
2017-05-21 15_04_00-(10) AMD 2015 FINANCIAL ANALYST DAY(часть 1) - YouTube.png2017-05-21 15_03_26-(10) AMD 2015 FINANCIAL ANALYST DAY(часть 1) - YouTube.png

Vorstellbar ist dass erste Vega 2 Samples als ES die Runde machen ja. Die Frage ist wie gut und schnell der 7nm Prozes bei GoFlo in die Pötte kommt. Vielleicht muss AMD wie Volta auch nochmal in quasi 14nm fertigen bei selber Packagedichte wie VEGA. Vega ist mit mit 500mm² ja nocht nicht an der Grenze dessen was der Prozess hergibt - wobei auch das bei GoFlo ein Problem sein kann.

Nvidia haut 600mm² bei TSMC wirtschaftlich raus. Das beweist der GM200. Von GoFo wären die knapp 500mm² von Vega schon das mit Abstand Größte was man zu Gesicht bekam. Ich hatte Vega auf TSMC spekuliert.
 
Zuletzt bearbeitet:
Analog zum Größenzuwachs von P100 zu V100, denke ich, dass man mit ziemlicher Sicherheit das auch bei den GeForce-Ablegern von Pascal- zu Volta-Generation machen wird (also ca. 600 mm² kommen werden), zumal man am Ende - wenn auch nicht mit gleichem Umfang wie von Maxwell zu Pascal - trotzdem mehr Leistung pro Watt bekommen wird.

Selbst wenn der Verbrauch der Volta GeForce GPUs marginal über dem der Pascal GeForce GPUs liegen sollte, bezogen auf die Leistung dürfte da doch deutlich mehr herausspringen, zumal man den deutlich höheren Preis (der vielleicht wegen RX Vega dann doch etwas geringer als von nVidia erhofft ausfallen könnte) ja irgendwie wird rechtfertigen müssen, sonst würde die Mehrheit bei Pascal bleiben und es gäbe abseits von einer Handvoll Hobby-Enthusiasten und Early Adopter ziemliche Stagnation bei nVidia (schlecht für den Aktienkurs).

Ich denke man wird vermutlich weitere Verbesserungen in der Annäherung an DX12 bei den Volta Gaming GPUs sehen (hardwareseitiges AsyncComp oder Ausbau eines DX12_1 Feature Levels, den man künstlich per Gameworks puschen könnte?)

DX12 Feature Levels.jpg

Allerdings könnte man eigentlich von RX Vega erwarten, dass der Chip endlich auch "Conservative Rasterization" und "Rasterizer Ordered Views" unterstützen wird (welche vielleicht auch als externe/nicht im Chip integrierte Erweiterungen zusätzlich zur Jaguar-Polaris-SoCs Architektur in der Microsofts XB Scorpio implementiert sind, um DX12 darauf dann mehr ausfahren zu können, wer weiß?).

Inwieweit man aber wirklich innovative Neuerungen, die die GPU-Technik in großen Umfang voran bringen (wie höchstwahrscheinlich eben HBCC), bei den kommenden Volta-GPUs sehen wird, ist fragwürdig und könnte für einige (wie meine Wenigkeit) der Ausschlag pro AMD und contra nVidia GPU sein (insbesondere wenn man länger davon zehren will bzw. auf Langlebigkeit viel Wert legt, wo dann die ausgefeiltere Architektur maßgeblich eine Rolle spielen kann).

Noch kurz zur in den Kreis geworfenen Spekulation schon eine Titan XV im Herbst dieses Jahres kaufen zu können. Zwar ist bekannt, dass nVidia aktuell die Lager für den Marktstart mit GPUs füllt, aber traditionell kommt die Oberklasse (also GV104) als erstes und darauf folgen dann Mittelklasse und der erste Titanableger als erster Vertreter der Luxus-/Enthusiastenklasse.

Gegen einen Titan Marktstart im 3. oder 4. Quartal dieses Jahres spricht außerdem, dass bei den Premium-GPUs - dazu zähle ich alles oberhalb des GV104 Vollausbau inkl. der Titanserie, denn all diese haben GDDR5X Speicher und/oder 12 GB Speichermenge bekommen - GDDR6 verbaut werden dürfte.

Zu guter Letzt noch zur AMD-Veranstaltung am 30./31. Mai, da wird es sich auf der Computex vermutlich vorwiegend um Epyx und Threadripper drehen, vielleicht auch ein wenig um Raven Ridge/RyZen Mobile, aber es ist gut möglich, dass bzgl. RX Vega wieder nur aufgewärmte oder wenig ergiebige Demos gezeigt werden und häppchenweise Spezifikationen sowie ein Launchdatum (also keine Preise und Modelldifferenzierungen, die zu einem offiziellen Marktstart dazugehören).

Bei SK Hynix dürften die 8 Hi Stacks vorerst für Frontier reserviert/exklusiv sein (eine 16 GB Version damit vor kommendem Jahr für natürlich eine deutlichen Aufpreis eher unwahrscheinlich sein oder nur als teure Limited Edition) und das ganze könnte schon wie bei Fiji ausarten, nur dass man keinen Quasi-Paperlaunch hinlegt und stattdessen lieber wartet ... nur wie lange (kann man sich das leisten)?

Für die Leute, die entweder eine RX Vega oder eine Volta GPU kaufen wollen (für die derzeit nichts anderes in Frage kommt), dürfte das (mit Ausnahme der längeren Wartezeit, für diejenigen, die kurzgeduldig auch bereit sind schnell umzusteigen/die GPU zu wechseln) nur vorteilhaft sein, da ein gegenseitiger Preisdruck entstehen dürfte (was es in der Oberklasse und darüber, also seit Fury vs. GTX 980 und Fury X vs GTX 980Ti Zeiten) lange nicht mehr gegeben hat.
 
Zuletzt bearbeitet:
Ich frag mich, ob AMD Vega noch mal komplett umgebaut haben, also die Architektur und darum die Verzögerung statt findet
 
Wenn die Verzögerung wirklich an HBM2 liegt würde es mich nicht wundern wenn AMD gleich nach Volta Vega20 rauskloppt.
Wird eh nurn shrink mit kleinen Optimierungen und ggf. mehr Cores.

Ändert nichts daran das ich mich Frage ob ich überhaupt noch einen Vega kaufe...
Eine "fast 4K" GPU will ich spätestens seit der 1080Ti, bei nur noch zwei Monaten dachte ich mir ok!
Nun soll ca. wieder ein halbes Jahr hinzukommen bis das Ding am Markt ankommt?

Dauert einfach viel zu lange...:freak:
AMD hätte es wie bei GP100/102 machen sollen und auf GDDR setzten sollen.

imho.
Wird Vega 10 Fiji Reloaded was Absatz angeht, soviel schneller wird der nicht als eine 1080Ti im durchschnitt.
 
Zuletzt bearbeitet von einem Moderator:
Shrimpy schrieb:
Dauert einfach viel zu lange...:freak:
AMD hätte es wie bei GP100/102 machen sollen und auf GDDR setzten sollen.

imho.
Wird Vega 10 Fiji Reloaded was Absatz angeht, soviel schneller wird der nicht als eine 1080Ti im durchschnitt.

Genau AMD macht den sicher ewigs fertigen HBM2 Chip Vega mal eben schnell GDDR fähig. Man baut mal eben den halben Chip um. Das heisst auch man setzt für an die hundert Millionen kurz zwischendurch ne neue Maske für GDDR5 auf, wenn die Chance gross ist, dass die paar Kunden die in diese Klasse kaufen am Ende eh alle wieder nur bei NV einkaufen.

Ganz besonders wenn NV GDDR5X exklusiv bekommt.

Wovon träumst du eigentlich Nachts?


Wenns nach mir ginge würde Vega den lauwarmen Maxwell Aufguss 1080 TI in den Boden rammen, wird halt leider nicht passieren.
 
Zuletzt bearbeitet:
Kommt Vega eigentlich noch dieses Jahr? Ich meine ist das sicher?
A little while longer kann auch ein halbes Jahr bedeuten das kennt man doch zu Zen.
AMD sagte da "very soon" und dann waren es 4 Monate.
 
Also wenn AMD eine Vega mit 1080ti Leistung und 16Gb bringt wäre ich bereit 550€ - 600€ auszugeben.
Na ich lasse mich mal überraschen ob es eine Vega wird.
 
Wartet doch einfach mal den 31.5. ab. Da wird AMD auf der Computex höchstwahrscheinlich Vega für Spieler vorstellen oder zumindest einiges darüber erzählen. Vielleicht auch schon einen Releasetermin nennen.

Raja hat doch im AMA auch recht deutlich durchblicken lassen, dass die Vega-Verzögerung an der schlechten Verfügbarkeit von HBM2 liegt.
Das ist also nicht wirklich die Schuld von AMD, sondern die der Speicherhersteller, die viel zu optimistische Pläne veröffentlicht haben.
 
@Frank00000

1080TI Killer mit 16 GB HBM2 für 600?
Wohl kaum!

Soll sie auch noch Strom erzeugen und kochen können?
 
Zuletzt bearbeitet:
modena.ch schrieb:
Genau AMD macht den sicher ewigs fertigen HBM2 Chip Vega mal eben schnell GDDR fähig. Man baut mal eben den halben Chip um. Das heisst auch man setzt für an die hundert Millionen kurz zwischendurch ne neue Maske für GDDR5 auf, wenn die Chance gross ist, dass die paar Kunden die in diese Klasse kaufen am Ende eh alle wieder nur bei NV einkaufen.

Ganz besonders wenn NV GDDR5X exklusiv bekommt.

Wovon träumst du eigentlich Nachts?

Wenns nach mir ginge würde Vega den lauwarmen Maxwell Aufguss 1080 TI in den Boden rammen, wird halt leider nicht passieren.

"Ewig".
Das Design ist erst Mitte 2016 Fertig gewesen.
Es ist richtig das man auch einem Jahr davor nichts mehr hätte ändern können.
Aber mir geht es auch eher darum das man es seit Fiji hat kommen sehen, fliegt AMD halt nochmal auf die Fresse.
Man hätte zwei SIs für Vega bauen sollen, darum gehts mir einfach nur.
Man stelle sich vor die HBM Produktion wäre fast völlig ausgefallen.

Exklusiv ist GDDR5X für Nvidia wie HBM2 für AMD, du Träumer!:lol:
Nur weil Polaris20 kein GDDR5X bekommen hat Heist das nicht AMD keine einkaufen kann!:lol:


Vega im Vollausbau mit 8GB Ram wird ziemlich sicher schneller als eine 1080Ti.
Nicht viel unter DX11 aber unter DX12 oder Vulkan und auf 4K setzte ich da doch auf Vega.
Es wird aber nicht reichen wie es sein müste z.b. ~15% mehr Leistung (lol) um die 6-9 Monate Wartezeit zur 1080Ti zu rechtfertigen für die meisten potenziellen Käufer.
Auch die 3GB Ram weniger werden nicht gut ankommen, und die 16B Version wird eh Titanpreise haben.
 
Zuletzt bearbeitet von einem Moderator:
Ich träume eben nicht.
GDDR5X ist oder war zumindest bis vor kurzem im keinem Katalog gelistet. Den hat NV exklusiv.
NV bezieht den HBM2 für P100 von Samsung.
AMD von SK Hynix. Die 8 Hi Chips mit 8GiB pro Stapel hat AMD voraussichtlich auch exklusiv. Der ist in keinem Katalog gelistet. Und nur damit ginge die GP100 mit 32 GiB die schon lange angekündigt ist.

Und Vega macht man bestimmt zu Gddr und HBM kompatibel damit man für etwas was man voraussichtlich nicht braucht ne Menge Fläche, Saft und Yield verschwendet.

Bestimmt hat AMD schon seit Fiji gewusst dass SK Hynix zwei Jahre später HBM2 nicht rechtzeitig auf die Kette kriegt.

Nochmals träumst du?
 
Zuletzt bearbeitet:
AMD wird seit Fiji durch HBM limitiert, weil es mit Fiji max. 4GB HBM gab. Trotz dieser 4GB hatte mich die Nano sehr interessiert, aber als ich den Preis gesehen habe, ist mir die Kinnlade heruntergefallen. Spielt Fiji mit HBM heute auf dem GPU Markt noch eine Rolle? Kauft doch keiner mehr.
Jetzt bei Vega ist AMD mit HBM2 am kämpfen. Bezahlbare GPU's werden 8GB HBM2 haben und was Vega mit HBM2 kosten wird, müssen wir erst noch abwarten aber ob die so billig wie erhofft werden?

Ich finde NVidia war hier weitsichtiger und setzt je nach Anwendung HBM(2) und GDDR5X ein und AMD hat sich irgendwie verrannt. Schaut man sich an, wie NVidia ab der GTX 1070 seit geraumer Zeit den Markt absahnt, dann hat AMD hier sehr viel aufzuholen.
 
Zurück
Oben