News AMD Vega: Eindeutige Hinweise auf GPU mit 4.096 Shadern

wieviel vram auslastung anfällt, liegt alleine in der hand der entwickler.

half life 2 hatte auf fhd etwa 200mb vram auslastung, hl2 war sehr effizient komprimiert. damit hl2 die fury vollmacht, müsste man alle texturen 5 mal im quadrat hochskalieren: 512² -> 1024² -> 2048² -> 4096² -> 8192² -> 16384²

d.h., wenn in hl2 ALLE texturen 20-fache größe haben, d.h. 5 mal im quadrat hochskaliert wurden, kommt man bei 4gb vram auslastung raus. d.h. die brechstange hat ne auflösung von 16384x16384, der milchpack auf dem boden 4096x4096. ne waffe in battlefield 4 ist maximal 2x 2048x2048 + 2x 1024x1024 groß, inkl. shadertexturen.

auflösung von fhd auf 4k macht im schnitt +10-30% vram, je nach engine und grafikkarte. kantenglättung in speziellen ausführungen haut ähnlich oder sogar mehr weg wie von hd auf uhd.

um 8gb speicher vollzumachen, muss man den schon richtig ordentlich zumüllen. ich will damit nicht sagen, dass man nicht mehr speicher verbrauchen darf - aber der speicherhunger steigt in den letzten jahren überpropertional zur optik, und das geht nur, wenn man beim optimieren oder komprimieren schlampt. wer erinnert sich noch an das fallout 4 "hd texturpaket"? 60gb für nix, da hat man die selben texturen nochmal unkomprimiert heruntergeladen :evillol::freak:
 
Zuletzt bearbeitet:
Sollten die 8GB bei dem High End Modell stimmen hat AMD schon verloren. 8GB sind lächerlich, sorry. Die 6GB meiner 980Ti sind schon immer voll, wenn ich nichts runterdrehe fängst an zu ruckeln. Wollte eventuell auf VEGA warten. Hat sich damit erledigt, entweder eine GTX 1080Ti oder gar nichts.
 
Interessanter ist ein Blick auf die angeblichen Spezifikationen, die bisherige Spekulationen untermauern. Demnach soll Vega 10 64 Compute Units haben - inzwischen ist klar, dass AMD den groben Aufbau mit 64 Shadern pro CU beibehält, sodass Vega 10 bei den gemutmaßten 4.096 Shadern landen würde. Das wurde schon beim alten Codenamen Greenland spekuliert und würde einen "Fiji done right" darstellen. Die 2.048 Bit für zwei HBM2-Stacks sind bereits bekannt, wobei Compubench bereits 16 GiByte RAM ausliest. Die lauffähigen Engineering Samples auf dem AMD Summit hatten noch 8 GiByte. 8-GiByte-Stacks hat bisher noch kein Hersteller öffentlich angekündigt.

Das mit den 8GB steht doch noch gar nicht fest, deshalb sollte man da auch jetzt noch keinen Abgesang vom Stapel lassen. Da AMD mit der RX Vega sich ja mit der GTX 1080 und der GTX 1080Ti Messen will und diese beiden Nvidia Modelle mit 10GB bzw. 11GB Vram bestückt sind, lässt eher vermuten das AMD auf der Vega 16GB HBM2 platzieren wird. ;)
 
Zuletzt bearbeitet:
Eine GTX 1080 hat 10GB? Hrm, ich kenne nur welche mit 8GB :).
 
Kasmopaya schrieb:
Du kannst nicht lange hier sein. Eine überteuerte 1080 8GB ist seit Tag eins bei mir ein Vram Krüppel. Mit 16GB Vram wäre es eine tolle langlebige Karte. Aber so keine Gnade von mir. Nicht für den Preis. Vram Sparen hat 0 Vorteile, ergo werd ich solche Praktiken niemals unterstützen, da könnt ihr lange drauf warten.

Vega wird die Rohleistung verdoppeln, und den Vram verdoppeln zu einer Fury X. Was kommt am Ende bei raus, das selbe in grün.

Lächerlich sind die Wucherpreise in Kombination mit Vram knausern. Warum sollte man sowas gut heißen, wenn wir ganz genau wissen das es auch anders geht und das sowohl AMD als auch NV schön öfter gezeigt haben.


Erzähl das mal den ganzen iPhone Kunden. Noch stärkere, noch unnötigere RAM Beschneidungen zu noch höheren Mondpreisen.
Und die Leute hauen sich die Köpfe ein um es als Erste zu bekommen.
Und das selbe Spiel alle 1 oder 2 Jahre. Noch extremer als bei nVidia ;)
 
Vielleicht wird es ja zwei Varianten geben, eine mit 8 GB und eine mit 16 GB HBM2.

Hatte eigentlich ja darauf gelauert, dass es eine Radeon Nano2 mit 16GB HBM2 geben wird.
Würde ich sofort kaufen und dann paar Jahre verwenden.
Falls wirklich nur 8 GB Varianten rauskommen ist Vega leider uninteressant.
 
Kinder, ihr seid echt nicht auszuhalten...

Nur weil die Programmierer faul sind und nicht richtig optimieren, heisst das noch lange nicht, dass 8GB zwingend notwendig sind.
 
schidddy schrieb:
Ich frage mich ob es nicht einfacher gewesen wäre 6000 Polaris Shader da reinzupacken, das Frontend anzupassen. Bei Vega wirds ja aufgrund HBM2 nicht wie bei Polaris am Bandbreitenlimit scheitern.
Man hätte ein 6000Shader Polarismonster bauen können, das Problem ist, es gibt einen Sweetspot bei den aktuellen Wafer in der Größe,ungefähr 600mm2. Eine Strukturverkleinerung heißt eben nicht, dass alles geschrumpft ist sonder quasi nur, dass das kleinste Bauteil, im Vegabeispiel 14nm groß ist.
Dazu kommt, das Polaris nie auf so viele Shadern optimiert wurde. Je mehr Shader hintendran gepackt werden, umso schlechter skaliert die Leistung.
Dazu war die Density von der Fury schon extrem hoch, deshalb der "schlechte" Takt. Vega soll das Ganze ein bisschen entzerren und dadurch höheren Takt fahren können, ohne das Temps und Leckströme eskalieren.

@Über mir:
Das hat nicht unbedingt etwas mit Faulheit zutun. 4K Texturen verbesserten die Sicht erheblich und das mit quasi null Auslastung auf die GPU. Die Idee ist die einzige Möglichkeit, dass Konsolen nicht den Anschluss verlieren.

Edit:
Und zu der FuryVRAM Diskussion:
Ich habe eine Fury und ich komme in manchen Spielen an Limit und es gibt Spikes. Vielleicht nur in 10% der Spiele, die ich spiele, aber die Problem sind da. Eben genau das gleiche, wie bei der 970. Wenn man weiß, woran es hapert, kann man es ja ändern.
Mein Problem ist, wenn ich aktuelles Highend habe, möchte ich eine Ausgewogene Grafikkarte.Es gibt ein Missverhältnis zwischen GPU und VRAM.(bei der 1080 übrigens auch) Vom HBM Effekt habe ich mir auch mehr versprochen.
 
Zuletzt bearbeitet:
Abwarten was HBC genau macht und was es kompensieren kann.
Ich vermute zwar auch, dass es eher im professionellen Umfeld wo es auch direkt ins Programm eingebaut wird maximale Leistung hat, aber lass mich da gerne belehren.

Bin gespannt auf Raven Ridge auch wenn ich mir nicht vorstellen kann wie so eine apu 2 tflop schaffen soll , aber schon 1,5 tflop wären top in meinen Augen.
Dann sind 1050 und rx 460 mit ihren 2tflop bald wirklich unnötig, ausser jemand hat 3+ Monitore.

@ Sharangir
Stimme dir da theoretisch zu , jedoch ist es leider die praxis das sich manche Entwickler nicht die Mühe machen und man daher mit reiner Rohpower (VRAM) das kompensieren muss.
 
Zuletzt bearbeitet:
Also jetzt kommt erstmal die RX 580 in ein paar wochen. Diese soll ja von der Leistung her etwas die GTX 1070 erreichen. Dann sollte VEGA da nochmal Deutlich drüber liegen.

Ich erwarte schon die leistung einer Titan /1080Ti. Die 8GB HbM würden mich auch nicht stören da AMD einfach eine bessere Speicherkompression hat als Nvidia. Das sieht man ja an der FuryX. 4GB und zieht vom VRAM Locker die 6GB Modelle von nvidia ab. Denke das hier 8GB locker mit 12 von Nvidia mithalten können.
 
Sunjy Kamikaze schrieb:
4GB und zieht vom VRAM Locker die 6GB Modelle von nvidia ab.
Hast du für deine These Nachweise? Interessiert mich wirklich und ist auch nicht böse gemeint. Sämtlich Test, die ich gelesen habe, zeigen bei mehr als 4GB VRAM Verbrauch, schlechte Frametimeverläufe. Die Average FPS sind vielleicht besser, aber dass Spielgefühl nicht.
Wenn das Spiel natürlich sich 8GB nimmt, sieht ne 980Ti auch nicht besser aus. Vielleicht auch schlechter, macht die Fury aber nicht besser.

Oder meinst du Spiele, die Sämtlichen VRAM belegen, ihn aber nicht verbrauchen? Das wäre kein Zeichen Pro AMD sondern nur unmotivierte Entwickler.
 
@Sunjy: Was in ein paar Wochen kommt sind Polaris-Rebrands. WhyCry von Videocardz meint es werden 1340 MHz Boost. Das wären keine 10% mehr und wird auch schon von fast jeder RX 480 erreicht. Die 1070 ist immer noch weit vorne.
 
Sunjy Kamikaze schrieb:
Also jetzt kommt erstmal die RX 580 in ein paar wochen. Diese soll ja von der Leistung her etwas die GTX 1070 erreichen. Dann sollte VEGA da nochmal Deutlich drüber liegen.

Die 8GB HbM würden mich auch nicht stören da AMD einfach eine bessere Speicherkompression hat als Nvidia.

Öhm, die RX 580 ist einfach nur eine RX 480 mit höherem Takt den man bereits aus den heutigen Modellen rauskitzeln kann, die wird niemals die 1070 erreichen, vielleicht kann sie die 1060 endlich mal hinter sich lassen, aber die 1070? Not gonna happen.
Und nein, AMD hat keine bessere Speicherkompression als Nvidia, das Gegenteil ist der Fall.
 
duskstalker schrieb:
außerdem 4k mit 40 fps, und dann über angebliche vram ruckler beschweren? :rolleyes: ich sehe hier eher wieder den üblichen computerbase r9 fury bash, wie er in jedem review mindestens einmal auftritt.

Du willst also sagen dass 4GB bei der Fury X ausreichend dimensioniert sind, richtig?

Zu den 4K und 40 FPS. Manch einem ist wohl nicht klar wie flüssig 40 FPS sein können. Ich hab jahre lang mit meiner HD6950@70 bei 40FPS gespielt und und dachte "so sehen 40 FPS aus" - aber wenn ich heute W3 mit 40 FPS an der GTX 980 TI in 4K spiele ist fühlt sich das 100x smoother an.

-> FPS ist nicht alles. Und ja, es gibt haufenweise Titel die ich mit 40FPS super spielen kann. Auch BF1 mit 60 FPS in 4K empfinde ich als super flüssig. Nicht dass es in 144hz und 1080 p nicht noch besser wäre, aber pauschal zu sagen "Hey, wen interessieren VRam Ruckler wenn man eh nur 40FPS hat" zeugt gelinde gesagt von sehr beschränkter Sichtweise.
 
immortuos schrieb:
Öhm, die RX 580 ist einfach nur eine RX 480 mit höherem Takt den man bereits aus den heutigen Modellen rauskitzeln kann, die wird niemals die 1070 erreichen, vielleicht kann sie die 1060 endlich mal hinter sich lassen, aber die 1070? Not gonna happen.
Und nein, AMD hat keine bessere Speicherkompression als Nvidia, das Gegenteil ist der Fall.

Die hier sagen was anderes. Aber keine ahnung ob du da mehr weißt ;D https://www.hartware.de/2017/02/23/amd-radeon-rx-580-aufgetaucht/

Du willst wirklich behaupten eine 1070 geht mit dem Speicher sparsamer um als eine Fury x?
 
Hab hier nen WQHD Monitor (2560x1440) mit 144 Hz und Freesync und brauche nurnoch die passende Grafikkarte dafür ;)
Hatte da echt auf die Vega Fury gehofft und eigentlich auch vor, die dann paar Jahre lang zu behalten.
 
schidddy schrieb:
Ich frage mich ernsthaft was AMD mit den ganzen Transistoren anstellt. Doppelt soviele wie die Fiji GPU, aber gleich viele Shader?
AMD redet ja von 2x IPC was gar doppelter Leistung / Shader entsprechend würde da unabh vom Takt. Ganz utopisch wäre das ja nicht wenn man auf einmal doppelte Transistorzahl für gleich viele Shader braucht.

Die Shader müssen extremst aufgebohrt wurden sein, aber wie einige bereits vermuten gibts wahrscheinkich nur 15% mehr pro Takt an Leistung. Das meisst wird wohl die Erhöhung der Taktfrequenz von 1050 mhz auf ca 1500 bringen. Ich frage mich ob es nicht einfacher gewesen wäre 6000 Polaris Shader da reinzupacken, das Frontend anzupassen

Ich denke wir sehen mehr als 15%. Zum einen weil Fiji nicht am Bandbreite scheitert sondern an der Auslastung der Shader (frontend), zum anderen weil die Shader zudem extrem aufgebohrt / geändert werden.

Nvidia schafft es im Gegensatz zu AMD mit GCN eine fast lineare Auslastung über Shader zu erreichen. (siehe Skalierung GTX 1080 -> TI).
Schaut euch AMDs R9 390X -> Fury X an. Die deutlich mehr Shader verpuffen nur zu oft - dabei hat die Fury X schon die selbe Bandbreite wie Vega. An der kanns also nicht liegen.

Die größte Komponente ist neben dem Takt (1000->1500 mhz machen ja 50% Leistung aus) ist also die Shader Sache. So gesehen kann AMDs neuer Vega Chip auch absolut durch die Decke gehen wenn alls perfekt harmoniert.

1500 mhz -> 50% mehr Leistung
2x IPC -> bis 100% mehr Leistung
Tiled Rendiering -> (vielleicht schon in den 2x IPC mit drin)
Bessere Auslastung -> 20%

Dann hätte wir schon 100*1,5*2*X also bis 3x Fury X Leistung.

Zusammen mit 16GB wäre das direkt gekauft und würde zumindest zur Anfeindung Richtung Volta Sinn machen. Hoffen wir mal dass es so kommt - nur leider passt das so gar nicht zu den bisherigen Benchmarks in zB Doom.
Ergänzung ()

Sunjy Kamikaze schrieb:
Du willst wirklich behaupten eine 1070 geht mit dem Speicher sparsamer um als eine Fury x?

definiere sparsamer. Es gibt genug Titel die mit einer GTX 980 (4GB) weniger Ruckeln als mit ner Furys X. Auch hier in CB liefert die Nvidia Karte oft "rundere Frametimes" und sorgt so für besseres Spielegefühl.

Beispiel:
http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/14
Speaking of which, if you dig deeper using our frame-time-focused performance metrics—or just flip over to the 99th-percentile scatter plot above—you'll find that the Fury X struggles to live up to its considerable potential. Unfortunate slowdowns in games like The Witcher 3 and Far Cry 4 drag the Fury X's overall score below that of the less expensive GeForce GTX 980. What's important to note in this context is that these scores aren't just numbers. They mean that you'll generally experience smoother gameplay in 4K with a $499 GeForce GTX 980 than with a $649 Fury X. Our seat-of-the-pants impressions while play-testing confirm it.

https://www.computerbase.de/2016-11/watch-dogs-2-benchmark/3/
Bei einer Vier-Gigabyte-Grafikkarte hat dieser zwar kaum Einfluss auf die allgemeine Framerate, schon aber auf die Frametimes. Denn das Bild stockt ab und zu, selbst in Full HD. Die sechs Gigabyte reichen aber auch dann nicht immer. Ab 3.840 × 2.160 sind acht Gigabyte von Nöten.
Nicht gut ergeht es dagegen (wieder einmal) der Fiji-GPU in Form der Radeon R9 Fury X. Dies liegt auch an dem nur vier Gigabyte großen Speicher. Der Textur-DLC lässt sich auf Grafikkarten mit dieser Ausstattung gar nicht nutzen. Bei Fiji hakt es aber auch noch an anderer Stelle, in Summe ist die Radeon R9 Fury X nur sieben Prozent schneller als die Radeon RX 480. In 2.560 × 1.440 steigt der Vorsprung zwar an, ist mit 18 Prozent aber immer noch recht gering.

https://www.computerbase.de/2015-12.../3/#abschnitt_die_zeiten_von_2_gb_sind_vorbei
Durch die stark schwankenden Frametimes ist die Erfahrung am Bildschirm dabei noch deutlich schlechter, als es die fallenden FPS andeuten. Das Herabsetzen der Texturdetails schafft Abhilfe.

https://www.computerbase.de/2016-06...abschnitt_benchmarks_von_full_hd_bis_ultra_hd
Die GeForce GTX 980 Ti bietet zwar eine vergleichbare Rechenleistung, der zwei Gigabyte kleinere Speicher lässt allerdings kaum Reserven für die „Hyper-Texturen“. Die Radeon R9 Fury zeigt zwar in 3.840 × 2.160 ein sehr gutes Ergebnis und arbeitet gar schneller als die GeForce GTX 1070, doch vor allem in Full HD fällt sie deutlich zurück und der Speicher ist nur vier Gigabyte groß, sodass die höchsten Texturen selbst in der geringen Auflösung nicht möglich sind.

https://www.computerbase.de/2016-08...abschnitt_benchmarks_von_full_hd_bis_ultra_hd
AMDs High-End-Riege aus Radeon R9 Fury und R9 Fury X hat es hingegen schwer. Mit dem vier Gigabyte großen Speicher muss man die Texturen auf „Hoch“ zwei Stufen zurückschalten, um das Spiel genießen zu können. Die Radeon RX 480 kommt Fury in diesem Spiel sehr nahe.

https://www.computerbase.de/2016-11...chnitt_probleme_bei_weniger_als_8_gb_speicher
Wer eine Grafikkarte mit nur 4.096 MB hat, muss sich dann selbst bei normaler Texturstufe ab und zu mit einem heftigen Haker zufrieden geben. Hier zeigt sich dann übrigens erneut die bessere Speicherverwaltung von Nvidia. Diese reicht zwar auch nicht aus, um Infinite Warfare bei normalen Texturdetails stockfrei wiederzugeben. Jedoch läuft das Spiel auf einer GeForce GTX 980 ein gutes Stück besser als auf der Radeon R9 Fury X. Dennoch gilt generell: Wer auf einer 4.096-MB-Karte nicht immer mal wieder mit Rucklern zu kämpfen haben möchte, sollte die Texturdetails auf die Stufe „Niedrig“ reduzieren.

also man kann nicht pauschal sagen "yey, 4Gb reichen bei der Fury X"
 
Zuletzt bearbeitet:
Leistung deutlich über einer Geforce GTX 1080
Die Leistung der Grafikkarte wird durch Sisoft als "exzellent" eingestuft und besser als 95,99 Prozent aller in der Rangliste enthaltenen Grafikkarten. Der Score von 2.756,60 Mpix pro Sekunde ist übrigens über 34 Prozent höher als der einer Standard-Version der Geforce GTX 1080 von 2.050,72 Mpix/s.

13.03.2017 Gamestar - AMD Radeon RX Vega - Angeblich 34 Prozent schneller als eine Geforce GTX 1080
Ergänzung ()

die 1080Ti hat übrigens nur 23% in FullHD und 28% in WQHD, muss man sehen was am Ende bei raus kommt - https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/2/#diagramm-performancerating-1920-1080
 
Zuletzt bearbeitet:
@Verak: Die 1080Ti wird auf Full HD von jeder momentan erhältlichen CPU ausgebremst. Die von Nvidia behaupteten 35% Leistungssteigerung hat CB im Test in 4K genau so gemessen.
 
ja sieht man ja auch im CB Test das sie in 2k - 5% besser skaliert als in FullHD
 
Zurück
Oben