• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Wolfenstein 2: Neuester Patch beschleunigt RX Vega um bis zu 22 Prozent

gschwenni, jetzt will ich aber mal wissen, was deiner meinung nach der grund ist, dass ein spiel auf nvidia gut läuft und auf amd nicht, und es NICHT gameworks ist und KEINE eine einseitige optimierung - was dann? wieso ist in battlefront 2 eine fury x zwischen 1070 und 1070 ti und in shadow warrior 2 reichts gerade so für einen gleichstand zur 1060 in WQHD? beide laufen unter DX11.

wieso ist in WQHD in anno eine vega 56 langsamer als eine gtx 1060 aber in f1 2016 schneller als eine gtx 1080?

eine fury x hat 8,6 tflops, eine vega 56 10,5 - eine gtx 1060 3,9 - 1070 5,8 und eine 1080 8,2.

warum soll es "normal" sein, dass amd karten mit der doppelten bis zweieinhalbfachen rechenleistung es nicht schaffen sich von einer 1060 abzusetzen? wieso ist es ein "amd titel" oder "gegimpte nvidia performance", wenn entsprechende amd karten mal so performen, wie man es anhand von den leistungsdaten erwartet?
 
Zuletzt bearbeitet:
Gschwenni schrieb:
Bitte ned, da muss man dann die Hälfte wegrationalisieren wegen Paranoia.

Im Gegensatz zu dir hat duskstalker seine Argumentation aber im wesentlichen fast überall durch drittquellen belegt.
Welche Belege außer deiner eigenen anders lautenden Meinung und ein paar schwachen Wortgefechten über "was genau wer wo gesagt" hat bringst du denn ?

Bei dir kommt 1 Seite text mit genau 0 Belegquellen. Jetzt rate mal weshalb das als nicht glaubwürdig erscheint.
 
Richtig deswegen laufen die Games auch flüssig auf den Konsolen da erstens Sony und MS sonst schon was sagen würden.
Des weiteren würden die Leute die Konsolen Games wohl nicht mehr kaufen.

Naja wie dem auch sei ich kaufe einfach keine Ubi und EA Titel mehr und gut ist es.
 
duskstalker schrieb:
gschwenni, jetzt will ich aber mal wissen, was deiner meinung nach der grund ist, dass ein spiel auf nvidia gut läuft und auf amd nicht, und es NICHT gameworks ist und KEINE eine einseitige optimierung - was dann?

Es laufn doch auch oft Gameworksspiele auf AMD schneller... genauso evolved Spiele auf Nvidia schneller.
Gründe gibts da viele müsstest du als Entwickler doch wohl wissen?!

wieso ist in battlefront 2 eine fury x zwischen 1070 und 1070 ti und in shadow warrior 2 reichts gerade so für einen gleichstand zur 1060 in WQHD? beide laufen unter DX11.

Schwaches Frontend/Backend, schlechte Auslastung, architekturielle Schwächen?

wieso ist in WQHD in anno eine vega 56 langsamer als eine gtx 1060 aber in f1 2016 schneller als eine gtx 1080?

Kantenglättung verträgt sich nicht mit GCN?

warum soll es "normal" sein, dass amd karten mit der doppelten bis zweieinhalbfachen rechenleistung es nicht schaffen sich von einer 1060 abzusetzen?

Weil plumple Rechenleistung nicht alles is?
 
Zuletzt bearbeitet:
Es laufn doch auch oft Gameworksspiele auf AMD schneller...

Kannst du mal ein paar Beispiele nennen - am besten mit einer Quelle als Beleg ? Ansonsten ist das nur wieder heisse Luft von dir.

Kantenglättung verträgt sich nicht mit GCN?

LOL. Kantenglättung kostet auf Pascal und GCN/Vega mehr oder minder gleich viel. Beispiele: https://www.computerbase.de/2017-10/wolfenstein-2-new-colossus-benchmark/
https://www.computerbase.de/2017-10/destiny-2-benchmark/

Die Performancedifferenzen bewegen sich in der Regel im Rahmen der Messtoleranz...sofern nicht ein spezielles verbugging die Performance der einen oder anderen Seite runterzieht.
 
Zuletzt bearbeitet:
Iscaran schrieb:
LOL. Kantenglättung kostet auf Pascal und GCN/Vega mehr oder minder gleich viel.

Ich rede von Anno2205 da ist das ein Spezialfall.

Kannst du mal ein paar Beispiele nennen - am besten mit einer Quelle als Beleg ? Ansonsten ist das nur wieder heisse Luft von dir.

Schau mal hier im Test.
For Honor, Gears of War, Titanfall, Witcher 3 alles Gameworkstitel.
 
Zuletzt bearbeitet:
Schau mal hier im Test.
Danke für den Link - Nicht. Hier im Test ist Wolfenstein II...welchen anderen CB-Test du meinst kann ich nur raten. Es sei denn du gewöhnst dir langsam an auch mal die Quellen für deine Textbausteine zu liefern.

Ich rede von Anno2205.
Ich rede davon dass AA architekturiell gleich viel Performance kostet auf Radeon und auf nVidia Karten. Belegt hab ich dies mit 2 aktuellen Titeln. Es gibt massenweise andere Tests wo es genauso aussieht.
Wenn AA also in Anno2205 komischerweise auf Radeon-Karten doppelt soviel Performance zieht wie sonst in 99% der anderen Games sollte man wohl fragen dürfen: WARUM ZUM HENKER ist das so ????
Die Anno Devs sollten also evtl. mal ihren AA-code patchen...ist nämlich schon "strange" wenn es das AA ist.
 
duskstalker schrieb:
wieso ist es ein "amd titel" oder "gegimpte nvidia performance", wenn entsprechende amd karten mal so performen, wie man es anhand von den leistungsdaten erwartet?

Aus dem gleichen Grund warum FreeSync und damit letztendlich auch Adaptive-Sync ein AMD Feature sein soll.
Es ist bei den entsprechenden Monitoren nur auf AMD Karten nutzbar. Der Grund dafür interessiert diejenigen nicht.
 
Iscaran schrieb:
Es sei denn du gewöhnst dir langsam an auch mal die Quellen für deine Textbausteine zu liefern.

https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/4/#diagramm-titanfall-2-2560-1440

Ich rede davon dass AA architekturiell gleich viel Performance kostet auf Radeon und auf nVidia Karten.

Tja und ich Rede von Anno 2205 und den Eigenheiten des Spiels die nunmal Nvidia besser liegen.

Wenn AA also in Anno2205 komischerweise auf Radeon-Karten doppelt soviel Performance zieht wie sonst in 99% der anderen Games sollte man wohl fragen dürfen: WARUM ZUM HENKER ist das so ????

Bestimmt ist es ne Verschwörung gegen AMD.:p
 
Gschwenni schrieb:

Gears of War4 sehe ich jetzt aber nicht dass AMD hier "besonders" gut performed - ? Du etwa ? Eine RX580 gerade mal so gleich auf mit 1060...Und Vega liegt auf Höhe einer 1080 FE.
Von Guter Performance würde ich was anderes erwarten.
Titanfall ist die 1060 ebenfalls 10% vorn...also auch eher schlechte AMD-Performance. Wo performed AMD hier gut ? (also so wie in Wolfenstein II) Vega 64 analog quasi auf einem Level mit 1080 FE.
Bleibt also von deinen 3 beispielen nur noch The Witcher 3. Dort ist in der Tat eine etwas überdurchschnittliche AMD-Performance zu sehen.

Bei Witcher 3 ist es vermutlich Zufall dass es ein Konsolentitel ist der für die AMD-GPU-Konsolen entwickelt wurde ist. Daher wundert mich mal nicht dass man tatsächlich ein Game vorfindet dass trotz Gameworks wenigstens solide auf AMD-GPUs optimiert ist.
https://en.wikipedia.org/wiki/PlayStation_4
https://en.wikipedia.org/wiki/Xbox_One
https://en.wikipedia.org/wiki/The_Witcher_3:_Wild_Hunt
https://en.wikipedia.org/wiki/REDengine#REDengine_3

Darüber hinaus findet man nach 10s Google dass sich Gameworks in Witcher wohl auf Fellanimation beschränkt...(Hairworks)
http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Gameworks-Interview-1163483/

Wie man ebenfalls schnell rausfinden kann ist im obigen Benchmark Witcher 3 auf CB ohne Gameworks Effekte gebenched worden, denn die Gameworks Sondereffekte finden sich beim runterscrollen weiter unten:
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/4/#diagramm-tessellation-the-witcher-3

Im Gameworks-Sondertest hat Vega64 85.6 FPS OHNE Hairworks und 65.8 FPS MIT.
Im obigen allgemeinen Bench hat Vega64 82.5 bzw.88.9 FPS...die Schwankung von 83 - 89 FPS könnte man auch als rauschen aus den offensichtlich 3 durchgeführten leicht unterschiedlichen Runs sehen.
Aber allein schon die Tatsache dass man >80FPS OHNE Hairworks hat und sich das mit den >80 FPS im allgemeinen Bench deckt lässt vermuten dass im allgemeinen Bench Hairworks deaktiviert war.

Noch krasser sieht man wie extrem hier gameworks tesselation reingimped wenn man die Fury X betrachtet. Denn Vega hat ja von AMD eine wesentlich verstärkte Tesselation einheit bekommen und dem dauernden Gegimpe zu entgehen.
Eine Fury X bricht hier total ein. Ohne HW ist eine 1080 FE hier ca 40% schneller als Fury X.
MIT HW ist eine 1080 FE dann plötzlich 71% schneller.

Es zeigt sich also EXAKT das was duskstalker weiter oben Seitenlang und mit Quellenbelege ausgeführt hat....Gameworks tesselation ist eine Handbremse für non-nVidia produkte. Es ist sicherlich von den Entwicklern immerhin durchgesetzt worden dass es dafür einen Schalter im Game gibt um dieses lächerliche Performancekiller-Feature wenigstens "optional" zu machen. Es gibt andere Beispiel wo dem nicht so ist/war.

Hast du also noch mehr lächerliche beispiele oder kommt noch was besseres ?

Tja und ich Rede von Anno 2205 und den Eigenheiten des Spiels die nunmal Nvidia besser liegen.
Bestimmt ist es ne Verschwörung gegen AMD.:p

Oben sprachst du noch von generellen Architekturdifferenzen die so etwas verursachen, und jetzt plötztlich willst du nur über Anno gesprochen haben.
Kantenglättung verträgt sich nicht mit GCN?

Dein Satz impliziert dass es ein generelles Problem mit GCN und AA gibt. Dem habe ich widersprochen...das es vereinzelt zu Bugs oder schlechter optimierung für die eine oder andere Seite kommen kann habe ich ebenfalls schon dazugeschrieben. Ist halt nur zufälligerweise fast immer schlecht für AMD optimiert wenn Gameworks "in game".
 
Iscaran schrieb:
Gears of War4 sehe ich jetzt aber nicht dass AMD hier "besonders" gut performed - ? Du etwa ? Eine RX580 gerade mal so gleich auf mit 1060...Und Vega liegt auf Höhe einer 1080 FE.

Das ist ein Gameworkstitel und Vega ist 6% vor einer 1080 in FUll HD, das sind 10% schneller als im Endvergleich.

Von Guter Performance würde ich was anderes erwarten.

Ja was is denn bei AMD eine gute Performance?
Was können die Karten denn leisten? Wer weiß das schon.;)

Wo performed AMD hier gut ? (also so wie in Wolfenstein II) Vega 64 analog quasi auf einem Level mit 1080 FE.

So wie in Wolfenstein performt AMD wohl nirgends weil das AMD´s Gameworks ist und zwar mit reichlich Features extra für Vega.
Wieso auch imma du das nicht siehst.

Titanfall ist die 1060 ebenfalls 10% vorn...also auch eher schlechte AMD-Performance.

Die Vega liegt fast bei ner 1080 Ti das übersiehst du jetzt. Frametimeseitig sogar drüber.
1060 und de rx580 sind gleich schnell.. wenn de 1060er mal 10% schneller is, dann is es bestimmt Gameworks...

Denn Vega hat ja von AMD eine wesentlich verstärkte Tesselation einheit bekommen

Notwendigerweise.

Es zeigt sich also EXAKT das was duskstalker weiter oben Seitenlang und mit Quellenbelege ausgeführt hat....Gameworks tesselation ist eine Handbremse für non-nVidia produkte.

In the Witcher 3 oder bei Godrays in Fallout 4 od. GhostRecon Wildlands stimme i da auch zu.
Aber ned in den anderen Titeln, da hat sich der duskstalker i-was ausgedacht.;)

Iscaran schrieb:
Ist halt nur zufälligerweise fast immer schlecht für AMD optimiert wenn Gameworks "in game".

Anno hat aber kein Gameworks.
 
Zuletzt bearbeitet:
Gschwenni schrieb:
Ja was is denn bei AMD eine gute Performance?
Was können die Karten denn leisten? Wer weiß das schon.;)

Du vergleichst die Performance aber nicht mit dem Mittelwert der Daten die zu 75% aus Gameworks spielen bestehen oder ?

Prinzipiell sollte die GPUS Ca. das was sie an GFlops haben liefern. Es gibt natürlich ausreisser, aber kein Game nutzt auschliessliche ein spezielles feature das z.B. ROPS braucht oder Speicherbandbreite. Es ist eigentlich immer mehr oder weniger ein Mix.

Also kann man durchaus erwarten dass AMD und nVidia hier +-10% mit den Gflops skalieren.
nVidia skaliert 1:1 mit den GFlops.
AMD aber skaliert ca mit 0.8*Gflops, weil man die die GFlops performance irgendwie nicht "auf die Strasse" bringt.
Das liegt vor allem an 2 Dingen. Einer unzureichenden API (DX11) um die Multi-parallelen SIMDS auszulasten und eben dem mittlerweile massiven Einsatz von Gameworks und stark einseitig nVidia optimierten Games.

GFlops.png
EDIT: Ich hab die Flops auf die 1080 FE werte als 100% skaliert.
So wie in Wolfenstein performt AMD wohl nirgends weil das AMD´s Gameworks ist und zwar mit reichlich Features extra für Vega.

Vulkan ist aber nicht AMDs Gameworks !!! Wo hast du das denn her ? Vulkan ist eine NEUE, FORTSCHRITTLICHERE API als DX11 und siehe mein Punkt von OBEN:
"Einer unzureichenden API (DX11) um die Multi-parallelen SIMDS auszulasten..."

D.h. In Wolfenstein sieht man die GPUs nun tatsächlich mit den Gflops skalieren und zwar SOWOHL AMD als auch nVidia !
GFlops_vs Wolfenstein2.png
Wieso auch imma du das nicht siehst.

Mit den einzelnen Spieletiteln hab ich mich nur kurz befasst - ich hab halt einfach auf die FullHD avg Balken geschaut. Die Frametimes hab ich nicht angesehen.
Ich geb dir ja Recht dass Titanfall und auch Gears of War in der Tat etwas besser skalieren als üblich - aber bei weitem noch nicht so wie man es erwarten könnte (siehe oben).

Anno 2205 ist und bleibt halt einfach eine totale Ausnahme in jeglicher Hinsicht...eine 980 hat +50% Leistung vs Fury X - obwohl die eigentlich ca gleichauf sein müssten...
Keine Ahnung was diesen Effekt macht. Vielleicht ist es ja nur ein schlecht umgesetztes Setting, aber das erfährt man ja nicht weil alle immer nur Regler nach RECHTS und Benchmark testen.
Vielleicht sind verbuggede Schatten oder sowas ? Oder eben ein Verbugges AA...keine Ahnung hab zu Anno nicht weiter recherchiert.

Zu guter Letzt muss ich noch was anders anbringen:
Ich schiebe nicht ALLE schuld auf Gameworks. Aber es ist schon auffällig dass die schlechte Skalierung von AMD-Karten im wesentlichen mit der Verwendung von Gameworks korreliert. Ausreisser hier und da.
Schuld sind auch die Entwickler die sich halt mittlerweile nicht die Mühe machen evtl. auch mal ein bisschen mehr zu optimieren wie früher...Stichwort, "OK die AMD Karten schaffen 60 FPS, passt - arbeit einstellen."
Schuld sind aber auch die "Fachmedien" die solcherart schlechte Gameoptimierung meist zu 100% unkommentiert stehen lassen. WAs meinst du was passiert wenn einhellig die Fachpresse ein neuen Gaming-Titel zerreist und schreibt WAHhhh schlechte nvidia optimierung in Titel XY.
Es dauert ein paar Wochen und es kommt ein Patch mit +20 bis +50% Leistung raus.
Aber es hat sich eingebürgert dass ein derartiger Patch für die AMD-GPUs wohl nicht notwendig ist, weil dir da keiner auf die Finger klopft.
 
Zuletzt bearbeitet:
schöne auflistung der karten nach tflops - danke :)

je nach amd karten/chip generation ist es aber schon so, dass die "tflops - fps" ratio schwankt (auch sehr krass bspw bei cypress mit den doppelten gflops vs nvidia). generell ist es so, dass nvidias reine gaming karten mehr fps aus den tflops herausholen als die "hybrid" chips von amd. im aktuellen CB bench parkour (mit gameworks titel) braucht amd gaaanz grob etwa 30% mehr tflops für die selbe performance - da geht n haufen für nvidia optimierte titel drauf, aber auch in den "best case" szenarien holen die amd karten nicht immer ganz das heraus, was die hardware in der theorie eigentlich liefern sollte. aber das ist ja auch nicht so tragisch, weil die karten trotzdem sehr gut performen und man tflops nur sehr begrenzt gegeneinander vergleichen kann, weder von amd zu amd, ganz zu schweigen von amd zu nvidia. aber wenn bspw. eine 10 tflop vega gegen so eine schwachbrüstige 1060 verliert, stimmt was nicht.

das heißt aber auch, dass amd stärkere hardware verbauen muss und es auch tut. das dürfte einer der gründe sein, warum amd karten besser altern - stärkere hardware, die zum testzeitpunkt noch nicht optimal unterstützt wird (einerseits von den treibern, andererseits aber auch von den spieleentwicklern selbst, hier steht nvidia natürlich ganz oben auf der liste). und hier kommt dann der knackpunkt: besonders bei vega wird gerne mal vergessen, wenn mal wieder die stromverbrauch-keule geschwungen wird, dass vega vom hardware level her eigentlich eine karte der "titan" klasse ist. und die fury mit über 8 tflops war 2015 auch ein monster, das aber an anderen stellen seine probleme hatte - hauptsächlich der geldmangel von amd. der recycelte tonga und das fehlen von refreshes und die technologische begrenzung auf 4gb speicher... puh. man stelle sich mal ein fury refresh in 2016 mit ordentlich entwickelter pipeline, 1300mhz takt und "8gb hbm" vor. das ding hätte mit mehr marktpräsenz von amd nvidia ordentlich ins schwitzen gebracht.

würde man für den tflop-fps vergleich gut optimierte spiele heranziehen, wäre das delta zwischen nvidia und amd mit den aktuellen karten aus der polaris und vega serie sehr viel kleiner. wenn rx580, fury und vega mal an den punkt kommen, dass sie wirklich optimal performen können, wird die nvidia konkurrenz im jeweiligen preissegment schon recht deutlich geschlagen - das liegt aber auch daran, dass amd im vergleich zu nvidia ihre hardware auch eine preisklasse günstiger verkaufen muss (vega 56 als 1080 konkurrent würde in der derzeitigen spiele landschaft nicht funktionieren). solange nvidia die selbe leistung (teilweise durch software?!) mit wesentlich schwächerer hardware schafft, ist nvidia natürlich auch bei der effizienz vorne - den zusammenhang sieht aber irgendwie keiner. jeder denkt nvidia zaubert die ultra hardware herbei, die doppelt so energieeffizient ist - aber die wahrheit ist, dass die hardware auch eigentlich nur "halb" so potent ist. die software ist hier auf mehreren ebenen der flaschenhals.

letztendlich ist vega doch deutlich performanter, als das so mancher wahr haben will - dass die internationale presse hier so mit dem knüppel auf vega drischt - und man jetzt zwei monate nach launch spiele hat, in denen vega 64 mit optimierung (uv/oc/potente kühlung) sogar die 1080 ti / ggf. sogar titan xp schlagen kann - zeugt eigentlich von der amateurhaftigkeit und kurzsichtigkeit der presse.

die ersten benches waren natürlich zum augen reiben, aber dass mehr in vega steckt, war eigentlich mit dem aufkommen des undervoltings und der herausragenden performance in vereinzelten titeln absolut absehbar. wo keine leistung ist, kann auch keine kommen - aber vorhandene leistung kann schlicht nicht abgerufen werden.

der absolute vega-shitstorm hätte von der presse auch eingedämmt werden können - gegen die enttäuschten fanboys (ob grün oder rot) kann man natürlich nichts machen. speziell gegen fury werden auch jetzt noch seitenhiebe von der CB redaktion ausgeteilt. ist eben der zeitgeist. informationsfastfood.
 
Zuletzt bearbeitet:
je nach amd karten/chip generation ist es aber schon so, dass die "tflops - fps" ratio schwankt (auch sehr krass bspw bei cypress mit den doppelten gflops vs nvidia)

Hier ist es aber architekturiell verständlich da es eben schwierig bis unmöglich ist die 5-fach parallelen VLIW5 Einheiten auszulasten. Effektiv waren die 5fach-Shader von AMD deshalb nur ca2-3 "belegt".

=> 2720 GFlops /5*2 = 1088 GFlops bzw. mit *3 = 1612 GFlops.
Zum Vergleich GTX 480 hatte mit ihren Unified Shaderen 1395 Gflops.

Und damit sieht man genau wie die Performance eben real aussah.

Performance war ca GTX 100%, HD 5870 ~90% zu Beginn soweit ich es im Kopf hab.

Analog war selbst bei der VLIW4-Architektur der HD6k-Reihe die Auslastung ebenfalls nur 2-3 weswegen man ja davon wieder weg ging bei GCN. Die Shader konnten damals kein Preemption wenn ich mich richtig erinner. Deswegen gab es diese massiven Auslastungsprobleme der Shader.

Die Aktuellen Architekturen setzen beide sozusagen wieder auf "unified" Shader. Weswegen hier der GFlops Vergleich zumindest grob passen müsste zumal die jeweiligen GCN Shader in den ComputeUnits-Clustern eben mittels preemption schnell task wechseln können. Bei VLIW5, musste qausi der ganze block verworfen werden.

Wie gesagt - Flops sind nur ein grober richtwert....das kann schon mal je nach Ausnutzung bestimmter Softwarefeatures deutlich in die eine oder andere Richtung schwanken.
Oder wenn man sich Fury X in Wolfenstein ansieht - mit 4GB VRAM ist man limitiert und die Karte bricht "relativ" gesehen deutlich ein von ihrem GFlops-Spot.
 
Zuletzt bearbeitet:
Iscaran schrieb:
Du vergleichst die Performance aber nicht mit dem Mittelwert der Daten die zu 75% aus Gameworks spielen bestehen oder ?

Es gibt keine 75% Gameworks Spiele, schon gar nicht deswegen weil Tesselation kein Gameworks ist und zudem Computerbase diese Effekte oft gar nicht mittestet.

Prinzipiell sollte die GPUS Ca. das was sie an GFlops haben liefern. Es gibt natürlich ausreisser, aber kein Game nutzt auschliessliche ein spezielles feature das z.B. ROPS braucht oder Speicherbandbreite. Es ist eigentlich immer mehr oder weniger ein Mix.

Gflops alleine sind nix wert, wenn das Frontend limitiert, das Backend limitiert, die Einheiten nicht ausgelastet werden können und oder der Treiber unzureichend ist die Bandbreite zu gering ausfällt, AMD weniger Dreiecke verwerfen kann, eine geringe Tesselations und Geometrieleistung liefert, die Pixelfüllrate/Texelfüllrate Speicherbandbreite oder what ever limitiert.

Das liegt vor allem an 2 Dingen. Einer unzureichenden API (DX11) um die Multi-parallelen SIMDS auszulasten und eben dem mittlerweile massiven Einsatz von Gameworks und stark einseitig nVidia optimierten Games.

Falsch das liegt an architekturiellen Schwächen seitens AMD denn ob Gameworks oder nicht AMD bringt das nie auf die Straße.
Und Wolfenstein ist ein AMD "Gameworkstitel" mit speziellen AMD Features. Rapid Packed Math, Shader Intrinsics, das hat rein gar nichts damit zu tun Rohleistung auf die Straße zu bringen.

Erklär mia mal was Rapid Packed Math, also FP16 damit zu tun hätte, async compute übrigens auch nicht.
Das letzte woran es liegt ist Gameworks. Das wird im Benchparcours so sparsam benutzt dass es niemanden juckt.

Vulkan ist aber nicht AMDs Gameworks !!!

Vulkan nicht, aber das SPiel entstand in enger Zusammenarbeit mit AMD. Also ned neutral.
Inkl der ganzen Features.

D.h. In Wolfenstein sieht man die GPUs nun tatsächlich mit den Gflops skalieren und zwar SOWOHL AMD als auch nVidia !

Näh, rapid Packed Math, shader intrinsics, informier dich doch bidde mal.

Aber es ist schon auffällig dass die schlechte Skalierung von AMD-Karten im wesentlichen mit der Verwendung von Gameworks korreliert.

Versuch es doch mal zu beweisen wo das hier so ist.
HBOA+ kanns ja schonmal ned sein, genausowenig Tesselation, die steht in vielen aktuellen Titeln auf AMD optimized und wird hier gar ned brutal gnutzt.

duskstalker schrieb:
letztendlich ist vega doch deutlich performanter, als das so mancher wahr haben will

Pickl dia nur die Rosinen raus.

vega 64 mit optimierung (uv/oc/potente kühlung) sogar die 1080 ti / ggf. sogar titan xp schlagen kann - zeugt eigentlich von der amateurhaftigkeit und kurzsichtigkeit der presse.

Ja die Presse is schuld iatz hammas.:lol:
Ihr seit solche Fanbo** und merkt es selber ned.
 
Zuletzt bearbeitet:
Immer wieder lustig wenn Fanboys die Fanboy Keule schwingen. :D

Mag sein das Wolfenstein II sowas wie ein "The Way It's Meant To Be Played" für die Radeons ist, dann aber abzüglich der bewußten Behinderung der Konkurrenz (Wie war das nochmal bei den Metro Titeln wo die erweiterte Physik (GPU Physx) bis heute standardmäßig aktiv ist oder Sache wie die Übertesselation?) aber mit der Nutzung neuer Funktionen. (Unterstützung für halbe Präzision)
Wer jetzt noch wegen rapid Packed Math rumheult und sagt dass es nur mit den Vega Chip FP16 Support gäbe der kann das ja gern mal mit den Benchmark Werten einer 7000-8000€ teuren Quadro GP100 belegen, deren GP100 Chip die halbe Präzision ebenfalls unterstützt.

Sowas wie shader intrinsics gibt es auch von nvidia und davon dürfte vor allem bei ihrer proprietären Software (Gameworks und Co.) kräftig Gebrauch gemacht werden. Dabei geht es schließlich nur um die Möglichkeit Funktionen aufzurufen die (so) nicht von der API unterstützt werden. Sozusagen das Gegenstück zu den OpenGL Extensions.

Allgemein finde ich das faszinierendste an der sinnlosen Diskussion ein Fass aufgemacht wird das es doch tatsächlich jemand gewagt hat ein Spiel für Radeons zu optimieren, was dummer weise nicht gleichzeitig ausschließt das nicht auch für die Geforce Karten optimiert wird, aber gleichzeitig nvidias Treiben als normal betrachtet wird.
 
Wadenbeisser schrieb:
Immer wieder lustig wenn Fanboys die Fanboy Keule schwingen. :D

Mag sein das Wolfenstein II sowas wie ein "The Way It's Meant To Be Played" für die Radeons ist

Ach des mag sein?
Wenn ich 75% der Spiele als Gameworks Spiele werte, egal ob da nun was angeschaltet ist oder überhaupt benutzt wird [wie man gsehn hat ist ja bereits Tesselation Gameworks:p] aber nachher bei einem Spiel mit exclusiven Vega Features davon rede dass es die wahre Leistung sei dann muss gehörig was falsch laufn.
Das Brett vorm Kopf muss ja gigantisch sei.

Sowas wie shader intrinsics gibt es auch von nvidia und davon dürfte vor allem bei ihrer proprietären Software (Gameworks und Co.) kräftig Gebrauch gemacht werden.

Bisher habe nix in den Dokumentationen gelesen. In Wolfenstein wirds seitens Nvidia nicht angewandt. Alleine das und RPM bildet einen klaren Vorteil für AMD und allein deswegen ist Wolfenstein eben parteiisch.

Allgemein finde ich das faszinierendste an der sinnlosen Diskussion ein Fass aufgemacht wird das es doch tatsächlich jemand gewagt hat ein Spiel für Radeons zu optimieren,

Also ich find das super dass auch für Radeons optimiert wird nur darf man ned den Fehler machen und dann so tun als ob das jetzt Referenzleistung wäre, macht bei Gameworks ja auch keiner, da isses sogar pauschal gegimped wurscht obs nun drinnen ist oder ned.
Man lernt ja vui wenn man hier mit dabei is. Und zwar dass ein und dasselbe immernoch ned das gleiche is.
 
Zuletzt bearbeitet:
Der einzige der davon unsachlich redet das Tesselation = Gameworks sei, bist du :rolleyes:

Keiner sagt das Tesselation ein Gameworks Feature sei, sondern das nvidia mit Gameworks Tesselation als Performancekiller missbraucht, und dabei billigend in Kauf nimmt das selbst alte nvidia Karten dabei abkacken.
Tesselation war schon bei ATi als TruForm eine geniale Idee, aber inzwischen wird es grotesk eingesetzt.
 
Wadenbeisser schrieb:
Wer jetzt noch wegen rapid Packed Math rumheult und sagt dass es nur mit den Vega Chip FP16 Support gäbe der kann das ja gern mal mit den Benchmark Werten einer 7000-8000€ teuren Quadro GP100 belegen, deren GP100 Chip die halbe Präzision ebenfalls unterstützt.

Ja - aber der Gschwenni sieht das nicht ein dass es in starkes feature zukünftiger Hardware architektur ist die da in Vega eingebaut ist- WEIL Pascal es noch nicht kann.
Und es ist ja eine Frechheit (in Gschwennis Augen) von den Game Developern so ein modernes feature das BESTANDTEIL der verwendeten Vulkan API ist auch zu verwenden !

Sowas wie shader intrinsics gibt es auch von nvidia und davon dürfte vor allem bei ihrer proprietären Software (Gameworks und Co.) kräftig Gebrauch gemacht werden. Dabei geht es schließlich nur um die Möglichkeit Funktionen aufzurufen die (so) nicht von der API unterstützt werden. Sozusagen das Gegenstück zu den OpenGL Extensions.

Ich hatte es oben schonmal erklärt dass Shader Intrinsics in DX12 und Vulkan teile der API sind...wiedermal eine bodenlose Frechheit wenn ein Entwicklerstudio es wagt ein feature ANZUWENDEN das Vulkan bereitstell.

...das es doch tatsächlich jemand gewagt hat ein Spiel für Radeons zu optimieren, was dummer weise nicht gleichzeitig ausschließt das nicht auch für die Geforce Karten optimiert wird, aber gleichzeitig nvidias Treiben als normal betrachtet wird.

Dem ist nichts mehr hinzuzufügen - dass Wolfenstein II eigentlich für BEIDE Architekturen sehr gut optimiert ist zeigt doch WUNDERBAR diese grafik:
https://www.computerbase.de/forum/attachments/gflops_vs-wolfenstein2-png.652501/

Mehr können nVidia-Karten in modernen APIs wie Vulkan eben nicht liefern und AMDs Karten werden nicht mehr durch DX11 und andere Effekte gebremst. AMDs Vega performt hier ENDLICH mal normal. Und wie man Flops vergleichen kann hab ich oben geschrieben.
Wer das nicht akzeptieren kann oder will ist ein die Technik-Verleugnender Idiot.

Und dass AMD unter DX11 und Gameworks leidet ist offensichtlich. Gschwenni hat aber immer noch nicht verstanden dass Gameworks nicht NUR aus ein paar speziellen Effekten besteht. Es geht bei Gameworks nicht nur um HBAO+ usw. Man kann in / über Gameworks noch ganz andere "Optimierungs"-Bremsen unbemerkt einbauen...ist ganz einfach bei unbekanntem Code.

Lieber Gschwenni:
Wenn du andere Architekturielle Unterschiede als Ursache siehst die einen Performanceeinbruch in Spielen erklären dann kannst du sie gern näher erläutern..."frontend" und "backend" sind aber nur schöne buzzwords die nichts erklären. Ich bin mal gespannt wie du die schlecht AMD Performance in Project Cars erklären willst - oder eben in anderen Titeln.

Wie gesagt dass man die Flops -Leistung der VLIW4 /5 Archs nicht direkt mit nVidias Archs vergleichen kann ist "trivial" erklärbar durch den Aufbau der 5-Fach paralleln VLIW shader und der damit einhergehenden nicht perfekten Auslastung.
DAS ist aber seit GCN NICHT MEHR DER FALL !!! Seit GCN sind die nvidia und AMD architekturen einandere wieder deutlich ähnlicher und auch der Theoretische Flops output skaliert "gleich"....

Klar gibt es bestimmte bottlenecks (wie z.b. die 4GB VRAM der Fury X in Wolfenstein)...aber abgesehen davon und mit einer gewissen großzügigen Streubreite (+-10 % oder vielleicht auch +-15%) sollte die Karten nach ihrer FLOPS leistung in Games skalieren....tun sie aber nicht in DX11 und insbesondere NICHT in Gameworks titeln.

Das TUN sie aber in Vulkan !....und das ist KEIN ZUFALL. Das ist erklärbar. Wenn man es eben nicht leugnen will.
 
Zuletzt bearbeitet:
Volkimann schrieb:
Der einzige der davon unsachlich redet das Tesselation = Gameworks sei, bist du :rolleyes:

ich habe ne seite vorher ne verbindung von tessellation zu gameworks hergestellt, weil viele gameworkseffekte tessellationsbasiert sind (bisher bestätigt sind hairworks, waveworks, volumetric lighting).

die frage hier ist, wieviel DX11 ist bspw waveworks, und wieviel gameworks/waveworks ist tesselliertes wasser.

ist das tessellierte wasser in mafia 3 jetzt waveworks oder "nur" tessellation? wo ist der unterschied? das eine ist offiziell gameworks, das andere nicht, bezeichnung vergessen? wo ist die gemeinsamkeit? vermutlich in der anwendung und optimierung der tessellation für nvidia karten. ist das nicht auch bei anderen spielen der fall?
hairworks bei the witcher 3 pfui, nutzlose geländetessellation in mass effect 3 hui?

hier steckt jeweils das selbe unter der haube, auf nvidia optimierte tessellation - nur das eine ist vertretbar, weil es nicht "offiziell" gameworks ist, das andere ist von der funktion her genau das selbe, nur mit einem spezifischen einsatzgebiet, dann nennt sich das auf einmal hairworks und erst dann profitiert nvidia davon?

gemessen daran, dass fast alle spiele mit tessellation (mit oder ohne "gameworks" bzw. funktionserweiterter tessellation) mit nvidia im hintergrund auf amd schlecht laufen, und umgekehrt (amd titel mit tessellation) es aber nicht der fall ist, würde ich mal gerne wissen, ob ihr glaubt, dass "nvidia optimierte tessellation" tatsächlich nicht schon "gameworks" ist, weil andere nvidia optimierte tessellation ist ja nachweislich gameworks.

http://www.pcgameshardware.de/Mafia-3-Spiel-13148/Specials/Technik-Test-Review-1210010/
(wasser durch tessellation, aber nicht ausdrücklich waveworks)
https://youtu.be/O3eKjwGEZe4?t=4m45s
(nvidia als sponsor)

performance auf amd -> schlecht.

wildlands 3 (geländetessellation nicht explizit gameworks), amd performance -> unterirdisch.

mass effect andromeda (geländetessellation nicht explizit gameworks), amd performance -> schlecht.

sniper elite 3 -> "amd titel", tessellation kostet auf beiden herstellern gleich viel. :rolleyes:

gibt es ein spiel mit tessellation und nvidia als sponsor, in dem amd gut performt? oder anders ausgedrückt - konnte amd in irgendeinem spiel mit nvidia tessellation ("/= gameworks") durch optimierungen jemals gute performance zeigen - ist es wirklich wahrscheinlich, dass amd wider deren möglichkeiten schlicht nicht optimiert haben, oder lässt sich da wirklich nichts optimieren?

im endeffekt bleibt hier nur (falls es funktioniert) die begrenzung vom tessellationsfaktor durch den treiber. eine anderweitige performancesteigerung von amd karten vs. nvidia tessellation ist mir nicht bekannt. ist es dann überhaupt möglich nvidia tessellation auf amd karten performant auszuführen? scheinbar nicht.

wie wenig gameworks ist dann tessellation aus dem grünen lager wirklich?

ich weiß es nicht, das kann man nur einen entsprechenden ingenieur fragen.

aber das, was sich bisher abzeichnet, geht doch schon in eine deutlich andere richtung als "neutrale DX11 tessellation", oder nicht?
 
Zuletzt bearbeitet:
Zurück
Oben