• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Wolfenstein 2: Neuester Patch beschleunigt RX Vega um bis zu 22 Prozent

Nice, Rohleistung von den AMD Karten passt ja super, nur die Optimierungen sind so ne Sache wie man sieht
 
Was Gameworkseffekte auf Nvidia Karten so effizient macht, ist, dass die Effekte über die NVAPI injeziert werden und nicht über DX/GL/Vulkan. Auf AMD Karten muss der reguläre weg über die GrafikAPI gegangen werden und noch dazu ist der Gameworks Shadercode nicht auf deren Architektur optimiert.
 
Shoryuken94 schrieb:
Es ist das gleiche Problem wie seit Anfang an bei GCN oder auch bei den Bulldozer Prozessoren. Die Architektur ist nicht schlecht, aber komplett am Markt vorbeientwickelt und man kann nicht ansatzweise das Potential ausnutzen.

Nö nvidia pfeift einfach auf die Nutzungsdauer und legt die Produkte entsprechend kurzsichtig aus, was natürlich auch Produktionskosten spart.
Ist ja schließlich schlecht fürs Geschäft wenn die Kunden zu lange auf der Hardware hocken bleiben und man entsprechend weniger an sie verkaufen kann. Der ganze proprietäre Kram den sie in den Markt gepresst haben sorgt dann auch dafür das sie auch ja die eigenen Produkte wieder kaufen.
 
was solls, kann mich nicht beschweren, das Spiel läuft bei mir (i7 8700K mit GTX 1080)in 1440p auf "Mein Leben!" mit 100-132 FPS im Schnitt - ab und zu gehen die FPS mal in den 80 FPS "Keller" :rolleyes:
läuft sehr smooth.. lustiges Game - schön stupides geballer.. macht spass :freaky:
 
Das letzte Update hat, wie in den Release Notes verlautet, die fehlerhafte Skybox repariert.
Der Fall war das zum Beispiel in der von ComputerBase genutzten Worst-Case-Szene.
Auf einer Grafikkarte mit GPU von AMD sieht die Sequenz im aktuellen Spiel jetzt fehlerfrei aus und auch auf GeForce-GPUs ist der „doppelte Boden“ verschwunden.

also ist die "worst case" szene doch einfach nur ein bug, der auch noch visuell auf sich aufmerksam macht. gut, dass jetzt schon bugs gebencht werden. war irgendwie gleich von anfang an klar. :rolleyes:

was wäre das auch für ein test gewesen, wenn man nicht noch irgendeinen seitenhieb gegen amd auf lager gehabt hätte. damit ist für mich hier ein neuer tiefpunkt erreicht. wenn sowas passiert, meldet man das dem dev team, und macht keine benchmarkszene draus. meine herren.
 
Zuletzt bearbeitet:
Noch eine Frage zu dem Bug, war der im Himmel gespiegelte Boden auch bei den Geforce Karten im gleichen Ausmaß sichtbar?
 
ob was sichtbar ist oder nicht muss nicht unbedingt ein indikator dafür sein, wie "schlimm" der bug ist, oder was da überhaupt passiert.
wenn sich das ganze aber schon visuell zum ausdruck bringt, weiß man zumindest mal, dass da irgendwas nicht passt. und wenn dann auch noch die performance um 50% einbricht, braucht man eigentlich nur 1+1 zusammenrechnen.

wenn die skybox einen fehler hat, wird da "irgendwas" angezeigt - je nachdem wie die karten auf sowas reagieren, kann da nvidia anders reagieren wie amd. in der regel wird das was neben dem "loch" ist drüber"gezeichnet" - ohne skybox hat die engine keine information für den bildinhalt.

in spielen ist es so, dass polygonmodelle immer "backfaces" haben, durch die man durchsieht (weil sie keine textur haben) - das ist in der regel "innen" die geometrie ist aber da. hier kommts auf den renderer an, wie er mit sowas umgeht. es ist durchaus möglich, dass bspw. nvidia solche durchsichtigen backfaces verwirft und amd aber eine fast unendliche anzahl an fehlerhaften spiegelungen berechnet - die effektiv niemals gerendert werden sollten. das vermute ich bei dem "doppelten boden" - ein renderfehler, möglicherweise durch fehlerhafte geometrie. wenn sich zwei sich spiegelnde flächen gegenüberliegen, spiegelt sich das quasi unendlich.

beispiel für fehlerhafte skybox ("nicht vorhanden, leer" - half life):

sky_bug.jpg


das wird in modernen spielen auch nicht anders sein. jedenfalls kann je nach engine, geometrie und shader so ein fehler in der skybox etwas auslösen wie "durch null teilen". und schon hat man seinen performanceeinbruch.
 
Zuletzt bearbeitet:
kiffmet schrieb:
Was Gameworkseffekte auf Nvidia Karten so effizient macht, ist, dass die Effekte über die NVAPI injeziert werden und nicht über DX/GL/Vulkan. Auf AMD Karten muss der reguläre weg über die GrafikAPI gegangen werden und noch dazu ist der Gameworks Shadercode nicht auf deren Architektur optimiert.
Ich finde sowieso das bzgl Gameworks die Presse viel zu passiv ist, um aufzuklären was, wann, wieso, wie passiert und welche Auswirkungen es hat.
Selbes zB auch bei der GPU PhysX Geschichte, bei dem zB nvidia diese Funktion abschaltete, sofern eine ATi/AMD GPU im System vorhanden ist, damit ja nicht die bösen ATi/AMD Käufer nicht eine nvidia Karte schlicht als PhysX Beschleuniger "missbrauchen".

Ein fadenscheiniger Vorwand ("technische Probleme") wurden dafür als Begründung genannt. Von Privatpersonen "gehackte" Treiber (Entfernung der Abfrage nach AMD Hardware) haben dann bewiesen das dies schlicht falsch ist. Reaktion der Presse quasi nicht vorhanden. Fast unter den Teppich gekehrt.
 
Wadenbeisser schrieb:
Nö nvidia pfeift einfach auf die Nutzungsdauer und legt die Produkte entsprechend kurzsichtig aus, was natürlich auch Produktionskosten spart.

Bis auf den Grafikspeicher sehe ich nichts, weshalb die Nvidia Karten nicht genauso lange halten sollten. Und hier hat sich das Blatt ja sogar total umgedreht. Mittlerweile ist der Speicher in Vergleich zur rohleistung bei den Nvidia Karten deutlich üppiger, als bei amd. Im Gegensatz zu den anderen Karten müssen die Karten auch nicht mehr beim Kunden reifen und liefern gleich die volle Leistung.

Die anderen Karten sind nicht schlecht, technisch sind sie sogar ziemlich gut, aber was nützt mir das, wenn die Karte in der Theorie gut ist und vielleicht irgendwann Mal schneller, wenn ich jetzt eine schnelle Karte haben möchte?
 
@duskstalker
Mir ging es um etwas ganz anderes.
Da die Stärke der aktuellen Geforce Generation auf dem Weglassen von (normalerweise nicht sichtbaren) Inhalten beruht könnte das der Schlüssel für den Einbruch der Radeons bei dieser Szene sein denn wenn die gespiegelten Inhalte bei der geforce verworfen wurden, die Radeons diese allerdings rendern mussten dann hatten die ganz einfach mehr zu berechnen und warend eshalb entsprechend langsamer unterwegs.

Jetzt ist allerdings interessant warum bei der Geforce nun ganze Bildinhalte fehlen. Auf den Screenshorts scheint sich auch die gesammte Beleuchtung erheblich zu unterscheiden.
 
Wadenbeisser schrieb:
Da die Stärke der aktuellen Geforce Generation auf dem Weglassen von (normalerweise nicht sichtbaren) Inhalten beruht könnte das der Schlüssel für den Einbruch der Radeons bei dieser Szene sein

ja genau mein gedanke - allerdings muss das wegfallen von geometrie oder renderinhalt bei nvidia karten nicht zwingend für den spieler sichtbar sein. mal angenommen in der szene gibts tatsächlich eine stelle auf der map, in der sich geometrie unendlich spiegelt - dann kann nvidia auch einfach iteration 3-999999 verwerfen, ohne das man das sieht - weil iteration 1 und 2 immernoch gerendert werden.

ich habe keine ahnung wie die iDTech bei sowas reagiert, kenne nur die source engine ziemlich gut.

dass bei nvidia ganze inhalte fehlen, könnte daran liegen, dass der nvidia treiber zu viel "verwirft".

ich habe aber weder das spiel, noch eine nvidia karte, noch die motivation das zu testen. ist ja eh irrelevant, weil cb bencht, was sie wollen.
 
Zuletzt bearbeitet:
Wieso wird nicht die 1080ti als Vergleich genommen? Sieht nach "fremdgewünscht" aus.
 
@Shoryuken94
Der Speicherausbau, der DirectX Support, Async Compute, und nun ebend die Geschichte mit der halben Präzision.
Gut möglich das es noch mehr gab aber das waren die Punkte die mir so schnell in den Sinn kamen.

So nebenbei, aktuell hat nvidia nur bei einem Teil der Produktpalette ein besseres Rohleistung vs. Grafikspeicher Verhältnis denn das trifft lediglich auf die GTX1070 - 1080Ti im gleiche Preissegment zu. Würde man die Preis Geschichte ignorieren und sich nur auf den Chip beziehen dann sieht es erst recht traurig aus denn die Vega FE kommt schließlich mit 16 GB daher.
Ergänzung ()

@duskstalker
Ja aber ich habe den Verdacht das nvidias Ansatz ein Problem mit der Erkennung von Transparenzen hat und manchmal zu viel weg lässt. Das würde zumindest einige Probleme die in der Vergangenheit auffielen erklären.
Würde also noch ein problematischer Tranzparenz Effekt über dem Himmel stehen bei dem die Karte denkt das dahinter nichts sichtbar wäre dann hätte man ein dickes Loch am Himmel.
 
Genau deswegen halten NV Grafikkarten auch nicht so lange Garantie und dann ist es auch schon aus damit.
 
Dr. MaRV schrieb:
Blöd sieht hier gar keiner aus, weil Menschen mit Verstand wissen, dass es keinen Unterschied macht, ob man mit 170 oder 120 FPS Spielt.
Das sind die Durchschnitts FPS. Für jemanden mit 144Hz Monitor, die es ja immer häufiger gibt, macht es schon einen Unterschied, ob man 120 oder 170fps erreicht.
Zumal, wenn man den Original Test ansieht, sind die 99th FPS bei Nvidia bei 90 und bei AMD bei 106, durch den Sprung in den avg FPS könnte man also hier auch in den min fps an die 144 rankommen, was dann optimal ist.

Zudem soll es auch Menschen geben, die mit mehr als 1080p spielen. In 4K besteht zwischen den 52fps der 1080 und den 66fps der Vega schon für 60Hz Monitor Besitzer ein merklicher Unterschied


Dr. MaRV schrieb:
Und selbst wenn Wolfenstein 2 ein Top 10-Spiel ist, so sind 90% der anderen Top 10 Titel nicht für Vega optimiert und da hat Vega seine Probleme. Was wird der informierte und Objektive Kunde wohl kaufen?
Wenn man Anno 2205 als einziges Spiel rausnimmt, wo AMD unterirdisch schlecht performt, trennen Vega64 und die GTX1080 ganze 2%, also in den meisten Fällen 2-3fps.

Also ob 120 oder 170fps ist dir egal, aber wenn die 1080 dann mal 65fps erreicht und Vega nur 63, dann hat sie für dich natürlich direkt Probleme.

Witcher 3, Titanfall 2, Doom, Deus Ex, Cod:IW, Battlefield 1, Battlefront 2.
Alles Spiele in denen Vega gleichauf oder vor der 1080 liegt. Und in den anderen Fällen sind es eben oftmals besagte 2-3fps weniger. Wie du auf 90% kommst, in denen die Karte "Probleme" haben soll, ist mir nicht ganz klar.

Tronx schrieb:
Wieso wird nicht die 1080ti als Vergleich genommen? Sieht nach "fremdgewünscht" aus.

Weil die 1080Ti nun mal nicht der Gegner der Vega ist. Aber wenn sie genau so auf die Patches reagiert wie die 1080, dann kannst du in 1080p von 145 gegen 170fps zugunsten von Vega ausgehen.
 
Zuletzt bearbeitet:
Volkimann schrieb:
...
Für Spieler ist es doch eher traurig das scheinbar ein Groß der Spiele auf einen Hersteller hin optimiert wird. Jetzt nutzt mal ein Hersteller die Hardware von AMD wird gleich gejammert. (Wenn AMD Nutzer das bei anderen Spielen fordern, werden sie verhöhnt)

Noch vor ein paar Jahren wurde gerne nvidia als der Retter der PC Spiele benannt und gefeiert. Die würden was für die Plattform PC machen.
Inzwischen ist nvidia eher eine Gefahr für die Plattform PC, da einseitig optimiert wird.
Aber das werden jetzt wieder ein paar der typischen Kandidaten auch wieder verhöhnen, das ihr goldener, teuer erkaufter Käfig ja so geil sei. :rolleyes:

Das ist vielleicht traurig, doch überall normal. Ich bin 2,04m groß, jedoch werden die meisten Autos für Leute für maximal 1,90 gebaut, ähnlich Schuhe, Klamotten usw. usf. Aufgrund von mehreren Ursachen hat sich die Marktverteilung der dGPUs von nahezu 50:50 auf nun eben 80:20 entwickelt und das Aufkommen von Mining wird die Relevanz von AMD im Gaming-Bereich wohl weiter schwächen.

Insofern sind die Chancen gering, dass kleine bis mittlere Entwickler hier irgendwelche Sonderspielchen für Vega implementieren, dass innerhalb der 20% Gruppe nochmals einen geringeren Prozentsatz ausmacht. Wer hier auf große Änderungen in der Zukunft hofft abseits vom AMD Idealfall wie hier beim hofierten Wolfenstein, dürfte auf dem Holzweg sein, aber sowas von. Aus reiner Nächstenliebe arbeitet die durchaus hart umkämpfte PC-Entwicklerszene nämlich nicht. Die entsprechend bereitgestellten Ressourcen von Nvidia mit großem Treiber-Team und den Gameworks-Bibliotheken tun ihr übriges.
 
Achim_Anders schrieb:
Hey Wolfgang, warum wird der ursprüngliche Artikel nicht geupdatet? Und wie sieht es nun mit der 1080ti aus? Ist sie schneller oder langsamer wie die Vega?

Ich vermute mal, darauf bekommst du keine Antwort.

Tronx schrieb:
Wieso wird nicht die 1080ti als Vergleich genommen? Sieht nach "fremdgewünscht" aus.

Weil Vega die Ti in der Luft zerreißen würde. Das kann man doch so nicht bringen. ;)
 
cookie_dent schrieb:
Es ist schön zu sehen das mit Wolfenstein ein weiteres Spiel erschienen ist, dass auf AMD Karten sehr gut läuft.
In unserem Sinne braucht Nvidia eine starke Konkurrenzsituation damit ihr Quasi Monopol nicht noch weiter ausufert.

Aber es ist halt nur ein Spiel wo Vega besser performt und kein Grund gleich in Euphorie auszubrechen.
In meinen Augen müssten noch viel mehr Spiele erscheinen die so gut mit AMD Klar kommen und die wenigstens etwas von der sehr hohen, aber üblicherweise brach liegenden, Rohleistung abrufen können.



Gleichauf mit einer Karte, die ein Jahr früher erschienen ist bedeutet für mich keine Meisterleistung, meinen Erwartungen an Vega waren deutlich höher.
Die Hoffnung war das Vega die 1080 abhängt und auf dem Niveau der 1080Ti (oder besser) liegt.
Ergänzung ()

Wo ist denn "Mainstream" für Dich?
Bei mir ist dieser bei der 580/1060 angesiedelt, aber auch mit der 570 oder der 1050Ti sollte das Spiel sich noch flüssig spielen lassen.
Aber die Benchmaks für diese Katen fehlen, stimmt.
Aber es ist wohl der Tatsache geschuldet, das CB nicht für jedes einzelne Game Update den kompletten Test Parcours durchlaufen lässt, was ich gut nachvollziehen kann.

Mach mal die Augen auf! Es ist nicht ein Spiel, ist ist mittlerweile eines von vielen Spielen, zumindest was die Neuerscheinungen betrifft.
Ansonsten hast du Recht.
 
Naja von vielen würde ich jetzt nicht unbedingt sprechen, aber Fakt ist halt, das die Vega fast zwei Jahre nach der GTX 1070/1080 erschienen ist und man da schon erwarten kann, das die Vega abgeht wie eine Rakete, was sie aber nicht tut.

Auch dieser Bench ist immer noch ernüchternd, die Fury X konnte damals bei Doom satte 66% zulegen, einfach mal so, ohne das Endlos nachgepatcht wird und ohne das weitere spezielle Fury X Technik benutzt wurde.

Jetzt hat man einen Vorteil von wieviel? 30%? Dafür das das Spiel beinahe alles herauskitzelt was eine Vega zu bieten hat, ist das mehr als nur schwach.

Dann hat man nachweislich schwierigkeiten mit der implementierung von Async Comp. bei nVidia und wartet noch auf einen Treiber von nVidia. Erst wenn der nachgepatcht wird, kann man nochmal ein Resümmee ziehen, aber die Worst Case Szenarien zeigen das mit der AMD Karte kein flüssiger Flow zu erwarten ist.

Vega war angekündigt als "poor Volta" und was heisst hier poor Volta? Die können mal Glück haben wenn ne Vega 64 in wenigen Anwendungsfällen eine GTX 1080 abhängen kann.

Ich hatte erwartet zum Preis einer GTX 1080 eine AMD Karte zu kriegen, die die GTX 1080 Ti abhängt, was ja in keinem einzigen Szenario zutrifft. Das war mit der Fury X schon anders, man hat ja nicht nur die GTX 980 Ti hinter sich gelassen, sondern auch gleich den Angriff auf die GTX 1070 erfolgreich gemeistert.

Können wir also erwarten das die Vega Karten je den Volta Karten auch nur Ansatzweise gefährlich werden können? Ich denke nicht.

Die Vega Karten enttäuschen auf voller Linie, da keine Customs erschienen sind und wohl auch bis auf absehbare Zeit keine erscheinen werden, habe ich mich halt für die GTX 1080 entschieden. Wenn dann Customs kommen und die dann vom Preis her deutlich teurer als eine GTX 1070/1080 werden, dann lohnt der Aufpreis doch kaum, wenn dann in wenigen Monaten Volta erscheint.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben