• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Wolfenstein 2 im Benchmark: Das Vulkan-API-Spiel mit Vega-Feature

Ich habe mal darüber nachgedacht, kann es sein dass das Problem in erster Linie die Transparenz Effekte sind und die Geforce hier einfach deutlich mehr verwirft? Das würde dann auch zu dem Trümmer Szenario passen.
Wirklich interessant wäre dann aber ein direkter und detailierter Bildvergleich. Nicht das es fehlerhaft arbeitet und auch sichtbare Elemente verworfen werden.
 
Der Benchmark ist doch nicht ernst zu nehmen wenn noch nichteinmal klar ist wo gebencht wurde.
Damit ist die ganze Arbeit von computerbase letztlich für die Tonne. Das muss doch nicht sein.
Bitte Computerbase, zeigt uns doch zumindest Screenshots.
 
Haha oh Mann AMD ihr macht mich fertig...

Wolfenstein.png

Einen Rollback wird es bei Steam Games nicht geben nehm ich an?
 
Krautmaster schrieb:
naja Bug ist relativ. Zum anderen ist es eben andersrum. CB hat alle Test mit Der Szene 2 gemacht die eben als erstes ausgesucht wurde ... da die Ergebnisse aber für AMD überraschend schlecht ausfielen hat man Szene 1 nachgeschoben.

Es ist nur logisch dass man eine anspruchsvolle Szene (also die die nun "Worst Case" heißt) als Testszene nimmt, da sie die GPU ja auch maximal stressen soll und so Unterschiede rausarbeitet, zb so dass eine GTX 1080 Ti nicht nur 10% vor der GTX 1080 liegt da etwas anderes limitiert.

Also du raffst es nicht oder ?

Sieh dir bitte dein eigenen Link zu den CB-Testergebnissen an.
Betrachte die 1080 Ti

Szene1 anspruchsvolle Szene (die "normale")
68.4 FPS
Szene2 "worst case":
70.4 FPS
EDIT:
Vega 64
57.6 FPS
47.1 FPS

Die FPS sind also gleich bei der 1080 Ti - nur AMD fällt dramatisch ab (in Szene2).

Das hat mit Absurd nichts zu tun, oder skalieren die AMD GPU in der Szene 2 schlecht?
Nein ? JA AMD GPUs skalieren in Szene 2 schlecht:

Siehe
W2_Presets.png

Das Niedrig, Mittel und Hoch Preset skalieren auf AMD und nVidia GPUs jeweils GLEICH !

Niedrig zu Mittel (das bessere Setting setzte ich jeweils 100% und betrachte die Differenzu zum Niedrigeren Preset):
Vega64 ~ -13%
1080 Fe ~ -12%
Mittel zu Hoch:
Vega64 ~ -25%
1080 Fe ~ -23%

Aber jetzt kommts komisch:
Hoch zu Ultra:
Vega64 ~ -26%
1080 Fe ~ -11%

Und im nächsten Schritt gleich nochmal:
Ultra zu Extreme:
Vega64 ~ -24%
1080 Fe ~ -10%

Aber Komischerweise wieder "gleichmäßiges" skaling bei:
Extreme zu Mein Leben:
Vega64 ~ -5%
1080 Fe ~ -6%

Du bist dran mit erklären. Sieht für mich nach Bug in irgendeinem Setting des Games aus...oder nVidia lässt mal wieder 20% des Bildes weg ? (Screenshots der Worst-Case und Anspruchsvolle-Szene im direkten Vergleich?)

EDIT:
Ist das nun absurd mit Worst-Case den Test und die Presets zu diskutieren ? Brechen die AMD Karten in den "anspruchsvollen" Szenen bei den Presets ebenso seltsam ein ? Wohl nicht.
DAS erklärt nämlich vermutlich die ~25% differenz zwischen Worst Case und Anspruchsvoll. Es ist etwas das in Ultra bzw. Extreme Presets "dazu" kommt und in der einen Szene einen Effekt macht.
 
Zuletzt bearbeitet:
Beim skalieren gings nicht um die Presets sondern die Skalierung der Karten untereinander, zb 56 zu 64 Vega. Skalieren die nicht ist der Test genauso für die Tonne wie eine Worst Case Szene die wegen mir einmal im Gameplay auftritt.

Die Presets selbst hab ich mir jetzt nicht groß reingezogen, wurde hier ja hauptsächlich über die Szene 2 aka Worst Case und weniger Presets diskutiert.

Edit. Das was nicht stimmt mag sein, aber so ist nunmal der Umstand. Ich glaube jetzt weniger dass das an CB liegt als an Wolfenstein, Vulkan, AMD oder Nvidia ;)
 
Zuletzt bearbeitet:
Ich rede oben wie hier vom scaling bei den Presets.

Aber ja V56 und V64 skalieren BEIDE in Szene 2 gleich schlecht.
Genauso wie JEDE andere AMD Karte btw. in der Szene2 relativ zu Szene1.

EDIT: Hingegen HÄLT JEDE nVidia Karte ihr FPS +- zwischen Szene2 und Szene1.

EDIT2: Ist bestimmt kein Bug. Nein...ist gewollt so mal eben 25% Leistung liegen zu lassen die in 99% des Games DA ist, aber in Szene "worst Case" plötzlich nicht.

Deswegen muss man das ja auch als Roter Faden durch den Artikel ziehen, das AMD im Game voll abkackt, weil es eine Sequenz gibt wo sie einbrechen und die man eigentlich im eigenen Test auch noch direkt als "bug" enttarnen kann durch genaues betrachten seiner Eigenen Messwerte.

Good job - not done.
EDIT3: Der obige Absatz ist bewusst Stark übertrieben und sarkastisch.
Ergänzung ()

Krautmaster schrieb:
Die Presets selbst hab ich mir jetzt nicht groß reingezogen, wurde hier ja hauptsächlich über die Szene 2 aka Worst Case und weniger Presets diskutiert.
Es wurde aber offensichtlich Szene2 für die Presets verwendet...was ich oben btw. schon schrieb und die Frage aufwarf ob es denn SINNVOLL sei die Presets und das allgemeine Scaling des Games in den Presets zu testen in einer Szene die offensichtlich verbugged ist.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Edit. Das was nicht stimmt mag sein, aber so ist nunmal der Umstand. Ich glaube jetzt weniger dass das an CB liegt als an Wolfenstein, Vulkan, AMD oder Nvidia ;)

CB ist wahrscheinlich nicht schuld am "worst case" - aber der umgang damit ist mehr als fragwürdig.

man sollte sich anstelle von CB gedanken machen, wo die FPS einbrüche herkommen, die komplett alle amd karten betreffen und KEINE nvidia karte, und nicht die zahlen als benchmarkwerte übernehmen oder gar für das preset scaling verwursten. das geht überhaupt nicht und ist mal wieder ein neuer tiefpunkt.

im artikel liest sich das so, als ob amd in der szene schlecht/fehlerhaft performt und nvidia gut - aber ich darf mal an AotS erinnern, als nvidia treiberseitig die eigenen gpus von etwas rechenlast befreit hat (aka nvidia karten rendern nicht alle effekte bzw. nicht so, wie sie sein sollten). ist die szene tatsächlich nicht "verbugt" und extrem anspruchsvoll, gibts immernoch die möglichkeit, dass amd hier die "baseline performance" zeigt und nvidia sich schlicht von rechenlast "befreit".

wobei verbugt hier ein weiter begriff ist - hier braucht nur jemand im dev team einmal nicht aufpassen und es stacken sich irgendwelche effekte/shader übereinander, bspw. 100 layer schattenwurf oder transparenzeffekte. irgendwelche meshes, die kollidieren oder zu oft gespawnt werden. cpu last im worst case geprüft - natürlich nicht.....? kann auch ein physik-effekt sein, der nicht richtig berechnet wird.

ich will damit nicht sagen, dass es nicht auch ein problem seitens amd sein kann, aber dafür, dass man nichtmals ein video oder wenigstens einen screenshotvergleich bekommt, ist mir die conclusio "amd bricht ein, nvidia hält performance in worstcase" zu weit hergeholt.

CB ist auch davon ausgegangen, dass async compute auf amd karten ab release aktiviert ist, tatsächlich hatten nvidia karten den support zuerst. ein bisschen komisch, oder? bei einem gemeinschaftsprojekt von bethesda und amd.
 
CB ist wahrscheinlich nicht schuld am "worst case" - aber der umgang damit ist mehr als fragwürdig.

Genau davon rede ich. Aber wie immer keine Stellungnahme seitens CB. Auch keine Screenshots der Szenen oder Bildvergleiche...man fischt im trüben, aber Hauptsache in fast jedem Absatz des Artikels auf dem Performance drop rumreiten. Auch wenn man Worte wie unerklärlich etc auch darin findet.

Das seltsame AA-Verhalten könnte übrigens auch GENAU so ein Fehler sein und auf die Ursache hindeuten.

TAA1x kostet bei nVidia genau -9% Leistung und damit EXAKT genausoviel wie FXAA.

Bei AMD hingegen -22%...

Vielleicht spart nVidia hier am TAA ? Bzw. rendert TAA als FXAA oder sowas ? Hat sich das mal jemand angeschaut ?
/Sarkasmus
Nein man war damit beschäftigt AMD zu bashen weil man eine Szene gefunden hat wo die AMD Karten DOCH schlecht dastehen. /Sarkasmus Ende
 
Krautmaster schrieb:
Spiele problemlos in 4K mit aktuellem win 10 1709

Lag am neuen Treiber, bin wieder auf 388.00 zurückgegangen und alles ist wieder gut.
Schon traurig, da der neue Treiber ja eigentlich optimieren sollte und nicht das ganze Spiel abschießen..

@all

ist es jetzt wirklich so schlimm wenn eine Karte in einer kurzen Szene für ein paar Sekunden einbricht, der Rest des Spiel´s aber flüssig läuft?
Ich finde das höchstens komisch, aber keinen Aufreger Wert.
Nach meinen ersten Erfahrungen das Spiel in 4K zu zocken, kann ich nur vermuten daß das Spiel selbst nicht sauber programmiert ist.
 
Iscaran schrieb:
Das seltsame AA-Verhalten könnte übrigens auch GENAU so ein Fehler sein und auf die Ursache hindeuten.

TAA1x kostet bei nVidia genau -9% Leistung und damit EXAKT genausoviel wie FXAA.

Bei AMD hingegen -22%...

Vielleicht spart nVidia hier am TAA ? Bzw. rendert TAA als FXAA oder sowas ? Hat sich das mal jemand angeschaut ?
/Sarkasmus
fxaa kostet im Normalfall 0 Leistung. das AA in wolfenstein ist auf jeden fall nicht besonders gut, mir kamen Erinnerungen an BF4 hoch (cb schreibt es ja selbst - bei stillstand sieht man die kanten, in bewegung geht's)
vielleicht kommt ja noch ein patch dafür - patchen müssen sie auf jeden fall einiges. hatte schon 3 abstürze, vollbildmodus geht garnicht (unterer teil wird abgeschnitten, spiele im fenstermodus), am anfang war das bild nach den "anfangsvideos" einfach schwarz.
manchmal tauchen die Gegner auch einfach "aus dem nichts" auf - hat mich auch etwas an BF4 erinnert.

@Cookie_dent fps technisch ist das spiel sehr gut programmiert - wie immer eigentlich. ich hab auf wqhd durchgehend deutlich über 100fps. meistens sogar 160 rum - und ich habs nicht auf niedrig...
 
cookie_dent schrieb:
ist es jetzt wirklich so schlimm wenn eine Karte in einer kurzen Szene für ein paar Sekunden einbricht, der Rest des Spiel´s aber flüssig läuft?
Ich finde das höchstens komisch, aber keinen Aufreger Wert.

Da stimmen dir hier wohl auch alle zu, aber für diesen Einbruch in einer Szene, die in den ersten 1,5 Stunden Spielzeit genau einmal vorkam, werden hier im Test deutlich zu viele Worte gespendet und es sieht so aus, als wäre das Spiel mit AMD Karten ein ständiges Auf und Ab.

Diesen Einbruch hätte man gesondert erwähnen können und ihn nicht in jedem weiteren Benchmark miteinbeziehen müssen.

Nichtsdestotrotz wäre es interessant zu wissen, was diesen massiven Einbruch verursacht, auch wenn er im Spiel so gut wie nie vorkommt.
 
Nichtsdestotrotz wäre es interessant zu wissen, was diesen massiven Einbruch verursacht, auch wenn er im Spiel so gut wie nie vorkommt.

Stimme voll zu. Ich vermute es ist eine oder 2 Einstellungen die in den Presets Extrem bzw Ultra hinzukommen. Fragt sich nur noch welche.
 
aivazi schrieb:
Klar braucht man Vergleiche.

...........
Edit:
Zumindest ein Video, damit man sich die Ausmaße von jenem "Worst Case" vorstellen kann wäre man uns schuldig gewesen.
Und die Aussage von CB, dass die "Anspruchsvolle Sequenz" in den ersten 90 Minuten gegenüber der "Worst Case Sequenz" dominiert steht immer noch ziemlich schwammig ohne Konkretisierung seitens CB im Raum.

Edit 2: Schließlich bin ich ein Freund von glatten Frametimes, aber die Aussage von CB ist da dezent mysteriös. Hardwareluxx berichtet zB. nichts von einem Worst Case Szenario. Bietet aber quasi die identischen Werte zum " Anspruchsvollen Szenario" : https://www.hardwareluxx.de/index.p...ein-2-the-new-colossus-im-benchmark-test.html


Schließlich wählt man zB. bei Last of Us doch nicht einen bewusst gewählten Bereich in dem die FPS auf 20 einbrechen und urteilt dann Anhand dieser einen Szene, dass man das ganze Spiel über mit 20 FPS rechnen muss...

+1
Du sprichst hier gegen ne Wand. Genau wie bei Luxx..und Gschwe.... drehen sich immer alles so rum wie Sie es gerade brauchen.

Also ich finde in den letzten CB-Benches kein AMD/Nvidia-WorstCaseSzenario was im Bench hervorgehoben wurde wie dieser hier. Es wurde vielleicht mal kurz im Fazit angesprochen wenn Nvidia oder AMD mit irgendwelchen Szenen Probleme hatte, Aber es wurde nie so an die große Glocke gehängt wie in diesem Test hier.

Liegt wohl daran das sich die Roten mal vor die Grünen schieben.

Also hier und bei PCGH wird seid geraumer Zeit nicht sehr objektiv gebencht. Sieht man schon an den Testsystemen. Kein neueres DX12 Game wurde mit Ryzen+Vega getestet. Warum?
Wenn mit Ryzen getestet wurde steckte CB&PCGH ne 1080ti oder TitanXP dazu, was soll das?
Scheinbar ist es ja sinnvoller nur mit Intel zu Benchen, warum auch immer. Wenigsten wird nicht mehr mit nem 4-Kerner gebencht.

Wenn man fragt heißt immer wird nachgeschoben oder gar keine Antwort.
Macht echt keinen Spaß mehr hier und bei PCGH zu lesen. Ist nur noch AMDvsNVidia gebashe. Die meisten davon lesen sich nicht mal den Test durch und schauen nur auf den Balken. Und hier im Forum ganz schlimm, habe bis zur letzten Seite der Kommentare mindesten 50 mal auf den ersten 10 Seiten Lesen müssen was für ein Fail Vega doch ist, da sieht man doch das diese Leute nicht einmal den Test gelesen haben, sondern sich nur die Balken vom WorstCase angeschaut haben.

Und nochmal warum soll eine 400€ oder 500€ GPU die Leistung einer 750€ GPU schlagen?
Vega56 und 64 liegen genau da wo AMD sie auch mit den Leaks vor release angekündigt hat.Bei der 1070 und der 1080.
Das sie die Leistung einer 1080ti schaffen soll hat AMD nie gesagt oder mit Benchens angepriesen. Diese Behauptung ist nur durch die "PoorVolta" Stichelei entstanden. Im Pro bereich schafft sie das ja auch.
 
aivazi schrieb:
Hardwareluxx berichtet zB. nichts von einem Worst Case Szenario. Bietet aber quasi die identischen Werte zum " Anspruchsvollen Szenario" : https://www.hardwareluxx.de/index.p...ein-2-the-new-colossus-im-benchmark-test.html

Da stimmt aber doch auch irgendwas nicht.
test1.jpg

Was die geringe Differenz zwischen Vega56 und Vega64 im ersten Testszenario angeht, dazu müsste man mal wissen, wie die Karten denn getaktet haben.

Denn wenn die Vega56 trotz ihrer TDP Beschränkung nahe an ihrem Referenztakt arbeiten kann, liegt sie gar nicht so weit weg von Vega64.
Meistens ist es ja so, dass sie nur mit 1300Mhz taktet und daher weiter hinter der 64 liegt.
AC Origins war z.B. das erste Spiel, wo meine Karte auch im Standardsettings bis auf 1450Mhz kam.
Und nach oben hin werden die Unterschiede durch den Takt geringer, nicht nur der Prozentuale Taktunterschied, auch die Leistung die dadurch gebracht wird.

1300 zu 1500 sind im Game mehr Unterschied als 1450 zu 1650.
Wenn also beide Karten im Worst Case Szenario um ca die gleichen Mhz Werte runtergetaktet haben, dann sind auch die Unterschiede größer.

Von 1300 zu 1500Mhz(15%) habe ich in 3DMark z.B. 13% mehr Leistung. Ziemlich genau der Unterschied, der auch im Worst Case besteht.

Von 1300 auf 1600Mhz(23%) habe ich 16% mehr Leistung. Über den 1500 kommt also sehr viel weniger Leistung pro Takt raus.
Von 1450 auf 1650 können also durchaus nur die 8% rauskommen, die in der ersten Sequenz bestehen.
 
Zuletzt bearbeitet:
dann macht halt nen 2ten steamaccount auf und ladet euch das Spiel per VPN runter und umgeht so die Zensur...wäre mir sonst auch zu doof.
 
duskstalker schrieb:
man sollte sich anstelle von CB gedanken machen, wo die FPS einbrüche herkommen, die komplett alle amd karten betreffen und KEINE nvidia karte, und nicht die zahlen als benchmarkwerte übernehmen oder gar für das preset scaling verwursten. das geht überhaupt nicht und ist mal wieder ein neuer tiefpunkt.

Das macht man doch. Man hätte bei CB auch einfach die 2. Szene stehen lassen können und keiner hätte sich beschwert, es hätten einfach nur die AMD Zahlen schlechter ausgesehen als sie sind.

CB schrieb:
Testsequenz 2: Nvidia vor AMD

In der zweiten Sequenz, die von ComputerBase zu Anfang als die Szene ausgewählt worden war, dreht sich die Rangliste dann komplett um..

CB schrieb:
Analyse der wechselhaften Ergebnisse

Derart schwankende Rangfolgen unterschiedlicher Grafikkarten innerhalb eines Spiels? Spontan ist der Redaktion kein Titel eingefallen, bei dem dieses Verhalten in den letzten Jahren bereits einmal zu beobachten gewesen ist. Hätte die Redaktion das Abschneiden der Grafikkarten in der ersten Sequenz nicht noch einmal überprüft, oder gleich eine andere genommen, die Unterschiede in der Schlussfolgerung könnten nicht unterschiedlicher ausfallen.

CB schrieb:
AMD hat im Worst-Case-Szenario ein Problem

Es ist normal, dass AMD- und Nvidia-Grafikkarte von Szene zu Szene unterschiedlich abschneiden, aber ein derart deutlicher Führungswechsel ist kurios. Ob es dem Treiber oder dem Spiel zuzuschreiben ist, konnte bisher nicht geklärt werden. AMD wurden die Details zur Szene allerdings bereits mitgeteilt. Denn wer die Ergebnisse der beiden Sequenzen vergleicht, der sieht, dass alle Grafikkarten mit GPU dieses Herstellers deutlicher verlieren. Ob Vega, Polaris, Hawaii oder Fiji ist dabei egal. Ein Problem mit dem Treiber liegt zumindest nahe.

Was man vielleicht wirklich mitgeben kann ist dass CB nach Möglichkeit ganz generell Videos der Testszenen online stellen sollte. Aber jeder weiß doch was bei rumkommt. Danach flamen 20 Leutz in den Tests gegen CB von wegen "ich hab ganz andere Frameraten in der Szene bla bla".

Was man hier bei CB dann wohl ausgelassen hat ist alle Presets nochmal mit Szene 1 bzw Anspruchsvoll statt worst case durchzutesten.
Ergänzung ()

Taxxor schrieb:
Was die geringe Differenz zwischen Vega56 und Vega64 im ersten Testszenario angeht, dazu müsste man mal wissen, wie die Karten denn getaktet haben.
Denn wenn die Vega56 trotz ihrer TDP Beschränkung nahe an ihrem Referenztakt arbeiten kann, liegt sie gar nicht so weit weg von Vega64.
Meistens ist es ja so, dass sie nur mit 1300Mhz taktet und daher weiter hinter der 64 liegt.

joa, deswegen meinte ich auch dass gerade in den Titeln die die GPU gut auslasten (was bei Vulkan eigentlich sein sollte), durchaus der Tajt reinspielen kann und eine Vega 56 fast gleich schnell wie eine throttelnde Vega 64 wird. Das Ergebnis selbst stimmt natürlich dennoch, man kann jetzt ja nicht einfach eben das Power Limit aushebeln.
Ergänzung ()

cookie_dent schrieb:
Lag am neuen Treiber, bin wieder auf 388.00 zurückgegangen und alles ist wieder gut.
Schon traurig, da der neue Treiber ja eigentlich optimieren sollte und nicht das ganze Spiel abschießen..

hm bei mir laufen beide Treiber problemlos mit Wolfenstein. Besser läuft es aber nicht.
Ergänzung ()

Iscaran schrieb:
Du bist dran mit erklären. Sieht für mich nach Bug in irgendeinem Setting des Games aus...oder nVidia lässt mal wieder 20% des Bildes weg ? (Screenshots der Worst-Case und Anspruchsvolle-Szene im direkten Vergleich?)

weder ich bin dran mit erklären noch CB, sondern AMD. CB schreibt ja nicht umsonst dass man nen Treiber Problem vermutet und AMD die entsprechenden Details zur Szene mitgeteilt hat. CB und ich werden dir kaum sagen können was da falsch läuft. Aber die Messwerte vom Luxx legen ja ähnliches nahe.

Edit: Außerdem schreibt doch CB auch wie die Szene aussieht:
Die erste Testszene entspricht einem anspruchsvollen Szenario, wie es im Spiel immer wieder vorkommt. Es handelt sich um eine Sequenz inner- und außerhalb eines Gebäudes in Kombination mit diversen Partikeleffekten. Die zweite Szene ist hingegen ein Worst-Case-Szenario. In den ersten anderthalb Stunden hat es nur die eine Sequenz dieser Art gegeben. Sie ist beim Spielen in der Kennenlernphase mit Radeon RX Vega 64 allerdings sofort aufgefallen, weil die FPS deutlich niedriger lagen. Das Szenario im Freien bietet eine große Weitsicht, diverse Gebäuden und vor allem viel Schutt.
 
Zuletzt bearbeitet:
Solange kein Publisher die Sozialadäquanz rechtlich prüfen lässt bis zum Verwaltungsgerichtshof wird der Status quo leider so bleiben.
 
Zurück
Oben