• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Wolfenstein 2: Neuester Patch beschleunigt RX Vega um bis zu 22 Prozent

@cookie_dent
Ich schreibe es eben so wie es ist und schreibe nichts vom "heiligen Geist" wie so manch anderer. Es hängt nunmal davon ab ob und wie die neuen Funktionen genutzt werden. Die Geforce kann sich höchstens noch durch Ausbremsen der Konkurrenz absetzen. Die hat ihr Pulver schon lange verschossen.


@basilisk86
Habe ich doch tatsächlich böse Worte über die hoch heilige Geforce verloren? Asche auf mein Haupt!
Logisch, 550€ sind ja fast 600€ und dann kann man auch gleich zur 700€ Karte mit extra kleinem Kühler greifen denn der Rest fängt ja eher mit 30-40€ mehr an....die zwingende Logik der Geforce Fan Fraktion?
 
basilisk86 schrieb:
Eine Fön Karte besessen, NIE WIEDER!

Die VEGA ist hier ganz anders als die früheren Karten. Da hört man nur ein leichtes Rauschen und keine Nachbrennerturbine. Hat mich auch etwas überrascht wie leise doch diese Referenz ist. Nur hat dies eben auch seinen Preis.
Sie throttelt recht stark und senkt die Taktraten sehr stark ab. Dies kann man mit einem Lüfterumbau oder Wasserkühlung komplett umgehen.
Wenn man dies noch bedenkt, dass die Karte dann nochmals 10-15% zulegt, kann man sich ja vorstellen wie sie Kreise um die GTX1080Ti hier dreht, wenn schon die Referenz hier so gut abschneidet. ;)
 
Referenz ist nie leise. Die Vega Karten machen da keine bessere Figur im Vergleich zu älteren Generationen. Im direkten Vergleich zu den Nvidia FE Modellen, sind die Vega-Karten noch eine Ecke lauter. Aber auch der FE-Kühler von Nvidia ist nicht leise. Wenn ich dann in den Test von CB zu Vega schaue und wenn man der Vega 56 vollen Spielraum lässt, dann sind das glatt 10 dB mehr als bei der 1080 Ti FE. 10 dB mehr ist von der Wahrnehmung her direkt doppelt so stark. Selbst bei gleicher Drehzahl ist Vega lauter als das Referenz-Design von Nvidia. Wer ernsthaft sagt, dass Referenz leise ist, der sollte unbedingt einen Ohrenarzt konsultieren. Leise gibt es nur mit Customs bzw. Wasserkühlung.
 
In dem CB Artikelt steht aber deutlich dass dieses Geräusch natürlich hörbar ist aber in einer angenehnen Frequenz stattfindet und nicht den Föhn-Effekt hat.
 
Zuletzt bearbeitet:
Das interessiert bei dem Thema doch nicht. Das ist ein Referenz Design von AMD, das MUSS einfach laut sein. ;)

Ist es zufällig wie bei der Nano oder der 290x wo die Lüfterdrehzahl bei den Sandard Einstellungen nach oben hin gedeckelt ist?
Klar, wenn dann jemand das Ding voll aufdreht um die Taktfrequenz hoch zu schrauben dann ist die Karte entsprechend laut.
 
Wieso hoch schrauben, alleine um denn normalen Boosttakt halten zu können, muss der Lüfter ordentlich aufdrehen, das Referenz Design ist einfach laut, wie generell Referenz Designs nicht zu den leise Tretern gehören, selbst meine Zotac Amp Extreme ist gut zu hören, wenn sie dauerhaft mit dem Boosttakt von 1419MHz läuft.
 
Gschwenni schrieb:
Egal ob AMD das sponsert oder Nvidia. Denkt man hier und da.
Jetzt gibts exclusive Sachen bei AMD und schon störts nicht mehr.
Würd Nvidia das machn dann geht die Welt unter.
Du schreibst aber auch viel nonsense. Wolfenstein 2 ist ein idTech6-Entwicklung. Die Urversion stammt noch aus der Feder von Cramack-will-fix-it-with-the-next-driver.
https://en.wikipedia.org/wiki/Id_Tech_6

Im speziellen ist die für Wolfenstein2 benutzte Version zu 100% VULKAN...das ist weder AMD "optimiert" noch Anti-nvIdia.
Vulkan wird von einem offenen Konsortium zu dem BEIDE gehören entwickelt.
EDIT: https://en.wikipedia.org/wiki/Vulkan_(API)#Software_that_supports_Vulkan
EDIT: https://en.wikipedia.org/wiki/Khronos_Group#Promoter_members
(wie man sieht sind AMD und nVidia beides "Promoter-Members" - und Microsoft ist auch mit dabei).

Wenn die aktuelle nVidia Hardware also "schlecht" mit Vulkan-Features umgehen kann liegt es wohl eher an der Rückwärtsgewandten DX-11 "architektur" der Pascal und Maxwell Karten.

Spezial Code/Features welche der andre Hersteller nicht hat oder nicht nutzen kann oder halt nicht zuschalten kann.
Async compute ist auf gewisse Weise AMD Land, RapidPackedMath und shader Optimierungen nur für AMD.
Culling ist auch drinnen.
Async ist Teil der DX12 spec und ebenso von Vulkan, culling ist afaik auch in die API-Specs mit aufgenommen worden.

Shader-optimierungen ist ein weitläufiger begriff. Den Betreiben beide Seiten...(EDIT: das meist davon über die Treiber)
RPM kann ich derzeit nicht einordnen, aber ich MEINE dass es auch ein Teil der neuen APIs ist derartige Features zu können.

Wo also hier die speziellen Bevorteilungen von AMD in Wolfenstein sein sollen ist mir rätselhaft.

Im Gegenteil W2 ist eben ein Game, das durch die 100% Verwendung von Vulkan und NUTZUNG aller modernen zur Verfügung stehenden API Features zeigt wo die Reise hingeht...
und das ist eben nicht die Richtung in die Pascal oder Maxwell zeigen.

Mal sehen wie Volta in der Hinsicht aufgestellt sein wird.
 
Zuletzt bearbeitet:
@Blueline56
Dann hast du Erfahrungen mit den Referenz Designs der Karte?

Die 290x und die Nano konnten in der Standard Einstellung ihre Taktfrequenz wegen der gedeckelten Lüfter Drehzahl und damit der begrenzten Kühlung auch nicht halten, waren dadurch aber auch nicht allso laut. Das änderte sich schlagartig wenn die Begrenzung vom Benutzer rausgenommen und am besten auch noch das Power Limit hochgeschraubt wurde.
Ergänzung ()

Zum Thema GPU Architektur bei dem Spiel, ist nicht zufällig ein "Irrer" mit einer GP100 Karte anwesend der das Spiel mal antesten kann?
Der Chip beherrscht meines Wissens nach ja auch schon die halbe Präzision, wäre interessant wie so eine Karte performen würde. :D
 
olo schrieb:
Referenz ist nie leise. Die Vega Karten machen da keine bessere Figur im Vergleich zu älteren Generationen.
Habe da ganz andere Erfahrungen gemacht. Ich komme von einer Referenz 290x und die Vega 56 ist um Welten leiser als es die 290x war. Ohne AIO war die 290x Referenz unerträglich.

Ich finde die Geräuschkulisse der Vega 56 sogar angenehm und überhaupt nicht störend für eine "nicht leise" Referenz Karte.
Eigentlich wollte ich die Kühlung modden und meine AIO drauf schnallen. Das spare ich mir jetzt weil die Lautstärke eben nicht störend und laut ist und den Aufwand nicht lohnt.

Ein Kumpel von mir ist von einer Sapphire tri-x 290x auf Vega 56 umgestiegen und ebenfalls von der geringen Lautstärke für ein Referenz Design überrascht. Eigentlich wollte er auf eine Custom Vega warten - bereut seinen Referenz Kauf jetzt aber überhaupt nicht.
 
Gschwenni schrieb:
Was es nachzuweisen gilt. Man sollte den Aluhut nicht immer aufsetzen.
Viel eher liegt es an der immernoch relativ schwachen Tesselationsleistung auf Seiten AMD´s die hin und wieder mal limitiert.

ich erzähl dir jetzt mal ein offenes geheimnis: nvidia karten sind von der hardware her darauf ausgelegt lächerlich hohe polygonzahlen durch tessellation berechnen zu können.

GeForce GTX 400 Grafikprozessoren verfügen über bis zu fünfzehn Tesselationseinheiten mit jeweils eigener Hardware für Vertex Fetch, Tesselation und Koordinatentransformation. Außerdem verfügen sie über vier parallel Raster-Engines, die die neu tesselierten Dreiecke in Pixel für das Pixelshading verwandeln. Das Ergebnis ist ein Durchbruch in der Tesselationsleistung — über 1,6 Milliarden Dreiecke pro Sekunde bei gleichbleibender Leistung. Zum Vergleich: Bei Tests der unabhängigen Webseite Bjorn3D hat sich die GeForce GTX 480 als bis zu 7,8x schneller als das beste Konkurrenzprodukt erwiesen.
http://www.nvidia.de/object/tessellation_de.html

als ehem. spieleentwickler, der sich mit der gesamten pipeline in der source engine auskennt und vorallem im bereich model / textur / shadersetup, kann ich dir sagen, dass es aufgabe nr.1 ist, den polycount von meshes so niedrig wie möglich und so hoch wie nötig anzusetzen. um polys zu sparen werden shader und texturen eingesetz (normal / bumpmapping, parallax mapping) die die plastizität und komplexität vom modell künstlich (ohne einsatz von geometrie) erhöhen.
ab einem gewissen punkt macht es KEINEN sinn mehr den polycount zu erhöhen, weil das modell ab menge X schon nahezu perfekt dargestellt wird.

2508803-5198764076-polygo.jpeg


bevor ein modell in eine spiele-engine importiert wird, sollte das modell auf den einsatz hin optimiert werden:

oKpIfrx.jpg


oben: ursprungsmodell, hauptsächlich in quads (polygone) mit insg. 105,549 dreiecken.

unten: triangulierte, optimierte version des selben modells in fast identischer "qualität" mit insg. 16,625 dreiecken.

das ist eine ersparnis um den faktor 6,5 für "die selbe" optik ingame.
http://polycount.com/discussion/153481/weapon-optimization

und jetzt kommt nvidia mit tessellation ins spiel: tessellation erhöht dynamisch den polycount nach einem vorher festgelegten muster. ansich eine gute technik - hatte amd ursprünglich auch als "trueform" als eigene technologie - das problem ist die umsetzung. die bläst nämlich auch gerne mal komplett irrelevante meshes auf.

das prominenteste beispiel ist crysis 2:

links mit tessellation, rechts ohne:

c2_tess2ypxjq.jpg


rechts sieht das mesh etwa so aus - grob geschätzt vielleicht 300-600 dreiecke:

concretebarrier_model_wire.jpg


und das ist das tatsächliche mesh der barriere mit tessellation:

crysis2-tesselated-mesh-barrier.png


geschätzt mehrere millionen dreiecke vs weit unter 1000 für minimalste optische unterschiede. die "high poly" barrikade hätte sich übrigens auf regulärem weg auch locker mit unter 2000 dreiecken bauen lassen.

wir haben hier eine verschwendung von rechenleistung der allerersten güte - hier wird der polycount um das tausendfache aufgeblasen - für NICHTS.

und wieso wird das so im spiel gelassen? weil nvidia karten von der hardware her dafür ausgelegt sind, das zu berechnen und daher weit weniger einbrechen als radeon karten.

hier noch etwas mehr tessellation zum kopfschütteln:

https://www.youtube.com/watch?v=IYL07c74Jr4

man sieht, wie der rechner ins schlucken gerät, wenn durch annähren der kamera an die geometrie durch gameworks tessellation der polycount aufgeblasen wird.

aber weil man anscheinend nägel mit köpfen machen wollte, hat man sich dazu entschieden, unter die gesamte map von crysis 2 tesselliertes wasser zu platzieren - das ist unter dem asphalt und verbraucht einfach nur rechenleistung, während man NIX davon sieht:

crysis2-tesselated-water-hidden.png


ABER es ist gut möglich, dass das bei nvidia nichtmal in die renderpilepine geht, sondern direkt verworfen wird, da nicht sichtbar:

After back-face and depth culling, not all triangles may need pixels on the screen. The screen size of a triangle can mean it requires millions of pixels or none at all.
https://developer.nvidia.com/content/life-triangle-nvidias-logical-pipeline

d.h. es wäre durchaus möglich, dass nvidia karten (ab fermi) das wasser nichtmals mehr berechnen, während amd karten erst ab vega gpu culling (backface culling) beherrschen und daher sämtliche geometrie in der szene berechnen.

nochmal zurück zur ursprungsfage - wieso ist bei crysis 2 wasser unter dem asphalt?

das einzige, was das wasser da macht, ist im prinzip rechenleistung kosten, und das vornehmlich auf amd karten. zufall? schlamperei? oder absicht? gegenfrage - hat schonmal jemand aus versehen einen schrank gebaut oder ein brot aufgeschnitten? genau so ist unter der map "aus versehen" wasser.

was sagt eigentlich CB zu tessellation? mass effect andromeda:

Tessellation kostet Leistung, auch wenn man es nicht sieht

[...] In der zweiten Testszene (ohne Berge) spielt es bezüglich der Bildqualität keine Rolle, ob Tessellation wie vom Spiel vorgeschrieben genutzt oder völlig deaktiviert wird. Die Performance reagiert auf der Radeon RX 480 jedoch deutlich darauf. Zwischen abgeschalteter und maximaler Tessellation-Stufe liegen 15 Prozent Unterschied.

Trotzdem führt an Tessellation in dem Spiel kein Weg vorbei. Als Radeon-Nutzer kann man ohne Bauchschmerzen die Einstellung AMD Optimiert aktiv lassen, wodurch die Framerate etwas ansteigt. Einen (sichtbaren) optischen Verlust gibt es bei dieser Einstellung nicht.

kurioserweise hat man sich aber dazu entschlossen:

Aus Gründen der besseren Vergleichbarkeit ist die Tessellation-Optimierung von AMD im Crimson-Treiber für sämtliche Tests abgeschaltet – das Spiel bestimmt den Tessellation-Faktor.

https://www.computerbase.de/2017-03/mass-effect-andromeda-benchmark/

so küsst man nvidia auch die füße.

witcher 3 will tessellations level 64x, obwohl 16 praktisch die selbe optik bietet:

https://forums.geforce.com/default/topic/834905/real-reason-why-witcher-3-hairworks-reduces-fps/

Auf Arstechnica wirft ein Vertreter von AMD dem Konkurrenten Nvidia eine Art "Performance-Sabotage" mit den Algorithmen von Gameworks vor, insbesondere mit HBAO+ und Hairworks. AMD-Karten seien mit dem Fantasy-Rollenspiel wunderbar klargekommen - bis Nvidia vor rund zwei Monaten eine neue Fassung von Gameworks für das Spiel fertiggestellt habe.
https://www.golem.de/news/sabotagevorwurf-witcher-3-streit-zwischen-amd-und-nvidia-1505-114195.html

"ABER AMD HAT DOCH SELBST AUCH TRESS FX, IST DAS SELBE IN ROT!!!1"

Daher verlieren beide Grafikkartenhersteller im Durchschnitt etwa gleich viel FPS, wenn TressFX hinzugeschaltet wird. Bei unseren Kollegen von PCGH verlor die AMD Radeon HD 7970 GHz 28 Prozent an Leistung. Die NVIDIA GeForce GTX Titan verlor genauso viel, blieb vom allgemeinen FPS-Level aber hinter der Radeon.

Die große Kontroverse ist nun, dass AMD-Grafikkarten im Vergleich zu NVIDIA-Grafikkarten überproportional an Leistung verlieren, sollte man HairWorks aktivieren. In unserem eigenen Benchmark zeigte sich, dass eine GTX 980 mit HairWorks von durschnittlich 82 fps auf 59 fps fällt. Eine Radeon R9 290X hingegen fällt von durschnittlich 65 fps auf nahezu unspielbare gemittelte 26 fps.
https://www.hardwareluxx.de/index.p...d-tressfx-und-nvidia-hairworks-im-detail.html

Gschwenni schrieb:
Viel eher liegt es an der immernoch relativ schwachen Tesselationsleistung auf Seiten AMD´s die hin und wieder mal limitiert.

die geometrieleistung von amd karten ist niedriger - aber ausreichend - deseidenn es ist allgemeiner konsens, dass man in jedem spiel straßenbarrikaden mit mehreren millionen polys braucht - ein vielfaches mehr als jedes andere objekt in der szene. die eine tessellierte barrikade hat so einen absurden polycount, dass es für alle modelle in half-life 2 reichen würde, möglicherweise zwei oder drei mal.

Gschwenni schrieb:
Könnts ned auch in Frage kommen, dass Wolfenstein II das Bild zugunsten Vega verfälscht?
Ich mein das ist ein gesponserter AMD Titel. Gameworks für AMD im Prinzip.

nein, weil amd gesponserte titel immer auf nvidia auch sehr gut laufen. nvidia gesponsorte titel fast nie gut auf amd. doom@vulkan ist DER amd titel schlechthin (zumindest wenn man nvidia fans fragt). und was ist mit doom? läuft auf beiden marken hervorragend. gameworkstitel? eher weniger!

trolololvrs6o.jpg
 
Zuletzt bearbeitet:
Iscaran schrieb:
Im speziellen ist die für Wolfenstein2 benutzte Version zu 100% VULKAN...das ist weder AMD "optimiert" noch Anti-nvIdia.
Vulkan wird von einem offenen Konsortium zu dem BEIDE gehören entwickelt.

Hast du den Test überhaupt gelesen?

Darüber hinaus haben die Entwickler eng mit AMD zusammengearbeitet. Neben der schon in der Vergangenheit für AMD vorteilhaften API kann das Spiel wie Doom mit Shader Intrinsic (GCN und Vega) umgehen und so gewisse Hardwarekomponenten von Radeon-Grafikkarten direkt ansprechen.

Dass darüberhinaus Vulkan wie auch OpenGL offene APIs sind, mit den man z.B. proprietäre Hardware über Extensions ansprechen kann, weißt du?
Wieso schreibst du dann solchen Mist?
 
Hast du den Test überhaupt gelesen?
Hast du überhaupt verstanden was Vulkan ist ?

Neben der schon in der Vergangenheit für AMD vorteilhaften API kann das Spiel wie Doom mit Shader Intrinsic (GCN und Vega) umgehen und so gewisse Hardwarekomponenten von Radeon-Grafikkarten direkt ansprechen.
Was kann AMD dafür dass es eine Architektur hat die Vulkan eben gut kann ? Sollten sie lieber DX9 Karten entwickeln, statt zukunftsorientiert konsequent auf DX12, Vulkan und Co zu setzen ?

ShaderIntrinsics: Komischerweise kann nVidia das auch ?
https://developer.nvidia.com/reading-between-threads-shader-intrinsics

EDIT: Btw. Shader intrinsic Functions sind TEIL von Shader Model 5 und ähnlichen API-Konstrukten...
https://msdn.microsoft.com/de-de/library/windows/desktop/ff471358(v=vs.85).aspx
 
Zuletzt bearbeitet:
Und jetzt der nächste Witz warum Wolfen2 und DOOM auf der NV Switch Laufen ganz einfach sie werden Optimiert Punkt. Saga immer wieder ie Meisten Programmierer sind so Faul sogar zum Stinken punkt ist nun mal die traurige Wahrheit. Leider glaubt mir immer keiner naja und diese Faulheit nutzt NV. Deswegen war es von Nintendo auch schlau mit NV zusammen zu gehen. ;-)
 
Das Prinzip der Konsole unterscheidet sich erheblich zu denen der PC Plattform.
Man muss sich bei Konsolen einen Dreck um Kompatibilitäten kümmern weil es jeweils nur eine Hardware und Software Konfiguration gibt auf die man direkt hin optimieren kann um das Optimum an dem vorhandenen Rauszuholen.
Versuche das mal auf der PC Plattform. Das kann nur in einem Debakel enden.
 
Ähm leider nicht mehr da es PS4, PS4 PRO und Xbox one und S und X gibt soviel zur gemeinsamen HW und selbst die SW unterscheidet sich. Tja die Konsolen sind in Prinzip mehr oder weniger PCs mit gemeinsamen OS mehr auch schon nicht mehr.

Auch die Switch basiert erstmals eine Nintendo Konsole auf PC/Tablet HW nur halt mit Game Works und NV Api im Prinzip eine modifizierte Vulkan Api ist.

Soviel dazu jetzt zurück zum Thema also ich hoffe ja dass bald mal dass Alte an gegammelte DX11 ausgedient hat. Langsam aber sicher wären mal DX12 und Vulkan only Games wirklich nice.
Ergänzung ()

Naja leider müssen die Programmierer dann mehr arbeiten da GW nicht mit DX12 und Vulkan geht. Ach noch was PC Games mit GW sind optimiert aber halt auf Pascal und Maxxwell.
 
@duskstalker:
Danke für den Überblick. Bei soetwas ist es ja kein Wunder das Nvidiakarten besser abschneiden als die von AMD, wenn für unnötige Effekte derart viel Leistung verbrannt wird. Oder Objekte unnötig kompliziert gestaltet werden. Da ist das Wort "Sabotage" gar nicht mal unangebracht.
 
Deswegen Teslation immer vom Treiber begrenzen oder verwalten lassen.
 
@Mcr-King
Unterm Strich ist es aber immer die gleiche Hardware in abgewandelten Konfigurationen.
Die Architektur bleibt immer die gleiche, lediglich die Taktfrequenz und die Anzahl der Recheneinheiten der GPU variieren.
Die größeren Modelle lassen können dadurch ohne weiteres die Spiele der schwächeren Varianten abspielen aber ich glaube kaum das die Spiele für die stärkeren Modelle ohne weiteres auf den schwächeren Modellen laufen.
Für PC Spiele gibt es eine nahezu unendliche Konfigurationsmöglichkeiten mit denen sie laufen müssen. Da bleibt aufgrund der Kompatibilität automatisch ein Stück weit an Rechenleistung auf der Strecke weil die Hardware nicht im gleichen Ausmaß genutzt werden kann.
Wo die Hardware dafür herkommt ist letztendlich vollkommen egal denn die Spiele werden schließlich für die vorhandene Config optimiert.
 
duskstalker schrieb:
ich erzähl dir jetzt mal ein offenes geheimnis: nvidia karten sind von der hardware her darauf ausgelegt lächerlich hohe polygonzahlen durch tessellation berechnen zu können.

Hoher Polycount kann für manche Anwendungen sehr sinnvoll sein, vor professioneller Natur.
Ich hab doch nach Beweisen gefragt gehabt. Bei dir klingts so als ob ne starke Tesselationseinheit was schlechtes wäre.
ab einem gewissen punkt macht es KEINEN sinn mehr den polycount zu erhöhen, weil das modell ab menge X schon nahezu perfekt dargestellt wird.

Ja definitiv macht das ab nem gewissen Punkt keinen Sinn mehr.
Hat man zuviel tesseliert aber es ist auch aufwendig den Grad der Tesselierung immer einzustellen und da hängts in Crysis.
Aber was hat Nvidia damit zu tun?

die geometrieleistung von amd karten ist niedriger - aber ausreichend - deseidenn es ist allgemeiner konsens, dass man in jedem spiel straßenbarrikaden mit mehreren millionen polys braucht

Straßenbarrikaden vielleicht jetzt nicht aber Berge, Haare oder NPCs.
AMD´s Tesselationseinheit ist bei hohen Faktoren immernoch deutlich schwächer ob mans nun braucht oder ned.

nein, weil amd gesponserte titel immer auf nvidia auch sehr gut laufen.

Wolfenstein läuft nicht gut mit dem aktuellen Patch.

nvidia gesponsorte titel fast nie gut auf amd.

Was fürn Quatsch, sry tut mir leid aber da hab ich ganz anderes gsehen und gehört.
 
Zurück
Oben