• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Monster Hunter World im Test: DirectX 12 (in Iceborne) hilft AMD, aber nicht Nvidia

ZeroZerp schrieb:
Und dann freuen sich viele Leute noch darüber, dass "endlich die CPU" mal ausgenutzt wird.
War zu befürchten, dass wenn mehr Kapazität zur Verfügung steht, auch wieder lockerer mit den Ressourcen umgegangen wird.
Und das wird dann noch gefeiert...
Ich sehe in Tomb Raider auch keinen Grund für diese Auslastung....wenn sie die aber immerhin über viele Threads verteilt bekommen, dann freue ich mich da in der Tat drüber. ;)

AotS macht eine extreme Auslastung.....Viele Schiffe mit unabhängigen Drohnen, die alle Flugrouten und Angriffsziele haben........viele Polygone, viele Effekte, vor allem viele Licheffekte durch die Laser und Raketen, die die Umgebung beleuchten und Rauch erzeugen usw.

Einerseits völlig übertrieben....andererseits ist es auch toll anzusehen.

Und auch in Anno sehe ich die vielen Polygone......toll wie viele Details an den Gebäuden sind und wie viele Figuren da rumlaufen.....aber dann läuft es eben auch grausig, weil auch DX12 nur minimal besser die Last verteilt, als DX11 und weiterhin über einen Thread limitiert.

Entweder die Polygonzahlen sollen schon seit Jahren stagnieren und die Spiele laufen gut und sehen halt nicht besser aus.....oder sie sollen sich hinsetzen und wenigstens denen die viele CPU Kerne gekauft haben ein besseres Spielgefühl ermöglichen.......wer auf seinem alten 4 Kern 4 Thread i5 sitzen bleiben möchte, der kann ja auf 30FPS setzen.
Kann man natürlich entgegnen, dass ich die Details runterschrauben könnte um weniger Polygone zu haben...aber da sieht ein Anno 1800 dann auf low auch schlechter aus als ein Anno 1404....das muss ja auch nicht sein.

Bei dem Tomb Raider reboot sehe ich diesen heftigen Sprung vom ersten zu den anderen beiden Teilen.
Der erste Teil war voll single Thread limitiert, aber bei so extrem hohen und glatten FPS, dass es keine Rolle gespielt hat.
Da frage ich mich dann, wo die anderen beiden Teile trotz DX12 und besserer CPU Auslastung, ihre ganze CPU Power aufwenden.
 
@Baal Netbeck man optimiert Titel halt nicht auf die paar high end Nutzer die mit ihren 8 Kernen und mehr Spielen.
So blöd das auch ist...
Die Titel müssen auf der Masse der Hardware gut laufen und das sind nunmal nach wie vor 4 und 6 Kern CPUs.
Das so zu skalieren das auch 16 und mehr threads was davon haben ist offensichtlich aufwändig und steht nicht in relation zur anzahl der Nutzer bzw. Dem leistungsgewinn.
Kann sein das sich das mit dem erscheinen der neuen Konsolen ändert, ich habe da aber meine Zweifel.
 
Hab das Gefühl das Nvidia auf DX12 einfach auch in der Zukunft kein potential hat.
Habe selbst eine 2080s mit nen 8086k auf 5,2ghz, es gibt bisher kein einziges Spiel wo DX12 Sinn macht .(außer Raytracing)
Egal ob Borderlands 3, Fortnite oder auch Battlefield, DX11 läuft immer flotter und auch konsistenter von den Frametimes her.
 
  • Gefällt mir
Reaktionen: Ctrl
mibbio schrieb:
Und wo wäre da der Unterschied zur aktuellen Situation? DirectX 11 ist doch feature-complete, da gibt es so oder so keine Features oder Updates mehr, die man einstellen könnte. Wenn es irgendwas Neues geben sollte, wird das Teil von DirectX 12 oder einem eventuellen Nachfolger.
War meine Antwort auf Zero Points Beitrag. Der schrieb:
"Supi, dann bekommen Viele hier ganz viel Zeit, weil sie 99,9% ihrer Spiele nicht mehr spielen können."
DX12 ist aber abwärtskompatibel. Daher laufen da auch Games mit älterer DX-Version!
 
@Klinge88 das sind aber auch alles Titel die dank nvidias dx11 treiberimplementation darauf nahezu perfekt laufen.
AMD hat bei dx11halt leider Mist gebaut.
Wie du aber auf die Idee kommst nvidia könne kein dx12 ist mir schleierhaft, grade mit einer turingkarte profitierst du bei guten vulkan und dx12 Implementierungen massiv.
Bei shadow of the tomb raider gewinnst du mit einer rtx sogar mehr fps durch den Wechsel auf dx12 als mit einer vega.
Ganz abgesehen von den deutlich besseren frametimes.
Genauso bei division 2.
Wenn die entwickler aber halt eine rotzige dx12 implementierung lustlos dazupacken ohne sich Mühe zu geben profitiert eben nur amd davon da deren Hardware ein ernsthaftes dx11 problem hat.
Das lässt sich dann natürlich immer gerne so darstellen als könne nvidia kein dx12 da die Zugewinne geringer oder nicht vorhanden sind, in Wirklichkeit ist aber der nvidia Treiber mit dx11 eben extrem gut und in der Lage auf viele threads zu verteilen (besser als das dx12 der Entwickler) und das bekommt amd nach wie vor nicht hin.
 
  • Gefällt mir
Reaktionen: Darkscream
Ein Test der die Sinnhaftigkeit des 9900KS beweist. Mit dem stünde Intel noch an der Spitze. 😉 (vermutlich nur bei den FPS, nicht Frametimes)
 
Zero_Point schrieb:
Was daran liegt, dass die rote Hardware weit unter ihren Möglichkeiten bleibt. Und selbst unter DX12 kommt sie nicht an Nvidia vorbei. Selbst bei AMD sind unter DX12 die Durchschnitts FPS geringer als unter DX11.
Die alte Generation (580->1060) ist schneller. Die neue braucht noch etwas Treiberoptimierung. Ist ja noch nicht so lange auf dem Markt wie die die letzte Nvidia-Generation.
Ergänzung ()

Zero_Point schrieb:
Fine Wine Wundertreiber?
Davon ab ist die DX12 Perfomance von Nvidia immer noch besser als die von AMD. Wir reden hier also von einem Luxusproblem.
Man kann sich auch alles schön reden,damit Nvidia gut und AMD schlecht da steht. AMD`s alte Generation ist schneller! Die neue wird noch optimiert. Hier hatte Nvidia ja auch mehr Zeit,da die aktuelle Generation länger auf dem Markt ist. Und man sollte auch keine Mittelklassekarte mit Oberklassekarten vergleichen. Vergleiche besser Karten im gleichen Preissegment.
 
Zuletzt bearbeitet:
7hyrael schrieb:
Eben. Man muss mal anfangen und man kommt schneller voran wenn man die Altlasten (auch erstmal zu lasten von Performance) abstößt und sich auf eine Version konzentrieren kann. zweigleisige Pflege ist immer ein krampf und hilft beiden Systemen nicht. dann lieber gleich nur DX11 oder nur DX12. Aber dann gibts halt von mir bspw. kein Geld mehr. Neue Spiele die nicht min. DX12 oder Vulkan bieten, werden ignoriert.

Das ist auch mein Punkt, ich moechte Fortschritt sehen. Wenn man aber nicht das Risiko eingeht und voll auf DX12 setzt, dann wird man den nie erreichen.

thuNDa schrieb:
@Kacha
Wenn DX12 besser läuft als DX11, dann immer her damit. Aber einem einfach nur DX11 vorzuenthalten, auch wenn es performanter wäre, kann ja nicht sinn der sache sein.
Bis jetzt sind SotTR und division 2 so die einzigen vorzeigetitel wenn es um DX12 geht.

Dann bleibst du auf DX11 stehen, weil keiner den Aufwand betreiben will und hast somit Stillstand. Die Performance wird sich verbessern sobald die Erfahrung da ist und vor allem gibt DX12 noch ein paar weitere Moeglichkeiten. Ich hoffe Microsoft kommt nie auf die Idee RT auf DX11 anzubieten.

Zero_Point schrieb:
@7hyrael
Es hängt immer von der Projektgröße ab. Bei MHW sollte es möglich sein sich damit entsprechend zu befassen, bei den meisten anderen Titeln ist es einfach nur Unsinn. Denn auch die Nachteile von DX12 und Vulkan sind mehr als offensichtlich. DX12 ist 4,5 Jahre auf dem Markt und dümpelt weiter vor sich hin. Das sagt einiges über DX12 aus!

Offensichtlich? Du meinst sich mit etwas beschaeftigen muessen zaehlt als Nachteil? Mit DX11 musste man sich am Anfang auch beschaeftigen. DX12 duempelt eher vor sich hin weil keiner ernsthaft Ressourcen investiert. Warum auch? DX11 ist billig und die Leistung noch gut genug. Bis es halt nicht mehr reicht.

Zero_Point schrieb:
Dass du bei Nvidia unter DX12 nicht deinen erwarteten Sprung bekommst liegt daran, dass die DX11 Treiber einfach verdammt gut sind, während die von AMD teils grottenschlecht sind, wie man bei MHW eindrucksvoll sieht. Du kannst doch nicht Nvidia einen Strick daraus drehen, dass deren DX11-Treiber eine derart gute Performance abliefert und AMD dafür abfeiern, dass deren DX11 und OGL Treiber teils einfach nur grottig ist.

Ich weiss ja, dass du ein Problem mit AMD hast, aber die Aussage ist hier einfach fehl am Platz. Wir koennen es aber gerne umdrehen, Nvidias DX12 Treiber sind grottenschlecht, wie man hier bei MHW eindrucksvoll sehen kann. Das was Nvidia hier abliefert ist etwas peinlich.

Zero_Point schrieb:
Dir ist lieber das Potential wird nicht genutzt? Das ist es nämlich das Hauptproblem von DX12 (und Vulkan). In einer Zeit wo in der Entwicklung offenbar jede Sekunde zählt, ist DX12 einfach meist fehl am Platz.

Ja, ist es mir. Ich will Fortschritt sehen und nicht Stillstand. Das erfordert Risiken einzugehen und auch mal etwas schlechtere Performance zu bekommen bis die Studios sich eingearbeitet haben. Und so lange DX11 immer noch mitentwickelt wird bleibt DX12 auf der Strecke, einfach weil man es als optional ansieht, gibt ja DX11. So weit ich mich erinnere bist du auch ein starker Verfechter von Nvidias RTX, was DXR und damit DX12 nutzt, und erstmal ordentlich Leistung verschenkt. (Jaja, ich weiss, sieht alles viel besser aus. Vor allem wenn man es gegen sich null Muehe geben mit klassischen Verfahren vergleicht.)

Edit:

@Wolfgang @AbstaubBaer Seid ihr euch sicher, dass das nicht noch immer ein Grafiklimit bei dem CPU Part ist? Habt ihr es mit einem 720p oder 480p Run getestet? Sieht naemlich sehr danach aus. Mir ist durchaus klar, dass viele diese Tests in 1080p sehen wollen, auch wenn sie nicht unbedingt was aussagen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 7hyrael und katamaran3060
"Grind gehört dazu"

Ihr habt anscheinend nie die alten Monster Hunter auf PS2 und PSP gespielt. :D
Auch was die Schwierigkeit anbelangt ist MHW und Iceborne im Vergleich dazu lächerlich. Trotzdem natürlich ein Top Spiel, schade dass es anscheinend keine weitere Erweiterung geben soll.
 
  • Gefällt mir
Reaktionen: NiceHomeless
Also zumindest bei mir mit ner 1080Ti ist DX12 schneller als DX11. Zwar mal mehr mal weniger, aber besser:
Monster Hunter World Screenshot 2020.01.15 - 19.02.43.42.pngMonster Hunter World Screenshot 2020.01.15 - 19.04.26.35.png
Monster Hunter World Screenshot 2020.01.15 - 19.02.14.29.pngMonster Hunter World Screenshot 2020.01.15 - 19.05.04.99.png
Das ist 1440p mit fast alles auf voll. Nur Volumetric Light ist auf High, statt Highest und Water Reflections ist aus.
 
Hier DX 11, 3900X 12 Kerne - 12 Threads (SMT aus) im Winterhauptquartier

Am meisten zieht das Starten von MHW, dort werden fast alle Kerne massiv ausgelastet.
Ladezeiten werden von den ersten beiden Kerne bzw. Threads erledigt,
im Spiel siehe Bild : hab was abgeschnitten^^ Current / Minimum / Maximum
Anmerkung 2020-01-15 190925.png
 
Colindo schrieb:
Was dir da angezeigt wird, sind die 0,2% schlechtesten FPS. Also 99,8% sind schnellerals 58 fps.
Taxxor schrieb:
Keiner der schlechtesten 0,2% der FPS war schneller als 58fps.

Oder anders ausgedrückt der beste der niedrigsten 0,2% der FPS lag bei 58fps

Oder nochmal anders ausgedrückt(und damit auch die 99,8th Bezeichnung korrekt benutzt): 99,8% der Frametime Werte sind niedriger als 17,2ms
Hm ich checks immer noch nicht. Die 0,2% sind doch eine komplett beliebige Grenze, an den frames ist nichts besonders. Wenn keiner der 0,2% schlechtesten frames schneller rendern darf als 17ms, dann auch keiner der 0,5% schlechtesten Frames. Oder der 5% schlechtesten frames. Oder der 100% schlechtesten frames.
 
@Butterbemme

Dann versuch ichs mal^^

Die 0.2% sind keine Grenze, wo "nichts drüber darf".
Sie geben einen Punkt auf der Werteliste aller Frametimes an, in dem Fall eben der Punkt bei 0.2% der Werte.
Wenn man es von den FPS betrachtet, da die Frametimes die FPS in invertiert sind, liegt dieser Punkt bei den Frametimes bei 99.8%, deshalb schreibt CB es auch so, dass es die "Frametimes in FPS" sind.


Nehmen wir an dein Benchmark hat 1000 Frames.
Diese sortierst du zuerst von der niedrigsten Frametime(1) bis zur höchsten Frametime(1000).

Das 99.8 Perzentil ist dann der 998. Wert dieser Liste, das 99. Perzentil der 990. Wert, das 95. Perzentil der 950. Wert usw.

Wenn das 99.8 Perzentil also 17.2ms sagt, dann sind 2 Frametimes gleich oder höher als 17ms und demzufolge 997 Frametimes gleich oder niedriger als 17.2ms.

Betrachtet man das ganze direkt in FPS müsste sich das Perzentil umkehren, dann sprechen wir eigentlich vom 0.2 Perzentil, also 997 FPS Werte sind gleich oder höher als 58 und 2 FPS Werte sind gleich oder niedriger als 58.


Als "L-Shape" Graph der Frametimes sieht das ganze dann z.b. so aus
Anmerkung 2020-01-15 194740.png


Das "besondere" an diesen frames ist, dass man mit der Angabe des 99.8 Perzentils im Falle des 1000 Frames Beispiels die beiden allerschlechtesten Frametimes ignoriert, und somit einen "Min" Wert hat, der nicht durch ein oder zwei willkürliche Ausreißer beeinflusst wird und somit nicht der Eindruck vermittelt wird, man hätte generell öfter so hohe Frametimes bzw. niedrige FPS.
Im L-Shape Graph, der hier die Spanne vom 90. bis zum 99,95. Perzentil zeigt, sieht man nochmal genauer, wie oft man hohe Frametimes hatte.

Ein wirklicher "Min" Wert bezieht sich immer einzig und allein auf die schlechteste einzelne Frametime des ganzen Benchmarks, was aufgrund der riesigen potenziellen Streuung bei diesem Wert keinerlei Aussagekraft in einem Vergleich hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stuxi, Iscaran und Butterbemme
Taxxor schrieb:
Jetzt hab ichs verstanden! Also gibt es kurz gesagt kein höheres Minimum als 58fps. Selbst auf den schnellsten Karten bricht die Testsequenz auf 58fps ein. Deswegen steht im Text auch dass es sich wohl um ein CPU Limit handelt. Nichts besonderes eigentlich. Danke dass du dir die Zeit genommen hast.
 
  • Gefällt mir
Reaktionen: Colindo und Taxxor
Butterbemme schrieb:
Also gibt es kurz gesagt kein höheres Minimum als 58fps. Selbst auf den schnellsten Karten bricht die Testsequenz auf 58fps ein.
Genau das bedeutet es.

Butterbemme schrieb:
Danke dass du dir die Zeit genommen hast.
Kein Ding.
CapFrameX arbeitet schließlich ebenfalls mit diesen Parametern, da freue ich mich über jeden, der sie versteht ;)
 
  • Gefällt mir
Reaktionen: Butterbemme
Zero_Point schrieb:
@7hyrael
Dass du bei Nvidia unter DX12 nicht deinen erwarteten Sprung bekommst liegt daran, dass die DX11 Treiber einfach verdammt gut sind, während die von AMD teils grottenschlecht sind, wie man bei MHW eindrucksvoll sieht. Du kannst doch nicht Nvidia einen Strick daraus drehen, dass deren DX11-Treiber eine derart gute Performance abliefert und AMD dafür abfeiern, dass deren DX11 und OGL Treiber teils einfach nur grottig ist.

Das hat doch nichts mit dem Treiber per se zu tun. Das hat mit der GPU-Architektur zu tun. AMD kann mit seiner Architektur diese "Tricks" in DX11 nicht machen, da die GCN-Archs schon seit version GCN1 eigentlich auf das KERN-anliegen von DX12 ausgelegt sind...nämlich das Scheduling und rumgeeiere mit individuellen Codeanpassungen über den Treiber ad acta zu legen und das ganze ENDLICH diejenigen machen zu lassen die das auch "korrekt" optimieren können nämliche die API und Software-Entwickler direkt.

AMD bekommt mit GCN (und den neueren davon abgeleiteten DX12 GPUs) deswegen auch die "Rechnung" in DX11 - da es einfach nicht möglich ist diese Architektur über den Treiber über die API-Grenze/Limitierung hinweg zu optimieren.

Baal Netbeck hat es doch ganz gut beschrieben wie das mit den Renderthreads in DX11 funktioniert. nVidia kann hier aber eben DX11 selbst "austricksen" indem Sie über ihren Treiber die Drawcalls einer anderen Software abfangen und "umleiten" auf andere Threads und so z.b. eben das API-DX11-Problem des einen Hauptrender-Threads zu umgehen. Das ist sicherlich sehr löblich, dass Sie das geschafft haben, aber zeigt doch nur wie total dämlich und "alt" DX11 in Wahrheit ist.

Das was allerdings nicht löblich ist, ist dass nVidia hier auch nach 5 Jahren DX12 immer noch keine GPU-Architektur hingelegt hat wo das Scheduling eben direkt reibungslos über die GPU-Selbst erledigt wird und zwar ganz ohne Treiber-"Voodoo". Etwas das AMD konsequent seit GCN 1 eingebaut und seitdem immer weiterentwickelt hat.

Und das erkennt man eben, außer an der Handvollspiele die zwar nach außen "DX12" heissen, aber intern nur im DX11 fallback-modus laufen und entsprechend auch wieder nur 1-Renderthread zuballern und deswegen von DX12 nicht profitieren.

Ja DX12 ist absichtlich abwärtskompatibel. Und genau DIESE Abwärtskompatibilität die es erlaubt alten DX11 code nativ im "DX11"-Typ auszuführen ist es die zu solch kuriosen Ergebnissen bei den Games führt die eben nach außen "DX12" anbieten aber eigentlich immer noch wie altes DX11 (oder noch älteres DX agieren).
 
Zuletzt bearbeitet:
Iscaran schrieb:
Das was allerdings nicht löblich ist, ist dass nVidia hier auch nach 5 Jahren DX12 immer noch keine GPU-Architektur hingelegt hat wo das Scheduling eben direkt reibungslos über die GPU-Selbst erledigt wird und zwar ganz ohne Treiber-"Voodoo". Etwas das AMD konsequent seit GCN 1 eingebaut und seitdem immer weiterentwickelt hat.
Naja wenn man sich anschaut, wie AMD bei DX12 Titeln abschneidet und Nvidia dann verglichen mit ihrer DX11 Variante trotzdem meist besser dastehen, kann man es ihnen eigentlich auch nicht verübeln, solange es geht DX11 am Leben zu halten^^
 
  • Gefällt mir
Reaktionen: Zero_Point
Taxxor schrieb:
Naja wenn man sich anschaut, wie AMD bei DX12 Titeln abschneidet und Nvidia dann verglichen mit ihrer DX11 Variante trotzdem meist besser dastehen, kann man es ihnen eigentlich auch nicht verübeln, solange es geht DX11 am Leben zu halten^^

Du darfst aber keine 2070 Super mit einer 5700 XT vergleichen und erwarten dass die "gleiche" Performance rauskommt.

Wieviele CUs hat die 5700XT, und die 2070 S ? USw...das sind dann Äpfel vs Birnen.
 
Zurück
Oben