• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test World of Warcraft: DirectX 12 macht AMD schneller, Nvidia bricht ein

Locuza schrieb:
@donend

WoW ist keine UWP-App geworden und UWP-Apps können nativ nur mit DX11 oder DX12 erstellt werden.
Das zweifel ich definitiv an, denn sonst hätte Ythisens völligen Unsinn verbreitet, wo er meinte durch den DX12-Support "sei es nun schlicht nicht mehr möglich, die Vollbild-Funktion in World of Warcraft anzubieten". Nur eine Implementierung als UWP-App lässt das nicht mehr zu. Das es UWP 9 to 12 nicht gibt dürfte klar sein. Daher ist es auch nicht möglich mit einem einfachen Patch vollwertiges DX12 für ein Spiel zu implementieren, egal wie oft es schon portiert wurde.

UWP ist im Kern eine API die eine plattformübergreifende Portierung zulässt. Wenn man dabei an DirectXbox denkt und deren abgespeckte DirectX Version passt das schon.

Wenn das nicht so ist, ist der "nur" Borderlessmodus unter DX und auf Windows 10 eigentlich Grütze. Aber egal.
 
@donend
Jein, Microsoft will nicht das die DX12 Programme im exklusiven Vollbild Modus laufen aber wie diverse Beispiele bereits zeigten ist es dennoch möglich. Im Zweifelsfall hatte sich Blizzard einfach nur an Microsofts Vorgaben für DX12 gehalten.
 
@Wadenbeisser
Mein Beitrag bezog sich explizit auf die technische Umsetzung, wo Behauptungen im Raum stehen das aufgrund der Architektur XYZ möglich ist bzw. nicht möglich ist bzw. gut/schlecht funktioniert.

Wenn man den technischen Aspekt außer Acht lässt und eine ökonomische Betrachtung haben möchte, gerne, aber das war nicht der Ursprungskontext auf den ich mich beziehe.
Ökonomisch stellt sich für AMD natürlich immer die Frage, wie viel Ressourcen sie für die alten APIs abstellen und wie sie im Vergleich zur Konkurrenz dastehen möchten.
Ich als Kunde z.B. möchte keine Produkte kaufen, wo ich weiß das der OGL-Treiber miserabel ist und auch die DX11-Performance in einigen Spielen teilweise deutlich niedriger ausfallen kann.
Anderen mag das egal sein und AMD muss schauen wie das Kosten/Nutzen-Verhältnis aussieht.

Persönlich finde ich es z.B. toll das AMD stark in den Software-Stack bei Linux investiert und ihr offener OGL UM teils deutlich besser ist, als der proprietäre unter Linux und Windows.
Da wünscht man sich auch das RadeonSI zu Windows portiert wird, was je nach Spiel 20-60% schneller sein kann:
https://www.phoronix.com/scan.php?page=article&item=radeon-soft-1810&num=2

Genauso möchte man als Retrogamer oder Spieler mit High-End-Hardware nicht das Spiele mit älterer DX9-11 API irgendwo im CPU-Limit kleben, weil in den Treiber nicht mehr investiert wurde.

@donend

UWP-Apps werden nur von Windows10 unterstützt und sind effektiv an den MS-Store bzw. Zahlungsweg gebunden.
Deswegen gibt es auch kaum Spiele, welche es verwenden.
Für Blizzard ist eine UWP-Umsetzung entsprechend ausgeschlossen.

Bezüglich dem exklusiven Fullscreen Mode unter DX12 und da spielt(e) der Treibersupport mit hinein:
https://www.pcper.com/news/Graphics...X12-Indicates-FreeSync-Incompatible-UWP-Games
https://github.com/ValveSoftware/Dota-2-Vulkan/issues/158

Die Situation klingt ziemlich unordentlich, was den Fullscreen Support unter den neuen APIs angeht und die Kontrolle über das Verhalten bzw. das hineinspielen von Window Managern der Betriebssysteme.
 
@Locuza
Und hast du das nötige technische Wissen um das beurteilen zu können ob entsprechend in die Pipeline der Radeons eingegriffen werden kann? Müsstest du denn damit steht und fällt deine gesammte Argumentation.
In DirectX scheint es ja nicht vorgesehen zu sein.

Zudem ist es gerade für retro Gamer sowas von egal denn die Hardware von heute ist erheblich leistungsfähiger als damals und es kann bezweifelt werden ob die alten Spiele überhaupt noch von aktuellen Treibern berücksichtigt werden. Zudem bin ich dagegen das jeder Schrott den andere Hersteller verzapft haben von den Treibern wieder glatt gebügelt werden soll. Dann soll der Kram halt in den Regalen liegen bleiben denn sonst wird nur unterstützt halbgaaren Müll auf die User los zu lassen. Gerade die Platzhirsche am Markt lernen nur über den Geldbeutel, wie man schon oft genug sehen konnte.
Es geht also ausschießlich um halbwegs aktuelle Spiele.
 
@Wadenbeisser

Hast du/die anderen das nötige Wissen, um das zu beurteilen?

In DX11 gibt es die optionale Unterstützung von Command-Lists über mehrere Threads, was bis Heute nur Nvidia unterstützt.
Das müssen die Spiele aber auch explizit verwenden, Watch Dogs 2 ist das letzte Spiel was ich Erinnerung habe, wo entsprechendes Feature von der App verwendet wird, wahrscheinlich auch von anderen Ubisoft-Spielen.
Civ5 war damals das erste Spiel, welches das Feature umgesetzt hat.
Die Informationslage ist ansonsten relativ dürr diesbezüglich.

Aber der direkte Support ist nicht der Grund für Nvidias Vorsprung, Nvidia bekommt ihre implizite Maschinerie allgemein besser hin und hat über die Jahre mehrmals optimiert und ab und zu liest man Vorwürfe wie Nvidia würde cheaten oder sich nicht an die DX-Spec halten und da wundert man sich schon woher man die Ansicht aufgeschnappt hat und mit was man das selber denn untermauern möchte.

----

Die pro Kern CPU-Leistung hat in den letzten Jahren keinen erheblichen Sprung gemacht, wenn man dank Treiberoverhead prozentual deutlich mehr Geschwindigkeit einbüßt als bei der Konkurrenz, dann leiden unterschiedliche Segmente.
Spiele, welche auf die CPU drücken und/oder schlecht optimiert sind in diesem Belangen, schwächere Notebook Hardware, die je nach Spiel flüssig laufen könnte, wenn der Treiber effizienter wäre.
Oder auch High-Frequency Spieler mit 120/144 Hz Monitoren und noch dazu FreeSync/Gsync, wenn du 10-30% mehr FPS haben kannst, je nach Hardware, dann kannst du entweder das Spiel boykottieren oder eben sagen; gut das Spiel kann ich nicht fixen, mit meiner Kaufentscheidung aber ein besseres Erlebnis bei Hersteller X erreichen.
 
  • Gefällt mir
Reaktionen: Iscaran
@Locuza
Da reicht mir gesunder Menschenverstand wenn sie als ein 13 Mrd. € Unternehmen der auf dem jeweiligen Gebiet einzige Konkurrent für ein 207 Mrd. € (Intel) und ein 129 Mrd. € (nvidia) Unternehmen sind (bei den aktuellen Kursen), wobei alleine Intel schon ein größeres Forschungs- und Entwicklungsbudget als AMD Umsatz hatte und bereits die Tatsache das man die DX11 Spiele dennoch spielen kann zeigt dass das Geld woanders deutlich besser aufgehoben ist und wir über Gejammer auf sehr hohem Niveau reden.

Du willst das sie gleichwertig gegen beide konkurrieren können? Dann verschaffe ihnen über mehrere Jahre ein gleichwertiges Forschungsbudget.

Und zum Thema technisches Verständnis zu dem Thema, keiner von uns hat es und deshalb ist die Diskussion auch so sinnlos. Fakt ist das beide anders arbeiten, ob eine Änderung ohne Änderungen an der Hardware möglich sind ist dadurch pure Spekulation.
 
Zuletzt bearbeitet von einem Moderator:
dec7 schrieb:
Ich hätt gern lieber den reinen Fullscreen zurück, meine 1070 wird unter dx11 und dx12 ein klein Stück wärmer und verbraucht mehr.
Rechnet das mal auf paar Millionen Spieler dann ist Blizz verantwortlich für das Zuschalten eines mittelgrossen Kraftwerks. Ne also ich brauche meinen Desktop nicht gerendert während ich wow spiele und raustabben hat immer gut funktioniert, zumal wow im reinen Fullscreen besser mit BDO harmoniert das ich noch immer gern im Hintergrund laufen hab.
Ich habe seit Gestern ein Neues System auch mit der 1070, DX11 lief viel schlechter als 12, kannst du das bestätigen ? Habe 80 FPS auf Maximale einstellung, aber auf 24" 1920x...
Mein Neues:
SSD 500GB 530/550 860 EVOBasic SA3 SAM
Tt Berlin 630W ATX23
D416GB 3200-16-18-18 Ripjaws V K2 GSK
be quiet! PURE BASE 600 Window bk ATX
Asus8GB D5 GTX 1070 STRIX OC GAMING
Asus ROG STRIX Z370-F GAMING Z370
Intel Core i5-8400 2800 1151V2 BOX

PS: Genrell hat WoW ein Performance Problem imo, also eher sinnfrei das jetzt so zu TEsten. Hatte im AV oft 8 fps ^^
 
@FreddyMercury
DXGI ermöglicht die Anpassung der Framelatenzen, geringste Latenzen führen jedoch auch zu einer Reduzierung der Parallelität.

Das Festlegen der Framelatenzen ist immer dann von Nöten, wenn GPU Verarbeitungsschritte ausgeführt werden, die von der CPU während des vorherigen Frames in die Warteschlange eingereiht werden, während die CPU unabhängig davon und gleichzeitig Renderbefehle für den aktuellen Frame übermitteln kann. Siehe auch Swapchain.

Soweit der Wert für ein Frame nicht über 16,7ms liegt ist die Anpassung eigentlich obsolet. Die Frage ist damit welche Framerate Blizzard anstrebt, dabei auf der anderen Seite aber die Paralletitätvorteile (darunter auch Multitask) unter Windows 10 eben ungünstigen Latenzen vorzieht, oder aber es mit den Latenzen bei niedrig gewählter Framerate gar keine Probleme gibt.

@Locuza
Schon Sweeny griff Microsoft und UWP an, "weil Microsoft neue Windows 10 Features exklusiv auf UWP startet und Entwickler nötigt, am geschlossenen UWP Ökosystem teilzunehmen, wenn sie auf diese zugreifen wollen". Deine Erläuterungen machen dahingehend Sinn.

Was den Downlevelgrad der Runtimeversionen und Featurelevel (auch DXGI Supportformats) angeht, liegts Du glaube ich nicht ganz richtig. FL 12.1 und 12.0 lassen sich nur unter Runtime d3d 11.3 und 12 ausführen. FL 9.1 bis 11.1 unter runtime d3d 11.1, oder ich habe deinen obigen Post falsch verstanden. Möglicherweise ist der Link schon wieder veraltet, aber was anderes findet man auch in den Dokumentationen nicht.

https://docs.microsoft.com/de-de/wi...overviews-direct3d-11-devices-downlevel-intro
 
Zuletzt bearbeitet von einem Moderator:
projectneo schrieb:
Also ich muss sagen, dass WoW seit dem Patch mit DX12 sehr viel runder läuft als unter DX11 und das mit einer Nvidia Karte. Ich erreiche immer 60 FPS@UHD@MAX und habe kein Stocken oder unrundes laufen oder Framedrops wie unter DX11. Also von meiner Seite aus ist die Umsetzung gelungen! Ob da am Ende ein paar FPS weniger rauskommen ist mir wurst. Das Subjektive Empfinden ist um Welten besser.
Kann ich bestätigen, habe stabile 60 fps mehr brauche ich nicht.
 
donend schrieb:
@FreddyMercury
DXGI ermöglicht die Anpassung der Framelatenzen, geringste Latenzen führen jedoch auch zu einer Reduzierung der Parallelität.

Das Festlegen der Framelatenzen ist immer dann von Nöten, wenn GPU Verarbeitungsschritte ausgeführt werden, die von der CPU während des vorherigen Frames in die Warteschlange eingereiht werden, während die CPU unabhängig davon und gleichzeitig Renderbefehle für den aktuellen Frame übermitteln kann. Siehe auch Swapchain.

Das auch, ja. Man kann auch ResizeTarget und SetFullscreenState rufen, was eine Nachricht an WM_SIZE sendet. Man muss halt aufpassen das man unterstuetzte refresh rates angegeben hat.
 
@Wadenbeisser

Das muss ich ihnen nicht verschaffen, dass müssen sie selber tun und das bei ihren bestehenden Konkurrenten.
Das es in der Vergangenheit und naher Zukunft nicht möglich sein wird ist offensichtlich.

Wenn das Thema technisches Verständnis an der Stelle offen gelassen wird, gut, dann kann niemand behaupten wie XYZ bei den Herstellern im Vergleich aussieht bzw. möglich ist.

@donend

Der Link ist korrekt, aber meinen Beitrag hast du offensichtlich falsch eingeordnet.
WoW sollte DX11 unterstützen, mit FL10-FL11.0 und DX12 mit FL11.0.
(DX12 hat vier Feature-Levels 11_0, 11_1, 12_0 und 12_1 + einzelne Feature-Abfragen)
 
Ich verstehe hier das Problem nicht. Es ist Blizzards Spiel und somit deren Entscheidung wie sie es verändern vom Unterbau. Entweder man akzeptiert es und spielt es weiter, oder man akzeptiert es nicht und hört auf es zu spielen.

Der Rest der hier postet, dass es ihn nicht reizt, er es noch nie gespielt hat oder viele weitere unnütze Posts, tragen nicht wirklich dazu bei das Thema vor an zu bringen.
Aber Generation Facebook, muss eben jeden Stuhlgang der Welt mitteilen.
 
  • Gefällt mir
Reaktionen: Kalsarikännit und Ice breaker
@Locuza
Wer etwas verlangt muss in den sauren Apfel beissen denn an sonsten ist es demjenigen selbst überlassen wie er verfährt und seine Mittel einsetzt.

Wenn der Einblick in die Materie fehlt dann bleibt nur sich auf den IST Zustand zu stützen und der spricht nunmal eine eindeutige Sprache. Unter den gegebenen Umständen ist es nicht möglich wie nvidia zu verfahren und auch wenig sinnvoll Geld für die Entwicklung von morgen in abgelöste Produkte von Gestern zu versenken, erst recht wenn keine Not dazu besteht.
Ergänzung ()

Um nochmal auf das Thema zurück zu kommen, ist doch super wenn sie veraltete Schnittstellen endgültig ablösen (ich hatte damals mit der Radeon unter Windows 7 per DX11 eine erheblich bessere Performance als mit DX9), eine moderne API einführen und dem User wie Wahl lassen welche er nutzen will.
 
Die zweite Auffälligkeit: Auch nach der Änderung sind Nvidia-Grafikkarten, obwohl diese in DirectX 12 langsamer sind, immer noch klar schneller als die Pendants aus dem Hause AMD, unabhängig davon, welche API diese nutzen. Die Unterschiede scheinen mit dem Patch weder größer, noch kleiner geworden zu sein.

Haeh?
Es ist doch deutlich sichtbar, dann nach dem Patch die 1080 dermaßen einbricht, dass sie hinter die AMD Karten fällt.
 
Wadenbeisser schrieb:
Um nochmal auf das Thema zurück zu kommen, ist doch super wenn sie veraltete Schnittstellen endgültig ablösen (ich hatte damals mit der Radeon unter Windows 7 per DX11 eine erheblich bessere Performance als mit DX9), eine moderne API einführen und dem User wie Wahl lassen welche er nutzen will.
DX12 ist ja nicht schneller, sondern 1-3% langsamer. Genau darum geht es doch.
Locuza schrieb:
@donend

Der Link ist korrekt, aber meinen Beitrag hast du offensichtlich falsch eingeordnet.
WoW sollte DX11 unterstützen, mit FL10-FL11.0 und DX12 mit FL11.0.
(DX12 hat vier Feature-Levels 11_0, 11_1, 12_0 und 12_1 + einzelne Feature-Abfragen)
Ist das überhaupt möglich?

Das Binding unter DX11 ist abstract, dass sich per Resscourcenzuteilung an verschiendene Shaderstufen in der Pipeline bindet. Genau diese lesen wieder aus explizieten "Blind-Slots". Im Unterschied dazu bietet DX12 einen Deskriptor Heap, der der GPU mit hardwarespezifischen Daten und dynamischer Indexierung die "Shader-Slots" füllt. Die dynamische Indexierung ohne Limits für die z.B. G-Buffer macht es erst möglich ohne großen Overhead mehr als unter DX11 darzustellen (10 View Objekte z.B. unter DX11 je nach Buffer). Erst unter vollem Level-Support kann dann eine Szene genauso schnell finalisiert werden. Ansonsten scheint das nach hinten loszugehen.

Genau das meinte ich, mit nicht vollem Support. Blizzard hatte schon mal DX11 geschrieben und eigentlich DX10 gemeint. Würde mich nicht wundern, wenn sie da irgendwie mit FL mogeln.

Zudem haben sie die Skalierung geändert und zwei Qualitätsstufen niedriger angesetzt. Durch Borderless wird es möglich systemunabhängige Skalierungen "zu fahren" ohne das das UI unscharf wirkt, denn unter UWP kann man diese mit unterschiedlicher Auflösung skalieren, oder nicht?

Dark_Knight schrieb:
Der Rest der hier postet, dass es ihn nicht reizt, er es noch nie gespielt hat oder viele weitere unnütze Posts, tragen nicht wirklich dazu bei das Thema vor an zu bringen. Aber Generation Facebook, muss eben jeden Stuhlgang der Welt mitteilen.
Wieder so ein nutzloser Post.
 
Zuletzt bearbeitet von einem Moderator:
@donend
Ähm falsch, denn wenn ich mir die Kommentare hier so durchlese ist sowohl ein Leistungsgewinn als auch ein Verlußt möglich, vermutlich je nachdem wie hart die Grafikkarte durch die CPU Kerne ausgebremst wird.
+/- 1-3% sind herzlich egal da innerhalb der Messtolleranz und man merkt davon eh nichts.
Geforce Besitzer hatten wiederum vom Leistungsgewinnen udn Verlußten durch DX12 berichtet. Gewonnen haben vermutlich die bei denen das Spiel ins CPU Limit rennt (mehr nutzbare CPU Leistung unter DX12), verloren die bei denen die Grafikkarte limitiert und nvidias "Optimierungen" unter DX12 nicht mehr greifen. Das ist aber natürlich nur eine Vermutung meinerseits.
 
Wadenbeisser schrieb:
@donend
Ähm falsch, denn wenn ich mir die Kommentare hier so durchlese ist sowohl ein Leistungsgewinn als auch ein Verlußt möglich, vermutlich je nachdem wie hart die Grafikkarte durch die CPU Kerne ausgebremst wird.
+/- 1-3% sind herzlich egal da innerhalb der Messtolleranz und man merkt davon eh nichts.
Geforce Besitzer hatten wiederum vom Leistungsgewinnen udn Verlußten durch DX12 berichtet. Gewonnen haben vermutlich die bei denen das Spiel ins CPU Limit rennt (mehr nutzbare CPU Leistung unter DX12), verloren die bei denen die Grafikkarte limitiert und nvidias "Optimierungen" unter DX12 nicht mehr greifen. Das ist aber natürlich nur eine Vermutung meinerseits.
Im CPU Limit hat CB gar nicht getestet.
 
Eben, und die Geforce Karten stinken unter DX12 ab aber das heißt noch lange nicht das es nicht bei den entsprechenden Usern bestand.
 
Mit dem nächsten nvidia update wird es sicher besser. Dx 11,12 schön und gut. Aber noch immer kein multi-core supprt...
 
Zurück
Oben