• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test World of Warcraft: DirectX 12 macht AMD schneller, Nvidia bricht ein

Hallo zusammen,

@ smart-

smart- schrieb:
Haha, das liegt dann aber an dem Trend im Forum kleine oder knappe Netzteile zu empfehlen.

Du kannst dich ja mal selbst Schlau machen, es gibt wirklich sehr viele Postings hier im Forum, wo die Leute eine Vega 64 nachrüsteten und dann aufgrund des Netzteils, welches sie bisher im Rechner hatten, in die Bredoullie kamen. Ehrlich gesagt ist das auch nicht verwunderlich, denn der Strombedarf von Vega 64 ist nunmal nicht von schlechten Eltern. Leider.

So long...
 
AMD-Mafiosi schrieb:
Sagte ich doch.. Nur dass du eben Low Lvl und (Ist DX11 echt High Lvl?) Sagtest.

Naja ich sehe das eher so wie das VW Thema... Wir sind dann auch wieder beim Thema Gameworks und proprietär

Nein, du setzt die APIs in Zusammenhang mit Herstellern und Entwicklern und das ist falsch.
DirectX ist immer neutral. Das entscheidende ist a) wie die Grafikkartenhersteller ihre Seite der API implementieren und b) wie Spielehersteller die API nutzen.

Beispiel: Nehmen wir an es gibt eine API die Anbieterübergreitende Benutzerverwaltung ermöglicht. Der User der die API nutzt sieht immer das gleiche und kann das gleiche machen. Der Dienstanbieter implementiert die API-Funktionen damit die dafür definierte Arbeit erledigt wird.
Wenn jetzt Amazon und Kik die gleiche API für Nutzer anbieten damit sie z.B. Nutzerkonten anlegen können, der Vorgang des Anlegens bei Kik 3 Sekunden dauert, bei Amazon aber nur 0,3 Sekunden, dann kannst du wohl kaum sagen dass die API schuld ist. Es wird wohl eher an der Serverfarm liegen auf die Amazon aufbauen kann und auf der anderen Seite an dem einen V-Server bei Strato auf dem Kik aufbauen kann.

Wenn nVidia jetzt also bei DX12 20% Leistung verliert, dann liegt das eher an ihrer Implementation der API im Treiber oder an der Art und Weise wie Blizzard die API nutzt als an der API selbst.
 
AYAlf schrieb:
Das beste Feature der letzen 10 Jahre und du musst als nVidia Kunde drauf verzichten, wenn du nicht Steinreich bist?!

Steinreich ? Die Preisdifferenz zwischen Gsync und Freesync Monitoren liegt bei den meisten Modellen um die 150€ - sollte doch kein Problem sein für jemanden der 700€+ für ne konstant überteuerte 1080ti hingelegt hat, oder ? Steinreich *tztz - Prioritäten falsch gesetzt huh.
 
Zotac2012 schrieb:
Und hier noch ein kleiner Nachtrag bezüglich Deiner Qualitätsfeatures:
Dieses Zitat bezieht sich, btw, auf beide APIs.

DX12 soll vor allem eine bessere CPU-Auslastung ermöglichen, was es bisherigen Tests nach ja auch tut.
Leider ist die Skalierung bei schnellen CPUs mager (AMD RTG) oder eher eine Regression (nVidia).
 
Hallo zusammen,

@ smart-

smart- schrieb:
Ich habe die direkten Preise nicht mehr im Kopf, aber die 6 GB Variante kostet halt Aufpreis und die 3 GB ist knapp bemessen. Ist eher so das du dir das dann jetzt auslegst wie du es brauchst.

Gegenüber was kostet die 6 Gbyte Variante Aufpreis? Wenn es gegenüber der 3 Gbyte Variante ist, dann natürlich ja, gar keine Frage. Die ist aber nicht nur beim Speicher beschnitten. Das darfst du nicht Vergessen.

smart- schrieb:
Schon das Argument mit dem Netzteil bei AMD finde ich fadenscheinig, ehrlich. Hier wurde ja auch ein guter Punkt wegen dem Monitor gebracht, bei Nvidia zahlst dich für gewisse Sachen dumm und dämlich, gibt doch kein Grund das du das hier verteidigen müsstest.

Das ist grundfalsch. Ich habe klar dargelegt, daß die Sache mit dem Monitor ein Vorteil ist. Aber eben aufgrund des erhöhten Strombedarfs in vielen Fällen ein Neues Netzteil angeschafft werden muß und dadurch der besagte Vorteil vom Geld her wieder Neutralisiert wird. Das ist nunmal leider so.

So long...
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
Das ist grundfalsch. Ich habe klar dargelegt, daß die Sache mit dem Monitor ein Vorteil ist. Aber eben aufgrund des erhöhten Strombedarfs in vielen Fällen ein Neues Netzteil angeschafft werden muß und dadurch der besagte Vorteil vom Geld her wieder Neutralisisert wird. Das ist nunmal leider so.

Also ich müsste kein neues NT kaufen. Finde das Argument schwach. Da sind wir auch wieder bei dem Punkt, wer sich bei den Preisen ne Vega kauft und dann ein zu schlechtes NT hat, also bitte... du machst eh den Fehler immer die Vega rein zu rechnen, die Serie hat ne gesonderte Stellung durch die Marktsituation. Was kann AMD für die Miner!?
 
ja DX12 enthüllt Realtitäten :) keine Tricks mehr, keine künstlichen Bremsen. nur noch Optimierungen per Treiber
 
  • Gefällt mir
Reaktionen: hurga_gonzales und smart-
Sleight88 schrieb:
Aber Amd hat doch auch unter Dx 12 nur 2 Fps mehr? Wo ist dann der Vorteil?
Das ist die große Frage..
Weil guck dir Warhammer an unter DX12... da machen die RX Modelle eine gute Figur.. Vllt liegts auch an der Engine, sie ist ja nun mal nichts anderes als die WC3 Engine.
Ich sehe low lvl API dank Vulkan/Mantle als vorteil, sieht man auch gut an den Konsolen. Doof dass Nvidia das nicht so sehen möchte

@DocWindows _
Tschuldige, dann wars ein Textfehlverstädnis.. Ich meinte das schon so wie du. Du hast natürlich Recht.. Ich meinte halt nur dass früher die Treiber auf die spiele angepasst wurden, und mit DX12 das eigentlich nicht mehr so krass sein soll
 
  • Gefällt mir
Reaktionen: smart-
AMD-Mafiosi schrieb:
Ich sehe low lvl API dank Vulkan/Mantle als vorteil, sieht man auch gut an den Konsolen. Doof dass Nvidia das nicht so sehen möchte

Verschwörungstheorie :verwandlung:


@AMD-Mafiosi
Das war ironisch gemeint. Dachte du blickst das. :stacheln:
Die meisten werden deinen Kommentar nicht verstehen, bzw. den Hintergrund.
 
  • Gefällt mir
Reaktionen: HiPing
smart- schrieb:
Verschwörungstheorie :verwandlung:
Eher Fakt.. Wenn man sich die forcierung auf DX11 anguckt ;) Gameworks ist ja auch VT, das hohe Tesselation ist Fakt :D
 
Möchte ja Raidtest sehen
 
DocWindows schrieb:
Die Spielehersteller lagern immer noch gerne technische Detailarbeit bei PC-Spielen auf die Hardwarehersteller aus.

Und somit auf den Kunden, der zwar 2 € weniger fürs Spiel bezahlt (hypothetischer Weise), dafür 150 Euro mehr für ständige Hardware Upgrades.
 
  • Gefällt mir
Reaktionen: Rockstar85 und smart-
Wieso man solch einen Test einer Spielengine durchführt, ohne auf das entsprechende Addon zu warten, bleibt mir ein Rätsel. Der Umbau geschah vor allem, um den Content des kommenden Addons ansehnlicher und effektvoller gestalten zu können, ohne die Casual-Rechner zu verheizen/deren Besitzer als Spieler zu verlieren, was sich im Übrigen mit euren Beobachtungen zur Performance auf langsameren Prozessoren dargestellt hat.

Dass der Wald von Elwynn und Durotar durch den Umstieg auf DirectX 12 nicht automatisch dichtere Vegetation haben (aka "schaut nicht besser aus"), sollte hier eigentlich bekannt sein. Dass der "alte" Content (der darauf nicht optimiert war) dabei nicht mehr ganz so (fast vernachlässigbar) flüssig läuft, ist nicht der Rede wert.
 
also es gibt ja jetzt nur noch das "Fenster (Vollbild)", aber was mach ich wenn dieser Modus nicht über der Windows Taskleiste liegt? die ist bei mir leider immer im Vordergrund und überdeckt die Aktionsleisten im Spiel.

Kann mir jemand helfen?
 
Weis gar nicht was die Diskussion soll? So schwierig Geizhals anzuschmeißen? Die billigste lieferbare 1060 mit 6GB kostet 239€ und die günstigste 580 mit 8GB 269€. Die Miner machen da nicht nur die Preise im Performance (Vega/1080) Segment kaputt und das kann nicht gut sein für AMD. Schaue mich gerade nach einer Graka ohne externen Stromanschluss an und die 560 kostet halt verglichen mit der deutlichen Mehrleistung die eine 1050TI bietet viel zu viel.

Und dieses ewige Argument mit Freesync. Klar ist es besser und billiger. Wäre schön wenn NVIDIA einfach darauf umsattelt. Aber erstens kann man auch gut ohne damit leben (ging ja vorher auch) und zweitens sind halt viele Freesync Monitore einfach mal Schrott. Da dann immer Äpfel mit Birnen vergleichen...gibt auch mehr Smartphones mit Android als Apple, deswegen sind Android Smartphones nicht immer Perser besser

@AMD-Mafiosi

Vergleichst du gerade wirklich Abgasskandal, wo VW und Co. aktiv ihre schlechteren Motoren durch Schummeltricks aufhübschten mit NVIDIA, die das Threading Problem unter DX11 erkannt haben und dort einen eigenen Scheduler entworfen haben? AMD steht es frei alle Optimierungen zu nutzen die DX11 verbessern. Stattdessen ruhen Sie sich lieber darauf aus, dass es Mantle/Vulkan/DX12 richten wird.
 
Einmal draufklicken auf die Taskleiste und dann wieder aufs Spiel-Icon - sollte das Problem lösen. @LieberNetterFlo
 
  • Gefällt mir
Reaktionen: LieberNetterFlo
Kobura schrieb:
DX12 soll vor allem eine bessere CPU-Auslastung ermöglichen, was es bisherigen Tests nach ja auch tut.
Leider ist die Skalierung bei schnellen CPUs mager (AMD RTG) oder eher eine Regression (nVidia).
Das ist leider nur die halbe Wahrheit, DX12 könnte auch Grafisch noch einiges mehr bieten, nur wird das viel zu selten genutzt, ob das an den Programmierern liegt, die einfach ihren Job nicht können, oder sie anderweitig durch die Grafikkartenplayer ausgebremst werden, lässt sich so aus der Ferne nur schwer sagen.

Und Wundern, dass sich die AMD Grafikkarten unter DX12 besser verhalten [Performen] was die Leistung betrifft] ist ja kein neues Phänomen und schon länger bekannt. Da wird es viel interessanter sein zu sehen, ob Nvidia mit ihrer neuen Grafikkartenserie Turing, da aufgeholt hat und endlich auch hier mal richtig zulegen kann.
 
Zurück
Oben