Test Hitman 2 Benchmarks: DirectX 12 ist gut für AMD, eher schlecht für Nvidia und Intel

HAse_ONE schrieb:
Ja was denn jetzt? In anderen Threads schwärmst du von neuster Technik wie DLSS und Raytracing. Erzählst wie krass das doch ist, obwohl man meistens die Unterschiede mit der Lupe suchen muss. Dort schreibst du, wenn man nicht so euphorisch ist wie du, dass das halt die Zukunft ist und man sich nicht an alter Technik festklammern soll.
Chismon schrieb:
Sonst bist Du doch auch nicht so kurzsichtig und propagierst die angebliche Zukunft (bzgl. RTX bspw., da Du ja nicht an ein PhysX-aehnliches versickern im Sande glaubst), entpuppst Dich mit Deinem Festhalten an DX 11 aber als Ewiggestriger :rolleyes:.
Zeigt mal bitte auf wo ich die "angebliche Zukunft propagiere". Indem ich Pascal Karten empfehle? :rolleyes:

Wadenbeisser schrieb:
Mit einem Quad oder gar Dualcore mit der gleichen Taktung womöglich auch nicht aber so ist das nunmal mit einer ineffizienten API. Sie ist nicht in der Lage die verfügbaren Ressorcen sinnvoll zu nutzen, weshalb der genutzte Teil der CPU an die Kotzgrenze getaktet werden muss um die Unzulänglichkeiten halbwegs zu kaschieren.
Nvidia hat hierfür zudem auf die normale Treiber Struktur gepfiffen um den Teil schonmal vorzukauen an dem DX11 aufgrund seiner ineffizienten Hardware Nutzung sonst hoffnungslos ersticken würde und somit dafür gesorgt dass das tote Pferd noch weiter geritten wird wärend die Konkurrenz sich um einen Nachfolger ohne diese Probleme gekümmert und daraufbei der Produkt Entwicklung auch gesetzt hat.

Und natürlich trabt man hier wieder mit dem angeblich höheren Overhead der Raden Treiber an ohne dass es auch nur einen ernsthaften Beleg dafür gegeben hätte dass deren Treiber eine höhere CPU Last erzeugen würde.
Meiner Erfahrung nach ist eher genau das Gegenteil der Fall, die geforce Karten erreichen bei DX11 ihre höheren Frameraten indem das Workaround per Treiber mehr CPU Ressourcen nutzbar macht und damit auch die CPU Last höher ausfällt. Was hier bejubelt wird ist die Stagnation und das versauern auf einem technisch unzulänglichen Produkt weil die Konkurrenz damit aufgrund der Ineffizienz der hoffnungslos veralteten API schlechter läuft.
Es interessiert nur was am Ende ankommt. Bei Hitman 2 ist es bei der blaugrünen Kombi unter DX11 mehr als bei der rotroten unter DX12. Über rotrot und DX11 reden wir in eurem Interesse besser nicht, sonst wird es vernichtend. ;) Wie das der Fall ist und ob irgendwas an der "Kotzgrenze" arbeitet, interessiert nicht.

Und weshalb Entwickler, die mit LL nachweislich nicht gut zurecht kommen (ist immerhin ein Großteil der wenigen, die sich damit befassen), zwanghaft LL nutzen sollen und warum AMD den DX11 Treiber bloß nicht optimieren soll, das hat immer noch keiner erklärt.
 
  • Gefällt mir
Reaktionen: Chismon
HAse_ONE schrieb:
Ja was denn jetzt? In anderen Threads schwärmst du von neuster Technik wie DLSS und Raytracing. Erzählst wie krass das doch ist, obwohl man meistens die Unterschiede mit der Lupe suchen muss.
Chismon schrieb:
Sonst bist Du doch auch nicht so kurzsichtig und propagierst die angebliche Zukunft (bzgl. RTX bspw.,
Wurde ja schon gesagt, aber zur Sicherheit erwähne ich es nochmal, dass hier @Zero_Point mit @ZeroZerp verwechselt wurde
 
  • Gefällt mir
Reaktionen: Chismon und Zero_Point
Zero_Point schrieb:
AMD den DX11 Treiber bloß nicht optimieren soll, das hat immer noch keiner erklärt.
wozu jetzt noch ? DX11 ist tot ... = keine DXR Schnittstelle , kein Direct ML ( Machine learning ) , kein DLSS
Dank der Touring Karten muß NV auf DX12 umschwenken und wollen die Developer die Features der Touring Karten nutzen , müssen sie auf DX12 hin programmieren , ganz davon abgesehen das die aktuellen Game Engines alle DX12 sind
 
  • Gefällt mir
Reaktionen: Thraker und Celinna
Zero_Point schrieb:
Zeigt mal bitte auf wo ich die "angebliche Zukunft propagiere". Indem ich Pascal Karten empfehle? :rolleyes:
Mein Fehler, dann habe ich Dich wohl mit ZeroZerp verwechselt, Asche auf mein Haupt :o:schaf: und nichts fuer ungut ;).

Ich werde mich bemuehen Euch beide zukuenftig nicht in den gleichen Topf zu schmeissen, denn das passt ja scheinbar auch gar nicht (RTX Turing vs. Pascal) und waere keinem von Euch beiden fair gegenueber.
 
  • Gefällt mir
Reaktionen: Dark-Silent und Zero_Point
@Zero_Point
Sag ich ja, mich interessiert es wahnsinnig was am Ende von der Leistung der teuer erkauften Hardware ankommt, genau deshalb gehört DX11 schon seit Jahren auf das Abstellgleis weil es eben nicht in der Lage ist die heutige Hardware effektiv zu nutzen. Wozu also Entwicklungsressourcen in die Umgehung von deren Schwachstellen verschwenden wenn diese beim Nachfolger bereits behoben wurden?

DX11 ist fast 10 Jahre alt und hat seit ca. 4 Jahren einen Nachfolger der die Probleme nicht mehr hat. Bis DX9 wechselten die API Generationen nahezu im Jahresrythmus.
 
MK one schrieb:
wozu jetzt noch ? DX11 ist tot ... = keine DXR Schnittstelle , kein Direct ML ( Machine learning ) , kein DLSS
Dank der Touring Karten muß NV auf DX12 umschwenken und wollen die Developer die Features der Touring Karten nutzen , müssen sie auf DX12 hin programmieren , ganz davon abgesehen das die aktuellen Game Engines alle DX12 sind
Und deshalb gibt es immer noch so viele Spiele mit DX11?

Wadenbeisser schrieb:
@Zero_Point
Sag ich ja, mich interessiert es wahnsinnig was am Ende von der Leistung der teuer erkauften Hardware ankommt, genau deshalb gehört DX11 schon seit Jahren auf das Abstellgleis weil es eben nicht in der Lage ist die heutige Hardware effektiv zu nutzen. Wozu also Entwicklungsressourcen in die Umgehung von deren Schwachstellen verschwenden wenn diese beim Nachfolger bereits behoben wurden?
Bei Hitman 2 merkt man davon allerdings nichts. Da ist eine Kombi mit DX11 am schnellsten. Demnach kann DX11 nicht so schlecht sein, wie es einige darstellen. Es ist sicher richtig, dass LL mehr Potential hat, aber was bringt es, wenn es nicht genutzt wird bzw. werden kann? Bei einigen wenigen Titeln wie Division 2 macht es Sinn, bei vielen anderen wie Hitman 2 profitiert AMD nur aufgrund der schlechten DX11 Treiber, ohne dabei im Falle dieses Spiels Nvidia mit DX11 abhängen zu können.
 
  • Gefällt mir
Reaktionen: kisser
ork1957 schrieb:
Letzter Prozessorenbenchmark, 99,9th percentile, bzw alle Prozitests wenn man nur die V64 beachtet
Dann ist jedes mal die 2070 mit 9900k deutlich schneller unter DX11, als die Vega 64 mit egal welchem Prozessor unter DX12.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Zero_Point
Zero_Point schrieb:
Und deshalb gibt es immer noch so viele Spiele mit DX11?

= NV , und nur NV ... , bisher , der einzige Grund .... , mit Touring beseitigt ....
Gib Touring noch ein Jahr damit auch die letzten Games aus der Pipeline verschwunden sind und du wirst keine neuen mehr auf DX11 entwickelten Games sehen ...
 
  • Gefällt mir
Reaktionen: Schranz0815
@Zero_Point
Oder es liegt einfach nur daran dass der deine oder andere DX11 Treiber Cheat nicht mehr greift oder die zu grunde liegende Hardware Architektur zwar immer wieder aufgepumpt wurde aber dennoch ganz einfach veraltet, weil für die Anforderungen von DX11 ausgelegt ist.
 
Zero_Point schrieb:
Und deshalb gibt es immer noch so viele Spiele mit DX11?


Bei Hitman 2 merkt man davon allerdings nichts. Da ist eine Kombi mit DX11 am schnellsten. Demnach kann DX11 nicht so schlecht sein, wie es einige darstellen. Es ist sicher richtig, dass LL mehr Potential hat, aber was bringt es, wenn es nicht genutzt wird bzw. werden kann? Bei einigen wenigen Titeln wie Division 2 macht es Sinn, bei vielen anderen wie Hitman 2 profitiert AMD nur aufgrund der schlechten DX11 Treiber, ohne dabei im Falle dieses Spiels Nvidia mit DX11 abhängen zu können.

Herrgott bist du ein schwieriges Männchen

NV ist kacke unter DX12 und DX12 ist die Zukunft, ob es dir passt oder nicht, punkt aus fertig
 
  • Gefällt mir
Reaktionen: Thraker
MK one schrieb:
= NV , und nur NV ... , bisher , der einzige Grund .... , mit Touring beseitigt ....
Gib Touring noch ein Jahr damit auch die letzten Games aus der Pipeline verschwunden sind und du wirst keine neuen mehr auf DX11 entwickelten Games sehen ...
Wird seit 2015 jedes Jahr prophezeit. Auch dieses Jahr wette ich wieder dagegen. ;)

Zulgohlan schrieb:
Herrgott bist du ein schwieriges Männchen

NV ist kacke unter DX12 und DX12 ist die Zukunft, ob es dir passt oder nicht, punkt aus fertig
Es reicht immerhin AMD mit DX12 in Schach zu halten. Zur Zukunft siehe oben.
 
  • Gefällt mir
Reaktionen: kisser
Ach ja , war zu dem Zeitpunkt Nvidia auf DX12 umgeschwenkt ? Nein ? ( Sie hatten noch nicht mal nen vernünftigen DX12 Treiber zu dem Zeitpunkt ... )
Was du für richtig hälst und glaubst ist vollkommen egal , gibt es noch DX 9 Games , ja , doch nur als Retro Versionen , so wird es auch DX11 gehen , weil veraltet , weil keine aktuellen Graka Schnittstellen aka DXR oder Direct ML und weil in DX11 keine neuen Funktionen integriert werden

Kannst ja als ewig gestriger fungieren und sagen : Spiele nur DX11 !!! wirst nur keine neuen Games mehr finden und spielen können .
Hallo , wach auf ... selbst NV ist auf DX12 umgeschwenkt ....
 
  • Gefällt mir
Reaktionen: Thraker und Schranz0815
Colindo schrieb:
Wurde ja schon gesagt, aber zur Sicherheit erwähne ich es nochmal, dass hier @Zero_Point mit @ZeroZerp verwechselt wurde
Ist jac auch schwierig mit den ganze Zeros hier.
Kleine Anekdote am Rande. Zu meinem Namen kam es aufgrund eines einfachen Vertippers. Wollte eigentlich Zerozero als Anspielung auf 00 -also Klo- nehmen ;)
Bin einfach ein Tippidiot...

Ansonsten - Schön zu sehen, dass die GCN Architektur in diversen Disziplinen halt doch, aller Unkenrufen zum Trotz, die Leistung auf die Straße bringen kann.
Mich würde mal wirklich interessieren, was ein Studio z.B aus der VII rausholen kann, wenn es von Grund auf die Rendering Pipeline auf GCN ausrichtet inkl. nutzung aller Features.

Und dann wäre es noch interessanter, wenn AMD sowas wie nVidia nsight rausbringen würde und man dann herunterbrechen könnte, welche Einheit wie effizient arbeitet und was jeweils den Flaschenhals darstellt, wenn die Karte ausgelastet ist.

LG
Zero
 
  • Gefällt mir
Reaktionen: Gorgone, Unnu und Colindo
ZeroZerp schrieb:
von Grund auf die Rendering Pipeline auf GCN ausrichtet

Dieses Ausrichten auf die Architektur ist größtenteils Sache des Treibers, das ist ja der Sinn hardware-unabhängiger APIs. Der Programmierer braucht sich gar nicht darum zu kümmern, welche Hardware angesprochen wird.
 
Celinna schrieb:
Wielange hats gedauert bis sich DX11 gegenüber DX9 durchgesetzt hat?

Gebt den Entwicklern Zeit das geht nicht instant...
Zwischen DX9 und 11 hatten wir auch noch das zu Anfangs unsäglich viel Resourcenfressende Win Vista mit der DX10 Totgeburt.
ZeroZerp schrieb:
Ansonsten - Schön zu sehen, dass die GCN Architektur in diversen Disziplinen halt doch, aller Unkenrufen zum Trotz, die Leistung auf die Straße bringen kann.
Mich würde mal wirklich interessieren, was ein Studio z.B aus der VII rausholen kann, wenn es von Grund auf die Rendering Pipeline auf GCN ausrichtet inkl. nutzung aller Features.
LG
Zero
Da gab es zwar die VII noch nicht aber Wolfenstein und DooM unter Vulkan waren da schon sehr krass beim Ergebniss auf AMD Karten.
Zero_Point schrieb:
Wird seit 2015 jedes Jahr prophezeit. Auch dieses Jahr wette ich wieder dagegen. ;)
Es reicht immerhin AMD mit DX12 in Schach zu halten. Zur Zukunft siehe oben.
Dann brauchst/nutzt du sicher auch kein Win 10 da reicht ein Win 7 für dich auch noch nach 2020.
kisser schrieb:
Dieses Ausrichten auf die Architektur ist größtenteils Sache des Treibers, das ist ja der Sinn hardware-unabhängiger APIs. Der Programmierer braucht sich gar nicht darum zu kümmern, welche Hardware angesprochen wird.
LowLevel API ist Harwarenahe programmierung und somit müssen die Programmierer auch die entsprechend der HW gegebenen Featursets nutzen und vor allem sauber einsetzen. Paradebeispiel wie schon genannt DooM. Hier ist auch der grosse Vorteil der AMD HW Implementierung von DX12 erkennbar geworden. Deren DX12 featureset steht in der leistungssteigernden Funktionalität bei DX12 über dem damaligen von NV. AS Shader und einige andere Dinge die deshalb auf den bis zu der Zeit aktuellen NV Generationen eben keine grossen oder gar keine Auswirkungen hatten.
ZeroZerp schrieb:
Und der Programmierer muss das Featureset unterstützen, ansonsten steht die Grafikkarte im "Kompatibilitätsmodus" bzw. waffenlos da.

LG
Zero
Korrekt
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Gorgone
kisser schrieb:
Das würde ich so nicht sagen.

Bestes Beispiel GTA V.
Manchmal habe ich Framerates unter 60, aber die GPU-Auslastung liegt bei 85% oder weniger und die CPU-Auslastung bei 40% oder weniger.
Wo liegt denn jetzt der Hund begraben, warum rendert das System nicht einfach mehr FPS? Die Hardware hat die benötigten Reserven und das Spiel kann sie nicht nutzen.
Wenn ich nicht einen ganzen Haufen an Leistung ins Antialiasing und maximale Details stecken würde wäre das verschenkte Potenzial noch größer.
Also kann es doch eigentlich nur an der veralteten API liegen.
 
kisser schrieb:
Dieses Ausrichten auf die Architektur ist größtenteils Sache des Treibers, das ist ja der Sinn hardware-unabhängiger APIs. Der Programmierer braucht sich gar nicht darum zu kümmern, welche Hardware angesprochen wird.
Auch- Der Programmierer hat aber durchaus in der Hand, wie die Daten zur GPU gelangen, auch darauf was wann auf dem GPU- eigenen Speicher gelagert wird. Das kann der Hardware liegen oder nicht.

Er kann sich z.B. entscheiden zur entlastung der Shader bandbreitenaufwendigere bzw. speicheraufwendigere Operationen durchzuführen, was der Vega VII sicherlich liegen sollte. Ich kann echt nur jedem empfehlen, sich mal dieses nsight dingens anzusehen.
Da bekommt man mal ein Gefühl dafür, wie viele Abhängigkeiten und Feinheiten es gibt (die Art einer GPU zu nutzen) und wie dort ein kleiner Fehler schon große Auswirkungen haben kann.

Und der Programmierer muss das Featureset unterstützen, ansonsten steht die Grafikkarte im "Kompatibilitätsmodus" bzw. waffenlos da.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser und KlaraElfer
ZeroZerp schrieb:
Kleine Anekdote am Rande. Zu meinem Namen kam es aufgrund eines einfachen Vertippers. Wollte eigentlich Zerozero als Anspielung auf 00 -also Klo- nehmen ;)
Bin einfach ein Tippidiot...
Danke dafür :D


ZeroZerp schrieb:
Und dann wäre es noch interessanter, wenn AMD sowas wie nVidia nsight rausbringen würde und man dann herunterbrechen könnte, welche Einheit wie effizient arbeitet und was jeweils den Flaschenhals darstellt, wenn die Karte ausgelastet ist.

Sehr interessant. Habe es mal kurz angeschaut nach einer 5 Min. Party und es enthält wohl viele Informationen.
Werde mich dem mal öfters widmen. Danke
 
Zurück
Oben