Time Spy: nVidia kann es einfach nicht (lassen) ...

Schnixus

Banned
Registriert
Nov. 2012
Beiträge
315
Ich frage mich, warum hier auf CB keine Meldung bzw. Diskussion über die diversen "Ungereimtheiten" beim Time Spy-Benchmark hinsichtlich der nVidia-Karten zu finden ist.

Time Spy rühmt sich damit, neuer DX12-Benchmark zu sein, allerdings wird nur Feature-Level 11_0 verwendet! Außerdem wird bei nVidia-Karten trotz aktiviertem AC ein alternativer Renderpfad ohne AC verwendet, somit sind die Werte der ganzen nVidia-Karten Schall und Rauch bzw. Lug und Trug! Ich kann doch in Zukunft damit keine vernünftigen Aussagen über die Leistungsfähigkeit einer Grafikkarte machen, da nicht dieselben Voraussetzungen gegeben sind und somit keine Vergleichbarkeit mehr gegeben ist. Man täuscht die Kunden/Leser mit diesem (nicht vorhandenen) Feature und längeren Benchmarkbalken, das ist für mich Betrug allererster Güte seitens nVidia in Kooperation mit Futuremark. Normalerweise müsste in diesem Falle eine Meldung erscheinen: "AC is not supported by your GPU, aborting tests!". Fertig!! Meiner Meinung nach ein weiterer Beweis, dass nVidia-Karten mit Pascal immer noch kein AS/AC in Hardware beherrschen. Diesen fakt versucht nVidia mit allen Mitteln zu vertuschen, auf Kosten des leichtgläubigen Kunden natürlich.

Fazit: Ein DX12-Benchmark, welcher bewusst kein DX12 benutzt und auf nVidia-Karten läuft, ohne einen eindeutigen Hinweis, dass ein alternativer Renderpfad ohne AC auf nVidia-Karten verwendet wird, ist schlichtweg Betrug par excellence. Das verwenden von FL 11_0 lässt (Polaris-)AMD-Karten somit auch nicht von Ihrem Fokus auf DX12 profitieren und bewusst schlechter aussehen. nVidia schafft es doch immer wieder sich noch unsympathischer und krimineller zu geben, als ohnehin schon...

Quelle: http://www.pcgameshardware.de/Direc...Time-Spy-Asynchronous-Compute-Kritik-1201886/

Was haltet ihr davon? (Bitte sachliche Diskussion!)
 
Da gebe ich dir recht. Darum vergleiche ich die Leistung von Grafikkarten lieber mit Spielebenchmarks.
 
Hm, ich seh das etwas entspannter, und das obwohl ich eher "AMD Fan" bin und schon gern auch genauer drauf schau was die 2 Hersteller so treiben. Aber: DX12 besteht eben nicht nur aus den Feature-Levels (die es in DX 11 genauso gibt) sondern vor allem aus der neuen API. Was wäre wenn der Benchmark nun "Raster Order View" aus DX 12 verwenden würde und bei den AMD Karten kommt nur ein "not supported"? Ist ja nicht so das es überhaupt eine Karte gibt die DX 12 vollständig beherrscht.

Was AC angeht, das ist ja ein reines Performance-Feature und nichts was sich direkt auf die Darstellungsqualität auswirkt. Von daher, wenn NV ohne schneller ist als mit, wieso sollte es nicht deaktiviert werden? Man sieht ja selbst im Time-Spy wie die AMD Karten zulegen, während NV halt auf ihrem Niveau bleibt. Ich finde sowieso das 3D mark überbewertet wird, der Rest wird sich mit den kommenden Spielen zeigen.
 
Time Spy rühmt sich damit, neuer DX12-Benchmark zu sein, allerdings wird nur Feature-Level 11_0 verwendet!
Das ist verständlich und richtig imho. Eben weil alle alten Karten DX12 bekommen aber eben kein FL 12 haben. FL 11 ist eben auch Teil der Spec. Ich will den Benchmark auch mit Fermi Karten noch nutzen können, ansonsten würde dieser gar nicht auf den Karten laufen IIRC.
Allerdings wäre ein extra Benchmark für diese Karten mit FL12 oder eben ein extra Renderpath angebracht.

Das mit dem Renderpfad für nvidia und nur nvidia ist allerdings natürlich ein Problem. Das ist im Endeffekt wieder ein massives Geforce FX Disaster. Damals hat nvidia schlechte Hardware total an DX9 vorbei gebaut und alle, Spielehersteller und nvidia selbst, aber eben vor allem Spielehersteller, haben die Spiele so programmiert daß diese auch auf den schlechten nvidia Karten gut funktionierten.
Für ATI/AMD wird dies nur selten gemacht weil diese weniger Marktanteil hatten oder das Spiel gleich von nvidia gesponsert wird. Nvidia gibt eben massiv mehr Geld für Developer Relations aus als AMD.
 
Ich will den Benchmark auch mit Fermi Karten noch nutzen können, ansonsten würde dieser gar nicht auf den Karten laufen IIRC.

Nun das hätte aber Nvidia zu verantworten, denn sie haben DX 12 Support für Fermi versprochen, damit Werbung gemacht und nicht gehalten. Was nützt dir wenn dir Time Spy vorgaukelt Fermi könne DX 12 und kann es dann in Spielen nicht:

http://www.legitreviews.com/nvidia-highlights-directx-12-strengths-amd_138178

Das mit dem Renderpfad sehe ich nicht so schlimm zumindest die Auswirkungen nicht. Nvidia wird eben bei jedem DX12/Vulkan Spiel Async off setzen bei Maxwell, so wie es eben bei Time Spy auch passiert. Schlimmer fide ich auch hier, dass einem suggeriert wird Maxwell könne Async was nicht der Fall ist auch wenn Nvidia behauptet hat das per Treiber nachzuliefern. Auch wieder ein Versprechen, das sie nicht gehalten haben:

https://www.computerbase.de/2015-09/directx-12-nvidia-treiber-soll-async-compute-nachreichen/

Nvidia verspricht dem Kunden viel und kann es am Ende nicht halten. Nimmt ihnen aber offenbar keiner krum.
 
Zuletzt bearbeitet:
HominiLupus schrieb:
Das mit dem Renderpfad für nvidia und nur nvidia ist allerdings natürlich ein Problem.

Nein, ist es nicht, weil kein solcher Renderpfad für Nvidia existiert.

Dieser Thread kann also geschlossen werden, weil er auf falschen Behauptungen basiert.

/edit: Meines Wissens nach gibt es nach wie vor keinen DX12 Treiber für Fermi, der Bench kann also nicht auf Fermi laufen.
 
Dann eben Kepler. Ist am Ende egal: der Punkt ist den DX12 Benchmark so inklusiv wie möglich zu machen damit man eben alle Karten die DX12 Anforderungen erfüllen, für die ein DX12 Treiber existiert, gebencht werden können.
 
HominiLupus schrieb:
Das ist verständlich und richtig imho. Eben weil alle alten Karten DX12 bekommen aber eben kein FL 12 haben. FL 11 ist eben auch Teil der Spec. Ich will den Benchmark auch mit Fermi Karten noch nutzen können, ansonsten würde dieser gar nicht auf den Karten laufen IIRC.
Allerdings wäre ein extra Benchmark für diese Karten mit FL12 oder eben ein extra Renderpath angebracht.

Das mit dem Renderpfad für nvidia und nur nvidia ist allerdings natürlich ein Problem. Das ist im Endeffekt wieder ein massives Geforce FX Disaster. Damals hat nvidia schlechte Hardware total an DX9 vorbei gebaut und alle, Spielehersteller und nvidia selbst, aber eben vor allem Spielehersteller, haben die Spiele so programmiert daß diese auch auf den schlechten nvidia Karten gut funktionierten.
Für ATI/AMD wird dies nur selten gemacht weil diese weniger Marktanteil hatten oder das Spiel gleich von nvidia gesponsert wird. Nvidia gibt eben massiv mehr Geld für Developer Relations aus als AMD.

Für die älteren Karten gibt es doch die älteren 3DMarks, ich sehe das Problem nicht. Das soll der neue State of the Art-Benchmark sein, benutzt aber keine State of the Art-Technologien, nur um eine Kompatibilität mit älteren Karten zu gewährleisten?! Das nenne ich ein fadenscheinig vorgeschobenes Argument und Teil des Betrugs, nVidia besser dastehen zu lassen, als sie es in Wirklichkeit sind...
 
Zuletzt bearbeitet:
Mal ne kurze Frage für Leute die sich mit dem Benchmark und seiner Geschichte näher auskennen: hat Futuremark bei anderen DX Versionen nicht immer viel früher den Benchmark rausgehauen, also praktisch sobald das DX RTM wurde? Auch vor Spielen mit dem neuen DX?

Hier scheint mir doch ziemlich lange gewartet worden zu sein, eben bis nvidia sein Pascal draußen hat, oder irre ich mich da?
 
Das würde ich eher als Verschwörungstheorie bezeichnen. Es ist doch allgemein bekannt dass DX12/Vulkan noch sehr schwer zu implementieren ist, da hier auch eine Menge Erfahrung fehlt. Nicht umsonst ist DX12 bei vielen Spielen noch im Beta Status (ROTR, Warhammer, Forza ...)
 
Zumindest die Tatsache das dieser Benchmark als ''state of the art'' bezeichnet wird (seitens Herausgeber), ist schon etwas schäbig.

Auch die bisher gemachten Erfahrungen mit Spielen die DX12 verwenden und diesem Benchmark, scheint einem so einiges ''schwer nachvollziehbar''.
Bei Nvidias Geschäftsgebaren über die letzten Jahre zusammengezählt, würde mich nichts mehr wundern. Ich wünsche mir das professionelle Seiten dem Ganzen auf den Grund gehen, bitte.

MfG
DiskreterHerr
 
Zuletzt bearbeitet:
Dai6oro schrieb:
Das würde ich eher als Verschwörungstheorie bezeichnen. Es ist doch allgemein bekannt dass DX12/Vulkan noch sehr schwer zu implementieren ist, da hier auch eine Menge Erfahrung fehlt. Nicht umsonst ist DX12 bei vielen Spielen noch im Beta Status (ROTR, Warhammer, Forza ...)

Die waren immer schon neu und schwer zu implementieren, jedesmal. Deswegen ist das kein Argument. Vor allem weil 3DMark nur eine einfache Grafikdemo ist und ein Spiel eben interaktiv.

DX 9 Dezember 2002, 3DMark 03: Februar 2003
DX10 Vista Januar 2007, 3DMark Vantage: April 2008
DX11 Windows 7 Oktober 2011, 3DMark 11: Dezember 2010
DX12 Windows 10 Juli 2015, 3DMark: Juni 2016

Für einen Benchmark der die zukünftigen Szenarien abdecken will geraten die immer mehr ins Hintertreffen :)
 
HominiLupus schrieb:
Die waren immer schon neu und schwer zu implementieren, jedesmal. Deswegen ist das kein Argument. Vor allem weil 3DMark nur eine einfache Grafikdemo ist und ein Spiel eben interaktiv.

DX 9 Dezember 2002, 3DMark 03: Februar 2003
DX10 Vista Januar 2007, 3DMark Vantage: April 2008
DX11 Windows 7 Oktober 2011, 3DMark 11: Dezember 2010
DX12 Windows 10 Juli 2015, 3DMark: Juni 2016

Für einen Benchmark der die zukünftigen Szenarien abdecken will geraten die immer mehr ins Hintertreffen :)

Neben den oben bereits genannten Vorwürfen, gesellt sich noch folgender hinzu, dass Time Spy einen relativ genügsamen Anspruch an den RAM der Grafikkarte ist, welcher grüne GPU-Hersteller davon natürlich profitiert, liegt offensichtlich auf der Hand...

EDIT: Warum wundert es mich überhaupt nicht, dass dieses Thema bei nVidiabase nicht mehr im Forumsticker auftaucht...
 
Zuletzt bearbeitet:
Ich "profitiere" auch davon. Das ist auch ein GPU Test und kein max VRAM Test dafür kann man auch Tomb Raider nehmen. Profitieren in " den 1. ist der Bench hässlich und 2. spielt man ihn nicht.
 
Dai6oro schrieb:
Ich "profitiere" auch davon. Das ist auch ein GPU Test und kein max VRAM Test dafür kann man auch Tomb Raider nehmen. Profitieren in " den 1. ist der Bench hässlich und 2. spielt man ihn nicht.

Man kann aber bei den Voraussetzungen beim Festlegen des Benchmarks bzw. der Szenen sehr gut erkennen, welche Schwächen welches Herstellers unbedingt kaschiert werden sollen...

Viel VRAM => Domäne AMD (stattdessen wurde ein VRAM-schonendes Szenario gewählt)
DX12 FL 12_0 => Domäne AMD (stattdessen wird nur FL 11_0 genutzt)
AC => Domäne AMD, da in Hardware möglich (nVidia benutzt nicht den standardisierten AC-Pfad seitens MS respektive DirectX, sondern lässt dies auf einem eigens für nVidia-Karten geschriebenen AC-Pfad außerhalb der festgelegten Standards laufen, damit nicht auffällt, dass Pascal den DX-AC nicht in Hardware beherrscht)
 
Zuletzt bearbeitet:
Wenn du damit die GTX 970 ansprichst, das sollte sich jetzt doch mittlerweile bis ins letze Eck herumgesprochen haben. Da braucht man auch kein 3d Mark für. Ansonsten gibt es derzeit auch nur wenige Ausreißer auf dem Spielemarkt die >4GB GDDR5 benötigen.
 
Dai6oro schrieb:
Wenn du damit die GTX 970 ansprichst, das sollte sich jetzt doch mittlerweile bis ins letze Eck herumgesprochen haben. Da braucht man auch kein 3d Mark für. Ansonsten gibt es derzeit auch nur wenige Ausreißer auf dem Spielemarkt die >4GB GDDR5 benötigen.

Nicht explizit die 970, alle nVidia-Karten haben verglichen zu ihren AMD-Pandants weniger VRAM...
 
"AC is not supported by your GPU, aborting tests!". Fertig!!
Wieso sollte denn diese Meldung kommen? Jedes DX 12 Spiel (einschließlich dieses Benchmark) läuft ja auf NVIDIA Karten, da DX12 nur mehrere unterschiedliche Schlangen voraussetzt und es keine Aussagen darüber trifft, wie diese Schlangen jetzt abgearbeitet werden müssen. Eben das ist es, was man im Allgemeinen unter async compute Unterstützung versteht. Das Benchmark kann dementsprechend auch die Async Compute Unterstützung nur implizit ausnutzen, indem es eben mehrere Schlangen verwendetl. Das ist aber auch bei jeglicher DX12-Unterstützung möglich.

Nicht explizit die 970, alle nVidia-Karten haben verglichen zu ihren AMD-Pandants weniger VRAM...
Alle NVIDIA-Karten haben verglichen mit ihren AMD-Pandants weniger DRAM? Ist zum Beispiel die Fury X schon vergessen ? Wie wäre es, wenn das Benchmark also mehr als 4 GB benötigen und die Fury X deswegen meinetwegen deutlich schlechter als eine 980 TI werden würde? Wäre es dann nicht auch noch NVIDIA freundlich ? ;)

Auch das mit dem Feature-Level ist eine Kritik, wo der TE meines Erachtens will das der Entwickler Cherry Picking für AMD betreibt: Er meint 11_0 sei zu alt um performant auf AMD GPUs zu laufen und würde deshalb NVIDIA GPUs bevorzugen. Was wäre wenn der Entwickler das Feature Level 12_1 verwenden würde? Wäre dir das Feature level dann nicht wieder zu neu, weil es nur auf NVIDIA-Karten lauffähig wäre? Muss es also das Feature Level sein wo AMD am besten abschneidet?

Somit ist mehr oder weniger egal was der Entwickler verwendet, er ist immer Schuld wenn das Ergebnis nicht die Erwartungen der Fans erfüllt, egal aus welchem Lager sie kommen.
 
Zuletzt bearbeitet:
Schnixus schrieb:
EDIT: Warum wundert es mich überhaupt nicht, dass dieses Thema bei nVidiabase nicht mehr im Forumsticker auftaucht...

Tja... gute Frage... wenn man sich mal mit dem Ticker beschäftigt hätte müsste man sich nicht wundern. Aber das steht natürlich den Verschwörungstheorien im Weg...
 
Zurück
Oben