Test Hitman Benchmarks: DirectX 12 hebt das CPU-Limit massiv an

Krautmaster schrieb:
naja was man auf die Balken geben kann sagt ja schon diese Passage bei PCGH :rolleyes:

Wenn du weitergelesen hättest wäre dir aufgefallen, dass dies momentan nur ein auf nVidia-Karten auftretendes Phänomen ist. Die beiden PCGH-Benchmark-Gurus halten dies für ein reines Treiberproblem, da es mit den Radeons noch runder läuft. Des weiteren sind so stark untertaktete CPUs nicht unbedingt ein realistisches Spieleszenario ;)
 
kisser schrieb:
Es geht doch nicht darum, die Lebenszeit von DX11 zu verlängern! Schau doch mal, wo AMD heute steht trotz der seit Jahren leistungsfähigen Hardware!
Vor 4 Jahren war man mit der 7970 und 2048 Shadern gegenüber GTX 680 (1536 Shader) nicht überlegen, die R290 mit 2880 Shadern hatte gegen die GTX 970 mit 1664 Shadern zu kämpfen usw.... All die Jahre hat man die enorme Rechenleistung wegen der Treiber nicht ausnutzen können, der Marktanteil ist kontinuierlich gesunken bis auf unter 20%. AMD könnte heute viel besser dastehen, wenn sie im Stande gewesen wären, leistungsfähige Treiber zu programmieren.

AMD hätte sich auf denn Kopf stellen können und trotzdem wäre, dank Microsoft DirectX 11, keine bessere Performance zu erreichen gewesen. Darum entwickelten sie Mantle. Und das führt zu DirectX 12 und Vulkan.
 
merkt eigentlich keiner, dass da 780(ti) fehlen? Was soll das? warum tut ihr so, als wenn die Karten nicht mehr existieren? Aber die 770 weit hinter der 960...das ist einfach nur peinlich und dreist. Wenn das so weitergeht, dass Kepler künstlich so abgewertet wird, war die 980 meine letzte Nvidia. Nur schade, dass ich sie erst vor 2 Monaten gekauft hab.


Na ja, in der Praxis kommen bei der 970/980 20-30% Coretakt dazu. Bei den 390er ist kaum OC möglich, in der Realität werden sie sich also annähern. Für Kepler-Besitzer trotzdem eine Frechheit.
 
Zuletzt bearbeitet:
Aber die 770 weit hinter der 960...das ist einfach nur peinlich und dreist.
2GB VRAM vs 4GB. Jede Wette, dass das daran liegt - guck dir an, wo bei PCGH die 270X mit ihren 2GB steht.

NV hat bei Kepler einfach generell zu wenig Speicher verbaut, das rächt sich jetzt schon seit längerem mit quasi jeder Neuerscheinung.
 
möglich...ein Grund mehr, warum es doof ist, hier keine alten Titan oder eine 780 mitzutesten. Mesit reicht der Speicher aber, die fps werden bei den Einstellungen eh zu knapp. Die hätten ja wenigstens schreiben können, wieviel GB die 380/960/770 hat. Irgendwie kein besonders weit-denkender Benchmark.

Aber der PCGH test ist realistischer, dort stehen die 980(ti) viel weiter oben, weil eben so gut wie niemand eine Maxwell-Karte mit "default" takt betreibt. Und selbst 1316mhz ist noch sehr wenig.
 
Zuletzt bearbeitet:
Schoen waere auch die alten Phenom X4 und X6 nochmal mit High End Karten antreten zu lassen.

Die sind ja auch noch ordentlich verbreitet.
 
kisser schrieb:
der Marktanteil ist kontinuierlich gesunken bis auf unter 20%. AMD könnte heute viel besser dastehen, wenn sie im Stande gewesen wären, leistungsfähige Treiber zu programmieren.
Jetzt ist AMD also Schuld an Gameworks? Es sollte inzwischen klar sein, dass Nvidia gezielt Sabotage betrieben hat.
 
Also auf der 380 Nitro werden je nach Szenario zwischen 3,5 und 4 GB genutzt, daher sind 4 GB wohl pflicht und mehr empfohlen.

Mit 3 GiByte Speicher stehen lediglich hohe Texturdetails zur Verfügung, zudem können wir als maximale Auflösung 1.920 × 1.080 auswählen.
Zitat: pcgameshardware
 
Ned Flanders schrieb:
Schoen waere auch die alten Phenom X4 und X6 nochmal mit High End Karten antreten zu lassen.

Die sind ja auch noch ordentlich verbreitet.

Ja, zum Beispiel bei mir. :D
X6 1100T zusammen mit einer FuryX.
Leider hab ich das Spiel nicht, sonst hätte ich benchen können.
 
Dass 780er Karten komplett fehlen finde ich sehr seltsam. Ich denke es gibt noch ei e Menge Spieler mit diesen Karten.
 
@an alle PROs hier

Ich hab mir das mal durchgelesen und auch seite um seite, aber könnte man jemand hier mal sagen was das für die zukunft heisst, nvidia oder amd?

MfG Syrato
 
persönliche Meinung. 16/14nm Modelle abwarten. Da wird neu gewürfelt. Ergo Sommer. Im Zweifelsfall und eines ausgeglichenen Marktes willen eher Pro AMD.

zeedy schrieb:
Dass 780er Karten komplett fehlen finde ich sehr seltsam. Ich denke es gibt noch ei e Menge Spieler mit diesen Karten.

denke das is eher Nebeneffekt von wenigen Tagen Testzeit (DX12 nur 1 Tag) und eben 2 API = doppelte Arbeit.

Dazu kam in letzter Zeit recht viel spitz auf knapp, the Division, neue Treiber, Tomb Raider will sicher auch noch DX12 getestet werden, viel Arbeit.
 
Zuletzt bearbeitet:
@Syrato
Das wird die Zukunft zeigen.
Die DX12 ist noch zu neu und die Treiber noch nicht (genug) optimiert.

Ebenso sollte man sowohl bei NV als auch bei AMD die nächste Gen abwarten.
 
kisser schrieb:
All die Jahre hat man die enorme Rechenleistung wegen der Treiber nicht ausnutzen können, der Marktanteil ist kontinuierlich gesunken bis auf unter 20%. AMD könnte heute viel besser dastehen, wenn sie im Stande gewesen wären, leistungsfähige Treiber zu programmieren.

Ich kenne mich mit GPU-Architekturen, APIs und Treibern nicht aus, aber ich glaube dass mehr dazu gehört, als nur fähige Treiberprogrammierungen und dass die Verzahnungen zwischen diesen Ebenen weitaus komplexer sind als der Laie annimmt. Wovon soll ich ausgehen? Dass AMD jahrelang zu dusselig gewesen ist bessere Treiber zu entwickeln, oder dass das Zusammenspiel aus und vorhandener API zumindestens nicht gerade vorteilhaft für eine bessere Treiber-Performance gewesen ist? Ich halte Letzteres für wahrscheinlicher. Unterschiedliche Chip-Architekturen und APIs haben nun einmal unterschiedliche Stärken und Schwächen.

@Syrato
Das kann man noch nicht abschließend sagen. Derzeit sieht es so aus, dass AMD unter DirectX12 schneller oder zumindest nicht langsamer als Nvidia sein wird (sobald Async Compute zum Einsatz kommt). Außerdem tritt die CPU im Einzelfall noch weiter in den Hintergrund. Ob es für eine Wachablösung auf dem Grafikkarten-Thron reichen wird, muss sich erst noch zeigen.
 
Zuletzt bearbeitet:
@VikingGe
Da du die 270X und die Benches von PCGH ansprichst ist mir da etwas in meinen Augen sehr seltsames aufgefallen.
Unter DX11 hat diese über doppelt soviele FPS wie unter DX12
DX11: 30,1 FPS Average (26 FPS Min)
DX12: 14,4 FPS Average (12 FPS Min )

Kann sich das einer erklären?
 
^^Ich vermute eher das der Polygon-Count stark nach oben geht wenn sich Windows 10 aka DX12 stärker verbreitet hat. Dann wird mit Low End CPUs genauso wenig Staat zu machen sein wie heute.
 
JJJT schrieb:
@VikingGe
Da du die 270X und die Benches von PCGH ansprichst ist mir da etwas in meinen Augen sehr seltsames aufgefallen.
Unter DX11 hat diese über doppelt soviele FPS wie unter DX12
DX11: 30,1 FPS Average (26 FPS Min)
DX12: 14,4 FPS Average (12 FPS Min )

Kann sich das einer erklären?

​Kein DX 12 Hardware Support!
Es muss also alles auf die CPU aufgelagert werden.
 
Zuletzt bearbeitet:
Mich wundert es, daß hier seitenweise fast immer noch nur über die DX12-Leistung geredet wird, während die DX11-Leistung in diesem Spiel in etwa das selbe Resultat ergibt:
AMD ca. 40% schneller als NVidia bei den direkten Konkurrent-Karten.

So kleinere Schwankungen sind ja normal (+/- 10%), aber bei so eklatanten Abweichungen würde mich schon mal interessieren, was da die Ursache ist. DX12 ist es (wie wir sehen) jedenfalls nicht.

Azuro schrieb:
AMD hätte sich auf denn Kopf stellen können und trotzdem wäre, dank Microsoft DirectX 11, keine bessere Performance zu erreichen gewesen. Darum entwickelten sie Mantle. Und das führt zu DirectX 12 und Vulkan.
Ja, aber daran sind sie doch selbst schuld oder nicht?
AMD hat eben eine Architektur entwickelt, die unter den gegebenen Bedingungen nicht wirklich effizient war.
Warum die das gemacht haben, weiß ich nicht. Aber ganz sicher nicht, um erst Jahre später Mantle zu entwickeln bzw. von DX12 zu profitieren, um bis dahin dramatisch viel Marktanteile abzugeben.
 
Zurück
Oben