Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

Cooler Test! Vor allem der Teil mit gemischtem Dualbetrieb!

Ich bin extrem gespannt wie es weiter geht mit DX12! Mal gucken, ob NV es wieder schafft mit Gameworksmist AMD bei kommenden DX12 Titeln schlecht da stehen zu lassen. Ich denke nämlich nicht, dass sich so ein krasser unterschied wie hier in AotS auch bei anderen Games finden wird. Aber mal gucken ;)
 
Maik.x schrieb:
Ich zitiere mal vom PCGH Test der das ganze nüchterner und nicht auf Bildzeitungs-Niveau abhandelt

"An dieser Stelle ist eine Anmerkung nötig..... Leider war bis zum Fall des NDAs kein Geforce-Treiber für Ashes of the Singularity zu bekommen, ebensowenig konnte man uns Auskunft über Async Compute erteilen. Von AMD erhielten wir hingegen einen speziellen Treiber. In diesem Zusammenhang müssen wir also darauf hinweisen, dass AMD zumindest in der Theorie einen treiber- wie entwicklungstechnischen Vorsprung gegenüber Nvidia besitzt und die Ergebnisse daher etwas einseitig ausfallen könnten. Auch sollte nicht ausschließlich von den Ergebnissen in diesem Benchmark auf die Spieleperformance unter DirectX 12 geschlossen werden."

Also einfach mal abwarten anstatt dieses Fanboygejaule von beiden Seiten

witzig das wenn amd mal nen treiber als erstes hat das ganz fett markiert hat wenns bei nvidia so ist liest man das nicht xDD

ich muss echt sagen da saßen sehr gute programmierer am werk und hoffe das andere studios eine ähnlich gute leistung abliefern so wie oxide games

muss man echt mal lob an den entwickler aussprechen das sie einfach schon alles unterstützen von multigpu mit amd und nvidia ohne irgendwelche probleme und asynchrone shader echt klasse hoffe die anderen spiele werden genauso gut :D
 
hrafnagaldr schrieb:
Die werden das sicher in der Hardware haben, was anderes kann sich NVidia nicht leisten. Bei Maxwell siehts ziemlich nach der lange gemutmaßten Softwareemulation aus.

http://www.extremetech.com/extreme/...ading-amd-nvidia-and-dx12-what-we-know-so-far
“On future GPUs, we’re working to enable finer-grained preemption, but that’s still a long way off.”

Und die News stammt vom 8 Sep. letztes Jahres. Das wäre bereits nach dem angeblichen "Tape Out" gewesen.

burnbabyburn2 schrieb:
Warum hat Nvidia nie etwas darüber gesagt bis jetzt ? Ist ein ziemlich schlechtes Marketing, dass einzige was gesagt wurde Mixed Precision support, und NVlink aber nichts über Async Compute

Wobei letzte Gerüchte davon reden, dass Mixed Precision eventuell gar nicht die Single-Doubl Precision Ratio betrifft sondern eher die Single und HalfSingle Precision. So kommt auch die angebliche 10 fache Performance her. NV hatte sowas ähnliches schon mal mit einem Tegra vorgestellt, wo sie von 1 Gflops gesprochen habe und sich dann 16Bit herausgestellt hat.

NV Link ist auch interessant, betrifft aber am Ende nur IBM Server.
 
Zuletzt bearbeitet:
Maik.x schrieb:
Ich zitiere mal vom PCGH Test der das ganze nüchterner und nicht auf Bildzeitungs-Niveau abhandelt

"An dieser Stelle ist eine Anmerkung nötig..... Leider war bis zum Fall des NDAs kein Geforce-Treiber für Ashes of the Singularity zu bekommen, ebensowenig konnte man uns Auskunft über Async Compute erteilen. Von AMD erhielten wir hingegen einen speziellen Treiber. In diesem Zusammenhang müssen wir also darauf hinweisen, dass AMD zumindest in der Theorie einen treiber- wie entwicklungstechnischen Vorsprung gegenüber Nvidia besitzt und die Ergebnisse daher etwas einseitig ausfallen könnten. Auch sollte nicht ausschließlich von den Ergebnissen in diesem Benchmark auf die Spieleperformance unter DirectX 12 geschlossen werden."

Also einfach mal abwarten anstatt dieses Fanboygejaule von beiden Seiten

Ich glaub das sich die Leute erwarten, dass NV GPUs genauso zulegen werden, das ist ausgeschlossen die Performance wird sich in etwa an DX11 orientieren und da hat NV sehr wohl schon nachgelegt und das mehrmals
 
Maik.x schrieb:
Ich zitiere mal vom PCGH Test der das ganze nüchterner und nicht auf Bildzeitungs-Niveau abhandelt

"An dieser Stelle ist eine Anmerkung nötig..... Leider war bis zum Fall des NDAs kein Geforce-Treiber für Ashes of the Singularity zu bekommen, ebensowenig konnte man uns Auskunft über Async Compute erteilen. Von AMD erhielten wir hingegen einen speziellen Treiber. In diesem Zusammenhang müssen wir also darauf hinweisen, dass AMD zumindest in der Theorie einen treiber- wie entwicklungstechnischen Vorsprung gegenüber Nvidia besitzt und die Ergebnisse daher etwas einseitig ausfallen könnten. Auch sollte nicht ausschließlich von den Ergebnissen in diesem Benchmark auf die Spieleperformance unter DirectX 12 geschlossen werden."

Also einfach mal abwarten anstatt dieses Fanboygejaule von beiden Seiten

ja mai für nen fuffi schreibt man sowas eben wenn nvidia lieb bittet... wäre dann sicher das erste mal das nvidia medien , publisher und studios dazu drängt sie besser dar stehen zu lassen oder ?wer die ironie findet darf sie behalten
 
Das sind mal echt geile Ergebnisse für AMD :) Bin echt gespannt wie es dann bei Titel wie Deus ex und Hitman dann aussieht.
 
Was soll eigentlich schon wieder das rumgequarke es sei nicht aussage kräftig da Beta Software.

Wär es umgekehrt und Nvidia würde nen schub bekommen, hätte man wieder AMD nieder gemacht wie scheiße doch deren Treiber sind.

Wo man Nvidia aber loben kann ist das wie man sieht mit DX12 nicht mehr viel rauszuholen ist im Gegensatz zu DX11 da deren DX11 Treiber verdammt gut sind.
 
Den Sprung der Grafikkarten unter DX12 find ich schon heftig, aber wie die FX-CPUs zulegen! Da fällt mir nichts zu ein, außer: WTF???
 
Wenn man mal die angegebenen SP und DP Rechenleistungen der Karten vergleicht, dann hat eine Fury X mit ca. 8TFlop/s SP gegenüber der GTX 980Ti mit ca. 5TFlop/s SP schon ein Puffer. Diese theoretische Rechenleistung sollte sich eben unter idealen Bedingungen auch Praktisch nutzen lassen. Bisher profitierte man bei Nvidia von einer begrenzenden API.
Auch interessant: Die 4GB HBM können scheinbar auch die hohe Bandbreite endlich nutzen. Denn es hieß oft das die 4GB schnell eine Bremse werden müssen.

Klar ist, dass mehr Rechenleistung auch mehr Strom verbraucht. Das weiß man aber längst das die Fury X keine Effizienzspitze ist.

Bin gespannt wie das weiter geht.
 
@ pipip
NVIDIA redete von Preemption - also vorzeitiges Beenden der Rendering-Schlange, was eben momentan nur an Draw-Call-Boundaries unterstützt wird. Das ist nicht das was man unter Async-Compute versteht.
 
freut mich für amd. ob nvidia davon was hat oder nicht ist mir latte, da ich eine 380 verbaut habe. ein wirklich schöner test. ich vermute mal das es bei hitman dank der AC nutzung ähnlich ablaufen wird.

gruß
 
'Beeindruckend' trifft es sehr gut, wie ich finde.

DX12 und Vulkan machen die nächsten Monate und Jahre spannend.
 
gabbercopter schrieb:
ja mai für nen fuffi schreibt man sowas eben wenn nvidia lieb bittet... wäre dann sicher das erste mal das nvidia medien , publisher und studios dazu drängt sie besser dar stehen zu lassen oder ?wer die ironie findet darf sie behalten

Ein Benchmark von einem Spiel, das in enger Zusammenarbeit mit AMD entwickelt wird und noch nicht mal fertig ist, als sichere Prognose für zukünftige Spiele/Performance zu nehmen, erscheint mir etwas naiv
 
Maik.x schrieb:
Ein Benchmark von einem Spiel, das in enger Zusammenarbeit mit AMD entwickelt wird und noch nicht mal fertig ist, als sichere Prognose für zukünftige Spiele/Performance zu nehmen, erscheint mir etwas naiv

also quasie das selbe was jeder nvidia fanboy seid jahren mit gameworks titeln tut ja? ...funny
 
Maik.x schrieb:
Ein Benchmark von einem Spiel, das in enger Zusammenarbeit mit AMD entwickelt wird und noch nicht mal fertig ist, als sichere Prognose für zukünftige Spiele/Performance zu nehmen, erscheint mir etwas naiv

Auch Nvidia wurde eine enge Zusammenarbeit angetragen, hatte aber mal wieder seine eigenen Vorstellungen dazu:

Entwickler beugt sich Nvidia-Forderungen nicht

Nach Angaben von Oxide Games habe Nvidia einige falsche Aussagen getroffen. Die PR-Abteilung von Nvidia habe auf die Entwickler Druck ausgeübt, damit sie bestimmte Einstellungen im Ashes-of-Singularity-Benchmark deaktivieren. Oxide Games habe diese Forderungen abgelehnt, was Nvidia "ein bisschen zu persönlich genommen habe".


http://www.heise.de/newsticker/meldung/Async-Shaders-Fehlende-DirectX-12-Funktion-auf-Nvidia-Grafikkarten-ein-vollkommenes-Desaster-2801497.html
 
hrafnagaldr schrieb:

Die Ergebnisse sind nicht unerwartet, es fehlt der Nvidia Treiber. Blöd ist das man "W10" braucht (verschrieben) was momentan keiner haben will und man dann momentan nur davon profitiert wenn man auch Ashes spielt. Bisher zeigt es wo es in den nächsten Jahren hingeht, aber ich kann die ganzen Schwarzseher die den Untergang von Nvidia prophezeien wieder mal nicht verstehen.
 
Damit werde ich wohl seit der 8800GTX wieder ein Dickschiff von GPU kaufen nur diesmal von AMD.
Wenn AMD es noch hin bekommt die ZeroCore Funktion für meine alte 290er neben einer Polaris GPU zum laufen zu bekommen dann lache ich umso mehr.

Für Hitman erwarte ich jedoch kaum Vorteile für AMD da es sich um Square Enix(saftladen) handelt und es auch das falsche Genre für massiv drawclaws ist.

Auch hoffe ich das die breite Masse an DX12 Spielen einen brauchbaren MultiGPUsupport hat, sprich das es DX12 einfach mitbringt und nicht groß dran optimiert werden muss um an mind. +-50% der zweiten GPU Rohleistung zu kommen.
Mit Optimierungen ggf. mehr.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben