News DirectX 12: Disput zwischen Oxide und Nvidia geht weiter

Krautmaster

Oxide selbst sagt, dass das Spiel eigentlich kein für ACE optimiertes Game sei und andere Teams bereits mehr rausholen konnte. Da waren teils von 20-30% die Rede.
AMD "konservative" Einschätzung war bisher immer die 10%. Es wird mit Sicherheit mehr als 2% sein.

Bis sich DX 12 durchgesetzt hat dauert es ja noch mindestens ein Jahr .
Du kannst mal damit Rechnen dass kommende AMD Evolved Games DX12 unterstützten.
Zusätzlich jene XBOX ONE Games die auch auf den PC kommen.
DICE wird mit Sicherheit Star Wars Battlefront ebenso DX12 Fähig machen. Oder wieso wundert sich keiner, dass das Spiel mit R9 290X bei den Vorstellungen flüßiger liefen als noch BF4.

DX12 benötigt sicherlich mehr Aufwand als DX11, einfach weil hier neue Erfahrungen gemacht werden müssen. Aber was man so liest, gibt es offensichtlich doch genug Entwickler, die hier schon seit längeren hinter DX12 sitzten.
Und was ist dann in einem Jahr. Wird dann Pascal oder Artic Island gekauft ?
 
Zuletzt bearbeitet:
k0ntr schrieb:
Was soll dieses getralala? Man ist nicht gezwungen auf dx12 umzusteigen.

troll? Was soll das bitte heißen? Keine dx12 games spielen damit man kein schlechtes Gewissen hat, eine nvidia gekauft zu haben?
 
Nvidias Maxwell Chip galt bisher als reiner Gamer-Chip, nachdem man ihn ja auch der DP-Fähigkeit beraubt hatte. Die Flaggschiffe der Serie, die Titan X und die GTX 980 Ti, verkommen damit von einer reinen Gaming-Karte zu einer reinen DX11-Gaming-Karte ;) :D
 
Das wäre ja für Nvidia ja ein kleiner Rückschlag diesbezüglich man wirds sehen ob das eintrifft ich denke eher schon das die HBM haben werden und wenn nicht und sie können leistungstechnisch trotzdem mithalten dann haben sie wieder die besseren margen.
Ob das mit oxide jetzt Einzelfall ist wird sich zeigen wenn es mehr Spiele mit dx12 gibt dann könnte man sich mit bestimmt rund 15% weniger Leistung gegenüber AMD einstellen aber genug mit der wahrsagerei.
Das AMD auch auf 16nm statt 14nm geht macht soweit ich weiß keinen Unterschied abgesehen vom Lieferanten oder ?
 
hardwareguru schrieb:
Mich interessiert da eher wie eine Unreal 4 Engine auf DX 12 skaliert.Die wird wenigstens auch benutzt.

Würden die sich bei ARK mal mit dem DX12 Patch beeilen dann hätte man schon die ersten UE4 Benchmarks auf PCGH.de.
Die UE4 und Cry Engine dürften auf jeden Fall zeigen wer diesmal die Nase vorn hat.
Bei AMD hoffe ich mal das die richtig weit vorn liegen, ich würde mich gern weiterhin zwischen mehr als 1 Hersteller beim Kauf einer Grafikkarte entscheiden müssen.

PiPaPa schrieb:
Wo bleiben die Rufe das AMDs Architektur ja so dermaßen veraltet sei? :rolleyes:

Veraltet ist sie nicht aber hat das typische AMD Problem, man hat etwas geschaffen das wiedermal seiner Zeit vorraus war und zu dem Zeitpunkt nichts gebracht hat (echter Quad Core, Bulldozer Architektur).
Hätte man den ganzen Kram der mit DX12 wichtig ist damals weggelassen und dafür mehr Chipfläche für etwas genutzt was unter DX11 schneller ist hätte man die letzten Jahre weit stärkere Karten gehabt.
Die ganzen Vorteile der GCN Architektur hätte man auch mit den aktuellen Karten bringen können statt vorher Chipfläche dafür zu opfern.

Für meine 7970 ist der aktuelle Zustand natürlich super, die geht jetzt ins vierte Jahr und wird wohl auch unter DX12 noch gut dabei sein, bisher die beste Karte die ich jemals gekauft hab.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Auf diesen Quacksalber dieser Techdemo Spieleschmeide aka Oxide geb ich wenig. Da schenk ich sogar Nai 100 mal mehr Vertrauen ^^

In meinen Augen coden die eher Techdemos mit API Fokus als wirkliche Game Engines. Wenn man schlecht coded kann man immer Abgründe auf tun wenn man das will, gerade wenn man über spezifische APIs geht.
Na, gehen einem die Pseudonym Argumente aus und man muss anfangen zu diffamieren, nur weil es für nvidia diesmal Kacke aussieht?
 
@pipip

Mag alles sein aber das wird nur die Zukunft zeigen können. Ich erwarte bei Fiji auch mehr Zuwachs als bei Maxwell , generell, aber wie weit das geht wird sich zeigen. Mag sein dass die wegen dem Vram an anderer Stelle nen früheren Tod sterben ... Heute weiß ich nur eins. Die Sache was Oxide da gezeigt hat hat mit Game Engines nur im Entfernten was zu tun, genau wie das Swarm damals.
Zum Zeitpunkt X kauft man eben das Produkt welches da gut dasteht. Anstatt sich also in Prognosen auf Jahre zu verlaufen, auch noch von so Quellen, würde ich eher den aktuellen Markt anschauen und über legen wie das bei alten Dx Generationswechel so war :)

Edit.

@ Argumente ausgehen

Kindergarten? Argumente hast du dann wenn du daraus wirklich nen Vorteil ziehen kannst, bis dato ist es erstmal nur Spekulation in die Zukunft, wie beim VRam Bedarf auch. Die Fury X kann zB in 6 Monaten dadurch in manchen Dx12 Titeln vllt 20% zulegen ja. Kann, muss aber nicht. Kann genauso gut in 3 Jahren der Falls ein genau wie der VRam von 4GB vllt bei der Fury nie limitieren kann.
Dass dir Fanboy das jetzt natürlich für deine Nvidia Hetze entgegen kommt ist mir klar. Ich schreib dir ja schon seit Monaten dass DX12 eher AMD entgegen kommt, bin selbst auf Asyc Shadee gespannt und hoffe dass AMD dadurch gewinnt. Und jetzt? Ich hab mir dennoch ne 980 TI gekauft und wenn die zu lahm is kauf ich wieder das was mir am meisten zusagt ^^
 
Zuletzt bearbeitet:
Krautmaster

Das wurde schon oft genug besprochen und es gab dazu auch genug Aussagen von diversen Entwickler und insbesondere MS. Demnach dürfte DX12 sich wesentlich schneller durchsetzten als DX10 oder DX11. Der Grund ist einfach. DX10 war zu 9 nicht kompatibel. DX11 war es.
DX12 hingegen soll zu DX9 und 11 kompatibel sein, somit ist es eher abhängig, wie viel Entwickler und Publisher in DX12 investieren werden.
Da aber besonders MS im Zugzwang wegen der PS4 ist und man MS XBOX auch durch Windows 10 pushen möchte, auch von Crossplay und buy spricht, darfst du annahmen, dass MS stark hinter DX12 stehen wird.
AMD selbst spricht von ca 2 Jahren, wo sich DX12 großteils durchgesetzt hat. Es würde aber schon reichen, wenn wirklich große Titel bereits auf DX12 setzten.
Bei Maxwell waren ja wenige Titel wie Batman, Witcher 3 und GTA auch jene Titel ständig ein Argument. Am Ende waren die NV Karten nicht mal "schneller" (Batman jetz ausgeschlossen, weil ich die Benches da nicht so gut kenne), obwohl beispiel Witcher 3ein NV Titel ist.


//offtopic
Für mich interessant. Dinge Wie HDMI 2.0 ist entscheidend. Sowas wie ACE dann wieder nicht.
Dabei nützt HDMI 2.0 gerade mal für den Fernseher etwas, wenn man 40k 60 Hz zocken möchte. Denn HDCP 2.2 wird auch von den NV GPUs nur über Display Port und nicht HDMI 2.0 unterstützt.
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2930-august-2015
 
Zuletzt bearbeitet:
Es is ne Gameengine die wie bei Mantle (von und mit AMD als Partner) mit Fokus auf Draw Fall overload gecoded wurde. Beides spricht nicht gerade für Ausgewogenheit. Auf der einen Seite gegen Gameworks haten aber hier pro Neutralität der Engine und Entwickler argumentien wollen ;)
Viele Seite und auch Expertise im Forum hat dargelegt weshalb die Engine so aussagekräftig ist wie der API Test von 3D Mark. Schön zu sehen was man machen kann ja, wars dann aber auch schon.
 
Krautmaster schrieb:
Auf diesen Quacksalber dieser Techdemo Spieleschmeide aka Oxide geb ich wenig. Da schenk ich sogar Nai 100 mal mehr Vertrauen ^^
In meinen Augen coden die eher Techdemos mit API Fokus als wirkliche Game Engines. Wenn man schlecht coded kann man immer Abgründe auf tun wenn man das will, gerade wenn man über spezifische APIs geht.

Soso Quacksalber, ja du musst es ja wissen^^ Kennst du die Lebensläufe der Coder oder was...sry aber diese Aussage basiert auf deinem persönlichen Empfinden, ohne irgendwelche Fakten. Wer so argumentiert hat natürlich die große Ahnung:freak:
 
Krautmaster

Es kommen eh bald mehrere Titel. Die sind zwar auch von MS und Game Evolved, aber im Gegensatz zu Gameworks, kann man hier nicht von einer klaren Benachteiligung sprechen, weil für NV hier offensichtlich alles offen ist.
Es ist sogar NV eigene Empfehlung dass ACE für NV Karten deaktiviert werden soll. Viel dreister ist dann noch, dass NV auch verlangt haben soll, ACE für AMD zu deaktivieren.

Proxy One

Der Grund ist Context Switching, welches bei AMD einfach mächtiger umgesetzt wurde, weil dieses Feature eben für HSA und den APUs ebenso wichtiges Element ist.

http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Maxwell-asynchronous-Shader-1169742/
Grund für die schlechte Performance sei übrigens das auf Geforces notwendige Context-Switching, das hohe Latenzen hervorrufe – Selbiges gab bereits AMD in der Vergangenheit an. Angekreidet wird Nvidias öffentliche Kommunikation, da man selbst davon ausging, dass die Berechnungen auch auf Geforces funktionieren würden.

Die Info fehlt im CB-Beitrag.

afds-2011-phil-rogers-keynote-the-programmers-guide-to-the-apu-galaxy-11-728.jpg


Hier ist HSA sogar noch unter den alten Namen Fusion genannt. Da sieht man schön, dass Context Switching einer der genannten Ziele war.

Hier für Carrizo
Carrizo10.png
 
Zuletzt bearbeitet:
Proxy One schrieb:
Laut http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading besitzen auch Maxwell-Chips Asynchronus Compute Engines.
Im Spieleeinsatz kommen theretische Performancevorteile leider nur selten an...der Entwickler hätte sich vorher besser informieren sollen anstatt mit Vermutungen soviele Gemüter zu erhitzen.

Lies den CB Text lieber nochmal ,das Maxwell die auch hat ist hier jeden zu 100% klar.
Hier gehts es darum das die Maxwell Variante Schrott ist.

In dem Fall ist es schon ein Spiel und kein Benchmarktest der mit der Realität nichts zutun hat.
 
Zuletzt bearbeitet:
DX ist an sich nix anderes als ne Schnittstelle. Das Game selber sieht hauptsächlich DX. DX sieht nur die GraKa. Anders formuliert: AMD hat seine Hausaufgaben gemacht und NV nicht. Oder noch schlimmer: Bei NV liegt der Hund sehr sehr tief begraben.

Auf jeden Fall kann AMD Treiber machen, NV wohl nicht. :)
 
Krautmaster schrieb:
Es is ne Gameengine die wie bei Mantle (von und mit AMD als Partner) mit Fokus auf Draw Fall overload gecoded wurde. Beides spricht nicht gerade für Ausgewogenheit. Auf der einen Seite gegen Gameworks haten aber hier pro Neutralität der Engine und Entwickler argumentien wollen ;)
Viele Seite und auch Expertise im Forum hat dargelegt weshalb die Engine so aussagekräftig ist wie der API Test von 3D Mark. Schön zu sehen was man machen kann ja, wars dann aber auch schon.
Gameworks ist offen?
Gameworks ist Bestandteil einer Standard API, die jeder Hardware Hersteller ansprechen kann?

Die Engine wurde entsprechend entworfen um entsprechend viele Einheiten eines Strategiespiels darstellen zu können. Sie nutzt die Fähigkeiten von Mantle und DX12 (und letzteres ist ja so toll von nvidia unterstützt) um die entsprechende Leistung abzurufen.
Die AS kann nvidia genauso anbieten. Ist doch DX12 Hardware und laut "kisser" & Co ist doch nvidia schon seit Jahren an der DX12 Entwicklung dran... Ja komisch...

Ach noch was. Bei Project Cars brauchte man diese Draw Calls unter DX11, gell? :rolleyes:

Du stellt dich hierhin, beleidigst einen offenbar fähigen Gameengine Entwickler, der die vorhandenen Ressourcen nutzt....
Aber vermutlich war John Carmack auch nur ein Scharlatan als er T&L in Quake 3 ARENA nutzte um die Details zu erhöhen.
 
pipip schrieb:
Demnach dürfte DX12 sich wesentlich schneller durchsetzten als DX10 oder DX11. Der Grund ist einfach. DX10 war zu 9 nicht kompatibel. DX11 war es. DX12 hingegen soll zu DX9 und 11 kompatibel sein, somit ist es eher abhängig, wie viel Entwickler und Publisher in DX12 investieren werden.
Was bitte ist den das hier für eine "bekloppte" Aussage: "DX12 hingegen soll zu DX9 und 11 kompatibel sein"? WTF??!!!
 
Zurück
Oben