News DirectX 12: Disput zwischen Oxide und Nvidia geht weiter

berkeley schrieb:
Habe mir die Seite mal durchgelesen, ihr streitet euch über Marktanteile von AMD und Nvidia. Die 75% vs 25% beziehen sich ausschließlich! auf die dedizierten GPUs!

*schnipp*

Also muss fairerweise auch der Gesamtmarktanteil AMD vs Nvidia verglichen werden, auch wenn Nvidia ausschließlich dedizierte Grakas anbietet.

Insofern sind AMDs Marktanteile für die Entwickler nicht zu vernachlässigen. Das wissen die Entwickler auch selbst ganz genau.
Und bei der Ganzen Auflistung sind all die AMD GPUs in den Kosolen nicht mal mitgezählt.

Das heißt also Konkret, allein die GCN(1,X) Architektur, welche eben für Entwickler relevant ist, hat wesentlich mehr Marktanteile als ganz Nvidia zusammen.

endlich mal ein vernünftiger post seit langem hier.

@Krautmaster:
eieiei schon eskalieren die AMD Jünger wieder ^^

Jungs... es ging schlicht darum dass sich der Anteil schlecht entwickelt hat und dass Marktanteil wichtig is, egal ob das heuet 18 oder 24% sind. Die Quelle hab ich nur gepostet da die 80% abgestritten wurde, was ich korrigiert hab... nicht wegen mehr und nicht wegen weniger.

@Iscaran

30%... schön wärs ja, frag mich allerdings eher was den Aktuellen recht massiven Trend der letzten 10 Monate ändern soll? Eine Fury Nano für ~600€?
Mag sein dass die 3XX Karten das etwas verlangsamen aber es braucht eigentlich eher noch Karten darunter. Aber wie gesagt, sieht man ja dann... 30% wären mir auch lieber

Wer eskaliert hier ? Ich habe lediglich eine Frage aufgeworfen - nämlich warum die Zahl im Bild und die Zahl in der Quelle nicht übereinstimmt.
Der einzige der jetzt alles relativiert bist du (18% hab ich nie gemeint, es ging mit nur um den Trend etc.)

Dann sag es doch in 2 Sätzen...der Trend ist AMD verliert aktuell anteile statt 50 Zeilen und 3 Falsche links mit falschen Bildern zu posten. So etwas ist nämlich genau wie von max1234 konstatiert => Meinungsmache.

Wenn es dir um den Trend geht - ja AMD hat seit 1 Jahr Anteile verloren.

IMO ist dieser Trend der ganzen Marketingkatastrophe um R9 200 geschuldet...die eben JETZT langsam in Marktzahlen aufschlägt. Ihr dürft nicht vergessen dass das Gros an "Umsatz" nicht mit den aktuellsten Modellen gemacht wird sondern mit Modellen von vor 1 oder 2 Quartalen.

Ob der Trend so weitergeht ist Spekulation.
Du sagst ja geht so weiter und AMD ist in 2 Jahren bei ~0%.
Ich sage das ist ein Durchhänger der sich wieder gibt.

Außerdem muss man die Zahlen wie berkeley schon sagt ein bisschen genauer betrachten.
Mercury gibt an "Desktop"-Consumer Karten zu untersuchen, Jon Peddie untersucht AIBs aller Art vom Server bis zum Desktop.
=> 18% bei JP sind != 24% bei Mercury da "anderer Datensatz".
 
Die reddit Meldung ist völliger Bullshit, weil man compute shader nicht auf die CPU auslagern kann.
Die im Thread hier verlinkten synthetischen Benches zeigen ganz klar, dass alle Shader auf der GPU berechnet werden, aber eben nacheinander und nicht parallel.
 
Zuletzt bearbeitet:
kisser schrieb:
weil man compute shader nicht auf die CPU auslagern kann.

aber kompiliert - kann aber auch nur als solches zu erkennen sein, was es nicht ist. Da beides nicht exakt bewiesen ist, ist erstmal nichts bullshit ( außer offensichtliches natürlich ) klar ;)
 
Zuletzt bearbeitet:
Das schlimmste ist doch an sich nur nVidias Umgang mit dieser Chose.
Zuerst diskreditieren sie Oxide Games, indem sie lauthals verkünden, dass diese einen MSAA-Bug in ihrem Code haben während sie gleichzeitig das Statement bringen, dass AotS kein gutes Beispiel für ein DX12 Spiel ist.

Nun ist das Image von Oxide angeknackst, sie erläutern, dass der Fehler in nVidias Treiber und nicht in ihrem Code zu suchen ist und verkünden nebenbei, dass nVidias neueste Maxwell-Generation, die lauthals mit vollster DX12- Unterstützung beworben wurde einen speziellen Renderpfad ohne Async-Shader benötigt, da diese API-spezifische Technik (die also standardmäßig verwendet werden sollte) hardwareseitig katastrophal läuft.

Wieso hat nVidia angefangen, Oxides AotS öffentlichkeitswirksam runterzubuttern? Weil Oxide sich gegen nVidias Anliegen gewehrt hat, Async Shaders auch für AMD-Karten abzuschalten. Nun sehen wir, dass je nach Test eine 290X mit einer 980Ti mithalten kann.
Das wird nVidia nicht geschmeckt haben, weshalb sie einen DX12 Standard, den der Konkurrent besser beherrscht als die eigene Hardware ausschalten wollten. An sich ist diese Bitte eine reine Frechheit^^
nVidias Reaktion darauf, dass die ganze Geschichte öffentlich wurde ist die in der Politik beliebte Aussitztaktik. Man sagt kein Wort und wartet bis alles im Sande verlaufen ist und die Fanboys in den Foren jede Gegenmeinung erstickt haben.
nVidias Reaktion auf dieses Thema ist wie immer unter aller Sau! Anstatt öffentlich sich hinzustellen und die Sache zu erklären, macht man nichts.

Niemand weiß, inwiefern der fehlende Async-Support sich auswirken wird. Vermutlich wird es nicht der Gamechanger sein, aber aus AMDs-Karten ein nettes kleines Leistungsplus rauskitzeln, gegeben der Tatsache, dass AotS gar keinen Fokus auf ACEs legt und trotzdem profitiert. Es wird kein Weltuntergang für Maxwell sein und dennoch kann sich hier doch niemand offen hinstellen und nVidia in diesen Belangen verteidigen? (Außer ein gewisser Sontin/Sergeant). Aber solche Verblendung hat man bereits bei der verkrüppelten Speicheranbindung der 970 oder der Kyro-Lüge gesehen.
 
BookerDeWitt schrieb:
Wieso hat nVidia angefangen, Oxides AotS öffentlichkeitswirksam runterzubuttern? Weil Oxide sich gegen nVidias Anliegen gewehrt hat, Async Shaders auch für AMD-Karten abzuschalten. Nun sehen wir, dass je nach Test eine 290X mit einer 980Ti mithalten kann.
Das wird nVidia nicht geschmeckt haben, weshalb sie einen DX12 Standard, den der Konkurrent besser beherrscht als die eigene Hardware ausschalten wollten. An sich ist diese Bitte eine reine Frechheit^^
nVidias Reaktion darauf, dass die ganze Geschichte öffentlich wurde ist die in der Politik beliebte Aussitztaktik. Man sagt kein Wort und wartet bis alles im Sande verlaufen ist und die Fanboys in den Foren jede Gegenmeinung erstickt haben.
nVidias Reaktion auf dieses Thema ist wie immer unter aller Sau! Anstatt öffentlich sich hinzustellen und die Sache zu erklären, macht man nichts.

Niemand weiß, inwiefern der fehlende Async-Support sich auswirken wird. Vermutlich wird es nicht der Gamechanger sein, aber aus AMDs-Karten ein nettes kleines Leistungsplus rauskitzeln, gegeben der Tatsache, dass AotS gar keinen Fokus auf ACEs legt und trotzdem profitiert. Es wird kein Weltuntergang für Maxwell sein und dennoch kann sich hier doch niemand offen hinstellen und nVidia in diesen Belangen verteidigen? (Außer ein gewisser Sontin/Sergeant). Aber solche Verblendung hat man bereits bei der verkrüppelten Speicheranbindung der 970 oder der Kyro-Lüge gesehen.

Ich könnte mir vorstellen, dass es nicht der Gamechanger wird, WEIL Nvidia es nicht kann.
Man erinnere sich an DX 10.1
Auf einmal so gut wie nicht existent...

Ich wette, dass Async-Shader total unwichtig werden.
Nicht weil sie nichts bringen, sondern weil Nvidia es nicht kann.
Und das bittere daran: Win Situation für Nvidia...
 
Zuletzt bearbeitet:
Da gab es aber auch keine Konsolen die das selbe haben wie der mit seinen dGPUs worauf explizit entwickelt und optimiert wird. Täusch dich da mal nicht. Die kommenden Titel nutzen es jedenfalls alle. Mal sehen was dann am PC davon ankommt - erst dann ist eine Tendenzielle Beurteilung der Adaption erst möglich. Alles andere ist buzzbingo.
 
Zuletzt bearbeitet:
derGrimm schrieb:
Ich wette, dass Async-Shader total unwichtig werden.
Nicht weil sie nichts bringen, sondern weil Nvidia es nicht kann.
Und das bittere daran: Win Situation für Nvidia...

Wäre kein neues Verhalten aber GCN wurde durch APUs +Konsolen +Diskrete GPUs doch schon etwas mehr verbreitet, sodass man es vielleicht doch nicht ignorieren kann ;)

(In diesem Fall sollte man nicht die Marktanteile der Diskreten GPUs alleine sehen)
 
Man stelle sich vor, die Architektur von Pascal ist schon fertig, basierend auf eine Evolution des Maxwell.
Optimiert in allen Bereichen und würde in DX12 ähnlich performen...

Nvidia wird sicherlich alles dran setzten, über Einfluss, Geld und Marktmacht die Entwickler daran zu hintern, das Feature Async Compute einzusetzen.

Das Problem hier ist, das nicht nur die AMD-GPU Besitzer, sondern die Nvidia-GPU Besitzer eingebremst werden und Leittragenden sind.
Die CPU wird nicht wie versprochen entlastet, der Sandy hält nicht mehr so lange wie es sich viele wünschen, die Grafikkarte könnte aus DX12 weit aus mehr rausholen, usw...

Es bleibt einzig zu hoffen, das MS und Sony für Ihre Konsolen diese DX12/Vulkan/Mantle Features maximal ausrollen werden, da dies meiner Meinung nach der einzige Weg ist, die im Gegensatz zum HighEnd Gamer PC begrenzt leistungsfähige Hardware, eine weit aus stärkere Performance rauszuholen.

Vielleicht hat AMD diesmal ja gut Schach gespielt und über die SoC´s, GCN und zukünftigen ZEN in Kombination mit DX12/Mantle/Vulkan Nvidia und Intel die Dame geklaut :)
 
Nvidia ist in einer ganz schwachen Situation.

Miccrosoft ist überhaupt nicht gezwungen, die DX-API anders als nach eigenen Wünschen zu gestalten. Und MS wird sicherlich nicht zulassen, dass aus Rücksichtnahme auf Nvidia die eigenen Produkte künstlich eingebremst werden.

Eher wird Nvidia von MS ausgebremst.
 
Iscaran schrieb:
Na klar...so wie PhysiXs ja auch keine CPU bremse enthielt damals ? Und der Fallbackpfad für GPU-Physics künstlich auf 1 CPU Kern beschränkt war damit man nicht gefahr lief das tolle feature zu verlieren.
http://semiaccurate.com/2010/07/07/nvidia-purposefully-hobbles-physx-cpu/
http://www.realworldtech.com/physx87/

Ich bin nicht paranoid...ich habe nur ein paar Jahre Erinnerung an die Entwicklung.

Den Fallback Pfad schreibt ja nicht Nvidia sondern der Entwickler des games (zumindest steht ihm die Möglichkeit frei) das Nvidia natürlich keine großen Ressourcen aufwenden wird damit ihre Technik auf anderen Herstellern läuft ist logisch. Aber der Entwickler kann in seinem code einen fallback integrieren der greift wenn keine Nvidia Physx GPU vorhanden ist und was der dann wie macht entscheidet der coder und nicht Nvidia. Aber hat eigentlich wenig mit DX 12 zu tun imho sondern eher mit game Entwicklung generell und damit das sich die Entwickler leider auf viel zu viele vorgefertigte Bibliotheken verlassen anstatt es selbst richtig zu machen.
 
Prozessor Knox schrieb:
Nvidia ist in einer ganz schwachen Situation.

Miccrosoft ist überhaupt nicht gezwungen, die DX-API anders als nach eigenen Wünschen zu gestalten. Und MS wird sicherlich nicht zulassen, dass aus Rücksichtnahme auf Nvidia die eigenen Produkte künstlich eingebremst werden.

Eher wird Nvidia von MS ausgebremst.

Es geht nicht darum, das MS ihr DX12 künstlich einbremsen, sondern das die Spieleentwickler auf die Features nicht in der Programmierung berücksichtigen, welche Nvidia nicht kann.
 
@Terraconz:

Der Physix-Fallbackpfad der einem Entwickler "ohne" eigene optionen zur hand stand war die CPU mit uralten floatoperationen aus dem jahr 1997 zuzukleistern...ohne auch nur im Ansatz z.B. neuere Features wie SSE, SSE2, etc. zu verwenden.
Dieser Fallback-Pfad wurde direkt von PhysX gestellt.

Als dies aufkam wurde es zurecht und MASSIV kritisiert. Und AFAIK hat nVidia jetzt ja diese "neueren" CPU-Kommandosätze drin.
Mit dem Resultat das CPU-Physix als Fallback zwar immer noch schlechter skaliert wie GPU-Physix aber immerhin zumeist verwendbar ist.

Aber das war gar nicht Thema der Diskussion wie du evtl. ein paar post weiter zurück findest.

Thema war dass der Entwickler wohl kaum einen alternativen Pfade schreiben wird wenn er ein proprietäres feature nutzt.

Ergo kann man dann entweder sagen:
Hardware typ A => Feature XY möglich
Hardware typ B => Feature nicht möglich
Aber es gibt eben noch
Hardware Typ B => benutze default pfad wie Gameworks vorgibt...
=> Hierzu kam der Vergleich mit PhysX wo der default pfad halt leider quasi "unbenutzbar" war....

Aber ich will das hier eigentlich gar net aufwärmen, denn
1. steht es schon zig Seiten weiter hinten und
2. hat es mit dem Async thema nur am Rande zu tun
 
Zuletzt bearbeitet:
BookerDeWitt schrieb:
Das schlimmste ist doch an sich nur nVidias Umgang mit dieser Chose.

Ja, die sind gerade in der Tat verdammt ruhig. Hoffentlich passt diesmal die Kommunikation zwischen dem Engineering und dem Marketing. Da soll ja schon so einiges schiefgelaufen sein... Stille Post lässt grüßen ;) :D
 
@Gamechanger

Je nach Game und Computing Anteil vermutlich. Mantle hat seit jeher Async Compute / Shader, wobei nur Thief es nutzen soll. Gamechager war es da jedenfalls nicht.
 
Hallo

Ich verstehe die ganze Aufregung und Meckerei über NVidia nicht so ganz, wenn ich mal auf Benchmarks gucke: http://www.pcgameshardware.de/Ashes...ials/Benchmark-DirectX-12-DirectX-11-1167997/

Mit DirectX 11 ist die FuryX in etwa so schnell wie eine GTX770 und mit DirectX 12 kommt die FuryX zwischen die GTX980 und die Titan, bleibt aber unter der 980Ti.
Ist die FuryX jetzt mit DirectX 12 so viel schneller geworden oder ist die FuryX unter DirectX 11 einfach nur so langsam ? Das AMD nicht die besten DirectX 11 Treiber hat ist doch bekannt.
NVidia hat unter DirectX 11 sehr viel mit den Treibern rausgeholt, wer weiß ob die das nicht auch noch unter DirectX 12 hinbekommen ?
Unter dem Strich ist die 980Ti aber auch zur Zeit unter DirectX12 schneller als die FuryX und das die FuryX unter DirectX 11 in etwa so schnell ist wie eine GTX770 halte ich für das größte Problem an der ganzen Sache, da zeigt sich wieder das AMD unter Direct 11 die Rohleistung nicht umsetzen kann.

Grüße Tomi
 
Zuletzt bearbeitet:
@Tomislav2007:
Du nimmst jetzt genau einen Benchmark von 50 und versuchst anhand dessen die gesamte Thematik zu erklären. Was meinst du, wie repräsentativ 1 Benchmark von 50 ist?
Dazu kommt noch, das die meisten anderen Benches ganz andere Ergebnisse aufzeigen. Da kommt die 980Ti eben nicht so gut weg. Kannst ja mit dem CB-Bench anfangen.

Und ja, an AMDs stelle würde ich den DX11 Treiber für AoS auch nicht optimieren und mich ausschließlich auf DX12 konzentrieren. Sieht einfach besser aus, wenn man einen 50-100%igen Sprung hinlegt als einen 10-20%igen.
 
Zurück
Oben