News Falsche Spezifikationen: Nvidia entschädigt US-Käufer der GeForce GTX 970

Die Zertifizierung nach PCI-SIG ist freiwillig, wer sie nicht macht, erhält nicht das Siegel. Das ist alles.

http://www.heise.de/newsticker/meld...darf-PCIe-Logo-noch-nicht-tragen-3262762.html

Auf den Kartons der RX 480 ist kein Logo vorhanden und AMD wirbt auch nicht damit.

Bei nVidias GTX 970 sind unwahre Behauptungen aufgestellt worden und ausnahmslos jede GTX 970 ist davon betroffen.

ampre hat also völlig recht.

Übrigens, die Liste mit zertifizierten nVidia-Karten ist eher übersichtlich:

https://pcisig.com/developers/integrators-list?field_version_value%5B%5D=3&field_version_value%5B%5D=2&keys=nvidia

Kepler GK110 taucht gar nicht auf.
 
Zuletzt bearbeitet:
@Nai
Also ich bewundere ja Deine Ruhe und das Du immer wieder mit Argumenten und Fakten versuchst ein paar Dinge was DX12/Vulkan und AC betrifft ins rechte Licht zu rücken und zu erklären. Allerdings ist es wie auch schon bei der Diskussion der GTX 970 so, das es bestimmte User gibt und das noch zumeist aus dem roten Lager, die sich einfach jeglichen Argumenten verwehren und völlig uneinsichtig sind. Man gewinnt immer mehr den Eindruck, das gerade diese User sich von Nvidia persönlich Angegriffen fühlen und dadurch eine tiefe Abneigung entstanden ist, das diese sich jedem Versuch einer plausiblen Erklärung verweigern. Und wenn Du dann versuchst mit technischem Hintergrundwissen bestimmte Dinge zurecht zu rücken und man Dir dann den Vorwurf macht, das Du die Dinge nur aus technischer Sicht [wie auch sonst sollte man die einen technischen Ablauf erklären :confused_alt:] siehst, finde ich schon mehr als amüsant. ;)
 
Wenn bei der GTX970 die 3,5GB VRAM nicht schlimm sein soll, dann sind die 10W Mehrverbrauch gegenüber den Specs bei der RX480 auch nicht schlimm ;)
 
4GB wovon nur 3,5GB sinnvoll nutzbar sind. Die restlichen 0,5GB sind eher kontraproduktiv. Also reine Marketinggründe ohne echten Mehrwert.
 
Zotac2012 schrieb:
@Nai
Also ich bewundere ja Deine Ruhe und das Du immer wieder mit Argumenten und Fakten versuchst ein paar Dinge was DX12/Vulkan und AC betrifft ins rechte Licht zu rücken und zu erklären. Allerdings ist es wie auch schon bei der Diskussion der GTX 970 so, das es bestimmte User gibt und das noch zumeist aus dem roten Lager, die sich einfach jeglichen Argumenten verwehren und völlig uneinsichtig sind. Man gewinnt immer mehr den Eindruck, das gerade diese User sich von Nvidia persönlich Angegriffen fühlen und dadurch eine tiefe Abneigung entstanden ist, das diese sich jedem Versuch einer plausiblen Erklärung verweigern. Und wenn Du dann versuchst mit technischem Hintergrundwissen bestimmte Dinge zurecht zu rücken und man Dir dann den Vorwurf macht, das Du die Dinge nur aus technischer Sicht [wie auch sonst sollte man die einen technischen Ablauf erklären :confused_alt:] siehst, finde ich schon mehr als amüsant. ;)

Naja...also Nai hatte sich hier auch eingeklinkt, indem er meinen Post irgendwo auf Seite 5 oder so zitiert hatte und technische Sachen von AC aufklären wollte. Einigen Usern ist es allerdings durchaus bewusst, dass AC kein obligater Bestandteil von DX12 ist, sondern ein optionales Feature. Da ändert aber eben nichts an der Werbung die betrieben wurde:

nvidia-geforce-gtx-980-ti-directx-12-advanced-api-support.png

Quelle: http://international.download.nvidi...tx-980-ti-directx-12-advanced-api-support.png

Nvidia hat also sehr bewusst mit Unterstützung von Asynchronous Compute geworben, später dann bei den desaströsen Ergebnissen unter AoS gesagt, es läge nur ein Treiberfehler vor und dieser muss optimiert werden. Das kam einfach nie und wie man in dem Hardwareluxx Artikel sieht, kann Maxwell einfach kein Asynchronous Compute, so wie Nai es hier auch funktional beschrieben hatte (nämlich mit den 2 Queues).

Ich glaube beide Seiten müssen halt mal auf dem Teppich bleiben. Beide Seiten sind nicht frei von Fehler.

Meine persönliche Meinung dies bezüglich hatte ich klar gemacht: nvidia hat gelogen und eben keine Besserung gebracht. Bei AMD wurden vielleicht aktuell die Referenzkarten etwas versemmelt, aber erstens übertakten die meisten hier eh die Grakas, wodurch die eh über den Specs betrieben werden und zweitens werden die Specs bei beiden Seiten oft nicht eingehalten, nur scheint man jetzt das Salz in der Suppe zu suchen. Für mich persönlich hat sich der Umstieg von der GTX 670 auf meine beiden R9 290X damals sehr gelohnt. Sie waren im Ausverkauf mit je 300€ verdammt günstig, sind schneller als die Titan gegen die sie damals angetreten sind und mittlerweile wohl auch dank DX12 und Asynchronous Compute schneller die GTX 980. Für mich sind sie also deutlich langlebiger als alles, was ich von nvidia bekommen hätte.

Für andere stellt es sich halt anders dar und ich gönne auch jedem seine Grafikkarte. Nur was ich eben nicht verstehe ist die blinde markentreue. Und Stand heute würde ich eben blind keine nvidia Karte kaufen, weil die GTX 970 eben gezeigt hat, dass im Nachhinein so halb nur Fehler eingeräumt werden bzw. gar nicht vorhandene Funktionen beworben wurden.
 
Galatian schrieb:
Einigen Usern ist es allerdings durchaus bewusst, dass AC kein obligater Bestandteil von DX12 ist, sondern ein optionales Feature.

Ich weiß nicht, wie oft man das noch wiederholen muss, aber die Unterstützung mehrerer Queues ist nicht optional, sondern Pflicht. Es ist aber lediglich Pflicht aus Sicht der API, und die trifft keine Aussage darüber, wie das die dahinterliegende Hardware lösen muss.
 
Da ich mit meiner GTX970 überaus und höchst zufrieden war, wollte ich meine tiefe Dankbarkeit persönlich zum Ausdruck bringen und habe Nvidia einfach 30€ (Euro) überwiesen.

Natürlich kann man beim Hardwarekauf viel falsch machen, aber wo man nie etwas falsch machen kann, ist wenn man blind eine Nvidia Grafikkarte kauft. Erst kaufen, dann Test lesen, um sich zu vergewissern, dass man schon wieder das Richtige getan hat.
 
kisser schrieb:
Ich weiß nicht, wie oft man das noch wiederholen muss, aber die Unterstützung mehrerer Queues ist nicht optional, sondern Pflicht. Es ist aber lediglich Pflicht aus Sicht der API, und die trifft keine Aussage darüber, wie das die dahinterliegende Hardware lösen muss.

Ehrlich gesagt kann ich mit deiner Antwort nichts anfangen, da ich sie in kein Kontext packen kann. Ich habe nun über das WE versucht mich in DX12 und Asynchronous Compute ein zu lesen; leider findet man kaum einfach beschriebene Infos, was muss und was kann. Besonders die englische Wiki Seite ist durch zig Änderungen - besonders bei dem Thema Asynchronous Compute - gekennzeichnet. Letztlich muss ich das nehmen was ich bei Hardwareluxx gelesen habe:

Auch wenn GPUView zwei separate Queues andeutet (gemischt mit Direct- und Compute-Prozessen), so werden diese letztendlich in einer einzige Hardware-Queue zusammengeführt.

Für mich hört sich das nach eine Mogelpackung an und spiegelt IMHO auch die tatsächlich vorhandene Leistung von Maxwell unter DX12 Spielen wieder. So wie sich das für mich anhört wird eben kein Asynchronous Compute unterstützt, auch wenn damit geworben wurde. Korrigiert mich, wenn ich falsch liege. Das war Kern meiner Aussage und eben nicht Frage, ob es Sinn macht Asynchronous Compute als fakultativen oder obligaten Bestandteil in DX12 auf zu nehmen.
 
Nai schrieb:
@ janeeisklar

Wie bereits fünfmal erwähnt: Der chronologische Ablauf wird doch auch bei NVIDIA gemäß der Ordering Constraints eingehalten, so dass das Ergebnis korrekt ist. Denn für diese Korrektheit ist es letztendlich wieder irrelevant, ob die Implementierung jetzt im Endeffekt zwei voneinander unabhägngige Aufgaben seriell oder parallel abarbeitet, sofern an den Synchronisationspunkten die korrekten Werte im Speicher stehen.
Es ist nicht egal ob man wie DX12 von grundsätzlich parallel möglich oder wie DX11 von grundsätzlich NUR sequentiell ausgeht. Die beiden Modelle erfordern fast schon gegensätzliche Algorithmen.
Es ist lächerlich Nvidias Ansatz auch nur grundsätzlich als DX12 konform zu bezeichnen.

Oxide schrieb:
Personally, I think one could just as easily make the claim that we were biased toward Nvidia as the only 'vendor' specific code is for Nvidia where we had to shutdown async compute. By vendor specific, I mean a case where we look at the Vendor ID and make changes to our rendering path. Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn't really have Async Compute so I don't know why their driver was trying to expose that. The only other thing that is different between them is that Nvidia does fall into Tier 2 class binding hardware instead of Tier 3 like AMD which requires a little bit more CPU overhead in D3D12, but I don't think it ended up being very significant. This isn't a vendor specific path, as it's responding to capabilities the driver reports.
 
janeeisklar schrieb:
Es ist nicht egal ob man wie DX12 von grundsätzlich parallel möglich oder wie DX11 von grundsätzlich NUR sequentiell ausgeht. Die beiden Modelle erfordern fast schon gegensätzliche Algorithmen.
Es ist lächerlich Nvidias Ansatz auch nur grundsätzlich als DX12 konform zu bezeichnen.


Erkläre bitte, warum nVidia's "Implementierung" nicht "DX12 konform" ist. Belege dies mit Aussagen von Microsoft, die die "DX 12 konform" geschrieben haben.
 
@ janeeisklar
Es ist nicht egal ob man wie DX12 von grundsätzlich parallel möglich oder wie DX11 von grundsätzlich NUR sequentiell ausgeht. Die beiden Modelle erfordern fast schon gegensätzliche Algorithmen.
Es ist lächerlich Nvidias Ansatz auch nur grundsätzlich als DX12 konform zu bezeichnen.

Das ist auch so wieder nicht korrekt. DX 11 besitzt zwar keine Schlangen, dafür ist es aber eine auf Binding basierte API. Deshalb modelliert eine Anwendung über die DX11 API prinzipiell einen Abhängigkeitsgraphen. Der Treiber kann nun diesen Abhängigkeitsgraphen, sofern es die Abhängigkeiten erlauben, beliebig parallelisieren. Für Kopieroperationen bzw. Speichermanagement ist dies bereits bei allen Implementierungen Standard. Wenn AMD gewollt hätte, hätte es vielleicht so auch schon von seinem Async Compute in DX 11 profitieren können. Deshalb und wie bereits auf ein paar Seiten erklärt, darf der Treiber sowohl bei DX 11 als auch bei DX 12 letztendlich die Befehle so abarbeiten wie er will. Da ändert auch dein Zitat nichts dran, denn Spieleentwickler liegen auch nicht immer richtig. Da würde ich schon gar nicht meine Argumentation auf einen Nebensatz ohne Begründung aufbauen. Wenn du willst kannst du dir auch einmal die Argumente von Locuza auf PCGH durchlesen; der erklärt das auch sehr ausführlich nur mit ein paar anderen Argumenten.
 
Zuletzt bearbeitet:
Galatian schrieb:
Anhang anzeigen 572062

Quelle: http://international.download.nvidi...tx-980-ti-directx-12-advanced-api-support.png

Nvidia hat also sehr bewusst mit Unterstützung von Asynchronous Compute geworben, später dann bei den desaströsen Ergebnissen unter AoS gesagt, es läge nur ein Treiberfehler vor und dieser muss optimiert werden. Das kam einfach nie und wie man in dem Hardwareluxx Artikel sieht, kann Maxwell einfach kein Asynchronous Compute, so wie Nai es hier auch funktional beschrieben hatte (nämlich mit den 2 Queues).

Auf dem Screen, den Du hier gepostet hast wird allerdings nicht von Nvidia die Grafikkarten mit AS beworben, sondern dort steht was die D3D 12 API [DX12] beinhaltet. Unter der GTX 980Ti steht wenn man es übersetzt: Erweiterter API Support![Was auch immer Nvidia daunter verstehen mag]. Ich gebe Dir aber Recht, das die Maxwell GPUs Probleme mit AS haben, in wie weit diese jetzt AS in welcher Form bewältigen können oder nicht, darüber ist es mühselig zu streiten, da dieses Feature ja von Nvidia aus im Treiber deaktiviert ist. Es ist allerdings davon auszugehen, das es nicht sonderlich gut funktioniert, sonst hätte es ja Nvidia nicht deaktiviert, weil man davon ausgeht, das DX12 mit deaktiviertem AS besser läuft als mit aktiviertem AS, das ist allerdings mein persönliche Meinung/Vermutung.

Das die Pascal GPUs mit AS besser umgehen können sollen, wird sich auch erst zeigen, wenn das Feature per Treiber nachgereicht wird, denn derzeit ist AS für die Pascal GPUs noch gar nicht im Treiber implementiert. Dafür finde ich läuft die Pascal GPU schon mal nicht schlecht mit DX12, bin mal gespannt, ob es dann, wenn AS nachgereicht wurde, auch einen Leistungszuwachs gibt.


Galatian schrieb:
Für andere stellt es sich halt anders dar und ich gönne auch jedem seine Grafikkarte. Nur was ich eben nicht verstehe ist die blinde markentreue. Und Stand heute würde ich eben blind keine nvidia Karte kaufen, weil die GTX 970 eben gezeigt hat, dass im Nachhinein so halb nur Fehler eingeräumt werden bzw. gar nicht vorhandene Funktionen beworben wurden.

Warum setzt Du voraus, weil man vorher eine Nvidia Grafikkarte hatte [vielleicht sogar eine GTX 970] und man auf eine neue Nvidia Grafikkarte aufrüstet, das nur aus blinder Markentreue tut? Ich bin auch von einer GTX 970 auf eine GTX 1070 gewechselt, aber nicht aus blinder Markentreue. Die RX 480 war für mich keine Alternative, da diese nur unwesentlich besser ist, als die GTX 970, das wäre ein reines Speicher Upgrade gewesen, nicht mehr und nicht weniger. Eine Fury Non-X hätte mich schon gereizt, allerdings sind mir die 4.GB HBM Speicher einfach zu wenig, da blieb nicht mehr viel übrig und ich habe dann zur GTX 1070 gegriffen, allerdings bin ich auch der Meinung, das 400,00 Euro ein angemessenerer Preis gewesen wäre, aber ohne derzeitige Konkurrenz, kann Nvidia halt die Preispolitik völlig frei gestalten und verlangen was sie wollen.
 
Nai schrieb:
@ janeeisklar


Das ist auch so wieder nicht korrekt. DX 11 besitzt zwar keine Schlangen, dafür ist es aber eine auf Binding basierte API. Deshalb modelliert eine Anwendung über die DX11 API prinzipiell einen Abhängigkeitsgraphen. Der Treiber kann nun diesen Abhängigkeitsgraphen, sofern es die Abhängigkeiten erlauben, beliebig parallelisieren. Für Kopieroperationen bzw. Speichermanagement ist dies bereits bei allen Implementierungen Standard. Wenn AMD gewollt hätte, hätte es vielleicht so auch schon von seinem Async Compute in DX 11 profitieren können. Deshalb und wie bereits auf ein paar Seiten erklärt, darf der Treiber sowohl bei DX 11 als auch bei DX 12 letztendlich die Befehle so abarbeiten wie er will. Da ändert auch dein Zitat nichts dran, denn Spieleentwickler liegen auch nicht immer richtig. Da würde ich schon gar nicht meine Argumentation auf einen Nebensatz ohne Begründung aufbauen. Wenn du willst kannst du dir auch einmal die Argumente von Locuza auf PCGH durchlesen; der erklärt das auch sehr ausführlich nur mit ein paar anderen Argumenten.
Nur unterschlägst du hier, dass DX12 darauf abzielt dem API Anwender mehr Kontrolle über die GPU zu geben und dazu gehört eben mit AC auch zu entscheiden was "grundsätzlich" Parallel ausgeführt wird. Dein Beispiel zeigt also um so deutlicher auf wie Nvidia die Kontrolle darüber dem API Anwender wieder entreist und wie lächerlich, desaströs und "un konform" Nvidias verhalten hier ist.

Microsoft beschreibt mit "Direct3D 12 Programming Guide" die Möglichkeiten die der API Anwender haben sollte, was mit Nvidia GPU u. Treiber eben nicht so ist, da grundsätzlich _nicht_ AC/AS tauglich.
 
@ Zotac2012:

Ich habe nicht gesagt das ich es voraussetze; ich verstehe nur die Leute nicht, die es tatsächlich so Handhaben. Ich für meinen Teil habe eben beschlossen, selbst wenn eine nVidia Grafikkarte in Frage kommen sollte, dann auch erst mal ein paar Monate ins Land fließen zu lassen, weil das Fiasko mit der 970 und AS mir zeigt, dass man geprellt werden kann, wenn man zu sehr dem Marketing Hype anhängt. In deinem Fall lohnt sich das Upgrade auch total! Bei mir war damals mit der GTX 670 eben ein Upgrade nötig und ich war eh schon sehr enttäuscht von den Investitionen die ich in 3D Vision 2 damals getätigt hatte. Dazu hatte der Mantle Support für Civ: BE mir die Sache auch noch schmackhaft gemacht. Hawaii ist schneller als die 780 Ti und hält heute auch locker mit der 970 oder 980 mit. Auch die RX 480 ist keine Upgrade-Option, obwohl ich auch wirklich nicht das Gefühl habe, das Hawaii am Ende seiner Lebenszeit wäre. Für mich wird es dann erst wieder was mit Vega oder Navi bzw. dem Nvidia Pendant.

Zum Thema DX12 wurde nun genug gesagt; die Posts von "Locuza" auf PCGH waren tatsächlich sehr aufschlussreich:

Multi-Engine ist ein Basis-API von DX12 ohne extra Feature-Abfrage, ich habe jedenfalls in der Dokumentation keine gefunden:
https://msdn.microsoft.com/en-us/lib...=vs.85).aspx

Es ist die Aufgabe vom Entwickler dieses Feature explizit zu nutzen und zu schauen, ob das auch gut funktioniert.
Nvidia selber hat eig. keine Wahl bei dem Thema.

Insofern musste nvidia wohl per "Treiber" Multi-Engine (was AMD eben Async Compute nennt) einbastelt, um ihre Karten überhaupt DX12 ready nennen zu dürfen. Das die Lösung alles andere als performant ist, dürfte jedem klar sein. Das ist in etwa so, wie wenn ein Itanium Prozessor 32-Bit Programme für X86 emulieren muss, was ohne die Hardware einfach nur Unmengen an Performance kostet. Zu recht gibt es da einen Aufschrei. Und deshalb bleibe ich eben auch bei meiner Meinung: wenn man alle Infos damals gehabt und in die Waagschale getan hätte, wäre die Kaufentscheidung für Maxwell alles andere als klar gewesen.
 
@ janeeisklar
Ich habe das Gefühl, dass wir unterschiedliche Definitionen von Konformheit besitzen, wo wir uns nicht einig werden. Wenn du Konformheit unbedingt definieren willst als "Treiber muss das innerlich unbedingt parallel machen" kann ich daran nichts ändern. Ich habe nur erklärt, wieso APIs wie Vulkan oder DX 12 dies nicht vorschreiben, man es in der Informatik im Allgemeinen nicht so sieht, und zudem wieso es sinnvoll ist dass NVIDIA GPUs auf diese Art und Weise dennoch DX 12 Programme ausführen können.

@ ampre
Schön wie du dich in Wiedersprüche verstrickst. Erst ist es ganz Simpel mit DX12 und in dem Post jetzt ist es auf einmal gar nicht mehr so einfach! Genau das meine ich! Kein Mensch weiß was einem die ganzen Angaben bringen etc. Die Tiers und DX12.0 und DX12.1 sind zu nichts zu gebrauchen! Außer das es mit der Karte DX12 Spiele funktionieren.
Du traust dem Kunden nicht zu begreifen was sich hinter DX 12 Support und den Feature Levels verbirgt, nur um ihn dann mit einer Liste von was wie und wo in Hardware implementiert ist zu überhäufen, in der Hoffnung er würde die richtige Kaufentscheidung treffen? Wäre das zudem nicht auch irreführend, wenn er denkt, oh eine R 250, die kann alles in Hardware und muss deshalb schneller sein als eine Titan X? Deshalb wie bereits vorher gesagt: Wie jetzt etwas Hardware beschleunigt ist ist irrelevant. Auf die Gesamtperformance kommt es an. Wieso deshalb nicht einfach eine Performance Metrik auf die Packung drucken (wie das letztendlich mal definiert werden soll sei dahingestellt). Wäre das nicht sinnvoller? Oder wäre es unsinnvoll, weil NVIDIA dann nicht ganz so schlecht darstehen würde, wie von dir erhofft?

Wie gut oder wie Lahm liest man aber nicht daraus. Das suggeriern hier aber einige im Forum!
Das suggerieren hier eigentlich hauptsächlich diejenigen Leute, die immer schreiben NVIDIA sei zu lahm unter DX 12 und würde deshalb kein DX 12 unterstützen, weshalb man es auch nicht kaufen sollte.

Wie eine GPU die nichts in Hardware kann schneller sein kann als eine in Hardware musst du mir erst mal zeigen!
Das war ein extremes Beispiel und mit konjunktiv geschrieben um meine Argumentation zu verdeutlichen, dass es prinzipiell möglich ist. Denn Hardwarebeschleunigung sagt nicht über die Gesamtperformance aus: Ein moderner 12 Kerner wird zum Beispiel deutlich schneller sein als eine GPU von vor 15 Jahren. Zudem ist die Hardwarebeschleunigung immer ein zweischneidiges Schwert: Sie beschleunigt zwar diverse Operationen, die dann günstiger werden. Jedoch können auch bei diesen Operationen zusätzliche Flaschenhälse entstehen, wenn die Hardwarebeschleunigung nicht schnell genug ist. Zudem benötigt es Chipfläche, die man stattessen auch für allgemeinere Rechenwerke verwenden könnte.

Ein paar Beispiele dazu: Moderne GPUs lagern Fixed Function Berechnungen aus der Rasterpipeline teilweise in die Shader aus. Macht die Rasterpipeline schlanker wodurch sie weniger Platz braucht, der für weitere Shader verwendet werden kann. Dafür verschwendet es dann ein paar Berechnungen in den Shadern. Analog ist es mit den Texture Units. Teilweise werden die für das Texture Sampling benötigten Berechnungen heutzutage von den FPUs/ALUs durchgeführt. Des Weiteren habe ich damals mal einen Bilinearen Texture Filter in Fermi für 4xF32 geschrieben, der wenn ich mich recht erinnere sogar ein bisschen schneller war als die Texture units.


Das war schon immer so. Sag mir ein Feature was schneller auf der GPU läuft als Emuliert auf der CPU?
Es geht um die Gesamtperformance. Eine Geforce Titan X kann eine Radeon R 250 auch in Benchmarks die Async Compute verwenden deutlich abhängen. Somit wäre es fatal eine R 250 einer Geforce Titan X vorzuziehen.

@ Zotac
Danke, aber ja darüber musste ich auch schmunzeln. Ich habe mir sogar kurzzeitig überlegt dieses Zitat in meine Signatur aufzunehmen :)
 
Zuletzt bearbeitet:
Warum genau diskutieren wir DX12 in einem Thread der eher was mit der Speicheranbindung einer GTX970 zu tun hat?
 
moquai schrieb:
Ist es auch nicht, denn sie hat ja 4 GB.

wenn die 970 wirklich nur 3,5gb ram hätte, wäre ja alles nicht sooo schlimm gewesen
da man ja nur ein achtel des speichers betrogen worden wäre
aber das deutlich größere problem sind die extrem langsam anbegunden 512mb
sobald diese benutzt werden wird es undpspielbar
 
@Nai

Ich glaube wir reden aneinander vorbei.

Man muss hier zwei Dinge unterscheiden:
1.) Die Technische Seite
2.) Die Kundenseite
Natürlich hast du recht mit der technischen Seite, dass das DX12 Programme korrekt auf Nvidia GPUs ausgeführt werden. Du vergisst aber auch den Zusatz der Kundenseite. Denn dort ist die Ausführung eher Mangelhaft, da langsamer als unter DX11.

Du hast auch nicht meinen Anstatz mit der Emulation verstanden. Auch hier gibt es wieder 3 Ansätze die du wild durcheinander wirfst
1.) Eine GPU wird designed und man beschließt einige Teile nicht im Rasterizer direkt zu bearbeiten sondern sie im Shader zu Emuliert. (Wohl gemerkt alles geschieht auf ein und der selben GPU) Sowas führt selten zu Problem weil es ja auch so gedacht war!
2.) Eine GPU wird designed und man beschließt einige Teile auf die CPU auszulagern und dort zu emulieren. Hier hat man nun das Problem das man sich von der Leistungsfähigkeit der CPU abhängig macht! Wenn jemand einen I3 hat kann das echt zum Problem werden! Gerade bei DX12 was ja die CPU entlasten soll wäre dies Fatal. Da würden sich viele Nvidia Anhänger eine kleine CPU kaufen nur um dann festzustellen das sie im CPU Limit sind!
3.) Das Feature war noch nicht bekannt beim GPU design und man fügt es nachträglich als Emulation ein wahrscheinlich wird dies auf der CPU geschehen.
Ich stelle mir bei Maxwell Fall 3 vor. Denn so desaströs wie das Ausfällt kann Async Compute niemals geplant gewesen sein!


Zu meiner Ampel. Man bräuchte natürlich eine Unabhängige Zertifizierungsstelle die die Leistungsfähgikeit und Korrektheit der Features Bewertet und dann danach die Ampel erstellt. Für den Anfang könnte man es auch wie bei Full HD ready und Full HD halten. Maxwell ist Full HD ready AMD ist Full HD.

@CD
Weil es die nächste große Fehlschlag von Nvidia ist der Nutzer eben so enttäuscht wie die 3,5GB Vram
 
Zuletzt bearbeitet:
Zurück
Oben