News DirectX 12: Nvidia-Treiber soll Async Compute nachreichen

NVidia löst Async Compute also per Treiber und somit über die CPU, weil ihre ach so tollen Maxwell Karten die Technologie nicht in Hardware können.

Das steht nach wir vor nicht fest. Nur weil ein Halbleiterprodukt theoretisch in der Lage ist eine Technologie zu nutzen heißt es nicht, dass sie dafür keinen Treiber braucht. Wenn hier gepatzt wurde hat Nvidia Glück und kann das Problem schnell beheben. Ansonsten kann (nicht muss) eine softwareseitige Implementierung sehr ineffizient werden.
 
Nach der super Transparenz seitens NVidia beim 3,5 GB Debakel glaube ich da nur noch unabhängigen Tests.
Auf anderen News Seiten wird man schon konkreter, das NV das auf die CPU auslagern will.
Damit wäre die Funktion zwar im Treiber, würde auch funktionieren, aber schnarch langsam.
Sicher wird NV uns das auch wieder als Feature vorgaukeln: Mit DX12 wird die CPU so sehr entlastet,
das sie sie sich ohnehin langweilt. Wir geben ihr jetzt was zu tun. It's not a bug, it's a feature :D
 
Also das heißt Nvidea wird Async Compute niemals so gut beherrschen wie AMD.
AMD FTW:king:
 
Die bisher wohl beste und plausibelste Erklärung.
Tut mir leid, aber der Autor hat keine Ahnung und macht munteren Begriffskauderwelsch. Meine Korrektur dazu aus einem anderem Thread:
Das Scheduling von Compute und Graphik an sich läuft sowohl bei Maxwell als auch bei GCN in Hardware ab. Der einzige Unterschied ist, dass Maxwell nicht Graphik und Compute gleichzeitig kann. Deswegen muss der Treiber der GPU, wenn es zu einem gegebenen Zeitpunkt sowohl Compute als auch Graphikaufgaben zu berechnen gibt, in regelmäßigen Abständen für den Kontextwechsel sorgen indem er der GPU sagt: Höre hier an der Stelle mit Compute auf und kümmere dich um die Graphik oder alternativ höre hier an der Stelle mit Graphik auf und kümmere dich um Compute.
 
Warum "vergessen zu integrieren"? Es steht doch im Artikel, dass NV im aktuellen Treiber den Spielen "vorgaukelt", dass dieses Feature da ist, somit haben Sie sehr wohl daran gedacht! Es wurde ganz einfach unter den Teppich gekehrt, und das ist MAL WIEDER nvidia Politik!
 
Eine absolut Sinnlose diskussion über eine Alpha eines Spieles mit einem unfertigen System, die hauptsächlich von AMD Fanboys geführt wird.. nice CB !
 
feris schrieb:
Auf anderen News Seiten wird man schon konkreter, das NV das auf die CPU auslagern will.
Damit wäre die Funktion zwar im Treiber, würde auch funktionieren, aber schnarch langsam.

So wird es kommen,
Aber fast jede Seite verwendet einen I7 so würde sich das Problem ein wenig "kaschieren" lassen;)



User Z:
Spiel K läuft bei mir unter Dx 12 sehr schlecht, Hilfe!?
HW: 970, 8GB Ram, i5 xxxx

Anwortende User:
Siehe bei CB, PCGH, Anand (I7), haben keine Probleme vielleicht liegt es am Netzteil:freak:
 
Nach allem was man hier so liest scheint es wirklich so zu sein,
Das nVidia bei dem Feature nicht ganz mitgedacht hat oder sich mal wieder nicht an die
Spezifikation gehalten hat.

Und die Tatsache das der Treiber wieder einmal Support für etwas meldet was
so gar nicht möglich ist, ist wirklich bedenklich.

Und Ja es sieht so aus als wären die nVidia Karten bei diesem Feature wirklich
unterlegen wenn (auch wenn nur Teile) davon in Software gelöst werden müssen.

nVidia macht in Letzer Zeit wirklich sehr negativ von sich reden.
Vor allem die katastrophale Informationspolitik ist nervig.

EDIT:
@iAtNeH lol! ich denke das könnte wirklich genau so kommen....
 
Eine absolut Sinnlose diskussion über eine Alpha eines Spieles mit einem unfertigen System, die hauptsächlich von AMD Fanboys geführt wird.. nice CB !
Oh boy, hast in der Debatte wohl nicht viel verstanden. Spätestens seit dieser Meldung ist klar, dass es nicht nur genau dieses eine Spiel betrifft.
 
Ja als Software lösung die dann weit lahmer ist und die CPU belastet ...
Dabei ist der Vorteil von ACompute doch gerade das man dadurch mehr Physik zeug von der CPU auf die GPU auslagern kann
 
sdwaroc schrieb:
Oh boy, hast in der Debatte wohl nicht viel verstanden. Spätestens seit dieser Meldung ist klar, dass es nicht nur genau dieses eine Spiel betrifft.

Du wirst es wissen, naja whatever. BIn raus.. niveau ist bereits am boden :)
 
Ohne Polemik kann man aber auch sagen "sie konzentrieren sich auf das was gerade aktuell ist."

Wenn das so hinhaut, wäre das eine Bestätigung und eine Begründung dafür, daß nvidia-Karten deshalb in "aktuellen" Benchmarks immer vorn sind.

Allerdings müssten sie deshalb eigentlich günstiger sein, weil man davon ausgehen kann, daß die Karten für neue Technologien nicht wirklich taugen und man eine neue kaufen müsste.... :freak:

EDIT:
@-Ernesto-, du bist ja lustig. Flüchtest obwohl du gar nicht weißt worum es geht bzw scheust dich davor, dich mit technischen Details zu beschäftigen. Hast du Angst vor ein bisschen angekratzem Image deines Lieblingsherstellers? Ich kann dich beruhigen und dir Mut machen: Sowas verhindert erfolgreich, daß man einen Hersteller zu sehr vergöttert. Die kochen alle nur mit Wasser und wollen alle nur dein Geld. Also sieh es sachlich und nimm das alles nicht so eng. :)
 
Zuletzt bearbeitet: (massig Rechtschreibfehler.... :()
-Ernesto- schrieb:
Eine absolut Sinnlose diskussion über eine Alpha eines Spieles mit einem unfertigen System, die hauptsächlich von AMD Fanboys geführt wird.. nice CB !

Die Diskussion ist so sinnlos dass sich nVidia ob des Vorwurfs eines der Hauptfeatures von Dx12 überhaupt nicht integriert zu haben ziemlich angepisst fühlt und gerade Himmel und Hölle in Bewegung setzt um das halbwegs gerade zu biegen.

Wenn sie mit Dx12 werben, sollen sie die Kernfunktionen auch integriert haben. Ob das in einem Spiel welches in ein paar Wochen erscheint, einem benchmark oder sonstwo ans Tageslicht kommt ist völlig egal!

Die Treiber dieses Jahres sind einfach erbärmlich, nVidia sammelt Minuspunkte um Minuspunkte. Sollten sie bis zu den 14/16nm-Chips nichts an ihrer Geschäftspolitik ändern, ist die Titan in meinem Rechner vorerst die letzte Karte dieses Herstellers für mich gewesen.
 
Interessiert mich persönlich mangels Praxisrelevanz alles überhaupt nicht. Bevor DirectX 12 Spiele auch nur annähernd relevant werden, sind wir schon längst bei Volta (Pascal-Nachfolger) oder noch weiter. Wen interessiert, ob die jetzt schon toten 28nm Karten wie Maxwell irgendwelche DirectX 12 Features können? 28nm ist schon jetzt (k)alter Kaffee. Da kommt nix mehr. Das sind alles Auslaufmodelle...
Außer Ashes of the Singularity wird in absehbarer Zukunft nur noch die Gears of War Neuauflage (*gähn*) sowie dieses billige Fable MMO (*kotz*) DirectX 12 supporten.
Und nächstes Jahr (geschätzt Q2) steht dann schon Pascal vor der Tür und die Karten werden komplett neu gemischt. Eventuell gibt es dann sogar eine Praxisrelevanz, wenn dann tatsächlich mal die ersten DirectX 12 Spiele raus sind. Aber zum jetzigen Zeitpunkt ist das doch alles bestenfalls höchst akademischer Natur.
 
Moriendor schrieb:
Wen interessiert, ob die jetzt schon toten 28nm Karten wie Maxwell irgendwelche DirectX 12 Features können? 28nm ist schon jetzt (k)alter Kaffee. Da kommt nix mehr. Das sind alles Auslaufmodelle...
Vielleicht diejenigen, die sich gerade eine Nvidia GPU gegönnt haben oder es gerade vorhaben? Meinst du in einem Jahr wird dann die nächste gekauft, weil Nvidia sich momentan mit den Features "verkalkuliert" hat?:rolleyes::lol:

Dass Jen Hsun Huang am 24. Dezember vorbei kommt und ne neue Grafikkarten unter den Baum legt, am liebsten Pascal, aus Beitrag #3 war nur ein Scherz^^
 
Zuletzt bearbeitet:
Nai schrieb:
Das Scheduling von Compute und Graphik an sich läuft sowohl bei Maxwell als auch bei GCN in Hardware ab. Der einzige Unterschied ist, dass Maxwell nicht Graphik und Compute gleichzeitig kann. Deswegen muss der Treiber der GPU, wenn es zu einem gegebenen Zeitpunkt sowohl Compute als auch Graphikaufgaben zu berechnen gibt, in regelmäßigen Abständen für den Kontextwechsel sorgen indem er der GPU sagt: Höre hier an der Stelle mit Compute auf und kümmere dich um die Graphik oder alternativ höre hier an der Stelle mit Graphik auf und kümmere dich um Compute.
Ist der Sinn hinter den ACEs nicht, dass das die Hardware von sich aus kann und somit das Context Switching automatisiert ab läuft um die Pipelines besser aus zu lasten? Dann wäre die Implementierung über den Treiber ja extrem schnarchig je nach Häufigkeit der Wechsel...
 
iAtNeH schrieb:
:lol:
Also auf HW Ebene geht Async nicht, aber NV will dies mit einem Treiber nachreichen,
Nicht schlecht.

Wär ja in etwa so wie wenn Ford auf einen 3 Zylinder, ein 4er Flasht

Warum nicht wäre doch eine interessante Technik :D:D
 
Moriendor schrieb:
[...]Wen interessiert, ob die jetzt schon toten 28nm Karten wie Maxwell irgendwelche DirectX 12 Features können? 28nm ist schon jetzt (k)alter Kaffee. Da kommt nix mehr. Das sind alles Auslaufmodelle...[...]

Mich kotzt eher so eine Ignoranz an. Könnte es nicht vielleicht sein, daß es Leute gibt, die immernoch Grafikkarte besitzen und aktiv benutzen, die noch nicht mal bei 28nm angekommen sind? Guck mal in meine Sig. Ist vielleicht nur über ein bisschen Nachdenken oder Nachforschen erkennbar, aber ich fahre noch mit 40nm und bin damit sicher keine Ausnahme.

Der 28nm-Prozess ist nicht tot. Und Auslaufmodelle sind es auch nicht. Oder siehst du hier irgendwo Grafikkarten in kleinerem Prozess? Nein? Gibt es für die Hersteller irgendeinen Grund, die Produktion anzuhalten? :freak:
 
@Moriendor sehr viele Leute haben sich eine GTX der 900 Serie gekauft und ganz viele von denen werden sicher nicht wieder die Graka wechseln können und wollen nächstes Jahr.
Die GTX 900 Serie ist irgendwie voll der Fail.
 
Zuletzt bearbeitet:
Zurück
Oben