News Microsoft: DirectX 12 erhält Raytracing-API DXR für Hybrid-Rendering

@duskstalker
Du wolltest wissen wer es (potentiell) benutzt. Wenn es dir um die Relevanz geht, rennst du offene Türen ein. DX12 wird ganz klar die höhere Relevanz haben. Ob der Teilbereich DXR allerdings ebenso relevant wird, wird sich zeigen müssen. Bisher wurde generell gegen LL-APIs mit dem erhöhten Arbeitsaufwand argumentiert, der wird durch DXR nicht geringer (im Gegenteil). Vor allem gibt es ja scheinbar(!) keine perfomante abwärtskompatibilität, die Verbreitung der neuen Hardware würde (auch unter Nvidia-Hasen) Jahre dauern.
 
Zuletzt bearbeitet:
Wer sich vllt näher einlesen möchte: hier ist das Paper von Nvidia zum Entrauschen.
 
das @ News ist ja auch endlich mal wieder ein grafikrelevantes Feature während es bei der ganzen DX11 / DX12 Thematik eig nur um die Auslastung der GPU und Drawcalls ging, die gefühlt nie wirklich was gerissen hat. So zumindest mein Eindruck. Stand jetzt ist es ja ziemlich Wurst welch altes DX12 FeatureLevel zB. meine 980 TI nutzt die auch schon angestaubt ist. Selbst wenn sie nur DX11 könnte...

Bei der ganzen Sache gibts immer für und Wider. Schaut man sich zb das hier an so ist man mit der AMD Karte oft schneller im CPU Bottleneck da der Schwerpunkt auf einer guten DX Implementierung liegt. Perse ist das erstmal toll, je nach Titel aber eben hinderlich. Defakto aber meistens Wurst, gerade dann wenn man eh genug CPU Power hat. Auch schwer abhängig davon wie man zwischen Single Thread und Multi Thread Optimierung balanciert. Nicht immer is letzteres besser.

Finds gut wenn man das Thema mal abhakt, alle neuen GPU können DX12 / Vulkan, schön wärs aber mal wenn die Grafik wieder einen Sprung macht.
 
Sieht ja ganz nett aus - also ein weiterer Schritt in Richtung Filmqualität von Spielen.
... und irgendwie muß man ja einen Bedarf erzeugen, damit man über 3000 Teuro für eine Grafikkarte ausgibt. :D

Greetz & stay tuned ^^
 
DocWindows schrieb:
Wo sitzt (setzt?) nVidia denn bitte auf DX11? Sie bieten alle relevanten APIs an. DX11 und kleiner, DX12, OpenGL und Vulkan. Die Spieleentwickler müssen es halt auch nutzen. Warum das nicht passiert sollte man eher die Spieleentwickler fragen. Es ist nicht nVidias Entscheidung ob Spiel XYZ DX11, 12 oder Vulkan nutzt.


nvidia hat in dx11 durch ihren software scheduler und gameworks einen vorteil gegenüber amd, während für amd auf dx12 schonmal ein potentieller bremsklotz wegfällt.

nvidia hat in 90% der spiele über gameworks die finger drin. wenn die wollten, dass das spiel mit vulkan oder dx12 kommt, würde das auch passieren. bisher gibts aber nur haufenweise dx11 spiele mit gameworks und ein paar spiele mit verkorkstem dx12, das schlechter als dx11 läuft.

nvidia dreht gerade das größte ding der gpu geschichte, und du glaubst ernsthaft, dass nvidia keinen finger drauf hat, dass die in den benchmarks oben sind? :rolleyes:

Freiheraus schrieb:
@duskstalker
Du wolltest wissen wer es (potentiell) benutzt. Wenn es dir um die Relevanz geht, rennst du offene Türen ein.

das war eine rhetorische frage - ich bin schon ganz gut im bilde :) quake champions als nächster vulkan anwärter wurde aber gründlich in den satzt gesetzt und wird wahrscheinlich nicht mehr portiert werden.

Freiheraus schrieb:
DX12 wird ganz klar die höhere Relevanz haben. Ob der Teilbereich DXR allerdings ebenso relevant wird, wird sich zeigen müssen. Bisher wurde generell gegen LL-APIs mit dem erhöhten Arbeitsaufwand argumentiert, der wird durch DXR nicht geringer (im Gegenteil). Vor allem gibt es ja scheinbar(!) keine perfomante abwärtskompatibilität, die Verbreitung der neuen Hardware würde (auch unter Nvidia-Hasen) Jahre dauern.

sobald nvidia hier ein exklusives feature hat (bspw beschleunigung über tensor cores) wird das in alle spiele gedrückt, die irgendwie kompatibel sind. das war bei gameworks und tessellation das selbe. tessellationseinheiten in die gtx 480, dann den krempel flächendeckend als proprietäre libraries in der spielelandschaft verteilt und viola: ati/amd delta -20% fps.

@ docwindows:

bevor du mich als aluhutträger verunglimpfst würde ich dir dringend mal empfehlen dich zu informieren. du kannst du ja mal irgendwelche spiele heraussuchen und googeln und dann verwundert feststellen, dass nvidias gameworks tessellation praktisch überall drin ist.
 
Zuletzt bearbeitet:
genauso werden sie dieses Feature @ Topic ggf wieder in ner eigenen Implementierung bringen, viele Gameworks Effekte auf ihre Tensor Cores zuschneiden (einen Nachfolger für Softshadows, HBAO+ usw)... würde mich zumindest nicht wundern zumal man aktuell wohl eben alleinig die HW dafür stellt.

Und selbst wenn die Konkurrenz dann die "AMD XRay Engine" implementiert hat, die potentiell auf Raytracing getrimmt ist, werden diese Gameworks Sachen eher auf den Nvidia Karten skalieren . Is eben ein Teufelskreis.
 
Zuletzt bearbeitet:
Shrimpy schrieb:
NV sitzt auf DX11 weil sie unter DX12 und Vulkan nix besser können mit Maxwell2, aber AMDs GPUs sehr wohl.
Und mit 80% Marktanteil ist man der Taktgeber.

Wie soll nVidia denn unter DX12 großartig zulegen wenn die GPU-Auslastung unter DX11 schon nahezu durchgehend >95% beträgt?
Man sollte schon den Grund verstehen warum die Zunahmen, bzw. ausbleibenden Zunahmen so sind wie sie sind.

@duskstalker: Sitzt langsam der Aluhut zu eng? 90% Gameworks Titel. Klar doch.
Außerdem könnte man meinen du sprichst ständig über die Mafia mit dem Paten oben an der Spitze und nicht über einen Grafikkartenhersteller.
 
Zuletzt bearbeitet:
Ich schätze dass Raytracing auf Mittelklasse-Karten, d.h. um 300 Euro, erst in zehn Jahren ausreichend performant läuft und einen qualitativen Vorteil gegenüber bisherigen Lösungen bietet. Dann dauert es nochmal fünf Jahre bis einige Spiele das zwingend vorraussetzen und nochmal fünf Jahre bis es Standard ist.

Mit anderen Worten, um 2038 reden wir nochmal. Und sollte es wieder erwarten schon 2030 so weit sein so ist das trotzdem für heutige Kaufentscheidungen komplett irrelevant.
 
Sehr interessante Entwicklung auf jeden Fall. Die Lösung scheint ja auch auf partielle Strahlen, also nicht in voller Auflösung, hinzudeuten. Das da irgendwann Artefakte auftauchen, sobald man es zu stark untertreibt, sollte klar sein. Auf der anderen Seite hat Raytracing zwar hohe Anforderungen, die dafür aber konstant für jede Szene sind. Also wenn man einmal einen guten Grad zwischen verbesserter Optik und noch annehmbarer Performance gefunden hat, bleibt der über den gesamten Inhalt. Könnte in Extremsituation mit ganz vielen Polygonen sogar dazu führen, dass die Raytracing-Variante schneller ist als die Rasterizer-Variante. Es bleibt abzuwarten, ob die Computeshader damit in der Praxis überfordert sind oder aber mal einem guten Nutzen zukommen, gefühlt bringen viele Shader Cores bisher nicht soooooo viel.
 
Ich möchte zuerst das im Beitrag gezeigte Video kommentieren. Für mein Empfinden sieht es im Vollbild unter 1080 grieselig aus. Der Experimentelle Charakter ist klar zu erkennen und es mag mir nicht gefallen. Ich habe von Raytracing eigentlich superschöne Lichter, Spiegelungen und Schatten erwartet. Den Beitrag könnte man aufwerten, wenn er darauf eingehen würde, auf was man in dem Video achten solle und was das Neue daran ist.

So sehr ich Raytracing technisch für hoch interessant halte, so sehr dürfte dieses Raytracing-Light der Sache mehr Schaden als helfen.
 
kommt drauf an wie viel der Tensor Core Rohleistung man in Raytracing umsetzen kann. Es geht ja nicht darum vollständig rayzutracen, im Gegenteil. Man traced da zb nur einzelne Elemente mit weit weniger FPS als der Rest vom Bild. Sowas wie globale Beleuchtung und Verdeckung ändert sich ja nicht massiv. Da kann man mit recht wenig Raytacing Leistung sicher viel erreichen. Wobei "recht wenig Raytacring Leistung" relativ ist. Gut möglich dass die Implementierung mit wenig Tensor Cores da schon 20x fixer is als im klassischen GPU Design.

Nvidia verkauft nun das was sie für Deep Learning aus dem Boden gestampft haben als neues DX Feature, Raytracing. Logisch, man versucht aus dem Alleistellungsmerkmal Kapital zu schlagen da sich die Cores neben "Deep Learning" eben noch für was anderes eignen, zb Raytracing zu beschleunigen. Wenig verwunderlich dass das Nvidia mit MS initiiert und dass die einzige Tensor Core Karte das nun in HW unterstützt....
 
Seien wir doch mal ganz ehrlich und gucken was unter Spielern nun mal genutzt wird.

Steam Hardware Survey - September 2016 bis Februar 2018

85.3% Nvidia
8.91% Amd
5.63% Intel


Intel Onboard Grafik überholt fast AMD und das aus einem ganz bestimmten Grund... die landläufige Meinung ist nun mal pro Nvidia. Da werden die paar Fanboys und Fanatiker auch nichts mehr drehen können. Auf dem Papier geht es den meisten nur um FPS und nicht um Frametimes. Und den normalen PC Dau wird es nur interessieren, ob er mit seiner 4 Jahren alten Mühle Fortnite und Co spielen kann.
Bei Neuanschaffung wird er sich von seinem "PC-Spezi" beraten lassen und der wird nur ein paar stumpfe Tests passend zum Budget angucken.
Ich persönlich finde es Schade das die Konkurrenz verschwindet, aber AMD hat leider kein glückliches Händchen für diesen Markt.

@News

Interessant, aber absolut unnötig. Es gibt jetzt schon viele Effekte die einfach nur Performance fressen ohne ersichtliche Verbesserung. Lens Flares, Blooming, HDR Effekte, griesel Effekte,... das ist wie bei JJ Abrams Filmen. Da werden blendende Effekte drüber gelegt, damit man die hässlichen Requisiten nicht sehen muss.
 
Zuletzt bearbeitet:
R4nD00m schrieb:
Für mein Empfinden sieht es im Vollbild unter 1080 grieselig aus.

typisches Raytracing im Einsatz erkennt man genau daran. Vielleicht bewusst nicht rausgefiltert oder es fehlt noch an smarten Algorithmen die das "nahtlos" in die bestehende Engine integrieren. Denke da is man noch ganz am Anfang und hat es ggf auch in diesem Video recht "roh" zeigen wollen, sonst weiß man ja nich was klassisch errechnet und was geraytraced wurde.
 
DocWindows schrieb:
Wie soll nVidia denn unter DX12 großartig zulegen wenn die GPU-Auslastung unter DX11 schon nahezu durchgehend >95% beträgt?
Man sollte schon den Grund verstehen warum die Zunahmen, bzw. ausbleibenden Zunahmen so sind wie sie sind.

Der Grund ist einfach 70% Marktanteile und der starke Mindshare schon lange vor Maxwell....
DX12 hat vorteile abseits der Performance sogar für Nvidia wenn sie es mal richtig Supportet hätten in der letzten Gen(Pascal) und nicht nur Maxwell2 raus gehauen hätten, brauchten sie aber nicht auf Grund ihres schon damals großen Marktanteils.

Sei es drum, ich bin wirklich gespannt wie die Preise nach dem mining aussehen werden, bestimmt nicht viel besser als jetzt.
Und mit Mining braucht man keinen PC mehr zum zocken anschaffen.
 
Zuletzt bearbeitet von einem Moderator:
DocWindows schrieb:
Wie soll nVidia denn unter DX12 großartig zulegen wenn die GPU-Auslastung unter DX11 schon nahezu durchgehend >95% beträgt?
Man sollte schon den Grund verstehen warum die Zunahmen, bzw. ausbleibenden Zunahmen so sind wie sie sind.

ja verstehen ist das stichwort. nvidia gehts nicht um die absolute performance, sondern um die relative. solange amd langsamer ist, ist denen egal, wie "schlecht" ihre beste gpu performt. gameworks ist genau das: eigene performance mit sabotieren, aber amd trifft es härter. selbst das amd tressfx läuft vergleichbar auf geforce karten , während hairworks die amd karten um >60% fps runterreißen.

https://www.hardwareluxx.de/index.p...d-tressfx-und-nvidia-hairworks-im-detail.html

nvidia hat in dx12 nix zu gewinnen, deshalb bleibt man bei dx11, wo amd durch den hardware scheduler einen natürlichen nachteil hat, während der software scheduler von nvidia praktisch alles frisst und gute fps ausspuckt.


DocWindows schrieb:
Außerdem könnte man meinen du sprichst ständig über die Mafia mit dem Paten oben an der Spitze und nicht über einen Grafikkartenhersteller.

guten morgen, nvidia ist genau das.
 
Zuletzt bearbeitet:
trane87 schrieb:
Interessant, aber absolut unnötig. Es gibt jetzt schon viele Effekte die einfach nur Performance fressen ohne ersichtliche Verbesserung.

Nvidia wirds darum gegangen sein eine Aufgabe für ihre Tensor Cores zu suchen, die im klassischen Game eben vor sich hin gammeln ^^

Also stampft man sowas aus dem Boden. Setzt diese auch in Games ein, zb spezielle Gameworks Effekte die HBAO+ aufwerten. Besser als wenn man die Einheiten nicht auslastet und diese nur Die Fläche fressen. Dazu eben Marketing, mag sein dass man eine für sich unnütze kleine Menge an Tensor Kernen mit in die Next Gen GPU packt oder wirklich den ganzen Shader an sich abändert. Bin mal gespannt wie weit Nvidia da geht. man wird die eigene GPU nicht wegen sowas aufblasen.
 
duskstalker schrieb:
nvidia hat in dx11 durch ihren software scheduler und gameworks einen vorteil gegenüber amd, während für amd auf dx12 schonmal ein potentieller bremsklotz wegfällt.

nvidia hat in 90% der spiele über gameworks die finger drin. wenn die wollten, dass das spiel mit vulkan oder dx12 kommt, würde das auch passieren. bisher gibts aber nur haufenweise dx11 spiele mit gameworks und ein paar spiele mit verkorkstem dx12, das schlechter als dx11 läuft.

nvidia dreht gerade das größte ding der gpu geschichte, und du glaubst ernsthaft, dass nvidia keinen finger drauf hat, dass die in den benchmarks oben sind? :rolleyes:
[...]
"Software Scheduler" könnte man nicht allgemeiner ausdrücken.
Gemeint ist wohl die interne Aufarbeitung und das Treiber-Threading von den DX11-Anweisungen, die AMD genauso umsetzen könnte.

Nvidia hat nicht in 90% der Spiele mit GameWorks die Finger drin und dort wo sie es haben, hat der Großteil einen kleinen Einfluss, da am häufigsten HBAO+ zum Einsatz kommt, was auch nicht schlechter unter AMD läuft.
Und die Effekte die stärker reinhauen und einen größeren Unterschied aufzeigen werden von mehreren Seiten gar nicht für den Performanceindex zwischen den Herstellern verwendet.

Es ist überhaupt nicht Nvidias Entscheidung, was die Entwicklerstudios für eine API verwenden und wer denkt Nvidia hätte einen nennenswerten Einfluss fußt auf keinen realitätsnahen Boden.

Nvidia beeinflusst natürlich den Markt, aber es ist eher ein Boot im Meer, als ein fliegendes Schlachtschiff.
Man hat nicht selten das Gefühl, dass einige Leute es schaffen die Dinge heißer zu essen, als sie gekocht worden sind.
 
Krautmaster schrieb:
Es geht ja nicht darum vollständig rayzutracen, im Gegenteil. Man traced da zb nur einzelne Elemente mit weit weniger FPS als der Rest vom Bild

Ich denke wenn man vollständig Raytracen will, dann kann man mit den vorhandenen Chiparchitekturen keinen Blumentopf gewinnen. Da braucht es eine vollständige Neuentwicklung. Akzentuiertes Raytracing für Beleuchtung, Schatten, Reflexionen kann man sicherlich mit Zusatzeinheiten in Hardware oder per DirectCompute realisieren, aber 100% mit der auf Rasterisierung ausgelegten Technik? No way.

duskstalker schrieb:
nvidia hat in dx12 nix zu gewinnen, deshalb bleibt man bei dx11

Und das zeichnet sich wo ab? Dass die anderen APIs vernachlässigt werden? Kann ich nicht erkennen. In DX12 sind die Karten von AMD und nVidia, bis auf ein paar Ausnahmen die es immer gibt, gleich schnell. Genauso wie man es annehmen muss, wenn man die Probleme von AMD bei DX11 kennt. Du hast diese Probleme ja schon benannt.
Übrigens hat nVidia letztes Jahr schon ein Framework auf Github veröffentlicht mit dem die Anwendung von Vulkan vereinfacht werden soll. Von wegen Vernachläsigung und so.
Leider hat es so gut wie keinen Anklang gefunden.
 
Zuletzt bearbeitet:
Locuza schrieb:
Es ist überhaupt nicht Nvidias Entscheidung, was die Entwicklerstudios für eine API verwenden und wer denkt Nvidia hätte einen nennenswerten Einfluss fußt auf keinen realitätsnahen Boden.

https://www.bit-tech.net/news/tech/ubisoft-caught-in-assassin-s-creed-marketing-war/1/

ist das so, ja? war wohl zufall, dass der dx 10.1 support bei assassins creed wieder entfernt wurde, nachdem radeon karten bis zu 20% performance rausbekommen haben und nvidia nicht, weil die nvidia karten das dx feature set garnicht unterstützten.

der versprochene dx 10.1 support kam übrigens nicht wieder.
 
Zurück
Oben