News Microsoft: DirectX 12 erhält Raytracing-API DXR für Hybrid-Rendering

Wolfgang

Redakteur
Teammitglied
Dabei seit
Nov. 2002
Beiträge
6.221
#1
Spiele-Engines arbeiten derzeit ausschließlich mit einem Rasterizer. Der bedient sich diverser Tricks, um auch ohne die Berechnung der Wege von Millionen von Lichtstrahlen ein realitätsnahes Bild zu zeichnen – bei moderaten Anforderungen. Für einzelne Effekte bringt Microsoft DXR in Zukunft aber Raytracing ins Spiel.

Zur News: Microsoft: DirectX 12 erhält Raytracing-API DXR für Hybrid-Rendering
 

Cool Master

Fleet Admiral
Dabei seit
Dez. 2005
Beiträge
24.990
#2
Hmm... Was lange währt wird endlich gut?

Raytracing ist ja nicht umbedingt neu. Ich bin mal gespannt ob es diesmal was wird oder ob es auch nur wieder viel Gelaber um nichts ist. Vor allem bin ich gespannt wie sich das auf die Leistung der modernen GPUs auswirken wird.
 

Mr_Tee

Lieutenant
Dabei seit
Jan. 2004
Beiträge
549
#5
lol ... da arbeitet Nvidia eng mit Microsoft zusammen und so ein Zufall aber auch, Intel und AMD beherrschen das nicht und ohne Gameworks geht das aktuell eh nicht.
 
Dabei seit
Sep. 2004
Beiträge
853
#6
Während Grafikengines so bereits schon komplex sind und kaum einer diese vernünftig zu otimieren weiß, werden da nun noch Faktoren drübergelegt. Und die Erde wird waaaarm :lol:
 
Dabei seit
Mai 2015
Beiträge
3.298
#7
Denn für reines Echtzeit-Raytracing ist PC-Hardware heute und auch in ein paar Jahren noch immer zu langsam.
Ist dann die Frage, ob die Welt so einen weiteren "Gameworks"-Effekt braucht, wenn man sich anschaut wie mies aktuelle Spiele zum Teil von Haus aus von den Entwicklern schon umgesetzt werden und dass GPUs generell eigentlich so gut wie immer den Flaschenhals darstellen und das nicht erst seit einigen wenigen Jahren.

Da noch mehr Anforderungen an jetzige und zukünftige GPUs zu stellen für zweifelhaft sinnvolle/notwendige Zusatzeffekte bei den aktuellen Grafikkartenpreisen und steigende Architektur-Anforderungen, werden die Kluft zwischen den Leistungsklassen und GPU-Käufern damit zukunftig eher noch vergrößern durch noch höhere Grafikkartenpreise/geringere Erschwinglichkeit.

Werden die kommenden Turing-Gaming-Karten dann - fast nur für dieses fragwürdige Minimal-Raytracing-Feature - Tensor-Cores (aber eine geringere, preislich tragbarere Anzahl als bei der Titan V) mitbekommen oder eine technisch abgespeckte Tensor-Core-Variante?

Momentan wird ja gemunkelt, dass AMD/RTG an einem Tensor-Core Pendant für die eigenen Profikarten arbeitet, aber vor einer neuen Vega20-Chip-Karte (die ehemals von Koduri & Co. in 7nm Fertigung angekündigt wurde), sollte man damit eigentlich nicht rechnen können, für Gamer also frühestens mit dem Martkstart von Navi (und dann wieder in einer reduzierten Kerne-Anzahl oder technisch abgespeckten Version im Vergleich zu den Profikkarten?).

Dumm bloss, dass AMD/RTG und Intel hier wohl entwicklungstechnisch hinterher zu hinken scheinen (keine faire Verteilung zum Start vorliegt) und nVidia das wohl (wie üblich proprietär) mit der eigenen Marktmacht puschen wird als ein neuer Pfeiler der Dominanz, auch wenn bzgl. Sinn/Zweck in Spielen das Feature m.E. aktuell überbewertet wird.

Nun ja, wenigstens gibt es technologischen Fortschritt, fragt sich wie lohnend der ist, wenn aktuell schon noch erschwingliche GPUs hoffnungslos überfordert sind bzgl. der Resourcenanforderungen/-verschwendung in Spielen ;).
 
Zuletzt bearbeitet:
Dabei seit
Mai 2013
Beiträge
3.919
#8
Nachdem Intel ja schon mit Raytracing experimentiert hat, die Sache aber schon lange eingeschlafen oder eingestellt zu sein scheint, ist es gut dass MS und nVidia das Thema jetzt nochmal aufgreifen.

Rasterisierung stößt darstellungstechnisch halt irgendwann an ihre Grenzen. Ich denke wenn man Raytracing clever und sinnvoll mit Rasterisierung mischt, kommt man eher voran als wenn man bei reiner Rasterisierung bleibt.

Der Support für die Technik ist dann vielleicht auch eher ein Kaufargument für eine neue Grafikkarte als - mal wieder - 10% mehr Geschwindigkeit und ein bißchen weniger Stromverbrauch.
 
Dabei seit
Juli 2010
Beiträge
4.782
#10
Also laut einigen Artikeln beherrschen die DX12 Karten von AMD Raytracing wie es in DX12 dann aufgenommen wird.

Zudem hat AMD gestern ein Video von Raytracing + Vulkan-Unterstützung gezeigt. ;)
 
Dabei seit
Jan. 2012
Beiträge
3.563
#11

r4yn3

Vice Admiral
Dabei seit
Mai 2006
Beiträge
6.363
#13
Da kommt in Sachen Grafik seit Jahren wiedermal richtig was geiles und als AMDler hat man natürlich wieder die Hosen voll weil man nichts entgegenzusetzen hat. Gut, nichts neues.

Ich freue mich auf das Feature und bin gespannt auf erste Titel.
 
C

CS74ES

Gast
#15
Ich finde Licht und Schatten in einigen Spielen schon ganz gut. Ich würde dann lieber gleich echtes Raytracing sehen, aber irgendwie muss man ja anfangen.
Würde gerne mal sehen, in wie weit es die Grafik verbessert (also vorher mit maximal Möglichem/nachher).
 
Zuletzt von einem Moderator bearbeitet:

Krautmaster

Fleet Admiral
Dabei seit
Feb. 2007
Beiträge
20.519
#16
Kernelement sind hier wirklich die Tensor Cores und die einhergehende X Fach schnellere Matrizen / Vektoren Berechnung. Da dürften andere Karten nicht mal ansatzweise rankommen wenn sie das in SW lösen müssen. Da wird dann eben klassisch er gleiche Effekt gelöst, mit leichten Einschränkungen.

Anzunehmen dass Nvidia deswegen auch die Tensor Cores, zumindest einige davon, in die generelle Architektur aufnehmen wird. Ich denke diese Raytracing Features können die Grafik wirklich auch mit wenig Strahlen deutlich aufbessern indem physikalisch korrekt gearbeitet wird. Über intelligente Mechanismen reichen da sicher wenig Rays aus um dann wieder eine nahezu ideale Beleuchtung / Schattenwurf, Spiegelung zu erzeugen.

Generell scheint Nvidia ja doch auch schon recht lange recht viel Erfahrung beim Raytracen gesammelt zu haben. Bin mal gespannt wann und in wie fern diese Features sinnvoll in modernen Engines eingesetzt werden. Das kommt schon fast DX13 gleich. Ggf auch zunächst in Gameworks Effekten die nur auf diversen GPU laufen und auch laufen können.

Mal sehen wann AMD sowas in HW packt und wie die Implementierung dazu aussieht. Das ist ein bisschen wie Tessellation.
 
Zuletzt bearbeitet:
Dabei seit
Nov. 2017
Beiträge
170
#17
Bethesda ;-) Big Deal mit AMD, id-Tech 6 (gute Basis/Entwickler) und bereits zwei moderne Vulkan-Titel (Doom und Wolfenstein 2) auf dem Konto.

Ich freue mich auf das Feature und bin gespannt auf erste Titel.
Ich ehrlich gesagt auch, alleine schon weil dadurch weitere DX12-(only)Titel auf dem Markt kommen und die API gepusht wird. Raytracing wird in diesen Titeln ohnehin optional bleiben.

Beschleunigen die Tensor Cores nur den Denoiser (schwarze Punkte) oder generell das Raytracing? Wird mir aus dem Text nicht ganz klar.

Generell scheint Nvidia ja doch auch schon recht lange recht viel Erfahrung beim Raytracen gesammelt zu haben.
Den Eindruck erwecken sie zumindest in der Presse, aber angeblich hatte Nvidia mit Microsoft auch schon seit 4-5 Jahren an DX12 gearbeitet. Irgendwie kam die Erfahrung nie durch :-)
 
Zuletzt bearbeitet:
Dabei seit
Jan. 2012
Beiträge
3.563
#18
Bethesda ;-) Big Deal mit AMD, id-Tech 6 (gute Basis/Entwickler) und bereits zwei moderne Vulkan-Titel (Doom und Wolfenstein 2) auf dem Konto.
ne partnerschaft mit einem publisher macht noch keine relevante verbreitung einer API. bisher konnte man wenigstens sagen, dass die low level apis generell nicht vorran kommen, weil nvidia noch auf dx11 sitzt - so hätte vulkan noch eine chance gegen dx12 gehabt sich auf lange sicht durchzusetzen.

aber mit nvidia im boot für eine nvidia "exklusive" dx12 erweiterung ist vulkan praktisch tot.

vergleiche halt mal wie viele spiele mit gameworks statt vulkan kommen. dann sieht das ganze schon anders aus.
 
Dabei seit
Mai 2013
Beiträge
3.919
#19
Wo sitzt (setzt?) nVidia denn bitte auf DX11? Sie bieten alle relevanten APIs an. DX11 und kleiner, DX12, OpenGL und Vulkan. Die Spieleentwickler müssen es halt auch nutzen. Warum das nicht passiert sollte man eher die Spieleentwickler fragen. Es ist nicht nVidias Entscheidung ob Spiel XYZ DX11, 12 oder Vulkan nutzt.
 
Zuletzt bearbeitet:

Shrimpy

Lieutenant
Dabei seit
Mai 2011
Beiträge
847
#20
Naja, es gab schon Partikeleffekte die beeindruckend sind wo diese auch nur mit DX12 umzusetzen waren.
Die Witcher 3 Demo von 2014.
Bis da was kommt muss schon ein X70er Volta kommen, und nicht für 900€ UVP, auch ohne Miner wird das nichts mehr.
Viel Spaß beim warten.:lol:

NV sitzt auf DX11 weil sie unter DX12 und Vulkan nix besser können mit Maxwell2, aber AMDs GPUs sehr wohl.
Und mit 80% Marktanteil ist man der Taktgeber.

Erst GPP und nun die Tensor Cores in Markt drücken, ich würde mich nicht mehr drauf verlassen das AMD GPUs jemals wieder relevant werden fürn Gaming PC.
 
Zuletzt bearbeitet:
Top