News Microsoft: DirectX 12 erhält Raytracing-API DXR für Hybrid-Rendering

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.546
Spiele-Engines arbeiten derzeit ausschließlich mit einem Rasterizer. Der bedient sich diverser Tricks, um auch ohne die Berechnung der Wege von Millionen von Lichtstrahlen ein realitätsnahes Bild zu zeichnen – bei moderaten Anforderungen. Für einzelne Effekte bringt Microsoft DXR in Zukunft aber Raytracing ins Spiel.

Zur News: Microsoft: DirectX 12 erhält Raytracing-API DXR für Hybrid-Rendering
 
Hmm... Was lange währt wird endlich gut?

Raytracing ist ja nicht umbedingt neu. Ich bin mal gespannt ob es diesmal was wird oder ob es auch nur wieder viel Gelaber um nichts ist. Vor allem bin ich gespannt wie sich das auf die Leistung der modernen GPUs auswirken wird.
 
Gibt es irgendwo Beispielbilder wie ein Effekt mit und ohne diesem Feature aussieht?
 
lol ... da arbeitet Nvidia eng mit Microsoft zusammen und so ein Zufall aber auch, Intel und AMD beherrschen das nicht und ohne Gameworks geht das aktuell eh nicht.
 
Während Grafikengines so bereits schon komplex sind und kaum einer diese vernünftig zu otimieren weiß, werden da nun noch Faktoren drübergelegt. Und die Erde wird waaaarm :lol:
 
Denn für reines Echtzeit-Raytracing ist PC-Hardware heute und auch in ein paar Jahren noch immer zu langsam.

Ist dann die Frage, ob die Welt so einen weiteren "Gameworks"-Effekt braucht, wenn man sich anschaut wie mies aktuelle Spiele zum Teil von Haus aus von den Entwicklern schon umgesetzt werden und dass GPUs generell eigentlich so gut wie immer den Flaschenhals darstellen und das nicht erst seit einigen wenigen Jahren.

Da noch mehr Anforderungen an jetzige und zukünftige GPUs zu stellen für zweifelhaft sinnvolle/notwendige Zusatzeffekte bei den aktuellen Grafikkartenpreisen und steigende Architektur-Anforderungen, werden die Kluft zwischen den Leistungsklassen und GPU-Käufern damit zukunftig eher noch vergrößern durch noch höhere Grafikkartenpreise/geringere Erschwinglichkeit.

Werden die kommenden Turing-Gaming-Karten dann - fast nur für dieses fragwürdige Minimal-Raytracing-Feature - Tensor-Cores (aber eine geringere, preislich tragbarere Anzahl als bei der Titan V) mitbekommen oder eine technisch abgespeckte Tensor-Core-Variante?

Momentan wird ja gemunkelt, dass AMD/RTG an einem Tensor-Core Pendant für die eigenen Profikarten arbeitet, aber vor einer neuen Vega20-Chip-Karte (die ehemals von Koduri & Co. in 7nm Fertigung angekündigt wurde), sollte man damit eigentlich nicht rechnen können, für Gamer also frühestens mit dem Martkstart von Navi (und dann wieder in einer reduzierten Kerne-Anzahl oder technisch abgespeckten Version im Vergleich zu den Profikkarten?).

Dumm bloss, dass AMD/RTG und Intel hier wohl entwicklungstechnisch hinterher zu hinken scheinen (keine faire Verteilung zum Start vorliegt) und nVidia das wohl (wie üblich proprietär) mit der eigenen Marktmacht puschen wird als ein neuer Pfeiler der Dominanz, auch wenn bzgl. Sinn/Zweck in Spielen das Feature m.E. aktuell überbewertet wird.

Nun ja, wenigstens gibt es technologischen Fortschritt, fragt sich wie lohnend der ist, wenn aktuell schon noch erschwingliche GPUs hoffnungslos überfordert sind bzgl. der Resourcenanforderungen/-verschwendung in Spielen ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quonux
Nachdem Intel ja schon mit Raytracing experimentiert hat, die Sache aber schon lange eingeschlafen oder eingestellt zu sein scheint, ist es gut dass MS und nVidia das Thema jetzt nochmal aufgreifen.

Rasterisierung stößt darstellungstechnisch halt irgendwann an ihre Grenzen. Ich denke wenn man Raytracing clever und sinnvoll mit Rasterisierung mischt, kommt man eher voran als wenn man bei reiner Rasterisierung bleibt.

Der Support für die Technik ist dann vielleicht auch eher ein Kaufargument für eine neue Grafikkarte als - mal wieder - 10% mehr Geschwindigkeit und ein bißchen weniger Stromverbrauch.
 
duskstalker schrieb:
nichts wird gut - das ding ist gameworks reloaded und teil der killmove strategie von nvidia gegen amd. wenn nvidia & microsoft daran arbeiten, kann man sich doch denken, was dabei rauskommt.

Ne Open-Source Variante von AMD, die in Vulkan integriert wird? :evillol:
 
Also laut einigen Artikeln beherrschen die DX12 Karten von AMD Raytracing wie es in DX12 dann aufgenommen wird.

Zudem hat AMD gestern ein Video von Raytracing + Vulkan-Unterstützung gezeigt. ;)
 
ZeroCoolRiddler schrieb:
Ne Open-Source Variante von AMD, die in Vulkan integriert wird? :evillol:

die wer benutzt? :rolleyes: wir sind in einem stadium angekommen, in dem vollkommen egal ist, was amd macht.

das ding wird nvidia all the way.
 
Da kommt in Sachen Grafik seit Jahren wiedermal richtig was geiles und als AMDler hat man natürlich wieder die Hosen voll weil man nichts entgegenzusetzen hat. Gut, nichts neues.

Ich freue mich auf das Feature und bin gespannt auf erste Titel.
 
Ich finde Licht und Schatten in einigen Spielen schon ganz gut. Ich würde dann lieber gleich echtes Raytracing sehen, aber irgendwie muss man ja anfangen.
Würde gerne mal sehen, in wie weit es die Grafik verbessert (also vorher mit maximal Möglichem/nachher).
 
Zuletzt bearbeitet von einem Moderator:
Kernelement sind hier wirklich die Tensor Cores und die einhergehende X Fach schnellere Matrizen / Vektoren Berechnung. Da dürften andere Karten nicht mal ansatzweise rankommen wenn sie das in SW lösen müssen. Da wird dann eben klassisch er gleiche Effekt gelöst, mit leichten Einschränkungen.

Anzunehmen dass Nvidia deswegen auch die Tensor Cores, zumindest einige davon, in die generelle Architektur aufnehmen wird. Ich denke diese Raytracing Features können die Grafik wirklich auch mit wenig Strahlen deutlich aufbessern indem physikalisch korrekt gearbeitet wird. Über intelligente Mechanismen reichen da sicher wenig Rays aus um dann wieder eine nahezu ideale Beleuchtung / Schattenwurf, Spiegelung zu erzeugen.

Generell scheint Nvidia ja doch auch schon recht lange recht viel Erfahrung beim Raytracen gesammelt zu haben. Bin mal gespannt wann und in wie fern diese Features sinnvoll in modernen Engines eingesetzt werden. Das kommt schon fast DX13 gleich. Ggf auch zunächst in Gameworks Effekten die nur auf diversen GPU laufen und auch laufen können.

Mal sehen wann AMD sowas in HW packt und wie die Implementierung dazu aussieht. Das ist ein bisschen wie Tessellation.
 
Zuletzt bearbeitet:
duskstalker schrieb:

Bethesda ;-) Big Deal mit AMD, id-Tech 6 (gute Basis/Entwickler) und bereits zwei moderne Vulkan-Titel (Doom und Wolfenstein 2) auf dem Konto.

r4yn3 schrieb:
Ich freue mich auf das Feature und bin gespannt auf erste Titel.

Ich ehrlich gesagt auch, alleine schon weil dadurch weitere DX12-(only)Titel auf dem Markt kommen und die API gepusht wird. Raytracing wird in diesen Titeln ohnehin optional bleiben.

Krautmaster schrieb:
Kernelement sind hier wirklich die Tensor Cores...

Beschleunigen die Tensor Cores nur den Denoiser (schwarze Punkte) oder generell das Raytracing? Wird mir aus dem Text nicht ganz klar.

Krautmaster schrieb:
Generell scheint Nvidia ja doch auch schon recht lange recht viel Erfahrung beim Raytracen gesammelt zu haben.
Den Eindruck erwecken sie zumindest in der Presse, aber angeblich hatte Nvidia mit Microsoft auch schon seit 4-5 Jahren an DX12 gearbeitet. Irgendwie kam die Erfahrung nie durch :-)
 
Zuletzt bearbeitet:
Freiheraus schrieb:
Bethesda ;-) Big Deal mit AMD, id-Tech 6 (gute Basis/Entwickler) und bereits zwei moderne Vulkan-Titel (Doom und Wolfenstein 2) auf dem Konto.

ne partnerschaft mit einem publisher macht noch keine relevante verbreitung einer API. bisher konnte man wenigstens sagen, dass die low level apis generell nicht vorran kommen, weil nvidia noch auf dx11 sitzt - so hätte vulkan noch eine chance gegen dx12 gehabt sich auf lange sicht durchzusetzen.

aber mit nvidia im boot für eine nvidia "exklusive" dx12 erweiterung ist vulkan praktisch tot.

vergleiche halt mal wie viele spiele mit gameworks statt vulkan kommen. dann sieht das ganze schon anders aus.
 
duskstalker schrieb:
weil nvidia noch auf dx11 sitzt

Wo sitzt (setzt?) nVidia denn bitte auf DX11? Sie bieten alle relevanten APIs an. DX11 und kleiner, DX12, OpenGL und Vulkan. Die Spieleentwickler müssen es halt auch nutzen. Warum das nicht passiert sollte man eher die Spieleentwickler fragen. Es ist nicht nVidias Entscheidung ob Spiel XYZ DX11, 12 oder Vulkan nutzt.
 
Zuletzt bearbeitet:
Naja, es gab schon Partikeleffekte die beeindruckend sind wo diese auch nur mit DX12 umzusetzen waren.
Die Witcher 3 Demo von 2014.
Bis da was kommt muss schon ein X70er Volta kommen, und nicht für 900€ UVP, auch ohne Miner wird das nichts mehr.
Viel Spaß beim warten.:lol:

NV sitzt auf DX11 weil sie unter DX12 und Vulkan nix besser können mit Maxwell2, aber AMDs GPUs sehr wohl.
Und mit 80% Marktanteil ist man der Taktgeber.

Erst GPP und nun die Tensor Cores in Markt drücken, ich würde mich nicht mehr drauf verlassen das AMD GPUs jemals wieder relevant werden fürn Gaming PC.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben