News Khronos Group: Vulkan lernt Raytracing – aber noch nicht final

Und wie stellst du dir vor soll Raytracing kommen? Etwa mit einer Karte die sofort 100% Raytracing in 4K mit 120fps schafft (und dann kein Rasterising kann)?
Das geht nur über solche Zwischenschritte.
 
  • Gefällt mir
Reaktionen: .Sentinel., captain kirk, Herdware und eine weitere Person
DJ2000 schrieb:
Khronos Group mag viell. "etwas spät" sein mit der Implementierung, jedoch "nicht zu spät".

Zu spät um zum Beispiel Sony davon zu überzeugen in den kommenden Konsolengeneration drauf zu setzen, statt selbst eine Erweiterung der eigenen APIs zu entwickeln.

Damit sind DXR und Sonyirgendwas gesetzt, Vulkan hingegen bestenfalls eine Nische ohne wirklichen Einsatz, ausser vielleicht bei der Switch oder Android Geräten, wo man aber vom hybriden Raytracing noch in vielen Jahren nichts sehen wird.
 
Wie kommst du darauf? Es nutzt sogar die gleiche Shadersprache HLSL wie DXR und ist somit 1:1 kompatibel.
 
DJ2000 schrieb:
Es nutzt sogar die gleiche Shadersprache HLSL wie DXR und ist somit 1:1 kompatibel.

Momentan wird versucht die API so zu gestalten, dass Portierungen möglichst einfach sind.
ISVs were also very clear—we needed to enable content using contemporary proprietary APIs, such as NVIDIA OptiX™ or Microsoft DirectX Raytracing, to be easily portable to Vulkan. Consequently we used a familiar overall architecture, including the re-use of HLSL shaders, while also introducing new functionality and implementation flexibility.
https://www.khronos.org/blog/ray-tracing-in-vulkan

Man hat also bereits jetzt praktisch die Segel gestrichen und geht davon aus, dass sowieso alle für DXR entwickeln und die Spiele dann mit möglichst wenig Aufwand, bei Bedarf auch auf Vulkan portiert werden. Der Schritt ist durchaus logisch und natürlich wird es auch ein reine Entwicklung unter Vulkan einfacher machen, nur wieso sollte man dies tun, statt zum "Original" zu greifen?

Die Khronos Group hat den Zug also um mindestens zwei Jahre verpasst, wo sie die Möglichkeit gehabt hätten noch vor Microsoft eine RT API auf den Markt zu bringen, um eine echte plattformunabhängige Alternative nach eigenen Vorgaben zu bieten. Microsoft hatte ewig mit Problemen bei dem 1809 Update zu kämpfen, man hat also von der DXR Ankündigung im März 2018 fast ein Jahr Zeit dafür gehabt. Irgendwann in 2020-2021 ist man schlichtweg mal wieder viel zu spät dran, fast alle grösseren Spieleschmieden haben schon ihre Erfahrungen mit DXR gesammelt und die Engines sind ebenfalls bereits darauf angepasst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Zeit. Resourcen. Ease-of-use.
Vulkan ist nicht der dominierende Faktor in diesem Segment.

Deine Frage ist berechtigt, jedoch scheint dir die Antwort auf deine Frage bereits bekannt zu sein.
 
HaZweiOh schrieb:
Der CB-Artikel klingt ja arg negativ, wenn man ihn mit dem informativen Golem-Artikel vergleicht:

Der Golem Artikel ist vor allem eines - überzogen!

Titelzeile:
Die Grafikkartenschnittstelle Vulkan beherrscht nun Raytracing ähnlich dem DXR Tier 1.1 von Microsoft.

Wie kommt man auf eine solche Aussage, wenn die Khronos Group selbst dazu dies sagt:
Today the Khronos Vulkan Ray Tracing Task Sub Group (TSG) is announcing the public release of the provisional Vulkan Ray Tracing extensions. The Ray Tracing TSG was formed in early 2018 and tasked to bring a tightly integrated, cross-vendor, ray tracing solution to Vulkan, this release marks the culmination of the first phase of the TSG’s mandate.

The TSG received a number of design contributions from IHVs and examined requirements from both ISVs and IHVs. Real-time techniques for ray tracing are still being actively researched and so the first version of Vulkan Ray Tracing has been designed to provide an effective framework, while setting an extensible stage for future developments.
https://www.khronos.org/blog/ray-tracing-in-vulkan

Im Text wird dann erklärt man hätte mit DXR gleichgezogen obwohl DXR seit zwei Jahren auf dem Markt etabliert ist und es bei Vulkan es um die ersten provisorischen Schritte geht? Auf dem Stand von Vulkan war DXR im März 2018.

Der Computerbase Artikel gibt den aktuellen Stand von RT unter Vulkan korrekt wieder. Es sind die ersten Schritte zu einer API gemacht worden, mehr aber auch nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Dann frag mal bei Nvidia und Co, die werden dir bestätigen, dass das Feature Set weitestgehend DXR Tier 1.1 entspricht, selbst wenn es bei Vulkan noch "provisional" ist.
 
  • Gefällt mir
Reaktionen: HaZweiOh
y33H@ schrieb:
Dann frag mal bei Nvidia und Co, die werden dir bestätigen, dass das Feature Set weitestgehend DXR Tier 1.1 entspricht,

Ich bestreite es nicht, nur ist ein erster Umriss nicht mit "beherrscht nun" gleichzusetzen.
In the provisional release, only the rayTracing and rayTracingIndirectTraceRays features are required to be supported by implementations. It should also be noted that this extension also requires the descriptorIndexing and bufferDeviceAddress features from Vulkan 1.2 (or precursor extensions) to be supported.
However, as this is a provisional release, some functionality is likely to change before the final release, consequently we are asking that driver vendors not ship it in production drivers and that ISVs not use the provisional version in production applications.

Der aktuelle Stand ist "Work in Progress", unvollständig und entspricht nicht einmal einer Alpha oder gar Beta Version, es soll zeigen wohin die Entwicklung geht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Überzogen ist höchstens dein Dauer-Gejammer über alles, was nicht von Microsoft kommt.
Offene Standards haben sich am Ende immer durchgesetzt, diese Erfahrung darf Nvidia auch gerade wieder zum x. Mal machen. Wenn man nicht dazu lernt, muss man halt in die Wiederholungs-Schleife. ;)
 
Zuletzt bearbeitet:
HaZweiOh schrieb:
Offene Standards haben sich am Ende immer durchgesetzt, diese Erfahrung darf Nvidia auch gerade wieder zum x. Mal machen.

Was Nvidia damit jetzt zu tun haben soll musst du mir mal erklären.
 
Madman1209 schrieb:
ist das wirklich so? Meines Wissens wird bei Filmen meist REYES verwendet. Gibt es Beispiele - außer "Cars" - für Filme, bei denen Raytracing zum Einsatz kam oder kommt?
Das Gegenteil ist der Fall. REYES ist eine uralte Technik. https://de.wikipedia.org/wiki/REYES_(Computergrafik)

Alle großen Renderer haben eigene, physikalisch korrekte Rendering-Engines, die in den meisten Fällen richtiges Raytracing beherrschen. Nicht das echtzeitfähige Pseudo-Raytracing bzw. Raytracing-beschleunigte 3D-Feature für Spiele.

Bei Nvidia und Microsoft wird Raytracing mit wenigen Strahlen dazu genutzt, um abstraktere Rendering-Algorithmen zu unterstützen.

Die großen Renderer brauche Minuten bis Stunden für ein Bild, weil für jeden einzelnen Pixel tausende Raytracing-Strahlen abgeschossen und berechnet werden müssen, mit mehreren Reflektionen und physikalisch korrekter Brechung an Oberflächen.

Blender Cycles kann richtiges Raytracing: https://de.wikipedia.org/wiki/Blender_(Software)#Renderengines
MentalRay (eingesetzt in 3dsMax und Maya, den richtigen Hollywood-3D-Programmen, übrigens auch von Nvidia entwickelt) kann richtiges Raytracing: https://de.wikipedia.org/wiki/Mental_Ray und der wurde in diversen Filmen eingesetzt
Wikipedia schrieb:
In Filmen wie Star Wars: Episode III und der Herr-der-Ringe-Trilogie zeigt Mental Ray, wozu es in Zusammenarbeit mit anderen Programmen und Techniken fähig ist (die Postproduktion ist hier sehr wichtig, d. h. der Farbangleich und vieles mehr, ohne die das Ergebnis nicht das Gleiche wäre).

3ds Max (eingesetzt in diesen Filmproduktionen) hat nicht nur MentalRay, sondern z.B. auch noch V-Ray

Und es gibt noch mehr physikalisch korrekte Renderer, die in alle verbreiteten 3D-Modellierer eingebunden werden können:
https://de.wikipedia.org/wiki/LuxCoreRender
https://de.wikipedia.org/wiki/Indigo_Renderer
https://de.wikipedia.org/wiki/YafaRay


Natürlich versuchen auch diese Renderer so schnell wie möglich zu sein. Aber physikalisch korrekt geht nur mit richtigem Raytracing (das heutzutage auch über CUDA oder OpenCL beschleunigt werden kann)
Deswegen sind diese Renderer auch teilweise Jahrzehnte älter als DXR etc.

Die Lösungen von Microsoft (DXR) und Vulkan sind nicht für maximale physikalische Korrektheit, sondern für Echtzeitfähigkeit gebaut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., v45c0 und Madman1209
@Fortatus

Will nur kurz einwerfen, dass nicht alle deine Angaben korrekt sind obwohl ich deinen Beitrag sehr interessant finde.

Zum Beispiel rendert blender cycles nicht physikalisch korrekt sondern ist eine sogenannte biased renderengine. Beispiele für unbiased ( also physikalisch korrekte) renderengines die auch gpu Beschleunigung unterstützen sind Octanerender, Indigo und Lux wie du schon richtig angegeben hast.

Vray ist nicht Bestandteil von 3ds-max sondern eine eigenständige engine die es unter sehr vielen anderen auch für 3ds-max gibt. 3ds-max ist hierbei sozusagen das Modellierungs und Animations Programm, Während Vray (biased) jeden einzelnen frame berechnet.

Lux und yafaray gibt es übrigens fast ausschließlich für blender, alle anderen plugins sind veraltet...

Edit: Hier eine ( schon etwas ältere) Gegenüberstellung von biased und unbiased.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und Strahltriebwerk
dx12 kam 2015 raus. vulkan 2016
jetzt kommt rt 1 jahr später

so eine API ist sicher nicht leicht zu realisieren und es gab vermutlich wichtigere dinge, als ein feature, das laut steam umfrage nur 6% nutzen können (außerdem legt AMD, also kein RT bei den verkäufen deutlich zu)
es gab also keinen stress das jetzt so schnell wie möglich einzubauen. wichtiger sind stabilität und performance

vulkan 1.2 kam doch erst vor ein paar wochen raus mit wichtigen neuerungen

und es wird vermutlich auch etwas damit zu tun haben, dass AMD ein gründer ist und deren RT GPUs erst rauskommen
 
R4ID schrieb:
Aber was sich nach wie vor nicht geändert hat ist die enorme Leistung die diese Technik benötigt.
Wenn die Aussage verhältnislos quantitativ gemeint war stimmt das.
Ansonsten ist das nur die halbe Wahrheit.

Einerseits schraubt man an der Hardwareleistung.
Andererseits wurde der Leistungsbedarf von RT-Berechnungen selbst um Faktoren! gesenkt.
Intelligente Filterung, Akkumulationstechniken, Denoising, intelligente Rekonstruktion...

Ohne beide gegenläufige Entwicklungen wäre heutzutage nicht an RTRT zu denken.

LG
Zero
 
Zurück
Oben