News DXR: Die Unreal Engine unterstützt jetzt Raytracing

EcOnOmiC

Lt. Junior Grade
Dabei seit
Apr. 2008
Beiträge
403
Der Release 4.22 sollte dann gegen Ende März sein. Somit sollte schon fast gesichert sein das Gears 5
mit der 4.22 Engine kommt. (GOW4 Release 10.2016 mit UE 4.11. Release Ende März 2016)
Somit erwartet uns wieder ein Grafikhammer. Was leider selten ist mit der UE
 

Gorgone

Ensign
Dabei seit
Okt. 2003
Beiträge
201
also unreal war schon immer eine nvidia engine .... nun ist das aber schon fast mehr als ......... selbstzensur
 

Gandalf2210

Captain
Dabei seit
Mai 2010
Beiträge
3.354
Nur Nvidia? Hat Intel nicht auch Tools raus gebracht um raytracing Software seitig zu berechnen?
 

duskstalker

Captain
Dabei seit
Jan. 2012
Beiträge
4.033
war nur ne frage der zeit, bis die hausengine von nvidia auch RTX unterstützt.

@Terminator-800

nicht dass ich wüsste. ich würde aber auch unter dx12 nicht unbedingt von automatisch besserer amd performance ausgehen. die schlechte amd performance hat hier system.

Edit: da war doch was: gears of war 4. aber das spiel läuft ausnahmsweise auch auf dx11 ok auf radeon karten. das spiel ist hier in zweierlei hinsicht eine seltene ausnahme.
 
Zuletzt bearbeitet:

SKu

Admiral
Dabei seit
Aug. 2012
Beiträge
7.327
Ich würde jetzt Raytracing in BF5 mit rund 100fps in WQHD nicht als großen Leistungsverluste bezeichnen. Allerdings setzt das auch eine Ti voraus.
 

hroessler

Commander
Dabei seit
Okt. 2013
Beiträge
2.396
DX12 KANN besser performen....muss es aber nicht. Das hängt auch von der verweneten Hardware ab. Eine Hardware die bereits im GPU Limit hängt, bringen weitere DrawCalls nicht viel. Ebenso eine CPU die an der Kotzgrenze ist. DX 12 kann dann was bringen, wenn die CPU und GPU noch Reserven haben. Dies hängt dann aber noch von der Implementierung der Renderpipeline ab. Wie sich dies dann im Vergleich zu Multithreaded DX11 schlägt, abwarten...

greetz
hroessler
 

mfJade

Rear Admiral
Dabei seit
Mai 2011
Beiträge
5.767
Raytracing scheint mit VR vergleichbar zu sein. Mal schauen wie sich das so entwickelt.
 

Sahneknuffi

Lieutenant
Dabei seit
Okt. 2001
Beiträge
941
Schaut schon geil aus. Aber trotzdem steht für mich derzeit der Zuwachs an Darstellungsqualität in keinem akzeptablen Verhältnis mit dem damit einhergehenden Leistungseinbruch.

In 1-2 Jahren mag das Ganze praktikabler sein.
 

rony12

Commodore
Dabei seit
Jan. 2007
Beiträge
4.161
Nur Nvidia? Hat Intel nicht auch Tools raus gebracht um raytracing Software seitig zu berechnen?
Ja
Grundsätzlich kann jede Grafikkarte das über den treiber implementiert bekommen, ob dann die Instruktionen jedoch von Logikeinheiten auf der GPU oder CPU berechnet werden, muss abgewägt werden.
Nvidia sind aber aktuell die einzigen, welche Hardwareinheiten dafür nutzen können.
 

fox40phil

Commander
Dabei seit
Okt. 2008
Beiträge
2.432
Wieso muss es dafür zwangsläufig auf den GPUs eine spezielle Rendereinheit geben? Wieso kann es nicht mit den restlichen Ressourcen einer GPU gerendert werden? Wenn diese zB eh nicht auf 100% Auslastung läuft? Das wäre doch mal was.
Ansonsten ist das ein guter Schritt, hoffe bis zur finalen Version und Implementierung dauert es nicht mehr so lange und ich hoffe die Entwickler und auch diese von Epic holen jegliche Performance raus und gehen nicht schluderig damit um.
 

estros

Admiral
Dabei seit
Sep. 2009
Beiträge
7.567
Nur Nvidia? Hat Intel nicht auch Tools raus gebracht um raytracing Software seitig zu berechnen?
Jede GPU und CPU kann RT berechnen. Turing nutzt dafür aber gesonderte Kerne. Und Intel? Nein, die haben nichts herausgebracht. Die können es schon immer.
Wieso muss es dafür zwangsläufig auf den GPUs eine spezielle Rendereinheit geben? Wieso kann es nicht mit den restlichen Ressourcen einer GPU gerendert werden?
Kann doch jede. Nur es macht schlicht keinen Sinn bei Live-Production.
 

rony12

Commodore
Dabei seit
Jan. 2007
Beiträge
4.161
Wieso muss es dafür zwangsläufig auf den GPUs eine spezielle Rendereinheit geben? Wieso kann es nicht mit den restlichen Ressourcen einer GPU gerendert werden? Wenn diese zB eh nicht auf 100% Auslastung läuft? Das wäre doch mal was.
Ansonsten ist das ein guter Schritt, hoffe bis zur finalen Version und Implementierung dauert es nicht mehr so lange und ich hoffe die Entwickler und auch diese von Epic holen jegliche Performance raus und gehen nicht schluderig damit um.
Weil Hardwareinheiten nunmal extrem viel schneller sind :)
Raytracing ist unglaublich leistungshungrig, und das was wir in den Demos aktuell sehen ist weit entfernt von dem was möglich ist.
Aber ich stimme dir zu, es wäre schön, wenn dieses Feature auch bei anderen, älteren GPUs per treiber auf die Streaming Prozessoren gelegt werden könnte. Wäre natürlich nicht produktiv nutzbar, aber es würde dann die leute anfixen ;)
 

Chillaholic

Admiral
Dabei seit
Jan. 2008
Beiträge
8.831
HAHAHAHA. Erst mal ein UE4-Spiel mit DX12 rausbringen würd ich mal sagen.
Die meisten Studios die auf UE4 angewiesen sind aufgrund des Geschäftsmodells sind kleine Kickstarter oder Early Acess Titel die keine Kohle für son Schnickschnack haben, weder für DX12 noch für RTX.
Wer die Kohle für ne gute DX12-Umsetzung hat nutzt auch kein UE4.
 

Slainer

Lt. Junior Grade
Dabei seit
Nov. 2011
Beiträge
355
entschuldigt meine Unkenntnis, aber gibt es Lösungsansätze dass Raytraycing-Eiheiten ausgegliedert werden können, sozusagen als dedzierte Platine (Vergleichbar mit Soundkarten/Physixkarten)?
Ich weiß ja nicht was (bisher) der limitierende Faktor ist... Platz / Kosten/ Energie ?!

Raytraycing ist ein (im Rahmen der bisherigen, technischen Möglichkeiten) sich entwickelndes Produkt, dem ich persönlich doch etwas abgewinnen kann.
 

Terminator-800

Lt. Junior Grade
Dabei seit
Feb. 2008
Beiträge
435
Top