News DXR: Die Unreal Engine unterstützt jetzt Raytracing

Die Demo sieht schon sehr gut aus muss man sagen. Aber bis das für uns Otto-Normal-Bürger in akzeptabler UND bezahlbarer Qualität gibt, dauert es bestimmt noch ein paar Jahre :(
 
  • Gefällt mir
Reaktionen: Oceanhog, Schranz0815, Crankson und 4 andere
Der Release 4.22 sollte dann gegen Ende März sein. Somit sollte schon fast gesichert sein das Gears 5
mit der 4.22 Engine kommt. (GOW4 Release 10.2016 mit UE 4.11. Release Ende März 2016)
Somit erwartet uns wieder ein Grafikhammer. Was leider selten ist mit der UE
 
also unreal war schon immer eine nvidia engine .... nun ist das aber schon fast mehr als ......... selbstzensur
 
  • Gefällt mir
Reaktionen: Crankson und Rockstar85
Nur Nvidia? Hat Intel nicht auch Tools raus gebracht um raytracing Software seitig zu berechnen?
 
war nur ne frage der zeit, bis die hausengine von nvidia auch RTX unterstützt.

@Terminator-800

nicht dass ich wüsste. ich würde aber auch unter dx12 nicht unbedingt von automatisch besserer amd performance ausgehen. die schlechte amd performance hat hier system.

Edit: da war doch was: gears of war 4. aber das spiel läuft ausnahmsweise auch auf dx11 ok auf radeon karten. das spiel ist hier in zweierlei hinsicht eine seltene ausnahme.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gorgone
Ich würde jetzt Raytracing in BF5 mit rund 100fps in WQHD nicht als großen Leistungsverluste bezeichnen. Allerdings setzt das auch eine Ti voraus.
 
  • Gefällt mir
Reaktionen: Lübke82
DX12 KANN besser performen....muss es aber nicht. Das hängt auch von der verweneten Hardware ab. Eine Hardware die bereits im GPU Limit hängt, bringen weitere DrawCalls nicht viel. Ebenso eine CPU die an der Kotzgrenze ist. DX 12 kann dann was bringen, wenn die CPU und GPU noch Reserven haben. Dies hängt dann aber noch von der Implementierung der Renderpipeline ab. Wie sich dies dann im Vergleich zu Multithreaded DX11 schlägt, abwarten...

greetz
hroessler
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Raytracing scheint mit VR vergleichbar zu sein. Mal schauen wie sich das so entwickelt.
 
Schaut schon geil aus. Aber trotzdem steht für mich derzeit der Zuwachs an Darstellungsqualität in keinem akzeptablen Verhältnis mit dem damit einhergehenden Leistungseinbruch.

In 1-2 Jahren mag das Ganze praktikabler sein.
 
  • Gefällt mir
Reaktionen: Oceanhog und stinger2k
Gandalf2210 schrieb:
Nur Nvidia? Hat Intel nicht auch Tools raus gebracht um raytracing Software seitig zu berechnen?

Ja
Grundsätzlich kann jede Grafikkarte das über den treiber implementiert bekommen, ob dann die Instruktionen jedoch von Logikeinheiten auf der GPU oder CPU berechnet werden, muss abgewägt werden.
Nvidia sind aber aktuell die einzigen, welche Hardwareinheiten dafür nutzen können.
 
  • Gefällt mir
Reaktionen: Xidus und fox40phil
Wieso muss es dafür zwangsläufig auf den GPUs eine spezielle Rendereinheit geben? Wieso kann es nicht mit den restlichen Ressourcen einer GPU gerendert werden? Wenn diese zB eh nicht auf 100% Auslastung läuft? Das wäre doch mal was.
Ansonsten ist das ein guter Schritt, hoffe bis zur finalen Version und Implementierung dauert es nicht mehr so lange und ich hoffe die Entwickler und auch diese von Epic holen jegliche Performance raus und gehen nicht schluderig damit um.
 
Gandalf2210 schrieb:
Nur Nvidia? Hat Intel nicht auch Tools raus gebracht um raytracing Software seitig zu berechnen?
Jede GPU und CPU kann RT berechnen. Turing nutzt dafür aber gesonderte Kerne. Und Intel? Nein, die haben nichts herausgebracht. Die können es schon immer.
fox40phil schrieb:
Wieso muss es dafür zwangsläufig auf den GPUs eine spezielle Rendereinheit geben? Wieso kann es nicht mit den restlichen Ressourcen einer GPU gerendert werden?
Kann doch jede. Nur es macht schlicht keinen Sinn bei Live-Production.
 
  • Gefällt mir
Reaktionen: fox40phil
fox40phil schrieb:
Wieso muss es dafür zwangsläufig auf den GPUs eine spezielle Rendereinheit geben? Wieso kann es nicht mit den restlichen Ressourcen einer GPU gerendert werden? Wenn diese zB eh nicht auf 100% Auslastung läuft? Das wäre doch mal was.
Ansonsten ist das ein guter Schritt, hoffe bis zur finalen Version und Implementierung dauert es nicht mehr so lange und ich hoffe die Entwickler und auch diese von Epic holen jegliche Performance raus und gehen nicht schluderig damit um.

Weil Hardwareinheiten nunmal extrem viel schneller sind :)
Raytracing ist unglaublich leistungshungrig, und das was wir in den Demos aktuell sehen ist weit entfernt von dem was möglich ist.
Aber ich stimme dir zu, es wäre schön, wenn dieses Feature auch bei anderen, älteren GPUs per treiber auf die Streaming Prozessoren gelegt werden könnte. Wäre natürlich nicht produktiv nutzbar, aber es würde dann die leute anfixen ;)
 
Meiner Meinung nach, solange keine Konsole Raytracing aktiv unterstützt, wird es auch in naher Zukunft keinen Durchbruch geben. Sowie bei PhysX von NV. Es wird noch Jahre dauern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Crankson, Recharging, Inxession und eine weitere Person
HAHAHAHA. Erst mal ein UE4-Spiel mit DX12 rausbringen würd ich mal sagen.
Die meisten Studios die auf UE4 angewiesen sind aufgrund des Geschäftsmodells sind kleine Kickstarter oder Early Acess Titel die keine Kohle für son Schnickschnack haben, weder für DX12 noch für RTX.
Wer die Kohle für ne gute DX12-Umsetzung hat nutzt auch kein UE4.
 
entschuldigt meine Unkenntnis, aber gibt es Lösungsansätze dass Raytraycing-Eiheiten ausgegliedert werden können, sozusagen als dedzierte Platine (Vergleichbar mit Soundkarten/Physixkarten)?
Ich weiß ja nicht was (bisher) der limitierende Faktor ist... Platz / Kosten/ Energie ?!

Raytraycing ist ein (im Rahmen der bisherigen, technischen Möglichkeiten) sich entwickelndes Produkt, dem ich persönlich doch etwas abgewinnen kann.
 
  • Gefällt mir
Reaktionen: Zeekuma
Zurück
Oben