News DXR: Die Unreal Engine unterstützt jetzt Raytracing

Chillaholic schrieb:
Snowdrop, Frostbite, ID-Tech, Cryengine, Unity.
Wo fang ich an, wo hör ich auf?

Die Cryengine ist bereits im Wachkoma. Crytek hat es mit aggressiver Expansion verbockt. Außer Chris Roberts "Star Citizen" ist mir kein Spiel in der Entwicklung hierfür bekannt, und er wird sogar von Crytek verklagt, weil er den an Amazon verkauften Fork verwendet.

Frostbite ist EA-exklusiv. IT-Tech ist Niche. Unity zwar gut, wird jedoch oft für Mobile und kleine Spiele benutzt. Die Snowdrop-Engine ist ein zweischneidiges Schwert. Viel zu viele Kompromisse für die Konsolen.

Bei besser wären wir wahrscheinlich sehr im subjektiven Raum. Fragen wir besser wieder, wenn DXR-Spiele kommen. Wird sicherlich vergleichbarer als jetzt.

Chillaholic schrieb:
UE4 ist quasi ein Synonym für unfertige, schlecht optimierte Spiele.
Viele Projekte die mit UE4 umgesetzt werden sind komplett ungeeignet für die Engine was man auch merkt denn sie hat eine Menge Einschränkungen.

Das Problem der UE4 ist, dass sie meisten mit miesen Konsolenports benutzt wird. Das machen die Entwickler aus Kostengürnden dann einen 0815 Quick&Dirty Job und wir, die PC-Spieler, müssen es dann ausbaden.

Die Engine ist eher anfängerfreundlich. Man muss halt auch entsprechend reinhängen.

HardRockDude schrieb:
Ok, als nächstes muss Unity nachziehen. Ich frage mich jedoch, inwiefern die DXR/RTX-Technologie über die Generationen "unterstützbar" bleibt. Raytracing an sich gibt es aus IT-Sicht ja schon ewig. Für Unity gibt es dahingehend auch Skripte. Es geht hier also bloß um nativen DXR/RTX-Support und da ist eben die Frage, wie lange diese spezielle Technik Bestand haben wird.

Sorry, ich verwechsel das immer. Vergesse zuweilen, dass EPIC und Unity sich juristisch nach wie vor bekriegen. Die Engines haben meines Wissens immer noch starke Ähnlichkeikten, wobei UE4 eher für AAA-Titel und Unity mehr für kleinere Projekte benutzt wird.

Verzeih mir, wenn mein Wissen noch aus der Steinzeit stammt ;)

Solange DXR Bestandteil von DirectX ist, wird die Technik garantiert weiter verwendet. Bei RTX könnte es sich verhalten wie einst mit den Hardware-Einheiten für Tessellation. Stetig ausgebaut und fester Bestandteil der Architektur.

Es sei den es setzt sich eine bessere technische Lösung durch. Das ist aktuell allerdings noch nicht in Sicht.
 
  • Gefällt mir
Reaktionen: tolstoj
DocWindows schrieb:
@Aliosy

AMD hatte nichts von GPU Physx, ja.
AMD hat leider nichts, kein Physx, kein Raytracing, keine HBAO+ bits, keine AA-bits etc !

https://forums.guru3d.com/threads/hbao-compatibility-flags-thread.387114/
https://docs.google.com/spreadsheets/d/1sq0vgFlerS-YT093TS2jEpx6xjZP7X1x1BcAs7EHXYY/edit#gid=0

Klassiker ala COD MW2 werden dank HBAO+ bits massiv aufgewertet optisch !
Physx-GPU sah auch göttlich aus, schade das es es in letzter zeit nicht mehr zum einsatz kam.


 
Hardware_Hoshi schrieb:
Die Engine ist eher anfängerfreundlich. Man muss halt auch entsprechend reinhängen.
Epic Games selber empfiehlt Programmieren den Main-Thread nicht zu paralallelisieren weil die Engine dazu nicht in der Lage ist, ergo wird UE4 immer auf hohe Single-Core Leistung angewiesen sein. Dementsprechend kacke läuft es auch auf Ryzen und Bulldozer verglichen mit Intel. UE4 ist einfach sauschlecht optimiert, da kann man nicht leugnen.

DocWindows schrieb:
In diesem Bereich bring Async Compute garnichts.

Achso, deshalb profitieren Titel wie Divison massiv von DX12 verglichen mit DX11?
Das ist einfach lächerlich, eine gute DX12 Umstzung die Async Compute nutzt kann auf Pascal und Turing auch einen massiven Leistungsschub bekommen. Ich spreche hier von 10-20% besseren Frames, min, avg und max. Maxwell hingegen verliert unter DX12 Leistung, weil emuliertes Async. Aber leugne ruhig weiter die Vorteile von modernen APIs. Electronic Arts ist hier ein super Negativbeispiel, deren DX12 implementierung ist komplett fürn Eimer.
 
  • Gefällt mir
Reaktionen: Oceanhog, Bhaal3010 und Volkimann
Wenn sich Raytracing so weiterentwickelt, wie seit Erscheinen von Battlefield 5, dann wird das mit Raytracing und Performance schon noch was.

Der neue Patch inkl. DLSS Unterstützung zieht die FPS noch einmal deutlich nach oben:

Also- Abwarten. 4K in um die 55 FPS ist jetzt auch nicht sooooo schlecht, wenn man bedenkt, dass wir mal bei hochvolatilen 30FPS lagen

Da hat sich doch schon ne Menge getan und das in wirklich kurzer Zeit.
Also nix mit 1080P in 30FPS, wie es hier eine Zeit lang in den Forum rumgegeister ist.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ex3cuter, HardRockDude, kisser und eine weitere Person
Chillaholic schrieb:
Epic Games selber empfiehlt Programmieren den Main-Thread nicht zu paralallelisieren weil die Engine dazu nicht in der Lage ist, ergo wird UE4 immer auf hohe Single-Core Leistung angewiesen sein.
Nur Game-Logic läuft in Single-Thread. Viele andere Teile von UE4 laufen in separaten Threads (Rendering, Audio u.s.w.)
Sogar Intel schreib davon: https://software.intel.com/en-us/articles/unreal-engine-4-optimization-tutorial-part-3

https://docs.unrealengine.com/en-us/Programming/Rendering/ThreadedRendering
https://docs.unrealengine.com/en-US/Programming/Rendering/ParallelRendering
 
Zuletzt bearbeitet:
Chillaholic schrieb:
Epic Games selber empfiehlt Programmieren den Main-Thread nicht zu paralallelisieren weil die Engine dazu nicht in der Lage ist, ergo wird UE4 immer auf hohe Single-Core Leistung angewiesen sein. Dementsprechend kacke läuft es auch auf Ryzen und Bulldozer verglichen mit Intel.

Tja, ist halt peinlich, wenn Ryzen in Single-core immer noch zweite Liga spielt. :smokin:Über Bulldozer reden wir besser nicht.

Chillaholic schrieb:
Achso, deshalb profitieren Titel wie Divison massiv von DX12 verglichen mit DX11?

AMD krankt in DX11 allgemein, das ist kein Geheimnis. The Division ist auch nicht das Gelbe vom Ei. Das Spiel und die verwendete Engine hat viele unangenehme Eigenheiten und einen großen Fokus auf die Konsolen, also auch auf AMD. Ich würde das nicht als Paradebeispiel nehmen, da sehr einseitig optimiert!

Chillaholic schrieb:
Das ist einfach lächerlich, eine gue DX12 Umstzung die Async Compute nutzt kann auf Pascal und Turing auch einen massiven Leistungsschub bekommen.

Gute DX12-Umsetzung bedeutet immer viel Arbeit und Aufwand für die Programmierer. Das muss mit eiserner Disziplin passieren. Fehler werden dort nämlich sofort bestraft und man verliert sogar Leistung.

Async Compute ist eine andere Baustelle. Das eine hat nichts mit dem anderen zu tun, sondern mit der entsprechenden Implementierung. Nimm das Musterbeispiel für Async Compute "Ashes of the Singularity". Ewig durch alle Parcous gejagt weil AMD da vorne war. Jetzt läuft es besser auf Nvidia. Tun wir also nicht so, als wären alle Ergebnisse auf ewig in Stein gemeißelt!

Chillaholic schrieb:
Witzig, AMD waren die ersten die Async Compute konnen, das war schon 2012 zur Einfühung der 7970 Ghz Edition. Wann ist Nvidia nachgerückt? 2016 mit Pascal. Jetzt ist Nvidia mal schneller, AMD hat bereits angekündigt hinterherzuziehen und zack wird es ihnen angekreidet dass sie nicht die ersten sind.

Async Compute ist bei AMD nicht aus lauter Liebe passiert. Die Radeons haben das benötigt zur Auslastung und Arbeitsbeschaffung ihrer zu vielen Shader. GCN ist inzwischen ein Greis als Architektur.

AMD war noch nie gut in der Pflege ihrer ERSTE™ Technologie. Bei Tessellation waren sie auch erste und sind dann zurück gefallen. Komisch wie sich das wiederholt.

Chillaholic schrieb:
Im Gegensatz zu Async Compute ist RTX aber nicht zur Leistungssteigerung geeignet. Finde es daher etwas befremdend das man kurz nach Release von Turing schon sagt AMD würde da massiv hinterher hinken wo Nvidia 4 Jahre lang hardwareseitiges Async ignoriert hat.

Async war ein reines Gimmick. Im Bestfall hat man Leistung bekommen, im schlechtesten sogar Leistung verloren. Du kannst dir gerne die durchwachsene Geschichte dieses Features ansehen.

Nvidia hatte seit Jahren sehr moderne Scheduler in der Software und hatte ASC lange nicht benötigt. Erst als die Entwickler die AMD-Variante bevorzugt haben, musste man die spezifische Implementierung unterstüzten.

RTX hingegen ist ein optisches Features. Du bekommst mehr Effekte auf dem Bildschirm zu sehen. Jeder Spieler mit Turing kann DXR / RTX direkt nach Aktivierung sehen.

Chillaholic schrieb:
Das Problem ist, dass es meines Wissens nach nicht eine DX12-umsetzung mit UE4 gibt. Das wird aber hierfür vorausgesetzt.

Wir hoffen alle auf eine bombenfeste Umsetzung von DX12. Bisher war das eher russisches Roulete mit den DX12-Titeln, egal welche Engine!
 
Zuletzt bearbeitet:
Chillaholic schrieb:
Achso, deshalb profitieren Titel wie Divison massiv von DX12 verglichen mit DX11?
Das ist einfach lächerlich, eine gute DX12 Umstzung die Async Compute nutzt kann auf Pascal und Turing auch einen massiven Leistungsschub bekommen

Klar, weil ein Grafikchip naturgemäß mehr als 100% leisten kann.

Außerdem vergleicht man hier nicht DX11 und DX12, sondern DX12 mit Async Compute und DX12 ohne Async Compute. Da zeig mir mal die superduper Leistungssteigerung.

Im gerade erschienenen Radeon 7 Nachtest ist ja passenderweise Ashes of the Singularity mit und ohne Async Compute drin. Bei nVidia bringt es auf ner 2080 0,7 FPS mehr, bzw. 1,9 FPS bei Vulkan + Async Compute in Wolfenstein 2. Also warum sollte man das nochmal unterstützen?
 
Zuletzt bearbeitet:
tolstoj schrieb:
iele andere Teile von UE4 laufen in separaten Threads (Rendering, Audio u.s.w.)
Dessen bin ich mir bewusst, trotzdem rennt der Haupt-Thread dauerhaft im Limit selbst auf 4.5Ghz auf Intel.
Das ist halt eins der Nachteile von UE4 und ich sags immer wieder, UE4 ist keine gute Engine, es ist schlicht eine günstige Engine.

Hardware_Hoshi schrieb:
Tja, ist halt peinlich, wenn Ryzen in Single-core immer noch zweite Liga spielt. :smokin:Über Bulldozer reden wir besser nicht.
Ja ist halt dumm wenn Intel jahrelang ihre schmutzigen Tricks probiert um AMD unten zu halten. Zum Glück sieht man wie Zen 2 Intels Träume bald platzen lässt. Der König ist tot, lang lebe der König.

Hardware_Hoshi schrieb:
AMD krankt in DX11 allgemein, das ist kein Geheimnis. The Division ist auch nicht das gelbe vom Ei. Das Spiel und die verwendete Engine hat viele unangenehm Eigenheiten und einen großen Fokus auf die Konsolen, also auch auf AMD. Ich würde das nicht als Paradebeispiel nehmen, da sehr einseitig optimiert!
Es gibt genug Beispiele für DX12 wo Nvidia an Leistung gewinnt, natürlich ist das mehr Aufwand, so viel Aufwand dass es sich die meisten Studios nicht leisten können auf DX12 oder Vulkan zu setzen. Ergo wird man auch kein RTX einführen können ohne DX12.

Hardware_Hoshi schrieb:
Async Compute ist bei AMD nicht aus lauter Liebe passiert. Die Radeons haben das benötigt zur Auslastung und Arbeitsbeschaffung ihrer zu vielen Shader. GCN ist inzwischen ein Greis als Architektur.
Und in wiefern rechtfertigt das den Vergleich zwischen Async und RTX?
Async ist laut deiner Meinung komplett unnötig und RTX offenbar zwingend nötig.
Sehr verdrehte Weltansicht.

Hardware_Hoshi schrieb:
Bei Tessellation waren sie auch erste und sind dann zurück gefallen. Komisch wie sich das wiederholt.
Weil Nvidia überall unnötigen Tesselation-Müll einbaut in Gameworks-Titeln um AMD gezielt zu bremsen. Nvidia nutzt Tesselation als Waffe, AMD hat es als Feature benutzt.
 
  • Gefällt mir
Reaktionen: Suteki
ciapal schrieb:
AMD hat leider nichts, kein Physx, kein Raytracing, keine HBAO+ bits, keine AA-bits etc !
Da hast du aber fein die Marketing Folien von nvidia auswendig gelernt ;)

Physx-GPU sah auch göttlich aus, schade das es es in letzter zeit nicht mehr zum einsatz kam.
:freak: Bestes Beispiel indem der Entwickler schlicht viele Details bei PhysX off einfach nur abgeschaltet hat, was man auch ohne PhysX hätte darstellen können.

Aber Marketing funktioniert.
 
  • Gefällt mir
Reaktionen: DeadEternity
duskstalker schrieb:
aber das spiel läuft ausnahmsweise auch auf dx11 ok auf radeon karten. das spiel ist hier in zweierlei hinsicht eine seltene ausnahme.
Ja gut, auf Linux wirds ja durch die Emulation auch nochmal etwas langsamer.

Volkimann schrieb:
:freak: Bestes Beispiel indem der Entwickler schlicht viele Details bei PhysX off einfach nur abgeschaltet hat, was man auch ohne PhysX hätte darstellen können.
Bestes Beispiel, wie man sich selbst mit Haterei statt Recherche ins Abseits schießen kann.
Wie Jeder (außer Dir) weiß ist die Engine seit einiger Zeit quelloffen und PhysX wird einfach mitberechnet seit einigen GPU Generationen -im Übrigen auch von AMD GPUs. Eine propertiäre Lösung - wie damals mit AGEIA extra Steckkarten ist lange nicht mehr erforderlich - auch dank flexibel einsetzbarer Shader.

Also eigentlich eher ein Beispiel dafür, wie eine propertiäre Lösung zu einem möglichen Standard wird. Also das gegenteil von dem was Du behauptest :)
 
Zuletzt bearbeitet:
@DocWindows
lies meine Aussage nochmal. All die neue APIs mögen vielleicht in GraficEngines eingebaut werden, was nutzt es wenn es wenig HW gibt oder Exklusivität das verhindert?
Raytracing gibt schon sehr sehr lang, dank DX12 API Erweiterung wurde das in HW gegossen.
Und siehe selbst die Benches was es an Performance kostet. Solange keine HW es schnell genug zum vernünftigen Preis berechnen kann, bleibt es ein Nischenprodukt.
Alle Jahre wieder wird etwas auf den Markt geworfen, nur um Verkäufe anzukurbeln. Es wird jetzt Zeit brauchen bis auch AMD und oder Intel was liefern können.
 
Shio schrieb:
Was mich aktuell aber bei RT nervt ist, dass irgendwie jede Oberfläche wie ein Spiegel aussieht nur um irgendwie RT zu zeigen.

Diese Art der Herausstellung ist zu Beginn eines neuen Features normal, das wird sich im Laufe der Zeit legen.
 
Chillaholic schrieb:
Es gibt genug Beispiele für DX12 wo Nvidia an Leistung gewinnt, natürlich ist das mehr Aufwand, so viel Aufwand dass es sich die meisten Studios nicht leisten können auf DX12 oder Vulkan zu setzen. Ergo wird man auch kein RTX einführen können ohne DX12.

Richtig. Ohne Fundament kann man kein Haus bauen. Irgendwo müssen die Entwickler ja anfangen. Falls die Entwickler das umsetzen ist es sowohl für Microsoft als auch Nvidia von Vorteil.

Chillaholic schrieb:
Und in wiefern rechtfertigt das den Vergleich zwischen Async und RTX?
Async ist laut deiner Meinung komplett unnötig und RTX offenbar zwingend nötig.
Sehr verdrehte Weltansicht.

Unnötig für Nvidia, weil sie ein anderes Konzept hatten. Es ist die alte Streitfrage, ob nun Hardware- oder Software-Scheduler besser sind. AMD hat unbedingt versucht ihre Hardware-Lösung durchzusetzen.

Async Compute ist halt sehr speziell und nicht direkt sichtbar. Selbst die Hardware-Redakteure müssen teilweise mit der Lupe suchen um den Unterschied zu bemerken.

Bei RTX bzw. DXR ist es wie gesagt direkt sichtbar. Du kannst mit wenigen Klicks den Unterschied bemerken.

Chillaholic schrieb:
Weil Nvidia überall unnötigen Tesselation-Müll einbaut in Gameworks-Titeln um AMD gezielt zu bremsen. Nvidia nutzt Tesselation als Waffe, AMD hat es als Feature benutzt.

Nein nein!
Nvidia hatte höhere Dreiecksleistung für die eigene Archtektur entwickelt und sogar eigene Hardware-Einheiten dafür verbaut. Schuld waren letztendlich die Entwickler, die bei Tesselation aus Prinzip immer den Regler voll aufgedreht haben, damit man die "Spitzen und Kanten" deutlicher sieht. Das war keine Verschwörung!

Du erinnerst dich sicher an die Demo mit der Stadt und der Drachenstatue. Die Designer dachten das wäre optisch besser, wussten aber nicht wie viel Performance das am Ende kostet. Der Trend hat sich schnell erledigt und man ist wieder auf normale Levels zurück, weil die Kunden in jedem Forum geheult hatten.
 
Shio schrieb:
RT gibt es ja nicht seit gestern.

Also grundsätzlich ist das Verfahren (wenn auch nicht mathematisch formuliert) schon seit 500 Jahren bekannt. :D

https://de.wikipedia.org/wiki/Raytracing#/media/File:Dürer_-_Man_Drawing_a_Lute.jpg
Ergänzung ()

franzerich schrieb:
Nicht dass dann in 1-2 Jahren plötzlich alle nur noch Raytracing als Modell für Licht/Schatten/Reflexionen verwenden und damit alle "alten" Karten unbrauchbar machen...

Das wird sicher nicht passieren, weil da einfach noch zu viele "alte" Karten in Umlauf sein. Außer den Turing hat ja noch nichts RTX-Hardware.
 
  • Gefällt mir
Reaktionen: Aliosy
RT gibts nicht erst seit Gestern, aber ne DX12-Implementation gab es ja erst nach BFV Release. ;)
Von daher finde ich es amüsant wie man AMD bereits vorwirft noch kein RTX zu unterstützen mit ihren Karten.
 
  • Gefällt mir
Reaktionen: DeadEternity
Chillaholic schrieb:
Zum Glück sieht man wie Zen 2 Intels Träume bald platzen lässt. Der König ist tot, lang lebe der König.

Sei dir dessen nicht so sicher. Ich denke durch den iO Hub steigen die Latenzen und Zen2 wird kaum bis wenig an Mehrleistung im SingleCore Bereich haben.

Zen 2 wird in Anwendungen ein absolutes Biest. Bei Games glaub ich wird das Chiplet Design durch die Latenzen zum Flaschenhals.
 
Aliosy schrieb:
lies meine Aussage nochmal. All die neue APIs mögen vielleicht in GraficEngines eingebaut werden, was nutzt es wenn es wenig HW gibt oder Exklusivität das verhindert?

RTX ist exklusiv, DXR nicht. Und DXR wird in die Unreal-Engine eingebaut. Da ist nichts exklusives in der Engine.
Dass es wenig Hardware gibt ist richtig, aber immerhin gibt es welche. Sollen Software- und Hardwareseite Beamtenmikado spielen? Wer sich zuerst bewegt hat verloren.

Aliosy schrieb:
Solange keine HW es schnell genug zum vernünftigen Preis berechnen kann, bleibt es ein Nischenprodukt.

Ja, stimmt sicherlich. Als 3D-Grafik aufkam hat es aber auch sehr lange gedauert bis es einigermaßen verbreitet war. Und es sah sehr lange Zeit gegenüber der klassischen Grafik extrem schlecht aus. Vom exorbitanten Leistungsbedarf will ich gar nicht erst anfangen. Man brauchte sogar Zusatzkarten (3D-Beschleuiniger Add-On Karten). Trotzdem hat es sich irgendwann durchgesetzt.
 
  • Gefällt mir
Reaktionen: Aliosy
kisser schrieb:
zu Beginn eines neuen Features normal

Zu Beginn? RT gibts schon länger als Physx.
Entweder man macht es ordentlich oder man lässt es.
Solche Darstellungen der Technik helfen nicht.
 
Zurück
Oben