• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Unreal Engine 5: Epic Games startet Early Access mit DXR, DLSS & Reflex

Neue Engine für ein neues UT träum
😞
 
  • Gefällt mir
Reaktionen: lordZ, bugmum, EcOnOmiC und 5 andere
UNRUHEHERD schrieb:
Wird nicht, je realistischer die Engine ist, immer schwieriger, diese in einer glaubhaften Menge mit Leben zu füllen? Fliegen, Käfer, Spinnen, Tausendfüßler - sonst wird doch rascher offensichtlich, dass man sich in einer künstlichen Welt befindet. Man kann ja nicht alle Titel im Ödland ansiedeln, oder? ^^
Genau das ist ja das Problem von vielen Open World Spielen. Riesengroß, aber halt nix zu sehen. Deswegen brauchen die richtig guten Spiele, die eben auch an diese Details überall in der Welt denken, viel länger als früher. Ich denk mal Red Dead Redemption 2 ist so ein Spiel. Da sitzen ewig viele Entwickler Jahre lang dran, um die Welt glaubhaft mit Leben zu füllen.
 
  • Gefällt mir
Reaktionen: UNRUHEHERD, Onkel Föhn und cruse
Creeping.Death schrieb:
Ach was niemand spielt Games mit der Unreal Engine, weil Epic Games furchtbar böse ist (da wird sogar der Teufel neidisch)
Keiner hat je Epic wegen der UE kritisiert :rolleyes:

Ich hoffe ja mal stark, dass sie den Linux-Support auch bei 5 beibehalten (sonst ist Epic nämlich auch abseits von Exklusivmachenschaften böse :p )
 
  • Gefällt mir
Reaktionen: Rastla, Tranceport und TechFunk
Braucht es auch nicht zwingend. Das ganze läuft schon heute im UE5 Editor am PC. Kannst dir seit heute einfach laden und ausprobieren (ist nur 100 GB groß :daumen:)

Hab gerade in anderen Foren die Berichte gelesen.

Für den Editor selbst braucht man wohl mindestens 16, besser 32 GB+ an RAM. (Vermutlich um damit halbwegs passabel arbeiten zu können)
Ein fertiges exportiertes Projekt mit der gezeigten Demo soll aber nur noch 3-4 GB RAM benötigen.

Seitens VRAM siehts fast noch beeindruckender aus.
6 GB sollen locker reichen.

Und das aktuell noch ohne DirectStorage.

Tatsächlich scheint es wohl auch auf ner HDD ganz passabel zu laufen (nicht mein Video).



Und ja, das mit dem VRAM finde ich witzig. :lol:
Ob das die VRAM Diskussion bei Ampere damit endlich beendet? Keine Ahnung.
Aber ich habs die letzten Monate ja schon vermutet. Und wie es scheint, bewahrheitet es sich.

Tatsächlich empfiehlt Epic für den UE5 Editor für Entwickler.
12 Core CPU
64 GB RAM
Aber NUR 8 GB VRAM

Das spricht Bände.


EDIT:
Um es etwas zu präzisieren. Die Angaben beziehen sich jetzt nicht direkt auf den Editor alleine, sondern eigentlich nur auf das Sample Projekt, das Epic zur Verfügung gestellt hat (welches man im Video bzw. Trailer sieht)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: fox40phil und ASCORBIN
Creeping.Death schrieb:
Beispielsweise sieht das verhältnismäßig "steinalte" The Witcher 3 noch immer besser aus, als viele brandneue Spiele. Selbst Cyberpunk 2077 als "Quasi-Referenz" ist jetzt nicht so der Überhammer.
Bin ich voll bei dir. Ich kann Cyberpunk auf meinem Rechner zugegebenermaßen nicht in den höchsten Einstellungen, sprich mit RT, zocken, aber abgesehen davon sieht the Witcher mMn runder aus. Cyberpunk kann da nur stellenweise beeindrucken.
 
TSR sowas recht ähnlich wie Radeon Boost zu sein. Also definitv nicht mit DLSS oder FSR zu vergleichen
 
sebbolein schrieb:
Wenn AMD nicht bald was liefert, wird es echt schwer werden gegen DLSS :(

Aber meine GeForce freut sich darüber.

Das lief auf AMD Hardware, CPU und GPU, und zwar auf der PS5, allerdings war DLSS da nicht das Thema.
 

Was ist hiermit? Halte ich in Anbetracht dessen, dass es per default aktiviert ist für relevanter als Wische-Waschi-Ghosting-DLSS​

Temporal Super Resolution​

Nanite micropolygon geometry and the fidelity demands of the next generation of games have increased the amount of detail displayed on screen like never before. To meet these demands, we've written a Temporal Super Resolution algorithm from scratch that replaces UE4's TemporalAA for higher-end platforms.

Temporal Super Resolution has the following properties:

  • Output approaching the quality of native 4k renders at input resolutions as low as 1080p, allowing for both higher framerates and better rendering fidelity.
  • Less ghosting against high-frequency backgrounds.
  • Reduced flickering on geometry with high complexity.
  • Runs on any Shader Model 5 capable hardware: D3D11, D3D12, Vulkan, PS5, XSX. Metal coming soon.
  • Shaders specifically optimized for PS5's and XSX's GPU architecture.
In Unreal Engine 5 Early Access, Temporal Super Resolution is enabled by default in your project settings.
 
Da bin ich ja mal gespannt ob diese UE auch mal anständig auf AMD Karten läuft.
 
Capet schrieb:
Neue Engine für ein neues UT träum
😞
Diese Scheisse BR PUBG hat UT Zerstört. Hoffnung fast 0, immerhin laufen die Server noch.
 
B3nutzer schrieb:
Und ja, das mit dem VRAM finde ich witzig. :lol:
Ob das die VRAM Diskussion bei Ampere damit endlich beendet? Keine Ahnung.
Aber ich habs die letzten Monate ja schon vermutet. Und wie es scheint, bewahrheitet es sich.

Tatsächlich empfiehlt Epic für den UE5 Editor für Entwickler.
12 Core CPU
64 GB RAM
Aber NUR 8 GB VRAM

Das spricht Bände.


EDIT:
Um es etwas zu präzisieren. Die Angaben beziehen sich jetzt nicht direkt auf den Editor alleine, sondern eigentlich nur auf das Sample Projekt, das Epic zur Verfügung gestellt hat (welches man im Video bzw. Trailer sieht)

Eigentlich zeigt die Demo mMn. genau das Gegenteil: Zweifelslos ist das ein beeindruckender Detailgrad, aber eben eine der einfachsten und monotonsten Umgebungen, die man sich vorstellen kann. Die gleiche Demo nochmal mit detaillierten NPCs, abwechslungsreicher Vegetation und Fauna, Gebäuden, Fahrzeugen... Da kann sich der VRAM-Bedarf schnell vervielfachen, oder man muss eben doch wieder Abstriche bei der Qualität machen.

Ich verstehe nicht, wieso man unterdimensionierte VRAM-Bestückung immer durch neue, effizientere Techniken wie z.B. Sampler Feedback & Co. rechtfertigt? Gerade im Zusammenspiel mit großen Speicherkapazitäten könnte man dadurch endlich mal wieder einen Sprung in Sachen Darstellungsqualität machen. Mit +- stagnierender Speicherausstattung (1080Ti, 2080Ti, 3080(Ti) / 1070, 2070, 3070) bekommt man dann gerade noch die üblichen, leichten Verbesserungen...
 
  • Gefällt mir
Reaktionen: Mr Peanutbutter
andronom schrieb:
Eigentlich zeigt die Demo mMn. genau das Gegenteil: Zweifelslos ist das ein beeindruckender Detailgrad, aber eben eine der einfachsten und monotonsten Umgebungen, die man sich vorstellen kann. Die gleiche Demo nochmal mit detaillierten NPCs, abwechslungsreicher Vegetation und Fauna, Gebäuden, Fahrzeugen... Da kann sich der VRAM-Bedarf schnell vervielfachen, oder man muss eben doch wieder Abstriche bei der Qualität machen.

Ich verstehe nicht, wieso man unterdimensionierte VRAM-Bestückung immer durch neue, effizientere Techniken wie z.B. Sampler Feedback & Co. rechtfertigt? Gerade im Zusammenspiel mit großen Speicherkapazitäten könnte man dadurch endlich mal wieder einen Sprung in Sachen Darstellungsqualität machen. Mit +- stagnierender Speicherausstattung (1080Ti, 2080Ti, 3080(Ti) / 1070, 2070, 3070) bekommt man dann gerade noch die üblichen, leichten Verbesserungen...

Nein. Du hast mit Nanite eine Detailfülle auf Pixellevel im VRAM.
mehr braucht es nicht.

Die Assets sind so oder so riesengroß und müssen überhaupt nicht im VRAM Platz haben. Fürs Rendering wird bei Nanite nur der Detailgrad in den VRAM geschoben der notwendig ist um Details auf Pixelebene aufzulösen.
Ob diese Details nun von einem oder von 1000 Asstes kommen ändert nichts an der Menge an Daten die in den VRAM gestreamt werden und dort Platz finden müssen. Das wird bei der UE5 wohl primär von deiner Displayauflösung definiert und eben nicht mehr vom Content der dargestellt werden soll.

Wie gesagt, die Assets liegen nicht im VRAM, sondern nur das was im jeweiligen Moment benötigt wird.

Das ist ja der ganze Sinn der Sache. Es spielt keine Rolle mehr wie groß und detailliert deine Asstes sind. Du gibst der Engine einfach 100 GB Daten wie im Falle dieser Demo und die Engine macht den Rest.

Das komplette LoD System wird hier umgekrämpelt. Statt Assets in verschiedenen Qualitätsstufen zu nutzen, die jeweils komplett in den VRAM geladen werden müssen, und zwischen denen das Spiel umschalten muss (LoD Pop in), wird jetzt nur noch ein hochauflösendes Asset verwendet bei dem on the Fly von der Engine der Detailgrad auf Basis der Kameraentfernung reduziert oder erhöht wird, bevor es im VRAM landet. Es gibt daher keine LoD Übergänge mehr, die Qualität wird maximiert, der VRAM bedarf minimiert. Win win win.

Digital Foundry hat’s als „holy grail“ für Detailstufen beschrieben.


Dass Geometrie und Texturen so fein Aufgelöst wie es der Monitor hergibt mit dieser Technik stets in 6 GB VRAM Platz finden, egal was man für Assets reinwirft, ist für mich das ultimative Proof of Concept das Epic hier abgeliefert hat.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ASCORBIN und foo_1337
thepusher90 schrieb:
Wenn man dem Wort von Coreteks traut, dann ist dem nicht so
Ohne jetzt den Quelltext von FXSR und TSR zu haben vor Augen, kann man das auch nicht wirklich sagen. Bei FXSR munkelt man anhand der aktuellen Patente - und auch was ich da so an "Wissen" mir angelesen haben - dass es durchaus auch auf eine temporale Komponente hinaus läuft sowie dazu Teilbilder aus Renderschritten, die dann über optimierte Algorithemn verbunden werden.

Es kann durchaus sein - sogar wahrscheinlich - das Epic hier auf die gleichen Ideen wie AMD gekommen ist und TSR entsprechend auf diesen Ideen implementiert und AMD nun ihr "Wissen" aus FXSR nun dazu nutzte um Epic bei der Optimierung zu helfen.

Die Ideen, die TSR nutzt oder eben FXSR sind nicht neu, sondern existieren bereits seit Jahren um Bilder zu skalieren. Nur sind diese Algorithmen je nach Qualität sehr langsam und hier ist halt die Frage, wie Epic diese Algorithmen beschleunigt, und ebenso auch AMD.

Am Ende haben wir aber nun dann 3 Verfahren, die in ihrem Grundprinzipien auf ähnliche Verfahren aufbauen und verschiedene Verfahren auch verbinden. NVIDIA ersetzt die langsamen Algorithmen durch neurale Netzwerke, bei FXSR deutet es sich zum Teil an, bei TSR bin ich gespannt
 
B3nutzer schrieb:
Ein Win-Win-Win ist das in dem Fall aber nicht ganz. Spiele belegen heute schon recht viel Speicherplatz, wenn man nun nur noch aufauslösende Texturen sowie High-Polygonmodelle in einem Spiel mitliefert, steigt der Speicherplatz ins unermessliche.

Dazu kommt, dass Nanite vermutlich auf DirectStorage angeweisen sein wird, hier ist dann die Frage ob auch PCIe3-SSDs bereits genug Leistung bieten. Wenn man hier noch auf ältere Systeme "achtet", könnte es auch über verschiedene Stufen hinauslaufen.

So spannend die Technik ist, es könnte später mit dem Speicherplatz ein Problem werden. Aber warten wir mal ab.
 
Bei alten Spielen haben wir aber auch schon mehrere Faktoren, die die Dateigrößen nach oben treiben.

  • Assets liegen mehrfach ab, damit sie für ein bestimmtes Gebiet in einem Rutsch geladen werden können so dass der HDD Kopf weniger oft die Position wechseln muss. Mit SSDs ist das hinfällig.
  • Assets liegen in unterschiedlichen Qualitätsstufen (LoD) vor, brauchen also insgesamt schonmal mehr Speicher als wenn man nur die beste Version speichern müsste.
  • Assets sind nicht sehr stark/effizient komprimiert, da die CPU Leistung bei den alten Konsolen stark limitiert war und auch am PC mit DX11 und 4C/8T CPUs bis zuletzt war. In Zukunft sollten mit DirectStorage und RTX I/O deutlich aufwändigere Kompressionsverfahren nutzbar sein. Die Konsolen haben sogar dedizierte Hardwareeinheiten zum dekomprimieren der Daten.

Das alles in Kombination könnte zumindest langfristig dafür sorgen, dass der Speicherbedarf nicht explodiert.

Wie das in naher Zukunft gemacht wird, wenn Spiele auch auf älteren Plattformen laufen sollen? Gute Frage.
Zumindest Punkt 1 würde noch anwendbar sein.

Wobei aber auch Dinge wie Raytracing den Speicherbedarf senken könnten. Wenn Global Illumination Live berechnet wird und nicht mehr von den Entwicklern in die Texturen "gebaked" werden muss, spart das sicher auch ordentlich Speicher.
 
Zurück
Oben