• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test The Outer Worlds 2: Benchmarks zeigen Hardware-Hunger und gute Frame Gen

bogge101 schrieb:
DLSS Quality funktioniert in einigen Spielen mittlerweile richtig gut (bis auf Haare)
Haare machen immer probleme, nicht nur in Spielen :D
 
  • Gefällt mir
Reaktionen: Kaufmannsladen, MiroPoch, SweetOhm und eine weitere Person
TheInvisible schrieb:
Und dann soll ein Witcher 4 mit 60fps und HW-Lumen auf einer Base PS5 laufen... muss dann fast schon Zauberei sein
Was ich in den Dev Blogs bzw. in der UE 5 selbst entnommen habe ist Hardware Lumen vor allem immer noch nicht mit den PT Games vergleichbar - was den Rechenaufwand bzw. Settings betrifft.

Keine Ahnung was die in der UE 5 momentan machen, aber das ist schon übertrieben leistungshungrig.
 
Zuletzt bearbeitet:
heroesgaming schrieb:
Abgesehen davon weiß ich aber auch nicht so genau, woher du diese Zahlen hast. Ich finde in einer schnellen Google-Suche unterschiedliche Angaben.
Seine Zahlen stimmen an der Stelle auch nicht, die RTX 5070 hat 30,8 TFLOPs, die RX 9070 XT hat 48,7 TFLOPS.
 
BlazinRyder2 schrieb:
Kindergarten Amd hier, haben sie 1 Spiel gefunden welchens die Nv dominiert. Ist ne Top Karte für 650€ doch felhlt auch viel gute Software. Und wir wissen ja Amd braucht unendlich lang. Am Ende des Tages läuft es auch vielen Karten füssig. Mit Mfg was hier oft genug erwähnt wurde dann nochmal deutlich besser. Aber ja, Konkurenz ist gut und muss sein!
Natürlich Kindergarten. Dann kommen gleich die AMD fanbays mit. Die 9070XT ist schneller als eine 5080. Die 5080 ist gute 15 bis 20 % schneller im Schnitt. Mit RT erst recht.
 
Portal501 schrieb:
Natürlich Kindergarten. Dann kommen gleich die AMD fanbays mit. Die 9070XT ist schneller als eine 5080. Die 5080 ist gute 15 bis 20 % schneller im Schnitt. Mit RT erst recht.
Mit Verlaub, aber Kindergarten-Niveau ist es eher, die entsprechenden Posts nicht zu lesen (obwohl sie genau hier sind und man nur die Augen aufmachen muss), den Kontext, in dem sie gemacht wurden (Leistung in DIESEM Spiel laut DIESER Benchmarks), entsprechend nicht zu erfassen, und dann zu wiederholen, was längst gesagt wurde, bevor diese Vorposter mit der Nase auf diesen Kontext gestoßen wurden.

Anderen im selben Satz dann zu unterstellen, dass sie selbst sich auf diesem Niveau bewegen, ist wirklich bemerkenswert unreflektiert :D
 
  • Gefällt mir
Reaktionen: SweetOhm und Monarch2
leider nur kurz noch Zeit gehabt anzutesten
sieht optisch knackiger / schärfer aus aus Starfield
 

Anhänge

  • TheOuterWorlds2-WinGDK-Shipping_2025_10_24_19_58_38_847.png
    TheOuterWorlds2-WinGDK-Shipping_2025_10_24_19_58_38_847.png
    5 MB · Aufrufe: 96
  • TheOuterWorlds2-WinGDK-Shipping_2025_10_24_20_05_04_832.png
    TheOuterWorlds2-WinGDK-Shipping_2025_10_24_20_05_04_832.png
    5,3 MB · Aufrufe: 96
  • TheOuterWorlds2-WinGDK-Shipping_2025_10_24_20_07_21_822.png
    TheOuterWorlds2-WinGDK-Shipping_2025_10_24_20_07_21_822.png
    5 MB · Aufrufe: 100
Nur 2 Frames mehr macht die 5080 in 4K mit Raytracing gegenüber der 4080 SUPER. Das sieht so falsch aus. 🤣
 
Den Monitor mit den von euch angegebenen 3.840 × 1.440 gibt es nicht zu kaufen.
Da soll sicher anstatt diesem 3.840 × 2.160 stehen.
Da zu finden: "Benchmarks in WQHD, UWQHD und Ultra HD mit Raytracing".
 
Quidproquo77 schrieb:
Was ich in den Dev Blogs bzw. in der UE 5 selbst entnommen habe ist Hardware Lumen vor allem immer noch nicht mit den PT Games vergleichbar - was den Rechenaufwand bzw. Settings betrifft.

Keine Ahnung was die in der UE 5 momentan machen, aber das ist schon übertrieben leistungshungrig.
Jap, hab ich schon mal gepostet, ein Doom mit vollem Pathtracing ist gerade mal 9fps langsamer in 4k mit höheren min fps. Irgendwas hakt bei der UE5 noch gewaltig, da kann man nur hoffen das sowas neuere Versionen endlich beheben
 
  • Gefällt mir
Reaktionen: Quidproquo77
TheInvisible schrieb:
Ja klar weil man eine 5080 auch mit einem Ryzen 5600 kombiniert. Schon komisch, als Nvidia noch die niedrigere CPU Last bei DX11 hatte wurde darauf nie so herumgeritten.
Es geht halt nur um den Fakt, dass Nvidia im CPU Limit schlechter performt.

Quidproquo77 schrieb:
Ja, du hast bei Nvidia auch wenn das Spiel auf Radeons etwa 10-15% Nativ besser als üblich läuft durch Reflex und MFG deutliche Leistungs und Latenz Vorteile.

Nur ist MFG halt kein Allheilmittel gegen schlechte Performance. Artefakte, die je nach Spiel unterschiedlich stark ausgeprägt sind, sind nicht von der Hand zu weisen. Und da wo Latenz wirklich entscheidend ist, nämlich in Online Shootern, bringt MFG halt überhaupt nichts. Da wird grundsätzlich ohne FG gespielt. Aber es ist natürlich nicht verwunderlich, dass MFG neuerdings ganz oben auf eurer Nvidia Agenda steht.
Frei nach dem Motto: die tatsächliche Leistung ist nicht mehr relevant, die Feels Per Second ist das was zählt ^^

Quidproquo77 schrieb:
Nein, das ist Cherrypicking. Nur in Warhammer?!
Nein, nicht nur Warhammer :lol:
Und Performance im CPU Limit auf Low End GPUs zu testen, ist gelinde gesagt sinnlos.

Quidproquo77 schrieb:
Es ging mir um die grundsätzliche Leistung in der UE 5. Irgendetwas bremst die Nvidia Karten, aber nicht die CPU.
Die Grundsätzliche Leistung in UE5 zeigt sich aber nicht in einem bestimmten Spiel und auch nicht nur in 4K.
 
  • Gefällt mir
Reaktionen: SweetOhm
Wolfgang schrieb:
Du hast temporales Upsampling wie DLSS und FSR nicht verstanden.

DLSS und FSR Verfolgen die Bewegungen von Pixeln über mehrere Frames hinweg (AMD hat einmal rund 50 Frames für FSR 2 genannt), weswegen sogar deutlich mehr Bildinformationen vorhanden sind als bei einer stur höheren Auflösung. Der "Zaubertrick" ist es nun, diese Pixelbewegungen korrekt im aktuellen Frame zusammen zu setzen. Gelingt dies, ist eine bessere Bildqualität als mit nativer Auflösung möglich, obwohl die Renderauflösung mit Upsampling sogar deutlich niedriger sein kann.
Und genau hier liegt das Problem: Im Standbild KANN es besser aussehen wenn es funktioniert, beim Bewegtbild gehen immer wieder Informationen verloren, oder es werden welche erdacht die zu hässlichen Artefakten oder Ghosting führen. Am Ende ist es ein zusammengebastelter Frame, kein "echter"...

DLSS 4 hat bezüglich der Bildschärfe einen doch ziemlich großen Vorteil in The Outer Worlds 2, dafür kommt Nvidias Upsampling mit dem rauschenden Lumen-Denoiser überhaupt nicht zurecht, das Rauschen fällt mit DLSS 4 extrem aus. Ganz anders als mit FSR 4, das dieses als einziges beinahe völlig abstellt
Und das hier ist doch ganz klar ein Widerspruch zu dem, was hier im Forum ständig behauptet wird: nämlich dass Upsampler durch die Bank weg die bessere Qualität liefern als die gute alte native Auflösung. Die hat nicht das Problem der Inkonsistenz. Dort gibt es selten mal einen Bildfehler… Mit einem würdigen Nachfolger für MSAA (und all den Variationen, die dadurch möglich sind), der bei der heutigen Bildberechnung auch wieder funktioniert, würdet ihr über Upsampler reden wie über FXAA.

Was hier im Forum mittlerweile als Kantenglättung durchgeht, ist doch lachhaft. Temporales AA war, ist und wird immer schrecklich bleiben. Darüber zu diskutieren, welches die bessere „Qualität“ liefert, ist traurig…

Es gab in der Computertechszene mal eine Zeit, in der man die Hersteller scharf dafür kritisiert hat, wenn sie uns miese Qualität unterjubeln wollten, z. B. ihre winkelabhängigen, schlechten anisotropen Filter inkl. „Optimierung“, bis diese dann irgendwann eingelenkt haben.

Die hätten es, im Nachhinein gesehen, auch lassen können, da man den Unterschied auf heutigen fertiggerenderten Bildern sowieso nicht mehr sehen würde… Heute fleht man diese sogar an, noch mehr solcher „Technologien“ zu entwickeln…
 
Zuletzt bearbeitet:
zeedy schrieb:
nämlich in Online Shootern
Wusste gar nicht, dass Outer Worlds 2 ein Online Shooter ist. Und selbst dort bringt FG etwas wenn die Latenz niedrig ist. Das ist kein Nullsummenspiel. Ab einem gewissen Level ist die Latenz niedrig genug für die meisten Spieler.
zeedy schrieb:
bringt MFG halt überhaupt nichts.
Nvidia Features bringen immer so lange "überhaupt nichts" bis dann der Konkurrenz auch damit um die Ecke kommt. Gähn.
zeedy schrieb:
Da wird grundsätzlich ohne FG gespielt.
Du hast definitiv alle Spieler befragt wie gespielt wird. ;)
zeedy schrieb:
Aber es ist natürlich nicht verwunderlich, dass MFG neuerdings ganz oben auf eurer Nvidia Agenda steht.
Die böse Agenda.
zeedy schrieb:
Frei nach dem Motto: die tatsächliche Leistung ist nicht mehr relevant, die Feels Per Second ist das was zählt ^^
Ja, die deutlich niedrigere Latenz auf Nvidia Hardware ist für dich plötzlich nicht mehr relevant und du redest lieber von hoher Latenz in irgendwelchen Multiplayer Shootern. Immer schön vom Thema ablenken und nie! eingestehen, obwohl Messungen und Flieẞtext das erläutern. Ja ist halt schon blöd, der AMD Cope zieht nicht. Jaja, die angeblich so schlimmen Artefakte.
zeedy schrieb:
Nein, nicht nur Warhammer :lol:
Ja doch, da gibt es in deinen verlinkten Beispielen nen Unterschied größer 5%.
Ich habe dir hingegen 3 Tests mit jeweils 7-22 Spielen verlinkt, aber die sind falsch was?
zeedy schrieb:
Und Performance im CPU Limit auf Low End GPUs zu testen, ist gelinde gesagt sinnlos.
Eine schnellere GPU würde nichts ändern, da auch die kleine GPU schon im CPU Limit liegt. Musst halt den Test auch lesen, anstatt was von Hardware Unboxed zu cherrypicken.
 
Zuletzt bearbeitet:
Mein Nachbar hat es sich gegönnt und ich konnte kurz reinschauen.

Die performance ist nicht überwältigend, aber besser als nach dem Test erwartet (zumindest in den ersten Stunden).
Klar, er hat eine 4090 (die mit 2300 Mhz lief), die dürfte auch bessere Werte bringen.

Aber UHD mit DLSS Q und Schatten + Globale Beleuchtung auf Hoch statt Sehr Hoch resultiere ohne FG immerhin in 79 fps.

EntelodonX schrieb:
Und genau hier liegt das Problem: Im Standbild KANN es besser aussehen wenn es funktioniert, beim Bewegtbild gehen immer wieder Informationen verloren, oder es werden welche erdacht die zu hässlichen Artefakten oder Ghosting führen. Am Ende ist es ein zusammengebastelter Frame, kein "echter"...

Ein (!) Beispiel von vielen: Cyberpunk 2077.

Beim strafen gehen ohne DLSS z. B. die Gitterstäbe der Absperrgitter verloren, mit sind sie da.
Das Bewegtbild sieht für mich damit besser aus mit DLSS.
 
Spiele mit der UE5 sind einfach ein Krampf. Gefühlt kein Unternehmen kriegt es hin, hier irgendwas zu optimieren. Scheinbar ist jedoch die Entwicklung damit einfach und kostengünstig. Hauptsache das Endprodukt wird schnell, billig und unoptimiert rausgehauen. Leider ist das nicht nur bei der UE5 der Fall. Auch Unternehmen wie Ubisoft implementieren wahllos Framegen und kriegen es dann sogar nicht Mal hin, einen VRAM Bloat zu verhindern. Star wars outlaws ist da mit meiner RX 9070 XT das Paradebeispiel. Dort kommt es nach kurzer Zeit mit aktiviertem FSR zu massiven FPS Drops und den kompletten Ausfall des nachladen der Texturen. Nur das deaktivieren von FSR hilft hier weiter.

Dank Frame Gen kriegt der Kunde den Mist dann irgendwie zum laufen. Bei Kritik wird dann, wie üblich, darauf verwiesen das man halt stärkere Hardware kaufen soll.

Ich finde Framegen prinzipiell super, aber das selbst High End Karten ohne Framegen in die Knie gehen ist absolut unterirdisch. Überall wo die UE5 verwendet wird, ist die Performance der letzte Mist. Heute hat man extrem leistungsstarke GPUs und kriegt gefühlt nichts mehr davon auf den Bildschirm, bzw auf die Straße. Damit könnte viel mehr möglich sein als aktuell gezeigt wird. Man bedenke, wie stark man früher wirklich durch die GPUs eingeschränkt gewesen ist und was damals bereits grafisch dennoch möglich gewesen ist.

Zum Spiel selbst: Mal schauen ob es das irgendwann wieder kostenlos bei Epic gibt. Da es direkt in den gamepass wandert, ist es für mich bereits wieder entwertet und daher nur Massenware.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Dante2000 schrieb:
Spiele mit der UE5 sind einfach ein Krampf.

Und dann gibts doch mal so was wie Arc Raiders.


Aus Entwicklerperspektive letztens einen interessanten Blog gelesen. Einschätzen kann ich das nicht. Aber der stellte die These auf, dass bessere Dokumentation und Engine-Tweaks für Epic nicht reichen werden, um ihrerseits zu "optimieren". Er behauptet, ein grundsätzliches Problem ist, dass nicht transparent sei, welche Features gerade am Laufen seien -- und wo diese gerade die Performance liegen lassen.


These defaults explain why Unreal 5 feels heavy even for an empty project. The technology is strong, but it assumes you want the most advanced pipeline from the start. Without a clear way to see what is actually active, developers leave expensive systems running without realizing it.

https://medium.com/@raphaelhorion/u...mance-problem-it-is-a-ux-problem-1e3bdf86cac4
 
  • Gefällt mir
Reaktionen: Grundgütiger
Portal501 schrieb:
Natürlich Kindergarten. Dann kommen gleich die AMD fanbays mit. Die 9070XT ist schneller als eine 5080. Die 5080 ist gute 15 bis 20 % schneller im Schnitt. Mit RT erst recht.
Wie NV Fanboys bei jedem Spiel in dem das Fall ist aus ihren Löchern gekrochen kommen und jammern das ihre 5070ti langsamer als die 9070XT ist und das doch nicht sein darf.
Statt sowas einfach zu ignorieren springen Leute wie Du schön über dieses Stöckchen.
 
  • Gefällt mir
Reaktionen: SweetOhm
Jethro schrieb:
Wie NV Fanboys bei jedem Spiel in dem das Fall ist aus ihren Löchern gekrochen kommen und jammern das ihre 5070ti langsamer als die 9070XT ist und das doch nicht sein darf.
Lies richtig. Er beschwert sich nicht über die Performance der Nv-Karte, sondern über den Circlejerk, wenn die AMD Karte in Ausnahmen mal schneller ist und einige User deswegen sofort über die NV-Karten herziehen.
 
Zurück
Oben