• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Banishers: Ghosts of New Eden im Test: 21 Grafikkarten im Unreal-Engine-5-Spiel im Benchmark

Puscha schrieb:
Schade, dass die Unreal Engine Entwickler komplett auf die AMD Optimierung scheißen. Dass ist echt traurig.
Es kommt oft vor, dass der ein oder andere Hersteller langsamer unterwegs ist.
War doch bei Starfield anfangs auch so. Bei Call of Duty ist es bis heute noch so.
Puscha schrieb:
Die juckt es offensichtlich nicht, wenn die Games auf den Konsolen rumruckeln.
Dafür gibt es keine Belege.
 
  • Gefällt mir
Reaktionen: Lille82 und Fallout667
und ist auch nicht sonderlich störend, sollte so aber schlicht nicht passieren.
Naja wenn ich das so lese, ich glaube mich würde es arg stören. Ghosting fällt mir beim Upscaling definitiv am deutlichsten auf.

Ansonsten (wieder) schade, dass FMF nicht dabei ist und generell scheinbar nicht wirklich für AMD optimiert wurde. Bin zwar gerade mit einer Nvidia unterwegs, aber mir ist dennoch dran gelegen, wenn bei der Optimierung an alle gedacht wird.

VRAM Bedarf ist ja auch sehr gering, Erklärung steht ja im Test. Ich bin der Meinung aber häufig gelesen zu haben, dass UE5 spiele doch gern so viel VRAM hätten? Scheint dann wohl auch nicht pauschal so zu stimmen und setzt wohlmöglich voraus, dass auch Features wie RT bzw. Lumen zum Einsatz kommen. Das war nämlich meine erste Vermutung beim schnellen Blick auf die Benchmarks, aber daran liegt es dann wohl nicht, dass AMD vergleichsweise schlechter performt. Wobei es auch nicht so klingt, als wäre der Einsatz ausgeschlossen.
 
  • Gefällt mir
Reaktionen: SweetOhm und Apocalypse
Rainbowprincess schrieb:
....Vielmehr sieht es danach aus, dass Epic bzw. die Spieleentwickler ausschließlich nvidia Karten im labor liegen haben um die UE darauf zu optimieren....
Abgesehen davon ist die UE für mich subjektiv bis heute nur eine showroom engine für tech demos....
Ok, das wäre natürlich wieder ein ****Move AMD quasi links liegen zu lassen.

Aber stimmt, das volle Potential wird allermeistens nicht genutzt aber gerade die Zugpferde und HDR zu ignorieren...echt ätzend, findet der Nerd in mir.
 
  • Gefällt mir
Reaktionen: SweetOhm, danyundsahne, Puscha und eine weitere Person
Rainbowprincess schrieb:
Vielmehr sieht es danach aus, dass Epic bzw. die Spieleentwickler ausschließlich nvidia Karten im labor liegen haben um die UE darauf zu optimieren.

ja, das ist tatsächlich so. nvidia hat sich vor einiger zeit dick mit partnerschaften bei EPIC eingekauft und die unreal engine ist seitdem mehr oder weniger die hausengine von nvidia.

nvidia ist locker seit 10 jahren in der unreal engine ungeschlagen. nur ganz wenige ausnahmespiele laufen auf radeonkarten vergleichbar gut.
 
  • Gefällt mir
Reaktionen: MiroPoch, niminator, feris und 7 andere
Performance finde ich hier eig. okay ohne Upscaling. >60FPS in UHD ohne FSR/DLSS, mit 7900XT und 4070 ist doch gut. Die meisten werden bei dem Spiel eh nicht mehr FPS brauchen und alle Karten darunter schafft man sich für UHD eher nicht an, zumindest nicht für solche Spiele.

Trotzdem schade, dass FSR3/TSR fehlt und das Spiel auf AMD zu schlecht läuft.
 
  • Gefällt mir
Reaktionen: SweetOhm
nciht schrieb:
Performance finde ich hier eig. okay ohne Upscaling.
deswegen ist eine rtx3060ti so schnell wie eine rx6800xt

Griff an die UE5 dran schweißen und wegwerfen. :)
 
  • Gefällt mir
Reaktionen: Rassnahr, Kha'ak, feris und eine weitere Person
Rainbowprincess schrieb:
Umso trauriger ist es, dass die engine immer mehr ihren Einsatz findet und Spiele bald nur noch aus Unity oder unreal engine bestehen.
Ich hab auch den Eindruck, die UE5 hat schon als "Grundlast" höhere Anforderungen, also selbst wenn ein Spiel die Features der neuen Engine gar nicht explizit verwendet. Da hat man dann schon prinzipiell eine schlechtere Performance, obwohl das Spiel kaum besser aussieht als wenn es mit der UE4 gemacht wäre.

Ein schönes Beispiel ist da aktuell Satisfactory, wo die Entwickler während der Early Access Phase von UE4 auf UE5 gewechselt haben bzw. wechseln mussten*. Grafisch hat sich durch den Wechsel nichts geändert, aber die FPS sind Pi mal Daumen um 50% runter und die Entwickler haben als "Lösung" die üblichen Upscaler eingebaut.

* sie mussten wechseln, weil Coffee Stain eine individuelle Lizenz der Engine haben inkl. Support bei Nutzung und Anpassung durch Mitarbeiter von Epic. Epic stellt aber kein Personal mehr für die UE4 ab und entsprechend bekommt Coffee Stain nur weiter den gebuchten Support, wenn sie die UE5 nutzen, selbst wenn ihnen die UE4 eigentlich reicht.
Dürfte auch der Grund sein, warum jetzt plötzlich alle Spiele mit der Unreal Engine die 5er nutzen, selbst wenn deren Features gar nicht genutzt werden - für was anderes gibt es schlicht keinen Entiwcklersupport mehr durch Epic.
Finde ich auch großes Manko an der UE, dass es dort keinerlei LTS-Versionen gibt. Sowas sollte es bei einer so wichtigen und verbreiteten Engine eigentlich geben und Unity bekommt ja auch LTS-Versionen hin, die neben der neuesten Version weiter aktiv supported werden. Bei UE ist man durch die Support-Politik mitunter gezwungen, mitten im Projekt auf eine neue Version zu wechseln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes, Innocience, RdV und 2 andere
Danke für den Test. :daumen:

Wäre echt toll, wenn AMD das hier mal in den Griff bekommen könnte (rechts):
1707761335612.png


Man siehts auch ständig beim laufen um den Charakter z.B. an der Schulter oder den Armen.

Das war schon bei Jedi Survivor extrem störend. Immer wenn sich der Charakter umdreht oder schneller bewegt sieht es aus, als würde das Bild durch den YouTube encoder gejagt werden.

Dann sollen sie halt einfach nen Unschärfefilter an den stellen wo die samples nicht reichen einsetzen. Würde 1000x besser aussehen, als dieses komplett ungefilterte gepixel.
Ich verstehs nicht... :confused_alt:
 
  • Gefällt mir
Reaktionen: CMDCake
mibbio schrieb:
Ich hab auch den Eindruck, die UE5 hat schon als "Grundlast" höhere Anforderungen, also selbst wenn ein Spiel die Features der neuen Engine gar nicht explizit verwendet. Da hat man dann schon prinzipiell eine schlechtere Performance, obwohl das Spiel kaum besser aussieht als wenn es mit der UE4 gemacht wäre.

Ein schönes Beispiel ist da aktuell Satisfactory, wo die Entwickler während der Early Access Phase von UE4 auf UE5 gewechselt haben bzw. wechseln mussten*. Grafisch hat sich durch den Wechsel nichts geändert, aber die FPS sind Pi mal Daumen um 50% runter und die Entwickler haben als "Lösung" die üblichen Upscaler eingebaut.

* sie mussten wechseln, weil Coffee Stain eine individuelle Lizenz der Engine haben inkl. Support bei Nutzung und Anpassung durch Mitarbeiter von Epic. Epic stellt aber kein Personal mehr für die UE4 ab und entsprechend bekommt Coffee Stain nur weiter den gebuchten Support, wenn sie die UE5 nutzen, selbst wenn ihnen die UE4 eigentlich reicht.
keiner will halt so recht einsehen, dass die engine eigentlich Müll ist. Gabs bisher ein Spiel das wirklich gut damit läuft? fortnite? Das stellt auch jeder auf dx11 um gescheite fps zu erhalten.
 
  • Gefällt mir
Reaktionen: Innocience, feris, Blood011 und eine weitere Person
FabianX2 schrieb:
Scheiden die AMD Karten bei anderen UE5 Titeln auch so schlecht ab?
Da der Ramverbrauch extremst niedrig ist bei dem Spiel und das bei anderen Spielen nicht zu erwarten ist aber hier pro Euro man mehr VRam kriegt bei AMD, wahrscheinlich nicht.
Zumal Nvidia auch gerne mit RAM Speed zu kämpfen hat, gerade die 4070 super ist da ein Rohrkrepierer. Die 4070 Super hat nur 504 GB/s Bandbreite die 7900xt hat 800GB/s und selbst die 7800xt hat 624 GB/s.

Btw selbst die 4080 super hat nur 736gb das ist selbst weniger als die 7900xt hat aber die immer noch deutlich billigere XTX hat 960GB/S.

Jeh beschissener ein game aussieht wegen Kacktexturen um so mehr profitiert Nvidia um so besser es aus sieht wegen guten Texturen um so mehr AMD, nur bei 16gb ist noch die Frage wie das langfristig aus sieht aber die 12gb werden zum Problem werden ich erwarte das wir irgendwann sogar spiele sehen werden wo die 7800xt an der 4070 super vorbei zieht obwohl sie eine Preisklasse darunter ist ich mein spätestens wenn 12gb nimmer reichen ist das klar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Banker007 und SweetOhm
tusen_takk schrieb:
Wunderbar, meine 6700 XT ganz unten zu sehen. 🏮
Nee meine 6650XT...
Das haben die Entwickler aber dieses Mal richtig verhauen. Wenn sogar die olle 3060 schneller als eine 6700XT ist.
Andere UE5 Titel spiele ich mit angenehmen FPS. Mal 6 Monate abwarten ob da noch Patches nachgereicht werden.
 
  • Gefällt mir
Reaktionen: niminator, feris, Epistolarius und 3 andere
BloodGod schrieb:
Das wird langsam echt auffällig das HDR nie zum Einsatz kommt bei UE5, was ist da los?!
Auto HDR startet mit bei UE5.
 
duskstalker schrieb:
ja, das ist tatsächlich so. nvidia hat sich vor einiger zeit dick mit partnerschaften bei EPIC eingekauft und die unreal engine ist seitdem mehr oder weniger die hausengine von nvidia.
Dann erkläre uns bitte, warum Intel Grafikkarten auch so gut performen.
Wenn man mit Verschwörungen anfängt, dann sollte man auch seinen Verstand einsetzen und zu Ende denken.
 
  • Gefällt mir
Reaktionen: cmdr_nemesis, Loopman, Fallout667 und eine weitere Person
  • Gefällt mir
Reaktionen: Blood011
Rainbowprincess schrieb:
keiner will halt so recht einsehen, dass die engine eigentlich Müll ist. Gabs bisher ein Spiel das wirklich gut damit läuft? fortnite? Das stellt auch jeder auf dx11 um gescheite fps zu erhalten.
Die Engine ist nicht Müll und eigentlich liefen alle Spiele bisher ganz gut. Ark 2 läuft bspw. besser als der erste Teil und sieht dabei auch noch fantastisch aus. Lords of the Fallen, Robocop, Tekken 8 und Remnant 2 laufen auch sauber.
Wenn du natürlich auf einer Kartoffel spielst und ein Grafikfeuerwerk bei 144 FPS+ erwartest, bist du das Problem und nicht die Engine.
 
  • Gefällt mir
Reaktionen: C3LLoX, cmdr_nemesis, Blackvoodoo und 7 andere
Finde das fehlende TSR keinen Verlust, DLSS schaut bei anderen UE5 Titeln schon besser aus, hätte zwar mehr Auswahl, aber keinen optischen Vorteil gebracht.
 
BlackDevCon schrieb:
Wenn sogar die olle 3060 schneller als eine 6700XT ist.
Lass meine Graka in Ruhe. Ich sag ja auch nichts gegen deine Gurke. \(^-^)/
 
  • Gefällt mir
Reaktionen: serve1chilled und tusen_takk
FabianX2 schrieb:
Scheiden die AMD Karten bei anderen UE5 Titeln auch so schlecht ab?
Bei Palworld sieht’s auch nicht gut aus, zudem scheint besonders RDNA3 zusätzlich noch Probleme mit den Frametimes zu haben
-ME6tSC6.png
 
  • Gefällt mir
Reaktionen: feris
Pro_Bro schrieb:
Finde das fehlende TSR keinen Verlust, DLSS schaut bei anderen UE5 Titeln schon besser aus, hätte zwar mehr Auswahl, aber keinen optischen Vorteil gebracht.

Doch, für AMD und Intel user auf jeden Fall. TSR sieht sehr gut aus. Würde ich selbst als Nvidia nutzer gerne nehmen, falls kein DLSS verfügbar wäre. Ist überhaupt kein Vergleich zu FSR.

Für mich daher völlig unverständlich, warum man TSR gestrichen hat. Das ist ein UE5 Standardfeature. Es ist mehr Aufwand, das rauszunehmen, anstatt einfach drin zu lassen.
 
  • Gefällt mir
Reaktionen: anarchie99 und edenjung
Ich kann mit der Grafik von dem Spiel überhaupt nichts anfangen, ist ähnlich gelagert wie mit Lords of the Fallen, witzigerweise habe ich bevor ich diesen Artikel hier auf Computerbase gesehen hatte, mir den Trailer auf Steam angeschaut.^^
https://store.steampowered.com/app/1493640/Banishers_Ghosts_of_New_Eden/

Das Spiel soll wohl sehr gut sein, ist aber überhaupt nicht mein Fall, also nur subjektiv gesehen natürlich.^^

Das mit der Grafik könnte vielleicht auch mit der Unreal Engine 5 zusammenhängen, man sieht in beiden genannten Spielen sehr weit, aber es ist ziemlich einseitig was man sieht.^^
 
  • Gefällt mir
Reaktionen: Chismon
Zurück
Oben