• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Wuchang: Fallen Feathers im Test: Benchmarks zeigen hohe Anforderungen an die Grafikkarte

AlanK schrieb:
Fast 80% aller Teilnehmer der computerbase Umfrage nutzt eine höhere Auflösung als Full-HD.
Computerbase richtet sich an ihre Zielgruppe.
Bei der Bundestagswahl hatte ich auch eine Stimme.
Die habe ich abgegeben.

Unterschied zur Bundestagswahl, hier auf Computerbase habe ich scheinbar dafür gestimmt was die Mehrheit nutzt: 3840x2160
Die Mehrheit hier nutzt 1440p. https://www.computerbase.de/forum/t...-die-grafikkarte.2247549/page-2#post-30788811
 
Quidproquo77 schrieb:
Da läuft ja so manches Pathtracinggame schneller...

Nein, die Anforderungen mit PT sind idr. nochmal deutlich höher. So werden aus 60-70 FPS eher 40-45 FPS.
Die Anforderungen mit PT sind außerdem immer ziemlich konstant. Mit wenigen Ausreißern nach oben (bzw. FPS nach unten)


Quidproquo77 schrieb:
Der absolute Klassiker, kognitive Dissonanz genannt.

Nein, nix mit kognitive Dissonanz. Die Latenzen sind je nach Game und basierend auf der Verfügbarkeit von Nvidia Reflex oder AntiLag2 extrem unterschiedlich.

Das Argument dass mit FG die Framerate nicht mehr zur gefühlten Latenz passt kann man einfach nicht gelten lassen. Denn dann wären AMD und Intel Grafikkarten, die in den allermeisten Spielen keinen Zugriff auf Latenzreduktion wie Reflex haben, völlig unkaufbar.
Nein, den quatsch kann mir keiner erzählen.


Zumal Latenz einfach nichts mit der Framerate zu tun haben muss. Framerate wird bis zu nem gewissen Punkt einfach nur als Bildqualitäts-Artefakt wahrgenommen. Es gibt ruckeln und unschärfe. Beides verschwindet erst bei 500-1000 FPS weitestgehend vollständig.

Bessere Latenz war etwas, was bisher ein Nebeneffekt war, wenn sich die Performance und damit die FPS erhöht haben. Aber die absoluten Werte standen noch nie in direktem Zusammenhang mit der Framerate sondern hingen von ganz anderen Faktoren ab. Nur die Tendenzen in welche Richtung es geht korrelieren mit der Framerate.
Und gute Latenzen kann man wie gesagt auch mit aktiver Frame Gen erreichen. Also muss es keine kognitive dissonanz geben, da sie nunmal in jedem Game unterschiedlich sind.

Das ist alles nur lächerliches schlechtreden von Features mit denen manche nicht einverstanden sind.
Ich bin ja auch kein Fan davon, FG als Ersatz für schlechte performance zu missbrauchen. Das ist nicht Sinn der Sache, da man auch unabhängig von FG ausreichend performance erreichen muss, um auf die Latenzen zu kommen die man möchte.

Für mich ist FG in erster Linie ein Bildqualitätsfeature, um die Sichtbarkeit der einzelbilder zu minimieren (die sieht man auch bei 200+ FPS noch deutlich) und die Schärfe des Bildes in Bewegung zu erhöhen.


FG ist dadurch ein Bildqualitätsfeature wie jedes andere auch. Wenn ich in einem Spiel Ultra Details einstelle, dann erhöhen sich auch die Latenzen... Ich hoffe daher, dass jeder, der FG wegen der Latenzen nicht nutzen möchte, ausnahmslos mit Low settings spielt. Denn wer würde schon freiwillig Features aktivieren, die der Latenz schaden? Undenkbar oder? /sarkasmus
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
mesohorny schrieb:
War nur eine Frage der Zeit, bis wieder jemand die verfälschte Steamumfrage als Argument vorlegt.
Ich würde behaupten, CB testet fürs eigene Publikum und nicht für Millionen chinesische Internetcaferechner.
Ich bitte zu beachten, dass meine Antwort der Aussage galt:"Weil kaum noch einer in Full HD spielt." Nicht was innerhalb der CB Bubble eine sinnvoller Test sein sollte.
Zusätzlich möchte ich anmerken das in der Umfrage nur 26,73% Chinesisch als Sprache angegeben haben. Es ist nicht schwer zu erkennen, dass selbst wenn alle Chinesen aus einem Internetcafe spielen würden, sie nicht alleine in der Lage wären die Statistik mit den Auflösungen so zu beeinflussen das HD vor WQHD landet.
 
  • Gefällt mir
Reaktionen: RdV, CountSero, KeinNutzerName und eine weitere Person
UE 5.1.1 das ist einer der Probleme. Optimierung kam erst in späteren Updates.
 
  • Gefällt mir
Reaktionen: Icke-ffm
supertramp schrieb:
Und auch nur, weil die Unreal Engine 5 einfach nur schlecht ist.
Nein, ist sie nicht. Die Performance ist ca 60% schneller und der VRAM Verbeauch ca 1/4 geringer gegenüber UE4 bei gleichem Game und Grafik.

Entwickler hauen einfach jeden Mist rein, was die UE4 nicht kann im Glauben damits besser aus schaut. Dazu werden die Games werden kaum noch optimiert. Nach dem Motto: Upscaling regelt schon
 
  • Gefällt mir
Reaktionen: Azeron
theGucky schrieb:
UE 5.1.1 das ist einer der Probleme. Optimierung kam erst in späteren Updates.
Yup, mit der UE 5.6 wurden viele der Probleme behoben, nur ist es wohl etwas schwierig von einer alten Version auf eine neuere zu portieren, deswegen wird das so wie gut nie gemacht.
 
Alle die gegen die UE5 argumentieren, sie benötigt hohe Leistung aber auch Wissen.
Die Möglichkeiten sind fast endlos aber schnell etwas hinklatschen ist nicht so edel.
Aber Zeit ist Geld.
Zacco93 schrieb:
Und genau deshalb gibt es auch keine FHD Benchmarks mehr. Aber außerhalb der Computerbase bubble spielen sehr wohl noch viele mit FHD Auflösung
Also in meinem Umfeld sind alle auf WQHD oder 4K.
 
Wo sind eigentlich die ganzen B580 verfechter geblieben ?
In den letzten Monaten zu allen Großen Spiele Tests verliert die B580 gegen eine Nvidia Mittelklasse von 2020 welche in Samsung 8nm gefertigt wurde und dabei auch noch sparsamer läuft als die 5nm TSMC B580.
1753957180285.png
 
  • Gefällt mir
Reaktionen: RdV, Nahkampfschaf, Zacco93 und 2 andere
@Weltraumeule Alles erwachsene Personen die im Berufsleben stehen?
Na gut dann sind, dein Umfeld und du, die berüchtige Ausnahme.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Nighteye schrieb:
Wo sind eigentlich die ganzen B580 verfechter geblieben ?
In den letzten Monaten zu allen Großen Spiele Tests verliert die B580 gegen eine Nvidia Mittelklasse von 2020 welche in Samsung 8nm gefertigt wurde und dabei auch noch sparsamer läuft als die 5nm TSMC B580.
Anhang anzeigen 1642594
Die neue Arc wird besser aber halt auch teurer sieht halt dann nicht mehr gut aus PL
 
Syrato schrieb:
@Weltraumeule Alles erwachsene Personen die im Berufsleben stehen?
Na gut dann sind, dein Umfeld und du, die berüchtige Ausnahme.
Der jüngste ist 25, ältesten 40, im Schnitt sind die ca. 35.
Ausnahme in Bezug zu was? In Bezug zu CB hier sind sie die Ausnahme. In Bezug zu Steam Umfrage sind sie absolut im Schnitt. Und nein, das sind nicht alles chinesische Internetcafés, das wurde ja hier im Thread bereits widerlegt.
 
  • Gefällt mir
Reaktionen: RdV
"„Aggressives Upsampling“ bedeutet in diesem Fall den Performance-Modus, ohne den es oft schwer wird."

Also ich würde WQHD mit 3-4 fordernste Grafikoptionen leicht runtergeregelt bevorzugen und dann DLSS Quality. Möglicherweise Balanced. Aber nicht Performance.

Dann sollte es auch mit 70 FPS hinhauen, die ich für ein Singleplayergame mind. gern habe. Falls es hier und da mal kurz etwas runtertickt, auf 60 fps, könnte ich damit auch leben. :D

Oft sieht man doch kaum einen Unterschied, wenn man mal beispielsweise Schatten und bestimmte Effekte von hoch auf Mittel stellt. Vor allem, wenn man mal so 10 Minuten gespielt hat. Gewöhnt man sich schnell dran.

FG kann mir weiter gestohlen bleiben. Ich brauche keine künstlich extra dazwischengerechnete Bilder, zwischen den beiden eigentlichen Bildern. Ich will das nächste echte Bild haben, nicht irgendwelche Zwischenbilder, um mich mit dem FPS Counter selber zu veräppeln. Demnächst gibt's MFG 8fach. ;) ^^
Aber da gibt es ja 18 verschiedene Meinungen, bei 20 Leuten. Seh' nur ich für mich halt so.
Was nutzt mir ein tolles FG Bild, wenn es keinerlei neue Informationen enthält? Also nur ein Rückblick auf Bild 1, mit Mischung zu Bild 2 ist? Nope. Nee danke! Lieber sofort Bild 2 und dann 3. Dazwischen brauche ich nichts. Und diese sollen natürlich flüssig = für mich gern 70+ im Singleplayer sein.

Wer das nicht so hinbekommt, mit seiner Grafikkarte (mit z.B. 2-3 Optionen leicht runterregeln), hat einfach die falsche (zu hohe, zu fordernde) Auflösung gewählt.
 
An alle 1080p Menschen hier.
In WQHD muss eure GPU ca. 78% mehr Pixel berechnen...
In 4K muss eure GPU ca 4x soviele Pixel berechnen...
Lässt sich leicht rechnen.

Weltraumeule schrieb:
Und in meinem sind alle auf 1080p.
Sind nicht die Zielgruppe dieser Seite.
 
Was man bei Full HD auch nicht vergessen sollte:

Dort sollte man auch mit DLSS 4 nicht in den Performance-Modus gehen, mehr als Quality sollte es da echt nicht sein. Und WQHD Performance vs. Full HD Quality...da sieht WQHD halt besser aus und läuft vermutlich gar nicht groß schlechter. Das habe ich jetzt nicht ausprobiert, ist aber meine Vermutung.
 
  • Gefällt mir
Reaktionen: bullit1
Gnodab schrieb:
Sind nicht die Zielgruppe dieser Seite.
Habe ich nie behauptet. Du hast den Sinn meiner Aussage nicht verstanden.
 
  • Gefällt mir
Reaktionen: KeinNutzerName
Wolfgang schrieb:
Was man bei Full HD auch nicht vergessen sollte:

Dort sollte man auch mit DLSS 4 nicht in den Performance-Modus gehen, mehr als Quality sollte es da echt nicht sein. Und WQHD Performance vs. Full HD Quality...da sieht WQHD halt besser aus und läuft vermutlich gar nicht groß schlechter. Das habe ich jetzt nicht ausprobiert, ist aber meine Vermutung.
Aber in FHD wurde die Nvidia GeForce RTX 3060 Ti und AMD Radeon RX 6700 XT bessere FPS bringen
 
Wolfgang schrieb:
Was man bei Full HD auch nicht vergessen sollte:

Dort sollte man auch mit DLSS 4 nicht in den Performance-Modus gehen, mehr als Quality sollte es da echt nicht sein. Und WQHD Performance vs. Full HD Quality...da sieht WQHD halt besser aus und läuft vermutlich gar nicht groß schlechter. Das habe ich jetzt nicht ausprobiert, ist aber meine Vermutung.

DLSS4 ist mit Scaling Faktor 4x am effizientesten. Solange die Renderauflösung nicht unter 720p fällt sollte das Bild auch allgemein ordentlich aussehen.

Und natürlich sieht 1440p mit DLSS Performance (720p input) besser aus als 1080p mit DLSS Quality (ebenfalls 720p input).

Je höher die Zielauflösung, desto besser (max. eben 4x).
Nur der Performanceoverhead des Upscaling Algo ist bei höheren Auflösungen natürlich größer und der Speicherverbrauch steigt ebenfalls.

Speicherverbrauch bricht halt den 8 GB GPUs zunehmend das Genick in 1440p mit Upscaling, wohingegen 1080p mit Upscaling noch problemloser mit 8 GB machbar sind. Ich denke das ist der entscheidende Punkt, warum so viele mit lower end GPUs noch bei 1080p bleiben, obwohl es rein aus sicht performance vs Bildqualität mit Upscaling keinen Sinn mehr machen würde bei 1080p zu bleiben.

Auch Frame Generation rennt in 1080p natürlich schneller als in 1440p oder 4K. Frame Gen wird mit steigender Auflösung nunmal ebenfalls fordernder für die GPU, weil größere Bilder mit mehr pixeln generiert werden müssen. Das Scaling verschlechtert sich von vielleicht +90% mehr FPS in 1080p auf +80% mehr FPS in 1440p auf +70% mehr FPS in 4K. Auch wieder ein Faktor, der für low end GPUs durchaus relevant ist.


Es ist schon etwas bizarr. In hohen Auflösungen zu spielen ist dank Upscaling und Frame Gen so einfach wie noch nie. Auf schnelleren Grafikkarten fast schon ein no-brainer, weil die Performanceunterschiede so gering sind.
Dennoch sorgen die Hersteller durch den gigantischen performanceunterschied zwischen low end/mittelklass eund High End trotzdem dafür, dass immernoch relativ wenige in 4K spielen, weil man mit solchen GPUs dann trotzdem um jedes FPS kämpfen muss und zusehen muss, dass einem der VRAM nicht voll läuft.

Fühlt sich auf jeden Fall wie künstliche Marktsegmentierung an.

Ich hoffe, dass sich das mit der nächsten GPU Generation dann mal auflöst.
Wenn eine 500€ GPU RTX 4080 Performance erreicht und mit 16-18 GB VRAM kommt, dann sollte hoffentlich jeder der möchte problemlos in den Genuss von 4K kommen können.
Das wäre auch in etwa das performanceniveau, das ich von den künftigen Konsolen erwarten würde.
 
Zuletzt bearbeitet:
yamiimax schrieb:
Aber in FHD wurde die Nvidia GeForce RTX 3060 Ti und AMD Radeon RX 6700 XT bessere FPS bringen
Mhm, sicher? Ich meine, bei wqhd Performance gehen full hd quality? Ich weiß es nicht, aber es würde mich wundern, wenn es da einen größeren Unterschied geben würde.
 
Meiner Meinung nach ist Wuchang derzeit eines der bestaussehendsten Spiele überhaupt. In Punkto Detailreichtum schlägt es auch Wukong. Idealerweise wenn man eine dicke Grafikkarte hat, sollte das Spiel in DLAA gespielt werden, da DLSS, selbst auf Qualität die Schatten hässlich aliased. Warum auch immer. Also für 4090 und 5090 Besitzer ist mMn nativ DLAA mit FG the way to go. Nachdem DLAA aber leider mit dem neuesten Patch generft wurde, muss man es erst mit einem ini Eintrag wiederholen: Link.

Und wie gesagt grafisch ist es einfach nur wunderschön. Spiel ganz von in der Liga mit.
Damit ich nicht alles noch mal schreibe. Mein post im 3DC dazu;)

3d Center Posting
 
  • Gefällt mir
Reaktionen: Nero1
Zurück
Oben