Test Lords of the Fallen: Neue GPU-Benchmarks mit aktuellem Patch und Treibern

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.630
  • Gefällt mir
Reaktionen: Chismon, Quidproquo77, Master Foben und 2 andere
Der Unterschied zwischen RTX 4070 Super und RTX 4070 Ti finde ich spannend. Die RTX 4070 Ti ist erstaunlich stark. Das ist irgendwie seltsam. In 4K sogar über 20% schneller.
Hingegen der Abstand zur RTX 4070 zur RTX 4070 Super im einstelligen Bereich bleibt und bei steigender Auflösung sogar weniger wird.

Edit: Mittlerweile wurden die Werte der RTX 4070 Super von Wolfgang korrigiert und angepasst. Jetzt passt das Bild wieder.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: electronish und Quidproquo77
Großen Dank für die viele Mühe und dafür, dass auch noch kleinere, ältere Grafikkarten mit-dabei sind.

Meine RX 5700XT ist also Kinoreif bei 42 FPS in FHD. 😎
Nicht übel. Das Game scheint nVidia schon stark zu bevorzugen 🫤
 
  • Gefällt mir
Reaktionen: RAMSoße
AAAA Games in "Kinoreif". Die Branche verblödet komplett. 🤣
 
  • Gefällt mir
Reaktionen: E1M1:Hangar, Flunkiii, icetom und 5 andere
Die Werte der 4070 Super können aber nicht richtig sein.
An Bandbreite mangelt es schließlich nicht, wie man bei der 4070 Ti und 4070 Ti Super sieht.
Hier waren die Werte noch ok.
 
Abrexxes schrieb:
AAAA Games in "Kinoreif". Die Branche verblödet komplett. 🤣
Oder man passt sich der Zielgruppe an... ;)
 
  • Gefällt mir
Reaktionen: Bademeister69 und RAMSoße
Ok die Leistung hat sich bei Nvidia seit dem Test sogar verschlechtert. AMD Top Modelle sind gleich schnell geblieben.
 
Upsampling auf der Stufe Quality (AMD FSR SR, Nvidia DLSS SR) ist nach wie vor bei jeder Auflösung aktiviert.
Es ist besonders aber nicht nur bei 720p Auflösung absurd, die Ergebnisse dieser verschiedenen Technologien in ein Diagramm zu packen.

Man stelle sich nur den Aufschrei vor, wenn die gleiche mindere Bildqualität unter anderem Deckmäntelchen zu höheren nominalen Bildraten führen würde.
 
Interessant wirds bei der 6800xt...6950 und der GRE, die man nicht gleichzeitig vgl. kann, ... dank altem Test
gehts aber auch in 1440p: ... RDNA2 scheint nicht ideal zu sein (siehe Anhang)

btw.
der NV-Treiber scheint auch nicht bei jedem Modell besser geworden zu sein (minFps)
 

Anhänge

  • Lords@1440p.JPG
    Lords@1440p.JPG
    278,6 KB · Aufrufe: 90
toll, danke für die Mühe!
 
“Muss sich einruckeln” 😂😂

Ganz ehrlich, die Leistung von Intel Chips ist schon peinlich, so ein großer 6nm Chip mit 256 Bit ist nur so schnell wie ein älterer und viel kleinerer 7nm Chip von AMD mit 128 Bit. Fraglich ob Intel jemals gut sein wird.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Die Werte der 4070 Super können aber nicht richtig sein.
An Bandbreite mangelt es schließlich nicht, wie man bei der 4070 Ti und 4070 Ti Super sieht.
Hier waren die Werte noch ok.
Ja, das hast du richtig erkannt, die Werte der 4070 Super waren falsch und sind nun korrigiert :)
incurable schrieb:
Es ist besonders aber nicht nur bei 720p Auflösung absurd, die Ergebnisse dieser verschiedenen Technologien in ein Diagramm zu packen.

Man stelle sich nur den Aufschrei vor, wenn die gleiche mindere Bildqualität unter anderem Deckmäntelchen zu höheren nominalen Bildraten führen würde.
Es ist nicht optimal, aber das lässt sich mittlerweile einfach leider nicht mehr verändern.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Jan
Wolfgang schrieb:
Es ist nicht optimal, aber das lässt sich mittlerweile einfach leider nicht mehr verändern.
Klar lässt sich das ändern, im einfachsten Fall musst Du nicht mal zusätzliche Tests machen: Nur Geräte mit den gleichen Einstellungen kommen auch in ein Diagramm.
 
Ich glaube nicht, dass auch nur irgendwer Happy wäre, wenn AMD-Grafikkarten ein eigens Diagramm hätten, Nvidia-Karten ein eigenes Diagramm und Intel-Grafikkarten ein eigenes Diagramm. Dein Vorschlag ist kein realitätsnaher und leserfokussierter Ansatz.
 
Rhoxx schrieb:
Nicht übel. Das Game scheint nVidia schon stark zu bevorzugen 🫤
UE5 halt, wie jedes zweite Spiel heutzutage.
Und da mit dieser engine upscaling nun zum Standard wurde und die Seuche salonfähig machte, wird das ganze gebenche auch immer uninteressanter. Gleiche nervige engine, gleiche upscaling-mogelpackung, gleiche schlechte Ergebnisse.
1440p sind echte 1080p. 55fps mit Ner 6800xt in 1080p. Es lebe die UE5 ^^
 
  • Gefällt mir
Reaktionen: RayvonXIII und bad_sign
Wolfgang schrieb:
Dein Vorschlag ist kein realitätsnaher und leserfokussierter Ansatz.
Ihr macht das schon gut so, wie es aktuell ist. Es gibt ja auch immer wieder Vergleiche zwischen den verschiedenen Upscalern und letztendlich würde ich meinen, dass das nochmal ein eigenes Thema bei der Kaufentscheidung ist. Zumindest würde ich jedem raten, die Kompatibilität der bereits vorhandenen/geplanten Titel mit dem abzugleichen, was die GPU unterstützt und auch für die Bildqualität schaut man sich besser gesonderte Tests an. Für einen Performancevergleich ist alles in einer Tabelle trotzdem sinnvoll.
Ergänzung ()

Rainbowprincess schrieb:
55fps mit Ner 6800xt in 1080p. Es lebe die UE5 ^^
Und wo genau ist jetzt das Problem? Man muss nicht immer alles maxed out zocken. Notwendig sind Presets, die dafür sorgen, dass möglichst viele (von der Verbreitung her relevante) Systeme spielbare FPS schaffen. Ob das nun das Ultra oder High ist für eine 6800XT ist mir egal, mal unabhängig von der Auflösung. Spiele werden mittlerweile ja recht lange vermarktet, wenn die höchsten Settings auf aktuell verfügbarer Hardware nicht laufen, ist das kein Beinbruch. Es sei denn man fühlt sich irgendwie schlecht, wenn der eigene PC nicht für Max. Settings reicht.
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Dein Vorschlag ist kein realitätsnaher und leserfokussierter Ansatz.
So wie es aktuell gehandhabt wird verschleiert es die unterschiedliche Qualität der ausgegebenen Bilder.

Der einzige, dem damit geholfen ist ist der Grafikprozessorhersteller, der sich mit minderer Qualität den längeren Balken erkaufen kann. Das war bei der Einführung von DLSS falsch, das ist es heute, und das wird es auch für immer bleiben.
 
  • Gefällt mir
Reaktionen: Fresh-D
Poati schrieb:
Ob das nun das Ultra oder High ist für eine 6800XT ist mir egal
Wenn die Optik dem Leistungshunger entspricht, ist es egal ja. Wenn Spiele aber nicht oder nur kaum besser aussehen als vor 2-3 Jahren, dann auf einmal upscaling benötigt wird und man trotzdem unter 60 FPS landet, die ohne upscaling vorher möglich wahren, stimmt irgendwas nicht.
Und UE Titel scheinen zumindest in die Richtung zu gehen, Optik und Leistungshunger stehen in keinem guten Verhältnis. Gerade auf AMD Karten.
 
  • Gefällt mir
Reaktionen: Jagdwurst
Mensor schrieb:
Wenn die Optik dem Leistungshunger entspricht, ist es egal ja. Wenn Spiele aber nicht oder nur kaum besser aussehen als vor 2-3 Jahren, dann auf einmal upscaling benötigt wird und man trotzdem unter 60 FPS landet, die ohne upscaling vorher möglich wahren, stimmt irgendwas nicht.
Da stimme ich zu. Der Kontext hat mir jetzt bei der Aussage, die ich zitierte, gefehlt.
 
Zurück
Oben