• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Legacy of the Dark Knight: Lego-Batman braucht Upscaling und Frame Generation

Update: Alle Benchmark Links aktualisiert und für alle einsehbar, was ein gut optimiertes Spiel selbst mit älterer Hardware im Stande ist zu skalieren, insofern man auch den Regler nach links verschiebt !

Beitrag im Thema 'Legacy of the Dark Knight: Lego-Batman braucht Upscaling und Frame Generation' https://www.computerbase.de/forum/t...ng-und-frame-generation.2270695/post-31476910

Übrigens auch perfekte Auswahl an Spielen für Generations Vergleiche! 🤛

Jeder der Lust und Zeit hat, kann gerne für mögliche Negativ Beispiele Benchmarks mit allen verfügbaren Presents sammeln aus:
Beitrag im Thema 'Legacy of the Dark Knight: Lego-Batman braucht Upscaling und Frame Generation' https://www.computerbase.de/forum/t...ng-und-frame-generation.2270695/post-31476578

Und ja, noch niemand kennt Benchmarks von dem neuen Lego Teil.
Ich wollte nur dazu anregen, dass man Benchmarks auch in allen Auflösungen mit allen Presets testet, weil das die Mehrheit für eine Aufrüstung und je nach Spiel wirklich praktisch weiterhelfen würde, anstatt immer nur auf maximal Einstellungen je Auflösung zu testen.
Das hilft vielen / der Mehrheit außerhalb unserer High End Blase / Vorstellungen oft nicht weiter.
 
Zuletzt bearbeitet:
Blaze1987 schrieb:
Und ja, noch niemand kennt Benchmarks von dem neuen Lego Teil.
Und niemand weiß welche UE5 Features auf low noch aktiv sind. Kann genauso sein, dass hier Software RT (Lumen), Nanite für den Geometriedetailgrad, viel VSMs, VT, Ss, volumetrische Effekte und und und genutzt wird, was zusammengenommen nun mal eine gewisse Grundlast erzeugt und auch ein Level an "BQ" vorraussetzt, und "optimieren" in der Hinsicht fast zwecklos ist, vorausgesetzt die Entwickler wissen wie sie mit der UE5 umgehen müssen.
Blaze1987 schrieb:
Ich wollte nur dazu anregen, dass man Benchmarks auch in allen Auflösungen mit allen Presets testet,
Kann man alles machen, aber um ein gewisses Niveau zu erzielen müssen auch mal alte Zöpfe abgeschnitten werden. Dann läufts eben nicht auf einem Toaster. Wen juckt das? Bietet ja auch Vorteile, wie eben eine bessere Grafikquallität.
 
Zuletzt bearbeitet:
Falls es für jemanden überhaupt relevant wäre, zu dem Spiel habe ich keine Benchmarks mit Voreinstellungen finden können, daher selber kurz gebencht:

Ich müsste ggfls. noch auf 720P benchen mit allen presets., um die max. FPS der alten 10 Core 2,4 GHz CPU als Bottleneck in 3K & 2K ausschließen zu können.

| Kingdom Come Deliverance 2 |:
Beitrag im Thema 'Grafikkarten-Generationenvergleich: RX 7600 XT vs. 9060 XT, GeForce RTX 4060, 5060 & Arc A/B580' https://www.computerbase.de/forum/t...tx-4060-5060-arc-a-b580.2270551/post-31478347

System: M-ITX: DAN-A4 - Corsair 750 W - ASRock X99-ITX-AC - Intel Xeon E5-2618L v4 - 64 GB reg. ECC RDIMMs - AMD Radeon RX 9070

Rechnet einfach durch mein UV der RX 9070 + 8 bis +12 FPS & 70 W TBP dazu. Das sollte dann Werkseinstellungen der RX 9070 entsprechen. UV mit - 500 MHz GPU & - 30 PT im AMD Treiber.

Durch FSR 4.1 wird die CPU minimal mehr belastet (ca. 3 Watt mehr CPU Package ~ kann man auch noch als Software Messtoleranz gelten lassen).

In 4K mit FSR 4.1 macht das niedrigste Preset zum höchsten + 33 FPS aus.
In 3K mit FSR 4.1 macht das niedrigste Preset zum höchsten + 19 FPS aus.
In 2K mit FSR 4.1 macht das niedrigste Preset zum höchsten + 21 FPS aus.

In 4K nativ macht das niedrigste Preset zum höchsten + 25 FPS aus.
In 3K nativ macht das niedrigste Preset zum höchsten + 22 FPS aus.
In 2K nativ macht das niedrigste Preset zum höchsten + 18 FPS aus.

Zwischen FSR 4.1 4K Ultra zu 2K Niedrig Preset befinden sich + 41 FPS.
Zwischen nativ 4K Ultra zu 2K Niedrig Preset befinden sich + 62 FPS.


FSR 4.1

4K Ultra Preset: 64 FPS - 9.32 GB VRAM - 154 W TBP
4K Hoch Preset: 76 FPS (+ 10 FPS) - 9.17 GB VRAM - 153 W TBP
4K Mittel Preset: 84 FPS (+12 FPS) - 9.24 GB VRAM - 154 W TBP
4K Niedrig Preset: 97 FPS (+13 FPS) - 9.33 GB VRAM - 155 W TBP

3K Ultra Preset: 85 FPS - 8.73 GB VRAM - 144 W TBP
3K Hoch Preset: 87 FPS ( +2 FPS) - 8.48 GB VRAM - 116 W TBP
3K Mittel Preset: 90 FPS (+2 FPS) - 8.45 GB VRAM - 111 W TBP
3K Niedrig Preset: 104 FPS (+ 14 FPS) - 8.30 GB VRAM - 110 W TBP

2K Ultra Preset: 84 FPS - 8.34 GB VRAM - 110 W TBP
2K Hoch Preset: 91 FPS (+ 7 FPS) - 8.11 GB VRAM - 100 W TBP
2K Mittel Preset: 91 FPS ( - 0 FPS) - 8.08 GB VRAM - 95 W TBP
2 Niedrig Preset: 105 FPS (+ 14 FPS) - 8.00 GB VRAM - 92 W TBP


Nativ (ohne FSR)

4K Ultra Preset: 41 FPS - 10.73 GB VRAM - 154 W TBP
4K Hoch Preset: 50 FPS (+ 9 FPS) - 10.58 GB VRAM - 154 W TBP
4K Mittel Preset: 57 FPS (+7 FPS) - 10.57 GB VRAM - 153 W TBP
4K Niedrig Preset: 67 FPS (+10 FPS) - 10.47 GB VRAM - 154 W TBP

3K Ultra Preset: 81 FPS - 10.02 GB VRAM - 153 W TBP
3K Hoch Preset: 86 FPS ( +5 FPS) - 9.63 GB VRAM - 124 W TBP
3K Mittel Preset: 88 FPS (+2 FPS) - 9.57 GB VRAM - 112 W TBP
3K Niedrig Preset: 103 FPS (+ 14 FPS) - 9.39 GB VRAM - 108 W TBP

2K Ultra Preset: 85 FPS - 9.58 GB VRAM - 124 W TBP
2K Hoch Preset: 85 FPS (- 0 FPS) - 9.27 GB VRAM - 96 W TBP
2K Mittel Preset: 87 FPS ( + 2 FPS) - 9.22 GB VRAM - 90 W TBP
2K Niedrig Preset: 103 FPS (+ 16 FPS) - 9.11 GB VRAM - 85 W TBP


Wenn man möchte kann man jetzt mal ein aktuelles System dagegen halten und als Referenz die TechPowerUp Ultra nativ Benchmarks von April 2026 auf AM5 & AMD Ryzen 7 9800X3D & RX 9070 XT (die grob + 8 bis + 10 FPS mehr besitzt) nutzen:

https://www.techpowerup.com/review/asus-geforce-rtx-5090-matrix/30.html

MIN FPS
min-fps-kingdom-come-2-3840-2160.png min-fps-kingdom-come-2-2560-1440.png min-fps-kingdom-come-2-1920-1080.png

AVG FPS
kingdom-come-2-1920-1080.png kingdom-come-2-2560-1440.png kingdom-come-2-3840-2160.png

2026-05-04 20_54_39-Kingdom Come_ Deliverance II_1080p.jpg 2026-05-04 20_56_44-Kingdom Come_ Deliverance II_1080p.jpg 2026-05-04 20_58_34-Kingdom Come_ Deliverance II_1080p.jpg

In den 4K AVG Benchmarks limitiert meine 2,4 GHz CPU nicht ~ das passt also.
In den 3K AVG Benchmarks auch noch nicht (denkt dran, mein UV klaut mir ca. 8 bis 10 FPS zusätzlich).
In den 2K Benchmarks fehlen mir aber mit einer 11 Jahre alten CPU @ 2,4 GHz satte 40 bis 45 FPS (9070 XT - 9070 ~ -10 FPS & ca. - 10 FPS UV der 9070) zu den TechPowerUp Referenz nativ AVG Benchmark. ^^
Also nichts überraschendes. Ich zocke eh immer auf 4K.
Interessant finde ich es aber, das die MIN FPS perfekt zu meinen passen. ^^

@SVΞN: Findest du das nicht auch merkwürdig? ; )
 
Zuletzt bearbeitet:
MaverickM schrieb:
Weil Du eine Behauptung aufgestellt hast. So etwas sollte man halt nicht, wenn man keine Beweise dafür anführen kann.

Aber ich nehme dir Arbeit mal direkt ab: Wirst Du eh nicht finden. Konnte bisher noch keiner beweisen, ganz egal wie oft dieser Unsinn kolportiert wird.

Nur, weil Du hart dazu stehst wird es halt nicht richtiger. Mir ist das zu mühsam jetzt kleinteilig irgendwelche Tests zu suchen, wo man das irgendwie erkennen kann. Videos lässt Du ja nicht zu, wo man das erkennen kann. Ich habe daher mal die Diskussion bei Gemini eingegeben und um eine Bewertung des Themas gebeten.

1777931782969.png
 
sethdiabolos schrieb:

Ahja, da braucht man gar nicht erst weiter drüber reden. Beweise hat die KI dafür sowieso nicht.

sethdiabolos schrieb:
Videos lässt Du ja nicht zu, wo man das erkennen kann.

Das Video beweist gar nichts. Für diese Behauptung fehlt jedwede logische Begründung/Herleitung und aus dieser Beobachtung lässt sich auch keineswegs ein kausaler Rückschluss darauf ziehen, dass AMD mehr VRAM benötigen würde.

Tatsache ist, dass auch VRAM dazu da ist, genutzt zu werden. Wenn VRAM frei ist, kann ihn der Treiber auch belegen. Das tut der AMD Treiber besser als der nVidia Treiber. Wozu VRAM ungenutzt lassen. Darauf zu schließen, dass AMD mehr VRAM benötige, nur weil mehr freier VRAM auch sinnvoll genutzt wird, ist völliger Quatsch.

Was dagegen passiert, wenn bei nVidia der VRAM ausgeht, zeigt dieses Video wunderbar:


Dieses Verhalten ist bei AMD-Karten nicht zu beobachten, sobald ihnen der VRAM ausgeht. Einen Leistungseinbruch verzeichnen beide dann zusätzlich.
 
Zuletzt bearbeitet:
Igor hat künstlich die VRAM Unterschiede zwischen AMD & NVIDIA mit Workstation Grafikkarten mal gezielt getestet / herbeigeführt.

Man muss aber auch sagen, dass AMD in der Regel nicht mit VRAM geizt.
Was ihr daraus ableiten wollt, bleibt euch überlassen ... : )

https://www.igorslab.de/testreihe-m...speicher-der-grafikkarte-nicht-mehr-reicht/2/

Fazit:

Eines muss man NVIDIA wirklich lassen, denn wenn man mit seiner Karte unterhalb der benötigten Speichermenge liegt, wird getrickst und laut durch den PCIe-Slot geatmet, als gäbe es kein Morgen mehr. Sicher geht so etwas nicht ohne Kollateralschäden, aber zumindest hat man sich für seinen unverständlichen Speicher-Geiz ein schönes Pflaster spendiert. Die NVIDIA-Karten laufen bei identischem Speichermangel zumindest smoother als die AMD-Karten, wobei eben ein paar Inhalte verloren gehen. Das klappt aber nur bei PCIe 4.0 und mindestens 8 Lanes. Schaltet man das im BIOS mal geschickt eine Stufe runter auf PCIe 3.0, dann ist Ende der Pracht. Bei beiden Karten wohlgemerkt.

Was bei der NVIDIA-Karte jedoch ein richtiger Mangel ist, ist das Versagen der Speicherverwaltung, wenn der Speicherbedarf nah an der verfügbaren Speichermenge liegt. Dass die Karte dann so brutal in die Knie geht, hätte ich so nicht vermutet, aber es lässt sich auch an anderen Spielen sehen und bequem reproduzieren. Als Besitzer einer NVIDIA-Karte würde ich also zusehen, dass ich die Settings so konfiguriere, dass entweder über 1 GB weniger benötigt werden als vorhanden sind, oder aber deutlich mehr (mit dem Manko optischer Verluste). Was wiederum nur bei der passenden PCIe-Konfiguration klappt.

Da ist AMD aber auch gefordert, denn warum schon bei 12 GB Limitierungen sichtbar werden, obwohl in der Theorie nur 10 GB benötigt werden, muss man dort sicher auch erklären. Dass es bei den Mindermengen dann keine echte Entlastung durch ein Eingreifen des Treibers gibt, sondern man sich nur (je nach Spiel mehr oder weniger gut) über den Systemspeicher rettet (Glückwunsch an SAM/rBAR), drückt sich auch an den Ergebnissen aus. Genau das ist sicher auch einer der Gründe, warum AMD vollmundig mit dem größeren Speicherausbau wirbt. Was vorhanden ist, muss man nicht durch Tricksereien simulieren.
 
Blaze1987 schrieb:
Man muss aber auch sagen, dass AMD in der Regel nicht mit VRAM geizt.
Was ihr daraus ableiten wollt, bleibt euch überlassen ... : )

Zu dem Zeitpunkt war eben noch RDNA2/RDNA3 aktuell. Da hat AMD noch mehr VRAM verbaut gegenüber dem, was zu der Zeit benötigt wurde und das Problem war noch nicht so gut erkennbar. Jetzt mit 16GB ist man nicht mehr ganz so save aufgestellt wie viele glauben. Zwar besser als mit 12GB bei der RTX 5070, aber durch die Verwaltung des Speichers eben auch schlechter als mit 16GB bei der 5070Ti. Noch drückt es sich nicht bei der Performance aus, aber irgendwann kommt dieser Punkt eben, wo man es spürbar auf den Bildschirm projeziert bekommt. Danke für das Kommentar von Igor, er ist da schon ein Fuchs, dass er da so rumtüftelt.
 
  • Gefällt mir
Reaktionen: Blaze1987
Zurück
Oben