• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Call of Duty: Black Ops 7 im Test: Grafikkarten-Benchmarks, Raytracing- & Upsampling-Analyse

Wun Wun schrieb:
Du hast eher meine Aussage nicht richtig verstanden.
Siehe auch #18
Was hat der Kommentar über mir damit zu tun?
Und wenn ich dich deiner Meinung nach nicht verstanden habe: Erklärung bitte
 
Es ist schon fast ein schlechter Witz: Trotz einer RTX 5090 – NVIDIAs derzeit stärkster Gaming-GPU mit 32 GB GDDR7, 512-bit Speicherinterface und über 3000 AI-TOPs – kommt Call of Duty: Black Ops 7, wie viele Fans es nennen bei maximalen Grafikeinstellungen oft nicht über 70–90 FPS. Und das in einer Zeit, in der andere Games mit ähnlicher Grafik problemlos 150–200 FPS erreichen – auf deutlich schwächerer Hardware.

Fakten, die man nicht ignorieren kann:

  • RTX 5090 Benchmarks zeigen, dass Titel wie Cyberpunk 2077 (mit Path Tracing) oder Alan Wake 2 mit aktiviertem DLSS 3 und Frame Generation weit über 120–160 FPS schaffen.
  • Call of Duty: Black Ops 6 nutzt weder konsequente Frame Generation, noch eine durchgehend stabile Multi-Core-Optimierung – was bei einem modernen AAA-Titel aus dem Jahr 2025 schlicht nicht mehr akzeptabel ist.
  • CPU-Bottleneck? Nein. Selbst mit einem Intel 14900KF oder Ryzen 9950X3D wird die GPU nicht ausgelastet. Die Auslastung pendelt oft bei 50–60 %, was klar auf mangelhafte Engine-Optimierung hinweist.
  • Der VRAM-Verbrauch liegt bei über 18 GB, obwohl kein sichtbarer grafischer Fortschritt im Vergleich zu CoD MW2 (2022) oder MW3 (2023) erkennbar ist.
Ergebnis:
Selbst mit Top-Hardware im Wert von über 5000 € erhält man keine stabile 120–144 FPS Experience – geschweige denn 240 FPS auf High-Refresh-Monitoren. Für Competitive-Gamer ein Desaster.

Triple-A Studios wie Activision scheinen sich inzwischen mehr auf Monetarisierung, Battle-Pass-Systeme und kosmetische Inhalte zu konzentrieren als auf Performance und Optimierung. Der Zustand von CoD 7 ist der Beweis: Hardware entwickelt sich weiter – Spiele aber scheinbar zurück.

Ein herausragendes Beispiel für ein altes, aber extrem gut optimiertes Spiel ist:

🔹Half-Life 2 (2004) – Valve Source Engine​

Warum es als Paradebeispiel für Optimierung gilt:​


  • Läuft butterweich selbst auf schwacher Hardware (damals wie heute) – selbst integrierte GPUs oder schwache Laptops schaffen es in Full HD mit hohen FPS.
  • Modulare Engine-Optimierung: Die Source Engine war so gebaut, dass sie auf schwächsten Systemen lauffähig war, aber gleichzeitig auf High-End-PCs großartige Grafik lieferte.
  • Ladezeiten, Physik & Speicherverbrauch: Extrem gut angepasst – auch bei komplexen Levels oder Physik-Simulationen (z. B. mit der Gravity Gun) lief das Spiel stabil und flüssig.
  • Skalierbarkeit: Grafikeinstellungen hatten echten Einfluss auf Performance, ohne dass das Spiel hässlich wurde. Du konntest von Low bis Ultra spürbare Unterschiede sehen – bei gleichbleibender Spielbarkeit.

Vergleich zur heutigen Zeit:​

Wo moderne Spiele wie Call of Duty oder Battlefield selbst mit 3000€+ PCs ins Ruckeln kommen, lief HL2 auf einem Pentium 4 mit 512 MB RAM flüssig – und sieht mit Mods oder sogar RTX-Reflexionen heute noch stark aus.


 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: testwurst200, EcOnOmiC, FatalFury und eine weitere Person
BF6 4TW :smokin:
 
  • Gefällt mir
Reaktionen: mazO!, muvmend, 9t3ndo und 3 andere
Endlich ml ein MB mit aktuellem Bios, danke top !
was mir aber fehlt, ist eine Anmerkung/Untersuchung zur CPU ! es ist offensichtlich das Nvidia in ein CPU limit rennt, welches bei AMD nicht so früh einzu setzten scheint, eine 4090 3% langsamer wie eine 9070xt und selbst in den 1% nur gleich schnell in WUHD und selbst die 5090 ist nur 9% schneller, knn nur an der CPU liegen. denn sobald mehr Leistung gefordert wird sind beide deutlich schneller.

ein CPU test wäre da interessant sprich eine langsame CPU zb. 5600 oder 10700k aus den 4k anforderungen.
5080&9070xt in720p im CPU limit auf diesen beiden sowie die GPU benchmarks über eure auflösungen auch mit dieser CPU
 
DrFreaK666 schrieb:
Was hat der Kommentar über mir damit zu tun?
Und wenn ich dich deiner Meinung nach nicht verstanden habe: Erklärung bitte
Wenn die 7900XTX bei höherer Renderauflösung (2160p) mehr/gleich viele FPS bringt wie die 9070XT (die mit FSR ja nur 67% davon berechnen muss), wären das auf die gleiche Auflösung normiert (wenn die 9070XT z. B. ebenfalls 2160p nativ rechnen müsste) deutlich mehr FPS.

Unter der Tabelle steht aber:
„RDNA 4 ist in niedrigen Auflösungen stärker als RDNA 3, in hohen Auflösungen zeigt sich die gewohnte Leistung“.

Die Aussage würde nur passen, wenn beide nativ oder mit dem gleichen Upsampling getestet wären. Zeigt mal wieder die Idiotie, verschiedene Renderauflösungen zu testen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beschi, Lord B., Kadett_Pirx und 4 andere
Ja schön auf Konsole optimiert deshalb ist 9070XT Ausnahmsweise mal schneller als ne 5070ti. Wuhu :D
 
Wun Wun schrieb:
wären das auf die gleiche Auflösung normiert
Du hast tatsächlich nicht verstanden, wieso mit unterschiedlichen Auflösungen gebencht wird, oder?
Bei FSR4 reicht eine niedrigere Auflösung für die selbe Bildqualität wie FSR3.
Hier wird nicht bei gleicher Auflösung gebencht, sondern bei gleicher (ähnlicher) Bildqualität
 
Sofern man RT aus schalten kann und das Game gut läuft, ist es okay.
Und 70fps auf ne 4060 in 1440p und hoher Grafik ist absolut okay.

Hab mal geschaut: auf ner 780m iGPU auf Niedrig-Mittel in 1080p mit FSR Q kommen ca 60-70fps raus. Passt soweit.

Gut dass endlich mal darauf geachtet wird. Arc Raiders hat auch überrascht. Läuft quasi auf ne Kartoffel und sieht gut aus.
 
Zuletzt bearbeitet:
Quasi Unspielbar mit 4k max Details und rt

Well done 😂
 
  • Gefällt mir
Reaktionen: Sennox und Slim.Shady
Performance wie in einem Pathtracingame.:o
Reflexionen sind optisch sehr gut, aber die Optimierung ist grauenhaft.

@Wolfgang Laut Legende muss die 7900XTX mit 100% Skalierung arbeiten, die 9070XT nur mit ~67%. Wie kann es sein, dass die 7900XTX trotzdem in "4K" 6% schneller ist?
Die Call-of-Duty-Spiele haben jedoch traditionell eine Besonderheit, die es sonst so in keinem anderen Spiel gibt: Die Upsampling-Techniken kosten in dem Titel offenbar sehr viel Performance, sodass natives TAA nur geringfügig bis gar nicht langsamer läuft als DLSS 4 und FSR 4 im Quality-Modus.
Sicher?
Eins muss aber noch erwähnt werden: Sämtliche temporale Algorithmen weisen in COD: Black Ops 6 eine überraschend lange Berechnungszeit auf, sodass der Quality-Modus je nach Szene nur leicht schneller als die native Auflösung oder auch leicht langsamer ist.
Tatsache.
 
Zuletzt bearbeitet:
DrFreaK666 schrieb:
Du hast tatsächlich nicht verstanden, wieso mit unterschiedlichen Auflösungen gebencht wird, oder?
Nein, Du hast es nicht verstanden ! es geht nicht um die Qualität sondern um die rechenleistung die jede Karte bewältigen muss, man könnte auch Nativ testen dann sind alle Qualitativ gleich und haben die selbe rechenleistung zu bearbeiten und auch dann wären die alten noch schneller, es sieht eben nach einem CPU limit aus
 
  • Gefällt mir
Reaktionen: Sennox und H6-Mobs
So viel Arbeit für dieses Surreal schlechte COD? Es war mMn als DLC geplant, wie MW3.
 
  • Gefällt mir
Reaktionen: Slim.Shady
Wun Wun schrieb:
Da stimmt doch was nicht. Wenn die 7900XTX bei 100% Renderauflösung 6% mehr FPS als die 9070XT bei 67% schafft, ist die bei gleicher Renderauflösung doch deutlich schneller?!
Das ist eine Eigenheit von Call of Duty (schon immer).
Seit dem es Upsampling gibt, bringt das Quality-Preset quasi keine Leistung, egal von DLSS, FSR oder was auch immer. In Black Ops 7 bringt DLSS/FSR Quality zwischen 0 und 5 Prozent mehr Performance, das war es.

Entsprechend steht im Artikel:
Die Call-of-Duty-Spiele haben jedoch traditionell eine Besonderheit, die es sonst so in keinem anderen Spiel gibt: Die Upsampling-Techniken kosten in dem Titel offenbar sehr viel Performance, sodass natives TAA nur geringfügig bis gar nicht langsamer läuft als DLSS 4 und FSR 4 im Quality-Modus. Letztere bieten dabei eine bessere Bildqualität, der Unterschied ist aber nicht riesig.

Sunweb schrieb:
&

Also was nun, reichen einer Nvidia Karte die 8GB oder nicht.
Beide Karten zeigen mit 8GB ein unterschiedliches Ergebnis, werden dann aber im Fazit über einen Kamm geschert?
Bei VRAM-Mangel sollte man nie auf AVG-FPS achten und auch 1 % Perzentil-FPS sind da meistens nicht fein genug. Radeon s mit 8 GB zeigen VRAM-Mangel in den Benchmarks (die man hier in den Messreihen nicht sieht, es hakt einfach), GeForce laufen dagegen noch normal durch (das Spiel spuckt aber schon eine Warnung aus). Erfahrungsgemäß ist es gut möglich, dass die GeForce mit längerer Spielzeit dann auch Probleme bekommt.

Cyron2k schrieb:
kurze ernstgemeinte Frage:
im Test steht was von 1100€ für die Vault-Edition: ist das gedacht mit Micro-Kosten, oder einfach ein Tippfehler?
Die Version kostet 110 Euro und 1.100 Euro sehe ich auch im Artikel nicht. Oder wurde das schon korrigiert?
Eddyloveland schrieb:
🔹Half-Life 2 (2004) – Valve Source Engine

Warum es als Paradebeispiel für Optimierung gilt:​


  • Läuft butterweich selbst auf schwacher Hardware (damals wie heute) – selbst integrierte GPUs oder schwache Laptops schaffen es in Full HD mit hohen FPS.


Eh, hast du Half-Life 2 damals zum Launch gespielt?
Das lief vieles, aber nicht butterweich.

Im Vergleich zu Black Ops 7 mit Raytracing lief HL2 damals keinen Deut besser, im gegenteil sogar.
Die schnellste Grafikkarte kommt heute in der höchsten, praxisrelevanten Auflösung Ultra HD auf 56 FPS.
Damals lief Half-Life 2 in den ältesten Benchmarks die ich auf CB zum Spiel finden kann auf einer Radeon X850XT-PE in 1600x1200 und damit der damals höchsten relevanten Auflösung mit 49 FPS - also nochmal langsamer als heute BO7 mit der RTX 5090. Und die X850XT-PE gab es zum Release von Half-Life 2 noch nichtmals, die Generation ist erst ein paar Monate nach dem Spiel gelesen.

Half-Life 2 war so gesehen schlechter optimiert als heute Black Ops 7.

https://www.computerbase.de/artikel/grafikkarten/ati-radeon-x1800-x1600-und-x1300-test.495/seite-20

Bitte nicht immer so übertreiben bei Vergleichen mir alten Spielen und wie viel besser damals immer alles gewesen ist. Verklärte Erinnerung und so.
 
  • Gefällt mir
Reaktionen: thom_cat, Cyron2k, NerdmitHerz und 9 andere
Wie sonst überall gilt auch in Call of Duty: Black Ops 7, dass DLSS 4 und FSR 4 die mit Abstand besten Upsampling-Techniken sind, die zumindest in hohen Auflösungen im Performance-Modus selbst der nativen Auflösung mitsamt TAA-Kantenglättung überlegen sind.
@Wolfgang
Warum wird dann "in hohen Auflösungen" (UHD?) mit DFSR4 im Quality und nicht im Performance Mode getestet? Ich finde wenn man einen visuell fairen Vergleich mit Upscaling anstrebt, dann muss man schon halbwegs konsequent sein. Ansonsten kann man doch einfach alle GPUs ohne Upscaling testen und für die Modus-Skalierung ein separates Balkendiagramm erstellen. Das wäre vielleicht die einfachste und transparenteste Lösung.

Und warum wird die Testsequenz nicht wie früher mit hochgeladen?

therealcola schrieb:
Ja schön auf Konsole optimiert deshalb ist 9070XT Ausnahmsweise mal schneller als ne 5070ti.
Naja die 9070XT war zuletzt recht oft schneller als die 5070TI. COD ist nur ein Ausnahmespiel, in dem AMD überdurchschnittlich gut performt. Dass das nun mit der Konsolenoptimierung zusammenhängt, wage ich zu bezweifeln.
 
  • Gefällt mir
Reaktionen: Beschi und Sennox
zeedy schrieb:
@Wolfgang
Warum wird dann "in hohen Auflösungen" (UHD?) mit DFSR4 im Quality und nicht im Performance Mode getestet? Ich finde wenn man einen visuell fairen Vergleich mit Upscaling anstrebt, dann muss man schon halbwegs konsequent sein. Ansonsten kann man doch einfach alle GPUs ohne Upscaling testen und für die Modus-Skalierung ein separates Balkendiagramm erstellen. Das wäre vielleicht die einfachste und transparenteste Lösung.

Und warum wird die Testsequenz nicht wie früher mit hochgeladen?


Naja die 9070XT war zuletzt recht oft schneller als die 5070TI. COD ist nur ein Ausnahmespiel, in dem AMD überdurchschnittlich gut performt. Dass das nun mit der Konsolenoptimierung zusammenhängt, wage ich zu bezweifeln.
Ich habe hin und her überlegt, wie ich Black Ops 7 testen sollte.
Auch DLSS 4 und FSR 4 mit einem aggressiveren Modi laufen zu lassen habe ich überlegt, mich schlussendlich aber dagegen entschieden. Ich bin da gedanklich hin und hergesprungen, konnte mich aber nie ganz entscheiden. Darum habe ich es so gelassen, wie wir es in den meisten anderen Spielen machen würden.

Warum die Testsequenz nicht mehr hochgeladen wird? Die hat sich quasi nie einer angesehen, es hat aber immer gut Zeit gekostet (ich bin nicht der Video-King). Darum mache ich das nicht mehr und stecke die Zeit lieber in etwas anderes.
Wun Wun schrieb:
Mea culpa, das habe ich tatsächlich übersehen.
Ist ja auch ein wahrlich ungewöhnliches und beklopptes Verhalten :D
 
  • Gefällt mir
Reaktionen: Veitograf, Alphanerd und Jagdwurst
Ich frage mich ja, wem die Idee kam, Raytracing in den Multiplayer und nicht in die Kampagne einzubauen.

Das ergibt doch vorne und hinten keinen Sinn. Es erschließt sich mir einfach nicht.
 
  • Gefällt mir
Reaktionen: Veitograf, Cyron2k, danyundsahne und 3 andere
Wolfgang schrieb:
Seit dem es Upsampling gibt, bringt das Quality-Preset quasi keine Leistung, egal von DLSS, FSR oder was auch immer. In Black Ops 7 bringt DLSS/FSR Quality zwischen 0 und 5 Prozent mehr Performance, das war es.
ja wenn es denn so ist, wieso wird dann nicht nativ getestet ? wenn es eh kaum Leistung bringt, bzw kostet macht das keinen unterschied, aber die Arbeitsleistung ist auf allen GPUs zumindest gleich.
einfach DLAA bzw. FSR Nativ testen und alle sind happy, 5% Leistung jucken keinen 33% weniger Arbeit der GPU fallen aber jedem ins Auge und sind eben ein Unterschied
 
  • Gefällt mir
Reaktionen: Beschi
Zurück
Oben