• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test RoboCop: Unfinished Business im Test: GPU-Benchmarks mit GeForce, Radeon und Arc aus Rogue City

_Cassini_ schrieb:
eine 4080 altert dank DLSS4 und Nachfolger deutlich langsamer als eine 7900XTX. Und genau diese Diskrepanz kannst du mit Benchmarks auf Basis der Bildqualität darstellen.

Selbe Punkt gilt für meine 6800 die ich davor nutzte, die hat im Vergleich zur 3070Ti nur noch den Speicher als Argument, aber was Grafikdetails angeht, kann man mit der 3070Ti deutlich höhere Einstellungen fahren, solange der Speicher nicht ausgeht, obwohl die grundlegende Leistung bei beiden Karten etwa identisch ist
Gestern in Robocop war mein Vram auch mit deutlich über 8GB belegt obwohl ich schon FSR auf Balanced hatte.
Und Robocop hat jetzt keine Tripple A Grafik.
In zb Star Citizen reichen 8GB vorne und hinten nicht.
In Star Citizen verschwinden zb Details die weiter entfernt sind früher bei der RTX 3070ti meines Kumpels.
Und ob die RTX 4080 mit ihren nur 16GB jetzt Langlebiger sein wird als die 24GB RX7900XTX wird die Zukunft erst zeigen.
Es kann sein das die 16GB reichen werden und die RTX dank DLSS hübscher aussehen wird und besser altert.
Es kann aber auch sein das der Vram sie eher limitieren wird als die RX 7900XTX, und die RX7900XTX in Zukunft weniger Probleme hat.
Kommt wohl auch sehr auf die Auflösung an. 24GB Vram brauch man wohl erst in 4K, wenn überhaupt.
Ich Tendiere aber zur RTX 4080 weil es diesmal nicht um die doppelte Ram Menge wie bei RTX 3070 vs RX6800 geht, sondern nur um 1/3 unterschied.
Es kann sein das du Recht hast, aber bei der RTX 3070 war das nicht der Fall. Da war die RX6800 ohne DLSS klar besser einfach weil 8GB bei den meisten Titeln zu Nachteilen führt.
 

Anhänge

  • Star Citizen_2025.07.14-15.03.png
    Star Citizen_2025.07.14-15.03.png
    6,4 MB · Aufrufe: 71
Rogue City ist ein super Spiel für Fans mit unzähligen kleinen Details aus den ersten beiden Filmen. Die Grafik fand ich sogar überraschend gut, nur die Sprachanimation war eher bescheiden, was schon etwas gestört hat.

Hatte bis vor ein paar Monaten noch ne 1070, damit war das kaum spielbar, selbst auf 1080p und Low. :D Da war ein riesen Inputlag, der super nervig war. Jetzt mit 9070 läuft alles super, wobei man im Hauptmenü irgendwie immer noch Inputlag hat, keine Ahnung was die da programmiert haben.
 
  • Gefällt mir
Reaktionen: Nighteye
Nighteye schrieb:
Gestern in Robocop war mein Vram auch mit deutlich über 8GB belegt obwohl ich schon FSR auf Balanced hatte.
Und Robocop hat jetzt keine Tripple A Grafik.

Mit 8GB hast du hier wie schon im Basisspiel ja auch keine Probleme. Das schreibt selbst CB. Offiziell läuft der Robo noch mit 6GB (GTX 1060).

Aber generell: Sollte das nicht so sein? Dass die höchsten Settings eine nach oben komplett offene Plattform zumindest näherungsweise ausreizen? Während die Basiseinstellungen für die kleinere Hardware idealerweise immer noch "ordentlich" aussehen? Höchste Settings bei einigen Games provozieren gar Warnhinweise, von wegen: "Für zukünftige Hardware gedacht", wie aktuell KCD2. Oder damals Crysis. Auch bei Blackmyth Wukong wird offiziell dringend davon abgeraten, das Game mit Reglern auf Anschlag zu spielen, statt ein paar hübsche Screenshots zu machen.


Der Vergleich wird natürlich auf PC-Enthusiastenseiten nicht mehr gemacht. Aber Digital Foundry schauen zum Beispiel regelmäßig, wie ein Basis-PC mit Basis-Grafikkarte sich gegenüber der Konsole verhält. Da zeigt sich zumindest gelegentlich, dass auf Konsole einiges simpler seinn kann, als das, was man am PC selbst mit Reglern auf "low" hinbekommt. Die globale RT-Beleuchtung in Indiana Jones zu Release z.B. , denn das, was in der Xbox steckt, ist ebenfalls ältere RDNA2-Architektur -- AMDs erste Raytracing-Gen überhaupt.

Dieser "Anker" fehlt in typischen PC-Benchmarks. Hardware-Hersteller freuts.
 
Zuletzt bearbeitet:
Ich weiß nicht. Irgendwie werde ich mit dem Look & Feel von Unreal 5 Games nicht warm. Das sieht mir immer so weichgespült aus, dafür, dass die Hardware auf UHD doch sehr gefordert wird. Zu The Talos Principle II hat das irgendwie gepasst, aber ansonsten... Da finde ich den Look & Feel alter Source Spiele wie HL2 und Portal angenehmer. Aber so unterschiedlich sind die Geschmäcker eben...
 
Nscale schrieb:
Ich weiß nicht. Irgendwie werde ich mit dem Look & Feel von Unreal 5 Games nicht warm. Das sieht mir immer so weichgespült aus, dafür, dass die Hardware auf UHD doch sehr gefordert wird. Da finde ich den Look & Feel alter Source Spiele wie HL2 und Portal angenehmer.
Robocop war jetzt mein erstes Unreal 5 spiel und ich muss sagen, du hast zwar Recht das die Engine uneffizient wirkt was FPS pro Grafikqualität angeht.
Und Klar wäre es in Source evtl noch einen ticken passender, aber es war schon stimmig genug mit der Engine.
Bin daher eig ganz zufrieden mit der Unreal 5 Engine. Auch wenn sie etwas zu durstig ist.
Svennc schrieb:
Mit 8GB hast du hier wie schon im Basisspiel ja auch keine Probleme. Das schreibt selbst CB. Offiziell läuft der Robo noch mit 6GB (GTX 1060)
Keine Ahnung. Ich hab gestern 5 Screenshots gemacht, und auf allen hatte ich ca 9,4 bis 9,5GB Vram Belegung.
Mit starkem FSR Upscaling. Also so Vram schonend wie möglich.
Aber ich hatte auch FSR 3 Framegen an, was wohl auch den Vram bedarf erhöht.
Und halt alles auf Hoch oder Ultra und in 3440x1440.
 
Nighteye schrieb:
Gestern in Robocop war mein Vram auch mit deutlich über 8GB belegt obwohl ich schon FSR auf Balanced hatte.
Hier im Benchmark Artikel gibt es diese Tabelle:

1752822725292.png


eine 3070Ti ist keine 4K Karte, klar ist der Speicher viel zu wenig, war es damals schon, das wird aber mit DLSS4 ein wenig aufgefangen. Mit einer 6800 wirst du nie an die Qualität rankommen.
Was die Speicherauslastung angeht, nVidia war da immer besser darin weniger Speicher zu benötigen als AMD, also kannst du deine Beobachtungen nicht auf eine 3070Ti übertragen.
Ich hatte auch geschrieben, da wo der RAM keine Probleme macht, läuft es mit der 3070Ti besser und schöner. nVidia war halt zu knauserig mit Speicher, das bestreite ich auch nicht.

Ich mag meine 6800, hab sie schließlich auch wegen des Speichers geholt, 8GB wären für mich nie in Frage gekommen, wegen Skyrim. Dort wo RAM aber nicht so viel benötigt wird, unterliegt sie aber jetzt klar und deutlich der 3070Ti. Kommt halt drauf an was man so spielt.

Was die 4080 angeht profitiert sie ja jetzt schon, dort wo DLSS4 einsetzbar ist, bist du mit der Karte einer 7900XTX nun deutlich überlegen, wo vorher ein Gleichstand war. Ob man da so schnell in ein Speicherlimit rennt, glaub ich eher nicht, 16GB wird für mindestens die nächsten 2-3 Jahre noch ausreichend sein.
 
_Cassini_ schrieb:
Hier im Benchmark Artikel gibt es diese Tabelle:
Dazu schrieb ich ja ein Post vorher, ich brauchte im Schnitt 9,5GB Vram.
Und das Vram managment macht jetzt keine 2GB unterschied aus bei Geforce und Radeon.
Eher nur ein paar hunderte MB.
Ansonsten wäre bei nur 2GB unterschied die Radeon hier nicht so viel besser.
Indiana Jones RTX 3080 10GB.jpg
 

Anhänge

  • 1752825646499.png
    1752825646499.png
    740,4 KB · Aufrufe: 61
DaHell63 schrieb:
Lustig ist eher, dass Du einen 2 Jahre alten Post heranziehst um über DLSS4 abzukotzen :evillol:

Nein, lustig ist eher, dass deine Nvidia-Verteidigungsreflexe deine Lesefähigkeit dermaßen einschränken. Das Problem hab ich jetzt mit meiner 5070TI, und der 2 Jahre Post zeigt, dass das nichts neues ist und immer noch nichts gefixt wurde. Einfach richtig lesen bevor du in die Tastatur haust 😉
Ergänzung ()

bogge101 schrieb:
Ich kann mich in meinen fast 18 Stunden nicht an ein unspielbares Spiel erinnern.

Liegt vielleicht daran, dass ich mit VHS, UHF und Röhrenmonitoren angefangen habe.

Da ist wieder das Thema zu hohe Erwartungshaltung. Alles muss perfekt sein, sonst ist es gleich unspielbar/inakzeptabel.

Ich habe auch mit Röhrenmonitoren angefangen. Hast du denn mit DLSS gespielt oder nicht?
Das eigentliche Thema des Threads hier ist ja Bildqualität, und dass FSR3 oder XeSS "schlecht" sind, sagen wir ja nur weil DLSS4 und FSR4 so viel besser sind. Wären diese KI Upscaler nicht da, würde uns diese leichte Unschärfe wahrscheinlich nicht so sehr stören. Noise ist was anderes, die Grafik sieht je nach Upscalingmodus sehr unruhig aus, selbst wenn man still steht sieht man das Rauschen. Da kann man doch nicht von einer zu hohen Erwartungshaltung reden, wenn wir gleichzeitig weit entferntes Gras auf Screenshotvergleichen betrachten.
 
Zuletzt bearbeitet:
War das Spiel vor 2 Jahren perfekt: nein
War es unspielbar: nein

klar kann man nicht perfekte technische Umsetzungen kritisieren, aber es dann als unspielbar zu bezeichnen, ist IMHO völlig übertrieben

ich fand Teil 1 damals richtig gut und freue mich am Wochenende auf die Fortsetzung

ich mochte auch das Terminator Spiel, da es den Vibe des 1. Films super eingefangen hat
 
  • Gefällt mir
Reaktionen: DaHell63
thrawnx schrieb:
da kriegt man welche Neu für ~350€
Und sich nochmals eine 5 Jahre alte GPU kaufen macht wieso genau Sinn?
Die 3080 ist schon lange mit der 4070 auf einem Level und damit direkt vergleichbar. Man muss sich also nur deren Ranking ansehen und man weiss wo man steht, im Zweifel zieht man 10% Leistung ab. Ist jetzt keine Wissenschaft.
 
_Cassini_ schrieb:
Leistung ist aber hier das, was zu beurteilen ist in einem Benchmark und das musst du schon auf einer gemeinsamen Grundlage machen. Sonst könnte man auch gleich alle kleinen Karten auf Low Details, die mittleren auf Mid Details und die High End Karten dann auf Max Details testen. Macht wenig Sinn, oder?
Bedenke, das jede Karte einen anderen Sweetspot zwischen Bildqualität und Leistung hat. Ist es fair ein Feature einzuschalten, dass entweder AMD oder Nvidia sehr gut beherrscht und der andere nicht? Lässt man es dann raus oder doch signifikant für die Bildqualität? Wer entscheidet das und wie? Meine 6700XT würde ich nicht mit Pathtracing testen. Dafür ist die nicht gemacht. Bei der 9070 ist das implementiert, aber nicht richtig funktionierend bei Wukong zum Beispiel. Es macht wenig Sinn das zu testen. Trotzdem wird es gemacht, aber Vergleichbar ist es nicht. Problem ist auch, das NV viele Partnerschaften mit Studios hat um ihre Technologien zu präsentieren. Muss man die aus den Tests raus nehmen, weil absichtlich Vwrzwrrung der Ergebnisse?
 
  • Gefällt mir
Reaktionen: bogge101
Nighteye schrieb:
Keine Ahnung. Ich hab gestern 5 Screenshots gemacht, und auf allen hatte ich ca 9,4 bis 9,5GB Vram Belegung.
Mit starkem FSR Upscaling. Also so Vram schonend wie möglich.
Aber ich hatte auch FSR 3 Framegen an, was wohl auch den Vram bedarf erhöht.
Und halt alles auf Hoch oder Ultra und in 3440x1440.
Lief es wenigstens gut? Über 100 FPS? Krasse Auflösung 😉
Ergänzung ()

OpenSystemFan schrieb:
Bei der 9070 ist das implementiert, aber nicht richtig funktionierend bei Wukong zum Beispiel.
Wukong hat PT ach deshalb die hohen Anforderungen😂

9070 insgesamt nicht für PT gemacht ach die 4090 schafft das etwas besser bin erstaunt😂
 
Zuletzt bearbeitet:
Nighteye schrieb:
Ansonsten wäre bei nur 2GB unterschied die Radeon hier nicht so viel besser.
Anhang anzeigen 1638712

Das Game ist aber jetzt nicht so das Paradebeispiel, auch wenn es dafür missbraucht wird, quer durchs Netz.

Weil: Wer in Indiana Jones ne RTX 3080 noch hinter ne Arc 770 (und 6700 XT) bekommt, ist entweder ein DAU oder Computerbase-Redakteur. (Ist ohne Beleidigung tatsächlich so -- aber mit freundlicher Unterstützung von Machine Games. Die schon in Wolfenstein Youngblood niemals hätten manuelle Streamingcache-Settings bis zum direkten Crash hätten freigeben dürfen.. das ist so, als würde man Nutzern das Speichermanagement überlassen -- und zwar soweit, bis die verbaute Hardware komplett kollabiert. Hardware-Redakteure kennen sich immerhin damit aus und pushens trotzdem auf gleiche Settings, wegen Vergleichszwecken. Normale User hingegen... Nächstes Mal ne Auto-Erkennung der Hardware rein und gut ist.) :D
 
Verstehe nicht warum es kein Vergleich zum Original gibt sind die Anforderungen jetzt höher oder gleich?
 
yamiimax schrieb:
Lief es wenigstens gut? Über 100 FPS?
Laut meinem Radeon Driver im durchschnitt 132fps.
1752834307956.png

yamiimax schrieb:
Krasse Auflösung 😉
Danke :D Der 34" Widescreen 21:9 machte sich auch Prächtig in Robocop.
Hab leider kein Handybild gestern gemacht, aber so sieht es in Star Citizen aus.

Edit: Ich klink mich mal aus der dem Thema aus.
Hab eine Verwarnung bekommen für meinen post wo ich über Vram unterschiede sprach.
 

Anhänge

  • IMG_20250701_162741.jpg
    IMG_20250701_162741.jpg
    849,3 KB · Aufrufe: 69
Zuletzt bearbeitet:
zeedy schrieb:
Warum erwähnt eigentlich keiner, Nvidia DLSS ein massives Noise Problem auf den Straßen von Detroit hat? Sieht man selbst in DLAA. Mit Hochskalierung wirds noch viel heftiger, je niedriger die Renderauflösung ist. So ist das echt unspielbar. Auch mit FSR nicht. Nur TSR oder TAA scheint das Problem zu lösen.. Kurz gegoogelt, ist nichts neues
https://www.reddit.com/r/robocoprog...5a/they_really_need_to_fix_dlss_in_this_game/

Lustig, wenn hier so viel von Qualität und Abwertung von DLSS4 inkompatibler Grafikkarten geredet wird, während DLSS in diesem Spiel teils miserabel aussieht.
Das hier ist RoboCop Unfinished Buisiness mit DLSS4, dein Link handelt von RoboCop Rogue City mit DLSS3.

Dann kommt man evtl drauf, warum keiner erwähnt, was für Probleme DLSS3 in einem DLSS4 Spiel hat^^
zeedy schrieb:
Nein, lustig ist eher, dass deine Nvidia-Verteidigungsreflexe deine Lesefähigkeit dermaßen einschränken. Das Problem hab ich jetzt mit meiner 5070TI
Wenn du das in deinem ersten Post geschrieben hättest, müsstest du jetzt auch niemandem mangelde Lesefähigkeit vorwerfen.
Zudem wäre dann ein Link angebracht, der das Problem im aktuellen Game mit DLSS4 behandelt.
Wenn man da nichts findet, scheint es wohl eben kein generelles Problem zu sein und deshalb spricht keiner drüber.

Wäre so ein auffälliges Problem hier vorhanden, wäre @Wolfgang auch kaum zu dem Schluss gekommen, dass DLSS4 Quality optisch sowohl FSR3.1, XeSS, TSR als auch der nativen Auflösung überlegen ist
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KuroSamurai117, _Cassini_, DaHell63 und eine weitere Person
Wenn ich mit dem optiscaler fsr 4 auf den dlss Input mache kann ich im Spiel kein FG auswählen. Wie kann ich das machen, dass fsr4 mit FG im Spiel funktioniert?
 
kann nicht auch optiscaler FG forcieren?
 
Zurück
Oben