• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Dead Island 2 im Test: Hohe FPS auch auf langsameren PCs

RayZen schrieb:
Ich finde die Tests hier in letzter Zeit sehr schwach weil nur aktuelle Grafikkarten getestet werden. Also genau die auf denen es gut läuft. :(
Welche fehlen denn deiner Meinung nach? Man kann doch nicht alle GPU´s durchtesten.
 
BlazinRyder2 schrieb:
Könnt ihr ganz leicht uncut machen.
Das erinnert einem an die 90er, wo man 'Patches' genutzt hat um grünes Blut wieder rot zu machen und die Zensur zu umgehen. Es ist irre, das wir heute wieder da sind, wo man vorher dachte das Zensur ein Thema von gestern war.

Momentan gibt es ja das Spiel nur auf Epic und darum ist es für mich nicht von Interesse. Aber: Ich hoffe mal wenn es auf Steam kommt oder kommen würde, das ich mit meiner Schweizer IP die ungekürzte Version erhalten würde?
 
danyundsahne schrieb:
Weniger schön, dass es eben erst nach und nach durch Treiberoptimierungen freigeschalten wird.
Was aber bei dem Umbau der CU zu erwarten war. Wobei ich allgemein hoffe, dass AMD von den "Optimierungen" pro Spiel bei RDNA 3 "los" kommt und es allgemein Optimierungen im Compiler und Co sind, die die Leistung bei neuen Spielen weiter erhöhen.
danyundsahne schrieb:
Aber 15% schneller in den 1% lows als ne 4080 ist schon ne Hausnummer.
Was durchaus gut ist und aus den 20 % mehr an Shadern für die 7900 XTX ca. 15 % mehr Leistung zieht, was durchaus gut ist und zu erwarten ist. Damit "sortiert" sie sich gut ein.

Ich hoffe dennoch, dass AMD sich bei RDNA 4 nun auf RT konzentriert und da mal die Probleme angeht und auch entsprechende Techniken implementiert.
 
  • Gefällt mir
Reaktionen: Redundanz, evilhunter und danyundsahne
Das Spiel ist ja durch Denuvo geschützt, was halt für Benchmarks zum Problem wird, da man nur eine begrenzte Anzahl an Hardware wechseln hat, bevor man 24 Stunden lang nicht mehr in das Spiel kommt. Was natürlich dann dazu führt das einige GPUs später oder gar nicht getestet werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bullit1
Cool Master schrieb:
@CB.R

Was genau findest du an der Grafik "Uralt"?

@PrinceVinc

Wurde im Thread schon geklärt, einfach den Thread durchsuchen.
Habs gesehen, aber da ich es online mit freunden Spielen will müsste es dort auch gehen.
So blöd das man nicht wie früher es im Ausland Kaufen kann, Geo Lock sollte verboten werden...(wenigstens in Ländern mit der gleichen Währung)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cool Master und pitu
Hoffe das es Epic Only bleibt, gibt ja Tatsächlich immernoch welche die Über den Launcher Meckern.
Aber sicher so ein Mist wie Itunes auf dem Rechner.
 
lynxx83 schrieb:
Gibt es in dead island 2 intels xess?
Finde dazu nix, ich meinte es hätte es, aber hab ich wohl mit dem update zu dying light 2 (xess 1.1) verwechselt...
Dead Island 2 unterstützt kein XeSS. Du verwechselst das vermutlich wirklich mit Dying Light 2.
Mimir schrieb:
Wenn man neue Treiber mit Leistungsverbesserungen testet wärs eigentlich sinnvoll, mal die Leistungsaufnahme zur prüfen.

Falls kein CPU Limit vorlag, könnte man so sehen, ob die Shader der Karte besser ausgelastet werden.
Nur weil eine GPU viel Energie benötigt, bedeutet dies nicht, dass die Leistung optimal ist - das ist ein Trugschluss. Eine GPU kann auch voll ausgelastet sein, maximal viel Energie benötigen und trotzdem super ineffizient rechnen.
lynxx83 schrieb:
@Wolfgang mal ne Frage, weil es für mich jetzt auf Anhieb nicht ersichtlich ist außer ich hab im "Kleingedruckten" übersehen:

Wenn ihr jetzt bei Spiel x oder y zB. die arc "a770" mit im Benchmark habt, ist es dann eigentlich immer die "LE" mit 16GB vram sofern nicht extra vermerkt oder die mit 8GB?

Hätte ja auf die mit 16GB direkt von intel getippt aber bin mir trotzdem jedesmal unsicher..
Es ist Intels eigene Arc A770 LE, also die 16-GB-Variante.
Eine andere Arc A770 haben wir auch nicht, sprich, es kommt immer die Karte zum Einsatz.
 
  • Gefällt mir
Reaktionen: Redundanz, Mimir und lynxx83
GOOFY71 schrieb:
Das Game in AT-Uncut ist der absolute Hammer mit der Series X auf meinem Sony Bravia 65Zoll FullArray LED TV. Das zocke ich lieber hier als auf meinem PC.
Obwohl es auf meinem PC in WQHD auf Ultra mit durchgängig ca.150 FPS läuft.
Ich habe noch nie verstanden warum man auf mickrigen Computermonitoren zocken möchte wo es doch heutzutage riesige OLED TVs mit traumhaften Inputlags und Reaktionszeiten gibt.

Warum schließt du deinen PC nicht an den Sony TV an?!
 
  • Gefällt mir
Reaktionen: Master Chief ! und GOOFY71
Kommt wohl daher das einige auch bj 80 wie ich sind. Da ist man mit Duke, Hexen, Doom, Shogo, Diablo , Warcraft, Syndicate. C&C, GTA1, und co aufgewachsen. Pc Pentium 100 mit 8mb ram und 1mb cirrius logic, ja das ist langsamer als jedes handy heute..... >Wenn man Larry war,hatte man ne S3 Virge die schrott war aber besser aussah, oder rendition Vertie 1000. Voddo 1 war luxus Am Wochenende wurden die Rechner zu Freuden gekarrt und man hat von Fr bis So gezockt mit 8 man und mehr. Wenn Dad dann noch 2 Kästen Bier sprigen lassen hat war es Jugend Pur + Pizza + Schlafsäcke, wenn man üpberhautpt gepennt hat es ist einfach ein Erlebniss was es heute so nicht mehr gibt. Am Pc Monitor ist nix verkehrt. Bietet ja auch mehr Fps und viele andere Vorteile!.

Heute ist Spielen viel mehr entkopplet, führer war es anders... ob es besser war, für mich definitiv, für andere wohl nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kettensäge CH
BlazinRyder2 schrieb:
Rechner zu Freuden gekarrt
Mit der brutalen 17" Röhre :D
RayZen schrieb:
Radeon 5700, Vega, Radeon 580, Geforce RTX 2060, Geforce 1080,...
Ich denke die Zeit der Redaktion ist auch mehr oder weniger getaktet. Man kann eben nicht alles und jeden testen. Da müssen sich die Leute dann so doof es klingt, selber ausrechnen wo ungefähr ihre GPU liegt.
 
17 war damals Luxus, inc 20kg schleppen^^. Ich hattre noch ein 15" von Pacard bell mit 1024 x 768^^
 
w0wka schrieb:
Ich denke die Zeit der Redaktion ist auch mehr oder weniger getaktet. Man kann eben nicht alles und jeden testen. Da müssen sich die Leute dann so doof es klingt, selber ausrechnen wo ungefähr ihre GPU liegt.
Und wie soll man sich das ausrechnen ohne Vergleichsmöglichkeit?
 
Wolfgang schrieb:
Nur weil eine GPU viel Energie benötigt, bedeutet dies nicht, dass die Leistung optimal ist - das ist ein Trugschluss. Eine GPU kann auch voll ausgelastet sein, maximal viel Energie benötigen und trotzdem super ineffizient rechnen.

Ja, das leuchtet ein.
Aber ist es denn nicht so, dass eines der Hauptprobleme moderner GPU Architekturen die Auslastung der Recheneinheiten ist?

Hier war eben mein Gedanke, dass ein optimierter Treiber vermutlich häufig genau dieses Auslastungsproblem bekämpft und das dann recht gut an einer erhöhten Leistungsaufnahme erkennbar sein könnte..

Aber ja, je mehr ich darüber nachdenke, desto mehr mögliche weitere Problembereiche fallen mir ein und desto weniger hilfreich und nichtssagend wäre die Prüfung der Leistungsaufnahme.

Gut, war nur ein Gedanke von mir.
So ein Einblick in den Tracing-, Analyse- und Optimierungsablauf bei Nvidia und AMD wäre schonmal was feines. Vor allem, was genau die da überhaupt optimieren. Der Source Code des Spiels steht ja nicht zur Verfügung und der Einfluss des Treibers unter DX12 ist auch beschränkt im Vergleich zu DX11....
Aber für normalsterbliche ist da natürlich nichts zu machen.
 
Wolfgang schrieb:
Nur weil eine GPU viel Energie benötigt, bedeutet dies nicht, dass die Leistung optimal ist - das ist ein Trugschluss. Eine GPU kann auch voll ausgelastet sein, maximal viel Energie benötigen und trotzdem super ineffizient rechnen.
Ja, das kann sein, aber es kann dennoch genau so passieren, dass eine GPU eben nicht ihr Powerlimit ausreizen kann aus Gründen(ich erinnere mich an die 2080Ti in Horizon Zero Dawn damals, 100% Last und trotzdem 50-100W vom Powertlimit entfernt), die dann der neue Treiber evtl angegangen ist.

Daher ist es schon immer interessant zu sehen ob ein Treiberupdate, welches der 7900XTX nun +15% gebracht hat, diese +15% durch eine nun effizienter arbeitende GPU erreicht, oder dadurch, dass die 7900XTX vorher bei 100% GPU Load nur 300W verbrauchen konnte und nun 355W verbrauchen darf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mimir
Ich hab das Spiel jetzt auch über den Spiele Code aus der AMD Aktion gezogen und nach gut einer Stunde kann ich bisher nur positives berichten. Die Optik geht für meinen Geschmack schon in Ordnung, dafür braucht es auch keine Highend Hardware. Stellenweise schaut es auch richtig gut aus, in anderen Szenen dann wiederum nicht so gut. Die Schere ist aber nicht annährend so groß wie bei Cyberpunk.

Und auch ganz wichtig: Das Spiel läuft direkt zu Release rund, abgesehen von den unrunden Frametimes. Diese sollten aber in der Regel nicht so das Problem sein, da die meisten Systeme hohe Frameraten schaffen.
 
pitu schrieb:
Warum schließt du deinen PC nicht an den Sony TV an?!
Weil der im Schlafzimmer hängt, das ist zu umständlich und meine Frau dreht dann durch.😂
 
  • Gefällt mir
Reaktionen: bullit1 und pitu
BlazinRyder2 schrieb:
Am Wochenende wurden die Rechner zu Freuden gekarrt und man hat von Fr bis So gezockt mit 8 man und mehr. Wenn Dad dann noch 2 Kästen Bier sprigen lassen hat war es Jugend Pur + Pizza + Schlafsäcke, wenn man üpberhautpt gepennt hat es ist einfach ein Erlebniss was es heute so nicht mehr gibt. Am Pc Monitor ist nix verkehrt. Bietet ja auch mehr Fps und viele andere Vorteile!.
Die guten alten Zeiten, das bringt gerade die Nostalgie her. Als man noch mühsam die Röhrenmonitore geschleppt hat, neben dem Rechner für die LAN-Party. All die unzähligen Stunden mit Doom, Unreal 1 und später Unreal Tournament, Quake 3 Arena, Counter Strike etc.

Leider bleibt die Zeit nicht stehen, heute muss man eher schauen das man spät abends noch nach all der Arbeit, Familie usw. eine Stunde freimachen kann für das Zocken.

Das kann sich auch aufs Game auswirken, z.B. mit Dead Island 2: Wenn man es nur stundenweise mal zockt, nutzt sich das Schnetzeln als primäre Kampfmechanik nicht so schnell ab. Aber alles mit Grind wird dann eher schwieriger, oder Rogue-likes mit "Verlier alles, wenn du einen kleinen Fehler machst".
 
jo0 schrieb:
Ja und die 4090 User brauchen die Bestätigung, dass sie den Längsten haben?
Jeder weiß, dass die 4090 überall überragend abliefert -> also überflüssig.
Wenn die 4080 dabei ist, weiß man doch wohin die Reise geht.
Nein, weil die 4080 wohl schon durch die CPU begrenzt wird und ich will nicht wissen, dass sie den längsten hat, sondern wie sie performt.

Wir können auch zukünftig nur noch eine Karte benchen und jeder denkt sich die anderen dazu.
 
Zurück
Oben