• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Dishonored 2 Benchmark: Technisch versagt die PC-Umsetzung

mambokurt schrieb:
Du wirst lachen: when it's done war damals das Credo von Id Software, die von denen die Engine mal stammte, wissen schon 😂 Leider fĂ€hrt die Taktik so heute kaum noch jemand, weil die Leute auch halbfertige Ports zum Release kaufen

Welche ironie das ID leider quasi pleite waren nachdem sie sieben Jahre lang gesagt haben "Rage is done when it's done".
Ein Spiel muss aus finanziellen GrĂŒnden auch mal veröffentlicht werden. Bethesda ist ne kleine Bude und setzt ihren Studios wohl recht harte Vorgaben.

Wenn Spiele verschoben werden trumpfen hier sofort gehypte vorbesteller auf die rumnörgeln was fĂŒr ein Betrug die Verschiebung doch sei..

Gamer nörgeln immer..
 
mambokurt schrieb:
Du wirst lachen: when it's done war damals das Credo von Id Software, die von denen die Engine mal stammte,......
"When it's done" war vor allem der Kampfspruch bei der Entwicklung von Duke Nukem forever. :D
ErgÀnzung ()

@tek9
Wobei ich sagen muss das mir Rage durchaus Spass gemacht hatte und das obwohl mir die Engine so einige Probleme bereitet hatte.
 
Es ist einfach nur Dreist, ein Spiel technisch so am Consumer vorbeizutnwickeln und am Ende einfach immer sagen: Sorry, liegt wohl an deinem individuellen System, kauf doch ne Nvidia, damit liefs bei uns in der Entwicklung immer gut.
 
Wo wird denn am Consumer vorbeientwickelt?

Scheissen sich Leute an, weil sie auf Ultra-Einstellungen nicht 120FPS mit ihrer 1080 GTX haben? Ich sehe hier ziemlich hochwertige und detailierte Grafik. Und die sieht offenbar auch noch auf "Niedrig" fast genauso aus. Dann muss man eben runterstellen, so wie es anno dazumal bei Crysis war. Oder will es das eigene Ego nicht wahrhaben, dass man 700€ fĂŒr eine Grafikkarte ausgegeben hat, und diese trotzdem keine Wunder vollbringt?

Was die ungereimte Framerate von AMD betrifft. Diese Erfahrung habe ich schon vor 10 Jahren bei AMD/Ati Grafikkarten gemacht. Die Framerate war immer unstet im Vergleich zu Nvidia. Ich sehe hier nur, dass sich seit ĂŒber einem Jahrzehnt nichts geĂ€ndert hat. Man sollte sich vielleicht eher bei AMD mockieren, anstatt dem Spiel die Schuld zu geben.
 
franzerich schrieb:
Was die ungereimte Framerate von AMD betrifft. Diese Erfahrung habe ich schon vor 10 Jahren bei AMD/Ati Grafikkarten gemacht. Die Framerate war immer unstet im Vergleich zu Nvidia. Ich sehe hier nur, dass sich seit ĂŒber einem Jahrzehnt nichts geĂ€ndert hat. Man sollte sich vielleicht eher bei AMD mockieren, anstatt dem Spiel die Schuld zu geben.

Gut!
Wo ist der CoD IW Thread, muss mal rein texten die sollen sich alle im Nvidia-Forum ausheulen, lÀuft auf ner 290 mit med+ auf 4k ganz rund, kann also nur an Nvidia liegen.:lol:
 
Zuletzt bearbeitet von einem Moderator:
Die Grafik ist echt bescheiden fĂŒr einen AAA-Titel und dann technisch noch so schlecht umgesetzt.

Und bei den Benchmarks fehlt mal wieder die 1070.
 
franzerich schrieb:
Was die ungereimte Framerate von AMD betrifft. Diese Erfahrung habe ich schon vor 10 Jahren bei AMD/Ati Grafikkarten gemacht. Die Framerate war immer unstet im Vergleich zu Nvidia. Ich sehe hier nur, dass sich seit ĂŒber einem Jahrzehnt nichts geĂ€ndert hat. Man sollte sich vielleicht eher bei AMD mockieren, anstatt dem Spiel die Schuld zu geben.

Klar, wenn eine Fury X deutlich langsamer als ne 1060 ist ist das natĂŒrlich niemanden beim Entwickler aufgefallen und ganz sicher AMDs Schuld, natĂŒrlich auch schon seit zehn Jahren. Dass Bethesda Titel da eine ganz besondere Historie haben, scheint Dir noch nicht aufgefallen?

Aber gut, genau wie bei Fallout 4 und Co. werden solche Entwickler von mir nie den Vollpreis bezahlt bekommen. selbst wenn ich ne nvidia Karte hĂ€tte. So eine Schlamperei unterstĂŒtze ich schlichtweg nicht.

Also mir sind da bei den letzten AAA-Veröffentlichungen keine so krassen Sachen aufgefallen. Aber einfach mal gegen AMD bashen.
 
franzerich schrieb:
Ich sehe hier ziemlich hochwertige und detailierte Grafik.
Wo? Es ist ein spezieller Art-Style, die Leistung hingegen steht in keinem VerhÀltnis zur Optik.

franzerich schrieb:
Und die sieht offenbar auch noch auf "Niedrig" fast genauso aus. Dann muss man eben runterstellen, so wie es anno dazumal bei Crysis war.
Bloss blöd, dass herunterdrehen der Grafik unheimlich wenig Leistung freisetzt, vielleicht, da auch kaum ein Unterschied zwischen den Presets besteht. Spricht jetzt nicht fĂŒr gute Programmierung.


franzerich schrieb:
Was die ungereimte Framerate von AMD betrifft. Diese Erfahrung habe ich schon vor 10 Jahren bei AMD/Ati Grafikkarten gemacht. Die Framerate war immer unstet im Vergleich zu Nvidia. Ich sehe hier nur, dass sich seit ĂŒber einem Jahrzehnt nichts geĂ€ndert hat. Man sollte sich vielleicht eher bei AMD mockieren, anstatt dem Spiel die Schuld zu geben.

Die Ungereimtheiten bei der Performance allgemein vergessen? Auch bei nVidia-Karten bricht die Framerate mal unerklĂ€rlicherweise von 100 auf 40FPS ein, manchmal sogar sub-30, ohne, dass dafĂŒr ein optischer Unterschied besteht, der dies rechtfertigen wĂŒrde. Das Spiel ist nicht performant, darin sind sich auch deutlich erfahrerene Menschen als du (Volker, Raff) einig. Nicht umsonst bemĂ€ngelt CB in diesem Test die Technik von Dishonored 2 und nicht den Radeon-Treiber.
 
Wadenbeisser schrieb:
@willi23
....die mal eben in einer komplett anderen Preis- und Leistungsklasse ist.
HÀttest du 1060 geschrieben dann hÀtte ich es ja verstanden aber so...?

sorry hÀtte ich schreiben sollen. davor war bei mir ne 1060 drinne 3 monate lang.
ich wollte nicht mehr von einer rx480 zu einer 1060 zurĂŒck.


Linmoum schrieb:
Dann hast du definitiv nicht mit FreeSync gespielt und auch ansonsten ist die Aussage irgendwie... nunja.

"Bei fast jedem Spiel", welche genau meinst du denn damit?

doch, ich kann dir garantieren dass ich mit freesync gespielt hab. ich hab den samsung cfg70. freesync kann auch keine wunder vollbringen wenn die gpu stockt.

ich hab tomb raider, darksouls3 und am meisten battlefield1(online) gespielt.

und battlefield1 spiele ich wegen 144hz auf alles low bis auf meshquality.


bei battlefield1 ist das spielgefĂŒhl mit einer 1060 deutlich besser.
 
FĂŒr mich ist das die seit Jahren praktizierte Konsolenportierungskrankheit. Ein Großteil der Spiele wird vordergrĂŒndig fĂŒr Konsolen produziert, deren Anforderungen sich noch immer maßgeblich zu einem "hoch potenten" PC unterscheiden.
Ist wie ein Foto welches ich mit geringer Auflösung geschossen habe und versuche maßgeblich zu interpolieren.
Ist echt Schade, da mir das Spielkonzept sehr zusagt. Jedoch werde ich aufgrund dessen, erst im Sale zuschlagen, da ich solchen Murks nicht vollpreisig unterstĂŒtze. Schade. Das können andere Games besser, da halt fĂŒr den PC peogrammiert wird z.B. Skyrim, da greife ich geren tiefer in meine Geldbösre.
 
@Rollkragen, Skyrim ist ebenfalls ein Konsolenport und steht auch in der Technik nicht besser da. :P
Die Serie hat allerdings eine ModunterstĂŒtzung und darum wĂŒrde ich auch tiefer in die Tasche greifen.
 
Zuletzt bearbeitet:
Mal ne ernsthafte Frage: Wie wird die Performance von Computerspielen heutzutage wĂ€hrend der Entwicklung ĂŒberhaupt getestet? Haben die da zig verschiedene Computer rumstehen mit verschiedenen SW und HW Konfigurationen und jede Nacht werden frametime Messungen ĂŒber bestimmte Testsequenzen gefahren oder wie soll man sich das vorstellen?
 
386 schrieb:
Irgendwie ist es schon traurig das die Grafik seit 2007 (Crysis) so gut wie still steht.
Und die Hardwareanforderungen steigen dafĂŒr weiter von Jahr zu Jahr (außer im CPU-Bereich, da ist auch seit 2011 mehr oder weniger Stillstand).
Nur kostet jetzt ne Mittelkassegrafikkarte plötzlich nen Hunni mehr als bisher ĂŒblich.

Zum Kotzen das Ganze!

Quatsch, seit 2007 hat sich die Grafik schon weiter entwickelt. Starte mal Crysis. Es ist nur noch in einem Up to date. Und zwar in den Hardwareanforderungen. Weder in Sachen Texturen, Beleuchtung, Animationen, Physik oder Schatteneffekten kommt es an moderne Spiele ran.
 
Wadenbeisser schrieb:
Radeon + FX = rennt voll ins CPU Limit
Radeon + i7 = skaliert mit der Auflösung
GTX + FX/i7 = skaliert mit der Auflösung und lÀuft ca. gleich gut

Wenn ich raten mĂŒĂŸte wĂŒrde ich sagen das Sachen die bei der Geforce auf der GPU laufen bei der Radeon auf die CPU ausgelagert werden und die Last Verteilung auf die Kerne wie bei DX11 gewohnt mies ist.

Vielleicht ist es auch mal so absolut ĂŒberhaupt gar nichts neues und schon seit einigen Jahren so, dass in praktisch jedem Spiel AMD GPUs mehr CPU-Leistung brauchen... Da wird nix ausgelagert, sondern der AMD-Treiber, dessen Code auf der CPU lĂ€uft ist einfach weniger effizient und belastet die CPU stĂ€rker (zusĂ€tzlich zur eigentlichen Anwendung).
 
Ist euch mal in den Sinn gekommen zu hinterfragen warum Dishonored 2 51 GB mehr Speicherplatz braucht als der erste Teil, wo doch beide Teile relativ gleich sind?

1: 9 GB
2: 60 GB
 
HopsekÀse schrieb:
Vielleicht ist es auch mal so absolut ĂŒberhaupt gar nichts neues und schon seit einigen Jahren so, dass in praktisch jedem Spiel AMD GPUs mehr CPU-Leistung brauchen... Da wird nix ausgelagert, sondern der AMD-Treiber, dessen Code auf der CPU lĂ€uft ist einfach weniger effizient und belastet die CPU stĂ€rker (zusĂ€tzlich zur eigentlichen Anwendung).

Ich hab mir mal einige neuere Benchmarks angeguckt. Da bricht auf einem FX eine AMD-Karte vielleicht um 10% stĂ€rker ein, als eine Nvidia. Und ich wĂŒrde erst einmal diverse Patches abwarten, bevor wir ĂŒberhaupt vergleichen, da bei Dishonored 2 ja ein FX gleichauf mit einem i7 liegt, was eigentlich bei keinem Spiel der Fall ist.
 
Das mit ĂŒber 50 GB mehr an Daten hat mit der Engine zu tun.
Alles Games mit dieser Engine sind grob 50 GB groß.

Nur weil Doom mit Denuvo gut lief, muss es nichts aussagen, dass Denuvo und ihren komischen sinnlosen DRM Schrott bei anderen Spielen problemlos arbeitet.
Der Denuvo-Code wird ja irgendwo in den Hauptspielecode reingeschrieben und kompilliert. Was ist nun,, wenn die Stelle nicht gut gewÀhlt war von Denuvo?
Denuvo de- und entcrypted hauptsÀchlich -nach bisherigen Stand der Crackerszene-. Ich gehe davon aus, dass ein Spiel sauberer lÀuft, wenn nichts permanent nebenbei berechnet wird.
 
Zuletzt bearbeitet:
RKUnited schrieb:
Weil die ID-Tech Engine eine Hausengine von Bethesda ist und man dadurch warhscheinlich Lizenzkosten spart.

Ja, das wÀre soweit ja nachvollziehbar, wenn man die Engine schon lizensiert hat und daher verwendet. Nur wenn man die dann eh zu 95% neu schreibt/umschreibt, dann kann man ja auch gleich eine von Grund auf neu schreiben (die 5% machen den Kohl dann auch nicht mehr fett) und spart sich dann Lizenzkosten komplett.

Von daher kann ich mich der Frage von Onkelpappe nur anschließen: Was ist der Sinn davon, eine Engine zu lizensieren, um sie dann praktisch komplett (inklusive des verwendeten Grafik-APIs) umzubauen, so dass von der ursprĂŒnglichen Engine so gut wie nichts mehr ĂŒbrig bleibt?
 
Ich mag den Style vom Game, trotzdem rechtfertigt die Optik die noetige Leistung ueberhaupt nicht.
Das ist echt so schlimm mit der letzten Gen geworden, klar miese Ports etc gab es immer, aber seit der Ps4/One irgendwoe vermehrt
 
Ich wĂŒrde ĂŒbrigens nicht sagen, dass es umgedreht ist wie COD.

Manchmal hat CB diese schöne Übersichtstabelle mit Auflösung und Einteilung annehmbar spielbar (45FPS) und gut spielbar (60FPS) (s. COD, bei maximalen Details)

Hier wĂŒrde die Tabelle so aussehen (doppelte AufzĂ€hlung habe ich mal weggelassen):

FHD:
gut spielbar: Nvidia 1080, AMD nicht möglich
annehmbar spielbar: Nvidia 1060 / 970, AMD nicht möglich!

WQHD:
gut spielbar: Nvidia 1080
annehmbar spielbar: ----

UHD:
gut spielbar: ----
annehmbar spielbar: ---

Also das sah bei COD deutlich besser aus, immerhin hatte man von Nvidia und AMD (fast) immer eine GPU fĂŒr jede Auflösung in der Tabelle stehen.
Klar kann man immer die Einstellungen anpassen, aber bei COD wurde der Test mit maximalen Details durchgefĂŒhrt, bei Dishonored "nur" mit sehr hoch.
Um mit der 1060 auf ĂŒber 60FPS@1080 zu kommen, muss man dann schon auf mittel gehen. Mit der RX-480 ist es selbst bei sehr-niedrig nicht möglich. VerrĂŒckt....
 
ZurĂŒck
Oben