• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Dishonored 2 Benchmark: Technisch versagt die PC-Umsetzung

subvision schrieb:
edit: der flaschenhals ist die hdd. das lesen großer dateien ist langsam, während das lesen komprimierter dateien schneller ist, das entpacken ins ram noch mal schneller. das sorgt für wenig I/O - nicht unkomprimierte audios wie in wolfenstein tno und anderen neuen spielen. ich finde diesen neuen "trend", nix mehr zu optimieren, einfach nur zum totärgern.

Das kann man so aber auch nicht einfach pauschalisieren. Doom ist riesig, läuft aber fantastisch und hat auch nicht wirklich lange Ladezeiten.
Ladezeiten bestehen eben oft gar nicht aus übermäßig viel I/O sondern bringen eine hohe CPU Last mit sich. Deshalb kann es zB auch sein dass ein größeres Spiel schneller lädt weil es weniger zu dekomprimieren gibt. Das kann man relativ einfach mit einigen Traces testen.
 
zeedy schrieb:
Aha aha, komisch, dass die CB Tests auf einem 2500k vs 6700k@4,5 GHz kaum Unterschiede zw AMD und Nvidia zeigen, die diese urban legend belegen würde..

Ist es noch heute wirklich so schwer zu akzeptieren, dass der DX11 Treiber von Nvidia grundsätzlich effizienter als das AMD Pendant ist? Formulierungen von Laggy wie "stehen die Chancen gut" oder "meister früher" sollten doch genug Wink mit dem Zaunpfahl sein, dass die Aussage eher generell getätigt wurde.

Vielleicht auch einer der Gründe, weshalb immer auf DX12 Renderpfade gehofft wird
 
hrafnagaldr schrieb:
Angeblich ist damit leichter auf nvidia Karten zu optimieren, da man viele fertige Funktionen implementiert, sprich man spart sich viel Entwicklungsarbeit. Ergebnis sieht man dann ja.

Ich finds inzwischen sogar okay. Wie schon geschrieben zahle ich bei denen kein Vollpreis mehr, das Geld bekommen andere. in dem Fall Obsidian / bzw. Paradox Interactive mit Tyranny, sogar als digitale CE. Die hatten mit Pillars of Eternity einen RPG-Kracher im Programm, bei dem ich dann auch die digitale CE gekauft habe. Wobei die quasi nur reine PC-Titel vermarkten, das ist sicher Teils des Problems bei Bethesda. Man bekommt erstmal nur nen minderwertigen Port.

Ich gebe gerne Geld für Spiele aus, aber eben nicht für so einen technischen Krampf.

Habe mal bisschen nachgelesen. Liest sich für mich eigentlich nur wie ne weitere Technik um Verkaufszahlen ihrer Karten hochzutreiben.
Glaub ich werd mir einfach keine Spiele kaufen, die das verwenden. Sollen die Entwickler bestraft werden das einzusetzen...
 
crowblade schrieb:
Glaub ich werd mir einfach keine Spiele kaufen, die das verwenden. Sollen die Entwickler bestraft werden das einzusetzen...

Generell kein Problem, Witcher 3 zB läuft auch trotz Gamework top (sobald die Tesselation angepasst wird) bzw. gar besser auf AMD. Da wurde aber halt auch ordentliche Arbeit geleistet. Ich würde das Problem durchaus am Studio festmachen, nicht an Gameworks.
 
Palmdale schrieb:
Ist es noch heute wirklich so schwer zu akzeptieren, dass der DX11 Treiber von Nvidia grundsätzlich effizienter als das AMD Pendant ist?
.
.
.
Vielleicht auch einer der Gründe, weshalb immer auf DX12 Renderpfade gehofft wird

Weil mir noch kein Test untergekommen ist der die Effizienz des Treibers halbwegs ernsthaft untersucht hat.
Auf DX11 wird vor allem gehofft um den Multicore Krüppel DX11 los zu werden und um eine Rechtfertigung für Windows 10 zu haben.
 
Palmdale schrieb:
Ist es noch heute wirklich so schwer zu akzeptieren, dass der DX11 Treiber von Nvidia grundsätzlich effizienter als das AMD Pendant ist? Formulierungen von Laggy wie "stehen die Chancen gut" oder "meister früher" sollten doch genug Wink mit dem Zaunpfahl sein, dass die Aussage eher generell getätigt wurde.

Vielleicht auch einer der Gründe, weshalb immer auf DX12 Renderpfade gehofft wird

Bei den CPUs die hier im Forum in den Signaturen stehen, ist das bisschen Overhead wahrscheinlich egal. Auf einem i3 macht sich das sicherlich bemerkbar :D

Aber auch wenn nVidia keine Asynchronous Shader vernünftig beherrscht, sollten die Leute doch eigentlich auf DX12 wegen der neuen Feature Level warten? Das kann nVidia zumindest. Sehen tut man davon im Moment noch nichts, obwohl schon Maxwell DX12_x mitgebracht hat.

Ergo sind die neuen API bei beiden Herstellern noch Zukunftsmusik...
 
Palmdale schrieb:
Ist es noch heute wirklich so schwer zu akzeptieren, dass der DX11 Treiber von Nvidia grundsätzlich effizienter als das AMD Pendant ist? Formulierungen von Laggy wie "stehen die Chancen gut" oder "meister früher" sollten doch genug Wink mit dem Zaunpfahl sein, dass die Aussage eher generell getätigt wurde.
Es geht hier aber um Dishonored 2 und nicht irgendwelche anderen Spiele und wenn da Treiber schuld sein sollten, sollte man auch Belege dafür haben.
 
Zuletzt bearbeitet:
Spiele das Spiel seit dem 12.11.
Es kam so langsam herunter das es 6h dauertre bis die 33GB unten waren.

Leider war dann die Grafik und die Spielperformance unter aller Würde!
Bethesda bekommt von mir nie wieder Kohle vorab.

Selbst nach der Installation von 16.11.03 Hotfix sieht das alles wieder etwas hübscher aus, aber die Performance blebt immer noch auf der Strecke!
Immerwieder passiert es das die Framerates total in den Keller gehen.

All das hat man doch schon lange gewusst!
Und das nach Bethesdas Ankündigung künftig Spiele nicht mehr für Tests vorab zu Verfügung stellen zu Wollen.

Spiel unfertig, Treiber unfertig (vermutlich logische Konsequenz), aber die Kohle dafür schon lange im Sack.

So macht das keinen Spaß mehr!
Welchen Vorteil hatt den nun die Vorbestellung?

Künftig werde ich erst nach Spieletests kaufen! Respektive wenn das Flickwerk getan ist.

Das Spiel selbst ist aber wirklich wie erwartet, Super!
Also warten wir darauf bis es irgendwann mal richtig gut läuft. :rolleyes:
 
An die Unterschiede ist nicht irgendein pseudo Overhead schuld sondern daran das nvidia die Lastverteilung auf die Kerne besser im griff hat.
Deshalb können ihre 4 Kerner auch meist besser mit den i3 Modellen mithalten als die 8 Kerner imt den i5 oder i7 Modellen.
Die Spiele kommen inzwischen ganz gut mit 4 Kernen klar aber darüber sieht es oftmals noch düster aus.
 
Die Spiele kommen aber auch nur maximal "klar" mit 4 Kernen, nutzen für die Grafik tun sie aber nur quasi 1 für das Grafikgerüst und 1 fürs streaming, deswegen können die hochgetakteten i3 wunderbar mit nem 8 Kerner mithalten in Spielen. Lediglich beim Laden des Levels sind alle (zumindest 4) Kerne ausgelastet.

Gameworks ist im Grunde eine Bibliothek an Effekten zb für Wasser, Rauch oder Haare es soll leichter einzubinden sein da man nur einen Shader einfügt und fertig, Problem ist das Nvidia den SourceCode unter Verschluß hält und per Vertrag die Entwickler hindert Optimierungen für die anderen GPU´s einzufügen, ob und wieviel Geld dabei von nvdia fliesst ist unbekannt, das die Entwickler aber freie Shader zb Tressfx nicht nutzen dafür den gleichen Effekt über Gameworks einbinden lässt mich aber vermuten das die Entwickler noch Geld bekommen damit sie es nutzen.


Während AMD keinen Gameworks source-code zu Verfügung hat, und (Theorie->) NVidia chips vermutlich 1/3 des Gamemurks-Code einfach verwerfen darf die AMD GPU den ganzen Schwachsinn abarbeiten und daß ohne Optimierung.

Die Frametimes sprechen jedenfalls Bände wie stark der Schluckauf in der GPU sein muß.

Wer sich Gameworkstitel anschaut stellt jedenfalls schnell fest das AMD GPU´s hier ca 30% schlechter wegkommen als ihre Rohleistung vermuten lässt.

Bei Witcher3 zB war es eine Katastrophe zum Start mit Fell und Haareffekten, und auf die Probleme angesprochen stellen sich Nvidia Mitarbeiter und CD-Projekt Mitarbeiter hin und behaupten dreist sie (nvidia) würden ja auch schon seit Monaten den Treiber updaten damit die Nvidia User die maximale Experience hätten, AMD hätte es ja auch tun können (hat es aber nicht weil ihnen die User egal sind=in diesem Sinne) und "das wäre nunmal so da könne man nichts machen" (CD-Projekt), innerhalb von 24 Stunden haben die User aber gerafft das die GPU einfach mit sinnlos hoher Tesselation überlastet wurde die man in Screenshots sieht, inGame aber komplett egal sind, es sei denn man hat nen Haarfetisch.

Meine persönlich Meinung ist das Nvidia hier Sabotage an AMD betreibt, am Anfang über die Performance, bei Dishonored2 sogar zusätzlich über die Grafikqualität, das Spiel hat einfach ne miese Beleuchtung, und hier wird AMD GPU´s sogar das Beleuchtungsmodell HBAO+ deaktiviert, Screenshots von Nvidia und AMD in max quality weisen nun deutliche Unterschiede auf zugunsten nvidia.

Bei mir führt diese Politik aber nicht dazu jetzt eine nvidia Karte zu kaufen sondern einfach Gameworks Titel "NICHT" zu kaufen bevor klar ist wie sie auf AMD performt, oder auch mal komplett zu ignorieren wenn wie in diesem Fall ganze Beleuchtungsmodelle fehlen, und das ohne Hinweis.
 
Tatwaffe schrieb:
Bei Witcher3 zB war es eine Katastrophe zum Start mit Fell und Haareffekten, und auf die Probleme angesprochen stellen sich Nvidia Mitarbeiter und CD-Projekt Mitarbeiter hin und behaupten dreist sie (nvidia) würden ja auch schon seit Monaten den Treiber updaten damit die Nvidia User die maximale Experience hätten, AMD hätte es ja auch tun können (hat es aber nicht weil ihnen die User egal sind=in diesem Sinne) und "das wäre nunmal so da könne man nichts machen" (CD-Projekt), innerhalb von 24 Stunden haben die User aber gerafft das die GPU einfach mit sinnlos hoher Tesselation überlastet wurde die man in Screenshots sieht, inGame aber komplett egal sind, es sei denn man hat nen Haarfetisch.

Also solche Aussagen der CDPR Mitarbeiter wären mir neu. Quelle?
 
joel schrieb:
...
Spiel unfertig, Treiber unfertig (vermutlich logische Konsequenz), aber die Kohle dafür schon lange im Sack.

So macht das keinen Spaß mehr!
Welchen Vorteil hatt den nun die Vorbestellung?...

Die Vorbestellung von digitalem Shit hat nie irgendwelche Vorteile außer etwaige Vorbestellerboni (Mission, Skin, Waffen) die sonst evtl. als DLC zu haben wären.
Der Preis ist i.d.R. immer höher und digitale Güter können nicht vergriffen sein ;).
 
hrafnagaldr schrieb:
Also solche Aussagen der CDPR Mitarbeiter wären mir neu. Quelle?

http://www.pcgameshardware.de/The-W...Effekt-laeuft-schlechter-auf-Radeons-1159143/


" Laut CD-Projekt könne man das Feature schlicht nicht auf Radeons optimieren. Wer unter Performance-Problemen leide, solle es abschalten."

""Viele von euch haben uns gefragt, ob AMDs Radeon-Grafikkarten in der Lage sein werden, Nvidias Hairworks-Technologie auszuführen", so Marcin Momot. "Die Antwort lautet ja! Jedoch kann es zu unbefriedigender Performance führen, da der Code des Features nicht für AMD-Produkte optimiert werden kann." Radeon-Nutzer, deren Bildrate unter den Erwartungen bleibt, sollten Hairworks nach Empfehlung des Entwicklers abschalten."
 
Zuletzt bearbeitet:
Tatwaffe schrieb:

Von deinen Unterstellungen, die User wären Ihnen egal, steht da aber nix. Es war schon immer bekannt, dass die aktuellen nvidia Karten mehr Tesselationleistung haben und die in Hairworks verwendet wird, auch wenn der optische Gewinn gering ist.
Die haben nur empfohlen, es bei AMD abzuschalten. Was soweit auch korrekt ist, dato gabs es die AMD-optimierte Tesselation Funktion im Treiber soweit ich weiß noch nicht.
 
Wenn man die Tessellierung im Amd Treiber begrenzt gabs es optisch kein/kaum Unterschied aber die Performance war schon besser.
 
hrafnagaldr schrieb:
Von deinen Unterstellungen, die User wären Ihnen egal, steht da aber nix.

Haben sie auch nicht wörtlich gesagt, (deswegen steht oben in dem Sinne), gesagt wurde
" Wir (nvidia) haben seit Monaten unsere Treiber optimiert damit unsere User die maximale experience haben, AMD hätte das ja auch tun können"

Und als AMD sagt sie bräuchten für die gleiche Optimierung aber den Source Code, hieß es von nvidia das ist ja quatsch eure Hardware (Tesselation)ist einfach schlecht, damit wollt ihr nur von euren Problemen ablenken.

" Grund für die Probleme seien auch die Ressourcen, Nvidia habe (im Gegensatz zu AMD) viele Mitarbeiter eingesetzt, um Witcher 3 besser zu machen, so Burke

Inwiefern ein Spiel "besser" wird wenn man über 80% der Nutzer (alle AMD User aber auch ältere highend-Geforces haben hart gelitten) aussperrt, und behauptet es könne nicht optimiert werden erschließt sich mir nicht, zumal dies ja auch ne Lüge war, wie ein Nutzer im Reddit mit seinem Hotfix (tesselation auf 8x oder 16x fach begrenzen) bewiesen hat.
 
Was aber lustig ist Hairworks basiert auf AMD Technik und zwar wurde die dass erstmal beim Tomb Raider Reboot gezeit und verwendet. Jetzt gat NV die Technik angepasst und auf ihre Grafikkarten zugeschnitten und nennt dass ganze einfach Hairworks. Davon abgesehen dass ich sowieso kein Freund von sowas bin Gameworks oder Gaming Evold, sowas schadet nur aber die Programmierer nehmen halt gerne die zusätzliche Kohle naja wenn sie damit glücklich werden.

Spiele sollten immer auf allen Karten laufen sonst passiert wieder der selbe misst wie früher dass sich alle lieber eine Konsole holen.
 
Shakyor schrieb:
Wenn man die Tessellierung im Amd Treiber begrenzt gabs es optisch kein/kaum Unterschied aber die Performance war schon besser.

Das musste aber auch wissen. Als normalverbraucher stellste sonst den Regler auf "Ultra" und wunderst dich, warum deine AMD Karte so viel schlechter performt als die nvidia vom Kumpel.
Also kaufste nächstes mal ne Nvidia Karte...
 
Herstellerspezifische Frameworks schaden nur dem PC als Gamin gPlattform weil hierdurch der MArkt fragmentiert und zusehends unattraktiv wird.

Wer keine Lust hat sich über die Performance von Grafikkarten mit API wie Vulkan, DX, physX oder Frameworks ala Gameworks zu informieren oder staunend feststellt das die soeben gekaufte Karte mit Spiel X nicht so gut performt, wird sich ggf beim nächsten mal einfach ein Konsole kaufen weil er einfach spielen will und das Technik Gedöns nervt.
 
Tatwaffe schrieb:
Und als AMD sagt sie bräuchten für die gleiche Optimierung aber den Source Code, hieß es von nvidia das ist ja quatsch eure Hardware (Tesselation)ist einfach schlecht, damit wollt ihr nur von euren Problemen ablenken.

Der Witz an der Sache ist das letztendlich beides korrekt ist, es aber dennoch zu lasten von nvidia geht.
Ja für das gleiche Maß an Treiber Optimierung benötigt man auch das gleiche Maß an Zugriff auf den Code und ja AMD hat eine Schwäche bei der Tesselation die allerdings erst in Tesselationsstufen zum tragen kommt wo ohnehin keine sonderlichen Unterschiede mehr sichtbar sind weil die Dreiecke für eine entsprechende Unterscheidung bereits zu klein sind. Wozu verbrät man also Rechenleistung für eine überzogene Tesselation die keinen optischen Unterschied mehr machen aber für deutliche Performance Einbußen sorgt?
Bei den Radeons kann man einer überzogenen Tesselation entgegen wirken indem man die Stufen begrenzt, wie schaut es für Geforce User aus?
 
Zurück
Oben