• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Watch Dogs 2 Benchmark: GPUs müssen schnell und Speicher groß sein

WD 2 lässt sich ja gut spielen, man muss die Extra-Sachen nicht anmachen, die man wahrscheinlich nie vermissen/erkennen wird.

Man braucht auch nicht stärkste AA XXXX einschalten. SMAA z.B, hier frisst kaum Leistung und reicht aus um schön zu spielen.

Aber es gibt halt Leute die wollen einfach ALLES auf Anschlag spielen, am besten noch in 4k und sagen dann, nicht optimiert.

Einfach die Voreinstellung Hoch, Ultra, whatever wählen, AA einstellen, so dass es läuft und passt.

Wie ich schon mal hier erwähnt habe, auch WoW kann ich voll aufdrehen und komme bei so einem Game mit meiner Hardware nicht hinterher ;-)
 
subvision schrieb:
schon mal wer auf die idee gekommen, daß in spielen, wie mafia 3 oder watch dogs 2 routinen eingebaut wurden, die die rechner künstlich verlangsamen, bzw. den rechenaufwand erheblich erhöhen, um die hardwareverkäufe anzukurbeln? .

Das ist n alter Hut, sollte mittlerweile jeder wissen. Nur tun kann man dagegen nicht, weil es schon wieder Leute gibt die sich die nächste Grafikkartengeneration vorbestellen.

Diese künstlichen Bremsen sind leichter programmiert als man glaubt, nur die Leute glauben eben wirklich dass sie eine neu Karte brauchen...
 
Wolfgang schrieb:
Artikel-Update: Auf vielfachen Wunsch der Leser nimmt nun auch die Nvidia GeForce GTX 1070 an den Benchmarks teil. Darüber hinaus hat die Redaktion auf einer Radeon RX 480 und einer GeForce GTX 1060 die Frametimes per FCAT gemessen.

Coole sache, danke. Werden die Maxwell High End Karten in Zukunft nicht mehr mit in die Tests genommen? Wäre schön Wenn z.B. 980 Ti jeweils noch dabei wäre. Dann kann man sich die Leistung der anderen Maxwells ausmahlen. Denke viele hier haben diese Karte. So wie mann es von Nvidia kennt bleibt es in Zukunft nicht bei den 10% unterschied zur GTX 1070 sondern dass diese von Treiber zu Treiber mehr davon zieht :)
 
Manegarm schrieb:
Das ist n alter Hut, sollte mittlerweile jeder wissen.
ja, diese verschwörungstheorie ist ein alter hut. ich halte davon herzlich wenig!
 
subvision schrieb:
schon mal wer auf die idee gekommen, daß in spielen, wie mafia 3 oder watch dogs 2 routinen eingebaut wurden, die die rechner künstlich verlangsamen, bzw. den rechenaufwand erheblich erhöhen, um die hardwareverkäufe anzukurbeln? klar, der spieler denkt, mist, meine grafikkarte ist zu lahm, jetzt brauche ich ne neue. aber was ist, wenn die spiele- und hardwarehersteller hand in hand agieren, nach dem motto "eine hand wäscht die andere"? wie kanns sein, daß spiele, wie gta 5 total flüssig laufen und titel, wie die genannten wd2 und m3 nicht?

das erkläre ich nicht damit, daß die spiele einfach unoptimiert sind, ganz im gegenteil - meiner meinung nach sind die games so "optimiert", daß sie grundlos leistung fressen. das könnte doch, zumindest theoretisch, machbar sein? denn weder watch dogs 2, noch mafia 3 sehen jetzt so bombe aus, daß sie den enormen rechenhunger rechtfertigen würden. wie gesagt, das ist meine meinung zu dem thema und sie kann auch falsch sein.

Ich denke nicht, dass das der Fall ist. Zum einen ist es einfach Zeit und damit kostenaufwändig ein Spiel ordentlich zu programmieren. Zum anderen sehen Spiele heutzutage schon so gut aus, dass große Verbesserungen nur sehr schwer zuvereirklichen sind. Die meisten Verbesserung findet man im Detail so z.B. bei den Texturen bei genauerem Hinsehen. Diese auf den ersten Blick kleinen Verbesserungen gehen, aber mit viele höheren Datenmengen einher, die durch die Faulheit (Geiz/Profitgier) der Entwickler nicht komprimiert wurden. Die Kompression hat auf die Texturgröße einen sehr hohen Einfluss wie BF1 und auch Crysis 3 zeigen.
Aber auch dynamische Schatten, mehr Polygone, verbesserte Beleuchtung, physikalbased Rendering und immer mehr Effekte kosten Leistung.
Ergänzung ()

Manegarm schrieb:
Das ist n alter Hut, sollte mittlerweile jeder wissen. Nur tun kann man dagegen nicht, weil es schon wieder Leute gibt die sich die nächste Grafikkartengeneration vorbestellen.

Diese künstlichen Bremsen sind leichter programmiert als man glaubt, nur die Leute glauben eben wirklich dass sie eine neu Karte brauchen...

Das ist eher ein alter "Alu"hut. Warum sind dann grafische Toptitel wie BF oder damals Crysis 3 sehr performant, während teilweise nicht sehr hübsche Spiele sehr viel mehr Leistung kosten?
Warum bemängelt die Fachpresse dann immer die schlechte Performance? Die ist ja wohl am schnellsten bestochen? Wozu sollte man diese künstlichen Bremsen einbauen und den Entwicklern dafür Geld geben, wenn man einfach die an den Kunden weitergegebene Performance durch die Entwicklung des Chips beeinflussen kann? Man könnte einfach weniger Geld in die Chipentwicklung (machen Intel und Nvidia vermutlich, sie müssen ja nicht mehr liefer und wollen auch in Zukunft Produkte absetzen) stecken und müsste kein Geld an die Entwickler zahlen. Also wäre es einfach schon aus rein finazieller Sicht einfach kein kluges Vorgehen.
Außerdem würde die Verbesserung der Performance des Spiels durch Patches dem widersprechen.
Warum müssen sich Menschen immer irgendwelche schwachsinnigen Verschwörungstheorien ausdenken, statt sich einfach über das Thema zu informieren oder es aus einer objektiven Sichtweise betrachten?
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
Abseits von Screenshots sieht man beim zocken eh den Unterschied nur gering und dafür dann eine 700€ Grafikkarte plus OC um in 1080p auf 60fps zu kommen?

Hab so ne bekloppte 1080 ;)
Und ich stimme Dir vollkommen zu, dass es schon ziemlicher Luxus ist und man zwischen "Hoch" und "Ultra" jetzt nicht soo den riesen Unterschied sieht.
Vor allem wenn das AA allgemein eher Mist ist(wie hier).

Hab gestern aber mal ohne AA dafür aber in 5160x2160 mit "guten" Einstellungen für mich gespielt. Das sah schon ganz gut aus.
An einer Stelle isser aber unter 40 FPS gerutscht und ich bin dann doch in der Auflösung letzendlich wieder runter gegangen auf nur 3440x1440 wo ich flüssig spielen kann.

Dafür hab ich aber so Zeug wie Unschärfeeffekte ausgeschaltet(mach ich immer, da ich es nicht mag) und noch so paar Sachen etwas runter gedreht.
Wie gesagt, seh ich eh keinen großen Unterschied zwischen Ultra und hoch.

Kam gestern leider nur kurz zum testen und schau mal ob ich heute mehr Zeit dafür finde.

Diese Schatteneinstellung speziell von Nvidia fand ich allerdings ganz gut. Weiß nicht mehr wie es hieß.
Muss ich gleich nochmal mit mehr Zeit testen, bis ich "meine" Einstellungen gefunden habe, womit ich dann zocke.
Hab's gestern Abend erst installiert(gratis Code).

P.s.: Glaub mit niedrigerer Auflösung wie Full HD und ner 1070 macht man heute vieles richtig. Kann man ne Menge Geld sparen ;) Und is ja nicht schlimm, wenn man hier und da mal leicht die Einstellungen runterschraubt.

Evtl. läuft das Spiel aber ja später auch mal flüssiger.
Meist werden ja auch noch performance patches nachgeschoben.
 
Zuletzt bearbeitet:
Envoy schrieb:
Werden die Maxwell High End Karten in Zukunft nicht mehr mit in die Tests genommen? Wäre schön Wenn z.B. 980 Ti jeweils noch dabei wäre. Dann kann man sich die Leistung der anderen Maxwells ausmahlen. Denke viele hier haben diese Karte.

Die GTX 970 wird vermutlich nach wie vor gebencht werden (als Gegenstück zur R9 390) - es sei denn man sattelt wegen der (Nischen-)Speicherproblematik auf eine GTX 980 um (was ich insgesamt auch besser fände für einen Direktvergleich mit anderen/neueren 4GB Karten). Die GTX 980Ti ist eben zu ähnlich von der Leistung her zur GTX 1070 (erstere ist etwas schwächer in Full-HD, aber üblicherweise gleich bis geringfügig stärker in WQHD und UHD) und nur wegen des bekanntermaßen bewusst nachlassenden Treibersupports seitens nVidia diese weiter im Benchmark-Portfolio zu behalten, dürfte wohl nicht gerechtfertigt sein (zumal GTX 960, 970 und 980 wohl wegen des Marktpreises deutlich mehr verkauft worden sein dürften als die GTX 980Ti).

Damit bei den Test-Benchmarks kein großes Übergewicht eines GPU-Herstellers bzgl. der Kartenanzahl entsteht (momentan 7 zu 6 für nVidia), kann man wohl eher davon ausgehen, dass 2 neue Vega-Karten von AMD (als Pendants zu GTX 1070 und 1080) in die CB Spielebenchmarks einziehen werden (auf Kosten von Fiji/Fury X - oder evt. der R9 390 - und der dann ausgedienten R9 280X). Kepler in Form der GTX 770 dürfte dann wohl leider auch komplett herausfallen, falls eine neue Vega Karte den Platz der R9 280X einnimmt (so dass am Ende dann mit 6 nVidia vs. 6 AMD GPUs zu rechnen ist; 7 vs. 7 wäre mir auch lieber, aber wohl in Abhängigkeit von dem was andere Hardware-/IT Webseiten/-Magazine so bieten und der Aufwand muss sich eben noch rechnen), zumindest würde das Sinn machen ;).
 
Zuletzt bearbeitet:
für 4k mit einer gtx 1080 finde ich folgende einstellungen am wichtigsten:

schatten - sehr hoch
AA - SMAA
space-screen-reflection - aus
headlight shadows - aus
terrain - hoch
vegetation - niedrig
motion blur - mag ich, lässt es in meinen augen trotz unschärfe bei schwenks smoother wirken.

nebel habe ich auch abgeschaltet, weil ich angeschaltet noch keinen geilen zu gesicht bekam.

kriege im durchschnitt 40-48fps, manchmal gehts über 50 und selten auch mal unter 40.

ein TV mit gsync wäre soo gut :d
 
Manegarm schrieb:
Das ist n alter Hut, sollte mittlerweile jeder wissen. Nur tun kann man dagegen nicht, weil es schon wieder Leute gibt die sich die nächste Grafikkartengeneration vorbestellen.

Diese künstlichen Bremsen sind leichter programmiert als man glaubt, nur die Leute glauben eben wirklich dass sie eine neu Karte brauchen...

Das ist kein alter Hut, sondern eine billige Verschwörungstheorie. Ein Studio soll seine Verkaufszahlen schmälern, weil das Spiel nur mit High-End-Hardware läuft anstatt auf Mittelklasse-Rechnern richtig geil auszusehen? Klar, AMD, Nvidia und Intel haben sicher einen großen Bestechungstopf, mit dem alle Studios (und Publisher! Wie verbuchen die eigentlich Schmiergeld in ihren Bilanzen und gegenüber den Aktionären?) geschmiert werden. Und das würde auch niemals auffallen oder geleaked werden, weil natürlich jeder dicht hält, der davon weiß. Das wären dann: Executives, die das genehmigen und durchführen, Studios, die sich darauf einlassen (und nicht tratschen...), einzelne Entwickler, die das umsetzen müssen. Dann müssten natürlich alle Konzerne sich auf ein Leistungsniveau für Altkarten einigen, weil derjenige, der am wenigsten schraubt, eigentlich die schnellste Karte und die besten Argumente für eigene Produkte gewinnt. Das klappt nie. Man sollte schnell merken, wie unwahrscheinlich das ist.

Wenn ein Hersteller Performance ausbremsen würde wollen, dann würde er das über seine Treiber machen. Weniger Mitwisser, technisch einfacher. Oder er spart sich einfach Treiberoptimierungen für ältere Generationen. Selber Effekt, viel sauberer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: loser
AbstaubBaer schrieb:
Oder er spart sich einfach Treiberoptimierungen für ältere Generationen. Selber Effekt, viel sauberer.

Macht doch Nvidia :D

Die 970 ist der 390 um satte 8% unterlegen (in einem Nvidia-Game!), wird noch schlimmer kommen.

Leider gab es kein Konkurrenz für die 1070, aber falls eine kommt und ich mit +-50€ da hinkomme, wird es wohl die AMD :-)
 
Der Abschnitt mit Prozessorleistung und Kernskalierung bei PCGH ist scho sehr interessant, wie die 480 die Fury hinter sich lässt. Generell bleibt das gleiche Statement stehen, was einige allerdings bis heute noch nicht realisiert haben:

"Wie sich in zahlreichen Messungen von PCGH und weiteren Publikationen herauskristallisierte, weiß der Nvidia-Grafiktreiber die vorhandenen Prozessorressourcen besser auszunutzen als die Radeon Software. Das äußert sich in modernen Spielen stets ähnlich: Derselbe Prozessor erreicht in CPU-lastigen Szenarien mit einer Geforce höhere Bildraten als mit einer Radeon"
(http://www.pcgameshardware.de/Watch-Dogs-2-Spiel-55550/Specials/Test-Review-Benchmark-1214553/)

Da mMn DX11 bis auf weiteres Standard bleibt, wäre AMD noch heute gut beraten, in der kommenden Rot-Farbe (hätte die nicht schon kommen müssen?) dort die Performance zu verbessern. Und im Fall von WD2 zeigt sich, dass die Fury-Reihe bei nahezu gleichem Preis gegenüber der 980Ti die eigentlich schlechtere Wahl war. Emotionen und Religionszugehörigkeiten natürlich außen vor
 
Manegarm schrieb:
Das ist n alter Hut, sollte mittlerweile jeder wissen. Nur tun kann man dagegen nicht, weil es schon wieder Leute gibt die sich die nächste Grafikkartengeneration vorbestellen.

Diese künstlichen Bremsen sind leichter programmiert als man glaubt, nur die Leute glauben eben wirklich dass sie eine neu Karte brauchen...

Da hat wieder einer seinen Aluhut aus der Mottenkiste geholt, ich bekomme immer Gänsehaut wenn ich sowas lese.

BTT: Ich hatte in Vergangenheit eigentlich Abstand von Ubisoft Titeln gehalten, hier scheinen sie aber gute Arbeit abgeliefert zu haben, wenn man den meisten Aussagen vertrauen kann.
 
Blueeye_x schrieb:
Wenn es mal ein Spiel gibt, wo eine 1060 6GB nichts mehr reißt. Wird auch die 480 8GB nichts mehr reißen. Wenn sie so schon in sämtlichen Spielen der 1060 hinterher hinkt. Wer da glaubt dass dann die 2 GB Ram mehr der 480 für wahre Wunder sorgen werden. Glaubt auch noch an den Weihnachtsmann...

Texturen kosten kaum Leistung. Und trotzdem machen sie einen großen Teil der Grafik aus. Bei der 280 vs 770 oder 290 vs 780 gab es auch schon einige Spiele wo die Karten mit wenig Speicher massiv schlechter darstanden.
 
Macht das Spiel in 1680x1050 Low Presets mit einer GTX750Ti 2GByte Sinn oder kann mans gleich lassen ?
 
AbstaubBaer schrieb:
Wenn ein Hersteller Performance ausbremsen würde wollen, dann würde er das über seine Treiber machen. Weniger Mitwisser, technisch einfacher. Oder er spart sich einfach Treiberoptimierungen für ältere Generationen. Selber Effekt, viel sauberer.

Exakt so, wie es nVidia mit seinen GameWorks Bibliotheken macht.

https://www.youtube.com/watch?v=O7fA_JC_R5s

Und ja, die Leistungsbremse in Spielen ist eine lächerliche Verschwörungstheorie. Die Leute sehen einfach nicht, dass viele kleine Details wie Ambient Occlusion, Super Sampling etc. jede Menge Leistung frisst, aber am Gesamtergebnis verhältnismäßig wenig an der Grafikqualität - zumindest auf den ersten Blick - ändert.
 
MaverickM schrieb:
Und ja, die Leistungsbremse in Spielen ist eine lächerliche Verschwörungstheorie. Die Leute sehen einfach nicht, dass viele kleine Details wie Ambient Occlusion, Super Sampling etc. jede Menge Leistung frisst, aber am Gesamtergebnis verhältnismäßig wenig an der Grafikqualität - zumindest auf den ersten Blick - ändert.

Das stimmt, aber dann gibt es noch solche Praktiken:
Nvidia wirkt bei einem Spiel mit und das hat dann zufällig Betonwände, die im Inneren (!!!) super krass tesselliert sind damit die AMD Karten schlechter dastehen.

Nvidias Praktiken

@MaverickM: Wie fügt man hier eigentlich die Videos ein, so wie du es in deinem Beitrag getan hast? :D
 
  • Gefällt mir
Reaktionen: loser
MaverickM schrieb:
Exakt so, wie es nVidia mit seinen GameWorks Bibliotheken macht.

Besten Dank für das verlinkte Video, das bestärkt mich nach wie vor weiterhin meine aktuelle Kepler Karte zu behalten bis eine passende AMD GPU (hoffentlich mit den beiden Vega-Chips) vor der Tür steht bzw. ein Aufrüsten lohnend macht.

Einmal im Nachhinein von nVidia durch den Kakao gezogen reicht mir, wobei ich mit meiner damaligen Kepler-Wahl derzeit noch gut leben kann, da die Kundentäuschung nicht so bewusst dreist wie bei der GTX 970 durchgezogen wurde, sich dann aber im Nachhinein durch die Treiberanpassung vollzogen hat und zusammen mit der bewusst knausrigen auf Kurzlebigkeit ausgelegten Speicherausstattung bei nVidia Karten das Bild komplettiert.
 
Ich finde es ja immer so TOLL wenn ein Game Features implementiert hat welche nur auf NVIDIA Karten laufen...
 
Zurück
Oben