• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Watch Dogs 2 Benchmark: GPUs müssen schnell und Speicher groß sein

the_ButcheR schrieb:
Und noch ein Spiel, das zeigt, dass die 6 GB VRAM der GTX 1060 schon heute problematisch sein können. In Zukunft werden solche Spiele, bzw. die VRAM Anforderungen nicht weniger werden.


MfG

Wenn du mit "problematisch" meinst, dass es neben einem prinzipeill unnötigen "Bonus DLC" auch noch Auflösungen und Detailstufen braucht, die auf der Karte eh nicht mehr flüssig laufen würden, auch wenn sie 12GB Speicher hätte, dann hast du absolut recht! :rolleyes:
 
SirDoe schrieb:
Also kann man es mal wagen den HighRes-DLC mit einer 980ti/2560x1440 zu installieren?

Das würde mich auch sehr interessieren :-)
Überlege nämlich das Spiel zu kaufen.
 
Ich hab' mich jedenfalls gefreut wie Bolle, dass die 280x (7970) mit dabei ist.

Damit gerechnet habe ich aber nicht, da kann ich den Unmut ob der fehlenden 1070 sehr gut verstehen.
 
BookerDeWitt schrieb:
Ich gebe dir vollkommen recht, mit dem, was du sagt.

So lange die Leute nicht einsehen, dass Fortschritte stattfinden, aber sie die falschen Produkte kaufen, müssen sie eben Lehrgeld bezahlen und verfrüht nachkaufen. Wenn man alles darauf schiebt, dass vermeintlich schlechte Performance ohnehin an der (zweifellos vorhandenen) durchschnittlich schlechten Programmierung der (AAA-) Titel liegt, dann mag das eine Haltung sein. Aber auf die Qualität der Programmierung hat man keinen Einfluss. Auf die Auswahl der neuen Hardware hat man Einfluss.
Wer jetzt noch immer i5 und eine Grafikkarte mit 4 oder 6GiB Speicher im gehobenen Segment kauft, mag jetzt in vielen Situationen damit gut zurecht kommen. Aber das wird so nicht bleiben. Die Spiele, die mehr Kerne und Threads fordern und mehr Grafikspeicher werden nicht weniger werden.
Irrsinnig ist, dass Hardware sich so wenig verändert wie noch nie und (daher) so preiswert ist wie noch nie. Trotzdem werden die falschen Schlüsse daraus gezogen und über die Preise geklagt.

Ich freue mich, wenn Spiele mehrere Kerne ansprechen können und mehr Speicher nutzen oder zu nutzen wissen. Mittelfristig dürfte da erst mal kein Weg dran vorbei gehen. So lange die großen Hersteller keine geheimen Innovationen in der Schublade liegen haben, wird sich die Verkleinerung der Fertigungsgröße nicht beliebig voran treiben lassen.


Die Leistung der 1070 lässt sich von der Leistung der 1080 ableiten. Gleiche Speichergröße, gleiches Speicherinterface (Bandbreite)
 
Na dann warten wir mal auf die 490er - Nachtest wäre dann wünschenswert - falls zeitlich machbar.
 
Nachdem eine 280X (384Bit) stärker abschneidet als eine 380X (256Bit), habe ich ja so die leichte Vermutung, dass das Speicherinterface in WD2 durchaus ein Wörtchen, in Bezug auf die Performance, mitzureden hat. Was bringt da HBM mit 4096Bit Anbindung?
Find es dann auch immer wieder krass, dass eine GTX1080 im Vergleich nur mit 256Bit angebunden ist.

Und hat schon jemand Info´s bzgl. Crossfire-Performance? Bin mächtig gespannt was mein Setup da gleich reißt :evillol:

edit: Benchmark-Quelle zu 280X & 380X
 
Ich verstehe überhaupt nicht warum manche Leute hier im Forum schon wieder auf Schlaubi-Schlumpf machen und sagen das die 1060 wieder nicht gegen die 8GB der 480 ankommt.

Man sollte sich vielleicht mal vor Augen führen das dieses Texturpaket weder für FullHD noch für 1440p gedacht ist, sondern für ULTRA HD.

Was heißt das weder eine 1060 noch eine 480 irgendwas damit zutun haben, denn beide Karten würden unter ULTRA HD keine spielbaren Frames erzeugen.

Beides sind Karten für den 1080p Bereich und da reichen die 6 bzw 8 von beiden Karten locker aus.

Einfach mal nicht stressen, sondern das Spiel genießen.
 
vforce schrieb:
Sagt mal, ist das öfters so, dass AMD Grafikkarten besser altern?

Die 280x war Anfangs nen Ticken langsamer als die GTX 770, in neuen Spielen rennt die der vollkommen davon. [...]
Kann doch nicht nur am Speicher liegen oder?

Minutourus schrieb:
@vforce

Ja kann man schon so sagen, kommt daher weil unter anderen alle GCN Grafikkarten durch die Optimierungen des Treibers profitieren (die einen mehr, die anderen weniger) und es sollte schön langsam kein Geheimnis sein das NV sich primär eher um die aktuelle Generation kümmert..

Es wird wohl ach daran liegen das AMD ein Design am Start hat das in ähnlicher Form in Konsolen eingesetzt wird. Konsolenchips werden nicht für aktuelle Spiele entwickelt, sondern für den gesamten Lebenszyklus, welcher länger als zwei Jahre andauert.

Nvidia passt Hardware und Treiber auf Titel an die zum Release der Karte verfügbar sind um Benchmarks zu gewinnen. Was mit den Karten passiert wenn diese nicht mehr verkauft werden ist ihnen egal. Siehe GTX 770,780 oder 970.


highwind01 schrieb:
Wenn du mit "problematisch" meinst, dass es neben einem prinzipeill unnötigen "Bonus DLC" auch noch Auflösungen und Detailstufen braucht, die auf der Karte eh nicht mehr flüssig laufen würden, auch wenn sie 12GB Speicher hätte, dann hast du absolut recht! :rolleyes:

Die Füllrate der meisten Karten ist heutzutage so fett, das die Kapazität des VRAM der Flaschenhals ist. Siehe GTX 780, GTX 970, Fury oder R9 290(x).
 
Nicht gut ergeht es dagegen (wieder einmal) der Fiji-GPU in Form der Radeon R9 Fury X.

Wie soll ich das denn verstehen? In WQHD schafft die Fiji 54 FPS. Dafür dass die Karte eine ganze Zeit lang genauso teuer war wie die GTX980 - und die nur 10% langsamere GTX970 auf 40 FPS kommt - ist das doch absolut in Ordnung.
Fiji war noch nie gut in FHD und ich bezweifle dass sich jemand die Karte dafür geholt hat.

Was man anmerken darf ist, dass beide Firmen die Karten der alten Generation sehr stiefmütterlich behandeln was Treiber für aktuelle Spiele anbelangt. Bei nVidia ist der Leistungsverlust aber tendentiell größer, wie der Vergleich R9 280X(7970) vs GTX770 zeigt.
Klar, ein Test einer GTX980 wäre schön gewesen, da sie sehr ähnlich der GTX970 agiert vermutlich aber nicht so dringlich wie eine 980Ti/Titan X oder GTX1070 im Test.

A propos 1070: in bisherigen Tests lag die 1070 gern mal ~25% hinter einer 1080. Sagen wir mal, in WQHD bringt die 1070 dann 60FPS.
Für eine Karte die zum launch mindestens 100€ teurer war als die Fiji-Karten (welche in diesem Zeitraum zeitweilig auch für 300€ und weniger angeboten wurden) finde ich das ziemlich schwach. Klar, das Texturpaket kann man mit Fiji-Karten nicht verwenden, praktischerweise gibt es aber auch keine Screenshots im Test wie die Texturen mit und ohne das Paket aussehen. Dass eine GTX980 das Paket genauso wenig verwenden kann wird ebenfalls unter den Tisch fallen gelassen wie die Erwähnung dass selbst mit 6GB Speicher leichtes nachladen zu beachten ist nicht darauf angewandt wird dass dies ebenfalls eine 980Ti betrifft.

Fazit: 1070 und 1080 sind die besten Karten in einem Gameworks-Spiel, 4GB Speicher reichen nicht für ultra-Luxus-Texturen und Besitzer älterer Karten, gerade von nVidia, haben das nachsehen.
Irgendwie nichts Neues bei einem Gameworks-lastigen Spiel.

Und so mies kann Fiji garnicht sein wenn sie immer noch schneller ist als RX480 und GTX1060, gemessen am Marktpreis. Stromverbrauch ist klar ein Vorteil der neuen Karten, keine Frage, aber mit den guten Kühlern wirkt sich das nicht auf die Lautstärke aus.
Ich würde mich dennoch freuen wenn nVidia aufhören würde die Kunden der Vorgängergeneration immer derart abzustrafen.
 
Endlich wird mal VRam genutzt und die Texturquali gesteigert, das war etwas das in den letzten 10-12 Jahren gefühlt kaum besser geworden ist. Mal schauen ob die nächste Kartengeneration den Speicher nochmal verdoppelt.
 
Das Spiel braucht in Full HD mit Ultra Texturen 5 GB Vram.

Die 8GB Vram der 480 helfen der Karte nicht um an der 1060 6GB vorbeizuziehen.Sie fällt sogar noch leicht hinter einer 970 4GB zurück. Zumindest bei mittleren Details. Soviel dazu:



Vram ist eben doch nicht alles...
 
Zuletzt bearbeitet von einem Moderator:
Ich schmeiß dann mal meine 780ti weg. 3GB VRAM ist einfach ein Witz. Wobei The Witcher 3 super auf fast höchsten Einstellungen ohne Hairworks läuft.
Die Karte hat zum Start 700 Euro gekostet.
Nie wieder werde ich eine Ultra High End Karte kaufen, wobei ich die ti für gerade mal 400 bekommen habe. Trotzdem ärgerlich.
 
Die Anbindung und die theoretische maximale Bandbreite sagt recht wenig über die Effizienz aus - heutige GPUs haben da soviele Tricks und Komprimierungen (für gewöhnlich mit jeder neuen Generation erheblich verbessert) das heute eine 1050Ti wohl ähnlich viele Daten durch ihren 128bit breiten Speicherbus drücken kann, wie das vor 3 Generationen dem High-End Modell gelungen ist.
 
tek9 schrieb:
Nvidia passt Hardware und Treiber auf Titel an die zum Release der Karte verfügbar sind um Benchmarks zu gewinnen. Was mit den Karten passiert wenn diese nicht mehr verkauft werden ist ihnen egal. Siehe GTX 770,780 oder 970.
müsste man direkt mal wieder testen.
 
@CB: Könnt ihr bitte zukünftig, wenigstens bei Full HD auch noch etwas langsamere Grafikkarten testen? Ich nutze z.B. eine R9 270X, die ist von Anfang 2014 also noch nicht Mega alt ... da dürften noch viele Spieler so eine im System haben ... und sie hat "nur" 2 GB VRAM ... klar, bei PCG konnte ich lesen, das so eine ausreicht für Mittel ... aber ich würde so etwas auch gerne hier bei ComputerBase lesen können.
 
Zwirbelkatz schrieb:
Die Leistung der 1070 lässt sich von der Leistung der 1080 ableiten. Gleiche Speichergröße, gleiches Speicherinterface (Bandbreite)

Wobei ich dir bei allem gesagten Recht geben kann, stimmt das allerletzte nicht ganz, die 1080 besitzt dank ihrem GDDR5X etwas mehr Bandbreite als die 1070, weshalb sie im Zweifelsfall immer etwas schneller sein wird. Meistens wird das dennoch nie sonderlich viel ausmachen, weshalb ich die ganzen Beschwerden über das Fehlen der 1070 nicht ganz verstehen kann. Man muss nur simpel per Dreisatz die geringere Anzahl der Shader auf die Performance der normalen 1080 umrechnen (unter der Annahme, dass der Takt gleich ist) und vielleicht ±5% Varianz einrechnen (zum einen, wenn GDDR5X Vorteile bringt, oder aber das Spiel schlecht mit den Shadern skaliert). Benchmarks sind eh immer nur „Anhaltspunkte“, der Wunsch einer absoluten, genauen Zahl kann ich hier nicht nachvollziehen. Die 1070 konkurriert momentan nur ernsthaft mit der 980Ti, die Fury-X, wenn auch mittlerweile zumeist schneller als die vorher genannte, hat aufgrund des geringen VRam andere Probleme. Ob man jetzt weiss, ob die 980Ti oder 1070 schneller ist? Wen interessiert es? Höchstens lässt sich so nachvollziehen, ob der nVidia-Treiber wieder Optimierungen für das EOL-Portfolio missen lässt. Die 1070 ist bei einem Neukauf eh die bessere Wahl, da sie mehr VRam, etwas bessere DX12-Unterstützung, sowie besseren Treiber-Support hat.
 
Zuletzt bearbeitet:
Mydgard schrieb:
Ich nutze z.B. eine R9 270X, die ist von Anfang 2014 also noch nicht Mega alt ... da dürften noch viele Spieler so eine im System haben ... und sie hat "nur" 2 GB VRAM

Schau weiter oben in meinem Screenshot, da ist die 270 dabei. In mittleren Details schafft sie das Spiel ohne Probleme.
 
@digitalangel18: deine Aussage zu den Texturen verstört mich. Was für eine Auflösung fährst du an deinem Privatmonitor? Zu geringe Texturqualität kann ich unter 4K echt nicht bestätigen. Witcher 3, ROTTR, lässt mich da immer wieder aus den latschen kippen. Vielleicht Zeit für einen neuen Monitor bei dir?
 
Zurück
Oben