• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Watch Dogs Legion im Test: Patch und Treiber steigern vor allem auf GeForce die Leistung

Blackfirehawk schrieb:
Sobald n Spiel n bischen CPU lastiger wird (zb geringere Auflösung oder zuviel Hintergrund Berechnungen) kackt Nvidia zur Zeit leider sehr ab wegen dem dx12 Driver Overhead
Wenn ich mich nicht irre testet CB mit einem 12-Kerner oder gar mehr. Ich glaube kaum, dass Watch Dogs alle 24 Threads zu 100% ausreizt und damit dem Treiber keine Luft mehr lässt. Laut Hardware Unboxed wird der Overhead ja nur in dem Szenario (100% CPU-Auslastung) zum Problem. Ich denke hier ist eher irgendeine andere CPU-Limitierung vorhanden.
Bei den Min-FPS in 4K sieht AMD auch deutlich besser aus. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: konkretor und Otsy
Laphonso schrieb:
Fährst Du mit min FPS? Ungewöhnlich. Kenne niemanden, der das macht ;)

Dass die 6700XT von der ollen 2060 Super mit Raytracing und DLLS easy vernascht wird, ist Dir dann entgangen?

Wollen wir weitermachen? ;)
Ich "fahre" (was auch immer das genau bedeuten soll) mit "min" FPS (Perzentile).
Die Perzentile in Relation zur Durchschnittsleistung sind weitaus wichtiger als die Durchschnittsleistung selbst...
 
  • Gefällt mir
Reaktionen: ActionNews, Knutengore, xFranklinSan und 9 andere
ich finde solche "Wundertreiber" immer sehr interessant. Mich würde da mal interessieren, was die das so verbessert haben, gerade bei Nvidias Vergangenheit ....

von jetzt auf gleich soviel Leistung mehr ist doch etwas ungewöhnlich.
 
Laphonso schrieb:
Damit knackt die 3090 dann endlich die 60 fps unter 4K auch souverän.
FPS, 0,2% Perzentil: 30,7 FPS, souverän. Verschei**erst du dich nicht gerade selbst am meisten? Der Großteil der anderen Leser wird die Fakten zur Kenntnis genommen haben. Selbst die 46,1 FPS der RX 6900XT bei den, 0,2% Perzentil würde ich nicht als souverän bezeichnen.
 
  • Gefällt mir
Reaktionen: CMDCake, GERmaximus, Harpenerkkk und 3 andere
Sebbi schrieb:
ich finde solche "Wundertreiber" immer sehr interessant. Mich würde da mal interessieren, was die das so verbessert haben, gerade bei Nvidias Vergangenheit ....

von jetzt auf gleich soviel Leistung mehr ist doch etwas ungewöhnlich.
Denke mal, da es ein Spiel mit Hardware-näheren DirectX 12 API ist, handelt es sich um weitere Optimierungen für die Hardware, die eben Nvidia im Treiber statt der Entwickler im Spiel vorgenommen hat. Wäre interessant zu sehen, ob diese Leistungssteigerungen auch noch so groß sind, wenn das Spiel mit DirectX 11 API gestartet wird (wird scheinbar noch unterstützt?).
 
KarlKarolinger schrieb:
Wenn ich mich nicht irre testet CB mit einem 12-Kerner oder gar mehr. Ich glaube kaum, dass Watch Dogs alle 24 Threads zu 100% ausreizt und damit dem Treiber keine Luft mehr lässt. Laut Hardware Unboxed wird der Overhead ja nur in dem Szenario (100% CPU-Auslastung) zum Problem. Ich denke hier ist eher irgendeine andere CPU-Limitierung vorhanden.
Bei den Min-FPS in 4K sieht AMD auch deutlich besser aus. 🤷‍♂️
Die testen mit nem übertakteten und RAM optimierten 5950x.. also da kommt kaum was ran..

Es geht da bei den Games auch mehr um die Leistung pro Kern..
Mit nem älteren CPU wie zb Intels 8000er/9000er reihe oder ryzen 3000, die ja auch haufenweise mit neuen GPUs kombiniert werden,

hast du das Problem schon eher
 
Trotz neuem NVidia Treiber ist die Leistung der RTX 30x0 bei den 0,2% Perzentil in jeder Auflösung enttäuschend und die RTX 3060 liegt sogar im FPS Durchschnitt weit abgeschlagen.
In Watch Dogs Legion bin ich positiv von der RX 6700 XT überrascht.
@CB
Macht doch bitte auch den Benchmark mit der NVidia RTX 20x0 Serie
 
  • Gefällt mir
Reaktionen: GERmaximus
War hier jetzt rBAR aktiviert für Nvidia?
Was soll ich dann aus den benchmarks der Perzentilen lernen, wenn rBAR einen negativen einfluss hat.

Hier wird sich deswegen ja schon wieder ob der tollen perzentilen der AMD-Karten gefreut...
 
Freiheraus schrieb:
FPS, 0,2% Perzentil: 30,7 FPS, souverän. Verschei**erst du dich nicht gerade selbst am meisten? Der Großteil der anderen Leser wird die Fakten zur Kenntnis genommen haben. Selbst die 46,1 FPS der RX 6900XT bei den, 0,2% Perzentil würde ich nicht als souverän bezeichnen.
Ein Raytracing Vorzeigetitel , der (wieder mal, muss man sagen) die AMD GPUs nur traurig zurücklässt, dient ggf nicht zum Flamen, nur mal so.
Ergänzung ()

Sebbi schrieb:
von jetzt auf gleich soviel Leistung mehr ist doch etwas ungewöhnlich.
Eigentlich finden wir das immer häufiger, und es wurde bei den DX12 Titel vor allem bei der Pascal Generation ein zunehmendes gap zu Turing z.B. durch neue/neuere Treiber. Bei den AMD GPUs hatten wir das ganze doch auch in vielen Games und der 5700XT z.B. die nach diveresen Treiber Iterationen der 2080 Super immer dichter auf die Pelle rückte.
 
bad_sign schrieb:
Das Leistung von Ampere in niedrigen Auflösungen in Ubi Games ist na momentan katastrophal :0
Oder die Leistung der AMD Karten einfach gut.
Da müsste man jetzt mal zum Vergleich sehen, wie die Vorgängergeneration so abschneidet. Wurde im ursprünglichen Test sicher gemacht.

Aber schön zu sehen dass durch Optimierung noch so viel rauszuholen ist.
 
  • Gefällt mir
Reaktionen: GERmaximus, Harpenerkkk, Col.Maybourne und eine weitere Person
thuNDa schrieb:
War hier jetzt rBAR aktiviert für Nvidia?
Was soll ich dann aus den benchmarks der Perzentilen lernen, wenn rBAR einen negativen einfluss hat.

Hier wird sich deswegen ja schon wieder ob der tollen perzentilen der AMD-Karten gefreut...

Man erfreut sich hier nicht an den 'tollen' Min-FPS der Radeons, sondern wundert sich über das desaströse und unverhältnismäßige Ergebnis der GeForces.
 
  • Gefällt mir
Reaktionen: GERmaximus
Schon interessant, wieviel man durch optimierte Treiber erreichen kann (waren die Programmierer alle im Lockdown?).

Jahrelang habe ich PC-Spiele erst ein Jahr nach erscheinen gekauft, letztes Jahr dachte ich mir, komm kauf mal zur Abwechslung AC:Valhalla, Watchdogs:Legion und Cyberpunk zum Vollpreis.
Ergebnis= Ein halbes Jahr nach erscheinen sind sie langsam spielbar.

Bei den nächsten Spielen wird wieder schön gewartet, bis Spiele und Treiber fertig sind :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hatch, Palmdale, gartenriese und eine weitere Person
Otsy schrieb:
Man erfreut sich hier nicht an den 'tollen' Min-FPS der Radeons, sondern wundert sich über das desaströse und unverhältnismäßige Ergebnis der GeForces.
Man stellt überrascht fest, dass bei der Top End 1000-1500 Euro AMD GPU zwischen min und avg fps gerade mal 12 liegen in 4K. ZWÖLF(komma irgendwas). Ja, da "wundert" man sich irgendwie auch.

Das Narrativ der 6900XT gerät zudem in Wanken, wenn sie direkt mal 10% hinter der 3090 in den max fps liegt.
Was bleibt denn da von der brachialen Rasterperformance?
AMDs Raytracing Auftritt in 4K ist die 30 fps Gang. Hat sich damit auch erledigt.

TLDR: Ich würde die Sektkorken also auch aus AMD Sicht nicht wirklich knallen lassen, denn die Defizite kann ich da auch an der Checkliste abarbeiten. ;)

Wer nicht abliefert ist hier Ubisoft. Das wäre der erklärte Gegner und nicht Haarspalterei.
 
@Cerebral_Amoebe
Genau so schauts aus und ist auch meine Maxime: je größer und komplexer, umso länger warten! Nur Valhalla hab ich fürn 20er günstig bekommen, was ich nicht ausschlagen konnte. Daher liegt es noch ungespielt im Account, bis es reif ist
 
Marcel55 schrieb:
Oder die Leistung der AMD Karten einfach gut.
Da müsste man jetzt mal zum Vergleich sehen, wie die Vorgängergeneration so abschneidet. Wurde im ursprünglichen Test sicher gemacht.

Aber schön zu sehen dass durch Optimierung noch so viel rauszuholen ist.
Ne is ganz klar Ampere. Diese fetten Shader werden erst in UHD gefüttert.
@Teralios hat das schon ein paar mal erklärt, um die breiten Shader auszulasten, bedarf es viel parallel zu berechnender Aufgaben und die kommen mit der Auflösung.

Vielleicht eine brauchbare Analogie: Einen 12 Kerner (Ampere) auf ein UE4 Game loszulassen, welche meist nur 4 Threads (FHD) nutzt und ihn mit einem 8 Kerner (Big Navi) vergleichen.
 
Zuletzt bearbeitet:
scootiewolff22 schrieb:
AMD hat einfach die schnellsten Grakas, wenn man mal Raytracing weglässt, was eh noch 1 - 2 Generationen braucht
Absoluter Quatsch. Du kannst dank DLSS (welches hier nicht getestet wurde) die gleiche Performance auf Nvidia Karten mit aktivierten Raytracing haben wie du auf AMD Karten ohne hast.

Blackfirehawk schrieb:
Sobald n Spiel n bischen CPU lastiger wird (zb geringere Auflösung oder zuviel Hintergrund Berechnungen) kackt Nvidia zur Zeit leider sehr ab wegen dem dx12 Driver Overhead
Solange man unter FullHD bencht vielleicht...
Ergänzung ()

Ferax schrieb:
Also doch Ja weil es nun mal ohne RTX so ist.

Ich sage mal so: Besser oder nicht ist schon lange kein HW Thema mehr. Selbst wenn eine Seite die bessere HW hat, so ist der Treiber und gerade die Entwicklung des Spiels entsheidend wer "besser" ist. Und das bezieht sich dann eher weniger auf das Können etwas schnelleres zu designen als viel mehr das Platzieren von Vorteilen, bezogen auf Einflussnahme in der Spielentwicklung.

Die Debatte wer schneller oder schlechter ist, hat somit nur noch Sympathie Charakter. Wo man das meiste bekommt ist entscheidend und das schwankt nun mal von Spiel zu Spiel.
60 fps in Cyberpunk vs weniger als 30 dank stärker durch die Hardware beschleunigtes RT und DLSS (was auch ein Hardware Feature im Form der Tensor Cores ist) ist IMO mehr als Sympathie Charakter.
 
theGoD schrieb:
Solange man unter FullHD bencht vielleicht...
Joar.. oder unter 1440P bei vielen Titeln wenn man ohne vsync spielt oder ne 2 Jahre alte CPU hat.

Oder wenn man n Spiel hat was sehr viel CPU Ressourcen braucht wegen Hintergrund und Physik Berechnung.. oder einfach dx12 CPU Massig gut auslasten kann
 
  • Gefällt mir
Reaktionen: Beteigeuze.
Man kanns drehen und wenden wie man will, aber in DX12 hat Ampere nen größeren DriverOverhead und läuft erst mit viel teuereren CPU´s halbwegs rund.

Ne normale Kombi für 4k mit ner Midrange-CPU funzt nur bei RDNA2.
HU ohne rBar: ist zwar 1080p aber im Prinzip wirds in 4k net besser, die CPU limitiert

edit: HZD scheint auch so ne Baustelle zu sein, wo Ampere net effektiv mit AC umgehen kann
https://www.igorslab.de/treiber-ove...rx-6900xt-gaming-x-und-die-eigenen-treiber/6/
 

Anhänge

  • WDL-by-HU.jpg
    WDL-by-HU.jpg
    53,2 KB · Aufrufe: 282
  • HZD@4k.png
    HZD@4k.png
    52,4 KB · Aufrufe: 281
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sebbi
Epistolarius schrieb:
Ich "fahre" (was auch immer das genau bedeuten soll) mit "min" FPS (Perzentile).
Verstehe ich die Angabe falsch oder bezieht sich die 0,2% Perzentil tatsächlich auf die "schlechtesten" 0,2% FPS? Das wäre doch quasi nichts. In 10 Minuten macht das doch nur ca. 1s aus.
Wenns jetzt z.B. die schlechtesten 1% wären ok, aber so?
Wo ist mein Denkfehler?
 
auch mal eben geupdated und dazu ram oc und bar eingeschaltet, 25% mehr avg fps in 1080p :love:
 
  • Gefällt mir
Reaktionen: Tenchi Muyo und Lübke82
Zurück
Oben