Test Schöner Spielen mit HDR: Benchmarks zeigen geringere Leistung auf AMD und Nvidia

Wolfgang

Redakteur
Teammitglied
Dabei seit
Nov. 2002
Beiträge
6.242
#1

Pille1002

Lt. Junior Grade
Dabei seit
Apr. 2013
Beiträge
266
#3
Schöner Test,

hätte auch keinen signifikanten Unterschied zwischen HDR und SDR erwartet.

Doppelte Überraschung das HDR einen Einfluss hat und das die "Grünen" im extrem Fall 20% Verlust haben.

:freak:
 
Dabei seit
Feb. 2017
Beiträge
583
#5
Wäre schön wenn man die RX 580 gegen die GTX 1060 hinzufügen könnte, um zu sehen ob sich ein ähnliches Bild bei Polaris abzeichnet.
 

Simanova

Lt. Commander
Dabei seit
Dez. 2012
Beiträge
1.724
#6

Visualist

Lt. Commander
Dabei seit
Feb. 2006
Beiträge
1.259
#7
Das ist interessant hoffe bei der Turing wird das nicht so.
Möchte mir bald ne Karte für meinen Oled TV holen.
Zeigt die 1080Ti auch dieses verhalten?
Hoffentlich kannn man das über den Treiber lösen.
 

estros

Vice Admiral
Dabei seit
Sep. 2009
Beiträge
7.065
#8
Aus meiner Sicht ein völlig falsches Fazit!

Dass AMD und NV verlieren, hängt also von der Spiele Engine oder anderen Teilen der Software und im Zusammenspiel mit dem Treiber ab. Hier wurde offensichtlich noch nicht viel für HDR optimiert.
 

Pille1002

Lt. Junior Grade
Dabei seit
Apr. 2013
Beiträge
266
#10
Aus meiner Sicht ein völlig falsches Fazit!

Dass AMD und NV verlieren, hängt also von der Spiele Engine oder anderen Teilen der Software und im Zusammenspiel mit dem Treiber ab. Hier wurde offensichtlich noch nicht viel für HDR optimiert.
Völlig richtiges Fazit:
Mit HDR muss zumindest derzeit zwischen einer AMD- und einer Nvidia-Grafikkarte unterschieden werden.
 

GUN2504

Lt. Commander
Dabei seit
Juni 2014
Beiträge
1.907
#11
An einer plötzlichen Steigung (HDR) sollte ein 6l V8 (AMD) einfach mehr Reserven wie ein 2l Turbo (Nvidia) haben...
 

GUN2504

Lt. Commander
Dabei seit
Juni 2014
Beiträge
1.907
#13
bitte löschen. Doppelpost!
 

TZUI1111

Lt. Junior Grade
Dabei seit
März 2017
Beiträge
327
#14
Es scheint als hätte AMD, zu den Zeiten wo noch nicht so viele Entwickler für den Treiber zuständig waren, etwas zu weit in die Zukunft geblickt ^^ Und damals hat jeder geschimpft, wie Schlimm sie doch sind .
Seit DX12 dreht sich ja schon etwas und mit HDR auch, mal gespannt wie es da weiter geht.
 
Dabei seit
Apr. 2008
Beiträge
3.303
#15
Ich könnte mir vorstellen, das Nvidia bei der Genauigkeit besser optimiert hat und jetzt in einigen Spielen wieder auf eine höhere Genauigkeit gehen muss um HDR zu berechnen.

Oder AMD berechnet HDR mit geringerer Genauigkeit, was man dann mal in einem speziellen Test zur Bildqualität angucken sollte.

Ich gehe auch davon aus, das Nvidia bald einen Treiber rausbringt, der das wieder gerade biegt, aber wenn dieser kommt sollte man auch da genau hinschauen, ob ein vorhandener Fehler ausgemerzt oder die Leistung durch schlechtere Genauigkeit wiederhergestellt wird.

Leider weiß ich nicht, wie man diese Unterschiede testen kann. Screenshots vergleichen wird vermutlich nicht funktionieren. Man müsste das Bild irgendwie mit festen Einstellungen abfotografieren, was dann aber nie so genau sein kann wie es eventuell sein müsste um Unterschiede zu sehen.
Zwei Systeme einmal mit Nvidia einmal mit AMD GPU nebeneinender an zwei gleichen Bildschirmen(Bildschirme zwischendurch tauschen) und dann direkt vergleichen könnte helfen.
 

mfJade

Rear Admiral
Dabei seit
Mai 2011
Beiträge
5.643
#16
Das ist schon seit nem Jahr so. Deswegen spiel ich AC:Origins nicht in HDR weil ich dann die 144fps nicht halten kann :(
 
Dabei seit
Aug. 2007
Beiträge
146
#17
Ich könnte mir auch vorstellen, dass es mit irgendwelchen "Optimierungen" der Genauigkeit zu tun hat.

Kann man die SDR-Tests auch mit Unterabtastung machen? Vielleicht gibt das einen Hinweis.
 

corvus

Lt. Junior Grade
Dabei seit
Jan. 2018
Beiträge
416
#18
Für mich sieht das aus wie immer:
nvidia holt das letzte aus "aktueller" Technologie raus (DX11 Performance, SDR), AMD hat bereits für neuere Technologien geplant aber schneidet bei vorher genannten halt vergleichsweise schlechter ab.

Ein Vergleich mit RX580 und 1060 wäre interessant, evtl. liegt bei der Vega auch einfach nur zuviel Leistung brach, die nun genutzt werden kann.

An sich also alles wie gehabt. Aber so dauert es eben länger, bis die Technologien am Markt ankommen.
 

Faust2011

1+1=10
Teammitglied
Dabei seit
Aug. 2011
Beiträge
8.954
#20
Weil man gleichwertige Grafikkarten zwischen AMD und Nvidia testen möchte: In diesem Fall eben die RX 64 gegen eine GTX 1080.

ätte auch keinen signifikanten Unterschied zwischen HDR und SDR erwartet
HDR ist nicht nur ein reines "Anzeigeproblem". Dabei wird auch gerechnet (Stichwort: Tone Mapping) und es wird der Farbraum zwischen Spiel und Ausgabegerät (Monitor) abgestimmt.

Hier beim Tone Mapping könnte auch der Unterschied in der Performance herrühren: Bei AMD wird das (spekuliert) compute-intensive Mapping besser auf der AMD-Karte berechnet als bei Nvidia. Ist aber alles pure Spekulation und schlägt in die Kerbe "AMD ist bei Async Compute und der Rohpower von GPUs besser aufgestellt als Nvidia".
 
Top