Test Schöner Spielen mit HDR: Benchmarks zeigen geringere Leistung auf AMD und Nvidia

Mustis schrieb:
Und ich mir deine nicht. Out of the Box ist die Vega keine besonders attraktive Karte. Getunt holt sie auf, keine Frage. Aber auch die 1080 lässt sich tunen.
Natürlich ist sie out of the Box nicht effizienter, das sagt ja auch keiner. Aber sobald man im Treiber einfach nur auf PowerSafe stellt hat man schon nen Riesenunterschied im Verbrauch, gedeckelt bei ~220w. Die leistung hat sich bei der Stromsparoption nur im minimalen Messbaren Bereich geändert...

Ja ne 1080 lässt sich natürlich auch tunen bzw undervolten. Aber anscheinend (ausnahmen gibt es da natürlich auch) ist dort das Potential nicht so groß wie bei Vega... Dafür haben sie out-of-the-box klar die besseren Werte.

Hardware_Hoshi schrieb:
Ich rede nicht nur über die Leistung mit HDR, sondern auch ohne. Du kannst dir ja gerne die Benchmarks selbst anschauen oder sogar selbst testen. Für Vega reicht es jetzt schon nicht für 4k@60 FPS. Durchschnittlich sind sie in Spielen je nach Einstellung bei 40-50 FPS. Je länger Vega am markt ist, desto mehr werden sich diese Werte bei neueren Titeln verschlechtern. HDR macht die Karten ja auch nicht schneller als mit SDR.
Aso, aber die 1080 ist ne 4K Karte die alles 60+ stemmt oder wie?
Die letzten Games die so grob getestet wurden, wie z.B. Wreckfest oder BF5 sahen sgoar die Vega 64 auf TI Niveau. Deshalb gehe ich nicht davon aus das die 1080 jetzt also auf lange Sicht nen großen Vorsprung verzeichnen wird (eher das Gegenteil ist ja der Fall)
Natürlich gibt es auch hier wieder Fälle wie z.B. "No Mans (sky) Fail" was auf Nvidia mit OpenGL (:D) natürlich bedeutend besser läuft...

Ich habe für meine Vega 64 jetzt 559€ bezahlt (Sapphire Nitro+) und Far Cry 5 gabs noch dazu (Bundles haste bei Nvidia natürlich auch)
 
  • Gefällt mir
Reaktionen: Dittsche
pilzsammler2002 schrieb:
Ja ne 1080 lässt sich natürlich auch tunen bzw undervolten. Aber anscheinend (ausnahmen gibt es da natürlich auch) ist dort das Potential nicht so groß wie bei Vega... Dafür haben sie out-of-the-box klar die besseren Werte.
Das mag sein. Bzw. ist auch ganz logisch. Dafür hat die 1080 weit mehr Potential beim OC an sich. Weil der Chip nicht so sehr an der Kotzgrenze läuft wie bei der Vega 64. Natürlich aht die Vega dann unten raus mehr Luft... :freak:

Ist aber auch unerheblich. wenn ich eine Vega tune und eine 1080 und diese vergleiche, dann schneidet die 1080 P/L technisch besser aber. Schneller ist eine Vega 64 erst in 4k, aber nicht nennenswert und das fitzelchen an Mehrleistung in 4k rechtfertigt nicht im Ansatz den deutlichen Aufpreis. Zumal auch das nicht reicht um die Vega als 4k KArte zu bezeichnen.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi
Es geht hier glaub ich nicht direkt darum ob Vega oder 1080 die bessere /schnellere Karte ist.
Könnten wir bitte beim HDR-Rendering bleiben (zumindest Näherungsweise)
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi
Iscaran schrieb:
Es geht hier glaub ich nicht direkt darum ob Vega oder 1080 die bessere /schnellere Karte ist.
Könnten wir bitte beim HDR-Rendering bleiben (zumindest Näherungsweise)
Jo, ist etwas abgedriftet das Thema... Aber das HDR problem von Nvidia wird wohl erst dann geklärt sein wenn Nvidia sich dazu äussert oder eine andere Gen es fixt...
Geklärt im Sinne von, Information dazu warum die Performance einbricht.
 
AMD baut keine Monitore wenn es noch keine gibt liegt dass nicht an AMD, so NV baut Monitore im Prinzip mit also ist da ein unterschied verstanden. Also ist NV zumindest mit schuld an den 180Watt verbrauch.
 
Hardware_Hoshi schrieb:
Ich habe mich ein wenig mit den HDR-Standards der Vesa beschäftt und glaube ich weiß nun, warum AMD besser abschneidet: "AMD schummelt, indem sie HDR nur in niederen HDR-Klassen darstellen. Sie benötigen daher weniger Rechenaufwand und entsprechend bricht die Leistung der Radeons weniger ein."

Gewagte These, die mir sicher böse angerechnet wird. Bevor ihr aber die Mistgabeln herausholt, lest den Rest. Hier sind einige interessante Punkte enthalten.

Zuallererst sollte man Freesync, Freesync 2 und Freesync 2 HDR und G-Sync HDR vergleichen.

Freesync
Unter 350 cd/m², keine/kaum HDR-Fähigkeiten
> kein HDR (!) oder schlicht Markenschwindel falls damit beworben

... geht an Duskstalker mit seiner 500€ HDR Liste!!!!! Das sind alles SDR-Monitore, die die unterste HDR spezifikation nicht geschafft haben. Das ist wie der alte "HD-ready" Schwindel.)

Freesync2
maximal 400 cd/m², etwa 10 Blendenstufen
-> entspricht DisplayHDR-400 laut Vesa

Freesync 2 HDR
maximal 600 cd/m², etwa 12,5 Blendenstufen
-> entspricht DisplayHDR-600 laut Vesa
Nicht maximal sondern minimal !!! Was für deine weitere "Behauptungen" bedeutet, dass sie Stuss sind.
Desweiteren sollte doch nun wirklich allen klar sein, dass AMD HDR @wqhd besser aussieht als nvidia HDR @4k. Insofern Spielt AMD @HDR in einer ganz anderen Liga als Nvidia.
 
@hoshi
Bei meinen Aufrüstprojekten ist immer das Backend ausschlaggebend. D.h. Zuerst neuer Moni und dann erst schauen, was man für Optionen bei den Grakas hat.

Die Performancediskussion gehört eigentlich nicht hierher. Trotzdem hier mal ein Link:
https://www.hardwareluxx.de/index.p...vega-56-und-vega-64-im-undervolting-test.html
Also die 56 lässt sich auch bei mir problemlos 10% übertakten sogar bei Bios2 mit PT50 = 225W.
1025.png


Für 4k hatte ich ja schon die LC mit P+P als Minimum empfohlen.
Die 64 würde ich bei 3440*1440 max. einsetzen. (mehr nur unter h2o).

Bei NV sicher analog, unter Ti geht gar nichts los.

Mir persönlich wäre auch eine Ti für HDR zu lahm.
Im moderaten Setting <1V Timespy -Basic@1440p mit moderatem Verbrauch:
901@1632.png

Ab einem Punkt ist avg. 2x 150W mit 56Cf sinnvoller als 1x 300W mit LC-OC.

Mal schauen was demnächst mit Raytracing passiert.
AMD unterstützt Das ja bei Vulkan.

Abschließend z.Vgl. die sinnloseste Graka = StarWarsEdition:
Txp_spy.png


Da habe ich doch deutlich mehr Bang for Buck und den Moni kostenlos dazu.
 
Zuletzt bearbeitet:
Und natürlich keine Reaktion von Nvidia wegen der Gerforce HDR schwäche.
Eigentlich ein Witz, offensichtlich muss man als Nvidia Kunde wieder einmal neu kaufen. :O
 
Hmmm - wurde das schon verlinked ?

Ich werfe das mal in den Raum evtl. kann jemand was damit anfangen ?

Finde diese ganze HDR-Geschichte immer noch seltsam.

https://www.guru3d.com/news-story/h...-(-2)-vs-nvidia-(-10)-12-games-at-4k-hdr.html
The performance loss is likely due to the way NVIDIA converts RGB to reduced chroma YCbCr 4:2:2 in HDR (we discussed that previously here) which was used for HDR testing. If they used 4:4:4 or RGB, the performance would be the same as SDR. Considering GSYNC Ultra HD monitors bog down to 4:2:2, this looks the be the most plausible explanation.

Hatte CB evtl. G-Sync an oder sowas ?
Dann wäre der Perf. Drop aber nur wegen des G-Syncs bei nVidia ?

Die Ursache für die Color Compression scheint eher die Bandbreite der Anschlüße zu sein:
https://www.guru3d.com/news-story/a...ed-to-use-color-compression-at-120144-hz.html

Allerdings schreibt CB dass sie in Ihrem Test folgendes eingestellt hatten und zwar für BEIDE gleich:
Sämtliche Spiele wurden in der nativen Auflösung des Asus PG27UQ getestet, sprich in 3.840 × 2.160. Entsprechend wurden die Grafikdetails für höhere Frameraten reduziert – Näheres zeigt die Tabelle weiter unten. Die Bildwiederholfrequenz ist auf 120 Hertz gesetzt, G-Sync ist auf einer Nvidia-Grafikkarte für eine bessere Vergleichbarkeit abgeschaltet. In SDR-Spielen nutzt der Monitor den RGB-Farbraum bei 8 Bit, in HDR YCbCr mit einer Farbunterabtastung von 4:2:2 bei 10 Bit. Die AMD- und die Nvidia-Grafikkarte wurden entsprechend im Treiber konfiguriert.

Der Monitor bei CB ist einer aus dieser Acer/Asus Reihe AFAIK ?
https://www.guru3d.com/news-story/a...ed-to-use-color-compression-at-120144-hz.html

Damit
To bypass that, the screen monitor signal reverts to 4:2:2 chroma subsampling. basically your brightness information will remain intact, however, the color information will be based on half the resolution, 1920 x 2160 pixels. All is good up to 98 Hz, after that, it's 4:2:2 chroma subsampling

Wobei CB ja angeblich genau DAS (4:2:2:) auch eingestellt hatte ?!? Also ein "Einstellungs"-Fehler seitens CB ? Oder evtl. ein Treiberbug, das 4:2:2 aufwändiger berechnet wird, weil erst ein 4:4:4: Bild gemacht wird was dann in 4:2:2 runterskaliert wird.
Allerdings verwunderlich dass dieser Schritt ca 10% Performance kosten sollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartcom5, pilzsammler2002 und duskstalker
Iscaran schrieb:
Also ein "Einstellungs"-Fehler seitens CB ? Oder evtl. ein Treiberbug, das 4:2:2 aufwändiger berechnet wird, weil erst ein 4:4:4: Bild gemacht wird was dann in 4:2:2 runterskaliert wird.

CB gibt zum Test an: In SDR-Spielen nutzt der Monitor den RGB-Farbraum bei 8 Bit, in HDR YCbCr mit einer Farbunterabtastung von 4:2:2 bei 10 Bit. Die AMD- und die Nvidia-Grafikkarte wurden entsprechend im Treiber konfiguriert.

Die AMD und Nivida Karten wurden mit den gleichen Einstellungen getestet. Somit könnte sich das Testergebnis auch für AMD noch weiter zum positiven ändern ;)
 
Zuletzt bearbeitet:
Zurück
Oben