Test Schöner Spielen mit HDR: Benchmarks zeigen geringere Leistung auf AMD und Nvidia

Pille1002 schrieb:
Völlig richtiges Fazit:
Mit HDR muss zumindest derzeit zwischen einer AMD- und einer Nvidia-Grafikkarte unterschieden werden.
Auf kurz ja, aber damit analysiert man ja nicht den Grund, sondern nur die Symptome. Deshalb, aus meiner Sicht hätte das Fazit deutlich mehr Theorie gut getan.
 
  • Gefällt mir
Reaktionen: yummycandy und R00tMaster
Simanova schrieb:
Ich denke Nvidia wird einen Treiberfix nachreichen sobald das Public wird.
Die Frage ist, ob es überhaupt möglich ist, dies ohne größere Leistungseinbußen bei nVidia umzusetzen.
Da nVidia die letzten eineinhalb bis zwei Jahre doch ein paar Probleme hatte mit der Wiedergabe einsprechend hoher Farbtiefe, darf dies nämlich durchaus bezweifelt werden …
 
  • Gefällt mir
Reaktionen: Mcr-King
Simanova schrieb:
Ich denke Nvidia wird einen Treiberfix nachreichen sobald das Public wird.

Yo. Der Treiber Baby, der Treiber!
 
  • Gefällt mir
Reaktionen: or2k, ThePlayer, LyGhT und 2 andere
DX12 und HDR zeigen mir nur dass die AMD FineWine™ Technology nach wie vor funktioniert.
 
  • Gefällt mir
Reaktionen: or2k, Mcr-King, ThePlayer und 10 andere
Denn intern rechnen Grafikkarten bereits seit langem mit einer höheren Präzision, als für die reine Bildausgabe benötigt wird.

Sieht für mich eher so aus, als wenn ein Hersteller das eher nicht macht wenn man sich die Ergebnisse anschaut :evillol:
 
  • Gefällt mir
Reaktionen: Mcr-King, ThePlayer, 9Strike und 6 andere
Was mir fehlt, oder wurde das bereits mal irgendwo im Detail erklärt, ist der visuelle Unterschied.
Ich finde es ok wenn HDR Performance kostet, genau so kostet eine höhere Auflösung ja auch Performance.
Aber was bekomme ich denn dafür, ist es besser, was ist schlechter?
Wenn z.B. im Artikel steht das üblich RGB 8 Bit und nun 4:2:2: 10 Bit übertragen werden dann sagt das einmal das wir mehr Farbabstufungen haben, aber gleichzeitig eine Komprimieren. Wie wirkt sich das ganze dann aus?
 
  • Gefällt mir
Reaktionen: Mcr-King
estros schrieb:
Auf kurz ja, aber damit analysiert man ja nicht den Grund, sondern nur die Symptome. Deshalb, aus meiner Sicht hätte das Fazit deutlich mehr Theorie gut getan.
Der Grund für das Verhalten ist unklar
Warum Nvidia-GPUs mit größeren Einbußen als die AMD-Grafikkarten zu kämpfen haben, ist derzeit unklar – auch Nvidia konnte der Redaktion noch keinen Grund dafür nennen.

Was soll man den mehr Analysieren wenn die Entwickler selbst nicht wissen was der Grund ist..
CB guter Job gemacht
 
  • Gefällt mir
Reaktionen: Mcr-King, 9Strike, greeny112 und 3 andere
Lustig wie sich manche auf eine bessere Qualität bei Nvidia ausreden. Wenn die Grafikpipeline auf 10 bit ausgelegt ist werden die quasi genau so durchgereicht wie die vorherigen 8 bit. Nvidia entwickelt halt mehr für aktuell erhältliche Titel als für zukünftige. Hoffentlich lässt sich das per Driver lösen, wenn die Hardware nur für 8 bit pro Farbkanal ausgelegt wurde, seh ich da schwarz. Darum hatte AMD mit der RX 290X usw. schon Jahre vor Nvidia echte DX12 Hardware. Zu der Zeit gabs zwar noch kaum/keine DX12 Titel, aber dafür altert AMD Hardware sehr gut, wie ein feiner Wein ;).
 
  • Gefällt mir
Reaktionen: ThePlayer und Tanzmusikus
Immer dieses AMD Nvidia rumgezicke.

Wer heutzutage einen guten HDR Bildschirm mit sagen wir 1000nits in der Spitze besitzt, der nutzt doch seine Grafikkarte auch nicht länger als 1-2Jahre.

Gutes HDR ist toll, mies umgesetztes dagegen nervt mich persönlich(zumindest am tv).

Da kommt ja auch einiges zusammen. 4k sollte der Monitor haben, HDR mit 1000nits spitze und dazu Sync und 100hz oder höher.

Bis es das in bezahlbaren Rahmen gibt(sagen wir unter 900euro) dauert es noch mehrere Jahre. Und wenn das soweit ist dann ist die 1080 oder die Vega64 so alt wie heute die 700er gtx Reihe.

Aktuell beeinflusst das doch wirklich zu unter 1% den den normalo entkunden.
 
  • Gefällt mir
Reaktionen: Lübke82, R00tMaster, yummycandy und eine weitere Person
Ich glaube nicht das da an der Renderpipline gespart wurde, weil selbst meine gestorbene GTX 560Ti448 schon 8-12bit mit den "gleichen" FPS berechnet hat.
Zumindest ist mir Leistungs technisch, nichts bedeutendes aufgefallen.
 
corvus schrieb:
Ein Vergleich mit RX580 und 1060 wäre interessant, evtl. liegt bei der Vega auch einfach nur zuviel Leistung brach, die nun genutzt werden kann.
Kann ich nur Unterstützen. Ist das Verhalten auf anderen Leistungsstufen replizierbar?

eSportWarrior schrieb:
DX12 und HDR zeigen mir nur dass die AMD FineWine™ Technology nach wie vor funktioniert.
FineWine von vor 10 Monaten? Ich dachte das gilt erst ab 2 Jahren. Demnach könnte man ja gleich noch ne R9 390 ggn ne GTX980 zu dem Test hinzufügen.

SavageSkull schrieb:
Was muss den ein Fernseher können, damit man mit dem PC als Quelle HDR nutzen kann?
Kann man HDR einfach so bei den Spielen anschalten, oder muss das Spiel das unterstützen?
Müssen sowohl Fernseher/Bildschirm, evtl dazwischengeschaltete AVRs und das Spiel unterstützen. Die volle Kette eben.
 
  • Gefällt mir
Reaktionen: Mcr-King
Simanova schrieb:
Ich denke Nvidia wird einen Treiberfix nachreichen sobald das Public wird.

nvidia kann nicht alles mit einem "treiberfix" regeln. wenns ein problem mit der software ist: sicherlich.

es könnte aber auch gut sein, dass die 1080 da hardwaretechnisch am limit ist - und der "treiberfix" von nvidia ginge dann eher wieder richtung manipulation. wo soll der treiber was herholen, wo nichts ist?

um aussagen darüber treffen zu können, müsste CB mehr daten liefern. wir brauchen mindestens noch vega 56, rx580, gtx 1060 und gtx 1080 ti um zu schauen, was da passiert.

ggf. verhält sich die 1080 ti ähnlich wie vega 64. oder die vega 56 ähnlich wie die gtx 1080. oder aber es hat tatsächlich mit pascal vs GCN zu tun und radeonkarten schütteln das locker aus dem ärmel, während nvidia hier heftig zu beißen hat.

man könnte mutmaßen, dass radeonkarten hier mehr unabgerufene rechenleistung in der hinterhand haben, die sonst nicht richtig genutzt wird - allerdings gilt das nur für den teil des parkours, der aus "pro nvidia" titeln besteht. in star wars battlefront 2 performen die radeonkarten ungemein gut, kann man hier wirklich noch davon ausgehen, dass die karten nicht richtig ausgelastet werden? scheint für mich eher unwahrscheinlich.
das deutet tatsächlich darauf hin, dass es entweder etwas mit der architektur oder der engine/implementation oder beidem zu tun hat. in battlefield verliert vega auch keine leistung. das würde schonmal dafür sprechen, dass dice/frostbite engine gut mit radeon funktioniert.

mass effect andromeda ist das einzige spiel, in dem die gtx 1080 keine leistung durch hdr verliert.

der test wirkt so etwas unvollständig.

Mustis schrieb:
Vll einfach auch mal bedenken, dass die 1080 inzwischen deutlich über 2 Jahre alt ist und zum Release HDR noch kein wirkliches Thema war. die Vega hat nen Jahr weniger aufm Buckel.

die aussage funktioniert auch nur so lange, bis die rx580 getestet wurde.
 
  • Gefällt mir
Reaktionen: SlaterTh90, Mcr-King, Axzy und 4 andere
eSportWarrior schrieb:
DX12 und HDR zeigen mir nur dass die AMD FineWine™ Technology nach wie vor funktioniert.
Vll einfach auch mal bedenken, dass die 1080 inzwischen deutlich über 2 Jahre alt ist und zum Release HDR noch kein wirkliches Thema war. die Vega hat nen Jahr weniger aufm Buckel.
 
  • Gefällt mir
Reaktionen: Lübke82 und R00tMaster
Irgendwie traurig das windows und spiele sowie die monitore bzgl hdr jetzt erst langsam aufwachen. Dolby Vision Material auf meinem lg oled sieht sowas von super aus...

Der Acer/Asus ist ja leider noch mehr ne beta version und man wird wohl erst in naechster generation zuschlagen koennen, dann ist die software hoff auch besser optimiert.
 
Zuletzt bearbeitet:
Auf die Frage...

Pille1002 schrieb:
Der Grund für das Verhalten ist unklar
Warum Nvidia-GPUs mit größeren Einbußen als die AMD-Grafikkarten zu kämpfen haben, ist derzeit unklar – auch Nvidia konnte der Redaktion noch keinen Grund dafür nennen.

Was soll man den mehr Analysieren wenn die Entwickler selbst nicht wissen was der Grund ist..
CB guter Job gemacht

... zitiere ich mich mal selbst, weil es hier vermutlich bereits im Thread untergegangen ist und doch eine Diskussionsgrundlage sein könnte:

Faust2011 schrieb:
Hier beim Tone Mapping könnte auch der Unterschied in der Performance herrühren: Bei AMD wird das (spekuliert) compute-intensive Mapping besser auf der AMD-Karte berechnet als bei Nvidia. Ist aber alles pure Spekulation und schlägt in die Kerbe "AMD ist bei Async Compute und der Rohpower von GPUs besser aufgestellt als Nvidia".

AMD rulez :daumen: ;)
 
  • Gefällt mir
Reaktionen: ThePlayer und Thraker
  • Gefällt mir
Reaktionen: derSafran, or2k, ThePlayer und 9 andere
@pilzsammler2002

danke für den hinweis, scheinbar ist das tatsächlich auf die anderen karten übertragbar und amd ist generell besser in hdr als nvidia. interessant :king:

ich zitiere mal die gamestar aus deinem artikel:

In Sachen Bildqualität hat AMD die Nase also insgesamt leicht vorn, gleiches gilt auch für den Einfluss auf die Performance. Während die fps mit der Radeon RX 480 in allen drei Testszenen nur im Bereich von ein bis zwei Prozent sinken, wenn wir HDR aktivieren, liegt der fps-Verlust im Falle von Nvidia eher im Bereich von zehn Prozent.

Das muss zwar nicht in kommenden HDR-Spielen gleichermaßen gelten, zudem ist es denkbar, dass Nvidia die HDR-Performance per Treiber noch optimiert. Aktuell steht AMD bei den HDR-Benchmarks aber klar besser dar, zumal sich unsere Testergebnisse bei kurzen Gegentests mit anderen Grafikkarten (u.a R9 390x, GTX 980) bestätigt haben.
https://www.gamestar.de/artikel/was...dr-auf-dem-pc-ausprobiert,3271227,seite2.html
 
  • Gefällt mir
Reaktionen: Thraker, .Snoopy., LukS und 5 andere
Xood schrieb:
Was mir fehlt, oder wurde das bereits mal irgendwo im Detail erklärt, ist der visuelle Unterschied.
Ich finde es ok wenn HDR Performance kostet, genau so kostet eine höhere Auflösung ja auch Performance.
Aber was bekomme ich denn dafür, ist es besser, was ist schlechter?
Wenn z.B. im Artikel steht das üblich RGB 8 Bit und nun 4:2:2: 10 Bit übertragen werden dann sagt das einmal das wir mehr Farbabstufungen haben, aber gleichzeitig eine Komprimieren. Wie wirkt sich das ganze dann aus?

Nun, das hat etwas mit der Physiologie des Auges zu tun. Auch wenn man realen Informationsverlust in einer Farbe hat, ist dieser weitaus weniger wichtig für den Bildeindruck, als Informationsverlust in der Helligkeit.

Zudem kommen verschiedene Empfindlichkeiten des Auges bei verschiedenen Farben. Zum Beispiel sind wir deutlich mehr auf grüne Farbtöne "eingeschossen" als auf rote oder blaue, da die roten und blauen Zapfen im Auge auch grüne Wellenlängen mit erfassen. Je genauer das Grün dargestellt wird, desto besser unser Eindruck vom Bild.

D.h. für den Bildeindruck sind die folgenden Punkte (absteigende Reihenfolge) wichtig:

Lichtintensität (Gesamthelligkeit) > Grün > Blau > Rot

Also wo komprimiert man jetzt deiner Meinung nach am besten um Datenrate zu sparen ohne dass es einer wirklich mitbekommt? ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1
Mustis schrieb:
Vll einfach auch mal bedenken, dass die 1080 inzwischen deutlich über 2 Jahre alt ist und zum Release HDR noch kein wirkliches Thema war. die Vega hat nen Jahr weniger aufm Buckel.
HDR geht bei Nvidia laut Aussage seit Maxwell (kann auch auf Kepler möglich sein, müsste man testen), bei AMD seit GCN1 (7970 z.B.)
 
  • Gefällt mir
Reaktionen: Ginmarr
Zurück
Oben