Test Schöner Spielen mit HDR: Benchmarks zeigen geringere Leistung auf AMD und Nvidia

GerryB schrieb:
@hoshi
Die techn. Erklärung für die Pascalschwäche ist die für HDR10 nicht zulässige Farbkompression.

Also sehe ich das richtig?
-Farbkompression ist in HDR-10 nicht zulässig und wird daher deaktiviert bzw. muss dekomprimiert werden (kam von dir).
Zusätzlich muss HDR wegen hoher Bit-Anforderung für Nvidia in FP32 die Extrarunde drehen, während AMD das über die FP64-/compute-einheiten macht. Die Radeons verlieren damit weniger bis keine Leistung. (kam von @Iscaran )

Das wäre jedoch keine Schwäche von Pascal, sondern eine Stärke von AMD in genau diesem Szenario. Womoglich aus der Entwicklungserfahrungen aus den HDR-fähigen Konsolen.

Der Unterschied kommt dem zufolge nicht wegen Rohleistung, wie hier im Thread oft behauptet, sondern aus einer Kombination verschiedener Umstände. Zumindest eine Richtung, in der man suchen kann.

GerryB schrieb:
Letztes Bsp. zur Erfahrung:
Crysis läuft im Fenstermodus mit HDR. (wieviele Jahre alt ? )
Ich gehe davon aus, daß die Programmierer und Grakahersteller genügend Zeit und Erfahrung hatten.

Crysis kam 2007 und war vor seiner Zeit (Techdemo!). Man konnte das Spiel nicht einmal mit moderaten Einstellungen ohne Multi-GPUs spielen, soweit ich mich erinnere. HDR war da eher eine Nebensächlichkeit.

Erst 2013 mit Crysis 3 wurde HDR das erste mal wirklich werbetechnisch beworben und ist durch alle Tests gegangen. Tragischerweise ist Crytek danach fast zugrunde gegangen. Ansonsten hatten die Entwickler am Spielemarkt wenig Erfahrung damit.

Die Fehlende Rohleistung der damaligen GPU-Generation war auch ein Problem. Denk an die R9-290X und die GTX980. Klar, die GPUs haben HDR in der Featureliste. Meiner Meinung war das eher für die Fotographie-Seite der Anwender.

Dir wird auffallen, dass AMD erst Polaris ernsthaft mit HDR wirbt. Das ist kein Zufall! Dieselbe Architektur steckt auch in den next-gen Konsolen und auffällig viele HDR-Spiele sind im AMD Gaming Evolved programm (Deus EX:HR, Hitman & co.).

Schelte müsste leider an Microsoft und Sony gehen, da sie HDR für die Konsolenports blockiert hatten. Berühmte Beispiele sind Forza 3 und Gears of War.

GerryB schrieb:
Lederjacke hat bewusst gespart an der Bandbreite und versucht zu tricksen. (MEA mit Half16)

Kann man so nicht pauschal sagen. Die Bandbreite zu sparen und technisch anderswo zu kompensieren ist was Pascal den Perf-/Wattvorteil bringt. Vergiss nicht, Vega krebst bei ähnlicher Leistung je nach Takt irgendwo bei 300-400W herum. Und das trotz fortschrittlichem HBM2.

AMD wird auch die Bandbreite hochgehalten haben, weil GCN als Architektur prinzipiell daran hängt und abhängig ist.

Die FP16 kamen von Nvidia auch nicht zuerst für Gaming, sondern für die Profi-Lösungen. Dort ist Genauigkeit ein großes Thema und mehr Ergebnisse in kürzerer Zeit sind in diesem Bereich immer Willkommen.

GerryB schrieb:
Mir tuen nur die Käufer leid, die demnächst mal wieder wechseln müssen.

Die Spieler rüsten nicht wegen einzelner Features im frühem Stadum auf, sondern weil die Rohleistung in der Regel nicht mehr reicht. Antreiber für Aufrüstwillige ist wohl eher endlich spielbare 4k@60Hz+.

Der Rest interesiert sich für Sprünge von 30 -> 60 FPS oder halt von 60-144 Hz auf den mittleren Auflösungen und höheren Qualitätseinstellungen.

Man darf auch nicht vergessen, dass ein neuer Montor für HDR fällig wird. Ich glaube die Gamer rüsten lieber zuerst ihre Grafikkarte auf, bevor sie an eine Erweiterung nachdenken.
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Kann man so nicht pauschal sagen. Die Bandbreite zu sparen und technisch anderswo zu kompensieren ist was Pascal den Perf-/Wattvorteil bringt. Vergiss nicht, Vega krebst bei ähnlicher Leistung je nach Takt irgendwo bei 300-400W herum. Und das trotz fortschrittlichem HBM2.
Ich finde es schlimm das sowas immernoch behauptet wird... Wer sich etwas mehr mit Vega beschäftigt ausser 08/15 "Turbo Bios Tests" zu lesen wird schnell merken das man Vega durchaus (grob je nach Güte) auf die Effizienz von Pascal bekommt... Bei mir selber zieht der PC bei nichtmal 5% leistungsverlust (1450mhz boost und 1050mhz HBM) immer unter 250w (Witcher 3)... Da sind 2 HDDs, 2 SSDs, und nen Ryzen 1700x drin... Die Sapphire Nitro+ läuft bei mir auch im Witcher 3 fast durchgehend Passiv...
 
Zuletzt bearbeitet:
Mich würde interessieren wie eine Titan V mit HDR performt. Das Bandbreitenproblem sollte dort ja nicht bestehen.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi und Iscaran
GerryB schrieb:
@Mustis
Für die Konsolen ist 8-bit+FRC statt 10-bit wg. HDMI-Bandbreite nicht anders möglich gewesen.

Schönes WE.

ABER Vorsicht !
Das Rendering selbst erfolgt auch hier in 10bit ! Nur für die Übertragung wird es dann mittels tone mapping von 10bit auf 8bit + FRC runtergebrochen, damit das noch durchs HDMI 2.0 oder 1.4 passt (weiss die genaue HDMI nummer grad nicht auswendig).

Das ist ein Unterschied ! Denn wenn die GPU nur mit 8bit rendern würde, greift FRC nicht !...FRC macht aus einem 10bit input ein 8bit+zeitsignal für die Pixel um die Datenrate zu reduzieren !

Mit 8bit+FRC führt halt ggf. zu einem leichten Banding. Sollte hier aber nur 8bit oder so gerendert werden dann sollte das nochmals richtig deutlich durch Banding sichtbar werden.
Ergänzung ()

Die Fehlende Rohleistung der damaligen GPU-Generation war auch ein Problem. Denk an die R9-290X und die GTX980. Klar, die GPUs haben HDR in der Featureliste.

Wenn das HDR wirklich IRGENDWIE mit der double precision Leistung korreliert dann sollte eine 290X noch
weniger einbrechen als Vega oder zumindest genauso. Da aber selbst die Polaris Karten ja nicht einbrechen und diese haben nur ca. die halbe FP64 Leistung - gibt es wohl eine "kritische" Grenze.
Und die GTX980 müsste eigentlich sogar noch stärker einbrechen...
https://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units
https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units#GeForce_900_series
Ich nehme m

290X FP64 = 704 GFlops
RX580 FP64 = 362 - 386 GFlops
Vega64 FP64 = 638 - 792 GFlops
GTX980 FP64 = 144 - 163 GFlops
GTX1080 FP64 = 257 - 288 GFlops

Hier wäre in der Tat mal ein Vergleich mit einer Titan V interessant:
Titan V FP64 = 6144 GFLops !
 
Zuletzt bearbeitet:
Iscaran schrieb:
Wenn das HDR wirklich IRGENDWIE mit der double precision Leistung korreliert dann sollte eine 290X noch
weniger einbrechen als Vega oder zumindest genauso. Da aber selbst die Polaris Karten ja nicht einbrechen und diese haben nur ca. die halbe FP64 Leistung - gibt es wohl eine "kritische" Grenze.
Und die GTX980 müsste eigentlich sogar noch stärker einbrechen...
https://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units
https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units#GeForce_900_series
Ich nehme m

290X FP64 = 704 GFlops
RX580 FP64 = 362 - 386 GFlops
Vega64 FP64 = 638 - 792 GFlops
GTX980 FP64 = 144 - 163 GFlops
GTX1080 FP64 = 257 - 288 GFlops

Wäre zwar möglich, aber ich glaube eher AMD jagd die HDR-Tasks durch die Hardware-Scheduler. Seit Polaris hat die Anzahl und Fähigkeit dieser Einheiten im GPU-Die stark zugenommen. AMD hätte in neueren Genertionen also mehr als Hawaii und Polaris & Co. würde das direkte Geschwisterduell gewinnen.

Sobald diese Hardware-Teile in der GPU und die FP64-Einheiten voll ausgelastet sind, könnten weitere HDR-Tasks dann eine Überlastung auch bei den Radeons erzeugen, die dann zu den seltenen Einbrüchen bei AMD führen.

Vega hingegen ist wegen HBM2 ein Sonderfall. Das macht unter anderem die Bandbreitenbetrachunt schwieriger. Im Thread wurde bereits vorgeschlagen den Speichertakt testweise zu senken.

Iscaran schrieb:
Hier wäre in der Tat mal ein Vergleich mit einer Titan V interessant:
Titan V FP64 = 6144 GFLops !

Ja, die Titan-V wäre tatsächlich interessant. Ich meine die 12GB HBM2 dürften in Sachen Bandbreite weniger bremsen als die 11GB GDDR5X. Wie optimiert ist diese Monsterkarte für Gaming/HDR? Falls keine oder kaum optimierung vorliegt, könnt man trotzdem sehen wie gut Volta anhand seiner Rohleistung und Technik mit HDR umgehen kann.

pilzsammler2002 schrieb:
Ich finde es schlimm das sowas immernoch behauptet wird... Wer sich etwas mehr mit Vega beschäftigt ausser 08/15 "Turbo Bios Tests" zu lesen wird schnell merken das man Vega durchaus (grob je nach Güte) auf die Effizienz von Pascal bekommt... Bei mir selber zieht der PC bei nichtmal 5% leistungsverlust (1450mhz boost und 1050mhz HBM) immer unter 250w (Witcher 3)... Da sind 2 HDDs, 2 SSDs, und nen Ryzen 1700x drin... Die Sapphire Nitro+ läuft bei mir auch im Witcher 3 fast durchgehend Passiv...

Erzähl keine Märchen.
Vega56 Vega64 alleine zieht bereits stark optimiert mit "Stromsparsbios" mindestens 250W unter Last. Deine Werte schaffst du nicht einmal mit Polaris. Die RX580 beispielsweise zieht schon 190-220W unter Last (nur Grafikkarte), wobei Vega wesentlich durstiger ist.

Dein Gesamtsysem geht wohl eher in Richtung 400W. Schau dir den Test von Gamestar an, bevor du mir nichts glaubst.

https://www.gamestar.de/artikel/amd...tigste-vega-karte-im-test,3318709,seite4.html
 
Zuletzt bearbeitet: (Falsches Vega-Modell korrigiert!)
Hardware_Hoshi schrieb:
Erzähl keine Märchen.
Vega56 alleine zieht bereits stark optimiert mit "Stromsparsbios" mindestens 250W unter Last. Deine Werte schaffst du nicht einmal mit Polaris. Die RX580 beispielsweise zieht schon 190-220W unter Last (nur Grafikkarte), wobei Vega wesentlich durstiger ist.
Wow... Toller Beitrag, bestätigt meine Aussage ja sogar...
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=585818

Erst bitte lesen bevor du noch mehr postest bezüglich Vega...
 
pilzsammler2002 schrieb:
Wow... Toller Beitrag, bestätigt meine Aussage ja sogar...
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=585818

Erst bitte lesen bevor du noch mehr postest bezüglich Vega...

Muss schwierig zu verarbeiten sein, wenn selbst eine Stock 1070/1080 frisch aus dem Karton mit gerade installierten Treiber besser sind als deine Hardware mit all dem betriebenem Aufwand.

Und ja, manche User gewinnen in der Chiplotterie und posten das danach in diversen Foren. Das macht die Ausnahme noch lange nicht zur Regel. Komm wieder wenn Vega das ab Werk kann, wie es sich gehört. Wird zwar nicht so schnell passieren, aber OK.

HDR ist der erste Lichtblick für die AMD/Vega-Fraktion. Ändert jedoch nichts an der Tatsache, dass Vega nach wie vor Rohleistung fehlt bzw. diese generell nicht nutzen kann.

Für 4k-HDR fehlt da leider ein bißchen. Ich hoffe daher auf baldige neue GPU-Upgrades auf beiden Seiten. Sollten diese dann HDR und andere Features besser können - ideal!

Dafür müssen sich zuerst einmal die Monitorhersteller beeilen. Ein paar teure quasi-Prototypen am Markt verleiten kaum jemandem zum Upgrade. Das gilt übrigens für Freesync und G-Sync.
 
Vor allem beim Stromverbrauch des GSync HDR krampf danke, zu teuer Lüfter im Monitor was kommt demnächst, eine Wasserkühlung im Monitor ganz großes Kino was NV da macht. 👍

Davon abgesehen ist die GTX10** Reihe ein parade Beispiel für Murks sage Nur noch GTX1050 2/3 GB GTX1060 3GB.

Genau wie es immer noch GTX1060 mit GP04 giebt.
 
Hardware_Hoshi schrieb:
Erzähl keine Märchen.
Vega56 alleine zieht bereits stark optimiert mit "Stromsparsbios" mindestens 250W unter Last. Deine Werte schaffst du nicht einmal mit Polaris.
Mit diesem Beitrag hast du doch jetzt schon bewiesen daß du Vega Tests nicht mal ansatzweise gelesen hast...
Die 56 hat ne Stock Powerlimit von 230w... Und sie zieht auch nicht mehr als 230w (siehe die Test unteranderem hier auf Computerbase)
Und nen standard Powerlimit ist nicht stark optimiert wie du es hier darstellst...
 
Ach dass ist einer aus der Fraktion Konsolen (PCler) der weiss warscheinlich nicht mal wie man richtig OC betreibt. Natürlich dafür sind ja Intel und NV beliebt ein schalten und genießen nix OC, UV und CO noch nicht mal einen Treiber zum Optimieren haben sie, vom Spam und überwachen rede ich erst gar nicht.
 
Mcr-King schrieb:
Vor allem beim Stromverbrauch des GSync HDR krampf danke, zu teuer Lüfter im Monitor was kommt demnächst, eine Wasserkühlung im Monitor ganz großes Kino was NV da macht. 👍

Beim Preis bin ich noch dabei. Pioniertechnik war bei TVs und Bildschirmen immer unrealistisch teuer. Die Hitze der neuen G-Sync HDR-Geräte kommt aber nicht vom Modul, sondern weil die neue Hintergrundbeleuchtungs für die LEDs eine Menge Wärme abgibt.

Das ist halt der Nachteil für die 1. Generation mit 1000 Nits Strahlkraft. Ist mitunter ein Grund warum man kein oder kaum Fernseher mit Dolby Vision und maximal möglichen 10.000 Nits sieht.

Mcr-King schrieb:
Davon abgesehen ist die GTX10** Reihe ein parade Beispiel für Murks sage Nur noch GTX1050 2/3 GB GTX1060 3GB. Genau wie es immer noch GTX1060 mit GP04 giebt.

Beides sind jedoch keine 500-600€ Karten wie Vega, die trotz ihres hohen Preises ein einziger technischer Flop ist. Bei Wärme und Stromverbrauch wäre ich gerade bei Vega vorsichtig. Jeder weiß wie unterentwickelt diese Architektur in ihrer momentanen Form ist. Es handelt sich nicht umsonst um die Achillesverse von AMDs moderner GPU-Generation. Jeder weiß das!

Ich habe bisher keine Test bezüglich des Verhaltens von Vega bei HDR unter Last gesehen. Würde mich nicht wundern, wenn die Karten dadurch heißer und stromhungriger werden. Hoffentlich kommen demnächst intensive Langzeittests, in denen wir dieses Verhalten bis ins kleinste Detail unter die Lupe nehmen.

Das war bis jetzt jedenfalls nicht auf der Liste bei Reviews.

@pilzsammler2002
Ja, habe erst später gemerkt, dass es um Vega 56 geht. Dachte zuerst an die Vega 64. Es ändert trotzdem nichts an meiner Aussage bzw. macht es sogar nich schlimmer. Für die Leistungsklasse ist das nicht gerade berauschend! Da fehlt sogar mehr Rohleistung für 4k-60 FPS HDR.
Ich hoffe AMD bringt möglichst bald einen würdigen Nachfolger für Vega. Ewig wird das nicht mehr reichen!
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Ich habe bisher keine Test bezüglich des Verhaltens von Vega bei HDR unter Last gesehen. Würde mich nicht wundern, wenn die Karten dadurch heißer und stromhungriger werden. Hoffentlich kommen demnächst intensive Langzeittests, in denen wir dieses Verhalten bis ins kleinste Detail unter die Lupe nehmen.

Das war bis jetzt jedenfalls nicht auf der Liste bei Reviews.
Wir reden doch gerade darüber. Oder hast du diesen Test garnicht gelesen :O

Hör doch jetzt bitte auf Vega sinnlos zu bashen... Und nein Vega ist nicht der Megafail... Siehe APUs... Oder sind die auch zu stromhungrig :)

Kleine Anekdote:
Ich dachte meine Karte wäre ein Golden Sample als ich sie so stark undervolten konnte. Nach dem Lesen von mehreren Threads kristallisierte sich raus das ich eher im Mittelfeld bin (die LC hat bessere "Chips" so wie es aussieht) Es ist also keine Ausnahme oder Wunder ne Vega auf +-130w Asicpower zu bekommen...

Edit:
Es geht bei mir und den anderen auch um die 64... Kollege und ich haben die Ergebnisse auch verglichen mit dem gleichen Strommessgerät (er hat ne 1080)... Es ist leider wahr das Vega mit etwas weniger Takt/vcore Unmengen weniger Strom benötigt...
 
Zuletzt bearbeitet:
pilzsammler2002 schrieb:
Wir reden doch gerade darüber. Oder hast du diesen Test garnicht gelesen :O

Welchen Test meinst du?

In dem HDR-Test von Computerbase findet man nichts darüber. Andere Tests kann man nicht pauschal vergleichen.

pilzsammler2002 schrieb:
Hör doch jetzt bitte auf Vega sinnlos zu bashen... Und nein Vega ist nicht der Megafail... Siehe APUs... Oder sind die auch zu stromhungrig :)

Vega gehört bis zum Ende aller Zeiten gebasht! Das ist bisher die größte Enttäuschung, die AMD jemals abgeliefert hat. APUs sind keine dedizierten Grafikkarten. Ohne HBM ist Vega nichts!

pilzsammler2002 schrieb:
Kleine Anekdote:
Ich dachte meine Karte wäre ein Golden Sample als ich sie so stark undervolten konnte. Nach dem Lesen von mehreren Threads kristallisierte sich raus das ich eher im Mittelfeld bin (die LC hat bessere "Chips" so wie es aussieht) Es ist also keine Ausnahme oder Wunder ne Vega auf +-130w Asicpower zu bekommen...

Ja, gerade die Angeber mit ihrem goldenenSample sagen das immer bei jeder neuen Generation. Ich kann dir garantieren du bekommst dasselbe nicht mit 10 verschiedenen Vegakarten hin. AMD ist ja nicht blöd. Die Jungs machen das, weil sie eine extreme Spanne bei der Chipgüte innerhalb der Produktion haben.

Eine Karte beim Enduser bis kurz vor die Verstümmelung zu zerfrickeln spricht nicht gerade von hoher Ingenieurskunst. Wie gesagt, wenn das alles ab Werk bei Vega so funktioniert, können wir gerne erneut darüber reden. Vorher wäre ich mit solchen Aussagen weiterhin vorsichtig!
 
pilzsammler2002 schrieb:
Erst bitte lesen bevor du noch mehr postest bezüglich Vega...

Nun ja, was man lesen und sehen kann ist, daß in diesem Thread hauptsächlich immer die selben 5 bis 6 User schreiben. Mit Vega 56/64 kann man sicher Problemlos auch Out of the Box spielen und Bastler die Stunden
für das beste Setting investieren, holen dann nochmal einiges mehr aus der Karte, aber von den paar Leuten
wird AMD sicher nicht reich. Nüchtern betrachtet scheint Vega56/64 kein Verkaufsschlager zu sein, Mindfactory hat in den knappen Jahr seid dem Release von Vega gerade mal ca. 1500 Karten verkauft, liegt vielleicht auch an den hohen Preisen und schlechter Verfügbarkeit, die während des Mining-Boom herrschte.
 
Es ging mir ja auch nur um die Pauschalaussage das Vega viel zuviel zieht...
Und Abseits des 3dcenters gibt es ja noch andere Threads (Reddit etc.)
Wenn man sich anschaut (wie im Cbase test) das Vega64 standard im PowerSafe (was anderes macht eh kein sinn) 209-224w (Bios 1/2) verbaucht und ne 1080 zieht 180w, dann sieht man das die beiden gar nicht so weit auseinander liegen.
Das Problem ist ja auch das Vega sich komplett anders verhält (eingestellt wird) als z.B. Polaris, deshalb sind die Undervolting tests (Cbase oder Tmshw) auch eher "oc". Normalerweise musste das Powerlimit beim undervolten ja nicht erhöhen :D
 
pilzsammler2002 schrieb:
Es ging mir ja auch nur um die Pauschalaussage das Vega viel zuviel zieht...
Und Abseits des 3dcenters gibt es ja noch andere Threads (Reddit etc.)
Wenn man sich anschaut (wie im Cbase test) das Vega64 standard im PowerSafe (was anderes macht eh kein sinn) 209-224w (Bios 1/2) verbaucht und ne 1080 zieht 180w, dann sieht man das die beiden gar nicht so weit auseinander liegen.
Das Problem ist ja auch das Vega sich komplett anders verhält (eingestellt wird) als z.B. Polaris, deshalb sind die Undervolting tests (Cbase oder Tmshw) auch eher "oc". Normalerweise musste das Powerlimit beim undervolten ja nicht erhöhen :D

Blödsinn!
Die 1080 und die Vega-Karten sind weiter auseinander als du glaubst!
Rechnet man den Unterschied von 8GB GDDR5X gegen 8GB HBM2 heraus, liegen da im Verbrauch Welten dazwischen. Hätten die Karten denselben Speicher würde man deutlicher sehen. Vega schafft es nicht einmal mit HBM gleich zu ziehen. Mach dir also keine Illusionen!

Die Diskussion macht jedoch keinen Sinn, da GP104 nicht nur schneller, sondern auch billiger ist als die überteuerten Vega-Karten. Noch dazu geht Pascal bald EOL und wahrscheinlich in den Abverkauf, während Vega noch bis zu einem Jahr bis zur Ablöse durchhalten muss.

Unabhängig davon wie sich HDR entwickelt, dürfte Vega einfach zu wenig Rohleistung haben um diese Zeit zu überstehen. Das nächste große Spiel mit gehobener grafischer Anforderung wird es zeigen. Die Rohleistung reicht jetzt schon nicht für 4k mit ein paar Qualitätseinstellungen.
 
Mcr-King schrieb:
Vor allem beim Stromverbrauch des GSync HDR krampf danke, zu teuer Lüfter im Monitor was kommt demnächst, eine Wasserkühlung im Monitor ganz großes Kino was NV da macht.
Punkt 1: Das ist nicht Nvidia, das ist Asus/Acer...
Punkt 2: AMD hat auf dem Niveau, auf dem der aktuelle G-Sync HDR Chip läuft, kein vergleichbares Modell. Aus gutem Grund, technisch ist es anders (derzeit oder vll. generell) nicht umsetzbar, die benötigte Rechenleistung ist sehr hoch. AMD setzt unter anderem auch deshalb seinen Standard tiefer für sein Freesync 2 HDR, weil es den Aufwand an die Hardware und die technische Umsetzung deutlich senkt.
Punkt 3: Deine oft falschen, immer stark einseitigen Aussagen langweilen.
 
Hardware_Hoshi schrieb:
Blödsinn!
Die 1080 und die Vega-Karten sind weiter auseinander als du glaubst!
Oh dann haben die ganzen Tester (Computerbase, Tomshardware, PCGH etc.) ja Blödsinn getestet... (Es geht nicht um das Turbo bios!)

Ja natürlich ist dein Chip schneller... Ich gehe mal davon aus das du den von Nvidia gesponsort bekommen hast? Anders kann ich mir deine Haltung aktuell nicht erklären...
Das Vega zu wenig Rohleistung hat sieht man ja an HDR... Aber Nvidia wird das schon per Treiber fixen... :freak:
/S

Ich baue regelmäßig Rechner (habe also so gut wie jede Karte ausser Titan mal da gehabt) und wenn die restliche Hardware ungefähr gleich ist, sind da keine "Welten" zwischen...
 
Zuletzt bearbeitet:
pilzsammler2002 schrieb:
Anders kann ich mir deine Haltung aktuell nicht erklären...
Und ich mir deine nicht. Out of the Box ist die Vega keine besonders attraktive Karte. Getunt holt sie auf, keine Frage. Aber auch die 1080 lässt sich tunen. Und dann ist sie ganz objektiv die bessere Karte Overall. Es gibt Szenarien, da ist eine Vega besser. Wer sich innerhalb dieses Szenarios bewegt, wird mit einer Vega glücklicher. Vom P/L kann die Vega aber schlicht nicht mit einer Nvidia derzeit mit halten. Ich meine eine Vega 56 geht bei 509 los, eine 1080 ebenfalls. und die Vega 56, die eine 1080 abhängt, will ich sehen.

PS: Und bitte komm mir jetzt nicht mit den 499€ für die eine Vega 64. Das ist ein Sonderpreis für wenige Tage und das von einem Händler (die einzelnen Shops gehören alle zu einer Unternehmensgruppe...). Sowas gibt es auch für ne 1080 immer mal wieder und geht entsprechend dann tiefer.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi
pilzsammler2002 schrieb:
Das Vega zu wenig Rohleistung hat sieht man ja an HDR... Aber Nvidia wird das schon per Treiber fixen... :freak:

Ich rede nicht nur über die Leistung mit HDR, sondern auch ohne. Du kannst dir ja gerne die Benchmarks selbst anschauen oder sogar selbst testen. Für Vega reicht es jetzt schon nicht für 4k@60 FPS. Durchschnittlich sind sie in Spielen je nach Einstellung bei 40-50 FPS. Je länger Vega am markt ist, desto mehr werden sich diese Werte bei neueren Titeln verschlechtern. HDR macht die Karten ja auch nicht schneller als mit SDR.

Ob Nvidia irgendetwas fixen kann oder will, weiß ich ehrlich gesagt nicht. HDR ist nach wie vor im Pionierstatus. Bis die Technik vollständig am Markt angekommen ist, dauert es sicher noch 2-3 Jahre. Erst müssen die Gamer nach und nach ihre Bildschirme aufrüsten. Mehr gute HDR-Spiele für die breite Masse sind ebenfalls notwendig.

Zieht sich das allerdings wieder ewig hin, wird es AMD mit HDR genau so gehen wie damals mit Tesselation. Können sie ihren Vorteil nicht ausspielen, wird er verpuffen und sie werden wie immer von der Konkurrenz überrollt. Vorher nutzen Siege auf dem Papier nichts.
 
Zurück
Oben