Test RX 5700 (XT) und RTX 2070 Super: Overclocking, Undervolting und PCIe 4.0 im Test

bigfudge13 schrieb:
Genau darum gehts doch.
Hier ist aber der Vergleich unfair. 12nm + HW-RT gegen 7nm ohne HW-RT. RDNA ist wenn man das berücksichtigt genauso ineffizient wie Polaris/GCN. Das verdeutlicht dieser Test umso mehr.

Fraggball schrieb:
abgesehen davon kommt weder Nvidia noch AMD in dem test schlecht weg...beide Produkte sind momentan top.
Sehe ich nicht so, da AMD den Fertigungsvorteil hat und auch kein HW-RT hat. Deine Aussage kann ich unterschreiben wenn man nur dass sieht, was derzeit auf dem Markt ist, aber nicht von der technischen Seite her und was die Zukunftsaussichten sind.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Wolfgang schrieb:
Die 1,125 Volt beziehen sich auf die Einstellung im WattMan.
Ich hab nach dem Takt gefragt, dieser ist in Spielen ja niedriger als im Wattman.
 
Fraggball schrieb:
vor allem stimmt es noch nichtmal...es wurde eine der besten custom AMD karten gegen die FE gestestet. man kann davon ausgehen das auch die AMD karte gebinnt ist.
Überhaupt den Artikel gelesen? Die Nitro wurde nur beim OC bedacht, beim UV hingegen gar nicht verwendet.
Die hier getestete AMD Referenzkarte hat auf jeden Fall einen schlechten Chip (siehe meinen Post auf Seite 1), da ist garantiert nichts selektiert.
 
  • Gefällt mir
Reaktionen: Qonqueror, McTheRipper, KlaraElfer und 2 andere
Danke für den Artikel.

Ich denke mal, über die nächsten Jahre werden sich die Geldbeutel eher für effizientere gpus und CPUs öffnen.

Wenn man mal steigende Strompreise im Hinterkopf behält.

🌻
 
Danke an Wolgang, der wieder mal als Erster etwas Licht ins Dunkel bringt.

Bei Navi ist 2014@1125mV evtl. eff. 1131,25mV lt. GPU-Z.
Einige Chips scheinen eine Spannungsstufe(6,25mV) höher zu springen als eingestellt.
Muss net bei Jedem sein - halt mal checken, ggf. 1mV weniger nehmen.

1998@1061...1080...1092mV sollte bei den Meisten laufen und ist viel effizienter.
Evtl. mal den min.Wert und den Mittelwert in der Kurve etwas anheben=stabiler.
 

Anhänge

  • Davidwigald.png
    Davidwigald.png
    51,2 KB · Aufrufe: 459
  • Voltage_svi2.PNG
    Voltage_svi2.PNG
    478,5 KB · Aufrufe: 475
  • Taichi@Ghettomod.PNG
    Taichi@Ghettomod.PNG
    1,3 MB · Aufrufe: 477
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rumpeLson
Meine 2070 ohne Super läuft mit 71% Powertarget mit Undervolting bei 1-2% weniger Leistung als Stock. Den Leistungsverlust merke ich nicht, aber die 50W die die Karte weniger frisst schon. Unhörbar und Temperaturen dauerhaft unter 65°C :daumen:

Kann also nur jedem raten sich damit mal zu beschäftigen
 
  • Gefällt mir
Reaktionen: Corpus Delicti, Alex1966 und NMA
Zero_Point schrieb:
Hier ist aber der Vergleich unfair. 12nm + HW-RT gegen 7nm ohne HW-RT. RDNA ist wenn man das berücksichtigt genauso ineffizient wie Polaris/GCN. Das verdeutlicht dieser Test umso mehr.
Finde ich jetzt nicht. RDNA hat sich deutlich verbessert im vergleich zu GCN. die neue architektur arbeitet bei den von AMD angedachten taktzahlen in eniem absolut akzeptablen Rahmen.
an die Effizienz einer 2070 super kommt sie nicht ran, aber das ist auch nicht notwendig um ein gutes und effizientes produkt zu sein.
wenn man das letzte bisschen takt rausquetschen will fängt die karte halt an zu saufen, aber warum sollte man das machen? der fps mehrwert ist wohl kaum spürbar.
 
  • Gefällt mir
Reaktionen: Flomek, brainDotExe und NMA
RDNA ist etwas effizienter als GCN. Alleine das Managements des Registerfiles dürfte was gebracht haben, dazu die Verbesserungen bei den Caches. Leider fährt AMD mit Navi sehr hohe Taktraten, was die Karten wieder deutlich ineffizienter macht. Der Großteil der Effizienzsteigerung kommt allerdings vom 7nm Prozess.

Fraggball schrieb:
RDNA hat sich deutlich verbessert im vergleich zu GCN

Deutlich würde ich jetzt nicht sagen. Mit UV bekommt man eine 5700XT auf 180-200 Watt Verbrauch. Eine Radeon VII auf 220-240 Watt, wobei die R7 im Mittel 6-7% schneller ist.
 
  • Gefällt mir
Reaktionen: KlaraElfer und NMA
Zero_Point schrieb:
Hier ist aber der Vergleich unfair. 12nm + HW-RT gegen 7nm ohne HW-RT. RDNA ist wenn man das berücksichtigt genauso ineffizient wie Polaris/GCN. Das verdeutlicht dieser Test umso mehr.
Ich bezog mich rein auf diese Aussage von dir:
Damit sollte endlich klar sein, dass AMD-Karten nicht mehr UV-Potential haben als Nvidia-Karten.
Bei Navi stimmt das, bei GCN war das nicht der Fall. Wie du schon geschrieben hast, wird das durch diesen Test nur verdeutlicht.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Zero_Point
Hervorragend!
Diese Zusammenfassung von Informationen zum Thema PCIe, UV und OC aktueller Mittelstands Hardware, ergibt ein gar wunderbar abgerundetes, in würde abgeschlossenes Gesamwerk und damit einen vortrefflich zierenden Abschluss zur Navi Test Reihe.

Meinen ergebensten Dank für die Sachlichkeit und Mühen.
 
  • Gefällt mir
Reaktionen: Alex1966
Fraggball schrieb:
vor allem stimmt es noch nichtmal...es wurde eine der besten custom AMD karten gegen die FE gestestet. man kann davon ausgehen das auch die AMD karte gebinnt ist.

xexex schrieb:
Du hast den Test gelesen?

lesen hilft tatsächlich:

Das überprüft die Redaktion anhand der Referenzmodelle beider Navi-Varianten. Bei Nvidia hält für die Tests erneut die GeForce RTX 2070 Super Founders Edition her. Das Ziel der Testreihe ist es, die Spannung so niedrig wie möglich einzustellen, ohne an den voreingestellten Taktraten etwas zu ändern.

zudem wird turing seit einem jahr genau so produziert. die navi referenzkarten sind sprichwörtlich das erste navi silizium, das aus der fabrik kam. die siliziumqualität steigt ebenfalls mit der reife des prozesses.

extremes beispiel ist die fury - ebenfalls tsmc. die ersten karten haben quasi kein oc über standardtakt geschafft - meine fury (eine der letzten) läuft mit standardspannung auf 1150 mhz.

ich will damit die wahl der redaktion, die referenzkarten zu testen, nicht in frage stellen - das macht auf jeden fall sinn, denn es ist die "referenz" - vorallem im bezug auf die power limits sinn. allerdings ist es auch so, dass der vergleich keine generellen schlüsse zulässt, aus oben genanten gründen.
 
Zuletzt bearbeitet:
Ok, also max satte 0.5 FPS mehr durch PCI-E 4.0 - wozu genau braucht man jetzt nochmal ein X570 Board ? :D
 
ZeroStrat schrieb:
@Wolfgang Ich habe jetzt im Artikel dazu nichts gefunden. Bitte teeren und federn, falls dem doch so ist... Habt ihr die Auswirkungen von PCIe 4.0 auf den Input Lag untersucht? Eigentlich müsste sich das schnellere Interface auch auf die Latenzen auswirken?!

Du musst nicht geteert werden, das haben wir nicht getestet.
Das ist halt auch nicht ganz trivial. Ich weiß, OCAT bietet da eine Möglichkeit, aber das ist ja auch nur ein Wert, der für einen gewissen Teil der Rendering-Pipeline gilt und so manches noch auslässt.

zeedy schrieb:
Ich hab nach dem Takt gefragt, dieser ist in Spielen ja niedriger als im Wattman.
Auch bei dem Takt handelt es sich um den in WattMan eingestellten Wert. Wie du richtig sagst, ist der in einem Spiel dann etwas niedriger.
Ergänzung ()

anexX schrieb:
Ok, also max satte 0.5 FPS mehr durch PCI-E 4.0 - wozu genau braucht man jetzt nochmal ein X570 Board ? :D
Für M.2-SSDs :p

Weil das Thema bereits kurz aufgekommen ist:
Die Unterschiede, über die die PCGH durch PCIe 4.0 berichtet, kann ich hier nicht nachvollziehen. Daran ändern auch andere Auflösungen nichts.
 
  • Gefällt mir
Reaktionen: Che-Tah, Wüstenfuchs89, KlaraElfer und 3 andere
Enurian schrieb:
Überhaupt den Artikel gelesen? Die Nitro wurde nur beim OC bedacht, beim UV hingegen gar nicht verwendet.
Die hier getestete AMD Referenzkarte hat auf jeden Fall einen schlechten Chip (siehe meinen Post auf Seite 1), da ist garantiert nichts selektiert.
den artikel gelesen habe ich, danke für den unfreundlichen hinweis!
du hast recht ja, das ist mir nicht aufgefallen. ich halte es aber auch für relativ irrelevant da sich die unterschiede in grenzen halten.
desweiteren ist es auch bei der super serie nicht mehr so als gäbe es noch A und non-A chips.
ich bin mir nicht sicher ob es bei den neuen turing chips noch nötig ist so aggressiv zu binnen wie zu a und non-a zeiten.
ich denke also das ergebnis ist trotzdem aussagekräftig und würde sich bei "besseren" chips nur minimal verschieben.
der Test an sich ist gut gemacht und passt für mich, dieses herumreiten auf kleinigkeiten ist ein bisschen lächerlich. wir reden im zweifelsfall über minimale einstellige prozentuale veränderungen.
 
Wolfgang schrieb:
Das ist halt auch nicht ganz trivial. Ich weiß, OCAT bietet da eine Möglichkeit, aber das ist ja auch nur ein Wert, der für einen gewissen Teil der Rendering-Pipeline gilt und so manches noch auslässt.

Jefferson von Intel hat mir einen Trick verraten, wie man aus den Records den Input Lag schätzen kann. Ich werde das in die nächste Version von CX integrieren. Die Schätzung bezieht sich auf den Teil der Render-Pipeline, in dem PCIe enthalten ist.
 
  • Gefällt mir
Reaktionen: NMA
duskstalker schrieb:
lesen hilft tatsächlich:

Dann lese auch zu Ende! Was hat das UV gebracht? 2%! Letztendlich also irrelevant. Egal ob man bei AMD mit der besten Partnerkarte getesten hätte oder mit der schlechtesten.

OC wurde hingegen mit der Nitro getestet, aus den von Wolfgang genannten Gründen.
Bei den Grafikkarten kamen das Referenzdesign der Radeon RX 5700 und der GeForce RTX 2070 Super zum Einsatz. Bei AMDs schnellstem Navi-Ableger wurde hingegen die Sapphire Radeon RX 5700 XT Nitro+ ausgewählt. Der Grund: Das Kühlerdesigns der XT-Variante hat im Referenzdesign beim Übertakten seine Probleme.
 
Dasbaum42 schrieb:
Sehr schöner Artikel, ich denke ich sollte mich mit dem Thema UV doch noch einmal beschäftigen. Für das "zocken zwischendurch" 18 % weniger Leistungsaufnahme, macht aufs Jahr gesehen schon viel aus.

Wenn du schon nur zwischendurch zockst, dann sind die 18% ein paar Euros. Ich kaufe keinen V12 damit ich einen Verbrauch von 4l/100km habe und 6 Zylinder abschalte.
 
ZeroStrat schrieb:
Jefferson von Intel hat mir einen Trick verraten, wie man aus den Records den Input Lag schätzen kann. Ich werde das in die nächste Version von CX integrieren. Die Schätzung bezieht sich auf den Teil der Render-Pipeline, in dem PCIe enthalten ist.
Klingt gut - schaue ich mir dann vielleicht mal an, wenn die Zeit dafür da ist :)
 
  • Gefällt mir
Reaktionen: ZeroStrat
Häschen schrieb:
finde ich nicht, es sei denn du spielst 10 Stunden täglich.
Und wenn du nur zwischendurchspielst machen 18% weniger Leistungsaufnahme vielleicht 5-8€ aus.

Mit "zwischendurch" war eher der Anspruch gemeint, den ich ans Spiel habe. Also Titel die nicht 105% Leistung brauchen um 144 FPS zu leisten. Mein Fehler bei der Ausdrucksweise. Aber selbst 5-8 € mehr in der Tasche? warum nicht. Die Umwelt dankt es uns auch.

Nachtrag:

Von der Abwärme und Lautstärke mal völlig abgesehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fp69, Alex1966 und Häschen
Eigentlich fehlen nur noch die aktuellen Neu-Preis-Angaben der jeweiligen Karten, dann sieht man ganz leicht welches die bessere Karte ist.


Wer auf Preis/ Leistung achtet ist bei AMD besser aufgehoben.

Auch wenn man sich dann mit Treiberproblemen rumärgern darf :p
 
Zurück
Oben