Bericht Grafikkarten 2021 im Test: Leistungsaufnahme moderner GPUs neu vermessen

F1database schrieb:
Wäre ein zusätzlicher Test bzgl Multimonitor noch möglich? An meiner GPU hängt am DP-Ausgang der Monitor und am HDMI Ausgang der AV-Receiver für die Tonanlage.
Ist doch dabei. Erste Grafik, zweiter Reiter. 2x4k im idle ist dabei.
 
  • Gefällt mir
Reaktionen: F1database
Redical schrieb:
@Wolfgang mich würde noch der Verbrauch des Gesamtsystems interessieren. Es kann ja sein, dass man als Hersteller gewisse Workloads auf die CPU schiebt (Stichwort: Nvidia Driver Overhead) und sich damit der GPU-Verbrauch verbessert, das Gesamtsystem durch den höheren CPU-Verbrauch aber nicht effizienter wird (und man evtl. sogar eine schnellere CPU für die gleiche Leistung benötigt), oder? Verbessert mich gerne wenn ich falsch liege oder einen Denkfehler habe.
Ich habe hier zwar keine festen Zahlen parat, aber da hat sich bis jetzt noch nichts auffälliges gezeigt unter Last. Der mit PCAT gemessene Mehrverbrauch tauchte mehr oder weniger so auch immer bei der Messung des Gesamtsystems auf. Ich glaube nicht, dass es da größere Verschiebungen gibt. Zugegeben habe ich das jetzt aber nur bei dem Volllast und nicht dem Teillast-Szenario geprüft.
Erkekjetter schrieb:
Warum das Testfeld eine 2060 und 2070 Super, aber keine 2080 oder 2080 Ti enthält erschließt sich mir nicht ganz. Entweder die gesamte "alte" Generation weglassen oder komplett drin haben. Aber son Mischmasch ist irgendwie unbefriedigend. Vor allem wenn man anderseits auch noch Karten wie ne Vega 64 drin hat....
Die Hardware haben wir durchaus im Büro. Nur ist das ganz ehrlich gesagt vom Arbeitsaufwand nicht realistisch umzusetzen. Ist eine neue Gen vollständig da, wird bei der vorherigen klar reduziert. Wir haben uns bei Turing und RDNA für 2 verschiedene Modelle entschieden. Mehr wird es, wenn überhaupt, nur noch in Einzel-Tests zum Beispiel bei neuen Spielen geben. Ich verstehe, dass das ärgerlich ist. Doch sind AMDs und Nvidias Portfolio so groß, dass da schlicht einiges schnell runterfallen muss.

McFly76 schrieb:
@Wolfgang
Danke für den Test :)
Es wäre schön den FPS-Limiter Test noch mit "75" zu machen um den Stromverbrauch weiter zu reduzieren.
Verstehe ich. Doch würde das eben nochmal mehr Zeit kosten. Schon die neue Testreihe kostet etwas mehr Zeit als die Alte. Da muss man leider Kompromisse eingehen.
Rickmer schrieb:
Das PCAT System kann deutlich mehr als 'nur' 12V Leitungen ;)

@Jan Wenn man noch die Peak-Verbrauchswerte mit angeben könnte, wäre das super. Das ist ja mittlerweile sehr wichtig z.B. bei der Dimensionierung von Netzteilen.
PCAT ist zwar echt super praktisch, misst aber leider nicht schnell genug (alle 100 ms), um Peak-Werte zuverlässig abzubilden. PCAT kann zwar problemlos die Peaks messen, aber eben nur, wenn dann zufälligerweise auch gemessen wird. Das ist leider nicht wirklich zuverlässig, auch bei längeren Messungen nicht. Deswegen verzichten wir da auf größere Vergleiche. Bei neuen Grafikkarten gehen wir normal aber kurz auf die gemessenen Peak-Werte ein.
zeedy schrieb:

Ist der 10900K wirklich schneller als Ryzen 9 in niedrigen Auflösungen, also einfach die schnellere CPU? Wenn das der Fall ist, warum wird der Ryzen dann für Grafikkarten Tests verwendet?
In dem Leistungsaufnahme-Testsystem steckt kein aktueller Ryzen, der 5950X wird im regulären Testsystem für die Benchmarks genommen. Vorher steckte ein Ryzen 7 2700 im Leistungsaufnahme-System.
GerryB schrieb:
Nehmt Ihr nur die 12V oder auch beim PCiE die 3V mit dazu?
(irgendwo stand mal, das NV auch die 3V? mit benutzt, Was dann bei anderen Reviewern schnell mal höhere
Gesamtmesswerte ausmachte)
PCAT nimmt die 12V der PCIe-Stecker und die 12V, 5V und 3,3 V vom Slot. Also alles, was es im Rechner gibt.
Moep89 schrieb:
Das wollte ich eigtl. in meinem Post genau so schreiben. Ist mir durchgerutscht.
3-4 Spiele mit verschiedenen Engines in der aktuellsten oder aktuell häufigst genutzten Version wären optimal. Wir wissen alle wie z.B. die UE4 und AMD zueinander stehen.
DAS würde wirklich erheblichen Mehrwert und eine solide Aussagekraft für die Praxis bedeuten.
Natürlich wären mehr Spiele besser, darüber brauchen wir gar nicht diskutieren. Nur mein guter Endfeind Zeit und Aufwand kommt dann wieder ins Gefecht. Einfach mal so Doom Eternal ausgewählt habe ich aber ja auch nicht, habe mir das FPS-Limit-Verhalten in verschiedenen Spielen angesehen, bevor ich mich am Ende für Doom entschieden habe. Und da zeigten sich dann Ergebnisse, die sahen mal besser für Nvidia und mal noch besser für AMD aus. Doom Eternal liegt da ziemlich genau in der Mitte von dem was ich so gesehen habe, was einer der Gründe für die Entscheidung gewesen ist.
rms schrieb:
Super Test, vielen Dank für Eure Mühe und den stetigen Willen, besser zu werden. Auch wenn ich nicht so sehr auf die Effizienz schaue, bringt die differenzierte Betrachtung einen echten Mehrwert.
Meine Anregung: viele Leute spielen doch sicherlich auch mit guten Systemen (noch) mit 60 Hz, oder? Bei mir ist das jedenfalls der Fall - wäre eine zusätzliche Betrachtung bei 60 Hz nicht auch eine Überlegung wert?
LG rms
Auch hier gilt leider: Siehe oben. Das alles kostet Zeit. Und da dürft ihr nicht vergessen, dass die Testreihen ja nicht nur in einem separaten Test mit theoretisch unendlich viel Zeit (also ohne Zeitlimit) durchgeführt werden müssen, sondern auch in Launch-Reviews, wo es immer viel zu wenig Zeit gibt.
GerryB schrieb:
"der Adrenalin 21.30.11.01 und damit der über Windows Update ausgelieferte AMD-Treiber für Windows 11"

... ist u.U. net die beste Idee!?
Der 21.9.2 wäre deutlich aktueller und unterstützt auch WDDM 3.0.

Nach m.E. gibts momentan ne Pause bei den UWP-Treibern und stattdessen kompatible normale Adrenalin
in kürzeren Abständen.
In gängigen Foren wird deswegen auch der 21.9.2 empfohlen.
Der Test ist nicht in einem Tag entstanden ;) Als ich mit dem Testen angefangen habe, gab es noch länger keinen 21.9.2. Ich glaube der 21.8.1 war da draußen und der war dem Win-11-eigenen Treiber unterlegen.
Thrask schrieb:
Danke für den interessanten Artikel, wäre vielleicht noch etwas anschaulicher, wenn man die tatsächlich erreichte FPS noch irgendwie in den Verbrauchsbalken unterbringen könnte? ist zwar mehr oder weniger in der Performance / Watt Tabelle drinne, aber gerade bei den 144 FPS fänd ich es gut, wenn man sehen könnte ob diese erreicht werden.
In zukünftigen Grafikkarten-Tests ist das was einfacher, da ist Doom Eternal ja einfach in den Benchmarks vorhanden. Für den Artikel kann man einfach in einen alten Test schauen, hier zum Beispiel:
https://www.computerbase.de/2021-06...eview-test/2/#diagramm-doom-eternal-3840-2160
 
  • Gefällt mir
Reaktionen: Redical, baizer, Vitche und 3 andere
Danke @ComputerBase das ist ja großartig. Wollte immer schon mal wissen was die Karten beim tatsächlichen Büroarbriten benötigen: mein PC läuft bis zu 10h täglich, davon 70% zum Arbriten, Surfen, Film schauen - der Rest zum Spielen. Teilweise mit 2. Monitor, wo mir schon bei der alten GPU (5850) aufgefallen ist, dass sobald bei der GPU ein 2. Monitor sngesteckt ist, 50 Watt mehr gebraucht werden. WARUM?
Toller Test also der sowas such mal schonungslos aufdeckt. Auch das Switchen von 2K auf 4K oder 2 Monitore mit hohen FPS...
Für mich ist immer noch unerklärlich warum bei solch geringen Belastungen der Verbrauch oft so hochschießt
 
Maxxx800 schrieb:
Bei den 6000er Karten ist noch anzumerken das bei 144hz der Speicher nicht runter taktet, vermutlich ein Treiber Bug.
Das stimmt so nicht.
Wenn ich nur meinen 144hz Monitor anschließe, dann taktet mein Speicher normal runter.

Das Problem besteht bei Multi Monitor. Sobald ich meinen zweiten Monitor anschließe, geht mein Speicher auch auf 2000 hoch.

Konnte ich aber mit dem cru tool lösen.
Den 144hz Monitor auf ein anderes Profil gestellt und jetzt taktet der Speicher auch mit Multi Monitor und 144hz runter.

Ist blöd, dass AMD das nicht im Griff hat, ist aber relativ einfach lösbar.
 
@JJJT
Ich habs mit der 6800xt und 6900xt getestet, auch mit nur einem Monitor.
144hz und Speicher taktet hoch, 120hz und alles ist gut.
Hab auch getestet ob DP gegen HDMI tauschen was bringt, leider nicht.
 
  • Gefällt mir
Reaktionen: Klever
Für den Vergleich "Maximale FPS" und "Maximal 144 FPS" wäre es hilfreich, wenn ihr dafür einen neuen Chart entwickeln könntet, bei dem beide Werte in einem Balken dargestellt werden. Dann ließe sich das deutlich besser miteinander vergleichen.
Und eigentlich fehlt dann noch der Wert zur maximalen FPS, damit ersichtlich ist, wie hoch die Differenz ist.
 
@Maxxx800

Jo, glaube ich dir auch.
Wollte damit nur sagen, dass kein pauschales Szenario für das Problem gibt.

Soweit meine Nachforschungen zu dem Thema ergeben haben, liegt es primär daran wie die Monitore von der GPU angesteuert werden wollen.
Und die Einstellungen des Monitors kannst du mit Cru so manipulieren, dass die GPU runter taktet.
Les dich Mal ein und probiere es aus.
Hat mich etwa 30 min gekostet und der GPU Verbrauch ist von ca 30 Watt auf ca 8 Watt mit 144 Hz und Multi Monitor gesunken.
 
  • Gefällt mir
Reaktionen: Czk666
CastorTransport schrieb:
Aber tolle Hashrates hat sie noch :D

Super Test. AMD mit der Eiffzienskrone?

War ja früher das Totschlagargument der Grünen, heute ist es - berechtigerweise - noch das Raytracing. Halt für die, für die es WIRKLICH relevant ist.
Mind. 1 weiteres Argument das mich noch von einer AMD-Karte abhält ist das mangelhafte Hardware-Encoding (bei Nvidia nennt sich das NVENC). Das ist natürlich eine Nische, aber macht einen riesigen Unterschied wenn man z.B. mit der Oculus Quest am PC VR-Spiele zockt, da das Bild in Echtzeit komprimiert werden muss.

Ein sehr nützliches Gimmick ist außerdem der virtuelle Greenscreen von Nvidia Broadcast, mit gleichzeitiger Rauschfilterung auf ein- oder ausgehenden Ton. Dann wäre da noch DLSS, das liefert einfach richtig gute Resultate wenn es das Spiel korrekt unterstützt und wird wahrscheinlich auch in Zukunft weiter an Bedeutung gewinnen. Ich finds schade dass AMD immer nur "nachzieht" und in dem KI-Bereich meilenweit hinterherhängt.

Aber, genug offtopic :D
 
Zuletzt bearbeitet:
@Wolfgang
Könnt ihr evtl. noch die erzielten Avg FPS und die Länge des Benchmarks (in sekunden/minuten?) angeben bei den Verbrauchsmessungen?
Weil wenn man mit 144 FPS Limit spielt und "AVG" 130 FPS erreicht, heisst das die Karte ist vielleicht zu 99% immer eh im Limit.

Wohingegen Karten die AVG 144 FPS haben somit faktisch nie bei voller GPU Last unterwegs sind.

Ansonsten sehr schöner Test. Die Verbrauchsmessung mit FPS-Limiter gefällt mir, aber ideal wäre hier 60 und 144 oder sowas. (Denke die wenigsten haben wirklich 144 Hz Displays im Einsatz)
 
Schön zu sehen das Fps Limit ordentlich was bringt. Selbst bei meiner 1650 habe ich ein Fps Limit auf 60 gesetzt. Und etwas den Turbo reduziert.
Leistung stimmt trotzdem und wegen der derzeitigen Situation bei den Graks erschien mir das auch ganz sinnvoll.^^
Ergänzung ()

cruse schrieb:
somit sinkt der Strompreis um diese 5ct

Glaubst du das etwa? ^^
 
Zuletzt bearbeitet:
ich hätte mir schon erwartet, dass das RDNA 1 Flagschiff (5700 XT) hier getestet wird.
 
@neuhier08 Wurde es doch.

Für AMD gibt's 5x RDNA2, 2X RDNA, 1x GCN5 und 1x GCN4
Für Nvidia dann 6x Ampere, 2x Turing und 2x Pascal
 
Zuletzt bearbeitet:
@Taxxor In den Benchmarks sehe ich nirgends eine 5700 XT.

edit: entweder es wurde inzwischen nachgereicht oder ich war blind.
 
JoeDoe2018 schrieb:
Ich bneutze eine 6800XT für Warcraft 3 in 4K. Da mein 4K Bildschirm eh nur 60Hz kann habe ich Framerate auf maximal 60FPS begrentzt.
Ich hoffe du hast/benutzt Adaptive Sync, ansonsten wird das mit den 60 Hz nichts. 60 FPS bedeutet aufgrund von variierenden Frametimes nicht automatisch auch 60 Hz.
 
Zuletzt bearbeitet:
Sorry, ich bin derzeit nicht ganz auf der Höhe und komme mit zu viel Text (noch) nicht klar: Welcher Limiter wurde denn benutzt bei Ampere? Zu Turing kann ich jedenfalls sagen, dass bspw. der Afterburner bzw. Riva absolut untauglich ist. Trotz Limiter taktet die Karte relativ hoch. Sobald ich den treiberseitigen NV Limiter benutze, sieht das ganze schon ganz anders aus und das Notebook bleibt schön kühl und die Steuerung scheint gut zu funkltionieren.
 
Die Zahlen sind doch egal weil nicht mit DLSS gemessen wurde, oder? Und jeder benutzt heutzutage DLSS ... dann wird die Effizienz sehr schnell wieder im grünen Lager liegen.
 
hardwärevreag schrieb:
Und jeder benutzt heutzutage DLSS
Nope, wenn möglich bleibt's bei nativ. In anderen Worten: in dem Moment, wo meine GPU mit DLSS entlastet ist, nutze ich die freien Ressourcen um höhere DLSS-Stufen oder idealerweise nativ zu spielen.

DLSS sieht zwar in einigen Titeln akzeptabel aus - von perfekt ist es aber weit entfernt und verliert im Direktvergleich zu Nativ in meinen Augen und meinen Spielen.
 
DaZpoon schrieb:
Wenn das Runtertakten der RX6800XT wenigstens unter Linux klappen würde. Leider verharrt der Speicher bei 1000Mhz wenn man größer als FHD unterwegs ist, was sich bei mir recht deutlich in der idle Leistungsaufnahme niederschlägt: 50W (Win) zu 105W (Linux) Gesamtsystem. Sehr ärgerlich und bisher auch noch keine Besserung in Sicht.
Bei meiner 6600XT ist das unter Manjaro erst ab 5.14 der Fall, bis einschl. 5.13 kommen meine beiden Monitore (WQHD & 1600x1200) zusammen auf rund 4W im idle. Mit 5.14 sind das rund 16W, also bleibe ich vorerst bei 5.13.
 
Zurück
Oben