Test GPU-Beschleunigung für VP9: Pascal und Vega verbrauchen weniger Strom auf YouTube

Wolfgang

Redakteur
Teammitglied
Dabei seit
Nov. 2002
Beiträge
6.097
#1
tl;dr: Die Leistungsaufnahme der Grafikkarte beim Betrachten eines Videos auf YouTube zu messen gehört schon länger zum Testparcours von ComputerBase. Schließlich können moderne GPUs den VP9-Codec in der Regel in Hardware beschleunigen. Insbesondere bei Nvidia Pascal waren die gemessenen Werte aber nicht mehr aktuell.

Zum Test: GPU-Beschleunigung für VP9: Pascal und Vega verbrauchen weniger Strom auf YouTube
 
Dabei seit
Nov. 2012
Beiträge
224
#2
Interessant finde ich das auf meinem System meine Grafikkarte überhaupt nicht mehr richtig runtertaktet, 4k Monitor sei dank.. Hier spielt die Auflösung des Bildschirms scheinbar eine erhebliche Rolle. Ich meine es gab ja auch Fälle mit Bildflimmern oder Bildfehlern unter Windows wenn der Grafikspeicher zu niedrig lief.
 
Dabei seit
Feb. 2007
Beiträge
19.098
#3
interessant. Danke für den Test.

Ich frage mich etwas weshalb der Verbrauch bei der RX 580 so viel besser ist als bei den 4XX Karten. Kann eigentlich auch nur ne Treiber Sache sein.
 
Dabei seit
Aug. 2009
Beiträge
638
#6
@Krautmaster, die 5xxer Serie hat eine Verbesserung für genau diesen Fall, ob bios oder echt im chip weiß ich nicht mehr. Außerdem haben die einen Ramtakt-State für Halblast, selbiges sollte bei den 5xx auch beim Multimonitorbetrieb im Idle für weniger Verbrauch sorgen
War entweder im Bericht zur Vorstellung oder Test der 560 erklärt.
 
Dabei seit
Feb. 2007
Beiträge
19.098
#7
generell wären noch Werte fürs Gesamtsystem interessant. Zeigt sich ja bei Vega wenn die CPU mehr rechnen muss. Kommt aus dem Diagramm nicht raus.

Gibt CB ja auch selbst an
Doch die Messung der separaten Leistungsaufnahme der Grafikkarten ist in diesem Fall nur die halbe Wahrheit. Der Grund dafür ist im von YouTube genutzten VP9-Codec zu suchen. Nvidia Pascal kann den in vollem Ausmaß mit der integrierten Videoeinheit in Hardware beschleunigen, alle GPUs von AMD im Vergleich können das hingegen nicht. Einen gewissen Anteil an der Rechenarbeit übernimmt hier weiterhin die Software und damit die CPU. Auf anderen Plattformen ist das mit dem überwiegend genutzten Codec H.264 kein Problem, auf YouTube hingegen schon.

Im Ergebnis benötigt das gesamte Testsystem mitsamt der GeForce GTX 1080 Founders Edition auf YouTube etwa 70 Watt. Mit einer Radeon Vega 64 sind es aber gleich 110 Watt und damit 40 Watt oder fast 60 Prozent mehr. Dies lässt sich nur mit einer aktualisierten Videoeinheit lösen und benötigt entsprechend eine neue Hardware.
Im Diagramm sind Vega und 1080 FE gleich auf. GPU braucht also gleich viel, aber die CPU 40W mehr. Interessant wäre wie es bei anderen GPU aussieht, gerade zb Maxwell / Pascal.

@sven.ghostrider

ah okay, wäre interessant ob das quasi "drum rum" gelöst wurde oder wirklich übern Chip selbst.
 
Zuletzt bearbeitet:
Dabei seit
Apr. 2011
Beiträge
351
#8
Tag,

in der Tat ist die Kommunikation zwisch. Hardware & Software bei der Videowiedergabe insb. bei UHD sehr interessant.
Trotz Ende September 2017 gibt es noch allerlei Optimierungsbedarf in diesem Feld und irgendwie geht mir das alles zu langsam voran.

Richtig gute Panels zu erschwinglichen Preisen, fortschrittliche Codecs, gutes Zusammenspiel aus Hard- & Software wären langsam mal angebracht.

Btw, 4K auf Netflix, geht das immernoch mit Kaby-Lake + Windows 10 only (?) oder kann mittlerweile Nvidia und AMD das über die GPU regeln?


Grüße
DiskreterHerr
 

mahama

Cadet 2nd Year
Dabei seit
Juni 2016
Beiträge
30
#10
Mal ein Lob an Nvidia weil sie VP9 voll unterstützen und den Treiber pflegen (seit der Maxwell 960/950)

Keine Ahnung wie viele tausend Stunden ich auf Youtube zugebracht habe, und wieviel Wärme das im Sommer eingespart hat :)
 
Dabei seit
Nov. 2005
Beiträge
3.549
#11
Können das nicht Intel CPUs auch schon vollständig seit Kaby Like mit der iGPU? Und das wahrscheinlich noch um viel effizienter als AMD und Nvidia.
 

mahama

Cadet 2nd Year
Dabei seit
Juni 2016
Beiträge
30
#12
Btw, 4K auf Netflix, geht das immernoch mit Kaby-Lake + Windows 10 only (?) oder kann mittlerweile Nvidia und AMD das über die GPU regeln?
Netflix 4k wird auf Pascal inoffiziell unterstützt seit uh dem vorletzten? Treiber.
Man benötigt aber die neueste Win10 version, einen HDCP2.2 monitor über HDMI angeschlossen (und keinen anderen danaben laufen lassen), sowie die Win10 app. Und ein 4k Abo natürlich :)
 
Dabei seit
Sep. 2009
Beiträge
915
#13
Das für den Test verwendete Video liegt in der Auflösung 3.840 × 2.160 mit 60 FPS sowie HDR10 vor und gehört damit zu den anspruchsvollsten Inhalten, die es auf dem Streaming-Portal gibt.
Da langweilt sich sogar noch mein i7-3770K
GPU Beschleunigung ist egal bei wem für die Katz so lange es die CPU locker aus der Hüfte macht bei immer noch weniger Mehrverbrauch als die GPU. Was soll den auch bei einer "1:1 Echtzeitabspielung" so groß beschleunigt werden ...
habe es extra wegen dem Test mal wieder im Feuerfuchs aktiviert und auch genauso schnell wieder deaktiviert weil vollkommen ohne Mehrwert. Das einzige was da mit meiner 580er beschleunigt wird ist das Zählrad am Stromzähler.

PS: Meine 580er (XFX Radeon RX 580 GTR-S Black Edition Crimson) braucht keine 30 Watt wie hier angegeben sondern 57Watt "GPU only!" laut GPU-Z bei einer Aufzeichnungsauflösung von 0.1sec als Durchschnitt über die Laufzeit des Videos! Treiber 17.9.2

Edit: GPU-Z mal geupdatet. Jetzt hat man neue Spalten für Watt
GPU only: ~ 45.3 Watt
DC Power: ~ 24.1 Watt
DI Power: ~ 10.7 Watt
-> 80.1 Watt gesamt also?!

Jedenfalls alles meilenweit von den CP Messwerten weg!
 
Zuletzt bearbeitet:
Dabei seit
Feb. 2011
Beiträge
5.731
#14
Ich verwende eine Gainward GTX 1070 Phoenix auf Windows 10 x64 Edu mit Anniversary Update. Treiber ist der 382.33 vom 22. Mai.

Beim ersten Versuch mit dem Video wo ich im Durchlauf die Qualität hochgesetzt habe, blieb die Grafikkarte bei den Maximaltaktraten.

Bei allen folgenden Durchläufen braucht die Karte etwa 10-20 Sekunden bis sie sich auf ~900MHz Core / 810MHz VRAM einpendelt. Der Verbrauch meines Gesamtsystems liegt dabei bei etwa 20W über dem Idle-Verbrauch.
 
Dabei seit
Jan. 2008
Beiträge
2.842
#15
Warum hat AMD denn bitte bei der grade erst rausgekommenen und eigentlich noch gar nicht wirklich verfügbaren Vega keinen vollständigen Support für VP9 an Bord? Ich meine wie lange sollen Nutzer denn darauf warten? Nvidias Karten sind schon gut 1 Jahr alt und können es :freak:

Das war bei gar nicht so bewusst mit dem VP9 bei AMD. Gefällt mir absolut nicht.
 
Dabei seit
Dez. 2007
Beiträge
981
#17
Interessant finde ich das auf meinem System meine Grafikkarte überhaupt nicht mehr richtig runtertaktet, 4k Monitor sei dank.. Hier spielt die Auflösung des Bildschirms scheinbar eine erhebliche Rolle. Ich meine es gab ja auch Fälle mit Bildflimmern oder Bildfehlern unter Windows wenn der Grafikspeicher zu niedrig lief.
Kan ich bei mir nicht sagen. Hab auch einen UHD-Bildschirm und meine Karte taktet komplett runter, wie sie soll.
 
Dabei seit
Feb. 2007
Beiträge
19.098
#18
Warum hat AMD denn bitte bei der grade erst rausgekommenen und eigentlich noch gar nicht wirklich verfügbaren Vega keinen vollständigen Support für VP9 an Bord?
vermutlich weil die Karte auch schon wieder etwas älter ist und einfach extrem lange zurückgehalten worden ist (Tapeout ist >1 Jahr hin). Was bei Fiji nichts anderes, kein HDMI 2 usw an Bord und altes GCN Level. Das Vega Design ist sicher nicht ganz taufrisch - aber etwas wundert es mich auch. Sicher dass da kein VP9 auf Vega in HW gehen sollte?

Edit:
Testmateriel
https://www.youtube.com/watch?v=iNJdPyoqt8U

Zieht 20% CPU mit meiner 980 TI in Chrome, 15% im neusten Edge (insider)

Edit: Im Chrome läufts aber runder.
 
Zuletzt bearbeitet:
Dabei seit
Sep. 2009
Beiträge
915
#19
Ach ja anspruchsvolles Video
Hier mal 8K und die traurige Wahrheit trotz GPU Beschleunigung:
https://www.youtube.com/watch?v=IRSVsCBtgnk


CPU only ist zwar auch ne Slideshow hat aber einen Tick weniger Frame dropps!

------------------------
alternativ h264ify (chrome, firefox) - dann klappt es auch auf älteren karten effizient.
Auch auf neuen Karten nur noch ein Bruchteil am Verbrauch! Weit unter ~10 Watt. Leider wird mein Bsp Video oben dann nur noch als max 1440p angeboten, hätte mich ja mal interessiert was es da gebracht hätte. trotz alle dem scheinbar ein Pflicht Add-on!
 
Zuletzt bearbeitet:
Top