Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGPU-Beschleunigung für VP9: Pascal und Vega verbrauchen weniger Strom auf YouTube
tl;dr:Die Leistungsaufnahme der Grafikkarte beim Betrachten eines Videos auf YouTube zu messen gehört schon länger zum Testparcours von ComputerBase. Schließlich können moderne GPUs den VP9-Codec in der Regel in Hardware beschleunigen. Insbesondere bei Nvidia Pascal waren die gemessenen Werte aber nicht mehr aktuell.
Interessant finde ich das auf meinem System meine Grafikkarte überhaupt nicht mehr richtig runtertaktet, 4k Monitor sei dank.. Hier spielt die Auflösung des Bildschirms scheinbar eine erhebliche Rolle. Ich meine es gab ja auch Fälle mit Bildflimmern oder Bildfehlern unter Windows wenn der Grafikspeicher zu niedrig lief.
@Krautmaster, die 5xxer Serie hat eine Verbesserung für genau diesen Fall, ob bios oder echt im chip weiß ich nicht mehr. Außerdem haben die einen Ramtakt-State für Halblast, selbiges sollte bei den 5xx auch beim Multimonitorbetrieb im Idle für weniger Verbrauch sorgen
War entweder im Bericht zur Vorstellung oder Test der 560 erklärt.
generell wären noch Werte fürs Gesamtsystem interessant. Zeigt sich ja bei Vega wenn die CPU mehr rechnen muss. Kommt aus dem Diagramm nicht raus.
Gibt CB ja auch selbst an
Doch die Messung der separaten Leistungsaufnahme der Grafikkarten ist in diesem Fall nur die halbe Wahrheit. Der Grund dafür ist im von YouTube genutzten VP9-Codec zu suchen. Nvidia Pascal kann den in vollem Ausmaß mit der integrierten Videoeinheit in Hardware beschleunigen, alle GPUs von AMD im Vergleich können das hingegen nicht. Einen gewissen Anteil an der Rechenarbeit übernimmt hier weiterhin die Software und damit die CPU. Auf anderen Plattformen ist das mit dem überwiegend genutzten Codec H.264 kein Problem, auf YouTube hingegen schon.
Im Ergebnis benötigt das gesamte Testsystem mitsamt der GeForce GTX 1080 Founders Edition auf YouTube etwa 70 Watt. Mit einer Radeon Vega 64 sind es aber gleich 110 Watt und damit 40 Watt oder fast 60 Prozent mehr. Dies lässt sich nur mit einer aktualisierten Videoeinheit lösen und benötigt entsprechend eine neue Hardware.
Im Diagramm sind Vega und 1080 FE gleich auf. GPU braucht also gleich viel, aber die CPU 40W mehr. Interessant wäre wie es bei anderen GPU aussieht, gerade zb Maxwell / Pascal.
@sven.ghostrider
ah okay, wäre interessant ob das quasi "drum rum" gelöst wurde oder wirklich übern Chip selbst.
in der Tat ist die Kommunikation zwisch. Hardware & Software bei der Videowiedergabe insb. bei UHD sehr interessant.
Trotz Ende September 2017 gibt es noch allerlei Optimierungsbedarf in diesem Feld und irgendwie geht mir das alles zu langsam voran.
Richtig gute Panels zu erschwinglichen Preisen, fortschrittliche Codecs, gutes Zusammenspiel aus Hard- & Software wären langsam mal angebracht.
Btw, 4K auf Netflix, geht das immernoch mit Kaby-Lake + Windows 10 only (?) oder kann mittlerweile Nvidia und AMD das über die GPU regeln?
Netflix 4k wird auf Pascal inoffiziell unterstützt seit uh dem vorletzten? Treiber.
Man benötigt aber die neueste Win10 version, einen HDCP2.2 monitor über HDMI angeschlossen (und keinen anderen danaben laufen lassen), sowie die Win10 app. Und ein 4k Abo natürlich
Das für den Test verwendete Video liegt in der Auflösung 3.840 × 2.160 mit 60 FPS sowie HDR10 vor und gehört damit zu den anspruchsvollsten Inhalten, die es auf dem Streaming-Portal gibt.
Da langweilt sich sogar noch mein i7-3770K
GPU Beschleunigung ist egal bei wem für die Katz so lange es die CPU locker aus der Hüfte macht bei immer noch weniger Mehrverbrauch als die GPU. Was soll den auch bei einer "1:1 Echtzeitabspielung" so groß beschleunigt werden ...
habe es extra wegen dem Test mal wieder im Feuerfuchs aktiviert und auch genauso schnell wieder deaktiviert weil vollkommen ohne Mehrwert. Das einzige was da mit meiner 580er beschleunigt wird ist das Zählrad am Stromzähler.
PS: Meine 580er (XFX Radeon RX 580 GTR-S Black Edition Crimson) braucht keine 30 Watt wie hier angegeben sondern 57Watt "GPU only!" laut GPU-Z bei einer Aufzeichnungsauflösung von 0.1sec als Durchschnitt über die Laufzeit des Videos! Treiber 17.9.2
Edit: GPU-Z mal geupdatet. Jetzt hat man neue Spalten für Watt
GPU only: ~ 45.3 Watt
DC Power: ~ 24.1 Watt
DI Power: ~ 10.7 Watt
-> 80.1 Watt gesamt also?!
Jedenfalls alles meilenweit von den CP Messwerten weg!
Ich verwende eine Gainward GTX 1070 Phoenix auf Windows 10 x64 Edu mit Anniversary Update. Treiber ist der 382.33 vom 22. Mai.
Beim ersten Versuch mit dem Video wo ich im Durchlauf die Qualität hochgesetzt habe, blieb die Grafikkarte bei den Maximaltaktraten.
Bei allen folgenden Durchläufen braucht die Karte etwa 10-20 Sekunden bis sie sich auf ~900MHz Core / 810MHz VRAM einpendelt. Der Verbrauch meines Gesamtsystems liegt dabei bei etwa 20W über dem Idle-Verbrauch.
Warum hat AMD denn bitte bei der grade erst rausgekommenen und eigentlich noch gar nicht wirklich verfügbaren Vega keinen vollständigen Support für VP9 an Bord? Ich meine wie lange sollen Nutzer denn darauf warten? Nvidias Karten sind schon gut 1 Jahr alt und können es
Das war bei gar nicht so bewusst mit dem VP9 bei AMD. Gefällt mir absolut nicht.
Interessant finde ich das auf meinem System meine Grafikkarte überhaupt nicht mehr richtig runtertaktet, 4k Monitor sei dank.. Hier spielt die Auflösung des Bildschirms scheinbar eine erhebliche Rolle. Ich meine es gab ja auch Fälle mit Bildflimmern oder Bildfehlern unter Windows wenn der Grafikspeicher zu niedrig lief.
Warum hat AMD denn bitte bei der grade erst rausgekommenen und eigentlich noch gar nicht wirklich verfügbaren Vega keinen vollständigen Support für VP9 an Bord?
vermutlich weil die Karte auch schon wieder etwas älter ist und einfach extrem lange zurückgehalten worden ist (Tapeout ist >1 Jahr hin). Was bei Fiji nichts anderes, kein HDMI 2 usw an Bord und altes GCN Level. Das Vega Design ist sicher nicht ganz taufrisch - aber etwas wundert es mich auch. Sicher dass da kein VP9 auf Vega in HW gehen sollte?
Auch auf neuen Karten nur noch ein Bruchteil am Verbrauch! Weit unter ~10 Watt. Leider wird mein Bsp Video oben dann nur noch als max 1440p angeboten, hätte mich ja mal interessiert was es da gebracht hätte. trotz alle dem scheinbar ein Pflicht Add-on!