Adobe Premiere Pro 2020 rendern: 3090 RTX vs. 5700XT - kaum ein Unterschied! vs. CPU, die wesentlich langsamer ist

MarcoMichel

Banned
Registriert
Okt. 2019
Beiträge
971
Hallo alle zusammen!

Ich arbeite derzeit viel mit Adobe Premiere Pro 2020.

Beim Rendern mit einer Grafikkarte 5700XT dauert das Rendern eines 10 Minuten 4k-Videos ca. 4 Minuten.

Erstaunlich finde ich, dass das Rendern mit der schnellsten und 1500,- Euro teuren Grafikkarte von Nvidia 3090 RTX nur 20% schneller ist als mit einer 400,- Euro teuren 5700XT von AMD.

https://www.pugetsystems.com/pic_disp.php?id=63827

Was mich noch mehr verwundert ist die dagegen extrem langsame Rendergeschwindigkeit meiner CPU, einem 9900KS (8 Kerne auf 4,6 GHZ mit AVX), ca. 50 Minuten!!

Was ich nicht kapiere ist, warum die 3090 RTX nur ca. 20% schneller rendert als eine 5700XT und warum der 9900KS, der doch auch AVX unterstützt, womit Premiere Pro rendert, dagegen so extrem viel langsamer ist.

Hat einer eine Ahnung?
 
Zuletzt bearbeitet:
So ist das eben. Das sind extrem spezialisierte Teile in der GPU die schnell arbeiten aber wenig können. Die GPU spielt da im Grunde keine Rolle. Kannst auch die kleinsten der aktuellen nehmen. Machen das genau so schnell.

Und wenn es gut werden soll, muss es auf der CPU passieren. Und das dauert eben.
 
BlubbsDE schrieb:
Und wenn es gut werden soll, muss es auf der CPU passieren. Und das dauert eben.

Ach, deswegen kann man beim Rendern mit der GPU nur mit Level 5,2 rendern und mit der CPU 6,2? So viel besser ist das aber nicht, oder doch? Habe ich noch nicht ausprobiert. Hat das mal jemand ausprobiert, wieviel besser die Qualität wird?
 
hardware encoder genutzt
bei nvidia muss man beim export explizit nvenc auswählen da ansonsten die gpu nicht genutzt wird.
Nebenbei der encoder ist ab turing identisch von gtx1650 -rtx3090
Wichtiger ist bei nvenc aber die singlecore leistung der cpu.
mein r7 3800xt nvenc cqp auto euinstellung
80min 720p film in 55min exportiert egal ob hevc oder avc
Mit meinen core i7 5820k wars doppelt so lange identische gpu
 
  • Gefällt mir
Reaktionen: MarcoMichel
MarcoMichel schrieb:
Erstaunlich finde ich, dass das Rendern mit der schnellsten und 1500,- Euro teuren Grafikkarte von Nvidia 3090 RTX nur 20% schnell ist

Da ist eben der Unterschied zwischen 3D-Grafik rendern in Spielen und einem kompletten Export eines 4k Videos. Bei Spielen sind die meisten Daten schon auf der GPU im RAM der Grafikkarte und nur wenige (Delta)Daten müssen pro Frame übertragen werden. Somit kann der Ampere-Chip seine volle Leistung ausspielen und den AMD RDNA-Chip abhängen.

Beim Video-Rendering sieht es anders aus: Hier wird ein kontinuierlicher Datenstrom vom RAM des PCs in die Grafikkarte geladen und die GPU komprimiert diesen und schiebt die Daten wieder zurück, um dann das nächste Häppchen zur Kompression zu bekommen. Siehst Du den Unterschied? Letztlich bremst hier dann insbesondere die Schnittstelle zur Grafikkarte hin, also der PCIe-Bus.
 
  • Gefällt mir
Reaktionen: MarcoMichel
MarcoMichel schrieb:
Ach, deswegen kann man beim Rendern mit der GPU nur mit Level 5,2 rendern und mit der CPU 6,2? So viel besser ist das aber nicht, oder doch? Habe ich noch nicht ausprobiert. Hat das mal jemand ausprobiert, wieviel besser die Qualität wird?
ich komme bei beiden auf Level 6,2.
Vor einigen Jahren war die Qualtität des gerenderten Material marginal sichtbar, ob man per CPU oder mit GPU exportiert. Vor allem beim Color Graden waren im Detail weniger Artefakte erkennbar.
Mittlerweile sehe ich da keinen Unterschied mehr. Trotzdem schwören einige meiner Filmkollegen nur auf CPU zu rendern
 
Faust2011 schrieb:
Beim Video-Rendering sieht es anders aus: Hier wird ein kontinuierlicher Datenstrom vom RAM des PCs in die Grafikkarte geladen und die GPU komprimiert diesen und schiebt die Daten wieder zurück, um dann das nächste Häppchen zur Kompression zu bekommen.
Ich kenne mich da echt nicht aus, aber sollte das denn nicht dann die Parade Disziplin der neuen AMD Smart Access Memory / SAM Funktion des neuen Ryzen 5000 sein? Die CPU kann ja dann direkt auf den GPU Speicher zugreifen.
 
syfsyn schrieb:
hardware encoder genutzt
bei nvidia muss man beim export explizit nvenc auswählen
Ich denke auch das der Fehler hier liegt. AMD unterstützt doch kein NVENC, also müsste die Steigerung bei der 3090 mit NVENC schon enorm sein...
 
MarcoMichel schrieb:
GPU nur mit Level 5,2 rendern und mit der CPU 6,2? So viel besser ist das aber nicht, oder doch

Die Codecs sind Standardisiert und haben bestimmte Features.
"Level" sind ein Aspekt wegen Standardkompatibilität von Hardware-Decodern.
Level 6.2 bei HEVC ist eigentlich unnötig (wiki) - ist wirklich 8K 120fps bzw. 4K300fps vorhanden ?

Das Hardware-Encodieren ist meist für spezifische Anwendungsfälle integriert.
Bei Intel gibt es zB "Low Power" / geringer Stromverbrauch - Encoding neben einem anderen Shader-unterstütztem-Encoding.
Oder es werden mehrere parallele Encoding-Streams unterstützt - bzw. gleichzeitiges De+Encoden : für Videoüberwachungssysteme oder Transcoding bei Medienservern.
Hardware-Encoding ist außerdem oft auf "Echtzeit" ausgelegt - also TV / Broadcastinganwendungen und nicht für Archiv oder Streamingportale.

Hardware-Encoder/Decoder unterstützen bestimmte Features oder Profile nicht immer - 10bit/12bit, "444" , HDR usw. - damit muss das Material dann per Software dekodiert werden, oder das Hardwaredecoding wird fehlerhaft.
 
  • Gefällt mir
Reaktionen: MarcoMichel und douron
SpamBot schrieb:
AMD Smart Access Memory / SAM Funktion des neuen Ryzen 5000 sein

Und was zeigt der verlinkte Test von Pugetsystems? SAM braucht ein abgestimmtes System, dass es funktioniert. Und dort im Test ist keine neue RDNA2-Grafikkarte enthalten und ob eine Ryzen 5000 CPU mit dabei ist? Ich denke nicht.
 
Faust2011 schrieb:
Letztlich bremst hier dann insbesondere die Schnittstelle zur Grafikkarte hin, also der PCIe-Bus.


Eine gute Idee, mal sehen, wie hoch der Datendurchsatz über die PCIe-Schnittstelle beim Rendern ist.
Ergänzung ()

Tronix schrieb:
Ich denke auch das der Fehler hier liegt. AMD unterstützt doch kein NVENC, also müsste die Steigerung bei der 3090 mit NVENC schon enorm sein...
Man sieht ja, dass es nicht so ist. Die 3090 rendert nur ca. 20% schneller als die 5700XT, was ja das Bild von den Testergebnissen zeigt, das ich verlinkt habe.
 
Wie schon von BlubbsDE geschrieben. Wenn du ein Video mit der besten Qualität encodieren / rendern willst, musst du das mit der CPU machen.
Siehe auch hier:
"In our tests, this feature resulted in between a 2-4x improvement in export times depending on the source codec with a minimal (if any) decrease in video quality. [...]
For those that are not aware, there is an issue with hardware accelerated rendering - the quality is technically not as high as using software only. For some people, the quality difference is so small that it doesn't matter, while for others it is major issue. "
https://www.pugetsystems.com/labs/a...64-NVIDIA-Hardware-Encoding-Performance-1723/
Mit der Grafikkarte ist es zwar schneller, aber die sind halt auch so optimiert, dass das Rendering auf Kosten (von etwas) Qualität schneller wird. Denn die Grafikkarte soll nebenbei deinen Spielestream für Twich rendern und das in Echtzeit. Da kommt es darauf an, dass das Bild möglichst schnell gerendert ist und dafür kann es auch mal ein paar kleinere Klötzchen geben.
Allerdings ist das Hardware-Rendering heute schon so gut, dass man ganz genau hinschauen muss, um Unterschiede zu sehen.
 
  • Gefällt mir
Reaktionen: MarcoMichel
Was mich auch wundert ist, dass DER BAUER eine sauteure 28-Kern-CPU für seinen Render-PC verwendet, obwohl es doch viel besser ist, über die Grafikkarte zu rendern.

Habe mir mal die Unterschied angeschaut, ich erkenne keinen. Vielleicht bei vielen schnellen Bewegungen sieht man die bessere Rendering-Qualität einer CPU.
 
Wenn bei einer Produktion aus 3D Material / Filmscancs ein "Master" erstellt wird, dann ist manchmal nur Qualität wichtig - genauso bei der digitalen Archivierung.[1]
Das "Mastering" für verschiedene Hardware erfolgt dann oft von dieser Referenz anstatt zB eine neue Berechnung/Rendering in Zielauflösung vorzunehmen.[2]
Das "Mastertape" ist dann quasi die erste Generation und sollte auch genug Raum für Qualitätsverluste durch Neukompression enthalten.

Diese Generationsverluste / Verluste bei Neukomprimierung / Generationstests gibt es bei Bildern, Audio und Video. Bei Bildern zB hier auf Youtube mit "AV1" Codec.. Entsteht bei Youtube automatisch, da dort afaik immer Uploads neu komprimiert werden.

[1] Bei "Big Buck Bunny" gab es zB eine Neuberechnung für 4K / 3D / HFR Releases.

[2] Also Filmnegativ (digital zB im redcode / raw Format) -> Scanner (DI) -> Mastertape (im Hobby zB x264 Codec) -> Kino-DCP(JPG2000), DVD (MPEG2+AC3), Youtube (VP9+Opus), Netflix (AV1,H264), TV (H264+AC3/HEVC+AAC), 4K Bluray (HEVC+DTS), Bluray (AVC/H264+AC3|DTS)
 
  • Gefällt mir
Reaktionen: Faust2011 und MarcoMichel
MarcoMichel schrieb:
Was mich auch wundert ist, dass DER BAUER eine sauteure 28-Kern-CPU für seinen Render-PC verwendet, obwohl es doch viel besser ist, über die Grafikkarte zu rendern.
Je nach Codec und/oder Optionen kannst du keine GPU verwenden.
 
Zurück
Oben