AV1 schon da, H.266 kommt

EDV-Leiter schrieb:
Es ist auch fraglich, ob man, um ein software-dekodiertes Video zu schauen, eine CPU bis an die Grenzen auslasten möchte. Das ist nämlich so lange der Fall, bis Hardwaredecoder eine gewisse Verbreitung erlangt haben. Da gehen schon etliche Jahre ins Land.
Genau so ist das.
84503.jpg
 
cgs schrieb:
Na super. Ich habe nicht vor die nächste Zeit Intel CPU/GPUs zu kaufen.



Das macht mir Angst. SVT-AV1 encoder läuft hier so mit 0.7x Echtzeit im Vergleich zu nvenc_hevc mit 6x.

Die Zeiten von Consumer Codecs, die in Software mit dem Heimrechner encodiert werden können sind so langsam leider vorbei :) das ist einfach so.
 
Der svt-av1 encoder darf auch OpenCL oder Cuda verwenden ...
Also hier mal ein kurzer Vergleich. Video war in h264 1080p 60fps 45Mbs
  • h264 CPU: 1,89x
  • hevc CPU: 0,65x
  • hevc GPU: 3,3x
  • svt-av1 CPU: 0,28x
Wobei der av1 stärker komprimiert ist als er sollte...

Edit: CPU ist ein Ryzen 2700x, GPU ist GTX960

Also der GPU Encoder Chip ist 5x so schnell wie der CPU, was zu erwarten war.
AV1 encoding ist etwa halb so schnell wie hevc, was schon recht ordentlich ist.

Wenn jetzt jemand einen Encoder in OpenCl schreibt ...
 
Zuletzt bearbeitet von einem Moderator:
In ein paar Jahren kann auch jeder wieder mit seinem "Standard"-PC h/x266 und/oder AV1 Videos in 8k/120 gucken. Dank schnellerer Hardware und optimierten Codecs ist das dann kein Drama mehr...bis der nächste Standard kommt.
 
Mir kommt es bei VP9 und AV1 nur leider immer so vor dass die sehr hart auf die Bedürfnisse von Youtube und Netflix getrimmt wurden. Erstmal sind die dermaßen aufwändig beim encodieren dass man das ohne eigenes Rechenzentrum im Keller vergessen kann. Dazu kommt dass der libvpx Encoder verglichen mit x264 oder x265 praktisch keine Einstellungen bietet um die Bildqualität oder die Performance irgendwie zu optimieren. Wenn man einen Hardware-Encoder nutzt, z.B. auf der GPU, dann bricht die Effizienz wiederum so massiv ein, dass ein älterer Codec auf CPU vermutlich bessere Ergebnisse liefert.

Edit: Und Zahlen wie 50% weniger Bitrate für "vergleichbare Bildqualität" entspringen immer Vergleichen mit unterirdischer Bitrate. Da zeigt H.264 dann starke Blöckchenbildung und oh sie mal wie gut dagegen <moderner Codec> aussieht. Ja mag sein, aber das Bild ist insgesamt auch viel unschärfer. Bei hoher Bildqualität, also deutlich höheren Bitraten, behaupte ich schrumpt der Vorteil neuerer Codecs. Aber darauf legen die großen Player wie YT und Netflix eben keinen Wert, die arbeiten mit der Bildqualität an der unteren Schmerzgrenze und genau darauf sind die Codecs auch optimiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Marcel Klappert
ghecko schrieb:
Schaut jemand von euch noch TV?
Seit über 10 Jahren nimmer, hab nur noch Internet, kein Festnetz oder TV mehr, wozu auch?

Hoffe AV1 verbreitet sich schnell, H.266 dürfte zum Glück dead on arrival sein, quasi alle großen IT-Unternehmen unterstützen AV1 da sie nicht mehr mit dem Lizenzdreck hantieren wollen.
 
@Smagjus anbieten tut youtube h264, im Moment aber nur zwangsweise auslieferen mit h264ify am Windows 10 Rechner oder hab icb was verpasst, nur bei Mobilgeräten wird die Hardeare genommen wenn in Apps eingschalten. H264ify funktioniert leider nicht überall sobald youtube ideos woanders verwendet werden, mit dem neuen edge wurde mein alter Laptop spürbar langsam... kann abet auch sein dass Contentpro idet da ebenfalls zuges hlagen haben.
Das codec Zeugs nervt in Anbetracht immer grösserer Bandbreiten und Speicherkapazitäten, ist das ehr unnötig. Ich hab mich auf h264 720p max 1080i reduziert
 
scooter010 schrieb:
Und die meisten Umsätze und Viewhour werden durch... Gestreamten pr0n generiert, netflix, amazon prime und youtube oder lineares TV? Wo ist ein effizienter Codec wichtiger?
Dazu wollte ich noch was sagen. Ein effizienter Codec ist deutlich wichtiger bei Streaming (pr0n, netflix, YT & Co.) da es sich hier um Unicast-Verbindungen handelt, d.h. die Bandbreite wird je Zuschauer benötigt. Bei linearem TV über Satellit oder Kabel handelt es sich um Broadcast; das Signal wird also nur einmal auf einer bestimmten Frequenz ausgesendet und ist dann für alle Endgeräte gleichermaßen sichtbar. Es ist also egal, ob zehn Millionen oder nur eine Person zuschauen, die verwendete Bandbreite ist die gleiche.
 
  • Gefällt mir
Reaktionen: onetwoxx
Marco01_809 schrieb:
Aber darauf legen die großen Player wie YT und Netflix eben keinen Wert, die arbeiten mit der Bildqualität an der unteren Schmerzgrenze und genau darauf sind die Codecs auch optimiert.
Das geht mir auch auf den Keks. Deshalb, wenn ich Lust auf eine Farbübertragung habe, schalte auf SAT Direktempfang. 10 Mb/s statt 3 Mb/s. Lineare SAT Sendung deckt mein Gründbedarf im Bereich Farbfernsehen.
Es ist so eine Zeit: Elektroautos, alkoholfreies Bier, WLAN kaskadiert mit DLAN und IPTV. Eine einheitliche Produktpalette.
 
Zuletzt bearbeitet:
cgs schrieb:
AV1 wird so langsam. Ich hoffe nur, daß bald GPU Unterstützung kommt.

RDNA2, Tiger Lake und Ampere können zumindest decoden. Aber ein AV1 GPU encoder ist meines Wissens nach noch nicht angedacht.

Gerne korrigieren wenn ich falsch liegen sollte
 
  • Gefällt mir
Reaktionen: cgs
PS828 schrieb:
ein AV1 GPU encoder ist meines Wissens nach noch nicht angedacht.
Angedacht mit Sicherheit, fllt sogar schon fertig integriert in folgenden Architekturen. Aber der Feature Freeze für RDNA2 war mit Sicherheit weit vor einem integrierbaren AV1 Encoder. Encoding ist komplexer und die Unterstützung dafür kommt regelmäßig erst eine Gen nach dem Decoder, ist bei Intel und Nvidia nicht anders.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cgs und PS828
@ghecko gut zu wissen. Trifft sich auch gut. Evtl haben es die Radeon Pro auf RDNA2 direkt integriert wenn sie Erscheinen. Weil so eine Kauf ich mir fürs encoding sowieso
 
Da die Pro-Varianten mit ihrem Silizium erst auf die Straße gelassen werden, wenn das gröbste beim Consumer getestet wurde, würde ich mir vor RDNA3 oder VCE 3.x keine Hoffnungen machen. Die Pro-varianten basieren ja auf den normalen Desktopchips. Oft werden zwar gelockte Features aktiviert, aber man kann keinen AV1 Encoder aktivieren, wenn er auf dem Chip nicht existiert.

Ich spekuliere eher auf eine OpenCL-version des Encoders. Der hätte qualitativ keine Nachteile gegenüber Softwareencoding auf der CPU und ließe sich durch jegliche aktuellen GPU beschleunigen.
Ist halt nix für streamer die nebenher zocken...
 
  • Gefällt mir
Reaktionen: cgs und PS828
Ums streaming geht's mir auch nicht. Das schafft im Zweifelsfall meine CPU sowieso Nebenbei.

Meine Hoffnung war, da ich sowieso sowohl gaming als auch Pro GPU im System tausche, gleich das volle encoder Paket zu bekommen^^ ich hantiere mit vielen Formaten da schadet es nicht für möglichst viele Hardwareunterstützung zu bekommen
 
Der beste Codec bringt nichts wenn die Bitrate so stark gedrückt wird und dadurch zu stark an der Qualität des Contents gespart wird, bestes Beispiel Netflix
 
  • Gefällt mir
Reaktionen: cgs, ss5 und PS828
Prime in FHD sieht noch flauer aus obwohl die average Bitrate höher liegt.
Zweitens: seit einiger Zeit FHD Playback mit Browser Baustelle ist.
Stand: Ende 2020.
 
Zuletzt bearbeitet:
Zurück
Oben