Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAV1-Nachfolger: Der AV2-Codec soll noch bis Ende 2025 fertiggestellt werden
Ja aber nur EINAMLIG. Die Anbieter encodieren nur einmal im Voraus Ihren jeweils neuen Inhalt in allen aktuellen Codecs und legen sie auf den Servern ab. Damit sie alle aktuellen Geräte bedienen können aber Geld sparen sie dann praktisch täglich mit jedem Stream wo sie den nächst aktuelleren = besseren Codec verwenden können weil besser bedeutet hierbei IMMER das bei gleicher Video Qualität die Dateigröße kleiner ist. Was für sie (da sie auch den Upload an ihren Provider bezahlen müssen!) mit jedem Stream aka Download bares Geld sparen. Und/oder sie müssen (bei YouTube/Twitch und Co.) zusätzlich nicht "bei jedem Stream" anfallende Lizenzgebühren abführen wenn sie anstatt h264/h265 eben VP9 oder HV1 verwenden. Beides bedeutet auf die Masse gesehen enorm viel Geld das man einspart!
@x264.exe Es sind in der Spitze sogar 470 Mbit gewesen, bei dieser Stelle: Anhang anzeigen 1665334
Da sind halt sehr viele Feindetails, und die Kamera bewegt sich nach vorne und wackelt ein bisschen.
Ah okay, sowas habe ich vermutet. Ähnlich schwierig sind auch riesige Vogelschwärme, Konfettihagel oder stürmische, wellenreiche Küsten^^ maxrate und bufsize zu setzen ist dann schon richtig. Bframes auf 8 erhöhen und GOP-Size etwas vergeößern, vielleicht auch qcomp etwas herabsetzen.
Kannst auch mal probieren, was rauskommt wenn du Cutree deaktivierst und so 1-2 Stufen mit CRF hochgehst. Sonst fällt mir nur ein Auflösung zu halbieren, Framerate halbieren würde vielleicht auch schon was bringen oder mit 2pass encoden oder für die komplexen Szenen eben Zones erstellen.
@x264.exe genial wie du einem die Schreibarbeit abnimmst Die Benutzung von QP ist halt ein bissel suboptimal weil dann an anderen Stellen wieder viel zu viel Bitrate verwendet wird für Zeugs was es nicht braucht. Besonders Bframes auf 8 und mit dem CRF nochmal ne Weile rumspielen würde ich da auch deutlich lieber machen.
Zonen erstellen ist auch eine wirklich gute Lösung, ist dann halt nur nochmal extra Arbeit. Wenns aber nicht so viele Videos sind kann man das sehr gut machen.
Ich muss dazu aber auch sagen, dass ich bisher das Glück hatte nicht allzuviel Video dieser Art transkodieren zu müssen. Davon wäre ich auch sehr genervt.
@x264.exe Die Schwankung zwischen 470 und 10 hat SVT-AV1 in den Standardeinstellungen von Handbrake mit crf 15 fabriziert, mit einem relativ schnell zusammengeklickten SDR-Grade. Mit dem HDR-Grading hat x265 nur zwischen 400 und 35 MBit geschwankt, bei crf 15. Es ist wirklich nur diese eine Szene aus dem Screenshot, wo so viel Bitrate reingeht, ansonsten schwankt es eher zwischen 50 und 100. Daher hab ich das Problem einfach mit vbv-maxrate und vbv-bufsize gelöst.
Aber stimmt, Konfettiregen damals im alten DVB-S mit MPEG2 konnte man selbst auf dem Röhrenfernseher schon die Makroblöcke zählen.
Der SVT-AV1-Encode, den ich jetzt mit den Parametern film-grain=8:enable-variance-boost=1:mbr=100000:mbr-overshoot-pct:10 gemacht habe (crf 12, Preset 2, tune 0) sieht im Übrigen wieder schlechter aus als der x265-Encode. Ich werde mit AV1 einfach nicht warm. Nehme ich halt weiter x265, AV1 kann eh nicht jedes meiner Geräte abspielen.
Ergänzung ()
@12nebur27 Das waren jetzt auch zum Glück nur Testaufnahmen, die ich mit dem neuen iPhone gemacht habe, weil ich für mich selbst rausfinden wollte, ob ich RAW brauche, oder normales Apple Log 2 in ProRes für meine Zwecke reicht. Wenn ich damit die ersten richtigen Aufnahmen mache, sind die hoffentlich auch nicht so stressig für den Encoder.
Ach ja... natürlich tut es das. DisplayPort unterstützt HDCP. Das ist übrigens in der Hand von Intel, die dort mit Lizenzgebühren Geld abschöpfen. Aber zumindest an der Bildübertragung scheitert es nicht.
onetwoxx schrieb:
So lange diverse Features (ARC ,eARC, CEC ,QMS, QFT) bei Displayport nicht vorhanden sind und die Geräte in Home Entertainment Bereich nicht alle auf DP setzen ist es da nahezu nutzlos dauf zu setzen.
CEC ist tatsächlich ein Jammer. Hätte ich gerne. Aber die anderen 4 Features scheinen alle mit HDMI 2.1 gekommen zu sein (abgesehen von ARC). Nimm mal diesen Artikel über AMDs Versuch HDMI 2.1 für Linux zu implementieren. Da könnte man glatt auf die Idee kommen, dass diverse mächtige Mitglieder des HDMI Konsortiums kein Interesse daran haben, dass ihre Technologie jenseits ihrer proprietären, "sicheren" Systeme unterstützt wird.
Aber wenigstens bei Videocodec mischen diverse große Tech Konzerne mit, die noch ein anderes Interesse als hochprofessionelle Film- und Serienproduktionen haben, bei denen man mitverdienen kann.
Der Erfolg von AV2 steht oder fällt mit der Verbreitung von ASICs (integrierter Unterstützung in Hardware/SoCs); die schleppende Verbreitung/Verwendung von AV1 ist IMHO der nur sehr schleppenden Integration von AV1 De- und Enkodierung ASICs in den SoCs von zB Apple and Qualcomm zuzuschreiben. Selbst mit sehr gut optimierter Software kommt man halt selten bis nie an die Effizienz dedizierter Hardware ran. Deshalb würde mich interessieren, welche Firmen bereits daran arbeiten, und wann man mit den ersten GPUs und SoCs, v.a. für mobile Geräte (Smartphones, Tablets, Notebooks) mit AV2 Unterstützung in Hardware rechnen kann.
@eastcoast_pete meinst du für encode oder decode. Für encoding wird es sicherlich dedizierte Hardware beschleuniger bei den googles dieser Welt geben. Hardware encoding in GPUs wird noch ne ganze Weile brauchen. Braucht es immer. Damit steht und fällt das codec aber nicht.
Decoding wird da deutlich schneller in die GPUs kommen (und bis dahin geht auch software decode). Auch das wird allerdings noch Jahre brauchen. Wie gesagt, nur weil der Standard jetzt "fertig" sein soll heißt es noch lange nicht, dass das ganze fertig ist. Jetzt geht die Arbeit erst so richtig los. AV1 ist doch auch noch massiv im Ausbau von Funktionalitäten und Qualität. SVT-AV1 hat ne Ewigkeit gebraucht um dahin zu kommen wo es jetzt ist, und hat auch noch sehr viel vor sich. Bei den Hardware beschleunigten Varianten sieht es denke ich mal noch deutlich dürftiger aus (einfach weil es da IMMER dürftiger aussieht). Und sowas wie x265 hatte auch schon Jahre auf dem Buckel bevor es wirklich als fantastisch und ausgereift von (fast) allen genannt wurde.
Wir sind noch viele Jahre weg bevor AV2 die potenziell große neue Sache wird.
@12nebur27 Vor allem zunächst fürs Dekodieren; Enkodieren in Hardware ist zwar auch wichtig für Smartphones, beim Enkodieren für Streaming nehme ich an, dass Google, Netflix, AWS usw auf eine Mischung aus Hardware und Software setzen werden, so wie bereits heute bei h.264, VP9 oder AV1. Enkodieren in Software verbraucht zwar mehr Strom, ergibt aber oft bessere Qualität pro MB; allerdings ist es gerade beim Streaming so, dass ein einmal enkodiertes Video von vielen (tausenden) bzw sehr vielen (Millionen) geschaut wird.
IMHO steht oder fällt AV2 mit der Verbreitung von ASICs bzw integrierten Unterstützung in Hardware. Selbst mit sehr gut optimierter Software kommt man selten bis nie an die Effizienz dedizierter Hardware (ASIC) ran. Deshalb würde mich interessieren, welche Firmen bereits daran arbeiten, und wann man mit den ersten GPUs (integriert und dediziert) und SoCs für mobile Geräte (Smartphones, Tablets, Notebooks) rechnen kann.
AV2 ist ja noch nichtmal final. Vor 2027 ist nirgends damit zu rechnen. Die Hersteller haben schon längst festgelegt im nächsten Jahr verbaut/vorgestellt/erscheint, etc .... Die ersten Geräte mit AV2 HW-Decoding werden dann auch nur solche sein mit einem neuen SoC/Chips, und die sind dann auch meist erst Premium Sektor vertreten.
Diese Grafik ist von 2021 und trifft die bisherigen Vorhersagen so ziemlich genau
AV2 ist ja noch nichtmal final. Vor 2027 ist nirgends damit zu rechnen. Die Hersteller haben schon längst festgelegt im nächsten Jahr verbaut/vorgestellt/erscheint, etc .... Die ersten Geräte mit AV2 HW-Decoding werden dann auch nur solche sein mit einem neuen SoC/Chips, und die sind dann auch meist erst Premium Sektor vertreten.
Diese Grafik ist von 2021 und trifft die bisherigen Vorhersagen so ziemlich genau Anhang anzeigen 1665448
Gerade weil AV2 gerade erst fertiggestellt wurde wär es IMHO interessant, wer/welche Firmen hier jetzt die Entwicklung starten, und welche nicht. Diese Entscheidungen werden ja nicht nur durch die jeweilige Kompetenz getroffen, sondern oft genug auch wegen der Produktpolitik; Apple und Qualcomm wären (nehme ich stark an) sehr wohl in der Lage gewesen, AV1 Dekodierung schon vor > 3 Jahren in ihre SoCs zu integrieren, wollten das aber scheinbar nicht - aus welchen Gründen auch immer.
In dem Fall hast du wohl Recht. Muss mich da entschuldigen. Hab so eben die Gegenprobe hier auf meinem Office PC gemacht. (Die Signatur unten muss ich mal überarbeiten die stimmt nicht mehr für den Office PC)
Das hilft nur nicht den Displayport Nutzern die einen einheitlichen Anschluss wollen der auch von TV und Konsolen, Blurayspieler und Musikanlage genutzt wird.
AMD steht es frei denselben Weg wie die anderen eingeschlagen haben zu gehen, daran hindert sie niemand, ... viele Wege sind nicht gerade, dann fährt man halt Kurven
@onetwoxx AMD macht es aber gerne anders und dafür finde ich AMD sogar besser. Einfach mal Dinge quellcode-offen bereitstellen, so dass man sie studieren (wenn man kann) anpassen kann. Anstatt da Geheimnisse draus zu machen. Das haben sie auch mit dem RocM Framework für KI Zeugs so gemacht um gegen die Nvidia APIs aufzuholen.
AMD wird wohl oder übel zwangsweise den proprietären Weg über amdgpu pro gehen müssen und damit bei diversen Systemen nicht in den Standardrepos landen, was ein gewaltiger Pluspunkt ist, wenn man sich in diversen Aspekten Anteile auf Linux Systemen sichern möchte.
@onetwoxx auch ne Idee was es mit HEVC Advance auf sich hat?
ich hab ja viel Messungen gemacht mit unterschiedlichsten Geräten nur so ganz konnte ich mir manches einfach nicht erklären.
v.a.den FHD Quali modus von Disney+ der angeblich doppelte Bandbreite von 4GB Pro Stunde statt 2 GB braucht aber real nur halb so viel nutzt danke HEVC ?
Ergänzung ()
@Rickmer Netflix bietet mwn nur das schlechtere HDR10+ mit AV1 Codec (in 4k?) an bzw SDR10 FHD
inwieweit der Pixelmatsch dank 10 Bit Interpolierung wirklich Qualität ist?
ist ja selbst 8Bit h264 schon übelst runterkompromiiert bei denen
@onetwoxx was hat es mit HEVC Advance Features (Lizenzen?) auf sich.
ich hab das nur auf ner TV Packung stehen sehen mir aber keinen Reim drauf machen können was da jetzt relevantes Feature technisch dabei sei und warum Amazon hier bei Verwendung von HEVC kein Problem sah trotz Patentklage
@Pitt_G.
Bei der Klage ging es nicht um den Codec sondern um ein Dekodier-und Bereichtstellungsverfahren dass auf bessere Kompatibilität und Effizenz anhand von diversen Abfragen zur variablen Paketaufteilung und -auslieferung setzt. Und Amazon hat sich einfach ins "Gemachte Nest" gesetzt um Anpassung- und Entwicklungskosten zu sparen.