News AV1-Nachfolger: Der AV2-Codec soll noch bis Ende 2025 fertiggestellt werden

onetwoxx schrieb:
Und, ist oder wurde irgendetwas billiger durch AV1 ?
wer sagt denn, dass es für den endkunden billiger wird? für die anbieter ist es auf jeden fall günstiger - ob sie das an ihre kunden weitergeben, ist eine ganz andere sache.
 
N1truX schrieb:
Das ist in der Tat gar nicht so trivial, da z.B. H.262 (MPEG-2) nur bis Full HD spezifiziert ist
Richtig, das sollten allerdings nur Decoder-Limits sein. Ich weiß nicht welchen MPEG2-Encoder Handbrake nutzt (okay es ist sicherlich der von ffmpeg), jedenfalls lässt sich damit auch MPEG2 in 3840x2160p encoden. (sieht mit 80-140Mbit/s dann auch echt gut, selbst bei grainy Content)

0x8100 schrieb:
grain-synthese immer aktivieren, bei bedarf variance-boost dazuschalten
Code:
film-grain=8
enable-variance-boost=1
enable-overlays=1 (nur bei CRF möglich) und tune=0 ebenfalls, außerde in yuv42010le encoden. Einen guten Wert für die Grain-Synthese muss man eher durch Testen oder anhand von Erfahrung ausloten. Sollte so bei 8-24 liegen.
Außerdem auf aktuelle Builds achten.

mario_mendel34 schrieb:
Mit der Bitratenverteilung stimmt auch immer noch was nicht, ich habe vorhin testweise relativ sauberes 4K60-Videomaterial vom iPhone 17 Pro Max mit crf 20 und Preset 6 enkodiert, in den Szenen mit Bewegung knallt der Encoder da schon bis zu 400 MBit rein, aber wenn ich dann auf mein Gesicht gehe und einfach nur in die Kamera rede, meint er, er müsse komplett in den Bitratensparmodus gehen und nur noch mit 10 MBit enkodieren, dabei wischt er mir leider auch die Falten aus der Stirn.
Das Problem die Bitrate nicht optimal zu verteilen haben alle gängigen freien Encoder, auch x264 und x265. Du kannst beispielweise Content mit viel Grain mit CRF 22 encoden und das Grain wird mit 18-20 Mbit/s avg. richtig gut erhalten, wechselt das Bild dann allerdings zu einer dunklen low kontrast Szene, geht die Bitrate nicht selten auf 2 Mbit/s runter und das Bild sieht bescheiden aus. Da gibts auch wenig Mittel gegenzusteuern. Mbtree oder Cutree zu deakivieren bringt teilweise etwas. Oder man verringert CRF noch ein gutes Stück und versucht durch vbv-maxrate Limit eine möglichst constante Bitrate zu erzwingen. (eine völlig constante Bitrate ist bei x264 oder x265 nicht möglich, entspräche ja auch jeglichem Sinn einer modernen Videokomprimierung)
Den Encoder permanent in das vbv-maxrate & bufsize Limit rennen zu lassen schadet meines Wissens nach der Qualität jedoch am Ende auch.
Die besser Lösung ist meiner Meinung nach für kritische Bereiche des Videos Zonen festzulegen und die Qualität mittels Bitrate-Multiplier (hier Parameter "b") zu pushen.
--zones "Startframe","Endframe",b=1.5
--zones 200,600,b=1.5/5000,8000,b=1.8 etc...

Leider gibt es diese Funktion bei AV1 nicht. Und auch sehr Schade, dass die Encoder-Settings nicht wie bei x264/265 in den Videoheader geschrieben und ausgelesen werden können. Man weiß im Nachhinein nicht, welche Settings verwendet wurden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mario_mendel34, 12nebur27 und 0x8100
onetwoxx schrieb:
Und, ist oder wurde irgendetwas billiger durch AV1 ?
Selbstverständlich wird es billiger. Es gibt da so eine Webseite namens Youtube (einige hier dürften sie kennen), die kostenlos ist, und die nur mit guter Kompression überhaupt betrieben werden kann.

Logischerweise will man sein Budget lieber in mehr Speicher und eine schnelle Anbindung investieren, als in kostenpflichtige Codecs der Patentindustrie. Wenn sich sowas für Youtube lohnen würde, wie einige hier behaupten, dann hätten sie es getan. Haben sie aber nicht, stattdessen arbeiten sie lizenzfreien Codecs mit, von denen alle, inklusive Endanwendern, profitieren.
 
Gamefaq schrieb:
Interessant. Den früher war es definitiv so das das genutzt wurde was die Grafikkarte nativ in Hardware konnte.
Es gibt für nahezu alle Browser in deren „App-Store“ Erweiterungen, die dezidiert einen H264 Stream von YouTube anfordern. Habe ich auch installiert, dann hält der Akku wieder länger, da auf GPU dekodiert.
 
  • Gefällt mir
Reaktionen: Pitt_G.
Rickmer schrieb:
....Netflix und Co würden nochmal deutlich mehr kosten.
Ich weiß jetzt nicht was die Anbieter an Bandbreitekosten haben, aber bei doppelter zusätzlichen Enkodierung fallen auch Kosten an.
Hardware-Fan schrieb:
Selbstverständlich wird es billiger. Es gibt da so eine Webseite namens Youtube (einige hier dürften sie kennen), die kostenlos ist, und nur mit guter Kompression überhaupt betrieben werden kann.

Logischerweise will man das Budget lieber in mehr Speicher und die schnelle Anbindung investieren, als in kostenpflichtige Codecs der Patentindustrie. Wenn sich sowas für Youtube lohnen würde, wie einige hier behaupten, dann hätten sie das getan. Das ist aber nicht so, denn stattdessen arbeiten sie lizenzfreien Codecs mit, von denen alle (inkl. Privatanwender für den Eigenbedarf) profitieren.
Uih, der Multimillardenkonzern spart Kosten ein damit sein werbefinanzierter Dienst noch mehr Geld abwirft, und auch weiterhin kostenlos bleibt, guter Witz
 
onetwoxx schrieb:
zusätzlichen Enkodierung fallen auch Kosten an.
Encodiert wird ja nur 1x, ausgeliefert wird millionenfach. Youtube hat sich das sicher gut überlegt.

onetwoxx schrieb:
Multimillardenkonzern
Dieses Gebashe ist mir ehrlich gesagt wurscht. Es geht ja hier um lizenzfreie Codecs, und die kommen allen zu Gute. Ich verstehe auch nicht, warum manche unbedingt überflüssige Kosten durch schlechte Codecs oder Patent-Trolle produzieren wollen. Diese Kosten müssen auf irgendeinem Weg wieder rein kommen, das ist doch klar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 12nebur27
onetwoxx schrieb:
Ich weiß jetzt nicht was die Anbieter an Bandbreitekosten haben, aber bei doppelter zusätzlichen Enkodierung fallen auch Kosten an.
wenn sich das nicht lohnen würde, würden youtube & co. nicht verschiedene versionen enkodieren und speichern.
onetwoxx schrieb:
Uih, der Multimillardenkonzern spart Kosten ein damit sein werbefinanzierter Dienst noch mehr Geld abwirft, und auch weiterhin kostenlos bleibt, guter Witz
und? ist kosteneinsparung bei unternehmen kein valides ziel? vielleicht schaust du einfach mal, wer hinter aomedia steht und auf welcher seite da hauptsächlich kosten gespart werden sollen.
 
  • Gefällt mir
Reaktionen: 12nebur27
onetwoxx schrieb:
Der Hersteller lizensiert dass was seine Geräte zur bestmöglichen Kompatibilität und Verbreitung hilfreich ist, und da wird auf lange Sicht weder ein Weg an h265 noch h266 vorbeiführen
Das wohl eher durch diverse Unternehmen wie Sony und Co durchgedrückt. Nicht, weil h266 besser ist sondern, weil sie die Inhalte rausbringen. Schaut man mal auf die Mitgleider der AO Media Alliance, wird vielleicht deutlich, was ich meine. Sony ist beispielsweise dort nicht gelistet, aber in der Via Licensing Alliance, die zufällig diverse Patente für diese Codecs verwaltet. Wo ist Sony noch? In der HDMI Group. Da wirkt schon eine gewaltige Macht in einer Kette, die an jeder Stelle mitkassieren möchte. Ansonsten würde ich doch meinen, dass DisplayPort HDMI überlegen ist, aber trotzdem haben Fernseher und Monitore und GPUs immer noch HDMI Anschlüsse, obwohl sie für diese bezahlen müssen.

mario_mendel34 schrieb:
Was man bei den besseren Streaming-Diensten bei modernen Produktionen ausgespielt bekommt, ist qualitativ bei diesen Bitraten in der Regel exzellent und nicht weit weg von einer eventuellen UHD-Bluray (eventuell sogar besser, weil der Stream in Dolby Vision ist und die UHD-BD nur in statischem HDR10).
Nett. Mal kurz in einfachen Worten: Dolby Vision ist grob gesagt ein Softwarefilter, der die Farbenwerte pro Bild noch einmal anpasst? Also im Prinzip ähnlich wie der Software Rauschfilter von av1? Der Vorteil gegenüber einem statischen Bild liegt ja auf der Hand: Der Decoder kann seine Parameter bzw. die des Ausgabegeräts mit einfließen lassen, um das Optimum zu berechnen.
Was Bitraten und Bildqualität angeht: Ich habe lange genug auf einzelne Frames zwischen Ursprungsmaterial (Bluray) und meinem Encode geworfen, der speicheroptimiert ist. Ja, es hat einen Qualitätsverlust, aber die groben Schnitzer wie Kompressionsartefakte und Banding sind mir nicht mehr aufgefallen.
Und ehrlich gesagt halte ich mich auch an die Aussage von jemanden, dass man einen Film schaut und nicht pausiert um die Bildqualität zu begutachten. Das Pausieren hat mir nebenbei gezeigt, dass billige Animes auch nur aus einem Background Layer bestehen auf dem die Figuren als eigene Layer agieren. :)
Da bin ich am Ende froh, dass ich die Qualität nicht besser kenne oder brauche. Wie ich kürzlich schon im Kontext von Audio sagte: Meine kleinen 100€ Edifier Regallautsprecher haben schon einen netten Klang. Ein Subwoofer würde noch einen richtigen Wumms hinzufügen. Aber pro Lautsprecher 500 Euro zu bezahlen, ist mir einfach zu viel ohne, dass jetzt etwas vermisse. Vorher sollte ich gar nicht erst an 5.1 denken. :D
Respekt vor Puristen und ihre eingemessenen Systeme, aber mein Schwerpunkt liegt dann doch woanders.
 
0x8100 schrieb:
und? ist kosteneinsparung bei unternehmen kein valides ziel?
Klar, aber dann mit dem Argument kommen damit der Dienst auch weiterhin kostenlos bleiben kann, ist ein wenig scheinheilig, wenn man bedenkt was Google für einen Gewinn jedes Jahr nach Steuern generiert
 
x264.exe schrieb:
Das Problem die Bitrate nicht optimal zu verteilen haben alle gängigen freien Encoder, auch x264 und x265.
Die beiden haben das aber im Vergleich mit der Konkurrenz noch relativ gut im Griff. Nicht nur SVT-AV1 greift da häufig so sehr daneben, die Hardware-Encoder auf den Grafikkarten ebenso. Der H265-Export in Davinci-Resolve über den Apple-Hardware-Encoder ist deshalb auch in CBR, damit da nicht ständig inkonsistente Ergebnisse bei rauskommen. Immer, wenn ich mit dem Apple Encoder im Constant-Quality-Modus enkodiere, muss ich mehrere Testencodes machen, weil die Qualität, die hinten raus kommt, je nach Szene jedes Mal eine andere ist. Für x264 und x265 habe ich meine wenigen Tricks und Kniffe, mit denen ich eigentlich nahezu alles gut enkodiert bekomme.

x264.exe schrieb:
Oder man verringert CRF noch ein gutes Stück und versucht durch vbv-maxrate Limit eine möglichst constante Bitrate zu erzwingen.
So habe ich das bei meinem gerade laufenden SVT-AV1-Encode gelöst, ich habe mit einem Gesichtsshot den CRF so eingestellt, dass ich auf die gleiche Bitrate komme wie mit meinem x265-Encode (in dem Fall bin ich bei crf 12 gelandet), und dann habe ich mit dem mbr-Parameter einfach einen Bitratendeckel bei 100 MBit gesetzt, großartig mehr schafft mein TV auch nicht mehr, flüssig abzuspielen, x265 muss ich auch über vbv-maxrate begrenzen.

x264.exe schrieb:
Die besser Lösung ist meiner Meinung nach für kritische Bereiche des Videos Zonen festzulegen und die Qualität mittels Bitrate-Multiplier (hier Parameter "b") zu pushen.

Leider gibt es diese Funktion bei AV1 nicht.
Das kannte ich allerdings auch noch nicht, geht das nur in x264 oder auch in x265? Schlussendlich werde ich für die Archivierung meiner Videos wohl auf eine x265-Masterdatei setzen, die ProRes-Dateien fressen mir wahrscheinlich sehr schnell meinen Speicherplatz weg.🤣

Penman schrieb:
Nett. Mal kurz in einfachen Worten: Dolby Vision ist grob gesagt ein Softwarefilter, der die Farbenwerte pro Bild noch einmal anpasst? Also im Prinzip ähnlich wie der Software Rauschfilter von av1?
Nein, Dolby Vision hat nichts mit Farben oder Rauschfiltern zu tun, das ist ein dynamisches HDR-Format. Statisches HDR10 legt HDR-Metadaten mit Minimum- und Maximum-Helligkeit einmal für den ganzen Film fest, der Fernseher justiert anhand dieser Metadaten sein Tonemapping. Da es bisher noch kein Display gibt, welches den BT2020-Farbraum komplett abdeckt und die komplette Helligkeitsrange auch auf dem Vollbild darstellen kann, muss das Tonemapping im TV hier relativ stark eingreifen. Dolby Vision speichert diese Metadaten nicht einmal für den ganzen Film, sondern für jede einzelne Szene, so kann der Fernseher pro Szene das Tonemapping optimal einstellen und nicht nur einmal für den ganzen Film. Wenn es irgendwann in 50 Jahren mal ein perfektes Display gibt, braucht man das nicht mehr. Aber gerade auf OLED-Fernsehern ist Dolby Vision bei der HDR-Darstellung teils deutlich besser als statisches HDR10.

Penman schrieb:
Und ehrlich gesagt halte ich mich auch an die Aussage von jemanden, dass man einen Film schaut und nicht pausiert um die Bildqualität zu begutachten.
Ihr habt es einfach, ihr enkodiert ja nur Bluray-Filme. Wenn ihr da später doch feststellen solltet, dass der Encode nicht optimal war, könnt ihr einfach die Bluray nochmal rippen und neu encodieren. Wenn ich bei meinen Videos einmal die Prores-Masterdatei gelöscht habe, muss ich für alle Zeiten mit meinem finalen x265-Encode leben, der muss perfekt sein.
 
  • Gefällt mir
Reaktionen: Penman
@0x8100

Wobei Einsparungen auch auf Kundenseite bestehen. Bei der Entwicklung von Codecs wird ja auch darauf geachtet, dass Decoding effizient implementierbar ist[1]. Gerade bei allem was irgendwie funkt, sind reduzierte Datenraten zu begrüßen. Einmal wegen der gesparten Energie und zum Anderen wegen geringerer Nutzung der Airtime.
Es ist halt fraglich, ob Vorteile durch höheren Mengen an Pixeln und höherer Farbauflösung der Effizienzgewinn gefressen wird.


[1] Aufwand bei der Laufzeit in Software, Transistorbedarf bei Hardware und schlussendlich Energie.
 
Penman schrieb:
dass DisplayPort HDMI überlegen ist, aber trotzdem haben Fernseher und Monitore und GPUs immer noch HDMI Anschlüsse, obwohl sie für diese bezahlen müssen.
So lange diverse Features (ARC ,eARC, CEC ,QMS, QFT) bei Displayport nicht vorhanden sind und die Geräte in Home Entertainment Bereich nicht alle auf DP setzen ist es da nahezu nutzlos dauf zu setzen.
Zudem spielt auch DRM eine Rolle.
 
Das mit diesem Ungleichgewicht an Funktionen für DisplayPort ist schade, ich hoffe das gibt sich noch.
Dann könnte man mit USB-C für den Stecker und Thunderbolt als Garant für einen gemeinsamen Funktionsumfang den Kabelsalat noch etwas ausdünnen.
Kriegen wir schon hin.

Es geht ja nicht nur darum dass es für Streamingdienste günstiger wird oder man auf den lokalen Speichern noch einen Film mehr unterbringt. Man kann dann auch wenn man selbst Video-Telefonie nutzt oder anderen Live beim Arbeiten/Spielen zuschaut Bandbreite einsparen und das hilft durchaus in der Masse.
Ich freue mich unterwegs stabilere Verbindungen und besseres Bild zu haben wenn ich mit weniger Datenvolumen auskomme.
 
SavageSkull schrieb:
Im VR Bereich gab es mal in einem Sammler dazu von jemandem Vergleichsfotos und ja AV1 verwäscht da anscheinend Flächen.
Und ist vielleicht dafür an anderen Stellen besser als h265? Ohne Quellen ist es für mich keine objektive Tatsache und nur Behauptungen hier im Forum, die viel zu oft unwidersprochen bleiben. Vielleicht wurde in dem Fall Etwas falsch gemacht?
Ich kenne bisher nur Tests die AV1 eindeutig eine bessere Qualität bescheinigen, lasse mich aber auch gerne bei hohen Bitraten vom Gegenteil überzeugen und wäre wirklich sehr interessiert, ob es der Fall ist.
 
onetwoxx schrieb:
Also Youtube wurde für dich billiger?
Wenn ein kostenloser werbefinazierter Dienst, Geld einspart, wurde für dich genau was jetzt billiger, das kostenlose ?
Eher wurde die Werbung mehr als weniger trotz geringerer Kosten durch effizientere Codecs... ;)
 
mario_mendel34 schrieb:
Das kannte ich allerdings auch noch nicht, geht das nur in x264 oder auch in x265?
Geht bei Beiden. Anstelle des Multiplikators kann man auch crf oder qp nehmen. Bei x265 allerdings nur qp oder eben den Multiplikator "b". Wird aber bei Resolv wahrscheinlich nicht gehen, da bei vielen dieser Programme das Encoder-Feintuning nicht möglich ist. Müsstest du dann mit Prores exportieren und den proper Encode mit FFmpeg oder Staxrip machen.
 
  • Gefällt mir
Reaktionen: mario_mendel34
@x264.exe Perfekt, dann muss ich das mal ausprobieren, vielleicht brauche ich dann bei x265 auch gar nicht so eine niedrige globale crf-Einstellung. Aus Resolve gehe ich eh immer in ProRes raus, da sind nicht einmal die Hardware-Encoder voll konfigurierbar. Den direkten H.265-Export aus Resolve benutze ich nur am Macbook, wenn ich ein fertiges Video nur schnell weitergeben möchte und Qualität keine Rolle spielt.
 
onetwoxx schrieb:
@WinnieW2
Jeder TV mit Mediatek Pentonic SoC
Gibt es eine Liste mit Gerätemodellen in die SoC von diesem Hersteller verbaut sind und wie viele dieser Gerätemodelle verkauft wurden?
Weil, wenn wir hier von Marktnischen reden, welche Rolle spielt das dann bitte?
 
@mario_mendel34
Finde eine so hohe Bitratespreizung allerdings schon untypisch. 10-80 okay aber 10-400 Mbit/s? Das muss ja enorm schwierig zu kompimierender Content sein.
 
  • Gefällt mir
Reaktionen: 12nebur27
@x264.exe Es sind in der Spitze sogar 470 Mbit gewesen, bei dieser Stelle:
470MBit.jpg

Da sind halt sehr viele Feindetails, und die Kamera bewegt sich nach vorne und wackelt ein bisschen.

Die 10 MBit sind ein Closeup auf mein Gesicht, Hintergrund mit Tiefenunschärfe, und es bewegt sich im Großen und Ganzen nur mein Mund.
 
Zurück
Oben