News AV1-Nachfolger: Der AV2-Codec soll noch bis Ende 2025 fertiggestellt werden

Ist auf alle Fälle sehr interessant und immer wieder spannend, sich mit der Technik dahinter zu beschäftigen.
Was ich vor einigen Tagen zufällig gelesen habe: H266 ist seit 2020 finalisiert. Nicht wirklich was bisher davon gehört. Bis zu 50% weniger Bitrate nötig als H265 ...
 
  • Gefällt mir
Reaktionen: Haggis
Loretta schrieb:
Nichts für mein LibreELEC
Das ist LibreELEC oder jeglicher anderen Media Software herzlich egal. Warum? Weil die Software selber nichts decodiert. Sie verlässt sich rein auf deine genutzte Hardware aka verbaute Grafikeinheit und ob diese AV1 "in Hardware = dafür verbauten Chip im Chip hat der auch AV1 unterstützt" decodieren kann.

Das ist auch der Grund warum es sich am PC oder Media PC's nur so schleppend durchsetzt. Weil es muss mindestens eine AMD 6000 oder nvidia 3000 Karte verbaut sein damit AV1 unterstützt wird. Wer also nicht in den letzten Jahren aufgerüstet hat (gestiegene Grafikkarten preise sei Dank... :rolleyes: ) dessen PC kann nichts mit AV1 anfangen. Dadurch ist das so ein schleichender Prozess weil die Masse da draußen ist kein Gamer der in relativ kurzen Abständen von ein paar Jahren eine neue Grafikkarte benötigt. Und bei Office und Co PC''s wozu ja auch YouTube zu gehört die fast die einzigen sind die es groß unterstützten sind diese PC's entsprechend alt...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Metalyzed und SweetOhm
Ich habe letztes Jahr alles auf meinem jellyfin Server mit Tdarr automatisch zu AV1 kodieren lassen. Der Qualitätsverlust ist in 9 von 10 Fällen auch im Standbild nicht sichtbar.
Vor der Umwandlung waren meine Platten fast voll (ca 80%) und danach bei ca 30% Belegung. Man spart schon enorm viel Platz und ich wette, dass die meisten die Unterschiede nicht sehen können.
 
  • Gefällt mir
Reaktionen: jusaca, Haldi, Qyxes und eine weitere Person
Sollen sie machen, was sie wollen. Als Entwickler integriert man wie bisher einfach Akamai oder einen ähnlichen Dienst. Der wählt dann zur Laufzeit automatisch den besten Codec und das passende Format für das jeweilige Endgerät aus – mal MP4 mit H.264 oder H.265, mal ein Stream in AV1 oder künftig eben AV2. Mir ehrlich gesagt völlig egal.

Das ist bei statischen Bildern und ihren Formaten (JPEG, WebP, AVIF etc.) genauso. Es gab sogar manchmal ganz witzige Situationen, in denen alten Firefox-Versionen oder bestimmten Geräten JPEG2000 ausgeliefert wurde, weil es für die Dateigröße das optimale Format war.

Ist am Ende für Hersteller von Medien am relevantesten. Die klatschen alles ins CDN* und ab da purzeln die Sachen raus, die die zahlende Kundschaft abspielen kann.

* Ein reines CDN kann sowas nicht. Aber die meisten Dienste bieten beides an. Das nur zur Klarstellung 😅
 
Zuletzt bearbeitet: (Nachtrag)
...und irgendwann wird dann ein 56k Modem für Youtube reichen.
 
  • Gefällt mir
Reaktionen: Dimensionday
MoonTower schrieb:
H266 ist seit 2020 finalisiert. Nicht wirklich was bisher davon gehört. Bis zu 50% weniger Bitrate nötig als H265 ...
Wer interessiert sich auch für H.266 wenn AV1 dasselbe kann, aber ohne Lizenzkosten und mit höherer Akzeptanz bei Herstellern für Hardwarebeschleunigung?
 
  • Gefällt mir
Reaktionen: Shoryuken94
latiose88 schrieb:
Ich musste dann komplett umstellen oder die alte Hardware gegen ne aktuellere austsschen
Du musst garnix und das was du da schreibst klingt ziemlich wirr.

Die Anbieter adaptieren neue Codecs und spielen halt das an den Nutzer das aus, was unterstützt wird und am effizientesten ist. Spart erstmal Bandbreite und Kosten auf beiden Seiten. Wenn deine Endgeräte neuere Codes unterstützen, bekommst du halt bessere oder gleichbleibende Qualität zur selben oder geringeren Bandbreite. Du kannst und wirst das selbe Video idR. in unterschiedlichen Formaten bekommen, je nach dem mit welchem Endgerät du es abrufst.

Das sind immer fließende Übergänge, niemand zwingt dich deine Hardware wegzuschmeißen und kaum ein Anbieter wird ein großteil der Kundschaft abweisen, nur weil sie nicht die neuste Hardware haben...
 
  • Gefällt mir
Reaktionen: Hate01 und bit_change
Rickmer schrieb:
Das fängt so langsam an, wie schwarze Magie zu klingen.
Das wäre es auch, wenn man wirklich in allen Situationen die Bitrate um 30 % drücken könnte. Damit das bei gleicher Qualität klappt, müssen schon alle Rahmenbedingungen passen, ein perfekt ausgeleuchtetes Bild ohne Rauschen, was sich auch möglichst wenig bewegt, nur dann wird das was. Sobald Rauschen ins Spiel kommt, tun sich alle neueren Codecs schwer, von H.264 abzusetzen, denn Rauschen ist komplett random, sowohl temporal als auch spatial. Da kann kein moderner Codec seine ganzen Bewegungsanalysen anlegen.
 
  • Gefällt mir
Reaktionen: 12nebur27
Gamefaq schrieb:
Das ist LibreELEC oder jeglicher anderen Media Software herzlich egal. Warum? Weil die Software selber nichts decodiert. Sie verlässt sich rein auf deine genutzte Hardware aka verbaute Grafikeinheit und ob diese AV1 "in Hardware = dafür verbauten Chip im Chip hat der auch AV1 unterstützt" decodieren kann.
wenn die hardware es nicht kann, gibt es einen fallback auf den software-decoder.
Gamefaq schrieb:
Das ist auch der Grund warum es sich am PC oder Media PC's nur so schleppend durchsetzt. Weil es muss mindestens eine AMD 7000 oder nvidia 4000 Karte verbaut sein damit AV1 unterstützt wird.
av1 in hardware gibt es ab der rx 6000 reihe (ausnahme 6400/6500) und rtx 3000.
Gamefaq schrieb:
Wer also nicht in den letzten Jahren aufgerüstet hat (gestiegene Grafikkarten preise sei Dank... :rolleyes: ) dessen PC kann nichts mit AV1 anfangen. Dadurch ist das so ein schleichender Prozess weil die Masse da draußen ist kein Gamer der in relativ kurzen Abständen von ein paar Jahren eine neue Grafikkarte benötigt. Und bei Office und Co PC''s wozu ja auch YouTube zu gehört die fast die einzigen sind die es groß unterstützten sind diese PC's entsprechend alt...
av1 in software dekodieren ist heutzutage kein problem. mein 7 jahre alter i5 im notebook macht 1080p bei 700 MHz und 25% last... av1 in hardware ist bei mobilgeräten in hinsicht auf den akku sicherlich nice to have, ansonsten ist der dekoder inzwischen dermassen performant, dass das kein problem mehr darstellt.

1760180827237.png


und bevor jemand rummosert: das ist von meiner bluray hier im schrank.
 
  • Gefällt mir
Reaktionen: Wilson_Fisk, Col. Jessep, Deinorius und 8 andere
Ganjafield schrieb:
Eher 40 mbit und aufwärts. Keine Ahnung ob dieses Gerede hier stimmt, dass bei sehr hohen Bitraten h265 oder h264 besser ist. Dafür würde ich mal nach einer Quelle fragen.
Im VR Bereich gab es mal in einem Sammler dazu von jemandem Vergleichsfotos und ja AV1 verwäscht da anscheinend Flächen.
Das Thema ist halt schon interessant, wenn man über WLAN den PC auf die VR Brille streamt. Die Quest 3(S) und die Pico 4 Ultra können AV1 per Hardware decodieren und entsprechend mit einer RT4000 aufwärts kann man das halt auch encoden und je nachdem wie gut die WLAN Verbindung ist, ist das Thema Video Kodierung da schon ein größeres Thema.
 
  • Gefällt mir
Reaktionen: Hate01 und Ganjafield
Looniversity schrieb:
Eigentlich müsste man das mal testen, indem man dasselbe raw-Material einmal mit den alten Codecs (was war das damals? Müsste sowas wie DV/H.263/"MPEG-alt"/DivX gewesen sein? Edit: Link zu Wiki) und einmal mit dem neuen AV2 kodiert. Da stellt sich schon die Frage, ob das überhaupt noch geht oder die alten Codecs angesichts von 4k-Auflösung und modernen Sensoroutputs schlicht kapitulieren. Kennt sich hier jemand damit aus?
Ich sehe nicht, warum das ein problem wäre. Kann man ja recht leicht testen. Kannst ja einfach keine Ahnung, ein 120mbit 4k video nehmen und dann mit mpeg2 transkodieren. Ich kann das mal testen wenn ich Zeit habe. Schwierigkeiten sehe ich aber keine.
Looniversity schrieb:
Wäre auf jeden Fall sehr interessant, ob das mit 84% geringerer Bitrate auch nur annähernd die gleiche Qualität ergibt.
Das ist sehr sehr schwierig zu sagen. Menschen gewichten die Größe der Unterschiede sehr anders als die Mathematik. Und dann ist es von Mensch zu Mensch auch anders wie wichtig ihm Teilaspekte des Videos sind. VMAF versucht das da so ein bisschen aber am Ende gibts auch da dann noch Unterschiede wo ich einiges sehe und anderes gar nicht.
Dazu kommt, dass der Encoder je nach Szene sich komplett anders verhalten kann. Ich bin mir sicher es gibt einige sehe kluge Köpfe die gut bezahlt werden sich mit diesen Sachen auseinander zu setzen aber mal Hemdsärmelig da so eine Analyse zu fahren ist ein bissel schwierig. Besonders weil du es ja mit jeder Bitrate entscheiden musst weil die Encoder anders in der Performance bei unterschiedlichen Bitraten skallieren.
 
  • Gefällt mir
Reaktionen: Looniversity
0x8100 schrieb:
wenn die hardware es nicht kann, gibt es einen fallback auf den software-decoder.
Den aber kein Anbieter Online nutzt.

Was du lokal machen kannst und was online passiert sind zwei paar Schuhe. Und nur darum geht es. Betritts du YouTube sagt deine aktive Grafikkarte welche Formate sie unterstützt und ist das maximal H265 dann bekommt sie die 4k Videos in H265 kann sie nur H264 bekommt sie auch nur H264 oder anstatt AV1 eben YouTubes VP9 (wenn sie es kann). Da interessiert niemanden das du es theoretisch in Software über die CPU machen könntest weil DEIN PC genug Leistung dafür hat.
0x8100 schrieb:
av1 in hardware gibt es ab der rx 6000 reihe (ausnahme 6400/6500) und rtx 3000.
Stimmt, hab es oben korrigiert.
0x8100 schrieb:
av1 in software dekodieren ist heutzutage kein problem
Siehe erste Antwort. Niemand sucht explizit nach Videos in AV1. Wenn dann nur zu Test zwecken. Aber nicht beim normalen Surfen egal wo.
 
  • Gefällt mir
Reaktionen: SweetOhm
Gamefaq schrieb:
Den aber kein Anbieter Online nutzt.

Was du lokal machen kannst und was online passiert sind zwei paar Schuhe. Und nur darum geht es. Betritts du YouTube sagt deine aktive Grafikkarte welche Formate sie unterstützt und ist das maximal H265 dann bekommt sie die 4k Videos in H265 kann sie nur H264 bekommt sie auch nur H264 oder anstatt AV1 eben YouTubes VP9 (wenn sie es kann). Da interessiert niemanden das du es theoretisch in Software über die CPU machen könntest weil DEIN PC genug Leistung dafür hat.
da ist kompletter unsinn. der browser sagt, welche formate er unterstützt, nicht die gpu:
1760184704863.png


und wenn der browser av1 kann (und wenn es nur in software ist), dann bekommt er das auch:
1760184736014.png
 
  • Gefällt mir
Reaktionen: Hate01, Deinorius, SweetOhm und 2 andere
Looniversity schrieb:
Dabei ist die Bildqualität von Youtube selbst bei dem, was dort 1440p oder 4k heißt schon die allerletzte Grütze, teilweise ist das Bild schlechter als beim alten HD1 PAL-Antennenfernsehen. bleurgh

Ich weiß ja nicht, welches YouTube du nutzt, aber die Bildqualität mit 4K AV1 ist eigentlich sehr gut.
Keine Ahnung, wie du so eine Qualität mit der Grütze von PAL TV vergleichen willst. Das kann doch nicht dein Ernst sein?!

Screenshot 2025-10-11 143832.png

Selbst mit sehr starkem DoF gibts nur ganz leichtes banding und so gut wie kein gematsche. Selbst die dunklen haare sind sauber definiert und extrem scharf.

Und ja, natürlich ist YouTube darauf ausgelegt, Bandbreite zu sparen. Das YouTube Videos wird also zwangsläufig sichtbar schlechter aussehen, als das Quellmaterial. Deswegen ist es umso wichtiger, dass die Aufnahme und das hochgeladene Video extrem hohe Bitraten haben. Alles was man an Bildqualität während der Aufnahme und dem Editing verliert wird halt nochmal sichtbar schlechter im finalen YouTube encode.

Wenn der Upload also gerade so über der schwelle ist, dass es gut aussieht, wird es mit dem YouTube Encode vielleicht schon in den Bereich rutschen wo man deutlicher artefakte sieht. Wenn man aber mit Bitraten hochlädt, die overkill sind, dann landet man trotz youtube encode eben in einem Bereich der noch gut aussieht, weil der YouTube Encode dann bestmögliche Voraussetzungen bekommt.

Der zweite oder oft schon dritte Encode durch den YouTube Encoder amplifiziert eben jegliche schwächen die im Quellmaterial schon vorhanden sind. Kurz gesagt: Viele YouTuber achten zu wenig auf die Bildqualität ihrer Videos und laden irgendwelche 25 oder 50 Mbps encodes auf YouTube hoch. Das sieht dann halt nicht mehr so perfekt aus nachdem der YouTube Encoder drüber gejagt wurde. Aber das sollte eigentlich jedem klar sein, der weiß wie Codecs funktionieren. Jeder zusätzliche Encode ist gift für das Bild, ganz egal wie gut oder effizient der Codec ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Deinorius, malcolm und SweetOhm
Vielleicht meinte der Videos, die von SD auf 4k hochskaliert worden sind... :D
Thomrock schrieb:
Nein lohnt sich nur zum verkleinern der Dateigröße es kommt immer auf das Quellmaterial an ein H264 Stream wird von der Bildqualität nicht besser allerdings auch nicht schlechter.
Jedes erneute Enkodieren verschlechtert die Bildqualität, da es keine Losslescodecs sind.
Rickmer schrieb:
Wer interessiert sich auch für H.266 wenn AV1 dasselbe kann, aber ohne Lizenzkosten und mit höherer Akzeptanz bei Herstellern für Hardwarebeschleunigung?
Computerbase-K3v1n1337 weiß nicht, womit im professionellem Umfeld (dazu gehört nicht Youtube) gearbeitet wird.
Und im professionellem Umfeld sind eher AV1 und ggf. AV2 uninteressant.
 
  • Gefällt mir
Reaktionen: SweetOhm
Gamefaq schrieb:
Betritts du YouTube sagt deine aktive Grafikkarte welche Formate sie unterstützt und ist das maximal H265 dann bekommt sie die 4k Videos in H265 kann sie nur H264 bekommt sie auch nur H264 oder anstatt AV1 eben YouTubes VP9 (wenn sie es kann). Da interessiert niemanden das du es theoretisch in Software über die CPU machen könntest weil DEIN PC genug Leistung dafür hat.
Ich kann den Post von @0x8100 mit meinem alten Kaby-Lake-Notebook bestätigen, die UHD-620-iGPU kann definitiv kein AV1, wenn ich Youtube mit dem Google Chrome aufmache, bekomme ich aber trotzdem AV1-Videos ausgespielt, die dann über die CPU dekodiert werden.

Mimir schrieb:
Ich weiß ja nicht, welches YouTube du nutzt, aber die Bildqualität mit 4K AV1 ist eigentlich sehr gut.
Keine Ahnung, wie du so eine Qualität mit der Grütze von PAL TV vergleichen willst. Das kann doch nicht dein Ernst sein?!
Das ist romantische Verklärung, analoges PAL-Fernsehen ist seit Jahrzehnten abgeschaltet, dass ist lange her, dass man das gesehen hat. Ich war froh, als ich Mitte der 2000er meinen ersten Digitalreceiver hatte. Genauso liest man ja oft, wie schlecht doch die Qualität von Netflix ist, sieht ja selbst schlechter aus als eine DVD. Ich hatte dann mal Deep Space Nine, wo ich die alten PAL-DVDs habe, mit dem Netflix-Stream in 480p verglichen, und oh Wunder: Die Netflix-Version sah sauberer aus, weniger Kompressionsartefakte, besseres Bild, war übrigens in AV1 enkodiert. Die DVD strotze nur so vor Makroblocking und anderen MPEG2-Kompressionsartefakten, die auf dem 4K-OLED hochskaliert richtig mies aussahen. Das Netflix-Bild war einfach nur unscharf, weil es nur in 480p war.
 
  • Gefällt mir
Reaktionen: Metalyzed, Deinorius, Donnerkind und 3 andere
mario_mendel34 schrieb:
Ich kann den Post von @0x8100 mit meinem alten Kaby-Lake-Notebook bestätigen, die UHD-620-iGPU kann definitiv kein AV1, wenn ich Youtube mit dem Google Chrome aufmache, bekomme ich aber trotzdem AV1-Videos ausgespielt, die dann über die CPU dekodiert werden.
Bist du dir da 100% sicher? Weil deine IGPU unterstützt VP9 in Hardware , es ergibt keinen Sinn das dann Software für AV1 genutzt wird von YouTube! Weil speziell mobile unterwegs würde das den Akku praktisch leer lutschen gegenüber der Hardware Dekodierung in VP9.
 
mario_mendel34 schrieb:
Die DVD strotze nur so vor Makroblocking und anderen MPEG2-Kompressionsartefakten, die auf dem 4K-OLED hochskaliert richtig mies aussahen. Das Netflix-Bild war einfach nur unscharf, weil es nur in 480p war.
Die modernen Codecs sind sicher auch auf moderne Ausgabegeräte optimiert.
Alte DVDs wurden üblicherweise auf Röhren-TVs betrachtet. Da waren manche Fehler gar nicht sichtbar oder haben einfach besser zur Technik gepasst. Oder Interlacing steht z.B. heute nur im Weg, für den PAL-Fernseher von damals war das aber optimal.
 
Zurück
Oben