News AV1-Nachfolger: Der AV2-Codec soll noch bis Ende 2025 fertiggestellt werden

Ah ... Natürlich, danke, die Player-Software kann das. Warum auch immer, konnte ich gerade nur auf System-Ebene denken. :lol:
 
Ganjafield schrieb:
Sehr cool... leider wird es wieder viele Jahre dauern, bis dafür eine halbwegs gute Marktdurchdringung besteht. Es gibt noch genügend TV Sticks, Smart TV, Smartphones, Tablets usw. die bis heute kein AV1 decodieren und schon gar nicht encodieren können. AV2 könnte sogar noch länger brauchen, da die Qualität nicht so heftig besser werden wird.
Ich denke, dass es bei AV2 schneller gehen wird. Ein Umstand, der es bei AV1 stark verlangsamt hat war, dass sehr viele Chips zuvor keine Codecs aus der Familie (VP8/9) unterstützt haben und wegen der ganzen Software-Patenten rund um die MPEG-Codecs musste man in vielen Bereichen alles etwas anders machen. AV2 hingegen baut auf AV1 auf und das wird mittlerweile schon viel mehr unterstützt, so dass es viel einfacher sein sollte AV2 hinzuzufügen.

andy484848 schrieb:
Gibt es zwischen h265 und av1 in der streaming qualität tatsächlich ein sichtbaren Unterschied? Klar der Vorteil von av1 liegt bei niedriger bandbreite . Aber nehmen wir mal an 4k 120fps und 100mbit . Da ist doch kein Unterschied mehr zu sehen oder?
Beim Streaming ist die Bandbreite das entscheidende. Mit genügend davon könntest du auch MPEG2 nehmen und hättest beste Qualität. Bei hohen Bitraten würde ich immer zu H.264/AVC raten. Es ist schnell, hat die beste Kompatibilität und immer noch brauchbare Kompressionsraten.
 
Zuletzt bearbeitet:
Hohe Bitraten dürften sowas wie 20 Mbit oder sowas sein nicht wahr ?
Und bei etwas niedrigen Bitraten wie 5 Mbit oder sowas ,ist h264 dann nicht mehr so gut unterwegs ?
 
@latiose88 Würde eher die Maxima von Blu-ray und UHD-Blu-ray ansetzen, also das, was Remuxe häufig mitbringen. Für eine Blu-ray wären das 48 Mbit/s und eine UHD-Blu-ray etwas zwischen 90 und 100 Mbit/s mit Ausreißern nach oben in Szenen, in denen viel los ist (technisches Maximum 128 Mbit/s).
 
  • Gefällt mir
Reaktionen: SweetOhm
OK damit bin ich ja mit 10 MBit bei 576i was am Ende zu 5 MBit 576p wird wohl am unteren Ende angekommen. Kein Wunder das sich meine Videos kaum noch beschleunigen lassen.
 
latiose88 schrieb:
Hohe Bitraten dürften sowas wie 20 Mbit oder sowas sein nicht wahr ?
Eher 40 mbit und aufwärts. Keine Ahnung ob dieses Gerede hier stimmt, dass bei sehr hohen Bitraten h265 oder h264 besser ist. Dafür würde ich mal nach einer Quelle fragen. Komisch dass GeForce Now gerade umgestellt wurde, sodass es jetzt mit 100mbit auf AV1 läuft.
latiose88 schrieb:
Und bei etwas niedrigen Bitraten wie 5 Mbit oder sowas ,ist h264 dann nicht mehr so gut unterwegs ?
Alles unter 20 Mbit würde ich eher als niedrige Bitrate ansehen. Da sieht man die Unterschiede von h264 zu h265 / AV1 schon sehr.
 
  • Gefällt mir
Reaktionen: riloka
IBISXI schrieb:
Von mir aus kann AV1 komplett weg. AV2 brauch ich auch nicht.
Geforce Now Ultimate Neuerungen:
"Neu hinzugekommen sind unter anderem effizientes AV1-Streaming, eine noch höhere maximale Transferrate von 100 Mb/s sowie eine YUV-4:4:4-Abtastung."

Alle großen Handyhersteller bieten mittlerweile AV1 Decodierungchips an.

1000104512.jpg


Geht nicht weg, sondern setzt sich durch. Sicher nicht, weil die Quali so schlecht ist.

-Scallywag- schrieb:
Ich habe in den letzten Jahre sehr viel mit AV1 experimentiert, auch mit den derzeit aktuellen Versionen.

Mein Fazit:
Für hohe Ansprüche mit Detailerhaltung weiterhin klar hinter x264 und x265.
Bei gleicher Bitrate wohlbemerkt.
Welche Bitraten sind denn gemeint?
 
Welche Techniken verwenden denn die ganzen Streaminganbieter? Jeder beschwert sich immer, die Bitraten wäre zu niedrig. Aber mit dem richtigen Codec müsste doch auch eine vernünftige Qualität rauskommen. Klar, wir kommen aktuell bei 1080p nicht an eine BluRay ran und mit 4K nicht an eine 4K BluRay. Die Frage ist, wie nahe kommen wir mit dem entsprechenden Codec wirklich ran?
 
@seulit00 das hängt halt immer davon ab wie viel Bitrate der Anbieter bereit idt zu zahlen. Dazu kommt auch noch, dass streaminganbieter ein Interesse daran haben die Bitrate die ganze Zeit gleich zu halten, egal wie die Szene aussieht. Das macht die Last sehr gut vorhersagbar was mit CRF z.B. nicht der Fall ist. Problem daran ist, dass du für die gleiche Qualität dramatisch andere Bitraten brauchst je nach Szene.

Was die Codecs betrifft, was die Streaming Anbieter benutzen ist ja auch nicht Magie. Die benutzen entweder AV1 oder sowas wie VP9. Kannste ja selbst auch nutzen. Problem ist, selbst wenn 95% des Videos toll aussieht, wenn 5% Macroblocking, banding oder was weiß ich hat, dann hinterlässt das einen faden Beigeschmack.
Ah ja und alles was Filmgrain hat kannste recht gut in die Tonne hauen für Streaming.
 
Fortschrittlichere Codecs werden primär dafür verwendet, um die Bitrate zu senken, weil das die Kosten merkbar reduziert. Ein Video ist schnell encodiert, auch wenn es vielfach durchgeführt werden muss (AV1, VP9, H.264; 240p/360p - 4K; in 4K vielleicht auch mit und ohne HDR?), aber dann ist es erledigt.
Die meisten Zuseher werden die Qualitätseinbußen kaum bis gar nicht bemerken, entweder, weil sie schaßaugert sind, zu weit weg sitzen oder deren TV (besonders in Kombination mit vorigem Argument) nicht groß genug ist.
Wir, die sensibler für diese Dinge sind, würden sich heute eher eine Blu-Ray kaufen. Man kann nur hoffen, dass heutige und kommende Techniken mit Macroblocking, Banding und Filmgrain besser zurechtkommen (werden).
 
  • Gefällt mir
Reaktionen: Ganjafield
Artikel-Update: Die Alliance for Open Media hat erste Details zum neuen AV2-Codec im Mitschnitt einer knapp 30 Minuten langen Präsentation verraten, noch bevor die Spezifikationen final freigegeben worden sind. Dafür steht weiter „~Ende 2025“ im Raum.

Der Vortrag ist extrem technisch und geht auf alle wesentlichen Aspekte des neuen Codecs im Detail ein.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]

Auch eine erste handfeste Aussage zum Vorteil von AV2 gibt es: AOMedia stellt in Aussicht, dass mit AV2 bei gleicher Bildqualität wie mit AV1 (bewertet nach VMAF) ca. 30 Prozent geringere Bitraten möglich sind.

Die Low-Level-Tools für das De- und Encoding von AV2-Videos seien inzwischen fertiggestellt, einige Aspekte der High Level Syntax (HLS) aber noch offen. Auch gelte es den Software-De- und -Encoder noch effizienter auszulegen.
 
  • Gefällt mir
Reaktionen: flo.murr, Deinorius, SweetOhm und eine weitere Person
Nochmal 30% niedrigere Bitraten?

AV1 hatte doch schonmal 30~60% niederiger als H.264 geschafft. Weitere 30% obendrauf und wir sind bei ~1/3 der Bitrate für dieselbe visuelle Qualität.

Das fängt so langsam an, wie schwarze Magie zu klingen.
 
  • Gefällt mir
Reaktionen: flo.murr, Deinorius, jusaca und 3 andere
Krik schrieb:
Lohnt das eigentlich irgendwie, z. B. H264-codiertes Material nach AV1/2 zu konvertieren?
Nein lohnt sich nur zum verkleinern der Dateigröße es kommt immer auf das Quellmaterial an ein H264 Stream wird von der Bildqualität nicht besser allerdings auch nicht schlechter. Gut funktioniert AV1 und auch H265 aber bei dem üblichen BlueRay Material das ist wirklich deutlich besser als mit H264. Da lässt sich z.B. schön mit Handbrake austesten.
 
man will sicher wieder nur, dass man sämtliche Geräte im Haus deswegen auf den Müll schmeißen soll, ich hoffe also, dass alle Hersteller und Veröffentlicher bei den bekannten Standards bleiben
 
Rickmer schrieb:
AV1 hatte doch schonmal 30~60% niederiger als H.264 geschafft. Weitere 30% obendrauf und wir sind bei ~1/3 der Bitrate für dieselbe visuelle Qualität.
Schwarze Magie ist mindestens plausibel :D Ich muss leider erstmal einkaufen gehen, bevor ich mir die Präsentation anhören kann. Auch wenn ich nur ein Viertel davon verstehe, finde ich es total spannend.

Wikipedia schreibt zum H.264 (am Anfang des History-Abschnittes) übrigens folgendes:
In early 1998, the Video Coding Experts Group (VCEG – ITU-T SG16 Q.6) issued a call for proposals on a project called H.26L, with the target to double the coding efficiency (which means halving the bit rate necessary for a given level of fidelity) in comparison to any other existing video coding standards for a broad variety of applications.
AV2 wäre demnach bei nur noch 1/6 bzw. ~16% der Bitrate vom Stand der Technik in 1998, bei -angeblich- konstanter Bildqualität.

Eigentlich müsste man das mal testen, indem man dasselbe raw-Material einmal mit den alten Codecs (was war das damals? Müsste sowas wie DV/H.263/"MPEG-alt"/DivX gewesen sein? Edit: Link zu Wiki) und einmal mit dem neuen AV2 kodiert. Da stellt sich schon die Frage, ob das überhaupt noch geht oder die alten Codecs angesichts von 4k-Auflösung und modernen Sensoroutputs schlicht kapitulieren. Kennt sich hier jemand damit aus? Wäre auf jeden Fall sehr interessant, ob das mit 84% geringerer Bitrate auch nur annähernd die gleiche Qualität ergibt.

So oder so wird z. B. Youtube die Einführung des neuen Codecs wieder dafür nutzen, um über die Reduktion bei "gleicher Bildqualität" (und die nie zurückgenommene Reduktion der Bitrate zu Beginn der Corona-remote-Arbeit) nochmal 20% Bitrate einzusparen. Dabei ist die Bildqualität von Youtube selbst bei dem, was dort 1440p oder 4k heißt schon die allerletzte Grütze, teilweise ist das Bild schlechter als beim alten HD1 PAL-Antennenfernsehen. bleurgh
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Col. Jessep, ThePlayer, Qyxes und eine weitere Person
BxBender schrieb:
man will sicher wieder nur, dass man sämtliche Geräte im Haus deswegen auf den Müll schmeißen soll

Wer will das denn sonst immer wieder? Bei welchem Gerät hast du denn aktuell mit h264 Probleme?

Mir fällt exakt ein einziges Beispiel ein, das nicht so glücklich gelaufen ist. Aber das hat mit AV2 auch mal überhaupt nichts zu tun.
 
Ich mache mir da keine Sorgen weil bei YouTube schaue ich das ich da h264 bekomme und das bei full hd. Die Bildqualität ist gut und damit umgehe ich das Problem mit av1 und so komplett .ich mag nach wie vor diesen Codec nicht. Ich musste dann komplett umstellen oder die alte Hardware gegen ne aktuellere austsschen . Das will ich nicht weil es Geld kostet und zudem erzeuge ich noch mehr Elektroschrott. Zu denen will ich nicht gehören. Der neue Codec kann zwar kommen aber ich nehme ihn somit nicht an.
 
Bin sehr gespannt. Discord weigert sich sogar noch immer AV1 zu unterstützen. Laut Reddit sollten die das angeblich schon unterstützen, in meinem Test von vor 3 Tagen hat sich das aber nicht bewahrheitet. :D
 
  • Gefällt mir
Reaktionen: riloka
Zurück
Oben