News AV1-Nachfolger: Der AV2-Codec soll noch bis Ende 2025 fertiggestellt werden

iGameKudan schrieb:
AV1 hat sich noch nicht mal wirklich auf breiter Front durchgesetzt, obwohl seit Jahren alle wichtigen Grafikkarten und gerade AV1 unterstützen...
Kommt drauf an wo du bist. Auf den 7 Weltmeeren des Internets wird AV1 sehr breit genutzt^^ Gerade bei Animes. Und bei Leuten die legal ihre eigenen Blurays rippen auch. (nur mal um 2 zu nennen)
 
  • Gefällt mir
Reaktionen: Hardware-Fan und Penman
@0x8100 Ja das sind die settings von denen man anfangen und gucken kann was man will. Meine faust regel ist 192kbps und dann pro Kanal 96kbps mehr. Das passt gut und ich höre keine Unterschiede. VBR muss natürlich immer dabei sein, auch wenn ich mir wünschen würde, dass es noch ein bisschen flexibler ist als es jetzt ist. Opus ist auch mit vbr recht strikt.
Aber audio generell ist ja recht trivial und mehr oder weniger ein gelöstes Problem. Anders als beim video war das nervigste die auromatische kanal layout und bitraten konfiguration. Die tatsächlichen einstellungen sind ja aber leicht wie sonst was.
 
BxBender schrieb:
man will sicher wieder nur, dass man sämtliche Geräte im Haus deswegen auf den Müll schmeißen soll, ich hoffe also, dass alle Hersteller und Veröffentlicher bei den bekannten Standards bleiben
Du weißt schon, dass alle Streamer auch ältere Codecs bis H.264 weiter unterstützen? Denn auch wenn der Traffic größer ist, ohne Einnahmen wäre man noch ärmer dran.

mario_mendel34 schrieb:
aber da würde ich ja auch VP9 verlieren, die H.264-Versionen bei Youtube sind schon schwierig von der Bildqualität.
Ich weiß nicht, ob das h264ify kann, aber mit enhanced-h264ify kannst du direkt einstellen, welche Codecs blockiert werden sollen. Ich blockiere nur VP8 und AV1, weil mein 2019er ThinkPad zumindest VP9 in Hardware dekodieren kann.

Donnerkind schrieb:
Ich nutze tatsächlich eher crf von 20 bis 23 und sehe trotzdem kaum einen Unterschied.
crf 18 galt immer als eine Art semi-visual lossless. Ich habe es früher nur verwendet, wenn ich mit crf 20-22 nicht zufrieden war.
 
12nebur27 schrieb:
Das mache ich auch. Bzw. ich automatisiere die Channel konfiguration und bitrate je nachdem welches Codec und wie viele Kanäle. Stereo 192kbps, 2.1, 3.1 und 4.1 (kommt seltener vor) 256kpbs, 5.1 384 und 7.1 dann 512. 7.1 hatte ich aber tatsächlich noch nicht, ist also eher theoretisch.
Mein Skript guckt auch selbstständig nach der Kanalanzahl in der Quelle und wählt dann aus: Bei einfachen Extras, in denen nur gequatscht wird, mach ich mono 48k. Bei den Hauptfilmen dann Stereo mit 128 kbps, 5.1 bei 384 kbps, 7.1 bei 512 kbps. Hm, vielleicht geh ich dann bei den Surrounds noch etwas runter, gemäß den recommended settings.

Ich liebe ja opus allgemein. Ich archiviere einige Podcasts, die ich höre. In denen wird nur geredet, da reicht mono 24 kbps und man hört trotzdem keine merkliche Verschlechterung, z.B. bei Zischlauten.

Deinorius schrieb:
crf 18 galt immer als eine Art semi-visual lossless. Ich habe es früher nur verwendet, wenn ich mit crf 20-22 nicht zufrieden war.
Ich habe eben eine ältere Notizdatei gefunden mit folgendem Inhalt:
crf recommendations for x264/x265
18..22 SD
19..23 HD
20..24 FHD
22..28 4K
Leider ohne Quellenangabe. Aber in der Tat gehen feine Details etwas unter bei crf > 20, z.B. Hautfältchen oder Zwei-Tage-Bartstoppeln.
Ergänzung ()

12nebur27 schrieb:
Ich war mir jetzt aber nicht bewusst, dass Single threadding einen qualitativen Unterschied haben soll? Wieso denn das?
Schon, aber wirklich nur sehr gering, eher mess- als sichtbar. So wie ich es in Erinnerung habe (man korrigiere mich, falls ich Unfug erzähle): Multithreading teilt das Bild in quadratische Blöcke auf. Zur Berechnung eines Blocks muss aber der Block darüber/links daneben bekannt sein, deshalb werden die Blöcke in einer Welle von links oben nach rechts unten berechnet (wave propagation). Macht man Singlethreading, wird das Bild stattdessen als Ganzes hergenommen, sodass z.B. Bewegungsvektoren besser berechnet werden können.
 
Zuletzt bearbeitet:
Sorry falls es schon irgendwo stand, aber kann mir jemand ein gutes Codec Pack empfehlen. Die die ich bisher verwendet habe, funktionieren mehr schlecht als Recht. Vielleicht liegt's aber auch am Mobile Ryzen mit Vega 6 Grafik.
 
iGameKudan schrieb:
Das heißt erneut ein absurder Bedarf an Rechenleistung bzw. der Bedarf an neuer Hardware mit Hardwarebeschleunigung...
Den Vorteil haben YouTube und Co., die stärker komprimieren können für gleichbleibende Qualität und sich damit Traffic sparen.

Der Konsument hat keine Vorteile, nur die genannten Nachteile.
 
mario_mendel34 schrieb:
Die von der Qualität her interessanten Presets bei SVT-AV1 sind immer noch langsam, Preset 4 enkodiert auf meinem 9800X3D in 4K mit 3-5 FPS. Richtig schnell sind nur die höchsten Presets, die kann man von der Bildqualität dann aber auch vergessen. Da kann man gleich die Hardware-Encoder auf den Grafikkarten nehmen.
svtav1 ist wirklich krass. Im Vergleich zu x265 sind Preset 7 und 8 bei geringerer Dateigröße wirklich deutlich schneller. Die Bildqualität meiner Einstellungen war ähnlich, aber die Geschwindigkeit von svtav1 ist Wahnsinn.

Bei mir tröpfelt so ein 4K Film bei Preset 3 mit 0,3 FPS bei 12W TDP über Tage durch die CPU. Eilig habe ich das nicht, der Server läuft sowieso und ob er 50W im idle frisst oder mit +12W mehr Videos kodiert, auf die ich nicht warte, finde ich sinnvoller, als 150W mit der dicken Desktop CPU über einen ganzen Tag zu verbraten.
Wer es noch extremer möchte, kann mit libaom-av1 kodieren. Der rechnet auf nur einem Kern, aber halt perfekt mit dem vollen Featureset. yuv444p10le habe ich schon gesehen. Da steigt svtav1 dann aus.

Aber schön, wie Leute sich über den "fehlenden" Support in der Breiten Masse echauffieren. Das ist ein Henne-Ei Problem. Wenn man nicht bedenkenlos av1 anbieten kann, weil die Endgeräte es nicht können, spart man sich den Aufwand. Anders herum: Wozu av1 können, wenn es keine Inhalte gibt?

Und wenn man es noch absurder will, verweise ich gerne noch einmal auf die PCIe Spezifikationen, die zumindest im Draft bis zu Version 8.0 existieren während die breite Masse noch dabei ist PCIe 5.0 zu einzuführen und der Budgetbereich PCIe 4.0 verwendet. Hier auch gerne noch einmal die Frage, wer diese Bandbreite überhaupt ausnutzt. GPUs tun es derzeit kaum. SSDs können die Bandbreite nutzen, aber die breite Masse tut es nicht.
Ich stelle hier mal in den Raum, dass viele PC Builder PCIe 5.0 einfach nur wollen, weil es das Neuste ist und um die großen Zahlen in den Specs zu haben. Der tatsächliche Nutzen ist wirklich selten gegeben.

Ich freue mich auf eine Weiterentwicklung, auch wenn es noch Jahre dauert, bis Encoder in Software gegossen sind und Decoder zum Spottpreis zu haben sind (Hinweis, der Intel N100 kann av1 dekodieren und kostet als Mini PC in China nur 120 Euro inkl. RAM und SSD).

Was Filmgrain angeht: Gerne per Software drauf Rechnen anstatt im Video. Rauschen zu komprimieren ist quasi unmöglich. Prometheus hatte meines Wissens eine sehr verrauschte Szene, wo die Bitrate derart in die Höhe geschossen ist, dass mein damaliger Pi am Fernseher massiv stotterte. Ich bin sowieso nicht sicher, ob und wieso ich Rauschen im Bild haben möchte.

Auch, wenn es erst mal nur experimentell sein wird: Ich bin gespannt, ob wir einen 4K Film bei guter Qualität auf unter 15 MBit/s gedrückt bekommen.
 
Penman schrieb:
svtav1 ist wirklich krass. Im Vergleich zu x265 sind Preset 7 und 8 bei geringerer Dateigröße wirklich deutlich schneller. Die Bildqualität meiner Einstellungen war ähnlich, aber die Geschwindigkeit von svtav1 ist Wahnsinn.
Ich finde die Bildqualität von Preset 7 zum Davonrennen, SVT-AV1 hat generell das Problem, das Bild über Gebühr zu glätten, aber bei den schnelleren Presets wird das noch extremer. Und das in Bitratenregionen, wo x265 schon praktisch visuell lossless ist. Es würde mich nicht wundern, wenn selbst x264 besser abschneiden würde. Da kann man gleich die Hardware-Encoder nehmen, die sind noch schneller und dürften bei ähnlicher (wenn nicht sogar besserer) Qualität rauskommen. Zumal, wie ich weiter oben beschrieben habe, SVT-AV1 auch Probleme mit der Bitratenverteilung hat.

Penman schrieb:
Was Filmgrain angeht: Gerne per Software drauf Rechnen anstatt im Video. Rauschen zu komprimieren ist quasi unmöglich. Prometheus hatte meines Wissens eine sehr verrauschte Szene, wo die Bitrate derart in die Höhe geschossen ist, dass mein damaliger Pi am Fernseher massiv stotterte. Ich bin sowieso nicht sicher, ob und wieso ich Rauschen im Bild haben möchte.
Man muss schon unterscheiden zwischen Filmgrain und Rauschen. Filmgrain wird heute, wo alles digital gedreht wird, nur noch als Stilmittel eingesetzt, damit es mehr nach Film aussieht (genau wie 24 FPS ein bewusstes Stilmittel sind), und dieses künstliche Grain könnte man ohne Probleme erst beim Abspielen hinzufügen. Rauschen hingegen lässt sich zu 100 % vermeiden, wenn man einfach die Szene gescheit ausleuchtet und später in der Postproduktion dunkler graded. Prometheus wurde digital gedreht, der hätte gar nicht rauschen müssen.

Bei alten, auf Analogfilm gedrehten Filmen, sollte man meiner Meinung nach allerdings sämtliche Rauschfilterung sein lassen und einfach mit hoher Bitrate versuchen, das Material mit dem Grain sauber zu enkodieren, so wie das auf der UHD-Bluray passiert und weitestgehend auch bei Apple TV+ und Disney+. Es gibt bis heute keinen perfekten Rauschfilter, und das Korn bei alten Filmen ist teilweise sehr grob, du killst immer Feindetails, die bei einem AV1-Encode mit Film-Grain-Synthese dann einfach nicht mehr da sind. Die Filme sind halt so, man sollte sie so für die Nachwelt erhalten, wie sie sind.

Penman schrieb:
Auch, wenn es erst mal nur experimentell sein wird: Ich bin gespannt, ob wir einen 4K Film bei guter Qualität auf unter 15 MBit/s gedrückt bekommen.
Wenn es ein sauber digital gedrehter Film mit guter Ausleuchtung ohne Rauschen ist, reichen selbst mit H.265 15 MBit bereits aus. Was man bei den besseren Streaming-Diensten bei modernen Produktionen ausgespielt bekommt, ist qualitativ bei diesen Bitraten in der Regel exzellent und nicht weit weg von einer eventuellen UHD-Bluray (eventuell sogar besser, weil der Stream in Dolby Vision ist und die UHD-BD nur in statischem HDR10).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Penman und 12nebur27
mario_mendel34 schrieb:
SVT-AV1 hat generell das Problem, das Bild über Gebühr zu glätten,
grain-synthese immer aktivieren, bei bedarf variance-boost dazuschalten
Code:
film-grain=8
enable-variance-boost=1
 
Ok, das probiere ich aus, auch wenn es für mich nicht logisch erscheint.
Ergänzung ()

Ich nehme meine Kritik an SVT-AV1 teilweise zurück, mit Preset 7 ist die Bildqualität bei gleicher Dateigröße doch noch deutlich besser als mit AMDs Hardware-AV1-Encoder auf der RX 9070 und Apples HEVC-Encoder im Apple M3. Encoding-Performance war vergleichwar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Penman
Na mal gucken, h264 bis heute Standard bei FullHD teils auch in SD Auflösung,
Ganz leixhte Tendenzen zur Ablösung durch av1
Wie arg komprimiert wird zeigt Netflix oder Paramount
HEVC das 4k Format.. Naja Apple, Disney in sdr10 und Amazon sdr8 bei FHD

Daneben vp9 Google

Erster heisst immer den Standard setzen,
und 8k war wohl doch ned zu erwarten, auch wenn Bra ia Core was geboten hätte

Wo ist vvc geblieben?
 
Zuletzt bearbeitet:
0x8100 schrieb:
grain-synthese immer aktivieren, bei bedarf variance-boost dazuschalten
In meinem kurzen Testclip hat das in der Tat eine starke Besserung gebracht, jetzt lasse ich das mal auf mein 4K60-HDR-Video in ProRes 422 HQ los, da habe ich über Nacht schon einen nahezu perfekten x265-Encode draus gemacht mit 87 MBit Durchschnittsbitrate.
 
  • Gefällt mir
Reaktionen: 4nanai
Pitt_G. schrieb:
Wo ist vvc geblieben?
Wo sind die Geräte die VVC in Hardware dekodieren können?... in TV-Geräten jedenfalls noch nicht angekommen.

Und die Situation für kommerzielle Inhalteanbieter mit den Lizenzgebühren für die Nutzung der lizenzpflichtigen Videocodecs wird so sein dass die Einsparungen durch die Nutzung eines besseren Videocodec größer sein müssen im Vergleich zu den Gebührenzahlungen.
 
@WinnieW2
Jeder TV mit Mediatek Pentonic SoC

Rickmer schrieb:
Wer interessiert sich auch für H.266 wenn AV1 dasselbe kann, aber ohne Lizenzkosten und mit höherer Akzeptanz bei Herstellern für Hardwarebeschleunigung?
Und, ist oder wurde irgendetwas billiger durch AV1 ?

Der Hersteller lizensiert dass was seine Geräte zur bestmöglichen Kompatibilität und Verbreitung hilfreich ist, und da wird auf lange Sicht weder ein Weg an h265 noch h266 vorbeiführen
 
Zuletzt bearbeitet:
onetwoxx schrieb:
wurde irgendetwas billiger durch AV1 ?
Ja, Streaming von Videos an Clients, die AV1 Decoding unterstützen.

... für die Anbieter, weil die Bandbreite sparen können.
Wenn ich bei 'nem random Youtube Video mal die Stats aktiviere:
1760273025218.png


Aber die Kosten für Bandbreite gibt jeden Streaming-Dienst an den Kunden weiter. Stell dir vor wir würden alle noch ineffiziente 20+ Jahre alte Codecs nutzen. Netflix und Co würden nochmal deutlich mehr kosten.
 
  • Gefällt mir
Reaktionen: riloka
Also Youtube wurde für dich billiger?
Wenn ein kostenloser werbefinazierter Dienst, Geld einspart, wurde für dich genau was jetzt billiger, das kostenlose ?
 
Zurück
Oben