Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAV1-Nachfolger: Der AV2-Codec soll noch bis Ende 2025 fertiggestellt werden
Zum zehnjährigen Bestehen hat die Alliance for Open Media (AOMedia) die Fertigstellung des AV1-Nachfolgers AV2 noch bis zum Ende dieses Jahres angekündigt. AV1 hatte AOMedia im März 2018 fertiggestellt. Die zweite Generation des „Video-Codecs für das Internet“ wird für Streaming und AR/VR optimiert und bleibt lizenzkostenfrei.
Leider merkt man abseits der ganz großen Player wie YT und Netflix bisher wenig davon.
Amazon ist Mitglied und selbst deren Tochter Twitch kriegt es nach wie vor nicht hin, AV1 zu unterstützen, obwohl sie das bereits vor mehreren Jahren angekündigt haben.
Allgemein im Web hat man oft VP9 oder noch immer H.264.
AV1 hat sich noch nicht mal wirklich auf breiter Front durchgesetzt, obwohl seit Jahren alle wichtigen Grafikkarten und gerade AV1 unterstützen... Und man kommt jetzt schon mit AV2 um die Ecke?
Das heißt erneut ein absurder Bedarf an Rechenleistung bzw. der Bedarf an neuer Hardware mit Hardwarebeschleunigung...
AV1 hat sich noch nicht mal wirklich auf breiter Front durchgesetzt, obwohl seit Jahren alle wichtigen Grafikkarten und gerade AV1 unterstützen... Und man kommt jetzt schon mit AV2 um die Ecke?
Nach 8 Jahren einen Nachfolger klingt jetzt nicht so überstürzt. Was sollen die denn sonst machen? Herumsitzen und sich auf ihren Ruhm ausruhen wie Intel 2010-2018?
Wenn ich das richtig im Kopf habe verzichten nur viele Streamer darauf, weil viele Zuschauer damit noch Probleme damit hatten, weiß aber auch nicht wie da der aktuelle Stand ist.
Wie genau ist AV1 in Hardware umgesetzt? Also werden die Codec-Befehle 1:1 in Hardware "gegossen", oder verwendet die Hardware allgemeinere Bausteine, die auch für andere Codecs verwendet werden könnten?
Dann wäre es evtl. ja möglich, dass ein Teil der bisherigen Hardware für AV2 verwendet werden kann.
AV1 hat sich noch nicht mal wirklich auf breiter Front durchgesetzt, obwohl seit Jahren alle wichtigen Grafikkarten und gerade AV1 unterstützen... Und man kommt jetzt schon mit AV2 um die Ecke? (...)
„Jetzt schon“ wirkt bei acht Jahren vollkommen absurd!
Skaro schrieb:
Nach 8 Jahren einen Nachfolger klingt jetzt nicht so überstürzt. Was sollen die denn sonst machen? Herumsitzen und sich auf ihren Ruhm ausruhen wie Intel 2010-2018?
Ein gutes Vorgehen ist mMn. das der PCI-SIG, einfach alle drei Jahre einen Nachfolger bringen, selbst wenn der vorherige noch gar nicht angekommen ist. Die haben es natürlich auch besonders leicht, da es dort um einen abwärtskompatiblen Standard geht...
...dennoch würde mehr von diesem Geist auch sonst gut tun.
Oder vielleicht wäre insgesamt auch mal ein bisschen Abwärtskompatibilität mitzudenken die Verbreitung von Codizes beschleunigen.
Alternativ wäre ein FPGA in Consumer-SOCs ein weiterer Ansatz.
H.264, H.265 sowie die älteren MPEG lassen sich nicht durch AV1 oder AV2 ersetzen. Abseits von Streamingdiensten ist immer noch die ITU maßgeblich für das, was an Videocodecs in der Breite unterstützt wird, alles Andere ist optional.
CDLABSRadonP... schrieb:
„Jetzt schon“ wirkt bei acht Jahren vollkommen absurd!
Wie lange ist H.264 schon aktuell, zumindest in der Masse? Bestimmt seit 15 Jahren (gab es auch vor 20 Jahren auf BD und HD-DVD, aber musste sich erst noch verbreiten).
H.265 hat man fast nur bei UHD.
Wie genau ist AV1 in Hardware umgesetzt? Also werden die Codec-Befehle 1:1 in Hardware "gegossen", oder verwendet die Hardware allgemeinere Bausteine, die auch für andere Codecs verwendet werden könnten?
Es werden spezielle Chips produziert, die einzig und allein für die Aufgabe gemacht sind, AV2 zu dekodieren. Genau wie bei allen vorherigen Codecs. Um das ganze per CPU zu dekodieren, sind die meisten Geräte zu schwach.
Spriti schrieb:
Dann wäre es evtl. ja möglich, dass ein Teil der bisherigen Hardware für AV2 verwendet werden kann.
Nope, ist was komplett anderes und nicht vergleichbar. Ein Chip, der nur H.264 in Hardware dekodieren kann, ist nutzlos für H.265-Material. Und für AV1, AV2 etc.
Welcher Kompressionsalgorithmus wurde bisher denn wirklich ressourcenschonender? Der Speicherplatzbedarf wurde zwar bei gleicher Qualität immer geringer, allerdings ist dafür auch der Rechenaufwand gestiegen. Das wird auch bei AV2 so sein... Da wette ich um nen Kasten mit dir.
Und seit der Ära H.265/AV1 ist man halt an einem Punkt angekommen, an dem sich die neuen Formate auf Jahre kaum in Software dekodieren ließen - von der in den Keller gehenden Energieeffizienz bei Softwaredekodierung mal ganz abgesehen.
Genau aus dem Grund verlief die Verbreitung von AV1 noch schleppend und bist heute nicht mal flächendeckend der Standard...
Das ist bei solchen Codecs halt relativ normal, dass es ziemlich lange dauert von der Veröffentlichung bis zur breiten Marktdurchdringung - AV1 Hardwaredecoding bietet der Snapdragon z.B. erst seit dem 8 Gen 2 der noch keine 3 Jahre alt ist, mein 4 Jahre altes Surface Laptop 4 kann auch noch kein Hardware AV1. Ich glaube sogar ein aktuelles Galaxy A56 unterstützt noch immer kein AV1 Hardwareseitig. Mittlerweile gibt es natürlich brauchbare Software Decoder aber das zeigt halt wie träge der Markt da ist.
Ich meine H264 hat damals auch sehr lange gebraucht um sich verbreitet durchzusetzen.
Nope, ist was komplett anderes und nicht vergleichbar. Ein Chip, der nur H.264 in Hardware dekodieren kann, ist nutzlos für H.265-Material. Und für AV1, AV2 etc.
Darum waren auch viele Fernseher und Receiver mit DVB-T2 (auch in HD in anderen Ländern) nicht tauglich für das zuerst in Deutschland erschienene DVB-T2 HD, weil es H.265 als Codec hat und somit UHD-taugliche Empfangsgeräte braucht (ist übrigens "abgespecktes UHD", weil es nicht dem HDTV-Standard entspricht).
Video Codecs laufen erst mit Hardware-Beschleunigung wirklich flüssig und effizient. Bis die da ist, werden noch ein paar Jahre vergehen. Wer vorher schon AV2 nutzen will, muss auf Software De- und Codierung ausweichen. Das heißt, die CPU muss ran und für die ist das kein kleiner Happen.
Das wird wie immer laufen: Ein paar Jahre lang wird der Codec mehr oder weniger ignoriert, bis er in der Hardware angekommen ist. Und dann rette sich wer kann.
Lohnt das eigentlich irgendwie, z. B. H264-codiertes Material nach AV1/2 zu konvertieren? Ich meine gelesen zu haben, dass das die Qualität zerstört.