News VVC alias H.266: Designierter Nachfolger von H.265 erlangt Serienreife

Bis vernünftige encoder auf die Öffentlichkeit losgelassen werden, bleibt der codec erstmal uninteressant und die -50% reiner Werbesprech.
Man hat gesehen wie lange avc durch den ausgereiften x264 encoder konkurrenzfähig zu hevc/vp9 blieb, bis diese selber ausgereifte encoder aufbieten konnten.
Durch einen halbwegs aktuellen x265 encoder ist der Ruf des langsamen hevc schon länger überholt.

Mit av1 vollzieht sich gerade die gleiche Entwicklung.
Ein fantastisches Qualität zu Größen Verhältnis ist bereits in der Referenz Implementierung geboten, aber erst Intels SVT-AV1 und xiphs rav1e zeigen was unter annehmbarer Geschwindigkeit geht.


Dark Soul schrieb:
Die SW implementation x265 sieht hingegen super aus :) Falls jemand rumspielen will in C / C++, hier ist der Link zum Projekt: x265. Um das eigene System am besten Auszulasten, empfehle ich x265 lokal selbst zu kompilieren statt die Vorkompilierten Binaries zu verwenden :)
Alternativ kann man auch einfach ffmpeg verwenden:
https://ffmpeg.zeranoe.com/builds/

Wer ein gui will:
https://www.fosshub.com/Avidemux.html
 
  • Gefällt mir
Reaktionen: Beitrag
Beitrag schrieb:
Im Internet triffst du kaum auf HEVC, wie du ja selbst im letzen Absatz schreibst. Außer Netflix 4K fällt mir gerade auch nichts ein. Wenn man h.265 an h.264 misst, kann man gar nicht zu einem anderen Schluss kommen, als dass die Verbreitung sehr gering ist.

Du und viele andere hier gehen von der Denkweise falsch an das Thema heran. Im Internet MUSS alles kostenlos sein weil du sonnst eben dein Angebot nicht finanzieren kannst weil dich die Lizenzgebühren auffressen. Deswegen hat Google auch sein eigenes VP9 so gepuscht sonnst hätte YouTube ihnen die Haare vom Kopf gefressen.

Nur dafür wurde H265 nicht entwickelt! Die Content Industrie benötigte es damit die Datenmengen überhaupt auf eine UHD passten gefolgt vom den Sendeanstalten die ihren Transponderplätze bei den Satelliten Anbietern buchen müssen. (Je nachdem ob sie in SD, HDReady, FullHD oder UHD senden ist der Transponder schneller am Limit und du benötigst weitere!) und gefolgt von den neuen reinen Internet Streaming Anbietern die auch bei ihren Providern für den UP & Download (!) bezahlen müssen. Primär DAFÜR wurde es entwickelt und dafür wurde nun auch H266 entwickelt! Jeder kommerzielle UHD Streaming Anbieter nutzt H265 weltweit. Die Private Nutzung ist ein "Abfallprodukt". Das es H264 oder MPEG2 nicht ersetzen kann ist klar weil es eine enorme Nutzerbasis dieser alten Geräte gibt. Wenn es nach euren Aussagen geht ist H264 trotz Internet ein FLOP! Und wisst ihr warum? Es werden Jährlich MEHR DVD`s IMMER NOCH VERKAUFT als BluRay und UHD zusammen! Also gilt eure Aussage auch für H264 oder? :rolleyes: Das Internet alleine ist nicht der Maßstab, nur ein Indikator!

PS: Deine anderen Quotes mit den Verbesserungen hab ich in meinem ursprünglichen Post editiert. ich war auf dem Sprung und gedanklich weiter als ich getippt habe. ;)
Ergänzung ()

Mushi schrieb:
Ich encodiere meine BluRays zur Zeit ausschließlich in x264, weil x265 einfach viel zu lange braucht.
x264 in 3-4Std oder x265 in 20-24Std bei gleicher Bildqualität, nur damit das Ausgangsmaterial 20% oder sowas kleiner ist, ist es mir nicht Wert.

Liegt daran weil du es in Software machst. Mach es in Hardware Encoding über deine Grafikkarte zb. mit xmedia-recode. 20 bis 30 Minuten ist jeder Film je nach Laufzeit Encodiert.
 
Zuletzt bearbeitet:
Und nu? Dann kann ich trotzdem noch behaupten, dass HEVC nicht ansatzweise so gut verbreitet ist, wie AVC. Und dass die Lizenzgebühren schuld dran sind. Wenn die geringe Verbreitung im Internet so in Kauf genommen wurde, ist das ja schön und gut, die Aussage bleibt stehen.

Dass HEVC nicht für's Internet entwickelt wurde, würde ich so auch nicht unterschreiben. HEVC wurde schlicht für höhere Auflösungen und bessere Kompression entwickelt. Ob man die nun im Internet oder auf einer BD liefert, interessiert den Codec ja erstmal nicht, der ist für beides gut geeignet. Wie gesagt. Netflix nutzt ja trotz der Lizenzkosten HEVC für 4K, weil der Codec dafür entwickelt wurde, das gut kann und es sich offenbar trotzdem irgendwie rechnen muss - vllt. durch den geringeren Traffic beim 4K-Streaming.

Da hätte man die Lizenzbedingungen für die Nutzung von HEVC im Internet einfach günstiger gestalten müssen, wenn man da mehr Verbreitung hätte sehen wollen. Weniger Einnahmen und mehr Verbreitung bei Internetdiensten ist immer noch besser als noch weniger Einnahmen durch extrem geringe Verbreitung bei Internetdiensten, nicht wahr?
 
Gamefaq schrieb:
Liegt daran weil du es in Software machst. Mach es in Hardware Encoding über deine Grafikkarte zb. mit xmedia-recode. 20 bis 30 Minuten ist jeder Film je nach Laufzeit Encodiert.
Hat man dann überhaupt noch qualitative Vorteile gegenüber x264?
 
Schon H.256 brachte die versprochenen, wundersamen Reduzierungen der Bitraten nur mit (teils deutlich) sichtbarer Verschlechterung annähernd zustande. Diese 5 GB für UHD will ich mir nicht angucken müssen. Für UHD mit HDR braucht es einfach locker 30-40 MBit/s wenn man keine sichtbaren Verluste haben will. Schon die 10 GB, die für H.265 genannt werden bedeuten (wohlwollend auf einen 90-minütigen Film bezogen) nur ca. 15 MBit/s. Das ist Netflix maximale Datenrate (inkl. Audio!). Und zwischen Netflix und einer UHD BD liegen teilweise Welten. Und das betrifft nur Videos mit 24 Bildern pro Sekunde. HFR würde nochmal erheblich mehr benötigen. Wenn ich da an die UHD BD von Gemini Man denke...

Also danke, aber nein danke. Für Extremfälle wegen sehr geringer Bandbreite vllt. ok, aber bitte nicht für Netflix und Co. als Standard. 15 oder auch 25 MBit/s sind selbst in Deutschland für viele unnötig wenig. Auch wir haben mittlerweile mehr Bandbreite zur Verfügung.
 
Soll ich jetzt also alle X Jahre ein neues Abspielgerät (GPU, Fernseher, Smartphone, Mini-PC) holen, nur weil die mal wieder den Codec verändern?
Das ist doch schwachsinnig. So sehr ich den Fortschritt begrüße und wichtig finde, desto wichtiger ist es doch, dass dieser kompatibel und verfügbar ist.

Bis jetzt ist das alles geplante Obsoleszenz und damit Schweinerei/Betrug am Verbraucher.
 
Zuletzt bearbeitet:
Beitrag schrieb:
Und nu? Dann kann ich trotzdem noch behaupten, dass HEVC nicht ansatzweise so gut verbreitet ist, wie AVC. Und dass die Lizenzgebühren schuld dran sind.
Weshalb nutzt Google bei Youtube kein H.265?
Hauptsächlich um die Lizenzgebühren für H.265 zu sparen. Youtube nutzt VP9 und AV1 neben H.264

Beitrag schrieb:
Netflix nutzt ja trotz der Lizenzkosten HEVC für 4K, weil der Codec dafür entwickelt wurde, das gut kann und es sich offenbar trotzdem irgendwie rechnen muss - vllt. durch den geringeren Traffic beim 4K-Streaming.
Netflix nutzt HEVC nur dann wenn ein Wiedergabegerät beim Nutzer VP9 (zukünftig AV1) nicht unterstützt.

Beitrag schrieb:
Da hätte man die Lizenzbedingungen für die Nutzung von HEVC im Internet einfach günstiger gestalten müssen, wenn man da mehr Verbreitung hätte sehen wollen.
Die Sache ist bei HEVC sogar noch komplizierter, da es viele Unternehmen gibt welche Patente an HEVC halten und diese auf keinen gemeinsamen Nenner gekommen sind.
So müssen Lizenzgebühren für HEVC an drei(!) verschiedene Organisationen bezahlt werden; bei H.264 ist es nur eine!

Ergänzung:
Möglicherweise interessantes Video zum Thema VVC

Etwa bei Minute 24 werden Werte genannt bezüglich des Rechenaufwandes im Vergleich zum Vorgänger HEVC.

So wird im Video ein Faktor von 8,9 beim Encodieren und 1,6 beim Dekodieren genannt.

Bedeutet also Rechenaufwand fast Faktor 9 (im Vergleich zu HEVC) um die Datenrate eines Videos zu halbieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Deinorius, Haldi und Beitrag
Gamefaq schrieb:
Liegt daran weil du es in Software machst. Mach es in Hardware Encoding über deine Grafikkarte zb. mit xmedia-recode. 20 bis 30 Minuten ist jeder Film je nach Laufzeit Enco
encodieren über die grafikkarte ist im grunde nur fürs streaming gut. bei guter qualität ist ansonsten die benötigte bitrate viel zu hoch oder bei gleicher bitrate wie beim software-encoder die qualität wesentlich schlechter.
 
  • Gefällt mir
Reaktionen: Deinorius und DeusoftheWired
Mushi schrieb:
...
bei gleicher Bildqualität, nur damit das Ausgangsmaterial 20% oder sowas kleiner ist, ist es mir nicht Wert.
...

Ich habe spaßeshalber ein 1 1/2min Stop Motion Video mit 78 Bildern mal über OpenShot in 264 und 265 umgewandelt.
Das 265 nimmt weniger als die Hälfte an Speicherplatz ein - 150 zu 65 MB.
Jetzt stellt sich mir nur die Frage, wie gut die Qualität vom 265 ist, wenn 0crf gegen 264 mit 15Mb/s antreten?
Auflösung war 720p/60FPS.
Laut Dateieigenschaften entsprechen 0crf ca. 6Mb/s.
 
ThePlayer schrieb:
Ja gelesen und verstanden. Es geht auch nicht darum ob H.266 4,8 oder 16K kann. Sondern das 8K zu 4K die vierfache Menge an Daten Produziert.
Wir sind zum Glück längst bei Auflösungen angelangt bei denen 4-mal mehr Pixel nicht 4-mal so viele Datenrate benötigen.

Bigeagle schrieb:
ich vermute diejenigen die sowas häufig brauchen/bräuchten - also filmproduzenten vor allem - nutzen andere codecs oder verzichten gleich ganz darauf und machen einfach ein gutes crf encoding.
Ohne Komprimiereung wäre schon ziemlich sportlich, da sind die SSDs schnell voll.
Im Filmbereich nutzt man üblicherweise Arriraw, Redcode Raw oder ProRes. Codecs mit Interframe-Kompression kommen meist erst bei Auslieferung zum Zug.

Seby007 schrieb:
In den meisten Fällen ist h265 besser. Aber gelegentlich hat sogar h264 eine wesentliche niedrigere Dateigröße erreicht als h265 - bei gleichen qualitiven Einstellungen. So 100% scheint h265 also nicht besser gewesen zu sein.
H265 ist und war nie auf Transparenz ausgelegt. Für die beste Qualität muss man meistens immer noch auf H264 setzen. Zugegebenermaßen sprechen wir hier aber von visuellen Unterschieden die für die allermeisten Nutzer irrelevant sind.
 
Kann jemand jetzt shon ungefähr sagen wie die Hadwareanforderungen sein werden? H265 brauch wesentlich schnellere Hardware als h264 und die Kompression ist zwar stärker aber viel besser auch nicht als bei h264
 
v_ossi schrieb:
Wobei man fairerweise sagen muss, dass der Fernseher unter Umständen den größeren Einfluss auf die wahrgenommene Bildqualität hat.
Der einige Jahre alte 4k LCD Fernseher (immerhin kann er die HEVC Datei nicht abspielen) bringt beim gleichen oder gar besserem Quellmaterial sehr wahrscheinlich ein schlechteres Bild ins Wohnzimmer als der 2020er Flaggschiff Dolby Vision OLED Fernseher.
Ja sein TV ist aber so alt wie meiner. Gut meiner ist ein LG OLED und seiner ein Sony LCD. Bis auf das schwarz sollte es das Bild ähnlich gut sein.
Ergänzung ()

Krautmaster schrieb:
je nach Film bekommt man da auch heute schon gute Quali hin. Zumindest wenn die 5Gb fast nur fürs Bild drauf gehen und die Tonspur vergleichsweise klein ist. 50Gb sind absolute Verschwendung.
Aber doch nicht in 4K HDR. Für 1080p in h265 könnte ich noch fast mit 5GB leben. Aber es kommt auch auf den Film an. Wenn es eine Komödie ist dann ist das okay für mich aber bei Bildgewaltigen Filmen will ich maximale Qualität.

@gintoki das musst du mir jetzt aber bitte erklären. Wieso sind 4x mehr Pixel nicht 4x mehr Daten?
 
4-mal mehr Pixel sind 4-mal so viele Daten. Bei konstanter Qualität nimmt die benötigte Datenrate bei verlustbehafteter Komprimierung allerdings nicht linear zu.

Mach dir mal den Spaß und encode mit CRF ein UHD 60fps Video in verschiedenen Auflösungen und Bildwiederholraten. Ja, das ist nicht 100% vergleichbar, zeigt aber worauf ich hinaus möchte.
 
@Moep89
Die Bitrate sagt nichts über die Bildqualität eines Films aus.
Ich kann ein Film mit schlechten Encode-Settings kodieren (um Zeit zu sparen) welcher später eine höhere Bitrate und schlechtere Bildqualität aufweist als derselbe Film mit besseren Encode-Settings.

Außerdem spielt auch das Quellmaterial eine wesentliche Rolle, ruhige detailreiche Filme mit wenig Kameraschwankungen oder starkem Filmkorn könnten zB mit einem crf18 Wert am Ende kaum kleiner und in manchen Fällen sogar größer sein als das Quellmaterial. Wohingegen actionreiche Filme mit viel Bewegung oder Animationsfilme auf bis auf 5-8 MBit/s komprimmiert werden können.

Das hängt damit zusammen dass das menschliche Auge bei schnell bewegten Bilder die Details nicht richtig wahrnehmen kann, und genau an diesem Punkt wird Bitrate eingespart, wohingegen dann bei ruhigen Momenten wo es viel Details gibt auch kaum Komprimmiert wird.
 
@Mushi Das ist mir alles bekannt. Es ändert aber nichts daran, dass die immer proklamierten Kompressionsraten in der Realität fast immer nur mit klar sichtbarem Verlust erreicht werden können. Die Pressemitteilungen und der ganze Werberummel verkauft es aber eben als "50% Reduktion ohne sichtbaren Verlust". Das KANN bei ganz speziellen Konstellationen erreicht werden, aber in den allermeisten realen Anwendungen nicht mal annähernd.
Dass man auch mit schludriger Enkodierung oder miesem Quellmaterial Müll mit hohen Bitraten erzeugen kann ist klar. Sinnlos aufblasen geht immer. Aber hier geht es um das, was bei sauberen Settings mit niedrigen Bitraten an Qualität erreichbar ist. Und das entspricht eben überhaupt nicht den Werbeversprechen.
 
Moep89 schrieb:
Für UHD mit HDR braucht es einfach locker 30-40 MBit/s wenn man keine sichtbaren Verluste haben will.
@Moep89
Ich hatte mich im Wesentlichen auf diese Behauptung bezogen, welche ich nicht teilen kann.
 
  • Gefällt mir
Reaktionen: Krautmaster
@Mushi Meine Erfahrung ist da leider eine andere. Ich habe noch kein Video gefunden, dass bis zu diesem Wert nicht sichtbar an Qualität zugelegt bzw. darunter verloren hätte. Natürlich bezogen auf "normale" Videos und keine speziellen Testsequenzen. Angeschaut auf meinem Sony UHD TV und ohne schlechtes, schludriges Enkodieren.
Klar gibt es die Unterschiede, je nach "Dynamik" des Films wie du beschrieben hast, aber insgesamt hat eine Kompression auf weniger als ca. 30 MBit/s immer sichtbare Einbußen zur Folge gehabt.
Meine Ansprüche sind sicher auch höher als beim Durchschnittsnutzer, weshalb ich wo immer möglich untouched UHD BD Material bevorzuge, aber das ändert ja nichts an den technischen Gegebenheiten.
 
Dark Soul schrieb:
Ich konnte mit x265 live Daten encodieren (x265 & live555 rts, windows.h window grabber + eigene pipeline mit openCL), lokal über das Netzwerk streamen (100mbit LAN) und auf der anderen Seite decodieren (gstreamer / vlc). FHD + 60fps mit einer Gesammtlatenz von 41ms (end to end). War schon nice Assassins Creed Origins auf dem Ipad zu spielen xD
Oh... jetzt wirds aber interessant...
Wie viel CPU Last hat das dann erzeugt?
Ich hab momentan das Problem eines 5120x1440 Pixel Monitors. Und meine alte Vega64 kann nur 4096x1152 Pixel Encodieren. Dafür halt Hardware mit 0 FPS verlust ingame. Daber der 3900X eigentlich meistens Brach liegt beim Zocken wäre X265 oder X264 zur aufnahme schon interessant.
 
Ist zwar schön und gut, aber ich hoffe der wird nicht zu schnell bekannt. Denn selbst H265 ist heute noch sehr schwer abzuspielen. Viele Abspielgeräte können das nicht. Viele TV Sticks, darunter Google Chrome können das nicht. Dazu ist die Encodiergeschwindigkeit auch viiel langsamer. Das dafür dass ich die Bitrate 15% kleiner einstelle kann. Nein. Ich bleibe bei H264.

Wir brauchen dann wieder neue Hardware die das kann usw.
 

Ähnliche Themen

Antworten
62
Aufrufe
118.395
Zurück
Oben