News VVC alias H.266: Designierter Nachfolger von H.265 erlangt Serienreife

@Miuwa

Man muss halt einen Ausgangs / Basiswert definieren. Hier würde ich es aber als recht eindeutig sehen, dass der Status Quo der Basiswert ist und die 5GB eben der neue Wert.
Das umzudrehen würde sich für mich so anfühlen, dass man unbedingt große Zahlen präsentieren will.

Die 50% sagen einem z.B. direkt, dass man jetzt 50% weniger Platz für einen Film braucht, 50% weniger Bandbreite ausreichen, man 50% weniger Volumen verbraucht usw. - alles als bisher.
Jede andere Definition wäre hier komisch.
 
  • Gefällt mir
Reaktionen: LukS und Valeria
Autokiller677 schrieb:
Hängt stark von der Bildgröße ab. Bei mir auf 65" sah Netflix in den letzten Monaten wie die Privatsender in SD aus.
Natürlich hängt es auch von der Bildgröße ab, guckt man bei 4 Metern Entfernung auf einem 43" Fernseher dann wird man wahrscheinlich nicht mal 720p von 2160p unterscheiden können.
Ich hab gut 2 Meter Abstand und bin kürzlich von 55" auf 65" umgestiegen, da sollte ich den Unterschied erkennen. Ich habe gestern bei Disney+ in Star Wars Episode 1 reingeschaut und wirklich nach 4K wie angegeben sah mir das Bild nicht aus, stark verwaschene Details, erinnerte eher an 720p, wohingegen es bei Hamilton super aussah, allerdings war der Inhalt nicht so meins. Aber an sich ist Streaming schon mal nicht schlechter als ne 1080p Bluray in den meisten Fällen.
Der Vorteil in der Auflösung an sich fällt aber z.B. in Spielen auch stärker auf als in Filmen muss man sagen. Ich denke 8K wird für die meisten recht überflüssig sein, zumindest unter 75" Bilddiagonale.
 
Steht denn irgendwo, welche Hardware auf der CPU Seite gefragt ist, wenn man das in Software auflöst? Bzw. geht das überhaupt?
 
Verlustfreie Kompression gab es bereits um 2000 mit Capture-Karten auf PCI Basis - BT8X8 TV-Karten - und dem Huffyuv Codec Huffyuv @ Wikipedia , auf Windows 98 mit VirtualDub. In PAL Auflösung.

Seit h264 sind die neueren Codecs nur für 4K und höhere Auflösungen relevant und dafür müssen die Nutzer dann deutlich größere Geräte als früher besitzen.
Die Produktion in manchen Bereichen ist auch teurer.

Bei VHS -> DVD und DVD->HD ist die Verbesserung sehr viel deutlicher als bei HD->4K oder 4K->8K.
Im Fernsehen gibt es aktuell keine umfassende Ultra-HD / 4K Strategie - das Umstellungstempo ist langsamer geworden, es gibt noch SD Qualität.

Marcel55 schrieb:
Mich würde mal ein Vergleich zwischen VP9, HEVC, VVC und AV1 interessieren, wo man die Unterschiede auch wirklich erkennen kann.

Die Unterschiede werden eher durch Algorithmen (SSIM, PSNR) und durch Testbedingungen erkannt und verstärkt.
siehe zB hier

Für bestimmte Einsatz-Szenarien - Handy, kleine Displays - Technische Eigenschaft: HDR, HFR, Film-Grain usw.
und die Codeceinstellungen gibt es dann unterschiedliche Ergebnisse.

Piak schrieb:
So hat diese Meldung kaum News Charakter, außer hier ist die neue Version. Gibt es denn schon Firmen, die es konkret einsetzen wollen?

Die "neue Version" ist aber inkompatibel zur alten Version.
Die technische Umsetzung und der Stromverbrauch wäre interessant.
In vielen Firmen spielen technische Daten oder die exakte Beschreibung bzw. Spezifikation für "Heimanwender" eine sehr untergeordnete Rolle.
Bei vielen aktuellen "Smart" TVs sucht man unterstützte Video/Audioformate usw. vergeblich.
Eventuell werden die Plattformen wie Satellitenfernsehen - also wo DVB, ATSC etc. verwendet wird, einfach eine "Nummer" für den neuen Codec vergeben und dann können die Anbieter einfach diesen Senden.

Ob mit dem Codec dann 8K/16K TV oder 360° TV so "erfolgreich" wie der 201x er Hit 3D Fernsehen wird, wage ich zu bezweifeln.
Aktuell wird bei den Fernsehern nicht mehr mit 3D geworben.
 
  • Gefällt mir
Reaktionen: ThePlayer
Mit der Kompression des Versatile Video Codec soll ein 90-minütiger Spielfilm in UHD-Qualität zukünftig nur noch 5 GB Speicher statt bisher 10 GB benötigen.

...ist ja schön und gut, dass Streaming eine gewisse Bandbreite erfordert, aber Spaß kommt bei mir einfach nicht auf, wenn ich zuhause im eigenen Kino vor der Leinwand sitze und sich mir vor lauter Artefakten die Fußnägel hochbiegen.

10GB bei 90 Minuten kann bei komplexem Bildmaterial (z.B. vielen dunklen Stellen mit einzelnen Lichtquellen wie Sterne, Lampen etc) selbst für Full-HD schon viel zu wenig sein... dann auch noch in UHD (4-fache Auflösung) und nur noch die Hälfte der Bitrate, sprich: ein um den Faktor ACHT komprimiertes Bild gegenüber einer 10 GB Full-HD-Aufnahme, die wie gesagt, "stellenweise" auch schon zu wenig sein kann.

Ich hätte einfach gern die Wahl einer besseren Streaming-Qualität, es kann ja weiterhin für diejenigen, die ein etwas langsameres Internet - oder Volumentarife - haben, die Möglichkeit einer geringeren Bitrate geben.

Aber ich bin da sowieso in der Minderheit, wie bei so vielen Dingen, bei denen es um ein gewisses Maß an Qualität und User-Experience geht.
 
  • Gefällt mir
Reaktionen: Twin_Four, Deinorius, Flywolf und 2 andere
h.265 is toll fürs Aufnehmen von Spielen für YouTube Videos.
Meine RX 580 kann da 2560x1440 mit 60FPS und einer Bitrate von 70.000, die Dateien werden da schon etwas groß aber die Qualität ist super.

Bin da schon gespannt wie h.266 sein wird, vorausgesetzt natürlich die neuen Grafikkarten werden dafür einen Encoder haben und AMD/nVidia holen sich die Lizenz.
 
riloka schrieb:
Nein.
Es ist aber dennoch nicht zielführend wenn es total unübersichtlich ist und überteuert wenn man es nutzen will.

Kennst du die Preise?
 
Die Zeit des "MPEG Kartells" dürfte zügig dem Ende entgegen gehen - mit Apple, Microsoft, Amazon, Netflix, Google, Intel, AMD, ARM, Nvidia, Adobe, Tencent, Alibaba, Samsung (uvm) haben sich die mit Abstand relevantesten Player auf dem Markt sämtlicher Bereiche (Hardware, Software, Content) klar positioniert (Alliance for Open Media). Die Standards der MPEG Gruppe werden damit immer unbedeutender und letztlich nicht mehr relevant genug um noch Lizenzkosten dafür zu zahlen.

Hard- und Software ohne H.264 Unterstützung wäre damals undenkbar gewesen, fehlende VVC Unterstützung würde mich wohl kaum stören.

SV3N schrieb:
VVC und AV1 werden zukünftig möglicherweise auch auf einen neuen und ebenfalls lizenzkostenfreien MPEG-Standard treffen

Das könnte man so verstehen dass VVC lizenzkostenfrei wäre, ich gehe mal davon aus dass das aber nicht der Fall ist.
 
  • Gefällt mir
Reaktionen: Brian.Griffin, schneeland, Fritzler und 2 andere
lokon schrieb:
Im Fernsehen gibt es aktuell keine umfassende Ultra-HD / 4K Strategie - das Umstellungstempo ist langsamer geworden, es gibt noch SD Qualität

Schau mal Richtung Microsofts Filme&TV, da gibt's Full HD teilweise nur für die XBox, während es für den Laptop nur 720p ist
 
Piak schrieb:
Die Frage an den Autor @SV3N ist doch, wie wurde es erreicht? So hat diese Meldung kaum News Charakter, außer hier ist die neue Version. [...]

Ist doch bei vielen News so; wenn man näher ins Detail gehen will, würde das den Rahmen sprengen.

Aber du kannst einfach den Quellen im Text folgen und findest u.A. sowas: Quelle
Auch als Video verfügbar.
 
  • Gefällt mir
Reaktionen: lokon
GregoryH schrieb:
Dank AV1 wohl eine absolute Totgeburt. Alle großen Namen von Technologie und Internet setzen auf AV1

AV1 wird bisher noch sehr selten in HW unterstützt. Erst mit HW Unterstützung kann man sagen, dass grosse Namen darauf setzen. Ist alles noch in den Kinderschuhen bei AV1. LG sollte dieses Jahr glaube ich als erster TV Hersteller Geräte bringen, welche AV1 Decodierung unterstützen :)

Nureinnickname! schrieb:
Könnte man fürs Komprimieren mit WinRAR

WinRAR ist keine Kompression für Videoinhalte. Da bekommst du keine schlaue Kompression - die Temporale Komponente wird gar nicht angeschaut. AVC, VP8, HEVC, VP9, AV1 und nun VVC setzen alle darauf, dass das nächste Bild dem aktuellen ähnlich sieht.

Man erstellt also quasi ein JPEG vom ersten Frame (I - Frame) und nimmt ab jetzt nur noch die Änderungen zu den nächsten Frames (P - Frame). Nun findet man die Inhalte von Frame 1 an der selben oder benachbarten Stelle in Frame 2, also kann man Bewegungsvektoren benützen um zu komprimieren. Der Fehler der Entsteht wird über einem Fehlersignal (residual signal) korrigiert - dieses kostet die meisten Bandbreite.

Für weitere Details:
HEVC White Paper

Miuwa schrieb:
Meines Wissens kann ich h.265 auch hernehmen um Material lossless zu encodieren. Wird natürlich viel, viel schlechtere kompressionsraten erreichen.

Da hast du völlig recht :) Das "residual signal" - also das Fehlersignal zwischen input & HEVC Kodierung korrigiert dann Pixelperfect.

PNG kodiert zB auch verlustfrei :) Aber ist nicht ausgelegt für natürliche Bilder - da nutzt man JPEG. Die reale Welt besteht halt aus Wellen, nicht aus Flächen^^ Sensoren rauschen ;) Auch ein Grund weshalb keine Kamera PNG nutzt :)

Yuuji schrieb:
Ob es genau so wie sich großartig verbreitet wie h265 .

Fliz schrieb:
der .265er hat sich doch schn kaum verbreitet aufgrund Lizenzproblemen..

Apple setzt schon seit Ewigkeiten auf HEVC (h.265). Netflix & co sind auch schon seit mehreren Jahren dabei, jeder TV der Netflix kann, kann HEVC in HW. Nur im Gaming Bereich hat sich HEVC nie richtig durchgesetzt - da nutzt man lieber das auf Single Threading ausgelegte, 2003 erstellte AVC (h.264).

Wieso? Naja, weil der HEVC Encoder viel mehr Leistung benötigt als bei AVC. Noch dazu sehen die HW Implementationen von AMD & Nvidia bescheiden aus (superfast presets etc)... Nvidia hat sogar seinen AVC Encoder 2018? verbessert. Die SW implementation x265 sieht hingegen super aus :) Falls jemand rumspielen will in C / C++, hier ist der Link zum Projekt: x265. Um das eigene System am besten Auszulasten, empfehle ich x265 lokal selbst zu kompilieren statt die Vorkompilierten Binaries zu verwenden :)

Edit:

falkum schrieb:
Steht denn irgendwo, welche Hardware auf der CPU Seite gefragt ist, wenn man das in Software auflöst? Bzw. geht das überhaupt?

Bei VVC weiss ich es (noch) nicht - hab das Paper noch nicht gelesen :)
x265 hingegen nutzt MMX, SSE, AVX & Skaliert schön mit mehr CPU Kernen. Man muss jedoch YASM (einen Assembler) verwenden um diese CPU Funktionalitäten "frei zu schalten". Ansonsten läuft x265 ohne CPU Erweiterungen :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Deinorius, HolySkillet, estros und 2 andere
Novasun schrieb:
Du hast den Artikel gelesen und verstanden? H.266 ist bis 16K ausgelegt. Natürlich könnte eine H267 Implementierung auch hier und da nochmals besser werden [Fortschritt ist ja nicht verboten]. Aber du brauchst nicht zu warten. Im Kern soll das schon H.266 erledigen.
Ja gelesen und verstanden. Es geht auch nicht darum ob H.266 4,8 oder 16K kann. Sondern das 8K zu 4K die vierfache Menge an Daten Produziert. Deswegen meine Frage wird da H.266 reichen???

v_ossi schrieb:
Ich hab den Markt die letzten Jahre nicht mehr so intensiv verfolgt, aber 100GB sind meinem etwas veralteten Wissen nach doch selbst bei UHD Blu Rays eine Seltenheit.

Von Interstellar, immerhin einem fast 3 Stunden Film, weiß ich noch, dass er knapp 90GB auf der Disc eingenommen hat und schon den konnte man ohne (subjektiv) sichtbarem Qualitätsverlust auf ~40GB drücken. Mit h.266 könnte man da zumindest bei ~30GB landen.
Es gibt schon die ersten Filme mit 100GB, z.B. Lawrence of Arabia ist einer.
Ich denke bei Interstellar und anderen SciFi Filmen die viele Weltraum Szenen haben kann man gut Komprimieren. Aber 4K Filme die 2 Stunden und länger sind, sollten nicht unter 50GB fallen.

@Marcel55 Tja man denkt sich ja die Streams bei Netflix und Co. sehen so toll aus. Aber dem ist nicht so.
Erst am Sonntag war ich abends bei einem Kumpel. Und wir wolten Terminator Dark Fate gucken. Sein TV hat leider die UHD Datei nicht verarbeiten können. Also kurzerhand haben wir es gestream(er hat eine 250Mbit Leitung zuhause). Bin dann nachhause und habe es mir nochmal auf meinem TV angesehen. Und der unterschied war gravierend. Es fing bei der Bildschärfe an ging über die Farben weiter und selbst die Bewegungen im Bild waren klarer.

Autokiller677 schrieb:
Und da ich keine UHD BluRays habe, vermute ich, dass da sogar noch mehr ginge.

Gibts irgendwo wirklich gutes legales High-Bitrate Material zum Download, um einfach mal den Fernseher zu "benchmarken" quasi?
Da geht auf jedenfall viel mehr.
 
HerrFornit schrieb:
5 GB anstatt 10 GB:

Sind das nicht 100% weniger!? Also 100% effizienter.

Wo hast du denn Mathematik gelernt?

10GB - 50% = ???? Ich verrate es dir, es sind 5GB

10GB - 100% = 0 Ergo vom Film ist nix mehr übrig. :D

Hier sind eben die 10GB die Ausgangszahl (100%) und davon sind 5GB halt dann nur 50%.
 
  • Gefällt mir
Reaktionen: riloka und stevefrogs
Ich glaube dass selbst mit dem neuen Standard noch lange nicht alles erreicht ist. Man muss es sich nur mal vorstellen: 24 (oder mehr) Bilder pro Sekunde, wie viel passiert in so einer Sekunde? Nicht allzu viel. Und je höher die Auflösungen werden, desto größer werden auch Farbbereiche des Bildes und damit das Potential zur Komression.

Und dabei sind wir bisher nur auf Pixel-Ebene unterwegs, man stelle sich eine Kontext-sensitive Kompression vor: Wenn ich einen Bereich habe, der einen Farbverlauf von A nach B darstellt, wieso speichere ich mir nicht einfach entsprechende Farben und die Form als Vektor und zeige diese an entsprechender Stelle an, anstatt 100e Frames den gleichen Kram immer wieder neu speichern zu müssen? Ich glaub da ginge noch ordentlich was, wird mit jeder Verbesserung halt nur "etwas" komplexer.
 
Irgendwann wird man dann ein Neurales Netz mit einem wenige MB großen Drehbuch füttern und der Film wird in Echtzeit gerendert :freak:
 
  • Gefällt mir
Reaktionen: Deinorius, Haldi, iophobia und eine weitere Person
Dark Soul schrieb:
LG sollte dieses Jahr glaube ich als erster TV Hersteller Geräte bringen, welche AV1 Decodierung unterstützen

Aktuelle Samsung Q60T von 2020 können AV1 4K 60fps bis 40Mbit.
Quelle: Handbuch S.141
Eventuell auch eine Folge der Forderung bei der App/API von Youtube.


Allerdings haben 2020er Modelle keinerlei DTS Unterstützung obwohl Basis-DTS inzwischen Patentfrei ist.
Außerdem kein DIVX mehr - das "normale" MPEG4 aka xvid ist allerdings noch auf der Liste - also nicht soo schlimm.
Beim freien FLAC Format wird kein Mehrkanal-Ton unterstützt.
Außerdem ist die MPEG2 Bitrate von 20Mbit merkwürdig niedrig. HD DVB hätte mehr .... (src)

Also 2Jahre von 2018 "festes Bitstream AV1 Format" bis 2020 im TV aktiv.
 
  • Gefällt mir
Reaktionen: menace_one und Haldi
ned schon wieder, Konkurrenz belebt das Geschäft aber mir geht das auf den Nerv, bis dann neue Hardware beide Codecs kann geht wieder viel Zeit ins Land.
Am besten bei Videoaufnahmen bei H264 bleiben läuft einfach überall.
Mpeg2 Support gibts ja schon lang nicht mehr. das mal weit verbreitet Mpeg4-ASP ?
Frag mich warum die meinen in Zeiten von steigenden Bandbreiten und Datenträgerkapazitäten einen mit sowas noch extra beglücken zu müssen
 
Fritzler schrieb:
Wenn die Lizenzkosten auch so sind wie bei h265, dann hoffentlich / zum Glück nicht.
In W10 ist ja kein h265 ausgeliefert und die Internetriesen fördern lieber VP1 und andere offene Standards.
Die Entwicklung kostet nun mal eben Geld. Sonst müssten Netflix & Co. eben ihren eigenen Codec entwickeln, da ihnen das ja selber nützt. Der sollte dann auch offen sein, damit er überhaupt die nötige Verbreitung erreicht, um auch in Hardware unterstützt zu werden. Wenn das Fraunhofer Institut den entwickelt, haben die aber selbst nichts davon, den kostenlos anzubieten, das ist das Problem.
 
  • Gefällt mir
Reaktionen: Miuwa
das ist ja alles schön und gut, aber bereits jetzt dauert es ewig Filme in x265 zu encoden. (ca 1/20 der Geschwindkeit von x264)
Wie viele Jahre dauert es dann Filme in x266 zu encoden? 3 Tage, weil man mit 1fps encoded?
 

Ähnliche Themen

Antworten
62
Aufrufe
118.370
Zurück
Oben