News VVC alias H.266: Designierter Nachfolger von H.265 erlangt Serienreife

andi_sco schrieb:
Geht Ihr alle kostenlos arbeiten oder wie funktioniert das bei euch?
Redest du immer nur Stuss oder wie funktioniert das bei dir?

Jeder wird für seine Arbeit entlohnt, darüber sagt die Lizenzierung rein gar nichts aus.
 
TriggerThumb87 schrieb:
Ist das anwenderfreundlich? Kann das der normale Nutzer? Nein. Werden dadurch "ältere" Geräte benachteiligt? Ja. Thema gegessen.
Klar, der normale User wie Heinz von nebenan, der mit einem Raspi bastelt und http-responses per regex parst, um bei Youtube Videos runterzuladen, aber dann nicht in der Lage ist (vielleicht mit einmal try&error), das korrekte Format auszuwählen, wer kennt ihn nicht?

So ein Schwachsinn. Für normale User regelt Youtube das - die kommen mit Browser oder App, YT klärt welches Format passt und liefert das aus. Ende.
Wenn man über die API kommt oder die http-Schnittstelle zweckentfremdet für Sachen, die man eigentlich über die API machen soll, ist man eben kein normaler User mehr. Sondern technisch so versiert, dass man das korrekte Auswählen des Formats auch noch schafft.

Ich glaube es ist jetzt das dritte Mal, dass ich sage, dass ich beispielhaft Mediatheken nenne, das aber nicht ankommt.
Dann werd doch mal konkret: Welche Mediatheken bieten kein h264 mehr an?

Naja, den Rest lass ich mal. Wirkt doch sehr wie Troll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: chartmix und Beitrag
flmr schrieb:
Redest du immer nur Stuss oder wie funktioniert das bei dir?
...

Leicht OT: nur vor dem ersten Kaffee
 
  • Gefällt mir
Reaktionen: flmr
@0x8100 Eine höhere Auflösung in VP9 interessiert mich bei dem Bildschirm des Pro 4 eigentlich auch nur in Hinsicht auf die Bitrate. Prinzipiell hätte da auch 1080p gereicht.

Habe h264ify aber schon genutzt gehabt. YouTube hat dann halt mehr Bandbreite geschluckt, lief dafür aber auch im Vergleich zu 1080p-VP9 auf Akku länger. Ein Nachteil war halt neben der auf 1080p begrenzten Auflösung, dass die 60FPS-Optionen wegfielen, daher habe ich das AddOn irgendwann wieder deinstalliert.

Am Ende habe ich das Surface Pro 4 nun aber eh durchs Ideapad 5 AMD ersetzt, da die 4GB RAM mittlerweile für extrem viel Frust bei der Bedienung gesorgt haben.

Das war aber auch nur als Beispiel gedacht. Es gibt halt so viele Geräte die nur deshalb auf dem Müll landen, weil die Rechenleistung für die neuen Codecs fehlt... Ein 1080p-Video in H.264 brauch weniger Leistung wie ein H.265-Video in gleicher Qualität. Wenn der H.265-Decoder nicht vorhanden ist und man nun auf H.265 umgestellt wird hat man entweder genug CPU-Power, die Möglichkeit einen H.265-Decoder (=neue Grafikkarte) nachzurüsten (bei Mobilgeräten unmöglich) oder schaut in die Röhre. Selten hat man nämlich wie bei YouTube (wenn auch mit erheblichen Einschränkungen) die Möglichkeit, den älteren Codec zu verwenden.

Bei Unterhaltungselektronik wandert das jeweilige Gerät dann eh in die Tonne - oder man muss eins dazu stellen...
 
Haldi schrieb:
Oh... jetzt wirds aber interessant...
Wie viel CPU Last hat das dann erzeugt?
Ich hab momentan das Problem eines 5120x1440 Pixel Monitors. Und meine alte Vega64 kann nur 4096x1152 Pixel Encodieren. Dafür halt Hardware mit 0 FPS verlust ingame. Daber der 3900X eigentlich meistens Brach liegt beim Zocken wäre X265 oder X264 zur aufnahme schon interessant.

Auf dem System ist gelaufen:
  • Assassins Creed Origins in FHD (Alle Details ganz oben, fps cap bei 60)
  • x265 & OpenCl (für die RGB -> YUV 420p Konvertierung)

System war:
  • Core i7 5820k
  • 16GB Ram (2400Mhz?)
  • Fury X 4GB GPU

Halt das System im Geschäft. Also ziemlich alt :) GPU & CPU habe ich voll ausgelastet. Der x265 hat sich da halt alles an CPU Leistung genehmigt was noch vorhanden war. OpenCL hat ja zusätzlich noch die GPU ausgelastet - was bei GCN wegen der "moderaten" Auslastung durch Spiele & die hohe Speicherbandbreite eh kein Problem darstellt.

Zu den einzelnen Zahlen:
- RGB2YUV (OpenCL):
  • Browser Fenster -> 4ms
  • Assassins Creed -> 4.3ms (Weil ja die GPU schon für das Spiel benützt wird)
  • White Noise -> 4ms
- x265:
  • Browser Fenster -> 17ms (kein Load ausser Streamer Pipeline)
  • Assassins Creed -> 21ms
  • White Noise -> 127ms (worst case für jeden Encoder, da temporale Komponente Random! Labortest)
Habe das Projekt vor kurzem wieder geöffnet und angefangen zu überarbeiten :) Hab nun auch den Radeon GPU Encoder eingebunden, nvenc folgt :) Sobald alles getan ist, werde ich sicher mal einen build auf github veröffentlichen.

Denke also du solltest mit deinem Ryzen, x265 gut zum laufen bringen. Ich hatte ja nur 6C/12T mit tieferem Takt & IPC.
 
  • Gefällt mir
Reaktionen: ghecko
Gamefaq schrieb:
Es geht nicht um qualitative Vorteile.
Ok, meine Frage war etwas zu schwammig.
Gemeint war, ob bessere Qualität bei gleicher Größe, oder kleiner bei gleicher Qualität.

Aus deinem restlichen Beitrag geht für mich leider nicht hervor, ob du dich auf in hardware enocdiertes h.264, oder über software encodiertes (x264) h.264 Material beziehst.
Dass nvenc h.265 besser dasteht, als nvenc h.264 glaub ich gern, aber bisher hab ich noch keinen hardware encode gesehen, der auch nur ansatzweise an einen x264/x265 encode heranreicht.
Selbst Intel quick sync, welches für die beste Qualität bekannt ist, verliert im Detail.

iGameKudan schrieb:
Habe h264ify aber schon genutzt gehabt. YouTube hat dann halt mehr Bandbreite geschluckt, lief dafür aber auch im Vergleich zu 1080p-VP9 auf Akku länger. Ein Nachteil war halt neben der auf 1080p begrenzten Auflösung, dass die 60FPS-Optionen wegfielen, daher habe ich das AddOn irgendwann wieder deinstalliert.
AVC liegt auch in 1080p60/720p60 vor. h264ify blockt diese nur, wenn durch die Optionen gewünscht.
Anmerkung 2020-07-08 094310.png
 
Zuletzt bearbeitet:
@iGameKudan Sicher, dass das nicht einfach ein Softwareproblem ist? Was hast du denn für 'ne CPU?
Bei mir war es bspw. so, dass Firefox sich trotz aktivierter Hardwarebeschleunigung geweigert hat, diese auch zu verwenden. Das hat erst geklappt, nachdem ich in about:config "media.hardware-video-decoding.force-enabled " auf true gesetzt hatte.
 
MotherPink schrieb:
Gemeint war, ob bessere Qualität bei gleicher Größe, oder kleiner bei gleicher Qualität.

Sowohl als auch. Wobei das Empfinden von Qualität subjektiv ist. Daher geht es immer darum wenn man keinen Unterschied erkennen kann so ist die Qualität gut genug. Dann mehr Bitrate zu nutzen also die Größe der Datei weiter zu vergrößern obwohl man keinen Unterschied erkennen kann macht keinen Sinn mehr. Außer Eben du willst Verlustfrei speichern wodurch die Dateigröße explodiert.

MotherPink schrieb:
Aus deinem restlichen Beitrag geht für mich leider nicht hervor, ob du dich auf in hardware enocdiertes h.264, oder über software encodiertes (x264) h.264 Material beziehst.

Ich rede die ganze Zeit nur von in Hardware encodiertem H265. H264 ist für mich egal ob Soft oder Hard encoded nicht mehr existent. Ich nutze es schlicht nicht mehr da es wesentlich mehr Bitrate = Speicherplatz benötigt. Ich habe schon vor Jahren (2015) auf einen H265 Player (nVidia Shield TV) gesetzt und seit dem alle meine alten Filme neu in H265 encodiert und die neuen sowieso.

Geht mal weg von illegal im Internet hoch geladenen Filmen oder von normalen BluRays die verkauft werden müssen weil viele eben diese Player noch haben. Theoretisch hätte jeder schon lange komplett auf H265 umgestiegen sein können. (wann hattet ihr den ersten TV der das konnte , das erste Handy oder den ersten H265 tauglichen MediaPlayer vor eurem ersten 4k TV der weil er es können musste immer einen H265 Player eigebaut hat?) Es war nur nicht praktisch weil die Masse keine H265 tauglichen Geräte hatte und heute noch nicht überall hat. Also schleift man das alte H264 noch Jahrelang weiter mit.

Ich hab eine Filmsammlung von tausenden Filmen und Hunderten Serien (!) die ich für mein 9.2.4 Heimkino Archiviert habe. Es ist etwas anderes als sich illegal im Netz mal einen 8-12 GB Film je nach Art (Animations Filme , dazu zählen auch heutige zu 70-80% am Computer generierten Hollywood Blockbuster benötigen weniger Speicherplatz als normale Filme oder alte 35mm mit Körnung) und Länge des Filmes herunter zu laden, zu schauen und dann wieder zu löschen = scheiß auf die ~10GB Pro Film oder aber du Archivierst sie auch. Dann ist es ein großer Unterschied ob ich durchschnittlich 3-5GB in H265 oder 8-12Gb in H264 PRO Film (jeweils auf ein FullHD 1080 Film bezogen) bei auf dem TV gleicher Bildqualität habe!

MotherPink schrieb:
Dass nvenc h.265 besser dasteht, als nvenc h.264 glaub ich gern, aber bisher hab ich noch keinen hardware encode gesehen, der auch nur ansatzweise an einen x264/x265 encode heranreicht.
Selbst Intel quick sync, welches für die beste Qualität bekannt ist, verliert im Detail.

Da ist der Fehler wenn du von Details sprichst. Es werden Standbild Vergleiche gemacht bei denen IN das Bild herein gezoomt und somit die Kompressionsartefakte vergrößert werden. Diese Artefakte sind aber irrelevant da Teil der Technik und deswegen musst du das fertige Ergebnis 1zu1 in Original Auflösung vergleichen und nicht das Webseiten oder möchtegern Nerds versuchen Seriös zu erscheinen indem man es durch diese hineingezoomten Screenshots (Witz komm raus ein komprimierter Screenshot eines komprimierten Video Bildes, also die Kopie von der Kopie einer Kopie - Finde den Fehler :rolleyes: ) vergleicht.

Beitrag schrieb:
(h.264 1080p von yt als Quelle)

Paradebeispiel. Der Neu Encode von einem Encode wird erneut encodiert. Du weist nicht in welcher Qualität das Live Video das auf YouTube hochgeladen wird, aufgenommen wurde. Dieses KONVERTIERT (meistens sogar Transcodiert also Video zu VP9 und Audio zu AAC) YouTube IMMER nochmals herunter ( die sogenannte "Verarbeitung" ) bevor es online verfügbar wird um Bitrate zu sparen nach dem Upload. Das hat er heruntergeladen um es durch den Hardware H265 Encoder zu jagen für einen "Qualitätstest". Womit wir wieder bei der Kopie einer Kopie einer Kopie wären. WIE kann man da noch von Qualität reden wenn nicht mal klar ist von welcher Basis man ausgeht?
 
Zuletzt bearbeitet:
Gamefaq schrieb:
Ich rede die ganze Zeit nur von in Hardware encodiertem H265. H264 ist für mich egal ob Soft oder Hard encoded nicht mehr existent.
x264 war jedoch Mushis Ausgangsbasis.

Gamefaq schrieb:
Ich nutze es schlicht nicht mehr da es wesentlich mehr Bitrate = Speicherplatz benötigt.
Und das bezweifle ich, sofern du es mit einem software x264 encode vergleichst.

Gamefaq schrieb:
Da ist der Fehler wenn du von Details sprichst. Es werden Standbild Vergleiche gemacht bei denen IN das Bild herein gezoomt und somit die Kompressionsartefakte vergrößert werden.
Nein, ich rede von selbst encodierten Videos, die ich einfach begutachtet habe, ohne Zoom und Standbild.
Hardware encodes weißen dabei, unabhängig der zur Verfügung gestellten Bitrate, immer Artefakte, speziell, aber nicht nur im Luma auf, welche in Software nicht erscheinen.
Auch bekomme ich die Dateigrößen nicht ansatzweise auf software Niveau, ohne die Qualität beträchtlich leiden zu lassen.

Dazu muss ich jedoch sagen, dass ich nur AMDs und Intels Hardware encoder kenne.
Wie weit Nvidia mittlerweile an x264/x265 herangekommen ist weiß ich nicht, weshalb ich die Frage in den Raum warf.
 
@Gamefaq Das ist nun mal die Realität. Man hat Videodateien ja fast nie lossless vorliegen, einen Encode haben sie immer hinter sich, bevor man irgendwas Reencodiert. Im Falle von YT mindestens 2, wenn der Uploader nicht lossless hochgeladen hat, was unwahrscheinlich wäre.

Den HW-Encoder testen kann ich so trotzdem noch. Ein Reencode via CPU sah besser aus, als via HW-Encoder.
Professionell geht anders, klar. Professionell würde man die Bildqualität auch gar nicht selbst beurteilen, sondern das einem Algorithmus überlassen. Aber wenn man professionell will, dann kann man HW-encoding eh vergessen. Wer gewerblich Videos encodiert, wird das niemals auf 'ner GPU machen.
 
Zuletzt bearbeitet:
Beitrag schrieb:
Wer gewerblich Videos encodiert, wird das niemals auf 'ner GPU machen.

Was meinst du was Netflix & co machen? Die haben keine Zeit bei der Masse zu warten. Sind ihr Encodes schlecht? Im Gegenteil sie zeigen wie gut es ist und wie schlecht die Content Industrie ihre eigenes Digital Ultraviolet Encodes gemacht hatte.
 
Beitrag schrieb:
Wo da die Grenze ist, wenn man immer mehr und mehr solcher Kniffe anwendet? Who knows? Eine Grenze wird es aber selbstverständlich geben, irgendwann hat man ja alle Informationen weggeschmissen, die für eine qualitativ akzeptable Rekonstruktion des Bildes nicht notwendig sind. Will man dann noch mehr loswerden, sieht man das auch.

Man könnte zum Beispiel bei menschlicher Haut die Auflösung automatisch stark verringern. Sieht dann alles so schön glatt aus :-P

Hoffentlich geht der Codec vernünftig mit extremen Szenen um: Bei sanften Bildverläufen lässt sich klaro eine Menge Daten wegoptimieren, die Bitrate im Schnitt recht niedrig halten und damit die Gesamtgröße
Meine Erfahrung ist aber, dass bei Explosionen, Tierfell in Nahaufnahme und schneller Bewegung sofort alles laagt, hässliche Bildfehler produziert oder ganz abbricht. Alternativ begrenzt man beim Encoding die maximale Bitrate. Dann sieht man bei actionreichen Momenten aber halt nur SD Qualität. Bei 4K, 8K, 16K dürfte dies noch viel extremer zu Tage treten. Gibt es für dieses Problem endlich eine Lösung?
 
Gamefaq schrieb:
Was meinst du was Netflix & co machen?
Ohne Quelle glaube ich dir kein Wort. Habe beim Googeln nichts zu Hardware Decoding von Netflix gefunden und hier steht, Netflix habe ein Netflix Video Encoding Optimization Framework und verwende Software Encoding.
https://netflixtechblog.com/dynamic...-encoding-optimization-framework-e19f1e3a277f

Das wäre auch das erste Mal, dass ich gehört hätte, dass ein VoD-Anbieter auf Hardwareencoding setzt. Bei Streamingplattformen wie Twitch könnte ich mir das noch vorstellen aber nicht bei Netflix, Youtube etc.
 
Beitrag schrieb:
@Gamefaq Das ist nun mal die Realität. Man hat Videodateien ja fast nie lossless vorliegen, einen Encode haben sie immer hinter sich, bevor man irgendwas Reencodiert. Im Falle von YT mindestens 2, wenn der Uploader nicht lossless hochgeladen hat, was unwahrscheinlich wäre.

Dennoch ist ein YT Video als Source für einen Encodertest.... naja, mindestens suboptiomal.

Wenn man was Realistisches machen will, kann man sich ja mal hochqualitative Samples besorgen (z.B. gibt RED direkt welche raus https://www.red.com/sample-r3d-files, man findet aber auch andere z.B. hier: https://filmplusgear.com/prores-raw-testfiles-for-download-nab-2018/), encodiert die einmal auf h264 in BluRay Qualität und nimmt das als Basis für seine Versuche.

Youtube als Basis ist halt echt Grütze. Das wurde schon soweit durchgedreht, dass selbst der beste Algorithmus da sichtbare Verschlechterungen erzielt. Da ist einfach überhaupt kein Spielraum mehr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DeusoftheWired
Nureinnickname! schrieb:
Und warum kann ich die Filme verlustfrei mit h.265 komprimieren wobei WinRAR keine verkleinerung erreicht?

Wenn ich ein Wave-File mit FLAC kodiere ist die Datei auch deutlich kleiner als mit WinRAR. Sprich: Die der Algorithmus muss auch passen...und der ist bei Videos deutlich komplexer als bei bei normalen Packern. Die müssen z.B. keine vorherigen und nachfolgenden Frames in die Berechung mit einbeziehen usw...
 
  • Gefällt mir
Reaktionen: Nureinnickname!
Ehrlich gesagt bin ich vom starken AV1 Support hier überrascht.
Nicht das ich irgendetwas gegen den Codec einzuwenden hätte, aber ich war schon froh das meine neue Drohne und Handy-Cam nun von h.264 auf h.265 gewechselt sind zwecks Platzersparnis.

Und irgendwie habe ich jetzt erwartet, das die nächste Generation ganz klar h.266 sein wird, so ganz ohne Vorkenntnisse - einfaches Bauchgefühl eines Nutzers, der sich nur drum schert, das es funktioniert und gut aussieht.
 
Beitrag schrieb:
Das wäre auch das erste Mal, dass ich gehört hätte, dass ein VoD-Anbieter auf Hardwareencoding setzt. Bei Streamingplattformen wie Twitch könnte ich mir das noch vorstellen aber nicht bei Netflix, Youtube etc.
Unabhängig davon ob Youtube und Netflix in Hardware encoden oder nicht sieht es trotzdem schlecht aus :D
 
@Mushi

Ich habe heute eine Email von Mainconcept erhalten

FFmpeg Plugins
https://www.mainconcept.com/products/for-professionals/ffmpeg.html

Es gibt jetzt die Mainconcept Encoder für FFmpeg x264 und HEVC
x264 soll bis zu 100% schneller sein als OpenSource und HEVC +20% schneller.

Da nicht komerziell auch vom Preis interessanter als das Totalcode Studio.

Bin die am testen weiß nur noch nicht mit welchem Fronend ich die einfach benutzen kann?

(Mit etwas Glück könnte ich via Debugmode Frameserver aus Premiere CS6 heraus rendern.. ).
 

Ähnliche Themen

Antworten
62
Aufrufe
118.085
Zurück
Oben