Handbrake und Dauer der Umwandlung

Status
Für weitere Antworten geschlossen.
muss es zwingend h265 sein? h264 geht in der tat deutlich schneller.

und falls hardware enconding für dich eine option wäre:
ich habe grade mal angetestet. mit einer 980 Ti dauert das umwandeln eines standardfilms per h265/NVENC ungefähr 20min. allerdings unterstützt das handbrake (noch) nicht.
 
paccoderpster schrieb:
Die Frage ist, was will der TE machen?
Einfach nur auf meiner NAS speichern, damit jeder im Heimnetzwerk darauf zugreifen kann

Piktogramm schrieb:
Die Einstellungen sind nicht schlecht. Reingerissen wird dir die Geschwindigkeit von zwei Faktoren:
1. Encoder Preset: Slower
2. Die Entwickler von Handbrake geben an, dass Handbrake derzeit mit bis zu 6 Threads gut skaliert darüber hinaus aber nur mäßig bis schlecht
Sehr spannend. Soweit bin ich gar noch gar nicht gekommen. Muss ich mal schauen, wie ich das optimieren kann

yaegi schrieb:
muss es zwingend h265 sein? h264 geht in der tat deutlich schneller.
Ja, wegen der höheren Qualität möchte ich gerne h265 haben. Mit h264 bin ich beim selben Film in ca. 4h fertig, dieser Unterschied ist mir bewusst.
 
Dicht_ins_Licht schrieb:
Einfach nur auf meiner NAS speichern, damit jeder im Heimnetzwerk darauf zugreifen kann. [...] möchte ich gerne h265 haben

Können alle Geräte denn Problemlos H265 wiedergeben? Viele Geräte haben entweder nicht genug Power, weil die Hardwaredecodierung fehlt und die CPU für Software Decoding zu schwach ist.
 
Ja, wegen der höheren Qualität möchte ich gerne h265 haben. Mit h264 bin ich beim selben Film in ca. 4h fertig, dieser Unterschied ist mir bewusst.

?


Glaube du hast den Sinn von h265 nicht verstanden, es ist keine höhere Qualität sondern eine kleinere Dateigröße.;)

Falls du es schnell haben willst (auch wenn hier wieder paar Leute mit ihrem Halbwissen kommen) nimm FFMPEG und nutze z.B Nvenc und ne Nvidia GPU (glaube ab Maxwell 2.0) ich brauche auch nur ca. 10-20 min pro Bluray mit h265, da kann du auch 40 Kerne nicht mit dem speed mithalten. Labbert mich bitte nicht voll das die GPU ne schlechtere Qualität erzeugt, kann es nicht mehr hören, zudem ist es auch völliger Schwachsinn..
 
Dicht_ins_Licht schrieb:
Ja, wegen der höheren Qualität möchte ich gerne h265 haben.

Dafür wurde h.265 nicht entworfen und das leistet es auch nicht. Ziel von h.265 ist die Platzersparnis bei gleicher Qualität, was es auch erreicht hat. 30 – 50 % geringere Dateigröße ohne Qualitätsverlust im Vergleich zu h.264.

Mach mal einen A-B-Blindtest mit h.264- und h.265-Material auf deinem Wiedergabegerät. Du wirst keinen Unterschied feststellen.
 
derbe schrieb:
Labbert mich bitte nicht voll das die GPU ne schlechtere Qualität erzeugt, kann es nicht mehr hören, zudem ist es auch völliger Schwachsinn..

CUDA Encoder nutzen deutlich schlechtere Presets. Nimmt man die gleichen Presets für die CPU, nehmen sich diese gar nicht mehr soviel. Das liegt daran, weil ein einzelner Kern auf der GPU langsam ist, aber davon viele hat und Videoencoding sich schwer threaden lässt. Also gewinnt man hier mit einer höhereren pro Kern Leistung.

Du nutzt NVENC. Das ist ein reservierter Bereich auf der GPU der explizit für die Encodierung (und auch dekodieren) da ist (ASIC). Dadurch, dass die Schaltung für eine bestimmte Sache da ist, kann diese von der Leistung und Qualität her genau darauf optimiert werden.
 
Also für mich gibt es vom Bild keinen Unterschiede zwischen 264 & 265.
Ich habe alle meine DVD's in MKV gewandelt um diese im Netzwerk zu Hause verfügbar zu machen.

Ich habe ein Testfile genommen und beides probiert. Auf meinem TV sehen die Dateien gleich aus. Lediglich der Platz den die Datei benötigt ist kleiner. Macht aber bei den heutigen Platten keinen Unterschied. Aus meiner Sicht.
 
umax1980 schrieb:
.. Macht aber bei den heutigen Platten keinen Unterschied. Aus meiner Sicht.

Doch mach sehr wohl ein Unterschied, ich nehme gerne UHD Videos auf und habe im Gegensatz zu h264 ca. 30% weniger Speicher belegt was mehrere hundert Gigabytes sind, ist halt mein Hobby :)

@paccoderpster was genau "NVENC" ist oder macht ist mir an sich völlig egal, für mich zählt das Ergebnis, und das steht zur CPU in nichts nach, außer das man nicht 3 Jahre warten muss :)
Entschuldige mein Ausbruch aber jedes mal wenn ich NVENC erwähne kommt eine "Oberschauler" um die ecke und versucht mir zu erklären das die Qualität mies ist...


Btw, wer sich wundert die meisten TV's (vor allem LG und Samsung) haben schon seit 1-2 Jahre HEVC support, da läuft alles Top ;)
 
Zuletzt bearbeitet:
derbe schrieb:
@paccoderpster [...] Entschuldige mein Ausbruch aber jedes mal wenn ich NVENC erwähne kommt eine "Oberschauler" um die ecke und versucht mir zu erklären das die Qualität mies ist...

Das habe ich nie getan?! Ich habe erklärt, das CUDA Encoding auf der GPU was anderes ist, als NVENC und woher der (bei NVENC ins postive) Qualitätsunterschied kommt.
 
paccoderpster schrieb:
Das habe ich nie getan?! Ich habe erklärt, das CUDA Encoding auf der GPU was anderes ist, als NVENC und woher der (bei NVENC ins postive) Qualitätsunterschied kommt.

Ich habe es dir auch nicht vorgeworfen, sondern nur erklärt warum ich so aufgewühlt bin :D

€: Wundert mich auch das hier nicht schon einer ist der aufschreit wie schlecht die Qualität ist.
 
derbe schrieb:
Ich habe es dir auch nicht vorgeworfen, sondern nur erklärt warum ich so aufgewühlt bin :D

Achso :D Ich denke aber trotzdem, dass es ganz gut zu wissen ist, was was ist und was es macht. Villeicht sollte ComputerBase dazu mal einen Artikel machen (oder gibt es dazu schon ein Leitthread im Forum?). Also was es gibt, wofür es das gibt, usw.
 
@paccoderpster Wäre sicher interessant, allerdings ist so was ehr Nische. Gibt wohl nicht viele die mit Video herumhantieren, habe es auch eigentlich nur durch Zufall herausgefunden, und bin dabei geblieben weil es schnell und gut läuft.

Das einzige Manko: ich musste mir FFMEPG selbst kompilieren und NVENC mit rein nehmen weil es wohl so nicht mit drin ist. Denke dieser Fakt wird viele das Genick brechen die keine Lust haben sich damit zu beschäftigen.
 
Auf die Idee mit h.265 bin ich deswegen gekommen:
https://www.youtube.com/watch?v=qL22L0mRSDs

Und ja, ich bilde mir ein, bei Livevideos sehen die h.265 codierten Sachen besser aus als bei h.264 (besonders die Lichter in Nebel- und Rauchschwaden, und die kommen Live oft vor).

@derbe:
Meine Quadro 600 mit Fermi Architektur wird da wohl nicht unterstützt.
 
Weniger Bitrate -> Gleiche Qualität
Gleiche Bitrate -> Mehr Qualität

Wobei beides nicht ins Unendliche skaliert.

Das ist ja genau das, was wir schon meinten. H.265 ist nicht für mehr Qualität, sondern für geringere Bitraten bei gleicher Qualität geschaffen worden. Genau deswegen kann das live codierte besser aussehen, weil mit der gleichen (für H.264 zu geringen) Bitrate, bessere Qualität erzielt werden kann.
 
@Dicht_ins_Licht

Für ca. 120€ bekommst du ne GTX 1050 mit 2GB die sollte es können, das wäre es mir Wert.

->paccoderpster hat völlig recht :)
 
paccoderpster schrieb:
Weniger Bitrate -> Gleiche Qualität
Gleiche Bitrate -> Mehr Qualität
Ja, das macht Sinn :D

@Derbe:
Ein normale Grafikkarte kann ich in meiner Workstation leider nicht einbauen aufgrund des PCI-X Anschlusses.
 
In dem Video sieht h.264 natürlich schlechter aus, aber erstens ist YouTube für Videovergleiche ungeeignet – wenn, dann stellt man die drei unterschiedlichen Dateien zum Direktdownload zur Verfügung – und zweitens gibt es zur verwendeten Encodierung keine Informationen. Man erfährt nicht, welches Programm mit welchen Einstellungen zum Einsatz kam.

Unabhängig davon: nichts ersetzt einen Blindtest in der persönlichen Umgebung. Nützt dir nichts, wenn Experten sagen, daß x besser als y ist, du aber mit deiner Ausrüstung keinen Unterschied siehst.
 
derbe schrieb:
Falls du es schnell haben willst (auch wenn hier wieder paar Leute mit ihrem Halbwissen kommen) nimm FFMPEG und nutze z.B Nvenc und ne Nvidia GPU (glaube ab Maxwell 2.0) ich brauche auch nur ca. 10-20 min pro Bluray mit h265, da kann du auch 40 Kerne nicht mit dem speed mithalten. Labbert mich bitte nicht voll das die GPU ne schlechtere Qualität erzeugt, kann es nicht mehr hören, zudem ist es auch völliger Schwachsinn..

derbe schrieb:
@paccoderpster steht zur CPU in nichts nach, außer das man nicht 3 Jahre warten muss :)
Entschuldige mein Ausbruch aber jedes mal wenn ich NVENC erwähne kommt eine "Oberschauler" um die ecke und versucht mir zu erklären das die Qualität mies ist...

Ist das ein neuer Trend? Sich über Halbwissen aufregen und dann Müll verbreiten? Offensichtlich scheinst du ja nicht mal die Hardware Implementierung zu kennen und deren Grenzen. Selbst das Ultrafast Preset von H265 benutzt Dinge die auf der GPU nicht implementiert sind. Kann man nebenbei nachlesen was die GPU alles nicht implementiert hat.

Sicher das man versucht hat dir zu erzählen, dass die Qualität mies ist oder versuchte man dir vielleicht zu erklären warum es auf der CPU besser ist?

Ich werde mal versuchen es für dich "derbe" einfach zusammenzufassen.
GPU = schnell. GPU = gute Qualität. GPU = hohe Bitrate.
CPU = langsam. CPU = beste Qualität. CPU = niedrige Bitrate.

Mit der GPU hat man meist die gleiche Bitrate wie bei H264 mit der CPU. Dafür dauert das alles nicht so ewig, aber man holt sich die Nachteile von HEVC ins Boot. Unten ist eine Grafik angefügt, diese zeigt praktisch was ich meine. Die Effizienz von GPU Encoding ist, sobald die Zeit eine Rolle spielt, einfach unschlagbar. Vielleicht bekommt man nicht den best möglichen Encode, dafür ist es extrem schnell. Ich encodiere auch einige Sachen auf meiner 1070, aber die GPU steht der CPU in einigem nach und darüber sollte man sich bewusst sein.

d2b60e448e.jpg
Die Grafik ist von Techspot.
 
Zuletzt bearbeitet:
derbe schrieb:
Das einzige Manko: ich musste mir FFMEPG selbst kompilieren und NVENC mit rein nehmen weil es wohl so nicht mit drin ist. Denke dieser Fakt wird viele das Genick brechen die keine Lust haben sich damit zu beschäftigen.
Bei mir war es bisher immer mit dabei. Sowohl bei der Binary für Windows von https://ffmpeg.zeranoe.com/builds/ als auch z.B. bei der Binary im ArchLinux Repo.

derbe schrieb:
Labbert mich bitte nicht voll das die GPU ne schlechtere Qualität erzeugt, kann es nicht mehr hören, zudem ist es auch völliger Schwachsinn..
derbe schrieb:
was genau "NVENC" ist oder macht ist mir an sich völlig egal, für mich zählt das Ergebnis, und das steht zur CPU in nichts nach, außer das man nicht 3 Jahre warten muss :)
Entschuldige mein Ausbruch aber jedes mal wenn ich NVENC erwähne kommt eine "Oberschauler" um die ecke und versucht mir zu erklären das die Qualität mies ist...

Ach ist das so?

Schauen wir mal:
Quelle: http://jell.yfish.us/ mit 180 Mbit/s

Code:
ffmpeg -i jelly.mp4 -c:v libx265 -preset slow -crf 32 -c:a copy libx265.mp4
ffmpeg -i jelly.mp4 -c:v hevc_nvenc -preset slow -b:v 1800k -c:a copy hevc_nvenc.mp4

libx265 mit CRF unfair? Tja, NVENC kann es halt nicht - dafür aber durfte es 2pass nutzen. ("für mich zählt das Ergebnis")
Und ja, ich habe die Parameter so eingestellt, dass die Dateigröße am Ende bis auf 0.9% gleich ist.

Ergebnis:
libx265
hevc_nvenc

Direktvergleich per Bild:
libx265
hevc_nvenc
oder hier als animiertes GIF

NVENC ist bei der Qualität nicht nur ein wenig schlechter, sondern deutlich - je geringer die Bitrate, desto größer der Abstand.

Aber ja, der Zeitunterschied ist enorm:
libx265 - 0.118 fache Geschwindigkeit
hevc_nvenc - 4.2 fache Geschwindigkeit
(i5-3450, GTX 970)

Machen wir das ganze mit "schlechteren" Parametern, so würde sich der Zeitunterschied und auch die Qualität im Verhältnis zugunsten von libx265 verschieben.

Bitte beschuldige andere nicht des Halbwissen, wenn deines nicht mal Viertelwissen erreicht.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben