Format: Kompromiss aus Qualität und Größe?

betzer

Lt. Commander
Registriert
Nov. 2012
Beiträge
1.246
Hallo,

mir ist klar, dass die Frage schon 1000x gestellt wurde, dennoch bin ich per Google nicht zu zufriendenstellender Antwort gekommen.

Ich habe einen 15 Minuten Film. Ausgangsmaterial war 1080p (MTS) und 4k (iPhone, mov). Daraus wurde in iMovie eine 3,07GB große mp4 Datei.

Das Material muss später nicht mehr bearbeitet werden. Es soll wenn möglich etwas komprimiert werden und das Format/Container sollte so gewählt sein, dass es auf möglichst vielen Geräten, insbesondere TVs problemlos abspielbar ist.

Mit WinX HD Converter habe ich diese mp4 Datei in eine MKV HD Datei (Unterschied zu nur mkv? Bringt eine MKV HD Datei Probleme beim abspielen an TVs?) umgewandelt. Dabei schrumpfte sie von 3GB auf gerade mal 661MB, was mir ziemlich krass vorkommt. Zeitgleich bilde ich mir ein, nicht wirklich einen Unterschied in der Qualität zu sehen ist, wobei man sagen muss, dass das Video Material zum großen Teil in einer Kirche spielt, schlecht beleuchtet ist und viel krieselt.

Wie heftig würdet ihr die Konvertierung von mp4 in mkv oder mkv hd bewerten? Was würdet ihr empfehlen?
 
MKV und MP4 sind nur Container und ändern an sich nichts an der Qualität des Films. Entscheidend für die Qualität sind Bitrate, Auflösung und Enkodierung.

Ich kann dir Xmedia Recode empfehlen. Da kannste an der Bitrate und an den Enkodierungsverfahren rumspielen und schauen, wie groß die Datei ist, die dabei raus kommt.

Grundsätzlich glaube ich, dass mehr Geräte MP4 als MKV unterstützen. MKV HD ist wahrscheinlich nur ein Profil aus dem Programm. Das Dateiformat bleibt *.mkv
 
Hier die Dateien. Hat sich null geändert, außer dass die MKV Datei deutlich kleiner ist ?!

@ dr lele

Das heisst die Dateien sind jetzt komplett gleich und dennoch ist die mkv datei deutlich kleiner?!
 

Anhänge

  • Bildschirmfoto 2015-12-30 um 12.10.58.png
    Bildschirmfoto 2015-12-30 um 12.10.58.png
    58,3 KB · Aufrufe: 613
  • Bildschirmfoto 2015-12-30 um 12.08.37.png
    Bildschirmfoto 2015-12-30 um 12.08.37.png
    58,5 KB · Aufrufe: 682
Wenn du nix siehst ist es doch in Ordnung.
Mit Xmedia Recode reichen mittlerweile 3200 kbps (ABR) für Full HD bis 24FPS in MPEG-4AVC/H.264.
Hier sehe ich nur bei starken hell/dunkel Kontrasten wie lodernden Flammen im dunkeln minimale Verschlechterungen bei den Übergängen im dunklen Bereich.
Das heisst die Dateien sind jetzt komplett gleich und dennoch ist die mkv datei deutlich kleiner?!
Da sieht man ja auch keine Bitrate, weder vom Video noch vom Audio.
 
Zuletzt bearbeitet:
Entscheidend ist in erster Linie welche Bitrate verwendet wurde. Aus den Screenshots geht lediglich hervor, dass Auflösung und Codec für beide Files dieselben sind.

Die Bitrate hat am meisten Einfluss auf die Bildqualität.

Ich würde vorsichtig sein mit "sieht alles gut aus" - oft sieht man erst im Vergleich mit dem Original welcher Verlust entstanden ist.

Beispiel: Beim Streaming von Spielen fällt einem besonders auf, welchen Qualitätsverlust auch heutige Codecs noch grundsätzlich im Vergleich zum Quellmaterial bedeuten.
 
Zuletzt bearbeitet:
doch, da hat sich schon was geändert, namlich die bitrate. die zeigt dir das programm aber nicht an.

wie schon gesagt, mp4/mkv spielt keine rolle. um aufgeblähte/wenig komprimierte videos etwas platzsparender aufzubewahren benutze ich ripbot (handbrake und co. macht das gleiche, nur ne andere oberfläche). zum komprimieren ist h264/x264 das maß der dinge. den nachfolger h265 wirst du nicht nutzen wollen, weil den praktisch noch kein gerät abspielen kann. was die qualitätseinstellungen angeht, da wählt man heute keine bitrate mehr von hand aus. der codec ist in der lage zu erkennen welche er gerade braucht. deshalb stellt man nur eine konstante qualität ein (cq oder auch crf genannt). ein typischer wert ist 20. die 20 wird dir erstmal nix sagen, weshalb du folgendes machen solltest: du nimmst dein video und machst je einen durchlauf mit 18, dann mit 20 und dann noch mit 22. jetzt nimmst du die drei dateien und machst von einem standbild je ein screenshot. vergleich die drei qualitäten und entscheide selbst, welche dateigröße bei der erreichten qualität dir am meisten zusagt.
 
XMedia Recode: Mp4, Ton AAC, Video AVC/H264 und die Bitrate so einstellen, wie groß du die Datei haben willst. mKV bietet etwas mehr Features: Mp3 Tonspur, Ogg Tonspur und WMV Videocodec. Einige Blue-Rays sind sogar in WMV codiert. Mp4 hat eine höhrere Kompatibilität, da das Format etwas älter ist. Ich empfehle dir das Video bei vorgeschriebener Bitrate mit 2 Durchläufen zu codieren. Da der H264 Codec genutzt wird, bleibt die Datei gleich groß.
Ein Quantizer, den dir Habicht empfiehlt ist auch ganz gut. Hierbei musst du nur einmal codieren und du stellst die gewünschte Qualität ein. Jedoch hast du kein Schimmer wie groß dein Film wird. Er kann 100 MB klein werden aber auch 1,5 GB groß.

Bei 15 Minuten 661MB ist eine gesamtbritrate von 6007 Kbit/s. Mit Ton.

Je nach Material sehen 6000 kBit/s schon echt gut aus. Das ist auch eine ziemlich gutes Verhältnis bei 1080p und 24-30 fps.
Youtube codiert mit ca 4000 kBit/s
ARD/ZDF codiert mit 16000 Kbit/s

Eine BlueRay mit ca 30000 Kbit/s. Auf ein Beamer siehst du schon den Unterschied, aber nicht am Bildschirm.

H265 ist elend langsam und kaum ein Gerät unterstützt das.
 
Zuletzt bearbeitet:
Okaaaaay. Also "MediaInfo" unter OSX kann man leider vergessen :/

Zum Glück hab ich hier noch nen alten Windows Laptop.

Also die MKV Datei hat erwartungsgemäss gerade mal 5-6 Mbit und die Mp4 Datei 27mbit ! Irgendwoher muss ja der größenverlost kommen. Danke für den Tip mit den Screenshots. So werde ich es machen. Denke irgendwo bei 20Mbit wird ein guter Kompromiss sein.

Wegen dem Format. Also ihr meint mp4 ist "verträglicher" für mehr Geräte? Also besser im mp4 Format lassen und direkt bei der iMovie Ausgabe die bitrate reduzieren?


*edit* xMedia recode gibt es leider nicht für osx.

Danke Dir @crustenscharbap
nach welcher Faustformel hast Du das berechnet? Gibt es da umrechnet im Netz? Also, dass ich ungefähr sagen kann, 30 Minuten Film sollten mindestens 2GB groß sein, sonst kann es nichts sein....


R4Z3R schrieb:
Ich würde vorsichtig sein mit "sieht alles gut aus" - oft sieht man erst im Vergleich mit dem Original welcher Verlust entstanden ist.

Ja genau - dachte ich mir auch, daher wollte ich lieber mich nochmal schlau machen bevor man sich später ärgert.
 
Zuletzt bearbeitet:
Es gibt einen Contaier, der mehrere Videoformate unterstützt. Jedes Videoformat kat ein anderen Komprimierungsalgorythmus und unterschiedliche Bitraten. Vielleicht ist deine Mp4 Datei mit einem MJPEG Codec bestückt und die MKV wird in H264 codiert.

Wohin sind die Daten? Das ist ja woran Wissenschaftler jahrelang gearbeitet haben und hier siehst du die Auswirkungen und wunderbaren Ergebnisse. Alle 200-300 oder bei Szenenwechsel Bilder wird ein Bild komplett gespeichert. Jegliche Bewegungen, Verzerrungen, Farbeffekte und Lichterffekte werden nicht gespeichert sondern nur als script gespeichert: Objekt A bewegt sich von links zur Bildmitte, wird dabei und 5% röter, und dreht sich hierbei und 7° in der Z Achse und das über 50 Bilder. Wenn das Objekt neue Details erhält, werden die gespeichert. Das Bild wird ist 8x8 Pixel also in 240x133 Pixel aufgeteilt. Jedes Pixel hat nicht nur eine Farbe sondern vorgeschrieben Muster. Ein Pixel mit 20% diagonaler Linie und oben gräulich und unten lila. Das Bild wird in Farben und Konturen aufgeteilt. Konturen sind klein und Farben werden in deutlich schlechterer Auflösung gespeichert. Sieht man nicht.Hier noch ein Video wie H264 funzt
Wenn das Video für dich Okay aussieht, dann passt das.

15 Minuten Film = 900 Sekunden. 661 MB geteilt durch 900 Sekunden = 0,73 MB/sek mal 8 = 5,87 Mbit/s. Durch 1000 (Apple) = 5870 kbit/s. Bei Wirndows musst du durch 1024 rechnen, da es Megibytes rechnet.

Mal 8 daher: 8 Bit sind ein Byte ;)
 
Zuletzt bearbeitet:
tolle Erklärung - Danke !!!
 
Die 30mbit sind ja durchaus normal für eine 1080p Aufnahme. Kameras komprimieren halt nicht direkt. Das kann man halt eher im Nachhinein machen.

Wenn die Kamera ruhig gehalten wurde, also nicht viel Bewegung im Bild ist, dann lässt sich das Video schon besser komprimieren als bei viel Bewegung.
Wie crustenscharbap schon schrieb, gibts da viele Faktoren die eine Rolle spielen. Wobei man ein normales FullHD Video denke ich nicht mit einem Bluray Film vergleichen kann, die meist auch kein volles 1080p Bild haben sondern zb 2,4:1.
So könnten die 6mbit schon etwas knapp sein für eine Videoaufnahme von einer Handkamera (wovon ich mal ausgehe). Das sieht man natürlich aber nur im direkten Vergleich, also dass irgendwo Details verloren gehen. Oder bei schnellen Bewegungen oder Kameraschwenks.
 
Gibt keine Faustformel, 30 Minuten Standbild sind extremst klein im Vergleich zu 30min Transformers Action. ;)
MP4 kann nahezu jede Hardware (DVD, BD Player etc.) abspielen, MKV ist schon seltener vertreten. Als Containerformat für normale Ansprüche langt MP4 (MKV war ja auch eine Reaktion auf den AVI Rotz).

Beim codieren gibts üblicherweise zwei Ansätze, bei dem einen gibst Du die Zielgröße vor und der Encoder versucht dann in n-Durchläufen für die vorgegebene Größe die maximale Qaualität zu erreichen (zB DVD auf 2 CDs rippen) oder Du gibst die Zielqualität vor und der Encoder produziert dann in Abhängigkeit vom Input unterschiedlich große Ergebnisse (Action vs. Standbild). Heutzutage macht man meistens letzteres und stellt die CBR/CRF auf einen entsprechend hohen Wert ein.

Bei 3GB Filegröße & 27MB BR zu 661MB & 5-6MB BR würde ich wahrscheinlich eher mal mit 10-15MB als Bitrate rumexperimentieren. Sah das MKV den irgendwie schlimm aus? Artefakte und so?
 
Ne garnicht, da das Ausgangsmaterial wie gesagt (Kirche) bereits kriselt. Lasse es gerade nochmal mit 12 mbit berechnen. Meine aktuellen Projekte sind alle eher im dunkeln aufgenommen beim schlechten Licht, da ist es schwer zu vergleichen. Werde beim nächsten Video im hellen aber nochmal gezielt darauf achten und die Qualität vergleichen.

Ich danke euch für die Erklärung. Muss mich da selbst erst mal weiter reinfuchsen. Bin Onkel geworden und da wird demnächst mal wieder des öfteren ein Video aufgezeichnet werden auf Feiern etc... ;)
 
crustenscharbap schrieb:
Youtube codiert mit ca 4000 kBit/s
ARD/ZDF codiert mit 16000 Kbit/s

Eine BlueRay mit ca 30000 Kbit/s. Auf ein Beamer siehst du schon den Unterschied, aber nicht am Bildschirm.
.

Hast du zu den Werten für ARD und ZDF irgendwelche Quellen? Finde das Bild bei ARD und ZDF im Vergleich zu Youtube Videos häufig mehr als dürftig. Als letztens irgendwann Oblivion im ZDF lief, war das qualitativ eher unzureichend und weil ich den optisch wesentlich besser in Erinnerung hatte, habe mir dann mal via PS3 einen Trailer auf Youtube angeguckt und da war doch ein gewaltiger unterschied zu erkennen. (ZDF wie auch Youtube jeweils in 720p)

Und ne BluRay kann auch noch eine wesentlich höhere Bitrate haben. The Dark Knight hat in den IMAX Szenen auch gerne mal 50k Mbit/s

MfG
V_ossi
 
betzer schrieb:
Ne garnicht, da das Ausgangsmaterial wie gesagt (Kirche) bereits kriselt.
Bei schlechtem Ausgangsmaterial kanns sein, daß ein Filtervorlauf Sinn macht. Artefakte machen idR den Output größer (Krisel läßt sich schlecht wegoptimieren).
 
Zurück
Oben