Stannis
Lieutenant
- Registriert
- Juli 2011
- Beiträge
- 601
Meine historisch gewachsene Mediensammlung besteht aus vielen verschiedenen verlustbehafteten Formaten wie wma und mp3.
Ich könnte das so lassen oder es zu ogg-Vorbis / mp3 konvertieren, um alles schön einheitlich zu haben. Sicherungen gibt's ja auch noch.
Nun hört man ja häufig, dass eine Wandlung von verlustbehaftet zu verlustbehaftet mit jeder Konvertierung die Qualität verschlechtert, ähnlich wie mans vom jpeg bei paint kennt.
Könnte mir da jemand mal kurz umreißen, warum das so ist?
Ich stelle es mir nämlich wie folgt vor: Verlustbehaftete Formate wie mp3 schneiden vom Ausgangsmaterial (wav oder flac) weg, was der Mensch sowieso nicht hören kann und machen noch ein bisschen was anderes, wie bspw. leise Töne wegzuschneiden, die auf laute folgen, da wir die ebenfalls nicht hören können. Psychoakustisches Modell eben.
Wenn wir nun also ein mp3 nochmal in vorbis konvertieren, sollte der encoder doch folgendes feststellen: Was nicht gehört werden kann, wurde im mp3 bereits weggefiltert, also filtern wir nicht noch mehr weg und übernehmen den puls code stream einfach ins neue Format.
Quasi als würde Ich von mp3 wieder zu wav wandeln und dann wav in vorbis wandeln.
Zumindest bei kleineren Experimenten mit audacity habe Ich bei einer Konvertierung keinen Unterschied feststellen können.
Ich könnte das so lassen oder es zu ogg-Vorbis / mp3 konvertieren, um alles schön einheitlich zu haben. Sicherungen gibt's ja auch noch.
Nun hört man ja häufig, dass eine Wandlung von verlustbehaftet zu verlustbehaftet mit jeder Konvertierung die Qualität verschlechtert, ähnlich wie mans vom jpeg bei paint kennt.
Könnte mir da jemand mal kurz umreißen, warum das so ist?
Ich stelle es mir nämlich wie folgt vor: Verlustbehaftete Formate wie mp3 schneiden vom Ausgangsmaterial (wav oder flac) weg, was der Mensch sowieso nicht hören kann und machen noch ein bisschen was anderes, wie bspw. leise Töne wegzuschneiden, die auf laute folgen, da wir die ebenfalls nicht hören können. Psychoakustisches Modell eben.
Wenn wir nun also ein mp3 nochmal in vorbis konvertieren, sollte der encoder doch folgendes feststellen: Was nicht gehört werden kann, wurde im mp3 bereits weggefiltert, also filtern wir nicht noch mehr weg und übernehmen den puls code stream einfach ins neue Format.
Quasi als würde Ich von mp3 wieder zu wav wandeln und dann wav in vorbis wandeln.
Zumindest bei kleineren Experimenten mit audacity habe Ich bei einer Konvertierung keinen Unterschied feststellen können.