News Daala: Freier Video-Codec geht neue Wege

Noch ein Spieler im Ring, immer gut. Solange h265 nicht gewinnt, ist alles perfekt, und wenn sie etwas ähnlich geniales abliefern wie mit Opus … Wäre sehr schön.
Wenn h265 ein ähnlicher Rohrkrepierer wird wie Vp8, bin ich glücklich. :D

Wird aber so oder so noch ein ganz schönes Weilchen dauern. Mal schauen, wann die ersten brauchbaren Encoder kommen, und die ersten Fansubgruppen auf h265 oder (hoffentlich) Vp9 umsteigen. Denn seien wir mal ehrlich, in anderen Bereichen werden die neuen Codecs erst in MINDESTENS 5 Jahren relevant.

Zeitrahmen für Daala? Selbst für reine PC Anwendung noch viel zu weit in der Zukunft. :-/
 
Zuletzt bearbeitet:
Zeitrahmen für Daala? Selbst für reine PC Anwendung noch viel zu weit in der Zukunft.
Das mag sein. Aber durch die Ankündigung, vom aktuellen Schema abzukehren, doch interessant.
Ich hab mich immer gefragt, warum nicht diverse Methoden weiterverfolgt werden.
Es muss doch heute mit der Rechenleistung lohnenderes geben (Größe und Quali) als das vorhandene. Gern darfs auch 2 Cores auslasten.
Daher finde ich das gut.
 
Kommt doch nur darauf an was im Consumer-Bereich eingesetzt wird. DVD war h.262 und Bluray nutzt h.264, wenn Sony/Philips/Toshiba daran denken einen Nachfolger raus zu bringen der im Consumer-Markt dann einen festen Codec benötigt, wird der dann halt fest gesetzt und bei den ganzen Tuscheleien zwischen der ITU und den Firmen, die meistens noch mit in der ITU sitzen, wird sicher kein freier Codec jemals Standard für Consumer-Produkte werden....
 
Das festhalten an alten Prinzipien, die nur optimiert werden, bringt den Vorteil der schnellen Umsetzung in Software, sowohl als auch in Hardware. Wenn man h.264 nimmt, optimiert, erweitert, und dann als h.265 auf den Markt bringt, so braucht man nur die vorhandenen Hardware-Implementierungen anpassen, und nicht von Grund auf neu entwickeln.

H.265 wird sich deshalb nur sehr langsam und schleppend durchsetzen, da h.264 so weit verbreitet ist, und es somit eine große installierte Software- und Hardwarebasis dafür gibt. Mp3 ist heute immer noch weit verbreitet, obwohl es mittlerweile deutlich bessere alternativen gibt. AAC ist auch nur dank Apple einigermaßen verbreitet, ist aber im Grunde auch nur ein Nachfolger von MP3.

Wie sollen sich da erst neue (und vor allem freie) Codecs verbreiten, wenn diese nicht extrem von irgendwem "gepusht" werden? Und selbst wenns Youtube nur noch in VP9 geben würde... würden sie damit die meisten Smart-TV-, Smart-Phone- und Smart-Sonstwas-Bentzer mit einem Schlag ausschließen. Da würde die Konkurrenz nur drauf warten...
 
Diablokiller999 schrieb:
...und bei den ganzen Tuscheleien zwischen der ITU und den Firmen, die meistens noch mit in der ITU sitzen, wird sicher kein freier Codec jemals Standard für Consumer-Produkte werden....

Wär ja schön, wenn es wenigstens die Option auf einen freien Codec gäbe, der es auch ohne Patentgeschichten mit h.264/h.265 aufnehmen kann.

Bin mal gespannt wie der laufen wird (Dateigröße, Stromverbrauch, Qualität). Gerade dieser Abschnitt macht mich neugierig.

Althergebrachtes Codec-Design basiert auf der blockbasierten, diskreten Kosinustransformation (DCT), bei der Bilder in acht oder sechzehn Pixel große Blöcke zerlegt werden. Dieser Strang der Codec-Entwicklung erreiche mittlerweile Fortschritte nur noch unter Inkaufnahme des Anstiegs der CPU- und/oder GPU-Leistung. Deswegen wolle man mit Daala, so Monty „einen Sprung zur Seite tun“ und Daala von Grund auf neu programmieren.

Ob darunter die Dateigröße leiden muss - größer wird? Bin auf erste Ergebnisse und Vergleiche gespannt.
 
Die Entwicklung bezieht von Beginn an Multiprozessor-Unterstützung mit ein, da die Entwickler damit rechnen, dass Daala gesteigerte Ansprüche an die CPU-Leistung stellen wird.
Ist das aus dem Wiki?

Daala Wiki

Important because
  • the proposed techniques need a lot more CPU than H.264 and VP8 for both encode and decode
  • Moore's law for single-threaded throughput is dead. Future hardware is all multicore/GPU.

Mir kommt das ein bisschen schwammig vor. Wenn ich mir die Notes von Monty ansehe und auch entscheidende Paper zur Mathematik (Paper 1 Paper 2), so sollte Daala eigentlich Performancezuwachs bringen.

Den Slide von Mozilla müsste ich mir noch ansehen.
 
Merle schrieb:
Das mag sein. Aber durch die Ankündigung, vom aktuellen Schema abzukehren, doch interessant.
Ich hab mich immer gefragt, warum nicht diverse Methoden weiterverfolgt werden.

Oh, dass sie vom aktuellen Schema abkehren, finde ich ziemlich genial. Ich frage mich auch schon länger, warum Videos diese dämlichen gleichgroßen Blöcke haben. Die sehen einfach schlecht aus, und bei Videokompression geht es nicht darum, möglichst viel Information abzuspeichern, sondern möglichst wenig Information möglichst gut aussehen zu lassen. Vergleiche auch Jpeg und Jpeg2000: Macht man die Blöcke weniger offensichtlich, sieht es bei gleicher Dateigröße gleich viel besser aus.

Und wie gesagt, wenn es so genial wird wie Opus – immer ein klarer Sieg gegenüber Konkurrenzformaten, fast vollkommen egal in welcher Anwendung – dann bin ich hin und weg. Daala/Opus Videos, sehr lecker.

@Diablokiller999: Du glaubst gar nicht, wie egal mir der Consumer-Bereich ist. :D Mir geht es nur um Videos am PC. Animes, um genau zu sein, denn das ist auch wirklich der einzige Bereich, in dem du progressive Encodingmethoden findest. Fansubs laufen nun schon seit bald 2 Jahren fast ausschließlich über das Hi10P Profil von h264, während Consumer Unterstützung davon … nicht mal in den Sternen steht. Das wird es einfach nie geben. :p

dPay schrieb:
Wie sollen sich da erst neue (und vor allem freie) Codecs verbreiten, wenn diese nicht extrem von irgendwem "gepusht" werden? Und selbst wenns Youtube nur noch in VP9 geben würde... würden sie damit die meisten Smart-TV-, Smart-Phone- und Smart-Sonstwas-Bentzer mit einem Schlag ausschließen. Da würde die Konkurrenz nur drauf warten...

Nunja, aber hier können „die Freien“ auch gut mauscheln. Was, wenn h265 niemals Unterstützung in Firefox und Chrome (Webkit!) bekommt? Was ziemlich wahrscheinlich ist, wenn es ein besseres, freies Format gibt. Wer soll den Webcontent für die Nutzer von Smart TVs und Internet Explorer machen?
 
Die Jungs widersprechen sich doch selbst:
Weg vom Altherbrachten weils zuviel CPU frisst, um dann einen Codec zu basteln, der erhöhte CPU-Power benoetigt...:rolleyes:
 
Zuletzt bearbeitet: (Treffen sich 2 Jäger, beide tot.)
Mich nervt diese Codec-Vielfalt. Klar belebt Konkurrenz das Geschäft und fördert Innovation, aber für den Konsumenten ist es die Hölle. Jede Hompage nutzt andere Formate, wieder ein neues PlugIn/Add-On für den Browser nötig, das ihn langsamer macht und regelmäßig Updates braucht. Jedes Gerät bevorzugt eigene Standards, vom Hersteller groß angeprisen. Wer hat die Zeit, sich da noch überall einzuarbeiten?
 
Zehkul schrieb:
Animes, um genau zu sein, denn das ist auch wirklich der einzige Bereich, in dem du progressive Encodingmethoden findest. Fansubs laufen nun schon seit bald 2 Jahren fast ausschließlich über das Hi10P Profil von h264, während Consumer Unterstützung davon … nicht mal in den Sternen steht. Das wird es einfach nie geben. :p


Also das versteh ich nicht - warum codiert man anmies in 10Bit Farbtiefe?

Ich weiß, dass bei RAW zu Video 10Bit auf jedenfall einen Vorteil hat - aber das ausgangsmaterial ist doch auch nur 8Bit Codiert... wo will man da auf einmal Farbraum herzaubern Öö?

Ist es da nicht besser, die neu gebrauchte Bandbreite in eine bessere 8Bit Codierung zu stecken?
 
Mit 10bit kann man in der Bitrate viel tiefer gehen, ohne dass es wirklich schlechter aussieht. Hilft außerdem enorm gegen Banding. Da ist auch der Haupzweck bei Animes, und der Grund, warum es bei Animes so viel mehr ausmacht (~20% kleinere Dateien, anstatt nur so ~5%): Dicke Flächen, mit Farbübergängen gefüllt. Die werden extrem schnell voll von ekligem Banding, mit 10bit nicht.

In erster Linie geht es aber wohl ums Hip und progressiv sein, und darum, dass ihnen die Kompatibilität mit Geräten ziemlich egal ist. :p

Prisoner.o.Time schrieb:
Dafür gibt gibt es den ffdShow Decoder/Filter. Einmal richtig konfiguriert...

Aber konfiguriere diesen mal richtig :freak:

Öh ja, wenn du nicht die Funktionsvielfalt von ffdshow brauchst, bist du mit LAV eh besser bedient …
 
Merle schrieb:
Es muss doch heute mit der Rechenleistung lohnenderes geben (Größe und Quali) als das vorhandene. Gern darfs auch 2 Cores auslasten.
Ob das wirklich Sinnvoll ist, mag ich mal bezweifeln.
In der Theorie na klar, aber was bleibt davon über?
- Die Grossen sitzen fast alle zusammen bei der h.265(und folgende) Entwicklung. Es ist eher nicht davon auszugehen, dass es eine grosse Verbreitung für den Codec gibt.
- Der Codec soll Hardwarelastiger sein, was eine Verbreitung auch schon schwieriger macht
- Es wird für ein Nieschenprodukt wohl niemals eine zielgerichtete Hardwarebeschleunigung geben

Der Codec kämpft also gegen ein quasi Monopol hat dabei weniger Ressourcen und Jahrzehnte an Rückstand. Eine intensive Hardwareunterstützung ist absolut nicht zu erwarten.
Dass der Codec konkurrieren kann wird schon quasi unmöglich, und damit ist es einfach völlig unrealistisch, dass er wesentliche Marktanteile erkämpfen kann. Klar für den Codec spricht, dass er frei ist, aber was bringt es jemandem, wenn er einen freien als Alternative anbietet, den Platzhirsch muss er trotzdem bedienen, also wird man nichts sparen können.
 
Mace, ich schau gern Animes.
Zum selben Zeitpunkt bin ich selber an technischen Fortschritten interessiert. Ich encodier gelegentlich selber.
Schon von DVD (nicht kopiergeschützt, von CAMs) gelang es damals, mit ca. 20h Encoding auf einem Athlon 3200+, 96% Quali zu erhalten und den Film von 4,3 GB auf 800 MB für nen übergroßen Rohling auf DivX zu packen.
Das ist einfach interessant. Unabhängig von der Leitung (ich hab 100 MBit) hilft das allen. In der Theorie.
Dass dann am Schluss keiner auf den Codec setzt ist eine andere Geschichte. Interessant ist es dennoch.
 
Zurück
Oben