News Qualitätseffizienterer Video-Codec vorgestellt

hmm dann gibts wieder nen neuen codec...

bald steigt da auch keine sau mehr durch :freak:

ob der wirklich 50 prozent dann einsparen kann mag ich zu bezweifeln...

blöd nur für uns user..die sich erstmal 120 verschiedene codecs aufm rechner installieren müssen..damit alles abgespielt werden kann

:cool_alt: es geht nix über vcd :D:cool_alt:
 
Ich glaube, dass das hauptsächlich für kommerziell Anbieter von HD Material interessant sein wird, sowohl im Web, als auch im TV. Hohe Datenraten sind gerade über Digitalsatellitenfrequenzen nicht gerade billig - da kann man einiges an Verbreitungskosten sparen, wenn die Datenrate halbiert werden kann!
 
Wird wohl Youtube auf den Zug sofort aufspringen? Für iPad und iPhone hätte das erhebliche Vorteile, aber woanders wird doch weiterhin auf Flash gesetzt werden oder?!
 
Zehkul schrieb:
Jo, dann spiel mal 10bit Videos ohne extra zusammengeklaubten Codec ab, oder mit VLC vor 2.0, viel Spaß.

Ich hab einige 10bit Encodes und kann sie mit MPC-HC 1.6.2.4902 und VLC 2.0.3 problemlos abspielen, auch mit dem Mediaplayer und ffdshow tryouts rev4422 kein Problem.



danny38448 schrieb:
blöd nur für uns user..die sich erstmal 120 verschiedene codecs aufm rechner installieren müssen..damit alles abgespielt werden kann

ffdshow tryouts und haali media splitter und du kannst selbst mit dem mediaplayer alles abspielen
 
Zuletzt bearbeitet:
Als Laie frage ich mich nur, wie die das machen?
Gleiche Qualität bei halber Datenmenge klingt für mich ein wenig nach Snake Oil Zauberei.
Wo soll die Qualität herkommen?
Ist das wie bei den MP3s? Ein Bruchteil der Datenmenge von CD Formaten und der beinahe taube Standardkonsument hört auf seinem Plastikhandy mit 15€ Sony Kopfhörern ja auch keinen Qualitätsunterschied.

Irgendwo müssen die Rohdaten doch vorhanden sein. Unkomprimiert ist ja immer am besten. Nur bei über 100GB für einen HD Film absolut impraktikabel (und das sogar an High End PCs mit mehreren 3TB HDDs).

Oder unterschätze ich Komprimierung jetzt fatal?

Und wäre es mit dem neuen Format theoretisch auch möglich bessere Camcorder zu bauen? Das Marketing rund um Full HD (egal ob es nur interpoliert ist) ist ja schön und gut. Aber wenn man sich dann das trotzdem verpixelte Material von HD Cams mit Artefakten, Rucklern, katastrophalen Frameraten und tristen Farben und Kontrasten durch die winzige Bitrate ansieht, könnte einem schon schlecht werden.

Wäre es dadurch möglich bei gleicher Datenmenge doppelt so gutes Material zu produzieren? 2,5" HDDs mit 250GB in Camcordern sind ja kein Kostenfaktor mehr. Genauso kann es nicht an der Hardwareleistung liegen, wenn man einen ARM Quadcore SoC mit 1,5Ghz und 4 Kern GPU für 35$ einkaufen kann (und den kann man eben nicht nur nutzen um Linux drauf laufen zu lassen, sondern eben auch als Hardwaredecoder). Teuer ist doch nur noch die Optik an den Cams.
 
@glumada: Was meinst du, warum ich vor VLC 2.0 geschrieben habe. Und frag mal rum, wie viele der Durchschnittsuser überhaupt wissen, was ffdshow ist. :rolleyes:

ice-breaker schrieb:
@Zehkul: Das sind aber sehr optimistische Aussagen mit 10-20% für jeden Stream. Wenn dem so wäre, dann würde…

Gibt es. Siehe riDDi, wer gute Qualität bei kleiner Dateigröße will, der kann das schon lange haben.

noay11 schrieb:
bald gibts dann also wieder neue TV-receiver für HD

Haha, schön wärs. In 5 Jahren vielleicht. *g
 
Schön, dass es in dieser Richtung weitergeht!
Ob die angesprochenen Ziele wirklich erreicht werden können interessiert mich schon.

Mal schauen wie es in Zukunft weitergeht auf dem Sektor ;)
 
Das klingt doch vielversprechend.
Mobile Geräte werden in 2-3 Jahren mehr als genug Leistung haben so ein Video abzuspielen da würde ich mir keine Sorgen machen.
Man stelle sich mal die Unsummen vor, die gespart werden können ( natürlich wird der Preisvorteil nicht an den Kunden weitergegeben ^^ ) bei großen Videoportalen / Streamingservices - für Firmen sicher äußerst interessant
 
Bevor der Codec nicht per FW-Update auf einen Hardware-Player kommt bzw. neue Geräte & Windows es gleich von Haus aus unterstützten wird sich der Codec sowieso nicht durchsetzen.
 
Tolle sache.
Die sprechen von "Hardware auf dem Markt anfangs 2013" Aber Software technisch ist der Standard schon verfügbar? Wollen die dafür auch lizenz gebühren oder ist der Open Source? Wohl kaum oder ? ^^

Weiss schon jemand obs converter gibt die H265 bereits beherrschen? Oder VLC Nightly's die den können?

P.S Youtube kanns ja eig. egal sein welchen Codec die verwenden. Die brauchen nur einen Flashplayer auf ihrer Webseite die den unterstützt.

P.P.S Wie siehts mit HTML5 und H265 aus? gibts dazu irgendwelche infos?
 
Ich verstehe überhaupt nicht warum so viele jetzt heulen, wie schlecht der Codec für die Kunden ist...
Soll die Entwicklung denn stehen bleiben? Selbst wenn nur 20% Datenrate gespart wird ist dass doch super, gerade für mobile Endgeräte. Und diejenigen, die am lautesten plärren wie hoch doch die Rechenleistung sein wird, haben wahrscheinlich die geringste Ahnung von Quellencodierung. Die Rechenleistung wird sich durch die flexible Blockeinteilung mit Sicherheit beim Encodieren erhöhen, bei der Decodierung sehe ich allerdings nicht das große Problem, da einige Verbesserungen gemacht worden sind.
Beispielsweise wurde das benutzte Verfahren zur Entropiecodierung, CABAC, dahingehend verändert, dass Decoder leichter implementiert werden können. Das Verfahren wie es in H264 verwendet wurde nur , ist nur schwer zu parallelisieren und vektorisieren.
Desweiteren können Teile des Bildes unabhängig voneinander decodiert werden, was beispielsweise GPUs sehr entgegen kommt.
Aber hauptsache jeder will hier seinen Senf dazugeben, ohne auch nur ein mal einen Blick in den Standard geworfen zu haben...

riDDi schrieb:
Die halbierte Bitrate gilt vmtl. auch nur in Spezialfällen wie z.b. Videokonferenzen, wo nichts passiert. Ich hab mal kurz drübergelesen und schätze die Einsparungen kommen vor allem von der flexiblen Blockeinteilung.
Du hast sicher Recht, mit der flexiblen Blockeinteilung lässt sich gut Datenrate einsparen, ich denke gerade in der Verbindung hiermit
Additionally, 4x4 luma blocks that belong to an intra coded region are transformed using the Discrete Sine Transform (DST). The transform of a 4x4 block can optionally be skipped entirely, a useful option for screen content, i.e. GUIs which often have many thin straight lines.
Wobei auch bei H264 bei nahezu unveränderten Bildmaterial (beispielsweise Hintergrund bei Nachrichten) schon ziemlich effizient ist. Bei einem P-Frame wird ja auch blos die Differenz zum vorherigen Bild übertragen (mal verienfacht ausgedrückt) und H264 kann den Frametyp ja auch schon unabhängig für Teilbilder auswählen.
Aber richtig ist wohl auch die Einschätzung, dass die Encodierung ziemlich aufwendig sein wird, wer hier Zeit sparen will ist da natürlich an der falschen Adresse.
Aber ich halte den Codec trotzdem für sehr wichtig, auch wenn weniger als 50% Datenrate gespart wird. Zum einen scheint wohl einiges dafür getan worden sein, dass sehr effiziente HW-Decoder implementiert werden können, zum anderen ist der Codec gerade bei Filmmaterial in 4k Auflösung nicht uninteressant. Gerade bei der hohen Auflösung wird man viele Blöcke finden, in denen sich die Luminanz und die Chrominanz kaum unterscheiden.
 
Zuletzt bearbeitet:
Haldi schrieb:
P.S Youtube kanns ja eig. egal sein welchen Codec die verwenden. Die brauchen nur einen Flashplayer auf ihrer Webseite die den unterstützt.

QUOTE]

Na so ganz egal ist denen das bestimmt auch nicht, denn noch untersützt der Flashplayer und keine HW die HW Beschleunigung des Codec.
 
versteh nicht wie das "mobielen geräten" zugute kommen soll. speicherplatz kostet nix mehr. und das encoden kostet mehr rechen leistung was den akku belastet.
 
Baumschule schrieb:
versteh nicht wie das "mobielen geräten" zugute kommen soll. speicherplatz kostet nix mehr. und das encoden kostet mehr rechen leistung was den akku belastet.

Bandbreite/Durchsatz im Mobilfunknetz, weniger Volumen bei Volumenbasierten Tarifen, allerdings kommt halt etwas Latency hinzu.
 
Zuletzt bearbeitet:
FL4SH schrieb:
Als Laie frage ich mich nur, wie die das machen?
Gleiche Qualität bei halber Datenmenge klingt für mich ein wenig nach Snake Oil Zauberei.
...
Oder unterschätze ich Komprimierung jetzt fatal?

Ja, du unterschätzt das. Gerade im Bereich der Videokompression gibt es sehr großes Verbesserungspotential. Ein Großteil der Einsparung entsteht dadurch, dass man versucht, Bewegungen im Bild vorherzusagen bzw. versucht zu erkennen. Das ist allerdings mit einem sehr hohen Berechnungsaufwand verbunden, weshalb man das Bild in Blöcke einteilt und die Vorhersage dann für ganze Blöcke durchführt. Dass es da dann unheimlich viele Möglichkeiten gibt, diese Vorhersage der Bewegung zu verbessern, kann man sich evtl. vorstellen.
 
@Baumschule: Wann encodierst du denn bitte schön Videos auf einem mobilen Endgerät?
@sash2k2: Prinzipiell hast du recht, aber die Bewegungen versucht man nicht wirklich vorauszusagen auch wenn es "motion compensation" und "motion prediction" heisst. Block Matching ist da der bessere Ausdruck. Das Bild wird in Blöcke unterteilt und zu jedem Block suche ich quasi aus dem vorherigen bzw. kommenden Bildmaterial (bei B-Frames) Blöcke die so ähnlich sind. Übertragen wird dann quasi nurnoch die Änderung. Das ist ja auch unter anderem der Grund warum man nach dem vorspulen kurz auf ein fehlerfreies Bild wartet. Erst wenn wieder ein Interframe (unabhängig kodiertes Bild) kommt kann ich wieder fehlerfrei decodieren.
 
glumada schrieb:
[...]
gegen x264 wird die quali bei gleicher bitrate vermutlich nicht doppelt so gut sein

Da steht nix davon, dass es bei gleicher Bitrate die Quali doppelt so gut sein soll, sondern dass bei gleicher Quali bis zu 50% an Daten eingespart werden können!

etking schrieb:
Das geht garantiert massiv zu Lasten der Bildqualität. Das Bild von H.264 ist schon heute voller Artefakte und Bildfehler, nur fehlt den meisten Leuten der direkte Vergleich. Man muss nur mal ausländische Satellitenfernsehsender anschauen und sieht, das überall massiv an den Bitraten und an der Qualität gespart wird. Gleiche Qualität bei halber Größe ist doch nur Marketinggewäsch.

Das ist doch Blödsinn. Bei entsprechender Bitrate gibt es bei H.264 weder Artefakte noch Bildfehler. Wenn die Sender an Bitrate sparen, um mehr Sender auf einen Transponder zu schalten, kann da ja der Codec nix für, wenn die Bildqualität leidet.
Und Marketinggewäsch ist das sicher nicht. Das gab es im Musikbereich ja auch (von MP3 auf AAC).

estros schrieb:
Wird wohl Youtube auf den Zug sofort aufspringen? Für iPad und iPhone hätte das erhebliche Vorteile, aber woanders wird doch weiterhin auf Flash gesetzt werden oder?!

Was meinst du denn, was der Flashplayer abspielt? Meistens H.264 codierte Videofiles.

[F]L4SH schrieb:
[...]
Wo soll die Qualität herkommen?
[...]
Oder unterschätze ich Komprimierung jetzt fatal?

[...]

Die Qualität kommt ja vom Rohmaterial, was entweder unkompremiert oder deutlich weniger stark kompremiert ist.

Und die Kompremierung unterschätzt du auf jeden Fall. Schonmal ein unkompremiertes Foto gegen ein gutes JPEG verglichen? Da ist mal locker ne Verkleinerung um das 5fache drin.
 
Bin ich denn wirklich der einzige der sich fragt: gleiche Qualität bei halber Größe im Vergleich zu was? Qualitätseffizienter als was?

Die News sprießt nur so vor Vergleichen - es wird aber nie gesagt mit was verglichen wird :freak:

Alleine schon die Überschrift ist der reinste Quark.

Kann natürlich sein, dass das irgendwo in der Quelle gesagt wird. Aber so ist die Überschrift und die ganze News absolut sinnlos.
 
Zurück
Oben