News HDMI 2.2: Neuer Videostandard ist nun fertig zur Übernahme

Endloch noch mehr Bandbreite! Habe von 4K/120 Hz schon Augenkrebs bekommen...
 
  • Gefällt mir
Reaktionen: Bänki0815, Zipperzeit und Normenn12596702
Entschuldigung für die dumme Frage, aber was ändert sich eigentlich?
Ist das nur die Frequenz (und Unterstützung für neue Formate?)

Was ist genau die große Erfindung dahinter und warum kommt dass immer nur so häppchenweise anstatt einen wirklich zukunftssicheren Standard zu etablieren (zumindest bei den Kabeln)?
 
Flutefox schrieb:
HDMI ist der Krebs der Multimediawelt, aber alles wegen DRM. 🤡

Displayport ist nicht nur der technisch bessere Standard, er ist auch lizenzfrei.
was bringt es wenn "wir kunden" am ende die hdmi produkte kaufen? selbst eigentlich diejenigen die es besser wissen müssten, geschweige denn der 0815 consumer der nur will "dass es einfach funktioniert".

kein tester hat hat vor 20 jahren als die ersten plasmas und dvd player mit hdmi kamen gesagt: gutes produkt, aber kauft es nicht weil es diese "hdmi" schnittstellen vorraussetzt. auch als die besseren fald-lcd's oder die ersten oled's oder bei den konsolen oder sonstigen produkten von vor 10 oder 20 jahren hat irgendein tester das fehlende displayport oder das vorhandende hdmi entsprechend kritisiert...
 
  • Gefällt mir
Reaktionen: Weyoun, potatoreactor und NMA
Himbeerdone schrieb:
Entschuldigung für die dumme Frage, aber was ändert sich eigentlich?
Ist das nur die Frequenz (und Unterstützung für neue Formate?)

Was ist genau die große Erfindung dahinter und warum kommt dass immer nur so häppchenweise anstatt einen wirklich zukunftssicheren Standard zu etablieren (zumindest bei den Kabeln)?
Ich versteh die Frage nicht. Du kannst halt jetzt höhere Auflösungen mit noch mehr Bildwiederholrate übertragen.

Und was soll ein zukunftssicherer Standard sein? Bis zu dem Punkt, an dem unser Auge keinen Unterschied mehr feststellt? Böse Zungen behaupten, dass dieser Zeitpunkt schon mit HDMI 2.1 erreicht wurde...
 
  • Gefällt mir
Reaktionen: Alphanerd, NJay und RedPanda05
Die Frage war, warum z.B. HDMI 2.0 nicht schon die Parameter von 2.2 hatte und was sich technisch getan hat um diese Features jetzt erst anbieten zu können.
 
  • Gefällt mir
Reaktionen: Piak, NMA und fox40phil
Nur im CB-Forum ist es Gang und gäbe so gut wie jede technische Neuerung erstmal schlecht zu reden. Dass es sinnbefreit es, kommt wohl niemanden in den Kopf.

Wäre ja mal schön, wenn man die Hersteller dann verpflichten würde, die volle Bandbreite an Features auch zu unterstützen. Nicht, dass es dann ein ähnlicher Shithaufen ist, wie beim USB-Standard: zwar USB-C Stecker aber USB 2.0 Speed. 🙄

Ich persönlich wüsste zwar noch nicht, wofür ich HDMI 2.2 bräuchte, aber haben ist besser als brauchen. 😬

Mein Yamaha-AVR von November 2006 hat noch HDMI 1.2a, Bluray-Player müsste 2.0 haben und die PS5 sowie LG C9 schon 2.1, allerdings kein vollständiges Feature-Set.
 
Zuletzt bearbeitet: (HDMI Version beim AVR nach Hinweis korrigiert.)
  • Gefällt mir
Reaktionen: Nscale
Das "Schlimmste" daran ist, dass die Durchsatzrate jetzt eben schneller als die von DP ist. Von daher kann man das jetzt schön weiter "pushen". So schnell wird man HDMI also nicht los.. Schon wegen der albernen Linux-Blockade hasse ich diesen Standard.
 
  • Gefällt mir
Reaktionen: jonderson, Hyourinmaru und michelthemaster
Ein logischer und vorhersehbar, notwendiger, weiterer Schritt um konkurrenzfähig zu bleiben.
Und mit der Konkurrenzfähigkeit auch die DRM Interessen weiter zu "garantieren".
Letzteres nicht unbedingt schön, jedoch (teilweise) nachvollziehbar.

Wirklich interessant (und diese Sachverhalte wurden bereits im Forum, teilweise benannt) dabei ist, was die Kabellängen, sowie weitere, physische und Layout bedingte Regeln betrifft, bzw betreffen wird und wie "gut" die Umsetzung erfolgt.

Ich selbst bin noch (häufig) via HDMI 2.0(b), glaube ich unterwegs.
Alleine schon aufgrund des AVR (RX A1070).
4K und 120 Hz empfinde ich jedoch, nach wie vor, wirklich ausreichend, insbesondere aus Sicht des gelegentlichen "Allround User Case".

Was ich mir von HDMI wünschen würde?:
-Klare Bezeichnungen der Kabel, mit umbenennung der vorläufer (was mit den 96Gb bereits etwas erfolgt).
-Ein "Mindestfeature Set", wonach man von einem: das geht damit mindestens und das auch zuverlässig.
Bessere und vorallem, multilateralere Gerätesteuerung.
Gerade eARC ist, mir persönlich, häufig etwas zu unflexibel, sobald mehr als zwei Geräte in Kettung kommunizieren sollen.
 
  • Gefällt mir
Reaktionen: Kosti, potatoreactor und DeusoftheWired
radoxx schrieb:
Mit der neuen Generation an Konsolen wird 4K@240HZ sicherlich sinnvoll werden. TVs sollten das bis dahin wahrscheinlich auch beherrschen.

Derzeit komme ich mit 120HZ noch klar aber ewig möchte ich mir das nicht antun.
Sinnvoll? Antun?
Dir sind 120Hz zu "langsam"?
 
  • Gefällt mir
Reaktionen: karlheinz1, Kosti, potatoreactor und eine weitere Person
Mittlerweile gefällt mir die Entwicklung nicht wirklich, ich weiß der Vergleich hinkt aber ich bin mit Scart-Kabel aufgewachsen, warum nicht wieder so einfach?
 
Der HDMI Standard und lasche Kennzeichnungsvorgaben sind eine Katastrophe aber diesen einfach so durch Displayport zu ersetzen wird auch nicht einfach.
So gut wie alle Beamer und Fernseher setzen ausschließlich auf HDMI was zur Folge hat, dass bei Notebooks so gut wie immer auch nur HDMI verbaut ist. Display Port ist dann nur über USB-C Adapter möglich. Und da Notebookhersteller mit den Schnittstellen grundsätzlich immer geizig sind (besonders USB-A) sind 2 Videoausgänge unrealistisch.

Es müssten die TV Hersteller den ersten Schritt machen und zusätzlich zu HDMI auch eine Display Port Schnittstelle verbauen. Aber da so ziemlich alle großen TV Hersteller beim HDMI Forum beteiligt sind wird da wohl nichts daraus werden.

Was die Bandbreite angeht:
64GBit/s reicht für 4K240 und 8K60 4:4:4 bei 8 Bit Farben
80GBit/s reicht für 10 Bit Farben (aktueller Stand bei TVs)
96GBit/s für 12 Bit Farben (macht nur für Spezialanwendungen Sinn)

Mit jeweils 4:2:0 statt 4:4:4 sind auch 8K120 drin

Vermutlich werden in nächster Zeit die meisten TVs sowieso nichts davon bugfrei implementieren weil dazu müssten Sie performantere Bildprozessoren verwenden was mehr kostet.
Da ist es viel billiger einfach nur LIP zu unterstützen und dann das HDMI 2.2 Logo drauf zu klatschen. 99% der Kunden merken das sowieso erst wenn sie den Fernseher schon gekauft haben bzw. gar nicht.

Abgesehen davon:
4K TVs haben sowieso keine 240Hz Panels und Inhalte gibt es auch keine (Konsolen liefern maximal 60fps, Youtube Videos etc.)
So richtig Sinn macht das Ganze nur bei 8K TVs aber da tut sich beim Preis nach Jahren leider immer noch nicht viel.
 
  • Gefällt mir
Reaktionen: schneeland
radoxx schrieb:
Derzeit komme ich mit 120HZ noch klar aber ewig möchte ich mir das nicht antun.
Beste Troll Post den ich seit langem gelesen habe, danke musste hart lachen.
 
  • Gefällt mir
Reaktionen: karlheinz1, Kosti, Desmopatrick und 8 andere
Wüsste nicht was ich überhaupt mit so einem Kabel am TV machen sollte, gerade wo der TV im W-Lan hängt.

Wenn ich bedenke was früher alles am TV hing und jetzt nur noch der olle BD Player der nicht mehr genutzt wird, und nur noch die 5,1 Anlage okay vielleicht für eine neue PS vielleicht.
 
Schön wäre es, wenn man bei AV Receivern einfach das HDMI Board tauschen könnte um an 2.2 zu kommen später. :O
 
  • Gefällt mir
Reaktionen: Kosti und Zipperzeit
Zumindest bei den Kabeln hat man windigen Verkäufern mit dem Ultra96-Siegel gleich einen Riegel vorgeschoben und einen klaren Indikator + Bezeichnung für das, was das Kabel kann. Wie NMA in #28 schon angesprochen hat, wären jetzt noch die maximalen Kabellängen interessant. Ich denke, daß es auf die gleichen oder sehr ähnliche Werte wie bei 2.1 hinauslaufen wird.

Hübsch zu wissen wäre außerdem, ob man sich des großen Kritikpunkts von 2.1 angenommen hat und ein Gerät nun endlich sämtliche Features aus dem Katalog unterstützen muß, oder ob sich die Hersteller doch nur wieder einzelne herauspicken dürfen und trotzdem das 2.2-Siegel auf Gerät kleben dürfen. Wenn ja, ist das ein Fortschritt bzw. eine Rückkehr zu 1.x, als man sich noch auf die Angaben verlassen konnte. Wenn nicht, heißt es dann doch wieder Datenblätter wälzen und sich durch Foren wühlen, ob nun Gerät X mit Y kompatibel ist – was nach wie vor ein Unding ist, weil ein Siegel den Konsumenten auf einen Blick eine Kaufentscheidung treffen lassen sollte, keine stundenlange Recherche.
 
  • Gefällt mir
Reaktionen: the_IT_Guy und Col. Jessep
radoxx schrieb:
HDMI 2.2 scheint mir als der logische Schritt nach vorne. Eine Verdoppelung der Bandbreite ist auf jeden Fall begrüßenswert und die neuen Funktionen nehme ich auch gerne mit.

Mit der neuen Generation an Konsolen wird 4K@240HZ sicherlich sinnvoll werden. TVs sollten das bis dahin wahrscheinlich auch beherrschen.

Derzeit komme ich mit 120HZ noch klar aber ewig möchte ich mir das nicht antun.

Du bist ein Mensch oder? Falls ja bezweifle ich sehr stark das du den Unterschied derart Wahrnimmst und es dir in irgendeiner Art und Weise einen Vorteil verschafft. :confused_alt:

Oder willst einfach mit Spec's flexen?
 
  • Gefällt mir
Reaktionen: karlheinz1, Kosti, Balikon und eine weitere Person
Ich wünsche mir die SCART Zeiten zurück. Da war alles noch so schön einfach. Bei dem Wirrwarr heute, blicken selbst Experten und Hersteller nicht mehr durch.
 
  • Gefällt mir
Reaktionen: SweetOhm
Rubyurek schrieb:
schade, dass weiterhin auf HDMI gesetzt wird. Wäre so gar kein no brainer auf Displayport zu setzen...
Äh ja... Warum?
Also ich kenne keinen Fernseher mit dp. Keine Konsole mit dp. Keinen TV Stick mit dp.
Ich kenne nur Monitore mit dp. Und da nutze ich das auch. Ansonsten nur HDMI.

Wo das problem mit HDMI sein soll weiß ich auch nicht. Vielleicht, dass die Kabel nicht vernünftig deklariert werden. Also das nicht draufsteht HDMI 2.1 oder so. Aber mehr fällt mir nicht ein.
 
  • Gefällt mir
Reaktionen: karlheinz1, Kosti, potatoreactor und eine weitere Person
Real-Duke schrieb:
Na...ob Netflix & Co dann demnächst auch mit höherer Datenrate senden? :)
Die Bildqualität von Netflix wurde durch immer aggressivere Kompression oder immer geringere Bitrate immer schlechter.
Vor ca. 3-4 Jahren konnte ich es das erste Mal selbst sehen.

Filme, in denen man anfangs fast schon perfekt die Poren der Schauspieler sehen konnte, sind mit moderner 4k Qualität wie verrauscht.
Ergänzung ()

Himbeerdone schrieb:
... und warum kommt dass immer nur so häppchenweise anstatt einen wirklich zukunftssicheren Standard zu etablieren (zumindest bei den Kabeln)?
Weil sich die Kunden ebenfalls nur häppchenweise an die häppchenweise Entwicklung anpassen.
Man könnte schon lange die 10-fache Datentransferrate anbieten (z.B. mit mehreren Kabeln), aber das wäre eine total sinnlose Materialverschwendung, die den Preis erhöht und kein Ergebnis bringt.

Am Ende sieht sich der Kunde doch nur eine 720p Serie an, die auf einen 4k TV skaliert wird. Dafür braucht es nicht mal HDMI 2.0.
Oder man hat nicht mal 4k, sondern nur WQHD mit maximal 144 Hz... auch dafür braucht der durchschnittliche Nutzer kein HDMI 2.1 und 2.2 noch weniger.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben