News Denon: Neue AV-Receiver bieten 8K60 und 4K120 über HDMI 2.1

Luxmanl525 schrieb:
Ich will dir nicht zu nahe Treten. Aber du hast überhaupt nicht bemerkt, um was es geht.
Ich habe sehr deutlich bemerkt um was es dir geht: Hifi Vodoo

Wenn man mit Klangunterschieden zwischen Koaxial und optisch argumentiert und gleichzeitig behauptet er führt eine sachliche Diskussion ist das schon der Gipfel der Ironie.

Wenigstens sind wir uns einig das wir uns nicht einig werden. Habe auch das Interesse verloren mit dir zu diskutieren.
 
  • Gefällt mir
Reaktionen: lord.orth und tstorm
Daniel# schrieb:
Dolby Vision ist bereits für 12 bit Farbtiefe ausgelegt. Bisherige HDR Formate sind 10 bit.
Man braucht nicht gleich einen neuen Standard sondern kann einfach ein neues 12 bit Profil als Erweiterung festlegen.
Nicht falsch verstehen, aktuelle Inhalte und Geräte sind in 10 bit und können von der Hardware her kein 12 bit.

Okay du meinst das was ich dachte, allerdings sind deine Informationen falsch. Bisherige Formate sind in 10 Bit weil es keine Geräte (also die komplette Kette) gibt die das unterstützen. Nicht weil die Formate es nicht könnten. Aus dem Grund ist HDR10 aktuell fix auf 10 Bit beschränkt und auch so benannt. HDR10+ dagegen ist bis 16 Bit spezifiziert! Dolby hat bei Dolby Vision direkt bis 12 Bit spezifiziert kann aber auch später erweitern. BEIDE orientieren sich dabei an der BT2020 Norm.

Die BT2020 Norm ist höher spezifiziert als es heut zu Tage technisch überhaupt möglich ist. Soll heißen weil BT709 das heute noch bei der BluRay genutzt wird so stark veraltet war (weil es von der RöhrenTV Zeit noch abstammt) wurde die neue Spezifikation bewusst so hoch angelegt das sie dieses mal nicht nach ein paar Jahren oder Jahrzehnt(ten) überholt ist. Denn das Problem ist aktuell kommen weder die Hersteller der Kameras, noch Bildschirme noch Speicherlösungen, noch Datenübertragungstechnik bzw. Verarbeitung/Berechnung hinterher die durch die enorme Menge an Daten die dabei entstehen.

Bildschirme andererseits haben zwar kein Speicherproblem aber eines der Helligkeit da sie nur kurzzeitig Punktuell ihre aktuellen angegebenen Werte (die nur einem Bruchteil von BT2020 entsprechen) erreichen können. Bedeutet die meisten 4k TV die so zu finden sind (500-1000€) verdienen eigentlich nicht mal so richtig ihren HDR Aufkleber weil der Unterschied zwar da ist aber kein richtiges WOW wie von DVD zu BD durch die Erhöhung der Auflösung erzeugt da die Bild Diagonale des TV auch deutlich steigen müsste damit das mehr an Informationen auch sichtbar ist und nicht ein 40-65 Zoll TV der die Pixel so klein hat das man auf der typischen Sitz Entfernung sie nicht sehen sehen aka unterscheiden kann da es zu einem Brei verschwimmt. Auch wenn die Preise seit der UHD Einführung gefallen sind...für 4k wird von der ITU also die die BT2020 spezifiziert haben eine Bild-diagonale AB 85 Zoll empfohlen....wer soll das bezahlen, womöglich noch als OLED? :rolleyes: :D
Sprich für die Zukunft kann und wird sich da noch viel tun können. Nur erstmal müssen die Entwickler der Technik dafür erstmal Technik liefern die das auch nur überhaupt teilweise & bezahlbar umsetzen könnte.
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
Die Filtersektion z. b. ist in solchen Playern deutlich hochwertiger, die Fehlerkorrektur, die Netzteilsektion sowieso
Nunja, das kann ich noch zählen lassen, Fehlerkorrektur gibt es auch im digitalen Bereich. Aber, wenn ein Fehler nicht korrigiert werden konnte, und es zu viele sind, dann macht sich das z.B. in Aussetzern bemerkbar, eher nicht im Klang. Oft sind es nur einzelne Bits und bei 1411kbit/s fallen diese dann gar nicht auf wenn die im Datenstrom fehlen, aber, unterm Strich kann man sagen, die Qualität wäre schlechter, ja.
Technologie hat sich aber auch weiterentwickelt, auch Sound-Technik, eine CD kann 44.1KHz 16 Bit, übers Internet sind die grenzen da quasi offen, 192KHz 24 Bit aber quasi das Ende der Fahnenstange, evtl. noch 384KHz. Aber, ob man da wirklich einen Unterschied feststellt? Ich habe es mit HiRes-Audio probiert und es lohnt sich für mich nicht wirklich, vielleicht, wahrscheinlich, brauche ich besseres Equipment, aber selbst wenn ich meinen lang erträumen T1 habe und einen gescheiten KHV dazu, bezweifle ich, deutliche Unterschiede zu hören.
Mit Lautsprechern sowieso nicht, dafür hat der Raum zu viel Einfluss auf den Klang, Musik bevorzuge ich mit Kopfhörern.
 
  • Gefällt mir
Reaktionen: Luxmanl525
Gamefaq schrieb:
Okay du meinst das was ich dachte, allerdings sind deine Informationen falsch. Bisherige Formate sind in 10 Bit weil es keine Geräte (also die komplette Kette) gibt die das unterstützen. Nicht weil die Formate es nicht könnten. Aus dem Grund ist HDR10 aktuell fix auf 10 Bit beschränkt und auch so benannt. HDR10+ dagegen ist bis 16 Bit spezifiziert! Dolby hat bei Dolby Vision direkt bis 12 Bit spezifiziert kann aber auch später erweitern. BEIDE orientieren sich dabei an der BT2020 Norm.
Nein da hast du was falsch verstanden. HDR10+ ist NUR für 10 bit spezifiziert und kann auch nicht erweitert werden.
Der HDMI Standard unterstützt bereits seit 1.3a 16 bit Farbtiefe, das heißt aber nicht dass das übertragene HDR Format das kann.
https://en.wikipedia.org/wiki/HDMI#Main_specifications

Im Fall von einer Erweiterung auf 12 bit Farbtiefe in Zukunft kann man Dolby Vision relativ einfach erweitern während bei HDR10 und HDR10+ komplett neue Standards fällig sind.
 
Hallo zusammen,

@ Marcel55
Marcel55 schrieb:
Technologie hat sich aber auch weiterentwickelt, auch Sound-Technik, eine CD kann 44.1KHz 16 Bit, übers Internet sind die grenzen da quasi offen, 192KHz 24 Bit aber quasi das Ende der Fahnenstange, evtl. noch 384KHz.
Das ist doch völlig klar. Aber du bzw. hier wird Übersehen, um was es eigentlich ging bzw. was ich darlegte. Es geht um Stereo. Um die Musikwiedergabe in Stereo. Wie die heutigen AVR`s Musik in Punkto Klangqualität wiedergeben, dazu in Relation zu entsprechenden Verstärkern aus der besagten Zeit.
Marcel55 schrieb:
wahrscheinlich, brauche ich besseres Equipment
Da sind wir beim Punkt. Wenn ich von solchen Unterschieden rede, dann sind die im Verhälntis relativ gering und in Punkto Aufwand zur Wahrnehmung natürlich in keinem Verhältnis. Aber sie sind vorhanden und zwar hörbar in einer entsprechenden Kette.
Marcel55 schrieb:
Aber, ob man da wirklich einen Unterschied feststellt?
Die Unterschiede werden gering sein und nur in einer entsprechend hochwertigen Kette von Zuspiel / Abhörgeräten hörbar sein.
Marcel55 schrieb:
aber selbst wenn ich meinen lang erträumen T1 habe und einen gescheiten KHV dazu, bezweifle ich, deutliche Unterschiede zu hören.
Da wäre ich mir nicht so sicher. Gehör schult sich selbst. Und wenn dein Gehör sich an die Kette gewöhnt hat, könnte ich mir vorstellen, daß du Sachen hörst gegenüber Älteren gewohnten Aufnahmen, die du vorher niemals wahrgenommen hast. Ich weiß wovon ich rede. Aber wie gesagt, es muß alles Stimmen.

Geh doch einfach mal zu einem Fachhändler deines Vertrauens, nimm Material mit und setz dich eine bis zwei Stunden hin. Wenn das ein Seriöser Händler ist der dich vielleicht auch kennt, gibt er dir die Geräte auch mal mit damit du zuhause darauf eingehen kannst in deinen eigenen 4 Wänden. Bei Lautsprechern sollte das sowieso die Norm sein.

So long..
 
Zuletzt bearbeitet:
Daniel# schrieb:
Nein da hast du was falsch verstanden. HDR10+ ist NUR für 10 bit spezifiziert und kann auch nicht erweitert werden.
Der HDMI Standard unterstützt bereits seit 1.3a 16 bit Farbtiefe, das heißt aber nicht dass das übertragene HDR Format das kann.
https://en.wikipedia.org/wiki/HDMI#Main_specifications

Im Fall von einer Erweiterung auf 12 bit Farbtiefe in Zukunft kann man Dolby Vision relativ einfach erweitern während bei HDR10 und HDR10+ komplett neue Standards fällig sind.

Nochmals du bist falsch informiert:

HDR10+ content profile
  • EOTF: SMPTE ST 2084 (PQ)
  • Chroma Sub-sampling: 4:2:0 (for compressed video sources)
  • Resolution: Agnostic (2K/4K/8K[10], etc.)
  • Bit Depth: 10-bit or more (up to 16-bit)
  • Color Primaries: ITU-R BT.2020
  • Maximum linearized pixel value: 10,000 cd/m2 for each color R/G/B (content)
  • Metadata (Required): Mastering Display Color Volume Metadata[11]
  • Metadata (Optional): MaxCLL, MaxFALL[12]
HDR10+ technology can support the full range of HDR standards to 10,000 cd/m2, 8K and BT.2020 color gamut. Being resolution agnostic, metadata needs to be created only once and can be applied to any target resolution.

HDR10+ is applicable for HEVC and VP9 compatibility via WebM[13] as well as any codec that supports ITU-T T.35 metadata.

Du kannst das in der Spezifikation von HDR10+ nachlesen da es ein offener Standard gegenüber dem Proprietären von Dolby ist.
 
Gamefaq schrieb:
Du kannst das in der Spezifikation von HDR10+ nachlesen da es ein offener Standard gegenüber dem Proprietären von Dolby ist.
Habe ich gerade anstatt bei Wikipedia zu schauen was einfach nur Copy Paste ist:
https://hdr10plus.org/wp-content/uploads/2019/08/HDR10_WhitePaper.pdf

Da gibt es nur sehr wenige Details zu 16-bit aber es hört sich so an als spreche man nur von Studio Masters und nicht von echtem Content der ausgeliefert wird. Insofern kann HDR10+ da auch nicht mehr denn auch Dolby Vision unterstützt alle Studio Mastering Formate
Creators may carefully manage the appearance of their HDR masters separately than their choices for Standard Dynamic Range masters (SDR). Image choices are driven by looking at a “Mastering Display” in a darkened room which typically has greater capabilities than available to consumers and is in an ideal viewing environment.
Once finished these new HDR masters may be 10-bit to 16-bit integer values or 16-bit floating point values in a variety of file formats all capable of storing final, mastered HDR content. Typical digital post-production workflows maintain 12-bits or higher with 32-bit processing.
 
Luxmanl525 schrieb:
Heutige CD-Player haben allesamt CD / DVD Laufwerke intus, die auch in PC`s verwendet werden / wurden. Und die taugen allesamt nicht gerade viel. CD Player der Ende 90er bis Mitte 90er - also als noch keine PC CD-Rom Laufwerke Verwendung fanden - haben allesamt deutlich bessere Klangqualität, aber nicht nur bessere Klangqualität. Die Aufhängung etc. war deutlich aufwendiger, die Signalqualität etc. etc..

rein zufällig kenne ich mich (beruflich bedingt) in diesem bereich ganz gut aus und was knlangqualität betrifft ist das ziemlich irrelevant..interessant wird es erst ab dem d/a wandler. im gegenteil sogar: die abtastung der späteren laufwerke (so ab mitte 2000er jahre) ist wesentlich akkurater und die fehlerkorrektur auf einem ganz anderen level. wie es allerdings in der kette ab dem d/a wandler aussieht - also im analogen teil, gut das kann durchaus anders sein - wobei einige bauteile aus den letzten 20 jahren diejenigen aus den 70er und 80ern wirklich alt aussehen lassen - z.b. kondensatoren haben heute eine qualität die in den 80ern sündhaft teuer erkauft werden musste.

Luxmanl525 schrieb:
Normalerweise klingt ToS-Link spürbar schlechter als von Coaxial, jedenfalls im Verhältnis. Der Klang über Coaxial sollte Voller sein, mehr Substanz haben.
nunja, beides sind digitale übertragungswege - das ist ja eigentlich der clou gegenüber verrauschten analogen verbindungen. die wandler heutzutage sind wesentlich genauer als das was man sich von 30 jahren mühsam in ic's gegossen hat. aber die sollten kaum eine auswirkung haben - ob das coax mit seinem 24bit/192khz jetzt wirklich den vorteil gegenüber toslink mit "nur" 96khz hat, wage ich zu bezweifeln - zumindest kaum bei einer 16bit/44.1 khz quelle.
wie immer ist der schwachpunkt die analoge kette dahinter und die schaltungen dort.


ich gehe mal davon aus dass mein (relativ billiger) samsung dvd player jetzt nicht das masterpiece of electronics ist, was cda betrifft; aber es klingt so wie ich das erwarten würde von einem soliden player..da ist volumen, da ist klangfülle, weite dynamik, klarheit...dürfte daran liegen dass der player das cda als digitalen bytestream an den avr liefert und der doch was brauchbaren daraus an die boxen gibt..

ach ja: ich höre viel stereo..täglich ca. 2 cd's in voller länge - mindestens.
budget? "whatever it takes.."..nein, nicht ganz. aber solange es in humenen bereichen bleibt. ich brauche keinen verstärker der x-tausend euro klasse..
 
Zuletzt bearbeitet:
23,3 kg sind auch eine Ansage, da ist richtig Material drin in dem Teil...
 
Wenn ich mir das Marketing-Geschwurbel in dem Spot für Dolby Vision Music anhöre, dann wird mir schlecht...

Deren "Anspruch" mag für elektronische Musik jeglicher Couleur zutreffend sein, für Live-Aufnahmen mit einer Bühne und gestaffelten, positionierten Instrumenten ist es nun mal so, dass ich die Aufnahme je nach Standposition unterschiedlich wahrnehme. Und das ist - aus meiner Sicht - auch gut so. Ich will nicht, dass die Sängerin mitwandert, der Kontrabaß überall gleich im Raum steht, oder oder oder. Das ist m.M.n das Schaffen einer virtuellen "Realtität", die einfach nur Mist ist. Das gleiche gilt übrigens auch für Filme. Wenn eine B747 links an mir vorbeifliegt, soll dass so sein. Wenn ich mich drehe, ist das eben rechts...und nicht anywhere left.... aber vielleicht verstehe ich das Funktionsprinzip "immersives Sounderlebnis" :kotz: auch nicht...
 
  • Gefällt mir
Reaktionen: Suteki
Daniel# schrieb:
Habe ich gerade anstatt bei Wikipedia zu schauen was einfach nur Copy Paste ist:
https://hdr10plus.org/wp-content/uploads/2019/08/HDR10_WhitePaper.pdf

Da gibt es nur sehr wenige Details zu 16-bit aber es hört sich so an als spreche man nur von Studio Masters und nicht von echtem Content der ausgeliefert wird. Insofern kann HDR10+ da auch nicht mehr denn auch Dolby Vision unterstützt alle Studio Mastering Formate

Hast du alles gelesen was ich zuvor geschrieben habe oder versuchst du nur krampfhaft mir zu widersprechen!?

Zuerst sagst du nein , nun sagst du es gibt nur wenige Details und nur Studio Masters aber nicht echtem Content.
Was bedeutet das es bis zu 16 Bit kann du trotzdem ein ABER folgen lässt da es aktuell noch nicht raus gehen kann als Content (zu Deutsch als Inhalte) weil es dafür und das habe ich zuvor schon geschrieben gar keine Technik gibt die das Wiedergeben könnte da diese noch nicht mal von der Industrie hergestellt ist!

Bezahlt dich Dolby für deine ABER ABER ABER Dolby Kommentare oder was soll das? Es ist schlicht nicht war das nur Dolby Vision schon bis 12 Bit spezifiziert ist und eigentlich ist es sogar so das es aktuell "nur bis 12 Bit" spezifiziert ist wenn man es mit HRD10+ vergleicht.



So damit wir aber mal nicht ganz so am eigentlichen Thema "Denon" vorbei gehen. Ist schon jemand aufgefallen (der die News ganz gelesen hat) das die neuen AVR nur EINEN HDMI 2.1 Eingang besitzen und der Rest alles HDMI 2.0b Eingänge sind?
Und wisst ihr warum? :D
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
Das ist doch völlig klar. Aber du bzw. hier wird Übersehen, um was es eigentlich ging bzw. was ich darlegte. Es geht um Stereo. Um die Musikwiedergabe in Stereo. Wie die heutigen AVR`s Musik in Punkto Klangqualität wiedergeben, dazu in Relation zu entsprechenden Verstärkern aus der besagten Zeit.
Warum wirfst du mir eigentlich ständig vor ich würde was übersehen oder nicht verstehen wenn ständig du irgendwas falsch zu verstehen scheinst?
Ich habe von der Abtastrate der Musik geschrieben, das hat ja mit Stereo oder Surround erst mal nix zu tun, du kannst auch bei Stereo, gerade bei Stereo, 24 Bit 192KHz haben.
In einer Sache kann ich zustimmen, was die heutigen AVRs bei Stereo wiedergeben, kann mich meist nicht wirklich vom Hocker hauen, da haben frühere Stereoanlagen die auf Stereo ausgelegt waren irgendwie mehr überzeugt als ein AVR im Stereo-Modus. Ich habe das Gefühl meine Frontboxen konnte ich mit dem AVR nie so richtig auskosten, gut ich hab jetzt auch den kleinen Denon, mit nem größeren geht's vielleicht besser.
 
Habe einen AVR-X6400 und sehe keinen Grund für ein Upgrade. Bin aber auch eher genügsam. Meinen Pioneer SC-LX75 habe ich acht Jahre betrieben und war bis zum Schluss zufrieden. Der ausschlaggebende Punkt für den Umstieg war da eher das Gefühl, dass sich die Investition rentiert hat und man ja mal was Neues kaufen könnte. Der Wow-Effekt blieb jedenfalls aus. Die auffälligste Verbesserung war, dass jetzt nur noch eine HDMI-Strippe zwischen Receiver und OLED hängt, statt zuvor vier für Receiver, PS4, XBox One S und Panasonic DP-UB9004...
 
  • Gefällt mir
Reaktionen: Darkscream
Daniel# schrieb:
Es gab bisher nur ein kostenpflichtiges Software Upgrade, und das war Auro als es noch ganz neu war.

Davor gab es schon jede Menge Updates, die bezahlt werden mussten. Es gab auch Upgrade-Programme, bei denen ein Teil der Elektronik getauscht wurde.
 
Dann müsste Marantz ja auch noch ein Upgrade für meine A/V Vorstufe AV8805 rausbringen.
 
Blowfly schrieb:
Auch LG's aktuelle LCD können es (65NANO917NA z.B.), den habe ich mir gerade geholt.


Verstehe echt nicht warum immer nur die oleds von LG erwähnt werden, die nanocell Modelle aus 2019 können das auch
 
AleksZ86 schrieb:
hä? Touchscreen an einem AVR? liegt der AVR bei dir auf dem Couch-Tisch oder neben dir auf der couch? XD
Regelst du die Lautstärke auch über die drehknöpfe?
und wozu brauchst du ein farbdisplay?

na wieso haben die denn alle noch Tasten und drehregler?
ich hätte auch nix gegen touch-sensitive tasten, aber nein, seit 30Jahren sehen die immer gleich aus.
und weshalb haben die Internetradios Farbdisplays?
ich nutze die tasten jedenfalls am receiver selber regelmäßig.
designtechnisch sind die hängengeblieben und fertig.

mfg

ein großes Display vorne hätte doch was.
am besten noch alles nach seinem gusto anpassen. oder auch komplett abschalten und schwarz lassen etc...
mal mitdenken und nicht stehenbleiben xD
https://www.life-like-shop.de/media/image/28/6f/08/NADM10-1LifeLikeMuenchen.jpg
 
die.foenfrisur schrieb:
na wieso haben die denn alle noch Tasten und drehregler?
So ein Drehregler und eine Taste mit knackigem Druckpunkt macht halt schon was her. Du benutzt ja schließlich auch eine Maus mit 2 physischen Tasten und einem physischen Scrollrad, und eine Tastatur mit physischen Tasten. Könnte man auch alles problemlos über Softtouch lösen, aber ich würde es nicht benutzen wollen. Ich hab hier Softtouch an meinem Dell Bildschirm, hat nur Nachteile in der Bedienung.

Das hat aber sicherlich auch was mit dem alten Klientel zu tun. Die Kids von heute kaufen sich 'nen Bluetoothlautsprecher oder eine Soundbar, aber in der Regel keinen AVR mit (inzwischen) fast 20 Lautsprechern. Und der Mensch ist nunmal ein Gewohnheitstier, also würde diese alte Kundschaft - wenn beides angeboten würde - sicherlich zum Drehregler und den physischen Tasten greifen. Zumindest ich würde es tun :D
 
  • Gefällt mir
Reaktionen: CMDCake
Gamefaq schrieb:
Bezahlt dich Dolby für deine ABER ABER ABER Dolby Kommentare oder was soll das? Es ist schlicht nicht war das nur Dolby Vision schon bis 12 Bit spezifiziert ist und eigentlich ist es sogar so das es aktuell "nur bis 12 Bit" spezifiziert ist wenn man es mit HRD10+ vergleicht.
Es ist schon recht kindisch mir vorzuwerfen von Dolby bezahlt worden zu sein. Ich bin nicht der einzige der Dolby Vision für das bessere Format hält. Man kann sich da an Fakten halten.
Von den bisher öffentlich zugänglichen Informationen ist HDR10+ nur auf eine 10 bit Distributionskette bis zum Endkunden festgelegt, und die 16 bit werden nur bei Studio Masters unterstützt weil sie es dort müssen, während Dolby Vision von Anfang an eine 12 bit Distributionskette vorgesehen hat.
Das macht durchaus einen sehr großen Unterschied wie schnell Inhalte und Geräte beim Endkunden ankommen.
Und nein HDR10+ ist kein "offenes" Format weil das von mir verlinkte Whitepaper das einzige öffentlich zugängliche Dokument ist, wenn man genaue Details haben will muss man dem HDR10+ Konsortium beitreten und eine jährliche Verwaltungsgebühr bezahlen.
Alle mir bekannten Informationen zu HDR10+ bestätigen genau was ich gesagt habe, deswegen war ich auch sehr verwundert als du über 16 bit geredet hast obwohl es nur Studio Masters sind.

Also bitte sachlich bleiben anstatt mir gleich vorzuwerfen ich wäre bezahlt.

MaverickM schrieb:
Davor gab es schon jede Menge Updates, die bezahlt werden mussten. Es gab auch Upgrade-Programme, bei denen ein Teil der Elektronik getauscht wurde.
Ich weiß nicht wie Denon/Marantz das von vor 10+ Jahren geregelt haben. In der jüngeren Vergangenheit war Auro das einzige bezahlte Software Update.

Und ja Upgrade Programme die alte Geräte auf den neuen Stand bringen gab es beim 7200W und jetzt beim 8500H sowie AV8805.
Das ist aber etwas positives weil es das Geräteleben verlängert und weniger Elektroschrott produziert.
Außerhalb vom Profibereich ist Sound United auch das einzige Unternehmen das Hardware Upgrades überhaupt anbietet, wenn auch nur für die Topmodelle.
Ergänzung ()

Gamefaq schrieb:
So damit wir aber mal nicht ganz so am eigentlichen Thema "Denon" vorbei gehen. Ist schon jemand aufgefallen (der die News ganz gelesen hat) das die neuen AVR nur EINEN HDMI 2.1 Eingang besitzen und der Rest alles HDMI 2.0b Eingänge sind?
Und wisst ihr warum? :D
Die Antwort dazu habe ich aus dem AVSForum:
Aktuell gibt es wohl nur eine begrenzte Auswahl an HDMI Chips für solche HDMI-Repeater-Geräte (Siehe Newsupdate) und es wäre wohl erheblich teurer mehr Anschlüsse mit 40 Gbit bereitzustellen weil man mehr Chips braucht, das Boarddesign ändern müsste etc.
Also letztlich wohl ein Kostenfaktor aktuell.

Es wurde aber bestätigt dass alle anderen Anschlüsse mit HDMI 2.0b inkl. HDCP 2.3 (neues HDCP) und VRR sowie QFT laufen.
https://www.avsforum.com/forum/90-r...-s-thread-faq-posts-1-8-a-3.html#post59757480
Ergänzung ()

Hier ein paar Insider Infos zum 40Gbit/48Gbit Thema:
Es wird quasi bestätigt dass die Nextgen Konsolen auch nur 40Gbit liefern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: w764
benneq schrieb:
sicherlich zum Drehregler und den physischen Tasten greifen. Zumindest ich würde es tun :D

Hab ich getan bei meiner Logitech Harmony vor Jahren, hab die Harmony Smart Control (mittlerweile heißt sie HARMONY COMPANION) . Der Grund war das sie wie die Elite (damals Ultimate genant) auch schon Bluetooth Geräte wie Fire TV , XBox usw. durch den Smart Hub steuern kann. Plus sie selbst nutzt Bluetoooth für die Verbindung zum Smart Hub wodurch du nicht "zielen" musst mit der Fernbedienung da der Smart Hub das macht und er dafür günstig einmalig positioniert wird. Das wichtigste aber um zum Zitat zu kommen , sie hat KEIN Touch Display wie die Ultimate/Elite dafür jedoch deutlich mehr physische Tasten die man auch im nur TV/Beamer Licht erfühlen kann! Sprich zumindest die Grundfunktionen kannst Blind bedienen und wenn es doch umfangreicher sein soll kannst das über die App auf dem Smartphone tun.

Der einzige richtige Vorteil der Ultimate/Elite ist das sie mehr Geräte verwalten sowie Szenarien (Mit einer Taste gehen die benötigten Geräte der Reihe nach an, Licht gedimmt oder aus , die Rolladen runter und so weiter) abspeichern kann. Sprich man benötigt sie nur zwingend wenn man mehr als 6 Szenarien oder mehr als 8 Geräte steuern will.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Desolation
Zurück
Oben