Denon 4100 4K Material

n4rti

Lieutenant
Registriert
Juni 2003
Beiträge
800
Guten morgen. DIe Tage sind gezählt wo ich mir eine 4 K Glotze kaufen werde. Was mir jetzt noch sorgen macht ist mein Denon 4100 Receiver. Der hat ja kein Htcp 2.2 und von daher wird er wohl kein 4K Signal durchschleifen.
Gibt es da mittlerweie möglichkeiten und wie sieht es zb bei 4K Material von einem Mediaplayer aus?
Und wie sieht es bei PC Spielen aus?

Kette ist: Media Player/UHD Player/PC > AVR > TV
 
Es nennt sich HDCP 2.2. Wenn der AVR das nicht unterstützt, dann bleibt das Bild eben schwarz bei Material, was via HDCP 2.2 geschützt ist. Und das liegt an Deinem Material. Bei Spielen wird das keine Rolle spielen. Auf 4K Mediendateien, die Du lokal vorliegen hast, auch nicht. Aber eben bei Online Content und bei 4K BluRays spielt es eine Rolle. Und wo genau, dass musst Du im einzelnen selber heraus finden.

Hier etwas zum Thema Netflix.

https://www.heise.de/newsticker/mel...0-nur-mit-der-richtigen-Hardware-3496382.html
 
Ja Sry hab da was verwechselt :)
Und wie sieht es aus mit 60Hz bei Spielen?
 
Wie solls damit aussehen? Der AVR ist HDMI 2.0 fähig. Also auch 4K in 60 Hz fähig.
 
Im Datenblatt steht nichts von HDMI 2.0. Auch wenn die verwendete Hardware Leistungsstark genug für 4K mit 60Hz ist, heißt das nicht, dass es problemlos funktioniert. HDCP 2.2 wird explizit nicht unterstützt.
 
Das ist wohl wahr. Aber 4K mit 60 Hz spricht eben gegen HDMI 1.x. Einige Tests sprechen von HDMI 2.0, aber auch da eben nur einige. Komische Sache. Die meisten Tests erwähnen den HDMI Standard gar nicht.
 
Zuletzt bearbeitet:
Wäre intressant wenn jemand berichten könnte der den 4100 hat.
Hdmi 2.0 hat er defintiv nicht.
 
Nein. Optische Signale unterstützen keine Hd Audio Formate.

Das heisst zb kein Dts-Master oder Dolby High Res
Ergänzung ()

Ich habe mir das Datenblatt mal angesehen. Ich finde nichts da er kein Hdmi 2.0 hat.

Das hab ich auch gefunden. So wie ich das sehe hat er kein HDCP aber dafür Hdmi 2.0. Sonst hätte er wohl kein 2160P/60HZ
Lise 4100.jpg
 
Shir-Khan schrieb:
Ich kenne mich mit der Materie nicht so gut aus, aber besteht nicht die Möglichkeit, die 4k-Quelle direkt am TV anzuschließen und den Sound vom TV an den Receiver durchzuschleifen?

Das geht wenn man einen BluRay Player mit 2 HDMI Ausgängen hat. Der eine geht direkt in den TV und über den 2ten geht der Originale Ton zum AVR. Was dann aber fehlt sind die Bildschirm Info Einblendungen vom AVR auf dem TV da du ja als Eingang nicht HDMI-1(ACR) = AVR sondern HDMI-2 = BD Player am TV nutzt.

Es gibt aber noch eine Lösung um nicht UHD fähige AVR weiterhin verwenden zu können!

@n4rti Du benötigst einen HDCP 2.2 auf HDCP 1.4 Konverter:

http://www.grobi.tv/videotv/hdmi/hd...r/926/4k-hdmi-konverter-hdcp-2.2-auf-hdcp-1.4

http://www.youtube.com/watch?v=dfVAIN4d2yU

Voraussetzung ist das der TV den du vor hast zu kaufen auch unter UHD 3840 x 2160 mit 60Hz Signalen umgehen kann!
Dein Denon 4100w kann es. Ihm fehlt einzig HDMI 2.0 mit HDCP 2.2 und der verlinkte Konverter löst das Problem. Indem er das ankommende HDCP 2.2 Signal in HDCP 1.4 wandelt und zum TV/Beamer weiterleitet. Dein TV/Beamer kann dann seinerseits die HDCP 1.4 Anfrage bejahen und der Konmverter wandelt diese Antwort wieder rum in eine HDCP 2.2 Antwort um. So das der Zuspieler in Form eine Settop Box wie dem 4k FireTV, nvidia ShildTV oder UHD BluRay Player glücklich ist und das Video weiterhin in UHD sendet.

Beachte nur wenn du mehrere UHD Quellen hast. So benötigst du pro Quelle einen dieser Konverter. Theoretisch wäre es möglich mit einem HDMI Umschalter zu arbeiten aber damit ist die bequeme Eingangswahl vom Sofa per Fernbedienung vorbei...
 
WoW danke, du hast mir alle meine Fragen beantwortet.
Das heisst wenn es kein Kopiergeschützes Material ist geht es auch ohne Konverter.
Was ich aber nicht raffe, warum der Receiver 4k bei 60Hz kann. Das kann doch angeblich nur Hdmi 2.0
 
HDMI 2.0 ist eine Bezeichnung für Käufer, die Symbolisieren soll das diese Spezifikation eingehalten wird.
Im speziellen Fall X4100W hatte Denon die HDMI 2.0 Spezifikation bereits voll erfüllt bevor sie offiziell verwendet wurde, inklusive das sein Bild Prozessor der für die Skalierungen und Darstellung der Bildschirm Menüs zuständig ist auch bis U-HD mit 60Hz verarbeiten kann. Zu dem Zeitpunkt wurde jedoch als Kopierschutz noch HDCP 1.4 verwendet/verbaut da das HDCP 2.2 noch nicht Final spezifiziert war. (Wobei muss mich korrigieren die Spezifikation selbst lag vor aber die Hardware Chips mit HDCP 2.2 damit Denon sie verbauen konnte waren noch nicht fertig) Die Industrie hatte sich jedoch gleichzeitig dafür entschieden HDCP 2.2 an HDMI 2.0 zu koppeln = nur gemeinsam zu verbauen. Wodurch Denon kein HDMI 2.0 Schild zur Veröffentlichung des X4100W verwenden konnte da sie wussten das es sonnst im nachhinein ohne HDCP 2.2 Fähigkeit nur erboste Kunden geben würde. Bedeutet deinem AVR fehlt nur der Kopierschutz Chip für HDCP 2.2 während der Rest der Technik die erforderlichen Spezifikationen für HDMI 2.0 erfüllt ohne das sie angegeben wird. Somit kannst du ihn jetzt für 79€ U-HD fit machen anstatt den ehemals uvp 1500,- € AVR ersetzen zu müssen...

Alles klar? ;)
 
Zuletzt bearbeitet:
Alta du bist mein Gott. :king:
Mal nicht nur Halbwissen. Danach sucht man in anderen Foren vergeblich.
Vielen dank nochmal für deine ausführliche Beschreibung.
Habe das ganze gleich als Textdatei abgespeichert auf meiner Hdd

Lg
 
Danke, aber mal nicht übertreiben.

Hab den Text oben nochmal korrigiert das HDCP 2.2 schon verabschiedet war aber die Entwicklung & Produktion der Chips für die Geräte wie TV/AVR/BD Player/Setop Boxen noch nicht.

Im Übrigen hier noch die Spezifikation von Denon selbst:

http://manuals.denon.com/AVRX4100W/EU/DE/GFNFSYdtphpnek.php

unten rechts in der Tabelle Unterstützte Videosignale:

Code:
480i
480p
576i
576p
720p 60/50 Hz
1080i 60/50 Hz
1080p 60/50/24 Hz
4K 60/50/30/25/24 Hz

EDIT: Benutzt du den AVR mit Auro3D Update?
 
Zuletzt bearbeitet:
Grüß Dich.

Nein Atmos oder Auro benutze ich nicht. Nur normales 7.2.

Denon hat mir eben nochmal geschrieben:
Lieber Sven, der AVR-X4100W unterstützt 4K mit 60Hz bei 8 Bit und Color subsampling 4:2:0. Dies ist bereits bei HDMI 1.4 standardisiert und mit dem eingebauten Chip abspielbar.
Dein Denon Team.

Hat nen paar Tage gedauert bis sie geantwortet haben, hat sich dann wohl mit deiner Antwort überschnitten.

Habe ich denn nen großen Nachteil mit 4.2.0 8Bit in sachen Bildqiali bei Filmen und zocken?
Und ist das nicht Herzabhängig, so das ich mit weniger Herz, zb bei Filmen mehr Farbtiefe fahren kann?

Lg
 
n4rti schrieb:
Habe ich denn nen großen Nachteil mit 4.2.0 8Bit in sachen Bildqiali bei Filmen und zocken?
Und ist das nicht Herzabhängig, so das ich mit weniger Herz, zb bei Filmen mehr Farbtiefe fahren kann?

Lg

Wenn der Prozessor darin wirklich nur bis 8 Bit verarbeiten kann ist das aktuell ein größeres Problem als das er kein 4-4-4 oder 4-2-2 kann.
Weil beim Streamen wird aktuell 4-2-0 mit 8 Bit verwendet einfach weil bei 10 Bit die zu übertragende Bitrate = Dateigröße nochmals deutlich höher ist. Aber wenn du von UHD-BD abspielen willst so gibt es aktuell schon Filme mit HDR in 10-Bit Farbtiefe weil sie da keine Rücksicht auf die Bitrate/Dateigröße nehmen müssen.

4-2-2 oder 4-4-4 sind dagegen aktuell kein Thema weil da nochmals massiv die Datenrate explodiert. Und das müssen dann die Leitungen, ja sogar HDMI erstmal stemmen können! Deswegen ist aktuell ein Update auf HDMI 2.1 schon beschlossene Sache weil die max 18 GBit/s von 2.0 nicht mehr reichen sondern direkt 40 GBit/s spezifiziert werden...nur bevor du jetzt fragst oder zusammen zuckst. Beschlossen auf dem Papier! Bis die Hardware fertig UND dann wiederum als fertiger AVR , UHD Player ect. auf dem Markt ist wird frühestens erst mit der nächsten Generation von Geräten sein OHNE das es dafür überhaupt Quellenmaterial abseits von Demos gibt!

Denn wir reden dann von 7680 × 4320p @ 60 Hz oder 3840 × 2160p @120 Hz (für 3D) mit 14 Bit Farbtiefe. Die Datenraten sind verglichen zu jetzt schon OHNE HDR utopisch hoch. Die Kabel Industrie hat aktuell noch Probleme überhaupt HDMI Kabel zu Produzieren die bei 4k Übertragung und längen ab 8 Metern wenn HDR dazu kommt noch störungsfrei zu übertragen! Sprich so mancher stolze Besitzer eines neuen UHD TV/Beamers hatte mit seinem vermeintlichen gutem Kabel sofort kein Bild mehr oder wenn im auch neuen UHD-Player eine UHD Disk mit HDR startet ging im Heimkino pötzlich das Licht aus. :o Denn viele haben speziell bei Beamern in Heimkino übliche Entfernungen von 12- 18 Metern UND das Kabel "Unterputz" liegen....glaub mir da kommt Freude auf :evillol:

EDIT:

PS: Nein es gibt nicht "den" richtigen Zeitpunklt um Elektronik zu kaufen. ;) :D
 
Zuletzt bearbeitet:
Das kann ich mir vorstellen mit dem Unterputzkabel :D

Ich habe mir ein paar Vergleichsvideos angesehen zwischen 8/10 Bit
Bei Professioneller Videobearbeitung sieht man das defintiv. Wie es sich bei Filmen verhält keine Ahnung.
Das ganze sieht dann halt nicht mehr ganz so brilliant aus und weniger Farbig.
Wenn ich bei meinem Samsung UE55F6500 die Farbe in den Nvidiaeinstellungen von 8 auf 12 Bit umstelle ist der Unterschied nicht ganz so groß. Allerdings das ganze bei Rgb.

Der Farbraum ist bei 10 oder 12 Natürlich höher aber die Anwendung (PC, Filme) müssen das ganze auch erstmal ausreizen.

Richtig?
 
Genau das. Alle alten Filme sofern sie für UHD nicht neu abgetastet aka Remastered wurden, sind alle 8 Bit. Das ist das gleiche wenn man selbst einen Rip von DVD oder BD macht und dann beim X265 Encoder die Einstellungen für das zu verwendende Profil sowie die Bitraten einstellen soll. Ein Profil zu nehmen das eine höhere Grundbitrate oder eben 10 Bit anstatt 8 Bit hat, als das Originale Material, hat keinen Sinn. Da das mehr an Bitrate oder eben Farbtiefe schlicht nicht genutzt wird. Ebenso wie es keinen Sinn macht von Youtube Videos mit seinen AAC 192 K/Bit Audio Ton eine MP3 mit 320 K/bit zu erstellen...
Will sagen das Quellenmaterial muss es auch hergeben.
 
Zurück
Oben