HDR aktivieren Sony A90J und GTX 1070

Status
Für weitere Antworten geschlossen.
xerex.exe schrieb:
Richtige HDMI Kabel dazu?
Spielt keine Rolle, das ist nur Kupfer und Kupfer ist es egal, ob das Signal HDR hat oder nicht.
Ergänzung ()

SoSa schrieb:
Kann kein HDR aktvieren
Musst du vielleicht HDR für den jeweiligen HDMI Eingang aktivieren? Bei Panasonic ist das Teils so.
 
cvzone schrieb:
Spielt keine Rolle, das ist nur Kupfer und Kupfer ist es egal, ob das Signal HDR hat oder nicht.
Ergänzung ()


Musst du vielleicht HDR für den jeweiligen HDMI Eingang aktivieren? Bei Panasonic ist das Teils so.
Ist das so?
Komisch, dass HDR erst ab frühestens 2.0a geht.

j1znb5J.png
 
xerex.exe schrieb:
Ja, das ist so. Daher haben die Kabel auch keine Versionsnummern sondern heißen offiziell nur High Speed, UItra High Speed etc, was nur auf die Schirmung zurück geht. Kabel haben keine Features. Jegliche Werbung mit Versionsnummern für Kabel widerspricht den offiziellen Vorgaben der HDMI Licensing Org.

Der HDMI Standard ist feature-technisch NICHT auf die Kabel zu übertragen.
 
  • Gefällt mir
Reaktionen: cruse
cvzone schrieb:
Ja, das ist so. Daher haben die Kabel auch keine Versionsnummern sondern heißen offiziell nur High Speed, UItra High Speed etc, was nur auf die Schirmung zurück geht. Kabel haben keine Features. Jegliche Werbung mit Versionsnummern für Kabel widerspricht den offiziellen Vorgaben der HDMI Licensing Org.

Der HDMI Standard ist feature-technisch NICHT auf die Kabel zu übertragen.
Quelle?
 
cvzone schrieb:
Musst du vielleicht HDR für den jeweiligen HDMI Eingang aktivieren? Bei Panasonic ist das Teils so.
Hab jetzt auf optimiertes HDMI Signalformat geschalten jetzt geht 3840x2160 auf 120Hz aber kann kein HDR und keine 12 bpc und YCbCr-444 einstellen brauch ich dafür ne RTX 30XX?
 
Zuletzt bearbeitet:
SoSa schrieb:
3840x2160 auf 120Hz aber kann keine 12 bpc und YCbCr-444 brauch ich dafür ne RTX 30XX?
Ja, für mehr als 4K120 mit 4:2:0 braucht es HDMI 2.1. Und die 12 Bit bekommst du auch nur mit 48 Gbps HDMI 2.1, was viele Geräte aktuell gar nicht haben. Diese machen maximal 40 Gbps und damit maximal 4K120 10 Bit 4:4:4
 
  • Gefällt mir
Reaktionen: cruse
cvzone schrieb:
Ja, für mehr als 4K120 mit 4:2:0 braucht es HDMI 2.1. Und die 12 Bit bekommst du auch nur mit 48 Gbps HDMI 2.1, was viele Geräte aktuell gar nicht haben. Diese machen maximal 40 Gbps und damit maximal 4K120 10 Bit 4:4:4
Hab ja geschrieben das ich den ersten 48Gbps Oled habe
kann immer noch kein HDR einstellen?
 
SoSa schrieb:
Hab ja geschrieben das ich den ersten 48Gbps Oled habe
Deine Grafikkarte hat aber immer noch nur HDMI 2.0 und damit maximal 18 Gbps.

Ich kenne das Gerät nicht, aber ich vermute mal du musst den Erweiterten Farbraum irgendwo im TV erst aktivieren. Bei LG heißt sowas z.B. Ultra HD Deep Colour.

Schau mal hier
https://helpguide.sony.net/tv/iaep1/v1/de/01-03-09_01.html
Mal die Einstellungen bezüglich HDR und Farbraum prüfen.
 
Zuletzt bearbeitet:
cvzone schrieb:
Deine Grafikkarte hat aber immer noch nur HDMI 2.0 und damit maximal 18 Gbps.

Ich kenne das Gerät nicht, aber ich vermute mal du musst den Erweiterten Farbraum irgendwo im TV erst aktivieren. Bei LG heißt sowas z.B. Ultra HD Deep Colour.

Schau mal hier
https://helpguide.sony.net/tv/iaep1/v1/de/01-03-09_01.html
Mal die Einstellungen bezüglich HDR und Farbraum prüfen.
Ja dann muss ich auf meine RTX 3070Ti warten...
Hab auf HDMI 10 auf HLG auf HDMI Videobereich Voll rumprobiert ich bekomm es nicht hin.
Kann es auch am HDMI Kabel liegen auf der Sony Seite steht HDMI-Kabel das 18 Gb/s hat
 
Zuletzt bearbeitet:
SoSa schrieb:
Kann es auch am HDMI Kabel liegen
Nein. Nicht was das betrifft. Wie gesagt haben die Kabel selber keinen Feature Support. Du würdest also mit jedem Kabel HDR angezeigt bekommen, nur würden unzureichend geschirmte Kabel dann zu Bildstörungen oder Ausfällen bei zu hohen Auflösungen führen.

Hättest du jetzt ein HDMI Standard Speed Kabel (was fälschlicherweise als HDMI 1.4 Kabel häufig verkauft wird), würde das ggf. Bildaussetzer bei 4K verursachen aber nicht dazu führen, dass der HDR Schalter im Windows nicht auftaucht.

Ich nutze hier beispielsweise ein uraltes hochwertiges "HDMI 1.3" Kabel von vor über 10 Jahren mit 4K@60 mit HDR. Es ist halt nur Kupfer.
 
Was passiert, wenn du die Auflösung oder die Hz Zahl runtersetzt? Kannst du dann HDR aktivieren?

@cvzone hast du eine Quelle für deine Behauptung? Wie du bereits sagst, gibt es verschiedene Bezeichnungen und ein HDMI Standard Kabel wird sicher keine 4k@120hz und HDR10 darstellen.
 
SimSon schrieb:
hast du eine Quelle für deine Behauptung?
Das steht in den HDMI Adopted Trademark and Logo Usage Guidelines. Diese sind nicht mehr öffentlich, waren es aber jahrelang. Leider findet man die alten Papiere nicht mehr. Es gibt aber genug Sekundärquellen in Form von Artikeln. Das ist aber, sagen wir mal, Allgemeinbildung in der IT und ist einfach Fakt. Das ist keine Behauptung.

SimSon schrieb:
ein HDMI Standard Kabel wird sicher keine 4k@120hz und HDR10 darstellen
Habe ich auch nie behauptet. Das liegt aber ausschließlich an der schlechteren Schirmung und nicht daran, dass es kein "HDMI 2.1" Kabel ist. Wenn es technisch nur gut genug ist, aber nur nach Standard Zertifiziert sein sollte, würde es tatsächlich sogar gehen.

Und für seine 4K120 10 Bit wird er natürlich ein Ultra High Speed Kabel oder gleichwertig brauchen. Aber er braucht kein passendes Kabel für HDR.

Windows checkt nicht das Kabel auf irgendwelche Features und zeigt dann den HDR Regler an oder nicht, das ist ein völlig blödes Stück Kupfer...

Vgl. z.B. https://www.cnet.com/news/do-you-need-new-hdmi-cables-for-hdr/

Dumb pipe​

HDMI cables are just a dumb pipe. They don't care (to an extent) what you send through them. There is no such thing as an "HDR HDMI" cable or an "HDMI 2.0" cable.
 
Zuletzt bearbeitet:
SimSon schrieb:
Was passiert, wenn du die Auflösung oder die Hz Zahl runtersetzt? Kannst du dann HDR aktivieren?

@cvzone hast du eine Quelle für deine Behauptung? Wie du bereits sagst, gibt es verschiedene Bezeichnungen und ein HDMI Standard Kabel wird sicher keine 4k@120hz und HDR10 darstellen.
Also ich kann nur PC 3840x2160 120Hz 8 bpc 4:2:0 oder PC 1680x1050 60Hz 12bpc 4:4:4 einstellen mit HDR10
Wieviel würde ich schaffen mit meiner GTX 1070 wenn ich mir jetzt ein Ultra High Speed Kabel kaufe?
 
SoSa schrieb:
Wieviel würde ich schaffen mit meiner GTX 1070 wenn ich mir jetzt ein Ultra High Speed Kabel kaufe?
Genau das gleiche. Das HDMI 2.0 deiner GPU ist am Ende. Für mehr braucht es HDMI 2.1 und damit eben die RTX 3000. Dann geht ja HDR also doch, nur eben nicht mit der Auflösung, weil diese einfach zu hoch für HDMI 2.0 ist und der erweiterte HDR Farbraum nicht mehr übertragen werden kann.
 
cvzone schrieb:
Genau das gleiche. Das HDMI 2.0 deiner GPU ist am Ende. Für mehr braucht es HDMI 2.1 und damit eben die RTX 3000. Dann geht ja HDR also doch, nur eben nicht mit der Auflösung, weil diese einfach zu hoch für HDMI 2.0 ist und der erweiterte HDR Farbraum nicht mehr übertragen werden kann.
Ja aber dann müsste doch 4K60Hz mit 10 oder 12bit gehen?
 
SoSa schrieb:
Ja aber dann müsste doch 4K60Hz mit 10 oder 12bit gehen?
Das ist absolut richtig, zumindest mit 8 Bit + Dithering sollte 4K60 bei 4:4:4 gehen. Für 10 oder 12 Bit müssten man dann wieder auf 4:2:2 oder 4:2:0 reduzieren. Ich würde mal das Tool CRU installieren und schauen welche Auflösungen der TV anbietet. Da stimmt tatsächlich etwas nicht. Das liegt aber nicht am Kabel. ;)

Das Ultra High Speed Kabel kannst du Dir aber trotzdem kaufen. Brauchst du ja spätestens für die RTX 3000.
Ergänzung ()

SoSa schrieb:
Ggf ist es auch wichtig den jeweiligen HDMI Eingang in den PC Modus zu versetzen. Tut man meist einfach in dem man den Eingang als PC benennt oder im Menü einen PC als angeschlossenes Gerät auswählt. Nur dann ist oft 4:4:4 und bestimmte Auflösungen überhaupt erst möglich.

Und vergiss mal deine 10 und 12 Bit. Das ist für fast alle höheren oder high refresh HDMI 2.0 Auflösungen zuviel. HDR läuft auch wunderbar mit 8 Bit.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben