GTX 1070 = HDR aktivieren?

@Affenzahn, die Windows-Einstellung hat leider nicht geholfen. Teilweise (in den Nvidia-Treiber-Einstellungen z.B.) ist der Text kaum zu lesen. Aber immerhin erkennt der TV jetzt ein HDR Signal und die Filme werden entsprechend wiedergegeben.
 
Kann heut Abend mal bei mir nachsehen was für Regler man so alles setzen kann.
 
  • Gefällt mir
Reaktionen: ph0be
Hast Du noch ne Idee, wie ich das Soundproblem aus dem anderen Thread ohne zusätzliches Kabel gelöst bekomme?
Sound von GPU per HDMI an TV und per HDMI-ARC an AVR weiter. Und zwar 7.1 und nicht nur Stereo.
 
Ich hab nur ne ne klassische 2.0 Anlage mit zwei kleinen Dali Zensor 1, weil sich im Altbau sonst alle Parteien an meinem Bass erfreuen.

Meinen Denon X1400H, Baujahr 2017, erkennt Windows und würde mir vermutlich auch 5.1 anbieten. Dein Problem kann ich leider nicht nachstellen.

Ob dein Sound über HDMI kommt oder extra Audio Kabel, wird klangtechnisch vernachlässigbar (für Otto Normalo zumindest) sein.

// Nochmal den Thread rausgekramt:
ph0be schrieb:
Mein AV-Receiver unterstützt nur 1080p, weshalb der PC direkt mit dem TV verbunden ist.
Der AVR ist an HDMI1 angeschlossen für den Ton.
Also theoretisch
PC GPU -> HDMI2 am TV -> HDMI1 am TV per ARC -> AV-Receiver.
In Windows kann ich aber nur Stereo einstellen, anscheinend weil der TV nur zwei Lautsprecher hat und der PC nicht direkt den AVR erkennt. Wisst ihr, ob es ohne zusätzliche Kabel (SPDIF vom Mainboard direkt an den AVR) möglich ist, über den TV und ARC Surroundsound vom PC an den AVR zu übertragen?


Fernseher sind nicht dazu gemacht Informationen von einem PC an einen AVR durch zu schleifen. Normalerweise passiert das andersherum.
ARC dient dazu die vom TV empfangenen (via SAT oder App) Audioinformationen an ein anderes Gerät zu übergeben. Extern empfangene Audiosignale werden als "gewollt" betrachtet und ausgegeben. Sonst würde jeder kotzen der seinen DVD Player direkt anschließt.

Ein zweites HDMI Kabel zum PC->AV für den Sound wäre eine Möglichkeit.
Könnte dir aber HDCP übel nehmen, da es dann ein Videotaugliches zweites Ausgabegerät gibt, welches eben nicht HDCP konform ist. Also wird auf FullHD runterskaliert.

Die beste Möglichkeit wird wohl tatsächlich ein dedizierter SPDIF Audiostrang vom PC an den AVR sein.
 
@Affenzahn, auch schön, so ein Paar Zensor Lautsprecher. Ich will mir einen X3400H gönnen, damit ich durch das Audyssey XT32 auf mein Antimode verzichten kann. Bei Dir ist natürlich der Vorteil, dass der PC direkt mit dem AVR verbunden ist, auf diesem Wege bekäme ich natürlich auch 7.1 zustande. Ich hätte nur gedacht, dass der TV den Ton durchschleifen kann und dann eben auch Mehrkanal. Zumindest gibt es entsprechende Einstellungen (Stereo, Mehrkanal und Bypass), aber die gelten wohl nur für auf den im TV verarbeiteten Ton (Tuner und Android TV Apps).

Ein zweites HDMI Kabel vom PC an den AVR wird schwierig, bei nur einem HDMI-Ausgang an der GPU - oder könnte ich gar den vom Mainboard/ CPU (IGP) verwenden? Oh man, sollte ich vielleicht mal testen, bevor ich einfach wild SPDIF Toslink Kabel bestelle... (ist schon auf dem Weg)
 
Passt schon so mit spdif/tos.
HDCP ist der Prototyp einer eifersüchtigen Freundin. Das kann sehr schnell zum Ärgernis werden.

Es gibt sicherlich Fernseher die das können, aber es ergibt wenig Sinn so ne Funktion einzubauen, da dein Aufbau so ziemlich das exakte Gegenteil der Norm ist. Sound übern Fernseher zum AVR durchschleifen..:freak: klingt schon irgendwie Banane wenn man nicht weiß warum.


Im Nachhinein hätt ich vielleicht doch eher den 2400er nehmen sollen um noch nen extra Ausgang zu haben.
Andererseits komm ich so schon mal nicht in die Versuchung mir nen Beamer zu zulegen :D
 
@Affenzahn, hätte ich gewusst, dass das so ein Krampf ist, hätte ich... ? hmm
Habe gestern das SPDIF/ Toslink Kabel erhalten und den PC (Mainboard) mit dem AVR verbunden, während der TV per HDMI vom PC (GPU) das Bild empfängt. TV Eingang auf HDMI2 und AVR Eingang auf AV4.
Jetzt wollte ich den Sound in Windows 10 von der GPU auf den SPDIF-Ausgang ändern, aber den konnte man erst einmal überhaupt nicht konfigurieren. Also nach den ollen VIAHD Soundchip-Treibern gesucht, installiert und ausgeführt... 32 Bit Treiber... das Paket enthielt aber auch die 64 Bit Variante, die ich über eine andere .exe starten konnte... aber was bitte ist das für ein Treiber? Der kann ja GAR NIX!
Also schlussendlich habe ich keinen Ton über die SPDIF-Schnittstelle zum AVR bekommen. Mache ich etwas falsch? Kann doch nicht so schwer sein!?
 
Ich hab mir neulich beim Ambilight basteln mein ARC deaktiviert (Splitter unterstützt es nicht. Fertig.), muss mir also demnächst ebenfalls ne optische soundlösung für TV zu AVR zulegen.
Ich kann dann ja mal mein PC mit dem AVR verbinden und ausprobieren ob ich den selben Fehler bekomm.

Aus dem Stehgreif würde ich sagen das sollte direkt unten in de Taskleiste eingestellt werden können.

1540981510048.png


Falls nicht:
beim Mainboard Hersteller nach Treiber suchen (check)
Geräte Manager checken (check?)
In den Windows Settings unter System -> Sound gibt's nen Troubleshooter. Vllt bringt der ja ein mal wirklich was (wohl kaum, aber ein Versuch ist's wert)
GGf. mal unter Device Propertys (bekommst du die überhaupt angezeigt?) schauen ob unter spatial sound Murx eingetragen ist (Dolby Atmos z.B.):
1540981739971.png
 
  • Gefällt mir
Reaktionen: ph0be
@Affenzahn, was hast Du denn für eine Ambilight-Lösung gebaut? Hyperion?

Danke Dir für die Lösungsansätze:
1. Mainboard Hersteller: Treiber (check)
2. Geräte-Manager (check)
gerätemgr.png
3. Windows Sound Troubleshooter (nicht gefunden)
4. Geräte Eigenschaften (check)
eigenschaften.png
5. Windows Taskleiste (check, kommt kein Ton)
spdif.png

grml...
 
Ja, Hyperion auf nem Raspi. Wart auch erstmal viel theoretisches Galama bevor ich mich da rangetraut hab. Siehe hier:
https://www.computerbase.de/forum/threads/hyperion-ambilight-an-4k-uhd-hdr.1825928/

inzwischen läufts aber :) nur die LEDs sind arg dunkel. Neuer Stromstecker mit größerem Leitungsquerschnitt kommt morgen. Mal hoffen das sich das dann erledigt. Sonst gibts eben neue Streifen und mein TV Board bekommt ne Unterbodenbeleuchtung aus den jetzigen XD


Dein TV bekommt Bild über HDMI vom PC
Dein AVR Bekommt Ton über SPDIF vom PC (sollte)

TV und AVR wissen nicht dass es einander gibt?

Erwartet dein AVR auch Ton auf SPDIF? Ist der richtige Kanal eingeschalten? Muss man dem an den Settings noch was einstellen?
 
@Affenzahn, nice Gefrickel :D Ich wollte es zwar auch schon immer mal machen um von Philips unabhängig zu werden, aber es ist dann doch wieder einer geworden xD

Die Tonübertragung vom PC (Mainboard) via SPDIF/ Toslink zum AVR funktioniert mittlerweile. Allerdings fand ich die Übertragung via HDMI bisher immer einfacher. Da gab es mehr Einstellungen und Optionen.
Ich hoffe, dass ich zu den Black/ Cyber Angeboten endlich einen X3400H günstig schießen kann, dann löse ich diese temporäre Lösung wieder auf.
 
Woran lag es jetzt?
 
@Affenzahn, mir ist erst später aufgefallen, dass mein AVR sogar zwei optische SPDIF Eingänge hat, jedenfalls habe ich es über den einen, der über "AV4" eingehen sollte nicht hinbekommen. Nachdem ich das Kabel in den anderen Eingang gesteckt habe und auf "AV1" gewechselt bin, ging es plötzlich.

Trotzdem bin ich mit der Lösung nicht zufrieden. In den Windows Soundeinstellungen wird erst einmal nur Stereo angezeigt, man kann aber DTS "testen", dann kommt immerhin 5.1 durch (Filme laufen auch entsprechend), aber bei Doom (2016) zum Beispiel bekomme ich nur Stereo raus. Naja, muss nochmal nachsehen, ob das Spiel selbst vielleicht eine weitere Einstellung hat...
 
@Affenzahn, oh man, schade, dass mir folgende Ideen erst gestern gekommen sind:

GPU HDMI Video to TV
MB HDMI Audio to AVR

und

GPU HDMI Video to TV
GPU DVI-HDMI Audio to AVR

Letztere habe ich mit einem DVI->HDMI-Adapter, der damals bei meiner ATi (!) Grafikkarte dabei war und einem HDMI 1.4 Kabel umgesetzt und funktionierte auf Anhieb einwandfrei! Es sind jetzt quasi zwei Monitore angeschlossen, einmal 4K HDCP 2.2 und einmal 1080p über den AVR. Potenziell ist jeder Ausgang an der Grafikkarte auch dazu fähig Ton auszugeben, denn unter den Windows-Sound Einstellungen taucht die GPU viermal auf.

Diese Lösung ist vollkommen zufriedenstellend, denn nun ist auch 7.1 und mehr auswählbar! Juhuu! Wohin nur mit dem blöden SPDIF Kabel? ^^
 
Klappt das auch noch mit HDCP2.2 Material? Also 4k HDR (Staffel 2 von Stranger Things auf Netflix z.B. oder die neuen Staffeln Chefs Table)

Ich wäre ehrlich gesagt nicht verwundert wenn es sich sträubt und dein HDR auf 1080p SDR runterskaliert.
Je nachdem ob er das Audio HDMI auch als ausschließlich Audio erkennt oder nicht könnte er (Der Content) es als zweites Ziel betrachten und feststellen dass es nicht hdcp kompatibel ist -> Bruch in der Kette -> FullHD SDR.

Der Vater des Gedanken HDCP war ja, auf allen angeschlossenen Geräten einen Kopierschutz zu verankern der eigenständig nicht-konforme Geräte erkennt und die teuren (damals mit v1 3D-) Filme nicht so einfach gerippt werden können.
Redundante Information:
De Facto müsste deine Quelle (Netflix) erkennen dass du 2 mögliche Displays (oder Raubmordkopierende Videograbber) angeschlossen hast und nur eine dem Standard entspricht. Es sei denn HDMI Audio kann sich generell "abkoppeln" und taucht tatsächlich nur als reines Audiogerät auf.


Probier das mal bitte aus. Ich behaupte du wirst kein 4k HDR bekommen, lass mich aber (sehr) gerne eines Besseren belehren.

Schon Absurd was für ein Stress das jetzt - für eigentlich eine Selbstverständlichkeit - war.

//Edit: warum schreib ich eigentlich zwei mal das Selbe?! Oo
 
  • Gefällt mir
Reaktionen: ph0be
@Affenzahn, das ist schwer zu verifizieren... Netflix läuft nur im Edge Browser mit 4K und HDR, dafür nur mit Stereoton. Leider gibt es hier keine Infos über die Qualität der Serie/ des Films. Die Windows 10 Netflix-App gibt wohl nur 1080p aus, zeigt dafür auch entsprechende Icons an und kann dafür aber 5.1 und mehr.

Ne Folge Chefs Table lief im Edge Browser jetzt ohne Murren, sobald ich in Windows HDR aktiviere, erkennt der TV das Signal. Das HDR meines TVs ist aber gefühlt so schlecht, dass ich nicht einmal sagen könnte, ob eine Serien nun HDR oder SDR hat. Egal ob der PC als externe Quelle die Bilder liefert oder die AndroidTV Netflix App, wo man sich sicher sein kann, dass es 4K HDR ist.

Mir geht es mit der ganzen Verkabelungsaktion GTX 1070 - 4K TV ja hauptsächlich ums Zocken und FI bei 1080p Filmen. Das läuft jetzt auch soweit.

Edit: Okay, ich muss mich teilweise korrigieren. 4K HDR ist wohl auch mit der Windows 10 Netflix App möglich:
Auflösung (https://help.netflix.com/de/node/23931)
Die Windows-10-App unterstützt das Streaming in bis zu 4K-Qualität*.
Heruntergeladene Titel sind verfügbar in bis zu 1080p.

*Voraussetzung für Streaming in 4K ist eine HDCP-2.2-kompatible Verbindung mit einem 4K-fähigen Anzeigegerät, eine Intel Core CPU der 7. Generation und die neuesten Windows-Updates. Wenden Sie sich an den Hersteller des Geräts, um die technischen Daten in Erfahrung zu bringen.
Kann das stimmen mit der 7. Gen Intel CPUs? Entsprechende AMDs oder GPUs können doch auch HDCP 2.2...
okay, es heißt weiter:
Netflix ist in der Netflix-App aus dem Windows Store in HDR verfügbar.
Bei Verwendung der dedizierten NVIDIA-GPU:
  • Windows 10 Fall Creators Update erforderlich (Version 1703)
  • GPU: 1050-, 1060-, 1070- oder 1080-Karte mit mindestens 3 GB Video-RAM
  • Grafiktreiber: 387.68 (23.21.13.8768) oder höher
Zum Beispiel "House of Cards" müsste doch 4K anbieten?! In der App steht bei mir nur HD. Das ist vielleicht ein Hinweis auf den HDCP 2.2 Bruch. Ich teste das gleich mal ohne das zweite HDMI Kabel an der GPU.

Edit: Ohne das zweite Kabel zeigt die Netflix App auch nur HD an. Keine Ahnung woran das liegt. Wie UHD sieht die Folge House of Cards auch nicht wirklich aus.
 
Zuletzt bearbeitet:
Oh, ääh.. Hast du überhaupt das große Netflix Abo? UHD HDR gibts nur im Großen..
sry, die Macht der Gewohnheit...

Hab auf Stackoverflow das hier gefunden.

Da wird dieses Amazon Promo Video verlinkt um zu prüfen ob alles läuft. Ist umse und soll UHD HDR sein, ich sitz hier aber grad an nem FHD display, kanns also nicht prüfen.
 
@Affenzahn, danke, werde das heute Abend damit testen.
Und ja, wir haben das Netflix Premium UHD Abo.

Bei mir im Nvidia-Treiber ist der TV übrigens zweimal aufgeführt, beim Direktverbund mit HDCP 2.2 aktiv und beim Umweg über den AVR ohne HDCP, also 1080p. Als Beispiel, das Bild ist auch unter den Antworten aus dem Stack Overflow Thread zu finden, kann heute Abend aber noch eins selbst machen:

bH3dP.png


Außerdem habe ich noch das gefunden:

HDCPTable-640x194.png

https://www.extremetech.com/computi...a-driver-will-allow-netflix-4k-streaming-gpus

Bleibt nur die Frage, wie die GPU erkennt, ob der zweite Monitor aktiv ist oder nicht. Scheint aber prinzipiell zu funktionieren:
HDCP 2.2 + HDCP1.X (inactive) = 4K UHD HDR Stream :daumen:

BTW bei dem Wolverine Promotional Featurette steht auch nur buy in "HD" or "SD".
 
Zuletzt bearbeitet:
HDCP 2.2 + HDCP1.X (inactive) = 4K UHD HDR Stream :daumen:

sofern er den AudioHDMI auch als inaktiv betrachtet, ja. Könnte aber auch als aktives Gerät betrachtet werden, da es ja Signale empfangen kann.
Ist halt unfassbar blöd herauszufinden wenn dein TV die momentane Bildquali nicht irgendwo in der Infoleiste oder den Bildeinstellungen anzeigt.
 
@Affenzahn, hier noch die Screenshots vom CyberLink Advisor und dem Nvidia Treiber.

cyberlink_advisor.png

hdcp_status1.png

hdcp_status2.png


Sieht für mich alles gut aus und funktioniert ja auch entsprechend. Kann sein, dass UHD BDs nicht einwandfrei laufen würden, aber für meinen Anwendungsfall läuft jetzt alles perfekt!
 
Zurück
Oben