Warum gibt es keinen 4k Monitor mit Nvidia G-Sync und HDCP 2.2

mr999

Captain
Registriert
Jan. 2004
Beiträge
3.253
Gibt es einen besonderen Grund dafür, dass es keinen einzigen Monitor auf dem Markt gibt,
der eine 4K UHD Auflösung mit Nvidia G-Sync und HDCP 2.2 hat?

Ich möchte auf einem 4k Monitor auch gerne mal Netflix in 4k sehen.
Dafür benötigt es aber zwingend HDCP 2.2
Genauso muss auch die Nvidia Grafikkarte HDCP 2.2 unterstützen.
 
nö muss es nicht, muss es nur wen du auf der weissen Seite bleiben willst! die HD Fury setzt zum Beispiel das HDCP2.2 auf HDCP1.4 um ...
somit laufen die Sache dann auch auf nicht "Freigegebenen" Monitoren!

Von der ContentMAFIA wird nur gef**** wer sich F***** lässt.

/Edit/
@wiztm die HDFury ist legal in D käuflich zu erwerben! ebenso wie Hackertools legal eingesetzt werden dürfen ... entscheidend ist wie du es einsetzt!

Willst du damit lediglich für dich deine bezahlten Filme gucken ist das legal, allerhöchstens ne AGB Verletzung, willst du damit illegale Kopien erstellen und diese Verbreiten ist es ne Urheberrechtsverletzung!
 
Zuletzt bearbeitet:
Dazu wirst du hier wohl keine Antwort bekommen. Daran bin ich hier auch schon gescheitert.
Es bleibt nur die Hersteller anschreiben und darauf aufmerksam machen.
 
naja woher soll es ein User hier auch wissen, warum es das nicht gibt. Das kann einem nur ein Hersteller erklären.
 
Die User hier konnten nicht mal mitteilen ob es das gibt, an den von ihnen empfohlenen Monitoren.
 
hdcp 2.2? warum ist das illegal? so wie ich das sehe nutzen doch viele geräte die technik....
da ist ja nix illegal daran bzw. versteh nicht warumd as so viele geräte verkauft werden.... und da er ja nur das produkt sucht warum gibt man ihm nicht ne antwort?
 
wiztm schrieb:
Die User hier konnten nicht mal mitteilen ob es das gibt, an den von ihnen empfohlenen Monitoren.

Warum sollten sie auch, wenn es nicht ausgewiesen wird auf den Seiten, wo sie ihre Emfpehlungen her haben. Das hättest du doch sicher selbst herausfinden können. Ist ja nicht so, dass man hier einfach nachfragt und schon fliegen einem ALLE Infos nur so zu. Etwas Eigenleistung ist schon angebracht.

Nur Warum die Hersteller nicht immer das auf den Markt bringen, was man gern will, kann dir sicher nur ein Hersteller mitteilen.
Ergänzung ()

MegaManPlay schrieb:
und da er ja nur das produkt sucht warum gibt man ihm nicht ne antwort?

er sucht nicht DAS produkt sondern EIN Produkt, was seine Merkmale "4k, G-Sync UND HDCP2.2" erfüllt.

Scheinbar sind 4k und HDCP 2.2 überwiegend bei Freesync oder eben OHNE beide Sync-Varianten anzutreffen. Nvidia ist etwas leider hinterher.

Und wenn man keine Antwort darauf hat, wird es schwer eine zu geben.


Nachtrag 2:

Wenn der Monitor HDMI 2.0 untersützt, sollte er auch HDCP2.2 mitbringen.
 
Zuletzt bearbeitet:
Beschwer dich bei nVidia.

Es gibt 13 Free-Sync modelle:
https://www.computerbase.de/preisve...2_3840x2160~11992_AMD+FreeSync~12021_HDCP+2.2

Vielleicht ist der Grund einfach nVidia möchte die HDCP-Gebühr nicht bezahlen ? Oder die HDMI2.0 Gebührt und hat deswegen keine Displays mit HDMI2.0 im Sortiment. Oder die GPUs unterstützen kein HDMI2.0 ? Bzw. DisplayPort 1.3+

Es gibt nur ein einziges Display mit HDMI2.0 (und G-Sync) und das hat nur 2560x1440 und ist oben gelinked.
 
Der Verweis auf HDMI2 würde hier nur weiterhelfen wenn man doppelt verkabeln möchte. (wobei es hier auch Aussagen gibt die dahingehend ausgelegt werden können das G-Sync theoretisch auch über HDMI möglich wäre. Macht aber wohl auch niemand. Vielleicht mag dies nvidia auch nicht.)

G-Sync benötigt DP. HDCP ist optional. Es wäre also möglich dies zu integrieren (wenn von Seiten nvidias nichts dagegen spricht...), wie es aussieht macht dies aber kein Hersteller.
Ich konnte jedenfalls keinen finden, wenn jemand andere Infos hat (schließlich beobachtet nicht jeder ständig alle Hersteller): Her damit.

Es bleibt also nur die Hersteller darauf aufmerksam zu machen.
 
G-Sync benötigt DP.

Danke für die Aufklärung. Ich dachte einer der Vorteile von GS wäre dass es eben auch via HDMI geht (weil das GS-Modul ja das Sync macht und damit nicht das adaptive Sync signal erforderlich ist welches nur teil der DP-Spec ist).

Aber dennoch seltsam dass es keine Bildschirme mit DP1.4 und G-Sync gibt....wahrscheinlich die ersten Anzeichen dafür dass man G-Sync mittelfristig sterben lassen wird (von seiten der Displayhersteller) weil adaptive Sync allen zugute kommt. Muss sich nVidia nur mal bewegen und G-Sync auf Adaptive umstellen.
 
Iscaran schrieb:
...weil adaptive Sync allen zugute kommt. Muss sich nVidia nur mal bewegen und G-Sync auf Adaptive umstellen.
Das darf ich anders sehen? Gerade bei geringer fps ist halt G-Sync den FreeSync Implementierungen überlegen.
AFAIK verdoppelt oder verdreifacht FreeSync leider keine Frames, somit fallen unterhalb der Mindestframerate die Vorteile weg, und die liegt schon mal bei 40Hz. Das macht nvidia leider wohl besser.
 
Die Dopplung der Bilder hilft dir aber eine "scheiss" gegen den Input-lag...außerdem macht das die Software, kann man implementieren wenn man möchte. Tut man aber nicht (bei AMD) weil der input lag dann eben grottig wird.

Ob das also wirklich "besser" ist bei nVidia ist Ansichtssache. Auf jeden Fall kann man mit "niedrigeren" Sync-Frequenzen Werbung machen.

Der Standard der der Übermittlung des V_blank Signals zugrunde liegt heisst "Adaptive Sync" und ist bestandteil der VESA-Standardprotokolle.

Ein BEIDSEITIGER Support dieses Standards wäre für alle Endkunden gut. AMD supported das (heisst bei AMD Freesync) nVidia supportet nur ihre eigene Lösung G-Sync und schliesst alle anderen und auch Leute die dem VESA Standard konform gehen aus.

Ich finde das nicht besser aus Kundensicht. Daher sehe ich das anders als du.

Wenn nVidia "wollte" könnte sie also Adaptive Sync supporten und man müsste nicht mehr darüber nachdenken beim Kauf eines Monitors welche Grafikkarte ich kaufen möchte (oder habe oder in Zukunft benutzen möchte).
 
Zuletzt bearbeitet:
AFAIK macht das bei G-Sync der FPGA, bei AMD könnte es aber die Software machen.
Macht sie aber nicht.

Das Inputlagproblem hast du bei FreeSync auch, nur das es da auch noch 'Scheiße' aussieht ;)
 
Das Inputlagproblem hast du bei FreeSync auch, nur das es da auch noch 'Scheiße' aussieht

Versteh ich nicht ?

Was nutzt mir G-Sync @22FPS mit rescale auf 2x22=44FPS wenn ich es eh nicht sinnvoll nutzen kann weil Input-Lag ? Da hilft mir die beste Optik nichts.

AFAIK macht das auch bei nVidia übrigens der Treiber und nicht der FPGA...aber falls du dazu technische dokumente beisteuern kannst glaube ich dir gern das das ein Vorteil des FPGA ist.

AMD bietet diese Bild-verdoppeln halt nicht an, weil der Hauptwitz von Adaptive Sync ist es "flüssige" Bewegung (= minimierter Input Lag) zu machen. Was man per se mit der Bilddopplung wieder "ausschaltet".

Jedenfalls ist es aus Kundensicht nur nachteilig dass es hier 2 "Standards" gibt. (eigentlich gibt es nur 1 Standard und einen extrawurst Hersteller.)
Ergänzung ()

https://www.pcper.com/reviews/Graphics-Cards/Dissecting-G-Sync-and-FreeSync-How-Technologies-Differ

OK...das frame doubling macht der FPGA. Aber dennoch sehe ich den "Vorteil" jetzt nicht wenn ich 20 FPS habe und der FPGA nun via Framdoubling 40 Hz macht...

Ich hab trotzdem an der Stelle einen zusätzlichen Input-Lag von 20/1000 = 50ms !

Freesync hat an der Stelle KEINEN zusätzlichen Input-Lag. Allerdings krieg ich dann Tearing...das kann ich vermeiden@Freesync wenn ich die Option nutze das automatisch auf V-Sync zurückgestuft wird....was aber wieder zu EXAKT demselben Input-Lag führt wie bei nVidia.

Ich sehe den Vorteil einfach nicht.

die Untergrenze für adaptive Sync ist ja bedingt durch das Panel...lässt man das Bild zu lange stehen kriegt man Artefakte wie Ghosting etc...
Das ist das einzige das G-Sync @Low FPS hier umgeht...da das Bild tatsächlich REFRESHED wird (allerdings mit demselben bild von vorher) entgeht man der Ghosting-Problematik wenn die Pixel nicht refreshed werden.

Aber bei 20FPS ist mir das ehrlich gesagt ziemlich Wumpe...da stell ich dann doch lieber die Settings etwas anders ein.
 
Zuletzt bearbeitet:
Der ganze Sinn von den adaptiven Sync Methoden ist tearing los zu werden.
Kannst ja auch dann G-Sync deaktivieren und hast keinen Nachteil gegenüber FreeSync.

Letztlich wohl eine fast schon religiöse Frage ob man lieber ein geschmeidigeres Bild haben möchte (mit Sync) oder nicht wirklich gut sehen möchte wohin man ballert (tearing)

btw meine ich gelesen zu haben das adaptiv sync input lag immer erhöht.
Geht es dir also darum darfst du sowas ohnehin nicht nutzen.
 
Kannst ja auch dann G-Sync deaktivieren und hast keinen Nachteil gegenüber FreeSync.

Ja. Aber auch keinen Vorteil mehr wie du erst gemeint hast.

Letztlich wohl eine fast schon religiöse Frage ob man lieber ein geschmeidigeres Bild haben möchte (mit Sync) oder nicht wirklich gut sehen möchte wohin man ballert (tearing)

Jain...solange die VRR Sync Range nicht verlassen wird habe ich in beiden Fällen beides. geschmeidigeres Bild, kein Tearing und auch kein extra input lag.

btw meine ich gelesen zu haben das adaptiv sync input lag immer erhöht.
Nein. Das verwechselt du wohl mit V-Sync und/oder TripleBuffering.
 
Iscaran schrieb:
Jain...solange die VRR Sync Range nicht verlassen wird habe ich in beiden Fällen beides. geschmeidigeres Bild, kein Tearing und auch kein extra input lag.
Stimmt. Es ging ja auch um Fälle unterhalb der Range.

Iscaran schrieb:
Nein. Das verwechselt du wohl mit V-Sync und/oder TripleBuffering.
Was automatisch greift wenn die fps die Range übersteigen ;)
Also die fps schööön cap'n :)

Und dabei ist es sogar egal ob mit oder ohne HDCP :D
 
btw...es gibt auch keine DP1.4 Displays mit Freesync ?!?

Im Preisvergleich findet man keinen EINZIGEN Monitor der DP1.3 supported und nur 6 Stück die DP1.4 können.
https://www.computerbase.de/preisve...=&bpmin=&bpmax=&v=l&hloc=de&plz=&dist=&sort=p

DP1.3 ist vorraussetzung dass man HDCP2.2 kann.
https://en.wikipedia.org/wiki/DisplayPort

Also gibt es vielleicht einfach insgesamt keine(kaum) Paneele die DP1.3+ können und diese kommen erst jetzt langsam auf den Markt ?

Witzigerweise bieten die 16 Freesync-Displays alle nur DP1.2.
DP1.2 kann aber eigentlich auch kein HDCP2.2 - es sei denn die verstehen das so dass man dann den HDMI2.0 Anschluß nutzt. HDMI unterstützt aber eben kein adaptive Sync ?

EDIT: So scheint es zu sein...die Hersteller Spec nennt HDCP ausdrücklich nur in Kombination mit dem HDMI2.0 Port
http://www.lg.com/us/monitors/lg-32UD89-W-4k-uhd-led-monitor

Also ist man so oder so im A**** wenn man HDCP2.2 content abspielen will ?

EDIT2: um überhaupt Adaptive Sync @HDMI nutzen zu können braucht es HDMI2.1
https://en.wikipedia.org/wiki/HDMI#Version_2.1

Und es gibt noch nicht 1 HDMI2.1 fähiges Display, obwohl der Standard seit Januar 2017 draußen ist....LOL

EDIT3: achso "announced January 4, 2017" aber "scheduled for release "December 2017"...naja also offiziell gibts noch kein HDMI2.1
Ergänzung ()

Nachtrag:

Und jetzt bin ich selbst verwirrt. AMD scheint tatsächlich über die HDMI Spec hinaus Free-Sync support für bestimmte Monitore VIA HDMI anzubieten:
http://www.amd.com/Documents/freesync-hdmi.pdf
http://www.amd.com/en-us/innovations/software-technologies/technologies-gaming/freesync

und @wiztm: bei AMD heisst das Frame Doubling "LFC" Low Framerate compensation.
https://www.amd.com/Documents/freesync-lfc.pdf

Und dieses funktioniert mit allen Displays die mit LFC-Werben:
http://www.amd.com/en-us/innovations/software-technologies/technologies-gaming/freesync
Stand 9.August 2017
 
Zuletzt bearbeitet:
Zurück
Oben