Samsung G7 Neo über HDMI - wieso geht 165 Hz? Und kein DSR?

ZakMacKrak

Cadet 3rd Year
Registriert
Okt. 2019
Beiträge
45
Habe den Odyssey G7 Neo 165HZ.
Leider ist seitdem die DSR Funktion im Nvidia Treiber verschwunden. Würde gerne testen, wie bestimmte Spiele in Auflösungen über 4K aussehen und dann u.U. halt von Ultra auf hoch stellen.

Daher dachte ich, ich probiere mal ein HDMI Kabel.
Ich kann nun seltsamerweise bei 4k nativ 165Hz einstellen. Ich dachte, die technischen Möglichkeiten sind 4k@120 Hz und fertig?

Außerdem kann ich nun auch 12 Bit auswählen. Beim DP ging nur 10 Bit.

DSR im Treiber ist immer noch weg.
 
Liegt vermutlich an DSC (Display Stream Compression). Das gibt es inzwischen auch für HDMI, falls du das verwenden solltest.
 
DSC kenne ich nicht.
Ist das per Häckchen im Treiber an/ausschaltbar?
 
ZakMacKrak schrieb:
Ist das per Häckchen im Treiber an/ausschaltbar?
Nein, ist ne Fähigkeit des Videoausgangs, die automatisch zugeschaltet wird, wenn vom Display unterstützt, um Auflösungen und Hertzzahlen zu unterstützen, die ohne DSC nicht laufen würde.
 
Drewkev schrieb:
Wieso änderst du nicht einfach die Auflösung
Da gibt es bei mir nichts über 3.840 x 2.160 Pixel/ 4k Auflösung. Drunter gibt es jede Menge.
Ergänzung ()

cvzone schrieb:
Nein, ist ne Fähigkeit des Videoausgangs, die automatisch zugeschaltet wird, wenn vom Display unterstützt, um Auflösungen und Hertzzahlen zu unterstützen, die ohne DSC nicht laufen würde.
Ich habe gerade bei Nvidia gelesen, dass DSR und DLDSR nicht funktioniert, wenn DSC aktiviert ist.
Was sind jetzt meine Optionen?
Ergänzung ()

Und.....HDMI Kabel behalten oder zurück und DP 1.4 weiter nehmen?
 
Zuletzt bearbeitet:
ZakMacKrak schrieb:
Da gibt es bei mir nichts über 3.840 x 2.160 Pixel/ 4k Auflösung. Drunter gibt es jede Menge.

Ich habe gerade bei Nvidia gelesen, dass DSR und DLDSR nicht funktioniert, wenn DSC aktiviert ist.
Was sind jetzt meine Optionen?
Die Settings so einstellen, dass die maximale Bandbreite der jeweiligen Schnittstelle noch ausreicht. Bei HDMI 2.1 sind das maximal 48 GBit/s und bei Displayport 1.4 32,4 GBit/s. Da müsstest du einmal schauen, welche Settings du fährst und was du in die Pipeline legst. Dann sollte sich DSC eigentlich automatisch deaktivieren.

Drewkev schrieb:
Wieso änderst du nicht einfach die Auflösung etc. pp.? Sollte ja auf das gleiche hinauskommen.
Wenn hier DLDSR gemeint ist, dann ist das nicht richtig. Das ist ja das eigentlich viel spannendere Feature. Rein auf DSR bezogen stimmt deine Aussage aber natürlich.
 
Mal ein kleines Update und Info:
DSR geht doch mit dem Monitor. Ob HDMI oder DP ist egal, geht beides.

Man muss nur zwingend die Hz auf 120 stellen. Mit 165hz geht es nicht, weil es wohl in beiden Fällen / Anschlüsse dann eine DSC ist.
Und DAS geht nicht zusammen mit DSR.

Also im Treiber UND im Monitor Menü auf 120HZ stellen für DSR.

Jetzt geht 5k Auflösung.
Frisst natürlich ordentlich Frames, aber falls bei einem Spiel mal Frames ungenutzt liegen bleiben, kann ich jetzt wenigstens die Auflösung hochstellen.
Ergänzung ()

Neubauten schrieb:
Die Settings so einstellen, dass die maximale Bandbreite der jeweiligen Schnittstelle noch ausreicht. Bei HDMI 2.1 sind das maximal 48 GBit/s und bei Displayport 1.4 32,4 GBit/s. Da müsstest du einmal schauen, welche Settings du fährst und was du in die Pipeline legst. Dann sollte sich DSC eigentlich automatisch deaktivieren.
Was genau meist du?
Ich kann ja nicht irgendwo einen Schieberegler für Gbit ziehen. Oder?
Oder meinst du indirekt über Wahl der Auflösung?
 
Zuletzt bearbeitet:
ZakMacKrak schrieb:
Was genau meist du?
Ich kann ja nicht irgendwo einen Schieberegler für Gbit ziehen. Oder?
Oder meinst du indirekt über Wahl der Auflösung?
Nein, ein Schieberegler kann es hier natürlich. Du hast ja verschiedene Parameter, die die Bandbreite bestimmen. Die Entscheidung darüber, welcher reduziert werden soll, obliegt dir. Und genau das hast du ja auch getan durch die Absenkung der Bildwiederholungsrate. Andere Parameter wären Auflösung oder der Farbraum. 4k, 165hz, RGB mit 10bit lassen sich mit den erwähnten Schnittstellen nicht ohne Kompression realisieren. Willst du das umgehen, senkst du einen der Werte ab -> keine Kompression mehr nötig.
 
Noch eine Frage🙂

Beim Durchstöbern des Monitor Menüs ist mir die Option VRR An / aus zum ersten Mal aufgefallen.
Das lässt sich ja auch in Windows 10 bei der GPU Hardware Beschleunigung aktivieren.

So.
Der Monitor hat aber Adaptive Sync (nicht offiziell Gsync kompatibel, läuft im Gforce Treiber aber als Gsync Monitor), was ich bis jetzt immer benutzt habe. Soll man nun beides aktivieren? Überschlägt dich da nicht irgendwas? Theoretisch gibt es ja auch noch VSync, was bei manchen Spielen zusätzlich empfohlen wird.
Also Gsync und Vsync und VRR?
Wieso hat ein Monitor zwei Optionen bezüglich Synchronisation?
 
Gsync ist eine VRR (Variable Resfresh Rate) Technologie. Die Frage ist nun, ob mit der "VRR" Einstellung alle VRR Technologien (Gsync, Freesync, Adaptive Sync, HDMI VRR) gemeint sind oder nur "HDMI VRR".

Aber generell würde ich das anlassen. Spielt letztendlich keine Rolle und im Zweifelsfall geht ohne das Gsync nicht mehr.
 
Tja, ob da ausschließlich HDMI VRR vom Monitor her gemeint ist, weiß ich nicht.
Es bleibt auf jeden Fall angeschaltet, wenn man DP benutzt.
Ob Gsync funktioniert hängt bei dem Monitor vom Menüpunkt Adaptive sync ab.

Ich meine, dass es bei Drehungen im Spiel hakeliger wird als nur Adaptive Sync.
Hab's daher ausgeschaltet.
Könnte aber auch Einbildung sein.
 
Zurück
Oben