DP 1.4 mit DSC genauso gut wie DP 2.1?

mkbftw

Lieutenant
Registriert
Aug. 2016
Beiträge
625
Moin, es gibt ja nun OLED 27 Zoll 360HZ Monitore.
Allerdings bisher immer nur mit DisplayPort 1,4 und die 360Hz werden mit DSC gecheatet.
Ist das egal oder wartet man auf Modelle mit Displayport 2.1?
Finde es halt komisch das die Hersteller überhaupt den veralteten Anschluss verwenden und warum überhaupt? Kostet es 5 cent mehr den 2.1er zu verbauen oder warum hauen die 2024 noch sowas raus?
 
in welcher Hinsicht ?

und welches Gerät ? ... denn DP 2.1 ist doch so gut wie nicht vorhanden
 
Frag das mal nvidia.

Back to topic: Die Frage ist doch eher ob du warten möchtest oder nicht.
 
Es wird als visuell verlustfrei betitelt, also wirst du keinen Unterschied sehen.
 
  • Gefällt mir
Reaktionen: Ray519 und Sinatra81
Dell Alienware AW2725F z.B
 
mkbftw schrieb:
Kostet es 5 cent mehr den 2.1er zu verbauen oder warum hauen die 2024 noch sowas raus?
Die Preise lassen sich ohne Kontakte in der Industrie nur schwer abschätzen. Wir sind aber mittlerweile bei Bandbreiten angekommen, da ist es tatsächlich nicht mit Centbauteilen getan, um die zu unterstützen. Guck dir als Vergleich mal an, was ein PCIe 3.0 Riser kostet gegenüber einem 4.0 gegenüber einem 5.0. Da verdoppelt sich der Preis gerne mal.

Abgesehen davon. Ich hab bei mir jetzt schon länger DSC am Laufen und kann nichts Negatives berichten. Auch sonst habe ich noch nie gehört, dass jemand tatsächlich Probleme mit DSC hat. Das sind eigentlich immer nur so Beschwerden, dass es jemand "aus Prinzip" nicht will.
 
  • Gefällt mir
Reaktionen: Ray519 und SpartanerTom
Conqi schrieb:
Guck dir als Vergleich mal an, was ein PCIe 3.0 Riser kostet gegenüber einem 4.0 gegenüber einem 5.0. Da verdoppelt sich der Preis gerne mal.
Was aber nicht heißt, dass das nötig wäre.
Am Ende kommt es bei denen nur auf die Länge & Schirmung an, mehr nicht. Das kostet in der Produktion wenige Euro, siehe AliExpress.
 
Guter Beitrag.

Mach Dir kein Kopp. DSC ist nicht gecheated, sondern genial.

Die meisten neuen Modelle kommen mit HDMI 2.1 und DP1.4 , scheint wohl ausreichend zu sein. ✌️
 
Ich habe einen G9
Also 5120x1440 mit 240Hz

Auch das geht nur mit Kompresson durch den DP1.4a

Ich sehe leider einen Unterschied in den Farben und im Schwarzwert oder anders man sieht dann erst wie gut es aussehen könnte....

Geht einfach zu Testen

Stell die Bildwiederholung auf einen Wert der ohne Kompression geht und mach dir selber ein Bild

Spätestes mit dem neuen G9 und 7.680 x 2.160 Pixel bei 240Hz reicht selbst DP1.4a mit Kompression nicht mehr für mehr wie 120Hz. Deshalb hat der dann auch DP2.1 und kann 240Hz nur mit AMD GPU

HDMI 2.1 ist auch nicht soviel schneller und ohne Gsync Unterstützung für viele ohne AMD GPU nutzlos

DP1.4 ist einfach zulangsam für soviel Bilddaten somit versteh ich nicht warum der Monitor nicht DP2.1 hat?
 
Zuletzt bearbeitet:
a) DP 2.1 garantiert nicht mehr Bandbreite. Genauso wenig wie DP 1.4 eine Bandbreite garantiert. Wenn du also auf diese Label achtest, liegst du in vielen Fällen sogar falsch und bekommst nicht was du denkst
b) DSC wird auch nicht mehr weggehen. Mit den neuen UHBRx DP Geschwindigkeiten muss das verpflichtend unterstützt werden. Also jeder Monitor der schnellere Eingänge hat, muss auch DSC können. So sind die auch gut rückwärtskompatibel. Genau wie bei HDMI wird es dann viele Monitore geben die DSC nutzen für maximale Features. Wenn es eh da ist, können die Hersteller damit auch ein klein wenig Geld sparen. Und du kannst günstigere oder längere Kabel nutzen. Passiert jetzt schon bei vielen HDMI FRL Monitoren. Da gibt es 6 neue Geschwindigkeiten. Und die meisten Leute wissen nicht ob der Monitor die höchste Geschwindigkeit überhaupt kann oder einfach eine ganz langsame Geschwindigkeit zusammen mit DSC benutzt.
c) DSC erlaubt eine variable Kompression zwischen 24 Bits / Pixel runter bis zu 8 Bit / Pixel. Abgesehen davon, dass in realitätsnahen Tests quasi niemand den Unterschied sieht, selbst mit hoher Kompression, hängt das ganz davon ab, wie viel Bandbreite der Monitor braucht, was die Verbindung tatsächlich bietet und was der GPU Treiber entscheidet wie stark das Bild überhaupt komprimiert wird.
d) DSC ist grundsätzlich eine deutlich fortgeschrittener Art Bilddaten zu übertragen. Es macht die Farbtiefe quasi dynamisch. So kann an Stellen, wo der Mensch es eher sehen würde präziser, wie mit 10 Bit Farbtiefe gearbeitet werden, auch ohne mehr Bandbreite zu verbrauchen. Viele Gaming-Monitore laufen am Bandbreitenlimit ihrer Eingänge. Die schaffen dann oft die beworbene höchste Refreshrate nur mit 8 Bit Farbtiefe und für 10 Bit mit HDR muss man dann oft die Refreshrate deaktivieren. Dieses Problem geht mit DSC auch weg.
Ergänzung ()

Berserkervmax schrieb:
HDMI 2.1 ist auch nicht soviel schneller und ohne Gsync Unterstützung für viele ohne AMD GPU nutzlos
HDMI 2.1 ist keine Geschwindigkeit. Aber selbst wenn man die höchste Geschwindigkeit annimmt, die HDMI 2.1 definiert: FRL 6 mit nominell 48 GBit/s kriegt man real 42.7 GBit/s an Bandbreite vs. die 25.9 GBit/s die DP HBR3 hat. Das ist ein großer Unterschied. Nur dass DP ab UHBR13.5 mit 52.3 GBit/s real nutzbarer Bandbreite noch schneller ist (und der relativ leicht zu erhaltende UHRB10 Standard mit 38.8 GBit/s schon sehr nahe kommt).

Und da Nvidia HDMI VRR unterstützt seit der 3000er Generation geht "G-Sync" sogar genauso über HDMI wie es über DP geht, solange der Monitor den HDMI VRR Standard kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Conqi
Aber nicht bei GSync Ultimate
Das geht weiterhin nur über DP inc. Zusatzmodul im Monitor

Über HDMI haste dann G-SYNC-kompatibel aber eben kein echtes Gsync

G-Sync ist qualitativ besser als FreeSync, selbst bei niedrigen Bildwiederholraten. G-Sync verdoppelt die Hertzzahl beim Unterschreiten eines Minimums und verhindert so Ruckler. Außerdem behebt G-Sync Tearing und Ruckler, wobei FreeSync diese nur reduziert
 
@Berserkervmax

schön das du Google gut zitieren kannst aber es nicht als Zitat nennst.
https://www.google.com/search?q=g+s...wEYxwEY0QOYAwWSBwQxMC4yoAeuWw&sclient=gws-wiz

Leider halt auch nur ein Text von vielen ...

ansonsten gibts auch bei Freesync viele Variationen die man auch beachten sollte speziell HDMI mit VRR macht hier einiges anders.

denn auch Freeesync hat bei einigen Versionen genau das was du zitierst nämlich LFC ... low framerate compensation ..
https://www.hardwareluxx.de/index.p...-monitore-mit-freesync-range-und-lfc-auf.html

ansonsten auch einfach Tests lesen und sich selber eine Meingung bilden eh man einfach nur was nachquatschen tut.

https://www.igorslab.de/nvidia-g-sync-vs-amd-freesync-vs-v-sync-wir-messen-die-systemlatenz-praxis/
 
Berserkervmax schrieb:
Aber nicht bei GSync Ultimate
Jein. G-Sync Ultimate ist keine Technik, sondern nur ein Zertifikat von Nvidia dass bestimmte Fähigkeiten beim Monitor garantiert. HDR, HDR mit korrektem Farbraum so das HDR und SDR Desktop gleich aussehen, Variables Overdrive, VRR Range von 1Hz - x, realtiv Farbecht.

Diese Fähigkeiten sind vollständig unter Kontrolle des Monitors. Und G-Sync Ultimate Module können alle HDMI VRR. Das heißt du kannst in den exakt gleichen Genuss der Features kommen, die G-Sync Ultimate garantiert mit einer nicht-Nvidia GPU oder über HDMI mit einer Nvidia GPU. Mein AW3821DW hängt an einer Intel iGPU. Das einzige praktische Limit der Nvidia G-Sync Ultimate Module ist, dass sie kein HDMI FRL können und deshalb die Bandbreite an HDMI Eingängen limitiert ist. Da schafft dann mein Monitor nur 85Hz und nicht die vollen 144Hz.

Aber absolut niemand hindert andere Monitor-Hersteller daran eine genauso gute oder bessere Erfahrung anzubieten. HDR ist auch nicht gut. Nvidia hat die Anforderungen hier reduziert, wenn man versucht die max. Helligkeit von meinem Monitor zu nutzen taugt das absolut nichts mehr. Und Nvidia stellt sich vielleicht quer und gibt niemandem außer sich selbst ein "Ultimate" Zertifikat.
Was du also mit "G-Sync Ultimate" verbindest ist rein der Funktionsumfang des Monitors. Das hängt an keiner VRR-Technik und auch an keinem GPU-Hersteller.
Berserkervmax schrieb:
G-Sync ist qualitativ besser als FreeSync, selbst bei niedrigen Bildwiederholraten.
Das ist zu 100% Marketing-BS. Beides sind keine Techniken, sondern nur Marketingbegriffe und Zertifikate für einen gewissen Minimalumfang. Und das Niveau wandert durchaus auch. Nichts verhindert, dass ein Monitor der nur von AMD zertifiziert ist, nicht genauso gut oder sogar besser ist als ein anderer Monitor der von Nvidia zertifziert wurde. Alles was das macht, ist garantieren, dass die Geräte jeweils das Minimum gezeigt hatten, dass Nvidia und AMD an dem Tag halt sehen wollten. Und Nvidia hat mit ihren Modulen eine relativ stabile Historie, weil es eben nicht so viele verschiedene Generationen an Modulen gibt und die sonst gleich sind. Also es ist einfach absehbarer was das Modul kann und was nicht. Aber da Nvidia auch Monitore / TVs ohne G-Sync Modul als "G-Sync" zertifiziert hat (ohne Compatible) ist das auch schon lange nicht mehr zu 100% garantiert.

G-Sync Module haben den großen Vorteil, sie machen LFC schon immer im Display. Nvidia hat mal gesagt, dass das niedrigere Latenzen hat, aber ich habe noch keinen Test gesehen, der das tatsächlich nachweist. So ist es einfach eine Strategie, bei der der Monitor mehr macht (aber schon lange alles im Rahmen der VRR Standards, deshalb kann jede andere GPU das auch nutzen), die GPU weniger machen muss und damit die GPU oder ihr Hersteller weniger wichtig ist, weil 99% der Erfahrung aus dem Monitor kommen und nicht wie bei den meisten FreeSync zertifizierten Monitoren zu 3/4 aus der GPU.
 
  • Gefällt mir
Reaktionen: Berserkervmax
Zurück
Oben