Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Meine Frage wäre eigentlich nur, welchen Anschluss ich nehmen sollte. HDMI oder DP?
Soweit ich herausfinden konnte, hat 2.1 eine höhere Bandbreite als 1.4 und FreeSync etc. ist jetzt wohl auch möglich?
1 DisplayPort 1.4 (HDCP 1.4 & 2.3) port (Supports up to 3440 x 1440, 240 Hz, DSC, HDR)
2 HDMI ports (HDCP 1.4 & 2.3) (Supports up to 3440 x 1440, 240 Hz, FRL, HDR, VRR as per specified in HDMI 2.1)
Gemäss den Daten dürfte HDMI besser sein. Aber ja, so wie es aklaa beschrieben hat, habe ich es auch immer verstanden, sofern beides verfügbar war/ist.
Es gibt aber Monitore, wie meiner, wo z.B. bei HDMI nicht die gleiche max. Hz-Frequenz unterstützt wird oder gewisse Modi einfach nicht funktionieren (z.B. Das Bild intern in 2 virtuelle Bildschirme aufteilen -> Geht nur mit DP/USB-C) und man so zu DP oder USB-C gezwungen ist
240Hz@3440x1440 sind ca. 38Gbit/Sek. DP 1.4 kann ohne Kompression aber nur 32Gbit.
HDMI 2.1 hat 2 Modis:
24Gbit mit alten Kabel (HDMI Premium High Speed Zertifizierung)
48Gbit mit neuen, teuren Kabeln (HDMI Ultra High Speed Zertifizierung)
Wenn der 24Gbit Modus aktiv ist wird 240Hz selbst mit DSC (Kompression) nicht funktionieren.
Selbst 165Hz geht dann nur mit Kompression (bei DP gehen 200Hz ohne Kompression).
Meine Empfehlung:
Nimm DP und stell auf 200Hz oder niedriger. Dann hast du die Beste Bildqualität unddie 40Hz weniger wirst du kaum merken. Wichtig: Kontrolle der Datenrate. Bei AMD ist das im Treiber unter Anzeige möglich. Sollte bei Nvidia und Intel ähnlich sein.
Dort siehst du was der Monitor gerade kann. Da sollte HBR3 (8,1Gbit pro Lane) angezeigt werden.
Wenn das Kabel kein HBR3 kann sind die Datenrate geringer (2,7Gbit/5,4GBit) zu sehen. Dann Kabel tauschen.
Für den direkten Anschluss eines Monitors wie diesem ist es nahezu egal. Der Monitor kann das gleiche via beiden Eingängen und du wirst keinen Unterschied wahrnehmen.
Die allgemeine Empfehlung wäre hier: nimm für was du passende Kabel hast, günstigere bekommt, oder hinterher die höhere Wiederverwendbarkeit hast.
Oder nimm, so dass du dir rare Ports nicht blockierst. Wenn deine GPU zB nur einen HDMI Ausgang hat, würde ich den für einen Fernseher, der nichts anderes bietet als HDMI aufheben.
Genauso falls irgendwann ein Dock etc. eingesetzt wird, muss sich mit DP nichts ändern, mit HDMI schon.
Ja, technisch gesehen hat HDMI von dem Monitor mit deiner GPU höhere Bandbreite, das ist aber absolut Wumpe, weil du den Unterschied nicht sehen kannst.
DP dagegen hat bidirektionale Kommunikation. Die GPU merkt also wenn der Monitor ausfällt / die Verbindung instabil ist und kann die Geschwindigkeit reduzieren, um es trotzdem stabil hinzubekommen. Auch mit schlechten Kabeln. HDMI ist blind im Vergleich dazu. Die GPU hat keine Ahnung ob überhaupt Bild rauskommt und kann somit rein gar nichts gegen Ausfälle tun.
Solange man nicht eine wahnsinnig instabile Verbindung hat und das absichtlich behalten will, ist also DP die "robustere" Wahl by Default.
Aber das ist alles hinfällig, wenn du halt bessere HDMI Kabel als DP Kabel hast etc. und die HDMI Verbindung auf deiner Strecke einfach dank der Kabel schon stabiler ist.
=> Egal, was du zur Hand hast / für die Zukunft lieber haben willst.
Wenn Docks oder Adapter -> immer DP, weil dazu ist HDMI einfach nicht gebaut.
DP dagegen hat bidirektionale Kommunikation. Die GPU merkt also wenn der Monitor ausfällt / die Verbindung instabil ist und kann die Geschwindigkeit reduzieren, um es trotzdem stabil hinzubekommen. Auch mit schlechten Kabeln. HDMI ist blind im Vergleich dazu. Die GPU hat keine Ahnung ob überhaupt Bild rauskommt und kann somit rein gar nichts gegen Ausfälle tun.
Ich sag nur mal als Stichwort DisplayID (Nachfolger von E-EDID, EDID) oder DDC in unterschiedlichen Varianten.
Sobald Gaming mit VSync, Adaptive Sync in Varianten FreeSync und G-Sync im Spiel ist, ist DP immer die bessere und flexiblere Wahl.
Das DP die Verbindungsqualität ausmisst, um sich für eine Geschwindigkeit zu entscheiden und sogar schlechte Leitungspaare auslassen kann, ist teil des DP Standards. Genau wie das regelmäßig Fehlerraten vom Monitor abgefragt werden. Ein Äquivalent dazu gibt es bei HDMI nicht. Deshalb hat HDMI auch die ganzen Details zu den unterstzützten Geschwindigkeiten und DSC Optionen in die EDID Daten gepresst. Bei DP wird das viel flexibler und mit dem Monitor ausgehandelt. Deshalb steht das da auch nicht drin.
nutrix schrieb:
Sobald Gaming mit VSync, Adaptive Sync in Varianten FreeSync und G-Sync im Spiel ist, ist DP immer die bessere und flexiblere Wahl.
Adaptive Sync ist ein Vesa Standard, teil von DP. Das ist also rein von der Definition her scho so.
Aber HDMI VRR steht dem in nichts nach, solange denn der offizielle HDMI Standard ("HDMI VRR") Unterstützt wird.
FreeSync und G-Sync sind beides proprietäre Marketingbegriffe die die Technik verschleiern und deshalb so wertlos sind.
Wenn du einen guten Monitor hast, wie einen aktuellen G-Sync Ultimate Monitor kann der sowohl über HDMI als auch über DP jeweils mit dem passenden, offenen Standard 1-max. Hz auf die gleiche Weise.
Gibt viele Gründe HDMI scheiße zu finden. Aber hier nicht. Und VSync ist GPU Sache und hat mit dem Monitor gar nichts zu tun.
Das sagt hier doch keiner und das ist doch auch nicht das Thema. Es ist nun mal so, daß HDMI schon immer für Consumerelektronik (geplant) war. HDMI ist dann beim PC so reingerutscht, weil die Beamer nur HDMI konnten, und irgendwann den 2000ern die DP-Monitore mit Zoll belegt wurde, aber HDMI nicht, und damit die Monitore mit HDMI billiger bei uns verkauft werden konnten. Und ich sehe das jetzt wertneutral und nicht problematisch, wenn man einfach die "richtige" Anschlußtechnik dort verwendet, wo sie ursprünglich gedacht war und besser geeignet ist.
DP ist einfach besser und flexibler für den PC, und wenn keine Ansprüche bzgl. Gaming oder Farbeinstellungen für Grafikbearbeitung bestehen, ist HDMI auch ok.
Ich hatte mich rein auf diesen Satz bezogen. Zu dem meine Meinung ist: Schwachsinn.
Kein Spiel ist Adaptive-Sync oder irgendwas spezifisch.
Ja, wenn dein Monitor oder GPU nur Adaptive Sync kann, dann muss es DP sein.
Aber wenn der Monitor nur HDMI VRR könnte (und sich das mit der GPU überschneidet), dann müsste es eben HDMI sein.
Wenn Monitor und GPU beides können, wie hier, dann es ist egal und bezüglich Gaming und VRR gibt es keine Unterschiede.
Da könnte man höchstens Monitor-Tests lesen, ob die Latenz über eins davon für dieses eine Modell minimal geringer ist oder so.
Aber allgemein kann man hier nichts sagen.
Alles was übrig bleibt ist: im Allgemeinfall hat DP architekturelle Vorteile. Ja. Und die Vorteile von HDMI sind spezifische Features die zwischen PC und PC-Monitor Wertlos sind. Ja.
Aber da war ja genau der Punkt: bei diesem Monitor und bei dieser GPU ist das alles egal.
Und bloß weil eines allgemein besser und zukunftsicherer designt wurde und mehr auf PC angepasst ist, macht es das im spezifischen Fall nicht automatisch besser.
Ja klar, sobald man es nicht versteht oder falsch versteht, kann man immer eine solche abfällige und beleidigende Meinung haben. 🙄 Spiel keine Rolle, weil Deine Meinung falsch ist und hier keinen interessiert.
Fakt ist, sobald Gaming + PC, ist DP IMMER die bessere Wahl, ganz schnöde und einfach. Und im Endeffekt hast Du das doch schon selbst so bestätigt, siehe unten, also warum die vollkommen unnötige Rumeierei von Dir?
Ray519 schrieb:
Ich hatte mich rein auf diesen Satz bezogen. Zu dem meine Meinung ist: Schwachsinn.
Kein Spiel ist Adaptive-Sync oder irgendwas spezifisch.
Eben, und genau darum gehts doch hier, und nicht um Deine vollkommenen unnötigen Abweichungen und Schwadronierungen mit Widerlegung von Aussagen, die keiner so gesagt hat.
Ray519 schrieb:
Aber wenn der Monitor nur HDMI VRR könnte (und sich das mit der GPU überschneidet), dann müsste es eben HDMI sein.
Nope. Wenn Du mal genauer aufgepaßt hättest, wüßtest Du, daß DP wesentlich flexibler bei unterschiedlichen Auflösungen incl. Bildwiederholfrequenzen ist. HDMI ist bei VRR diesbezüglich unflexibler und starrer. Bei TVs hast Du nur Bildschirmauflösungen UHD 4K oder 8k mit 100/120 Hz. Bei Monitoren hast Du einen Wildwuchs an Auflösungen wie an Wiederholfrequenzen, und wir hatten hier schon diverse Anfragen, warum HDMI in genau diesen Bereichen nicht am Monitor funktionierten.
Ray519 schrieb:
Alles was übrig bleibt ist: im Allgemeinfall hat DP architekturelle Vorteile. Ja.
Eben nicht. VRR per HDMI ist eben nicht ganz gleich zu AS bei DP. Der Kollege soll einfach mal diverse andere Bildschirmauflösungen mit unterschiedlichen Bildwiederholraten + AS probieren, da wird er schnell sehen, daß HDMI hier an seine Grenzen kommt.
Dreh es doch einfach mal um! Wenn der TS gleich DP verwendet, wird er mit hoher Wahrscheinlichkeit weniger Ärger haben und diverse Probleme treten mit Sonderfällen, die dann doch vielleicht zufällig irgend wann mal auftauchen, erst nicht auf, er wird davon gar nichts merken. Bei HDMI wird er es sehr wohl in Sonderfällen sehr schnell merken, und wird dann hier wieder im Forum mit dieser Frage und vermeidlichen Problem aufschlagen, die mit DP so nicht aufgetreten wäre. Dann liegst Du mit Deiner Aussage "egal" eben vollkommen daneben.
Daher, Worse Case Szenario mit bedenken, und auch daran denken, daß nicht alle Fragenden da draußen so technikaffin wie Du oder ich sind, sondern immer gleich die bessere Technik empfehlen! Und erst dann die nicht dafür so gut geeignete Technik, wenn es nicht anders geht.
Ergänzung ()
cr4zym4th schrieb:
Es gibt aber Monitore, wie meiner, wo z.B. bei HDMI nicht die gleiche max. Hz-Frequenz unterstützt wird oder gewisse Modi einfach nicht funktionieren (z.B. Das Bild intern in 2 virtuelle Bildschirme aufteilen -> Geht nur mit DP/USB-C) und man so zu DP oder USB-C gezwungen ist
Weil ich versuche die Frage von TE zu beantworten und nicht an zu lügen um meine eigenen Ziele zu erreichen.
Allgemein, wenn du mir nichts über deine Hardware sagst, ja ist DP am PC die bessere Wahl.
Wenn ich die Hardware aber weiß und kontrollieren kann, das beides gleich gut geht, ist es eben im spezifischen Fall egal. Und das möchte ich auch so kommunizieren. Den ganzen Rest habe ich geschrieben um die die Stur und mit Falschinformationen "NUR DP, IMMER DP" schreiben zu entkräften.
nutrix schrieb:
Wenn Du mal genauer aufgepaßt hättest, wüßtest Du, daß DP wesentlich flexibler bei unterschiedlichen Auflösungen incl. Bildwiederholfrequenzen ist.
Ist es nicht. Nicht so wie es in der Praxis umgesetzt wird. Das wäre eine Falschinformation.
Vllt ist es bei diesem speziellen Monitor so, dass er eine Refreshrate auf DP kann, die er nicht auf HDMI anbietet oder umgekehrt. Aber was für eine Rolle spielt das wenn das Maximum des Monitors auf beiden zur Verfügung steht?
Siehe den Anfang dieses Posts. Ich versuche dir zuzustimmen, wo du Recht hast und aber auch klarzustellen, dass du eine Faustregel falsch auf eine konkrete Situation anwendest.
nutrix schrieb:
Der Kollege soll einfach mal diverse andere Bildschirmauflösungen mit unterschiedlichen Bildwiederholraten + AS probieren, da wird er schnell sehen, daß HDMI hier an seine Grenzen kommt.
Hast du mir nicht versucht über EDID zu erzählen? Wenn du weißt was da drin steht, woher sollten dann bitte diese Einschränkung kommen?
Sowohl bei Adaptive Sync und bei HDMI VRR steht die minimale VRR Hz Zahl in den EDID Daten. Wenn die gleich ist, gibt es keinen Unterschied. Aber das ganze wird vom Monitorhersteller vermutlich auch nur auf der nativen Auflösung gut getestet. Aber da will man ja auch normalerweise nichts anderes als native Auflösung haben und den Rest in der Anwendung oder auf der GPU machen.
nutrix schrieb:
Dann liegst Du mit Deiner Aussage "egal" eben vollkommen daneben.
Ich hatte direkt erwähnt, welche Punkte ich bei Zukunftssicherheit für relevant halte.
Alles andere wie dein Zitat von @cr4zym4th ist Monitor-spezifisch. Wenn du Pech hast, könnte es auch sein, dass der Monitor auf DP etwas schlechter oder anders macht als du willst. Und wenn wir die technischen Daten des Monitors sehen, dass er grundsätzlich beides kann, glaube ich nicht, dass es eine gute Statistik gibt, die sagt DP geht häufiger schief, außerhalb der Fälle die ich erwähnt hatte (wie zB zu schlechte Kabel).
Der Vorteil von HDMI's strunz-dummer Implementierung ist auch, dass sie simpler ist. Deshalb hatte Nvidia zB in der Vergangenheit auch so Bugs, dass neue DP Monitore beim Booten nicht erkannt wurden, aber bei HDMI gab es das Problem nicht.
Die "Probleme" die du findest sind also oft anderer Natur, aber nicht unbedingt mehr wenn man von Hardware redet die beides gut kann.
Ergänzung ()
Code:
Detailed Timing Descriptors:
DTD 1: 3840x1600 59.993961 Hz 12:5 99.350 kHz 397.400000 MHz (880 mm x 367 mm)
Hfront 48 Hsync 32 Hback 80 Hpol P
Vfront 3 Vsync 5 Vback 48 Vpol N
Display Product Serial Number: '###########'
Display Range Limits:
Monitor ranges (Range Limits Only): 1-144 Hz V, 246-246 kHz H, max dotclock 990 MHz
Display Product Name: 'Dell AW3821DW'
DP Adaptive Sync
Code:
Detailed Timing Descriptors:
DTD 1: 3840x1600 59.993961 Hz 12:5 99.350 kHz 397.400000 MHz (880 mm x 367 mm)
Hfront 48 Hsync 32 Hback 80 Hpol P
Vfront 3 Vsync 5 Vback 48 Vpol N
[...]
Vendor-Specific Data Block (HDMI Forum), OUI C4-5D-D8:
Version: 1
Maximum TMDS Character Rate: 600 MHz
SCDC Present
VRRmin: 2 Hz
VRRmax: 120 Hz
HDMI VRR
Hier kann man sehen, dass mein Monitor wegen der langsameren HDMI Schnittstelle dort die max. Hz limitiert. Aber min. Hz ist genauso gut (es sei denn du spielst häufig auf 1 Hz)?
Und mehr steht zu Adaptive Sync oder HDMI VRR gar nicht drin.
Wenn der Monitor von TE eine schnellere HDMI Schnittstelle hat als DP und DSC kann, gibt es diesen Grund hier nicht.
Solange ich nicht verpasst habe, dass haufenweise Monitore niedrigere Hz Raten über DP anbieten als HDMI ist da also nichts zu erwarten. Erst recht weil die unteren VRR Hz durch den Scaler limitiert werden und nicht durch die Schnittstelle.