HDMI 2.1 oder DisplayPort 1.4

alonsie

Lieutenant
Registriert
Sep. 2021
Beiträge
608
nehm HDMI da du damit die Auflösung + Bildwiederholrate auch ohne Komprimierung (DSC) erreichen kannst.
 
  • Gefällt mir
Reaktionen: alonsie
DPort kann kein eARC
D.h. wenn du keine Audioübertragung brauchst immer das DP bevorzugen. Für TV immer HDMI und für den Monitor Displayport.
 
  • Gefällt mir
Reaktionen: nutrix, Aduasen und bart0rn
Dein Monitor hat:
  • 1 DisplayPort 1.4 (HDCP 1.4 & 2.3) port (Supports up to 3440 x 1440, 240 Hz, DSC, HDR)
  • 2 HDMI ports (HDCP 1.4 & 2.3) (Supports up to 3440 x 1440, 240 Hz, FRL, HDR, VRR as per specified in HDMI 2.1)

Gemäss den Daten dürfte HDMI besser sein. Aber ja, so wie es aklaa beschrieben hat, habe ich es auch immer verstanden, sofern beides verfügbar war/ist.

Es gibt aber Monitore, wie meiner, wo z.B. bei HDMI nicht die gleiche max. Hz-Frequenz unterstützt wird oder gewisse Modi einfach nicht funktionieren (z.B. Das Bild intern in 2 virtuelle Bildschirme aufteilen -> Geht nur mit DP/USB-C) und man so zu DP oder USB-C gezwungen ist
 
  • Gefällt mir
Reaktionen: alonsie
Bei Monitor würde ich sagen, ganz klar DP.
 
  • Gefällt mir
Reaktionen: up.whatever, nutrix, Aduasen und 2 andere
@Sinatra81 Und aus welchem Grund? Wenn HDMI die höhere Bandbreite hat und VRR etc. auch kann?
Würde gerne Vor- bzw. Nachteile wissen.
 
Ich habe gelesen, das es noch Probleme bei Gsync und freesync geben kann. Waren allerdings ältere Beiträge.

Such mal in die Richtung.

alonsie schrieb:
Dsc regelt. ✌️

Ansonsten hat der Monitor evtl beide Kabel an Board. Probieren.
 
  • Gefällt mir
Reaktionen: Aduasen
240Hz@3440x1440 sind ca. 38Gbit/Sek. DP 1.4 kann ohne Kompression aber nur 32Gbit.

HDMI 2.1 hat 2 Modis:
  • 24Gbit mit alten Kabel (HDMI Premium High Speed Zertifizierung)
  • 48Gbit mit neuen, teuren Kabeln (HDMI Ultra High Speed Zertifizierung)
Wenn der 24Gbit Modus aktiv ist wird 240Hz selbst mit DSC (Kompression) nicht funktionieren.
Selbst 165Hz geht dann nur mit Kompression (bei DP gehen 200Hz ohne Kompression).


Meine Empfehlung:
Nimm DP und stell auf 200Hz oder niedriger. Dann hast du die Beste Bildqualität unddie 40Hz weniger wirst du kaum merken. Wichtig: Kontrolle der Datenrate. Bei AMD ist das im Treiber unter Anzeige möglich. Sollte bei Nvidia und Intel ähnlich sein.

Dort siehst du was der Monitor gerade kann. Da sollte HBR3 (8,1Gbit pro Lane) angezeigt werden.

Wenn das Kabel kein HBR3 kann sind die Datenrate geringer (2,7Gbit/5,4GBit) zu sehen. Dann Kabel tauschen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cr4zym4th
Für den direkten Anschluss eines Monitors wie diesem ist es nahezu egal. Der Monitor kann das gleiche via beiden Eingängen und du wirst keinen Unterschied wahrnehmen.
Die allgemeine Empfehlung wäre hier: nimm für was du passende Kabel hast, günstigere bekommt, oder hinterher die höhere Wiederverwendbarkeit hast.

Oder nimm, so dass du dir rare Ports nicht blockierst. Wenn deine GPU zB nur einen HDMI Ausgang hat, würde ich den für einen Fernseher, der nichts anderes bietet als HDMI aufheben.

Genauso falls irgendwann ein Dock etc. eingesetzt wird, muss sich mit DP nichts ändern, mit HDMI schon.


Ja, technisch gesehen hat HDMI von dem Monitor mit deiner GPU höhere Bandbreite, das ist aber absolut Wumpe, weil du den Unterschied nicht sehen kannst.

DP dagegen hat bidirektionale Kommunikation. Die GPU merkt also wenn der Monitor ausfällt / die Verbindung instabil ist und kann die Geschwindigkeit reduzieren, um es trotzdem stabil hinzubekommen. Auch mit schlechten Kabeln. HDMI ist blind im Vergleich dazu. Die GPU hat keine Ahnung ob überhaupt Bild rauskommt und kann somit rein gar nichts gegen Ausfälle tun.

Solange man nicht eine wahnsinnig instabile Verbindung hat und das absichtlich behalten will, ist also DP die "robustere" Wahl by Default.

Aber das ist alles hinfällig, wenn du halt bessere HDMI Kabel als DP Kabel hast etc. und die HDMI Verbindung auf deiner Strecke einfach dank der Kabel schon stabiler ist.
=> Egal, was du zur Hand hast / für die Zukunft lieber haben willst.
Wenn Docks oder Adapter -> immer DP, weil dazu ist HDMI einfach nicht gebaut.
 
  • Gefällt mir
Reaktionen: species_0001
Ich würde das Kabel (DP oder HDMI) nehmen was ich zuerst in der Hand halte bzw in der Kiste dazu finde.
 
  • Gefällt mir
Reaktionen: Nero FX
Sinatra81 schrieb:
Ansonsten hat der Monitor evtl beide Kabel an Board. Probieren.

Gute Monitore haben beide Kabel an Bord.
 
  • Gefällt mir
Reaktionen: Sinatra81 und nutrix
  • Gefällt mir
Reaktionen: species_0001
definitiv hdmi 2.1
 
aklaa schrieb:
Für TV immer HDMI und für den Monitor Displayport.
This. 👍
Ergänzung ()

Ray519 schrieb:
DP dagegen hat bidirektionale Kommunikation. Die GPU merkt also wenn der Monitor ausfällt / die Verbindung instabil ist und kann die Geschwindigkeit reduzieren, um es trotzdem stabil hinzubekommen. Auch mit schlechten Kabeln. HDMI ist blind im Vergleich dazu. Die GPU hat keine Ahnung ob überhaupt Bild rauskommt und kann somit rein gar nichts gegen Ausfälle tun.
Ich sag nur mal als Stichwort DisplayID (Nachfolger von E-EDID, EDID) oder DDC in unterschiedlichen Varianten.
Sobald Gaming mit VSync, Adaptive Sync in Varianten FreeSync und G-Sync im Spiel ist, ist DP immer die bessere und flexiblere Wahl.
 
  • Gefällt mir
Reaktionen: Nero FX, bart0rn, Sinatra81 und 2 andere
Simonte schrieb:
Er hat einen PC also VRR irrelevant
??
Nvidia hat seit RTX 30 HDMI VRR. Ganz nach Standard. Genauso wie sie Adaptive Sync haben seit GTX 1000.
nutrix schrieb:
Ich sag nur mal als Stichwort DisplayID (Nachfolger von E-EDID, EDID) oder DDC in unterschiedlichen Varianten.
Was hat das damit zu tun?

Das DP die Verbindungsqualität ausmisst, um sich für eine Geschwindigkeit zu entscheiden und sogar schlechte Leitungspaare auslassen kann, ist teil des DP Standards. Genau wie das regelmäßig Fehlerraten vom Monitor abgefragt werden. Ein Äquivalent dazu gibt es bei HDMI nicht. Deshalb hat HDMI auch die ganzen Details zu den unterstzützten Geschwindigkeiten und DSC Optionen in die EDID Daten gepresst. Bei DP wird das viel flexibler und mit dem Monitor ausgehandelt. Deshalb steht das da auch nicht drin.
nutrix schrieb:
Sobald Gaming mit VSync, Adaptive Sync in Varianten FreeSync und G-Sync im Spiel ist, ist DP immer die bessere und flexiblere Wahl.
Adaptive Sync ist ein Vesa Standard, teil von DP. Das ist also rein von der Definition her scho so.

Aber HDMI VRR steht dem in nichts nach, solange denn der offizielle HDMI Standard ("HDMI VRR") Unterstützt wird.

FreeSync und G-Sync sind beides proprietäre Marketingbegriffe die die Technik verschleiern und deshalb so wertlos sind.

Wenn du einen guten Monitor hast, wie einen aktuellen G-Sync Ultimate Monitor kann der sowohl über HDMI als auch über DP jeweils mit dem passenden, offenen Standard 1-max. Hz auf die gleiche Weise.

Gibt viele Gründe HDMI scheiße zu finden. Aber hier nicht. Und VSync ist GPU Sache und hat mit dem Monitor gar nichts zu tun.
 
Ray519 schrieb:
Gibt viele Gründe HDMI scheiße zu finden. Aber hier nicht.
Das sagt hier doch keiner und das ist doch auch nicht das Thema. Es ist nun mal so, daß HDMI schon immer für Consumerelektronik (geplant) war. HDMI ist dann beim PC so reingerutscht, weil die Beamer nur HDMI konnten, und irgendwann den 2000ern die DP-Monitore mit Zoll belegt wurde, aber HDMI nicht, und damit die Monitore mit HDMI billiger bei uns verkauft werden konnten. Und ich sehe das jetzt wertneutral und nicht problematisch, wenn man einfach die "richtige" Anschlußtechnik dort verwendet, wo sie ursprünglich gedacht war und besser geeignet ist.

DP ist einfach besser und flexibler für den PC, und wenn keine Ansprüche bzgl. Gaming oder Farbeinstellungen für Grafikbearbeitung bestehen, ist HDMI auch ok.
 
Zuletzt bearbeitet:
nutrix schrieb:
Sobald Gaming mit VSync, Adaptive Sync in Varianten FreeSync und G-Sync im Spiel ist, ist DP immer die bessere und flexiblere Wahl.
Ich hatte mich rein auf diesen Satz bezogen. Zu dem meine Meinung ist: Schwachsinn.
Kein Spiel ist Adaptive-Sync oder irgendwas spezifisch.
Ja, wenn dein Monitor oder GPU nur Adaptive Sync kann, dann muss es DP sein.
Aber wenn der Monitor nur HDMI VRR könnte (und sich das mit der GPU überschneidet), dann müsste es eben HDMI sein.

Wenn Monitor und GPU beides können, wie hier, dann es ist egal und bezüglich Gaming und VRR gibt es keine Unterschiede.

Da könnte man höchstens Monitor-Tests lesen, ob die Latenz über eins davon für dieses eine Modell minimal geringer ist oder so.
Aber allgemein kann man hier nichts sagen.

Alles was übrig bleibt ist: im Allgemeinfall hat DP architekturelle Vorteile. Ja. Und die Vorteile von HDMI sind spezifische Features die zwischen PC und PC-Monitor Wertlos sind. Ja.

Aber da war ja genau der Punkt: bei diesem Monitor und bei dieser GPU ist das alles egal.
Und bloß weil eines allgemein besser und zukunftsicherer designt wurde und mehr auf PC angepasst ist, macht es das im spezifischen Fall nicht automatisch besser.
 
  • Gefällt mir
Reaktionen: H6-Mobs und Simonte
Ray519 schrieb:
Ich hatte mich rein auf diesen Satz bezogen. Zu dem meine Meinung ist: Schwachsinn.
Ja klar, sobald man es nicht versteht oder falsch versteht, kann man immer eine solche abfällige und beleidigende Meinung haben. 🙄 Spiel keine Rolle, weil Deine Meinung falsch ist und hier keinen interessiert.

Fakt ist, sobald Gaming + PC, ist DP IMMER die bessere Wahl, ganz schnöde und einfach. Und im Endeffekt hast Du das doch schon selbst so bestätigt, siehe unten, also warum die vollkommen unnötige Rumeierei von Dir?
Ray519 schrieb:
Ich hatte mich rein auf diesen Satz bezogen. Zu dem meine Meinung ist: Schwachsinn.
Kein Spiel ist Adaptive-Sync oder irgendwas spezifisch.
Ich setzte eigentlich darauf, daß diverse Leute hier wissen, daß mit Gaming nicht das Spiel selbst gemeint ist, sondern die Tätigkeit Gaming am PC. 🙄
Ray519 schrieb:
Ja, wenn dein Monitor oder GPU nur Adaptive Sync kann, dann muss es DP sein.
Eben, und genau darum gehts doch hier, und nicht um Deine vollkommenen unnötigen Abweichungen und Schwadronierungen mit Widerlegung von Aussagen, die keiner so gesagt hat.
Ray519 schrieb:
Aber wenn der Monitor nur HDMI VRR könnte (und sich das mit der GPU überschneidet), dann müsste es eben HDMI sein.
Dann ist es eben kein Monitor, sondern eigentlich ein TV.
Ray519 schrieb:
Wenn Monitor und GPU beides können, wie hier, dann es ist egal und bezüglich Gaming und VRR gibt es keine Unterschiede.
Nope. Wenn Du mal genauer aufgepaßt hättest, wüßtest Du, daß DP wesentlich flexibler bei unterschiedlichen Auflösungen incl. Bildwiederholfrequenzen ist. HDMI ist bei VRR diesbezüglich unflexibler und starrer. Bei TVs hast Du nur Bildschirmauflösungen UHD 4K oder 8k mit 100/120 Hz. Bei Monitoren hast Du einen Wildwuchs an Auflösungen wie an Wiederholfrequenzen, und wir hatten hier schon diverse Anfragen, warum HDMI in genau diesen Bereichen nicht am Monitor funktionierten.
Ray519 schrieb:
Alles was übrig bleibt ist: im Allgemeinfall hat DP architekturelle Vorteile. Ja.
Ach doch jetzt wieder? Kannst Du Dich bitte mal endlich entscheiden? Viele reden ohne überhaupt was zu sagen oder wie?
Ray519 schrieb:
Und die Vorteile von HDMI sind spezifische Features die zwischen PC und PC-Monitor Wertlos sind. Ja.
Richtig, und mehr sage ich doch die ganze Zeit gar nicht.
Ray519 schrieb:
Aber da war ja genau der Punkt: bei diesem Monitor und bei dieser GPU ist das alles egal.
Eben nicht. VRR per HDMI ist eben nicht ganz gleich zu AS bei DP. Der Kollege soll einfach mal diverse andere Bildschirmauflösungen mit unterschiedlichen Bildwiederholraten + AS probieren, da wird er schnell sehen, daß HDMI hier an seine Grenzen kommt.

Dreh es doch einfach mal um! Wenn der TS gleich DP verwendet, wird er mit hoher Wahrscheinlichkeit weniger Ärger haben und diverse Probleme treten mit Sonderfällen, die dann doch vielleicht zufällig irgend wann mal auftauchen, erst nicht auf, er wird davon gar nichts merken. Bei HDMI wird er es sehr wohl in Sonderfällen sehr schnell merken, und wird dann hier wieder im Forum mit dieser Frage und vermeidlichen Problem aufschlagen, die mit DP so nicht aufgetreten wäre. Dann liegst Du mit Deiner Aussage "egal" eben vollkommen daneben.

Daher, Worse Case Szenario mit bedenken, und auch daran denken, daß nicht alle Fragenden da draußen so technikaffin wie Du oder ich sind, sondern immer gleich die bessere Technik empfehlen! Und erst dann die nicht dafür so gut geeignete Technik, wenn es nicht anders geht.
Ergänzung ()

cr4zym4th schrieb:
Es gibt aber Monitore, wie meiner, wo z.B. bei HDMI nicht die gleiche max. Hz-Frequenz unterstützt wird oder gewisse Modi einfach nicht funktionieren (z.B. Das Bild intern in 2 virtuelle Bildschirme aufteilen -> Geht nur mit DP/USB-C) und man so zu DP oder USB-C gezwungen ist
Genau darum gehts, und daher besser immer DP am PC mit Monitor wählen. Q.E.D.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sinatra81
nutrix schrieb:
Und im Endeffekt hast Du das doch schon selbst so bestätigt, siehe unten, also warum die vollkommen unnötige Rumeierei von Dir?
Weil ich versuche die Frage von TE zu beantworten und nicht an zu lügen um meine eigenen Ziele zu erreichen.
Allgemein, wenn du mir nichts über deine Hardware sagst, ja ist DP am PC die bessere Wahl.

Wenn ich die Hardware aber weiß und kontrollieren kann, das beides gleich gut geht, ist es eben im spezifischen Fall egal. Und das möchte ich auch so kommunizieren. Den ganzen Rest habe ich geschrieben um die die Stur und mit Falschinformationen "NUR DP, IMMER DP" schreiben zu entkräften.

nutrix schrieb:
Wenn Du mal genauer aufgepaßt hättest, wüßtest Du, daß DP wesentlich flexibler bei unterschiedlichen Auflösungen incl. Bildwiederholfrequenzen ist.
Ist es nicht. Nicht so wie es in der Praxis umgesetzt wird. Das wäre eine Falschinformation.

Vllt ist es bei diesem speziellen Monitor so, dass er eine Refreshrate auf DP kann, die er nicht auf HDMI anbietet oder umgekehrt. Aber was für eine Rolle spielt das wenn das Maximum des Monitors auf beiden zur Verfügung steht?
nutrix schrieb:
Ach doch jetzt wieder?
Siehe den Anfang dieses Posts. Ich versuche dir zuzustimmen, wo du Recht hast und aber auch klarzustellen, dass du eine Faustregel falsch auf eine konkrete Situation anwendest.
nutrix schrieb:
Der Kollege soll einfach mal diverse andere Bildschirmauflösungen mit unterschiedlichen Bildwiederholraten + AS probieren, da wird er schnell sehen, daß HDMI hier an seine Grenzen kommt.
Hast du mir nicht versucht über EDID zu erzählen? Wenn du weißt was da drin steht, woher sollten dann bitte diese Einschränkung kommen?
Sowohl bei Adaptive Sync und bei HDMI VRR steht die minimale VRR Hz Zahl in den EDID Daten. Wenn die gleich ist, gibt es keinen Unterschied. Aber das ganze wird vom Monitorhersteller vermutlich auch nur auf der nativen Auflösung gut getestet. Aber da will man ja auch normalerweise nichts anderes als native Auflösung haben und den Rest in der Anwendung oder auf der GPU machen.
nutrix schrieb:
Dann liegst Du mit Deiner Aussage "egal" eben vollkommen daneben.
Ich hatte direkt erwähnt, welche Punkte ich bei Zukunftssicherheit für relevant halte.

Alles andere wie dein Zitat von @cr4zym4th ist Monitor-spezifisch. Wenn du Pech hast, könnte es auch sein, dass der Monitor auf DP etwas schlechter oder anders macht als du willst. Und wenn wir die technischen Daten des Monitors sehen, dass er grundsätzlich beides kann, glaube ich nicht, dass es eine gute Statistik gibt, die sagt DP geht häufiger schief, außerhalb der Fälle die ich erwähnt hatte (wie zB zu schlechte Kabel).

Der Vorteil von HDMI's strunz-dummer Implementierung ist auch, dass sie simpler ist. Deshalb hatte Nvidia zB in der Vergangenheit auch so Bugs, dass neue DP Monitore beim Booten nicht erkannt wurden, aber bei HDMI gab es das Problem nicht.
Die "Probleme" die du findest sind also oft anderer Natur, aber nicht unbedingt mehr wenn man von Hardware redet die beides gut kann.
Ergänzung ()

Code:
  Detailed Timing Descriptors:
    DTD 1:  3840x1600   59.993961 Hz  12:5     99.350 kHz    397.400000 MHz (880 mm x 367 mm)
                 Hfront   48 Hsync  32 Hback   80 Hpol P
                 Vfront    3 Vsync   5 Vback   48 Vpol N
    Display Product Serial Number: '###########'
    Display Range Limits:
      Monitor ranges (Range Limits Only): 1-144 Hz V, 246-246 kHz H, max dotclock 990 MHz
    Display Product Name: 'Dell AW3821DW'
DP Adaptive Sync

Code:
   Detailed Timing Descriptors:
    DTD 1:  3840x1600   59.993961 Hz  12:5     99.350 kHz    397.400000 MHz (880 mm x 367 mm)
                 Hfront   48 Hsync  32 Hback   80 Hpol P
                 Vfront    3 Vsync   5 Vback   48 Vpol N
[...]
   Vendor-Specific Data Block (HDMI Forum), OUI C4-5D-D8:
    Version: 1
    Maximum TMDS Character Rate: 600 MHz
    SCDC Present
    VRRmin: 2 Hz
    VRRmax: 120 Hz
HDMI VRR

Hier kann man sehen, dass mein Monitor wegen der langsameren HDMI Schnittstelle dort die max. Hz limitiert. Aber min. Hz ist genauso gut (es sei denn du spielst häufig auf 1 Hz)?

Und mehr steht zu Adaptive Sync oder HDMI VRR gar nicht drin.

Wenn der Monitor von TE eine schnellere HDMI Schnittstelle hat als DP und DSC kann, gibt es diesen Grund hier nicht.

Solange ich nicht verpasst habe, dass haufenweise Monitore niedrigere Hz Raten über DP anbieten als HDMI ist da also nichts zu erwarten. Erst recht weil die unteren VRR Hz durch den Scaler limitiert werden und nicht durch die Schnittstelle.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cr4zym4th
Zurück
Oben