Warum gilt Displayport als besser als HDMI

FidelZastro

Commander
Registriert
Okt. 2008
Beiträge
3.032
Hallo ihr,

man liest hier ja immer mal wieder "Monitore gehören mit Displayport angeschlossen", "HDMI ist Wohnzimmertechnik und hat am Arbeitsplatz nichts verloren" etc.

Ich habe ehrlich gesucht, aber keine nachvollziehbaren Begründungen für Aussagen in dieser Richtung gefunden. Klar, mein 4k-Monitor hängt am DP weil meine Grafikkarte kein HDMI2.0 kann, aber von solchen Ausnahmefällen mal abgesehen - kann mir jemand erklären, warum dieser Standpunkt so verbreitet ist?

Danke :)
 
nun vielleicht, weil man mit displayport und co nur video signale weitergibt. Bei HDMI ist der Sound ja auch dabei, wo man nochmal "bandbreite" verliert.

vielleicht liege ich auch falsch.
 
Im Moment entwickelt sich der Trend bei Grafikkarten Richtung Displayport. Immer mehr Grafikkarten haben nurnoch Displayport und vielleicht auch noch 1 - 2 DVI. Der Grund ist, dass Displayport einfach mehr kann als DVI und man bei mehr als 2 Bildschirmen verwenden muss.
Warum so gegen HDMI gewettert wird ist meiner Meinung nach eher eine Glaubensfrage, da HDMI ein Kostenpflichtiger Consumertechnik Standard ist und DP ein offener VESA Standard. Daher: HDMI böse, DP gut.

Letztlich ist es bei der Verwendung von unter 2 Bildschirmen egal ob man nun DVI, HDMI, DP nimmt. DP kann genau so Ton übertragen.


Letztlich ist HDMI ein am TV Markt orientierter Standard der das Bietet was die Industrie rund um Sony, Samsung usw. diktiert. Displayport wird zwar auch von denen gemacht aber bewegt sich viel offener Richtung maximale Frequenz, Auflösung usw. Displayport kann z.b. 4K schon viel länger als HDMI.

Displayport bietet gewisse Funktionen die HDMI nicht bietet. Siehe Daisy-Chaining.
 
Zuletzt bearbeitet:
kann mir jemand erklären, warum dieser Standpunkt so verbreitet ist?
Weil dieser einfach zutreffend ist. Schau Dir nur mal die möglichen Bandbreiten näher an & das sagt doch schon alles.
Bei gewöhnlichem 60Hz mit Auflösung_X ist das vielleicht nicht sooo wichtig, aber mit steigender Hz-Freq als auch Auflösung ist die Schnittstelle mMn überfordert.
Zugegeben ... mit HDMI 2.0 geht es langsam in die richtige Richtung ... :-)
 
Ich habe über diese Fragestellung noch nie etwas gehört. Meiner Meinung nach ist das völlig wurscht. Digital ist Digital.

Und ob ich jetzt das Soundsignal noch übertrage oder nicht ist auch egal. Bandbreite kann hier kein Ausschlussfaktor sein.
 
k0ntr schrieb:
nun vielleicht, weil man mit displayport und co nur video signale weitergibt. Bei HDMI ist der Sound ja auch dabei, wo man nochmal "bandbreite" verliert.

vielleicht liege ich auch falsch.

Quatsch, DisplayPort kann auch Sound.

Ich finde DisplayPort besser und nutzt es auch ausschließlich (außer im Wohnzimmer), da das für mich der richtige DVI-Nachfolger ist. Es bietet mir die Möglichkeit drei Displays mit nur einem Port anzusteuern. Dies kann man entweder über einen Hub bewerkstelligen, oder per Daisy-Chaining, wo die Monitore einfach in Reihe geschaltet werden.
 
also ich habe hier Rechner und Hifi Geräte mit DVI, HDMI und DP (in Normal, Mini, Micro(?) Ausführungen) und bisher konnte ich noch immer mit passiven Adaptern alles miteinander verbinden.
Es geht doch nur um das theoretische Maximum, solange man das nicht ausreizt, reicht halt auch immer der "niedrigere" Standard!
 
Displayport ist HDMI besonders in Sachen Bandbreite meist ein wenig voraus. Zudem ist der Standard offener.

Es kommt auf den Einsatzzweck an. Bei einfachen Aufgaben mit Auflösungen bis ca. Full HD ist es eigentlich egal ob DP oder HDMI, aber darüber wirds interessanter. Selbst HDMI 2.0 das man erst jetzt so langsam in Geräten findet hat nur 14,4 GBit/s während schon DP 1.2 mit 4 Lanes bei 17,28 GBit/s liegt. DP 1.3 wird das nochmal auf 25,92 GBit/s verbessern.
 
Neben den Argumenten, dass offene Standards zu bevorzugen sind, was ich auch unterstütze, gibt es noch einen kleinen anderen Grund: Overscan.
Habe schon oft genug hier von Problemen mit schwarzen Rändern gelesen, weil die Monitore als TVs behandelt werden und so ein Signal mit Overscan geschickt wird, hatte ich auch schon selbst den Mist.

Da ist DisplayPort tatsächlich komfortabler, es bietet nunmal meines Wissens keine Nachteile, außer dass im Wohnzimmerbereich es eben nicht verwendet wird.

Und die anderen Argumente mit Bandbreite wurden ja auch bereits genannt.
 
  • Gefällt mir
Reaktionen: DON.HEROUR
Das Hauptproblem bei HDMI ist doch, dass in vielen Konstellationen erstens Bildschirme als Fernseher oder sonstwas falsch erkannt werden und mit einem geringeren Farbraum sowie Underscan angesteuert werden und zweitens erst nach dem Booten des Betriebssystem ein Bild angezeigt wird.
 
  • Gefällt mir
Reaktionen: DON.HEROUR
Also mal angenommen, beide Standards erfüllen meine Anforderungen an die Bandbreite - ergibt sich da für einen von beiden ein anderer, für mich relevanter Vorteil?

edit: die letzten beiden Antworten habe ich erst nach dem posten gesehen.

Also während meiner jüngsten Monitorprobleme, wo ich über DP kein Bild bekommen habe, hab ich per HDMI sowohl über die dedizierte Grafikkarte als auch über die onboard schon im Bios ein Bild gesehen.

Das Thema Overscan klingt da schon deutlich interessanter, dass es dieses Relikt aus der Röhrentechnik überhaupt noch gibt, ist eigentlich eine Schande...
 
Zuletzt bearbeitet:
Es geht nicht um die Auflösung oder Ton, sondern um die richtige Farbdarstellung.

Per HDMI angeschlossene Monitore werden als TV angesprochen.
Es wird nur der Farbraum RGB 16 bis 235 dargestellt wie es beim TV üblich ist und eben nicht der Bereich von 0 bis 255.
Die untersten und die obersten Graustufen werden nicht dargestellt (0 = Schwarz und 255 = Weiß) und damit erhält man kein besonders gutes Bild ;-)
 
  • Gefällt mir
Reaktionen: DON.HEROUR und Oli_P
so ist es, zig Antworten und der Einzige der es korrekt weiß is Tuetensuppe. Es geht schlichtweg um den genannten Farbraum, daher wenn die Auswahl zwischen DVI,DP & HDMI vorhanden ist was einen PC-Bildschirm angeht -> alles nur kein HDMI. Und wer jetzt behauptet, der "kleine" fehlende Farbraum wäre zu vernachlässigen der geht bitte zum Augenarzt. Ihr glaubt gar nicht, was man selbst aus günstigen Displays raus holen kann wenn man sie statt HDMI mit DVI/DP anschließt und das Bild manuell anpasst. Tag & Nacht im Vergleich zu HDMI, daher find ichs auch fragwürdig, dass manche günstige Monitore nur mit VGA und HDMI Anschlüssen ausgestattet werden
 
Danke an Tuetensuppe und Janz, die das Ganze genauer beleuchtet haben! Das ist ja ein riesiger Nachteil! o_O

Kann man diese Problematik irgendwie umgehen wenn man HDMI nutzt? Beim Fernseher hat man ja meistens gar keine andere Möglichkeit als HDMI zu nutzen. Oder auch am Laptop, da habe ich jahrelang HDMI genutzt für einen 2. großen Bildschirm.

Wisst ihr vllt. wieso Fernseher nur mit dem eingschränkten Farbraum angesprochen werden? Wäre das Fernseherbild nicht mit vollem Farbraum auch besser?
 
Zuletzt bearbeitet:
Na, ich mache da keine Glaubensfrage. Ich nutze den DP für meinen Eizo Monitor zur Bildbearbeitung und am HDMI Anschluss meiner Grafikkarte ist mein TV über den Heimkino Receiver angeschlossen. Eine super Kombination die hervorragend funktioniert bei mir. Spielen am großen TV, Arbeiten am Monitor. Das geht aber auch nur so gut weil mein PC in Reichweite meines TV's steht ;)

Super an HDMI ist ja auch, das der digitale Ton des Spiels über nur ein Kabel mit dem Bildsignal übertragen wird, so kann ich BF und CoD & Co in klasse Sourround Ton genießen, viel besser als das Stereo über meine Soundkarte.
 
Sturmflut92 schrieb:
Wisst ihr vllt. wieso Fernseher nur mit dem eingschränkten Farbraum angesprochen werden? Wäre das Fernseherbild nicht mit vollem Farbraum auch besser?
Es hängt vom Fernseher und dessen Bildverarbeitung ab.
Das Beschriebene ist ja auch ein Fehler (also Bug) und keine feste Eigenschaft von HDMI. Vor allem bei Nvidia ist es der Fall. Bei AMD keine Ahnung (da ist eher Over-/Underscan das Problem) und Intel ist davon m.E. nicht betroffen. Ob es jetzt einfach an fehlerhafter Hardware oder Treiber seitens Rechner oder fehlerhaften Daten, mit denen sich der Bildschirm anmeldet, liegt, weiß ich nicht.
 
afaik wird gerade bei AMD Karten jedes Display per HDMI als TV angesteuert was zu der Overscanproblematik führt (nicht steinigen falls das nicht mehr aktuell ist). Und dann es hängt vom Monitor ab, ob der den erweiterten Farbraum per HDMI benutzen kann. Daran ist nicht die Grafikkarte schuld, standardmäßig wird glaub ich 16-235 benutzt und erweitert ist 0-255.

Beim TV ist diese Geschichte zu vernachlässigen weil die Blurays glaub ich sowieso nicht den erweiterten Farbraum enthalten, oder zumindest war das vor einiger Zeit so. Stichwort Videonorm und erweiterte PC-Norm. Hab mich ehrlich gesagt schon länger nicht mehr damit beschäftigt. Videonorm entspricht halt den 16-235
 
Zuletzt bearbeitet:
DP kostet keine Lizenzen ( bei HDMI sind das teilweise mehrere Euro je Port! )
HDMI ist ein rießen gremium und deshalb entsprechend langsam ( sah man jetzt ja bei HDMI 2.0 )
HDMI ist nur für den klassischen PC Betrieb ausgelegt DP ist da weit flexibler und man kann zB sogar USB und Strom drüber laufen lassen und zugleich Video übertragen ( siehe AMD Dockport )
 
Der Farbraum betrifft wohl fast nur (oder komplett nur) tatsächlich Nvidia. Es ist mittlerweile aber ein Umschalter im Treiber eingebaut. Das wusste ich z.B. nicht:

http://heise.de/-1172719
 
Nicht zu vergessen, bietet DP als einziger eine Arretierfunktion des Steckers. Lockere HDMI steckverbindungen hatte ich auch schon.
 
Zurück
Oben