HDMI auf DVI

Nickel schrieb:
Das können alle Karten, so ab 2006/2007, Ati/AMD und Nvidia haben da bei DVI ein Spur hinzugefügt
für DVI auf HDMI, für Audio.
Ich habe keine Ahnung ab wann die Karten nativ HDMI konnten. Sowas weiß ich nicht auswendig. Ich habe nur darauf hingewiesen, dass deine Aussage eine Lücke hat. Und zwar dass das kein DVI Feature ist. Und damit nur geht, wenn was auch immer hinter dem Port steckt, schon HDMI fähig war. Anders gibt es da kein Audio zu holen oder zu empfangen.

Wenn eine GPU auch einen HDMI Ausgang hat, ist das ein super gutes Indiz, dass die GPU HDMI Versteht. Natürlich nicht notwendig. Und garantiert auch nicht das Audio aus DVI Ports geht. Macht es nur sehr wahrscheinlich. Gab davor auch eine Nvidia Generation die ab Werk mit DVI HDMI Adapter kamen. Genau weil sie intern schon HDMI verstanden aber zur Kompatibilität noch bei Dual Link DVI bleiben wollten.
Aber davor hatten GPUs keine Audio-Fähigkeiten, weil es keinen Port dafür gab. Es brauchte schon die zusätzlichen Hardwarefähigkeiten (die genau für HDMI eingebaut wurden), damit da Audio rauskommen kann.

Und der Grund warum es bei manchen nicht geht, ist der gleiche Grund wie warum es bei Monitoren mit DVI Eingang typischerweise nicht geht: der Port spricht nicht das HDMI Protokoll, also kein Audio.
 
Na gut, dann hatte mein Beitrag auf den du dich bezogst so gesehen Lücken, stimmt dann auch.

Hab auch jetzt was dazu gefunden und verlinke das noch.
Der redet zwar wiedrum von eingigen Computern die es konnten,
aber ich kann dir sagen, es können "alle" AMD/Nvidia Karten so ab dieser
Zeit, das habe ich auch selbst schon oft genug in Erfahrung bringen können in vielen Jahren.

"DVI Audio: Überträgt DVI Ton?"
 
Ich bestreite auch gar nicht, dass die große Mehrheit der jetzt noch in Verwendung befindlichen GPUs mit DVI Ausgängen alle HDMI können werden.

Aber die GPU muss nunmal auch ein Audiogerät sein um überhaupt Audiodaten zur Verfügung zu haben. Und wenn TE seine GPU beschreibt als nur VGA und DVI, dann könnte die tatsächlich in die Lücke fallen wo es noch nicht ging. Wenn natürlich rauskommt dass es eine iGPU oder GPU ist, deren Chip und Generation auch mit HDMI Ports herauskam, dann ist natürlich bestätigt das die das kann.


In diesem speziellen Fall, haben wir aber den Ausraster mit dem Bild. Das ist auch noch ein Anzeichen das die GPU/Treiber kein HDMI versteht.

DVI Single Link geht ja nur bis 165 MHz Pixel Clock. DVI regelt implizit wann Dual Link genutzt werden soll. Also wann auch immer die Pixel Clock vom Bildsignal oberhalb von 165 MHz liegt wird auf Dual Link mit halben Frequenzen umgestellt. In den EDID Daten steht nichts dazu ob der Monitor Dual Link oder so kann.

Das heißt, eine GPU die HDMI versteht, kann aus Indizien in den EDID Daten lesen, dass es sich um einen HDMI Monitor handelt und daraus schließen, dass Dual Link nicht unterstützt wird und dann entsprechend entweder den Link auf max. 165 MHz limitieren oder tatsächlich ganz crazy in einen Fake-HDMI Modus schalten wo dann ganz außerhalb des DVI Standards auch zB 300 MHz Pixel Clock nach HDMI 1.4 geht für WQHD@60 zB.

Das die GPU das nicht macht, und dass das Bild passen könnte zu "jeder zweite Pixel fehlt, weil die wären auf dem anderen, nicht verbunden Link", klingt danach als ob die GPU nicht weiß was HDMI ist, alle Angaben zu HDMI in den EDID Daten ignoriert (weil die sind für zusätzliche Dinge wie Audio-Fähigkeiten oder HDMI Limits) und dann schlicht, wie ihr beigebracht Dual Link aktiviert, wo nur die Hälfte vom Bild beim Display ankommt.
 
Zuletzt bearbeitet:
Soll er doch die steinalten GPUs für die es höchsten Windows XP Treiber gibt einfach mal nennen.
HDMI basiert übrigens auf DVI und ist zu 100% abwärtkompatibel zu DVI, das Signal fürs Bild ist völlig gleich
und da hat die "Spur" für Audio, die man DVI zugefügt hatte für DVI → HDMI Kabel nichts damit am Hut.
Nur treibermäßig gibt's für HDMI dann unterschiede die man wählen kann, Full RGB, limit RGB, ....
 
Nickel schrieb:
HDMI basiert übrigens auf DVI und ist zu 100% abwärtkompatibel zu DVI,

Mehr: Elektrisch funktionieren der Main Link (und DDC) in Single Link DVI und HDMI bis 165 MHz gleich. Die Protokollseite ist schon anders (zB Audio, EDID, andere Features), aber überlappt sich noch. Absichtlich.
100% Abwärtskompatibel, nein. Denn DVI-A, Dual Link zB werden nicht unterstützt, obwohl das von Anfang an Kernbestandteile von DVI waren.

Aber da die Grundfesten elektrisch gleich sind, kannst du einfach "HDMI Protokoll", mit fast allen seinen Features durch einen DVI Stecker jagen. Die Pins dafür sind alle da (ich habe nicht auf ARC gecheckt, mag sein, dass das fehlt).

Du kannst ja zB auch eine GPU mit HDMI TMDS 18G nehmen, einen HDMI-DVI Adapter nehmen, zurück auf HDMI gehen mit noch einem Adapter und dann mit einem normalen HDMI Kabel bis zum Display. Sehr wahrscheinlich gehen da drüber volle 4K60. Und weder Quelle noch Ziel wissen es, weil es denen egal ist, solange die Leitungen alle verbunden sind, und die notwendige Signalqualität haben.
Ein DVI Kabel zu nehmen um 2 HDMI Ports zu verbinden wird kritischer. Ich würde erwarten das längere Kabel die Signalqualität hier deutlich früher limitieren als die alten Stecker. Beides war ja nur auf 165Mhz ausgelegt. Wo wir mit HDMI 1.4 schon 340 MHz erreicht haben.

Genauso wie wir für WQHD Bild Vesa Standards nehmen für die Videotimings, weil HDMI diese Auflösung nicht kennt, konnte man auch HDMI Video Timings mit DVI sprechen. Weil das ist ein paar Ebenen oberhalb der elektrischen Umsetzung (FHD60 nach HDMI Standard hat ganz andere Timings als FHD60 nach CVT.).

Nickel schrieb:
Nur treibermäßig gibt's für HDMI dann unterschiede die man wählen kann
Das ganze hat wie so vieles, viele Ebenen wie das OSI Layer Modell. Der Treiber kommt da erst ganz oben. Features wie Farbraumkonvertierungen, Chromasubsampling etc. müssen dann doch eher in Hardware schon unterstützt sein. Genauso wie dass du andere Daten (Audio zB) innerhalb der Blanktimes überträgst, anstatt einfach nur nichts. Das ist nichts was typischerweise alleine mit Software nachgerüstet werden kann. Das ganze läuft in Echtzeit auf damals bis zu 165 MHz, heute für 4K60 mit HDMI schon auf bis zu 600MHz pro Pixel. Das ist prädestiniert für eine Hardwareumsetzung. Und der Treiber geht die Hardware höchstens konfigurieren nach den Daten die der Bildschirm angibt, den Fähigkeiten der Hardware und Nutzereinstellungen.
 
Zurück
Oben