DVI-I/-D, VGA, HDCP und HDMI - was verlegen?

Fra993r

Lt. Commander
Registriert
Okt. 2010
Beiträge
1.486
Hallo Zusammen,

im Partykeller/-raum im ersten Stock wird demnächst ein Beamer eingebaut.
Das Gerät besitzt einen DVI-I Anschluss. DVI überträgt, soweit ich das verstanden habe, ein digitales Signal. Doch bei diesen ganzen Kennungen mit DVI-D, DVI-I usw. komme ich etwas durcheinander.

Der Beamer soll fest installiert (an Wand oder Decke) und mit einem Kabel sowohl an einem PC als auch an einem Laptop angeschlossen werden können. Hierfür sind rund 10 Meter (evtl. reichen auch 5 Meter, aber die 10 sind sicherer) Kabel notwendig.

Da die DVI-I Schnittstelle laut Test auch das beste Bildsignal liefert, soll auch ein solches verwendet werden.

Doch jetzt besitzt z.B. der Laptop einen VGA- und einen HDMI-Ausgang, der Rechner einen DVI- (hier passt wohl sowohl DVI-I als auch DVI-D) und einen VGA-Ausgang.

Jetzt frage ich mich, wie ich das am besten realisiere. Am besten (und vermutlich am billigsten) wäre natürlich ein DVI-Kabel zu verlegen, welches dann entweder in den PC, oder eben per Adapter in den Laptop gesteckt wird. Aber z.B. mit welchem Adapter? Erleide ich einen Qualitätsverlust, wenn ich einen VGA-Adapter verwende? Funktioniert es Problemlos mit einem HDMI-Adapter? Was wird der unterschied sein?

Ich frage gerade deshalb, weil generell HDMI auf VGA ohne aktiven Adapter nicht möglich ist. Aber warum soll dann VGA auf DVI und DVI auf HDMI funktionieren?

Hier noch eine weitere Info über den Beamer:
Compatibility:
HDTV: 720p, 1080i, 576i
576p
EDTV/480p: Yes
SDTV/480i: Yes
Component Video: Yes
Video: Yes
Digital Input: DVI-I (HDCP)
Computers: Yes

Der Laptop wurde bereits an 2 unterschiedlichen Bildschirmen mit HDMI getestet und funktioniert. Der eine unterstützt HDCP, der andere nicht (hat an einer HDCP-Quelle nicht funktioniert). Also müsste mich das wohl nicht einschränken, oder doch? Irgendwie komme ich da durcheinander.


Danke für Antworten und sorry für die etwas verwirrende Formulierung, aber ich check da gerade auch nicht mehr durch.


Fra993r
 
Fr@993r schrieb:
Da die DVI-I Schnittstelle laut Test auch das beste Bildsignal liefert, soll auch ein solches verwendet werden.
Halte ich für ein Gerücht oder eine Falschaussage. Das beste Bild liefert immer noch ein unkomprimiertes digitales Signal (DVI-D, HDMI oder DP), da geht kein analoges Signal (was DVI-I ja auch beinhaltet) drüber.

Für die ganzen Erklärungen: Wikipedia
Fr@993r schrieb:
Aber warum soll dann VGA auf DVI und DVI auf HDMI funktionieren?
Sagt wer? VGA auf DVI(-I) funktioniert, da DVI-I ein analoges und digitales Signal beinhaltet. DVI auf HDMI funktioniert aber nicht, da HDMI nur digital überträgt. Genauso funktioniert HDMI auf DVI, aber nicht mehr auf DVI-I (den analogen Teil) und somit VGA, da HDMI eben nur digital überträgt.
Fr@993r schrieb:
Also müsste mich das wohl nicht einschränken, oder doch?
HDCP wird nur bei verschlüsselten BluRays genutzt. Sonst muss dich HDCP rein gar nicht interessieren.
 
Ich würde HDMI Kabel verlegen, da es HDMI auf DVI Adapter gibt, mit denen du das HDMI Kabel an den Beamer hängen kannst und die andere seite entweder über DVI oder HDMI an einen PC /Laptop .
So bleiben dir die meisten Optionen. Ausserdem können Audiosignale ebenfalls über DVI und HDMI
übertragen werden.
Du brauchst also nur ein langes HDMI Kabel und 2 HDMI>DVI Adapter

Ich hoffe ich konnte helfen
Liebe Grüsse
-Chris-
 
Nimm DisplayPort. Eignet sich besser für lange Signalwege, ist ein offener Standard und Abwärtskompatibel bis VGA.
 
@ Yuuri: Wenn DVI-I sowohl das digitale als auch das analoge Signal beinhaltet, dann ist es doch letzten Endes der Beste aller DVI-Standards.

Hier noch der Link zum Test und der entsprechende Ausschnitt, dass DVI(-I) wohl das beste Signal liefert:
Im Projektoren Test präsentierte der LG DS 125 saubere und klare Bilder über DVI. Darüberhinaus sind diese sehr detailreich und wirken in ihren Farben ausgesprochen gesättigt. Über analoge Signale sind die Darstellungen leicht unscharf, bei schnellen Bildbewegungen treten Nachzieheffekte auf.

Danke zum HDCP, demnach ist mir das nicht im weg. Blurays werden nicht verwendet, nur normale DVDs und eben Youtube-Videos o.ä. über den Rechner.

@ theCore666 & stoeggich: An HDMI hatte ich auch gedacht, da hier wohl auch kein Qualitätsverlust über die Strecke stattfindet. Da DVI jedoch auch digital ist, dachte ich, das ich hier ebenso günstig wegkomme. Dem ist aber irgendwie nicht so und es scheint auch, dass sich das jetzt dann aufklärt.


Also verlege ich am besten ein HDMI-Kabel und schließe dieses auf der einen Seite über einen Adapter am Beamer und auf der anderen Seite über den Adapter am PC oder eben ohne Adapter am Laptop an. Das funktioniert dann auch soweit, oder habe ich was vergessen?

@ Falcon: Ich denke, dass ich mit HDMI bis 10 Meter auch keine Probleme bekomme, Displayport-Adapter sind da vermutlich auch noch teurer.


Edit: Noch was: Am besten kaufe ich vermutlich das hier, dann spare ich mir einen Adapter am Beamer (DVI-D-Kabel geht ja auch an DVI-I-Buchse).
 
Zuletzt bearbeitet:
Wüsste nicht, wieso die teurer sein sollten!? DisplayPort verlangt keine Lizenz, jeder kann die Stecker bauen ohne Lizenzkosten zu zahlen.

HDMI in der Wand verlegen klappt daher auch nur mit Stecker-Adapter, weil es keine lizenzierten Wandsteckdosen gibt etc...

Ist ja Deine Entscheidung... Ich würde den HDMI Kram am liebsten möglichst bald über Board schicken :D
 
Das Kabel wird legiglich über ein Loch in der Wand (Holz) verlegt und kommt dann oben zur Decke oder an der Wand vom Beamer wieder raus. Das dürfte kein Problem sein. Dennoch danke für den Hinweis.

Aber da ich am Laptop einen HDMI-Anschluss habe, bietet sich diese auch an. Dann muss ich hier mit keinem Adapter arbeiten, der sicherlich eine weitere Fehlerquelle bzw. Verschlechterung der Qualität mit sich bringen könnte.

Außerdem finde ich kaum Displayport-Kabel bzw. nur zu horrenden Preisen. Hast du mir hierfür einen Link zu einem Angebot?
 
Okay, demnach kann ich soviele Adapter zwischenstecken wie ich möchte, ohne dass es Probleme gibt (solange alles digital bleibt).

10m HDMI bekomme ich allerdings auch schon für unter 10 Euro. Also wäre es nur noch ne preisliche Überlegung. Mal schauen. Danke auf jeden Fall für deinen Vorschlag.
 
Bei einer Strecke von 10m sollte man ein Kabel mit Ferritkernen nehmen, um Störungen vorzubeugen. Was Ferritkerne sind und wie man bei Amazon ein HDMI-Kabel mit Ferritkernen findet, solltest du selber herausfinden.

Du musst dir auch nicht unedingt das allergünstigste Kabel raussuchen, da gibt es doch sehr große Qualitätsunterschiede, wobei 80 Euro Kabel auch auf 20 Euro Kabel Niveau liegen können...

Toni
 
Verschlechterung? Digital ist digital, was soll da schlechter werden? 1 bleibt 1, 0 bleibt 0...
Es gibt keine Bildverschlechterung bei Digital-Übertragung!
Ganz so einfach ist es nicht, digital heißt nicht automatisch verlustlos, die Fehler äußern sich nur anders als bei analog.

DisplayPort würde ich nicht nehmen. Das wird sich im HeimKino Bereich eh nicht durchsetzen denke ich da ist HDMI einfach viel zu sehr verbreitet. Einzig und allein beim Präsenationsbeamern könnte ich es mir irgendwann vorstellen.


Wenn du nen DVI-I Kabel legst bist du am flexibelsten.
So kannst du nen Gerät mit VGA, DVI und HDMI anschließen, sofern du die entsprechenden Adapter hast.

Wenn du nen HDMI Kabel legst musst du allerdings auf VGA komplett verzichten

Wenn du dir irgendwann mal nen neuen Heimkino Beamer zulegst wird dieser eh nur noch HDMI haben.

Von daher wäre es jetzt die Frage: HDMI wäre zukunftssicher. Mit DVI-I wärst du aber am flexibelsten (wobei der einzige Vorteil da noch das VGA Signal wäre, muss man wissen ob einem das wichtig ist)

10euro für 10m find ich etwas arg wenig. Da würde ich nen bisschen mehr ausgeben grade bei der Länge, vllt so bis maximal 30euro
 
Zuletzt bearbeitet:
Digital heisst immer verlustlos. Wenn das Bild Fehler aufweist, dann ist das in Form von Artefakten und rührt daher, weil die 1er und 0en nicht ankommen. Das ist aber kein Verlust im herkömmlichen Sinne analoger Übertragungen. Die Datenverbindung ist einfach Fehlerhaft.
Am häufigsten dürfte man bei HDMI gerade im Zusammenhang mit HDCP dann aber sowieso gar kein Bild oder Bildaussetzer haben, wenn das Handshake nicht oder nur instabil zu Stande kommt.
 
Digital heisst immer verlustlos

Son Quark. Digital bedeutet nicht verlustlos. Mp3 ist auch digital, sprichste da auch von verlustlos? Wohl kaum. Ein Digitales Signal kann genauso wie ein Analoges gestört werden bei der Übertragung. Da ganze äußert sich nur anders

Wenn das Bild Fehler aufweist, dann ist das in Form von Artefakten und rührt daher, weil die 1er und 0en nicht ankommen
Wenn die 0en und 1en nicht "ankommen" was ist denn dann? Wenn deine Informationen die du am einen Ende reingesteckt hast nicht am anderen Ende ankommen ist das in meinen Augen ein (Informations)Verlust



Das ist aber kein Verlust im herkömmlichen Sinne analoger Übertragungen.
Wie gesagt Verlust gibt es, nennt man dann in dem Zusammenhang allerdings eher Fehlerraten. Aus ner 0 kann halt auch ne 1 werden und umgekehrt. Und wenn das passiert ist nicht die gesamte Verbindung Fehlerhaft. Auf die Fehlerrate kommt es an, erst wenn diese zu hoch wird bricht die Verbindung zusammen nicht aber bei einem falschen Bit. Selbst bei deiner HDMI Verbindung wird es zu Übertragungsfehlern kommen, nur merken wirste davon in der Regel nichts. 100% Gewissheit dass am Ende das rauskommt was losgeschickt wurde gibt es bei Informationsübertragung nicht, man kann sich den 100 Prozent nur annähern durch Prüfsummen, Codes etc

Am häufigsten dürfte man bei HDMI gerade im Zusammenhang mit HDCP dann aber sowieso gar kein Bild oder Bildaussetzer haben, wenn das Handshake nicht oder nur instabil zu Stande kommt.
Ich denke mit ner gewissen Fehlerrate wird HDCP auch zurechtkommen. Es wäre total unklug dass selbst ab einem falschen Bit die ganze Verbindung zusammenbricht
 
Zuletzt bearbeitet:
Rach78 schrieb:
Son Quark. Digital bedeutet nicht verlustlos. Mp3 ist auch digital, sprichste da auch von verlustlos? Wohl kaum. Ein Digitales Signal kann genauso wie ein Analoges gestört werden bei der Übertragung. Da ganze äußert sich nur anders

Es geht hier aber nicht um Dateiformate sondern um Digitale Übertragung. Und die ist immer Verlustlos.

Rach78 schrieb:
Wenn die 0en und 1en nicht "ankommen" was ist denn dann? Wenn deine Informationen die du am einen Ende reingesteckt hast nicht am anderen Ende ankommen ist das in meinen Augen ein (Informations)Verlust

Das ist aber auch nur Deine Definition von Verlust. Sicherlich kommt es bei Übertragungen vor, dass es zu Fehlern kommt, dafür gibt es aber eine Fehlerkorrektur. Und damit ist eine 100% Wiederherstellung geleistet, solange die Fehler innerhalb der Toleranz bleiben.

Wenn die Fehler ausserhalb der Toleranz liegen kommt es zu groben Fehlern am Bild, etwa durch stehendes Bild, schwarzes Bild, Artefakten etc.

Es gibt im digitalen Bereich keinen schleichenden Verlust wie etwa Schärfeverlust, Fehlfarben etc..


Rach78 schrieb:
Wie gesagt Verlust gibt es, nennt man dann in dem Zusammenhang allerdings eher Fehlerraten.

Ach, jetzt auf einmal!? :rolleyes:


Rach78 schrieb:
Ich denke mit ner gewissen Fehlerrate wird HDCP auch zurechtkommen. Es wäre total unklug dass selbst ab einem falschen Bit die ganze Verbindung zusammenbricht

Siehe oben. Nichtsdestotrotz, das Vorhandensein einer Fehlerkorrektur ändert nichts am generellen Problem von HDMI. Die maximale Leitungslänge ist auf 15m spezifiert. In der Praxis sieht es aber selbst bei 10-15m bereits anders aus. Mit billigen Kabeln hat man meist Probleme. Und der HDMI Handshake klappt nicht oder nur zwischen bestimmten Geräten etc.

HDMI sollte schnellstmöglich ersetzt werden, meiner Meinung nach.
 
Das ist aber auch nur Deine Definition von Verlust

Naja wie würdest du es anders definieren, ist nunmal so;)

Sicherlich kommt es bei Übertragungen vor, dass es zu Fehlern kommt, dafür gibt es aber eine Fehlerkorrektur. Und damit ist eine 100% Wiederherstellung geleistet, solange die Fehler innerhalb der Toleranz bleiben.

Das kannst du nicht sagen. 100% gibt es da so oder so nicht. HDMI ist auch nicht wie TCP/IP wo einfach defekte Pakete nochmal gesendet werden können. HDMI muss auch mit fehlerhaften Bits zurechtkommen. Wenn du keine Fehler siehst oder hörst läuft es halt, heißt aber nicht dass dennoch mal Fehlerhafte Datenpackete ankommen, solange es sich in grenzen hält merkste davon nix. Daher auch Fehlerrate, diese wird nie 0 sein.

Die maximale Leitungslänge ist auf 15m spezifiert. In der Praxis sieht es aber selbst bei 10-15m bereits anders aus. Mit billigen Kabeln hat man meist Probleme

Die Länge ist eigentlich sogar egal. Viel wichtiger ist wie das Signal am Ende aussieht. Nimm einfach beispielsweise mal nur die Dämpfung. Mit nem Kabel bei dem die Dämpfung doppelt so hoch ist wie bei nem anderen wird man auch nur grob die halbe Distanz überbrücken können.
Spezifizierung würde ich auch nur als Anhaltspunkt nehmen. Ist ja nicht so dass ab 15,01m die Verbindung nicht mehr läuft. Würde eher sagen je näher man an der maximalen Leitungslänge dran ist welche spezifiziert wurde desto besser sollte das Kabel sein


Es gibt im digitalen Bereich keinen schleichenden Verlust wie etwa Schärfeverlust, Fehlfarben etc..
Wo hat das denn jemand behauptet?
 
Zuletzt bearbeitet:
DLNA: Nicht das ich wüsste. Ist schon ein älteres Modell.

Muss das ganze nochmals ausmessen, evtl. reichen auch 5m Kabel. 10 Meter müssten auf jeden Fall reichen und ich denke, dass ich das auch recht preiswert realisieren kann.
 
Rach78 schrieb:
Das kannst du nicht sagen. 100% gibt es da so oder so nicht. HDMI ist auch nicht wie TCP/IP wo einfach defekte Pakete nochmal gesendet werden können. HDMI muss auch mit fehlerhaften Bits zurechtkommen. Wenn du keine Fehler siehst oder hörst läuft es halt, heißt aber nicht dass dennoch mal Fehlerhafte Datenpackete ankommen, solange es sich in grenzen hält merkste davon nix. Daher auch Fehlerrate, diese wird nie 0 sein.

Doch heisst es. Alles was innerhalb der Fehlertoleranz liegt, kann zu 100% wieder hergestellt werden. Dafür gibt es Hash-Codes, Prüf-Bits und Fehlerkorrektur.

Und ob die Übertragung über HDMI oder TCP/IP erfolgt, eine Fehlerkorrektur findet sich bei (quasi) jeder digitalen Übertragung!
 
wenn der Beamer nur DVI hat, dann nutz das auch, hat er HDMi, dann nutz das.

zu den Steckern:
HDMI --> Digital DVI Kompatibel
DVI-D --> Digital HDMI Kompatibel
DVI-I --> DIgital HDMI Kompatibel + Analog, VGA Kompatibel
DVI-A --> Analog, VGA Kompatibel
VGA --> DVI-A Kompatibel
DP --> nicht Kompatibel

DVI-I gibt es nur aus einem Grund: Grafikkarten Sparen sich einen VGA Stecker
Du kannst nicht wahllos Adapter hintereinander schalten sondern nur das, was zum AUsgangssignal Kompatibel ist.

du hast:
PC: DVI-I
Laptop: HDMI
Beamer: DVI

daher nimmt man:
PC: DVI Kabel
Laptop: HDMI auf DVI Adapter (ist ja kompatibel)
Beamer: DVI Kabel.


alles andere gibt entweder keinen SInn oder Funktioniert nicht.


@Falcon
wieso sollte DP hier sinn ergeben?
da muss er doch für rund 500€ das SIgnal 3 mal hin und her Konvertieren, einen Sinn sehe och darin nicht wirklich:rolleyes:
 
Zurück
Oben