HDMI oder DVI wo ist da der unterschied?

d4wn

Lieutenant
Registriert
Apr. 2009
Beiträge
627
hallo,

mal angenommen ich würde mir einen monitor mit HDMI schnittstelle kaufen und den mittels HDMI adapter an meine grafikkarte anschließen, würde ich da eine bessere qualität erhalten, anstatt den monitor mittels DVI mit der grafikkarte zu verbinden? :confused_alt:
 
Ja. DVI=HDMI.
 
Wird HDMI Stecker nicht gebraucht um Blueray anzuschauen oder täusche ich mich da?
 
nein.
 
@Gusty
Jepp. Denn da alles das gleiche Signal ist kann DVI auch HDCP verschlüsselte Signale übertragen.

DVI kann sogar Tonsignale übertragen. Ist allerdings recht selten.
 
jup der einzige vorteil von HDMI ist das es kleinere kabel sind also dünner... ist aber auch der größte nachteil da HDMI REIN digital ist DVI gibt es als I A und D version wobei die I version bei den grafikkarten ist und Analog + Digital ist A und D sollte dann ja klar sein ;)
 
HDMI ist aus meiner sicht nur geldmacherei. mehr nicht.

bei DVI fehlt folgendes:

- CEC

CEC-Vielfalt der Hersteller
Fast jeder Hersteller hat für die CEC-Steuerungsfunktionen über HDMI einen eigenen Namen. Nach den Regeln des HDMI-Standards müssen die Systeme aber auch über Herstellergrenzen hinweg funktionieren. Im Zweifelsfall sollte man aber eine Kombination aus Geräten verschiedener Marken ausprobieren, bevor die Systemsteuerung beim Kunden zu Hause versagt.
 
Zuletzt bearbeitet:
HDMI unterstützt zusätzliche Farbstandards, eine größere Bandbreite(wichtig für große Auflösungen), eine größere maximale Kabellänge. Außerdem kann DVI kein HD-Audio übertragen.

Ich denke nicht das es nur "Geldmacherei" ist, jedoch ist es für normale 22/24 Zoll Monitore meinst nicht besser oder schlechter als DVI.
 
!nFlames schrieb:
Außerdem kann DVI kein HD-Audio übertragen.

Das ist nicht korrekt.

HDMI hat auch keine Audio "Kontakte".
Das Bild und der Ton werden in einem Transition Minimized Differential Signaling (TDMS) Kanal zusammegefuehrt.
Das bedeutet, Bild und Ton gehen ueber genau die gleichen "Kontakte".

Und das geht absolut problemlos auch mit DVI, WEIL ES VON SILICON IMAGE FUER DVI ENTWICKELT WURDE. HDMI kam erst spaeter und uebernahm das Verfahren von DVI.

Der Standard DVI Anschluss hat die selbe Pinanzahl wie HDMI, nur werden erweiterte Protokolle bei HDMI drüber gefahren.

Ich sehe eher einen "Vorteil" bei DVI anstatt HDMI ...

Soweit ich weiss, ist HDMI wohl aus Lizenzrechtlichen Gründen zwangsgekoppelt mit dem Kopierschutz HDCP.

Die eigentliche HDCP-Verschlüsselung wird jedoch nicht mit dem Film selbst gesendet, sondern nur ein sogenanntes Broadcast-Flag.

Sendet ein Sender dieses Broadcast-Flag, dann muss ein HDCP-konformer DVBs2-Sat-Receiver mit HDMI-Buchse den übertragenen Film "selbst verschlüsseln" und verschlüsselt über den HDMI-Ausgang ausgeben. Der HDCP-konforme Fernseher / das HDCP-konforme Display muss dann den verschlüsselten Videostrom erst wieder selbst entschlüsseln, um dann endlich den Film anzuzeigen.

Das ist definitiv ein "Nachteil" des ganzen HDCP-Krams, wenn ein Receiver HDCP konform ist und die HDCP-Verschlüsselung durch das Broadcast-Flag vom Sender aktiviert wird.

Das Ver- und Entschlüsseln kostet unnötig viel Rechenleistung (und zwar nicht zu knapp). Das Ganze ist obendrein wohl auch noch etwas störanfällig.

Und für Leute wie mich, die schon vor ca. 3 Jahren zwei HDTV-fähige Flachfernseher gekauft hatten (in HDTV-Vorfreude), sind nun erst recht Geräte ohne HDCP-Kram sozusagen Pflicht. Denn die ersten HDTV-fähigen Geräte (damals gab es noch kein HDready-Logo) können leider (oder zum Glück) kein HDCP. Dazu kam bei uns jetzt auch noch eine Dunstesse mit eingebautem LCD-TV für die Küche "ohne HDMI aber mit DVI", natürlich nicht HDready.

Deshalb warte ich ja auch so sehnsüchtig auf die HDTV-Dreams. Denn die haben"nur" einen DVI-Ausgang für das digitale Bild und müssen deshalb auch nicht HDCP-konform sein. Die Dreams ignorieren dann sozusagen einfach die Bitte des Bradcast-Flags, den Film nun zu verschlüsseln und geben den Videostrom "vollkommen unverschlüsselt" an alle möglichen Bildanzeigegeräte weiter. Das spart Rechenleistung und erspart einem auch gleich noch mögliche HDCP-Inkompatibilitäten.

Ich hoffe also inständig, dass Dream nicht doch noch die unselige HDMI-Schnittstelle (inklusive Zwangs-HDCP-Verschlüsselung) verwendet. Denn ich möchte mir kein HDCP-Korsett anlegen lassen ... Und offensichtlich ist das jetzt auch sicher ...

Mit dem ganzen Gemache um HDMI- und HDCP-Notwendigkeit wird der Ottonormal-User hier also ganz schön für dumm verkauft. Fast jeder glaubt, man benötigt unbedingt HDMI und HDCP für HDTV. Das ist vollkommener Quatsch. Nur leider blickt das wohl kaum jemand und alle kaufen sich jetzt freiwillig zwangs-verdongelte Verschlüsselungskisten und damit auch die dazugehörigen potentiellen Probleme. Wenn man darauf achtet, "keine" HDCP-konformen Geräte zu kaufen, dann fährt man damit eigentlich sogar besser. Dazu muss man aber schon genau aufpassen, was man kauft (z.B. Dream ...).

Vielleicht sind nicht alle Details ganz so technisch korrekt von mir wiedergegeben, aber ich denke im Groben und Ganzen trifft es das schon

Noch eine ergänzende Anmerkung:

Ein HDTV-Sender kann einem HDTV-Receiver, der HDCP konform ist, mittels Broadcast-Flag also mitteilen, dass er den Film erst zusätzlich zu verschlüsseln hat, wenn er den Film über HDMI an ein Anzeigegerät weiter gibt.

Je nachdem, was der Sender wünscht, kann über die analogen Ausgänge (z.B. Scart) dann parallel noch ein qualitätsgemindertes Bild ausgegeben werden oder alles analoge eben komplett gesperrt werden. Für solche schwachsinnigen "Schutzmassnahmen habe ich als mündiger und "ehrlicher" Endverbraucher absolut kein Verständnis !!!

Hat ein Receiver erst garkeinen HDCP-Chip drin, dann ignoriert er sozusagen den zusätzlichen Verschlüsselungsbefehl und gibt alles einfach komplett unverschlüsselt "auf allen Ausgängen" in der jeweils besten Qualität unzensiert weiter.

So sollte das sein, denn nur das ist verbraucherfreundlich und Ressourcen schonend ...

Pinout HDMI
310pxHDMIConnectorPinoutd32e9f87svgd32e9f87png.png


Pinout DVI
300pxDVIConnectorPinoutf8b30b24svgf8b30b24png.png
 
Zuletzt bearbeitet:
HDMI bring nur was, wenn man nen großen bildschrim dran hat oder nen LCD tv
zu dem bringt halt HDMI die unterstützung für HD sound mit
 
Da ich faul bin und keinen neuen Thread erstellen will frage ich einfach mal hier . :D
Hab einen Plasma fernseher und habe die möglichkeit den am rechner über VGA und HDMI anzuschließen.
Besteht da ein großen qualitätsunterschied? Was würdet ihr empfehlen?
 
VGA ist analog und heute nicht mehr wiklich zeit gemäß.
 
Das ist nicht korrekt.

Ich rede von HD-Audio.... ich weiß das Dvi auch Audio überträgt aber meines Wissens keine Hochwertigen 7.1 sounds oder ähnliches...

wenn du mir eine Quelle zeigst die glaubwürdig ist bin ich bereit meine Meinung zu ändern:D

das mit Audio Kontakten ist glaub ich hier jedem bewusst:rolleyes: da es Digital ist!
 
wie ist des dann wenn man an eine Grafikkarte mit DVI zu HDMI addappter nen TV anschließt hat man dann auch audio?
 
cReAsTeR schrieb:
wie ist des dann wenn man an eine Grafikkarte mit DVI zu HDMI addappter nen TV anschließt hat man dann auch audio?

ja hat man :)



und was anderes... ich hab mal was von FULLHD monitoren gehört, was hat es mit denen auf sich?
 
Full hd ist 1920*1080p.
 
Für Audio über DVI hätte ich gerne mal Quellen, DVI heißt ja nicht grundlos "Digital Visual Interface".
Wieso brauchen dann die (AMD-)Grafikkarten einen ganz speziellen DVI->HDMI-Adapter?
 
Zuletzt bearbeitet:
@Simpson474: So viel ich weiß werden bei den Radeon-Adaptern die analogen VGA-Pins auf den Sound "umgelegt". Zumindest hab ich das mal so gehört, und kann leider auch keine Quelle dafür liefern.
Der Punkt ist nur: Ist es eine offizielle DVI-Eigenschaft, Ton zu übertragen, oder nicht? Ob es geht oder ob es ein offizielles Feature ist, sind für mich zwei paar Schuhe. Ich kann bestimmt auch über nen DVI-Kabel Strom fließen lassen und spreche dann von Power-over-DVI oder was?

Edit: Wobei das, was ich da mit den Pins geschrieben hab, wohl schwachsinn ist... zumindest finde ich keine Quelle dafür, damit klingt es nicht plausibel.
Vor allem wärs unlogisch, wenn der Adapter noch eine Mischung vornehmen würde - andererseits fraglich, wieso dann dieser Adapter überhaupt benötigt wird...

Edit2: Auch im englischen Wiki stehts nicht wirklich gut drin :-)
"Unlike HDMI, DVI usually carries no audio data (see "DVI-I" below)." - dummerweise steht dazu später nichts mehr...

Naja, kann wohl über Umwege funktionieren, aber man wird kaum ein Gerät finden, welches nativ auf einem DVI-Ausgang über ein DVI-Kabel Audio-Signale ausgibt ^^
 
Zuletzt bearbeitet:
Zurück
Oben