Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
unterschied zwischen vga und dvi?
- Ersteller FREAKYYY
- Erstellt am
T
Tankred
Gast
DVI hat nur den hauptsächlichen Vorteil, dass durch die digitale Übertragung kein großer Signalverlust auftritt. Da alles digital ist, lassen sich auch Werte der Bildgeometrie automatisch einstellen. Bei SubD muss man das manuell, im besten Fall mit Hilfe von Einrichtungsassistenten machen. So gesehen kann man mit DVI schon ein besseres Bild haben, andere Grafikeffekte oder Auflösungen hat man aber im Consumerlevel kaum.
Nikolaus117
Commander
- Registriert
- Dez. 2006
- Beiträge
- 2.682
DVi sit alle mal besser man kann andere auflösungen und vorallem höhere übertragen mit DVI-D bis zu
2560x1600
auch kann man so ungerade wie 1366x768 daskann vga nciht nur 1360x768 aus gründen der bildverhältnisse.
heute würde ich keinen Bildschirm mehr ohne DVI kaufen !!
2560x1600
auch kann man so ungerade wie 1366x768 daskann vga nciht nur 1360x768 aus gründen der bildverhältnisse.
heute würde ich keinen Bildschirm mehr ohne DVI kaufen !!
T
Tankred
Gast
Da stimmt ich Dir zu, aber wozu braucht man so Auflösungen wie 1366x768?
1366x768 ist halt "HD Ready", für uns Spieler sowieso uninteressant 
DVI bietet ganz klar die bessere Qualität. Ich habe einen Samsung SyncMaster 205BW, welcher sowohl einen D-SUB, als auch einen DVI-Eingang hat, sogar ich als "Laie" sehe einen deutlichen Unterschied.
Hinzu kommt, dass bei digitaler Übertragung jedes gesendetes Pixel seinen festen Platz auf dem Bildschirm hat und justieren somit überflüssig ist.
DVI bietet ganz klar die bessere Qualität. Ich habe einen Samsung SyncMaster 205BW, welcher sowohl einen D-SUB, als auch einen DVI-Eingang hat, sogar ich als "Laie" sehe einen deutlichen Unterschied.
Hinzu kommt, dass bei digitaler Übertragung jedes gesendetes Pixel seinen festen Platz auf dem Bildschirm hat und justieren somit überflüssig ist.
CHaos.Gentle
Lt. Commander
- Registriert
- Juni 2004
- Beiträge
- 1.594
1
1668mib
Gast
Dass DVI "klar" die bessere Qualität bietet sei mal dahingestellt, aber die analoge Übertragung hängt halt von diversen Faktoren ab...
Im Grunde ist es ja auch Schwachsinn, ein digitales Bild in der Grafikkarte via DAC in ein analoges Bild umzuwandeln, dieses dann an den Monitor zu schicken, welcher mittels ADC das analoge Bild wieder in ein digitales zurückrechnet. DAC und ADC sind maßgeblich für die Qualität verantwortlich, zusätzlich kommt auch noch die Qualität des analogen Kabels zum tragen.
Aber ich habe bereits auf meinem ersten 17,4" TFT 2002 auf DVI wert gelegt, v.a. war dieser relativ schlecht in Sachen Auto-Sync, auch wenn das analoge Bild vom digitalen nicht zu unterscheiden war.
Aber ich bin froh, auf die ganze Syncerei verzichten zu können :-)
Desweiteren muss man ewähnen, dass DVI auch durchaus HDCP bietet, und viele Grafikkarten ohne HDMI sich über einen DVI-HDMI-Adapter HDMI-fähig machen lassen können.
Edit: Und AFAIK sind für die ganzen hohen Aufläsungen eben nicht alle DVIs geeignet, gibts da nicht irgendwie was mit diesem Link?
Im Grunde ist es ja auch Schwachsinn, ein digitales Bild in der Grafikkarte via DAC in ein analoges Bild umzuwandeln, dieses dann an den Monitor zu schicken, welcher mittels ADC das analoge Bild wieder in ein digitales zurückrechnet. DAC und ADC sind maßgeblich für die Qualität verantwortlich, zusätzlich kommt auch noch die Qualität des analogen Kabels zum tragen.
Aber ich habe bereits auf meinem ersten 17,4" TFT 2002 auf DVI wert gelegt, v.a. war dieser relativ schlecht in Sachen Auto-Sync, auch wenn das analoge Bild vom digitalen nicht zu unterscheiden war.
Aber ich bin froh, auf die ganze Syncerei verzichten zu können :-)
Desweiteren muss man ewähnen, dass DVI auch durchaus HDCP bietet, und viele Grafikkarten ohne HDMI sich über einen DVI-HDMI-Adapter HDMI-fähig machen lassen können.
Edit: Und AFAIK sind für die ganzen hohen Aufläsungen eben nicht alle DVIs geeignet, gibts da nicht irgendwie was mit diesem Link?
Der Unterschied zwischen beiden Systemen macht sich erst ab einer Leitungslänge von über 3,0 m bemerkbar! Darunter gibt es qualitativ keinen Unterschied. DVI erlaubt ungerade Auflöungen, die aber kaum ein Mensch braucht. HD ist auch mit VGA kein Problem. Ich persönlich arbeite mit 2 Monitoren der Marke Fujitsu Siemens Scaleo View W22. Einmal mit und einmal ohne DVI. Es gibt wiegesagt keinen Unterschied, da meine Anschlusskabel max. 1,50 m lang sind. Natürlich habe ich auch getestet was bei größeren Leitungslängen passiert. Tatsächlich wird das VGA-Signal unscharf, während DVI gleichbleibend ist. Aber wer arbeitet bitte schön mit Anschlussleitungen über 3,0 m Länge?
Bis 1920x1200 kommt DVI klar, bei 2560x1600 muss man zwei Kabel verwenden, was sich "Dual Link" nenntEdit: Und AFAIK sind für die ganzen hohen Aufläsungen eben nicht alle DVIs geeignet, gibts da nicht irgendwie was mit diesem Link?
@ saragossa:
Ich sehe einen subjektiven Unterschied, den ich mir so erklären kann:
Während bei DVI jedes Pixel eben seinen festen Platz hat, muss man bei VGA das Bild justieren. Macht man das nicht 100-%-ig exakt, liegen manche Pixel "auf der Grenze" zwischen zwei Bildschirmpixeln und der TFT muss interpolieren (auch wenn das Bild eigentlich die richtige Größe hat).
- Registriert
- Jan. 2005
- Beiträge
- 8.590
1
1668mib
Gast
AndrewPosion, v.a. die letzte Generation hatte das glaube ich in der Mittelklasse kaum, meine 7800 GT hatte es auch nicht... richtig, dass du allerdings darauf hinweist.
@saragossa: Diese Verallgemeinerungen kann ich grundsätzlich nicht ausstehen. Wie ich schon sagte, die Qualität hängt von diversen Faktoren ab. Gerade DAC und ADC sind nicht immer von hoher Qualität, und meine GeForce 4 Ti 4400 lieferte im Single-Monitor-Betrieb analog ein hervorragendes Bild (war vom digitalen nicht zu unterscheiden am selben Monitor), hatte ich allerding beide Ausgänge aktiviert, war das analoge Bild total vermatscht.
Und im Übrigen habe ich ein analoges Kabel mit 5 m und merke dabei absolut keinen Unterschied zwischen einem Standard ~1,8 m Kabel...
Edit: @srup: Man sollte auch bedenken, dass das exakt das ist, was ich sagte... Schlechter (RAM)DAC -> schlechtes Signal.
Edit2: Deine Theorie fußt auf der Behauptung, der Monitor hätte schlechtes AutoSync... würde ich aber bei den modernen Geräten nicht sagen... mein Belinea 10 17 40 hatte meiner Meinung nach schlechtes AutoSync...
@saragossa: Diese Verallgemeinerungen kann ich grundsätzlich nicht ausstehen. Wie ich schon sagte, die Qualität hängt von diversen Faktoren ab. Gerade DAC und ADC sind nicht immer von hoher Qualität, und meine GeForce 4 Ti 4400 lieferte im Single-Monitor-Betrieb analog ein hervorragendes Bild (war vom digitalen nicht zu unterscheiden am selben Monitor), hatte ich allerding beide Ausgänge aktiviert, war das analoge Bild total vermatscht.
Und im Übrigen habe ich ein analoges Kabel mit 5 m und merke dabei absolut keinen Unterschied zwischen einem Standard ~1,8 m Kabel...
Edit: @srup: Man sollte auch bedenken, dass das exakt das ist, was ich sagte... Schlechter (RAM)DAC -> schlechtes Signal.
Edit2: Deine Theorie fußt auf der Behauptung, der Monitor hätte schlechtes AutoSync... würde ich aber bei den modernen Geräten nicht sagen... mein Belinea 10 17 40 hatte meiner Meinung nach schlechtes AutoSync...
Zuletzt bearbeitet:
supastar
Fleet Admiral
- Registriert
- Okt. 2005
- Beiträge
- 18.483
Digitaler Eingang ist ein HDMI bzw. DVI-Stecker
Deine Grafikkarte hat zwei digitale Ausgänge somit kannst du die Vorteile der digitalen Übertragung nutzen. Evtl brauchst du dann noch ein DVI-Kabel, falls dem Monitor keines beiliegen sollte.
Analoge Signale werden wellenförmig übertragen, digitale per An/Aus-Signal (0 oder 1). Somit hat man bei der digitalen Bildübertragung kaum Störgeräusche und somit ein immer gleich gutes Bild (siehe z. B. auch analoges und digitales Fernsehen (beim digitalen gibt es kein schlechtes oder verrauschtes Bild, wenn es schlecht wird, fängt es an zu ruckeln, was beim PC aber kaum passieren kann).
http://de.wikipedia.org/wiki/VGA_(Anschluss)
http://de.wikipedia.org/wiki/Digital_Visual_Interface
Vor allem bei hohen Auflösungen kann sich die Bildqualität via VGA verschlechtern.
Zudem muss die Grafikkarte das digitale Signal sonst erst in ein analoges Signal umwandeln, um es am TFT wieder in ein digitales zurückverwandeln...
Deine Grafikkarte hat zwei digitale Ausgänge somit kannst du die Vorteile der digitalen Übertragung nutzen. Evtl brauchst du dann noch ein DVI-Kabel, falls dem Monitor keines beiliegen sollte.
Analoge Signale werden wellenförmig übertragen, digitale per An/Aus-Signal (0 oder 1). Somit hat man bei der digitalen Bildübertragung kaum Störgeräusche und somit ein immer gleich gutes Bild (siehe z. B. auch analoges und digitales Fernsehen (beim digitalen gibt es kein schlechtes oder verrauschtes Bild, wenn es schlecht wird, fängt es an zu ruckeln, was beim PC aber kaum passieren kann).
http://de.wikipedia.org/wiki/VGA_(Anschluss)
http://de.wikipedia.org/wiki/Digital_Visual_Interface
Vor allem bei hohen Auflösungen kann sich die Bildqualität via VGA verschlechtern.
Zudem muss die Grafikkarte das digitale Signal sonst erst in ein analoges Signal umwandeln, um es am TFT wieder in ein digitales zurückverwandeln...
3 Sätze zu DVI vs VGA
1. Hat man die Wahl zwischen VGA und DVI sollte man DVI nehmen
2. VGA muss nicht unbedingt das schlechtere Bild haben / DVI nicht unbedingt das bessere
3. Monitore mit DVI und VGA haben meistens keinen sehr guten Digital-Analog-Converter, also lasst diese sinnlosen und pauschalisierten Vergleiche an ein und dem selben TFT.
1. Hat man die Wahl zwischen VGA und DVI sollte man DVI nehmen
2. VGA muss nicht unbedingt das schlechtere Bild haben / DVI nicht unbedingt das bessere
3. Monitore mit DVI und VGA haben meistens keinen sehr guten Digital-Analog-Converter, also lasst diese sinnlosen und pauschalisierten Vergleiche an ein und dem selben TFT.
Ich habe nicht behauptet, dass VGA besser aussieht als DVI
(irgendwelche störungen mal außenvor gelassen) Wär auch bisschen unlogisch, da das digitale Bild die referenz für das analoge ist. Die Grafik eines Spiels kann ja auch nicht besser als die Realität aussehen
Davon abgesehen, was willst du mit einer Quelle anfangen? Sowas sollte man sowieso nur glauben, wenn man es mit seinen eigenen Augen gesehen hat. In dem Fall wäre ich ja die Quelle...
Davon abgesehen, was willst du mit einer Quelle anfangen? Sowas sollte man sowieso nur glauben, wenn man es mit seinen eigenen Augen gesehen hat. In dem Fall wäre ich ja die Quelle...
Ähnliche Themen
- Antworten
- 7
- Aufrufe
- 1.622
- Antworten
- 22
- Aufrufe
- 1.775
- Antworten
- 3
- Aufrufe
- 498
- Antworten
- 21
- Aufrufe
- 4.521