Tafe
Cadet 4th Year
- Registriert
- Aug. 2012
- Beiträge
- 114
Hallo Leute...
Ich hab mir vor genau 1 Jahr bei Amazon einen Monitor für meinen PC gekauft, da mein Vorgänger (Röhre) leider ausgedient hatte... Ich hätte ihn wohl weiter benützt, aber auf dem alten Monitor konnte man die Schrift kaum noch lesen, weil er schon so alt war xD
Also dachte ich mir, ich werde mir einen neuen Monitor kaufen...
Den Monitor hier habe ich gekauft:
BenQ GL2450 61 cm (24 Zoll) LED-Monitor (DVI-D, VGA, 5ms Reaktionszeit) schwarz
Dieser Monitor hat 2 Schnittstellen:
- DVI
- d-sub (ist d-sub nicht das gleiche wie VGA??)
Ich kann mich eigentlich nicht erinnern, wieso ich diesen Bildschirm nicht mit einer HDMI-Schnittstelle gekauft habe... Vllt lags daran, das ich eine HDMI Schnittstelle für die Verbindung zwischen PC und TV brauche... Kann mich aber nicht mehr genau daran erinnern...
Wie auch immer...
In den letzten Tagen, als ich auf Amazon-Prime einige Filme/Serien auf Full-HD ansah und ich die Filme/Serien am PC laufen lies, jedoch auf meinem Full-HD TV anschaute, konnte ich beide Bilder vergleichen...
Ich muss aber jetzt noch kurz etwas sagen:
Als ich den Monitor das erste mal für Filme/Serie und Spiele benützte, war ich durchaus zufrieden damit... Denn die Bilder waren doch ganz gut... Sie kamen mir gestochen scharf vor... Bei manchen Spiele fiel mir das mehr auf, bei anderen hingegen kam die schärfe nicht so zur gelte...
Als ich also die Bildqualität des Monitors und des TV's vergichen habe, war ich etwas verwirrt...
Die Full-HD Filme/Serien kamen am TV sehr sehr schön, sauber und gestochen rüber...
Am Monitor (der ist auch Full-HD) jedoch, wirkte es nicht so gestochen scharf... auch wirkte es so, als ob das Bild so ein leichtes "rauschen" hat... wie ganz kleine Punkte... weiß nicht wie ich das beschreiben soll...
Meine Frage ist jetzt:
Warum hat der Monitor nicht so eine gute Qualität wie mein TV??
Liegt es daran, das mein TV einfach ein hochwertigeres Produkt ist?
Haben Monitor, die etwas kleiner sind als durchschnittliche TV-Geräte, in der Regel einfach immer eine schlechtere Qualität??
Oder liegt das sogar an meiner Verbindungsart, wie ich den Monitor mit dem PC verbine?? Ich nütze nämlich den 'DVI-D'.
Laut Internet (Wikipedia) bekomm ich mit DVI-D genauso 1080p 60Hz zusammen, wie mit HDMI.
Hat wer vielleicht eine Ahnung, was da los ist??
Und mal angenommen, es liegt daran, das ich DVI-D nutze... ist wäre ja möglich, einen Adapter zu kaufen, der mein DVI-D auf Displayport macht. (Displayport wäre somit der einzige freie, digitale Slot an meiner Grafikkarte)
Hier der Link zu meiner Grafikkarte:
Sapphire Radeon R9 280 Dual-X OC mit MANTLE und Gaming Evolved Client, 3GB GDDR5, 2x DVI, HDMI, DisplayPort
Aber würde es auch Sinn machen, den DVI-D zu einem Displayport zu machen?? Man kann keine "schlechtere" Verbindung zu einer "besseren" Verbindung machen, in dem man einfach einen Adapter nimmt... das dürfte normal ja garnicht mal funktionieren, oder? Umgekehrt würde es selbstverständlich funktionieren...
Ich würde mich sehr über eine aufschlussreiche, informative und sachliche Anwort von euch freuen...
Ich habe schon etwas im Internet zu diesem Thema gesucht, konnte jedoch keine Lösung zu exakt diesem Problem finden... Konnte eben nur das von Wikipedia finden, wo steht, das HDMI und DVI-D, beide 1080p/60Hz anzeigen können.
Wenn ihr mir eine Antwort schreiben solltet, schreibt bitte UNBEDINGT noch dazu, ob ihr es WISST, VERMUTET, GLAUBT o.ä., was ihr in der Antwort geschrieben habt. Damit ich weiß, wie ich eure Antwort einstufen kann...
Viele vielen Dank im voraus...
Mit freundlichen Grüßen
Tafe
Ich hab mir vor genau 1 Jahr bei Amazon einen Monitor für meinen PC gekauft, da mein Vorgänger (Röhre) leider ausgedient hatte... Ich hätte ihn wohl weiter benützt, aber auf dem alten Monitor konnte man die Schrift kaum noch lesen, weil er schon so alt war xD
Also dachte ich mir, ich werde mir einen neuen Monitor kaufen...
Den Monitor hier habe ich gekauft:
BenQ GL2450 61 cm (24 Zoll) LED-Monitor (DVI-D, VGA, 5ms Reaktionszeit) schwarz
Dieser Monitor hat 2 Schnittstellen:
- DVI
- d-sub (ist d-sub nicht das gleiche wie VGA??)
Ich kann mich eigentlich nicht erinnern, wieso ich diesen Bildschirm nicht mit einer HDMI-Schnittstelle gekauft habe... Vllt lags daran, das ich eine HDMI Schnittstelle für die Verbindung zwischen PC und TV brauche... Kann mich aber nicht mehr genau daran erinnern...
Wie auch immer...
In den letzten Tagen, als ich auf Amazon-Prime einige Filme/Serien auf Full-HD ansah und ich die Filme/Serien am PC laufen lies, jedoch auf meinem Full-HD TV anschaute, konnte ich beide Bilder vergleichen...
Ich muss aber jetzt noch kurz etwas sagen:
Als ich den Monitor das erste mal für Filme/Serie und Spiele benützte, war ich durchaus zufrieden damit... Denn die Bilder waren doch ganz gut... Sie kamen mir gestochen scharf vor... Bei manchen Spiele fiel mir das mehr auf, bei anderen hingegen kam die schärfe nicht so zur gelte...
Als ich also die Bildqualität des Monitors und des TV's vergichen habe, war ich etwas verwirrt...
Die Full-HD Filme/Serien kamen am TV sehr sehr schön, sauber und gestochen rüber...
Am Monitor (der ist auch Full-HD) jedoch, wirkte es nicht so gestochen scharf... auch wirkte es so, als ob das Bild so ein leichtes "rauschen" hat... wie ganz kleine Punkte... weiß nicht wie ich das beschreiben soll...
Meine Frage ist jetzt:
Warum hat der Monitor nicht so eine gute Qualität wie mein TV??
Liegt es daran, das mein TV einfach ein hochwertigeres Produkt ist?
Haben Monitor, die etwas kleiner sind als durchschnittliche TV-Geräte, in der Regel einfach immer eine schlechtere Qualität??
Oder liegt das sogar an meiner Verbindungsart, wie ich den Monitor mit dem PC verbine?? Ich nütze nämlich den 'DVI-D'.
Laut Internet (Wikipedia) bekomm ich mit DVI-D genauso 1080p 60Hz zusammen, wie mit HDMI.
Hat wer vielleicht eine Ahnung, was da los ist??
Und mal angenommen, es liegt daran, das ich DVI-D nutze... ist wäre ja möglich, einen Adapter zu kaufen, der mein DVI-D auf Displayport macht. (Displayport wäre somit der einzige freie, digitale Slot an meiner Grafikkarte)
Hier der Link zu meiner Grafikkarte:
Sapphire Radeon R9 280 Dual-X OC mit MANTLE und Gaming Evolved Client, 3GB GDDR5, 2x DVI, HDMI, DisplayPort
Aber würde es auch Sinn machen, den DVI-D zu einem Displayport zu machen?? Man kann keine "schlechtere" Verbindung zu einer "besseren" Verbindung machen, in dem man einfach einen Adapter nimmt... das dürfte normal ja garnicht mal funktionieren, oder? Umgekehrt würde es selbstverständlich funktionieren...
Ich würde mich sehr über eine aufschlussreiche, informative und sachliche Anwort von euch freuen...
Ich habe schon etwas im Internet zu diesem Thema gesucht, konnte jedoch keine Lösung zu exakt diesem Problem finden... Konnte eben nur das von Wikipedia finden, wo steht, das HDMI und DVI-D, beide 1080p/60Hz anzeigen können.
Wenn ihr mir eine Antwort schreiben solltet, schreibt bitte UNBEDINGT noch dazu, ob ihr es WISST, VERMUTET, GLAUBT o.ä., was ihr in der Antwort geschrieben habt. Damit ich weiß, wie ich eure Antwort einstufen kann...
Viele vielen Dank im voraus...
Mit freundlichen Grüßen
Tafe