Geisterschriften bei Radeon HD 6450

MartyK

Lieutenant
Registriert
Okt. 2006
Beiträge
561
Hallo,

ich habe seit heute eine Radeon HD 6450, bin aber mit der Karte nicht ganz zufrieden, weil mir "Geisterschriften" (oder wie sich der Effekt nennt) auffallen. Ist das mit heutigen Karten bei VGA-Nutzung normal? Oder kann ich irgendwas einstellen?
 
Mit "heutzutage" hat das aber nix zu tun ;)

Ist der unschöne effekt wenn man VGA benutzt... hast du keinen Monitor mit einem digitalem eingang?
 
Nö, den Effekt habe ich mit dem eingebauten OnBoard-Grafik-Chip (Radeon HD4200) nicht, mit einer älteren GeForce GT6600 auch nicht.
Nein, habe keinen LCD-Monitor.
 
@stockduck
Um die 500 Monitore an VGA und immer ein schönes Bild, weiß gar nicht wo die Leute immer das Zeug her haben das VGA=Schrott Bild ist, ab und zu gibt es Probleme, aber das nur ziemlich selten, das meiste kann man mit etwas anderen Settings beheben ...


@MartyK
Hast du mal Auto-Einstellungen am Monitor getestet, meist stellt der Monitor die Settings richtig ein.

Wie sieht die Schrift überhaupt aus, ist nur die Schrift verzogen oder das ganze Bild wie wenn zwei Bilder über einander wären und dabei leicht verschoben?
 
@
..dann liegt es doch an deinen Monitor.
 
Kannst du mal ein Bild hochladen, damit man sehen kann was du genau meinst? Willst du sagen, dass deine Schriften verschwommen sind? Ich denke da gibt es unter Windows sowas wie Cleatype.
 
Commander Alex schrieb:
weiß gar nicht wo die Leute immer das Zeug her haben das VGA=Schrott Bild ist,

Weil nun mal die VGA Signale von Mainstreamkarten nie das gelbe vom Ei waren. Bei den aktuellen Atom-CPUs geht die Bildgröße nur bis 1400xirgendwas, aber selbst das sieht beschissen aus. Je mehr die Digitalschnittstellen Land gewannen desto schlimmer wurde die Qualität der Analogbauteile, da die Hersteller dort gespart haben. Ich habe letztens beim Aufräumen im Keller eine Matrox G200 gefunden, das war noch eine Grafikkarte mit VGA Qualität.
 
Hast du schon mal versucht, bei Anschluß über VGA eine Auflösung von 1920x1200 einzustellen? Je nach Grafikkarte kann das gehen, muss aber nicht, immerhin hat das/die Signale dann eine Pixelrate von guten 138MHz, Analog! wohlgemerkt, das sich da rauschen und Doppelbilder unter mischen, ist völlig normal. Und da es immer verbreitertwe ist, Monitore digital anzuschließen, legen die Hersteller auch nicht mehr allzu viel Wert auf gute, analoge Ausgangstreiber.
 
@hayden
Klar gibt da Ausnahmen, aber die meisten wie die "größeren" Intel-OnBoard, kleinen Nvidia/Quadro und die AMD/ATI in den Servern, machen bei uns bis auf sehr wenige Ausnahmen wo es meist am Kabel liegt keine Probleme ...

Will damit nur sagen, man sollte nicht gleich alles auf VGA schieben ohne Fehlersuche zu betreiben, mein 1920x1200er wo ich gerade dran sitze hängt übrigens auch an einer 2400Pro mit VGA :D
 
@Commander Alex:
Glaube nicht, dass ich das damit beheben kann, denn damit kann man nur Konvergenz, Moire, Helligkeit etc. ändern.
Es handelt sich um Geisterschatten.

@DerKleine49:
Nein, siehe #3.

@Compute:
Du meinst ClearType. TruCrypt dient zur Verschlüsselung.
Geisterschatten meine ich mit dem Effekt.

Wie gesagt:
Bei meiner GeForce 6600 GT und Onboard-Grafikkrate Radeon HD 4200 ist die Schrift ohne Geisterschatten.
 
Nee, glaube ich nicht, dass die Grafikkarte defekt ist. Es ist ja nicht superauffällig, aber man merkt es halt.
 
Es ist halt so, ab einer gewissen Auflösung und Refresh Rate gehts halt einfach nicht mehr sauber. Abhilfe KANN! ein besser geschirmtes Kabel bieten.
 
Hallo,

was für Anschlüsse hat denn deine Graka?
Du kannst z.B. wenn es sich einrichten lässt, mal ein anderes VGA Kabel ausprobieren.
Oder wenn die Graka z.B. einen Analog und einen DVI bietet, den Monitor über einen Adapter an DVI anschließen.

@über mir: 222! :D

Tschööö
Hotte
 
Ich würde behaupten, aufgrund der Masse an Kabeln in DVI Kabeln sind diese qualitätsmässig um längen schlechter als VGA Kabel.
 
Nein, es liegt nicht an der Auflösung. Ich habe einen 19"-Monitor, Marke Philips, Auflösung 1024x768. Am Kabel kann es auch nicht liegen, s. o. Also bleibt nur die Grafikkarte.
Über DVI kann ich den Monitor auch nicht anschließen, weil es sich um einen DVI-D-Anschluss handelt. Ich muss mich wohl damit abfinden, dass heutige Grafikkarten ein schlechtes VGA-Signal abgeben, weil deren Qualität auf LCD-Monitore getrimmt ist.
 
Der Chip sollte auch nicht schlechter als auf der HD4200 sein und da geht es ja auch, eine 6450 hab ich auch schon an einem 24" dran gehabt, Unterschied zu anderen VGA-Karten ist mir da nicht aufgefallen ...

Aber kann einfach an der Röhre liegen, manche neuen Karten haben da Probleme, sie sind nicht kompatibel oder sonst was, deshalb hängen die bei uns meist noch an alten Matrox Karten da die Dinger einen top VGA-Ausgang haben ...
 
Naja, was soll ich sagen? Es kann nicht an der Röhre liegen, da ich diese immer nutze. Und der VGA-Anschluss ist ein ganz normaler... Eine Matrox-Karte hatte ich früher übrigens auch mal im Betrieb.
 
Zurück
Oben