NVidia - analoge Bildqualität

Urbi

Lt. Junior Grade
Registriert
Aug. 2004
Beiträge
293
Hi!
Ich habe mom. eine 9700 Pro von Sapphire. Will mir ein Mobo mit PCI-E kaufen (NForce 4) und möglichst bald danach eine 6800GT, wenn möglich mit Serienmäßigen Arctic Cooling Kühler. Nun meine Probleme:

1. Bildqualität:
Die Dinger haben "nur" 2 DVIs. Ich habe "nur" einen CRT und den will ich so bald nicht wechseln. Bildqualität ist mir aber dennoch wichtig. Bleiben nur diese doofen Adapter-Stecker. Wie sind die so? Wie ist die Bildqualität der Geforce Karten allgemein so? Früher war die ja mal ziemlich grottig. (Bei der XTPE weiss ich das sie "gut" ist - ich habe zeitweise eine für AGP gehabt).

2. HDR und SM 3.0
Bringt das was? Gibt es irgendwo eine Liste mit Spielen/Engines die das unterstützt?

3. Hatte seit 2000 nur ATis. Die einzige Geforce die ich jemals hatte war eine Hercules Prophet 3D 2 MX. :)
Irgenwie kann ich mich nicht mit dem Gedanken anfreunden auf Nvidia umzusteigen. Die Treiber und die Direct X Performance sind mir lieb geworden (ja, auch die Treiber Hydraview z.B. mit rTool macht das außerdem richtig Spass mit den Einstellungen zu spielen).
Andererseits kotzt es mich an jetzt eine XTPE zu haben mit der ich in einem Jahr nichtmehr volle Details habe nur weil der Karte diese HDR und SM 3.0 Features fehlen...(ich glaube bei dieser Sache kann mir keiner helfen. Egal :D).

4. Wann denkt ihr kommen die ersten PCI-Es von NVidia raus. Ich brauche die Karte und das Mobo relativ schnell, allerspätestens Mitte Dezember - denkt ihr da kann ich mir Hoffnungen machen, oder eher nicht?
 
zu 1) im allgemeinen ist die signalqualität der geforce-produkte sichtbar schlechter als die der radeon-familie - daher auch der spöttelnde spitzname "blurforce".
bis jetzt war ich von der 2d-qualität der ati-karten absolut überzeugt und meine erfahrungen mit der 6er-serie bestätigen, dass sich an der situation nicht viel geändert hat: die ramdacs sind bei nvidia qualitativ schlechter.

zu 2) sm3.0, nunja, ich würde nicht beschwörn, dass es was bringt, aber es zu haben kann von vorteil sein.
hdr wird derzeit schon in farcry (cry-engine) mit patch1.3 nur auf karten >=geforce fx und radeonX (warum auch immer) und halbiert oder viertelt die framerate sogar und macht das spiel damit selbst auf einer 6800ultra grade mal auf 1024 mit ein bisschen aa spielbar - imo firlefanz auch wenns gut aussieht.
in hl2 und cs:s gibt es auch hdr, allerdings nicht so exzessiv wie in farcry und an wenigen stellen. es verbraucht einfach zu viel rechenleistung und ist deshalb nicht praktikabel.

zu 3) war - bzw. bin immernoch - sehr lange ati-user und hab mich an die karten gewöhnt. mich an den gedanken zu gewöhnen, eine nvidia einzusetzen war nicht leicht und es bedurfte auch einiger eingewöhnungszeit.

zu 4) ich weiß nicht ob pcie sich schon lohnt - weiß wohl keiner. an und für sich sind die karten allgemein ja schlecht verfügbar und pcie macht da keine ausnahme.
an der verfügbarkeit wird sich bis mitte dezember wohl auch nicht viel ändern.
 
Urbi schrieb:
Die Dinger haben "nur" 2 DVIs. Ich habe "nur" einen CRT und den will ich so bald nicht wechseln.

Der Grafikkarte liegt auf jeden Fall noch ein Adapter bei, mit dem du ganz gewöhnlich deinen CRT anstecken kannst und die Quali ist für Analog nicht schlecht. Die Signalqualität kann man als sehr gut betrachten. Da man etwaige Mängel eh nur messen kann, sehen wirst du den Qualitätsunterschied auf einem CRT nicht.
 
Zuletzt bearbeitet:
die signalqualität verschlechtert sich durch den adapter zwar nicht, trotzdem ist das analoge signal im vergleich zum digitalen sichtbar schlechter - stichwort unschärfe. ati wandelt hier nunmal besser um und matrox soll sowieso alles wegblasen, hatte bis jetzt aber keine karte von denen, also geb ich nur wieder, was man so erzählt.
 
riDDi schrieb:
trotzdem ist das analoge signal im vergleich zum digitalen sichtbar schlechter - stichwort unschärfe.
Das ist aber nur der Fall, wenn man vergleichen kann. Wenn jemand keinen TFT mit DVI hat, wird er auch die analoge Bildquelle für sehr gut befinden.
 
Ralf B. schrieb:
Das ist aber nur der Fall, wenn man vergleichen kann. Wenn jemand keinen TFT mit DVI hat, wird er auch die analoge Bildquelle für sehr gut befinden.
ich würde mal sagen, dass wenn man einen TFT über den DVI Ausgang benutzt, man überhaupt kein Analoges Bild bekommt. Es macht wohl kaum sinn, zwei mal DVI zu Sub-D Adapter zu benutzen.
 
MechWOLLIer schrieb:
ich würde mal sagen, dass wenn man einen TFT über den DVI Ausgang benutzt, man überhaupt kein Analoges Bild bekommt. Es macht wohl kaum sinn, zwei mal DVI zu Sub-D Adapter zu benutzen.

@Mechi:

Wie stehst du zu dem Statement von riDDi, dass ATI in der Quali besser ist?
 
MechWOLLIer schrieb:
Ralf.B schrieb:
Zitat:
Original geschrieben von Ralf B.
Das ist aber nur der Fall, wenn man vergleichen kann. Wenn jemand keinen TFT mit DVI hat, wird er auch die analoge Bildquelle für sehr gut befinden.

ich würde mal sagen, dass wenn man einen TFT über den DVI Ausgang benutzt, man überhaupt kein Analoges Bild bekommt. Es macht wohl kaum sinn, zwei mal DVI zu Sub-D Adapter zu benutzen.

Und was hat dein Statement jetzt mit meiner Intention zu tun? :rolleyes:
 
NEW ERA CAP schrieb:
@Mechi:

Wie stehst du zu dem Statement von riDDi, dass ATI in der Quali besser ist?
Viel kann ich dazu auch nicht sagen, da ich nur eine Karte habe.
Was auf jeden Fall richitg ist, dass Matrox eindeutig die beste Signalqualität hat.
in den Test die ich gelesen habe, wurde allerdings immer gesagt(und auch irgendwie nachgemessen), dass der NV40 eine bessere Signalqualität hat als der R420.
 
die signalqualität des r420 ist vergleichbar mit der des r3xx - wenn auch messungen geringfügig schlechtere signalqualität zeigten. im direkten vergleich versagt der nv40 aber gegen letzteren. mit bloßem auge waren unterschiede sichtbar. zuerst hatte ich nur ein ungutes gefühl im bauch, nach dem motto "da ist was im busch". genauere betrachtungen von kleiner (z.b. größe 10), kontrasarmer schrift habens dann gezeigt: die ränder vermatschen.

natürlich hab ich keinen oszillographen da, aber so waren meine eindrücke.
 
Dazu muss man auch sagen, dass dies von Karte zu Karte unterschiedlich sein kann, ich würde da eine Aussage nicht verallgemeinern. Normalerweise sollte man mit purem Auge keinen unterschied zwsichen einem NV40 und einem R420 sehen können.
Wie gesagt, da gibt es Qualitätsschwankungen. Den Test den ich gelesen habe, war das Ergebnis andersherum.
 
Urbi schrieb:
Hi!
Ich habe mom. eine 9700 Pro von Sapphire. Will mir ein Mobo mit PCI-E kaufen (NForce 4) und möglichst bald danach eine 6800GT, wenn möglich mit Serienmäßigen Arctic Cooling Kühler. Nun meine Probleme:

1. Bildqualität:
Die Dinger haben "nur" 2 DVIs. Ich habe "nur" einen CRT und den will ich so bald nicht wechseln. Bildqualität ist mir aber dennoch wichtig. Bleiben nur diese doofen Adapter-Stecker. Wie sind die so? Wie ist die Bildqualität der Geforce Karten allgemein so? Früher war die ja mal ziemlich grottig. (Bei der XTPE weiss ich das sie "gut" ist - ich habe zeitweise eine für AGP gehabt).

2. HDR und SM 3.0
Bringt das was? Gibt es irgendwo eine Liste mit Spielen/Engines die das unterstützt?

3. Hatte seit 2000 nur ATis. Die einzige Geforce die ich jemals hatte war eine Hercules Prophet 3D 2 MX. :)
Irgenwie kann ich mich nicht mit dem Gedanken anfreunden auf Nvidia umzusteigen. Die Treiber und die Direct X Performance sind mir lieb geworden (ja, auch die Treiber Hydraview z.B. mit rTool macht das außerdem richtig Spass mit den Einstellungen zu spielen).
Andererseits kotzt es mich an jetzt eine XTPE zu haben mit der ich in einem Jahr nichtmehr volle Details habe nur weil der Karte diese HDR und SM 3.0 Features fehlen...(ich glaube bei dieser Sache kann mir keiner helfen. Egal :D).

4. Wann denkt ihr kommen die ersten PCI-Es von NVidia raus. Ich brauche die Karte und das Mobo relativ schnell, allerspätestens Mitte Dezember - denkt ihr da kann ich mir Hoffnungen machen, oder eher nicht?


In einer der letzten C'ts wurden NV Karten mit ATI Karten bzgl. der Bildqualität untersucht. Ergebnis: Ja, NVidia-Karten sind durchweg schlechter wenn es um den analogen Ausgang geht...
Allerdings gibt es auch keine ATI-Karte mit richtig guten Werten, wenn es um hohe Auflösungen geht. Das wurde auch kritisiert...
Ansonsten sollte man tatsächlich zu ATI greifen, wenn man sich zwischen NV und ATI entscheiden muss und großen Wert auf das 2D-Signal legt.
 
Also 24 ists nicht, muss die 23 gewesen sein. Schade. Naja habe ich wenigstens mal wieder was zum Lesen! :D
 
Bezüglich signalqualität graka ist auf tecchannel folgender vergleich - test & tabelle

Ob pci-express oder agp - vielleicht hilft dieser topic zur klärung.

und bezüglich pci-express und spieleperformance - dann noch dieser nützliche test

--> Keine Vorteile für Spiele

--> PCI Express eröffnet Grafikkarten ganz neue Möglichkeiten. Weniger bei der gewohnten 3D-Darstellung in aufwendigen Spielen, sondern bei der Videobearbeitung. Grafikchips der nächsten Generation arbeiten als grafischer Koprozessor, um die CPU von intensiven Rechenoperationen bei der Umwandlung und Darstellung von Videosequenzen zu entlasten. Schlüssel dazu ist die PCI-Express-Technik mit rasanten 3,7 GByte/s werden die Daten nicht nur vom System zur Grafikkarte, sondern auch zurück übertragen. Aber noch ist es nicht soweit. Aktuelle PCI-Express-Grafikkarten unterscheiden sich in der grundlegenden Architektur nicht von den bekannten AGP-Produkten.

ja und wenn ich schon so fleissig dabei bin - > Test AMD-Chipsätze: ATI-Express200 vs. nForce4 und K8T890 >> hier
 
Zuletzt bearbeitet:
Zurück
Oben