Ratlos im GraKa-Dschungel

Ja klar, beim LCD ist das was ganz anderes als beim TFT... Ist ja nur das Gleiche! :rolleyes:

Es ist komplett schwachsinnig, einen 1366x768-Monitor/-Fernseher mit einer FullHD-Auflösung zu fahren. Wüsste nicht wie das ohne A/V-Receiver mit Upscaling funktionieren sollte. Die Bildqualität beim Spielen wird jedenfalls nicht wirklich besser, der Monitor/Fernseher hat nun mal nur 1366x768 Pixel. Und wie schon angemerkt wurde ist diese Auflösung niedriger als die eines Standard-19"-Displays. Da wird man nicht exorbitant hohe Speichermengen brauchen.

Um auch nochmal in die Wunde zu drücken ;) : Mal eben ne GTX bei eBay zu verticken, um sich dann darüber zu informieren, dass es außer der "veralteten" Ultra keinen schnelleren Ersatz gibt zurzeit, ist ganz schön :freaky:

Das einzig wirklich sinnvolle was du machen könntest, wäre auf die Geforce9-Serie zu warten, die angeblich im zweiten Quartal 08 erscheinen soll. Ob das stimmt weiß aber keiner mit Sicherheit, bis jetzt sind das alles nur Gerüchte. Ansonsten hol dir die neue GTS, da merkst du keinen Unterschied zur GTX, außer den geringeren Strombedarf.
 
Waren "nur" 360 Flocken. Hat zwar ursprünglich 100 € mehr gekostet, aber momentan bekommst du noch wenigstens was dafür...
Da im Vorfeld wurde für die G92-Serie ziemlich geschwärmt wurde "... leistungsstärker als `ne 8800 Ultra bla bla..." war das für mich der Punkt, warum ich die "alte" abgestoßen habe. Aber jetzt erstmals die CB-Benchmarks abwarten und dann wird`s sich hoffentlich nicht als Fehler herausstellen ;)
Ansonsten auch nicht so schlimm, da ich das komplette System "gesponsert" bekommen habe... ;)
 
@ 192.168.1.1
du lehnst dich gerade weit aus dem Fenster. Ein LCD-Fernseher ist insofern was anderes als ein TFT-Monitor, da der LCD einen Deinterlacer eingebaut hat. Kenne keinen TFT mit sowas. Hmm. Und gerade der Deinterlacer vom Toshiba C3005P von Shahin23 hat, genau wie mein Bildschirm, einen DCDi Faroujia Deinterlacer drinnen. Das ist das beste was zur Zeit auf dem Markt ist, da findest du keinen noch so teuren AV-Receiver der das besser kann. Ausserdem sind die Panels um einiges hochwertiger als so ein TN+ Panel.

Aus meiner praktischen Erfahrung kann ich sagen, dass bei meinem Toshiba Spiele, Filme etc. auf 1080p doch um einiges besser aussehen als auf 720p, was der nativen Auflösung des Monitors eher entsprechen würde.. wäre es nicht so, hätte ich mir vor ein paar Monaten keine GTX gekauft.

Habs übrigens auch per VGA-Anschluss auf 1366x768 probiert, das kackt aber gegen HDMI mit 1080p voll ab. Und bevor jetzt der Einwurf kommt, dass die Graka auch bei 1080p nur die Bildpunkte von 1366x768 berechnen muss: FALSCH, die Graka berechnet 1920x1080 Bildpunkte und der DCDi wandelt das Bild entsprechend der Monitor-Hardware um. Hoffe ich konnte da ein bisschen Licht ins Dunkel bringen.
 
Ich glaub du verwechselst da was ;)

Ein TFT-Computer-Monitor braucht keinen Deinterlacer, da die Signale beim Computer eh als Vollbilder (p wie progressive) von der Graka ausgegeben werden. Nur beim PAL und anderen nicht HD-Formaten wird das Zeilensprungverfahren verwendet (i wie interlaced). Dabei wird aus zwei Halbbildern ein volles Bild zusammengsetzt. Das sollte Übertragungsbandbreite sparen, hat aber auch Nachteile wie Flimmern. Videosignale von DVD beispielsweise, die auf TFTs ausgegeben werden, werden von der DVD-Software Deinterlaced, oder von der Hardware (Graka, TV-Karte)

Die Hochwertigkeit der TV-Panels ergibt sich aus dem Anspruch, das man das Fernsehbild aus einem möglichst breiten Blickwinkel betrachten können muss, im Gegensatz zum Computermonitor. Außerdem sind die Fernsehgeräte deutlich teurer als die TFTs, von denen es auch hochwertige ohne Blickwinkelabhängigkeiz gibt (-VA, IPS).

Das der VGA-Anschluss gegenüber dem HDMI-Anschluss "abkackt" ist ganz einfach auf das analoge Signal zurückzuführen, deswegen sollte man auch keinen TFT, LCD, Plasma oder sonstiges mit Pixeln über den VGA-Anschluss anschließen.
Deswegen wird in jedem Kaufberatungsthread hier im Forum auch davon abgeraten, auf DVI zu verzichten. Das Bild wird dann unscharf.

Ein TFT ist im übrigen ein Matrix-LCD, der eben aufgrund der verwendeten Transistoren (Thin-Film-Transistor) umgangssprachlich so bezeichnet wird.

Zur weiteren Lektüre empfehle ich

http://de.wikipedia.org/wiki/Zeilensprungverfahren
http://de.wikipedia.org/wiki/Flüssigkristallbildschirm
 
Shahin23 schrieb:
Da im Vorfeld wurde für die G92-Serie ziemlich geschwärmt wurde "... leistungsstärker als `ne 8800 Ultra bla bla..." war das für mich der Punkt, warum ich die "alte" abgestoßen habe. Aber jetzt erstmals die CB-Benchmarks abwarten und dann wird`s sich hoffentlich nicht als Fehler herausstellen

triffst du deine entscheidungen immer aufgrund irgendwelcher spekulationen, statt erst mal fakten abzuwarten oder dich wenigstens im vorfeld eingehender darüber zu informieren, was in deiner situation sinnvoller wäre? auch wenns nicht dein geld war... vor allem kommt anfang nächsten jahres die nächste nvidia generation raus, die sicher nochmal besser ist als die g92er, willst du dann nochmal schnell vorab deine neue grafikkarte, wenn sie denn bis dahin überhaupt lieferbar ist :D, verkaufen und dir gleich das nächste highend modell spendieren lassen?

also auf dauer kanns so nicht gut gehen, es sei denn deine sponsoren haben unbegrenzt kohle ;).
 
Zurück
Oben