Testredakteure und die "Bugs" im NV-Control-Panel

abcd12 schrieb:
Das kann man eigentlich nicht so stehen lassen, denn ein durchschnittlicher CRT verbraucht schon mal das dreifache an elektrischer Energie im Vergleich zum TFT, was mittelfristig den Kostenvorteil des CRT zunichte macht.
Hättest du mal gnädigerweise den gesamten Thread gelesen, hättest du festgestellt, dass ich dazu schonmal was gesagt hatte, ebenfalls dürfte die produktbeschreibung des verlinkten CRT interessant sein, denn der verbraucht in vollem Betrieb 70 W. Wenn du dir mal aufrechnen lässt was du mit einem Syncmaster 930BF, welcher 38 W verbraucht und in der Anschaffung bei Alternate € 379,- und beim billigsten bei Preistrend € 343,65 kostet, dem gegenüber im Jahr an Stromkosten sparst landest du vielleicht bei zehn, zwanzig Euro, du musst den TFT also schon ein paar Jahre nutzen um den Kostenvorteil des Phillips 19" CRT zunichte zu machen - den Philips 109B60 gibts bei Preistrend ab € 154,67,-, spar mal die bei Preistrend immerhin noch € 188,98 Preisunterschied durch 32 W Stromersparnis zusammen. ;)

abcd12 schrieb:
Ich bin z.B. sehr empfindlich was Bildwiederholfrequenzen angeht, und zumindest das Problem hat man beim TFT nicht.
Nee ist klar, ein Monitor der 1280*960 noch mit 100 Hz darstellen kann verursacht Augenschmerzen? Der Durchschnittsmensch kann schon ab 85 Hz ausdauernd davor sitzen ohne Beeinträchtugungen zu haben.

abcd12 schrieb:
Und wenn man dann so einen TFT besitzt,
Und wenn wie mehr als die Hälfte der CB-Besucher nicht?
 
Zuletzt bearbeitet:
MountWalker schrieb:
Interpolation ist für mehr als die Hälfte aller CB-Besucher kein Thema(...)

Da muss ich was anmerken.

Es ist zwar FAKT, das noch über die Hälfte der User mit einem CRT surfen, allerdings sieht der momentane Absatz ja wohl ganz anderst aus. Auf einen verkauften CRT kommen 7 TFT's. Und daher ist TFT einfach die Zukunft, und die gute alte Röhre wird aussterben. Ob uns das passt, oder nicht... Wenn TFT's günstiger werden, und meine Röhren schlechter/älter, werden sie wohl migriert werden - auf TFT's - das ist wohl (überall) so.

gruß
chris
 
Zunächst mal, sorry für OT.

@MountWalker
den Fred hab ich schon ganz gelesen, aber jedes Detail eines 4-seitigen Themas behalte ich beim besten Willen nicht im Kopf. Ich habe darüber hinaus für meinen TFT lediglich 199EUR gezahlt, sodass ich die Differenz zu einem Röhri relativ bald wieder drin habe , insbesondere wenn ich daran denke, dass ich meinen 19Zoll CRT vorher 8Jahre besessen habe (Zumal 70W für einen 19Zöller schon ein Topwert ist, viele liegen eher um die 100W und die Strompreise eher ansteigen als konstant zu bleiben.). Selbst wenn es sich nicht ganz ausgeht, bin ich gerne bereit den Mehrpreis, sofern vorhanden, für die bessere Bildqualität zu zahlen. Ich wollte eigentlich nur gegen die Aussage anstinken, dass ein CRT bei Neukauf die günstigere Wahl wäre, was aus meiner Sicht heutzutage zumindest fragwürdig ist.

Zu der Bildwiederholfrequenz ist zu sagen, dass du es einfach mal so hinnehmen musst, wenn ich sage, dass ich damit Probleme hatte (Zum Beispiel entzündete Augen, besonders wenn ich lange schreiben musste (1024x768@100Hz).). Beim TFT muss ich diese Diskussion nicht führen, weil sich das Problem dort nicht stellt.

MountWalker schrieb:
Und wenn wie mehr als die Hälfte der CB-Besucher nicht?
Dann eben nicht!
 
Zuletzt bearbeitet:
Wer will den bitte nen 19"er mit ner mickrigen Auflösung von 1280x1024?

Selbst mein 21" Samsung nervt, weil er "nur" 1600x1200 hat :(

gruß
chris
 
Danke Sebbeck für den Link, jedoch wird da nur mit Prozenten gerechnet, mich würde einfach interessieren, ob die NV Karten noch vor den ATIs liegen würden, wenn man mal auf Leistung statt hohe Quali stellt...
Ach ja, bezüglich TFTs:
Ich hab den VX924 und das Bild ist schärfer, größer und wesentlich besser als auf meiner 19er Röhre, die zudem gute 130Watt verbraucht hat...
Rechnet man das um:
7h / Tag ist der Moni bei mir an:
Also ca. 0,13kW/h und am Tag dann 0,91kW/h
Eine Kilowattstunde kostet vllt. 18cent.
Dann rechne das aus, 365*0,91= ca. 332kW/h
Das noch mal 0,18€ = ca.60€ / Jahr
(TFT bräuchte bei 35Watt dann ca. 16€/Jahr)

Also dann rechne mal aus, wie lange du deinen TFT haben musst, um die Differenz reinzubekommen...
Und dann rechnest aus, wie viel Geld du schon mit deiner Röhre verblasen hast und fasst dir an den Kopf ^^
 
bin ich der einzigste dem es am Arsch vorbei geht wie viel Strom ein gerät verbraucht? ok zugegeben irgendwann ist Schluss aber hier im threat "ging" es um die Qualität der Grafik.
egal ob moni oder tft die Diskussion ist sinnlos.
 
Der TFT stellt aber im Allgemeinen schärfer dar (Stichwort Qualität), was mir zudem vor allem bei höheren Auflösungen das AA/AF ersparen kann. Und auch Flimmern stark reduziert (versuche mir immer noch zu erklären, warum ich es nicht so sehe und hab meinen alten 17" CRT mal als Vergleich heran gezogen und denke, dass das u.a. ein Grund für unterschiedliche Wahrnehmung ist!)

Wenn er dann noch gravierend weniger Strom verbraucht und auch noch ne größere sichtbare Bilddiagonale bietet, bleiben nicht mehr viele Argumente für den CRT. Das ist zwar alles etwas themenübergreifend, hängt aber letzten Endes schon mit der Qualität zusammen. Bei solchen Themen kommt man halt leider schnell auf andere Aspekte.

Matthias80 schrieb:
bin ich der einzigste dem es am Arsch vorbei geht wie viel Strom ein gerät verbraucht?
Noch Hotel Mama, oder hast Du einfach genug Geld, dass Du darauf nicht achtest? Bleibt letzten Endes auch ein Umweltproblem, dass sich viele keine Gedanken darum machen. Würden alle Haushalte mal ein wenig darauf achten, was der PC so saugt, könnte sich das durchaus positiv sowohl wirtschaftlich als auch umwelttechnisch bemerkbar machen.
 
Zuletzt bearbeitet:
stimmt muss ich dir recht geben ein guter tft ist schon ein Erlebnis! aber ich glaub da lenkt dich dein tft ab. denn aa wird dein tft wohl ned können ganz zu schweigen von af aber vielleicht sind da deine augen ned mehr so gut... hihi die spitze kannst du übrigens lassen habe ne eigene Wohnung. es geht mit um das Thema und das ist NICHT Stromsparen. will auch nen tft haben aber solange es keine tft's gibt die alles können wird das nix... Thema Umweltschonung stimme ich dir aber zu.
 
Matthias80 schrieb:
stimmt muss ich dir recht geben ein guter tft ist schon ein Erlebnis! aber ich glaub da lenkt dich dein tft ab. denn aa wird dein tft wohl ned können ganz zu schweigen von af aber vielleicht sind da deine augen ned mehr so gut... hihi die spitze kannst du übrigens lassen habe ne eigene Wohnung. es geht mit um das Thema und das ist NICHT Stromsparen. will auch nen tft haben aber solange es keine tft's gibt die alles können wird das nix... Thema Umweltschonung stimme ich dir aber zu.

Zu den Thema Umwelt :Hast ja recht aber die ist doch sowie so schon fast versaut!
 
KraetziChriZ schrieb:
Wer will den bitte nen 19"er mit ner mickrigen Auflösung von 1280x1024?

Selbst mein 21" Samsung nervt, weil er "nur" 1600x1200 hat :(
...
Wer nutzt denn bitte auf einem 19" CRT eine höhere Auflösung? Die Loch- bzw. Streifenmaske hat ihre Grenzen deutlich unter den Maximalauflösungen, die manch CRT-Hersteller der Elektronenkanone ermöglicht. Ein 19" TFT ist größer als ein 19" CRT und hat auch "nur" 1280*1024 - auf einem 4:3-CRT sollte aber 1280*960 besser kommen, das aber nur mal nebenbei. ;)

sebbek schrieb:
Der TFT stellt aber im Allgemeinen schärfer dar (Stichwort Qualität), was mir zudem vor allem bei höheren Auflösungen das AA/AF ersparen kann.
Wieso erspart schärfere Darstellung AA und AF? Wäre doch eher beim CRT so, dass die von der Elektronenkanone verschossenen Pixel auf einem Loch gemuischt werden und es dadurch zu einer Art Supersampling kommt, die Lochmaske stellt nur ihre Auflösung dar, aber ich pfeffere mit übertrieben hoher Auflösung Subpixel auf die Löcher - Problem ist nur, dass das nichts bringt, weil ich für diese überfahrene Auflösung 1. viel zu viel Performance verpfeffere und 2. die Bildwiederholrate senken muss was zu flimmern führt. ;)
 
Zuletzt bearbeitet:
Stimmt, der CRT würde natürlich Treppen weicher zeichnen, da er unschärfer ist. Aber die höhere Auflösung des schärferen TFTs machts irgenwie umterm Strich dennoch angenehmer. Ich drückte mich da mißverständlich aus - allein die höhere Auflösung ist natürlich für die angenehmere Darstellung verantwortlich.

Ich kann nur einen TFT mit 1280x1024 (oder seit kurzem 1680x1050) mit einem 17" CRT @ 1024x768 vergleichen und es stellt sich für mich so dar, als ob ich auf dem CRT mehr mit Flimmern oder unruhigen Kanten zu tun habe. Dem gegenüber stünde ein performancelastiges AA/AF welches aus meiner Erfahrung oder für meinen Geschmack weniger bringt als das scharfe Bild (wenn auch der Kantendarstellung zuträglich) eines TFT kombiniert mit den Vorteilen hoher Auflösungen.

Bleibt wohl Geschmackssache, aber mit dem Thema hats schon noch was zu tun, denn im hier diskutierten Artikel hieß es
Jeder an Bildqualität interessierte Spieler (und damit praktisch jeder, der mit den Begriffen AA und AF etwas anfangen kann) wird sich jedoch nicht mit der default-Einstellungen des nVidia-Treibers zufrieden geben (können).
Und ich bin an Bildqualität interessierter Spieler, lasse aber AA/AF bewusst weg und bevorzuge dafür eine hohe Auflösung!
 
Zuletzt bearbeitet:
sebbekk schrieb:
,,, Ich kann nur einen TFT mit 1280x1024 (oder seit kurzem 1680x1050) mit einem 17" CRT @ 1024x768 vergleichen und es stellt sich für mich so dar, als ob ich auf dem CRT mehr mit Flimmern oder unruhigen Kanten zu tun habe. Dem gegenüber stünde ein performancelastiges AA/AF ...
Die höhere Auflösung ist viel performancelastiger als Multi-Sampling, mit MultiSampling + AF kann man Leristung viel effizienter in Bildqualität umwandeln als mit der Auflösung. (siehe auch dutzende 3D-Center-Artikel von Aths). Flimmerei hast du dann bei Alphatest-Texturen, weil Multisampling darauf nicht wirkt, wohingegen es auf Alpha-Blending wirken würde. Kommt also auch stark aufs Spiel an, HL2 flimmert ständig, bei GT Legends flimmert nur der Kühlergrill, bei manchem Spiel flimmert auch gar nichts, weil keine Alphatests verwendet werden. ;)
 
Zuletzt bearbeitet:
sebbekk schrieb:
Und ich bin an Bildqualität interessierter Spieler, lasse aber AA/AF bewusst weg und bevorzuge dafür eine hohe Auflösung!
na dann hast du den sinn davon nicht ganz verstanden. solange man nicht grade einzelne pixel definiert erkennen kann ist die kombination aus aa (+taa oder aaa) und af effizienter was qualitätssteigerung angeht. geht man von 1280*1024 auf 1600*1200 (jaja, 12*10 ist 5:4 und 16*12 4:3, aber iss auch wurscht) steigt der workload um 46%, die qualitätssteigerung ist dabei aber marginal, weil die kanten immernoch flimmern. bei 2x aa steigert sich die auflösung eines pixels schon um 50%, also mehr als das, was die erhöhung der auflösung bringt und kostet dabei nur einen bruchteil der rechenleistung. 4x aa entspricht dann schon einer auflösung von 2560*2048.
einen vorteil hat die erhöhte auflösung natürlich: gleichzeitige schärfung der texturen. das erledigt dann das af, solange es denn ordentlich arbeitet und bringt texturschärfe, die durch eine erhöhung der auflösung nie zu erreichen wäre.
 
Das Abschneiden einer Midrange Karte (Asus V9999GT/TD/128) im Vergleich

1024x768 4xAA/8xAF vs. 1280x1024:

Far Cry:................ 74 vs. 89
UT2004:.............. 172 vs. 206
Enemy Territory:......84 vs. 86
Doom 3:................ 57 vs. 68
Tomb Raider:...........48 vs. 47
Half Life 2:............. 93 vs. 103

Quelle: https://www.computerbase.de/2004-12/test-asus-v9999gt-td-128/8/#abschnitt_spielebenchmarks

Die höhere Auflösung ist anhand dieses Beispiels schon mal nicht performancelastiger. Man kann also nicht direkt sagen, dass man mit MultiSampling + AF Leristung viel effizienter in Bildqualität umwandeln kann als mit der Auflösung. Denn die Leistung an sich wird schon einmal stärker beeinflusst. Ob nun aber auch die Bildqualität besser bzw. soviel besser ist, dass es sich lohnt auf 1024x768 4xAA/8xAF statt 1280x1024 zu setzen, stelle ich weiterhin in Frage.
 
was dir dabei fehlt ist ein direkter vergleich beider qualitäten. das ergebnis in 10*7 mit aa und af wird besser ausfallen ;) im vergleich zu einer verdoppelten auflösung verliert eine 6800gt in farcry nur 42% an leistung, für ein ähnliches ergebnis müsste sie mit 20*15 fahren, wie die karte da in die knie geht dürfte klar sein oder? ;)
 
eben 1280*1024 musst du mit 1024*768 + 2xAA vergleichen

und den vergleich tft zu crt kann ja nur der tft gewinnen bei dem billigst crt

nimmt man einen gescheiten crt mit 1280*1024 bei 100hz siehts wohl schon ander aus
ich will ja nicht abstreiten das nen tft sehr wohl viele vorteile hat, aber das du nen tft extrem besser findest als nen crt is ja kein wunder
 
Er kann ruhig 4x MSAA nehmen, dass die Framerate in seinem Beispiel bei AA/AF schlechter ist dürfte auch an 8x AF liegen - er lässt sich wiedermal von dem leiten, was Testredakteure in Mehrheit seit Jahren als Testkonfiguration benutzen, dabei muss man nicht sofort mit dem AF so weit gehen. Bei 4xAA und 4x AF dürften sich die Ergebnisse schon deutlich näher kommen, das Ergebnis mit 1024*768 sähe dabei immernoch deutlich besser aus.

Da es in diesem Thema ja gerade darum geht, dass Testredakteure mitunter ziemlichen Quatsch machen sollte man sich nicht von der Mehrheit der testredaktionen leiten lassen. ;)
 
Zuletzt bearbeitet:
"Er" wird sich mühe geben, das mit der Zeit alles nachzuvollziehen... ;)

Gruß
sebbekk
 
Zurück
Oben