@ daniel16420
Du gehörtst manchmal echt getreten!
50 fps vs. 100fps sieht man nicht, beim spielen gehts verdammt noch mal
aber ums spielen und da macht das definitiv einen Unterschied aus!
@ den[N]is
Habs heute mittag alles durchgebencht:

Man sieht den krassen optischen Unterschied, einmal der klar höhere Blickwinkel und ohne
Kantenflimmern - beides ist imo wichtig für Shooter, zudem sind mehr Pixel besser,
das erlaubt saubereres Aiming.

138fps zu 176fps - das sind rund 30% mehr fps,
mit dem realen Spiel haben diese Werte aber überhaupt nichts zu tun.
Der Stresstest dient höchstens zum vergleichen von GraKas/CPUs.
Wie du siehst, jeweils 3mal 2min gebencht, de_dust und 5on5, das Ergebnis ist eindeutig:
Bei beiden Setting trägt die CPU die Hauptlast, die fps streuen um die 100 herum.
Zudem sind in beiden Auflösungen die fps nahezu immer über 70fps.
Interessant sind die höheren fps Werte, bei 800*600 sind diese viel höher, die GraKa
limitiert nicht. Bei 1650*1050 bleibt die CPU zwar entscheidend, die fps Werte schwanken aber
lange nicht so stark - die GPU beginnt die fps nach oben hin zu limitieren.
Im Schnitt liegt 800*600 klar vorne, bei näherer Betrachtung spielen sich von den fps her aber
beide Settings identisch, das 1680er imo sogar angenehmer, die Schwankungen sind geringer.
Ich nutze privat zB ein fps-Limit von 100fps, so sind die fps konstant zwischen 70 und 100.
Imo optimal - immer flüssig und keine nervigen Schwankungen, die spürt man
nach längerem intensiven Spielen nämlich auch in so hohen Bereichen.
Zu deinem Problem, der XP-M erreicht auch mit einer 7600GT nie diese Werte.
Da muss imo schon ein X² @ 2.5GHz oder eine C2D @ 2.2GHz her.
Die Grafikkarte spielt nur die 2te Geige, so lange man eine halbwegs flotte GraKa
aber einer 7600GT/HD2600XT/8600GT hat, laufen auch hohe Auflösugnen gut, nur eben mit
einer fetten CPU.
cYa