Grafikkarte für 2560 * 1600

Also nicht dass ich mich da einmischen mag, aber irgendwie sehe ich das etwas anders:

es kommt doch eigentlich auf die Pixeldichte drauf an ob ich AA/AF benötige um gute Bilder zu erhalten oder nicht ? Auf rechnungen verzichte ich einmal, bitte habt Nachsehen.

1920 sieht auf 24" gut aus ohne AA/AF aber ob das ganze auf >30" auch gut aussieht steht doch auf einem anderen Blatt oder nicht? Schließlich sieht 640er Aufläsung auf 8 Zoll auch vernünftig aus, aber keines Falls auf 19". Rechnungen àla bei 1280 brauch ich AA aber bei 1920 nich mehr können sich meiner Meinung nach nur auf eine Bildschirmgröße beziehen, sobald es aber um verschiedene Größen geht, sollte man doch die Pixeldichte einbeziehen.


entschuldigt etwaige Rechtschreibfehler, in Anbetracht der späten Stunde ;)
 
1920x1200 sieht auch auf einem 27 Zoll noch sehr in Ordnung aus und die Schriften sind nicht so arg klein :)

Alles in allem sind wir uns wohl einig, das ein 30" bzw. dessen native Auflösung ein außerordentlich unökonomisches Unterfangen ist.
Irgendwann sollen ja Flachmänner auf den Markt kommen, die man in der Auflösung ohne Qualiverlust verstellen kann. Bis dahin wird wohl viel Zeit vergehen.
Vor nicht allzu langer Zeit waren 1024x768 der Standard schlechthin. Die Ansprüche sind ein wenig explodiert, ob der wahnsinnig hochgezüchteten Grafikkarten :D
 
Also 50 FPS bei CoD2 sind nicht spielbar, das verstehe ich nicht mehr. Leider habe ich das Spiel noch nicht gespielt, aber ich glaube nicht dass man unbedingt durchschnittlich 60 FPS für solche Spiele braucht damit man Spielspass hat.
Ich habe auch genug Egoshooter mit weniger Framerate gespielt und habe auch Spielspass gehabt.
Würde man mal die Framerate in solchen Spielen nicht messen sondern rein subjektiv die Spielgeschwindigkeit beurteilen dann ist es gut spielbar, dass würde glaube ich jeder so beurteilen. Und nur zu sagen es hat durchschnittlich keine 60FPS und ist damit nicht spielbar ist falsch.
 
25 Bilder pro Sekunde kann das menschliche Auge wahrnehmen. Wir reden jetzt von der rein biologischen Seite

Bei Computermonitoren kommt aber ein anderer Faktor hinzu - wenn das Bild mit 100 Hz (=100 Bilder pro Sekunde) aufgebaut wird, die Grafikkarte aber nur 25 fps (=25 Bilder pro Sekunde) erzeugen würde, würden quasi 75 Bilder "fehlen" - das nehmen wir dann als ruckeln war.

Optimal wäre es, wenn die Grafikkarte genau so viele fps erzeugt, wie die Hz-Anzahl des Monitors - dann wäre es für uns "flüssig".

Erzeugt sie wiederrum mehr fps als die Hz-Zahl des Monitors, sehen wir "Schlieren" bei Links/Rechts-Bewegungen.

Um das optimale Verhältnis zu erlangen, gibt es bei Grafikkarten halt die Option V-Sync.
 
Ich will duke nukem 4 ever auf meinem 60"Zoll 16:10 Screen spielen, welche Grafikkarte wird empfohlen?
*feed me plz*
 
Ich glaub bei den 60fps von Cod2 ging es vor allem darum, dass erst ab diesen fps keine Drops auf unter 25fps mehr vorhanden sind.

also avgfps <50 heisst minfps <25
avgfps >60 bedeutet minfps >25

Was nützt es einem denn, wenn ich zwar peaks auf 60 hab, aber 1/3 der Zeit nur drops auf 20.. das macht ja auch etwa avgfps von 50.
 
Dark.Mirror schrieb:
Ich will duke nukem 4 ever auf meinem 60"Zoll 16:10 Screen spielen, welche Grafikkarte wird empfohlen?
*feed me plz*

ich würde auf einen SLI Verbund von zwei 8600 GT tippen, gepaart mit extrem schnellen DDR1 400er RAM mit CL2 und einem Athlon XP1800+.

WICHTIG: 1000 WATT Netzteil nicht vergessen. Als Kühlung vielleicht flüssigen Stickstoff ...

MfG
Jens
 
@ dahum

So kann man das nicht sagen. In 1280*1024 mit maximalen Details (ohne AA/AF) ist CoD2
auf einer X1950XTX nur halbwegs spielbar, wirklich flüssig ist etwas ganz anderes.
(In 1920*1200 ist CoD2 auf einer GTS/640 imo keinesfalls flüssig ...)
Unter 60fps ist CoD2 ziemlich zäh und schwammig, selbst bei duchschnittlichen 60fps geht die Framerate zT runter auf 25-30fps. Im Singleplayer ist das noch akzeptabel und es stellt sich Spielspaß ein,
für den Multiplayer ist das selbstredend zu wenig - für schnelle Shooter wie UT natürlich auch.
Hier sollten die min fps möglichst über 40 oder sogar 50fps liegen, bei "lahmen" Spielen
sollten es schon meist über 35-40 sein.

Du vergisst bei deiner Pixel Rechnung zudem noch ein paar Gesichtspunkte:
Mit einer höheren Auflösung müssen nicht nur mehr Pixel berechtnet werden,
auch zB die Shader Routinen und die Texturierung brauchen mehr Power.
Dann ist 2xAA auch in solch hohen Auflösungen zu empfehlen, selbst in 2560*1600
hat man "Treppen" und flimmernde Kanten - der Rechenaufwand von AA steigt
überproportional mit der Auflösung.

Crysis und UT3 werden selbstredend auf aktuellen Systemem laufen, aber auch eine 88Ultra mit 2Gb RAM
und einem Q6700 wird in 1280*1024 mit maximalen Details und AA/AF/HDR sicherlich nur um die 30fps im
Schnitt schaffen. Geht man von ultra-high auf high oder mid Details, dann sollte auch eíne 8800GTS/640
halbwegs akzeptable fps schaffen. Aber bei Next-Gen Spielen war es schon immer so, dass in der aktuellen
Auflösung (heute ist das 1280*1024) bei höchsten Einstellungen und etwas AA/AF - also der maximalen optischen Qualität - die momentan fetteste HW am Limit war. Bei UT3/Crysis wirds kaum anders werden.

Natürlich wäre es schön, wenn es gut läuft auach bei sehr hohen Einstellungen aber ich glaube es kaum.

cYa
 
So, ich habe das Ganze mal durchgebencht:

Und zwar habe ich fünf Spiele einmal in 800*600 und ein zweites Mal
in 1600*1200 gebencht, also exakt die doppelte Auflösung (= vier mal so viele Pixel).
Als Testsystem habe ich meinen Rechner genutzt, dazu den Catalyst 7.4,
alle Optimierungen des Texturfilters und A.I. waren wie üblich aus.

Genutzte Spiele und Tools:

  • ATI Tray Tools v1.3.6.1040 zum sehen der FPS und der Zeit
  • Fraps v2.8.2 zum Benchen
  • Call of Duty 2 v1.3
  • FEAR Singleplayer Demo
  • Stalker v1.0
  • Doom 3 v1.0
  • CounterStrike Source aktuellste Version via Steam


Jedes Spiel lief mit maximalen Details, d.h. alle Regler oder Optionen
auf den höchstmöglichen Werten, auf AA/AF gehe ich einzeln ein.
Jedes gebenchte Szene habe ich in den beiden Auflösungen 3 mal auf
identische Art und Weise gespielt (dank der "guten" KI kein Problem^^)
und anschließend alle 3 gemittelt - die Werte lagen aber ohne sehr eng beisammen.
Bei den Spielen Doom3 und CSS habe ich die integrierten Tests genommen
und die dort geannten Ergebnisse.

Hinter den Setting kommen die fps Werte, zuerst die maximal erreichten fps (max),
dann wie bei den meisten Benchs die durchschnittlichen (avg) und natürlich
die wichtigen minimum fps (min), abgerundet durch ein Diagramm, welches
mit den Werten aus Fraps angelegt wurde. Wie das geht, erklärt mein [HowTo] Fraps.


CS Source
Integrierter "Video Stress Test", spuckt nur die avg fps aus.

CS Source @ max. ohne HDR mit 6x adaptiv quali AA und 16xAreaAF = 146 zu 103


Doom3
Integrierte Timedemo "demo1", auch nur die avg fps.

Doom3 @ max. mit 4xAA und 16xAreaAF = 116 zu 68


Call of Duty 2
Als Szene wurde der Start der russischen Kampagne genutzt, also
die Schießübungen und Kartoffelwerfen bis zum Eintreffen des MG-Schützen,
der verkündet, man habe einen Gefangenen.

CoD2 in 800*600 @ max. mit 2xAA und 16xAreaAF (DX9 Mode) = 93max_70avg_51min
CoD2 in 1600*1200 @ max. mit 2xAA und 16xAreaAF (DX9 Mode) = 37max_26avg_18min


cod2_800x600mv9.jpg
cod2_1600x1200opa.jpg



FEAR
Hier bin ich dort gestartet, wo die ersten beiden Gegner sind, genauer gesagt,
eine Tür davor. Die Gewaltorgie ging dann bis an die Stelle, an der der große gepanzerte
4äugige "Sam Fisher Verschnitt" durch die Tür bricht.

FEAR in 800*600 @ max. (ohne SoftShadows) mit 4x adaptiv quali AA und 16xAreaAF = 160max_69avg_16min
FEAR in 1600*1200 @ max. (ohne SoftShadows) mit 4x adaptiv quali AA und 16xAreaAF = 60max_28avg_13min


fear_800x6005rk.jpg
fear_1600x12005n1.jpg



Stalker
Beginnendes neues Spiel in Kordon im Keller des Händlers, dann raus zu Wolf und weiter in Richtung Brücke zu Nimbel,
kurz vor der Brücke bin ich dann nach links abgeschwenkt, dort gibt man dem Verletzten ein MedKit und der gescriptet
Helikopter fliegt im Hintergrund.

Stalker in 800*600 @ max. mit 16xAreaAF (kein AA wegen voller dyn. Beleuchtung) = 89max_42avg_27min
Stalker in 1600*1200 @ max. mit 16xAreaAF (kein AA wegen voller dyn. Beleuchtung) = 40max_20avg_14min


stalker_800x600eg9.jpg
stalker_1600x1200a3g.jpg



Zusammenfassung
Nimmt man Doom3 und CSS, so ist unschwer erkennbar, dass eine Verdopplung der
Auflösung nicht in einer Halbierung der Performance resultiert. Hier muss man aber
ganz klar sagen, dass beide Spiele grafisch nicht mehr anspruchsvoll sind und die
integrierten Benchmarks zu hohe Werte liefern und somit nicht das reale Spiel
repräsentieren. Ein kurzer Vergleich bei FEAR und meinen InGame erzielten Werten mit den
Werten des "Performance Tests" der Vollversion zeigte, dass ich Recht habe.
Meine Werte liegen deutlich unter denen des integrierten Benchmarks.
Zum Vergleich verschiedener Grafikkarten mag der Test in Ordnung sein, mehr aber auch nicht!

Sieht man sich die "echten" Werte aus CoD2, FEAR und Stalker an, fällt einem sofort auf,
dass eine Verdopplung von 800*600 auf 1600*1200 deutlich mehr als doppelt so viel Power
frisst. Während bei Stalker sich die Performance "nur" etwas halbiert, fällt sie bei FEAR und CoD2 fast auf ein 1/3 ab!
Besonders stark fallen bei CoD2 die wichtigen minimum fps.

Nimmt man exakt die Mitte der beiden Auflösungen, landet man bei 1200*800,
rechnerisch sind das dann exakt doppelt so viele Gesamtgpixel im Vergleich zu 800*600.
Ich spiele nahezu immer in der sehr ähnlichen Auflösung 1280*720 (mit AA/AF usw. wie jeweils genannt,
ich habe immer einfach nur die Auflösung geändert), die von mir im Spiel erreichten Werte reichen bei allen drei Titeln
für ein subjektiv gerade noch flüssiges spielen (bei etwa 30fps bis 40fps avg), jedoch stören immer wieder SlowDowns den optimalen Spielfluss.

Ich denke, ich habe hinreichend gezeigt, dass eine Verdopplung der Auflösung in
deutlich weniger als die Hälfte an Performance resultiert.
Eine Verdopplung der Auflösung ergibt übrigens vier mal so viele zu berechnende Pixel^^
Somit erreicht man logischerweise mit einer 8800GTX in 1600*1200 nicht die Werte,
die man mit einer X1900XT in 800*600 erreicht :D



Vergleicht man meine 1600*1200 Werte mit denen von CB, wird man bei Stalker und CoD2
recht ähnliche Ergebnisse finden.
Sobald Bioshock und Co am Markt sind, gibts von mir einen Performancebericht,
einmal mit dem E4300 samt der XT/512 und dann noch mal mit einem C2D@3.2GHz sowie
einer 8800GTX.
Im Anhang findet ihr die Ergebisse in Form meiner Notizen als *.txt, sowie die
gezippten Diagramme.

cYa
 

Anhänge

Zuletzt bearbeitet:
Von den zu berechnenden Gesamtpixel ja *damned*
Ich hab also 4mal so viel berechnet :evillol:

Es ging um die Tatsache, von 1280*1024 auf 1920*1200, das ich auch fast 4mal so viel dann.
Korrekt gesagt, bringt eine Verdopplung der horizontalen Pixel und der vertikalen Pixel
natürlich einen 4fachen Rechenaufwand mit sich.
Steht aber (mittlerweile^^) auch so oben.

cYa
 
Zuletzt bearbeitet:
Es ging um die Tatsache, von 1280*1024 auf 1920*1200, das ich auch fast 4mal so viel dann.
1280x1024 = 1.310.720
1920x1200 = 2.304.000

2.304.000 / 1.310.720 = 1,75

Von 1280x1024 auf 1920x1200 verdoppeln sich die Pixel noch nicht mal :freak:
 
Eben, genau wie ich gesagt habe, von 1280 auf 1920 ist etwa 1,8* soviele Pixel, und von 1920 auf 2560 wieder etwa 1,8*! ;)

Somit erreicht man logischerweise mit einer 8800GTX in 1600*1200 nicht die Werte,
die man mit einer X1900XT in 800*600 erreicht

Das ist der Rechenfehler, eine GTX ist etwa doppelt so schnell wie eine 1900xt, und müsste bei vervierfachung der Pixelanzahl nach meiner Rechnung also sogar nur die Hälfte der Frames schaffen. Sie performt in deinem Test aber sogar noch besser:

Während bei Stalker sich die Performance "nur" etwas halbiert, fällt sie bei FEAR und CoD2 fast auf ein 1/3 ab!

Und das ist sogar noch besser als meine Messungen, bei 4facher Pixelanzahl fällt die Performance höchstens um 2/3 ab, was aber kein Wunder ist, da bei so geringen Auflösungen der Prozessor limitiert. Für hohe Auflösungen dürfte meine Rechnung in etwa stimmen.
Das selbe dürfte also auch für den Sprung von 1280 auf 2560 gelten, denn das ist etwa eine vervierfachung der Pixelanzahl. Und eben darum sollte ein GTX SLI Gespann dort auch reichen, wenn eine Karte mit einem drittel oder einem viertel dieser Leistung, also z.B. eine 1950xtx oder eine 1900xt für 1280 reicht. Und das tun sie, sofern man nicht überall ultra Qualität einstellt.
 
Zuletzt bearbeitet:
Ja, ihr habt Recht, ich da hab da rechnerisch ziemlich daneben gehauen :evillol: :freak:
Interessant und aussagekräftig ist das Ganze trotzdem *puh*

800*600 = 480.000
1600*1200 = 1.920.000

1.920.00 / 480.000 = 4 :D

Somit düfte dahum bei aktuellen Titel Recht haben - aber nur wenn man eben nicht alles komplett
aufs Maximum dreht.

cYa
 
Zuletzt bearbeitet:
Zurück
Oben