8800 GTS 512 vs. GTX 285

22" alles max. schafft man crysis auch nicht.
mit ner oc gtx 285 und i7 bestimmt.
ansonsten muss sli her.
 
Selbst eine GTX285 OC samt fettem i7 packt in 1.680 x 1.050 mit 4x MSAA/16:1 AF je nach Szene nur 15-30 Fps.
 
Tempokamille
Also als "Trabi" würde ich die 8800 er Karten von Nvidia nicht bezeichnen. Was ist denn dann eine 8600 gt oder ähnliches ^^. Meiner Meinung kann man die "alten" 8800er Karten noch voll nutzen. Bin noch recht zufrieden, allerdings muss das jeder für sich entscheiden.

So wa das auch sicherlich nicht gemeint,das eine 8800 GTS immernoch eine starke Karte ist stimmt,es kommt halt auf die Auflösung an,und viel mehr auf das Spiel und die Einstellungen.

Aber gehen wir jetzt mal von Crysis in 1680x1050 aus ohne aa+af da versagt eine 8800 GTS teilweise dann schon wobei einer GTX 260 das ganß ordentlich schafft..

Ich hab ein Kollegen und der benutzt eine 8800 gts G80 640 MB V/ram und er selber ist damit sau zufireden,es kommt halt immer auf die eigenen Ansprüche an;)
 
@ selberbauer

Dann freu dich :D Wer Crysis mal mit 50+ Fps gezockt hat, würgt bei 15-30 (schwammige, lahme und unpräzise Steuerung). Zumal ich ein Fps-Junkie bin.
 
obwohl man da auch mal ein lob an die cryengine aussprechen muss, die läuft selbst mit 15-20fps noch ganz ordentlich, da gibts wesentlich schlimmeres :D
 
stimmt.
wenn wegen der niedrigen fps das steuern hackt, dann ist schon scheiße.
naja muss mich halt noch bis 2010 gedulden
 
@ schnopsnosn

Da hast du recht. UE3 oder Source-Engine mit 30 Fps ist imo unspielbar.
 
@y33H@

Unter 60 FPS ist CS:Source schon unspielbar, um genau zu sein. Ich warte aber auf die ersten die behaupten "das menschliche Auge erkennt nur bis zu 24, 25, 30 fps". ;P
 
das kann ja dann nur von der " movie-fraktion " kommen ^^
explizit bei " schnellen online-shootern " kann man gar nicht genug haben.
zumindest ich merk den unterschied ob 100 o. 200 frames u. ich denke mal
alle " geübten zocker " auch.
 
Zwischen 100 und 200 wirst du nichts mehr merken. Das ist schon wieder Placebo. Was aber richtig ist, ist dass man bei Shootern durchaus mehr als 30FPS gut gebrauchen kann. Dass liegt daran, dass man unter anderem auch Eingaben macht, die auch umgesetzt werden müssen. So wirken Shooter mit 24FPS zwar generell flüssig, aber recht verzögert.

Ein Rechenbeispiel:

Man hat also 24FPS. Das bedeutet, dass man alle 41,7 millisekunden ein neues Bild erhält. Dieser Wert liegt durhcaus in einem gewissen Wahrnehmungsfenster von Menschen. Wir haben auch eine ähnliche Reaktionzeit. (meist so um ne 0,1sek -0,3sek)
Bei 200FPS kriegst alle 5ms ein neues Bild. Bei 100 dem entprechend 10. Da kriegst du nichts mehr von mit.
 
rechenbeispiel ? ....ich rede von schnellen online-shootern ....im single player
ist mir pers. das latte ....da reichen mir auch ~50 frames.
 
Auch im schnellen Online-Shooter wirst du nie und nimmer einen Unterschied zwischen 5ms und 10ms bemerken sprich einen Input-lag spüren. Das ist nämlich der Unterschied zwischen 100 und 200FPS.
 
meinst du etwa ich quak dich hier voll ?
hast du bisher schon eigene erfahrungen gesammelt o. hälst dich hier nur an dein zahlenbeispiel ?
ich pers. merke den unterschied ...nicht in punkto input lag sondern,
einfache dinge wie movement, aiming, schnelle kontrollierte drehungen etc.
ist bei mir pers. fast so wichtig wie ein niedriger ping.
 
ich denke ein trainiertes auge kann schon hohe frames erkennnen, aber die meisten bildschirme machen eh bei 60 schluss.
zu css:der frameszähler übertreibt total du solltest mal fraps benutzen.
 
Also ich kann zu dem Thema 8800gt /gts auch was sagen... hab nämlich eine verbaut.
Erst mit nem 22" gepaart und mittlerweile mit nem 28" Full HD ...

kann nur davon abraten ne 285 GTX zu holen. Ich für meinen Teil brauche es nicht.

Alle Aktuellen Spiele habe ich angezoggt , ob Far Cry 2 oder Crysis (nur auf dem 22" mal ehrlich wer spielt das noch ?) sowohl Anno 1404 als auch Prototype und Call of Duty 4 + 5 sowie Overlord 2 ... was ihr wollt

ALLE diese Spiele kann ich auf 1920x1200 zocken die Karte macht nur beim AA Probleme solange das allerdings aus ist kann man sehr schön spielen und 2xAA ging bei den meisten spielen auch. 4xAA is da schon ne andere sache. Dort bricht die Karte enorm ein bei fast allen spielen ... dennoch muss ich sagen ist die gebotene Qualität (hab damals 180 im Zack Zack gezahlt) enorm.

Ich misse kein 8xAA und auch keine QSAXXXAQAA oder wie das heisst ^^ naja jedem das seine. Aber der MONITOR ist meiner Meinung nach die Eigentliche Grafikausgabe. Hat der zu drauf nützt dir die Krasseste Graka nix ... also meine Empfehlung erstmal schaun was auf dem Tisch ist und nicht darunter !

Achja für alle die Meinen nen 28" wäre zu Gross ... mir ist er mittlerweile wieder schon fast zu klein ^^ kleiner dürfte er nichtmehr sein. Vom 15" auf 19" auf 22"W auf 28"W und jedesmal hat es keine 3 Monate gedauert und ich konnte mir bereits Vorstellen nen Grösseren zu haben und bessere Farben und Anschlüsse müssen ja auch dann gleich dabei.

Back to Topic (sry) ich meine eine 8800gt /gts mit nem bisschen OC reicht auf jedenfall für Full HD wenn man die Qualitäts Einstellungen wie AA nicht braucht. Meine Empfehlung RIESEN BILDSCHIRM ^^


Edit: Achja die ganzen CS Boons die hier son scheiss labern ... WAaaahaHH FPS WahaHAHa

Zeig mir mal deinen Monitor und dann Zeig mir mal deine Herz Zahl und wenn die nicht 200 ist kannste deine Augen Einpacken und bei Ebay verscherbeln. Denn solange dein Monitor nicht die 200 Bilder Weitergibt, sondern immernoch mit 92 oder 100 hz (mehr trau ich eurem nicht zu egal welche Auflösung) dann kannste auch keine 200 Frames sehen. Ausserdem is das keine Rechnung sondern Logik. Zusätzlich bin ich auch nen Ex - CS Nerd und habe auch früher mit 300 fps gezoggt .... ist aber totaler bullshit und Profis zocken immer auf genau 100 FPS mit 100 Hz CRT´s nicht diese bekackten LCDs die sind nur was für Boons.

Sry für meine Ausdrucksweise, aber manchmal gehts mit mir durch.
 
Zuletzt bearbeitet von einem Moderator:
Zwischen 100 und 200 FPS ist kein Unterschied festzustellen.
AUhc nicht online.
Und schon gar nicht mit nem menschlichem Auge.
Außerdem kenn ich nicht viele Leute die nen 200hertz Bildschirm daheim rumstehen haben.
Bei mir hörts ab 75 FPS auf, ab da ist alles flüssig und geschmeidig.
Mehr Bilder/s brauch ich nicht.
 
HisN schrieb:
Mich würde es nerven wenn ich ein halbes Jahr mein Lieblingsspiel nicht vernünftig zocken kann. Aber so hat halt jeder seine Präferenzen :-)
Dann lieber mimimimi, hat halt nicht jeder einen winzigen 17-19" Monitor und zockt nur alte Software bei der eine 8800gt ausreicht^^

Aber der Fredersteller lässt sich darüber ja nicht aus, scheint also kein Argument zu sein.

... sorry - aber das ist doch an den Haaren herbeigezogen!

Erstens steht nicht jeder auf 30" Displays, und da die meisten Spiele, die heute rauskommen, plattformübergreifend sind, haben sich die Anforderungen an die reine Grafikleistung auch entsprechend verändert.
Dabei will ich gar nicht in Abrede stellen, dass es Ausnahmen gibt - es lebe das berühmt, berüchtigte Crysis - doch der erkennbare Trend dürfte momentan klar in diese Richtung gehen, und wenn ich bedenke, dass eine fast 3 Jahre alte 8800GTX immer noch nicht zum alten Eisen gezählt werden kann, dürfte meine Ansichten denn doch nicht ganz falsch sein.

Und seien wir doch ehrlich, für eine Mehrleistung von gerade einmal 30% (2560x1600 4xAA/16xAF) gegenüber einer GTX260, sind die Kosten einer GTX285 (+100%) doch wohl mehr als abartig - und wenn man wirklich noch mehr Leistung will, sollte man zur GTX275 greifen, wo gerade einmal 10% Leistungsverlust (2560x1600 4xAA/16xAF) einer Kostenersparnis von mehr als 50% gegenüberstehen!
Und damit man mir jetzt nicht vorwirft, ich wäre Nvidia-Fanboy, möchte ich klarstellen, dass hier ganz bewust nach dem Vergleich zweier Chip-Varianten dieses Herstellers gefragt wurde, so dass ich davon ausgegangen bin, dass ATI/AMD nicht in Frage kommt - denn ohne Frage hätte die HD4890 (ähnliche Minderleistung, doch ein bis zu gut 70% günstiger Preis) momentan noch bessere Karten.

Aber was soll's - selbst meine alte 8800GTS@648/1512/1026MHz kann noch in vielen Spielen problemlos mithalten (incl. 4AA/16AF), wobei ich gerne zugeben möchte, dass ich mich dabei auf die Verwendung eines 19" TFTs beziehe. :D

Iim Endeffekt ist es also wohl richtig, dass grundsätzlich die persönliche Vorliebe und Neigung den Ausschlag geben sollte.
Bist du nicht mehr zufrieden, steige um - oder warte noch bis Ende des Jahres und erfreue dich an der neuen Grafikkarten-Generation, die, und da würde ich mich schon sehr wundern, garantiert keine 500 Euro kosten wird ...
 
Zuletzt bearbeitet:
@ Schaffe89

Wenn mehr Packages übertragen werden, ist dies besser - siehe etwa CoD4.
Und schon gar nicht mit nem menschlichem Auge.
Sag das mal nen Airforce-Piloten :lol:
 
Ich hab doch schon oben einiger Maßen anschaulich bewiesen, dass es Sinn macht mehr als 30FPS zu haben, aber gleich zeitig auch, dass 100fps+ wiederum schwachsinn sind. 100, 200, 500, 1000fps. Das ist alles nicht mehr unterscheidbar. Du bräuchtest wenn überhaupt einen Monitor, der diese Bildwiederholraten auch wiedergibt. Und selbst dann ist das fernab unserer Reaktionszeiten, in denen wir was wahrnehmen.
 
Zurück
Oben