Test GeForce 9800 GTX im Test: Nvidia vergisst bei neuer Serie die Neuerungen

aehm ganz erlich bei manchen test muss aber etwas schief gelaufen sein
z.B.
World in Conflict – 1280x1024 1280x1024 1xAA/1xAF:
gegenueber WiC in den eisntellungen 1280x1024 4xAA/16xAF:
Bei dem ersten Bench ist irgendwas kaputt oder wieso hat die 9800GTX SLI bei 4xAA/16xAF mehr fps als bei 1xAA/1xAF ? Da ist doch etwas schief gelaufen ... das selbe bei 1600x1200... gibts da ne erklaerung?
bei der 3870X2 ist es genau andersrum deren framzahlen stuerzen von 1xAA/1xAF auf 4xAA/16xAF total ab bei allen aufloesungen.

oh ich hab ein wudner entdeckt!
Clive Barker's Jericho – 1280x1024 1xAA/1xAF da hat dei 9800GTX SLI gegenueber der 9800GTX 205% was also bedeutet das zwei 9800GTX mehr als doppelt so schnell sind wie eine 9800GTX wunder?
bei 1600x1200 1xAA/1xAF passiert das gleiche wudner nochmal.
Je genauer ich auch die benchs gucke desto minderwertiger erscheint mir dieser test.

Das die 8800GTX bei S.T.A.L.K.E.R. 1280x1024 1xAA/1xAF: nur 55,7 FPS erreicht kann nur ein total abstruser Minimal wert sein und auch da weiss ich nicht wie der zustande gekommen sein kann. Ich hab bei S.T.A.L.K.E.R. teilweise 100 fps gehabt, alles auf hohen einstlelungen.

Das die 8800GTX bei UT3 1280x1024 8xAA/16xAF aufeinmal so stark hinter die 9800GTX faellt versteh ich auch nicht.
 
Zuletzt bearbeitet:
Jane, is klar aivazi, ein SLi Gespann ist auf Grund schlechter Treiber mehr als doppelt so schnell, wie ne Einzelkarte^^ Ich finde den Test auch stellenweise seltsam, aber hab ich ja bereits geschrieben..

Ausserdem gibts den G80 jetzt schon seit 1 1/2 Jahren, da werden die Treiber doch wohl langsam mal ausgereift sein (G92 weist ja keine großen Unterschiede zum G80 auf, ausser der Größe und dem SI).
 
Ja ... die Treiber sind immer an allem schuld :freak:

cYa
 
@y33H@

... das verstehe ich vollkommen - doch das ändert nichts daran, daß ein zusätzlicher Test mit "normaler" Hardware überaus interessant wäre, und für die Kaufentscheidung zu Gunsten einer Grafikkarte nicht zu unterschätzen ist ...
 
@ Thaquanwyn

Solange ein CPU vom Schlage eines X² 6000/E6600 oder E4x00/E2x00 @ 3 GHz zum Einsatz kommt, ändert sich an den Werten oberhalb von 1280*1024 mit AA/AF kaum etwas bis gar nichts bei den meisten Spielen. Einzig WiC springt mit den 4 GHz klar nach oben. Es steht ausreichend CPU-Pwer zur Verfügung und das Spiel wird durch die GPU limitiert. Die min-Fps sind aber mit 4 GHz de facto konstant leicht höher.

cYa
 
Die 9800XT ist nix anderes wie ne 8800GTS G92, nur etwas höherer Speichertakt.
Im Herbst kommt , 2 Jahre nach dem Launch der 8800GTX eine 10800 GTX oder so welche dann schätzungsweise 80% schneller ist wie eine 8800/9800GTX.
SLI/Crossfire ist atm noch nicht empfehlenswert da ein MultiGPU Gespann nur in wenigen Spielen einen Vorteil gegenüber einer Singlelösung bietet.
Die ganze rumrechnerei - performance Rating undso ist eigentlich Belanglos.
Bzw es ist ja mittlerweile bekannt wie schnell die aktuellen High und Midrange Karten sind :) da ändern auch neue Treiber nicht mehr viel.
(wenn ein Spiel von vorne rein keine Multi GPUs unterstützt wird es umso schwierig werden ;))
 
Zuletzt bearbeitet:
Oder ne 9800GTX Ultra GX2 OC XXX ;)
Für Far Cry 2 brauchs aber wahrscheinlich ne 10800 oder so.
Ich würd ne 8800GTX kaufen, wies im Fazit steht, bräucht ich eine neue Karte. Billiger und meistens schneller (in hohen Auflösungen, wenn auch nicht viel )wie ne 9800GTX.
 
Zuletzt bearbeitet:
Grafikkarten OC bringts doch eh nich... CB hat sie auf 800/2000/1200 (was schon ganz ordentliche Werte sind, wer würde für den Dauergebrauch viel weiter gehn bzw. erst überhaupt so weit?) getaktet und trotzdem liegen die Verbesserungen imo noch meist im Bereich der Messungenauigkeit und fallen einem beim normalen Spielen eher selten auf.
 
Hallo zusammen,

im Prinzip bedeutet dies, daß Leute welche noch eine "alte" 8800 GTX/Ultra oder 8800 GTS 640 besitzen - letztere insbesondere wenn diese über das A3 Stepping verfügt - keinesfalls zu einer neuen Karte mit G92 Chip wechseln müssen.

Da hinsichtlich der Performance kein elementarer Unterschied zum G80 vorliegt, hat Nvidia wohl den G92 in den Markt gedrückt, da dieser bei weitem günstiger herzustellen ist und auch im IDLE stromsparender als der G80 ist.

Aber ansonsten läuft der G92 schon im Standardbetrieb relativ nah am Limit und ist bei weitem nicht so übertaktbar, wie es der G80 Chip ist. Deshalb werde ich auch noch bei meiner 8800 GTS 640 mit A3 Stepping bleiben, denn in meiner Mühle ist sie kaum lahmer als eine GTS 512 mit G92 Chip.

@ 8MiLe

Ich kann dir da nicht zustimmen. Meine 8800 GTS 640 läuft ohne jede Probleme mit 680 / 1100 und es wäre sogar noch mehr drin, ich hatte sie auch mit 700 / 1100 laufen, jedoch habe ich gerne noch etwas Luft nach oben und ich betreibe die Hardware nicht gerne ständig am Limit. Dabei wird die Karte in ausgelastetem Zustand niemals wärmer als 71 Grad. Im IDLE hat sie bei mir sogar gerade mal 43 Grad da ich sie im Windows-Betrieb standardmäßig mit 200 / 200 laufen lasse.

Vorher hatte ich auch nicht gedacht, daß das Graka OC solch viel ausmacht, ich staunte nicht schlecht. Aber man muß auch sehen, daß der G80 mit A3 Stepping extrem gut übertaktbar ist, wobei es aber auch auf eine Gute Gehäusekühlung ankommt.

So long.....
 
Aja für die Ocler ist die Karte eventuell was.
Ich würd ne 8800GTX kaufen, die Karte soll auch 24 Zoll TFT´s noch packen da das Speicherinterface größer ist als bei den G92 Karten.
Da hilft auch oc nicht (bei dem Speicherinterface der G92 Karten). (glaub ich)
Und wenn Far Cry 2 kommt noch ne 2te kaufen :)
Das müsst dann rennen.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ MidnightJam

Genauso ist es. Der G92 wird schlicht durch den 256 Bit Bus stark limitiert. Je höher die Auflösung, desto mehr kommt der erweiterte Bus des G80 in Verbindung mit dem größeren Speicherausbau zum Tragen.

So long....
 
Luxman:

Tolle Antwort, dann liefer auch Werte, die zeigen, dass sich dein OC gelohnt hat..
 
Türlich bringts was wenn die GPU mit 700 statt 600 taktet.
Nur sind halt noch andere Faktoren beteiligt.
Die G92 GTX hatt weniger Rops wie die G80 GTX zb ...

ab hier ot:
(Ich will 24" HP TFT und ATI 4XXX Karte + Far Cry2 - CoD 5 Wolfen2 ect)


  • [li]ot off[li/]
    :n8:
 
Zuletzt bearbeitet:
Hallo zusammen,

@ 8MiLe

Das wäre schon arg viel Off-Topic, wenn ich jetzt alle Benches aufzählen würde. Im 3DMark sind es über 3000 Punkte Unterschied gegenüber dem Standardtakt. Wobei man den 3DMark ohnedies nur als ungefähren Anhaltspunkt nehmen sollte, ist meine eigene Meinung.

Crysis läuft, bis auf das letzte Level auf dem Träger, immer flüssig, mit 30 -55 Frames, wobei alle Schalter auf High gesetzt sind. In Crysis ist der Unterschied auch am stärksten. Da das Spiel in exorbitanter Weise die Graka auslastet. Wie gesagt, bis auf das Level auf dem Träger, da werden teils nur 20 Frames erreicht, an mehreren Stellen sogar nur 15.

Ansonsten ist ein genereller Performancegewinn von mindestens ca. 30 % festzustellen. Wie gesagt, es würde zu weit führen, an dieser Stelle die Framegewinne in den betreffenden Games aufzuführen. Du kannst mich ja über das interne Messagesystem kontaktieren.

Ich bitte um Entschuldigung für den vielen "Off-Topic" Text, jedoch hat mein Vorredner explizit um Auskunft in dieser Sache ersucht.

@ Midnight Jam

Die 8800 GTS 640 läuft im Standardbetrieb mit ca. 515 MHz und der Speicher mit ca. 800! Das ist ein gewaltiger Unterschied. Wie gesagt, ich war vorher auch eher skeptisch.

So long.....
 
Zuletzt bearbeitet:
MidnightJam schrieb:
Im Herbst kommt , 2 Jahre nach dem Launch der 8800GTX eine 10800 GTX oder so welche dann schätzungsweise 80% schneller ist wie eine 8800/9800GTX.
SLI/Crossfire ist atm noch nicht empfehlenswert da ein MultiGPU Gespann nur in wenigen Spielen einen Vorteil gegenüber einer Singlelösung bietet.
Die ganze rumrechnerei - performance Rating undso ist eigentlich Belanglos.
Bzw es ist ja mittlerweile bekannt wie schnell die aktuellen High und Midrange Karten sind :) da ändern auch neue Treiber nicht mehr viel.
(wenn ein Spiel von vorne rein keine Multi GPUs unterstützt wird es umso schwierig werden ;))
die "10800GTX" soll 80% schneller sein als ne 8800/9800GTX? Naja traeumen darf man ja...
sollte der post ironisch sein ?!
Das ein MultiGPU nur in wenigen spielen einen vorteil bietet ist quatsch. Es gietet in fast allen spielen einen vorteil. Und in Bioshock oder CoD4 ist die skalierugn auch beeindurckend hoch! MultiGPU lohnt sich wenn man die kohle hat! Ausser man spielt 800*600 oder 1024*786 dann ibraucht man aber warscheinlich keine 2. karte bzw. gpu
 
und wiedereinmal bewahrheitet sich die regel: kaufe keine "ungeraden" generationen von nvidia. also bleiben für den gamer mit ein wenig anspruch immer "nur" noch die 88er-modelle...
 
für eine high end karte einfach zu schwach.
512 Mb ist eine Frechheit, vor allem da den neuen nvidia Karten bei höheren qualitäts einstellungen der saft aus geht.
also lieber eine 512er GTS hohlen und übertakten bringt das selbe und kostet nur die hälfte.
bin echt entäuscht
 
Zurück
Oben