Test GeForce 9800 GTX im Test: Nvidia vergisst bei neuer Serie die Neuerungen

@Berberjesus
Eine Ende der Fahnenstange in Sicht? Das ist definitv nicht so, auch ohne Auflösungserhöhung sind jegliche Grafikkarten am Markt lächerlich langsam. Die Entwicklung wird und muss dringend weitergehen.
Das mit den 32bit... danke dann habe ich noch ein Argument, warum eine 9800GX2 mit 2x1GiB nie erscheinen wird.

@Zwirbelkatz
Die HD4000 juckt jetzt nicht, AMD muss erst mal die Leistung einer 8800Ultra knacken, wird schwer genug.
 
Also so wie ich BERBERJESUS verstanden habe meint er die leistung in Auflösung (1600xblablub) ist nun am ende. Also das die Grafikkarten in zukunft auch nicht höhere auflösungen unterstützen werden wie jetzt. Natürlich wird sich in sachen geschwindigkeit noch viel tun. ^^ hoffe ich
 
@Hartzfear4

17" und dann reicht dir selbst ne G80 GTX nicht aus? das ist jetzt n Witz oder? :freak: ich versteh nicht wie man seinen augen sowas freiwillig antun kann, sorry.
 
Erklär mir das mal .. ich verstehe deinen Beitrag nicht Towatai -.-

Crysis mit GTX auf Very high = 13 Frames
Mit GX2 auf Very High = 30 Frames

Wo liegt jetzt dein problem? Nein mir hat eine GTX nicht gereicht und wenn ich für 100 Euro mehr und abgabe einer kaputten GTX eine GX2 kriege ,warum nicht?

ALso mir taten die augen weh weil es wie blöd geruckelt hat. Nun bin ich mal auf deine Antwort gespannt. Versteh echt nicht was diese aussage immer soll. Ich will nicht auflösungen von 102130130x123023210 nein ich will eine normale auflösung aber dafür alle anderen details hochschalten.
 
naja ich bin da eher der sichtflächen-anhänger aber muss jeder selbst wissen. zudem, wie kannst du ne dual-gpu karte mit ner singlechip karte vergleichen? wenn dann bitte ne identische grundlage! nochmal, es geht hier um karten mit EINER GPU drauf! es ist ja schön das du son schnäppchen gemacht hast aber die GX2 steht hier nicht zur debatte, da sie n völlig anderes konzept verfolgt! Hau dir mal zwei GTX im SLI rein und ich verwette meine haarigen hintern drauf, dass Crysis ebenfalls in die regionen der GX2 stoßen wird oder gar drüber liegt.
 
Das weiß ich aber ..dein comment hätte dann gelautet : "17" und dir reicht EINE GTX nicht aus?" .. ja .. naja egal -.-
 
aehm ganz erlich bei manchen test muss aber etwas schief gelaufen sein
z.B.
World in Conflict – 1280x1024 1280x1024 1xAA/1xAF:
gegenueber WiC in den eisntellungen 1280x1024 4xAA/16xAF:
Bei dem ersten Bench ist irgendwas kaputt oder wieso hat die 9800GTX SLI bei 4xAA/16xAF mehr fps als bei 1xAA/1xAF ? Da ist doch etwas schief gelaufen ... das selbe bei 1600x1200... gibts da ne erklaerung?
Da ist nichts schiefgelaufen, dass ist ein Treiberbug bei Nvidia, de bei SLI in unserem Testlevel auftritt.
Clive Barker's Jericho – 1280x1024 1xAA/1xAF da hat dei 9800GTX SLI gegenueber der 9800GTX 205% was also bedeutet das zwei 9800GTX mehr als doppelt so schnell sind wie eine 9800GTX wunder?
bei 1600x1200 1xAA/1xAF passiert das gleiche wudner nochmal.
Je genauer ich auch die benchs gucke desto minderwertiger erscheint mir dieser test.
Jericho ist in hohen FPS-Bereichen nicht mehr so ganz genau und lässt die Werte gerne mal ein wenig höher oder niedriger ausfallen. Zudem kommt die Messungenaugkeit ins Spiel und es ist je nach Programmcode gar möglich, dass mehr als 100 Prozent Mehrleistung durch eine zweite Grafikkarte erreicht wird. Selten, aber nicht unmöglich.
Das die 8800GTX bei S.T.A.L.K.E.R. 1280x1024 1xAA/1xAF: nur 55,7 FPS erreicht kann nur ein total abstruser Minimal wert sein und auch da weiss ich nicht wie der zustande gekommen sein kann. Ich hab bei S.T.A.L.K.E.R. teilweise 100 fps gehabt, alles auf hohen einstlelungen.
Das ist ja echt schön für dich, nur bin ich es langsam wirklich leid, mir immer anhören zu müssen, wie schlecht doch unsere Ergebnisse seine. Nochmal, woher kennst du unser Savegame?
Das die 8800GTX bei UT3 1280x1024 8xAA/16xAF aufeinmal so stark hinter die 9800GTX faellt versteh ich auch nicht.
Das ist im Treiber begründet.
Wieso gehört Oblivion nicht mehr zu den Benchmarks?
Oblviion ist mittlerweile zu CPU-Limitiert, deswegen nutzen wir es nicht mehr.
Es wird langsam zeit das sich ein redakteur zu
Zitat:
achso eins noch, die fps zahlen bei CoD4 mit 1280*1024 bei 4xAA/16*AF ueberraschen mich sehr. okay ich spiele mit meiner 8800GTX bei 1280*1024 4xAA/8XAF aber ich hab durchgehend(limitiert) 91fps die nur ganz selten elicht abfallen.
53,3 FPS mit der 8800GTX bei 1280x1024 4xAA/16xAF muessen also die minimum-fps sein.
und zu meinem post #161 aeussert
Nur noch ein Wort: Savegame?
 
Um Wolfgang mal Schützenhilfe zu geben - 91 Fps mit den genannten Settings und der GTX sind Unfug ;)

cYa
 
Die erreichst du nur wenn du den unmittelbaren boden vor dir anschaust oder? :D

Ich finde die Tests bei CB super und macht weiter so. Leute haben noch nicht verstanden wie wichtig Treiber und die momentane "Situation" im Spiel ist. (Beispiel : Normales Level bei Crysis und Ice Level bei Crysis)

;)
 
Vorallem wie BERBERJESUS schon sagt, denke ich ..sind 90% aller User bereits an der Grenze mit ihrer auflösung und ihren Monitorgrößen. Vondaher wird die zukunft nur noch Stabile Frame raten zeigen bei max. 1600x1200 ..darüber hinaus wird wohl kein Hersteller (Nvidia / AMD) mehr gehen...warum auch?

Du weißt schon, dass es auch 22" und sogar kleinere Monitore mit solchen HD Auflösungen gibt?
Klick

Nicht nur deswegen ist deine Argumentationskette ein wenig zerbrechlich. Außerdem wer sagt denn, dass ein 24" TFT Monitor zu viel Platz verschwendet? Mehr als eine alte Röhre verbraucht der bestimmt nicht insgesamt gesehen.

Die GTX war mal als Highend Karte für Enthusiasten gedacht. Deshalb geht es auch nicht darum, sie auf 17, 19 oder sonstwie kleinen Monitoren einzusetzen.
Crysis auf "Ultra High" ist einer der wenigen Ausreißer, die vllt. so grottig programmiert sind, dass man selbst so eine Karte an ihr Limit führen kann. Aber mal im Ernst: Was ist schon Crysis? Für mich allenfalls ne Techdemo, aber das ist Geschmackssache und geht am Thema vorbei.

Was ich sagen will:
Extreme Grafikkarte = Extremer Monitor. Entweder man investiert viel Geld dort hinein, oder eben nicht.
Ich kann 1000€ in eine Highendgraka und einen Highendmonitor investieren und darauf hoffen, auf einem hochwertigen Panel (!) in 1920x1200 spielen zu können. Übrigens scheinen mir an dieser Stelle mal wieder einige bei dem Thema mitzureden, die es vllt. nicht erlebt haben.
ODER aber ich kann mir für 300 € insgesamt eine Hd3850 und nen 19" TN TFT kaufen und damit auch Spaß haben, wenn mir das genügt. Bloß vergleichbar sind diese beiden Bereiche absolut nicht.

@Zwirbelkatz
Die HD4000 juckt jetzt nicht, AMD muss erst mal die Leistung einer 8800Ultra knacken, wird schwer genug.
Ich wäre dafür, dass Nvidia das selbst erst einmal tut.
 
Zuletzt bearbeitet:
Vorab erstmal danke fuer die Andwort Wolfgang

Am wichtigstesn bei so einem Test ist natürlich das die Karten untereinander vergleichabre werte erreichen. Wenn man aber FPS-Zahlen angibt sollte man die irgendwie kommentieren. Der interessierte Kunde würde schon gerne wissen mit wieviel FPS er denn so rechnen kann wenn er sich diese oder jene Karte kauft. Und das unabhaenigig vom Savegame denn 53,3FPS sind da eher eine Horrorvorstellung, 53,3FPS haben mit den FPS-Werten einer 8800GTX ingame nichts zutun, das muss man einfach mal klarstellen. THG hat bei ihrem Test bei der 8800GTX@CoD4 mit 1280*1024 4xAA/8XAF und max. Quali. einen wert von 94.5 FPS stehen. Das deckt sich mit meinen erfahrungen. 53,3FPS kann kein durchschnittswert sein und wenn doch dann hat dieser durchschnittswert wirklich nichts zutun mit dem realen durchschnittswert den man hat wenn man das spiel spielt. Für einen realitätsnahen test könnte man ja mit der 8800GTX ueber eine Multiplayer-map herumlaufen beliebig lange und dann den Durchschnittswert ermitteln. Dieser wert wird auch bei grossen maps wie Overground oder Pipeline viel, viel, viel näher an 90fps als an 53fps liegen. Auf Maps wie Vacant duerfte der Durchschnittswert sogar noch höher liegen da es eine enge Map ist bei der man nur selten eine grosse aussicht hat.
Ob so oder so man sollte durchnittswerte angeben vielleicht noch mit dem Minimumwert als komment. Was das für werte sind ist glaube ich immernoch unklar.

Die erreichst du nur wenn du den unmittelbaren boden vor dir anschaust oder?
Um erlich zu sein erreicht man höhre FPS werte wenn man in den Himmel guckt. Habs eben mal bei Pipeline getestet und bin auf biszu 336fps gekommen, ausgelesen mit rivertuner wobei aber fraps auch konstant 333fps anzeigte als ich in den himmel geguckt hab.
 
miagi schrieb:
Vorab erstmal danke fuer die Andwort Wolfgang

Am wichtigstesn bei so einem Test ist natürlich das die Karten untereinander vergleichabre werte erreichen. Wenn man aber FPS-Zahlen angibt sollte man die irgendwie kommentieren. Der interessierte Kunde würde schon gerne wissen mit wieviel FPS er denn so rechnen kann wenn er sich diese oder jene Karte kauft. Und das unabhaenigig vom Savegame denn 53,3FPS sind da eher eine Horrorvorstellung, 53,3FPS haben mit den FPS-Werten einer 8800GTX ingame nichts zutun, das muss man einfach mal klarstellen. THG hat bei ihrem Test bei der 8800GTX@CoD4 mit 1280*1024 4xAA/8XAF und max. Quali. einen wert von 94.5 FPS stehen. Das deckt sich mit meinen erfahrungen. 53,3FPS kann kein durchschnittswert sein und wenn doch dann hat dieser durchschnittswert wirklich nichts zutun mit dem realen durchschnittswert den man hat wenn man das spiel spielt. Für einen realitätsnahen test könnte man ja mit der 8800GTX ueber eine Multiplayer-map herumlaufen beliebig lange und dann den Durchschnittswert ermitteln. Dieser wert wird auch bei grossen maps wie Overground oder Pipeline viel, viel, viel näher an 90fps als an 53fps liegen. Auf Maps wie Vacant duerfte der Durchschnittswert sogar noch höher liegen da es eine enge Map ist bei der man nur selten eine grosse aussicht hat.
Ob so oder so man sollte durchnittswerte angeben vielleicht noch mit dem Minimumwert als komment. Was das für werte sind ist glaube ich immernoch unklar.


Um erlich zu sein erreicht man höhre FPS werte wenn man in den Himmel guckt. Habs eben mal bei Pipeline getestet und bin auf biszu 336fps gekommen, ausgelesen mit rivertuner wobei aber fraps auch konstant 333fps anzeigte als ich in den himmel geguckt hab.

Sehe ich genau so. Habe mir vor 5 Min. eine 8800GTX für 217€ inkl. Nachnahme-Versandkosten bestellt, halte ich für am vernünftigsten. Auch, wenn ich die 9800GTX für meine Verhältnisse (d.h. 1680x1050 bis 1980x1050 bei 4AA/16AF) ausreichen würde und laut Benchmarks sogar immer über der 8800GTX liegt, sehe ich mich mit dem Vorgänger auf der sicheren Seite. Und die 1-4FPS mehr bringen mich auch nicht dazu, 30-50€ mehr auszugeben.

Was ich nur nicht hoffe, ist, dass wenn am 8. April die OC-Karten verkauft werden, die 9800GTX zum Wunder erwacht. Oder, falls dies nicht eintritt, die Preise für eine 8800GTX nochmal 20-30€ sinken. Mit 10€ könnte ich ja noch leben, aber wenn die jetzt nochmal so einen Preisturz wie von 280 auf 210€ abbekommt, bin ich wirklich frustriert.
 
Hallo zusammen,

@Berberjesus

Jetzt hast du dich aber wirklich mehr als Disqualifiziert, tut mir leid. Die Quadro`s als auch ATI Pendant`s dazu, sind speziell für CAD etc. angepaßt, das gleiche gilt für die Treiber. Insbesondere sogar die Treiber. Die sind sogar teils eigens für betreffende Anwendungen geschrieben.

Somit hinkt der Vergleich von "Äpfel und Birnen" in keiner Weise, sondern das Gegenteil ist der Fall.

@ Miagi

Gerade selbst nur 5 Frames können insbesondere bei Crysis den Unterschied zur Spielbarkeit ausmachen. Das Game solltest du da besser nicht für deine Argumentation anführen, denn da kommt es explizit auf jedes Frame an, was man kriegen kann.

Das Gleiche gilt ab einer bestimmten Auflösung für World in Conflict.

@ Hartzfear 4

Sorry, das halte ich jetzt für etwas übertrieben, eine GTX mit einer GX2, also einer GPU Doppelkernkarte, zu vergleichen. Aber ansonsten gebe ich dir schon recht, für diesen Preis ist das ja wohl keine Frage, da hätte ich wohl auch eine GX2 genommen. Pflichte ich dir voll und ganz bei.

So long....
 
Zuletzt bearbeitet:
Wenn Nvidia die alten Karten durch FPS-Kastration über neue Treiber jetzt im Nachhinein künstlich ausbremst, um ihre neuen Karten besser dastehen zu lassen und verkaufen zu können und um zu vertuschen, wie lausig der Zugewinn an Performance gegenüber Ersteren tatsächlich ist, dann kann von vergleichbaren Werten letztlich eh keine Rede mehr sein!

Und wir wissen ja wohl hoffentlich alle aus der Spielepraxis, dass schon ein paar FPS im Zweifelsfalle den Unterschied zwischen spielbar und unspiebar ausmachen können, nicht wahr?
 
Sehe ich genau so. Habe mir vor 5 Min. eine 8800GTX für 217€ inkl. Nachnahme-Versandkosten bestellt, halte ich für am vernünftigsten. Auch, wenn ich die 9800GTX für meine Verhältnisse (d.h. 1680x1050 bis 1980x1050 bei 4AA/16AF) ausreichen würde und laut Benchmarks sogar immer über der 8800GTX liegt, sehe ich mich mit dem Vorgänger auf der sicheren Seite. Und die 1-4FPS mehr bringen mich auch nicht dazu, 30-50€ mehr auszugeben.

Eine sehr gute Entscheidung. Wir reden hier ja nicht mal über identische Preise, bislang...
 
Zwirbelkatz schrieb:
Eine sehr gute Entscheidung. Wir reden hier ja nicht mal über identische Preise, bislang...

Denke ich auch. Das einzige, was mich wirklich beunruhigt, ist diese künstliche Ausbremsung seitens nVidia. Ich hoffe, dass sich jemand mitdiesem Problem ausseinandersetzt, sobald es größere Ausmaße annimmt. Stichwort Custom-Drivers.
 
Warum es bei der 9800GTX kaum an der Bandbreite klemmt:
http://en.expreview.com/2008/04/03/geforce-9800gtx-review/11/-> ~ 3-5% schneller als die 8800GTS 512
Zur Erinnerung:
9800GTX vs 8800GTS 512:
13,4% mehr Bandbreite
3,8% mehr Pixelfüllrate respektive z-Füllrate
3,8% mehr Texelfüllrate (limitiert nicht, die 8800GTX hat schon weniger)
3% mehr Rechenpower (limitiert nicht, die 8800GTX hat schon weniger)
0% mehr VRAM

In keiner der oberen Situationen limitiert die Bandbreite massiv.
 
Warum setzt sich dann eine G80 so stark ab?

cYa
 
@ Luxmanl525:

Geht's bei der Bandbreite um weitere spezielle Treiber die über die Force-Ware-Treiber
(die tatsächlich für die Quadros verwendet werden - informier' dich mal...) hinaus Anwendung
finden oder geht es da um die Technik, die ich extra noch so auführlich beschrieb?

Ich kenne die Antwort darauf du großer Disqualifizierer... :lol:

@ Zwirbelkatz
Ja, weiß ich. Und wieviele sind das... ca. 'ne Hand voll. Supi!
Müssen immer die kleinen Ausreißer als Argumentationsbasis dienen?
Ich finde nicht. Darum hab ich' schlicht sein lassen das zu erwähnen.

@ Unyu
Eine Ende der Fahnenstange in Sicht? Das ist definitv nicht so, auch ohne Auflösungserhöhung sind jegliche Grafikkarten am Markt lächerlich langsam. Die Entwicklung wird und muss dringend weitergehen.
Jein - vll. hab ich mich mal wieder missverständlich und zu forsch ausgedrückt.
Die guten am Markt erhältlichen Karten sind bei mäßigen Einstellungen aber allesamt
in der Lage im Schnitt die notwendigen 30 ~ 60 FPS für die heutigen,
üblichen Panels (und unser Auge) zu liefern...
Es werden ohnhin neue Technologien kommen, sowohl bei den Bildschirmen
als auch bei den Grafikkarten. Es werden irgendwann bessere, höhere,
schärfere Auflösungen bei kleineren Bildschirmen kommen.
Doch bis es soweit ist, gilt die Fahnenstange für die aktuelle Technik.
Und die hat sehr wohl ihre Grenzen
Das mit den 32bit... danke dann habe ich noch ein Argument, warum eine 9800GX2 mit 2x1GiB nie erscheinen wird.
Das muss ich jetzt nicht verstehen, oder?
 
rEpLaYmEr schrieb:
war ja eigentlich klar, dass sie nicht sehr viel schneller als ne 8800gts 512 sein wird, und wenn man dann diese auch noch OCed, ist sie bis auf Triple SLI und Hybrid Power genau gleich, für einen deutlich geringeren Preis! Schade nVidia, meine entscheidung ist schon für die 8800GTS 512 gefallen!!

Naja ob das mit dem OC immer ein ARgument ist.... die 9800GTX kannste ja auch ocen ^.^
 
Zurück
Oben