Test Test: nVidia GeForce 8800 GTS (SLI)

Wenn eine 7600GT unter Last 200 Watt braucht, dann fällt es unter WUNDER, daß mein Rechner noch läuft.....

200 Watt Graka, 80 Watt CPU, 2 Festplatten, 2 GB Ram, Soundkarte, 2 DVD-Laufwerke, 1 Diskettenlaufwerk, 3 Lüfter........ 260 Watt No-Name Netzteil............

Warum läuft der noch?
:-)
 
@Rasemann

Ein Wunder, dass manche Leute so einen super Artikel nicht richtig lesen :rolleyes:

Mit 200Watt ist der Gesamtverbrauch des Systems gemeint ;)

sonicknight schrieb:
+++
es ist sogar rot hervorgehoben:freak:

Hmm, das sollte man vielleicht ändern. Gibt nämlich genug Menschen die farbenblind sind :D
 
Zuletzt bearbeitet:
Na ja der Stromverbrauch bei der 8800GTS ist ja noch geradeso annehmbar. Könnte der Stromverbrauch mit Umstellung auf 80nm oder 65nm weiter gesenkt werden? Also eine 8800GTS in 65nm mit niedrigerem Stromverbrauch hätte schon was:) .

gruß
Lumi25
 
Also durch einen Shrink ist eigentlich immer eine Senkung der Leistungsaufnahme möglich.
Doch so extrem ist der Stromverbrauch garnicht, da sind die anderen Karten wesentlich unwirtschaftlicher. Der G80 bzw. 8800GTS/X bringt pro Watt mehr Frames oder anders ausgedrückt: Ein Bild braucht bei der 8800GTS/GTX weniger Strom als bei den ganzen Vorgängerkarten. Man muss das schon immer im Verhältnis zum Gebotenen vergleichen, denn so ein Stromverbrauch kommt schliesslich nicht von ungefähr.
 
Sehr guter Test, danke CB :)

Für 485Watt bekommt man die Doppelte Leistung, wie von einem Rechner mit 200Watt Gesamtverbrauch :p

Ein bisschen stört mich die Leistung der GTS auch, zumal man mit über 400 Euros nun wirklich nicht billiger ersteigert als eine GTX für 150 Euros mehr :evillol:

Gruss Selflex
 
danke für den test. ich werde noch 2-3 monaten warten bis 8900GTX raus kommt, dann kaufe ich mir eine :) aber ich höffe die sind nicht so lang wie 8800GTXer und verbrauchen weniger strom.
 
Selflex schrieb:
Für 485Watt bekommt man die Doppelte Leistung, wie von einem Rechner mit 200Watt Gesamtverbrauch :p

Also irgendwie scheinst du da was gewaltig zu verwechseln.

7900GTX = 251 Watt
8800GTX = 310 Watt

Dabei bietet die 8800GTX mehr als die doppelte Leistung einer 7900GTX. ;)
 
Danke auch für den Test, wenn er doch etwas zu spät kommt gemessen an der Weihnachtszeit für eine Kaufentscheidung zum Fest. So ist denn meine 8800GTS nun schon zwei Wochen "alt", doch den Blindflug habe ich keine Sekunde bereut. Sicher ist die GTX wesentlich Prestigeträchtiger, trotzdem scheint mir der Hype zu Lasten der wesentlich realistischeren GTS ein wenig übertreiben.

Nicht nur, dass die GTX 100,-€ teurer ist, die Leistungsaufnahme genau wie die Abmessungen grenzen das potentielle Klientel noch weiter ein und ziehen nicht selten weitere Zusatzinvestitionen nach sich. Das Markpotenzial der GTS ist somit ungleich größer, während die GTX eben nicht nur aufgrund des Preises ein Nischenprodukt ist.

Den Umstieg von meiner gerade einjährigen X1800XT auf eine 8800GTS bereue ich so keine Sekunde. Mein altes 400Watt Fortron-Netzteil versieht so weiter unhörbar seinen Dienst und vor allem genieße ich endlich wieder Stille, dank dem vorbildlichen Referenzkühler den nVidia da entwickelt hat. Das knatternde Monstrum von ATI wird jetzt schön als Weihnachtsgeschenk verpackt und nervt bald andere Familienmitglieder. ;-)

Was das bereits von einem Vorredner angesprochene Thema der "Test-Auflösungen" angeht, würde ich die Aufnahme von "1680x1050" in den Parcours sehr begrüßen aus bloßem Eigeninteresse. Seit über einem Jahr ist das für mich sowohl privat als auch beruflich Standard, leider funktioniert das aber nicht in jedem Spiel und auch eben auch erst mit der GF8 so richtig flüssig. Nach der Webseiten-Statistik einer Spielpage die ich mit betreue, fahren nur 1% von 8000 Besuchern im November diese Auflösung, weitere 6% verteilen sich auf alle anderen Wide-Screen-Auflösungen darunter. Ich weiß nicht, wie es bei CB-Besuchern aussieht (die sicher nicht alle Spieler sind), wohl nicht frappierend anders. Immerhin sind 78% aller Anwender noch mit 1024x768 oder 1280x1024 unterwegs. Da muss man auch als "Early Adaptor" mal realistisch bleiben. ;-)
 
Zuletzt bearbeitet:
Wirklich sehr schöner Test, nur wie von einigen bereits erwähnt etwas spät: eineinhalb Monate später als der Test von der GTX (8. Nov) :rolleyes:
Für mich eben leider zu spät, da ich meine GTS schon bestellt habe. Dass der Unterschied zwischen GTX und GTS so groß ist, hätte ich nicht erwartet, vielleicht hätte ich dann doch über die GTX nachgedacht. Aber Hauptsache Direct3D-10-kompatibel :D

Dass ihr mit dem FX-60 weiter testet, kann ich nachvollziehen. Es wäre wirklich extrem viel Arbeit, alle 16 Grafikkarten, die in diesem Test zum Verlgleich herangezogen wurden einzeln und in SLI/CF in allen 16 Spielen sowie den anderen Benchmarking-Programmen mit der neuen CPU nochmal zu benchen.
 
Wiedereinmal ein sehr schöner und ausführlicher Test @ CB! :daumen:

Ich hätte da mal eine ganz andere Frage:

Habt ihr schon verschiedene 680i Boards bekommen? (ASUS, ABIT, BFG usw.)

Wann darf man da mit einem Test resp. Vergleich rechnen? ;)

mFg tAk
 
Ein Test der 8800GTX im SLi wäre auch interessant, ist ja im Moment der schnelleste SLI und Crossfire Verbund. :)
 
Òó

Ein CB Test den ich nicht gelesen habe? Vielen Dank Soul_Ripper!! :)
 
mmic29 schrieb:
@Snikkers: Du kannst aus den durchschnittlichen frame-Werten sehr wohl Rückschlüsse ziehen, ob ein Spiel auf dem Rechner flüssig läuft oder nicht. Sie sollten schon zwischen mind. 50 und 60fps liegen, um Einbrüche ausreichend zu kompensieren.
Wer natürlich denkt, ein Spiel mit durchschnittlich 30-40fps sei gut spielbar, dem ist nicht mehr zu helfen.
Zum Thema minimale fps: gerade in standardisierten Benchmarks ist es schwierig, wirklich aussagekräftige Werte zu bekommen, da es im reellen Spiel durchaus Szenen gibt (geben kann), die der Hardware noch mehr abverlangen als eben die standardisierte Stelle innerhalb des benchmarks. Dies ist z.B. durch hohe Gegnermassen, massig Explosionen etc. gegeben.
Also ist es demnach auch nicht wirklich aussagekräftiger, die minimalen fps anzugeben.

Mfg

Das was du behauptest is falsch, und zwar darum:

In Oblivien z.B: Hat eine Gespann aus 2x 7900GTX eine durchschnittliche Framerate von 55.7 FPS
und ein Gespann aus 2x X1950 eine Framerate von 55.6 FPS

also sind beide gleich schnell
Sieht man aber auf die minimale Framerate so gibt es deutliche Unterschiede.
2x 7900GTX = 37FPS
2x X1950 = 22FPS

Wo wird es wohl Ruckeln?

Beiude sind ja bei der durchschnittlichen Framerate gleich schnell.

Also wer von uns beide hat jetzt recht?

Da seinzige was wirklich relevant ist ist die MINIMALE Framerate,
alles andere ist ein Spiel mit möglichst hohen Zahlen ohne echte Gewinner.
 

Anhänge

  • tesout_hdr.gif
    tesout_hdr.gif
    15 KB · Aufrufe: 610
Mich hat verwundert, dass die GTS das GX2-Gespann fast überholt hat... Das reicht mir doch schon an Leistung, mehr brauche ich doch für meine (in der Regel grafisch nicht allzu anspruchsvollen) Spiele nicht, und DX10 ist auch schon drin...
 
Snikkers schrieb:
also sind beide gleich schnell
Sieht man aber auf die minimale Framerate so gibt es deutliche Unterschiede.
2x 7900GTX = 37FPS
2x X1950 = 22FPS

Da sind ja die minimalen Frameraten einer einzelnen X1950 XTX und im CF-Gespann gleich. Das scheint eine spezielle Eigenart und demnach eine Ausnahme zu sein.

Da seinzige was wirklich relevant ist ist die MINIMALE Framerate,
alles andere ist ein Spiel mit möglichst hohen Zahlen ohne echte Gewinner.

Da kann ich überhaupt nicht zustimmen. Mich interessiert absolut nicht, ob das Spiel an einer Stelle mal kurz in einen ruckligen Bereich kommt, sondern viel eher, ob ich es meistens ruckelfrei spielen kann. Das helfen mir die durchschnittlichen Angaben viel eher.
 
@Snikkers (Nr.60)

Da stimm ich dir auch zu. Man sollte bei den zukünftigen Tests vielleicht die Werte unterteilen, also in maximal, durchschnittliche und minimale Framerates.

Doch bei deinem Bild stimmt was nicht, da sind teilweise die Bildwiederholraten bei der höchsten Auflösung besser als bei der kleinsten :freak:

Doch die minimale Framerate kann auch sehr für Verwirrung stiften, denn was ist, wenn die Framerate beim Benchen, nur für 1 Sekunde an einer bestimmten Stelle um die Hälfte einbricht? Da könnte man meinen dass das Spiel nur ruckelt, wenn man keine durchschnitliche Framerate angibt, doch diese wird wiederum auch von den maximalen Frames beeinflusst. Deswegen sollten dann schon alle drei Werte angezeigt werden, denn die durchschnittliche Framerate liegt nämlich bei 90% der Fälle nicht in der Mitte zwischen Maximum und Minimum.

@über mir

Er meint ja auch zum Großteil nur die Unterschiede bei vermeintlich gleichen Framerates, die uns die durchschnittlichen FPS zeigen. Eine Grafikkarte kann mit der anderen von den average FPS gleich sein, aber eine von den zweien bricht vielleicht bei der halben Spielzeit ins Unspielbare und bringt bei der anderen Hälfte wiederum die doppelte FPS, während die andere Karte überhaupt nicht einbricht aber auch nicht wie wahnsinnig in die Höhe schnellt. Bei der ersten Graka werden die minimalen Frames durch die maximalen im Endergebnis verschönert und das ist das Prob, deswegen sollte man alle drei Werte angeben.
 
Zuletzt bearbeitet:
Zurück
Oben