Bericht Bericht: nVidia GeForce 8800 GTX SLI

@georg74
so uninteressant kann er gar net sein bei momentan 2391 klicks
 
Super Test,

aber da hätte ich doch noch eine doofe Frage,
macht sich das AA und AF in der 2560er Auflösung genau so stark bemerkbar wie in der 1280er Auflösung,
oder kann man bei der hohen Auflösung auch darauf verzichten?

Wenn man einen 30'' Zoller mit 2560er Auflösung hat müsste man für AA und AF auf jeden fall SLI einsetzen (so wie die Frameraten einbrechen),
es sei denn man braucht AA und AF nicht.
Wieviel FPS hätte man prozentual mehr wenn man auf die Filterung in der 2560er Auflösung verzichtet?

Gruß
balla balla
 
Zuletzt bearbeitet:
af kostet eigentlich kaum performance in hohen auflösungen. bleibt noch das aa.
früher hiess es immer 1024*768 + aa oder ne hohe auflösung (1600*1200 - das maß aller dinge).
also ich wage mal zu bezweifeln, dass man in 2560*schlagmichtot wirklich aa braucht.
vll liegts aber auch daran, dass ich immer älter und mein augenlicht immer schlechter wird.
 
So kann man einen Vorsprung von durchschnittlich 50 Prozent vor einer einzelnen GeForce 8800 GTX erkämpfen, die wiederum alle anderen SLI- und CrossFire-Systeme hinter sich halten kann.Gar noch etwas besser sieht es in 1600x1200 aus. Der Vorsprung beträgt aufgrund der höheren GPU-Last 63 Prozent vor einer Einzelkarte.

Langsam aber sicher steht ein SLI-System immer besser dar.

Allein der Stromverbrauch macht weiterhin Probleme. Bei einem SLI-Gespann sollte im 2-D Modus eine der beiden Grafikkarten komplett abgeschaltet werden. Zumindest diese Einstellungsmöglichkeit sollte vorhanden sein. Klar, das reaktivieren der zweiten Grafikkarte beim Wechsel in den 3-D Modus würde etwas dauern, aber das ist doch nicht weiter schlimm, da zuerst so wieso die Festplatte am Laden des Spiels ist. Bis dieser Ladevorgang abgeschlossen ist, schalten die beiden Grafikkarten in den SLI-Modus. So schwierig ist das doch nun wirklich nicht zu realisieren. Es wäre ja auch nicht schlimm, wenn beim Umschalten in den SLI-Modus dann für 2 Millisekunden das Bild weg ist, da es ja sowieso noch am Laden ist....

Außerdem sollte es möglich sein eine 8800GTX in eine 8800GTS für 2-D Modus umzuwandeln in dem man die Teilbereiche (per Bios) deaktiviert, die bei einer 8800GTS permanent deaktiviert sind. Wenn Nvidia diese beiden Features bis zum erscheinen des R600 in die 8000 Serie implementiert, wird der R600 sehr blass aussehen.
 
Zuletzt bearbeitet:
@ComputerBase

Testet doch auch wieder mal was normales, etwas das sich nicht nur 0,0001% leisten können! Damit meine ich RAM, Soundkarten, was weiss ich (aber bezahlbar)!

So wird dieser Test bei mir wieder mit "nett" abgehakt, den leisten kann/will ich mir sowas nicht!
 
leisten wird sich die karte jeder können... ist nur ne frage der zeit, ende nächstes jahr krigt man die sicher schon um die 150€ nachgeschmissen weil dann längst ne 8950GX4 oder sowas krankes da ist und die 9800 in den Startlöchern steht ;P

ausserdem gibts eh erstmal preisstürze wenn Weihnachten rum ist und die Konkurenz von ATI anmaschiert!


Was mich jetzt mal intresieren würde was macht son 8800GTX SLI system wenn noch ne Ageia PhysX drinne steckt? oder diese Lustige KI Karte aus russland... die karten sind ja genau dafür gedacht um der CPU ordentlich Arbeit abzunehmen oder hat ich da etwa was falsch verstanden?
 
Danke für diesen klasse Test - muss verdammt viel Arbeit sein.
Leider limitiert desöfteren die Cpu und ist womöglich sogar langsamer als ein E6300, den sich jemand auf 3200Mhz getaktet hat. (E6600 @ 3600 oder vergleichbares). Meine Meinung geht auch in die Richtung: Wenn Enthusiasten Hardware dann richtig. Das nicht alle übertakten können und wollen sehe ich ja ein, aber man sollte es eventuell mal unter anderem (!) in einen solchen Test als Nebenrubrik für die tatsächliche Highend-Leistung aufnehmen.

Nur für den Fall ich hätte 4000€ zu viel und wollte wissen, wie Oblivion auf meinem 30" Dell mit 2560er Auflösung aussieht ;) Anyway, immer wieder bemerkenswert welche Mühe dahinter stecken muss! Super Test.
 
MisterG schrieb:
@ComputerBase

Testet doch auch wieder mal was normales, etwas das sich nicht nur 0,0001% leisten können! Damit meine ich RAM, Soundkarten, was weiss ich (aber bezahlbar)!

So wird dieser Test bei mir wieder mit "nett" abgehakt, den leisten kann/will ich mir sowas nicht!

DA bin ich mal voll deiner Meinung. Tests von super Duper Systemen gibts wie Sand am Meer. Aber wen man mal etwas für sich selbst sucht, also normale durchschnitts Hardware, findet man nichts! Ein Ram Test wäre wieder mal etwas feines, dabei aber bitte nicht wieder die teuersten und besten einer Marke nehmen, sondern eher die zweite Wahl.
Auch ein Mainboard Test wäre wesentlich interessanter als dieses SLI System das erstens derzeit niemanden etwas bringt (Die 0,0000001% mal ausgenommen).
 
danke an CB,

der test hat sicher viel arbeit gemacht, faellt aber trotzdem in die kategorie unfug/schwachsinn/sinnlos.
ich hoffe, ihr seit nicht ueberrascht worden, dass das sli gespann schneller als die einzelkarte war, die insgesamt selbst schon schneller als jede andere verfuegbare karte ist. interessant ist der test nur insoweit, dass recht eindrucksvoll gezeigt wird, was derzeit performancemaessig moeglich ist. dann aber zu beschliessen, den 6800 nicht zu uebertakten, aus welchem grunde auch immer, zeigt nur, dass der redaktuer einen an der klatsche hat. die einzige chance, dem test einen sinn und eine daseinberechtigung zugeben, wurde damit ebenso eindrucksvoll verfehlt. schade.

die " ich kann es mir leisten" debatte halte ich nebenbei bemerkt, ebenfalls fuer ueberflussig. es ist schon fraglich, ob wirklich von "leisten koennen" gesprochen werden kann, wenn erst lange gespart werden muss; das geld scheint ja offensichtlich nicht vorhanden zu sein. und wer das geld von anderen ausgibt, sollte sich fragen, ob diese personen sich das leisten koennen.

was die widescreen debatte angeht, ein 20 zoeller kann in seiner nativen aufloesung in qualitaetssetting von fast jeder last generation karte befeuert werden, dazu brauchst es weder sli noch cf.

im uebrigen, an alle dauergamer und grakadauerkaeufer, seht zu, dass ihr mal ein anstaendiges rl zustande bringt. sucht euch 'ne freundin und fangt an zu leben.


gruss
 
Zuletzt bearbeitet:
pissofff schrieb:
... faellt aber trotzdem in die kategorie unfug/schwachsinn/sinnlos.
... den 6800 nicht zu uebertakten, aus welchem grunde auch immer, zeigt nur, dass der redaktuer einen an der klatsche hat.

Wird den Redakteur sicherlich sehr freuen wenn er liest, dass er einen an der Klatsche hat. Verdammt tolle Wortwahl. Wie wäre es denn selber mit "besser" machen? Aber Steine werfen ist ja leichter, schon klar.
 
Verstehe nicht was hier manche für Probleme haben...
Finde die Entscheidung des Redakteurs gut, dass der 6800 nicht übertaktet wurde.

Wie die Performance der Grafikkarte aussieht, sieht man doch bei höheren Auflösungen. Außerdem war das ein schöner Skalierungstest. Jetzt weiß man um wie viel besser die Intel 6800 CPU im Vergleich zu AMD FX ist. Wenn man den Unterschied zwischen dem FX und der 6800 sieht, kann man im Zweifelsfall auch auf eine übertaktete 6800 schließen.

Und jetzt gehe ich mal auf das Niveau der Übertackter-Kommentare. Wer eine 6800 heute schon übertaktet hat eine an der Klatsche! :evillol:
 
Mein gott wie geil :D Geld müsste man haben hajajajaj. Sehr guter und ausführlicher test aber wo bleibt die 8800GTS? :( Würde mich auf einen test freuen.
 
Hab da mal eine Frage zu dem hier:

hier müssen wir aber anmerken, dass die nForce-Chipsätze traditionell mehr Strom benötigen als die Intel- und ATi-Pendants; die große Differenz zwischen den ATi- und nVidia-Karten beruht also nicht ausschließlich auf den Grafikkarten.


Gibt es keinen einzigen Chipsatz, der sowohl Crossfire als auch SLI unterstützt? Oder muss man beim Kauf des Mainboards gleich entscheiden ob man Grafikkarten von Nvidia (SLI) oder Ati (Crossfire) kaufen will. Wenn ja woran liegt das? Wenn nein, warum testet dann CB auf verschiedenen Chipsätzen?
 
CsA-eViL schrieb:
af kostet eigentlich kaum performance in hohen auflösungen. bleibt noch das aa.
früher hiess es immer 1024*768 + aa oder ne hohe auflösung (1600*1200 - das maß aller dinge).
also ich wage mal zu bezweifeln, dass man in 2560*schlagmichtot wirklich aa braucht.
vll liegts aber auch daran, dass ich immer älter und mein augenlicht immer schlechter wird.

Das dachte ich anfangs auch, als ich den Schritt von 1280x1024 auf 1680x1050 hatte. Da habe ich mir gesagt, bei so einer Auflösung ist doch eh fast keine Treppenbildung mehr da usw... Das stimmt so aber nicht. Über AF brauche ich nicht groß reden, dass sollte man immer nutzen um ein sauberes Bild zu haben. AA fahre ich zur Zeit auch bei 1680 mit 2x wenn 4x zu viel Performance frisst. Bei AA werden ja alle Kanten geglättet, was bei Objekte in der Enfernung auch sehr zum Tragen kommt. Um so feiner die Treppen vom Grundobjekt sind, dest weniger fallen sie bei aktivem AA in der Entfernung auf und es wirkt nicht so künstlich rund (als Bsp.). Wie das nun bei 250 aussieht weiß ich nicht, da ich diese Auflösung noch nie genutzt/gesehen habe. Aber auch hier stelle ich mir das ähnlich vor, nur denke ich, dass 2x AA dafür völlig reichen würden.
 
AA und Auflösung bezog sich eher auf die damaligen CRT's. Ein CRT hat ja keine native Auflösung und bei 1600x1200 auf einem 19" CRT braucht man sicher nicht wirklich eine Kantenglättung.
Bei TFT's ist das wieder was anderes. kommt halt auch drauf an auf die Auflösung und die Größe. 1280x1024 auf einem 17" TFT benötigt keine so hohe Kantenglättung als die gleiche Auflösung auf einem 19" TFT, weil dort eben die Pixel größer sind und man so die Treppchen eher bemerkt.
Bei meinem 20,1" Wide mit 1680x1050 z.B. hab ich Glück da läuft fast alles mit 2x AA ohne sichtbare Treppchen.
 
boah mann, wenn ich solche benchmark ergebnisse sehe, kommen mir doch wieder die tränen...meine fresse ist bzw. sind die schnell, aber halt auch seeeeeehr teuer, da warte ich doch lieber auf eine garantiert bald kommende 8600GT und die kann ich mir schon eher in meinem nächstes jahr etwas getunteren rechner vorstellen.
 
Welcher Prozessor nimmt mehr aus diesem SLI-Verbund raus, der X6800 (3GHz) oder der QX6700, auf 3GHz übertaktet?
 
Zuletzt bearbeitet:
Zurück
Oben