Test Test: Nvidia GeForce 9800 GX2

die karte wird kaum abnehmer finden, für die OC ler reicht die X2 vollkommen aus weil sie im 3dmark genauso schnell ist.... die gamer haben nicht das nötige klein geld sich solch eine karte zu kaufen weil sie ja schon die spiele kaufen müssen ;) die kosten,,, ja schon 50 euro pro stück :D... und naja eine KILO WATT stunde kostet 20 cent ... rechnet mal aus was das zocken dann so nebenbei noch kostet bitte ausrechnen Danke.... installiert euch mal Xfire und schaut lasst euch aufzeichnen was ihr in der woche spielt dann braucht ihr noch noch die wöchentlichen stunden zu multiplieziren mal 4 und schon habt ihr eueren strom verbauch im monat mal 12 was es im jahr so kostet der spass ,,, bitte nicht vergessen das die Nvidia karte im 2d modi ja auch ordentlich zieht.. muss man auch noch einrechnen ;)

mir persönlich gefällt dieses 2 PCB layout überhaupt nicht :-/ das schaut so nach nem verpackten mülleimer aus :(
 
Zuletzt bearbeitet:
@Unyu
axo kk, finde die gx2 schon krass... aber für highend zählt auch 8AA was sie bisher ja nicht bieten kann. ich versteh nur nichr wieso die nur 512 mb hat. zumindestens für den preis!

1x gx2 530 euro
2x x2 ca. 600 euro ( quad )

dann gib ich lieber diese 100 euro mehr aus!^^
naja, bin weder für nvidia noch für ATI, konkurenz kommt dem verbraucher zu gute :) :)
ATI holt mit der 4000 serie auf :)
 
wie wird es denn mit der neuen 9800 gtx ? die wird doch recht anständig laufen odeR ?
 
@Unyu

Du darfst das nicht so pessimistisch sehen, Hauptsache es werden Karten verwendet die 1024MB VRAM besitzen, da wird man schon einen Unterschied feststellen können(vor allem wenn die GX2 abstürzt und die 2 Karten nicht). Im SLI ist ja VRAM noch kritischer als mit einer Karte. Des weiteren macht CB. das hier kostenlos und man kann hier nicht alles fordern was man gerne hätte...


@Diabolicus1980
Jedes mal wenn eine "neue" Generation von ATI oder Nvidia nicht überzeugt, schreiben wieder alle

Tja das hat damit zu tun: WEIL SIE NICHT ÜBERZEUGEN KÖNNEN

Dir ist schon bewusst das das die GF3,6,8 alle min. 100% mehr Leistung hatten als ihre Vorgänger, da sie eine völlig neue Architektur hatten? NV brauch ca. 2 Jahre für eine neue Architektur, die dann Q4 2008 soweit sein sollte. Hab noch keinen Refresh gesehen der mehr als 30-50% gebracht hat.

Also ja, warte auf die GF 10 oder kauf dir eine günstige Übergangslösung
 
Zuletzt bearbeitet:
Sehr geile Karte, aber für mich wär sie absolut nichts.

Sie ist zu laut, S-Videoausgang fehlt, zu schlechte HDTV beschleunigung.

Und effektiv wird die Leistung ja auch noch nicht benötigt.
 
Was war mit der 8800er Serie und der X1900er?Das waren noch richtig gute!Aber das was sie jetzt bringen ist absoluter schwachsinn!
 
Wie kann es eig. sein das in world of conflict die karte bei 4/16 AA mehr frames hat wie ohne?
mfg
 
@Kasmopaya
das hier ist genau sowenig kostenlos wie google ;-) also erst denken dann ... aber nur dann vllt schreiben^^

auserdem raffen hier echt die wenigsten das ein höheres SI von 512 oder mehr oder 2GB RAM nichts mehr bringt! Wenn die Architektur des PCBs und des Chips nicht mehr hergeben dann tuts ein SI von 1024bit und 2GB VRAM ebenso wenig... einziges was erreicht wird wäre die 1k€ Grenze zu sprengen :-D
 
Ich denke, mit insgesamt 2 GB VRAM wären die Einbrüche aber nicht ganz so krass (aber natürlich immer noch spürbar) - denn man sieht ja, dass in XHD Auflösungen + 8xAA/16xAF der 9800 GX2 und allen G92 basierenden Karten die Puste ausgeht. Was ich nicht versteh - dass dies auch in 1280x1024 der Fall ist, wenn auch nicht so stark.

ATi war ja schon immer bekannt dafür, dass sie, je höher die Auflösungenen und Qualitätseinstellungen sind, gut nachziehen können, aber dass das in diesem Fall auch mit der 3870X2 so ist, obwohl diese ja auch nur insgesamt 1 GB VRAM und 256 Bit SI hat, ist schon bemerkenswert - hier muss ATi irgendwas getan haben, um so massive Einbrüche zu verhindern.

Mein Fazit zur 9800 GX2 - unübertroffene Leistung ohne AA/AF, leider scheitert sie dann, der G92 Architektur und dem geringen VRAM sei dank, kläglich an 8xAA/16xAF - was eine High End Karte, die sie ja auch preislich gesehen ist, deutlicher besser wegstecken müsste. Somit ist sie nix für Leute, mit riesigen TFTs, die auch noch mit sehr hohem AA/AF richtig flüssig zocken wollen. nV hätte sie schon mal gar nicht mit 2 x 512 MB VRAM releasen dürfen - vor allem zu diesem Preis. Am besten wär dann natürlich auch gewesen, wenn der G92 mehr auf dem G80 basiert hätte und mit 384 Bit sowie midnestens 2 x 768 MB VRAM daher gekommen wär - dann hätte die GX2 alles weggefegt !

Gruß
Edge
 
Zuletzt bearbeitet:
Also ich sehe da noch keinen Grund meine 8800 Ultra in Rente zu schicken, denn solange ich beim spielen noch zufrieden bin, muss auch keine neue Karte her :) Somit kann ich getrost auf die nächste Generation von Karten warten. Was mich aber so just for fun interessieren würde, kann man eigentlich auch 2 von den GX2 auf einem Board verbauen?
 
Bombenkarte, jetzt nur meine Frage:

Hab DIESES Netzteil und meine Frage ist, kann ich die GX2 da überhaupt anstecken?


Restsystem unten in Signatur
 
Zuletzt bearbeitet:
@Lord of War,

wenn du dir die Mühe gemacht hättest auf die Homepage von Corsair zu gehen, dann wüsstest du das es kein Problem ist die GX2 damit zu betreiben. Das NT hat die erforderlichen Stromanschlüsse. Ein Blick ins Handbuch hätte evtl. auch nicht geschadet.
 
also bevor ich mir die GX2 hole, kaufe ich mich lieber 2 GTX für SLI und übertakte diese
und wenn das nicht reichen sollte macht man noch einen vmod.
kostet weniger und bringt mehr.
vor allem brauch habe ich dann auch leistung bei einem nicht sli optimirten spiel
 
@Lord: Steck Dir lieber ne zweite GTX rein, damit bist Du deutlich schneller...
 
Eine Frage aus Neugier ...

Warum ist die GX2 bei World in Conflict ohne 4xAA/16xAF langsamer als mit 4xAA/16xAF?
Vergleich:

1280*1024
ohne 4xAA/16xAF: 79,3 fps
mit 4xAA/16xAF: 86,9 fps

1600*1200
ohne 4xAA/16xAF: 61,9 fps
mit 4xAA/16xAF: 68,6 fps

Wie kann man das erklären, da die GX2 die einzigste Karte ist bei der das passiert.
 
Zurück
Oben