News Bilder und Daten zu Nvidias GeForce 9800 GX2

eben @ IgG unter einem G100 Chip kauf ich keine Grafikkarte mehr.Das ist dann nur noch alter Kram verfeinert^^
 
und das alles für 2-3 Spiele im Jahr die ordentlich Saft brauchen und auch noch spielerisch schlecht sind^^ Dann lieber auf eine Mainstreamkarte warten.
 
Bleibt uns (den Highend-Fetischisten) eigentlich nur zu hoffen das wir bald eine Highendkarte sehen die wirklich was taugt. Nicht das ich mich nicht irgendwie freuen würde das ich mit meiner GTX so lange schon gut fahre....... ;) . Langsam wird es aber mal Zeit für was neues.

@ Clubstar06 :
Das ist natürlich in soweit richtig das man mit den Mainstreamkarten der letzten Jahre Gottlob auch sehr gut zurecht kam.
Ich selbst spiele neben Shootern aber auch sehr gerne MMORPG´s und musste feststellen das gerade in großen Raids hier bei den aktuelleren Titeln gar nicht genug Grafikpower vorhanden sein kann.

Ich bin mal gespannt wie sich die GTX bei dem nächsten von mir angestrebten titel dieser Art schlagen wird (Age of Conan). Ich befürchte aber das ich spätestens dann (*an Massenschlachten um riesen Festungen denkt*) nicht mehr weit kommen werde :freak:
 
Zuletzt bearbeitet:
Das einzige was zählt sind die Spielebenchmarks,was auf dem Papier steht interessiert nicht.
Aber wirklich stark können die 9800er nicht sein,sonst würden sie nicht gleich Start ne GX2 raushaun.
Umstieg wird wohl erst mit der übernächsten Gen Sinn machen :o
 
also das muss ja die hammer game karte sein ich bin mal gespann wie viel die kosten soll und wie viel strom die verbraucht!

Muffn
 
@Busta Rhymes: abwarten, vielleicht erwartet uns eine neue "Schnitzelbrat-Maschine", wie es schon in Ansätzen die 7950GX2 vorgemacht hat. Das wäre echter Fortschritt :D.
 
Was will Nvidia mit ihren dähmlichen Namen?

Warum nen sie nichta alle G92 Karten 9800 xx ?! Ist ja mal voll dähmlich, wollen wohl den Kunden verwirren...

Von der Karte bin ich eigentlich entäuscht, ne gute single Karte wär mir lieber gewesen, und 30% auf die Ultra sind für die Tatsache das sie ne X2 ist auch nicht die welt
 
wenn Dual dann lieber das Konzept von AMD. Vorallem stell ich mir es extremst schwer vor die 9800GX2 unter Wasser zu setzen. Crossfire skaliert auch besser. MIt dienes Doppeldecker Lösungen kann ich irgendiwe nichts anfangen. Dx 10.1 wird vermutlich genausowenig supported wie bei den 8800 er Karten.
Rein vom Stomverbrauch, den Multimediafähigkeiten, der Möglichkeit der Wasserkühlung, würde ich eher zu einer 3870 X2 greifen.

Ansonsten muss man sagen das Nvidia die Namensgebung mehr als verbockt hat. Man durfte den G92 nicht 9XXX nennen damit der Laie nicht deckt "huch die ist muss ja schneller als ne Ultra sein". Jetzt da 2 G92 schneller als ein G80 sind macht man fix was wesentlich hochwertigeres durch den Namen daraus. Folglich lassen sich diese Karten auch wieder jenseits der 500 Euro vermarkten.

Denke man hat die Nachfolger GPU schon so gut wie fertig. Die 9XXXer Reihe wird wohl eher eine Mittelfristige Lösung sein.
 
ansonsten mal sehen was AMD dagegensetzen will XD

Eine Hd3870x2 die zum halben Preis bis zu 90% an die Leistung der 9800Gx2 rankommt und übertaktungsfreundlich ist

*weiterhoff*

mfg
 
Krautmaster schrieb:
Denke man hat die Nachfolger GPU schon so gut wie fertig. Die 9XXXer Reihe wird wohl eher eine Mittelfristige Lösung sein.

Die Architektur der neuen Karten wird sicher schon stehen.
Diese GX2 dient nur dazu, mit dem G92 nochmal ordentlich Kohle zu machen und fertig. Ich kann nur immer wieder sagen, dass der G92 imho keine wirkliche Daseinsberechtigung hat. Ausser für nVidia, um mit nem pseudo-neuen-Chip abzusahnen!
Ein Sprung von den wirklich leistungsfähigen G80-Karten zur nächsten wirklich innovativen und fortschrittlichen High-End-Gen hätte gereicht!

Kundenfreundlich finde ich das G92-Konzept von nVidia nebenbei auch nicht!
 
hehe das ja nen erlkönig xD

man erkent keine details :P

aber ich hoffe mal es ist wie letztes jahr bei ati

also das die final karte nur ca halb so lang ist xD
 
h4xjio schrieb:
Sorry Jungs aber könnt ihr Lesen ??

denen auch jeweils 512 MB Grafikspeicher zur Verfügung stehen sollen.

das ergibt 2x512 MB .... freaks

Heutzutage wird SLI hauptsächlich über AFR realisiert, dass bedeutet, dass die beiden Chips jeweils abwechselnd ein Frame berechnen. Das heißt dann aber, dass alle Daten (wie zB Texturen) in beiden Speichern vorhanden sein müssen, da der PCie-Bus und der SLI Connector viel zu wenig Bandbreite haben. Man hat also effektiv nur 512MB, allerdings hat man 256Bit Speichereinterface pro Karte ... da beide Karten unterschiedliche Bilder berechnen, könnte man sagen, dass die Bandbreite verdoppelt wird.

Der Knackpunkt der Karte wird allerdings der Speicher bleiben. Man sieht bereits bei der einzelnen 8800GTS, dass die Karte in gängigen Auflösungen wie 1280x1024, noAA sogar der GTX davonzieht. In 1600x1200, 4xAA fällt die Karte aber oft hinter die GTS 640 zurück, weil der Speicher hier bereits ausbremst. Im schlimmsten Fall geht der Performance-Gewinn der GX2 also gegen Null.
 
danke C.J. - endlich mal einer der viele hier zum Licht führt :)

Ich war auch der Meinung das man effektiv nur den Speicher einer Karte nutzen kann. Wie das bei der HD3870 X2 aussieht ist fraglich. Wäre schön wenn hier auf ein volls GB zurückgegriffen werden kann.

Hoffen wir das nun alle gespeichert haben das 1Gb auf einer SLI Karte effektiv 512Mb bedeuten, was meiner Meinung nach zu wenig für diese Karte ist.
 
Tyr43l schrieb:
So sollte meiner Meinung nach auch bei der neuen GX² zwei 8800GTX Chips verwendet werden, da diese schonmal über 768MB verfügen.
Bist du des Wahnsinns?:D Den Verbrauch so einer Karte will ich wirklich nicht sehen.

Die 9800 GT2 sieht wirklich mächtig aus. Allerdings macht die Namensgebung für mich überhaupt keinen Sinn. 8800 GT2 wäre wesentlich logischer.
Da die Karte aus zwei "alten" G92 besteht und so heißt, würde ich vermuten, dass die 9000er Generation einfach übersprungen wird und der G100 oder wie auch immer das Ding heißen mag, eine völlig neue Bezeichnung bekommt.

Wenn also die 3870 X2 kommt und die Ultra schlägt, wird ATI nicht lange die Performancekrone inne haben, ausser dieser CrossfireX Treiber ist ein wahrer Wunder...
 
Ja richtig. Immer schön neue Karten auf den Markt schmeissen (wenn es man überhaupt so weit kommt) und noch nicht mal die 8800GT in ausreichender Stückzahl bereitstellen.
 
Gamer_07 schrieb:
wenn die ati 3870x2 schneller ist als die 9800gx2 kauf ich mir sowieso die grafikkarte von ati auch wenn sie ein bischen langsamer ist.

Astreiner Satz! :lol:


Ich denke die werden den Chip- und Speichertakt senken bei der 9800GX2, genau wie bei der 7900/7950GX2 damit die Karte in dem Dual-Slot Design ausreichend gekühlt werden kann. Die 8800GTS hat ja schon einen Dual-Slot Kühlsystem von daher würde das bei identischen Taktraten glaub ich sehr nach hinten losgehen mit der Hitze, aber schaun mer ma!

Auch wenn die Karte bestimmt super fett wird, warte ich noch bis die ersten G100 Karten rauskommen und dann werd ich mir nen komplett neuen PC holen.
Zum G100 Termin: Ich glaube nicht, dass der im März kommt. Da sollte man sich gar keine Hoffnungen machen. Das wär völlig sinnfrei wenn nVidia die 9800GX2 raushaut die wahrscheinlich dann wieder die Performancekrone bekommt und einen Monat später gleich die nächste Generation. Was soll dann aus der 9800GX2 werden? So leichtsinnig verspielt kein Unternehmen sein Geld. Ist ja schließlich kein Wohltätigkeitsverein sondern immer noch ein Unternehmen mit Gewinnabsichten.
 
Zurück
Oben