News Bilder und Daten zu Nvidias GeForce 9800 GX2

sieht nett aus eigentlich , aber ich denke eher das diese karte eine 9800 gtx oder sowas ist . ich warte bis eine karte spiele wie far cry 2 und crysis locker schafft , weil ich hatte auch 7900gx2 , damals komplettrechner von atelco bestellt und ich muss sagen da wären 2 x1950xtx karten angebrachter , habe satte 800€ bezahlt für so ein haufen schrott . als die 88gtx rauskam , hab ich sie mir direkt geholt und die karte war um einiges schneller als 7900gx2 , vor allem da sehr viele spiele einfach kein afr unterstützen . jedem das seine , ich hol mir eine topkarte und nicht 2midrange gpus auf einer karte . die 7900gx2 gammelt bei mir hier noch rum und die 8800gtx meistert ihre aufgabe in cod4 , ut3 usw... ( bis auf crysis halt ) . ich warte auf eine vernünftige karte mit dx 10.1 und sm 4.1, die auch in der lage ist , grafikaufwändige spiele locker zu meistern , egal wie lange es dauert , bis diese ihren weg in meinen case findet . mir scheint es fast so , als ob nvidia in ati/amd keine konkurrenz mehr sieht und ihre 1jahr alten gpus noch verhökern wollen , mehr nicht :D . technisch gesehen ist die 3780xt um längen besser als eine ultra , mir ist immer noch nicht klar wieso eine 2900 xt in 3dmark recorde aufstellen aber in praktischen benches total abkackt . naja , ich bleibe cb treu und hoffe auf gute benches die nächsten monate , danach entscheide ich mich dann welche karte ich mir hole , auf jedenfall nie wieder eine gx2 .
 
wie ist es denn bei der 3870x2 greifen da 2 gpus auf einen ram zurück oder ist es da genau so wie bei der nivida karte dass alles parallel leuft???

hmmm die 9800:

negativ:
warscheinlich zu teuer
zu hoher Stomverbrauch
keine richtige neue Generation
nicht gerade sehr schnell
dual gpu Lösung
unpassender Name

positiv: ??? (mir fällt nix ein? :D)
 
Weitere Fakten und Bilder: http://translate.google.com/translate?u=http%3A%2F%2Fwww.tomshardware.tw%2F309%2Cnews-309.html&langpair=zh%7Cen&hl=de&ie=UTF-8

Auf den Bildern kann man die Anschlüsse erkennen: 2* DVI, HDMI, S / PDIF.

Angeblicher Preis: 449USD. Der Preis könnte in Anbetracht der schwachen Leistung (eine Dual-GPU Karte die gerade mal 30% schneller als eine Ultra ist) sogar realistisch sein.

Noch mehr Infos:
  • 9800GX2 using two 65nm G92-400-A2 GPU (das ist die GPU der 8800 GTS G92)
  • 1GB GDDR3
  • cooler is desiged by CoolerMaster
  • Only one SLI connector on => kein 3-way SLI
  • Extreme HD out put(2560*1600)
  • NVIDIA suggset user at least have a 580W PSU
  • The MSRP will be about 449 USD
Expreview hatten übrigens als erste die Infos zur 9800 GX2.
 
Zuletzt bearbeitet:
Naja bei allen Beschwerden die hier so eintrudeln, nVidia hat im Moment so ne art Monopol, weil bei ATI aka AMD zur Zeit noch nichts Konkurrenzfähiges auf die Beine kommt.

Deswegen wird nVidia jetzt die Wartezeit auf den nächsten Meilenstein mit sowas überbrücken, ganz nett für Leute mit genügend Geld und Crysis-Spieler, aber nicht wirklich was Neues...

Wurd hier glaub ich auch schon einige male erwähnt, aber was solls ;)
 
Zuletzt bearbeitet:
B@dehose schrieb:
ganz nett für .... Crysis-Spieler...

Warum das so ist musst du mir aber mal erklären? Ich sehe gerade bei Crysis (das Extremen Wert auf viel VRAM legt und nicht bzw. nicht sehr gut mit SLI skaliert) keine Sonne für diese Karte.
 
Was ich ohnehin seltsam finde: Bei 3dfx SLI hat sich die Performance verdoppelt (Skalierung 100%). Nvidia kauft 3DFX, aber die Nvidia SLI (gleicher Name, andere Technik) skaliert relativ schlecht.

ATI entwickelt Crossfire, das wesentlich besser als Nvidia SLI skaliert.

Irgendwas lief da bei Nvidia falsch. Dank 3dfx hatten sie das Wissen dazu ja eigentlich im Haus.
 
Also bis auf Plastik ist ja nichts eindeutiges zu erkennen ;) auf den Bildern.Aber eins scheint beachtlich zu sein und zwar die Länge der Graka.Dies ist das einzigste was mich an den Karten von Nvidia stört.Ansonsten werde ich bei Nvidia bleiben.Auch die neuen ATI Karten sind nicht zu verachten,aber irgendwie sagen sie mir nicht zu.Was ich nicht verstehe das Nvidia die Karte 9800 nennen wird.Ist da nicht schon der G100 drauf verbaut? War doch bis jetzt immer so,das eine neue Generation von Nvidia auch gleichzeitig einen neuen GPU beinhaltete.Da wird man ja kirre im Kopf.Also ist jetzt diese Karte nur eine Verbesserung des G92 ? x2.Dann lohnt sich dieser Kauf aus meiner Sicht nicht.Ich habe langsam das Gefühl,das die Kalifornier sich mit dieser Karte nochmal schnell die Taschen füllen möchten,ehe im März(?) dann endgültig die Karten mit G100 Chip raus kommen.Und wenn es mit logik zu tun hat,wird dann diese Generation die 10000er Serienbezeichnung erhalten.
 
Geforce 9800 GX2: Weitere Bilder und Spezifikationen aufgetaucht

05.01.2008 10:16 Uhr - Bereits gestern konnten wir Ihnen einen kleinen Ausblick auf Nvidias kommende Geforce 9800 GX2 geben. Wurde vorher noch spekuliert, ob es sich bei den Bildern um eine geschickte Fotomontage handelt, präsentiert uns Tomshardware nun frische Bilder und Spezifikationen dieses Schwergewichts.

Wie Tomshardware.tw berichtet, soll die 9800 GX 2 über ein GiByte GDDR3-Speicher, sowie zwei G92-400-A2 GPUs mit jeweils 128 Stream-Prozessoren verfügen. Ein 6- und ein 8-Pin Anschluss sollen die Karte mit ausreichend Strom versorgen.

Wie weiter berichtet wird, soll die Geforce 9800 GX2 zwar mit zwei DVI-, eine HDMI- und einem SPDIF- Anschluss ausgerüstet sein, aber nur über einen SLI-Connector verfügen, was sie untauglich für ein SLI-Setup, bestehend aus drei dieser Karten, werden lässt. Der mächtige, schwarze Kühler soll indes eine Entwicklung des Spezialisten Coolermaster sein.

Wie weiter berichtet wird, soll Nvidia mindestens ein 580 Watt starkes Netzteil empfehlen.
Glaubt man den gemachten Angaben, so soll die Geforce 9800 GX2 zusammen mit der 9600 GT am 14. Februar, zu einem empfohlen Preis von 449 US-Dollar, erscheinen.

Quelle und weitere bilder: http://www.pcgameshardware.de/?article_id=626912
 
Wie schnell wird die GX2 ist eigentlich einfach zu beantworten:

Im CB-Test bei Crysis bei 1600x1200 bei 4xAA und 16xAF schafft die normale GTS 512MB nur lächerliche 8,1 Bilder Pro Sekunde.
Eine 8800 GTX hat mehr als doppelt so viel: 17,5.

Looki: https://www.computerbase.de/2007-12/test-nvidia-geforce-8800-gts-512/21/#abschnitt_crysis

Also ist die GX2 unter Crysis entsprechend maximal doppelt so schnell wie eine normale GTS 512, aber in der Regel ist eine SLI System etwas langsamer als doppel so schnell.

Also sollte man mit einer normalen 8800 GTX für 350,- Euro immer besser bedient sein, ganz abgesehen vom Stromverbrauch.

PS: Wer spielt schon ohne AA und AF? Also habe ich bewusst die Performance ohne AA und bei niedrigen Auflösungen ignoriert, zumal die Performance ohne AA und bei geringeren Auflösungen bei einer GTX mehr als völlig ausreichend ist, dafür benötigt man mal keine GX2 - habe ich doch recht, oder?

Die GX2 wird bestimmt wieder 500-600 Euro kosten, wenn diese die Ultra GTX ablösen soll. Dann doch lieber 300 Euro mehr ausgegeben und ein GTX-SLI System.
 
Zuletzt bearbeitet:
Aha. ich hätt zwar mehr erwartet als "nur" zwei G92 Chips auf einer Karte. Und ob der Kühler so ausreichen wird:(

Das wäre die Chance für ATI aufzuholen, wenn sie das jetzt geschickt machen:lol:


EDIT: Sollte zwar Coolermaster wirklich den Lüfter herstellen könnts ja was sein, die habe ja lange erfahrung^^
 
Zuletzt bearbeitet:
Beim Design soll Nvidia wieder auf zwei mittels SLI-Technik verbundenen PCBs setzen, wodurch auch Quad-SLI wieder Unterstützung finden soll.

Seh ich das richtig, das das im Grunde 2 Karten in einem Gehäuse sind?
Da ist man aber von ATI mit den X2 anderes gewöhnt!
 
ich find die platzierung der dvi anschlüsse äusserst unklug gewählt! was ist wenn man ein stecker ein wenig breiter ist? dann gibts bestimtm platzprobleme.. ausserdem ist der sinn eines dualslots doch auch das aus dem oberen slot die warme luft gleich raus geht. wieso mache ndie das bei der karte nicht genauso?! sehhr komisch. man hätte diese karte somit auch 8800deluxe nennen können.. wie sinnlos. vor allem wenn man bedenkt das es karten wie 9800 gt bzw 9600 geben wird. das bedeutet es wird noch mehr karetn im leistungsbereich der 8800gtx geben.. nur der preis wird wohl noch mehr steigen. also das verstehe ich ehrlich gesagt nicht ganz.
 
Ist ja ein gewaltiges Brikett, hat warscheinleich auch den gleichen heizwert und das gleiche gewicht.
Dann lieber eine HD3870 o. 8800GT mit im vergleich zur leistung sehr guten Stromverbrauchswerten, am ehesten sogar eine 3xxx wegen des DX10.1 Supports und der guten Stromspartechnik, aber naja, ein Hersteller muss immer ein Monster Flagschiff haben ;)
 
Wenn SLI doch nur so gut funktionieren würde wie CF. Ich schaetze ne übertaktete 8800gts mit 1024mb wird bis auf 10% an sie ran kommen :)

war damals auch so
 
Was ich ohnehin seltsam finde: Bei 3dfx SLI hat sich die Performance verdoppelt (Skalierung 100%). Nvidia kauft 3DFX, aber die Nvidia SLI (gleicher Name, andere Technik) skaliert relativ schlecht.

3dfx SLI hatte aber auch ein eigenes Kartendesign, zumindest beim vsa 100, der rest hat ja nicht so gut skaliert.

Das gibt es bei Nvidia/Ati nicht, die pappen nur 2 unabhängige Karten zusammen.

Zudem hat Nvidia nach dem 3dfx-Kauf sämtliche Technik entweder vernichtet oder weiterverkauft.

Nicht ohne Grund ist das AA einer Voodoo 5 6000 selbst heute noch besser wie das einer Nvidia der 7000er Serie und das obwohl die Karte 6 jahre älter ist und Nvidia diese Technik EIGENTLICH übernommen hat.


Warum das so ist musst du mir aber mal erklären? Ich sehe gerade bei Crysis...keine Sonne für diese Karte.

JEDES andere Spiel läuft auch mit einer 8800gts G92 vernünftig. Somit lohnen sich 2 bzw eine Doppelkarte aktuell nur für Crysis oder Auflösungen ÜBER full-hd die 99,9% eh nicht nutzen.
 
Und das glaub ich ncoh nicht mal. Ich denke es werden so max. 25% mehr Leistung bei rauskommen und wenn man mal so ueberlegt, ist dafuer der Stromverbrauch gerechtfertigt. Nicht zu vergessen der hohe Preis. Es gibt jetz schon g92 Karte die 10% schneller sind durch OC. Dann will ich gar nciht erst wissen wie diese Karten mit 1gb laufen werden. Garantiert bei Crysis 20% schneller(auf very high und AAx8)
Und der r680 wird garantiert schneller laufen. Guckt doch auf die 3d mark charts auf sysprofile.de ... die benutzten dort alle ne 3870 im CF.


Wenn es um multi-GPU geht hat NV keine Chance

Die Namensgebung kann ich allerdings nicht Nachvollziehen
 
Zuletzt bearbeitet:
Artikel-Update: Auf der taiwanischen Seite von Tom's Hardware sind nun weitere Bilder und Informationen zu Nvidias kommender Dual-Grafikkarte aufgetaucht. Wie auf den neuen Bildern erkennbar ist, sieht das Design neben zwei DVI-Anschlüssen standardmäßig auch gleich einen HDMI- sowie einen S/P-DIF-Ausgang vor. Für den SLI-Betrieb ist nur ein Port vorhanden, eine – derzeit ohnehin unrealistische – Hexa-SLI-Anordnung ist also nicht möglich. Zur ausreichenden Stromversorgung der Karte werden wohl gleichzeitig ein 8-Pin- und ein 6-Pin-Stromkabel sowie, zumindest offiziell, ein mindestens 580 Watt starkes Netzteil mit 40 Ampere auf der +12-Volt-Leitung benötigt. Als Release-Termin nennt Tom's Hardware mit dem 14. Februar ein früheres Datum als HardOCP. Auch mit einer „offiziellen“ Preisempfehlung können die Kollegen von Tom's Hardware dienen, diese soll bei 449 US-Dollar liegen. Inwieweit die Informationen stimmen, werden wie üblich erst die nächsten Wochen zeigen.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
Realsmasher schrieb:
JEDES andere Spiel läuft auch mit einer 8800gts G92 vernünftig. Somit lohnen sich 2 bzw eine Doppelkarte aktuell nur für Crysis oder Auflösungen ÜBER full-hd die 99,9% eh nicht nutzen.


Stimmt ja garnicht! Ab einer etwas höheren Auflösung z.b. 1600x1200 mit 4xAA und 16xAF bricht die Leistung bei der GTS 512 fast überall deutlich ein. Liegt wohl an der zu geringen Anbindung an den Speicher, vielleicht auch an den fehlenden 768mb?
 
Zurück
Oben