News Nvidia G92 als GeForce 8800 GT

Tommy

Chef-Optimist
Teammitglied
Registriert
März 2001
Beiträge
8.193
Entgegen bisherigen Annahmen wird Nvidia den G92 als GeForce 8800 GT vermarkten. Ursprünglich war die Bezeichnung GeForce 8700 GTS angedacht. Die 8800 GT soll sich nach wie vor zwischen 8600 GTS und 8800 GTS 640 ins Leistungsgefüge einordnen.

Zur News: Nvidia G92 als GeForce 8800 GT
 
Klingt ja ganz vielversprechend, bleibt bloß zu hoffen das die Preise in Deutschland nicht wieder 1 zu 1 umgesetzt werden.
Vielleicht endlich wieder eine Karte von Nvidia mitPower Und Preisappeal
 
Soll das heißen, dass zwei 8800 GT dann schneller als eine 8800 Ultra sein werden? Ansonsten wäre diese fiktive GX2-Karte auf Basis des G92 folgerichtig ja nicht die schnellste Karte im Portfolio von nVidia.
 
Nix wirklich neues ;)

Aber für nV ne gute Marketingstrategie, der Chip klingt super, hoffentlich ohne VRAM Bug.
Spannend klingt auch die GX2 (?) Karte, so muss man keinen neuen High-Chip entwickeln^^

Mal sehen wer das Duell macht - R670 oder G92 :)

cYa
 
wieso sollte ich mir dann nicht eine 8800 GTS 640 holen, die ist doch bald auch im selben Preissegment - oder?
 
@ 6)

Is doch klar wer sich die 8800Gt holen wird. Diejenigen denen 150W+ zu viel Verlustleistung ist.

Ich persönlich finde den Chip äußerst interessant. Die daten lassen auf angemessene Leistung und außerdem auf eine Verlustleistung unter 75W hoffen.
 
Also GT -> GTS320 -> GTS640 -> GTX -> Ultra ?

Oder ist die GT nun schneller als eine GTS320?
 
Wird die nV denn viel schneller sein wie die 2900 Pro? Oder brauch ich mir keine Gedanken drüber zu machen wenn ich mir jetzt die ATi bestell? Hab keine Lust mehr zu warten =/
 
Also mit der ATI wirst du sicher keine Proleme haben .
Die Pro ist fast genauso schnell wie eine GTS 320 MB , wenn Nv dann den G92 rausbringt wird der dann nicht schneller sein als eine Pro , da sie ja sonst der GTS/320 Konkurrenz macht.
 
Nö wenn die Karte unter einer GTS 640 BM anzusiedeln sein soll, wird eine HD 2900 Pro in etwa gleichschnell sein. Die ist ja etwas unter einer HD 2900 XT angesiedelt und letztere ja zwischen GTS 640 und GTX. Aber enn du noch nicht bestellt hast und deine momentane Graka reicht, aknnst ja noch warten bis Mitte November und dann zwischen 8800 GT oder RV 670 usw. wählen.
 
Also, wenn der Chip 64 Shader-Einheiten und 600 MHZ hat, dann werden die Karten sehr sehr interessant werden.

8800GTS -> 96 Shader x 500 MHZ (640MB/320bit) -> 300,- Euro -> (Chip 100% / Ram: 100%) -> (Gesamt 100%)
8800GTS -> 96 Shader x 500 MHZ (320MB/320bit) -> 230,- Euro -> (Chip 100% / Ram: 100%) -> (Gesamt 90%)
8800GT -> 64 Shader x 600 MHZ (512MB/256bit) -> xxx,- Euro -> (Chip 80% / Ram: 80%) -> (Gesamt 80%)
8800GT -> 64 Shader x 600 MHZ (256MB/256bit) -> xxx,- Euro -> (Chip 80% / Ram: 80%) -> (Gesamt 70%)

8600GTS -> 32 Shader x 675 MHZ (256MB/128bit) -> 120,- Euro -> (Chip 45% / Ram: 50%) -> (Gesamt 40%)
8600GT -> 32 Shader x 540 MHZ (256MB/128bit) -> 80,- Euro -> (Chip 36% / Ram: 35%) -> (Gesamt 25%)

Mit den 64 Shadern und dem 256bit Speicherinterfache, sollten die Karten so bei 80% der Leistung der heutigen 8800GTS liegen, was ca. der doppelten Leistung der heutigen 8600er Karten entspricht.

Da der Chip aber wohl direkt nur mit 64 Shadern (ohne welche abzuschalten) produziert wird und die Karte wegen den 256bit auch etwas simpler ist, wie die 8800GTS, erwarte ich Strassenpreise von 140,- bis 180 Euro (je nach Speichermenge).

Mit diesen Preisen und ca. 80% Leistung der 8800GTS Karten, werden sich diese Karten wohl zu Weihnachten zum absoluten Kassenschlager entwickeln...
 
Es wird immer konfuser mit den News. Einmal so und dann wieder so.
Die neue Karte wird bestimmt viele Anhänger finden.
 
Nur mal ne Frage an die Leute vom Fach, habe eine 7950gt in meinem Rechner und würde die 8800gt dann mehr reißen können in sachen Performance (nur anhand der obigen Daten) oder würde sich das nciht lohnen? Spiele sehr viel am Rechner und auf hohen Auflösungen nur leider ist mir eine 8800gts zu teuer... Wo könnte man die 8800gt einordnen? und würde diese für directX 10 noch reichen? Klar es gibt noch keine Tests aber nur von den Daten her.

Restliche System:
C2D 6600
MSI P6N 650i
250GB SATA II
7950gt (512mb)
2GB DDR2 (800mhz)
Windows Vista Home Basic
 
Diablo87 schrieb:
Nur mal ne Frage an die Leute vom Fach, habe eine 7950gt in meinem Rechner und würde die 8800gt dann mehr reißen können in sachen Performance (nur anhand der obigen Daten) oder würde sich das nciht lohnen? Spiele sehr viel am Rechner und auf hohen Auflösungen nur leider ist mir eine 8800gts zu teuer... Wo könnte man die 8800gt einordnen? und würde diese für directX 10 noch reichen? Klar es gibt noch keine Tests aber nur von den Daten her.
Ich würde an deiner Stelle nicht aufrüsten. Du darfst ca. 30 - 50% Mehrleistung (je nach AA/AF) erwarten. Dafür würd ich eine gut laufende 7950 aber noch nicht gegen eine neue Karte tauschen (die GF8-Treiber sind immer noch reichlich buggy).

Die 7950 war damals ganz oben von der Leistung. Und wenn du (wie du selbst sagst), nicht zuviel Geld ausgeben willst, würd ich die 8er Reihe von Nvidia überspringen und direkt zur 9er gehen.

DX10 ist momentan nicht nicht relevant. Sobald es das wird, ist die 8800GT zu langsam.
 
Ok danke für die Info, wobei ich 30-50% Mehrleistung schon erheblich finde, gut 30% nicht so aber 50% ist eine ganze Menge oder nicht? Aber die 9er Reihe lässt sicher noch auf sich warten. Na mal gucken wie die Preise so werden, wenn nicht verkauf ich meine jetzige Karte bei eBay für 100€ und kauf mir dann die 8800gt wenn sie wirklich so viel Mehrleistung hat, kommt auf die Tests an, wie laut sie wird und vor allem wieviel Strom sie braucht, habe nur nen 470W Netzteil von BeQuiet mit 30A auf 12V und wer weiß ob die 9er Reihe da nicht sogar noch mehr braucht
 
Wirklich viel Neues ist da nicht dabei. Wenn sich dadurch Kosteneinsparungen erziehlen lassen hat der Chip durchaus eine Berechtigung.

mFg tAk
 
Die News wurde bereits vor mehreren Tagen in diversen Internetseiten bekannt gegeben.....

bin mal auf test gespannt. bin mal gespannt wiviel % sie schlechter ist als die 640MB version,
 
VRAM Bug weg, angemessner idle Stromverbrauch dann ist sie top.
 
Zurück
Oben