Neue GeForce gesichtet

Desoxyribo

Lieutenant
Registriert
Jan. 2008
Beiträge
972
Hi, bin grade zurück aus Singapur zurück und habe da paar verdächtige sachen gesehen. Als wir am freitag eine hafenführung machten (ist ja der grösste umschlaghafen der welt;) ) haben wir uns auch einige lager angeguckt, u.a. (auf meinen wunsch hin) die IT lagerräume usw. Eigentlich hätten wir das nicht machen dürfen aber wir haben unsrem führer bisschen was in die hand gedrückt und dann gings halt doch. Sehr spannend war es nicht, eine grosse lagerhalle mit hauptsächlich Mainboards von Asus und Gigabyte, paar paletten mit grakas und Intelprozzis.
Aber dann habe ich eine palette mit grauen kartonschachteln gesehen, welche das nVidia logo trugen und etwa so gross wie ein grakakarton waren. Jede schachtel hatte an der seite ein kleines etikett mit enigen zum teil schokierenden infos. Leider wurden uns bei der einfahrt in den hafen die kameras weggenommen (fotos sind strengstens verboten), also konnte ich kein pic schiessen. Ich habs mir aber aufgeschrieben:

-GeForce XXXX
-2x GT200 55nm
-1536MB GDDR3
-384bit
und ein paar chinesische/japanische/asiatische zeichen und barcodes


die ganze karte würde also ähnlich aussehen wie die 9800GX2, nur ein bisschen aufgemotzt: den beiden GPU's stehen also 768Mb zur verfügung welcher ein SI von 384Bit hat, also eigentlich zwei 8800GTX aneinandergeklebt, halt mit anderen chips. Auch die fertigung (55nm) hat mich gewundert, ich hätte nicht gedacht das nVidia jetzt so kurz vor der HD4000er reihe die chips nochmals schrumpfen lässt, wäre aber sinnvol wenn man die zum teil hitzköpfigen G92er sieht.

Ich übernehme überhaupt keine verantwortung über die richtigkeit dieser daten, aber wies aussieht steigt nVidia in eine komplett neue liga ein. Was meint ihr denn dazu ?

Greetz
 
Ja, bestätigt die Aussagen,dass sowohl Nvidia als auch ATI vermehrt auf MutliGPU setzen.


gruß
 
Cool, danke für die Infos! Das liest sich ja wirklich beeindruckend.

War "GeForce XXXX" der tatsächliche Name?

Deine Angaben scheinen zur (mittlerweile widerrufenen) Meldung von en.expreview zu passen. Der GT200 erscheint als GTX und GX2.
 
ja es stand GeForce XXXX, vielleicht sind die sich noch nicht sicher wie sie das nennen sollen:D es ist aber noch unbekannt ob sie wieder zwei getrennte kerne anwenden auf zwei PCB's wie bei der 9800GX2 oder die technologie von Intel's Core2Duos anwenden, eine art dualcoreGPU. anscheinend möchte nVidia keine risiken mehr einghen, denn die architektur der 8800GTX ist ja so gut, dass sie heute noch in hohen auflösungen ounkten kann. nVidia möchte auf der erfolgswelle der 8800GTX weiterreiten und lötet zwei zusammen, mit nem neuen chip dazwischen. ich denke mal das wird das reinste rendermonster. bin gespannt, auch auf die neuen ATI's....

Greetz
 
Zuletzt bearbeitet:
Und dir soll man glauben? Jetzt mal ernsthaft. Kurz in der nacht nach Singapur gehopst? Gestern warst du zumindest hier und hast um 13.05 gepostet, 8h später schon wieder zurück und zwischen durch mal eben einen Hafenrundgang gemacht?
Tut mir leid, schlecht ausgedacht.

2xG92b ist unlogisch. Dual Die ist keine Lösung und "Dual-GPU" haben wir seit Riva TNT.

Die 575mm² sind imho deutlich realistischer: http://forums.vr-zone.com/showthread.php?t=271801&page=5
 
Zuletzt bearbeitet:
schonmal drangedacht dass die in singapur auch pc's haben ? ich kann dir von mir aus bilder von singapur zeigen, die infos sagen aus dass es mit meiner sonykamera geschossen wurde. Hör auf mit deinen klugtuereien und schreib was sinnvolles. ich habe hier nur einige sachen aufgelistet die ich gesehen habe. und unlogisch ist das auch nicht, guck dir doch die 9800GX2 an, ist das etwa keine dual gpulösung ? beide hersteller haben seit einigen monaten eine highend singlekarte im sortiment und eine davon abgeleitete duelgpu variante. Logisch denken is auch nicht deine stärke oder ? nVidia hat gesehen was die 8800GTX mit ihren 768mb & 384bit SI für ein monster geworden ist. wenn sie jetzt nen neuen chipraufknallen der doppelt soviel draufhat dan ist diese karte unschlagbar. Denke nochmal über das ganze nach und schreib einen normalen kommentar. Greetz
 
Nö, keiner hat aktuell eine High-End Karte im Programm.
Die 9800 GX2 sind zwei Perfomance Chips, die 3870 X2 sind zwei Mittelklasse Chips.

Die 8800GTX war nicht aus Zufall gut, sie war nur gut weil eben die Konkurenz schrott und der Vorgänger schwach war.
2 x G80 macht null Sinn. Wenn dann müssen es 2 x G92 werden. Das wiederum macht null Sinn, weil die 9800 GX2 schon im Laden steht.

Logisch denken:
Gut, meinst du nv shrinkt den G80, obwohl schon der G92 existiert? Wohl kaum.
2 x G92(b) wären eben ein 256bit SI mit 16 ROPs, passt nicht zu deinen Daten.

Ich könnte mir höchstens vorstellen, das G92b eben auf den 9900 Platz findet und GT 200 einen anderen Namen erhält.

Die Quellen wie Vrzone oder http://www.nordichardware.com/news,7712.html gefallen mir eben doch besser.

PS. Mir ging es um die Kurze Zeit, mein Fehler.
PPS. Selbst wenn du es trotzdem wie auch immer gesehen hast, warum sollten die richtigen technischen Daten auf Kartons gedruckt sein?
 
Zuletzt bearbeitet:
Unyu les doch mal was er geschrieben hat. Auch in Singapur kann man online auf CB gehen..
 
@Unyu:
also ich habe extra für dich noch mein visum fotografiert:



Wieso die das auf kartons drucken weiss ich auch nicht. und ich hab nie behauptet es werden 2x G80. Ich habe gesagt warscheinlich basiert der GT200 auf dem G80, was die 384bit Speicherinterface erklären würden, denn auch nur so sind die jeweils 768MB sinnvoll. und nVidia schrinkt keineswegs den G80, hab ich auch nicht behauptet. Ich habe gesagt das es mich wundert dass die beim G92 auf 65nm gesetzt haben und jetz innerhalb kurzer zeit bei ihren neuen chips noch auf 55nm umsteigen, sie dir mal an wie lange intel von 65nm bis 45nm gebraucht hat, für mich klinkt es eher unlogisch und wirtschaftlich gesehen eher risikoreich, aber nicht unmöglich. du meinst die 8800GTX war nicht so gut wie ich sagte ? dann sie dir bitte mal den CBtest vor 2 jahren an, der sprung zwischen der 7000er und der 8000er reihe ist alles andere als klein. ATI hat damals vollends übertrieben mit 512bit SI, die 384bit von nVidia waren dagegen perfekt; etwas höher als die bis dahin eingesetzten 256bit aber trotzdem nicht gleich 512bit. Dies haben sie beim GT200 eingesehen und vielleicht versuchen sie es wieder.
Meiner meinung nach waren diese kartons für die boardpartner gedacht, z.b. Asus. nVidia schickt ja immer einige testkandidaten an die verschiedenen partner bevor die massenproduktion eingesetzt wird.

und ich wiederhole: ich habe nie behauptet das das ganze stimmt, nur weitergedacht anhand der infos auf dem etikett.

Greetz
 
Es ging auch das Gerücht um das es keine Dual GPU Karte wird sondern einen Dual Core. Also ähnlich dem Dual Core von Intel.
 
naja wie ich oben schon gesagt habe, auf dem etikett steht 2x GT200, daraus kann man aber nichtt ableiten ob das zwei unabhängige cores sind oder eine art Core2Duo chip wird.
dass das ding soviel strom fressen wird wundert mich noch mehr. ich meine wenn sie schon auf 55nm umsteigen sollte der strom mindest. gleich bleiben wie bei ner 9800GX2, aber nich 240w !
 
Noch mehr Nividia :) Bestimmt dann 3M lang, 5 Slots hoch und das Gehäuse muss mind. 25cm breit sein, damit sie reinpasst.. Von runtertakten in 2D hat so ne Karte natürlich auch noch nie was gehört / pfeiffende Spulen / schlechte Lüfter / Speicherbug und wird 9800GX2 768 heissen und später nochmal als 10800GS2 kommen... Ne thx!
 
Zuletzt bearbeitet:
@Desoxyribo
Ja tut mir leid, hab mich verrechnet. :)
Ich habe nicht behauptet die 8800GTX wäre schrott, nur das NV nicht so sehr davon überrascht war.

@kuehnel91
2 Dies auf einem Package bringen eben all die SLi Nachteile, wie wir sie von der GX2 kennen, mit sich.
Ähnlich Intel müssten beide vom selben VRAM naschen -> unrealistisch.

@8MiLe
Danke für den Spambeitrag, der außer Lügen nichts enthält.

@king_frool
Einen R600 kann man auch kühlen, auch eine 9800GX2 ist kühlbar, am Ende sinds bei 240W TDP = ~ 160W Verbrauch wie bei R600.
 
Ähnlich Intel müssten beide vom selben VRAM naschen -> unrealistisch.

Genau das wäre der große Vorteil. Darüber hat PCGH auch schon berichtet. Hoffentlich ist es so.
 
Unyu schrieb:
@king_frool
Einen R600 kann man auch kühlen, auch eine 9800GX2 ist kühlbar, am Ende sinds bei 240W TDP = ~ 160W Verbrauch wie bei R600.

ja kühlbar schon, aber mit was ? so ein staubsauger im pc ist ungut für mein feines silentgehör^^ und die idee mit dem gemeinsamen VRam is garnicht so schlecht. ich hoffe aber dass ATI diesmal was bessres rausbringt, die habens nötig

Greetz
 
High-End Karten dürfen laut sein, wenns stört muss halt eine Wakü her, bei den Kartenpreisen eh ohne Belang. ;)
 
Dürfen, sollten aber nicht. High-End ist nicht nur Performance - 78GTX/512 war zB Hamma.

cYa
 
Naja, dann schraubt man da einen Accelero Xtreme drauf, sofern es dafür einen geben wird.
 
Zurück
Oben