News Zwei Einsteiger-Karten von Nvidia in 40 nm?

Also ich bin mir nicht sicher, ob die Leute die sich hier über eine neue Namensgebung bei einem Die Shrink aufregen, nicht auch über die Nichtänderung des Namens aufregen würden.

Meiner Meinung nach ist beides zulässig. Den Namen nicht zu ändern bedeutet einfach die Möglichkeit eines kleineren Dies.
Warum automatisch jeder annimmt Anspruch auf die neue Fertigung zu haben ist mir schleierhaft.
 
@BestPower²TDP
Objektiv nennst du das? Ich nenn das einfach lächerlich was du da von dir gibst!
Als ob Nvidia jetzt ewig beim Fertigungsprozess hinterher hinken wird. Zumal die Chips von 3. gefertigt werden.
 
Also ich bin ja wirklich traditionell eher der Nvidia-Freund...
(aktuell insbesondere wegen PhysX und CUDA & OpenGL)

Aber so langsam gehen die Herrschaften wirklich zu weit bei dem Wirrwar blickt
doch langsam keine Sau mehr durch! Die notwendigen Infos/ Hinweise
findet man ja nichtmal auf deren Produkttechnikbeschreibungen auf deren Homepage.

NV - es reicht! 40nm schön und gut, aber macht es doch entweder kenntlich
oder spart es euch für die nächste Generatipn auf!
 
Zuletzt bearbeitet:
@bensen
Zumindest nenne ich mal ein paar nachprüfbare Fakten. Wogegen Ihr Zweizeiler weder Inhaltlich noch Fakten mäßig etwas taugt. AMD wird im April/Mai 09 einen 40nm GPU auf dem Markt haben. Nvidia wird das nicht einmal im September schaffen. Und der Grund liegt auch auf der Hand. Nvidia hat erst einmal die Folie dazu zu machen, die Test, das Abstimmen und besonders, Abnehmer für diese GPU zu finden. Und da sieht es in allen drei Bereichen mau aus. Daher sparen Sie sich Ihre unangebrachten Kommentare ohne Inhalt.
 
BestPower²TDP
Also du hast keinen Grund, warum TSMC für Nvidia erst ein Jahr später 40nm Chips liefern soll.
Oder ist dein Nichtwissen, über den aktuellen Stand in Santa Clara der Grund?

Den Inhalt dieser News leugnest du sogar, ist ja logisch, die GT100 kommen erst zeitgleich mit GT300, macht auch Sinn, 40nm nicht erst bei kleinen Chips zu testen.
Zum Glück gibts auch keinerlei Druck, das es nötig wäre zu shrinken.

skcusBC <-
Was erhoffst du dir von 40nm, das du meinst es sollte "kenntlich gemacht werden"?
So kenntlich, wie es eine 8600 GTS war? Ja, das waren alles 80nm Chips, unterhalb der 8800.
 
Naja wenn das Fakten sein sollen bin ich der Kaiser von China. Das sind komplett ausgedachte Argumente die du da bringst.
Das AMD im Mai nen Chip bringt ist ein Gerücht und gar nicht bestätigt. Es gibt genauso gerüchte ein 40nm Chip von Nvidia hätte das Tapeout hinter sich.
Alles was du da aufzählst was Nvidia noch machen muss, muss ja AMD auch gemacht haben. Warum sollen sie da so viel schneller als Nvidia sein?
Und Abnhemener finden soll ein Problem sein? Nvidias Marktanteile sehen gut aus. Mit der Wirtschaftskrise haben alle zu kämpfen, auch AMD.
Wenn deine Fakten nachprüfbar sind dann kannst du sie ja sicherlich mit ein paar Quellen belegen. Ansonsten ist es wie gesagt einfach ausgedacht und somit ziemlich unangebracht. Liest sich wie von einem AMD-Fanatiker.
 
ati und nvidia dürften ca gleich auf sein mit ihrem 40nm prozess. beide mussten ja auf tsmc warten, bis diese den prozess fertiggestellt haben. dementsprechend dürften beide auf augenhöhe sein. allerdings wird nvidia erstmal den anfang mit lowend-gpu machen, da sie bei der umstellung etwas vorsichtiger sind. eine umstellung des g92 oder gt200 dürfte aber recht zügig realierbar sein, da die pläne wohl schon vorgefertigt in der schublade schlummern. wenn bei den kleinen chips alles gut geht wird auch nv umstellen.
bei ati erwarte ich, dass gleich der rv790 auf 40nm geshrinkt wird, um der gtx285 die stirn bieten zu können.
 
Wenns dann davon wieder ne GTX++++++ gibt dann werd ich die mir kaufen, schaumer mal ob dann 900MHz Chiptakt drin sind. :D
 
drinsein werden die sicherlich, aber das wird nvidia niemals machen. die leistung einer gtx260 kann man auch mit einer 9800gtx+ hinbekommen (hat y33h@ schon durch oc geschafft), aber wie soll nvidia dann noch die teuren g200-gpus an den mann bringen?
der g92 hat noch eine menge potential. im wesentlichen wird er durch die mangelnde speicherbandbreite behindert, warum ein g80 mit 100 mhz weniger gpu takt mit seinen 384 bit teilweise schneller agiert (siehe 8800gtx vs. 9800gtx).
 
Im Lieblingsbench 8xQ AA braucht der G92 weit mehr als nur Bandbreite.
Siehe 8800 GTX, die ROPs sind sehr wichtig.
 
Die hätten die G80 einfach mit ihren mehr Rops schrinken sollen, dazu 512bit DDR5 Speicherinterface, das hätte die G200 Karten problemlos versenkt. Hatte mir ernsthaft überlegt ob ich mir meine jetzige XFX 9800GTX+ 785M kaufe oder ne 8800 Ultra mit OC ab Werk. Ist dann aber doch die 9800er geworden..
 
Zurück
Oben