Gerücht: GeforceFX 2 - NV40 Details!

Joypad

Lieutenant
Dabei seit
Juli 2002
Beiträge
640
Gerücht: Angeblich Insider-Informationen zum NV40, von der selben Person, die Spezifikationen zum NV30 an die Seite weitergab (welche immerhin zu 90% stimmten)

Vorläufige Spezifikation:

300-350 Million Transistors on 90-nm process
750-800 MHz Core
16MB Embedded DRAM (134M trans.)
1.4 GHz 256-512MB DDR-II Memory
8 Pixel Rendering Pipelines (4 texels each)
16 Vertex Shader Engines
204.8 GB/sec Bandwidth (eDRAM)
44.8 GB/sec Bandwidth (DDR-II)
25.6 GigaTexels per Second
3 Billion Vertices per Second
DirectX 10 (or extended 9.1)
Release H2 2004

***The data above is not offical, and shouldnt be treated as such.
Quelle: http://www.quake.co.il/modules/news/article.php?storyid=117
 

McBain

Lt. Commander
Dabei seit
Aug. 2001
Beiträge
1.387
die sollen erstmal den NV35 auf dem Papier starten bevor die Fantasienachrichten verbreiten!
 

Bombwurzel

Admiral
Dabei seit
März 2001
Beiträge
7.310
Selbst wenn's stimmt.

Wer soll denn den Chip in 0.09micron produzieren?
Ich darf daran erinnern, daß nVidias Produktionspartner TSMC schon für die 6Monatige Verzögerung des GFFX verantwortlich ist, weil die schon den 0.13micron Prozess nicht gebacken bekommen haben. Nur wenige Firmen beherrschen 0.09micron im Anfangsstadium der Serienproduktion und diese Firmen haben weitaus wichtigere Kunden als nVidia.
NVidia sollte sich lieber darauf konzentrieren bewährte Technik zum EInsatz zu bringen und nicht ein hoffnungsloses Experiment nach dem anderen wagen. Das machen auch die vollsten Kassen nicht ewig mit.

Edit:
Embedded DRAM halte ich für ein Märchen.
Die einzige Firma die dieses Produktionsverfahren beherrscht (Infineon) hat diese Produktionslinie aus Mangel an Wirtschaftlichkeit eingestampft. Embedded DRAM ist in der Produktion viel zu teuer - Karten damit dürften jenseits aller finanzierbarkeit liegen.
 
Zuletzt bearbeitet:

Joypad

Lieutenant
Ersteller dieses Themas
Dabei seit
Juli 2002
Beiträge
640
NV33 wird für Notebooks kommen - 2 Render-Pipelines mit 1 TMU

NV34 onboard FX für Mainboardchipsätze (Nforce)

Quelle: http://www.xbitlabs.com/



NV35 - offentlich überrascht Nvidia hiermit... :)
 

cpt.nemo

Lt. Junior Grade
Dabei seit
Feb. 2002
Beiträge
398
na so ein zufall.gestern weint nvidia noch rum wie ungerecht die welt der benchmarks ist und heute kommt eine ultrageheime info das sie sowieso mit der nächsten gpu-generation 1000003dmark2003 hinkriegen.da kann sich wohl einer nicht damit anfreunden das man schon was schaffen muss um führend zu bleiben.die FX-chips können sie ja Microsoft für ihre x-box schenken und dafür laufen dann in longhorn nur noch Nvidiatreiber.
 

malschiggg

Ensign
Dabei seit
Feb. 2003
Beiträge
144
Die Mitarbeiter von 3Dfx (und jetzigen Mitarbeiter an der FX) werden, wenn sie so weiter machen, nicht nur 3Dfx versenkt haben sondern Nvidia gleich mit versenken. Die haben sich damals bestimmt verschworren. Später wird dann noch Futuremark drankommen, nachdem die GeforceFX 2 beim 3DMark2004 verdampft ist.

Ich kanns noch immer nicht glauben, daß Nvidia die 3Dfx-Fuscher rangelassen hat, ohne denen auf die Finger zu geschaut zu haben. Naja, vielleicht wollte man auch nur eine Monoplostellung verhindern und damit verbundene Gerichts-Prozesse.

Die bisherigen Entwickler der Grafikkarten-Geforce-Reihe haben sich ja wohl oder übel ein neuse Hobby gesucht -> den Nforce2-Chipsatz.

Hoffentlich wird die GeforceFX 2 keine Titanic. Denn: "Die Titanic wird untergehen".
 
D

DjDIN0

Gast
300-350 Million Transistors on 90-nm process

Wäre (wiedermal) bisi teuer so zu fertigen, sieht man ja schon am 0.13micro der GeforceFX

750-800 MHz Core

Wäre Wahnsinn wenn das stimmt, würde meiner Meinung nach aber selbst bei 0.09micro(90-nm) starke Kühlung erforden (hmm...wiedermal laute?)

16MB Embedded DRAM (134M trans.)

16MB interner Zwischenspeicher-Zellen "on Die" ist sicher geil, wäre quasi wie der L2-Cache der CPU´s und jeder weis das hier mehr Cache = um einiges mehr Leistung

1.4 GHz 256-512MB DDR-II Memory

Mit DDR II möglich, möcht aber nicht wissen wie dann die dann schon nötigen Speicherkühlkörper ausschauen :D

8 Pixel Rendering Pipelines (4 texels each)

Warum nicht mehr als 8 ? Zeigte doch schon die Radeon9700pro als erste KArte das das enorm viel bringt, vorallem bei Multitexturing.

16 Vertex Shader Engines

Gleich 16 anstatt 3 (GeforceFX) ? Nvidia scheint aus dem Fehler gelernt zu haben der GeforceFX nur 3 VS zu spendieren, die Radeon9700pro hat 4.

204.8 GB/sec Bandwidth (eDRAM)

theoretisch-effektive durch zusätzliche Bandbreiteneinsparungstechnicken, sicher aber nicht rechnerisch.

44.8 GB/sec Bandwidth (DDR-II)

Rechnerisch was sich aus 1.4 GHz 256-512MB DDR-II ergibt.

25.6 GigaTexels per Second

Die GeforceFX schafft da nur 4Gpixels/sec. wenn ich mich nicht irre.
Ich halte den Wert aber nicht für so wichtig.

3 Billion Vertices per Second

Die Polygonleistung interessiert mich schon mehr
Glaube den Wert aber nicht, die GeforceFX schafft an die 375 Million Vertices per Second, von da gleich auf 3 Billionen ? ne.

DirectX 10 (or extended 9.1)

War wohl klar als nächste NV-Generation.

Release H2 2004

Hoffentlich mit dann zur der Zeit günstigen Speicherchips-Preisen, DDR II kostet :D
 

Joe

Cadet 4th Year
Dabei seit
Aug. 2002
Beiträge
74
Den Dicken markieren...

Also meiner Meinung nach ist das nur Plan B von NVidia. Sie können nicht verlieren und heulen verschämt in der Ecke, weil sie es mit der GeForce FX vergeigt haben. ATI war immer am Ball und hat ihre Hausaufgaben gemacht. NVidia hat immer im Rampenlicht gestanden und versteht die Welt nicht mehr das es andere Grafikkartenhersteller auch gut oder sogar besser können. Jetzt wo die neue ATI kurz vorm Erscheinen ist, mußte ja dieser Schritt von NVidia kommen. "Los Leute, schreibt irgendwas, Hauptsache es klingt besser als das von ATI. Und wehe die Kunden warten nicht bis diese neue GK (NV40) fertig ist. Kann ja nicht sein das ATI da besser ist...nie im Leben *grrrr"

Tja, bin bisher immer auf Seiten von NVidia gewesen, aber in letzter Zeit zählt nicht mehr der Name, sondern das Preis/Leistungsverhältnis und da hat ATI nun mal die Nase vorn. Würdet ihr euch ein Auto kaufen nur weil ein bestimmter Name drauf ist? Schon dämlich heutzutage einfach Blind einzukaufen ohne auf das Preis/Leistungsverhältnis zu schauen. Und kommt mir bloß nicht mit Prestige und so ein Kram...das zählt für uns Ottonormalverbraucher hier in Deutschland schon lang nich mehr ;-)

Wer weiß was 1 Euro bedeutet, der kauft vernünftig ein.

Ich sags nochmal: Was zählt ist das Preis/Leistungsverhältnis!!!! Egal ob im PC-Bereich oder sonstwo.

mfg
Joe
 
Zuletzt bearbeitet:

aths

Lt. Junior Grade
Dabei seit
Jan. 2003
Beiträge
425
Diese "Specs" halte ich für ausgemachten Quatsch.

Leider laufen immer mal wieder solche Gerüchte rum, und weil jeder vom anderen Abschreibt, gewinnen die dann an "Glaubwürdigkeit." (Siehe Gerüchte um NV25, noch wenige Wochen vor der Produktvorstellung.)
 

Chris01

Cadet 2nd Year
Dabei seit
Dez. 2002
Beiträge
28
FX 2

Sicher haben die 3DFX entwickler 4x mehr drauf als die ursprünglichen Geforce entwickler.

3DFX ging unter weil nVidia und Ati mehr Kapital hatten und 3DFX mit der Produktion der neuen Vodoos das gleiche Problem hatten wie nVidia mit der FX.

Sicher hat keiner von euch die Release Pipline von 3DFX betrachtet.

Wären sie raus gekommen gäbe es heute sicherlich nur noch einen Grafikkarten Konzern und zwar 3DFX.
Das erkannte ATI und nVidia deshalb muste 3DFX sterben.
(Es lebe unsere geliebte freie Marktwirtschaft)

Ich sehe denn Grafik markt ziemlich mistrauisch entgegen .
ATI fing mit der OC sperre seiner GraKa s an und das wird sicherlich nicht das einzige
sein.

ATI und nVidia verspekulieren sich denn es wird wohl nicht jeder mehr über 1000 Mark ausgeben (500€) für eine Grafikkarte.
 

Tiu

Rear Admiral
Dabei seit
Sep. 2001
Beiträge
5.457
Original erstellt von DjDIN0
3 Billion Vertices per Second

Die Polygonleistung interessiert mich schon mehr
Glaube den Wert aber nicht, die GeforceFX schafft an die 375 Million Vertices per Second, von da gleich auf 3 Billionen ? ne.
Billion im englischen = Milliarde im deutschen;)
 

Bombwurzel

Admiral
Dabei seit
März 2001
Beiträge
7.310
Jan, du glaubst doch nicht ernsthaft, daß Intel wertvolle Produktionskapazitäten an so ein kleines Licht wie nVidia abgibt.
Wenn Intel in 0.09micron produziert, dann in allererster Linie für sich selbst.
 

Acrylium

Rear Admiral
Dabei seit
Apr. 2001
Beiträge
5.614
Und wann machen die endlich mal etwas um die allgemeine Bildqualität zu steigern anstatt immer nur die Geschwindigkeit zu erhöhen ? Wo sind die alten Ideen von 3Dfx ? Verstauben die in den Kellern von nVIDIA ? Warum keinen T-Buffer und kein Motion Blur ???
 

Jan

Chefredakteur
Teammitglied
Dabei seit
Apr. 2001
Beiträge
12.113
Weil Leute wie du sich darüber aufregen, wenn die Karte nur 200 Punkte mehr im 3DMark hat. Die GeForce FX hat interessante Features, nur leider gibt es momentan keine Anwendung, die diesen Vorteil in schwanzverlängernde "Points" umwandelt.

Wo ich doch gerade so schön am lernen bin, will ich folgendes Zitat aus ABWL1 (Marketing) bringen:

Marketing ist Denken vom Markte her.

Die Firmen liefern dir das, was du willst und nichts Anderes.
 

Acrylium

Rear Admiral
Dabei seit
Apr. 2001
Beiträge
5.614
Original erstellt von Jan
Weil Leute wie du sich darüber aufregen, wenn die Karte nur 200 Punkte mehr im 3DMark hat. Die GeForce FX hat interessante Features, nur leider gibt es momentan keine Anwendung, die diesen Vorteil in schwanzverlängernde "Points" umwandelt.
Hä ? Meinst Du mich mit meinen 942 3DMarks ?

Ich glaub fast Du verwechselst mich mit jemandem anderen...
 

Riptor

Lt. Commander
Dabei seit
Feb. 2002
Beiträge
1.610
Original erstellt von malschiggg
Die Mitarbeiter von 3Dfx (und jetzigen Mitarbeiter an der FX) werden, wenn sie so weiter machen, nicht nur 3Dfx versenkt haben sondern Nvidia gleich mit versenken. Die haben sich damals bestimmt verschworren. Später wird dann noch Futuremark drankommen, nachdem die GeforceFX 2 beim 3DMark2004 verdampft ist. Ich kanns noch immer nicht glauben, daß Nvidia die 3Dfx-Fuscher rangelassen hat, ohne denen auf die Finger zu geschaut zu haben. Naja, vielleicht wollte man auch nur eine Monoplostellung verhindern und damit verbundene Gerichts-Prozesse.
Ich weiß jetzt nicht, wie ironisch du das meinst, aber eines sollte klar sein: Die GFFX hat mit 3DFx so viel gemeinsam wie Grießpudding mit eine Tiefkühlpizza: Nichts. 3Dfx wurde aufgekauft und somit ein Konkurrent "entfernt". Bei der entwicklung der GFFX sagt nVidia sogar selbst, dass ehemalige 3Dfx-Mitarbeiter kaum mitwirken konnten, weil das Konzept schon viel früher stattgefunden hat. Und das sieht man auch, wenn man die GFFX unter der Lupe anschaut: So gut wie keine 3Dfx-Technologien! nVidias eigener Scherbenhaufen also. 3Dfx hat sich selbst runiniert, aber nVidia hat sich die GFFX Abfuhr nicht durch den Zukauf von 3Dfx' Mitarbeitern geholt, nVidia wollte schon immer die eigenen Interessen verfolgen. ;) Das nur mal so, falls ich dich falsch verstanden habe, ich denke aber, du meinst das sowieso nicht so ernst, oder? :D ;)

Die bisherigen Entwickler der Grafikkarten-Geforce-Reihe haben sich ja wohl oder übel ein neuse Hobby gesucht -> den Nforce2-Chipsatz.
:D Wahrscheinlich!!!
 
Zuletzt bearbeitet:

Mydgard

Commander
Dabei seit
Sep. 2002
Beiträge
2.338
Von wegen Embedded Ram:

Der mal angekündigte Grafikship von der finnischen Firma Bitboys sollte nur Embedded Ram onBoard haben ... aber weil Infineon die Produktion eingestellt hat, liegt die Bitboy Graka auf Eis!
 
Top