News Die NV 40 Spezifikationen

Hört ma auf über Nvidia zu flamen, ah Nvidia : hahaha ! Lasst doch die Jungs in Ruhe mein Gott, wir werden ja sehen was die Zukunft bringt. Bin selber von Nvidia nicht besonders begeistert, aber ich beschwere mich ja noch Lange nich deswegen in jedem Kommetar wo NV vorkommt.

peace :D
 
Und wann machen die endlich mal was zur Verbesserung der allgemeinen Bildqualität anstatt immer nur die Geschwindigkeit zu steigern ?
 
Wenn das so weiter geht, wird ATI Nvidia übernehmen, genauso, wie NVidia 3Dfx (*heul*) übernommen hat. Zeigt der Feind kleine Schwächen ist er fällig!
 
@DjDino

Wie Nenrik schon sagt, engl. Billion = dt. Milliarde.

Außerdem rechnest du beim Speicher mit 1,4 GHz physikalisch, ist es aber nicht. Sollte das stimmen, sind es 700 MHz und erst durch DDR kommen die auf marketingtaugliche 1,4 GHz. Spätestens dann wird aber auch nVidia auf 256 Bit Speicheranbindung umschwenken (du rechnest mit 128 Bit), dadurch stimmt das Endergebnis wieder.

Nebenbei erwähnt sind das alles ungelegte Eier. Nur die Zeit wird zeigen, was die Zukunft bringt. Noch sind das alles nur Spekulationen. Darüber reden lohnt sich nicht, bevor nicht nVidia selbst Daten veröffentlicht, und selbst dann können sich diese noch ändern.
 
@DjDino
>>25.6 GigaTexels per Second
>>Die GeforceFX schafft da nur 4Gpixels/sec. wenn ich mich >>nicht irre. Ich halte den Wert aber nicht für so wichtig.

Du verwechselst da was. Es ist von GTexel die Rede nicht GPixels!!
Abkürzung für "Texture Element". Texel sind "texturierte" Pixel auf einer 3D-Oberfläche. Aus physikalischer Sicht ist ein Texel letztendlich nichts anderes als ein Pixel, da das Ausgangssignal der Grafikkarte keinen Unterschied zwischen Pixel oder Texel macht. Man will damit nur unterscheiden, dass bei einem Texel die mathematischen Berechnungen für die Texturierung abgeschlossen sind. Bei einem Pixel weiß man es nicht.
 
@Razor_Ger:
ati wird nvidia mit sicherheit nicht übernehmen. nvidia hat einiges mit der gf4 verdient, da viele die günstige ti4200 gekauft haben, sowie die karten in den aldi rechner.
ausserdem haben die ja noch den nforce mainboardchipssatz mit dem sie einigen umsatz machen, da es der zur zeit beste chipssatz für den athlon ist.

so schnell wird nvidia nicht pleite gehen. klar die fx ist ein riesenverlust gewesen, aber das heißt noch lange nicht das nvidia am ende ist.
 
@MasterFX Danke weis.
@Yves
Bei 256Bit-Speicher :
32Bytes x Taktfrequenz : 700 mal 2
Bei 128Bit-Speicher wären es nur :
16Bytes x Taktfrequenz : 700 mal 2
(8bits pro Byte)
Hab es auf die schnelle nur anders gerechnet(Ergebniss stimmte aber trotzdem), bei 256 Bit Speicheranbindung
muss natürlich mit 32Bit gerechnet werden.(32 Byte x 2 x 700 MHz)
 
@DjDino

Übrigens im Enlischen heisst billion = im Deutschen Milliarde

guck mal nach, deswegen ist der Wert meines Erachtens auch zu knacken bis dahin.

Aber alles noch viel zu weit weg...
 
Die Daten lesen sich interessant, welches Produkt dabei herauskommt ist eine andere Frage. Bis H2/2004 ist ja noch eine Menge Zeit.

Inzwischen würde mich freuen, wenn nVidia wieder auf Bodenhöhe herunterkommt und die FX vernünftig umsetzt. Immerhin hat die FX Potential (256Bit Speicherbus, etc...).
 
Tja...vor allem feht bei der News der Hinweis, das man diese Karte nur in der Antarktis verwenden kann, weil es sonst unmöglich sein wird die Karte zu kühlen. Die andere Methode sieht einen Bevorratungstank mit Flüssigeis im Tower vor?!

jaja....und mal davon abgesehen....wie war das nochmal mit den Performance-Prognosen zur FX??? Die nach den Aussagen von Nvidia? Sollte DIE nicht schon die übernächsten Horizonte knacken? Nvidia hat Panik!!! Panik das zuviele Kunden überlaufen zu ATI und fängt aufs neue damit an Papiertiger zu entwerfen. John Carmack hat bestimmt mal für Nvidia die Eckdaten für eine bestimmt ganz schnelle Grafikkarte aufgeschrieben und die Serivette hat man nun schnell wieder aus dem Tresor geholt und mal zum Besten gegeben.
Ich glaub denen kein Wort mehr, bis es die Karte zu kaufen gibt und die wahren Details endlich da sind!!!

Rodger
 
@Rodger:

Warum sollte man die nicht kühlen können? Der Shrink von 0,13µ auf 0,09µ (falls die den Fertigungsprozess in den Griff bekommen) ist gewaltig. Von 0,15µauf 0,13µ ist nichts dagegen, selbst ein Shrink von 0,18µ auf 0,13µ ist noch nicht so effektiv.
Nebenbei steigt durch den EDRAM die Chipfläche stark an, so daß die Temperaturabgabe pro mm² weiter gesenkt werden kann. Dazu muß nVidia nur den EDRAM in kleinen Blöcken organisieren und im Chip verteilen, damit die Hotspots über die Fläche verteilt werden können.

Zu sagen, niemand würde das alles kühlen können, ist ein wenig kurzsichtig. Sicher, die GeforceFX ist eine Fehlentwicklung, aber deshalb muß man nicht gegen alles flamen, was da noch kommen mag.
 
Das viele Gerede bringt eigentlich nicht viel solange die Karte noch nicht fertig ist. Man siehts doch auch an der FX: Erst die unabhängigen Benchmarks haben Licht ins Dunkel gebracht
 
Man braucht ja nur schaun, welche Daten vor einem Jahr zur GeFurz FX veröffentlicht wurden. Da ist jedem die Kinnlade heruntergekippt - und was jetzt?

Die Karte ist leistungsmäßig auf Radeon 9700 Pro Niveau, kostet ein paarhundert Euro mehr und braucht einen Orkan-Kühler.

Also alles Mist und sinnloses Geschwafel, solange keine brauchbaren Praxistests vorliegen...

Auch wenn ich bis jetzt immer "nVidia inside" hatte, heute habe ich meine erste ATi Karte erhalten - und werde auch bei ATi bleiben.
 
ich liebe sprüche wie: "ich werde immer bei ... (durch ATI/NVidia ersetzen) bleiben" viele leute haben vor 6 jahren gesagt das sie für immer bei 3Dfx bleiben... und noch davor wollten alle bei S3 bleiben :) also nichts sagen was man sowieso nicht halten wird
 
Ganz meine Meinung @ 36! Man muss sich immer ein Hintertürchen offen halten! Ich meine zwar auch, dass der NV30 Geforce FX floppt (ja floppt, auch wenn er noch nicht auf dem Markt ist), weshalb ich mir eine Radeon 9700 Pro gekauft habe (hatte vorher 3 Jahre lang nVidia und davor 3Dfx Karten), aber ich möchte nicht ausschließen dass wenn der NV40 gut wird, ich mir dann nicht vielleicht diesen zulegen werde! Im Moment muss ich allerdings sagen, dass ATI gegenüber nVidia ein deutlich besseres Preis-/Leistungsverhältnis hat! Aber wir werden ja sehen wie sich dass alles entwickelt...oder wie ein altbekannter Spruch sagt "Konkurrenz belebt das Geschäft!" :)
 
@Hmmm
> Was ich in dem Zusammenhang mal wissen will: Warum braucht man für 16 MB eDRAM mal eben 134 Mio Transistoren ?
> Nach der Rechnung müssten dann "normale" 512 MB-RAM-Riegel ja rd. 4,4 Mrd Transistoren haben, und des scheint mir ein bisserl hoch, gell ?

Keineswegs. Eine eDRAM Speicherzelle (= 1 bit) besteht aus einem Transistor und einem Kondensator. Daher braucht man fuer
16 MByte (=128 Mbit) eDRAM mind. 128 M Transistoren. Die restlichen Transistoren werden fuer die das Speicherarray umgebende
Schaltungen benoetigt.

Ein 512 MByte RAM Riegel besteht in der Regel aus 8 Chips a 512 Mbit . Jeder dieser Chips hat mehr als
512 M Transistoren - also ingesamt mind. 4 Milliarden Transistoren pro Riegel.
 
@38 : Danke, also in Zukunft nicht: "Mein P4 hat 50 Mio. Transistoren" sondern "Ha, mein RAM-Riegel hat fast 5 Milliarden Transistoren !" ;)
 
Zurück
Oben