NV30 @ 500MHz

Leisetreter

Lieutenant
Registriert
Sep. 2002
Beiträge
911
laut "zuverlässigem" Inquirer wird der NV30 mit 500MHz schnellem DDR-II Speicher befeuert.
Warum Nvidia zu solch einem hohen Takt greifen muss lässt sich zumindest einigermassen über das 128Bit-Interface erklären.
Meiner Meinung nach kann ich mir jedoch kaum vorstellen, dass dies der ökonomischere Weg ist, da DDR-II momentan eher noch "gar nicht" verfügbar ist und dementsprechend teuerer sein dürfte, als die geringfügig höheren Kosten für ein 256-Bit Interface.
Interessant dürfte es auf jeden Fall werden, da ATI auf den NV 30, dann wohl auch mit einer DDR-II-Variante der Radeon9700 antworten dürfte, ein lauffähiges Sample wurde ja bereits bei TechTV gezeigt.
Schade an ganzen Sache ist nur, dass für die meisten User in GoodOl'Germany die zu erwartene Preissenkung der 9700 wohl erst nach Weihnachten ansteht.
Auf jeden Fall sieht man mal wieder wunderschönst, dass es doch gut tut keine Monopoloistische Stellung eines Herstellers zu haben. Konkurrenz belebt das Geschäft. :D


[EDIT: Sorry, falsches Fenster! Bitte um Verschiebung in GraKa-Forum. /EDIT]
 
Samsung fertigt seit einiger Zeit DDR-II Chips in Massenproduktion, insofern sehe ich da keinerlei Probleme.

Wenn man nun die Specs der bei der R300 und nV25 genutzten Chips anschaut, stellt man fest, dass diese bei CL5 (möglicherweise mit CL4) betrieben werden.

Wenn nun DDR-II aufgrund besserer Fertigung in der Lage ist, seine 500MHz bei, sagen wir CL3 zu erreichen, würde das schon ausreichen, um im Normalbetrieb quasi dieselbe Leistung wie DDR-RAM bei 300MHz und CL5 zu erreichen, IMO.

Ausserdem benötigt man weniger Spannung, was sich auf das Board- und besonders auf das Schaltreglerlayout positv auswirken kann, gerade da (Vermutung: on) der nV30 wohl mit 256MB RAM daherkommen könnte (Vermutung: off).

Lassen wir uns überraschen, denn es kommt nicht nur auf die Bandbreite an, sondern besonders darauf, was man damit anstellt.........
 
Naja Speicherbandbreite ist nicht alles . Laut John Carmack kann ja zur Zeit die Radeon9700pro die Engine von doom III am schnellsten berechnen, kein Wunder, bei Doom III kommt es nach Carmack auf gute Texturierungs-Leistung vorallem beim Multitexturing und erweiterten Bump-Mapping an und da ist die Radeon9700pro vorallem durch ihre "16 textures per Render pass" sehr Stark und muss nicht auf das langsamere Multi-pass-Rendering zurückgreifen weil bei ihre schon in einem "Singel-pass" so viele Textur-Layer aufgebracht werden können ohne neu rendern zu müssen (ohne Loopback)

Aber ich denke noch besser wird es der NV30 (Geforce5) vorallem aber nicht nur bei Doom III dann wohl doch können.

Der NV30 hat ebenfalls die "16 textures per pass" - Fähigkeit aber zusätzlich 1ne TMU (Texturierungs-Einheit) mehr als die Radeon9700pro.

Radeon9700 pro : 8 pipenlines,1 TMU,"16 textures per pass"
Geforce5 : 8 pipenlines, 2 TMU´s, ,"16 textures per pass"

(DirectX9 fordert 16 Texturen per pass)

Der NV30 ist und wird die noch etwas flottere Karte für Doom III mit der "brutalen" Lösung das Nvidia wie schon bei der Geforce3 eine Texturierungs-Einheit (TMU) mehr im Chip einbaut.

Wegen der Speicher-Leistung der Karten :

Nvidia hat es immer sehr gut verstanden aus einer geringen Bandbreite (Speicher-Leistung) MEHR rauszuholen.

Mit Hilfe der "Light Speed Memory Architektur" - quasi eine Art der Bandbreiten-Schonung(um eben aus weniger mehr effektiv rauszuquetschen) - steht auch hier : http://www.tecchannel.de/hardware/655/6.html

Geforce3-Karten haben die dortige "Light Speed Memory Architektur" Version 1

Bei der Geforce4Ti zum Beispiel hat Nvidia mit der verbesserten "Light Speed Memory Architektur 2" aus weniger Bandbreite effektiv mehr gemacht , da wurde z.b. bei der GEforce4Ti der Speicherkontroller auf 4 Seperate Kontroller aufgesplittert - nennt sich dann "Crossbar Memory Controller"

Vorteil : Je nach Grösse an Daten können mehrere Kontroller untereinander kombiniert werden - eine Art "dynamischere Auslastung je nach Bedarf" dann also.

Zusätzlich sorgen noch Z-Buffer dafür das Pixel die sich je nach Tiefe verdecken also solche eraknnt werden und dann mitels "Z-Occlusion-Culling-Technologie" nicht berechnet werden (wozu wenn das dahinterliegende eh nicht sichtbar wäre) - spart also zu berechnende Daten und damit wieder Bandbreite.
Zusätzlich sorgt eine Komprimierung im Verhältniss von 4:1 ("Z-Kompression") der hierfür zu berechnenden Daten für mehr Bandbreiten-Einsparung.

Das heisst jetzt nicht das Die Radeon9700pro das alles nicht hat, (hat auch 4 kombinierte Controller!) aber Nvidias Methoden der Bandbreiteneinsparung sind bis jetzt immer effektiver gewessen und nicht zulätzt auch die Treiber besser diese und andere Aufgaben optimiert.

Zahlen wie BIT und MHZ sind nicht alles - TROTZDEM glaube ich das ein 128Bit-Interface vielleicht mit Pech etwas zu schwach wäre -
Grund : Die Geforce5 beherscht ebenfalls schon DirectX9 - ja soll sogar teilweise schon Shader-Register haben die bis DirectX9.1 (!!!) hinaufgehn.

DirectX9 fordert und ermöglicht aber unter anderem eine hohe Anzahl an möglichen Textur-Variablen sowie eine höhere Farbtiefe.
(DirectX9 bis zu 64Bit-Rendering anstatt nur 32Bit)

Grössere, mehrere oder höherbittige Texturen brauchen IMMER mehr RAM und Bandbreite.

IMHO wären die 16Gbyte/sec. die 128Bit-Ram bei 1000Mhz ermöglicht zuwenig - zum Vergleich : Die Radeon9700pro schafft 20Gbyte/sec. (hat 256Bit)

[/b]Wenn ich das na meinem Wissen zusammenfasse :

1)

Speicherleistung :

NV30 : ~16Gbyte/sec. die 128Bit-DDR II-Ram bei 1000Mhz ermöglicht

(Jedoch mit wiegesagt effektivitäts-steigernder, nochmal verbesserter "Light Speed Memory Architektur 3")

Radeon9700pro : 20Gbyte/sec. die 256Bit-DDR-Ram bei 620Mhz ermöglicht

GEWINNER : Ungewiss, vermutlich dank Nvidias verbesserter Speicherverwaltung 1:1 b.z.w. ausgeglichen.

2)

Texturierungs-Leistung (laut John Carmak wichtig beim Bump-Mapping und Multitexturlastigen DoomIII) :

Radeon9700 pro :
8 pipenlines,1 TMU,"16 textures per pass"

NV30 :
8 pipenlines, 2 TMU´s, ,"16 textures per pass"

GEWINNER : NV30
Der NV30 ist und wird die noch etwas flottere Karte für Doom III mit der "brutalen" Lösung
das Nvidia wie schon bei der Geforce3 eine Texturierungs-Einheit (TMU) mehr im Chip einbaut.

3)

Polygon-Leistung unter DirectX8/9 :

Radeon9700pro :
4 Vertex-Shader-Units
NV30 :
4 Vertex-Shader-Units

GEWINNER : Keiner, 1:1

Treiber-Leistung :

Radeon9700pro :
Bis zum erscheinen des NV30 sicher schon ausgereift-flotter.

NV30 :
Nvidia versteht es meist besser Treiber schnell und besser zu optimieren - siehe Detonator->DetonatorXP - Leistungssprünge

4)

GPU-Leistung :

Radeon9700pro : 320Mhz
NV30 : bis 400MHz

GEWINNER : Klar der NV30, ein höhere GPU-Takt beschleunigt zudem SÄMTLICHE Berechnungen von A-Z.

Mein Fazit :

Ich wage es zu schätzen (obwohl momentan verrückt) das der NV30 z.b. in 3DMark2001SE um die 20.000 Punkte schafft wo eine Radeon9700pro "nur" um die 15.000 liefert.

cu *G*
 
Original erstellt von DjDino
Naja Speicherbandbreite ist nicht alles . Laut John Carmack kann ja zur Zeit die Radeon9700pro die Engine von doom III am schnellsten berechnen, kein Wunder, bei Doom III kommt es nach Carmack auf gute Texturierungs-Leistung vorallem beim Multitexturing und erweiterten Bump-Mapping an und da ist die Radeon9700pro vorallem durch ihre "16 textures per Render pass" sehr Stark und muss nicht auf das langsamere Multi-pass-Rendering zurückgreifen weil bei ihre schon in einem "Singel-pass" so viele Textur-Layer aufgebracht werden können ohne neu rendern zu müssen (ohne Loopback)


16 Textures per Pass kann sie aber gar nicht und IMO wird das auch der nV30 nicht können. Erlaubt und gefordert sind für Pixelshader 2.0 16 Texture-Lookups, das ist aber nicht gleichzusetzen mit 16fachem Multitexturing. Momentan erlaubt der OpenGL-Treiber 8 gleichzeitig aktive Texturen, also effektiv achtfaches Multitexturing, was IMO auch das Maximum darstellt, denn die Lookups sind Pixelshader-Interne sog. Dependant Texture Reads, wie sie z.B. für EMBM gebraucht werden, also könnte mit 16 Lookups 7 der 8 Texturen eine unterschiedliche Bumpmap hinzugefügt werden, was in der Tat sehr freie Gestaltung der Shader ermöglicht.


Aber ich denke noch besser wird es der NV30 (Geforce5) vorallem aber nicht nur bei Doom III dann wohl doch können.
Der NV30 hat ebenfalls die "16 textures per pass" - Fähigkeit aber zusätzlich 1ne TMU (Texturierungs-Einheit) mehr als die Radeon9700pro.
Radeon9700 pro : 8 pipenlines,1 TMU,"16 textures per pass"
Geforce5 : 8 pipenlines, 2 TMU´s, ,"16 textures per pass"
(DirectX9 fordert 16 Texturen per pass)
Der NV30 ist und wird die noch etwas flottere Karte für Doom III mit der "brutalen" Lösung das Nvidia wie schon bei der Geforce3 eine Texturierungs-Einheit (TMU) mehr im Chip einbaut.

ad1) Woher nimmst du die Gewissheit dass nV30 2 TMUs haben wird? Gerade bei dem immer noch spekulierten 128-Bit Interface völlige Verschwendung. Ich tippe mal auf maximal 1 TMU, und die wird auch keine wirkliche TMU sein... ;)

ad2) Eine TMU mehr bei der GeForce3 ??? AFAIK sind's seit der GeForce2 GTS immer zwei Stück pro Pipeline gewesen.



Wegen der Speicher-Leistung der Karten :
Nvidia hat es immer sehr gut verstanden aus einer geringen Bandbreite (Speicher-Leistung) MEHR rauszuholen.
Mit Hilfe der "Light Speed Memory Architektur" - quasi eine Art der Bandbreiten-Schonung(um eben aus weniger mehr effektiv rauszuquetschen) - steht auch hier : http://www.tecchannel.de/hardware/655/6.html
Geforce3-Karten haben die dortige "Light Speed Memory Architektur" Version 1
Bei der Geforce4Ti zum Beispiel hat Nvidia mit der verbesserten "Light Speed Memory Architektur 2" aus weniger Bandbreite effektiv mehr gemacht , da wurde z.b. bei der GEforce4Ti der Speicherkontroller auf 4 Seperate Kontroller aufgesplittert - nennt sich dann "Crossbar Memory Controller"
Vorteil : Je nach Grösse an Daten können mehrere Kontroller untereinander kombiniert werden - eine Art "dynamischere Auslastung je nach Bedarf" dann also.


Eigentlich erst seit der GeForce3, davor war die Bandbreite eher das Sorgenkind bei nVidia. ATi hat hier zuerst mit HyperZ versucht, BB zu sparen. Und einen vierfachen CBMC hatte schon die Geforce3, die Optimierungen der GF4 liegen mehr im Detail.


Zusätzlich sorgen noch Z-Buffer dafür das Pixel die sich je nach Tiefe verdecken also solche eraknnt werden und dann mitels "Z-Occlusion-Culling-Technologie" nicht berechnet werden[...]

Z-Buffer unterstützt eigentlich jeder Chip, sonst würden wir ein ziemliches Chaos auf dem Bildschirm sehen...


DirectX9 fordert und ermöglicht aber unter anderem eine hohe Anzahl an möglichen Textur-Variablen sowie eine höhere Farbtiefe.(DirectX9 bis zu 64Bit-Rendering anstatt nur 32Bit)
Grössere, mehrere oder höherbittige Texturen brauchen IMMER mehr RAM und Bandbreite. IMHO wären die 16Gbyte/sec. die 128Bit-Ram bei 1000Mhz ermöglicht zuwenig - zum Vergleich : Die Radeon9700pro schafft 20Gbyte/sec. (hat 256Bit)


Der erste Satz ist richtig, wobei das Rendering im Chip abläuft, der Framebuffer ist das entscheidende, und da werden alle bislang angekündigten Chips gnadenlos einbrechen, wenn der komplette Rendering-Vorgang bis zum RAMDAC (der mit max. 4x10Bit eh keine 64Bit-Ausgabe hinkriegt).
Das mit den Texturen....hm, bis die nativ in 64Bit vorliegen, gibt's gebrauchte nV30er für nen Zehner...



Wenn ich das na meinem Wissen zusammenfasse:
[...]
Mein Fazit :
Ich wage es zu schätzen (obwohl momentan verrückt) das der NV30 z.b. in 3DMark2001SE um die 20.000 Punkte schafft wo eine Radeon9700pro "nur" um die 15.000 liefert.


Der Dreiecksdurchsatz wird eh zu den Verkaufszeiten der Karten keine Rolle spielen. Guck dir UT2003 an, das ist drei Jahre nach der GeForce256 rausgekommen und nutzt jetzt erst so ziemlich alle Möglichkeiten von DX7 aus. Die Treiber kann ich zumindest noch nicht einschätzen. ATis R300-Treiber für DX8 sind noch nicht am Ziel, und was man so von den DX9-BETAs hört, sind sie wohl eher pre-Alphas...
3DMarks sind so ziemlich das unwichtigste wo gibt, und wenn man sich die 11xxx der Ti4600 ggü. den 13xxx der 9700pro genauer anschaut, sieht man, dass in den meisten Tests selbst eine 2,53GHz-CPU das begrenzende Element ist. Der Vorsprung resultiert zu 95% aus Dragothic-Low und Nature, wo die CPU kaum eine Rolle spielt.
(Natürlich ändert sich das mit steigender Auflösung bzw. mit FSAA/AF, weil die CPU-Limitierung entfällt).
Dass der nV30 adäquat mit Speicherleistung versorgt wird, sehe ich mal als sichergestellt an, egal ob das nun 128 oder 256Bit werden, wie du schon sagtest, es kommt drauf an, was man aus den GB/s am Ende macht.

Das einzige, wo sich die beiden IMO stark unterscheiden werden, ist in der Art und Weise, wie die Pixel mit Texturen beklebt werden und wieviel Leistung das jeweils kostet..... ;)

Aber wir sind hier Way off Topic.
 
STOP

Ihr seid gut Nvidia hat das ding nur auf dem Papier fertig und ihr rechnent hier schon rum wer am ende schneller ist erstmal warten wann der zu uns kommt Ati hat wenigstens schon die Hardware drausen Nvidia hat ein stück Papier mhhh da stellt sich doch die frage wer hat die nase vorn ??? Ich halte viel von Nvidia werde mir aber nächsten Monat die Hercules 3DProphet 9700 Pro kaufen.
 
Original erstellt von Carsten
Erlaubt und gefordert sind für Pixelshader 2.0 16 Texture-Lookups, das ist aber nicht gleichzusetzen mit 16fachem Multitexturing. Momentan erlaubt der OpenGL-Treiber 8 gleichzeitig aktive Texturen, also effektiv achtfaches Multitexturing, was IMO auch das Maximum darstellt, denn die Lookups sind Pixelshader-Interne sog. Dependant Texture Reads, wie sie z.B. für EMBM gebraucht werden.

Danke, das der OpenGL begrenzt wusst ich nicht, ma lernt nie aus aber stets dazu - schade das 16 Layer in einem Durchgang nicht aufzutragen sind, Carsten deine Analysen gleichen einem Genie ;) :)

Das mit den 2 TMU´s hab ich von ner Forum-Klatschpresse :

http://www.nvworld.ru/ubb/Forum11/HTML/000002.html

Sorry wegen dem etwas Abseits-Topic.
 
Hm, schon gut. Bei so viel Lob verzeihe ich das OT gern ;)

Nee, mal im Ernst. Ich kann auch nur das wiedergeben, was es so öffentlich zu lesen gibt, genaueres über den nV30 weiss ich auch leider nicht.

Und das mit dem OpenGL und Max_Active_Textures steht einfach so in den Treibern drin, kann gut sein, dass der OpenGL-1.3 Standard hier das begrenzende Element ist. Werden wir dann ja sehen, wenn's OpenGL 2.0 gibt :)

Bin schon sehr gespannt...
 
Bei http://www.chip.de/ haben sie einiges über den NV30 stehen, was mit höchster Sicherheit bei den neuen GeForce 5 Karten implementiert wird und auch ein paar Daten. Könnt Euch den Artkel ja mal durchlesen. Die schreiben auf jeden Fall:
"Die Speicheranbindung ist 256 Bit breit"
Mal abwarten was die Karte in den Tests leisten kann, wenn Sie rauskommt.
 
nach bisherigen erfahrungen mit nvidia ( von geforce256 über geforce2 ultra bis geforce3 ) - war die leistung zwar immer gut aber sobald es an features wie aa ging relativ flott aber kaum sichtbar ... da hat ati doch mehr seine versprechen gehalten - meiner meinung nach rennt nvidia dem erfolg hinterher und der nv30 wird kaum der renner werden - was haben die nicht damals alles bei der geforce256 aka geforce1 versprochen und wie lange mußte man warten ( und genauso so viele neue grafikkarten ) bis man etwas davon gesehen hat ?!


gruß baal666
 
Original erstellt von -Azonic-
Bei http://www.chip.de/ haben sie einiges über den NV30 stehen, was mit höchster Sicherheit bei den neuen GeForce 5 Karten implementiert wird und auch ein paar Daten. Könnt Euch den Artkel ja mal durchlesen. Die schreiben auf jeden Fall:
"Die Speicheranbindung ist 256 Bit breit"
Mal abwarten was die Karte in den Tests leisten kann, wenn Sie rauskommt.

das die gf5 256bit speicherandbindung haben wird, schreibt aber einzig und allein chip...ich glaub mittlerweile sickert eindeutig raus, dass es nur 128bit sein werden - und damit wird nvidia nen schweren stand haben, egal ob DDR II oder nicht...
 
Zurück
Oben