Original erstellt von DjDino
Naja Speicherbandbreite ist nicht alles . Laut John Carmack kann ja zur Zeit die Radeon9700pro die Engine von doom III am schnellsten berechnen, kein Wunder, bei Doom III kommt es nach Carmack auf gute Texturierungs-Leistung vorallem beim Multitexturing und erweiterten Bump-Mapping an und da ist die Radeon9700pro vorallem durch ihre "16 textures per Render pass" sehr Stark und muss nicht auf das langsamere Multi-pass-Rendering zurückgreifen weil bei ihre schon in einem "Singel-pass" so viele Textur-Layer aufgebracht werden können ohne neu rendern zu müssen (ohne Loopback)
16 Textures per Pass kann sie aber gar nicht und IMO wird das auch der nV30 nicht können. Erlaubt und gefordert sind für Pixelshader 2.0 16 Texture-Lookups, das ist aber nicht gleichzusetzen mit 16fachem Multitexturing. Momentan erlaubt der OpenGL-Treiber 8 gleichzeitig aktive Texturen, also effektiv achtfaches Multitexturing, was IMO auch das Maximum darstellt, denn die Lookups sind Pixelshader-Interne sog. Dependant Texture Reads, wie sie z.B. für EMBM gebraucht werden, also könnte mit 16 Lookups 7 der 8 Texturen eine
unterschiedliche Bumpmap hinzugefügt werden, was in der Tat sehr freie Gestaltung der Shader ermöglicht.
Aber ich denke noch besser wird es der NV30 (Geforce5) vorallem aber nicht nur bei Doom III dann wohl doch können.
Der NV30 hat ebenfalls die "16 textures per pass" - Fähigkeit aber zusätzlich 1ne TMU (Texturierungs-Einheit) mehr als die Radeon9700pro.
Radeon9700 pro : 8 pipenlines,1 TMU,"16 textures per pass"
Geforce5 : 8 pipenlines, 2 TMU´s, ,"16 textures per pass"
(DirectX9 fordert 16 Texturen per pass)
Der NV30 ist und wird die noch etwas flottere Karte für Doom III mit der "brutalen" Lösung das Nvidia wie schon bei der Geforce3 eine Texturierungs-Einheit (TMU) mehr im Chip einbaut.
ad1) Woher nimmst du die
Gewissheit dass nV30 2 TMUs haben wird? Gerade bei dem immer noch spekulierten 128-Bit Interface völlige Verschwendung. Ich tippe mal auf maximal 1 TMU, und die wird auch keine wirkliche TMU sein...
ad2) Eine TMU
mehr bei der GeForce3 ??? AFAIK sind's seit der GeForce2 GTS immer zwei Stück pro Pipeline gewesen.
Wegen der Speicher-Leistung der Karten :
Nvidia hat es immer sehr gut verstanden aus einer geringen Bandbreite (Speicher-Leistung) MEHR rauszuholen.
Mit Hilfe der "Light Speed Memory Architektur" - quasi eine Art der Bandbreiten-Schonung(um eben aus weniger mehr effektiv rauszuquetschen) - steht auch hier : http://www.tecchannel.de/hardware/655/6.html
Geforce3-Karten haben die dortige "Light Speed Memory Architektur" Version 1
Bei der Geforce4Ti zum Beispiel hat Nvidia mit der verbesserten "Light Speed Memory Architektur 2" aus weniger Bandbreite effektiv mehr gemacht , da wurde z.b. bei der GEforce4Ti der Speicherkontroller auf 4 Seperate Kontroller aufgesplittert - nennt sich dann "Crossbar Memory Controller"
Vorteil : Je nach Grösse an Daten können mehrere Kontroller untereinander kombiniert werden - eine Art "dynamischere Auslastung je nach Bedarf" dann also.
Eigentlich erst seit der GeForce3, davor war die Bandbreite eher das Sorgenkind bei nVidia. ATi hat hier zuerst mit HyperZ versucht, BB zu sparen. Und einen vierfachen CBMC hatte schon die Geforce3, die Optimierungen der GF4 liegen mehr im Detail.
Zusätzlich sorgen noch Z-Buffer dafür das Pixel die sich je nach Tiefe verdecken also solche eraknnt werden und dann mitels "Z-Occlusion-Culling-Technologie" nicht berechnet werden[...]
Z-Buffer unterstützt eigentlich jeder Chip, sonst würden wir ein ziemliches Chaos auf dem Bildschirm sehen...
DirectX9 fordert und ermöglicht aber unter anderem eine hohe Anzahl an möglichen Textur-Variablen sowie eine höhere Farbtiefe.(DirectX9 bis zu 64Bit-Rendering anstatt nur 32Bit)
Grössere, mehrere oder höherbittige Texturen brauchen IMMER mehr RAM und Bandbreite. IMHO wären die 16Gbyte/sec. die 128Bit-Ram bei 1000Mhz ermöglicht zuwenig - zum Vergleich : Die Radeon9700pro schafft 20Gbyte/sec. (hat 256Bit)
Der erste Satz ist richtig, wobei das Rendering im Chip abläuft, der Framebuffer ist das entscheidende, und da werden alle bislang angekündigten Chips gnadenlos einbrechen, wenn der komplette Rendering-Vorgang bis zum RAMDAC (der mit max. 4x10Bit eh keine 64Bit-Ausgabe hinkriegt).
Das mit den Texturen....hm, bis die nativ in 64Bit vorliegen, gibt's gebrauchte nV30er für nen Zehner...
Wenn ich das na meinem Wissen zusammenfasse:
[...]
Mein Fazit :
Ich wage es zu schätzen (obwohl momentan verrückt) das der NV30 z.b. in 3DMark2001SE um die 20.000 Punkte schafft wo eine Radeon9700pro "nur" um die 15.000 liefert.
Der Dreiecksdurchsatz wird eh zu den Verkaufszeiten der Karten keine Rolle spielen. Guck dir UT2003 an, das ist drei Jahre nach der GeForce256 rausgekommen und nutzt jetzt erst so ziemlich alle Möglichkeiten von DX7 aus. Die Treiber kann ich zumindest noch nicht einschätzen. ATis R300-Treiber für DX8 sind noch nicht am Ziel, und was man so von den DX9-BETAs hört, sind sie wohl eher pre-Alphas...
3DMarks sind so ziemlich das unwichtigste wo gibt, und wenn man sich die 11xxx der Ti4600 ggü. den 13xxx der 9700pro genauer anschaut, sieht man, dass in den meisten Tests selbst eine 2,53GHz-CPU das begrenzende Element ist. Der Vorsprung resultiert zu 95% aus Dragothic-Low und Nature, wo die CPU kaum eine Rolle spielt.
(Natürlich ändert sich das mit steigender Auflösung bzw. mit FSAA/AF, weil die CPU-Limitierung entfällt).
Dass der nV30 adäquat mit Speicherleistung versorgt wird, sehe ich mal als sichergestellt an, egal ob das nun 128 oder 256Bit werden, wie du schon sagtest, es kommt drauf an, was man aus den GB/s am Ende macht.
Das einzige, wo sich die beiden IMO stark unterscheiden werden, ist in der Art und Weise, wie die Pixel mit Texturen beklebt werden und wieviel Leistung das jeweils kostet.....
Aber wir sind hier Way off Topic.