News nV40 mit spekulierten 210 Millionen Transistoren?

GRAKA0815 schrieb:
OT:
Nein, ein Artilleriebattaillon der Divison hat 5 Kompanien
1. Kompanie Stab & Versorgung
2-3. Kompanie 155mm auf M109
4-5. Kompanie 203mm auf M110
siehe auch: http://home.t-online.de/home/a.m.ackens/m110.htm
203mm ist aber auch das größte das die Bw hat. ;)

zumindest hatten sie mal welche, wurden offenbar anfang der 90er ausgemustert

GRAKA0815 schrieb:
Topic:
Aber heute in 3 Wochen wird man auf der CeBit sehen ob die Angaben stimmen oder nicht. Vorallem wird man sehen können was sie leistet!

Zum Thema billig.
Eine GPU ist nahezu genauso komplex wie eine CPU, evtl. sogar komplexer.
Trotzdem kostet eine GPU den Verbraucher weniger!

also eine neue "GPU" ist wohl um einiges komplexer als die aktuellen (x86-)CPUs, die hälfte ihrer transistoren ist ja schon den caches zuzurechnen - ausserdem ist das auch nicht der punkt: die DIE-size ist entscheidend, inwiefern dann die verbauten transistoren genutzt werden ist erstmal zweitrangig (bezogen auf die produktionskosten)

inzwischen dürfte die $/chip-rate bei den gpu/vpu's höher sein als bei den cpu's; selbst wenn man unterstellt, das die taiwanesen preiswerter produzieren als intel/amd...
 
(c) schrieb:
zumindest hatten sie mal welche, wurden offenbar anfang der 90er ausgemustert
Ja, aber auch wenn sie ausgemustert sind, werden sie nicht weggeschmissen.
Denke ein Teil wurde an die Türkei verkauft und der andere Teil steht in Depots.


inzwischen dürfte die $/chip-rate bei den gpu/vpu's höher sein als bei den cpu's; selbst wenn man unterstellt, das die taiwanesen preiswerter produzieren als intel/amd...
Ja, vorallem stellt man erst seit neuem in 0,13nm her und als nächstes in 0,11nm. CPU´s dagegen schon länger in 0,13nm und neuerdings in 0,09nm.
Je nach Ausbeute dürften die CPU´s dann einiges billiger sein als GPU´s. Wenn man noch noch sieht das auf den Graka´s bis zu 256MB an Speicher auch noch draufstecken, kann es einen schon verwundern warum die Dinger so "billig" sind.
 
Timmy schrieb:
Ich glaube nicht dass Spieleentwickler jemals auf Schader 3.0 umsteigen werden da sie angeblich nur Nachteile mit sich bringen.
Die Bildqualität soll kaum besser sein während die Performance in den Keller sinkt. Und die Programmierung ist wesentlich umständlicher und teurer. Gegenüber Schader 2.0 natürlich

Mit optischen Verbesserungen kann PS3.0 nicht glänzen. Aber sie spart viel Ressourcen ein. Beispiel Texkills.
 
DarkStorm2003 schrieb:
Zumindest hat der R420 schon einen gewissen Nachteil gegenüber dem NV40. Er unterstützt keine Shader in der Version 3.0.

Genau das wird sich NVIDIA beim Marketing zu nutze machen, immerhin können sie dann damit werben das sie technologisch weiter sind und DX9.1 (eigentlich DX9.0c, interessiert aber die normalen Kunden nicht) unterstützen und ihre Karten somit zukunftssicherer sind *bla bla marketinggeblubber*

Kann mir gut vorstellen das genau das zutreffen wird.
 
Wir kommen dieses Jahr aber sehr na an ptotorealistische grafik ran ich arbeite im Fotoladen , der unterschied ist mittlerweile sehr klein geworden . Ich würde manchmal so einem dummen ( wirklich dummen Kunden ) mit der sniper in denn kopf schießen , wie es im Game ja auch ist , nur im wahren leben geh ich dann erstmal für ein paar jahre in denn Bau.
Das ist abe auch gefahrlich für die Jugend , die manchmal nicht wissen ob es reallität ist oder nen Spiel ist .
Und deswegen bin ich für 4 eckige flugzeuge und son kram , so wie das in meiner jugend auch war , mit dem Pc
 
TheCounter schrieb:
Genau das wird sich NVIDIA beim Marketing zu nutze machen, immerhin können sie dann damit werben das sie technologisch weiter sind und DX9.1 (eigentlich DX9.0c, interessiert aber die normalen Kunden nicht) unterstützen und ihre Karten somit zukunftssicherer sind *bla bla marketinggeblubber*

Kann mir gut vorstellen das genau das zutreffen wird.

Sofern die Leistung beider Chips gleich gut sind, wird es wohl auch zutreffen. Falls der R420 schneller sein wird, so wird es sich trotzdem gut verkaufen. Das nicht Vorhandensein von PS3.0 ist zwar ein Nachteil, aber keins, mit dessen man die Leistung nicht miteinrechnen sollte.
 
Timmy schrieb:
Schader 3.0 werden sowieso nicht benötigt da es laut hardtecs4u unwahrscheinlich ist dass jemals Spiele diese unterschtützen werden.
Und falls doch, erbringt der NV40 und der R420 nicht die nötige Leistung um das Spiel flüssig darzustellen
Mit Pixelshader 3.0 kann man so einiges effizienter rendern, als mit 2.0. Das kann zwar durchaus ganz leicht auf Kosten der Qualität gehen, wenn man z. B. entfernungsabhängig bestimmte Effekte weg lässt, aber der Performance-Gewinn lässt sich ja in zusätzliche Effekte investieren, die man auch wirklich sieht.

Bei ungefähr gleicher Grundgeschwindigkeit ist das Vorhandensein von Shader 3.0 ein Vorteil.

Natürlich ist der NV40 noch kein 3.0-Leistungswunder, wenn man ihn mit dem NV50 vergleicht. Doch ohne Hardware keine Spiele. Wenn alle sagen würden, "jetzt" brauchen wir 3.0 noch nicht, würde die Entwicklung von Engines, die auf bessere Effekte setzen als mit 2.0 noch möglich, verzögert. Wer (außer ATI, die es nicht fertigbringen, jetzt 3.0 HW auf den Markt zu bringen) hätte ein Interesse daran, dass der Fortschritt sich verlangsamt?
 
Zuletzt bearbeitet:
BodyLove schrieb:
Mit optischen Verbesserungen kann PS3.0 nicht glänzen. Aber sie spart viel Ressourcen ein. Beispiel Texkills.
Nvidia rendert in FP32, ATI nur in FP24. Mit FP32 wäre bessere Qualität möglich. Nur werden kaum Entwickler etwas programmieren, was mit FP24 grottig aussieht, weil sie ihr Spiel auch an die Radeon-Gemeinde verkaufen wollen. An und für sich wäre mit Nvidias Pixelshader 3.0 eine bessere Optik möglich, als mit ATIs 2.0.

NV sagte (imo zurecht) dass über kurz oder lang FP32 unausweichlich sei, so integrierten sie es gleich. FP16 steht als Option zur Verfügung, falls geringere Genauigkeit ausreicht.
 
Zuletzt bearbeitet:
Timmy schrieb:
Ich glaube nicht dass Spieleentwickler jemals auf Schader 3.0 umsteigen werden da sie angeblich nur Nachteile mit sich bringen.
Die Bildqualität soll kaum besser sein während die Performance in den Keller sinkt. Und die Programmierung ist wesentlich umständlicher und teurer. Gegenüber Schader 2.0 natürlich
Mit Pixel -und Vertexshader 3.0 ist man gegenüber 2.0 deutlich flexibler. Lies mal die DX9-Doku, was 3.0 kann, was mit 2.0 nicht möglich ist.
 
aths schrieb:
Nvidia rendert in FP32, ATI nur in FP24. Mit FP32 wäre bessere Qualität möglich. Nur werden kaum Entwickler etwas programmieren, was mit FP24 grottig aussieht, weil sie ihr Spiel auch an die Radeon-Gemeinde verkaufen wollen. An und für sich wäre mit Nvidias Pixelshader 3.0 eine bessere Optik möglich, als mit ATIs 2.0.

NV sagte (imo zurecht) dass über kurz oder lang FP32 unausweichlich sei, so integrierten sie es gleich. FP16 steht als Option zur Verfügung, falls geringere Genauigkeit ausreicht.

bloss um (noch?)einmal die sache mit rechengenauigkeit ins rechte licht zu rücken:

höhere präzision wird erst dann nötig, wenn mehrere shader pro pixel berechnet werden, also derselbe pixelfarbwert immer wieder durch irgendwelche effektalgorithmen gejagt wird! (je mehr loops, desto höher sollte die präzision sein, sonst möglicherweise artefaktbildung)

ergo: 24/32-bit-FP wird erst notwendig, wenn pro pixel 50-100 shader-operationen anfallen - nur was nutzt es einer geforcefx, wenn sie 32bitFP beherrscht, aber bei einer anwendung - die jene präzision wirklich benötigt - unendlich langsam wird...(die angabe 50-100 geht auf eine aussage von einem gewissen john carmack von id-software zurück, die ich vor einiger zeit gelesen habe)

zur weiteren orientierung: doom III benötigt lediglich shader mit integer-präzision um ordnungsgemäß zu funktionieren, auch das wieder laut aussage von mr. carmack
 
Zuletzt bearbeitet:
(c) schrieb:
- nur was nutzt es einer geforcefx, wenn sie 32bitFB beherrscht, aber bei einer anwendung - die jene präzision wirklich benötigt - unendlich langsam wird...

Nun, dann sollte man aber auch fairerweise jeden neueren technischen Schnickschnack einer Grafikkarte hinterfragen.
Was nutzt mir denn eine DX9 Grafikkarte wirklich? Würde es auch nur ein Spiel geben das sämtliche Register von DX9 zieht, gäbe es keine einzige DX9 Grafikkarte die auch nur ansatzweise erträgliche Frameraten auf den Monitor zaubern könnte.
 
(c) schrieb:
bloss um (noch?)einmal die sache mit rechengenauigkeit ins rechte licht zu rücken:

höhere präzision wird erst dann nötig, wenn mehrere shader pro pixel berechnet werden, also derselbe pixelfarbwert immer wieder durch irgendwelche effektalgorithmen gejagt wird! (je mehr loops, desto höher sollte die präzision sein, sonst möglicherweise artefaktbildung)

ergo: 24/32-bit-FP wird erst notwendig, wenn pro pixel 50-100 shader-operationen anfallen - nur was nutzt es einer geforcefx, wenn sie 32bitFP beherrscht, aber bei einer anwendung - die jene präzision wirklich benötigt - unendlich langsam wird...(die angabe 50-100 geht auf eine aussage von einem gewissen john carmack von id-software zurück, die ich vor einiger zeit gelesen habe)
Hier geht es um den NV40, nicht um das alte CineFX. Meinst du, Nvidia optimiert weiterhin auf FP16-Geschwindigkeit, wenn sie gleichzeitig Shader 3.0 pushen wollen?

FP32 braucht man nicht nur für -zig Ops, sondern auch für die Arbeit mit großen Texturen.
 
GRAKA0815 schrieb:
Nun, dann sollte man aber auch fairerweise jeden neueren technischen Schnickschnack einer Grafikkarte hinterfragen.
Was nutzt mir denn eine DX9 Grafikkarte wirklich? Würde es auch nur ein Spiel geben das sämtliche Register von DX9 zieht, gäbe es keine einzige DX9 Grafikkarte die auch nur ansatzweise erträgliche Frameraten auf den Monitor zaubern könnte.
Das trifft auch auf DX8-, bzw. DX7-Technik zu. Auch mit DX6 wäre eine Szene denkbar, die jede heutige Karte in unspielbare Frameratenbereiche zwingt.

Ohne DX9-HW wären so genannte NexGen-Spiele praktisch unmöglich. Das ist doch schon was.
 
aths schrieb:
Hier geht es um den NV40, nicht um das alte CineFX. Meinst du, Nvidia optimiert weiterhin auf FP16-Geschwindigkeit, wenn sie gleichzeitig Shader 3.0 pushen wollen?

zumindest war das die bisherige strategie von nvidia bezüglich neuerer shader-operationen: eine art array-einheit, die zwar mehrere int-ops parallel beherrscht oder diese gegen eine fp-op "eintauscht" - entgegen der ati-struktur, die immer 4 ops/clock beherrscht, egal ob fp24 oder niedriger

und: der unterschied zwischen 24bit und 32bit FP ist quasi nur der, dass mit 32 noch ein paar loops mehr möglich sind, bevor der rechenfehler zu gross (sichtbar) wird...und selbst zukünftige games werden noch nicht einmal ansatzweise fp24 ausreizen....

meiner meinung sind die 128bit-register sowie die anschliessenden recheneinheiten gegenüber einer noch völlig ausreichenden 96bit-struktur transistorverschwendung
 
(c) schrieb:
zumindest war das die bisherige strategie von nvidia bezüglich neuerer shader-operationen: eine art array-einheit, die zwar mehrere int-ops parallel beherrscht oder diese gegen eine fp-op "eintauscht" - entgegen der ati-struktur, die immer 4 ops/clock beherrscht, egal ob fp24 oder niedriger

und: der unterschied zwischen 24bit und 32bit FP ist quasi nur der, dass mit 32 noch ein paar loops mehr möglich sind, bevor der rechenfehler zu gross (sichtbar) wird...
Ich schrieb doch schon, dass FP32 auch Sinn macht, wenn große Texturen verwendet werden, was mit der Anzahl der Ops wirklich nichts zu tun hat.

FP16 ist für Texture-Ops praktisch unbrauchbar. FP24 ist meistens ausreichend. FP32 ist toll.



(c) schrieb:
und selbst zukünftige games werden noch nicht einmal ansatzweise fp24 ausreizen....
Zukünftige Games werden auf ATIs FP24 Rücksicht nehmen müssen, und keine Effekte verwenden können, die mit FP32 besser aussehen.



(c) schrieb:
meiner meinung sind die 128bit-register sowie die anschliessenden recheneinheiten gegenüber einer noch völlig ausreichenden 96bit-struktur transistorverschwendung
Meiner Meinung nach ist es keine Transistor-Verschwendung, dass schon GeForce3 Textur-Operationen mit FP32 rechnet.
 
Zuletzt bearbeitet:
aths schrieb:
Ohne DX9-HW wären so genannte NexGen-Spiele praktisch unmöglich. Das ist doch schon was.

Wohl eher andersherum.
Um Spiele von gestern (programmiertechnisch) spielen zu können brauche ich nextnextGen HW. :p
 
Ich glaube das nVidia diesmal etwas richtiges herstellt dass ATi wieder unter die Schranke setzt. Seit der 9700< Generation bin ich zufrieden mit ATi, da ich selber schon eine Radeon 9700Pro und jetzt eine 9800/Pro habe. Aber wie wärs mit eine Speichererweiterung von 256bit auf 512bit? :-P
 
Laut Gamestar:
Chiphersteller Nvidia stellt auf der Cebit im März 2004 ausgewählten Journalisten und engen Partnern die nächste Geforce-Generation vor. Dies meldet der GameStar in seiner am Mittwoch, den 3. März 2004, erscheinenden Ausgabe. Bei der Spieleleistung bahnt sich, wie Recherchen ergaben, eine Sensation an: Nvidia erhöht die Anzahl der Rendering-Pipelines von acht auf -- das bestätigen aktuelle Meldungen -- gewaltige 16. Das steigert die FPS in aktuellen und künftigen 3D-Titeln drastisch. Ob ATIs nächster Chip (R420) da mithalten kann? Spezielle Berechnungen von Half-Life 2 soll die Geforce 6 FX (Codename NV40) bis zu 600 Prozent schneller abarbeiten als die Geforce FX 5950 Ultra (NV38). In Doom 3 erreicht das Silizumbündel angeblich die vierfache NV38-Performance. Zudem unterstützt der NV40 eine neue Funktion, die in Strategietiteln mit Hunderten von Spielfiguren Rechenleistung sparen soll. Animationen werden dann nur einmal berechnet und auf andere Figuren übertragen.

Na wenn dass nichts ist!
 
zu dem "16-pipe-design" noch eine anmerkung:

der nv30/35 wurde als "8-pipe-design" vermarktet, obwohl eher eine 4x2 struktur mit der fähigkeit 8 z/stencil-operationen auszuführen vorhanden ist

die vermutung liegt daher nahe, dass auch hier eine 16/8x2 architektur vorliegt - aber immerhin...
 
Zurück
Oben