News ATi zeigt R420 auf dem IDF

was nvidia 2 fps mehr ? Omg! scheiss ati! nieder mit ati! ati suckt!!....... :rolleyes:
 
Nicht das die NV40 eine "0815" Grafikkarte wird. ;)

sorry konnte mir das mehr verkneifen. Trotzdem, kommt Zeit, kommt Rat. Wer die bessere Karte herausgibt, der bekommt nunmal die Symphatien der User.
 
@ BodyLove

Es Stand doch im Text, dass es 100 Bilder pro Sekunde sind und nicht von 10 auf 20 Bilder...

Na ja warten wir es besser ab ob es sich um eine Steigerung von 100% handelt... Wir können uns noch so freuen oder spekulieren, aber wir müssen warten bis die Benchs vorliegen... :rolleyes:
Aber wenn eine annähernde Performancesteigerung erziehlt wurde ist das doch eine richtig feine Sache, aber der Preis?????
Na da bin ich ja echt mal auf das Treffen R420 vs. NV40 gespannt... :D

MfG
CyReZz
 
Der NV 40 wird sagen wir mal "Gigantisch" denn er hat nicht mit den Problemen der FX Serie zu kämpfen. Die ja leider aufgrund derzeitiger Experimenteller Techniken sich stark verspätete und somit es nicht mehr in die Endspezifikationen der neuen DirectX9 schnittstelle schaffte. Deshalb gab es keinerlei Optimierungen in den DX9 Modulen. Zudem musste man sich auf den kleinsten Gemeinsamen Nenner in der Shaderroutine einigen, es wurde dann unter vielen verhandlungen Shader 2.0 als Standart ernannt da sonst ATI vollkommen ausgesperrt worden wäre (weil sie 3.0 nicht in der Hardware Implementiert hatten). Was unter keinen umständen hätte passieren dürfen. Diese entscheidung brachte damals fast den Tod der ersten Geforce FX generation, NVidia überarbeitete dann wie wir wissen die GPUs sowie Speicheranbindungen und stellte eine einigermassene Code Optimierung in den Grafiktreibern her (Ich meine hier keine eventuellen Cheatings ). Leider liegt seitdem etwas an Effekten sowie Leistung in den FXlern brach, die aber noch mit Dxxm 3 gezeigt werden . Möglich wird dieses unterfangen dadurch das die Engine von Dxxm 3 explizit auf den Open GL standart zurückgreift (der keine Beschränkungen in den Shaderroutinen kennt). Das Spiel wird dadurch schneller laufen und auch ein ganzes stück besser aussehen als auf vergleichbare Grafik Konkurenzprodukte.

Der NV 40 hatte mit derlei Problemen nicht zu kämpfen, noch hinzu das NVidia durch die FX Serie einiges an erfahrung gewonnen hat. Der NV40 wird auch nicht gebaut um Benchmark rekorde aufzustellen sondern das erklärte Ziel bei dieser Generation ist es die Bildqualität bei hohen Framezahlen immens zu Steigern. Es wurde hierfür die Anti Aliasing und Trilineare Filterung einer völligen neustrukturierung unterzogen, sowie die Shader einheiten stark erweitert und geschwindigkeitsoptimiert. Es versteht sich wohl von selbst das auch die roh Geschwindigkeit stark gesteigert wurde.
 
Mir is es egal wer am ende besser is ( egal ob nv oder ati ) hab au beide karten imomment ( 9800Pro und FX5900U )
Ich wuensche mir nur einen GUTEN und vor alledem fairen kampf....
Und ich denke das wirklich beide chips sau gute chancen haben .... und jetzt hoff ich einfach nur das die ersten "echten" benchs BALD KOMMEN !!!
 
John Williams schrieb:
es wurde dann unter vielen verhandlungen Shader 2.0 als Standart ernannt
Als Standard.



John Williams schrieb:
da sonst ATI vollkommen ausgesperrt worden wäre (weil sie 3.0 nicht in der Hardware Implementiert hatten).
CineFX beherrscht kein 3.0, nur 2.X.



John Williams schrieb:
Was unter keinen umständen hätte passieren dürfen. Diese entscheidung brachte damals fast den Tod der ersten Geforce FX generation, NVidia überarbeitete dann wie wir wissen die GPUs sowie Speicheranbindungen und stellte eine einigermassene Code Optimierung in den Grafiktreibern her (Ich meine hier keine eventuellen Cheatings ).
Nvidia spendierte dem NV35 vor allem mehr arithmetische Pixelshader-Power.



John Williams schrieb:
Leider liegt seitdem etwas an Effekten sowie Leistung in den FXlern brach, die aber noch mit Dxxm 3 gezeigt werden . Möglich wird dieses unterfangen dadurch das die Engine von Dxxm 3 explizit auf den Open GL standart zurückgreift (der keine Beschränkungen in den Shaderroutinen kennt).
Der OpenGL-Standard hat damit wenig zu tun. Dank herstellerspezifischer Extension können aber auch die Integer-Recheneinheiten mitgenutzt werden.



John Williams schrieb:
Das Spiel wird dadurch schneller laufen und auch ein ganzes stück besser aussehen als auf vergleichbare Grafik Konkurenzprodukte.
Das bleibt abzuwarten.



John Williams schrieb:
Der NV 40 hatte mit derlei Problemen nicht zu kämpfen, noch hinzu das NVidia durch die FX Serie einiges an erfahrung gewonnen hat. Der NV40 wird auch nicht gebaut um Benchmark rekorde aufzustellen sondern das erklärte Ziel bei dieser Generation ist es die Bildqualität bei hohen Framezahlen immens zu Steigern. Es wurde hierfür die Anti Aliasing und Trilineare Filterung einer völligen neustrukturierung unterzogen, sowie die Shader einheiten stark erweitert und geschwindigkeitsoptimiert. Es versteht sich wohl von selbst das auch die roh Geschwindigkeit stark gesteigert wurde.
Woher hast du diese Infos?
 
Zuletzt bearbeitet:
QUT-Clan schrieb:
Mir is es eigentlich sch*** egal wer nun 2FSp mehr auf den Bildschirm zaubert, ich bleib auf jeden Fall bei NV, weil es einfach weniger Probleme gibt als bei ATI (siehe Treiber, oder die vielen Forum Einträge hier)
Aus eigener Erfahrung kann ich so viel sagen, dass die ATI-Treiber nicht mehr problematischer sind, als Nvidia-Treiber.
 
aths schrieb:
Aus eigener Erfahrung kann ich so viel sagen, dass die ATI-Treiber nicht mehr problematischer sind, als Nvidia-Treiber.

Abwarten, erstes Beispiel ist das Spiel X2! Hier werden die FX Karten bevorzugt.
Als nächstes folgt UT 2004. Auch wenn Du hier ausschl. die Treiber ansprichtst, aber es sind gerade die Treiber die den Bock in diesen Spielen fett machen!
 
Nvidia baut Grafikkarten?

spass :)

Ich werde auch eher ATI treu bleiben, wäre aber auch zum Wechsel nicht abgeneigt.
 
GRAKA0815 schrieb:
Abwarten, erstes Beispiel ist das Spiel X2! Hier werden die FX Karten bevorzugt.
Als nächstes folgt UT 2004. Auch wenn Du hier ausschl. die Treiber ansprichtst, aber es sind gerade die Treiber die den Bock in diesen Spielen fett machen!
Da verstehe ich jetzt nicht, wie du das meinst.
 
@26 wurde auch zeit das mit fsaa und af
siehe diverrse vergleiche mit ati
ati hat ja an dem fsaa und af jede generation gearbeitet und verbesserungen gebracht
das fsaa ,af und den trillinearen filter (falls man das überhaupt so nennen kann :rolleyes:: ) von nvidia sind noch von gf4 ti zeiten .....
ich hoffe das nvidia sich endlich mühe gibt mit der bildqualität und endlich annähernd so gutes fsaa und af bringt wie die ati karten zurzeit haben.
kleiner vergleich ati 4xfsaa so gut wie bei nvidia 16xfsaa (was aber nicht überalll möglich ist und viel performance frisst.. )
hoffe auch das sie die schwachstelllen der fx reihe beseitigen zb. die der rechengenauigkeit (zz nur 16 bzw 32 bit ) .
Beide chips haben auf jedenfall potenzial und werden sich nix schenken..
 
@John Williams

Soweit ich gelesen habe (meine es wäre auf Tom's Hardware gewesen) wird aber auch der NV40 das alte Problem der Shader haben, da dieser wie seine Vorganger dies entweder "nur" in 16Bit oder in 32Bit anspricht und nicht nach der DX9 Norm mit 24Bit...das stellt ja den Flaschenhals der FX Serie dar, denn der Rüstand zu ATi ist dort doch eklatant....
Ich weiß zwar nicht wo du den Text her hast, aber ich kann mir beim besten willen nicht vorstellen, dass nVidia auf einmal viel schneller in der Berechnung der Shader sein sollte als ATi...wünschenswert wäre dies für die Konkurrenz untereinander, aber da muss nVidia erstmal den Rückstand aufholen und dann noch ATi übertrumpfen und diese werden auch nicht in der Weiterentwicklung geruht haben...Alles weitere ist im Moment nur Spekulation und wir müssen aus die Benchs warten....

MfG
CyReZz
 
@36 genau das hab ich gemeint mit rechengenauigkeit.....
nvidia pfuscht ja schon ne ganze weile herum...
BTW wenns interessiert hier mal die specs :
* Produced using low-k 0.13 micron technology at TSMC;
* Employs 160 million of transistors;
* Core-clock: about 500MHz;
* DDR, GDDR2, GDDR3 memory controller;
* 256MB of 256-bit GDDR3 memory clocked at about 1.0GHz;
* 8 rendering pipelines with unknown number of TMUs;
* 6 vertex shader engines;
* Pixel and Vertex Shaders 3.0;
* DirectX 9.0 and OpenGL support;
* Improved FSAA patterns;
* Improved anisotropic filtering patterns;
* Overall improved architecture over R300;
* AGP 8x for R420, PEG x16 for R423 interfaces;
 
Zuletzt bearbeitet:
@ aths

Als Standard...
Sehrwohl es ist der höchst unterstützte Shader Standart im DX9 code (es ist aber noch erweiterbar, falls es jemandem Interessiert)

CineFX beherrscht kein 3.0, nur 2.X...
Sie beherrscht 3.0 , CineFX 2 wurde dann mehr auf 2.0 getrimmt (32 bit modus gehört schon zur 3.0 Spez.)

Nvidia spendierte dem NV35 vor allem mehr arithmetische Pixelshader-Power...
Wenn du nun so tief ins Detail gehen willst (das hatte ich eigentlich nicht vor) . Ausserdem wurde der Speicherbereich einer Generalüberholung unterzogen (DDR1 , 256 Bit usw.).

Der OpenGL-Standard hat damit wenig zu tun. Dank herstellerspezifischer Extension können aber auch die Integer-Recheneinheiten mitgenutzt werden....
Damit hast du dich ja fast schon selbst beantwortet. Warum kann man denn auf einmal die herstellerspezifischen Extensionen einsetzen ?
Als weiteren Beweis laufen alle auf openGL basierenden Anwendungen auf FX Karten wesentlich besser.

Das bleibt abzuwarten....
Das ist schon Fakt.

Lies dir doch einfachmal den Thread 64BIT INTEL ZIEHT NACH durch, dann weißt du woher ich meine Informationen habe.

@ 37
Die specs. die da vorweist sind noch nicht bestätigte gerüchte. Und ich kann dir auch schon sagen das es einige änderungen daran gibt.
Zudem kommt noch das die Specs nicht viel über das Fertige Produkt und seine Qualität aussagt.
 
kann nur 2.0+ oder wie irh es schreib 2.x :D vielleicht solltes du mal auf www.nVIDIA.de nach lesen, da stehst nähmlich dick und fett.

X2 gibs schon ....
 
Zuletzt bearbeitet:
Zurück
Oben