ATi R420, R423 & Co. Informationen

cenmocay

Banned
Dabei seit
Dez. 2003
Beiträge
737
Ein wirklich guter Artikel

http://www.3dcenter.de/artikel/2004/02-22_a.php

ATi R420
generell basierend auf den R3x0-Chips, allerdings mit vielen Verbesserungen an der Shader-Architektur
160 Millionen Transistoren, in 130nm bei TSMC gefertigt
8 Rendering-Pipelines, Anzahl der Textureneinheiten unbekannt
6 Vertex Shader Einheiten
DirectX 9.0 Architektur, unterstützt Shader 2.0
256 Bit Speicherinterface, unterstützt DDR1, GDDR2 und GDDR3
internes AGPx8 Interface
genaue Taktraten: unbekannt; laut AnandTech runde 500 MHz Chip- und Speichertakt
Präsentation: vermutlich noch erstes Quartal 2004
Markteintritt: zweites Quartal 2004


Also beim R420 bin ich besonders auf die Performance gespannt und ob sie das AF verbessern können.
NV wird das sicher krass ausnutzen,das nur sie Shader 3.0 nutzen aber was für die Leute zählt ist halt nur die Performance in aktuellen Titeln und zukünftigen wie HL2 und Doom3.
 

Shadow86

Rear Admiral
Dabei seit
Juni 2003
Beiträge
5.524
Warum wird bei jeder neuen Meldung über R420 & Co., auch wenn sie noch so klein ist, ein neuer Thread erstellt! :rolleyes: :stock:
 

Simon

Fleet Admiral
Dabei seit
Jan. 2002
Beiträge
10.341

cenmocay

Banned
Ersteller dieses Themas
Dabei seit
Dez. 2003
Beiträge
737
Den Käufer interessiert nur eines,wie schnell ist die Graka in aktuellen Games.

Es wird die Graka gekauft die in UT2004 und Farcry richtig abgeht.Shader ist noch nicht wichtig,jetzt erscheinen gerade mal Spiele die DX 8 voraussetzten und außerdem kommt 2005 schon der R500.
Bis dahin reicht shader 2.0 aus,weil keine Spiele es wirklich nutzen werden.

Hier die Gründe warum ATI nicht auf Shader 3.0 springt

1.
Spiele mit Shader 3.0 Nutzung aber ohne wirklichen Vorteil: Einige noch dieses Jahr, in der Mehrzahl 2005
Spiele mit Shader 3.0 Nutzung und greifbarem Vorteil: Einige 2005, darüber hinaus schwer einschätzbar ob da wirklich viel kommen wird.
Spiele mit Shader 3.0 Pflicht: Nicht vor 2005, eher erst 2006. Wenn überhaupt.
 
Zuletzt bearbeitet:

Wintermute

Fleet Admiral
Dabei seit
Feb. 2003
Beiträge
13.084
cenmocacy:
ack. Ist ein Intelligenter Zug von ATI. Sobald die ersten Spiele die 3.0er Shader wirklich ausnutzeb kann man die mitte 2004 gekauften Karten eh in die Tonne treten. Allerdings wird das wieder eine Marketingschlacht ohne Ende. Nvidia wird gnadenlos mit "echter shader 3.0 unterstützung" werben ( logisch, würde wohl jeder in der Situation machen ;) ).
Wird in jedem Fall ein Interessantes Nvidia vs. Ati Gefecht werden und in vielen Foren wieder viel zu lachen geben ( Ati suckt, nvidia Schrott, keine "richtige Gamerkarte", ... ). :D
 

Shagrath

Fleet Admiral
Dabei seit
Mai 2001
Beiträge
16.707
auf diese lästige diskussion läuft es sowieso immer wieder hinaus.
die quakenet #computerbase user kennen das nur zu gut :)

und mit solchen zeitaufstellungen wäre ich äußerst vorsichtig, die entwicklungen in solcher hinsicht sind in den meisten fällen schliesslich unberechenbar .)
 

-WaRRioR-

Banned
Dabei seit
Jan. 2004
Beiträge
497
hm, aber dann verkauft ati wohl kaum viele Grakas, kann mir schon denken die ganzen noobs "aber Ati hat ja nichtmal Pixelshader3.0, will ja Doom3 zocken".... :rolleyes:
 

STEEL

Commander
Dabei seit
Okt. 2003
Beiträge
2.590
Eben!Ob das ein kluger Schachzug ist.Selbst wenn man es noch nicht brauch sollte man mit der Konkurenz gleichziehen.Die Vergangenheit hat auf jeden Fall gezeigt,das selbst "nutzlose" Spezifikationen,wie z.b. eine FX5600 mit 256MB,die Käufer anspricht.So nach dem Motto:"Super ne FX mit 256MB!Die ist bestimmt schneller und besser als ne 9800pro mit nur 128MB."Und so wirds dann auch heisen: "Nvidia hat Shader3.0?Die müssen ja besser sein!"Ob man es nun schon brauch oder nicht,sei dahin gestellt.
Hoffentlich stellt sich mit dieser Entscheidung,keinen Shader3.0 zu unterstützen,ATI nicht selbst ein Bein.
Aber warten wir ab wie sich alles entwickelt!
 

Wintermute

Fleet Admiral
Dabei seit
Feb. 2003
Beiträge
13.084
Vermarktung und logischer Aufbau eines Produktes haben meist wenig miteinander zu tun. Das liegt aber an den Käufern die lieber ein Produkt zum protzen als ein sinnvolles haben wollen ( siehe auch: Auto, Haus, Fernseher, Stereoanlage als gute Beispiele ;) ). Selbst wenn die doppelte RAM-bestückung Nachteile bringt kaufen die leute den Schrott und zahlen das Doppelte. Jedem so wie ers verdient ... :)
Ich kenne sogar jemanden der von einer 9800PRO auf eine 9800XT "aufgerüstet" hat weil man die "besser übertakten kann". Ich hab´ mich da jeglichen Kommentars enthalten und bin lieber ein Bier trinken gegangen. :)
 

aths

Lt. Junior Grade
Dabei seit
Jan. 2003
Beiträge
425
Zitat von Simon:
Diese Specs sind fasch :rolleyes:: Leo hat die Information, wie er sagt, dass von 3.0 nix zu sehen sein wird in der Radeon.

Demirugs Recherchen zufolge ist es wahrscheinlich, dass Pixelshader-mäßig nur ein größerer Instruction Count geboten wird, sonst nichts; offensichtlich nicht mal eine Erweiterung bezüglich der maximalen Ebenen der Abhängigkeiten.
 
Zuletzt bearbeitet:

aths

Lt. Junior Grade
Dabei seit
Jan. 2003
Beiträge
425
Zitat von cenmocay:
Den Käufer interessiert nur eines,wie schnell ist die Graka in aktuellen Games.

Es wird die Graka gekauft die in UT2004 und Farcry richtig abgeht.Shader ist noch nicht wichtig,jetzt erscheinen gerade mal Spiele die DX 8 voraussetzten und außerdem kommt 2005 schon der R500.
Bis dahin reicht shader 2.0 aus,weil keine Spiele es wirklich nutzen werden.

Hier die Gründe warum ATI nicht auf Shader 3.0 springt

1.
Spiele mit Shader 3.0 Nutzung aber ohne wirklichen Vorteil: Einige noch dieses Jahr, in der Mehrzahl 2005
Spiele mit Shader 3.0 Nutzung und greifbarem Vorteil: Einige 2005, darüber hinaus schwer einschätzbar ob da wirklich viel kommen wird.
Spiele mit Shader 3.0 Pflicht: Nicht vor 2005, eher erst 2006. Wenn überhaupt.
Nah.

Für Spieler bringt 3.0 noch nicht den großen Vorteil, das stimmt.

Aber der wahre Grund, dass sie nicht 3.0 anbieten ist, dass ATIs Ressourcen verglichen mit NV begrenzter sind, zumal sie jetzt schon Leute für den Xbox2-Grafikchip abstellen müssen.

Der große Erfolg mit DirectX9 und Pixelshader 2.0 war nur möglich, weil ATI vorher mit Pixelshader 1.4 die Technologieführerschaft klar an sich gerissen hat. Seit CineFX ist NV vorne. Der NV35 brachte dann auch vernünftige Leistung. Mit dem NV40 geht sowohl die Leistung drastisch, und das Featureset noch mal deutlich in die Höhe. ATI schraubt fast nur an der Leistung. Imo ein Zeichen für Unvermögen oder Unwillen, dauerhaft in ganz oben mitzuspielen.

ATIs Nachteil ist jetzt, dass der Support von Pixelshader 3.0 keine große Hürde mehr ist: Der HLSL-Shader wird einfach noch mal mit dem PS_3_0-Profil übersetzt, und schon ist der Support da. Alleine eine Bewerbung mit "Unterstützt Pixelshader 3.0" sorgt doch beim Kunden für Freude, wenn seine HW das auch kann; erst mal egal ob die Effekte damit besser werden oder nicht.

3.0 wird es auch in Mittelklasse- und Einsteiger-HW geben. Das Segment der Einsteiger-HW überlässt ATI – wieder einmal – Nvidia.

NV hat Erfahrung mit CineFX und 3.0. Wer wird jetzt mit weniger Aufwand 4.0 entwickeln können, und wer wird bezüglich der Standards Ton angebend sein? Bei 2.0 war es noch ATI, der 2.0-Standard richtet sich voll nach der R300-Hardware.

Bis 4.0 mit 2.0 auskommen zu wollen, ist riskant. Von den Pixelshader-Features her wird selbst eine 5200 einen R420 wahrscheinlich deutlich übertreffen. ATI richtet sich mit diesem Produkt an das High-End-Segment. Wenn NVs Marketing es schafft, dem Kunden zu erzählen, ohne Pixelshader 3.0 sähe man schon bald nicht mehr alle Effekte, werden sie es wohl schaffen, so manchen abzuschrecken, hunderte Euro für eine Karte auszugeben, die angeblich schon bald veraltet sein wird.

Vermutlich hat ATI vor, sich mit dem R500 lautstark in der technischen Oberliga zurückzumelden. Bis dahin auf echte Fortschritte beim Pixelshader zu verzichten ist aber nicht gerissen, sondern eine risante Aktion, die aufgrund des Ressorucenmangels wohl notwendig war. Vermutlich wird die 3.0-Implementierung im NV40 nur mit halber Kraft laufen und erst im NV50 richtig durchziehen. Vermutlich wusste das ATI auch, und sie wussten ebenfalls, dass ihre 3.0-Version aber noch deutlich langsamer wäre. In jedem 3.0-Benchmark versägt zu werden ist ja auch nicht schön, also versucht man dem Anwender erzählen, dass die Zeit für mehr als 2.0 noch nicht reif sei.

NV hat es geschafft, mit der GF4 Ti vs. Radeon 8500 anzukommen, weil die Karte schneller und die BQ-Features besser waren. ATI versucht das jetzt offenbar auch. Wir haben aber auch gesehen, wie es in Folge (NV30 vs. R300 aussah.)
 
Zuletzt bearbeitet:

STEEL

Commander
Dabei seit
Okt. 2003
Beiträge
2.590
Wenn ich ehrlich bin würde ich mir auch überlegen ob ich mir lieber eine Karte mit Shader3.0 kaufen würde oder eine ohne diesen Support.Auch wenn man es nicht brauch.Vorrausgesetzt Karten beider Hersteller kosten annähernd das gleiche und liegen beide in der Leistung gleichauf.
Wenn z.b. die FX5950 schon Shader 3.0 gehabt hätte und die 9800XT nicht,hätten sich auch vielmehr Leute die FX gekauft als die XT,da sich beide in der leistung fast ebenbürtig sind,die FX aber durch 3.0 mehr Feature bieten würde.
Da muß der R400 schon leistungsmäßig der Überhammer schlechthin werden,damit er viele Kunden anspricht.
 

aths

Lt. Junior Grade
Dabei seit
Jan. 2003
Beiträge
425
Zitat von STEEL:
Wenn ich ehrlich bin würde ich mir auch überlegen ob ich mir lieber eine Karte mit Shader3.0 kaufen würde oder eine ohne diesen Support.Auch wenn man es nicht brauch.Vorrausgesetzt Karten beider Hersteller kosten annähernd das gleiche und liegen beide in der Leistung gleichauf.
Wenn z.b. die FX5950 schon Shader 3.0 gehabt hätte und die 9800XT nicht,hätten sich auch vielmehr Leute die FX gekauft als die XT,da sich beide in der leistung fast ebenbürtig sind,die FX aber durch 3.0 mehr Feature bieten würde.
Die FXen haben bereits durch CineFX vs. Smartshader deutlich mehr Features. Der Abstand vergrößert sich jetzt noch, und das, wo man es als praktisch sicher ansehen kann, dass die PS_2_X-Leistung des NV40 ebenfalls sehr gut sein wird.



Zitat von STEEL:
Da muß der R400 schon leistungsmäßig der Überhammer schlechthin werden,damit er viele Kunden anspricht.
Viele, die mit ATI zufrieden sind, werden wohl relativ fix aufrüsten. Doch mittelfristig könnte der Schein durch Shader 3.0, erst mal egal ob die wirklich "gebraucht" werden, die ATI-HW veraltet und damit wenig attraktiv erscheinen lassen.
 

cenmocay

Banned
Ersteller dieses Themas
Dabei seit
Dez. 2003
Beiträge
737
Ich kann Shader nicht mehr hören :(

Durch Shader 3.0 werden Spiele nicht besser aussehn als mit Shader 2.0.

Schon letztes Jahr haben alle gedacht das der NV30 die ATI locker schlagen wird und der hatte auch die größere Featureliste und was ist draus geworden....Flop

ES zählen nur Benchmarks und die werden kommen.


Wayne interessiert Marketing,ist völlig Wurst was NV für Werbetexte hat.

Die Spieler kaufen die Karte ,die mit AA und AF am besten abgeht und ATI hat dazu noch das bessere AA.

NV ist mit AA stark im Rückstand nicht ATI !
 
Zuletzt bearbeitet:

-WaRRioR-

Banned
Dabei seit
Jan. 2004
Beiträge
497
Zitat von cenmocay:
Wayne interessiert Marketing,ist völlig Wurst was NV für Werbetexte hat.

Die Spieler kaufen die Karte ,die mit AA und AF am besten abgeht und ATI hat dazu noch das bessere AA.

ich denk ma ziehmlich sehr viele kaufen sich ne nvidia wegen der Werbung,.. wenn einem da Versprochen wird "Kinoreife Effekte" oder so dann kauft sich das jemand der sich nicht so gut auskennt. Viele sich nicht auskennenden wissen ja nichtmal das es Ati überhaupt gibt... Einer der sich mit so etwas nicht auskennt weiss wahrscheinlich auch nichtmal was AA und AF überhaupt ist, desshalb kaufen sie einfach die Graka die einem in der Werbung besser erscheint, wie z.B "kinoreife Effekte" eben ;)

.. ich finds fies... :(
 

Leisetreter

Lieutenant
Dabei seit
Sep. 2002
Beiträge
910
Fakt ist, daß ATI durch die fehlende PS3.0 Unterstützung gezwungen ein wirkliches Pfund loszulassen, da sollte NVs Grafikchip in der Leistung gleichauf bzw. geringfügig dahinter liegen der PS3.0 Support durchaus kaufentscheidend werden dürfte.
aths Schlussfolgerung, daß ATI dadurch ins Hintertreffen geraten könnte teile ich nicht. Da kommt Zeit kommt Rat und es wurde schon so oft in irgendwelche Richtungen spekuliert, erstmal abwarten! Im übrigen trifft CineFX nicht umbedingt auf große Akzeptanz in der Programmierwelt oder liege ich da jetzt völlig daneben?
 

cenmocay

Banned
Ersteller dieses Themas
Dabei seit
Dez. 2003
Beiträge
737
Zitat von -WaRRioR-:
ich denk ma ziehmlich sehr viele kaufen sich ne nvidia wegen der Werbung,.. wenn einem da Versprochen wird "Kinoreife Effekte" oder so dann kauft sich das jemand der sich nicht so gut auskennt. Viele sich nicht auskennenden wissen ja nichtmal das es Ati überhaupt gibt... Einer der sich mit so etwas nicht auskennt weiss wahrscheinlich auch nichtmal was AA und AF überhaupt ist, desshalb kaufen sie einfach die Graka die einem in der Werbung besser erscheint, wie z.B "kinoreife Effekte" eben ;)

.. ich finds fies... :(
Hmm jo die Mehrheit hat keine Plan aber die Leute die in der Preisklasse von 300 bis uiuiui kaufen ,denke ich haben wohl alle Ahnung....oder :rolleyes:
 

-WaRRioR-

Banned
Dabei seit
Jan. 2004
Beiträge
497
naja, kenn viele die sich ma eben für das Geld ne Grafikkarte kaufen, wollen ja doom3 zocken und da brauchen sie ja eine mit CineFx engine für Kinoreife effekte... :rolleyes:
 
Top