R400 erst im Frühjahr dafür mit GDDR-3

Re: Re: R400 erst im Frühjahr dafür mit GDDR-3

Original erstellt von GRAKA0815
Original erstellt von DvP
Aber bevor hier alle traurig werden sollte mal erwähnt werden was diese 3 netten Begriffe für uns Graka Freaks eigentlich bedeuten.

GDDR-3:
Soll jetzt schon 800mhz (effektiv 1600mhz) "schaffen" und wenn man den mit 256bit anbindet hat man eine Bandbreite jehnseits von gut und böse (um die 50GB/s).

PCI-Express:
Erlaubt Transferraten von bis zu 16gb/s und bei AGP 8X warens nur 2,1GB. Außerdem werden nun bis 60Watt geliefert statt nur 40. Was aber vermutlich auch nicht reichen wird :p

Pixel Shader 3:
K.A aber sicher geil :rolleyes:
Die Frage ist nur ob das schon DX 10 ist, ich glaube eher nicht!

Die Frage wird sein, was wird es kosten?
PCI Grakas sind heute teurer als die selbe Karte in AGP.
Umkehrschluß, PCI-E werden billiger sein als AGP Karten im nä. Jahr.
Also wieder ein neues MoBo oder die teurere Graka kaufen! ;)


Wird die Leistung auf absehbare Zeit benötigt? Eher nein, oder schreit auch nur ein einziger Spielehersteller nach noch mehr Leistung?

Wäre es nicht besser alles ein klein wenig langsamer anzugehen, dafür den Entwicklern für Spiele, Software etc. überhaupt einmal ZEIT zu geben sich auf neue Features, Techniken etc. vorzubereiten und vorallem auch bereitzustellen!

Ich empfinde es als erschreckend, das nagelneue Spiele auf P3 und DX7 optimiert sind, während wir uns beim P4 schon in der 4. Generation befinden und DX9 Karten und DX9 selbst haben. Noch nicht ein einziges wirkliches DX8 Spiel ist erhältlich. Zwar bauen einige darauf auf und haben das eine oder andere Feature aber wirklich DX8 ist nicht.
 
Re: Re: Re: R400 erst im Frühjahr dafür mit GDDR-3

Sorry, falscher Knopf

:D
 
Mal ehrlich
Ihr glaubt doch nicht wirklich dass eine neue Graka, die PCI-E hat, neuen Speicher hat und überhaupt die schnellste ist nur 500,- kostet?

Das wär n guter Anlass für Ati und Nvidia die nächste Generation von Graka-Preisen einzuläuten, sprich 600 oder auch mehr... (700 wär doch auch ne schöne Zahl)

ciao
televon
 
Original erstellt von DvP

500€ sind auf jeden Fall realistisch, sind ja auch die aktuellen Startpreise von HighEnd Grafikkarten und waren es auch schon immer. Eine GF2 Ultra hat auch ca. 1000DM gekostet.

Hatten wir schonmal ;)
Denkst du eine FX und eine 9800 sind so einfach zu fertigen wie es die GF2 damals war? Sicherlich nicht, außerdem ist viel mehr speicher drauf und feinere Fertigungstechniken. Also warum sollten sie so plötzlich Teurer werden.
 
sicha nicht jeder...nur fanatiker kaufen sich die anfangs teuren grafikkarten, muss nur einge monate warten, dann kosten sie weniger, aba dann steht schon die teure ultra schnelle mit zum teil unnötiger features in den regalen...
 
Schade, schade, sieht so aus als ob der Einsatz von GDDR3 doch nicht so bald über uns hereinbrechen wird wie es schien. Aus einem aktuellen Interview bei http://www.firingsqad.com/ stammt folgendes Zitat von Dave Orton (ATI) zu diesem Thema:

"FiringSquad: There are currently three memory technologies on the table: DDR, DDR-2, and GDDR-3. Is GDDR-3 ready for prime time yet or we see ATI persist with vanilla DDR memory for a while?

Dave: We’ll continue to use a mix of DDR and DDR-2 memory technologies in the immediate future. GDDR-3 is still a ways out, but we are in a position to move forward with the technology as soon as the memory vendors are. We are certainly looking forward."


Leider. Vielleicht versucht ja nVidia diesen Weg schon früher einzuschlagen, aber nachdem misslungenen Experiment "DDR2 in der FX5800 Ultra", glaub ichs fast nicht.
 
gebe es im R400 gddr3, so wäre dies sehr kostspielig gewesen. Auf jedenfall hätte es die 550 eu marke durchgeschlagen, wenn nicht sogar die 600 eu marke. was man hier allerdings nicht vergessen sollte ist, dass eine riesige Bandbreite nichts nutzt, wenn die füllrate diesem nicht entspricht. das heisst, dass auch am Coretakt gedreht werden muss. zwar soll der Fertigungsprozess kleiner werden, aber man bedenke, dass man auch bei 13nm nicht 800Mhz coretakt erreicht. wahrscheinlich bräuchte die Radeon sogar bissl mehr takt, um die Bandbreite mit genug "Stoff" zu versorgen.


mfg BOdy
 
Die nächste Graka kann von mir aus noch viel später kommen welches Game nutzt den z.B. eine 9600 Pro richtig aus ?

Da kann DOOM (FINAL nicht Alpha) oder HL2 kommen vieleicht STALKER aber die werden die Graka unter "normalen [1024*768 4*AA-8*AF]" umständen nicht in die Knie zwingen können.

Die nächste Graka von ATI oder Nvidia ist nur für leute intressant die sich ein komplet neues System kaufen.
 
Original erstellt von BodyLove
was man hier allerdings nicht vergessen sollte ist, dass eine riesige Bandbreite nichts nutzt, wenn die füllrate diesem nicht entspricht. das heisst, dass auch am Coretakt gedreht werden muss. zwar soll der Fertigungsprozess kleiner werden, aber man bedenke, dass man auch bei 13nm nicht 800Mhz coretakt erreicht. wahrscheinlich bräuchte die Radeon sogar bissl mehr takt, um die Bandbreite mit genug "Stoff" zu versorgen.


mfg BOdy

naja, man vermutet ja, dass sie beim R4xx die TMUs ändern - dass sie dann statt billinearen Sampeln trillineare Sampel ausgeben, was schlussendlich in einer doppelten Füllrate resultieren würde (sofern man den Tri-Filter verwendet)...
 
Das steht bei 3Dcenter.de darüber:

Beim japanischen PC Watch (maschinelle englische Übersetzung) hat man ATi´s Präsident David Orton ein wenig über die nach DirectX9 kommenden Technologien und zu anderen Dingen zukünftige Grafikchips betreffend ausgefragt. So scheint es mit dem vermutlich 2005 anstehenden DirectX10 eine weitere Entwicklung der Shader-Fähigkeiten zu geben, scheinbar schlicht Shader 4.0 genannt. Mit diesem sollen die Shader noch freier programmierbarer und einsetzbarer werden, der Unterschied zwischen Vertex und Pixel Shader soll sich dabei zudem stark verkleinert ...

... Auch wenn von Microsoft derzeit noch absolut überhaupt nichts zu DirectX10 zu hören ist, arbeiten beide großen Grafikchip-Entwickler sicherlich schon intensiv an dieser Chip-Generation, welche wohl in Form der Grafikchips ATi R600 (?) und nVidia NV50 in Silizium gegossen werden wird. Dazwischen wird es im kommenden Jahr erst einmal eine "Zwischen-Generation" von Shader 3.0 Grafikchips geben, wobei jene Shader 3.0 bekanntermaßen schon im originalen DirectX9 definiert worden. Zu den Shader 3.0 fähigen Grafikchips zählen die allesamt im nächsten Jahr antretenden Chips ATi R500, nVidia NV40 und XGI XG50 ...

Beim ebenfalls 2004 kommenden ATi´s R420 Grafikchip ist man sich diesbezüglich immer noch unsicher: Zwar ist bekannt, daß sich dahinter prinzipiell gesehen ein R3x0 Chip in 130nm verbirgt, welcher dann mit dieser besseren Fertigungstechnologie (R3x0: 150nm) auf ähnlich hohe (und höhere) Taktraten als die GeForceFX-Chips kommen soll und damit den im gleichen Zeitraum (Frühjahr 2004) antretenden NV40-Chip in erster Line bei der Performance angreifen soll. Es gibt aber eben auch die Gerüchte, nach welchen ATi dem R420 trotzdem Shader 3.0 Fähigkeiten mitgegeben wird, auch wenn diese dann nur eine vergleichsweise langsame Shader 3.0 Performance ergeben würden (bei weiterhin exzellenter Shader 2.0 Performance natürlich) ...

... Der Vorteil dieser Maßnahme wäre jedoch, daß ATi zumindestens rein technisch dem NV40-Chip keinen Feature-Vorteil lassen würde, was ein Marketing-technisch nicht zu unterschätzender Punkt ist. Und so lange sich die Spiele-Programmierer erst noch an die Shader 2.0 herantasten, würde der Nachteil des R420-Chips bei Shader 3.0 Anwendungen nicht zum tragen kommen - so zumindestens könnte die Überlegung seitens ATi aussehen. Wahr oder nicht wahr - zumindestens im späteren Verlauf des Jahres 2004 wird ATi dann sowieso noch mit dem schon vorgenannten R500-Chip noch einen "echten" Shader 3.0 Grafikchip nachschieben.
 
das heisst ja, dass der R420 auch "nur" eine taktsteigerung ist. was mich interessieren würde, wäre, ob man diese Karte kaufen sollte, oder bis zum nächsten Upgrade warten sollte, da diese dann noch perfektionierter wären.
 
Zurück
Oben