News ATis R520 erstmals in natura gesichtet

snaapsnaap schrieb:
meine fx 5900xt beherrscht auch hdr zwar bestimmt net so ganz gut wie die g6/7 serie aber sie kanns!
Der NV3x besitzt nicht die entsprechenden Einheiten für HDR, weswegen er auch kein richtiges HDR darstellen kann. Dies kann bis jetzt nur der NV4x und bald wohl auch der R5x0.
 
Wolfgang schrieb:
Der NV3x besitzt nicht die entsprechenden Einheiten für HDR, weswegen er auch kein richtiges HDR darstellen kann. Dies kann bis jetzt nur der NV4x und bald wohl auch der R5x0.
ob richtiges oder falsches er kann wenigistens sowas wie hdr darstelln und es sieht garnet so schlecht aus!
 
@ Wolfgang: Laut dem oben weiter verlinkten Wiki Artikel zu HDR ist sogar eine 32bit Farbgenauigkeit pro Farbkanal für HDR nötig.
 
100%WOLVERINE schrieb:
@ Wolfgang: Laut dem oben weiter verlinkten Wiki Artikel zu HDR ist sogar eine 32bit Farbgenauigkeit pro Farbkanal für HDR nötig.
Ja, das ist richtig, eigentlich ist es erst ab dann "richtiges" (jaja, immer dieses Wort^^) HDR.
Jedoch sagt man im Volksmund (und auch ansonsten eigentlich überall), dass auch eine 16-bittige Genauigkeit für HDR reicht.

Skeptische Naturen sprechend dann jedoch "nur" von MDR, Medium Dynamic Range.
 
Der Chip ist ja schon ganz nett :D
Freu mich auf erste Vergleichstest :)
Das der DIE wieder so klein ist, hätte ich nicht gedacht..
Wobei... ATI geht mit DIE-Größe und Transistor-Zahl meistens eher sparsam um.
 
Christoph schrieb:
War bis jetzt auch nicht so recht nötig. ATi hat das eigentlich recht schlau gemacht: nVidia die Drecksarbeit bezüglich Akzeptanz bei Spieleentwicklern machen lassen und profitiert nun mit dem R520 und seinen Derivaten selber davon.

dir ist schon klar, das ATI eine Architektur names R400 mit SM3.0 entwickelt hatte, diese jedoch nie auf den Markt gebracht hatte? Diese sollte die R300er Chips ablösen. Doch leider war ATI nicht zufrieden damit und fing von vorne an. Nvidia baute zur der Zeit auch schon am NV40 rum. Ati musste kontern und baute einfach einen R300Chip aus. (Auf 16 pipes und daraus wurde dann R420) siehe die vielen Ähnlichkeiten

Also ich würde nicht sagen, das ATI die "Drecksarbeit" an andere abgibt. Was ich eher lobend finde, das sie wenigstens selber einsehen, wenn sie schlechte Produkte entwickelt haben und diese dann nicht noch Versuchen auf den Markt zu drücken oder noch aufzuschustern mit irgendwelchen Extras (GeforceFX5800ultra und Prescott als Beispiel
 
Dass sie das vorsätzlich so gemacht haben, habe ich ja auch nicht behauptet. ATi hat vielmehr postwendend aus der Not eine Tugend gemacht.
 
hoffen wir mal, dass der Chip genauso abgeht wie der G70. Das mit dem Shader gefällt mir schonmal gut. Soweit ich das weiß, kann man mit dem Shader 3.0 grafikanwendungen verschönern (siehe HDR) oder auch schneller machen (Durch neue Technik weniger Berechnung?).konkurrenz belebt das geschäft. Auch wenn ich eigentlich ein Nvidia "fanboy" bin.
 
Hoffentlich hält der r520, eas er verspricht, und nVidia muss ne Ultra nachschieben
(...die ich mir dann kauf:D )


GreetZ
 
Die geringere DIE-Größe hat aber auch zur Folge, dass die Wärme schlechter abtransportiert werden kann, deshalb bin ich mal auf den Kühlkörper gespannt. Der soll ja nicht umsonst zwei Slots benötigen.
Es wird auch interessant sein, zu sehen, wie hoch sich dann der R520 takten lässt.
 
Auf dem Foto sieht aber die DIE gleichgroß aus zur alten R480GPU (X850) - wirklich kleiner ist sie doch nicht?
 
crux2003 schrieb:
Auf dem Foto sieht aber die DIE gleichgroß aus zur alten R480GPU (X850) - wirklich kleiner ist sie doch nicht?
Da steht ja auch:
"Vergleicht man diesen mit einem R480, fällt schnell auf, dass sich beide Chips in ihrer Größe nahezu gleichen (der R480 kommt auf eine Die-Größe von 2,88 cm²), der R520 allerdings in 90 nm breiten und der R480 in 130 nm breiten Strukturen gefertigt wird." :)

Der R520 hat ja auch wesentlich mehr Transistoren. ;)

Das bedeutet dann auch, dass der R520 pro mm² mehr Verlustleistung als der R480 hat und somit wärmer wird.
 
Zuletzt bearbeitet:
das kann man auch nicht sagen, denn gleichzeitig sinkt meist die Spannung des Chips mit.
Siehe den Wechsel von Banias zu Dothan bei intel. Trotz doppelten Cache und dem 90nm bleibt der Chip in der Verlustleistung gleich (jetzt schon nicht mehr aufgrund des 533er FSB's)

und sonderlich wärmer wurden die Chips auch nicht
 
@cR@zY.EnGi.GeR: Nicht unbedingt ... Wenn sie es schaffen, die Leckströme entsprechend zu reduzieren, dürfte dies kein Problem darstellen, dann passt auch in die Stromvorstellungen von Intel :D
 
TSHM schrieb:
@cR@zY.EnGi.GeR: Nicht unbedingt ... Wenn sie es schaffen, die Leckströme entsprechend zu reduzieren, dürfte dies kein Problem darstellen, dann passt auch in die Stromvorstellungen von Intel :D
Das bleibt allerdings noch abzuwarten, denn bisher hatte ATi ja mit Leckströmen zu kämpfen. Und der R480 ist ja schon einigermaßen sparsam.
Wenn ATi mit dem G70 mithalten und auch überholen will, müssen sie den R520 sehr hoch takten, was auch bisher angenommen wird. Und, wie bereits erwähnt, soll der R520 ja über einen 2 Slot-Kühler verfügen, was wiederrum auf eine hohe Verlustleistung hindeutet.

Aber vielleicht bekommt es Ati ja auch hin, Zeit genug hatten sie ja. ;)
 
1. HDR hat nach wie vor nicht wirklich etwas mit den ShaderModel zu tun. Es lässt sich mit SM3.0 einfacher und schneller umsetzen als mit SM2.0/2.1. Wenn man es genau betrachtet gibt es (noch) keine 100% HDR-unterstützende Karte auf dem Markt. Die ATI-Chips scheiterten an den 8Bit-Farbraum, die Nvidia an der 16Bit-Farbraum. Nötig wären 32Bit. Das lässt sich theoretisch mit jeden Shader-Model umsetzen, nur ist vor allem mit SM3.0 das Programmieren vieler Funktionen (dank Loops & Co) deutlich einfacher geworden, weshalb gerade Spieleentwickler von den Vorzügen profitieren. Irgendwie hat Nvidia mit ihrer Werbung vielen einen richtigen Floh mit SM3.0 ins Ohr gesetzt.

2. Die Größe des G70 mit den R520 zu vergleichen hinkt ja wohl mal wieder gewaltig. G70=110nm / R520=90nm. Ist ja dann klar, dass der G70-Chip bei gleicher Transistorzahl deutlich größer ausfällt. Das heißt aber nicht, dass der R520 nicht auch 24 (oder 32) Pipes an Bord hat.
 
Zum Thema R520 und PS3.0; Bei Earth 2160 stand nach dem erscheinen des ersten Patches schon in den Releas Notes, dass dieses Update Verbesserungen für ATIs R520 und dessen Support des PS3.0a mit sich bringt. Also wird dieser auch PS3.0 unterstützen, die Frage ist aber, was das a zu bedeuten hat. Dieses Thema wurde aber schon mal im Forum diskutiert.
 
Zuletzt bearbeitet:
@Cyrezz
a = advanced.... ATI will ja auch n bisschn trommeln nehm ich an ^^ dann können die sofort behaupten das um welten bessere Shading an Bord zu haben mit dem man sage und schreibe 2 Effekte mehr (die dann nie umgesetzt werden) darstellen kann. Durch diese strategisch perfekt durchgeplante PR-Taktik verkaufen die n paar mehr Karten an irgendwelche High-End Kiddies und pellen sich n Ei drauf wie Hohl die Leute sind...
 
Zurück
Oben