Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Der NV3x besitzt nicht die entsprechenden Einheiten für HDR, weswegen er auch kein richtiges HDR darstellen kann. Dies kann bis jetzt nur der NV4x und bald wohl auch der R5x0.
Der NV3x besitzt nicht die entsprechenden Einheiten für HDR, weswegen er auch kein richtiges HDR darstellen kann. Dies kann bis jetzt nur der NV4x und bald wohl auch der R5x0.
Ja, das ist richtig, eigentlich ist es erst ab dann "richtiges" (jaja, immer dieses Wort^^) HDR.
Jedoch sagt man im Volksmund (und auch ansonsten eigentlich überall), dass auch eine 16-bittige Genauigkeit für HDR reicht.
Skeptische Naturen sprechend dann jedoch "nur" von MDR, Medium Dynamic Range.
Der Chip ist ja schon ganz nett
Freu mich auf erste Vergleichstest
Das der DIE wieder so klein ist, hätte ich nicht gedacht..
Wobei... ATI geht mit DIE-Größe und Transistor-Zahl meistens eher sparsam um.
War bis jetzt auch nicht so recht nötig. ATi hat das eigentlich recht schlau gemacht: nVidia die Drecksarbeit bezüglich Akzeptanz bei Spieleentwicklern machen lassen und profitiert nun mit dem R520 und seinen Derivaten selber davon.
dir ist schon klar, das ATI eine Architektur names R400 mit SM3.0 entwickelt hatte, diese jedoch nie auf den Markt gebracht hatte? Diese sollte die R300er Chips ablösen. Doch leider war ATI nicht zufrieden damit und fing von vorne an. Nvidia baute zur der Zeit auch schon am NV40 rum. Ati musste kontern und baute einfach einen R300Chip aus. (Auf 16 pipes und daraus wurde dann R420) siehe die vielen Ähnlichkeiten
Also ich würde nicht sagen, das ATI die "Drecksarbeit" an andere abgibt. Was ich eher lobend finde, das sie wenigstens selber einsehen, wenn sie schlechte Produkte entwickelt haben und diese dann nicht noch Versuchen auf den Markt zu drücken oder noch aufzuschustern mit irgendwelchen Extras (GeforceFX5800ultra und Prescott als Beispiel
hoffen wir mal, dass der Chip genauso abgeht wie der G70. Das mit dem Shader gefällt mir schonmal gut. Soweit ich das weiß, kann man mit dem Shader 3.0 grafikanwendungen verschönern (siehe HDR) oder auch schneller machen (Durch neue Technik weniger Berechnung?).konkurrenz belebt das geschäft. Auch wenn ich eigentlich ein Nvidia "fanboy" bin.
Die geringere DIE-Größe hat aber auch zur Folge, dass die Wärme schlechter abtransportiert werden kann, deshalb bin ich mal auf den Kühlkörper gespannt. Der soll ja nicht umsonst zwei Slots benötigen.
Es wird auch interessant sein, zu sehen, wie hoch sich dann der R520 takten lässt.
Da steht ja auch:
"Vergleicht man diesen mit einem R480, fällt schnell auf, dass sich beide Chips in ihrer Größe nahezu gleichen (der R480 kommt auf eine Die-Größe von 2,88 cm²), der R520 allerdings in 90 nm breiten und der R480 in 130 nm breiten Strukturen gefertigt wird."
Der R520 hat ja auch wesentlich mehr Transistoren.
Das bedeutet dann auch, dass der R520 pro mm² mehr Verlustleistung als der R480 hat und somit wärmer wird.
das kann man auch nicht sagen, denn gleichzeitig sinkt meist die Spannung des Chips mit.
Siehe den Wechsel von Banias zu Dothan bei intel. Trotz doppelten Cache und dem 90nm bleibt der Chip in der Verlustleistung gleich (jetzt schon nicht mehr aufgrund des 533er FSB's)
@cR@zY.EnGi.GeR: Nicht unbedingt ... Wenn sie es schaffen, die Leckströme entsprechend zu reduzieren, dürfte dies kein Problem darstellen, dann passt auch in die Stromvorstellungen von Intel
@cR@zY.EnGi.GeR: Nicht unbedingt ... Wenn sie es schaffen, die Leckströme entsprechend zu reduzieren, dürfte dies kein Problem darstellen, dann passt auch in die Stromvorstellungen von Intel
Das bleibt allerdings noch abzuwarten, denn bisher hatte ATi ja mit Leckströmen zu kämpfen. Und der R480 ist ja schon einigermaßen sparsam.
Wenn ATi mit dem G70 mithalten und auch überholen will, müssen sie den R520 sehr hoch takten, was auch bisher angenommen wird. Und, wie bereits erwähnt, soll der R520 ja über einen 2 Slot-Kühler verfügen, was wiederrum auf eine hohe Verlustleistung hindeutet.
Aber vielleicht bekommt es Ati ja auch hin, Zeit genug hatten sie ja.
1. HDR hat nach wie vor nicht wirklich etwas mit den ShaderModel zu tun. Es lässt sich mit SM3.0 einfacher und schneller umsetzen als mit SM2.0/2.1. Wenn man es genau betrachtet gibt es (noch) keine 100% HDR-unterstützende Karte auf dem Markt. Die ATI-Chips scheiterten an den 8Bit-Farbraum, die Nvidia an der 16Bit-Farbraum. Nötig wären 32Bit. Das lässt sich theoretisch mit jeden Shader-Model umsetzen, nur ist vor allem mit SM3.0 das Programmieren vieler Funktionen (dank Loops & Co) deutlich einfacher geworden, weshalb gerade Spieleentwickler von den Vorzügen profitieren. Irgendwie hat Nvidia mit ihrer Werbung vielen einen richtigen Floh mit SM3.0 ins Ohr gesetzt.
2. Die Größe des G70 mit den R520 zu vergleichen hinkt ja wohl mal wieder gewaltig. G70=110nm / R520=90nm. Ist ja dann klar, dass der G70-Chip bei gleicher Transistorzahl deutlich größer ausfällt. Das heißt aber nicht, dass der R520 nicht auch 24 (oder 32) Pipes an Bord hat.
Zum Thema R520 und PS3.0; Bei Earth 2160 stand nach dem erscheinen des ersten Patches schon in den Releas Notes, dass dieses Update Verbesserungen für ATIs R520 und dessen Support des PS3.0a mit sich bringt. Also wird dieser auch PS3.0 unterstützen, die Frage ist aber, was das a zu bedeuten hat. Dieses Thema wurde aber schon mal im Forum diskutiert.
@Cyrezz
a = advanced.... ATI will ja auch n bisschn trommeln nehm ich an ^^ dann können die sofort behaupten das um welten bessere Shading an Bord zu haben mit dem man sage und schreibe 2 Effekte mehr (die dann nie umgesetzt werden) darstellen kann. Durch diese strategisch perfekt durchgeplante PR-Taktik verkaufen die n paar mehr Karten an irgendwelche High-End Kiddies und pellen sich n Ei drauf wie Hohl die Leute sind...