humanTE1 schrieb:
Haha, es ist so geil wie alle den Text nicht kapieren
Das mit der Effizienz bezieht sich nicht(!) auf den Energieverbrauch, sondern auf die Architektur. Vielleicht ist schon mal jemandem aufgefallen, dass die aktuellen AMD Karten theoretisch eine höhere Rohleistung an den Tag legen als die nVidias (5D vs. 1D Shader, DP Leistung, etc.), in der Praxis den Leistungsvergleich aber klar verlieren. Und das liegt eben an der Architektur, die AMD seit Einführung der Unified Shader bis heute in der HD5000er Serie, im großen und ganzen betrachtet wenig verändert, nutzt. Nähere technische Details würden jetzt wohl den Rahmen sprengen, aber Fakt ist, dass diese Architektur nicht zu unrecht häufiger mal als recht ineffizient bezeichnet wird. Genau das will AMD jetzt wohl ändern und in der nächsten neuen Architektur einen ähnlichen Weg wie nVidia gehen.
Das steht
"nicht primär ein breiteres Design sein sollen, sondern stattdessen mehr auf die Effizienz geachtet wird, um so die Leistung zu erhöhen."
Die Effizienz der Einheiten (Performance-pro-mm² und/oder Performance-pro-Watt-&-mm²)zu erhöhen bringt Nvidia in eine noch schwierigere Lage, als sie mit Fermi eh jetzt schon sind.
Es hört sich irgendwie so für mich an.
Die Performance-Steigerung kommt in allgemeinen durch die Einheiten-Effizienz-Steigerung.
No na ned, immerhin wird das Fronted & Co vom North-Island verwendet.
Die Die wird etwas breiter, aber das nur bzw. hauptsächlich durch mehr Tesselation-Einheiten.
Mittlerweile ist Fermi sogar etwas Einheiten-Ineffizienter wie die R6x0-Architektur.
(230 Watt @ Spiele und 305 Watt @ Furmark )
North-Island bringt AFAIK gegenüber South-Island "nur" bessere Shader.
Mal sehen, ob überhaupt South-Island dann mehr Strom braucht.
Die Einheiten-Effizienz zu erhöhen, würde, um sagen wir mal 10%, nicht so viel Strom verursachen, als die Takt 10% zu erhöhen bzw. mehr Einheiten zuzufügen.
Einzig die zusätzlichen Tesselation-Einheiten könnten zu Stromverbrauch-Steigerungen führen.
Ob es real zutrifft, ist eine andere Frage.
Denn die 40nm-Fertigung war im Herbst 2009 nicht Effizienz und mit der verbesserten 40nm-Fertigung könnte der Mehrstromverbrauch eben kompensiert werden.
So wie es Nvidia mit Fermi-512 (GF100b) versucht, obwohl das GF100a eine nicht so alte 40nm-Fertigung hatte wie RV870.