Kasmopaya schrieb:
Ganz deiner Meinung.
Das wäre ein Traum, bei gesteigerter Performance per Watt müsste Fermi mit großen Abstand die Rücklichter sehen.
Naja also eine schlechtere Performance pro Watt als beim Fermi hinzubekommen wäre ja schon enorm schwierig. Der Fermi zieht unter Last 280 - 310, 320 Watt aus der Steckdose.
Wenn eine mögliche HD 6870 250 Watt ziehen würde, wäre das schon enorm viel. Das würde dann aber bedeuten, dass man die GTX 480 selbst im Vollausbau mit 512 Shadern locker hinter sich lassen würde.
Wenn man bedenkt: Die HD 5870 breitet sich auf ca. 350 mm² aus, ist ca. 10 - 20% langsamer als eine GTX 480, braucht unter Last etwa 200 Watt, wenns hoch kommt.
Da AMD ja vor hat, besonders die DX11 und die Tesselationsleistung zu erhöhen, spekuliere Ich, dass man die Anzahl der Shader nicht stark erhöhen wird. Ich schätze, dass AMD nicht weit über die 400 mm² - Marke gehen wird. Ich denke daher, dass der Cayman in etwa zwischen 2000 und 2500 Shader besitzen wird und etwa 220 - 230 Watt unter Last verbraucht.
Jenachdem, wie die Veränderungen gegenüber der HD 5870 ausfallen, könnte eine Performancesteigerung von 20 - 30% gut möglich sein. In einigen Bereichen wird man wohl auch stärker auf die GTX 480 aufholen. Bei einer Steigerung des Energieverbrauchs um 20%, also etwa 40 Watt wäre dieser Performancesprung absolut vertretbar. Das Performance pro Watt - Verhältnis wäre immer noch viel besser als das der GT100 GPUs von Nvidia.
Es könnte aber auch sein, dass die Performancesteigerung noch höher ausfällt als angenommen. Man weis ja nicht was AMD genau verändert. Wenn man an genau den richtigen Stellen ein paar Einheiten hinzufügt und alles effizienter und sparsamer macht, muss dabei der Verbrauch nicht mal stark ansteigen. Vergleicht man die HD 4870 mit deren Vörgänder, der HD 3870 stieg die Performance auch sehr stark an, trotz geringer Zunahme des Verbrauchs und der Chipfäche, trotz des gleichen Fertigunsverfahrens.
AMD hat die Zügel in der Hand und sicher einige GTX Karten von Nvidia gekauft, um deren Leistung zu testen. Daher wird man diese sicher überbieten wollen, notfalls kann man auch den Takt erhöhen, wenn die Änderungen in der Architektur nicht genug Leistungsplus bringen.
Was mich aber stört ist die Tatsache, dass man den neuen Radeons kein größeres Speicherinterface spendiert. 1 Gb sind einfach zu wenig für eine High-End Karte und die 2 Gb Varianten sind oftmals zu teuer. Da wäre ein 384 Bit oder wenigstens ein 320 Bit Interface schon hilfreich, damit man wenigstens 1280 Mb bzw. 1536 Mb hätte.
Ich frage mich außerdem, ob sich beim Thema Microruckler bei AMD schon was getan hat. Das Problem ist ja spätestens seit der 3870 X2 bekannt. Da sollte man sich doch langsam mal was überlegen, um gegen dieses Problem vorzugehen. Die Leistung der GPUs nimmt zwar stetig zu bei kaum steigenden Anforderungen, aber es kann nicht sein, dass sich dieses Problem weiter durch die Grafikkarten-Generationen hindurchzieht.