Test AMD Radeon R9 290X im Test

@ Thanok
Wie soll denn ein 512bit SI kleiner sein als eins mit 384bit? Das sind 2 64bit Controller mehr, die werden ja wohl kaum einen negativen Platzbedarf haben.
Durch neues Design konnte Fläche eingespart werden! Steht auch im Text des Tests!
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-r9-290x-test.2263/seite-2
Das Speicherinterface ist auf Hawaii ein gutes Stück angewachsen. Ganze acht 64-Bit-Controller sind verbaut, sodass das Speicherinterface eine Breite von 512 Bit aufweist. Die Controller selbst hat AMD im Vergleich zu Tahiti stark überarbeitet, sodass das 512 Bit Interface 20 Prozent weniger Die-Fläche benötigt als die 384-Bit-Variante von Tahiti.
 
Thanok schrieb:
Wie soll denn ein 512bit SI kleiner sein als eins mit 384bit? Das sind 2 64bit Controller mehr, die werden ja wohl kaum einen negativen Platzbedarf haben.

Die Info, dass das 512Bit-SI von Hawaii kleiner ist als das 384Bit von Tahiti, kommt direkt von AMD. Ich neige dazu, denen dass erstmal zu glauben, bis irgendein anderer, glaubwürdiger Insider es mit Fakten widerlegen kann.

Überhaupt wurde bei Hawaii ja in vieler Hinsicht gezaubert. Die Transistorendichte ist insgesamt wesentlich höher als bei Tahiti oder GK110.

Keine Ahnung, wie genau das erreicht wurde. Vielleicht z.B. eine optimierte Anordnung der Funktionseinheiten, so dass weniger Platz für Signalleistungen, Stromersorgung usw. draufgeht. Oder es wurden gezielt andere, platzsparendere Transistoren-Varianten verwendet. (Es gibt ja Unterschiedliche Typen für hohe und niedrige Frequenzen, dann gibt es sicher auch unterschiedliche Größen) usw.

GPU-Design dürfte eine der komplexesten technischen Herausforderungen unserer Zeit sein. Da werden ganze Großstädte inklusive Straßen- und U-Bahnnetzt, Strom- und Wasserversorgung usw. in mikroskopischer Miniaturisierung auf Silicium gezaubert und am Ende funktioniert alles derartig perfekt, dass jedes der vielen Milliarden Elektronen, die diese "Stadt bevölkern", zur richtigen Zeit die richtigen Wegen geht und seinen Platz findet...
Ich verneige mich vor den Menschen, die sowas hinbekommen, was auch die einschließt, die die automatisierten Tools und Prozesse entwickeln, die solche technischen Wunder erst möglich machen.
 
Wenn es jetzt noch 2 Leute erklären verstehe ich es auch ;)
Trotzdem behaupte ich jetzt mal dass auch mit besser gepacktem SI ein 384er kleiner wäre. Aber gut, kleiner als bei Tahiti ist ja schonmal eine Ansage. Und 33% "breiter" noch dazu ist nochmal besser.
 
Thanok schrieb:
Trotzdem behaupte ich jetzt mal dass auch mit besser gepacktem SI ein 384er kleiner wäre.
Klar sind 3 Reifen weniger als 4 Reifen bzw. 6x64Bit sind geringer als 8x64Bit.

Wenn du wissen willst, wie viel Diefläche 384Bit @ Thaiti ausmacht, dann brauchst ja nur die Fläche bei einem Die-Shot rausmessen/rechnen.
Und da komme ich eben auf so 75mm².
Die Einsparung mittels neuen 384Bit-SI statt 512Bit-SI wäre ja nur so bei rund 15-17mm², was nur 3,5% des Hawaii-Dies ausmacht.
Wenn man annimmt, dass 1 Speicherchip 100mm² hat, dann wäre das bei einem R9 290X mit 16 Speicherstücks schon 1.600mm².
1.600mm² ist viel und da könnte man sich auch einiges Einsparen, wenn man einfach billigere Produkte nimmt.

Man darf ja nicht vergessen, dass der 512Bit-SI sowieso schon eine 20% kleinere Diegröße hat und dieses schon Produktions-Vorteile (kleinere Die & besserer Yield) gegenüber der Konkurrenz bringt. Zusätzlich kann man einfach billigere Massen-Speicherchips verwenden.
 
Wobei ich nicht unbedingt pauschal sagen würde dass ein kleinerer Die automatisch auch weniger kosten muss.
Bei gleicher Fertigung ist das sicherlich so (z.B. GK106 und GK104 wobei ersterer ja nur ein GK104 ist der direkt beschnitten wurde), aber ich kann mir durchaus vorstellen dass es schwieriger und somit auch teurer ist eine hohe Packdichte zu erreichen - was sich sicherlich in den Waferkosten widerspiegeln wird. Allerdings habe ich keine Ahnung ob das nun 0,1 oder 100% sind. Wahrscheinlich irgendwas dazwischen.

Der Speicher ist im Vergleich dazu sicherlich wesentlich billiger, wobei ich eben die Preisdifferenz zwischen 5Ghz, 6Ghz und 7Ghz Chips nicht kenne. AMD hat aber bei der 290X die Sparoption nicht wahrgenommen. Man lässt den Speicher zwar auf 5Ghz laufen, die Chips an sich sind jedoch für 6Ghz spezifiziert; daher wohl auch die gute Übertaktbarkeit des Speichers.

Die Gründe für den Konservativen Takt haben wir ja bereits erläutert, sicherlich hätte man sich bei AMD ohne ein 512bit SI auch für anderen Speicher entschieden.

Was mich persönlich nicht wundern würde wäre es wenn die erste 20nm High-End Generation in beiden Lagern auf ein 512bit SI setzt. DDR4 wird ja noch ein wenig brauchen und je nach Releasezeitpunkt sicherlich auch exorbitant teuer. Der DDR4 basierte GDDR6 Speicher dürfte da wohl kaum anders ein. Da nun GDDR5 so langsam am Ende ist, die Bandbreite aber bei steigender Rohleistung (und steigenden Auflösungen) ebenfalls steigen sollte wird wohl kaum ein Weg an einem breiteren SI + GDDR5 vorbei führen.
Entsprechend würde es mich nicht wundern wenn die ersten 20nm Chips mit 512bit SI und 6Ghz oder gar 7Ghz Speichertakt ankommen. Aber, wie bisher üblich bei einem deart breitem Interface, die Refreshes dürften dann wohl mit Hilfe von GDDR6 wieder mit einem schmaleren SI auskommen. 512bit waren in der Vergangenheit immer nur kurzweilige Erscheinungen und ich sehe bisher keinen Grund weshalb es dieses mal anders kommen sollte.

Bei der 290X sieht man ja wieder einmal schön was das SI im Alleingang leisten kann und vor allem auch den Einfluss der Bandbreite auf die GraKa Leistung. Das wird wohl auch der Grund sein weshalb die 290X weniger Leistungseinbrüche bei hohen Auflösungen hat.
 
Thanok schrieb:
Wobei ich nicht unbedingt pauschal sagen würde dass ein kleinerer Die automatisch auch weniger kosten muss.
Natürlich,
wenn der packdichtere kleinere SI Schlussendlich mehr kostet (Yields & Co), dann hätten sie es wohl kaum umgesetzt. Dazu ist ja auch noch die Effizienz deutlich gestiegen. Hawaii als GCN 2.0 kam ja mit 21 Monate statt 2 Jarhes-Rythmus nach GCN 1.0 ja ziemlich früh und es gab offensichtlich keine Probleme. Für eine 512Bit-SI-Karte ist sie somit ziemlich Problemlos am Markt gekommen, was garnicht so üblich ist.

AMD hat aber bei der 290X die Sparoption nicht wahrgenommen. Man lässt den Speicher zwar auf 5Ghz laufen, die Chips an sich sind jedoch für 6Ghz spezifiziert; daher wohl auch die gute Übertaktbarkeit des Speichers.
Vielleicht steigt eben der Preis ab 6 Ghz relevant an (sie hätte ja so 7 oder 7,5 Ghz benötigt), während man aufgrund der Energie-Effizienz aus 5 Ghz reduzierte. Meistens gehts auch nicht nur um den Preis, sondern manchmal auch um die Stück-Verfügbarkeit.

Entsprechend würde es mich nicht wundern wenn die ersten 20nm Chips mit 512bit SI und 6Ghz oder gar 7Ghz Speichertakt ankommen.
Bei einem GM104 könnte ich mir auch 384Bit-SI @ 7,0 Ghz (GTX 770 hat ja 256BIt-SI @ 7,0 Ghz) vorstellen. Plus +50% wäre ja da schon ziemlich in Ordnung. Und mit 8 GHz-Chips wäre es dann +71%.
Hingegen könnte AMD mit einem 512SI-Desgin herkommen, ohne großartig Die-Größen-Probleme zu bekommen.

Wen man es vom alten GK104 vs Thaiti Vergleich aus betrachtet, dann würde der GM104 eben +128Bit-SI und somit +25mm² mehr benötigen, während der Hawaii-Nachfolger würde dann trotzdem 512BIt-SI so 10-15mm² weniger Die-Fläche benötigen.
Dabei kam ja schon der GK104 1 Quartal nach Thaiti.
Dazu sind die GCN-Treiber von Anfang an gut.
Und gerade bei hohen Auflösungen könnten die 512BIT-SI vs 384Bit-SI dann zum ziemlichen Vorteil werden.

Wie ich schon sagte.
Die neue 512BIt-SI mit geringer Fläche könnte AMD ziemliche Vorteile bringen, sofern Nvidia nicht schon längst flächeneffiziente SI hat oder bei Maxwell bekommen wird.
 
AMD kann ja noch keine Ankündigung für OpenCL 2.0 machen, weil OpenCL 2.0 eben nicht offiziell draußen ist, sondern nur in Provisional OpenCL 2.0 Sepcs. Daher kann man ich doch keinen Vorwurf machen, oder doch?

AMD ist ein Teil von Khronos und gehört sogar zu einem der größeren Unternehmen in dem Konsortium. Da können sie auch Druck machen und dafür sorgen, dass die ganze Sache schneller von statten geht damit sie wiederum mehr Features in ihre Hardware einbauen können. Scheitert das jedoch, so können sie immer noch ihre Features per Extensions in OpenCL einbauen oder ihre eigene GPGPU-API erstellen. In allen Fällen hätten ihre GPUs mehr Features und wären konkurrenzfähiger. Da AMD es trotz Chancen nicht schafft mit CUDA gleichzuziehen, braucht es sich nicht wundern, wenn seine potentiellen Kunden mit den Geldbeutel abstimmen und zur konkurrenz greifen.


Bis jetzt ist AMD mit OpenCL 1.0 & OpenCL 1.1 & OpenCL 1.2 ja noch jede Version mitgegangen.
Warum sollten sie OpenCL 2.0 nicht machen? und somit deren eventuelle zukünftige Hardwarefeatures ansprechen?
Wenn die Hardware es nicht unterstützt, dann können sie es in diesem speziellen Fall nicht machen. Demnach halte ich es riskant auf eine solche GPU zu setzen und zu hoffen, dass das Feature *irgendwann* und frühstens in mehreren Monaten noch implementiert wird. Hier ist ebenfalls NVIDIA vorbildlicher, da es die CUDA-SDKs meist am Release und wenn nicht eins bis zwei Wochen später zur Verfügung stellt.


AMD hat seit fast 1 Jahr kein neues APP rausgebracht, was sie früher in Quartals-Rhythmus rausbrachten.
Und APU-13 steht mit < 2Wochen auch kurz vor der Türe.
Es gab nie Releases im Quartals-Rhythmus:
http://developer.amd.com/tools-and-...rocessing-app-sdk/downloads/download-archive/


Aktuell kann eben den Nachteil haben, dass es am nächsten Werktag wieder anders aussieht.
Gerade im diesem Thread meinten ja einige, dass die R290X so 570 Euro kosten. Am Montag (also 1 (oder 2) Werktag(e) später) gabs dann eine R290X um <500 Euro lieferbar und schon sah die Welt wieder völlig anders aus.

Aktuell ist schön und gut, aber es sollte doch im Rahmen passen. Sonst kann man da schnell ein verzerrtes Bild bringen.

Wenn ich jetzt ein GPGPU-Projekt machen will oder muss, bei welchem ich mir extra Hardware anschaffe, dann warte ich nicht mehrere Wochen bis Monate, ob sich vielleicht doch eventuell etwas am Markt und an der Hardware ändern wird, weil der Zeitverlust den eventuellen Gewinn (oder Verlust) nicht aufwiegt. Gerade bei der Radeon 5870 war ja sogar das gegenteilige der Fall. Denn diese sind nach Release teuerer geworden.


Des Weiteren wäre ich bei der Optimierung des Speicherinterfaces wie überall ein bisschen vorsichtig mit den Marketing Aussagen. Denn eine so starke Platzoptimierung, welche man sich ohne (Performance)-Nachteile erkauft, scheint mir unwahrscheinlich. So hat ein Speicher-Interface nämlich durchaus noch andere Qualitäten als Platzverbrauch und Breite, wie zB. den maximalen Takt und welchen Anteil der theoretischen Speicherbandbreite es überhaupt ausnutzen kann. So können beispielhaft die Speicher-Interfaces der NVIDIA-GPUs bei den meisten Speicherzugriffsmustern nur 70 bis 80 Prozent der theoretischen Speicherbandbreite ausnutzen. Es wäre interessant zu benchmarken, wie sich das bei dem neuen AMD-Interface verhält.
 
Nai schrieb:
AMD ist ein Teil von Khronos und gehört sogar zu einem der größeren Unternehmen in dem Konsortium. Da können sie auch Druck machen und dafür sorgen, dass die ganze Sache schneller von statten geht damit sie wiederum mehr Features in ihre Hardware einbauen können.
Gibt es dazu auch Hinweise oder ist es nur deine Vermutung, dass AMD bei OpenCL wesentlich mehr tun könnte.
Schließlich ist ja nicht jede Technologie gleich aufwendig und OpenCL bzw. HSA-Kaveri ist ja der eigentliche Grund, warum AMD ATI gekauft hat. Jetzt (bzw. die letzten 12-18 Monate) in der OpenCL-Entwicklung die Priorität auf GPGPU statt HSA zu legen, wäre ja unlogisch.

Scheitert das jedoch, so können sie immer noch ihre Features per Extensions in OpenCL einbauen oder ihre eigene GPGPU-API erstellen. In allen Fällen hätten ihre GPUs mehr Features und wären konkurrenzfähiger. Da AMD es trotz Chancen nicht schafft mit CUDA gleichzuziehen, braucht es sich nicht wundern, wenn seine potentiellen Kunden mit den Geldbeutel abstimmen und zur konkurrenz greifen.
Da sind wir wieder beim Punkt, wo wir letztens aufhörten.
AMDs Marktanteile sind eh schon am steigen.
Und ich sehe es sogar besser, wenn AMD den Quadro-Markt & Larrabee-Workstation-Markt mit einer zweiten Technologie a la HSA-APU-Firepro angreift, anstatt primär mit FirePro-GPU hinterherzulaufen, auch wenn es dann nur ein geringerer Abstand ist.
Dass AMD den ganzen Abstand kombiniert mit einer neuen Technologie-Einführung (HSA) gleichzeitig umsetzen kann, sollte doch irgendwie klar sein, weil AMD seine Prioritäten irgendwo setzen muss.


Wenn die Hardware es nicht unterstützt, dann können sie es in diesem speziellen Fall nicht machen. Demnach halte ich es riskant auf eine solche GPU zu setzen und zu hoffen, dass das Feature *irgendwann* und frühstens in mehreren Monaten noch implementiert wird. Hier ist ebenfalls NVIDIA vorbildlicher, da es die CUDA-SDKs meist am Release und wenn nicht eins bis zwei Wochen später zur Verfügung stellt.
Du sagst es selber.
Wenn Nvidia die SDKs erst am Release rausgeben kann, dann kann man es AMD nicht vorwerfen, wenn sie die SDKs nicht schon früher rauswerfen & ankündigen.

Grundsätzlich gebe ich dir recht, dass man die aktuelle Technologie bzw. Hardware aktuelle bewerten muss.
Aber es kann schon ein verzerrtes Bild geben, wenn man solche Diskussionen führt, bevor der eine Konkurrent kurz vor der Technologie & Hardware-Einführung steht. Wobei in diesem falls sogar der Eine Konkurrent mit HSA eine Neue Ära beginnt, wo es gleich am Anfang auch richtiges Software-Werkzeug gibt, was bei Llano & APU damals bei weitem nicht so fortgeschritten war.

Stimmt,
die haben später offensichtlich auf einen 6 Monats-Rhythmus umgestellt.
2.1 bis 2.5 war noch im Quartals-Rhythmus.
http://img709.imageshack.us/img709/1278/roadmap.jpg
http://news.softpedia.com/news/Download-AMD-Fusion-APU-Enhanced-APP-SDK-v2-3-181006.shtml
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1302180504
http://www.planet3dnow.de/vbulletin...rocessing-(APP)-SDK-2-5-wurde-veroeffentlicht

Jetzt bleibt die Frage, ob sie vielleicht sogar auf einen Jahres-Rhythmus umgestellt haben, oder wegen HSA-OpenCL 2.0 eben wegen dem großen Technologie-Sprung "eine übersprungen" haben.

Des Weiteren wäre ich bei der Optimierung des Speicherinterfaces wie überall ein bisschen vorsichtig mit den Marketing Aussagen. Denn eine so starke Platzoptimierung, welche man sich ohne (Performance)-Nachteile erkauft, scheint mir unwahrscheinlich. So hat ein Speicher-Interface nämlich durchaus noch andere Qualitäten als Platzverbrauch und Breite, wie zB. den maximalen Takt und welchen Anteil der theoretischen Speicherbandbreite es überhaupt ausnutzen kann.
Sollte man nicht immer vorsichtig mit Marketing-Aussagen sein?
Am Schluss muss ja ein kleinerer 512Bit-SI deutliche Vorteile gegenüber dem 384BIt-SI haben, weil man den kleineren 512BIT-SI sonst kaum entwickeln würde.

Wegen hUMA & HSA ist der Speicher-Controller sowieso weiterentwickelt worden. Es würde mich nicht wundern, wenn aus dieser Entwicklung einfach diese neuentwickelten Speicher-Controller aus der APU-Entwicklung verwendet wurden. Vielleicht eben diese Speicher-Controller, die man schon in der PS4 verbaut hat.
Verwunderlich ist diese Speicher-Controller Entwicklung nicht, weil der hUMA ja die wichtigsten Technologie in der APU-Entwicklung ist, die denn die APU zum APU-HSA macht.
 
Zuletzt bearbeitet:
Thanok schrieb:
Bisher war ein 512bit SI immer nur eine kurzzeitige Lösung bis neue Speicherchips verfügbar waren - so wohl auch in diesem Fall.
Das Problem ist, dass keine schnellere Speicherchips am Horizont zu sehen sind. Beide Hersteller bieten momentan nur 7 Gbps GDDR5 an. Hab bisher auch noch keine Ankündigungen gesehen die schnellers in Aussicht stellen. Die nächsten Highendchips sehe ich bei beiden Herstellern mit nem 512 bit SI und je nach Ausbaustufe ziemlich hohen Speichertakt. In 20nm wird man ordentlich mehr Rechenleistung realisieren können. Da wird schon ordentlich Speicherdurchsatz erforderlich sein.
 
bensen schrieb:
Das Problem ist, dass keine schnellere Speicherchips am Horizont zu sehen sind. Beide Hersteller bieten momentan nur 7 Gbps GDDR5 an. Hab bisher auch noch keine Ankündigungen gesehen die schnellers in Aussicht stellen. Die nächsten Highendchips sehe ich bei beiden Herstellern mit nem 512 bit SI und je nach Ausbaustufe ziemlich hohen Speichertakt.

Nichts anderes habe ich geschrieben ;)
Thanok schrieb:
Entsprechend würde es mich nicht wundern wenn die ersten 20nm Chips mit 512bit SI und 6Ghz oder gar 7Ghz Speichertakt ankommen. Aber, wie bisher üblich bei einem derart breitem Interface, die Refreshes dürften dann wohl mit Hilfe von GDDR6 wieder mit einem schmaleren SI auskommen.
 
Nur sollte man bedenken, dass es nächstes Jahr wahrscheinlich kein >500mm² @ Games (siehe @ 28nm) von Nvidia geben wird sondern nur einen GM104. Und diesem würde einem 384BIt-SI @ 6,0 Ghz schon reichen und einem 7 Ghz erst recht.

Wobei es schon die Gerüchte gibt, dass Nvidia eben den GM110 neu aufgesetzt hat, weshalb man eben schon Alternativen zum alten Gx104 & Gx110 Schema ausdenken kann.
So wie ich es 2010/2011 für viel Wahrscheinlicher hielt, dass @ 28nm die GK100 wesentlich später nach GK104 kommt (aufgrund der immer stärkeren 500mm²-Die-Probleme), so halte ich es diesesmal für möglich, dass @ 20nm einen Game-Only-Big-Die macht, wobei es nicht unbedingt 500mm² sein müssen, sonder eben 350-450mm². Dann wäre eben ein 512Bit-SI @ 2014 auch für Nvidia möglich.
 
warum ist bei "Splinter Cell: Blacklist - 1.920 × 1.080 4xMSAA/16xAF" die gtx 670 so überragend ?
 
Thanok schrieb:
Nichts anderes habe ich geschrieben ;)
Der Post ist mit wohl durch die Lappen gegangen. ;)

Allerdings sehe ich GDDR6, oder was auch immer (HMC?), noch später, so dass ich die 512 bit nicht als Übergangslösung bezeichnen würde. Da wird vielleicht bevor 16nm vor der Tür steht kein neuer Speicher kommen.
 
Ulukay schrieb:
Hier ein schoener Crossfire vs SLI Test

Der Test hat 0 Realitätsbezug. Offener Teststand, so ist die ganze Geschichte mit dem Temperaturtarget ausgehebelt. Und 2 von den Dingern im geschlossenen Gehäuse glühen richtig gut zusammen! Bei uns beeinflußt das sogar das CPU-Overclocking, weil die Karte schon allein massive Wärme abstahlt. Folglich bleiben die Taktraten jeweils unter 700 MHz und die Performance bricht massiv ein. Sorry, aber so ist der Test völlig unbrauchbar, außer dein PC steht daheim auf nem Benchtable am offenen Fenster und du hast noch nen Headset auf.
 
bensen schrieb:
Allerdings sehe ich GDDR6, oder was auch immer (HMC?), noch später, so dass ich die 512 bit nicht als Übergangslösung bezeichnen würde.

GDDR6 ist soweit ich weiß auf DDR4 Basis und soll 2014 auf den Markt geschmissen werden - genauso wie DDR4. Wenn die ersten 20nm Karten kommen wird es sicherlich schon GDDR6 geben nur würde es mich da eben nicht wundern wenn sowohl AMD als auch NV aufgrund der hohen Kosten lieber den Umweg über ein breiteres SI gehen. Beim ersten 20nm Refresh, der wohl erst 2015 kommen wird, dürften die Preise aber schon in humaneren Regionen sein. Man muss ja auch nicht gleich den schnellsten GDDR4 nehmen damit es sich lohnt. Beim Sprung von der 285 zur 480 wurde zum Beispiel "bloß" 4Ghz Speicher verwendet (und die Bandbreite trotz kleinerem SI gesteigert), mittlerweile sind wir bei 7Ghz angekommen.
 
Bisher hat man einfach erstaunlich wenig drüber gehört über einen Speicher der 2014 kommen soll. Weder irgendwelche Samples noch angepeilte Taktraten. Muss natürlich nichts heißen, vll. bin ich da auch einfach nur blind. Aber ich sehe da noch große Fragezeichen.
 
Bisher hat man einfach erstaunlich wenig drüber gehört über einen Speicher der 2014 kommen soll.
gab doch hier neulich einen eher dünnen Bericht über ein lauffähiges System von Samsung mit DDR4.
https://www.computerbase.de/news/arbeitsspeicher/samsung-zeigt-haswell-ep-system-mit-ddr4-ram.42444/

edit:
hier ist auch noch eine News:
http://www.golem.de/news/arbeitsspeicher-samsungs-ddr4-produktion-ist-angelaufen-1308-101299.html

edit:
ah sorry, hatte ich überlesen......
.....gibt aber reichlich News über GDDR6 wenn man mal googelt......ohne es jetzt alles gelesen zu haben!
 
Zuletzt bearbeitet:
Es geht um GDDR6 und nicht um DDR4.
DDR4 werden wir wohl 2015 auf Mainstream/Lowcost Grafikkarten finden. Aber das ist wieder ein anderes Thema.
 
Zuletzt bearbeitet:
Zurück
Oben