Test AMD Radeon R9 290X im Test

GDDR6 ist aber DDR4 basiert, genauso wie GDDR5 auf Basis von DDR3 funktioniert. Entsprechend wird mit der Einführung von DDR4 auch GDDR6 seinen Weg finden. Soweit ich weiß sollen 2014 sogar schon die ersten GDDR6 GraKas auf den Markt kommen.
 
Ist doch egal worauf es basiert. GDDR6 wird sich wie die Grafikspeicher vorher stark vom DDR4 unterschieden und wird seine eigene Entwicklung brauchen. Wasserstandsmeldungen von DDR4 helfen da nicht weiter um den Start von GDDR6 vorher zu sagen.
Helfen würden Aussagen von Hynix oder Samsung.
 
So egal ist das gar nicht, denn nur wenn die Basis auch verfügbar ist kann auch die Abwandlung vernünftig verfügbar gemacht werden.
Ein kurzer Bericht dazu: http://vr-zone.com/articles/gddr6-memory-coming-in-2014/16359.html
Ich glaube da aber wie gesagt weniger an die Next-Gen der GraKas (höchstens irgendeine Testkarte) sondern eher den ersten Refresh Ende 2014/H1 2015.
 
Thanok schrieb:
Wie soll denn ein 512bit SI kleiner sein als eins mit 384bit?
Easy: Du senkst die maximale Taktrate, für die du das Speicherinterface auslegst. Und genau das hat AMD wohl gemacht. Dazu noch einige andere Optimierungen.
Das ganze ist nicht so easy wie du dir vorstellst. Nicht nur die Breite kostet Fläche (und Strom), auch die Frequenz vom Interface kostet Fläche (und auch wohl ordentlich Strom).

Das ist das, was auch AMD gesagt hat...
Ergänzung ()

Thanok schrieb:
Trotzdem behaupte ich jetzt mal dass auch mit besser gepacktem SI ein 384er kleiner wäre. Aber gut, kleiner als bei Tahiti ist ja schonmal eine Ansage. Und 33% "breiter" noch dazu ist nochmal besser.
Richtig, nur wäre es auch entsprechend lahmer. Und das macht bei einem deutlich breiteren Chip nun mal überhaupt keinen Sinn, ein Speicher Interface zu implementieren, das langsamer ist als beim Vorgänger, obwohl der Chip breiter ist, oder?!
Daher ist man halt auf 512bit gegangen, da man so etwas Die Fläche sparen konnte und Takt durch Breite ersetzt hat. Denn für höheren Takt brauchts höhere Leistung (und somit höhere Ströme), das bedingt wieder fettere Treiber. Ein Rattenschwanz.
Wenn man jetzt auf den Takt scheißt und auf Breite geht, kann man die kleiner machen, so dass man mehr beim gleichen Platz unter bekommt.
 
Volker schrieb:
Der Test hat 0 Realitätsbezug. .....Sorry, aber so ist der Test völlig unbrauchbar, außer dein PC steht daheim auf nem Benchtable am offenen Fenster und du hast noch nen Headset auf.

Warum 0 Realitätsbezug und unbrauchbar? Der Test zeigt das für was HardOCP seit jeher steht, sie zeigen, was mit der Hardware möglich ist. Sicher ist ein offener Aufbau für den HeimPC nicht unbedingt optimal, aber hey sogar dafür gibt es inzwischen Designer Gehäuse wie das Lian Li Spider oder eben das AeroCool Strike-X Air. Das Problem, dass die Karten sich in einem geschlossenen Gehäuse anders verhalten als wenn sie genug Frischluft zur Verfügung haben ist ja jetzt auch nicht wirklich neu und ist denjenigen die das Maximum aus ihren Maschinen heraus holen wollen, durchaus bekannt, weswegen der Großteil eben dieses Personenkreises, die Karten wenn dann unter Wasser betreiben wird. Und eben dieser Personenkreis ist dankbar für solch einen Test da er Dinge aufzeigt welche bei den normalen 08/15 Tests unter den Tisch fallen.

Wer sich dagegen nicht eingehender mit der Materie beschäftigt und der Meinung ist, er kann sich ein SLI System auf ein Billig Board in einem Billiggehäuse klatschen und erhält dann die Werte wie sie z.B. HardOCP im Test veröffentlicht, dessen Nase wird schmerzhaften Kontakt mit dem Fußboden machen.

Und egal wie man es sieht, die Dinge welche im Fazit genannt werden sind für beide Seiten interessant, zum einen für den AMD Crossfire Interessierten zum anderen für den Nvidia SLI Interessenten, da HardOCP alles aufzählt was während des Tests aufgefallen ist, wo es Probleme gab und wo es recht gut gelaufen ist.

Völlig Unbrauchbar sieht bei mir anders aus ;)
 
Thanok schrieb:
So egal ist das gar nicht, denn nur wenn die Basis auch verfügbar ist kann auch die Abwandlung vernünftig verfügbar gemacht werden.
Der Umkehrschluss geht aber nicht. DDR4 ist ja schon zig mal in die Kamera gehalten worden, da startet die Massenproduktion.
GDDR5 wurde 1 Jahr nachdem erstmals DDR3 mit dem Core2 zusammen verkauft wurde auf eine Grafikkarte verbaut. Und DDR3 war da schon länger Marktreif.
Und den VR-Zone Artikel kenn ich, nur ist der recht inhaltslos.

Fazit: Man weiss rein gar nichts über die Verfügbarkeit von GDDR6 in 2014.
 
Stefan Payne schrieb:
Easy: Du senkst die maximale Taktrate, für die du das Speicherinterface auslegst. Und genau das hat AMD wohl gemacht. Dazu noch einige andere Optimierungen.
Ich glaube noch nicht mal dass das SI auf Hawaii für geringere Taktraten ausgelegt ist. AMD würde wohl kaum 6Ghz Chips verbauen wenn das SI nur 5Ghz verwenden kann.
Aber dass sie es kleiner bekommen haben weiß ich mittlerweile auch, ich habe da einiges durcheinandergeworfen und auch überlesen.

@bensen: Genau deswegen bleibe ich bei meiner Theorie mit den ersten 20nm Karten@512bit. Bis der erste Refresh kommt ist es 2015, da sieht das ganze dann auch wieder anders aus. Dass die 20nm Chips noch Q1 2014 kommen, hält mittlerweile jeder für unwahrscheinlich bis unmöglich.
 
Thanok schrieb:
Ich glaube noch nicht mal dass das SI auf Hawaii für geringere Taktraten ausgelegt ist. AMD würde wohl kaum 6Ghz Chips verbauen wenn das SI nur 5Ghz verwenden kann.
Aber dass sie es kleiner bekommen haben weiß ich mittlerweile auch, ich habe da einiges durcheinandergeworfen und auch überlesen.
Die 6Gbps Chips kann man (theoretisch) in einem low Power Modus mit 1,35V Spannung laufen lassen...

Schau dir mal die Specs zu den Chips an...
 
AMD betreibt diese ja auch nur mit 5Ghz, aber ich denke die würden keine 6Ghz Chips verbauen wenn es nicht auch möglich wäre die zu nutzen. Reine 5Ghz Chips sind sicherlich billiger, wenn auch nur ein wenig.
 
So schlecht lässt Sie sich garnicht übertakten :evillol:

R290x bei 1,45V: 1250/1625 (@Accelero Hybrid) IMAG0018.jpg
 

Anhänge

  • r290x.jpg
    r290x.jpg
    423,3 KB · Aufrufe: 852
Zuletzt bearbeitet:
1,45V!?:freak:
Wenn ich bedenke dass das meine alte 32nm CPU schon gegrillt hätte... Allein schon eine Spannungserhöhung um 0,2V ist schon ziemlich krass.
 
War ja nur zu Testzwecken, dauerhaft lass ich die sicher nicht mit der Spannung laufen. (Verbraucht ca.400+Watt mit den Werten:evillol:)
 
Hi

naja die Volt zahl grillt den Chip nicht ... die frage ist ja immer wie Leistung die er dafür zieht und das äußert sich dann erst mal in Wärme.
Es gab beim einigen Chips auch welche die mit hoher Spannung besser liefen wie mit kleiner.
Das Ergebnis lässt sich doch sicher noch Fine tunen ;)

lg
 
Zuletzt bearbeitet:
Naja, dennoch hast das Problem der Isolationsschicht. Wenn du die Spannung zu hoch ansetzt, hast Spannungsdurchschläge und Ströme fließen, wo sie es besser nicht sollten. Und das killt dann den Chip relativ schnell.
 
Was mir beim benchen noch aufgefallen ist, eine Erhöhung des Speichertaktes von 1500Mhz auf 1625Mhz brachte 0% Mehrleistung, selbst in hohen Auflösungen wie 2560 x 1440.
 
@pyro91

Liegt daran weil der Speichertakt erstmal dafür da ist Daten in den Speicher zu bekommen. Und ob du nun 150 GB/s oder 180 GB/s hast spielt eher weniger eine Rolle. Hier kommt es aber stark auf das SPiel an.
 
AMD fehlt ja nur noch PhysX, dann sind sie wirklich fast perfekt. Wer eine Standard Karte gekauft, macht sich ja eh keine Freude!
 
Zurück
Oben