Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

"Die Radeon R9 Fury soll im Juli, die Radeon R9 Nano „später im Sommer“ folgen."

Wurden die Releasetermine inzwischen etwas präzisiert?
 
Für Fury wurden bisher wohl der 14.07. und 17.07. gehandelt... sichere Angaben habe ich aber bisher noch nicht gelesen...
Genauso wie beim "Omega2" Treiber ja der 7.7. im Raum steht. Allerdings bisher alles wohl eher Glaskugel-Angaben.
 
Cool Master schrieb:
Mal ein Vorschlag an alle mit den Benchmarks:

Bitte Tabellen benutzen! Dafür sind die da und die erleichtern die Lesbarkeit extrem!

Und evtl. in einen
z.B.

980 Ti
R9FX
packen.
 
Hier die Ergebnisse mit einer R9 290 bei einem Speichertakt von 1.40GHz (Open CL)

SiSoftware Sandra

Benchmarkresultate
Latenzzeit Speicher : 232.1ns
Base 10 Ergebnis Multiplikatoren : 1s = 1000ms, 1ms = 1000µs, 1µs = 1000ns, usw.
Gschwindigkeitsfaktor : 2.10
Ergebnisse : Geringere Werte sind besser.

Gegenüberstellung Leistung und Energieverbrauch
Geräteleistung : 250.000W
Latenzzeit Speicher : 0.93ns/W
Ergebnisse : Geringere Werte sind besser.

Gegenüberstellung Kapazität zu Leistung
Speicherkapazität : 16.38MB/W
Ergebnisse : Höhere Werte sind besser.

Gegenüberstellung Leistung und Geschwindigkeit
Latenzzeit Speicher : 0.04ns/MHz
Ergebnisse : Geringere Werte sind besser.

Benchmarkabbruch
2kB Bereich : 110.0ns / 113.0clocks
4kB Bereich : 110.0ns / 113.0clocks
8kB Bereich : 105.9ns / 109.0clocks
16kB Bereich : 110.1ns / 113.0clocks
32kB Bereich : 150.7ns / 155.0clocks
64kB Bereich : 175.0ns / 180.0clocks
128kB Bereich : 182.4ns / 188.0clocks
256kB Bereich : 185.9ns / 191.0clocks
512kB Bereich : 192.6ns / 198.0clocks
1MB Bereich : 200.4ns / 206.0clocks
2MB Bereich : 232.1ns / 239.0clocks
4MB Bereich : 232.1ns / 239.0clocks
8MB Bereich : 224.8ns / 232.0clocks
16MB Bereich : 230.9ns / 238.0clocks
32MB Bereich : 230.9ns / 238.0clocks
64MB Bereich : 226.0ns / 233.0clocks
Schnittstelle : OpenCL

Leistungsteststatus
Ergebnis-ID : AMD Radeon R9 200 Series (2560SP 40C 1GHz/947MHz 8% OC, 4GB DDR5 5.6GHz 512-bit) (OpenCL)
System : ASUS P8Z68 DELUXE
Kompatibel mit Plattform : x64
Gesamtspeicher : 128MB
Systemtakt : 1GHz

Grafikprozessor
Modell : AMD Radeon R9 200 Series
Schnittstellenversion : 2.00
Treiberversion : 1642.05
Kerne pro Prozessor : 1 Einheit(en)
Geschwindigkeit Shader : 1GHz
Übertaktungsfaktor : 8%
Spitzenprozessorleistung (PPP) : 5.27TFLOPS
Eingestellte Spitzenleistung (APP) : 4.75WT
Gesamtspeicher : 4GB
Speicherbusgeschwindigkeit : 1.4GHz
OEM Hardware Nr. : VEN_1002 DEV_67B1 REV_00
SiSoftware Sandra

Benchmarkresultate
Gesamtspeicherleistung : 37.33GB/s
Bandbreite interner Speicher : 224GB/s
Bandbreite Datentransfer : 6.22GB/s
Ergebnisse : Höhere Werte sind besser.
Base 2 Ergebnis Multiplikatoren : 1GB(/s) = 1024MB(/s), 1MB(/s) = 1024kB(/s), 1kB(/s) = 1024 bytes(/s), usw.

Benchmark Timings
Zum Kopieren benötigte Zeit : 17.86ms
Zum Lesen benötigte Zeit : 644.13ms
Zum Schreiben benötigte Zeit : 642ms
Ergebnisse : Geringere Werte sind besser.

Leistung pro Thread
Gesamtspeicherleistung : 955MB/s
Bandbreite interner Speicher : 5.6GB/s
Threadanzahl : 40
Ergebnisse : Höhere Werte sind besser.
Base 2 Ergebnis Multiplikatoren : 1GB(/s) = 1024MB(/s), 1MB(/s) = 1024kB(/s), 1kB(/s) = 1024 bytes(/s), usw.

Gegenüberstellung Leistung und Energieverbrauch
Geräteleistung : 250.000W
Gesamtspeicherleistung : 152.88MB/s/W
Bandbreite interner Speicher : 917.47MB/s/W
Bandbreite Datentransfer : 25.48MB/s/W
Ergebnisse : Höhere Werte sind besser.

Gegenüberstellung Kapazität zu Leistung
Speicherkapazität : 16.38MB/W
Ergebnisse : Höhere Werte sind besser.

Gegenüberstellung Leistung und Geschwindigkeit
Gesamtspeicherleistung : 6.83MB/s/MHz
Bandbreite interner Speicher : 40.96MB/s/MHz
Bandbreite Datentransfer : 1.14MB/s/MHz
Ergebnisse : Höhere Werte sind besser.

Benchmarkabbruch
Bandbreite interner Speicher : 224GB/s
Bandbreiteneffizienz : 64.00%
Bandbreite System zu Gerät : 6.23GB/s
Bandbreiteneffizienz : 79.75%
Bandbreite Gerät zu System : 6.21GB/s
Bandbreiteneffizienz : 79.49%
Schnittstelle : OpenCL
Ergebnisse : Höhere Werte sind besser.

Leistungsteststatus
Ergebnis-ID : AMD Radeon R9 200 Series (2560SP 40C 1GHz/947MHz 8% OC, 4GB DDR5 5.6GHz 512-bit) (OpenCL)
System : ASUS P8Z68 DELUXE
Kompatibel mit Plattform : x64
Gesamtspeicher : 4GB
Vom Test verwendeter Speicher : 682.67MB
Threadanzahl : 1
Systemtakt : 3.32MHz

Grafikprozessor
Modell : AMD Radeon R9 200 Series
Schnittstellenversion : 2.00
Treiberversion : 1642.05
Kerne pro Prozessor : 1 Einheit(en)
Geschwindigkeit Shader : 1GHz
Übertaktungsfaktor : 8%
Spitzenprozessorleistung (PPP) : 5.27TFLOPS
Eingestellte Spitzenleistung (APP) : 4.75WT
Gesamtspeicher : 4GB
Speicherbusgeschwindigkeit : 1.4GHz
OEM Hardware Nr. : VEN_1002 DEV_67B1 REV_00
bd0.png
 
Es wäre schön, wenn die selbsternannten Experten hier :) :) :) einen eigenen Threat mit den ganzen Ergebnissen aufmachen könnten, damit das ganze ein bisschen übersichtlicher wird!

Und bitte dann auch noch die Ergebnisse gegenüberstellen und interpretieren, denn ich selber kann vielleicht mit 50% der Daten etwas anfangen...

Das wäre sehr schön. Danke!
 
nospherato schrieb:
Genauso wie beim "Omega2" Treiber ja der 7.7. im Raum steht. Allerdings bisher alles wohl eher Glaskugel-Angaben.

Welche Spekulationsquelle hast Du denn dafür angezapft? Ich hoffe, dass das kein Win10-only Treiber wird :rolleyes: Und im Extremfall gar nur für die 300er Serie.
 
Faust2011 schrieb:
Und im Extremfall gar nur für die 300er Serie.

Wenn das wirklich so herausstellen sollte, dann hab ich keine Grafikkarten mehr zu kaufen. Nvidia meide ich so gut es geht und wenn ich auch AMD hinterfragen müsste (ich bin noch zu optimistisch um das nicht zu tun, was sich eben dann ändern könnte), dann bliebe mir nichts mehr übrig.
Intel ist erst recht für mich gestorben.

Tja. Dann könnte ich ein neues Hobby suchen. Warum nicht.

Oder vielleicht mit ARM Hardware spielen. :D
 
Faust2011 schrieb:
Welche Spekulationsquelle hast Du denn dafür angezapft? Ich hoffe, dass das kein Win10-only Treiber wird :rolleyes: Und im Extremfall gar nur für die 300er Serie.

Hab grad versucht nochmal die Quelle zu finden, leider bisher erfolglos... Muss mal schauen, evtl. find ich es nochmal :D
 
tic-tac-toe-x-o schrieb:
Wenn das wirklich so herausstellen sollte, dann hab ich keine Grafikkarten mehr zu kaufen

Keine Sorge, das war nur etwas provokativ von mir spekuliert. Es gibt keine Grundlage dafür. Als Besitzer eines R9 290 Crossfire Setups ärgert es mich einfach, dass der Omega-v2 Treiber so lange auf sich warten lässt :(
 
GUN2504 schrieb:
Es wäre schön, wenn die selbsternannten Experten hier :) :) :) einen eigenen Threat mit den ganzen Ergebnissen aufmachen könnten, damit das ganze ein bisschen übersichtlicher wird!

Und bitte dann auch noch die Ergebnisse gegenüberstellen und interpretieren, denn ich selber kann vielleicht mit 50% der Daten etwas anfangen...

Das wäre sehr schön. Danke!

prinzipiell reicht es schon an Benchmarks. Interessant waren die ja eher auf Hinblick auf HBM.
 
Hab jetzt von AiOs nicht sonderlich viel Ahnung, aber würde es denn was bringen auf das Pumpengehäuse nen Kühlblock anzubringen? Bzw. am Deckel, und diesen dann mit den Pumpengehäuse verbinden. Hatte da am Nachmittag ein paar Ideen wie man das bisschen modden könnte.
 
Für Omega v2 können wir als Referenz die Zeit von Ankündigung bis Erscheinen von Omega v1 heranziehen. Dann wäre Mitte Juli ziemlich flott.

Mal schaun was dann für die 290 (X) übrig bleibt.

MfG tb
 
Ich gehe davon aus, dass spätestens Ende Juli zusammen mit dem Release von Win10 auch ein neuer (mit vielen Features ausgestatteter) Treiber von AMD kommt.
 
Würde ja passen. Dann bleibt nur zu hoffen, dass das neben Win10 nicht untergeht.
Und ich komm bis Ende Juli nur wenig zum zocken, deswegen passt das schon :D

MfG tb
 
Ich muß sagen das mich die neue AMD Radeon Fury X doch gleich in mehreren Hinsichten enttäuscht hat.

Ich habe eigendlich im Voraus mit mindestens 8Gb HBM Speicher gerechnet, 8192 MB/s breitem Speicherinterface, voller DX 12 Unterstützung aller DX 12 Unterstufen, einer Ausstattung mit modernsten Anschlüßen wie Display Port 1.3 und HDMI 2.0 und einer Leistungsfähigkeit von mindestens 15-20%+ zur Nvidia GTX Titan X.

Dafür hätte ich dann sogar auch gerne 1.000,00 Euro gezahlt anstatt den nun veranlagten 699,00 Euro.

Und was kam am Ende dabei raus:Eine angebliche High End Grafikkarte mit mikrigen 4Gb VRAM, welche zwar leistungstechnisch an die Nvidia GTX Titan X / 980 Ti rankommt, aber welche schon bei einem heutigen PC AAA Game (Mordors Schatten) in Bedrängnis kommt mit dem VRAM und sich noch dazu nahezu kein bisschen übertakten lässt, trotz großer Lobesparaden der AMD Führung auf die angeblich überagenden Übertaktungsfähigkeiten.

Und wenn die schon heute bei einem grafisch noch nicht einmal so überagenden Spiel wie Mordors Schatten Probleme bekommt mit den geringen 4Gb VRAM, wie wird das dann erst in weniger als einem Jahr aussehen, wenn die wirklichen Next Generation Games wie The Devision, Doom 4, ein neuer Assasins Creed Teil und die Cryengine 3 Ultra Grafik Knüller wie Star Citizen und Kingdom Come Deliverance erscheinen ...

Da hat AMD schon gute 9 Monate Entwicklungszeit mehr für Ihren Fiji High End Chip, als Nvidia mit ihren GM200 und kündigt vollmundig die absolut schnellste Grafikkarte der Welt für Gamer an und am Ende liefert man ein Produkt aus, welches sich wirklich kein bisschen von der Nvidia Konkurenz absetzen kann und schon heute von der Austattung stark an seine Grenzen stößt in der angestrebten Zielgruppe des 4K Gamings.

Noch nicht einmal der Verkaufspreis ist niedriger bei einer Radeon Fury X im Gegensatz zu einer GTX 980 Ti Custom, welche mit 6Gb VRAM, DX12.1 und HDMI 2.0 sogar eine leicht bessere Ausstattung bietet und Dank sehr guter Übertaktungsfähigkeiten auch nochmal deutlich schneller ist um bis zu 20%.

So nicht AMD !. Ich wollte die AMD Radeon Fury X eigendlich kaufen, wenn Sie genau nach meinen Vorstellungen entwickelt geworden wäre wie in Gerüchten vermutet, aber das am Ende gelieferte Endergebnis überzeugt mich einfach nicht.

So werde ich am Ende dann wohl doch zu einer Custom GTX 980 Ti greifen von EVGA oder Inno 3D oder mir gleich zwei Sapphire Radeon R9 290x Tri-X OC 8Gb für nahezu das selbe Geld kaufen, welche ein deutlich besseres Ergebniss liefern und meine Erwartungen erfüllen.

Das einzige alleinstellige Merkmal der Radeon Fury X im Gegensatz zur Nvidia Konkurenz ist die extrem kompakte Größe und die sehr leise AIO Wasserkühlung.
Damit wird AMD sicherlich große Erfolge bei den Besitzern von kompakten Gaming Wohnzimmer PC's im Micro ATX und Mini ITX Format haben, weil Sie in diesem Bereich konkurenzlos sind mit den R9 Fury Modellen und gerade auch den einen oder anderen Großkunden gewinnen könnten für den Einsatz in leistungsstarken kompakten Steam Machines.

Aber eine sehr wichtige Frage hätte ich dann doch noch an die Computerbase Redaktion und die ersten Nutzer einer Radeon Fury X:

HBM ist ja eine komplett neue Speichertechnologie, welche sich deutlich von GDDR5 unterscheidet. Daher kam ein Gerücht auf das wenn man gleich zwei oder mehr Radeon Fury X im Crossfire Multi GPU Verbund nutzt, man die 4Gb HBM Speicher jeder einzelnen Radeon Fury X addieren könnte im Multi GPU Verbund und so dann gleich 8, 12 oder 16 Gb HBM Speicher im Verbund voll nutzen kann ohne Einschränkungen bei Crossfire X Systemen im Gegensatz zu GDDR 5 Grafikkarten, wo im Multi GPU Verbund der VRAM jeder Grafikkarte mit den identischen Daten gefüllt sein muß.?


Stimmt das ?

Wenn ja dann können sich ja Crossfire X Nutzer der Radeon Fury X entspannt zurücklehnen, was die 4Gb VRAM betrifft.

Ansonsten wie gewohnt ein wirklich ausgezeichneter Test der Computerbase Redaktion, der wirklich bis ins kleinste Detail alle Fragen auflöst bis auf die Frage mit der Speichernutzung in Multi GPU Crossfire X Systemen und allgemeinen Performance- und Effizienz Tests bei Crossfire X.
Aber dafür könnt ihr ja wirklich nichts, wenn es aufgrund von technischen Problemen bei eurem Testsystem nicht möglich war die Radeon Fury X im Crossfire Verbund vernünftig zum laufen zu bringen.

Vielen Dank nochmal für den wirklich ausgezeichneten Test.
 
Zuletzt bearbeitet:
Das mit dem Vram addieren hat nichts mit HBM zu tun. Die Fähigkeit hierzu bringt DX12 mit dem SFR Rendermodus. Wie sich das dann entwickelt muss sich wohl erst nocht zeigen, da dass dann für jedes Spiel selbst vom Entwickler integriert werden muss.
Ebenfalls gibt es einige Dateien im Vram, welche dennoch bei jeder GPU gleich vorhanden sein müssen. Ergo könnts sein, dass dann 4GB+4GB vllt nur in 6GB resultieren.

Ist halt nur meine Laienhafte Auffassung, kann gerne korrigiert werden.
 
Nein, das stimmt so nicht. Unter DX12 erhalten die Entwickler mehr Möglichkeiten auf die Speichernutzung Einfluss zu nehmen, wodurch es dann in DX 12 Spielen möglich ist, dass nicht alles in beiden Speichern eines Crossfire- oder SLI-Gespanns vorliegen muss. So würde man, wenn sich der Entwickler eines Spiels Mühe gibt, Speicher gewinnen, allerdings noch keine Verdopplung erreichen. Das hat erstmal nichts mit HBM zu tun.

Edit: Da war jemand schneller.
 
Zuletzt bearbeitet: (Hab den Link vergessen :P)
Das hat mit HBM nichts zu tun, das nennt sich SFR und soll mit Dx12 eher eingesetzt werden können. Bei Nvidia wie auch AMD. Vram verdoppelt sich dadurch keinesfalls. Schau einfach was zB full HD an VRam braucht und wieviel 4k. Der Unterschied ist bei weitem nicht 4x so viel sondern vielleicht 25%-50% mehr. Bei 4k und 2 Grafikkarten müsste jede davon 1920x2160 berechnen.
Der Unterschied von dem zu 3840x2160 ist also nicht Faktor 2 sondern vllt 15-30% was du an VRam gegenüber AFR (heute üblich) gewinnst. Stells dir ganz einfach vor. AFR rendert mal die eine ein Bild, mal die andere, in vollen 4k. Ergo braucht jede den ganzen Bildinhalt und damit VRAM redundant dasselbe in beiden Karten.
Bei SFR wird ein Bild halbiert und jeweils von einer GPU berechnet. Ergo halbe Auflösung pro Karte und etwa als weniger VRam Bedarf pro Karte.
 
Zuletzt bearbeitet:
Zurück
Oben