Test Radeon 300 im Test: Alle AMD-Grafikkarten von R7 360 bis R9 390X im Vergleich

1. Wenn die Radeon 200er Serie noch mit alten Treibern getestet wurde, bzw überhaupt nicht neu getestet wurde, warum wird diese überhaupt in die Benchmark-Diagramme aufgenommen?

2. Manche Benchmarks ergeben überhaupt keinen Sinn. Mittelerde, R7 370 29fps, R9 380 25fps.

3. FC4 schmeckt den GCN Karten normalerweise sehr gut, hier aber nicht und generell sehr niedrige FPS. Anscheinend mit allen Gameworks Effekten getestet...

4. Was haben Early Access Spiele hier zu suchen? Ist Assetto Corsa das neue Project Cars? Wo eine 980 OC 30% schneller ist als 390X, bzw wo eine 980 OC sogar in 1440p schneller ist als die Fury X...

5. Generell ein paar sehr Nvidia-freundliche Gameworks Titel , die das Gesamtrating deutlich beeinflussen. Z.B. COD AW 980 32% schneller als 390X, selbst in 1440p ist eine 980 OC 27% schneller als die Fury X! 980Ti absurde 37% schneller :freak: Watch Dogs und Risen 3 sind auch toll, da ist eine 980ti ohne OC 21% schneller als die Fury X, und diese wiederum praktisch gleich schnell wie 390X. Überhaupt, warum eigentlich so viele Nvidia gesponserte Spiele? Warum kein Crysis 3 statt Risen 3? Warum kein Dying Light statt Watch Dogs, warum kein BF4 statt COD?
Die Leistungsratings von CB snd deshalb nach wie vor nicht wirklich brauchbar.

6. Die beiden hier getesteten Fury's fehlen in den Lautstärke/Temperaturdiagrammen. Bei der Leistungsaufnahme sind sie aber wieder dabei. Nur wurde anscheinend die Sapphire Fury als Referenz genommen. Es gibt jedoch kein Referenzdesign von der Radeon Fury, warum die Karte also nicht gleich richtig angeben? Denn wir haben ja schon gesehen, dass die Asus Version deutlich weniger Energie benötigt.
 
Warum die AMD Karten mehr Strom fressen lässt sich übrigens hieran ganz gut erkennen.
https://www.computerbase.de/2015-08...karten-von-r7-360-bis-r9-390x-im-vergleich/5/

Nvidia hat die für vernünftige Double Precision bzw. GPU Computing Leistung notwendigen Bauteile nämlich einfach weggelassen bzw. drastisch reduziert, wohingegen AMD welche verbaut hat.
In Spielen braucht man das ganze Zeug allerdings nicht, von daher schneidet Nvidia da gut ab und ist effizienter.

@Poster über mir:
Guter Einwand, vor allem in Bezug auf Gameworks.
Bei zukünftigen Tests sollte man alle Herstellerspezifischen Features wie Gameworks / Mantle deaktivieren und wenn diese nicht deaktivierbar sind, das Spiel nicht für vergleichende Tests nehmen, da das ganze sonst doch stark verfälscht wird.

@Computerbase
Was auchnoch schön wäre wenn Computerbase mal die Gesamtkosten der Grafikkarten vergleichen würde, auf die gesamte Lebenszeit der Hardware gerechnet bevor diese getauscht wird.
Aktuell kostet eine Kilowattstunde Strom in Deutschland im Durchschnitt ungefähr 29 Cent.
Die Nutzungszeit einer Grafikkarte dürfte so ungefähr bei 2-3 Jahren liegen.
Kauft man z.b. eine Grafikkarte für 300,- € wäre es für viele sicher interessant zu wissen, wieviel Grafikkarte + Stromverbrauch nach 2-3 Jahren insgesamt gekostet haben.
Das würde vielen sicher bei der Entscheidung helfen, ob man eine günstige Karte die etwas mehr Strom verbraucht (AMD) oder ob man eine teurere Karte die etwas weniger Strom verbraucht (Nvidia) kaufen soll.
Weiss man z.b., dass Karte A 300,- € kostet und nochmal 40,- € pro Jahr an Stromkosten verursacht und Karte B 340,- € kostet und pro Jahr 20,- € an Stromkosten verursacht, dann lohnt sich von den Gesamtkosten her Karte A wenn man die nach spätestens 2 Jahren austauscht.
Nutzt man die Karte hingegen länger als zwei Jahre, dann lohnt sich Karte B mehr.
 
Zuletzt bearbeitet:
@Zeedy,

da muss ich zustimmen. Einige Titel sind extrem fragwürdig, allen voran CoD:AW. Das game ist keine Grafikbombe und scheint ein grundlegendes Problem mit AMD Titeln zu haben, hinzukommt das CoD auf dem PC nicht beliebt ist. Dieser und einige andere Titel ziehen AMD unnötig runter. CB hat deutlich andere Titel in ihren Benchmarks, als andere Seiten welche untereinander ähnliche/gleiche Spiele haben.
 
Auch wenn es dieser Umstand AMD quasi unmöglich macht, logisch zu erklären, warum vier Gigabyte auf der Radeon R9 Fury und der Radeon R9 Fury X im Umkehrschluss während des gesamten Prodsuktlebenszyklus' ausreichen werden
womöglich dass bei diesen eine neuere Speichertechnologie zum Einsatz Kommt!!!
Die AMD Radeon™ R9 Fury X Grafikkarte ist die weltweit erste Komplettlösungs-GPU mit dem revolutionären High-Bandwidth Memory
 
Die AMD-Beschleuniger erledigen den Job auch wie gewohnt gut und haben Danke des acht Gigabyte großen Speichers auch durchweg genügend Kapazität für diese Auflösung.

Aha, ok.^^

Ansonsten ein sehr ausführlicher Test mit viel Liebe zum Detail! Klar wird mir jedoch, dass ich weiterhin Abstand zu den Radeons zu halten werde (vorerst), da ich das Preisleistungsverhältnis nicht ganz so gelungen wie bei der Geforce-Konkurrenz finde. Die Radeons verbrauchen mir auch etwas zu viel Energie for dat Power. :)
 
Wenn die Radeon 200er Serie noch mit alten Treibern getestet wurde, bzw überhaupt nicht neu getestet wurde, warum wird diese überhaupt in die Benchmark-Diagramme aufgenommen?
....ist ja bei anderen Karten auch so - z. B. die GTX780 wurde im Test mit 904 MHz (wenn ich mich recht erinnere) gebencht - dabei macht jede Custom ohne OC schon rund 1.100 MHz.
Würde man hier die tatsächlich aktuellen Werte anlegen, würde die aktuelle Generation mit GM204 echt alt aussehen - zumindest was die Leistung betrifft - effizienter sind sie schon weil eben ein kleiner Chip verbaut wurde!

Das ist ja die Tragödie! In dieser Generation hat sich von der Leistung her nichts getan! Lediglich Effiziens bei nVidia besser und VRAM bei AMD - und das auch noch mit einem unverschämten Aufpreis.........schade eigentlich das das immer unter den Tisch fällt!
 
Zuletzt bearbeitet:
Das meine HD 7870 Gigabyte OC mittlerweile Altersschwach wird merke ich auch. Habe bei World of Tanks auf normalen Qualitätseinstellungen hin und wieder Abstürze und diese dann entsprechend etwas gesenkt jetzt geht es ohne Abstürze.

Zwar nicht das gelbe vom Ei aber leider bieten weder Nvidia noch AMD im 300-350 €-Bereich Grafikkarten an wo ich sage die muss ich haben. Also warte ich mal schön auf das nächste Jahr :D und hoffe, dass man da nicht nur Mogelpackungen anbietet :rolleyes: .
 
Mal abgesehen vom Stromverbrauch hat AMD mit GCN eine saubere Architektur hingelegt. Tahiti hält genauso stabil wie Hawaii mit den Konkurrenzkarten mit. Wer sich damals eine dieser GPUs zugelegt hat darf sich darüber freuen dass er auch drei Jahre später für einen ratinal erklärbaren Geldbetrag keine nennenswerte Verbesserung erwerben kann.

Aber Herr im Himmel, wieso kann Asus keine Kühler mehr bauen? Ist sehr enttäuschend wie schwer sich der Kühler der Strix tut den popeligen Tonga-Chip zu kühlen. Über 80° und dabei noch lauter als die Sapphirte-Karten auf Hawaii, welche mal schnuckelige 100W mehr abführen müssen.
Der 3slot-Kühler auf den 7950/7970 war klasse, danach scheinen sie immer schlechter geworden zu sein.
 
zeedy schrieb:
5. Generell ein paar sehr Nvidia-freundliche Gameworks Titel , die das Gesamtrating deutlich beeinflussen. Z.B. COD AW 980 32% schneller als 390X, selbst in 1440p ist eine 980 OC 27% schneller als die Fury X! 980Ti absurde 37% schneller :freak: Watch Dogs und Risen 3 sind auch toll, da ist eine 980ti ohne OC 21% schneller als die Fury X, und diese wiederum praktisch gleich schnell wie 390X. Überhaupt, warum eigentlich so viele Nvidia gesponserte Spiele? Warum kein Crysis 3 statt Risen 3? Warum kein Dying Light statt Watch Dogs, warum kein BF4 statt COD?
Die Leistungsratings von CB snd deshalb nach wie vor nicht wirklich brauchbar.

Weder CoD:AW noch Risen 3 sind Teil des Gameworks-Programms, Letzteres ist sogar überhaupt nicht mit einem IHV assoziiert. Assetto Corsa ist übrigens schon längst aus dem EA draußen und ebenfalls nicht mit NV assoziiert. Beim Benchmark der Retailversion von PCGH hat sich zudem gezeigt, dass die Variation der Leistung auf NV bzw. AMD von bestimmten Effekten abhängt, man also keine generelle NV-Eignung attestieren kann. Vgl. http://www.pcgameshardware.de/Assetto-Corsa-Spiel-18303/Specials/Test-Benchmarks-Radeon-Geforce-1147608/

Generell sollte ein Benchmark-Parcours nicht danach ausgewählt werden, ob ein Spiel einem IHV besonders gut schmeckt oder eher neutral ist. Das variiert nämlich auch noch stark nach der verwendeten Benchmarkszene. Ebenso wenig sollte eine Beteiligung am Gameworks-Programm ein Kriterium für die Auswahl sein, da man sonst nur marktrelevante Bemühungen eines Wettbewerbers bestrafen würde (was umgekehrt für Gaming Evolved natürlich genauso gilt). Vielmehr sollte man einen möglichst repräsentativen Querschnitt populärer Titel mit verschiedenen Engines und unterschiedlichem Anspruchsverhalten auswählen. In der Hinsicht ist der CB-Parkours m.E. vollkommen i.O.
 
Schön zu sehen, dass in Sachen P/L alle Karten in etwa gleichauf sind (bis auf 390X und GTX 980), da kann man also mehr oder weniger blind zuschlagen, wenn einem Leistung/Lautstärke etc zusagen.
 
ein schöner Test! Da schein ich alles richtig gemacht zu haben..290er für 210 Eus- besser geht nicht, damit hab ich dann wohl wieder 2 Jahre+ ruhe...
 
GTX 980 TI OC und R9 390 liegen nah beieinander...
...in der Leistungaufnahme. :freak:
Den Vergleich stelle ich gerade an weil mein Bruder die genannte nv hat und ich mir die genannte AMD holen will. Schon irgendwie schräg...
 
Meine 280x mit einem i7-4770k: 72.9% & mit einem 4-Jahre alten i5-2500k: 73.9%.

Kann mir das jemand erklären?
 
k0ntr schrieb:
Preis Leistungskurve finde ich sehr interessant.

Das einzig interessante Fehlt dabei, der Vergleich mit den "alten"!
Gerade bei den großen ist der Preisaufschlag eine Frechheit die ihres gleichen sucht.
So lange die "neuen" nicht endlich den Preis der alten erreichen oder sogar unterbieten gibt es immer noch absolut keinen Grund zu einer 300er Karte zu greifen! Preis/Leistung bleibt aktuell erbärmlich im direkten Vergleich zu den Vorgängern.
 
Zumindest im Vergleich i5-2500K und i7-2600K gab es mal die Aussage, daß die virtuellen Kerne des i7 "Verwaltungsaufwand" bedeuten und deshalb in manchen Situationen / Spielen langsamer sind.
 
Hmm ich dachte immer die gtx 980 ist viel schlechter als die R9 390X aber das passt garnicht zu den Testergebnissen.

Ich denke da hat Nvidia das bessere P/L aktuell.
 
Wo gibt es eine R9 380 mit 4GB für 192€ ??

Naja, AMD hat mit der nächsten Generation die letzte Chance am Leben zu bleiben.
 
-Ernesto- schrieb:
Hmm ich dachte immer die gtx 980 ist viel schlechter als die R9 390X aber das passt garnicht zu den Testergebnissen.

Ich denke da hat Nvidia das bessere P/L aktuell.

die 390x ist in 2560 shneller und billiger
also warum soll da nvidia ds bessere p/l haben?
 
-Ernesto- schrieb:
Hmm ich dachte immer die gtx 980 ist viel schlechter als die R9 390X aber das passt garnicht zu den Testergebnissen.

Ich denke da hat Nvidia das bessere P/L aktuell.

Die R9 390x ist gleich auf mit der Gtx 980 und in höheren Einstellungen sogar besser, kostet aber weniger......wie kommst du jetzt zu deinem P/L Schluss?
Hast wohl in Mathe nicht aufgepasst damals xD
 
Immer wieder diese Kinder mit ihren P/L, aber höherer Strom"verbrauch" zählt ja für die nicht als Argument, denn Strom gibt es kostenlos.
 
Zurück
Oben