Test AMD-Grafikkarten im Test: Radeon 5870, 6970, 7970, 290X, Fury und Vega 64 im Vergleich

ZeXes schrieb:
Bin sehr auf NAVI gespannt. Eine GPU die endlich wieder voll aufs Gaming konzipiert worden ist.
NAVI wird schließlich auch in der PS5 werkeln.

1080TI Leistung zu 300-400€ wäre ein Träumchen.

Wo bitte wurde das denn verlautbart? Navi soll doch eher ein Compute Chip werden wie Vega. Hast du da Links zu?
 
  • Gefällt mir
Reaktionen: FCK-THIS
Warum fehlt in der Tabelle die 5970?

Aber bestimmt kommt der Vergleich auch noch für die einzelnen Multi-GPUs oder?
 
duskstalker schrieb:
ich weiß ja nicht, aber könnte das am vram bottleneck von fury liegen, das die karte bei wolfenstein max settings und doom nightmare von einer theoretisch guten leistung ans untere ende der tabelle schiebt?
Es geht ja genau darum, dass die Fury für die Redaktion überraschend schnell ist...
Ich verstehe sowieso die ganze Kritik an der Fury nicht wirklich, denn angeblich reichen ihre 4GB Ram ja nicht, um UHD flüssig darzustellen. Aber genau in UHD performt sie eigentlich richtig gut und hat viel mehr Abstand zur 290er als under FullHD. Lediglich R6S liegt ihr nicht, aber sonst liefert sie eigentlich schöne Frametimes...
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Palmdale schrieb:
Wo bitte wurde das denn verlautbart? Navi soll doch eher ein Compute Chip werden wie Vega. Hast du da Links zu?


https://www.computerbase.de/2018-06/playstation-5-amd-zen-navi/

"Den Quellen von Jason Evangelho zufolge soll Navi nicht nur in der PS5 stecken, sondern sogar speziell für Sony entworfen worden sein. Auch Anthony Garreffa schreibt, dass Sony einen großen Einfluss auf die Entwicklung von Navi habe. Die Entwicklung von Navi für den Großkunden Sony soll für AMD einen so großen Stellenwert gehabt haben, dass darunter der Vorgänger Vega leiden musste. "

NAVI wird daher schon aufs Gaming speziell ausgelegt sein.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Shririnovski schrieb:
Schöner Test/Artikel, Danke.

Man sieht auch sehr schön, wie gut GCN gealtert ist, selbst heute noch sind 7870 & 7970 spieletauglich in FHD, so lange man seine Ansprüche etwas reduziert. Auch interessant finde ich den relativ niedrigen Idle-Verbrauch der 7970.
Meine 7970 habe ich damals auch für WQHD verwendet bei guten Einstellungen. Die Karte hatte echt Dampf unter der... ähm unter dem Kühler :)
 
Um die AMD Mittelklasse hier mal etwas in Relation zu setzen und weil WoW für die Messung der Energie genommen wurde:

WoW in 1080p:
RX 480 - 77 / 59,2
R9 290X - 81,2 / 60,2

und in 4k:
RX 480 - 46,1 / 39,3
R9 290X - 52,9 / 45,3

Leistungsaufnahme bei ~60fps:
RX 480 - 159 Watt
R9 290X - 273 Watt
 
Schade finde ich inzwischen, dass die Spielehersteller hergehen und Grafikkarten per se ausschließen.

Bei BF1 habe ich leider meine HD6970 nicht mehr zum Laufen bekommen.
 
Strikerking schrieb:
@Wadenbeisser Oder man nutzt einfach Chill ohne das man auf Leistung verzichten muss.
Chill begrenzt primär die Gramerate und sorgt so das die GPU nicht übermäßig viel rechnet, wodurch die KArte natürlich auch nicht ihre Leistung voll entfalten kann.
Das Leistungsprofil geht an das Power Target und senkt so die Taktfrequenz, das interessiert sich aber nicht für die Framerate. Da gibt es kein entweder/oder. Beide Fnktionen ergänzen sich.

tobimobi schrieb:
Wieso fehlt denn die RX 56?
Bei dem Test hätte man auch noch auf den Artikel von euch zum UV/OC verweisen können.

Weder die RX 64, noch die RX56 verbrauchen über ~230W bei halbwegs gut eingestellten Settings.

Die 7970Ghz Edition wäre auch interessant gewesen.
Die 7970 GHz war das was heute die Vega64 mit dem mittleren Energieprofil ist. Eine zu hoch angesetzte Taktfrequenz die die Effizienz erheblich verschlechterte.
 
@Wolfgang Könnt ihr noch ein komplett Round Up aller durchgeführten Benchmarks/Performanceratings machen? Also alle GPUs pro Spiel und Auflösung in ein Diagramm packen? So könnte man auf einen Blick sehen, wie sich neue Midrange GPUs gegen ältere High-End GPUs behaupten. Und andersrum.
 
Hatte selber auch mal ein Crossfire aus 2x 7970 unter Wasser, erstaunlich war wie sehr die Leistungsaufnahme sank wenn die Karten gut gekühlt wurden.
Ich möchte mich nach 4 Jahren gerne von meinem 980er SLI trennen, nur leider ist eine Vega 64 noch zu langsam für mich in UHD. Am 14. mal gucken wie schnell die RTX Karten sind, sonst gibt es ne 1080 Ti aus der Bucht.
 
DaHans schrieb:
Schade finde ich inzwischen, dass die Spielehersteller hergehen und Grafikkarten per se ausschließen.

Bei BF1 habe ich leider meine HD6970 nicht mehr zum Laufen bekommen.

Das hat meiner Kenntnis nach etwas mit dem von den Grafikkarten unterstütztem Shader Model zu tun und nicht mit der Grafikkarte an sich.
 
  • Gefällt mir
Reaktionen: DaHans
bin ich eigentlich der einzige, der 500% in 10 jahren wenig findet?

gut, die 5870 war ein knaller und die vega64 ist ein wenig wie von "2016". aber egal. da muss in den nächsten 5 jahren mindestens die gleiche menge rum kommen, sonst fühle ich mich ein wenig verarscht. :)

*edit*

alleine wenn man die 4870 mit rein genommen hätte und die 10 jahre voll gemacht hätte, wären wenigstens 1000% rumgekommen, das wäre realistischer gewesen.

mfg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus
@Hejo
Das gib es tatsächlich auch. In dem Fall lags aber glaub eich an dem Treiber. Da BF1 den Crimson Treiber als "alt" einschätzte. Mit Registry Änderungen etc. kriegt man das dann zum laufen:
Hier

Genauso ging es bei Tom Clancy The Divison. Support gibt es aber natürlich dann keinen mehr.
Ich weiß.. ist ja auch schon ne alte karte. :)
 
Ich hab damals mit meinem Rechner nichts falsch gemacht habe. Da kann ich auch heute noch gepflegt alles zocken :) wird aber leider demnächst durch ein Ryzen/Vega System ersetzt :(
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Fazit: Fast 500 Prozent mehr Performance in 9 Jahre
In 9 JahreN


Der größte und zweifelsohne wichtigste Sprung hat dabei die Radeon HD 7970 gemacht
DeN größteN und zweifelsohne wichtigsteN Sprung... (alternativ ganz anderer Satzbau/-fortsatz)

Ich weiß nicht, ob eure Lektoren verstorben, wegrationalisiert oder unfähig sind aber... das ist peinlich.

Damit arbeitet die Radeon RX Vega 64 etwa 160 Prozent schneller als eben jene Radeon HD 7970.
Das ist mindestens so peinlich:

Sie ist 60 % schneller oder hat 160 % der Leistung einer 7970, wie die Diagramme zweifelsfrei zeigen - wenn man in der Lage ist Diagramme zu lesen.

Der wohl schlechteste Beitrag, den ich seit längerem gelesen habe.
 
  • Gefällt mir
Reaktionen: Matthias Berger, derSafran, derseb und 2 andere
jo, meine hd5870 2gb eyefinity ist leider vor paar monaten abgeraucht beim 24/7 "rendern" von *hust* aber an sonsten, kann man nix schlechtes über ati/amd sagen die letzten jahre. daher finde ich die "nur" 500% halt unfair, auch wenn das nicht viele so sehen werden.

meine fury nano rockt immer noch wie hölle und ich würde sie nie wieder her geben.

pöse nvidia base :D

mfg
 
PickNick schrieb:
Hatte selber auch mal ein Crossfire aus 2x 7970 unter Wasser, erstaunlich war wie sehr die Leistungsaufnahme sank wenn die Karten gut gekühlt wurden.

Erzähl mal, wie stark denn? Ich habe hier 2 x R9 290 und keinen Vergleich zwischen mit/ohne Wasserkühlung, aber mit Undervolting zieht das ganze System aus der Steckdose nur noch ~520 Watt statt 570.

PickNick schrieb:
Ich möchte mich nach 4 Jahren gerne von meinem 980er SLI trennen, nur leider ist eine Vega 64 noch zu langsam für mich in UHD. Am 14. mal gucken wie schnell die RTX Karten sind, sonst gibt es ne 1080 Ti aus der Bucht.

Same here! Nur, dass es eben 2 x die R9 290 ist. Ich möchte mindestens die Performance einer GTX 1080, sonst gibts kein Upgrade. Inzwischen sage ich mir sogar, dass ich auf die Karten/Chips in 7nm Fertigung warte - egal, ob es dann von nVidia oder AMD (oder gar Intel) ist.
 
  • Gefällt mir
Reaktionen: Haldi
quakegott schrieb:
Ich hab damals mit meinem Rechner nichts falsch gemacht habe. Da kann ich auch heute noch gepflegt alles zocken :) wird aber leider demnächst durch ein Ryzen/Vega System ersetzt :(

Was bringt dich denn jetzt dazu auf Vega zu setzen?
 
usb2_2 schrieb:
Die müssen Mal an der Effizienz arbeiten. Sowas wie die Nano halt. Einfach im sweetspot
Die Nano hatte auch ein stärker limitierende, maximale Leistungsaufnahme als die Fury. AMD gönnt den Karten ansonsten höhere Peaks.. was dann letztlich auch zu höheren Durchschnittswerten, und durch träge Messungen leider auch zu falschen Ergebnissen führt. Wenn ein Peak auch nur ein paar Millisekunden ansteht, nimmt die träge Messung es als Zehntel bis Sekundenwert.
Erst hochauflösende Messungen mit einem Oszilloskop bringen die Wahrheit ans Licht!
Btw. nVidia limitiert die maximale Leistungsaufnahme grundsätzlich stärker (ähnlich der Nano), weswegen hier die Messungen mittels Software oder Multimeter eher passen.
Im Ganzen ensteht jedoch der dauernd kolportierte Eindruck, AMD würde ja "dermaßen viel Verbrauchen"!


Shrimpy schrieb:
Wer ne Vega kauft kann das auch selber, da hab ich lieber die möglicht von UV und UC und eine PCB layout das 500W ab kann für OC.
Das geht auch schon mit Polaris, bzw seit es den Wattman gibt.
Meiner RX 470 Nitro+ konnte ich die GPU-Spannung problemlos um 0,1 Volt reduzieren. Dadurch konnte sie ihren Boost-Takt dauerhaft halten, was zu einer 10%igen Steigerung der Fps führt!
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Ja, heutzutage muss man leider schon ewig lang auf neue AMD Technik im GPU Bereich warten... Witzig ist ja, das ich genau damals, als die 58xx raus kam, das mein Sprung von nVidia auf AMD war. Seit dem - bis auf eine "Testausnahme" - immer eine AMD GPU im System.

Sogar eine zeitlang während der BF3 und BF4 Ära mit Crossfire Setup bei 5850, 7959 und 290ern. Dann eine Fury Nano, die schnell von einer R9 Fury X abgelöst wurde... Derzeit Vega64 und voll zufrieden bei 1440p mit 144fps Display und Freesync. Ja, könnte mehr leisten - aber hey, im MP Shooter sind fps wichtiger als Qualität.
 
Zurück
Oben