Test Test: ATi Radeon HD 5970

Wolfgang

Redakteur
Teammitglied
Dabei seit
Nov. 2002
Beiträge
6.674
Die ATi Radeon HD 5970 ist ein wahres Monstrum. Die massive Karte vereint gleich zwei Extrema: Sie ist die größte und die schnellste Grafikkarte auf dem Markt für PC-Spieler. Doch was bringt die Rechenleistung von zwei RV870-GPUs sowie DirectX 11 in der Praxis? Und wo liegen die Nachteile, mit denen der Eigentümer zu leben hat?

Zum Artikel: Test: ATi Radeon HD 5970
 

berni2k

Cadet 4th Year
Dabei seit
Dez. 2008
Beiträge
99
Sehr witziger Untertitel :)
 

Mister79

Captain
Dabei seit
Apr. 2008
Beiträge
3.841
Sehr schön dieser Test. AMD hat ja richtig was schönes gebaut. Wirklich schön das Ding. Preislich machen sie mal das, was sie auch schon früher hätten tun sollten. Den Preis mal anziehen. Aber X2 Karten sind für mich nix. Steh mehr auf eine Leistungsstarke Singelkarte. Aber schon wirklich erstaunlich was die Karte leistet.

Zusammen mit einer kleinen Geforce für Physik X und alles ist gut. Ist schon klar, dass dafür der (glaube) gestern vorgestellte Chipsatz vorhanden sein muss um beide Karten gleichzeitig betreiben zu können. So ein Hammer jetzt noch im CPU Bereich und die Welt von AMD ist wieder OK.Zumindestens auf den Weg dort hin
 
Zuletzt bearbeitet:

deagleone

Lt. Commander
Dabei seit
Feb. 2007
Beiträge
1.497
schnuckelig mit anzuschauen wie CPU limitierend ne Filterlose 1680er Auflösung mittlerweile ist
 

setnumbertwo

Lieutenant
Dabei seit
Aug. 2007
Beiträge
879
könnt ihr auch die Leistungsaufnahme im übertakteten Zustand miteinbringen? Das wäre schon ganz interessant :-)

ach und das 5850er Crossfirependant dass ihr ja schon getestet habt, könntet ihr auch noch in den Benchmarks
zum Vergleich miteinbauen

gruß
 
Zuletzt bearbeitet:

Raucherdackel

Banned
Dabei seit
Apr. 2008
Beiträge
1.874
Ne schöne Karte, sehr schnell, nur leider limitiert da desöfteren die CPU. Und so laut ist die unter Last auch nicht, die gestern getestete GT 240 von Zotac ist auch so laut, aber unter Windows.

CB, ihr braucht schon nen Core I7 oder PhenomII @ 4GHz, um diesen Test einigermassen unlimitiert über die Bühne zu bringen!

Außerdem ist der Untertitel falsch, es gibt noch ne viel längere Karte::D
 

Anhänge

setnumbertwo

Lieutenant
Dabei seit
Aug. 2007
Beiträge
879
@Raucherdeckel

Testsystem:

* Prozessor
o Intel Core 2 Extreme QX9770 (übertaktet per Multiplikator auf 4 GHz, Quad-Core)
damit erübrigt sich ja deine Vermutung ;-)

auserdem fällt CB auf, dass eher die Bandbreite der Grafikkarte ein möglicher Flaschenhals sein kann.
 

Athlonscout

Rear Admiral
Dabei seit
Jan. 2008
Beiträge
5.791
Brachiale Leistung, für die Leistung noch akzeptabler Stromverbrauch.

Einziger negativer Punkt das bescheidene OC-Potential ohne Spannungserhöhung (das aber bei dieser Leistung wohl kaum gebraucht werden wird).
 
Zuletzt bearbeitet:

duskkk

Lieutenant
Dabei seit
Sep. 2008
Beiträge
589
Wow ich würde sagen damit wäre Crysis endgültig besiegt. Mit der Karte kann man praktisch alles in jeder Auflösung bis 30" eben flüssig mit praktisch jeder Einstellung spielen.
Die Idle Werte sind auch was feines. Es hätte ja eigentlich immerschon möglich sein müssen, dass man nen leisen Office PC und nen Gamer PC in einem haben kann.

Wenn man sich aber die deutlich schlechtere Crossfire skalierung ansieht dann ist ziemlich eindeutig, dass die Graka da durch andere Elemente ausgebremst wird (sei es nun CPU, Bandbreite zu eigenem Speicher oder PCIe x16). Die Rechenleistung von 4 TerraFLOPs ist einfach jenseits von Gut und Böse. Man stelle sich nur ein Quad CF System vor mit 2 solchen Dingen das ergibt 8 TFLOPs.

Ich würd mal sagen damit die Karte Sinn macht, brauchts neue Spiele Engines (die die Limitierungen umgehen und mehr von der GPU rechnen lassen) bzw. eben so ein Eyfinity System mit 3 oder mehr Bildschirmen.
Denn einzig über die Auflösung kann man die GPU verhältnismäßig mehr fordern. Eventuell wäre da noch mehr Videospeicher angebracht.

Wenn man sich dagegen eine Mainstream Notebook Graka ansieht ist diese Karte jenseitig. Eine mobility 4650 liegt irgendwo bei unter einem Zentel der Leistung. Leider müssen zukünftige Spiele auf der einen wie der andern spielbar sein.

Nachtrag:
Nachdem ich nen Test auf ht4u gelesen hab bin ich noch etwas weiser geworden. Tatsache ist die 5970 verbraucht deutlich weniger als zwei 5870 im CF, aber sie skaliert auch oft nicht so gut. Ich würde vermuten, dass PCIe x16 2.0 da schlicht schon zuwenig ist. Eventuell bräuchte es da ein 3.0 oder so. Dass die 5970 mit so deutlich niedrigeren Spannungen läuft ist auch interessant. Mit Wakü lässt sich da vermutlich noch mehr aus den Chips rausholen nur da die Rechenleistung eh schon kein Flaschenhals mehr is würds wohl nicht viel bringen.
 
Zuletzt bearbeitet:

beckenrandschwi

Lt. Commander
Dabei seit
Aug. 2004
Beiträge
1.281
Was mich doch stark wundert: die Bandbreite scheint ein großes Problem für das Gesamtpaket zu sein.
Etwas mehr an Bandbreite (durch breiteren Bus) zum Speicher täte der Karte wahrlich gut.
Ich bin mal gespannt, ob es die Konkurenz besser macht.

Ansonsten: die erste wirklich unnütze Karte, außer man hat einen 30"er und eine extrem hoch getacktete CPU.
 

Krautmaster

Fleet Admiral
Dabei seit
Feb. 2007
Beiträge
21.538
Die Skalierung fällt relativ schlecht aus. Vermutlich limitiert die CPU oder die Bandbreite der Grafikkarte. Aber es ist wohl die einzigste Karte mit wlecher Warhead @ 2560er Auflösung flüssig spielbar ist.

Die Leistungsaufnahme fällt angenehm aus, bedenkt man dass sie in Windows weniger braucht als emine HD4850.

Gut gemacht AMD und rechtzeitig vorallem.
 
Zuletzt bearbeitet:

chappy086

Lt. Commander
Dabei seit
Dez. 2006
Beiträge
1.881
Mann o Mann.
Schade dass es eine Dual GPU Karte ist.
Würde ich mir nie zulegen wegen Mikroruckler.
 

terraconz

Commodore
Dabei seit
Juni 2009
Beiträge
4.946
Warum bricht die alte Nvidia 295 GTX in sovielen Games bei einer Auflösung von 2560x1600 mit AA/AF ein und fällt sogar hinter die 275 oder 260 zurück? Hat jetzt zwar nichts mit dem eigentlichen Thema zu tun aber es fiel mir nur auf. Sind das Treiber Probleme oder was ist da los, hat wer ne Ahnung?

Beispiele:

DX9: Riddick (fällt hier zwar nicht so stark zurück aber doch beträchtlich)
DX10: Battleforge (hinter der GTX 275), Crysis (hier extrem), Hawx (auch hier hinter einer 285), Stalker

Kann es sein das die SLI Profile ab ner gewissen Auflösung nimmer greifen und die 295 dann nur noch als lahme 275er unterwegs ist? Bitte um Aufklärung wenn einer ne Ahnung hat.
 

Hypocrisy

Admiral
Dabei seit
Nov. 2006
Beiträge
8.608
Die nächste Runde geht wieder an NV. :p
Trotzdem wird hier grad das techn. Machbare demonstriert.
 

setnumbertwo

Lieutenant
Dabei seit
Aug. 2007
Beiträge
879
und zum teil hab ich jetzt auch entdeckt, dass zwei 5850er im Crossfire im Schnitt gleichauf sind, wenn nicht gar besser! Und nach einer guten Verfügbarkeit allgemein günstiger.

Computerbase, habt ihr irgendwelche Richtlinien von AMD warum ihr das nicht gegenüber stellt?

Meiner Meinung nach können diese Karte der Treiber, die Speicherbandbreite oder PCIe-lines ausbremsen, vielleicht auch oft alle drei gleichzeitig?! Könnt ihr dazu nicht auch etwas in Erfahrung bringen Wolfgang?
 

Gorby

Vice Admiral
Dabei seit
Juni 2008
Beiträge
6.908
Ich finds echt komisch, dass die Übertaktungsleistung so stark vom Spiel abhängt. Hab ich jetzt so auch noch nich gesehen. Erklärt aber warum ATi der Karte keine 850MHz wie der der HD5870 spendiert hat, weswegen wir uns alle ja so wunderten. Mit der OC-Voltage hat man die Spezifikation wohl auch gesprengt. naja, für mich ist Dual-GPU immernoch nicht praxis tauglich und nur was für Enthusiasten und das wird es wohl auch noch lange bleiben.
 

riverdief

Commander
Dabei seit
Feb. 2008
Beiträge
2.971
Die Karte von AMD ist wirklich eine Bombe, ich hätte mich jedoch über 2 8 Pinner gefreut, somit könnte man noch mehr aus der Karte rausholen ---> mehr V Tuning :D
Aber dennoch lieber 2x5850/5870 kaufen man kommt billiger weg bei besserer Kühlung und fast gleicher Leistung (5850x2 ---> siehe Hartware.de)
 

Augen1337

Captain
Dabei seit
Apr. 2008
Beiträge
3.275
Hmm Leistung ist zwar mehr als man braucht, aber im Optimalfall 150% ggüber der Einzelkarte? Hoffe für ATI dass da nochwas gedreht wird.
Gut andererseits kann die CPU dafür verantwortlich sein. Mal sehn wies bei der Dual GT300 aussieht.


Preis geht ja auch noch runter :D: D
 

Schinzie

Rear Admiral
Dabei seit
Feb. 2008
Beiträge
5.927
wie vorausgesagt verbraucht die karte durchwegs weniger als eine 4870X2 oder eine GTX295 bei 30% Mehrleistung. Sehr schön gemacht, guter Schritt in die richtige Richtung. Auf den Frameverläufen sind jetzt auch keine unregelmäpigeren Abstände als auf der Single GPU zu erkennen,kann mir das mal jemand bestätigen?

Die Lautstärke ist noch unter einer 4890 oder GTX295, auch sehr schön gemacht. An sich eine sehr solide Darstellung. Aber man sieht,wie stark bandbreitenlimitiert die Karte ist. Schnellerer Speicher wird kaum verfügbar sein, schade.


gruß
 
Top