Test Test: Radeon HD 6900 CF vs. GeForce GTX 500 SLI

also nach dem test zu urteilen hat amd ganz klar die nase vorn in crossfire modus.
mal abgesehen von den microrucklern die sowieso bei cf als auch bei sli auftreten.

die leistungsaufnahme von gtx 580 ist ja mal jenseits von gut und böse
 
Wo ist der Sinn dahinter, mit einer dieser GFK alleine spielt sich doch alles perfekt, und auf 3 Monitoren ist professionelles Spielen nicht mehr möglich.
 
Schinzie schrieb:
Ja, der Preis ist auch ein interessanter Aspekt. Erstaunlich wie viel AMD in letzter Zeit an der Skalierung gearbeitet hat.

Ich glaube auch nicht, dass das nur am VRAM liegt, der macht sich erst in den höheren Auflösungen + 8xMSAA bemerkbar.

gruß


Die 6000er skalieren echt gut, habe selber zwei 6950 und mit dem 2500K geht da die Post ab. Die 2GB VRAM sind bei min FPS bei Crysis oder Metro 2033 wichtig, vor allem wenn man bei Crysis mit HD Texturen spielt, da wird der VRAM schnell voll.


@CB

Welchen Level habt ihr beim Stromverbrauch Test laufen lassen.
Ich komme bei Bad Company 2 wenn ich Online zocke auf 380W und wenn die beiden 6950 mit 6970 Takt laufen sind es 395W. Shader sind immer freigeschalten, schon arg wie viel mehr so ein altes 1366 System braucht.

Zum Thema Lautstärke hätte man noch anmerken können das diese Boardabhängig ist bei CF und SLI. Wenn die Karten genügend Abstand haben werden die auch nicht wirklich lauter.

Es wäre auch toll gewesen wenn ihr die Tools Radeon Pro für CF und den nHancer für SLI mit getestet hätte. Multi GPU ohne dieser Tools ist echt nicht das wahre.
Mann braucht nicht immer CF oder SLI, mit beiden Tools kann man bequem Profile Anlegen ohne das im Treiber Multi GPU deaktiviert werden muss.
 
Zuletzt bearbeitet:
Schöner Test, ich hatte mal zwei 8800 GTS im SLI. Mikroruckler kann ich aber nicht bestätigen. Die Ruckler kamen dabei von dem zu geringen Vram.

Bin mal gespannt wie sich die GTX580 mit 3GB schlägt. Die AMD Karten haben in den höheren Auflösungen ja meist den Vorteil des großen Speichers.
 
Nach nun 3 Generationen CFX verabschiede ich mich von AMD und habe zur GTX 580 gegriffen. Die hält hoffentlich lang genug durch wie meine beiden HD 4850 es taten.
Die Nachteile überwiegen mit der Zeit und ich bin auf die BQ von nVidia gespannt.
Auch wenn AMD hier aufgeholt hat.

Die Ruckler treten übrigens unter AFR auf. Bei SFR oder Supertiling nicht. Diese Methoden werden aber wenig bis gar nicht genutzt.

bye Hübie
 
Zuletzt bearbeitet:
Ich komme bei Bad Company 2 wenn ich Online zocke auf 380W und wenn die beiden 6950 mit 6970 Takt laufen sind es 395W. Shader sind immer freigeschalten, schon arg wie viel mehr so ein altes 1366 System braucht.

Jepp, ich komm mit meiner 1366er Kiste in Prime 95 (8 Thread's) auf bis zu 380 Watt (@ 3,8/4 Ghz), dabei laufen meine zwei 480er nur im Idle, normal ist was anderes.

Interssant wäre zu wissen ob die NV's bei gemäßigtem Vram Einbruch nur in den fps Spitzen gekappt werden, oder ob es auch die Minnimum fps betrifft.

Wenn nur die extremen Spitzen fps gekappt werden, was wie ich finde nahe liegt, dann ist das "kleine Einbrechen" erstmal halb so wild.
 
@Pumpi

380W nur bei Prime, da kannst echt heizen mit so einer Maschine.
Ich komme mit 4GHZ beim 2500K bei Prime auf 133W.

Ich hätte mir bei den Test mehr Persönliche Eindrücke gewünscht, anstatt einfach nur Balkenlängen. Multi GPU macht für mich nur Sinn, wenn extrem auf die BQ geachtet wird und nicht rein auf max. FPS.
 
@Computerbase
Es wäre schön wenn ihr nochmal genauer auf die Mikroruckler eingehen könntet. Es gab ja schon einen guten Artikel, wo geschildert wurde was MR sind und wie sie entstehen. https://www.computerbase.de/2008-01/test-nvidia-3-way-sli-triple-sli/7/
Es gab allerdings auch einen Artikel oder Thread wo drauf eingegangen wurde wie man Mikrorucklern entgegenwirken kann, und auch ein Programm "FPS Limiter" oder so, für Games die die FPS nicht per Console etc. limitieren können.

Ich möchte gerne auch mal zeigen, dass Multi GPU echt Sinn machen kann. Am liebsten würde ich einen Leserartikel verfassen, allerdings habe ich momentan mein CF-Verbund aufgelöst, da ich demnächst auf eine 6970 umsteigen möchte, ggf. 6970@CF, und es fehlt auch etwas an Zeit.

Ich gebe mal ein sinnvolles Anwendungsgebiet für CF vor. Ich spiele hauptsächlich FPS Games im Multiplayer, und eigentlich größtenteils nur neuere Spiele. Ich drehe die Grafik meistens auf die maximalen Einstellungen, und sinnvolle MSAA(2x,4x). Um im Multiplayer erfolgreich zu sein sind hohe FPS extreme wichtig, also mindestens 100FPS in meinem Falle, und extrem wichtig ist es konstante FPS zu haben. Also durchgehend z.B 120 FPS. Während eine 5870 mir das nicht immer liefern kann und sich mit Framedrops und "Microrucklern" bemerkbar macht, liefert mir ein 5870 Crossfire Verbund durchgehend 120FPS und ein Flüssiges Gameplay. Ich beziehe mich in diesem Fall auf CoD5 und CoD7, da diese Spiele in etwa gleich "schlecht" skalieren.

Es wird öfters erwähnt VSync anzustellen, was definitiv keine Option für die üblichen 60Hz Monitore ist, da der Inputlag unerträglich wird und spielen unmöglich wird(grade bei Online Shootern).
Ich habe vor längerer Zeit selber Tests zu den Frametimes gemacht, nachdem ich die FPS auf einen relativ stabilen Wert limitiert habe, und die Frametimes waren sehr konstant, gradezu linear.

Es geht mir in erster Linie darum, dass viele hier im Forum immer nur mit Stichwörtern um sich werfen, ohne jemals CF SLI besessen zu haben, und wenn, sich nur unzureichend mit den Problemen und deren Lösungsansätzen befasst haben.

Es wäre schön wenn CB etwas Klarheit ins Dunkel bringen könnte, auch wenn ihr so argumentieren könntet, dass es nicht der Sinn ist selber Hand anzulegen.
 
ATi Catalyst 8.79.6.2RC2
Bitte welcher Treiber kam da zum Einsatz? Ich kann damit nichts anfangen, klärt mich bitte auf.
Ist das etwa 10.11?
Wie um Himmels willen kann man da 10.11 einsetzen bei zwei 69XX Karten?!?
 
Zuletzt bearbeitet:
Kunaat schrieb:
Wo ist der Sinn dahinter, mit einer dieser GFK alleine spielt sich doch alles perfekt, und auf 3 Monitoren ist professionelles Spielen nicht mehr möglich.

Warum nicht? Wenn ein Ego-Shooter Eyefinity gescheit unterstützt (alle Anzeigen weiterhin aufm mittleren Bildschirm, z. B. BC2), dann hat man doch nur Vorteile durch das stark erweiterte Sichtfeld. Bei anderen Genres (Strategiespielen und so, wo man eigentlich gerne ein 1:1 Seitenverhältnis hätte) macht es dagegen natürlich weniger Sinn, vor allem wenn das Interface mitgestreckt wird.
 
guter Test!

Eine 2. Graka kommt bei mir aber wegen der Microruckler und Lautstärke aber nie rein. Bis die Microruckler nicht vollständig gelöst sind denke ich nicht mal an eine Graka-Kombo.
 
BustaFiles schrieb:

Wie um Himmels willen kann man da 10.11 einsetzen bei zwei 69XX Karten?!?
Der 262.99 von nvidia ist sogar noch älter. Also da gibts ja wohl Gleichstand.

Gerade mit dem 266.58 hat nvidia nochmal was draufgepackt bei der SLI-Performancce.
 
mapel110 schrieb:
Der 262.99 von nvidia ist sogar noch älter. Also da gibts ja wohl Gleichstand.

Gerade mit dem 266.58 hat nvidia nochmal was draufgepackt bei der SLI-Performancce.
Achso, der 266.58 war dann nur als Platzhalter da oder wie? :lol:
Und gleich kommt die Erklärung, der 10.12 war noch nicht Verfügbar zum Testzeitpunkt.
Aber als Vorsorgliche Antwort, dann hätte man ja auch mit dem Test noch warten können oder? Ist ja jetzt kein Release Test.
Aber den Test nehme ich so mit diesem alten Treiber ohnehin nicht ernst.
 
Zuletzt bearbeitet:
mapel110 schrieb:
Der 262.99 von nvidia ist sogar noch älter. Also da gibts ja wohl Gleichstand.

Gerade mit dem 266.58 hat nvidia nochmal was draufgepackt bei der SLI-Performancce.


HM

Bei Nvidia wurden 2 verschiedene Treiber benutzt?
Was soll das für einen Sinn machen, bei einem Test 2 Verschiedene Treiber zu verwenden? Wenn man sich den Test von der GTX 570 anschaut, fällt einen auf das da auch dieser Treiber benutzt wurde.

https://www.computerbase.de/2010-12/test-nvidia-geforce-gtx-570/4/#abschnitt_testsystem

Für die GTX 570 nimmt man beim Multi GPU und Single Test den 263.09. Für die GTX 580 nimmt man den 262.99 und das auch bei beiden Tests?

Der Treiber der für die 6950/6970 verwendet wurde ist der aller erste Treiber für die 6900 Karten. Man könnte also sagen dass die AMD Karten benachteiligt waren, wenn man es genau nimmt.
 
Schön dass sich zumindest in Sachen Skalierung etwas tut - wo man früher bei etwa 160% (Leistung im Vergleich zu einzelner Karte) war ist die AMD Variante in den relevanten Bereichen (mindestens Full HD und aktuelle API) nun oberhalb von 180%

Dennoch, eine zwei Karten Lösung wird auch langfristig nur etwas für eine sehr kleine Zielgruppe sein.
 
Schöner Test und schön zu sehen wie die ATIs vom größen Speicher profitieren. Speziell die 570er würden mir zu stark einbrechen. Vl. kommen noch Modelle mit doppeltem Speicher....
 
@Martricks

Klingt alles sehr interessant. Wäre schön wenn es so einen Artikel geben würde.

@ all

Ich hätte noch eine andere Frage:

Nehmen wir mal an jemand hätte zuviel Geld...

Er willl auf einen 3D fähigen Monitor (Samsung 2233RZ - 120Hz Technik - Auflösung 1680 x 1050) ältere (DX9) Spiele spielen. Würde bei einem 120Hz Monitor und 2x GTX580 3GB aufgrund der hohen Framraten (>100 FPS) das Microrucklerproblem nicht obsolvent sein? Weil laut dem alten Test/Bericht treten Microruckler nur im Bereich 30 FPS und darunter auf. Ab 60 FPS sollen sie quasi nicht mehr vorhanden sein. Bei 100 FPS und darüber müsste doch selbst ein Hardcore Gamer nix mehr merken oder? Und für 100 FPS und darüber ist CF/SLi doch eigentlich da?!? (Meiner Meinung nach!)

Mfg

C170DAW
 
Zuletzt bearbeitet:
Ralf T schrieb:
Der Treiber der für die 6950/6970 verwendet wurde ist der aller erste Treiber für die 6900 Karten. Man könnte also sagen dass die AMD Karten benachteiligt waren, wenn man es genau nimmt.
Vor allem weil man es nicht einfach als 10.11 getextet hat, sondern lieber so; ATi Catalyst 8.79.6.2RC2
Da muss man sich schon den Vorwurf bieten lassen, hier klar eine Benachteiligung herbei führen zu wollen. Wo mögen wohl die Ursachen liegen, ich weiß es fast nicht. :king:
 
Super Vergleich ;) Danke....

dass sich die zweite AMD-Karte im Leerlauf automatisch deaktiviert

Ein super Feature von AMD,sowas sollte Nvidia demnächst auch mal in betracht ziehen, da die ja sowieso in der Regel mehr schlucken als AMD Karten D:


Eine Frage noch wie werden diese Diagramme mit den FPS Zahlen erstellt ?
würde mich auch gerne mal daran versuchen ;)
 
C170DAW schrieb:
@Martricks
Nehmen wir mal an jemand hätte zuviel Geld...
Er willl auf einen 3D fähigen Monitor (Samsung 2233RZ - 120Hz Technik - Auflösung 1680 x 1050) ältere (DX9) Spiele spielen. Würde bei einem 120Hz Monitor und 2x GTX580 3GB aufgrund der hohen Framraten (>100 FPS) das Microrucklerproblem nicht obsolvent sein? Weil laut dem alten Test/Bericht treten Microruckler nur im Bereich 30 FPS und darunter auf. Ab 60 FPS sollen sie quasi nicht mehr vorhanden sein. Bei 100 FPS und darüber müsste doch selbst ein Hardcore Gamer nix mehr merken oder? Und für 100 FPS und darüber ist CF/SLi doch eigentlich da?!? (Meiner Meinung nach!)
C170DAW
Einfach VSYNC aktivieren und glücklich sein. In den vielen vielen Jahren, in denen ich MultiGPU-Lösungen betrieben habe (und immer noch betreibe), hatte ich nie mit solchen Problemen zu kämpfen! Dazumal das störende Bildflackern OHNE VSYNC sowieso der absolute Atmosphärenkiller sind, da könnte ich niemals mit spielen, wenn ich alle 3 sekunden irgendwo n halbes Bild sehen würde und die andere Hälfte hängt komisch nach. 2x 8800GTS 320, 2x 9600GT, 2x 9800GTX++ ... und ich bereuhe nicht eine einzige Sekunde dieser Setups!

Cya, Mäxl
 
Zurück
Oben