Test Test: Radeon HD 6900 CF vs. GeForce GTX 500 SLI

Ich hab hier 3 gtx470 und muss sagen... die sind absolut geil!!!
Ich bin einer der leute die µR nicht wirklich wahrnehmen. Wenn ich überlege das man 3 gtx470 für 600€bekommt wo eine gtx580 schon um die 500€ kostet, muss ich echt sagen das es wirklich billig ist.

Ich fände es cool wenn man die gtx4xx serie auch mit reinpackt.
Aber leider fehlt da ja der komplette SLI artike zu der 4er serie... schade.
 
Das Fazit mit dem Micro Rucklern ist doch schwachsinn..

wieso testet ihr Lost Planet? das ist ein Nvidia Spiel, das testet ihr doch sonst auch nie....

deswegen nehme ich an ich wollt die 570 im gesammten damit pushen damit sie nicht ganz schlecht da steht.

ihr seit so lustig...
 
Netter Artikel, steht eigentlich alles drin was man über CF/SLI wissen sollte...bis auf einen Nachweis, ob Mikroruckler mit aktiviertem Vsync auch so stark sind. Aus meinen Erfahrungen mit CF (2x X1800XT, damals noch mit Kabelpeitsche :D,2x HD2600 Gemini, 2x 3450, 2x4550) weiß ich nämlich, dass Vsync MR ziemlich ausbügelt. Aber das würde das Fazit komplett umschmeißen...
 
Zuletzt bearbeitet:
es ist schon krass das nach so vielen jahren sli und crossfire immer noch nichts taugt.

also ganz ehrlich die mikroruckler die da zum teil bei amd zu sehen sind gehen einfach gar nicht, aber auch das sich bei nvidia die zweite karte nich ausschaltet halte ich für ein großes manko.

für mich ist sli/cf mittlerweile so uninteressant geworden, dass weitere entwicklungen in diese richtung getrost eingestellt werden können. mitlerweile ist für mich nicht mal mehr ein 2x PCI-Express Board nötig.

es ist einfach schwachsinn. die microruckler werden wohl immer bleiben
 
Danke für den Test, leider wurde aber verpasst, die richtigen High-End-Enthusiast-Tests durchzuführen (5760x1080 bzw. 5760x1200). Auch wenn man nur bedingt Zeit für einen Artikel hat, wäre es doch interessant, wie sich Temp, Lautstärke und Stromverbrauch verändern, wenn man zwishcen den Karten einen Slot frei hat.
Es ist zwar ärgerlich, dass die Mikroruckler wohl ewig "drin" bleiben, aber auch hier gäbe es interessante Ansätze, die Thematik zu vertiefen. Z.B. Mikroruckler, Inputlag und VSync (on, off). Bzw. das ganze mit den 120Hz TFTs. Gibts fps-Bereiche, die so hoch sind, dass Mikroruckler etc. nicht auffallen (können), falls ja, in welchem Bereich.
 
Crysis Warhead - 2560x1600 8xAA geht der GTX 580 der Vram aus. Bei den anderen schafft es Fermis Vram Management irgend wie über Wasser zu bleiben. Aber teilweise fehlt die 8xMSAA Einstellung. Übel wie mit 8xAA der Vram überlauft, GTX 580 bricht komplett ein. Zb. StarCraft 2 - 2560x1600 8xMSAA. Eine AMD bei Starcraft in Front, ist ja ganz was neues. 2GB Version in der Referenz sei Dank.

Die richtig "echten Enthusiasten" greifen dann zur 3GB Version, für SLI also Pflicht: http://geizhals.at/deutschland/a609907.html

Mafia II zeigt schön das sich CF und SLI vom eigentlichen Konzept her selber rauskegeln. Verarsche, Bauernfängerei, Balkenverlängerung. Mehr kann man dazu nicht sagen.

aber das CF mittlerweile so "gut" skaliert ist schon ne feine sache! hätten das auch meine beiden HD4890 mal schon getan ^^
Hättest du 2x2GB HD 4890er gehabt, hätten sie das getan. Bei solchen Settings alles eine Frage des Vrams.

Ich bin einer der leute die µR nicht wirklich wahrnehmen. Wenn ich überlege das man 3 gtx470 für 600€bekommt wo eine gtx580 schon um die 500€ kostet, muss ich echt sagen das es wirklich billig ist.
Graz zum 1A Vram Krüppel Setup, deine Rohleistung verpufft einfach, Strom wird aber trotzdem gesaugt was das Zeug hält. Eines der sinnfreisten Settings überhaupt.
 
Zuletzt bearbeitet:
Stromverbrauch ist doch nun wirklich egal bei solchen Systemen. Wer mal eben 300 € für eine extra-Grafikkarte ausgibt, wird auch das Geld für 50-100 € mehr Stromkosten im Jahr haben.
Man sitzt ja nicht 24/7 am Zockrechner.

700 Watt -> 4 Stunden Zocken jeden Tag, 22 Cent die KWh ->

4x365x0.7x0.22= 230 € ungefähr

Und auf den Wert kommt sicher kaum jemand, der einen Job hat und auch mal im Urlaub ist und auch sonst mal RL hat.
 
Also ich weiß dass es viele fanboys gibt, ich weiß auch dass es viele leute gibt die schon gegen SLI/CF sind ohne jemals ein multi-gpu gespann zu besitzen, aber "ICH" finde, dass SLI schon super läuft. Sicherlich habe ich auch mit den treibern und profilen zutun. Aber wenn jemand SLI oder CF aufbaut, wird derjenige doch sicherlich wissen was er tut und auch in kauf nehmen das er mal ne halbe stunde braucht damit das game dann alle karte voll unterstützt. Und wenn es dann läuft, macht das die ganze mühe wieder wett.
 
Zuletzt bearbeitet:
mobilepayne

Ich behaupte mal es verhält sich wie mit Single GPU Karten. FPS Schwankungen werden immer als Ruckeln angesehen (auch wenn die Werte für sich flüssig wären, wären sie konstant).
 
Über 700 Watt!! Da dreht der Stromzähler um einiges schneller wenn man in die Grafikschlacht zieht ;-) Die Energiekonzerne freuts! :p

Jedoch ist dies tatsächlich nicht mehr Kategorie von Systemkonfiguration, die tatsächlich noch als "brauchbar" bezeichnet werden kann. "Für wahre Entheusiasten" ist wahrlich die richtige Bezeichnung.

700 Watt!!! Damit kann man moderne Backöfen betreiben! ;-)
 
Ich kann das Fazit nicht nachvollziehen.

AMD gewinnt in diesem Test eindeutig. Warum? Ganz einfach, alle Spiele sind in höhster Auflösung spielbar, eben das was man sich von einem High-End-System erwartet während NVidia teilweise unspielbare werte bietet (Ganz klar aufgrund des VRams). Solange es sich um keine 3GB Nvidia Karte handelt kann man also getrost die Finger von diesem "Gespann" lassen, entäuschend, vor allem bei dem Preis.

Außerdem sind SLI/CF Systeme für weitaus höhere Auflösungen gedacht. Wenn die NVidia Karte schon bei der 1 Monitor Lösung einbricht, was kann man dann noch bei einem Mehrmonitor betrieb erwarten.

Der Rest ist den Leuten (Lautstärke, Verbrauch), die so etwas betreiben, eh egal.
 
Zuletzt bearbeitet:
Aber wenn jemand SLI oder CF aufbaut, wird derjenige doch sicherlich wissen was er tut
Das halte ich für ein Gerücht;), TRI-SLI mit nur 1280MB Vram sprechen da eine ganz andere Sprache. Grundlagen -> fail 3GB bräuchte man für TRI-SLI Mindestens.

Solange es sich um keine 3GB Nvidia Karte handelt kann man also getrost die Finger von diesem "Gespann" lassen, entäuschend, vor allem bei dem Preis.
singn
 
Bei den Treiberprofilen hat doch nvidia immer noch den Vorteil, dass man sie zur Not selbst basteln kann. Bei ATI geht außer Exe-Renaming doch immer noch nichts, oder?!
 
am einfachsten ist es die spiele, die solche anforderungen haben auf eine liste zu setzen, um sie nach 10 jahren auf einer office-graka zu spielen. die vorteile liegen auf der hand ;)
 
Super Test!

Bei den zwei 580er NV. im OC Zustand reicht kein 850er NT. mehr aus. Das pfeift ja sonst aus allen Löchern, echt der Hammer. :freak:
 
Kasmopaya schrieb:
Das halte ich für ein Gerücht;), TRI-SLI mit nur 1280MB Vram sprechen da eine ganz andere Sprache. Grundlagen -> fail 3GB bräuchte man für TRI-SLI Mindestens.


singn

Bis jetzt sind die karten mit jedem spiel super fertig geworden. Alles was manchmal alles nach unten zieht ist die cpu, aber darüber war ich mir schon vorher im klaren. Auch dass die karten "nur" 1.28Gb haben war mir kla. Nur als ich die karten gekauft habe, war das high-end.

"ICH" bin mit dem setup das ich fahre sehr zu frieden. Du bist halt einer anderen meinung.
Es gibt auch genug leute die ein ähnliches setup haben und ohne probleme spiele spielen können.
 
Schöner Test.

Aber über 700 Watt für nen PC ist viel zu viel. Auch im Idle sind die PC keinesfalls Stromsparend.....
 
Zitat von tasikgamer
Synthetische Benchmarks:

* 3DMark 11, Version 1.00


den habt ihr doch vergessen oder irre ich da?

Schön hat es noch ein anderer bemerkt hat :) Nein irrst dich glaub wirklich nicht, kann den Benchmark auch nicht finden...
 
@Raucherdackel

richtig, Vsync ist bei mir immer an. habe auch ein crossfire gespann und dann sieht die sache wirklich ganz anders aus. wie schon einige male erwähnt "microruckler? was ist das?"

verstehe nicht was manche hier loslassen, viele hatten wahrscheinlich noch nie zwei grafikkarten am laufen und erzählen ein zeug! vorallem verstehe ich nicht warum mit so einem test nicht gewartet wird bis wirklich die passenden treiber bereitstehen. für mich sind die ergebnise die hier bei den hd 6900 gespannen rauskommen total für die katz.

MFG
 
Zurück
Oben