Test Test: Radeon HD 6900 CF vs. GeForce GTX 500 SLI

OldDirtyBastard schrieb:
@Raucherdackel

richtig, Vsync ist bei mir immer an. habe auch ein crossfire gespann und dann sieht die sache wirklich ganz anders aus. wie schon einige male erwähnt "microruckler? was ist das?"

verstehe nicht was manche hier loslassen, viele hatten wahrscheinlich noch nie zwei grafikkarten am laufen und erzählen ein zeug! vorallem verstehe ich nicht warum mit so einem test nicht gewartet wird bis wirklich die passenden treiber bereitstehen. für mich sind die ergebnise die hier bei den hd 6900 gespannen rauskommen total für die katz.

MFG

Da spricht mir jemand aus der seele :D
 
@OldDirtyBastard
Wenn du den Vsync nicht merkst, dann wirst du auch die microruckler nicht merken.
Ich kann Sh00ter nicht einmal mit vsync-an spielen, weil ich den lag deutlich sehe.

Mir haben früher bei Unreal1 16-20fps gereicht, jetzt merke ich jeden kleinen drop unter 60fps...

Für mich kommt nur eine singel-gpu in Frage, ich drehe lieber die Grafik runter und hab dafür ein wirklich flüssiges Spiel.
Wenn du es nicht merkst, dann kannst du eigentlich froh darüber sein.
Wer nie guten Wein probiert hat, wird sich auch mit wenigen gutem zufrieden geben :)
 
Zuletzt bearbeitet:
bei cf und sli muss man einfach vieles beachten, das ist alles. und wenn man sich nicht damit beschäftigt klappt halt so manches nicht. habe mich sehr intensive mit multigpu lösungen beschäftigt, und werde auch in zukunft jede sli oder crossfire lösung einer einzelnen grafikkarte vorziehen. denn die leistung ist brachial. und in meinem umfeld sind mehrere leute die cf und sli lösungen haben, bei dennen es 100%ig läuft ohne probleme. da sieht und merkt man auch keine microruckler.

ich habe immer minimum 60 fps nie weniger und momentan habe ich noch einn recht schwache cf lösung mit 2xhd5770. microruckler sind messbar aber nicht wahrnehmbar.
hast du schon napoleon - total war richtig gespielt, mit allem auf maxedout? es ist ein genuß und das war mit einer einzelnen grafikkarte bei mir nie der fall das ich es in solch einer pracht gesehen habe. ist zwar auch recht gut gelaufen, aber nie so heftig wie mit 2 grafikkarten.
 
Zuletzt bearbeitet:
so nun manl..718 Watt unter Last..Oha..Ich nach langer Jahre Erfahrung mit SLI steig da nun Endlich aus..
. Hatte 2 480 GTX im Einsatz...und ob´s was bringt bin da nicht mehr so überzeugt von..

Schicke mein 2 in Rente und hole mir ne schön Wakü 580 GTX...Die Karten sind heute so schnell mit den 4 Kerne..da lohnt SLI garnet mehr und Crossfire schon gar nicht..

Mit einer läuft jeden Game flüssig und unter Last 718 Watt. Schönen Gruss and die die 3 GTX 480 oder 580 verbaut haben..

Und die Laustärke wenn man 2 Karten nutzt, dazu kommt die Wärmeentwicklung, ich sagen Nein danke SLI. Ab jetzt nur noch Singel GPU.

Jahrelange genutzt SLI, aber verbessert hatt sich das nicht, Ziemlich trauig von Nvidia nach so vielen Jahren
...
 
Danke liebes CB Team für den tollen Test :)

Raucherdackel schrieb:
Netter Artikel, steht eigentlich alles drin was man über CF/SLI wissen sollte...bis auf einen Nachweis, ob Mikroruckler mit aktiviertem Vsync auch so stark sind. Aus meinen Erfahrungen mit CF (2x X1800XT, damals noch mit Kabelpeitsche :D,2x HD2600 Gemini, 2x 3450, 2x4550) weiß ich nämlich, dass Vsync MR ziemlich ausbügelt. Aber das würde das Fazit komplett umschmeißen...

Ich spiel auch nur mit Vsync, ob mit oder ohne SLI, bißchen Verzögerung stört mich weniger als belanglose Grafik. Detaillierte Tests dazu wären dann toll für 2012 (man kann ja nicht alles auf einmal haben).

Wobei ich dazu sagen muß : Auch mit Vsync braucht man im SLI am besten 60fps. Diese sind dann aber auch anstandslos zu genießen !

Kasmopaya schrieb:
Crysis Warhead - 2560x1600 8xAA geht der GTX 580 der Vram aus. Bei den anderen schafft es Fermis Vram Management irgend wie über Wasser zu bleiben. Aber teilweise fehlt die 8xMSAA Einstellung. Übel wie mit 8xAA der Vram überlauft, GTX 580 bricht komplett ein. Zb. StarCraft 2 - 2560x1600 8xMSAA. Eine AMD bei Starcraft in Front, ist ja ganz was neues. 2GB Version in der Referenz sei Dank.

Wir wissen ja das der Unterschied im Vram Verbrauch von 4 auf 8xAA gewaltig ist, speziell in der Auflösung. Auch 4xMSAA + 4xTSSAA frisst weniger Leistung. Wenn man jetzt noch einen anständigen Monitor mit einer geringen Pixeldichte fährt, dann sieht die Welt schon wieder ganz anders aus.

Die richtig "echten Enthusiasten" greifen dann zur 3GB Version, für SLI also Pflicht:

Die richtigen Enthusiasten mit einer Karte und einem FullHD Schirm wie Du, können auch mit einer 1,5GB Karte auskommen. Enthusiasten mit Verstand kaufen sich nicht zwei Karten für 1250€, die in 12 Monaten eh schon wieder ausgetauscht werden müssen ;)

Graz zum 1A Vram Krüppel Setup, deine Rohleistung verpufft einfach, Strom wird aber trotzdem gesaugt was das Zeug hält. Eines der sinnfreisten Settings überhaupt.

So wenig ich auch von der Kombi von Kozacks halte, aber er wird dich und deine 3GB oftmals verheizen, dazu kommt das er schon 9 Monate sein Spass hatte und zum 28nm Shrink auch noch einigermaßen Geld wieder raus bekommt, wenn er seine Karten verkauft.

Wärend Du deinen heiligen 3GB Gral irgendwann verschenken musst, als Langzeithalter einer "Anti Klima Karte".
 
@Redaktion, habe noch einen kleinen Fehler endeckt auf Seite 9,
Spielerisch macht der Titel alles richtet und konzentriert ...

Ansonsten super Artikel der mir zeigt dass ein Cf- oder Sli Gespann wohl wirklich nur fuer Enthusiasten interessant ist, alleine schon von der Lautstaerke und dem relativ hohem Stromverbrauch eines derartigem Setups.
Fuer mich wuerde eine 580er schon dicke reichen :)
 
Ich gehöre zu der Sorte, der Mikrorucklererkenner.

Hatte damals ne HD3870x2 512MB... Ich habs mir damals nicht recht bemerken lassen (hatte immer gute 50FPS wenn ich mal was gezockt habe). Hab dann so ne gleichstarke HD4850 512MB gewonnen (ja gewonnen :)), eingebaut... Zwar immer noch um die gute 50FPS aber es fühlt sich doch viel viel besser an. ^^

Mich nerven FPS-Bereiche einer Singlekarte von 30-40 ... 50 eigentlich auch. Ab 60 muss bei mir alles sein. Ist halt so, ich merk mir jede Scheiss an. ^^ Gut bei VSync erkenn ich nichts, so lang die Rohleistung passt und nichts unter 60FPS wandern könnte (FPS wird ja dem Hz angepasst, was zu Rucklern führen könnte so viel ich weiss). Wenn das die Microruckler wirklich zerstören kann, dann wäre auch ein Tri-SLI nicht schlecht (natürlich nur mit den 3GB Karten, die wohl bald kommen werden)

Ansonsten schöner Test. Jetzt sieht man, dass aber SLI/CF allgemein noch nicht ganz ready ist. Zwar finden viele Enthusiasten zu solche Settings aber ich würds noch nicht wirklich machen wollen.
 
Zuletzt bearbeitet:
Zeigt wieder mal das Microrucker bei ATI immer noch störend sind! Darum flogen mein 4890 gespann raus.
 
Super Test und wichtiges Thema!

stimme olddirtybastard voll und ganz zu.
Viele Leute haben wahrscheinlich ein SLI / CF System der aktuellen Generation noch nie gesehen und lästern, weil sie sich vielleicht ihrer finanziellen Beschränkungen bewußt sind. ;-)
Mein GTX 470 SLI Gespann funktioniert fantastisch (bfbc2, dcs a-10, usw.) und es ist eben ein riesiger Unterschied, ob man mit 30 oder 60 Frames zockt. Das bessere P/L Verhältnis einer (geflashten) 6950 CF Combo im Ggs. zu einm 570 / 580 SLI Gespann ist jedoch zu berücksichtigen, auch wenn ich aufgrund persönlicher Erfahrung lieber eine Nvidia Karte nehemen würde.

Lautstärke und Temperatur kann ein Problem sein, bei der richtigen Karte bzw. Kühllösung und dem entsprechenden Abstand auf dem MB ist das aber auch irrelevant.
Würde mir immer wieder ein SLI Gespann holen, insbesondere jetzt, wo die 3GB 580er Variante raus ist, sind die letzten Contra-Argumente gegen ein Multi-Monitor Setup auch vom Tisch. Mit soviel VRAM Kann nichts mehr schiefgehen. :-]

Schönen Montag noch
Scheffchen
 
AMD muss sich dringend der µRucker Problematik annehmen, wie es Nvidia getan hat.
Klarerweise immer noch vorhanden, aber deutlich verbessert zu früheren Generationen.

Ansonsten, schön zu sehen wie gut die AMD dank 2GB RAM performen.
 
Tja der twst zeigt 2 dinge ganz klar:

1. SLI ist Crossfire nach wie vor überlegen was Microruckler angeht, auch wenn die skallierung bei beiden mittlerweile gleichauf ist.

2. unter 2G GDDR braucht man in DIESER leistungklasse kaum mit nem dual system anzufangen, da man ja die hohen auflösungen und maximalen einstelungen fahren will. hier ist selbst die 580 mit ihren 1,5 gig zu schwach bestückt. aber abhilfe kommt, sowohl die 570 als auch die 580 sind mit doppltem speicher angekündigt. ich hoffe auf ein testupdate zu diesem zeitpunkt.
 
Hmm der I7 scheint im Idle auch kein Kostverächter zu sein 187W sind schon heftig für die 6950 im CF, habe da mit dem X6 nur ca. 150W, oder liegt das an dem Übertakten das er da nicht mehr so zurückschaltet.

Die bösen bösen Mr ich kann sie nicht feststelle.
 
Im Zwei-Monitor-Betrieb fahren die AMD-Kandidaten dagegen einen gefahrlosen und deutlichen Sieg ein. So braucht die GeForce GTX 570 im SLI-Modus gleich 39 Watt mehr als eine Radeon HD 6970 im CrossFire-Modus.
Wie sieht es denn aus wenn man pro Karte einen Bildschirm anschliesst? Hab das letzte Woche bei meinen GTX 460 gemacht, Bildschirm an die Erste über DVI und Fernseher über HDMI an die Zweite dann takten auch beide im Windowsbetrieb auf 51 MHz Core und 135 MHz Speichertakt bei 0,875 V Spannung hinunter, dürfte bei der 570/580 nicht anders sein und dann würden sie wohl näher an die Radeons herankommen
 
Zuletzt bearbeitet:
Schöner Test.

In der Bewertung find ich es schade, das wenig auf den Preisvorteil der ATI eingegangen wird. Insbesondere, wenn man eine 6950 als 6970 betreibt - ok, noch mehr Nische ;)

Ich betreibe "erfolgreich" zwei 6950@6970 (aber mit leicht gesenkten Taktraten, weil ich das "Mehr" an Power noch nicht benötige). Multiplayer BC2 bei 1920x1200 in besten Details und maximaler Qualität gehts trotzdem gut ab, was die FPS angeht. Durchschnitt zwischen 70 und 110, geht aber auch mal runter auf 35-45. Naja, bedingt durch die Latenzen von Mitspielern etc.

Dennoch: interessant, das nVidias Top-Karte nun im SLI nicht mehr eindeutig führend ist!
 
Am Multimonitorverbrauch muss nVidia echt noch arbeiten, aber insgesamt bleibt die nVidia -Partie das "rundere" Produkt.

Und mir wär ein SLI/CF Test mit Midrange Karten - sprich GTX 460 und HD 6860 - lieber gewesen, da der doch realitätsnäher ist als ein Gespann mit den Leistungsstärksten Grafikkarten die es gibt.

drago, wenn du den Teil zu den mikrorucklern liest wirst du sehen dass sie nicht in jedem Spiel auftreten.

mfg
 
700W.. bald landen die ganzen PCs bei 1kW und man braucht 400V um den zu betreiben oO is ja echt krank..
Wenigstens braucht man diesen Raum nicht extra beheizen ;)


SLI/CF ist zwar ganz nett und man hat nen volles Gehäuse mit 2 dicken Grakas - aber für mehr ist das auch nicht..

Derselbe Test mit Midrange-Karten ala HD6850 oder GTX460 wäre interessant weil man ja eigentlich mit 300€ so schon ein SLI/CF System bauen kann - ob es was bringt steht da aber auch wieder in den Sternen..

Ich hatte noch nie ein SLI/CF System, hatte mal überlegt die 8800GTX im SLI laufen zu lassen, aber dazu kam es nie, war mir einfach zu teuer...
 
Der Test zu den Mikrorucklern ist ok.

Nu die AA Modiis sind dürftig, gerade mit SLI-AA gibt es keine Mikroruckler und dafür aber eine tolle Glättung. Zudem bekommt man mit Supersampling fast immer eine gute Auslastung bzw. Skalierung hin.


SLI ist für Freaks und der Test orentiert sich leider zu sehr am Mainstream.
Auch der Punkt Nvidia hohe Qualität gegen, CF AI on wird gar nicht erwähnt.
 
Schöner Test. Ich hätte mir im Fazit aber wenigstens noch einen Nebensatz zu der nicht unerheblichen Preisdifferenz (2 x Ati: 616 Euro, 2 x nVidia: 924 Euro!) gewünscht. Wenn die nVidia-Lösung exakt 50 % mehr kostet, müsste man eigentlich auch eine 50 % bessere Leistung (unter welchen Kriterien auch immer) erwarten können.
 
Ja, der Preis ist auch ein interessanter Aspekt. Erstaunlich wie viel AMD in letzter Zeit an der Skalierung gearbeitet hat.

Ich glaube auch nicht, dass das nur am VRAM liegt, der macht sich erst in den höheren Auflösungen + 8xMSAA bemerkbar.

gruß
 
Mal eine Frage weiss einer ob bei verschiedenen Betriebsmodi (SFR, AFR, SuperTiling) die Mickroruckler mehr/extremer auftreten. Und wie sich die Bildqualität bei (SLI Antialiasing vs. SuperAA) verhält?
 
Zurück
Oben