Test Test: Radeon HD 6900 CF vs. GeForce GTX 500 SLI

@Ralf T

bei metro 2033 muss ich auf aa verzichten, richtig! um annähernd einen flüssigen spiel ablauf wie eine hd 5870 mit aa hin zu bekommen.

aber bei crysis warhead, bin ich was die einstellungen 4xaa, 16xaf und enthusiast ganz knap hinter der hd 5870. müsste warhead mal wieder installieren um ganz sicher zu sein. aber so weit ich mich noch erinnern kann war da nicht viel dazwischen vom leistungs unterschied.


was mich persönlich sehr überrascht hat war napoleon total war, 4xaa und 16xaf alles ultra und es rennt durchweg mit 60fps. bei extremen schlachten bricht es bis auf 30-35 fps ein wenn die kanonen los hämmern wie blöd und jede menge rauch auf dem schlachtfeld aufkommt.ist aber nicht störend.
 
Zuletzt bearbeitet:
was mich persönlich sehr überrascht hat war napoleon total war, 4xaa und 16xaf alles ultra und es rennt durchweg mit 60fps.

Also auch wenn ich sonst nicht so negativ gegenüber CF/SLI bin - aber DAS glaube ich dir nicht. Allein schon wegen dem extremen VRAM verbrauch in den Total War Spielen.

Siehe dazu auch HisNs thread über VRAM Usage.

Hier nur ein kurzer link wo einer 1.25GB GTX570 in Napoleon einfach mal der VRAM ausgeht bei den oben angesprochenen settings.
http://forums.totalwar.com/showthread.php/4739-GTX570-Not-powerfull-enough-for-NapoleonTW-!!!

ERGO glaube ich nicht dass ein CF-Gespann mit 1GB HD5770, noch dazu in CF wo ein wenig Speicheroverhead nocht dazu kommt wegen der Synchronisation, das packen.

Allein schon wegen VRAM.
 
Zuletzt bearbeitet:
@Iscaran

ich zocke dieses spiel täglich, teilweise mit 4 g 4 im multiplayer und es ist wirklich so.
ich dachte auch erst es würde zu sehr einbrechen, aber ich wurde eines besseren belehrt. bei extremen schlachten geht es auf 30- 35 fps runter aber es fängt sich nach einer zeit wieder und geht auf 60 fps. habe allerdings auch eine übertaktung der beiden karten von 900mhz auf dem gchip und 5100 mhz auf dem arbeitsspeicher der karten. und mit einem vram test wird es schon recht knap aber es langt gerade so noch. dort sind dann aber auch temperauren von 80-85 grad keine seltenheit auf beiden karten.
 
Zuletzt bearbeitet:
Nuja, viel Wind um nichts, bzw. wussten wir das alles schon vorher. Überspitzt formuliert. Beide Hersteller müssen daran arbeiten, die MR zu bekämpfen, auch wenn sie für den einzelnen im Zweifel kein Problem darstellen mögen.

Allerdings sehe ich nach wie vor bzw. mittlerweile weniger denn je einen Sinn in MultiGPU. Anforderungstechnisch hat sich seit Crysis nichts mehr getan (vlt. Metro noch), die GPUs sind seitdem nochmal deutlich stärker geworden.

(stärkste Graka war zu der Zeit immer noch die 88GTX, AMD kam kurze Zeit später mit der 4870, was heute nur noch als midrange durchgeht.)

Also wenn man sinnlos sein Geld verblasen muss, dann mit CF/SLI. Eine Lösung im 200€ Bereich erscheint mir auf Dauer immer noch am sinnvollsten, wenn man nicht grade 30" befeuern muss. Immer eine Gerneration überspringen, am besten zwei, dann fährt man ganz OK denke ich.

(habe meine 3870 seit Erscheinen und werde die HD6 ebenfalls überspringen und komme noch einwandfrei klar, wären 3 Generationen übersprungen. Vielleicht sitze ich die HD7 auch noch aus, mal sehen was kommt)

Gandalf2210 schrieb:
na na na, was lese ich denn da schon in der einleitung:
"Langsamere Konstellationen machen aufgrund der technischen Schwierigkeiten bei mehr als einer GPU wenig Sinn"

nur weils es im englischen "make sense" heisst, heisst das nochlange nicht, dass es im Deutschen soetwas wie "Sinn machen" gibt, höchstens Sinn ergeben.

scrp schrieb:
Bitte achtet doch ein wenig mehr auf korrekte Formulierungen, sowas wird hier nur noch weiter verbreitet. Ansonsten ein wirklich guter Artikel.

Sorry für komplettes OT, aber "etwas macht Sinn" gibts belegbar (also schriftlich) schon seit 1916 und ist in der deutschen Sprache absolut verwendbar und auch gebräuchlich.

Hier zum nachlesen

(Wer es aus irgendwelchen Gründen trotzdem nicht verwenden möchte, soll das auch (nicht?) tun, aber anderen auch ihre Sprachgewohnheiten nicht verbieten. Danke!)
 
Ein CF aus Mittelklasse-Karten ist wie ein CF aus einer älteren Generation... wenn ich daran denke wie mein CF aus 2 HD3870 (das so schnell wie eine 4870 / 5770 sein sollte) von eben genau einer 5770 in den Boden gestampft wurde... das war nicht mehr feierlich...

CF ist was für Bastler mit zu viel Geld (vor allem wenn man den Preisunterschied bei den Mainboards bedenkt)

Ja: ich hab auch über ein neues CF nachgedacht. Aber nachdem scheinbar mein teures CF-Mainboard Probleme macht wars das... so ein teures Teil hol ich mir nicht nochmal. (das Mainboard ist wohl die sinnloseste Komponente am PC... kostet nur Geld und muss mit fast jedem CPU-Upgrade mit ausgetauscht werden...)
 
Endlich! Tausend Dank! auf so einen Test habe ich schon lange gewartet.

Aber da ihr euch schon so auf diesen test habt drängen lassen, werdet ihr wohl kaum in nächster Zukunft einen "Zwei Grafikkarten" Test machen mit dem Lucid Hydra chip und ein par ungewöhnlichen kombinationen oder? Zbsp, 580 mit 6970, 6970 mit 6870, 580 mit 560 usw.
 
Zuletzt bearbeitet:
Zitat von mmic29 Beitrag anzeigen
zu 2. warum sollte sich im Bereich MR gerade jetzt etwas getan haben bzw. sollte man eine gewissen Besserung auch schon bei den verwendeten Treibern bemerken.

Ein RC Treiber liefert alle Funktionen welche der fertige Treiber auch liefern sollte, jedoch ist ein RC SW meisst noch relativ innefizient ist. In diesem Fall kann es sein, das durch eine kleine Optimierung die Unterschiede der Frameraten von +-15 auf unter +-10 senken lassen könnte, was ein ganz andere warnehmung des Bildes ergeben würde.
Bei AMD ist der Umstieg von 5D/4D frisch.
Die GTX480 hat nach den ersten paar Monaten je nach Spiel 5-10% mehr FPS gewonnen was bei der HD6900 auch nicht anderst sein wird.
 
Zuletzt bearbeitet:
Hm, der Sinn von CF/SLi will sich mir immer noch nicht erschließen. Gut, ich könnte es ja noch irgendwie verstehen, das einer gleich ein Array von 30"-Displays vor sich hat - das wird aber dann doch wohl die Ausnahme sein. Ist ja nicht so, dass eine GTX 580 sonderlich günstig wäre...

Abgesehen davon: Wenn schon, würd ich gleich zu einer Dual-GPU-Karte greifen. Braucht weniger Platz, und wenn ich eine Wakü hab, brauch ich auch nur einen, statt gleich zwei neue Kühlkörper... :D


KAOZNAKE schrieb:
Sorry für komplettes OT, aber "etwas macht Sinn" gibts belegbar (also schriftlich) schon seit 1916 und ist in der deutschen Sprache absolut verwendbar und auch gebräuchlich.

Hier zum nachlesen

(Wer es aus irgendwelchen Gründen trotzdem nicht verwenden möchte, soll das auch (nicht?) tun, aber anderen auch ihre Sprachgewohnheiten nicht verbieten. Danke!)

Du wirfst hier zwei Sachen in einen Topf: Einerseits den schriftlichen Nachweis der Verwendung, andererseits die grammatikalische Korrektheit.

Die Tatsache, DAS jemand einen Ausdruck verwendet, bedeutet ja noch lange nicht, dass er 1.) korrekt ist, und 2.) originären Ursprungs der betroffenen Sprache ist. Ebenso werden Elemente andere Sprachen ja nicht erst seit gestern in der deutschen Sprache verwendet, sonder quasi seit Anbeginn der Zeit, so wie das ja auch in allen anderen Sprachen der Fall ist. Der Hinweis, XV wurde bereits im Jahr xxxx fixiert, ist somit kein stichhaltiges Argument contra Fremdaneignung.

Was aber durchaus erkannt wurde, ist die Tatsache, dass mit der Zahl jener, die einen Ausdruck verwenden, die Ansicht überhand nimmt, dass die betroffene Phrase ein Teil des Wortschatzes sei.

Das ist per se natürlich keine negative Entwicklung; Sprachen sind etwas lebendiges, entwickeln sich stets weiter. Das ändert allerdings nichts am logischen Unsinn diverser Ausdrücke - und dazu gehört eben auch "Sinn machen" (vgl auch "einzigste" uvm).

Womit du wohl recht hast: Penetrantes Rumnörgeln an der ...Ausdrucksweise Anderer sollte grundsätzlich unterlassen werden - die Pisa-Härterfälle, die meinen, Interpunktation und Satzbau wären Dinge für Milchbubis, mal dezent ignoriert.
 
amd_24 schrieb:
Ist schon beachtlich, wie gut ein Multi-GPU System in bestimmten Spielen skaliert, allerdings gehöre ich zu der Fraktion, die Mikroruckler zu sehr wahrnehmen. Deswegen war meine 2. Karte ein Fehlkauf und wurde wieder verkauft.

Da kann ich dir nur zustimmen! Zum Glück hatte ich mir keine zweite ATI Karte gekauft, sondern hatte es neulich einmal getestet als ich mal wieder für einen Kumpel einen PC zusammengebaut hatte und dadurch die gleiche Karte liegen hatte. Das war kein Vergleich zu meinem damaligen 280 GTX SLI Gespann. :(
 
Hallo


Vielen Dank Wolfgang und CB für diesen fetten Test!

Das neue Testsystem ist echt spitze und die Games zahl- und abwechslungsreich.


Multi GPU:

teils beeindruckende Power, teils entäuschende min.fps. Derzeit kein Bedarf


mfg
 
Voronwe schrieb:
...
Du wirfst hier zwei Sachen in einen Topf: Einerseits den schriftlichen Nachweis der Verwendung, andererseits die grammatikalische Korrektheit.

Richtig, aber wenn Verleger und Literaten etc. den Ausdruck schon seit nahezu einem Jahrhundert bei publizierten Texten in Gebrauch haben ist es wenig sinnvoll von einem sich "neuerdings eingeschlichenen Anglizismus" zu sprechen.

Die Tatsache, DAS jemand einen Ausdruck verwendet, bedeutet ja noch lange nicht, dass er 1.) korrekt ist, und 2.) originären Ursprungs der betroffenen Sprache ist. Ebenso werden Elemente andere Sprachen ja nicht erst seit gestern in der deutschen Sprache verwendet, sonder quasi seit Anbeginn der Zeit, so wie das ja auch in allen anderen Sprachen der Fall ist. Der Hinweis, XV wurde bereits im Jahr xxxx fixiert, ist somit kein stichhaltiges Argument contra Fremdaneignung.

Auch richtig, aber die Tatsache, dass irgend ein selbsternannter Rechtschreibgott einen Ausdruck verbietet, weil er ihm nicht geläufig ist bedeutet ja auch noch lange nicht, dass er deshalb falsch sei. Ebensowenig ist es für die Korrektheit relevant ob etwas fremdangeeignet ist oder nicht. Letztlich gehen Englisch/Deutsch/Latein etc. alle auf ein Urindogermanisch zurück und abertausende Ausdrücke sind fremdangeeignet.

Das ist per se natürlich keine negative Entwicklung; Sprachen sind etwas lebendiges, entwickeln sich stets weiter. Das ändert allerdings nichts am logischen Unsinn diverser Ausdrücke - und dazu gehört eben auch "Sinn machen" (vgl auch "einzigste" uvm).

...

Lies dir alle Teile durch. Dort wird auch wissenschaftlich dargelegt, wieso "Sinn machen" kein logischer Unsinn ist oder zumindest wird bewiesen, dass nach dieser "Logik" andere anerkannt-korrekte Ausdrucksweisen mit "machen" genauso wenig sinnvoll sind. Das Argument zieht nicht und der Vergleich mit "einzigste" passt nicht. Es handelt sich lediglich um eine Ausdrucksweise, die manche in ihrem Wortschatz nicht haben. In der Folge wird natürlich das Sprachgefühl verletzt und man geht auf die Barrikaden.

Lustigerweise hatte man genau dasselbe hier schon bei einem anderen Beitrag
https://www.computerbase.de/forum/posts/8876979/
 
Zuletzt bearbeitet:
1 blick auf die Lautstärke und mehr als single gpu is für mich uninteressant :D .

Aber 2560 können die amds von ihren 2gb vram schön gebrauch machen .
Hoffe ihr testet die 3gb 580er auch nochmal im sli als update für den artikel. wär interessant wieviel Leistung der kleinere Vram der 580 kostet.
 
Vitec schrieb:
1 blick auf die Lautstärke und mehr als single gpu is für mich uninteressant :D .

Aber 2560 können die amds von ihren 2gb vram schön gebrauch machen .
Hoffe ihr testet die 3gb 580er auch nochmal im sli als update für den artikel. wär interessant wieviel Leistung der kleinere Vram der 580 kostet.



Hier hätte die CB auch noch etwas dazu schreiben können.
Man sollte bzw. muss eigentlich bei jedem Multi GPU Test dazu schreiben das die Lautstärke Board abhängig ist. Wenn die PCIe Slots wie bei dem Board von der CB genau untereinander sind bekommen die Karten sehr wenig Luft, ergo dreht der Lüfter schneller und es wird lauter.
Wenn allerdings 1 oder gar 2 Slots dazwischen sind, dann kann die Luft besser zirkulieren und die Konfiguration wird nicht lauter.
Das gleiche für das Gehäuse. Ein Gehäuse was vorne 2 120mm Lüfter hat solch ein Konfiguration auch besser mit frischer Luft versorgen.

Leider ist eben der CB Test sehr mangelhaft, aber das wurde schon ein paar mal erwähnt.
 
Ralf T schrieb:
Hier hätte die CB auch noch etwas dazu schreiben können.
Man sollte bzw. muss eigentlich bei jedem Multi GPU Test dazu schreiben das die Lautstärke Board abhängig ist. Wenn die PCIe Slots wie bei dem Board von der CB genau untereinander sind bekommen die Karten sehr wenig Luft, ergo dreht der Lüfter schneller und es wird lauter.
Wenn allerdings 1 oder gar 2 Slots dazwischen sind, dann kann die Luft besser zirkulieren und die Konfiguration wird nicht lauter.
Das gleiche für das Gehäuse. Ein Gehäuse was vorne 2 120mm Lüfter hat solch ein Konfiguration auch besser mit frischer Luft versorgen.

Das ist alles richtig was du sagst, aber irgendwo muss man auch eine Grenze ziehen und die von CB herbeigeführten Testbedingungen sind durchaus realistisch.

Natürlich wäre es noch besser wenn
man CF mit offenem Gehäuse und hingestelltem 50er Ventilator betreibt
man CF in einem klimatisierten Serverraum betreibt
man CF mit Wakü betreibt

usw.

Doch es gibt sehr viele CF Boards die keinen Abstand lassen und es gibt sehr viele Gehäuse die nicht 4 120er Lüfter installiert haben usw. Von daher kann man den Test durchaus so durchführen und jeder halbwegs gebildete Mensch wird den Test dann einordnen können.

Man kann unmöglich für jeden und seine persönliche Vorstellung einen eigenen Test anfertigen.

Leider ist eben der CB Test sehr mangelhaft, aber das wurde schon ein paar mal erwähnt.

Das kann ich nicht bestätigen. Im Gegenteil ist der Test sehr gut (aber natürlich nicht perfekt).
 
SLI/CF ist laut, heiß und giert nach Leistung aus der Steckdose – daran hat sich auch 2011 nichts geändert.

Dem kann ich nicht zustimmen, wenn man ein paar selbstverständliche Punkte beachtet.

Also meine zwei 5870er (eine Powercolor, eine Sapphire Vapor-X) laufen auch unter Volllast angenehm leise, wobei ich ein Monstergehäuse CM HAF932 habe. In einem 21cm-Miditower kann man natürlich kein SLI/CF betreiben, aber wenn man die Voraussetzungen dafür schafft muss es alles andere als laut sein. Gierig an der Steckdose sind die zwei 5870 auch nicht. Im Mittel fressen beide zusammen unter 3D 270W. Das verbrutzelt mir bereits eine einzelne GTX480 bei hoher Last, im Schnitt sind es dort aber auch schon 230W. Und das bei deutlich niedrigerer Leistung. Heiß werden die 5870er im übrigen auch nicht, denn beide sind belüftet, der Luftfluss im Gehäuse ist optimiert.

Daher: meine Lösung ist nicht laut, sie wird nicht heiß und sie frisst für die enorme Leistung nicht viel Strom aus der Steckdose. Eine einzelne GTX480/580 in einem Miditowergehäuse ist lauter, heißer und frisst annähernd dieselbe Menge Strom, alles bei deutlich niedrigerer Leistung. Ich finde dieses Endergebnis daher falsch und zu verallgemeinernd.
 
Ralf T schrieb:
Man sollte bzw. muss eigentlich bei jedem Multi GPU Test dazu schreiben das die Lautstärke Board abhängig ist. Wenn die PCIe Slots wie bei dem Board von der CB genau untereinander sind bekommen die Karten sehr wenig Luft, ergo dreht der Lüfter schneller und es wird lauter.
Wenn allerdings 1 oder gar 2 Slots dazwischen sind, dann kann die Luft besser zirkulieren und die Konfiguration wird nicht lauter.
[...]

Leider ist eben der CB Test sehr mangelhaft, aber das wurde schon ein paar mal erwähnt.

Unabhängig vom Hersteller raten wir zudem zu einem Mainboard, das ein wenig Freiluft für die Kühlsysteme lässt, wenn zwei Grafikkarten eingebaut sind. Denn ansonsten muss eine enorme Geräuschentwicklung durch den nach Luft hechelnden Lüfter der oberen Karte in Kauf genommen werden. Darüber hinaus sollten immer noch nur erfahrene Benutzer zu CrossFire oder SLI greifen, da die Systeme einfach mehr Pflege als die mit einer einzelnen Grafikkarte benötigen.

https://www.computerbase.de/2011-01/test-radeon-hd-6900-cf-vs-geforce-gtx-500-sli/25/#abschnitt_fazit

:rolleyes:
 
@OldboyX

Es sollte aber wenigstens erwähnt werden dass es auch leiser & kühler sein könnte.
Die CB hat doch schon so viele Boards getestet, es würde ja ein Foto reichen welches den Unterschied deutlich macht.
Es ist auch richtig das es viele Boards gibt die keinen Abstand zwischen den Karten lassen, aber es gibt auch Boards die für Multi GPU besser geeignet sind und genügend Abstand lassen

Und es gab schon viele Tests die etwas unglaubwürdig waren, der Mini ITX Test z.B. Da glaube ich nach wie vor die Verbrauchswerte nicht.
Diesbezüglich wurde aber nie Stellung genommen.
 
Irre das es immernoch Tests mit AS und AF gibt, wo doch die Qualität nicht die selbe ist.
Ist doch schon lange bekannt das dort Unterschiede sind... schummel-AMD tz!
 
@Ralf T
1. Dass es bei Dual-GPU-Systemen von Vorteil ist, wenn die Karten nicht aufeinander hocken, braucht mir kein Test zu sagen (obwohl er das tut!), sondern das macht der gesunde Menschenverstand.

2. Wen in aller Welt soll es jucken, wenn du den Meßwerten nicht glaubst? Ich glaube nicht an Hasenpfoten, na und?
 
Echt schade, dass Ihr Arma2 OA nicht mehr testet. :(
 
Zurück
Oben