Test Test: CrossFire, SLI oder Einzelkarte?

Hui, hier ist aber was los!

Der Test ist gut, der Ton ist oft daneben - was ich aber zum Teil verstehen kann. Wenn man sich schon die Zeit nimmt und einen ausführlichen Test macht, dann sollte man es entweder richtig machen oder es dazu schreiben. Ein solches Ungleichgewicht in den Voraussetzungen erlaubt einfach keinen Vergleich zwischen Hardware - und als solches ist dieser Artikel doch gedacht, oder?

Was ich "menschlich" schlecht finde (nehmt es nicht so wörtlich): Der Autor hat sich auf neun Seiten noch nicht einmal dazu geäußert! Er soll nicht auf die Knie fallen, aber er sollte zumindest einen Nachtest machen oder entsprechende Kommentare in die Diagramme einfügen, da es auch Leute gibt, die das Kleingedruckte nicht lesen.
 
Zuletzt bearbeitet:
Dietronix schrieb:

Bioshock 1680*1050 16AF - Selbes Ergebnis
Blacksite - nicht getestet
Fear - bei uns 77 Prozent skalierung. Also etwas weniger
CoD4 - haben wir nicht
Jericho - Wie kann 370% Speedup bei 100% mehr Karten erklärt werden?
Dark Messiah - haben wir nicht
Moha - über 100% Speedup, wie geht das?
Timeshift - haben wir nicht
Titan Quest - haben wir nicht
The Witcher - haben wir nicht
Stalker - gleiches Speedup. Absolut andere Ergebnisse -> Andere Settings?
Crysis - mit Patch getestet
Dirt - über 100% Speedup wie geht das?
Rainbow Six Vegas - haben wir 90 Prozent Speedup. 100 Prozent ist was unrealistisch
Hellgate London - haben wir nicht
 
@Daniel D.

Da ist ja genau das was ich/viele wollen. Ich möchte generell nur wissen, wieso die ATI Plattform so benachteiligt wird. Der 7.12 Treiber hat "Rabberduck" schon geschrieben bringt bei Vista sehr viel ( in den Games vor allem ).
Habe selbst Vista 64 drauf und sprich da auch aus Erfahrung.

Mir geht es hauptsächlich nur um das Motherboard ( wieso kein X38 ) und den Treiber ( weiso einen alten, wenn ATI schon einen neuen gelauncht hat ).

Ist halt wirklich schade das es kein Admin hier für nötig hält sich darüber mal zu äußern.

@Tommy

Solch ähnliche Ergebnisse habe ich auch, wie der User "Derguru" im Forumdeluxx. Was soll daran unrealistisch sein. Jericho dürfte mit 1 Karte einen Bug haben, die anderen Werte sind stimmig. Bei Dirt bin ich mir selber auch nicht so sicher, wie das sein kann.
 
Zuletzt bearbeitet:
2560x1600 8xAA/16xAF:
Radeon HD 3870 CF 45,6 fps


Das hört sich echt geil an. Warum sind die ATI denn bei höheren Auflösungen besser?

Wann kommen denn die nächsten Generationen heraus? Dann warte ich eventuell auf die. Oder ich hole mir doch eine 3870 anstelle einer 8800 gts
 
Bioshock 1680*1050 16AF - Selbes Ergebnis =Patch drauf?

Fear - bei uns 77 Prozent skalierung. Also etwas weniger=ok FEAR seh ich ein ist eh NV gebiet

CoD4 - haben wir nicht=Demo reicht selbst da rennt CF sehr gut

Jericho - Wie kann 370% Speedup bei 100% mehr Karten erklärt werden?
Jerico hat ein problem mit dem Treiber, sobald man AA einschalten tut werden aus 60 FPS 11 jetzt mit dem 8.1er ist das weg

Moha - über 100% Speedup, wie geht das?=würd ich mal neueste Treiber+ein X38 Board nehmen, aber habt ihr nicht stimmts?


Stalker - gleiches Speedup. Absolut andere Ergebnisse -> Andere Settings?
Patch 1.008 drauf machen


Crysis - mit Patch getestet =ohne Worte, rennt nur im Vista 64 Bit richtig geil

Dirt - über 100% Speedup wie geht das? =Exe renaming in Crysis und 99% mehr Power

Rainbow Six Vegas - haben wir 90 Prozent Speedup. 100 Prozent ist was unrealistisch=klar geht das
 
Ralf T schrieb:
Solch ähnliche Ergebnisse habe ich auch, wie der User "Derguru" im Forumdeluxx. Was soll daran unrealistisch sein. Jericho dürfte mit 1 Karte einen Bug haben, die anderen Werte sind stimmig. Bei Dirt bin ich mir selber auch nicht so sicher, wie das sein kann.

Schau mal was die im Test verwendete "Colin Mcrae Dirt Demo" macht. Im normalen Spielen wurden die Hardwareanforderungen über Patches massiv heruntergeschraubt. Dein Ergebnis wird sich mit unserem Decken.
 
Vielen Dank für die bis hierhin angebrachte Kritik, die leider in vielen Fällen nicht in einem passenden Tonfall vorgebracht wurde. Ich möchte zu einigen Punkten, soweit ich kann, Stellung nehmen. Der Redakteur befindet sich aktuell in Las Vegas auf der (inzwischen beendeten) CES und kann sich daher erst nächste Woche hierzu äußern. Außerdem sei vorab gesagt, dass der Artikel bereits seit Mitte/Ende Dezember fertig war und somit weder das Crysis-Patch, noch der neue Catalyst 7.12-Treiber berücksichtigt werden konnten.

Aber es wäre wohl besser gewesen wenn den Crossfire Verbund mal ein bessers Board bekommen würde. Ein das beide Karten mit PCI-E x16 betreiben kann und nicht nur mit PCI-E x8. Weil die beide Nvidia Karten werden ja auch mich 2* PCI-E x16 betrieben.
Wir setzen bei unseren CrossFire-Tests bereits sehr lange auf die zuverlässige 975X-Platine. Von ATi/AMD gibt es keine neuen 32-Lane-Highend-Chipsätze mit Support für unseren Prozessor. Ein Test mit X38 wäre nicht fairer gewesen, da dem 680i SLI die Unterstützung von PCI Express 2.0 fehlt. Und nForce 780i SLI war bei Redaktionsschluss einfach noch nicht verfügbar/angekündigt.

In Sachen PCIe x8 vs. PCIe x16 sei auf unseren gleichnamigen Artikel verwiesen. Klar, es sind Karten älterer Generation. Damals waren die Unterschiede minimal. Zusätzlich darf man nicht vergessen, dass die CrossFire-Karten über die dedizierte PCI-Express-Bridge direkt miteinander kommunizieren und ein vollwertiger PEG nur On-Top wäre. Beim damaligen Bericht hat sich selbst 16x vs 8x bei X1600 CrossFire kaum ausgewirkt, obwohl diese Karten über keine Bridge verfügen und somit nur über die Grafikkartensteckplätze kommunizieren mussten.

Edit: Die Ergebnisse sind verdammt Benchmark-Abhängig. Bei folgenden Spielen kann ich konkret etwas zum Unterschied sagen:

Crysis - keine Veränderung
World in Conflict - Keine Veränderung


Warum verbraucht bei euch eine 3870 Karte mehr Strom als 2??

Ganz einfache Erklärung: Die Leistungsaufnahme aller Karten außer der CrossFire-Konfiguration wurde auf dem nForce 680i SLI gemessen. Das braucht einfach viel mehr Strom als der i975X. Dadurch ist ein i975X mit 2xATi-Karte stromsparender als 680i SLI mit 1xATi-Karte. (Kann Wolle sicher bestätigen)


Interessant ist auch zu sehen, dass SLI viel besser skaliert als CF. War doch von vielen Usern hier im Forum die Rede, dass CF deutlich besser als SLI skalieren soll. Anscheinend ist das doch nicht der Fall.

Hierbei sei insbesondere auf den Abschnitt "Windows Vista SLI-Update" verwiesen. Bis zum Microsoft-Patch hat CrossFire besser skaliert. Ansonsten ist die Skalierung allgemein stark vom Spiel abhängig. CrossFire skaliert allgemein schon besser. Man muss nur auf die Spiele schauen, in denen CrossFire auch funktioniert. Gothic zieht die Statistik natürlich runter. (Und in der ersten Version des Artikels ganz besonders Dirt und Crysis). World in Conflict mag CrossFire auch nicht so richtig.

Die Bewertung des Ganzen hängt maßgeblich von der Wahl der Spiele ab. Allgemein ist der Spielesupport bei Nvidia besser, doch ATi holt kontinuierlich auf.

Der wurde im CF (2x8) Betrieb um Längen vom RD600 geschlagen. Der x38 hat bis zu 30% höhere Performance als der 975 mit CF. Zudem wäre eine neuerer Treiber schön gewesen, da grade die RV670 sehr von der neueren Version profitieren.


Hast du hierfür Links, um die Aussagen zu belegen? Schau ich gerne genauer rein.


Die Dateinamen unzuändern ist vielleicht ne schöne Sache, wenn man dann sieht, dass CF doch funktionieren kann, doch ist das nicht Sinn und Zweck eines Grafikkartentests. Wieviel % der Spieler macht das denn bitte?

<schnipp>

Da muss ich z.T. zustimmen. Das kanns auch nicht sein, den Stiefel muss sich AMD anziehen, weil die es einfach nicht gebacken kriegen, CF für Games freizugeben, die problemlos damit laufen und gewaltige Gewinne damit verbuchen.

<schnipp>

Aber: Es ist jetzt nicht so, dass dieses Problem erst seit gestern bekannt ist. Einem Redakteur traue ich durchaus zu, dass er auch mal ein paar Forenthreads durchgeht und die Probleme und Lösungen für CF mal rausfiltert (z.B. CF Sammelthread im Luxx-Forum). Und als CF-Nutzer kommt man halt ums Umbennen nicht herum, so blöde das auch ist, warum soll das in einem Test anders sein, der sich mit CF beschäftigt? Es gehört ein guter Meckertext dazu, der diesen Missstand gehörig anprangert, aber man sollte es dennoch auch mit Umbenennung benchen, weil es nunmal die reale CF-Performance ist und ohne Umbenennen halt nicht. Das sollte dann aber auch an jedem Benchmark erwähnt werden, um das ganz klar zu machen, dass hier umbenannt wurde.

Hier stimme ich ganz klar der Position zu: Wer von der breiten Masse benennt die Executable seiner Spiele schon um? Den Schuh muss sich AMD/ATi anziehen. Auf der anderen Seite könnte es Gründe dafür geben, dass AMD für diese Games kein CrossFire vorsieht. Wann, wenn nicht jetzt, werden sie sich dem Problem von Custom-Profilen annehmen?

Genauso gehört aber auch ein Meckertext zu den schlechtenen Minimum-FPS und Microrucklern bei SLI dazu. Das kann einfach nicht sein, dass auf diese doch gewichtie Problematik kaum eingegangen wird und das nicht untersucht wird, in einem Artikel, der sich genau auf SLI und CF konzentriert.
Dass es dieses Problem gibt, ist absolut Fakt.

Kann ich nichts zu sagen.


ich hätte noch gern die 8800gtx einzeln und im sli gesehn. ich bin der meinung dass die einzelne gtx gegenüber den cf und sli gespannen der preis- leistungssieger wäre. die ultra ist imo einfach zu teuer und kaum schneller wie die gtx... Aber ich muss auch sagen, dass eine 8800 GTX nur noch 350 Euro kostet und damit die Alternative zu CF/SLI gewesen wäre (imo!), nicht eine 520 Euro teure Ultra


Für alle Tests ist der zulässige Zeitrahmen begrenzt. Es musste eine Entscheidung getroffen werden und diese fiel auf die attraktiven "Mainstream-Karten" und das aktuelle Ultra-Highend. Sicherlich kann jeder den Speedup von GT vs GT SLI und den Speedvorteil von GT vs GTX nehmen und eine entsprechende rechnerische Abschätzung machen.


Schade, dass in dem Test keine HD3850 mit 512MB getestet wurden. So eine hab ich bei mir im Rechner und ich bin am überlegen, ob ich noch eine zweite dazu packen soll oder nicht. In dem Test wird ja von nem 3850CF abgeraten, aber halt nur aufgrund des zu kleinen VRAM. Oh man, schwere Entscheidung.

Danke für den schönen test, wenn ihr noch die HD3850 mit 512MB (auch CF) nachtragen könntet wäre das super

Ist wieder ein Zeitproblem. Außerdem fehlt uns die nötige Menge an 3850er Karten (ok, man 3870er heruntertakten...). Prinzipiell würde ich die Skalierung der 3870er-Karten ansetzen und den Performance-Unterschied von 3850 512MB vs 3870 512 MB heraus rechnen.


ich finde sehr schade, dass ihr die Stromverbrauchsmessung für die Einzelkarten nicht nochmal auf der hier verwendeten Plattform wiederholt hat, die Ergebnisse hätten für den Artikel einen deutlichen Mehrwert dargestellt, der Aufwand war ja sicher ohnehin schon immens.
Mit solchen Vergleichswerten hätte man das Wirken der Stromsparmechanismen sehr gut einschätzen können. ATI hat hier mit PowerPlay ja Maßstäbe gesetzt und dürfte im Idle nur knapp über den Werten einer Singlekarte liegen, was in der Gesamtbetrachtung der Lösungen sicherlich für viele ein gewichtiges Argument darstellt.


Ist ja so. Siehe oben. Man hätte allerdings für die Single-Karten einen Wert für 680i und einen für i975X veröffentlichen können. (Wolle ist wie gesagt noch in den USA) Prinzipiell sieht man ganz klar: Die zusätzliche Karte verbraucht weniger, als der Unterschied der Chipsätze ausmacht.

STALKER
Und es heisst Deferred Shading und nicht Deffered Shadowing.

47 FPS mit CF

sicher, ihr habt bestimmt keine Patches Installiert oder sonstiges stimmts ?
weil bei Stalker brauch man kein exe renaming, bei dem Spiel bekommt man 100% mehr Power komschi bei euch wieder ma nicht.

Deffered Shadowing: Vielen Dank für den Hinweis. Wird in der Stalker-Beschreibung schon ewig falsch geschrieben. (Seit 12. Februar 2007). In Fachtexten zum Thema D3D10 wird es seit dem 17. April 2007 richtig geschrieben. Den Text bei Stalker hat einfach niemand mehr danach angefasst. Können wir mit dem Hinweis korrigieren.


Crysis

ohne Worte, der Link sollte reichen:

http://de.youtube.com/watch?v=aS3yT1ylHME

liegt an dem CAT 7.11 das nix ordentlich rennt.

Wir haben mit dem Catalyst 7.11 Crysis-Treiber getestet. Dass in dem Video DX9, im Test aber DX10 eingesetzt wird, ist nicht der Grund für deine völlig andere Beobachtung? Oder, dass das Video nicht den integrierten Crysis-Benchmark nutzt? Ansonsten sag ich: Werte haben ihre Richtigkeit (für die ungepatchte Crysis-Version) und ansonsten auf Wolle warten.
 
Zuletzt bearbeitet:
Artikel-Update: Colin McRae Dirt und Crysis wurde aufgrund der problematischen Testergebnisse aus der Berechnung der Ratings herausgenommen. Dies verändert die Ratings teils recht stark, somit auch die Bewertung und zwar wie folgt: In
1280x1024 mit vierfachem Anti-Aliasing sowie 16-facher anisotroper Filterung liegt die die Radeon HD 3870-Paarung nur noch um 14 Prozent zurück. Diese skaliert nun mit 60 Prozent ähnlich gut wie die Nvidia-Karten. Eine einzelne GeForce 8800 Ultra platziert sich 23 Prozent hinter dem 8800GT-Pärchen.

In 1600x1200 verbessert sich die Skalierung der GeForce 8800 GT auf 71 Prozent gegenüber einer Einzelkarte. Die Skalierung der Radeon HD 3870 CrossFire nun 63 Prozent. Die GeForce 8800 Ultra liegt mit 22 Prozent wieder ähnlich zurück. In 2560x1600 können die GeForce-8800-GT-Karten die Geschwindigkeit um 66 Prozent erhöhen. Das CrossFire-System kann die Performance nun um 43 Prozent steigern. Die GeForce 8800 Ultra liegt nun knapp 7% hinter dem GeForce-8800-GT-Gespann.

In der Auflösung 2560x1600 unter Verwendung von achtfachem Anti-Aliasing skaliert SLI-System mit 17 Prozent weiter sehr schlecht. In 1600x1200 liegt die einzelne Radeon HD 3870 mit achtfachem Anti-Aliasing nur noch 21 Prozent hinter einer GeForce 8800 Ultra, das Dual-GPU-Gespann verbessert die Leistung nun um 64 Prozent. Die Skalierung des SLI-Systems ist mit 61 Prozent nun ebenfalls ordentlich. Auch das GeForce-Gespann kann sich nun knapp vor die GeForce 8800 Ultra setzen. In 1280x1024 liegt die Skalierung für das 8800-GT-Paar bei guten 79 Prozent und für das CrossFire-System bei 67 Prozent.

Insgesamt zeigt sich, wie stark die Bewertung vom Spiele-Support der Multi-GPU-Lösungen abhängt. Liegt das CrossFire-System mit den problematischen Titel Colin McRae Dirt und Crysis (ohne Patch) bei der Skalierung noch in teils erschreckend niedrigen Bereichen, sind die Systeme nun größtenteils gleich auf, außer beim achtfachen Anti-Aliasing unter 2560x1600. Hier sieht das GeForce-8800-GT-Gespann weiter schlecht aus.
 
Ich finde den Test, sowie viele andere Tests von CB gut.

Nicht jeder hat Zeit an seinem PC rumzubasteln und nicht jeder hat Lust sich über alle möglichen Dinge zu informieren, sondern will einfach dass der PC läuft und fertig. Wie man aus den Kommentaren hier herausliest, muss man schon einige Sachen berücksichtigen und Dinge anpassen um eine besser Skalierung zu erhalten. Das ist dann aber die Sache des einzelnen Users.

Wenn man sich nicht viel mit solcher Materie auseinandersetzt, dann ist die Performance eben genauso, wie der Test das widerspiegelt und das ist doch in Ordnung. Man hätte vllt. im Fazit nennen sollen, das man durch gewisse Bastlereien eine höhere Performance erreichen könnte, das im Test aber bewusst nicht berücksichtigt wurde. Dann hätte es sicherlich auch nicht so viel Gejammer hier gegeben.
 
Tommy schrieb:
Bioshock 1680*1050 16AF - Selbes Ergebnis

Tut mir leid, wenn ich jetzt etwas auf dem Schlauch stehen sollte, aber ich verstehe Deine Antwort in Voranstellung des Zitats von mir so, dass Bioshock im Luxx-Forum bei 1680*1050 mit 16AF in CF das selbe Ergebnis liefern würde, wie im CB-Test. Richtig?

Das raff ich dann aber nicht.

Bei Luxx steht: Bioshock 1650*1050 16AF CF: 73 FPS

Bei CB steht: Bioshock 1600*1200 16AF CF: 60,5 FPS

Würde ich nicht mit "gleich" bezeichnen.


Bedeutet also die Aussage "Selbes Ergebnis", dass die Differenz aufgrund der leicht verschiedenen Auflösung, der Verwendung einer übertakteten 3870 ("OC Edition"), des fehlenden Patches und unter Vista 64bit statt 32bit zustande kommt?
 
Tommy schrieb:
Hier stimme ich ganz klar der Position zu: Wer von der breiten Masse benennt die Executable seiner Spiele schon um? Den Schuh muss sich AMD/ATi anziehen. Auf der anderen Seite könnte es Gründe dafür geben, dass AMD für diese Games kein CrossFire vorsieht. Wann, wenn nicht jetzt, werden sie sich dem Problem von Custom-Profilen annehmen?

Glaubst du wirklich das AMD, wegen dieses Tests hier, Custom Profile jetzt schneller/überhaupt einfügen wird ?

Wäre es nicht sinnvoller den Leser darauf hinzuweisen, das jenes Umbennen helfen kann und dazu die Werte aufzuzeigen ?

Natürlich werden das nicht alle wissen, aber jeder der den CB Test gelesen hätte wüsste es und für alle anderen ist es ohnehin egal was im Test steht.


So steht da ein Test der bei WEITEM nicht das Optimum der Hardware aufzeigt.
Hilft das den Lesern wirklich weiter oder bietet es nur Nährboden für falsche Gerüchte und Missverständnisse ?


Stellt euch vor Intel bringt eine neue CPU mit Multi 10. Durch irgenteinen Grund startet die CPU aber nur mit Multi 6 und man muss die 10 manuell im Bios eintragen.

Bencht ihr die CPU dann mit multi 6 oder 10 ?


Ihr macht eure Tests mit einer übertakteten CPU und übertaktet in Tests die Grafikkarten.
Warum ?
Doch wohl damit der Leser einen Vergleich hat was möglich ist und das obwohl es Gefahren bietet.

Ist der mündige CF Besitzer in spe dann nicht fähig den Namen einer Datei zu ändern, wenn er doch gelesen hat das es helfen kann ?

Ist es euch egal das, wegen einer fehlenden Funktion im Ati Treiber die man ganz leicht ersetzen kann, jemand aus Unwissenheit die falsche Karte kauft ?


edit : wie man hoffentlich sieht bedürfen diese Fragen keiner Antwort, jeder kann sie sich denken.
 
Zuletzt bearbeitet:
Ich glaube, dieser Test wird mit dem Titel "Was man alles mit Crossfire falsch machen kann" in die Geschichte eingehen.

@8MiLe
bei nVidia hat CB ja auch die Patches von Windows Vista installiert, warum also nicht auch bei Crossfire auf so etwas achten? Und wenn man 8x8 gegen ein 16x16 PCIe-Setting bencht, dann sollte man darauf im Fazit auch noch mal eingehen. Wenn möglich natürlich von Anfang an gleiche Testbedingungen verwenden...
 
Dietronix schrieb:
Tut mir leid, wenn ich jetzt etwas auf dem Schlauch stehen sollte, aber ich verstehe Deine Antwort in Voranstellung des Zitats von mir so, dass Bioshock im Luxx-Forum bei 1680*1050 mit 16AF in CF das selbe Ergebnis liefern würde, wie im CB-Test. Richtig?

Das raff ich dann aber nicht.

Bei Luxx steht: Bioshock 1650*1050 16AF CF: 73 FPS

Bei CB steht: Bioshock 1600*1200 16AF CF: 60,5 FPS

Würde ich nicht mit "gleich" bezeichnen.


Bedeutet also die Aussage "Selbes Ergebnis", dass die Differenz aufgrund der leicht verschiedenen Auflösung, der Verwendung einer übertakteten 3870 ("OC Edition"), des fehlenden Patches und unter Vista 64bit statt 32bit zustande kommt?

Du kannst nur das vergleichen, was bei beiden vergleichbar ist: Das ist die relative Performance-Änderung von Single auf CrossFire. Der absolute Performance-Unterschied kommt bei uns durch 10,8 Prozent mehr Pixel (gleiche Aufwirkung auf die Performance) und eine nicht übertaktete Graka zustande.
 
Ach kommt schon leutz! Der Test is okay! Ich finds sogar geil das CF bei 1600x1200 8xAA/16xAF und 2560x1600 8xAA/16xAF viel besser ist als SLI:) Wenn man schon mit 2x 8Lanes Anbindung, alten Treibern kommt und dann dennoch bei solch Qualitativ hohen Anforderungen was besseres bekommt als die Konkurenz würde ich nicht mekern! Wer SLI oder CF kauft spielt definitiv nicht unter 1680x1050 ohne AF ond AA ;) von dem her, CB danke für den Test und danke ATI für die Karten;)

Tommy: Außerdem sei vorab gesagt, dass der Artikel bereits seit Mitte/Ende Dezember fertig war...

Wieso habt ihr ihn dann erst jetzt online gestellt?

mfg
 
Also ich fand den Test echt klasse! ! !
jetzt weis ich wenigstens das SLI bis ca. einer Auflösung von 1600x1200 schneller ist als CF ! ! !
Aber manchen Leuten hier im Forum kann man es einfach nicht Recht machen ! ! !
naja egal die Test waren auf jeden Fall gut.
Ich werd mir eine 8800GT 1024mb holen ! ! !
 
@xp_home: Das sind aber auch offizielle Patches, die es so in der Weise zumindest nicht von/für ATi zu geben scheint. Ob 8/8 oder 16/16 wird sicherlich auch keinen großen Unterschied machen.

Sicherlich ist der Test nicht perfekt, aber die Kommentare die hier kommen sind schon etwas hart.. Ich möchte nicht wissen wie viel Arbeit in so einem Test steckt, da kann man nicht auf alles achten. Vllt. gibts ja noch ein paar Updates, wo mehrere Optimierungen genutzt werden ;) Und wenn nicht gibts da genug andere Tests im Internet dazu, die sich ein CF/SLI-Interessierter ansehen kann.
 
8MiLe schrieb:
Sicherlich ist der Test nicht perfekt, aber die Kommentare die hier kommen sind schon etwas hart.. Ich möchte nicht wissen wie viel Arbeit in so einem Test steckt, da kann man nicht auf alles achten. Vllt. gibts ja noch ein paar Updates, wo mehrere Optimierungen genutzt werden ;) Und wenn nicht gibts da genug andere Tests im Internet dazu, die sich ein CF/SLI-Interessierter ansehen kann.

Ich denke die harten kommentare kommen nur weil leute auf allen Seiten mist gelesen haben (z.B Tom's Hardware:D) und von CB was besseres erwartet haben;) Sie haben was besseres bekommen, jedoch immer noch zu wenig:)
 
was das thema "gewünschte testauflösungen" angeht kann man ja ganz einfach ne nette kleine umfrage erstellen, bei der die leute die gewünschten auflösungen anklicken können. ICH hab leider keine ahnung wie man hier sowas macht, allerdings fehlt MIR auch die 1920x1200 auflösung!
 
Tommy schrieb:
Du kannst nur das vergleichen, was bei beiden vergleichbar ist: Das ist die relative Performance-Änderung von Single auf CrossFire. Der absolute Performance-Unterschied kommt bei uns durch 10,8 Prozent mehr Pixel (gleiche Aufwirkung auf die Performance) und eine nicht übertaktete Graka zustande.
Danke für die Aufklärung. Also stimmt der CB-Test doch und weist zumindest in die richtige Richtung. Na, dann bin ich ja beruhigt.
 
Zurück
Oben