Test Test: ATi CrossFire X vs. Nvidia Quad-SLI

MöCkY schrieb:
Hmm der Test erscheint mir nicht glaubwürdig, war schon beim letzten so.
Die Average FPS habe ich nichtmal als minimal FPS in den meisten Test. (jedenfalls dort wo so rapide einbrüche sind)

Sorry, aber der Test nicht i.O.
Die Leute im Luxx denken auch ähnlich drüber.
Zudem ist mir auch noch kein Spiel untergekommen, was kein CF unterstützt.

Ich hätte gern mal ein Beispiel von dir? Sind 300 Frames in Fear denn zu wenig? Wenn du da soviel mehr hast, dann spielst du also mit mindestens 500 oder gar 800 FPS. Dazu will ich aber nen Screenshot auf 1600x1200 mit allem AA & AF an sehen. Und natürlich oohne irgendwelche Cheats oder "sonderbaren" Patches oder XXX-Treibern aus dem Nirgendwo.

Wenn hier irgendwas nur ansatzweise verkehrt wäre, hätte ATi längst hier angeklopft. Die sind die ersten denen so etwas auffällt, keine 10 Minuten später klingelt hier das Telefon wenn sie einen klitzekleinen Nachteil für sich sehen. Da dies aber nicht der Fall ist, bist du wohl in der Beweispflicht.
 
netter test, doch die ergebnisse des triple-sli tests mit der 8800gtx wären ein sehr schöner vergleich gewesen
aber da ist wohl das neue testsystem der schuldige

PS: beim COD4 bench bei 1600*1200 ist euch in der bildüberschrift eine "1" verloren gegangen
 
Volker Call of Juarez zum Beispiel, ich habe gerade erst wieder gezockt, ich bin nichtmal in den Bereich der 20FPS gekommen.
Oder Stalker läuft, was es sehr wohl tut und auch zudem noch deutlich schneller als mit meiner GTS.

Es gibt zwar Games, wo CF wirklich nicht der bringer ist, dann kann man aber exenrenaming machen.
Ihr müsst das nicht machen, aber man könnte darauf hinweisen.
Da ich Nvidia und ATI habe, ist mir das eigentlich egal was schneller ist und was nicht.
Nur fakt ist es, dass der Test sehr Nvidia freundlich wirkt.

Ob ATI euch anrufen würde, ist mir eigentlich Wurst, nur mir ist es schon beim GX2 Test aufgefallen, dass irgendwas nicht stimmen kann.
Bei dem Test stelle ich das selbe nun wieder fest.
 
Zuletzt bearbeitet:
Viel Beeindruckendes in diesem Artikel.. Wahnsinnige Leistung (in den meisten Spielen) - Crysis spielbar auf Very High :D , aber auch ein beeindruckender Preis, eine beeindruckende Lautstärke und ein überaus beeindruckender Stromverbrauch^^
630 Watt - was brauchen die für ein Netzteil? 800 Watt? 1000 Watt?

Wie könnte man sich denn am besten ein Bild von den Rucklern machen? Ich krieg leider selten Testsysteme von den Herstellern zur Verfügung gestellt :lol:
 
@ Commodus89

Videobeweis: "Mikroruckler" zerstören den leistungssteigernden Effekt von Multi-GPU-Lösungen

@ MöCkY

exerenaiming ist so eine Sache, ich hab einmal für ein paar Tage ein HD3870 CF Sys hier stehen gehabt und hatte zwar mehr Fps, allerdings gabs teils halt Bildfehler, was ja nicht im Sinne des Erfinders ist. Über die CoJ DX10 Werte wundere ich mich schon seit was weiß ich wie vielen Tests, imo schneiden da alle Karten viel besser ab als bei mir :confused_alt: Allerdings glaube ich kaum, dass die CB-Jungs da irgendwas vertuschen oder für eine Seite Partei ergreifen.

cYa
 
Zuletzt bearbeitet:
MöCkY schrieb:
Volker Call of Juarez zum Beispiel, ich habe gerade erst wieder gezockt, ich bin nichtmal in den Bereich der 20FPS gekommen.
Oder Stalker läuft, was es sehr wohl tut und auch zudem noch deutlich schneller als mit meiner GTS.

Es gibt zwar Games, wo CF wirklich nicht der bringer ist, dann kann man aber exenrenaming machen.
Ihr müsst das nicht machen, aber man könnte darauf hinweisen.
Da ich Nvidia und ATI habe, ist mir das eigentlich egal was schneller ist und was nicht.
Nur fakt ist es, dass der Test sehr Nvidia freundlich wirkt.

Ob ATI euch anrufen würde, ist mir eigentlich Wurst, nur mir ist es schon beim GX2 Test aufgefallen, dass irgendwas nicht stimmen kann.
Bei den Test stelle ich das selbe nun wieder fest.

Du weißt doch gar nichts über unseren Test. Welches Level, was für ein Save-Game und eine Menge anderer Dinge. Exe-Renaming werden wir sicher nicht machen, weil wir genau auch auf das stoßen, was y33H@ berichtet. Wenn dass des Rätsels Lösung wär, hätte ATi sicher schon mitm Zaunpfahl gewunken.

Und dass wir parteiisch sind .. naja no comment, sind wir ja jede Woche für eine andere Seite. ATi in Toronto hat den Test "abgenommen" und hatte nichts dran auszusetzen.
 
Volker ich habe schon nach euren Save Game gefragt, damit ich es nachstellen kann...
Ich will euch ja nichts unterstellen, nur auf mich wirkt der Test halt so.

Mir ist auch klar das ihr bei so einem Test kein exen renaming durchführt, aber man könnte ja drauf hinweisen.

Sei es wie es sei.
 
ich hab da mal ne dumme frage, deren antwort wahrscheinlcih so einfach ist dass ich auch drauf kommen sollte:
Kann man von Nvidia-Seite denn nicht einfach die gx2 mit 2gb statt nur 1 gb ausrüsten?
dann müsste das speicherproblem doch größtenteils behoben sein
 
Zuletzt bearbeitet:
hmmm, exe renaming hin oder her. Wäre mal interessant ein test zu machen in gewönlicher CB Qualität das auf einen Vergleich bei exe renaming eingeht? Z.B. 3870 X2 und 3870X2 CF mit und ohne exe renaming. Dann wäre die Sache vielleicht auch mal gründlich beleuchtet was das exe.renaming eigentlich auf sich hat. Was meint ihr?

Ich meine wenn der Test nur ATI Karten testet wäre es doch auch kein Schummeln oder? Sondern ein Service für die User oder geht man prinzipiel auf soetwas nicht ein?
 
Super Test CB, wie immer herausragend und gut geschrieben.

Ein klein wenig OT: Die Palme in Bild 18 geht ja mal gar nicht! :D
 
Ich hab noch eine Frage zu Thema Mikroruckler:
Kann es denn sein, dss wenn die Frametimes immer gleich wären, dass dann beim echten Spielen das Bild den Eingaben "hinterherhinkt", also wenn man 30 fps average hat, dass dann ja bei AFR eine Eingabe erst nach 1/12,5 Sekunde auf dem Bildschirm hat (Quad-CrossFire/SLI).
Weil wenn meine Annahme richtig ist, dann ist das (für mich) ein grawierenderes Problem als die Mikroruckler.
Kann das jemand bestätigen?
 
@cashman5

es geht leider nicht nur um die reine Speichermenge, sondern auch um die Anbindung an die GPU - und die ist beim g92 nun mal nur 256bit und nicht 384 wie beim G80.
 
Wahnsinn die 9800gx2 scheint ja im Quad SLI einiges dazu zugewinnen, aber bei Crysis bei 1680 mit 4aa das die so zusammenbrechen, scheint der Treiber noch nicht ganz perfekt zu sein.
Aber die Stromaufnahme ist ja jenseits von gut und böse.
 
Wolfgang schrieb:
@HDReady
1. Welches Spiel ist bitte schön nicht auf den aktuellsten Stand gepatcht?
Und ist ja nicht so, als müsste Nvidia die SLI-Prpfile nicht auch erst erstellen. DIe Arbeit ist keine andere, ATi ist da einfach etwas langsamer. Ist ja nicht so als hätte ATi nie Testversionen der Spiele.

Sorry,i kann mir nicht vorstellen,dass fast alle aktuellen Spiele nutzlos das Nvidia Logo tragen, die baun des net einfach aus spass rein,die baun des entweder rein,weil sie finanzielle Unterstützung von Nvidia erfahren und somit auf Nvidia basis die Spiele programieren bzw Nvidia ihnen bei der Entwicklung hilft und als netten Nebeneffekt die Spiele schon während der Entwicklung ein wenig optimieren. Oder welchen sinn hat das Meant to be played Programm? Leider hat AMD nicht die Mittel/den Willen in de Hinsicht nachzuziehn und sich mehr in die Entwicklung von Spielen stärker einzuschalten. ich weiß leider nicht,woran das liegt, ich nehme einfach mal die "schwache" wirtschaftliche Lage von AMD als Grund.



Aber ansonsten danke CB, netter Test der sehr interessant ist. Das einzige Fazit was ich daraus schließen kann ist wie oben beschrieben,dass ATI/AMD mit den Treibern, der Optimierung nicht hinterherkommt. Und ich kann mir kaum vorstellen,dass eine Firma wie AMD das nur macht,weil sie nicht schneller könnten. Das hat andere Gründe.
 
Ist dass so dass so für jedes einzelne Game ein CF/SLI Treiber programmiert werden soll (natürlich in einem Treiber integriert)? Oder gibt es da ein Standart so dass alle Games die CF/SLI unterstützen auch sofort davon profetieren?

Wenn ich mir ATI´s leistung angucke dann Frage ich mich ob es jetzt für ATI "einfach" nur darum geht die Treiber hinzukriegen damit es ein wenig besser ausschaut. Ich würde mal echt gerne wissen was ATI jetzt innerhalb der nächsten Woche hinbekommt:)
 
Moin Volker

Guter Test:)

"Wenn hier irgendwas nur ansatzweise verkehrt wäre, hätte ATi längst hier angeklopft. Die sind die ersten denen so etwas auffällt, keine 10 Minuten später klingelt hier das Telefon wenn sie einen klitzekleinen Nachteil für sich sehen."

In einem ganz anderen Zusammenhang würde ich gerne wissen -wenn dass ok ist- mit wen CB den da Kommuniziert bei Nvidia und ATI. Ist das die Marketingabteilung oder eher eine "technische Abteilung". Wäre eigentlich interessant zu wissen wie so ein Test zustande kommt (also garnich jetzt technisch oder so), also unter welchen Bedingungen von denen man nie hört, es eigentlich so gibt (z.B. 3 nette blondinen Liefert die GraKa zu testen ab usw. hehe). Habt

Ihr da nicht so einige Stories? Jetzt ohne Namen natürlich;)
 
mal ehrlich, ich finde diesen ganzen super multi schmarn blöd:( kann mich nur für eine karte begeistern.

trotzdem guter test- wie immer!
 
Wenn ich diese beiden Links hier richtig deute
https://www.computerbase.de/2008-03/test-nvidia-geforce-9800-gx2/2/
https://www.computerbase.de/2008-02/details-zur-radeon-hd-4000-serie-von-amd/

fmj4jzzo.jpg

c86d79wa.jpg


Dann sollte ja eine X2 SLI ganze 4x 581 GLOP/s =2 GLOP/s schaffen.
Bzw eine 4870X2 dann auch Crysis in allen Auflösungen flüssig darstellen?
Eigentlich schade, denn dann muss ich ja nochmals warten, da ich keine X² Karten mag. Aber die 4870 hört sich ja schon mal ziemlich vielversprechend an.
 
Hui in dem Test wechseln sich extreme CPU Limits mit extrem knappen VRAM, teilweise nicht laufendem/ schlecht skalierenden SLI/CF und heftigsten Mikrorucklern ab.
Dann noch der gigantische Input Lag ...

Wenigstens hier hätte ich mir mal T-AA und AAA gewünscht, die wirklich sinnlosen Einstellungen 1280 mit 1xAA und 1xAF hätte man sich sparen können.
Hier muss AA rein möglichst auch CSAA oder SS(-Hybride)AA, aber nein mal wieder das praxisferne 8xQ wird genommen, 16xAF ist selbstverständlich, schon bei Single Karten.


Schinzie schrieb:
Sorry,i kann mir nicht vorstellen,dass fast alle aktuellen Spiele nutzlos das Nvidia Logo tragen
Ich schon.
NV zahlt dafür, das das Logo zu sehen ist, nennt sich Werbung. AMD muss da noch viel lernen.
 
Zurück
Oben