Test Test: ATi CrossFire X vs. Nvidia Quad-SLI

ja und nein. es ist richtig dass nv die spielehersteller stark unterstützt und es ist auch richtig dass dadurch ihre jeweilige chiparchitektur in die entwicklung der spieleengines mit einfließt. allerdings stimmt es nicht dass ati den zug verpasst hätte, denn auch ati stellt den spieleherstellern prototypen kommender grafikkarten zur verfügung.
es ist nur im moment so dass nv mit seiner gf8 ein dreivierteljahr früher auf dem markt war und der prototyp vermutlich sehr viel früher vor markteinführung fertig war wie der r600, an dem ja noch sehr lange nachgebessert wurde. aus diesem grund hat nv sicherlich wärend der entwicklung der cryengine und der ut3 engine einen sehr großen vorteil gehabt.
es ist auch richtig dass nv bei der entwicklung von dem spiel crysis mitgewirkt hat und dadurch tiefere einbilcke ins spiel bekommen hat, und auch ihr eigenes know how mit eingebracht haben.
warum man nv dafür unfaires handeln vorwirft kann ich nicht nachvollziehn. bei anderen spielen wird das gleiche von ati gemacht und auch nv macht das bei vielen anderen spielen. die marketingabteilung von nv hat halt nur schneller begriffen, dass crysis besonders werbewirksam ist warum man sich diese spiel unter den nagel gerissen hat und auch mit der ach so tollen mitwirkung angibt (frag ma was die alles in die arbeitsstunden mit einrechnen, wenn man der marketingabteilung glaubt dann hat eher nv als crytek das spiel entwickelt :D )
aber selbst wenn ati schneller gewesen wären würde das ergebnis nich viel andersaussehn... die cf-treiber wären von beginn an fertig gewesen... und vllt ein- zwei fps hier oder da mehr, aber mehr sicher nicht.

die ganzen verschwörungstheorien sind nur was für fanboys, die nich haben können dass ne 8800 ein bisschen schneller is wie ne 3870 -.- als wenn das bei anderen spielen nich so wäre...
und crysis liegt der g80 halt (auch aufgrund der zusammenarbeit!) gut...
mehr nicht!
 
Unfaires Handeln find ich das auch nicht. Aber es gibt bestimmt Verträge zwischen NV und Crytek, das hat nix damit zutun wer zuerst den chip geliefert hat. Es geht darum wer zuerest den Vertrag mit der meisten Kohle unterschrieben hat, der bekomm dan die besten Leistung, die anderen macht man nur mit um halt einen noch größeren Absatzmarkt zu haben.

Ich glaube schon wenn ATI sich den Vertrag geangelt hätte, troz verspätetem Chipsatz, Crysis um 20 Fps besser gelaufen wäre als die Nvidia.

Und es ist einfach Unfair egal ob ATI oder Nvidia, benchmarks von Games ins netzt zu stellen die recht einseitig Gesponsert wurden, um dann zu sagen das ATI mist ist.
Etwas mehr objektivität und mehr wissenschaft stats pures framevergleichen bitte.
 
Zuletzt bearbeitet:
das ist so auch nicht richtig. die softwareschmieden können nicht die leistung für einzelne karten begrenzen, zumal man das dann mit nem neueren treiber einfach wieder aushebeln könnte... das ist alles quatsch.
nochmal:
sowohl ati als auch nv stellen ihre prototypen den entwicklern zur verfügung und beide hersteller erhalten entsprechend einblick in den quellcode der software (meist spiele) um eine optimale leistung zu erzielen (was für BEIDE seiten wichtig ist!) auch geben sowohl ati als auch nv feedback wenns zu problemen kommt.
der unterschied bei der hier genannten mitarbeit besteht darin, dass nv nicht nur im nachhinein auf probleme eingeht, sondern bereits bei der entstehung einfluss nehmen kann.
es gibt immer spiele wo mal die eine mal die andere marke besser da steht. allerdings ist das lange nicht immer der hersteller der das spiel auch gesponsort hat. bei crysis passt das nunmal... nicht zuletzt auch weil nv hier besonders viel zeit und arbeit in die optimale umsetzung investiert hat, wärend ati wohl ein bisschen nachlässig war (unfertige cf-treiber) weil sie die medienwirksamkeit des spiels unterschätzt haben. aber umsetzen lassen muss sich das auf den karten beider hersteller. für eine optimale umsetzung sind letzten endes die treiber verantwortlich...
keiner bestreitet, dass nv es durch die direkte zusammenarbeit leichter hatte und probleme mit der EIGENEN gpu bereits im vorfeld umschiffen konnte durch den eingriff wärend der entstehung des codes, anstatt das im nachhinein fixen zu müssen. aber dass bewusst gegen einen der beiden hersteller gearbeitet wird ist nicht wahr.
 
HDReady schrieb:
AMD/ATI kann und wird da nichts mehr gegen machen können. Auf den Zug aufzuspringen den NV schon seid Jahren fährt hat ATI damals einfach verpasst. NV haben ihre Finger an jeder älteren und auch neuen Spiele Engine schon gehabt.

Das sehe ich leider auch so. Ich habe nicht behauptet,dass es Nvidias gutes Recht war,sich stärker an die Spieleentwicklern zu wenden. Das nvidia logo ist in 90% aller blockbuster, tendenz steigend. Mit dieser Strategie haben sie einfach alles richtig gemacht. Und das ist und wird leider der Grund sein,wieso es ATI in Zukunft nur leider sehr schwer haben wird an die Treiber bzw die Ergebnisse von Nvidia ran zu kommen. Wie so schön gesagt, sie ahben damals den zug verpasst und scheinen au grad nix dran ändern zu können/wollen. Pure rechenleistung ist halt leider nur die halbe Miete.

gruß
 
euch ist aber schon aufgefallen dass die rv670-gpu nicht die gleichen giga-flops schafft wie die g80-gpu, ja?
noch einmal: nv hat aktuell die schnellste gpu! der g80 ist tatsächlich schneller wie der r6x0. unabhängig von spielen. die rohleistung ist schon höher. das kann sich auch jederzeit wieder umdrehn. aber aktuell ist das nunmal so. also schiebt das bitte nicht auf eine ungleichbehandlung durch die spielehersteller. ati hat zum jetzigen zeitpunkt einen technischen rückstand. warum sucht jeder die schuld woanders? mit dem rv770 werden die karten wieder neu gemischt, bis dahin liegt halt nv noch vorne... es kann halt immer nur einer die schnellste gpu haben.
 
Zuletzt bearbeitet:
So wie ich das jetzt verstanden habe ist das also ein Treiber Hack bei STALKER und nicht vom Patch abhängig?
Ja, so ist es.
Also Funktioniert AA + Dynamische Schatten mit einem Crossfire gespann und neustem Treiber? Und es wird trotzdem ohne AA getestet?[/QUOTE9
In Stalker funktioniert kein AA bei einer ATi-Karte. Nur bei Nvidia.
Bei Vegas und Bioshock ist es ein Nvidia "Treiber Hack" der das zuschalten von AA ermöglicht und es wird gebencht. Zum nachteil von Crossfire.
Ja, weil es der Cat 8.3 theoreitsch auch kann nur ATi es für CF in letzter Sekunde nochmal deaktiviert hat. Da ist nichts zum Nachteil von ATi. ATi kanns einfach nicht, Nvidia schon. Das kann man so ruhig zeigen, dass ATi da noch etwas nachholen muss. Bei Nvidia ists in COD4 ja dasselbe.
Fliessen diese Ergebnisse dann auch in das Performence Rating für 4xAA/8xAA mit ins Resultat ein?
Nein, das passier tnur wenn alle Karten funktionieren.
Ich habe mal etwas von AA und AMD bei neueren Treibern gelesen ...
Wie oben geschrieben, generell ja, nur bei CF noch nicht.
 
Lübke schrieb:
euch ist aber schon aufgefallen dass die rv670-gpu nicht die gleichen giga-flops schafft wie die g80-gpu, ja?
noch einmal: nv hat aktuell die schnellste gpu! der g80 ist tatsächlich schneller wie der r6x0. unabhängig von spielen. die rohleistung ist schon höher. das kann sich auch jederzeit wieder umdrehn. aber aktuell ist das nunmal so. also schiebt das bitte nicht auf eine ungleichbehandlung durch die spielehersteller. ati hat zum jetzigen zeitpunkt einen technischen rückstand. warum sucht jeder die schuld woanders? mit dem rv770 werden die karten wieder neu gemischt, bis dahin liegt halt nv noch vorne... es kann halt immer nur einer die schnellste gpu haben.


Das ist in der Theorie vielleicht so, in der Praxis sieht das anderster aus mit den Gflops

Bitt das Sternchen Lesen
https://www.computerbase.de/2008-03/test-nvidia-geforce-9800-gx2/2/#abschnitt_technische_daten

Und es ist wirklich so das Spielehersteller einen bevorzugen wenn er dafür Millionen gepumt bekommt.
Das sind Unternehem, die haben 30 Heinsel dasitzen die sich nur darum kümmern mit welcher Strategie sie am meisten Kohle bekommen, und da spielt Werbung eine untergeordnete Rolle. Die Gamergemeinde kauft nicht nach Werbung sondern ließt solche Testberichte, also wird Nvidia zusehen das sie a.) Das Spiel des Jahres vaprezieren und b.) nur ihre Karten damit am besten laufen.
Das ist ja auch der Grund warum Konsolen so erfolgreich zurzeit sind. Alles leuft optimal weil keiner reinpfuscht.

Ich glaube kein Meter das Crytek sich groß um ATI gekümmert hat, das hat nix mehr mit verspäteten Chips zu tun. Das hat einfach was mit Marktwirtschaft zu tun. Beide können durch so was nur Gewinnen, Crysis sieht super aus und leuft auf NV sehr stabil, und NVidia kann sich den Bemmel der Leistungskrone anhängen.
 
Zuletzt bearbeitet:
lÄuft! -.-

sicherlich hat es was mit "werbekostenzuschüssen" zu tun. aber kiene spieleschmiede der welt ist so dämlich, sich nur auf einen hersteller zu konzentrieren. sicherlich läuft es hier mal auf ati, da mal auf nv (ein bisschen!) besser, aber auf keinem schlecht.

dazu kommen dann noch treiberprobleme - oder eben auch treibertricks (auch shcon von beiden herstellern genug gesehen) und der leidtragende ist der kunde.

eben dieser kunde rennt aber auch immer wieder hin und kauft "seinen" hersteller, egal was dieser für einen mist produziert. und genau darauf bauen nv und ati. für ein unternehmen gibt es nichts wichtigeres und nichts einfacher zu melkendes als blinde und fanatische kunden :)
 
Das sagt überhaupt nichts aus.
Reines Marketinggebluber, schlecht zusammen kopiert von einer 3. klassigen Seite.

Was ist den passiert? NV klebt überall seinen Sticker drauf, jeder denkt NV wäre das Einzig wahre. Mehr nicht.

@Lübke
Da RV770 keine neue Architektur ist, GT200 auch nicht, wird überhaupt nichts neu gemischt, sofern die Fertigung bei einem nicht total daneben geht.
 
@Unyu: ich hoffe doch dass die karten wieder neu gemischt werden. wenn ati noch ordentlich potential in der architektur findet und diese dann auch effizeinter umsetzen kann, könnten sie wieder boden gut mache. zu wünschen wäres ihnen. allerdings befürchte ich, dass der vorsprung von nv schon zu groß ist, als dass ati wirklich in absehbarer zeit wieder die leistungskrone zurückgewinnen könnte (auf die gpu bezogen, nicht auf multi-gpu-lösungen...) schließlich hat nv ja seit dem g81 jede highend-gpu ausgesetzt weil einfach keine konkurenz da war. naja wenn intel auch noch in den grafikkartenmarkt vorstößt mit larabee, siehts sowieso noch mal ganz anders aus. aber dann hoffe ich auf 3 gleichwertige konkurrenten im highend-segment ;)
 
@dieselboy

Ich werde mir 2x die EVGA 9800GX2 BlackPearl holen, soviel steht fest!

Sorry aber -> Atomrofl, da hast du dir schön selber ins Bein geschossen.

Die GX2 512 hat im SLI(wieder nur 512MB VRAM nutzbar) oder nicht SLI, keine Chance gegen dein altes System 2X 8800 Ultra 768!! Bei hohen Auflösungen und AA/AF bricht sie dir gnadenlos ein oder stürzt komplett ab, weil du nur 512MB VRAM nutzen kannst. :rolleyes:

Genau um sowas zu vermeiden hätte ein 88GTX/Ultra SLI Gespann in den Test gehört. 88GT/GTS 1024 im SLI sind natürlich auch OK, die sind übrigens auch schneller wie eine GX2 oder GX2 im SLI wenn der VRAM aus ist!

Kenn jetzt schon mindestens 5 Leute die sagen das die GX2 so super toll ist, nur weil CB keine anderen SLI Kombinationen in ihren Tests benutzt hat. Die armen unwissenden mit zu viel Geld dürfen es wieder ausbaden. Bin weit ausführlichere Artikel von euch gewöhnt CB, als die 2 Letzten mit der GX2!

Nichtsdestotrotz Danke für den Test!

MfG Kasmo
 
Zuletzt bearbeitet:
Wer mal eben 900€ in Grafikkarten investiert und nur einen Test überfliegt, der ist selbst schuld.

Gut das man bei 4 Way AFR und 30 Fake FPS mal eben einen Lag von 133ms hat steht auch in keinem anderen Test. :)

@Lübke
Klar wenn AMD am RV670 die Schwächen beseitigt, wie NV den NV35 massiv verbessert hat, dann siehts toll aus. :)
Ich sehe nur, das das Design im Groben bleibt, der Chip weiterhin in 55nm daherwackelt, während NV den Schritt des Shrinks noch im Nähkästchen hat und der G92 nicht am Fertigungslimit ist.
 
ja,nur verdoppelt ati die Shader, erhöht seine Speicherbandbreite und taktet dank GDDR5 um einiges höher. Das waren die hauptmacken vom R6XXX, soweit ich weiß.

gruß
 
Es fehlt vor allem auch an Texelfüllrate, also an mehr TAUs.
Wenn AMD auch mal "unoptimertes" AF bietet, muss hier gewaltig aufgestockt werden.

Bandbreite fehlt gar nicht so arg, guck dir den R600, quasi ein RV670 mit brachialer Bandbreite, hat nur nicht geholfen.
 
Der doofe Laie stellt sich da eigentlich nur die naive Frage, warum die 9800GX2 nicht einfach mehr Speicher bekommen hat, an den Mehrkosten kanns ja kaum liegen, da kommts auch nicht mehr drauf an bei sowas...

Man kann nur hoffen es gibt noch möglichst lange brauchbare SingleGPU Karten, der ganze MultiGPU Mikroruckler/Treiberknatschmüll als Normalfall, welch eine Horrorvorstellung. :freak:
 
Also ich hatte noch nie CF oder SLI und bei mir ruckelts trotzdem manchmal. ;)
 
ist schon krass, dass man quad sli braucht um crysis @dx10 und volle details bei 50fps zu zocken:) (24zoll tft native auflösung)

ist zwar utopisch das ganze- trotzdem perverse performance:)
 
Zurück
Oben