News Fragwürdige Benchmarks zweier R520

@13: Mehrere Chips miteinander zu verbinden kupfert niemand von irgendwem ab. Ich rede von der Technik wie das geschieht und da gibs schon Unterschiede zwischen SLI und Crossfire. Die Technik die nVidia nutzt haben die nicht von Grund auf entwickelt, sondern gekauft von 3dfx. ATi hingegen, hat die Technik wohl "alleine" entwickelt und viel später entwickelt. 3dfx hatte sowas ja schon mit der Voodoo². Soviel dazu...

Die RageMAXX war wohl eher ne Studie für ATi, denn die Grafikkarte war im wahrsten Sinne des Wortes ne Missgeburt. Die Treiber waren so grottenschlecht

Edit: Ob der nun das Bild teilt oder grade und ungerade Linien rechnet. Die Technik bleibt eigentlich dieselbe.
 
Irgendwie logisch das ATI diese Ergebnisse nicht gerne sieht....;) Warten wird es mal ab. Wenn die Karten mit R520 GPU jedoch nicht ein gutes Stück schneller sind als die Nvidia G70 Karten (was ich persönlich langsam bezweifle) hat sich ATI ganz schön lächerlich gemacht...
 
_Grisu schrieb:
Möchte mal wissen, was der Author des Bench-Artikels von NVidia zu Weihnachten bekommt... ;)

Eins mit dem Geschenkesack in die Fresse. Nur weil er jetzt ATi eins ausgewischt hat, ist er noch lange kein "Freund" von nVidia.
Der Typ wird wohl nie wieder bei irgendeindem "Techday" dabei sein.
edo# schrieb:
Wenn Nvidia nicht wäre hätten wir immernoch kein TSAA, HDR, SM3 usw... also lass den Quatsch..

Und Crossfire ist nicht von Nvidia abgekupfert oder wie?

Gruß...

Und ohne die Geforce256 kein T&L, ohne die Riva keine 32bit...
So ein Quatsch.
kisser schrieb:
Es war 1999 und damals auch nur eine Verzweiflungstat, weil man der Geforce nichts entgegensetzen konnte. Überzeugen konnte die RageMAXX jedenfall nicht so.

Dafür konnte die Ur-Radeon überzeugen, worauf nVidia die Geforce2 Ultra veröffentlichte. Und die Radeon war fast eine DX8.0 Grafikkarte.
 
Zuletzt bearbeitet:
Na wenn Sander sich damit mal net das eigene Grab geschaufelt hat....:freak:
Das wäre äusserst dumm und unüberlegt von Ihm. Naja, wie ich in anderen Foren bereits sagte: erstmal glaubwürdige Testberichte abwarten.
Höhenflüge sind aber sicherlich net zu erwarten....:freaky:

bye Hübie
 
sage nur erst mal auf erste reviews abwarten dann kann kritisiert oder gestaunt werden... scheint ja nicht mehr all zu lang zu dauern...
 
Faint schrieb:
Aber auch nur FAST!:D

Ja, fast. Das heißt also, daß sie featuremäßig die damalige Geforce2 GTS abgehängt hat. Erst mit der Geforce 3 konnte nVidia nicht nur gleichziehen, sondern überholen. Dann kam die 8500er.
 
tja ati war immer einen schritt zu langsam
bis zur 9700, da waren sie viel zu früh ^^
 
xxxx schrieb:
reuBer schrieb:
Aber eins finde ich wirklich mies von Nvidia als 3dfx übernommen wurde, wurden auch die Pläne für den T-Buffer übernommen aber Nvidia hat es bis heute nicht geschafft ihn weiter zu entwickeln oder auch nur in ihre Chips zu integrieren und das ärgert mich jedesmal wenn ich die Bildqualität auf meiner alten Voodoo 5 sehe.

Das stimmt nicht. Der T-Buffer ist nur eine eingeschränkte Form eines Multisample-Buffers und MS-Buffer hat Nvidia seit der Geforce3 (NV20), Ati seit R300.

deekey777 schrieb:
Dafür konnte die Ur-Radeon überzeugen, worauf nVidia die Geforce2 Ultra veröffentlichte. Und die Radeon war fast eine DX8.0 Grafikkarte.

Die Ur-Radeon war eine gute Karte, das steht außer Frage, aber was DX8 angeht, da ist sie nicht mehr "fast DX8" als eine R420 "fast SM3" ist;) , d.h. das fehlt doch noch einiges zu DX8, aber sie wurde ja auch nur als DX7 Chip entwickelt.
 
Zuletzt bearbeitet:
Zurück
Oben