News Fragwürdige Benchmarks zweier R520

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.150
Die Kollegen von Hardware Analysis haben nach eigenen Angaben die Chance gehabt, eine X1800 XT und eine X1800 Pro mitsamt den von ATi für die Produktvorstellung vorgesehenen Treibern durch eine Hand voll Spiele und Auflösungen zu jagen. Oder etwa doch nicht?

Zur News: Fragwürdige Benchmarks zweier R520
 
Entweder Fake oder falsche Treiber oder was weiß ich. Wird bestimmt nicht stimmen ;)

Man merkt aber deutlich, dass ATI kurz vor Veröffentlichung ist :D
 
Möchte mal wissen, was der Author des Bench-Artikels von NVidia zu Weihnachten bekommt... ;)
 
Sind Benchmarks nicht immer fragwürdig?

Man muß blind sein oder ein sehr schlechtes Gedächtnis haben (oder in diesem speziellen Fall ein fanatischer ATI-Anhänger), wenn man bei dieser Überschrift noch irgend welche Regungen empfindet.
Ob es überhaupt objektive Tests gibt, möchte ich bezweifeln. Denn um bei einem Test auch ein aussagekräftiges Ergebnis zu haben, muß man vergleichen. Hat man zu dem Testobjekt an sich noch keine vorgefertigte Meinung, hat man es auf alle Fälle zu den Vegleichsobjekten (denn sonst würde man speziell diese - bei der Vielzahl an Produkten - nicht zum Vergleich heranziehen).
Und natürlich möchte jemand, wenn er sich stunden- oder tagelang mit einem Produkt auseinandergesetzt hat, auch seine persönlich gemachten Erfahrungen (ob nun positiv oder negativ) zum Ausdruck bringen. Mit diesem Schritt entfernt man sich weit von der Objektivität; auf der anderen Seite erreicht man damit ein zumeist glaubwürdigeres Ergebnis (außer der Leser ist mit dem Ergebnis nicht einverstanden).

Und gerade bei Benchmarks hat sich in der Vergangenheit gezeigt, daß man sich ein Ergebnis auch "schön-cheaten" kann, wenn nicht herauskommt, was man der Öffentlichkeit verkaufen will.

In ein paar Wochen oder Monaten sind wir alle schlauer. Und auch dann werden wir feststellen, daß jeder Sieg einen Schönheitsfehler und jede Niederlage auch ihre guten Seiten hat. Es kommt immer nur darauf an, aus welcher Richtung man schaut!
 
Dass ATi jetzt ein Wunder vollbringt und deutlich vor nVidias Grafiklösung liegt, ist nicht zu erwarten. Allerdings halte ich nichts von solchen (extrem fragwürdigen) 'Benchmarks'. Wenn hier auf ComputerBase ein erstes Review verfügbar ist, werde wir wissen wie gut ATi gearbeitet hat ;)

Insgesamt kann man aber jetzt bereits aussagen, dass beide Hersteller hervorragnede Grafikchips produzieren und weniger 'optimieren' sollten. Nachdem für jeden etwas dabei ist (Preis und/oder Leistung), sollte ein Flamewar eigentlich obsolet sein.
 
Tech Day auf Ibiza geladen – und auch ComputerBase
welcher ausgewählte redakteur "muss" denn nach spanien fliegen? ich wette, das wird ne dicke party im punta arabi und ganz nebenbei präsentiert ati mal ein paar neue grafikkarten :D

das ganze klingt mir aber auch eher nach privatfehde...
 
@5
Ganz meine Meinung!
Man sollte erst die Tests mit den finalen im Handel erhältlichen Grafikkarten abwarten, bevor man sich eine
endgültige Meinung bilden kann. Alles Andere ist reine Spekulation. Zumal heutige Topmodelle, sowohl von
Nvidia als auch von Ati von selbst leistungstarken Prozessoren auch nur annähernd richtig gefordert werden können.
 
guru3d.com schrieb:
ATI's (Chris Hook) first reaction to this article was: " Fiction. I don't believe these numbers were ever run on a 520 ".

And then a second response (from Chris) came in:

"This is a complete hoax - done with an OC'd X850, we think. Call our partners yourself and ask if they have R520XTs in house. The numbers aren't even close."

Wie glaubwürdig das ist weiss natürlich keiner, aber ich glaub diesem Statement eher als diesen "Benchmarks", das wäre einfach ne pure Blamage.
 
falsch oder nicht, ati bekommt jetzt auf jeden fall eine menge aufmerksamkeit.

cool bleiben und abwarten was ati aus dem hut zaubert!
 
wenn ati denn etwas aus dem Hut zaubert. Ich find ATI eigentlich super, aber ich muss halt unabhängig sagen, dass Nvidia momentan besser darsteht. Wenn es so sein sollte, wie denn die "Benchmarks" zeigen, hätte ATI ein Problem.
 
Man merkt echt das es bald soweit ist! Genauso wie diese lächerlichen Angriffe an ATis Crossfire. Hey nVidia, entwickelt erstmal selber etwas und "klaut" nicht von anderen Herstellern (3dfx), dann können wir weiterrreden. Und wenn ich mal die Fehlerliste vom ersten nForce auspacke..........

Zu den Benchmarks sag ich nur: lol, ich hab auch Benchmarks mit der ATi R520 gemacht und die sehen für ATi nicht gut aus. Selbst die sehr betagte Radeon8500 hat hier in einigen Teilen, besonders 3DMark05, die Nase sehr weit vorne -> Glaubt mir, ich hab die Karte wirklich getestet!!! Zwar hatte ich die Karte nur für den ISA-Steckplatz, aber da dürfte es zu keinen Bus-Seitige engpässen kommen. Getestet wurde alles mit Windows 2.4 mit HeadingThryper
 
Zuletzt bearbeitet:
@13: Nein, Ati hat schon lange entsprechende Lösungen im Profibereich. Ich kann mich noch an einen r300 Cluster für das US Militär erinnern :D
 
anscheinend doch, außerdem hatte ati schon mit der rage(1998) eine multi-gpu lösung gehabt
 
Ich vergleiche solche "Papers" von Herstellern (ATI / Nvidia) immer mit Wahlpostern.
Dann sieht man das alles gelassener und mit etwas Sarkasmus. ;)
 
AlphaGoku schrieb:
anscheinend doch, außerdem hatte ati schon mit der rage(1998) eine multi-gpu lösung gehabt

Es war 1999 und damals auch nur eine Verzweiflungstat, weil man der Geforce nichts entgegensetzen konnte. Überzeugen konnte die RageMAXX jedenfall nicht so.
 
sinnloses gelaber hier *g* warten wir mal auf richtige benchmarks..mir war von anfang klar..das die fps net stimmen können..manche haben ja mit iher X850 XT PE mehr punkte als die in ihrem test!
 
reuBer schrieb:
Man merkt echt das es bald soweit ist! Genauso wie diese lächerlichen Angriffe an ATis Crossfire. Hey nVidia, entwickelt erstmal selber etwas und "klaut" nicht von anderen Herstellern (3dfx), dann können wir weiterrreden. Und wenn ich mal die Fehlerliste vom ersten nForce auspacke..........

Nvidias Sli Technik ist eine Eigenentwicklung und basiert nicht auf der 3dfx Technologie (leider),weil bei der 3dfx Version der eine Chip die graden der andere die ungraden Linien berechnet hat während bei der Nvidia Version jeweils eine Karte einen Teil des sichtbaren Bildes und die andere den Rest berechnet. Aber eins finde ich wirklich mies von Nvidia als 3dfx übernommen wurde, wurden auch die Pläne für den T-Buffer übernommen aber Nvidia hat es bis heute nicht geschafft ihn weiter zu entwickeln oder auch nur in ihre Chips zu integrieren und das ärgert mich jedesmal wenn ich die Bildqualität auf meiner alten Voodoo 5 sehe.
 
Zurück
Oben