Test Test: CrossFire, SLI oder Einzelkarte?

Demos benchen bringt sowieso nix...bzw sagt das nicht wirklich was aus. Zu viele Bugs sind noch vorhanden die eine wahre Performance nicht zeigen. Kann teils mangels Details schneller als die Vollversion sein, oder auch deutlich langsamer auf Grund von noch vorhandenen Fehlern.
 
Sry AvenDexx, sollte nicht direkt gegen dich gehen, sondern gegen die allgemeine Ablehungshaltung, die mir einfach gegen den Strich geht.

Interessanter wäre es gewesen, wenn er den gleichen Treiber genommen hätte, ..., gleiche Versionen der Spiele genutzt hätte und dazu dann auch noch auf das Umbenennen der EXE-verzichtet hätte. Erst dann hätte man eher sehen können, wo es wirkliche Differenzen zwischen seinem und dem CB-Test geben würde.

Genau das ist sind doch Punkte die im CB Test ungeachtet blieben. Zocker hat richtigerweise gezeigt was für Unterschiede die "Schwachstellen" im Test ausmachen.
 
Ja, vergleichen kann man die Tests damit aber dennoch nicht wirklich. Natürlich sind seine Werte besser, aber um wieviel wären sie besser, wenn er die gleichen Settings wie CB gewählt hätte?
 
hab jetzt nicht alle comments gelesen, aber kann ja auch sein dass der Tester das Problem mit dem exe renaming garnicht kannte :evillol:

und zum tema renaming pro/contra. Ein hardwaretester ist doch kein DAU der nicht weiss wo die *any key* Taste ist. Der gibt doch nach dem ersten Versuch nicht auf und sagt "geht nicht". Schon garnicht wenn er weiss wie man das Problem umgehen kann. Was im späteren Artikel natürlich vermerkt sein sollte.;)

Zu den Treibern. Naja fairer Weise hätte man noch nen alten Nvidia-Treiber nehmen können. Wurde aber nicht gemacht da es mit dem Probleme gab und somit hätte man den Test garnicht erst machen brauchen.

Timedemo VS Sreenshot:
also ich glaube dass das in der Skallierung wenn überhaupt ein Untereschied von 5 maximal 10% macht. Wenn ein Gespann aus zwei Karten nunmal X viele FPS in einem shot schafft. Warum sollte es bei ner timedemo gross anders aussehen. Selbe engine gleiches System nur anderes savegame halt.
EDIT---------------------
AvenDexx schrieb:
Ja, vergleichen kann man die Tests damit aber dennoch nicht wirklich. Natürlich sind seine Werte besser, aber um wieviel wären sie besser, wenn er die gleichen Settings wie CB gewählt hätte?

soll man jetzt bei jedem bensch nur noch die settings aus dem Test nehmen o O. Genau das wollte er ja nicht machen weil der Test seiner und der Meinung vieler anderer nach auch, falsch durchgeführt worden ist
 
Zuletzt bearbeitet von einem Moderator: (Doppelpost zusammengeführt, bitte "Ändern" - Button nutzen.)
Es geht nicht um "Timedemos VS Screenshot", sondern rein um das Benchen in einer gewissen Szene. Man kann eine Szene benchen, in der nix los ist und sich über hohe FPS freuen oder aber eine Szene wählen, in der viel los ist, wo viele Gegner rumrennen etc. und sich darüber ärgern, dass die FPS in einer solchen Szene schon sehr stark einbrechen können. Und das können dann auch mal mehr als "nur" 5-10% sein.

Edit:
Falsch durchgeführt worden ist und dementsprechend falsche Werte liefert. Wie falsch sind sie aber wirklich im Verlgeich zu gleichen Settings? Genau so, wie man nun anstrebt, das EXE-Renaming in einem extra Abschnitt eines Artikels zu behandeln, sollte man hier dann auch hingehen und die Unterschiede zwischen gleichen Settings und den optimalen Settings darstellen. Nur so bekommt man dann im Endeffelk raus, wie falsch die Ergenisse unter den CB Bedingungen wirklich sind.
 
Zuletzt bearbeitet:
AvenDexx schrieb:
Ja, vergleichen kann man die Tests damit aber dennoch nicht wirklich. Natürlich sind seine Werte besser, aber um wieviel wären sie besser, wenn er die gleichen Settings wie CB gewählt hätte?

Warum sollten sich die Tests bei 100% gleichen Settings überhaupt unterscheiden?

Darum gehts ja nicht, es geht darum zu zeigen wie weit die CB Ergebnisse von der aktuellen Realität weg liegen. Also das, worüber nun seit 18 Seiten mehr oder weniger diskutiert wird.
Warum ein 8x8 Board, warum wurden Demos genommen, warum wurden alte Treiber genommen, warum wurde exe-Renaming nicht mit beachtet usw.

Wenn man alle Faktoren zusammenzählt (jeder einzelne bis auf Renaming wurde ja schon fast als Nichtig abgestempelt) sieht man anhang von zockers Werten eben wie es wirklich aussieht.
 
So sieht man dann aber unter Umständen Fehler, die dann wirklich auf Treiber etc. zurückzuführen sind. Man kann eine wesentlich genauere Fehleranalyse durchführen, wenn man eben diese Vergleiche hat.
 
Sie tragen sicherlich Schuld daran, hatten aber nicht viele Möglichkeiten, speziell was das Marketing anbelangt.

Ich kann mich heute noch super an die "Runs best on Voodoo" aufssteller im Blödmarkt, seitenweise Werbung in Printmags und sogar sponsoring bei diversen Sportarten, Messen und Co. erinnern.
Schlecht war man damit eigentlich eher nicht aufgestellt.

Den Ast haben sie sich erst durch STB und "alles selber machen" selbst abgesägt, stöbere mal Kataloge von Alternate und Co. in Printmagazinen nach dem Kauf von STB durch, da kommen dann auf 5-6 3dfx Karten 30-40 (!!) von X Herstellern die alle nV Chips verbaut haben.
nV hat im Prinzip nichts anderes gemacht als das Loch zu stopfen, das 3dfx aus eigenem Willen hinterlassen hat.

STB selbst war für 3dfx nie rentabel, die Fabrik wurde nie anständig ausgelastet, OEM deals gabs auch keine (mangels Produkte, die Budget Voodoo 3 hatte volle Chipgröße und waren keinen funken Billiger in der Produktion als die Retail Versionen)
Kurz vor der Pleite hat man es sogar erkannt und u.a. an PowerColor Voodoo Chips verkauft sowie Pläne geschmiedet die STB Fabrik in Mexico loszuwerden.
Ein offensichtlicheres Eigeständnis gibts eigentlich nicht.
Aber wie so oft, too little too late.

Evntuell solltest du dir in dem Zusammenhang mal die Geschichte mit AA und den Screenshots in Zeitschriften ansehen, hier recht gut erklärt :

Wie gesagt, ich kenne die Geschichte mit Hochglanz-Features die keiner braucht und dem schlechtreden der 3dfx Features.
Das war aber am Ende nicht der Grund warum man abgesoffen ist, siehe oben.
Der Hauptgrund warum ich in die Diskussion eingestiegen bin, liegt darin begründet das ich in der Familie jemanden habe, der bei STB in Irland gearbeitet hat und somit den ganzen Schmu von der Fusion bis hin zum Sellout an nV miterlebt hat.
Von daher hab ich wahrscheinlich ein etwas anderes Bild von dem Laden als viele andere hier.

Und daher das kein 3dfx Thread ist, klinke ich mich damit mal aus. ;)
 
AvenDexx schrieb:
Es geht nicht um "Timedemos VS Screenshot", sondern rein um das Benchen in einer gewissen Szene. Man kann eine Szene benchen, in der nix los ist und sich über hohe FPS freuen oder aber eine Szene wählen, in der viel los ist, wo viele Gegner rumrennen etc. und sich darüber ärgern, dass die FPS in einer solchen Szene schon sehr stark einbrechen können. Und das können dann auch mal mehr als "nur" 5-10% sein.

Edit:
Falsch durchgeführt worden ist und dementsprechend falsche Werte liefert. Wie falsch sind sie aber wirklich im Verlgeich zu gleichen Settings? Genau so, wie man nun anstrebt, das EXE-Renaming in einem extra Abschnitt eines Artikels zu behandeln, sollte man hier dann auch hingehen und die Unterschiede zwischen gleichen Settings und den optimalen Settings darstellen. Nur so bekommt man dann im Endeffelk raus, wie falsch die Ergenisse unter den CB Bedingungen wirklich sind.

wie soll den Zocker 28 so einen Test durchführen? geht doch allein wegen der hardware schonmal nicht. PCI E 1.1 im Test und bei ihm soviel ich weiss 2.0 und 16x statt 8x. naja er könnte es auf 8x runtersetzten und den alten treiber noch raufmachen und das renaming weglassen. das könnte eventuell die Werte aus dem CB-Test simullieren. Aber ob das so interessant ist. Das die werte "falsch" sind sollte doch nun geklärt worden sein. da ist es doch nicht so wichtig zu klären wie falsch sie sind.
 
Zuletzt bearbeitet:
Die benches von zocker28 sind doch so viel interessanter.

Irgentwelche uralt-treiber-demo Benches will doch eh kein Mensch sehen.

Ok, die Szenen könnten fordernder sein.
 
Naja, meiner Meinung nach schon. Falsch ist im Grunde zwar noch immer Falsch, andererseits aber auch irgendwie nicht.

Klingt seltsam, ist es aber gar nicht.

Ich meine damit, dass die Werte von CB sicherlich zu Wünschen übrig lassen. Würde man nun aber mal das CB-System so ansatzweise simulieren, und es würde sich herausstellen, dass die Werte zwischen CB und dem zweien Testsystem nur um ca. 5% differieren, dann würde sich das ganze schon wieder etwas relativieren. Unter den Bedingungen von CB wären die Werte dann also durchaus korrekt. ;)

Natürlich bleiben sie aber insofern falsch, als dass es neuere Treiber gibt, kein EXE-Renaming mehr nötig ist, Spiele gepatched wurden etc.
All das sorgt für bessere Ergebnisse, was Zocker ja auch gezeigt hat.

Es stellt sich mir dann also die Frage, ist es nur der Testaufbau der den Test falsch erscheinen lässt oder ist es der Testablauf gewesen.
 
Zuletzt bearbeitet:
AvenDexx schrieb:
Es stellt sich mir dann also die Frage, ist es nur der Testaufbau der den Test falsch erscheinen lässt oder ist es der Testablauf gewesen.

Natürlich ne Mischung aus beidem. Ich vermute 40% der Abweichung kommen durch den Testablauf und 60% durch den Testaufbau zu Stande.
 
"Vermutung" ;)

Daher ja auch ein vergleich eines simulierten CB-Testsystems. Das ist zwar nur eine Spielerei, aber durchaus interessant.
 
hmmm
mich würde mal interissieren wie sich zwei 8800GT (1024mb) im sli modus schlagen würden.
wäre bestimmt auch schön!
 
Auch nicht sehr viel anders als die 512MB versionen. Erstens wird der Speicher ja nicht addiert und mach das Speicherinterface da einen Strich durch die Rechnung.
 
AvenDexx schrieb:
Auch nicht sehr viel anders als die 512MB versionen. Erstens wird der Speicher ja nicht addiert...

... was bei einem Gigabyte pro Karte ja auch überhaupt nicht nötig ist. Bei 512MB pro Karte aber vielleicht schon ?!?
Würde mich auch mal interessieren.
Bei der Rechenleistung von zwei 8800GTs machen sich 1GB effektiv nutzbarer Speicher bestimmt nicht schlecht.
 
Wie denn?

Das Speicherinterface bleibt gleich. Der höhere Speicher allein sorgt aber nicht für bessere Framerates. Das einzige was dadurch verbessert wird uns weshalb es einen kleinen Performanceschub geben könnte ist die Tatsache, dass mehr Daten in den Speicher ausgelagert werden können und nicht ausgelagert werden müssen. Die Unterschiede sind aber sehr gering. Da gibt es nur sehr wenige Ausnahmen, wo sich das bemerkbar macht. (z.B. CoD2)

Schau dir als Beispiel doch nur mal den Performanceunterschied zwischen der X1900XT 512MB und er 256MB Version an. Die liegen ziemlich genau 5% auseinander. Wenn man in diesem Rating CoD2 rausnimmt, verringert sich der Performanceunterschied schon wieder. Klick mich

Sind zwar alte Karten, am Prinzip Speicherinterface/VRAM ändert das doch aber nichts.
 
Zurück
Oben