Also ich bin eindeutig GEGEN Skulltrail. Benchmarks mit einem Board zu machen, das eigentlich ein Serverboard ist samt Serverchipsatz. Das wäre, als ob man neu Autoreifen mit einem Lastwagen testen würde. Die Nachteile sind eigentlich
nicht so wichtig:
1.) Triple SLI ist eigentlich mehr eine Machbarkeitsstudie, aber so ist es nicht wirklich relevant und zur Not gibt es auch noch andere Reviews im Netz, die das Segment abdecken.
2.) Das mit den 2 Plattformen ist auch gut so. SLI funktioniert eben nur mit einem Nvidia Board und Crossfire eben nicht. Da ist die Wahl der Plattform eigentlich schon vorherbestimmt. Skulltrail ist da eine Ausnahme, die für den Markt nicht relevant ist. Wenn Nvidia noch so gute SLI Treiber schreibt, aber im Chipsatz irgendetwas verpfuscht, dass es wieder 10-20% langsamer ist, dann muss das ganze SLI Rating um 10-20% geringer sein, sonst würde das Ergebnis verfälscht. Bei Intel ist es genauso. Wenn Intel keinen guten Crossfire-Chipsatz rausbringt, dann hat AMD die Last zu tragen, weil Nvidia wird sicher kein Board dafür herstellen und AMD sicher keinen Chipsatz für Intel-CPUs und AMD CPUs sind momentan nicht konkurenzfähig. Wenn SLI heißt, dass man dafür auch 5% CPU-Leistung verzichten muss, weil man sonst keine Plattform dafür hat, dann muss das genauso ins Rating rein.
3.) Das mit dem Stromverbrauch lässt sich ganz einfach lösen. Man nimmt irgendeine ganz kleine Karte und vergleicht die Verlustleistung mit der. Sie sollte halt gerade beim Testen nicht abschmieren. Dann kann man den Unterschied zu der ermitteln bzw. ist es eh gerechtfertigt, wenn ein Chipsatz mehr verbraucht, als der andere (siehe Punkt 2). Eine ganz kleine Karte als Vergleich ist mir überhaupt schon immer abgegangen, weil ich meisten wissen will, wieviel die Grafikkarte verbraucht und nicht wieviel eine Grafikkarte mehr als die andere verbraucht. Das gilt übrigens auch für die CPU Tests. Da wäre es auch nicht schlecht, wenn man einen ganz kleinen Celeron mit 1 Kern und 512KB mitlaufen lassen könnte. Da sieht man dann auch gut, was die CPU schluckt und was das System an sich und man kann leichter Prognosen anstellen, wie sich die CPU verhält, wenn man den Takt etwas höher treibt oder die VCore. Dafür gibt es ja ganz einfache Rechenregeln (ca. linear mit Takt, quadratisch mit VCore)
Was jetzt noch zu klären wäre ist, wie die Einzelkarten getestet werden sollten. Doppelt zu testen, wird denke ich einmal zu lange dauern und außerdem zu unübersichtlich. Ein Ansatzpunkt wäre alle Nvidia Karten mit Nvidia Boards zu testen und alle AMD Karten mit Intel Chipsatz. Die andere wäre, alles auf einem Board laufen zu lassen. Grundsätzlich wäre ein Test mit einem Intel Chipsatz zu bevorzugen, da das das meistgenutzte Board bei Intel CPUs ist und das auch aus gutem Grund. Das bildet eben eine Plattform, während einzelne Karten von jedem Board ziemlich gleich geschluckt werden, sofern sie nur einen PCIe Steckplatz haben (also auch z.B. die 9800GX2). Zwar ist dann der Vergleich von Einzelkarte auf SLI etwas verzerrt, aber da geht eh nicht um 2-3%, da die Ergebnisse sowieso so stark je nach Anwendung und damit nach persönlicher Gewichtung schwanken.
Das passt zwar nicht wirklich zum Thema Plattform, aber ich möchte an dieser Stelle auch gleich einmal anregen, dass man bei 3DMark06 die CPU Punkte rausrechnen sollte bzw. die Werte gleich aufteilen und zwei Tabellen machen. 3DMark06 ist deshalb als Benchmark so beliebt, weil man die Punkte so gut vergleich kann. So kann ich sagen einfach beim anderen Test fragen, was die Einzelergebnisse sind und kann schon nachschauen. Ansonsten muss ich das irgendwie grob hinschätzen auf +- 1-2K Punkte, da ich nicht weiß, was die CPU ist und was die Grafikkarte. Einmal abgesehen davon ist ja das Rating total verzerrt. Wenn auf 2560x1600 mit vollem AA/AF die CPU schon 4K (Quad Core) macht und das Gesamtrating irgendwo bei 6-7K Punkten liegt, dann schaut der Unterschied viel kleiner aus, als er eigentlich ist.
Weiters wären mir persönlich Durchläufe ohne AA/AF sehr recht. Ich hoffe, dass die in Zukunft wieder gemacht werden. Ich schaue mir in erster Linie einmal die Ergenisse ohne AA/AF an. Da sieht man sehr gut die wirkliche Leistung der Karten ohne irgendwelche Optimierungen, da man die AA/AF Levels ja nicht pauschal gleichsetzen kann. Zu Zeiten der 9800Pro war es ja schon immer so, dass das AA von ATI mit 6x so ca. dem AA von Nvidia mit 16x verglichen werden konnte. Heute ist es vielleicht nicht mehr so arg, aber trotzdem sind da sicher gut 5-10% mehr Leistung drin, ohne dass man auf einem Screenshot, der steht so wirklich viel Unterschied erkennen kann, genauso wie man 30fps nicht von 28fps unterscheiden kann, aber in der Summe fällt es dann halt schon auf. 8xAA sind für mich allerdings total uninteressant. Das würde ich erst dann aktivieren, wenn ich schon alles andere habe. Dasselbe gilt für die höheren AF Modi. Da ist mir eine höhere Auflösung viel lieber. Bis vor ein paar Monaten, wo ich noch vor meinem 1280x1024 17" TFT gesessen bin, habe ich mir auch gedacht, es ist nur die Qualität interessant, weil sonst bieten die aktuellen Grafikkarten eh alles, was man braucht. Dann habe ich mir einen 27.5" Hanns.G gekauft und jetzt sehe ich das etwas anders. Da ist AF wurscht. Es wird halt ein leichtes AA mit 2x drübergezogen, die wichtigsten Spieleffekte und trillineare Filterung und als nächstes zählt die Auflösung, weil das stört bei 1280x800 noch viel mehr. Erst dann, wenn ich auf 1920x1200 bin, fange ich einmal die Game Effekte aufzudrehen wie Schatten etc. und irgendwann dann kommt ein bisschen AF, dann einmal 4xAA und bis dahin ist es dann eh schon wieder mit der Leistung vorbei, egal wie gut die Karte ist. 1920x1200 mit 4xAA/16AF und allen Details kann man halt selten auf ordentlichen Frameraten spielen und da will ich schon mindestens 50fps Average, weil in speziellen Szenen geht es dann eh schon auf 30fps runter und das ist bei mir so ziemlich die Schmerzgrenze, auch wenn es nicht lange dauert.