Sind trotzdem keine richtigen unabhängigen Benchmarks...

Und ich post nochmal hier:
Mal nen kleines Gedankenspiel meinerseits (
Erste Quelle +
Zweite Quelle):
Eine GFFX soll bei UT2K3, 1280*1024, 32Bit und 4*FSAA, 8*AF
108 FPS schaffen, eine GF4Ti4600 39 FPS... Getestet auf einem P4 3.06GHz... Eine R9700 Pro schafft auf einem P4 2.2GHz bei gleichen Vorraussetzungen:
55 FPS
Die GF4Ti4600:
20 FPS
Ich gehe weiter:
- Bei dem P4 2.2GHz: R9700 ist 2.75mal schneller als eine GF4Ti4600
- Bei dem P4 3.06GHz: GFFX ist 2.77mal schneller als eine GF4Ti4600
Ich gehe mal davon aus, das alle drei Karten bei dem CPU-lastigen UT2K3-Bench gleich gut skallieren! Dann müsste eine R9700 Pro auf nem 3.06GHz P4
107 FPS schaffen und die GFFX auf nem 2.2GHz P4
55.4 FPS. Na, fällt jemand was auf?
Gut, hier wurden unterschiedliche Systeme genutzt und vergleichen kann man das alles im Endeffekt vllt doch nicht so vereinfacht, wie ich das jetzt hier mache, aber
trotzdem: Ich komme nicht weg von der Annahme, dass die GFFX irgendwie
DOCH nicht 30% schneller ist, als eine R9700 Pro... Was meint ihr?
Und nicht das ihr mich falsch versteht: Ich bin kein nVidia-Hasser noch verteidige ich grundlos eine Radeon! Nur finde ich dieses Fazit irgendwie treffend:
"Die Shader sind deutlich aufgewertet, DDR II wird zum ersten Mal benutzt, und die erhöhte Farbpräzision ist innovativ - doch nach einem technologischen Durchbruch sieht der GeForceFX zumindest auf dem Papier nicht aus.
Zu groß sind die Zugeständnisse an die Fertigungsmöglichkeiten und das Design als AGP-Karte - nicht umsonst gibt NVIDIA den Stromverbrauch mit keiner Silbe an. Auch dass der Lüfter "leise" sein soll, ist alles, was der Hersteller von seinem eigenwilligen Konzept preisgibt.
Auf dem Papier ist der DDR-II-Speicher mit 128-Bit-Bus in der Bandbreite nicht schneller als DDR-I mit 256 Bit beim Radeon 9700Pro. Das müssen dann wohl der Chiptakt von 500 MHz und die überarbeiteten Pipes richten. Damit wäre zumindest das Klassenziel erreicht. Aber wie groß der Vorsprung ist, kann erst ein unabhängiger Test zeigen.
Um nachzulegen hat ATI ein Vierteljahr Zeit; die Nutzung des bereits vorhandenen DDR-II-Interfaces ist hier nur eine Option. Auch ein Wechsel auf 130 Nanometer erscheint noch denkbar, hier hat NVIDIA seinen Spielraum bereits ausgereizt - und vielleicht sogar überreizt. Die GeForceFX erscheint in der derzeitigen Form als Grafikkarte, die sich am Rande des technisch machbaren bewegt. Sein selbst gestecktes Ziel, alle sechs Monate den schnellsten Grafikchip auch zu liefern, hat NVIDIA diesmal jedoch gründlich verfehlt.
Product Line Manager Geoff Ballew begründete die früher Vorstellung im Gespräch mit tecCHANNEL nicht etwa damit, dass man ATI das Weihnachtsgeschäft verderben wolle. Vielmehr müsse man die Software-Entwickler bereits jetzt mit den Karten versorgen, damit Weihnachen 2003 genug Titel verfügbar seien, die das Potential des NV30 nutzen. Das bringe aber eine Vielzahl an Stellen mit sich, aus denen Informationen entweichen könnten. Daher habe sich NVIDIA entschieden, mit seinem neuen Design gleich an die Öffentlichkeit zu gehen.
Doch eine abschließende Bewertung des GeForceFX ist am Tag der Vorstellung mangels Testexemplaren noch nicht möglich. NVIDIA hat mit den technischen Daten hoch gepokert, ohne allerdings die Karten auf den Tisch zu legen."