Anandtech hat's NDA mal wieder gerissen: NV38 vs. 9800XT Benches online

Sieht gut aus. Vorallem das NV bei den neuesten Spielen vorne liegt!
Homeworld2, JediKnight Academy, X2
 
Wenn ATI dann noch das dynamische Overclocking mit dem Cat. 3.8 aktiviert, siehts dann noch mal besser aus für ATI. Also mit der NV3X Reihe kann NVidia nicht mehr viel reißen.
 
FAZIT:

C&C Generals: R9800XT meilenweit vorn, da wird sogar nVidias FX 5900 Ultra von der R9600 Pro verspeist --> SEHR dubios!
F1 Challenge 99-2001: Im Prinzip Gleichstand, leichte Vorteile fuer die Radeons
Final Fantasy XI: Weiterer Gleichstand, wiederum leichte Vorteile fuer die Radeons
Halo: Ungefaehr Gleichstand
Homeworld 2: Vorteile fuer die FX-Serie!
Jedi Knight 3: Auch hier ist die FX-Serie im Vorteil
MS Flight Simulator 2004: Die Radeons sind in einer anderen Welt
Neverwinter Nights: Leichte Vorteile fuer die FX-Serie
Sim City 4: Die Radeons dominieren das Geschehen
Splinter Cell: Gleichstand
UT2K3: Minimale Vorteile fuer die Radeons
X2: Leichte Vorteile fuer die FX-Serie
Warcraft III: Vorteile fuer die Radeons
WS - Enemy Terretory: Gleichstand

Insgesamt:

"We’re quite wary of recommending any of the current NVIDIA cards at this point, for two major reasons. First, with NV38 coming right around the corner any FX 5900 Ultra purchases wouldn’t be wise investments. Also, given the marginal performance improvements you can expect out of a 5% core clock increase, don’t have incredibly high expectations for the NV38. We can’t recommend the GeForce FX 5600 Ultra because NVIDIA has already indicated that NV36 (the 5600 Ultra’s successor) will be here shortly to replace it and should offer significantly greater performance. So if you’re looking to buy a video card right now, ATI is the way to go."

Fuer nVidia also nicht wirklich loeblich!
Trotzdem: Der Test ist eine Enttaeuschung: Es werden wenige Modi getestet, es gibt KEINE Bildqualitaetsvergleiche, die Aufschluss geben, inwiefern sich hier das Bild gegenueber dem schwachen 51.75er verbessert hat (und nicht nur BiAF, auch die ganzen \"Beleuchtungsprobleme\" in diversen Spielen und die teilweise frappierend runtergestellten Mipmap-Werte)!

Deshalb: Der Test ist kompletter Quatsch, er wirkt ziemlich hingeschludert, hat wenig Infos zu den getesteten Einstellungen und ist von seiner Aussage her ziemlich fragwuerdig, da KEINE Bildqualitaetsvergleiche angeboten werden!!! Dass Anandtech in letzter Zeit einfach keine guten Grafikkarten-Artikel rausgebracht hat und sich lieber weiter auf Motherboards und Co. stuetzen sollten, sei zwar dahingestellt, aber ich warte lieber auf die finalen Tests mit Vergleichsbildern der Qualitaet und professioneller aufgemachten Tests, zumal sich Anandtech noch den Fauxpas geleistet hat und teilweise Cut-scenes gebencht... Auch im 3DCenter-Forum wird schon diskutiert, wieviel Fehler sich Andantech in dem Artikel geleistet hat, denn so hingeschludert der hier wirkt, sollte man auf weitreichende Analysen in Bezug auf dieses "Review" verzichten... Es sei den, es bestaetigt sich, dass der naechste offizielle Deto wirklich eine sehr gute, 44.03-like BQ anbietet und auch noch DEUTLICH schneller ist, als der 45.23 bzw. 51.75er... Aber dies muss erst noch ausfuerlich geklaert werden und aus diesem Grund warte ich weiter auf offizielle Treiber und weitere Reviews R9800XT vs. FX5950!

PS: Weiss jemand, warum die FX-Karten bei dem nun schon etwas aelteren und kaum shadernutzendem BF 1942 so eingehen? Ist ja eigentlich kein Spiel, dass von den neuen Detonatoren profitieren sollte (da DX7) und von EA vertrieben? Zudem zahlreiche FX5900-User diese Probleme bestaetigen und nVidia das Problem laut Anfragen beim Vertreiber "sucht": Bei EA persoenlich...

PPS: Seit Borsti alias Lars Wieland bei Beyond3D im Forum postet und sich da kraeftig was anhoeren musste sind seine THG-Reviews deutlich besser geworden. :) Waere vor nem halben Jahr undenkbar gewesen, so etwas zu erwarten. :D

PPPS: Am besten find ich immer noch das hier: Mit AF/AA ist die FX5600 Ultra schneller als ohne! :D Gibt noch so ein paar dicke Schnitzer!
 
Zuletzt bearbeitet:
Original erstellt von Riptor
FAZIT:

C&C Generals: R9800XT meilenweit vorn, da wird sogar nVidias FX 5900 Ultra von der R9600 Pro verspeist --> SEHR dubios!

X2: Leichte Vorteile fuer die FX-Serie

Warum SEHR dubios?
Bei Wolfenstein wird die 9700Pro/9800Pro ja auch in den Standardsettings von einer FX5600U verspeist!

Leichte Vorteile für NV bei X2? Naja! Bei stellenweise 10% Vorteil schon alleine bei der FX5900U gegenüber der 9800Pro ist wohl das Wort "leicht" eher eine Untertreibung.;)

Und bei den minimalen Vorteilen der ATI zeigen die Ergebnisse oft einen marginalen Leistungsunterschied der Topmodelle von weniger als 1% bis hin zu 0,5% und weniger an. Das kann man letzlich auch unter "Meßtoleranz" fallen lassen.

Alles in allem ist der NV38 nicht übel (entsprechende Bildqualität vorausgesetzt)
Letztlich wird aber der Preis der beiden viel entscheidender sein. Hier sollte eigentlich NV aufgrund der 0,13nm Tec. die Nase vorne haben bei entsprechender Chipausbeute!
 
war eigentlich klar, dass die Radeon 9800XT vorne is, wenns auch ziemlich knapp war... :)

Schade is natürlich, dass IQ-Bildvergleiche fehlen, da hat man von anandtech shcon besseres gesehen...
 
So wie ich das verstanden hab kommen die IQ-Vergleiche später ? Das Ding heißt doch auch Part I.
Wenigstens bin ich froh, dass ET in den Benchmarks enthalten ist.
Allerdings hab ich ihnen schon geschrieben, dass eine normale Gameplaydemo nicht sehr aussagekräftig ist. Und nett wie ich bin hab ich ihnen auf Anfrage ne bessere Demo geschickt. ;) Schließlich interessiert es niemanden ob man durchschnittlich 75 oder 80 fps hat. Entscheidend sind die Stellen wo die fps einbrechen. Und da ist das Spiel absolut nicht CPU-lastig. Meine arme GeForce 4 Ti42 sieht da ziemlich alt aus :(
 
Original erstellt von GRAKA0815
Leichte Vorteile für NV bei X2? Naja! Bei stellenweise 10% Vorteil schon alleine bei der FX5900U gegenüber der 9800Pro ist wohl das Wort "leicht" eher eine Untertreibung.;)

Stimmt, die FX5900 Ultra ist ja auch billiger... Sorry, aber wir sollten erstmal nen fertigen Test abwarten als dieses "Review" hier ernst zu nehmen. Oder was soll ich von diesem 52.XX Treiber halten, ueber den nur angedeutet wird, dass es Bildfehler gibt, aber ansonsten ueberhaupt nichts zur Qualitaet gesagt wird? :) Bei den Preisen erwarte ich einen Preisverfall der R350/NV35 Karten, aber dass nVidia nun Preisleistungssieger wird, muss sich noch erst beweisen, bisher war es eher anders herum. Mehr sag ich dazu nicht, weil ich aufgrund von so spaehrlichen Infos keine genauen Angaben machen kann und dieses Vorgeplaenkel IMO nicht wirklich aussagekraeftig ist.
 
Zuletzt bearbeitet:
Naja zum einen läuft die FX im Mixed Mode, wo nicht zu viele PS 2.0 gebraucht werden. Und zum anderen, würde mich die IQ interessieren und die vielleicht weggelassenen Effekte, etc.
 
Erm naja 3DMark03 haben sie wieder mal weggelassen. Wichtig ist doch was diese Karten im reinen DX9 mode machen.
Warum da Spiele wie SimCity 4 gebencht werden ist mir rätzelhaft....
 
Original erstellt von GRAKA0815
Sieht gut aus. Vorallem das NV bei den neuesten Spielen vorne liegt!
Homeworld2, JediKnight Academy, X2

Genau, das sind die DX9-Referenzspiele überhaupt!

Die Image-Quali unter 52.14 soll wirklich der 44.03 o.ä. gleich sein - es werden genau so viele Objekte dargestellt wie auf ATi-Karten. Die Qualitätseindruck soll auch "the smoothest"sein auf der NV38.
Aber: Was zum Teufel hat eine nicht veröffentliche Grafikkarte mit einem nicht veröffentlichten Treiber in einem Review zu suchen?
Das wichtigste ist aber: sollte der 52.14 wirklich so gut sein, insbesondere bei DX9-Benchmarks wie HL2 oder TR:AoD, ohne dass die Imagequali leidet, dann hieße es: ... Ist doch egal, ich hol mir eine ATi! :D Nein, die FX-Besitzer dürften sich von Freude in die Hose machen und sich nichts mehr von ATi-Fans gefallen lassen!
 
Zuletzt bearbeitet:
Original erstellt von BOZ_er
Erm naja 3DMark03 haben sie wieder mal weggelassen. Wichtig ist doch was diese Karten im reinen DX9 mode machen.
Warum da Spiele wie SimCity 4 gebencht werden ist mir rätzelhaft....

Vielleicht würde dir LESEN etwas weiterhelfen. Es steht ganz deutlich in diesem Artikel, dass eben diese Spiele und Engines deswegen getestet werden weil man verhindern will, dass NV und ATI nur bestimmte Spiele extrem optimieren. Alle anderen Games etc. laufen sowieso dann sowieso langsam, nur weil sich keiner die Mühe macht die Grakatreiber anzupassen, wenn nirgens damit getestet wird.

@ deekey777
Genau, JK3:JA vor allem, is ja auch ne erweiterte Q3:A engine. :lol:
 
JK:JA ist zwar ein OpenGL-Spiel, verwendet (wie auch Doom III) aber auch die Pixelshader 2.0 der DX9-Karten, da Pixelshader frei programmiert sind . Dennoch ist JK:JA kein Referenztitel, und ein Benchmark mit diesem Spiel hat nunmal keine Aussagekraft für andere Titel. Zu X2: Pixelshader - Nullanzeige. Homeworld: auch ein Spiel. Zu C&C: Generals - hier gibt nichts zu sagen.

@DvP: Zu dem Optimierungsvorwurf: Keine Ahnung wie es bei nVidia ist, aber bei ATi wird nichts für einen bestimmten Titel optimiert. Hier gibt es nur eins: Moggelei bei der AF unter Direct3D.
Zu HL2: Mixed Mode ist keine langfristige Lösung
 
Original erstellt von deekey777
JK:JA ist zwar ein OpenGL-Spiel, verwendet (wie auch Doom III) aber auch die Pixelshader 2.0 der DX9-Karten, da Pixelshader frei programmiert sind . Dennoch ist JK:JA kein Referenztitel, und ein Benchmark mit diesem Spiel hat nunmal keine Aussagekraft für andere Titel. Zu X2: Pixelshader - Nullanzeige. Homeworld: auch ein Spiel. Zu C&C: Generals - hier gibt nichts zu sagen.

JK:JA verwendet Pixelshader 2.0??? Das ist doch die alte Quake 3 Engine. Wüsste nicht dass da Pixelshader eingesetzt werden.
 
Das hat nix mit der alten Q3-Engine zu tun, sondern mit frei programmierbaren Pixelshadern.
 
Sorry ich blick da net ganz durch. Was machen denn diese freiprogrammierbaren Pixelshader und was ist ihre Funktion in JK?
 
Original erstellt von deekey777
JK:JA ist zwar ein OpenGL-Spiel, verwendet (wie auch Doom III) aber auch die Pixelshader 2.0 der DX9-Karten, da Pixelshader frei programmiert sind .

Es braucht aber keine Pixelshader nach der Version 2.0, nein es braucht gar keine Pixelshader. Darum hat es (nicht nur) für mich rein garnichts mit DX9 zu tun. Aber lassen wir das, ist schon zu spät für solche Diskussionen und je öfter ich deinen Beitrag lese desto mehr denke ich mir, dass wir dazu sowieso dieselbe Einstellung haben und mir bei deiner Aussage nur ein smiley gefehlt hat um die wahre Aussage erkennbar zu machen.:watt: :D

:n8:
 
Original erstellt von deekey777
JK:JA ist zwar ein OpenGL-Spiel, verwendet (wie auch Doom III) aber auch die Pixelshader 2.0 der DX9-Karten, da Pixelshader frei programmiert sind .
Original erstellt von deekey777
JK:JA ist zwar ein OpenGL-Spiel, verwendet (wie auch Doom III) aber auch die Pixelshader 2.0 der DX9-Karten, da Pixelshader frei programmiert sind .
Nicht mal Pixelshader 3.0 sind "frei programmierbar", sondern unterliegen nach wie vor relativ engen Grenzen.
 
Zuletzt bearbeitet:
Zurück
Oben