Test Test: X800 Pro, XT PE und GeForce 6800 GT, Ultra

Da hat sich noch ein kleiner Fehler eingeschlichen: Seite19 - "doch kamen sowohl Radeon 9800 XT als auch die GeForce FX-Modelle mit deutlich höherem Verbrauch daher als die GeForce 6800 Ultra."

Laut eurer eigenen Grafik direkt darüber ist dies falsch, wenn dann müßte es "als die Geforce 6800 GT." heißen. Wobei für mich die Frage ob 5W mehr deutlich höher heißt mal dahingestellt sei.


Insgesamt schöner Artikel, aber nix neues im Staate Dänemark. So ist es eben wenn kaum Testsamples verfügbar sind, dann dauert's eben etwas länger.

Hauptsache die Karten kommen jetzt endlich in den Handel, eine 800Pro oder 6800GT würde mir gerade recht kommen. ;)
 
Zuletzt bearbeitet:
Danke für den Hinweis - ist behoben. :)

Was GT und X800 PRO anginge, wäre meine Entscheidung eindeutig. Zwischen XT PE und Ultra wär's schon zwiespältig.

BTW, an der Verfügbarkeit der Testsamples hat's in diesem Falle nur wenig gelegen - eher daran, daß vorher kaum eine, in meinen Augen brauchbare, Vergleichbarkeit gegeben war.
Genau wie damals, als beide Hersteller Cheats für den 3DMark03 im Treiber hatten (ja, auch ATi, sogar zugegeben!). Da konnte man eigentlich nur vergleichen, wer effektiver geschummelt hat.
 
Carsten schrieb:
Genau wie damals, als beide Hersteller Cheats für den 3DMark03 im Treiber hatten (ja, auch ATi, sogar zugegeben!). Da konnte man eigentlich nur vergleichen, wer effektiver geschummelt hat.

Ja, und NV hatte damals die Nase vorn.;)
 
Ja? Ich war der Meinung, sie sind inkl. Schummeln nur dicht rangekommen - ohne Schummeln aber ziemlich zurückgefallen?

Naja, wen interessiert 3DMark? X-D
 
Carsten schrieb:
Ja? Ich war der Meinung, sie sind inkl. Schummeln nur dicht rangekommen - ohne Schummeln aber ziemlich zurückgefallen?

Naja, wen interessiert 3DMark? X-D

Man kann noch so gut schummeln, andere wird damit nie einholen können. X-D
 
Wiedermal ein Super Test. Danke vielmals. :D
 
ja, ich bin das erste mal nicht wirklich zufrieden mit ComputerBase !!

Also:
ich bitte euch, ich bitte euch inständig höhrt auf treiber und andere settings so weit zu verändern bis alle auf einer "ebene" sind !! das ist absolut realitätsfremd und nützt niemandem !!
Testet die Karten einfach so, wie sie vom hersteller angeboten werden... mit dem neusten offiziellen Treiber und ohne modifikation durch tools oder registry-veränderungen usw.
Falls der Hersteller optimierungen verwendet müsst ihr sie aufführen. am besten unter ner "rubrik" bildqualität-benchmarks oder so. dort könnt ihr klar darauf eingehen was für optimierungen ein hersteller vorgenommen hat, ob und wie stark man die optimierungen wahrnehmen kann und wie sich die karte ohne diese optimierungen schlägt !!
aber so wie ihr es jetzt macht (von anfang an durch tweaks, tools, usw. die karten auf eine gleiche "ebene" zu bringen) ist realitätsfremd, ein user will wiessen wie sich die karte schlägt wenn er sie kauft, einbaut und die neusten treiber installiert. widmet den ganzen optimierungen eine unterrubrik und vermischt sie nicht mit anderen benchmarks !!

ausserdem ist euer test leider nicht sehr ausdruckskräftig... ihr hättet besser noch ein par wochen gewartet und den vergleichstest mit karten von 3. Herstellern gemacht die man auch im laden hätte kaufen können !!

ich hoffe wirklich, dass ihr zukünftig grafikkarten so testet wie sie der grossteil der user nutzt -> unmodifiziert mit der neusten version des offiziellen Treibers !! Ich finde es wichtig, dass ihr auf optimierungen usw. eingeht und nicht ausschaltbare optimierungen klar aufzeigt und negativ bewertet. Aber macht das doch bitte seperat in einer unterrubrik !!

und zuletzt, modifiziert nicht auch noch die spiele mit irgendwelchen DLL's !! wenn Far Cry mit nVidia karten eine schlechte bildqualität hat ist das so, Punkt !! und wenn ATI in BFV kein AA+AF zustande bringt ist das ebenso ein FAKT !! (ATI hat das Problem bei BFV im neusten Treiber behoben und CryTek wird mit dem nächsten patch die bildqualität bei nVdia karten verbessern)
Trotzdem testet TATSACHEN !! wenn eine grafikkarte in einem spiel probleme hat ist das so !! da muss man nicht das spiel modifizieren sondern es im Test klar vermerken... Und wenn eine Grafikkarte optimierungen aufgrund der bildqualität hat ist dies ebenso ein FAKT und auch gewollt... ihr müsst diese optimierungen nicht ausschalten sondern in einer unterrubrik des tests darauf eingehen und klar aufzeigen was die optimierungen machen, ob man sie ausschalten kann und was sich dann ändert und das alles in die wertung mit einfliessen lassen !!

Ich hoffe ihr lest meine Kritik, ich finde es ist wirklich wichtig...
 
@h0munkulus

im WeltweitenWeb findest du dutzende Reviews, wo die Optimierungen an sind. Und das ist viel früher erschienen, als der Test von CB. Wozu will der Leser eine nochmal die Werte lesen, die er in 10 anderen Tests auch gelesen hat?

Ausserdem war die Aufgabe der Redakteure nicht, die Karten mit Optmierungen zu testen, die der Wirklichkeit entsprechen, sondern viel mehr, die Karten zu testen, wo die Optimierungen aus sind, und man nur die Leistung der Karte sieht, und nicht die Raffinesse der Optimierer. Hier ist natürlich der X800pro aussen vor, da die Optimierungen nicht ausgeschaltet werden konnten.
 
h0munkulus schrieb:
ja, ich bin das erste mal nicht wirklich zufrieden mit ComputerBase !!
Schade.

h0munkulus schrieb:
Also:
ich bitte euch, ich bitte euch inständig höhrt auf treiber und andere settings so weit zu verändern bis alle auf einer "ebene" sind !! das ist absolut realitätsfremd und nützt niemandem !!
Testet die Karten einfach so, wie sie vom hersteller angeboten werden... mit dem neusten offiziellen Treiber und ohne modifikation durch tools oder registry-veränderungen usw.
Falls der Hersteller optimierungen verwendet müsst ihr sie aufführen. am besten unter ner "rubrik" bildqualität-benchmarks oder so. dort könnt ihr klar darauf eingehen was für optimierungen ein hersteller vorgenommen hat,
Ich kann zwar nicht für ComputerBase sprechen, sondern nur dafür, was ich tun werde, und da sieht es so aus, daß ich mir nicht den Sinn von High-End Karten vorstellen kann, die teilw. 500 EUR und mehr kosten, die aber nichtmal mehr die Bildqualität von Karten aus dem Jahre 2001 liefern können. Sei es, weil die Treiber dies verhindern, oder weil gleich die Hardware verkrüppelt wurde.

h0munkulus schrieb:
ob und wie stark man die optimierungen wahrnehmen kann und wie sich die karte ohne diese optimierungen schlägt !!
Da könnte ich nur sagen, wie stark ICH die Optimierungen wahrnehme und das mag keineswegs repräsentativ sein für die Art, wie andere dieselbe Optimierung wahrnehmen.

Zwei Beispiele für meine individuelle Wahrnehmung:
Mir gefällt das Bild in hohen Auflösungen besser - da verzichte ich gern auch auf mehr als 2xAA und gebe mir dafür mehr möglichst winkelunabhängiges AF. Die meisten spielen dagegen lieber in 1280, dafür mit 4x oder noch mehr AA.

Gestern war ich mit meiner Freundin auf ihrem Reitplatz, wo sie ihr Pferd longierte, welches sich gerade von einer Huferkrankung erholt. Ich war der Meinung, der Gaul liefe doch prima - sie sah das völlig anders, weil sie eben weiß, worauf man achten "muss".


h0munkulus schrieb:
aber so wie ihr es jetzt macht (von anfang an durch tweaks, tools, usw. die karten auf eine gleiche "ebene" zu bringen) ist realitätsfremd, ein user will wiessen wie sich die karte schlägt wenn er sie kauft, einbaut und die neusten treiber installiert. widmet den ganzen optimierungen eine unterrubrik und vermischt sie nicht mit anderen benchmarks !!
Ich bezweifle, daß "ein User" wissen will, wie gut seine 400-500 EUR teure Karte im Vergleich zur Konkurrenz schummeln kann.
Frage: Hast du damals bei nVs Cheattreibern für den 3DMark03 auch gesagt "Anlassen, der User will doch wissen, was seine Karte leistet!"?


h0munkulus schrieb:
ausserdem ist euer test leider nicht sehr ausdruckskräftig... ihr hättet besser noch ein par wochen gewartet und den vergleichstest mit karten von 3. Herstellern gemacht die man auch im laden hätte kaufen können !!

Dafür kommen dann neue Tests mit Retail-Produkten, keine Sorge. Christoph Becker ist schon dabei, sich dafür im Voraus zu erholen und kann dann mehrere Wochen am Stück ohne Schlaf und Pause Karten testen und Artikel schreiben.

OMG er ist ein Uluk-Hai!

h0munkulus schrieb:
ich hoffe wirklich, dass ihr zukünftig grafikkarten so testet wie sie der grossteil der user nutzt -> unmodifiziert mit der neusten version des offiziellen Treibers !! Ich finde es wichtig, dass ihr auf optimierungen usw. eingeht und nicht ausschaltbare optimierungen klar aufzeigt und negativ bewertet. Aber macht das doch bitte seperat in einer unterrubrik !!

Wie gesagt, die Erfahrung zeigt, daß "der User" zuerst einmal auf die Länge guckt, die Technik ist ihm dabei wenig geläufig und interessiert wenig, wenn die Länge stimmt.
Frag' mal in der Damenwelt nach, wie gut sowas in der Praxis "kommt" ;)
Was ich sagen will - Erläuterungen im Text oder eine Seite hintendran gehängt gehen einfach unter - das kann nicht sein.

h0munkulus schrieb:
und zuletzt, modifiziert nicht auch noch die spiele mit irgendwelchen DLL's !! wenn Far Cry mit nVidia karten eine schlechte bildqualität hat ist das so, Punkt !! und wenn ATI in BFV kein AA+AF zustande bringt ist das ebenso ein FAKT !! (ATI hat das Problem bei BFV im neusten Treiber behoben und CryTek wird mit dem nächsten patch die bildqualität bei nVdia karten verbessern)
Trotzdem testet TATSACHEN !! wenn eine grafikkarte in einem spiel probleme hat ist das so !! da muss man nicht das spiel modifizieren sondern es im Test klar vermerken...

Dieser Fakt ist jedem bekannt - welchen Nutzen hätte es, wenn wir das zum x-ten Mal wiederkäuen? Was aber nur wenigen bekannt war, ist, wie schnell oder langsam die 6800 ist, wenn sie speziell in Far Cry dieselbe Shaderqualität liefern muss, wie die Radeon.

h0munkulus schrieb:
Und wenn eine Grafikkarte optimierungen aufgrund der bildqualität hat ist dies ebenso ein FAKT und auch gewollt... ihr müsst diese optimierungen nicht ausschalten sondern in einer unterrubrik des tests darauf eingehen und klar aufzeigen was die optimierungen machen, ob man sie ausschalten kann und was sich dann ändert und das alles in die wertung mit einfliessen lassen !!

Siehe oben - die Balkenlänge ist das Problem.

h0munkulus schrieb:
Ich hoffe ihr lest meine Kritik, ich finde es ist wirklich wichtig...
Ich lese jede Kritik und denke auch darüber nach - ich teile dann allerdings trotzdem nicht immer die Ansicht des betreffenden Kritikers.
Danke auf jeden Fall, daß du beim Vortragen deiner Kritik SACHLICH geblieben bist - davon könnten sich viele eine Scheibe abschneiden.
 
Die Geforce 6800 GT finde ich schon gut, aber die Kühlung? Ich finde dies das große Manko an der Karte.

Die X800Pro ist auch nicht schlecht, da muss ich sagen bin sehr positiv überrascht. Die Leistungsaufnahme ist ungefähr so wie bei meiner 9700pro. Und das obwohl dies bei der 9800XT schon höher war. Aber wie im Bericht schon gesagt, es ist und bleibt irgendwie eine verbesserte 9700pro.

Man bin ich froh das ich keine Grafikkarte zur zeit brauche und hoffentlich auch bis 2006 nicht.
 
Also dieser Test hat mich noch mehr in der Entscheidung bestärkt eine X800xt PE zu kaufen ..

Niedriger Stromverbrauch bei höherer Leistung u leiserem Kühler sind einfach unschlagbare Argumente
 
Raberduck schrieb:
Hi,

ich finde das der Test von anderen Seiten sehr stark abweicht.

Was ich mich Frage WARUM werden meine Speicher so super WARM, habt ihr diese Probleme auch ???

Ich mach meinen Rechner garnicht mehr an wenn es so WARM ist :( habe einfach nur Panik.

Raberduck

von der Karte?

Meine Speicher wurden auch war, aber aushalten tun die das schon aus. Keine angst. Viel wichtiger ist, wie heiss das PCB wird. Bei mir war es heisser als der Kühler. Sehr viel heisser. Deshalb, keine Panik auf der Titanic. keep cool.;)

ist nichts besonderes.:)
 
moin!

jo der artikel is schonma nicht schlecht, respekt!

ich würde trotzdem sagen, dass der artikel eher n preview test ist! meiner meinung nach sind die ganzen benches immernoch relativ unaussagekräfitg, da immernoch nicht finale treiber draußen sind bzw. immernoch keine finalen herstellerkarten getestet wurden! ist zwar schon n schöner überblick, trotzdem glaube ich erst an testergebnisse mit finalen treibern und auch wirklichen finalen hersteller boards! ne schöne sache wären auch mal benches mit aktivierten filtern in hiesigen games! das nachzuhohlen und im test extra mit einzugliedern (was ja kein großes unterfangen ist) wär echt nochma nice (bei ati halt)! overclocking is atm auch noch nicht wichtig (ausser vielleicht bei der gf 6800 ultra).

ansonsten danke für das sneak preview!

cu @irc :>
 
@Carsten
ja du hast auf deine weise auf jeden fall recht.

Trotzdem, das argument mit der balkenlänge :D
ich meine wer auf die balkenlänge schaut, will wissen wie lange der balken maximal sein kann... das ist die art von user die auch eine 600 euro teure karte sofort übertaktet und wohl weniger wert auf bildqualität legt ;)

klar du hast recht, wer eine 600 euro teure karte kauft muss doch wohl bitte das recht haben die spiele in voller bildqualität zu spielen, keine frage !!
Aber ich bin der Meinung ihr solltet bei Grafikkarten die optmierungen usw. gesondert behandeln !! ComputerBase besucher denen bei einer Grafikkarte die Bildqualität wichtig ist werden einer "bildqualität's Rubrik" sehr viel aufmerksamkeit widmen, während performance freaks diese sektion wohl ganz überspringen ;)

Es ist einfach so, wenn ihr die Karten einmal ohne modifikationen, geradezu jungfräulich mit offiziellem Treiber testet und dann aber in der form und konsequenz seperat die bildqualität, optmierungen usw. behandelt sind wohl alle glücklich.
Durch so eine Teststruktur weiss am schluss jede art von user woran er bei welcher karte ist !! qualitätsfetischisten erfahren welche karte die beste qualität liefert und welche karte auf kosten der bildqualität die performance stark erhöht. performance-freaks wissen welche karte bereits in "standart-konfiguration" am schnellsten ist... aber nicht zu vergessen der "normalo" er kann aus diesem test erfahren wie schnell die einzelnen karten standartmässig und mit optimierungen sind, aber sieht auch welche karte wo, wie stark optimiert. dadurch kann sich jeder seine eigene Meinung bilden.
 
Also ich bin auch hin und her gerissen. Auch wenn mich die Leistung der ATI Karten durchaus zu Überzeugen vermag, werde ich wohl eher zu einer Karte von Nvidia greifen, zumal ich alter 3dfx Fan bin, und ich neue Designs gerne Unterstüze.

Alles in allem ein toller informativer Artikel.
 
Interessanter Artikel, bestätigt schon sehr das bisherige Bild.
Leistung etwa gleich in der Praxis, der einzige wirklich deutliche Unterschied ist das klare "Plus" von Nvidia bei Lärm und Stromfresserei, da fällt mir die Entscheidung schon sehr leicht für die X800.
Die technischen Gimmicks der Geforce werden erst wirklich gebraucht werden, wenns längst wieder schnellere Karten gibt, und bis dahin mehr Strom und Lärm für gleiche oder gar weniger Leistung akzeptieren, da fehlt einfach der Kaufgrund.

Was mich noch interessieren würde:
Hat der unterschiedliche Takt von X800pro/X800XT/X800XT PE eigentlich hörbare Auswirkungen auf den Geräuschpegel der Karten bei Last?


P.S. "Kalifornischer Transistor-Godzilla mit akustisch suboptimaler Kühlung", der war genial! :D
 
Raberduck schrieb:
Klar, von der Karte.

Ich weiß nicht ob das normal ist.


Raberduck

Ist normal. Bei mir sind die Speicher auch sehr heiss. Also nichts schlimmes. Habe den OCZ Ultra5+ als WLP draufgetan. mal sehen, ob es was bewirkt. Der ram wird auch bei mir sehr heiss, kann kaum lange den finger drauf halten, trotz nur 450Mhz zur Zeit.;)

EtA schrieb:
Was mich noch interessieren würde:
Hat der unterschiedliche Takt von X800pro/X800XT/X800XT PE eigentlich hörbare Auswirkungen auf den Geräuschpegel der Karten bei Last?

ehh, nein.;) keine Auswirkung. Nur die Temps sind etwas höher, das ist alles.
 
Das mit den Grafikkarten ist doch meistens eh alles Schmuh. 2x 4x 8x aniso und 4x 6x 8x dingsbums.
Und was kommt denn wirklich bei den Spielen an ? Diese 3% Unterschied merkt man doch eh nicht.
Außerdem ist für bestimmte genre (strategie, generals, panzers etc.), sowieso die CPU wichtiger., und bei diesem ganzen Scheißer- ääh shooterkram reicht meine alte GF4200 immer noch locker aus.

Wenn die Gainward 5900XT mal um die 100 € kostet - dann rüste ich vielleicht mal auf.

200€ für ne Grafikkarte ist mir eignetlich zuviel Geld, bei dem Leistungsunterschied, oder besser Nutzenzuwachs zu älteren Karten.

MFG
 
Zurück
Oben