News Erste Benchmarks für X800 Pro/XT

Status
Für weitere Antworten geschlossen.
blutrichter schrieb:
Aber warum man bei einem Next-Gen-Chip die PS 3.0 weggelassen, verstehe ich nicht ganz... werden dann wohl in 6 Monaten nachgereicht.

Weil S 3.0 zur Zeit einfach unsinnig sind,die ersten Spiele die das einsetzten werden kommen frühestens 2005,wenn überhaupt.

Und nächstes Jahr kommt schon wieder die nächste starke Graka Gen.
 
Mir ist egal was die anderen sagen ATI hat mich überzeugt !

Die neue XT wird auf jeden fall gekauft. Meine alte XT wird jetzt verkauft es findet sich bestimmt jemand. ;)
 
War klar das man das gleich wieder als nVidia-freundlich hinstellt. Ich rede von der Reaktion auf die jetzige Zurückeroberung der Krone.
Es ist hier letztendlich wie in IRC. Man will nur das Gute sehen, aber nicht über den Tellerrand hinausschaun.
 
Ich weiß nicht, aber Leistung kostet nun mal und die 6800 ist schon schneller als die X800 Pro, wenn man sich das Review @3dcenter anschaut.

bei 2x ist sie deutlich schneller als die X800 (bis auf die 1600er Auflösung) und 4x AA gleich oder ein wenig schneller.

Das gilt bei Aquanox 2, Camanche 4, Halo, Serious Sam und vielen anderen.

Bei UT2k4 sieht es seltsam aus, denn in bei 2x und 4x AA geht die X800 nicht so gut und die 6800 zieht problemlos an der Radeon vorbei. Bei 1600 kann sie das nicht mehr.

Bei Wolfenstein und Far Cry sackt die Geforce 6800 aber ab :-(

Im Endeffekt kommt es wohl auf die Spiele an.

---


Ich bin nur froh, dass ich kein 2x, 4x oder 8x AA mit 8x AF oder 16x AF brauche :rolleyes:

Ich bleib bei meiner 9600 XT und der Geforce 5900 XT auf dem anderen Rechner :-D
 
bei 3dcenter wurde die X800 Pro gegen die 6800U verglichen, doch die X800 Pro ist net die Konkurenz zu der 6800U.. und wenn die 6800U in manchen Games schlechter ist als die X800 Pro, denn ist es schon peinlich... und wobei nvidia fast in allen spielen als Partner vertreten ist...

//edit
warum denn den ganzen beitrag zitieren? mensch, noch unübersichtlicher gehts kaum! hab den quote mal entfernt!
 
Zuletzt bearbeitet von einem Moderator:
neue messverfahren müssen her..., finde ich u.a.:

ob 98 oder 125 fraps unter 4xaa, 8x oder 16xaf ist m.e. n. schon nicht mehr so relevant.

und die reinen leistungsdaten werden sich in 6 oder 12 monaten halt nochmals um 50% gut steigern lassen.

und nicht auszudenken, wenn wir demnächst (2005?) 450 millionen gpu-transistoren in 90nm sehen werden: das alles schon längst absehbar, kommt, weil es angefangen ist.

aber ob das auch sinnvoll ist? sich von den spieleentwicklern relativ zügig umsetzen läßt?

zurück zu meinem eingangsstament: ich finde cb könnte sich verdient machen und weltweit einen namen schaffen, gerade weil es diese problem/fragestellungen gibt:

wie wäre der baldig besuch von cb-team z.b. bei einer fraunhofergesellschaft, mal die fragestellung der qualitätskritieren von anderer seite aus an/besprechen, zu objektivieren zu versuchen? was ich meine:

ich kann mir vorstellen, das cb federführend und als beratende co-teammitglieder dabei wären, wenn es darum ginge grundsätzlich neue bewertungsstandards sinnvoll festzulegen - und dies/diese von und durch cb in die welt zu bringen (thats easy: siehe inquierer of today).

ich wollte, das cb von nun an und unbeirrt vorwärtsschreitend an vorderster front federführend mitwirkt an der objektivierung der spielergebnisse durch allerweltsuser in abhängigkeit von der graka-performance resp. bild-qualität!

eindeutige antworten müssen her: was bringt 2xaa, 4xaf versus 4xaa, 8xxaf usw. usf. hinsichtlich optimaler spielergebnisse? genau aus diesem bereich werden die wirklich zukünftigen verkaufsargumente und produkt- sowie markt-weiterentwicklungen herkommen (müssen, "wenn die grakas und ihre herstellende industrie dem menschen dienen, nicht umgekehrt".)

wie ist das also mit leonidas ärger über "winkelabhängige texturverschlechterung zum zwecke des fraps gewinns"? trifft man deswegen unter umständen in bestimmten spielsituationen "z.b. über die bildschirmdiagonale" auch schlechter? erkennt ziele weniger gut? denn nur zum spielen werden die meisten grakas gekauft.


(mehr beispiele? randomisiert ausgesuchte testspieler spielen bestimmte, genormete testsequenzen aus verschiedenen games (2x, 3x, 5, 10x hintereinander?) auf einem teststand in einem (sicherlich am besten fahrbaren, mobilen) "labor". haben einen helm auf, der z.b. die augenbewegungen "pupillenanstrengung" etc. fortlaufend mitmißt, und dann alles via geeigneter auswertesoftware zum spielergebnis korreliert. blutdruck, durchschnitts- u. max. puls (vorher-nachher-differenzen, usw., usf.) wären genauso mit zu protokollieren und ins ergebnis einfließen zu lassen "wie alles andere".

ich denke, was ich meine ist klar. also man lege los. fragt, wollt, tut, macht! cb kann nur gewinnen!

am ende muß immer die graka weltweit die beste sein, die im im international renommierten und allseits hochgelobten und anerkannten cb-fraunhofer-spieler-bestergebnis-test die meisten trefferpunkte gemacht hat - bei beweisbar minimaler biometrischer anstrengung des probanden. kleiner dürft ihr nicht denken, nicht handeln. nichts anderes kann und darf euer ziel sein! jeder neue tag muß ab sofort ein tag voran sein, einen schritt voran bringen auf dem weg zu dem ziel!

p.



(wenn es keine geeigneten normen gibt - mein gott, dann schaffen wir halt welche! die richtigen! gebrauchen unsere köpfchen -dazu haben wir die doch, oder? oder sind wir inzwischen völlig ein entwicklungsland oder eine bananenrepublik, dass wir immer nur noch drauf warten, das andere zuerst kommen, damit wir dann brav applaudieren? selber der standard sein - und zwar mit verstand und überlegung.)
 
Zuletzt bearbeitet:
Bei ATi ist nun wahrscheinlich das Ende der Fahnenstange erreicht

Ich glaube nicht dass ATI noch einen Garfikchip auf Basis des R300/R420 rausbringt (außer der PCI Express Variante) da die X800 Serie eigentlich als Übergangslösung anzusehen ist. Der R400 erbrachte ja nicht die nötige Leistung, und auf die Schnelle einen komplett neuen Grafikchip zu designen war unmöglich. Wahrscheinlich wird bis zum Launch des R500 keine im Takt erhöhte Grafikarte von ATI mehr kommen.
Auch wenn die X800 nicht in allen Benchmarks die Nummer 1 ist, sind die Leistungen absolut ausreichend. Mit maximalen FSAA und AF auf höchster Auflösung bricht die X800XT in keinen Game ein. Die Bildqualität ist ebenfalls 1A und übertrifft NVIDIA sogar in vielen Bereichen.
Also was will man mehr? Und für die X800 spricht wohl eindeutig der geringere Stromverbrach, das geringere Gewicht( ich möcht die Karte nicht jedesmal ausbauen wenn ich zu einer Lan gehe) und die 1 Slotlösung. Und wie schon gesagt, basiert die X800 Serie auf einer 2 Jahre alten Architektur, weist die 6800 aber immer noch in die Schranken.
 
hier gilt natürlich das gleiche wie für den anderen X800 Pro/XT-Thread:

Wer seinen nVidia/ATI-Krieg ausfechten möchte, tut dies bitte in einem entsprechend gekennzeichneten Thread.

Jeder hier folgende Beitrag, welcher nicht bzgl. Benchmarks der ATI Radeon X800 Pro/XT Karten verfasst wird erfährt kommentarlose Löschung.

Danke.
 
The_Jackal schrieb:
Ich weiß nicht, aber Leistung kostet nun mal und die 6800 ist schon schneller als die X800 Pro, wenn man sich das Review @3dcenter anschaut.

bei 2x ist sie deutlich schneller als die X800 (bis auf die 1600er Auflösung) und 4x AA gleich oder ein wenig schneller.

Das gilt bei Aquanox 2, Camanche 4, Halo, Serious Sam und vielen anderen.

Bei UT2k4 sieht es seltsam aus, denn in bei 2x und 4x AA geht die X800 nicht so gut und die 6800 zieht problemlos an der Radeon vorbei. Bei 1600 kann sie das nicht mehr.

Bei Wolfenstein und Far Cry sackt die Geforce 6800 aber ab :-(

Im Endeffekt kommt es wohl auf die Spiele an.

---


Ich bin nur froh, dass ich kein 2x, 4x oder 8x AA mit 8x AF oder 16x AF brauche :rolleyes:

Ich bleib bei meiner 9600 XT und der Geforce 5900 XT auf dem anderen Rechner :-D

UT2004 liebt Füllrate, und die Füllrate der X800XT ist nen ganzes Stück höher als die der 6800U bzw. 6800UEXT. Das mit Farcry kann ich mir auch nicht erklären, ist schon seltsam das die X800 dort so extrem stark ist und die 6800 so "schwach".

So wie es aussieht würd ich mal sagen diejenigen die AA/AF + hohe Auflösung wollen greifen zur X800, alle anderen zur GeForce 6800. Muss letztenendes jeder selber wissen.

Wobei ich das Hardware encoding und HDTV "Feature" von der X800 schon ziemlich genial finde, Terminator in HDTV (1920x1080) auf ner 2 GHz CPU völlig ruckelos ist schon fett irgendwie ;)

Ach übrigens, ich weis ned ob das schon gepostet wurde, aber hier 2 Videos von den ATI Demos (Die Ruby Demo ist IMHO besser als Nalu & Dawn + Dusk zusammen):

Ruby Demo
Subsurface Demo

Was ich übrigens auch interessant finde ist das Realtime HDR-Berechnungen auf den X800 Karten mehr als doppelt so schnell ablaufen als auf GF6800 Karten...

Die PS3.0 & 3Dc Diskussion erübrigt sich doch sowieso, beides wird anfangs nicht viel nützen, PS3.0 wird wohl erst nächstes Jahr wirklich was bringen, und da gibts dann schon den R500 und den NV50, also find ich den Schritt von ATI da schon ganz gut, so hat man halt einiges an Transistoren eingespart was sich wiedrum in geringerer Verlustleistung und leiserer Kühlung auszahlt.

Aber jeder kauft sich sowieso die Karte die er am liebsten mag, von daher braucht man sich eigentlich garnicht streiten ;)
 
@ the counter meine fresse endlich jemand der genau so denkt wie ich. Genau das was du geschrieben hast finde ich auch. GF6 ist geil gar keine Frage aber die X800XT find ich geiler. Und ausserdem kann jeder selbst entscheiden worauf er mehr wert legt. Wenn man OpenGL Games bisschen schneller zocken will zieht man sich die gf6 wenn mann fette Bild Qualy Haben will + aa+af etc zieht man sich halt die radeon. Und die Ruby Demo hab ich auch schon gepostet aber in nem Anderen Thread und ich Bin fast vom stuhl gefalllen man. Meine fresse sieht das Geil aus alleine das Close Up von Ruby wo man die Lippen sieht HAMMER. ATI ist echt Killer die Nalu demo hat mich schon Geflascht aber die Ruby Demo war Die KröNung heute. :D
 
cenmocay schrieb:
Weil S 3.0 zur Zeit einfach unsinnig sind,die ersten Spiele die das einsetzten werden kommen frühestens 2005,wenn überhaupt.

Und nächstes Jahr kommt schon wieder die nächste starke Graka Gen.

Das ist doch dummes gelaber:

Diese Spiele welche noch in DIESEM Jahr erscheinen sollen (oder schon da sind) werden PS 3.0 und/oder 64bit texturfiltering/blending unterstützen.

Herr der Ringe (Battle for middle-earth)
STALKER (Shadow of Chernobyl)
Vampire:Bloodlines
Tigerwoods 2005
Madden 2005
Grafan
Painkiller
FarCry
u.v.a.m.
 
Bin mal gespannt, gehe gleich zum Kiosk und mal schauen ob die PC Games Hardware nur die nVidia oder beide getestet hat! :D
 
@ Lord Necci
Voll Krass was ich da gelesen habe.

Bin immer noch der Meinung das wir auf die Karten der Hersteller warten sollten, weil bis dahin sicher die Treiber und auch das Bios der jeweiligen Chips optimiert wurden.
 
GRAKA0815 schrieb:
Das ist doch dummes gelaber:

Diese Spiele welche noch in DIESEM Jahr erscheinen sollen (oder schon da sind) werden PS 3.0 und/oder 64bit texturfiltering/blending unterstützen.

Herr der Ringe (Battle for middle-earth)
STALKER (Shadow of Chernobyl)
Vampire:Bloodlines
Tigerwoods 2005
Madden 2005
Grafan
Painkiller
FarCry
u.v.a.m.


Dieser Spiele werden PS3.0 genauso unterstützen, wie Halo ein DX9.0 Game ist.

hrhrhr :freak:
 
Also, dieses "mein Förmchen ist aber schöner als Dein Förmchen" rumgezicke ist wirklich schlecht.

Freut euch doch das sich die zwei Hersteller mit klasse Produkten Konkurrenz machen, das bedeutet für uns User hochleistungsfähige Produkte zu überschaubaren Preisen. Wobei ich damit sichlich nicht die Mondpreise für die jeweiligen Spitzenmodelle meine ;)

CU, TermyD
 
Master_radar schrieb:
Kaufentscheidung: *überleg*

Ati = 500 € =Sehr gute 3D Leistung + beste Techdemo aller Zeiten

Nvidia = 500€ + Netzteil 120 € + Ohrenstöpsel - 1 PCI Slot + Stromaufschlag x€= Sehr gute 3D Leistung


QUOTE]

Es spricht neben der Top Leistung einfach alles für die X800 Chips :love:
 
cenmocay schrieb:
Der NV40 verliert sowieso gegen die X800 in Farcry aber die Werte die die NV40 errreicht sind auch noch billig ercheatet :mad:

Echt traurig mit welchen billigen Mitteln NV versucht Benchmarks zu faken.


Ist FarCry der Maßstab aller Dinge?
Die X800 kackt ja voll bei Quake3 Engines ab ey. Ist ja echt ne miese Karte, kann ich mein OGL Q3 Spiele ja gar nicht mehr vernünftig drauf zocken. Tstststs.
Und cheaten zu unterstellen a la Chip niveau, naja, dazu sag ich besser nichts.
Sag mal, bekommst Du eigentlich Kohle von ATI in den A**** geblasen? Anders sind deine Kommentare nicht mehr zu interpretieren.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben