Bericht Bericht: Radeon X1000 vs. GeForce 7

WulleReloaded schrieb:
Schöner Test.. aber ne XL gegen eine GTX antreten lassen.. nicht so das Wahre, oder? Die XL ist der Gegner der GT, net der der GTX.. kein Wunder, dass NV da immer vorne liegt. Wenn man schon vergleicht, dann auch die beiden wirklichen Konkurrenten und keine abgespeckten.
Die "Bilderfehler" bei ATI sind Treibersachen, darüber würde ich mir net mal nen Kopf machen

Nur bei den Grafiken mit der Speichergeschwindigkeit wurden die Beschriftungen verwechselt. Bei allen anderen steht auch X1800XT. Das wäre auch der Hammer, wenn eine X1800XL auf Niveau einer 7800GTX 512 liegen würde.

@HugeXL

Da finde ich z.b. dass NV das besser hinbekommt!

Naja, Nvidia arbeitet längere Zeit schon dran, da die Karte auch länger draussen ist. Erinnere dich aber, dass die Nvidia Treiber bei der Präsentation der Karte auch nicht der Hammer waren, Stichwort Texturflimmern, verfälschte Farben bei der Filmwiedergabe usw.

@Project-X

Und die vielen Lete die es immer noch nichts kappieren dass dieses Flimmern abgeschafft wurde.

und wann kapierst du, dass das nicht so ist? Das Texturflimmern wurde verbessert und eingedämmt, aber es ist immer nonch da, da von der Hardware verursacht wird.
Das du es nicht erkennen kannst, heisst es noch lange nicht, dass das Problem nicht mehr besteht.

Gruss
 
Hier stand ein überflüssiges Zitat. :mad:

Ja, hab anfangs geschrieben "GANZ", später habe ich das Wort gelöscht weil ich es nicht bestätigen kann.
Aber in denn Games denn ich erwähnt habe konnte ich nichts feststellen.
Also sollte es nicht Tragisch schlimm sein, aber mich nevt es einfach wenn manche Leute sagen, sie holen sich keine NV Karten wegen diesesn Textur geflimmer und reden so als wäre es NUR ein Geflimmer zu sehen.
 
Zuletzt bearbeitet von einem Moderator:
@supermoee:

Da hast du sicherlich recht, aber erinnere dich noch ein Stück weiter zurück:
Beim Release der GTX gab es so gut wie kein Texturflimmern, wenn man den alten Treiber eingesetzt hat, das war "Marketing" von NV, Texturflimmern und dadurch Ati übertrumpfen..
Das mit den Farben bei Filmen konnte man im Treiber einstellen, es gab halt welche, die dazu nicht in der Lage waren, die ham das zum Flamen benutzt :freak:
 
Ich dachte jetzt mehr in die Richtung das 256 und 512 MB Ram ja fast gar keinen Unterschied(bei gleicher GRAKA)
bzw. Teilweise 256MB Ram sogar besser sind als 512...kann das echt sein?
512 Mb bringen zur Zeit schlicht und ergreifend keinen Vorteil, von ganz wenigen Ausnahmen einmal abgesehen. Die 256 MB Karten können teilweise durch bessere Speichertimings vorne liegen.

Werden wir auch bald den Performencegewinn der x1600 zu sehen bekommen? Falls es den überhaupt gibt ...
Ja, die Ergebnisse werden beim nächsten Artikel geupdatet.

Na, ein wirklich guter Test, mit überraschendem Ausgang. Ist es möglich dass ATI die 3DMark05-Krone aufgrund Treiber-Optimierungen oder Fehler hat? Wenn die Partikelsysteme nicht richtig dargestellt werden, wird ja auch vermutlich Rechenzeit eingespart.
Dass die Grafikfehler Performance kosten glaube ich eigentlich nicht. Die XT gewinnt durch den enorm hohen GEometriedurchsatz im Mark05, der ansonsten eigentliuch totaler Overkill ist.

Eure Temperaturwerte zur X1800XT kann ich nicht bestätigen. Nach mehrstündigem Spielen bzw. Benchen erreicht die GPU eine maximale Temperatur von 84°C, ausgelesen mit AtiTool (neue Beta). Wurde auf eurem Sample nicht auch der Referenzkühler verbaut?
Ja, es ist der Referenzkühler verbaut. Es kann aber sein, da das noch die Launch-Karte ist, dass man da eventuell etwas verbessert hat. Zudem ist die Gehäuselüftung mit Sicherheit anders.

Ich finde den Test auch gut und sehr iteressant aber imo macht sich die XT jetzt schon besser als ich erwartet hatte und da geht sicher noch einiges. Von welchem Hersteller habt ihr denn die Karten benutzt, vermute mal die XT war ne Connect oder? Also von der Lautstärke ist der Unterschied zwar hörbar aber so groß ist er auch nicht. HAbe ich das richtig gesehen, das beim Verbrauchstest keine 512 GTX dabei war - warum nicht?
Es war die Launch-Karte, ka Ahnung von wem die gefertigt wurde (Sapphire?).
Die GTX512 spielt in einer anderen Preisklasse und hat bei ATi zur Zeit keine richtige Konkurrenz, darum der Vergleich mit der normalen GTX.

Das Texturflimmern wurde meines Wissens mit den letzten Treiberversionen stark vermindert, oder sogar ausgemerzt. Wolfgang, kannst du da mal was zum aktuellen Stand sagen?

Kein Problem;)
Das Texturflimmern wurde ab dem 78.03 unter High Quality stark gemindert, ist imo aber immer noch mehr vorhanden als auf einem NV4x. Nichtsdetotrotz kann man damit leben - nur ATis Area-AF zieht davon -, mal hat der ATi-Filte und mal der nVidia-Filter die Nase vorn.

Schöner Test.. aber ne XL gegen eine GTX antreten lassen.. nicht so das Wahre, oder? Die XL ist der Gegner der GT, net der der GTX.. kein Wunder, dass NV da immer vorne liegt. Wenn man schon vergleicht, dann auch die beiden wirklichen Konkurrenten und keine abgespeckte
Da gebe ich dir recht, darum sind die eigentlichen Treibertests ja auch mit der X1800 XT gemacht worden;) Für den DC-Test stand die X1800 XT uns leider nicht mehr zur Verfügung, also mussten wir auf das Beste zurückgreifen, was da war. Die Ergebnisse sind halt nicht direkt vergleichbar, die Untersciede kann man aber erkennen. Und für den RAM-Vergleich - es gibt nun mal derzeit keine X1800 XT mit 256 MB,m darum mussten wir auf XL-Niveau heruntertakten.

 
xXxBOOGEYMANxXx schrieb:
leider hat es hier ziemlich viele fanboys, aber zum glück schlafen die zurzeit.
heute nachmittag wird der thread eh vollgespamt sien mit:

also, ich gebe als ATi fanboy zu, das NVIDIA jetzt ganz klar vorne liegt.
sie haben keine treiberfehler, sind kühler usw.

aber ich dneke sobald ATi endlcih mal anständige treiber haben wird, werden sie wieder vorne liegen, da sie wenn die treiber laufen, einfach die bessere bildquali haben.

aber ich denke die GTX512 können sie nicht schlagen, ausser sie haben auch fleissig chips gesammelt, und werden 1,1ns RAM verbauen, aber ich denke ATi wird sich jetzt nur noch um den r580 kümmern.und vorher hoffentlich, udn pünktlich zur weinachtszeit den cat. 5.12 liefern, der ganz viele grafikfehler usw. vertreiben wird, hoffentlich. und wenn nicht, wirds zu weinachten wohl doch vllt ne 7800GT?

MfG boogeyman

Die schlagen die GTX512 nie und nimmer :D! Und das ist auch so egal. Nvidia hat au massig Kohle mit 6600GT und 6800GT gemacht! Geld macht man mit Mainstream-Karten und den etwas günstigeren High-End-Karten! Ist doch gut das ATI jetzt schlecht ist, dann reißen sie sich den Arsch umso mehr auf, so wies Nvidia letztes und dieses Jahr gemacht hat. Das juckt mich kei Spur. Hätte ATI nicht so eine 9700/9800 TOP-Karte gebracht, wäre wohl die 6800 nicht so gut gewesen usw. Das ist ne Hassliebe die dem Markt gut tut^^.
 
Irgendwie lassen einen ATis Karten der 1xxx Generation wirklich, wie bereits gesagt, an Intels Prescott denken. Bei solchen Temperaturwerten, trotz 90nm Fertigung, machen mir die Karten noch nicht den Eindruck, als beherrsche ATi die neue Fertigung schon einwandfrei.

Karten wie die x1800 XT können daher imo genausowenig empfohlen werden, wie Gigabytes passiv gekühlte x800 XT
 
ganz schön speicherbandbreitenlimitiert die x1800xl
unverständlich warum sie den nicht höher takten, zumal ja (noch) speicher verbaut ist welcher hoch geht
abder dem x1600xt erst mal 690mhz geben die fast schon zu viel sind
 
hmm schon seltsamen scheinbar sind hier einige zu *um* die testwerte zu lesen.. bei 4xAA und 16xAF hat die x1800 serie wohl mal klar die nase vorn.. und nvidia kann nicht mithalten.. besonders bei games wie FEAR oder Splintercell 3..das find ich schon erstaunlich.. von schlechter leistung kann man da nicht mehr reden..:rolleyes:

das in dem test so viele games benutzt werden die eindeutig für nvidia entwickelt wurden finde ich etwas unfair.. und es sieht mir sehr nach meinungsmache aus.. bekommt er geld fürs testen?
 
Hmm schöner Test, aber imho wohl zu einem denkbar dummen Zeitpunkt, gerade jetzt als der Cat 5.12 rausgekommen ist :rolleyes:
Werdet ihr den auch noch testen? Versprechen tut er ja allerhand
http://www.hexus.net/content/item.php?item=4085

edit:
Hab selbst mal 2 Benches gemacht, da angeblich auch hyperthreaded CPUs profitieren sollen...

Omega 5.11
3DMark05: 2767
FarCry: 54,93 fps

Cat 5.12
3DMark05: 2770
FarCry: 55,32 fps

naja...
 
Zuletzt bearbeitet:
Nein, hier bekommt niemand Geld fürs Testen, dann wäre das Fazit wohl auch eindeutiger ausgefallen. :D

@Wolfgang
Na, ein wirklich guter Test, mit überraschendem Ausgang. Ist es möglich dass ATI die 3DMark05-Krone aufgrund Treiber-Optimierungen oder Fehler hat? Wenn die Partikelsysteme nicht richtig dargestellt werden, wird ja auch vermutlich Rechenzeit eingespart.
Ich meinte das eher andersrum. Wenn ich mir den Rauch so ansehe, kommt bei mir die Vermutung, dass dort mit kleinerem Farbraum gerechnet wurde. Das könnte ganz im Gegenteil eine höhere Performance als normal mit sich bringen. ;)
 
@48
welches spiel wurde denn für nv entwickelt?
richtig gar keins

man hätte ja noch q4 und cod dazu nehmen können
die sind aber nicht für nv optimert worden, sondern nutzen einfach opengl, was den atis net so liegt
 
@ 33

nee, nix ironisch. kuck: wenn ich eine karte kaufe, auf der 2x256 mb teurer gdd3-ram drauf sind, wozu habe ich das dann, wenn die treiberprogrammierung usw. so ausfallen, dass oft nur ca. 230 oder 270 mb video-ram ausgenutzt werden?

wenn ich das bezahle, dann erwartete ich auch, das von dem ja bereits vorhandenen ram(!), den ich wie gesagt bereits bezahlt habe, auch gebrauch gemacht wird - zu meinem vorteil besserer qualität und höherer geschwindigkeit. sonst hätten die den kram ja nicht draufmachen brauchen und mir teuer verkaufen müssen... .


@ panni

"Jedoch würde ich mir für meinen Desktop-PC momentan weiterhin keine ATi zulegen, da die Treiber einfach im Vergleich zu NVidia immer noch wie in Kinderschuhen aussehen. Das Control Center zeigt sich als völlig überladenes, zwar innovatives, aber verbuggtes Tool, die Treiber haben oft Probleme mit aktuellsten Spielen."

danke für die klaren worte, tut immer gut os was zu hören. dazu sind die foren zúnd das internet da. das u.a. ihr vorteil, der sie unentbehrlich macht. (wie auch mancher produktanbieter oder gewerblich-werbetreibender es genre anders hätte. müssen die sich aber drauf einstellen, bessere produkte bringen...)

.
 
perfekt!57 schrieb:
wenn ich das bezahle, dann erwartete ich auch, das von dem ja bereits vorhandenen ram(!), den ich wie gesagt bereits bezahlt habe, auch gebrauch gemacht wird - zu meinem vorteil besserer qualität und höherer geschwindigkeit. sonst hätten die den kram ja nicht draufmachen brauchen und mir teuer verkaufen müssen... .

.

Na dann denkst du nicht wie die Marketingexperten. Es werden so viele Karten mit überdimensionierten Speicher angeboten, z.B. Nvidia FX5200 256 Mb oder ATI 9600 XT 256 Mb, die den Speicher nie gebrauchen werden, da die GPU viel zu schwach ist.

Aber eine GRaka mit 256Mb hört sich cool an, daher kaufen die ahnunglosen Käufer das, was cool ist und geben dafür mehr Geld aus.

Bei den getesteten Spielen nutzt der viele Speicher der ATI Karte weniger, aber wer weiss denn bei den Spielen, die noch rauskommen müssen? Weiss du es?

Dass die ATI Karte weniger Speicher braucht erklärt, wieso sie auch schneller ist. Denn ein Speicherzugriff kann sonst so schnell sein, aber es braucht Zeit.

Dass die 512Mb auch bei Nvidia recht wenig nutzen, zeigt ja dieser Test. Auch wenn die Nvidia Karte diesen Speicher mehr ausnutzt als ATI, der Performancegewinn ist mehr als dürftig und rechtfertigt bis jezt bei diesen Spielen nicht den Kauf.

Gruss
 
Ich bin verwirrt, oder vielleicht auch einfach nur zu doof zum lesen ;-), in welchen Tests wurde die GTX512 verglichen, nur beim VRAM Teil oder in allen Disziplinen?

(Verdammte nVIDIA-Idee mit dem "GTX 512MB" für die Ultra. :freak:)
 
bensen schrieb:
@48
welches spiel wurde denn für nv entwickelt?
richtig gar keins

man hätte ja noch q4 und cod dazu nehmen können
die sind aber nicht für nv optimert worden, sondern nutzen einfach opengl, was den atis net so liegt

völlig falsch.
die nutzen beides !
 
bu.llet schrieb:
völlig falsch.
die nutzen beides !
OpenGL und Direct3D gleichzeitig?
Da kann ich nur sagen, völlig falsch, wie soll das auch gehen?
Oder reden wir jetzt aneinander vorbei? Quake ist OpenGL und COD2 ist Direct3D.

Und die GTX 512 haben wir nur im Speichervergleich benutzt.
 
Glaub ich net den ein Treiber kann sich net ma schnell einfach ma so viel leistung aus den Fingern saugen. Die gtx512 hat immo keine Gegener selbst wenn ATI neue Treiber raus bringt
 
@ Dominator:

Bist du irgendwie zu bl*d den "Antworten"-Button zu benutzen, oder warum quotest du jedesmal, entweder den verherigen Post :freak: (was eh nicht gesehen werden will!), oder du zitierst sonst einen ganzen Post, wobei sich deine Antwort nur auf ein Teil davon bezieht. Vllt solltest du das nochmal üben bzw. überdenken. :p :p ;)

@ Topic:

Wurde größtenteils eh schon alles gesagt. :D

Bin aber auf den Refreshchip des R520, den R580, gespannt. Mal sehen ob ATi bzw. TSMC den 90nm-Prozess dann besser unter Kontrolle haben. :)


Bye
 
Zurück
Oben