AGP Karte für 150 euro die 100te

spr

Lieutenant
Registriert
Juni 2003
Beiträge
945
Hi

wie gesagt suche ich eine AGP Karte als Austausch für eine alte FX5500 in einem p4 2,8ghz und 1,5gig ram.
habe mir mal einige threads durchgelesen aber bin nicht wirklich zu einem entschluss gekommen.
momentan tendiere ich zu so etwas in der art:
http://www.mad-moxx.de/shop/articleDetail.jsf?articleId=1005.10315
zumal die Karte sm3.0 hat und gut schnell ist. der overclockzusatz+pipelines und lüfter rechtfertigen da finde ich auch den preis. die frage ist ob es sich lohnt.. ob es nicht was anderes von der leistung her gibt...

ansonsten hätte ich noch ne x1600 pro im auge.. aber da hat die 6800xt mehr power oder? dafür halt nur 128mb anstatt 256mb.
ja und dann gibs ja noch die x800 teile (gto etc). welche aber keinen sm3.0 haben.

hab mir auch etliche vergleichsbenchmarks angesehen, aber meist hat immer irgendein kartenmodell dabei gefehlt um einen guten vergleich von der leistung zu bekommen.

also was für karten würdet ihr mir raten für um die 150 euro (30 euro hin oder her)?
einmal mit, einmal ohne sm3.0?

danke schonmal
(bin echt am verzweifeln bei dem ganzen graka dschungel)
 
AW: AGP Karte für 150 euro die 100te :x

Die Karte von Mad-Moxx ist schon ok, sehr leise ist sie außerdem.

Zum Preis vom ca. 150Euro fällt mir nur noch die X800GTO ein (ca. 159 Euro).
Die X1600Pro ist deutlich langsamer als die 6800XT@Mad-Moxx.

Wobei für 179Euro schon eine 6800le @16Pipes bei Mad-Moxx inkl. leiser Kühler auch rult.
http://www.mad-moxx.de/shop/articleDetail.jsf?articleId=1005.10305
 
AW: AGP Karte für 150 euro die 100te :x

Ich steh vor dem gleichen Problem...:(

Hast Du meinen Thread gelesen?

Ich tendiere wg SM3.0 zu einer 6800er, aber auch wg dem geringen Stomverbrauch unter last und der damit verbundenen Möglichkeit passiv zu kühlen...;)
 
AW: AGP Karte für 150 euro die 100te :x

Hier mal ein kleines Review über die x800 gto von Club 3D.

@ Stummerwinter
Hast du eine Ahunung wieviel Performance HDRR kostet.
Denn das wäre für mich bis der einzige Kaufgrund einer SM 3.0 Karte. Wenn es jedoch viel Performance kostet, dann bringt dir das SM 3.0 bei der 6800 auch nicht wirklich was.
(Mir ist schon klar, dass das SM 3.0 nur indirekt mit HDRR zu tun hat ;))
 
AW: AGP Karte für 150 euro die 100te :x

SM3.0 hat mit HDRR wenig zu tun. HDRR kann im prinzip jede grafikkarte mit DIRECTX9, d.h. ab SM2.0.
nur "ältere" karten brechen dabei sehr schnell in der performance ein.
ich spekuliere jetzt einfach mal, das SM3.0 fähige karten bessere performance bei HDRR haben als karten mit SM2.0(b).
(also nicht einfach glauben)

laut benchmarks kostet HDRR ohne AA/FA so gut wie keine performance.
bei aktiviertem AA/FA (auf max. stufe) gehen um die 1/3 an leistung drauf.

was mich verwirrt ist.. man liest oft davon, das nvidia karten (7xxx) kein AA bei aktiviertem HDRR können, ATI karten (ab x1x00) können es aber.
dann bin ich auf den benchmark gestoßen:
http://www.amdzone.com/modules.php?...s&file=index&req=viewarticle&artid=195&page=4
.. jetzt weis ich auch nicht was ich glauben soll..
weis auch nicht ob die x800er reihe und 6800er modelle überhaupt in der lage wären HDRR mit AA darzustellen, wenn es geht, da es ja alte modelle sind.

@stummerwinter
ja, habe deinen thread gelesen
aber wie man sieht bin ich immer noch bei ergebnis = :freak:
 
@seppuku
wenn du zeit und lust hast würde ich dich gerne bitten mal zu testen ob du bei einem der folgenden spiele in dem artikeln ganz unten in der tabelle in der mitte (sm2.0 hdrr) hdrr mit Antialiasing aktivieren kannst und wie das spiel einbricht.
http://en.wikipedia.org/wiki/HDRR
wäre echt sehr interessant.
vorrausgesetzt natürlich, du hast eines der games :)
aber wie gesagt, musst nicht machen.
 
@ spr

Also echtes HDRR kann bis jetzt keine aktuelle Karte, da es eine Genauigkeit von 32 Bit pro Kanal vorschreibt.
Die Geforce 6 und 7 und die Radeon X1xxx haben eine Genauigkeit von 16bit.
Im Grunde haben also alle SM 3.0 Karten eine Genauigkeit von 16bit. Deswegen habe ich geschrieben, dass es indirekt damit zuammen hängt ;).
Alle anderen DirectX 9 Karten haben eine Genauigkeit von 8 bit und müssen z.B. in Lost Cost die HDRR-Effekte (höchstwahrscheinlich) simulieren.

Zumindest ist das so oder ähnlich auf der deutschen Wikipediaseite gestanden.
Ich werde den ausführlicheren englischen Artikel mir mal am Wochenende zu Gemüte führen.

Wenn z.B. ein Spiel jetzt aber eine Genauigkeit von 16bit "vorschreibt", dann dürfte es ja auf den alten Karten, die nur eine Genauigkeit von 8 bit beherrschen, nicht laufen, oder?


In Oblivion kann ich mit der GTO HDRR nicht anstellen. Bloom schon!
Wenn HDRR aber hier genauso viel Performance kostet wie in HL2: Lost Coast, dann macht es auch nicht wirklich Sinn, da sonst die Framerates um ca. 40% einbrechen würden.

Edit:
In Call of Duty 2 und Age of Empires 3 kann ich mich nicht erinnern, dass mir eine HDRR Option angeboten wurde.
Wenn ich aber das WE nach Hause komme, dann kann ich nocheinmal darauf achten.
 
Zuletzt bearbeitet:
Es gibt verschiedene Methoden das HDRR zu berechnen. In diesem Fall wird FP16 Blending (floating Point) verwendet, welches Nvidia nicht mit AA betreiben kann. Dies ist ein HW Problem und wird wohl auch nicht durch Patches zu flicken sein....Warten auf die 8er Reihe.

Valve's Source Engine benutzt die Integer Methode welche Nvidia auch mit zugeschaltetem AA darstellen kann...

das beantwortet wohl meine frage zu dem benchmark oben :rolleyes:

...

um zurück zum thema zu kommen:
die frage ist wohl:
"performance oder qualität?"
da es eine karte um die 150 euro ist und deswegen bei aktuellen spielen mit vollen details und features sowieso nicht auf eine angenehme leistung kommen sollte, tendiere ich mehr in richtung performance.
leider gibt es in dem segmnet keinen alleskönner der auch noch ultra schnell ist.
wenn man also eine ATI karte nehmen wollte, nur damit das spiel mit HDRR+AA läuft, würde das zwar gehen, aber die performance wäre wiederum schlecht.
damit fällt die wahl eigentlich direkt auf die 6800er. zumal sie sm3.0 hat und die performance im bereich der anderen karten liegt.

ich habe leider bis jetzt keinen benchmark gefunden in dem alle drei karten aufgeführt sind. vielleicht weis ja jemand einen.
im genauen zu den grafikkarten: x1600pro, geforce 6800xt (oc'ed?), x800gto
 
Zuletzt bearbeitet:
Die bunten Balken sind klar, schlauer bin ich aber dadurch auch nicht...:(

Sind das nur PCIe-Karten, ist mir nicht ganz klar?

Wenn ja, stellt sich die Frage, obe das übertragbar auf AGP ist.

BTW @ spr: kleiner, nutze den Ändern-Button rechts unten und Poste nicht doppelt, das gibt haue von den Mods...;)
 
danke, großer ;)

es sind durchgehend PCIe karten. aber ich denke das relative ergebnis sollte sich auf AGP übertragen lassen oder?
 
Sofern die Taktraten gleich sind, gibt es keinen Unterschied.
Die 6600gt und die 6800gs haben als PCIe-Variante z.B. höhere Taktraten als ihre AGP Pendants.
 
Zuletzt bearbeitet:
also nach ein paar weiteren recherchen hab ich es mal folgendermaßen eingegrenzt:

radeon x800 (gto)
performance platz 1, sm2, 256MB, kein HDR+AA (außer bei HL2 Technik), 150 euro

geforce 6800 (xt)
performance platz 2, sm3, 128MB, kein HDR+AA (außer bei HL2 Technik), 130 euro

radeon x1600 pro
performance platz 3, sm3, 256MB, HDR+AA möglich, 115 euro

man könnte sagen es ist eine reine geschmackssache.
 
Da ich mir ne schnellere zugelegt habe (ATI X 850 XT ) hätte ich hier noch ne Leadtek 6800 LE (vergleichbar mit der 6800 XT ) 128 Mb mit über den RivaTuner freigeschalteten 16 Pixelpipes & 6 Vertexshadern anzubieten.. Außerdem ist auch noch ein NV Silencer verbaut ( wie bei der von Mad Moxx - leise & kühl) Sie produziert KEINE Grafikfehler 100%ig von mir garantiert (wenn sie Fehler produziert nehme ich sie zurück) ... Overclocken kannst du sie bis 360 Chip & 860 Mhz Speicher...Würdest du deutlich günstiger als die MadMoxx Grafikkarte bekommen ... 165 Euro inclusive Porto versichert... Interesse ?

Performt deutlich schneller als die X800GTO......

Grüße
Thomas
 
Zuletzt bearbeitet:
Zurück
Oben